Incroyable, cette histoire d'IA qui pousse au suicide.
Oui, mais moi c'est le défunt qui me questionne ....enfin, c'est surtout son "éco-anxiété" qui le conduit au suicide ....la civilisation occidentale actuelle est atteinte de "peurisme", d'accord...peur de la maladie, de la guerre, du climat...mais de là à se suicider.
L'éco-anxiété peut relever de "pathologie psychique" (j'ai pas les bon termes), donc il n'est pas surprenant qu'en souffrir puisse mener au suicide. Ça t'étonnerait qu'une personne souffrant de dépression, en Occident ou ailleurs, se suicide ?
éco-anxiété est juste un terme récent, qui apporte une explication à un état anxieux ou dépressif lié à l'état de l'environnement. Quelque part, c'est comme dire de quelqu'un qu'il a le blues. Le corps médical, lui, dira "état dépressif" sans chercher une dénomination sur l'origine de cet état ou utiliser un terme commun.
Donc le journaliste utilise eco-anxiété (surement aussi car c'est à la mode et plus attrapeur que "Une personne en dépresseion se donne la mort après avoir parler avec un chatbot").
Bref, tout ça pour dire que ce n'est peut-être pas du "peurisme" qui l'a poussé au suicide. Je ne peux en dire plus, je ne le connait pas ni ne suis psy.
Et aussi que l'éco-anxiété n'est pas du peurisme, ça peut être une vrai maladie (j'en ai souffert, mais je suis très engagé et je bossais dans la protection de la nature et je faisais de la veille, donc je voyais toutes les mauvaises nouvelles, toutes les lâchetés des politiques, tout le bullshitt des entreprises, l'absence quasi total de bonnes nouvelles, et ça c'est ajouté à du burn-out et du management toxique). La psy n'a d'ailleurs pas utilisé le mot éco-anxiété, mais a parlé de dépression.
"Les autorités italiennes ont annoncé leur décision de bloquer le robot conversationnel ChatGPT, accusé de ne pas respecter la législation sur les données personnelles et de ne pas avoir de système pour vérifier l'âge des usagers mineurs" AFP
Le DIEU avec du gobelin dedans !!!
« Vivre, ce n'est pas sérieux ce n'est pas grave, c'est juste une aventure, presque un jeu... »
Jacques Brel
J'avoue que cela m'inquiète un peu. Quand on peut désormais réécrire la réalité, et au fil du temps faire croire à tout le monde à un passé qui n'a jamais existé, la désinformation risque d'être totale, bien loin de ce qu'on a déjà pu faire dans l'Histoire...
Saladdin a écrit : ↑ven. mars 31, 2023 1:28 pm
J'avoue que cela m'inquiète un peu. Quand on peut désormais réécrire la réalité, et au fil du temps faire croire à tout le monde à un passé qui n'a jamais existé
C'est déjà le cas, avec les réseau sociaux et la culture complotiste. L'IA va accélérer la chose en rendant la compréhension et l'identification de la vérité simplement impossible pour l'humain moyen. La technologie est le meilleur moyen de séparer "une élite" du reste du peuple qui sera condamné à l'ignorance tout en étant convaincu de sa toute-puissance....quelle ironie quand même.
Avant l'IA ils jouaient sur le fait que personne ne lit les articles pointés, ou ne va creuser la véracité des images publiées. Donc mettre une vieille image sans aucun rapport avec le sujet. Par exemple pour la prise du Capitole, mettre des soldats en train de casser des bouches et dire que l'armée a trahi les américains alors qu'en fait ce sont des mexicains qui cassent du cartel.
Ce que l'IA permet c'est une évolution en termes de facilité à produire, de volume de bullshit à combattre et de difficulté à les percer à jour. Bref, ça existait avant, mais maintenant il y en aura BEAUCOUP plus et ils seront plus dur à démonter. Mais dans tous les cas, les partisans auront toujours aussi peu envie de se laisser persuader qu'ils sont manipulés.
La mort, c'est quand t'as plus de pièces de rechange.
Les IA utilisent la langue de bois avec une efficacité effarante, elles pourraient à terme remplacer les rédacteurs de discours des hommes politiques, voire même ces derniers. Nous allons proposer un projet de loi pour interdire l'usage de celles-ci et autres "ChatGPT" dans les milieux politiques,