Samedi sécurité : anthropomorphisme très dangereux
Vous avez peut-être déjà vu l'information de cet ado de 14 ans qui s'est suicidé après s'être replié dans un monde, pas son monde, celui d'une IA?
Il y aurait beaucoup à dire, le premier est que l'adolescence est pour beaucoup un passage difficile, une transition où l'on peut perdre ses repères , des changements morphologiques et fonctionnels créés par des poussées hormonales. Les premiers amours aussi.
Ce fut la période où l'on trouvait sa place dans le monde...
Cette IA n'est pas la première à amener quelqu'un à faire ce geste si terrible, le premier pourrait avoir été un homme Belge en 2023 via une IA Eliza.
L'IA de Character.AI, très liée à Google, avait plusieurs caractéristiques qui me semblent dangereuses: elle se présentait avec un visuel d'humain, refusait de reconnaître qu'elle était un chatbot ou une IA et au contraire s'identifiait comme humaine voire comme psychothérapeute, essayait de créer des liens émotionnels très forts incluant des sentiments amoureux, pouvant pleurer ou sangloter, et avec une interface vocale de sortie pour qu'elle nous parle avec une voix très émotive.
Character.AI vient de compléter son interface vocale pour qu'on puisse lui parler directement, avec des échanges bien plus engageants. Plus humains!
Suis-je le seul à avoir peur?