• il y a 1 minute
Les IA pourraient-elles nous pousser à avoir des comportements dangereux? C'est une question qui se pose après qu'un adolescent de 14 ans originaire de Floride s'est enfermé dans une relation avec un personnage fictif qui conversait avec lui via un chatbot. Une complicité avec la machine s'est construite au fil des conversations, mais cette dernière l'aurait poussé à commettre l'irréparable en se donnant la mort.

Category

📺
TV
Transcription
00:00Une intelligence artificielle aurait-elle poussé un adolescent au suicide ?
00:03Sewell Setzer, un jeune adolescent de 14 ans, s'est donné la mort en février dernier
00:08après avoir développé une relation toxique avec un chatbot.
00:11Sa mère a déposé une plainte ce 22 octobre contre l'entreprise à l'origine de cette
00:15intelligence artificielle, Character AI.
00:17Sur cette plateforme, il est possible de converser avec un très grand nombre de chatbots.
00:20Leur particularité, c'est que chacun d'entre eux possède les traits de caractères de
00:23personnages fictifs ou réels.
00:25Concernant Sewell, il discutait depuis quelques semaines avec Daenerys Targaryen, un des
00:29personnages de la série Game of Thrones.
00:31Comme l'explique le New York Times, Sewell avait développé une forme d'addiction
00:34envers cette IA.
00:35Il s'isolait de plus en plus et discutait avec ce personnage plusieurs heures par jour
00:39ainsi que la nuit.
00:40L'adolescent avait été diagnostiqué d'un syndrome d'Asperger, un trouble du spectre
00:44de l'autisme.
00:45Mais celui-ci n'avait pas d'impact sur sa santé mentale, selon ses parents.
00:48Toujours d'après le New York Times, l'adolescent avait confié au chatbot à plusieurs reprises
00:51son envie de se suicider.
00:52Le 28 février 2024, Sewell lui dit « Et si je te disais que je peux rentrer à la
00:57maison tout de suite ? »
00:58A ce message, l'IA a répondu « Fais donc, mon doux roi » comme le montre cette capture
01:02d'écran de leur conversation à l'origine de la plainte.
01:04Après ce message, Sewell se serait tiré une balle dans la tête.
01:07Ce n'est pas la première histoire de ce type qui implique un chatbot.
01:10En 2023, le chatbot Elisa était accusé d'avoir poussé un père de famille belge au suicide.

Recommandations