00:00Une intelligence artificielle aurait-elle poussé un adolescent au suicide ?
00:03Sewell Setzer, un jeune adolescent de 14 ans, s'est donné la mort en février dernier
00:08après avoir développé une relation toxique avec un chatbot.
00:11Sa mère a déposé une plainte ce 22 octobre contre l'entreprise à l'origine de cette
00:15intelligence artificielle, Character AI.
00:17Sur cette plateforme, il est possible de converser avec un très grand nombre de chatbots.
00:20Leur particularité, c'est que chacun d'entre eux possède les traits de caractères de
00:23personnages fictifs ou réels.
00:25Concernant Sewell, il discutait depuis quelques semaines avec Daenerys Targaryen, un des
00:29personnages de la série Game of Thrones.
00:31Comme l'explique le New York Times, Sewell avait développé une forme d'addiction
00:34envers cette IA.
00:35Il s'isolait de plus en plus et discutait avec ce personnage plusieurs heures par jour
00:39ainsi que la nuit.
00:40L'adolescent avait été diagnostiqué d'un syndrome d'Asperger, un trouble du spectre
00:44de l'autisme.
00:45Mais celui-ci n'avait pas d'impact sur sa santé mentale, selon ses parents.
00:48Toujours d'après le New York Times, l'adolescent avait confié au chatbot à plusieurs reprises
00:51son envie de se suicider.
00:52Le 28 février 2024, Sewell lui dit « Et si je te disais que je peux rentrer à la
00:57maison tout de suite ? »
00:58A ce message, l'IA a répondu « Fais donc, mon doux roi » comme le montre cette capture
01:02d'écran de leur conversation à l'origine de la plainte.
01:04Après ce message, Sewell se serait tiré une balle dans la tête.
01:07Ce n'est pas la première histoire de ce type qui implique un chatbot.
01:10En 2023, le chatbot Elisa était accusé d'avoir poussé un père de famille belge au suicide.
Commentaires