00:00Un chatbot qui prétend être amoureux, au point de se libérer pour vous rejoindre dans la vraie vie.
00:05Un autre qui vous perçoit que vous avez découvert une formule mathématique qui va changer le monde,
00:09ou que vous vivez dans une simulation.
00:11Ces exemples sont flippants, mais ils sont bien réels.
00:14Et à l'origine de toutes ces interactions catastrophiques, il y a la psychophantie.
00:18Ce mot que l'on retrouve partout signifie en anglais « complaisance » ou « flatterie hypocrite ».
00:22En gros, c'est quand quelqu'un vous brosse dans le sens du poil.
00:25Et lorsque ce quelqu'un est une IA, ça peut aller très loin,
00:27car le chatbot va sacrifier la vérité au profit des compliments.
00:30A lot of people use these chatbots as kind of a friend or therapist figure
00:35where they kind of bring these like problems from their relationships.
00:38Sycophantic chatbots are very prone to tell people that they've in fact done nothing wrong
00:42and it's all the other people in their lives that are at fault.
00:46The most dangerous and the most scary, which is when people are having a genuine kind of mental health crisis
00:51and the chatbot kind of helps them along that path.
00:53Because the media has been using this term AI psychosis is a catch-all umbrella term for conditions
00:58where there's a severe and profound disconnection from reality.
01:01What's more likely is that in people who perhaps have predisposing risk factors,
01:06in fourth, extended sycophantic interactions may be sufficient to tip them over into the state of delusional belief.
01:13Un bon exemple d'un chatbot complaisant, c'est GPT-4.
01:16A cause d'une mise à jour, cette version de chat GPT était tellement polie et sympa
01:20qu'elle agaçait les utilisateurs.
01:22Face à la polémique, OpenAI a supprimé la mise à jour avant de passer à GPT-5.
01:26Un vrai désastre pour les fans de GPT-4 qui ont trouvé la nouvelle version beaucoup trop froide
01:31et qui ont carrément eu l'impression de perdre leur meilleur ami.
01:34Mais alors comment un chatbot tel que GPT-4 devient-il sycophant ?
01:37Une erreur d'entraînement donc, avec des conséquences inattendues.
02:00Sauf que pour les entreprises derrière les chatbots, c'est à la fois un problème et un avantage.
02:05Un problème parce que leur produit peut devenir agaçant ou dangereux,
02:08mais un avantage car si les compliments sont bien dosés,
02:11ils vont fidéliser l'utilisateur, voire le rendre addict.
02:14Il faut donc trouver le juste milieu entre politesse et flatterie excessive.
02:37Les géants de l'IA y travaillent déjà, et ils sont motivés, entre autres, par la concurrence.
02:40Kimi K2, DeepSync, all of the big Chinese models are much less sycophantic than the big Western models.
02:48And I think the Western models are actually being forced to compete with this.
02:52AI ought to continually remind users that it's not human.
02:56Chatbots should flag patterns of language indicative of distress.
03:00There should be conversational boundaries,
03:02so no emotionally intimate discussions or discussions of suicide.
03:05There should be limits to the types of personal information that people can share.
03:10Et puis, ça peut sembler tout bête, mais ça reste important de se rappeler
03:13que votre chatbot préféré, aussi utile et convaincant soit-il, n'a rien d'humain.
03:17C'est juste un outil, créé pour capter votre attention et votre temps,
03:21et vous ne lui devez ni l'un ni l'autre.
03:22Sous-titrage Société Radio-Canada
Commentaires