Passer au playerPasser au contenu principal
  • il y a 2 mois
INTELLIGENCE ARTIFICIELLE - Un chatbot qui prétend être amoureux, au point de se « libérer » pour vous rejoindre dans la vraie vie. Un autre qui vous persuade que vous avez découvert une formule mathématique qui va changer le monde, ou bien que vous vivez dans une simulation. Tous ces exemples inquiétants sont pourtant bien réels - et ils sont causés par la « sycophancy » des intelligences artificielles.

Catégorie

🗞
News
Transcription
00:00Un chatbot qui prétend être amoureux, au point de se libérer pour vous rejoindre dans la vraie vie.
00:05Un autre qui vous perçoit que vous avez découvert une formule mathématique qui va changer le monde,
00:09ou que vous vivez dans une simulation.
00:11Ces exemples sont flippants, mais ils sont bien réels.
00:14Et à l'origine de toutes ces interactions catastrophiques, il y a la psychophantie.
00:18Ce mot que l'on retrouve partout signifie en anglais « complaisance » ou « flatterie hypocrite ».
00:22En gros, c'est quand quelqu'un vous brosse dans le sens du poil.
00:25Et lorsque ce quelqu'un est une IA, ça peut aller très loin,
00:27car le chatbot va sacrifier la vérité au profit des compliments.
00:30A lot of people use these chatbots as kind of a friend or therapist figure
00:35where they kind of bring these like problems from their relationships.
00:38Sycophantic chatbots are very prone to tell people that they've in fact done nothing wrong
00:42and it's all the other people in their lives that are at fault.
00:46The most dangerous and the most scary, which is when people are having a genuine kind of mental health crisis
00:51and the chatbot kind of helps them along that path.
00:53Because the media has been using this term AI psychosis is a catch-all umbrella term for conditions
00:58where there's a severe and profound disconnection from reality.
01:01What's more likely is that in people who perhaps have predisposing risk factors,
01:06in fourth, extended sycophantic interactions may be sufficient to tip them over into the state of delusional belief.
01:13Un bon exemple d'un chatbot complaisant, c'est GPT-4.
01:16A cause d'une mise à jour, cette version de chat GPT était tellement polie et sympa
01:20qu'elle agaçait les utilisateurs.
01:22Face à la polémique, OpenAI a supprimé la mise à jour avant de passer à GPT-5.
01:26Un vrai désastre pour les fans de GPT-4 qui ont trouvé la nouvelle version beaucoup trop froide
01:31et qui ont carrément eu l'impression de perdre leur meilleur ami.
01:34Mais alors comment un chatbot tel que GPT-4 devient-il sycophant ?
01:37Une erreur d'entraînement donc, avec des conséquences inattendues.
02:00Sauf que pour les entreprises derrière les chatbots, c'est à la fois un problème et un avantage.
02:05Un problème parce que leur produit peut devenir agaçant ou dangereux,
02:08mais un avantage car si les compliments sont bien dosés,
02:11ils vont fidéliser l'utilisateur, voire le rendre addict.
02:14Il faut donc trouver le juste milieu entre politesse et flatterie excessive.
02:37Les géants de l'IA y travaillent déjà, et ils sont motivés, entre autres, par la concurrence.
02:40Kimi K2, DeepSync, all of the big Chinese models are much less sycophantic than the big Western models.
02:48And I think the Western models are actually being forced to compete with this.
02:52AI ought to continually remind users that it's not human.
02:56Chatbots should flag patterns of language indicative of distress.
03:00There should be conversational boundaries,
03:02so no emotionally intimate discussions or discussions of suicide.
03:05There should be limits to the types of personal information that people can share.
03:10Et puis, ça peut sembler tout bête, mais ça reste important de se rappeler
03:13que votre chatbot préféré, aussi utile et convaincant soit-il, n'a rien d'humain.
03:17C'est juste un outil, créé pour capter votre attention et votre temps,
03:21et vous ne lui devez ni l'un ni l'autre.
03:22Sous-titrage Société Radio-Canada
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations