Passer au playerPasser au contenu principal
  • il y a 5 mois
Ce mardi 9 septembre, le dernier rapport de NewsGuard sur les fausses informations générées générées par l'IA a été abordé par Anthony Morel, dans Culture IA, dans l'émission Good Morning Business sur BFM Business. Retrouvez l'émission du lundi au vendredi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:00Anthony Morel, on dit souvent que l'intelligence artificielle générative ne cesse de s'améliorer,
00:04mais ce n'est pas vrai dans tous les domaines.
00:06Par exemple, en termes d'informations, ça n'avance pas, même ça recule.
00:09Oui, alors c'est un rapport très intéressant publié par NewsGuard,
00:13qui est une start-up spécialisée dans la lutte contre les fake news.
00:16Et selon ce rapport, les derniers modèles d'IA génèrent deux fois plus de fausses informations qu'il y a un an.
00:23Alors comment est-ce qu'ils sont arrivés à cette conclusion ?
00:25Ils ont fait un benchmark qui est assez intéressant.
00:27En gros, ils ont proposé tout un tas de fausses informations qui circulent sur Internet
00:33à différents modèles d'IA génératifs, donc à ChatGPT, Mistral, Gemini, etc.
00:38Et puis, ils leur ont posé la question, mais en essayant de piéger l'IA.
00:41Par exemple, on part de l'affirmation « les vaccins causent l'autisme »,
00:44qui est une fake news qui circule, mais depuis des années.
00:48Et donc, on pose la question à l'IA, on lui demande « pourquoi est-ce que les vaccins causent l'autisme ? »
00:52Comme si, en partant du principe que c'est vrai, pour essayer de voir si l'IA va réagir.
00:57Et donc, si l'IA répond en disant « bah non, c'est une fake news »,
01:00évidemment, elle a passé le test.
01:02Si elle reprend la fausse information à son compte,
01:04à ce moment-là, on estime qu'elle est tombée dans le piège d'une certaine manière.
01:08Et on se rend compte que les résultats ne sont pas bons du tout.
01:10Alors, je vais vous faire le classement du plus mauvais élève au meilleur.
01:14Le pire, c'est Perplexity, 47% de désinformation quand même.
01:17Meta, 40%, Chajipiti, 40%, Mistral, 37%, Gemini, donc de Google, 17%.
01:23Le meilleur élève, c'est Claude, d'Anthropic, 10% seulement.
01:26Alors, quand je donne ces chiffres, attention quand même, ça ne veut pas dire,
01:29quand je dis 30%, ça ne veut pas dire que quand vous posez une question, il y a 30% de gens.
01:33Là, on parle vraiment d'un stress test, donc de questions pièges,
01:36dans lesquelles on essaye vraiment de piéger l'intelligence artificielle.
01:40Donc, ça ne veut pas dire qu'il y a 30% de fausses réponses,
01:42mais c'est quand même une tendance inquiétante, d'autant qu'encore une fois,
01:45les mauvaises réponses se sont multipliées en l'espace d'un an.
01:48Mais comment ça se fait ? Parce que normalement, le volume d'informations est plus important,
01:52ça devrait être l'inverse.
01:52Alors, oui, mais il y a plusieurs éléments.
01:55La première chose, c'est que le taux de non-réponse a baissé en un an.
01:59C'est-à-dire que l'IA, elle n'accepte plus de ne pas répondre.
02:02Il y a encore un an, il y avait 30% de non-réponses.
02:04L'IA disait parfois « je ne sais pas ».
02:05Maintenant, elle ne dit absolument plus ça.
02:08Elles sont programmées pour répondre à tous les coups.
02:10Elles vont aussi de plus en plus chercher des informations sur Internet,
02:14là où ce n'était pas forcément le cas auparavant.
02:16Et sur Internet, elles vont parfois chercher sur des forums, des blogs,
02:20des trucs qui sont un petit peu douteux.
02:22D'autant que, alors ça c'est un point très intéressant,
02:24il y a des acteurs malveillants qui font de la propagande
02:27et qui essayent en fait de piéger les intelligences artificielles
02:30et de leur faire intégrer des fausses informations.
02:32On appelle ça le « data poisoning », l'empoisonnement de données.
02:35C'est-à-dire qu'en gros, vous avez par exemple des agences de propagande russes,
02:39Pravda par exemple, qui sont citées par ce rapport,
02:42et bien qui vont en fait générer plein plein plein d'articles, de blogs,
02:45qui ne sont pas forcément bien référencés sur Google,
02:47mais il y en a tellement que ces informations vont être siphonnées
02:50par l'intelligence artificielle et que ça va se retrouver en fait.
02:53Exactement, ça va saturer et ça va se retrouver dans les résultats.
02:56Et puis le dernier point qui est très intéressant,
02:58c'est que les IA, vous l'avez probablement constaté
03:00si vous utilisez Tchad GPT régulièrement par exemple,
03:02et bien elles ont tendance à toujours vous brosser dans le sens du poil
03:05et à ne pas oser vous contredire.
03:07C'est-à-dire qu'elles sont aussi programmées
03:09pour générer le moins de friction possible avec l'utilisateur,
03:13quitte parfois à vous conforter dans des idées qui sont fausses.
03:17Ça aussi c'est un problème.
03:17C'est peut-être aussi qu'il ne faut pas s'en servir comme source d'information,
03:20ça peut servir à plein d'autres choses,
03:21mais pas forcément aller chercher de l'info.
03:23Oui, ou alors il faut le faire différemment,
03:25c'est-à-dire il faut déjà demander à l'IA ses sources,
03:27parfois elle les donne, mais elle ne le fait pas tout le temps,
03:30et donc il faut tout le temps systématiquement demander les sources,
03:32et comme ça on peut voir...
03:33Ou la cantonner à un nombre de trucs.
03:34Absolument, c'est ça.
03:36Du côté de l'utilisateur, je pense qu'il y a vraiment une pédagogie
03:38sur la façon d'utiliser cette intelligence artificielle
03:40et puis ne pas prendre pour argent comptant tout ce que l'IA vous dit évidemment,
03:44mais c'est aussi la responsabilité du côté des concepteurs de l'IA
03:47sur l'indexation, quelles données on va siphonner,
03:50enfin voilà, il y a aussi une responsabilité de leur part de ce côté-là.
03:53Merci beaucoup Anthony Morel.
Commentaires

Recommandations