Passer au playerPasser au contenu principal
  • il y a 6 minutes
Regardez C'est notre époque avec Thomas Sotto du 07 mai 2026.

Catégorie

🗞
News
Transcription
00:05C'est notre époque à 9h12 sur RTL et un sujet qui nous inquiète tous.
00:10Je l'ai vu de mes yeux vus, pendant longtemps c'était la preuve suffisante pour s'assurer que quelque
00:13chose était bien réel.
00:14Sauf qu'avec l'IA, l'intelligence artificielle, avec l'épidémie mondiale de fake news, on n'est plus sûr
00:19de rien.
00:20Qui croire ? Quoi croire ? On va vous aider à surnager dans cet océan bien opaque.
00:24Et pour en parler et répondre aux questions que vous nous posez au 74 900 avec le mot clé matin,
00:28deux experts ce matin. Marion Carré, bonjour Marion Carré.
00:31Bonjour.
00:31Présidente d'ASC Mona, qui est une entreprise qui développe des dispositifs d'intelligence artificielle,
00:36prof à Sciences Po et auteur du Paradoxe du tapis roulant chez JC Lattès.
00:40Et Thomas Huchon, bonjour Thomas.
00:42Bonjour Thomas.
00:42Journaliste, spécialiste des fake news. Vous venez de publier d'ailleurs,
00:45résister aux fake news, comment faire face aux théories du complot les plus courantes ?
00:49C'est chez First Edition.
00:50Première question, c'est Margot, une auditrice.
00:52Ma mère m'envoie beaucoup de vidéos sur Facebook et Instagram faites par l'IA.
00:55Elle pense qu'elles sont réelles. Comment je peux l'aider pour qu'elle sache repérer une fausse vidéo ?
01:01Vous voulez y aller Marion ?
01:02Alors, c'est de plus en plus difficile d'avoir les petites astuces,
01:06parce qu'effectivement il y a quelque temps on pouvait parler de compter le nombre de doigts.
01:10Et alors, il y a encore une esthétique qui est particulière,
01:12mais qui je pense va très vite s'effacer.
01:14Donc j'ai l'impression que c'est un enjeu déguisé à un sens critique plus global,
01:18ou juste d'accepter qu'on ne peut plus croire ce qu'on voit,
01:22et pas forcément chercher toujours à chaque image à comprendre ce qu'il y a derrière.
01:26C'est vertigineux de dire qu'il ne faut plus croire ce qu'on voit Thomas Huchamp ?
01:29En réalité, c'est la nouvelle donne d'une drôle d'époque dans laquelle nous sommes aujourd'hui.
01:35Et en fait, tout ça est allé très très vite.
01:37Ce qui est très perturbant, c'est qu'en fait on avait un peu l'impression
01:40qu'on pouvait faire confiance à un certain nombre de sources d'informations
01:43il y a encore quelques années, quelques mois, quelques jours,
01:46et qu'aujourd'hui on serait totalement perdu.
01:48C'est un peu plus compliqué que tout ça.
01:50Mais effectivement, il y a quelque chose qu'on peut se dire.
01:52Le premier truc qu'on peut se dire, c'est que
01:54si on a envie de croire à quelque chose
01:57qu'on voit passer sur les réseaux sociaux
01:58et qu'on se fait piéger par une fake news,
02:00c'est souvent parce qu'on a un peu envie justement d'y croire.
02:03C'est-à-dire que le premier ennemi...
02:04Mais ce n'est pas forcément conscient ça, c'est ça le problème.
02:06Non, mais ça veut dire qu'il faut avoir tous conscience qu'on a des préjugés,
02:09qu'on a des biais dans nos cerveaux,
02:11et qu'il faut avoir un peu l'humilité
02:13de lutter un peu contre nous-mêmes.
02:15Donc quand on a très très très très envie de croire à quelque chose
02:17qu'on va passer sur les réseaux sociaux,
02:19le premier réflexe c'est de se dire
02:20tiens, mes émotions vont très vite,
02:22est-ce qu'il ne faut pas que je réfléchisse un tout petit peu ?
02:24Donc prendre quelques secondes.
02:25Ce que vous décrivez, c'est le biais de confirmation,
02:28où finalement on voit des images qui nous confortent dans nos positions,
02:31et en fait on est dans une posture où on ne peut plus juste recevoir une image,
02:34on parle d'image, mais c'est un enjeu aussi avec du texte,
02:37avec de la voix...
02:37Avec des fausses interviews, avec...
02:40Exactement, c'est vraiment multidimensionnel,
02:42et donc on doit tous être un peu enquêteurs d'une certaine façon,
02:45pour aller rechercher les sources et d'où ça provient.
02:48Parce que le fait que ça parte de quelque chose de réel,
02:50c'est la base du complotisme ça Thomas Houchion,
02:51ça part toujours de quelque chose de vrai,
02:53et après on raconte une histoire bidon.
02:54Ah mais tous les êtres humains le savent,
02:55parce que tous les êtres humains ont à un moment eux-mêmes
02:57fait un petit mytho, un petit mensonge à quelqu'un d'autre.
03:00On sait tous que dans un mensonge, il y a une part de vrai.
03:03Et donc c'est cette petite part de vrai,
03:05qui en fait nous piège un peu
03:07quand on l'utilise pour fabriquer des mensonges,
03:11mais nous avons une responsabilité en tant qu'utilisateurs,
03:14effectivement, Margot se pose cette question-là,
03:17alors on pourrait lui dire quoi ?
03:18On pourrait lui dire, en 2023, compte tes doigts,
03:20parce que c'était effectivement le moment où les IA généraient des photos...
03:23Parce que les IA c'était pas très précis sur les doigts,
03:24ça a eu des mains à six doigts, des détails...
03:26Un certain nombre de gendarmes pendant des manifestations
03:30qui avaient six doigts pour tenir leur bouclier.
03:32En 2024, observe les flous,
03:34c'était le moment où il fallait regarder que les IA
03:37fabriquaient des photos ou des vidéos
03:38dans lesquelles les flous étaient très mal portés.
03:41Alors là, ça demandait un peu plus de compétences audiovisuelles,
03:43on va dire, d'observation, d'analyse de l'image.
03:462025, il fallait regarder ce qu'on appelle la synchronisation labiale.
03:49Ça veut dire le fait que...
03:51Et que les lèvres ne bougeaient pas en même temps que les mots.
03:53Exactement.
03:53C'était comme une vieille série américaine où c'était pas bien doublé.
03:55Pas en même temps, ou alors que ça ne correspondait pas aux mêmes mots.
03:57C'est-à-dire que quand vous êtes en train de faire un O,
03:59et aujourd'hui alors, qu'est-ce qu'il faut regarder ?
04:00Aujourd'hui, on est un petit peu plus dans la galère à chaque fois,
04:04mais je crois qu'il faut se dire un truc peut-être un peu bizarre,
04:07qui va peut-être surprendre vos auditeurs,
04:09c'est que la meilleure manière de vérifier
04:12qu'une vidéo a été ou pas fabriquée en IA,
04:14c'est de fermer les yeux.
04:16D'accord, pourquoi ?
04:17Et bien parce qu'en fait, on l'oublie que dans l'audiovisuel, il y a audio.
04:20Et que ce qui est le moins bien réussi encore aujourd'hui techniquement,
04:24c'est non pas la voix en tant que telle,
04:26on peut scanner la voix,
04:28ce sont les inflexions de la voix.
04:29Nos voix, elles sont très particulières,
04:31elles montrent de l'émotion,
04:32elles montrent tout un tas de choses,
04:33et ça, les IA ont encore du mal à le générer.
04:36Mais la voix est aussi un faux ami, malheureusement,
04:38parce que je peux très facilement,
04:39avec 20 secondes d'enregistrement, même moins,
04:42cloner votre voix,
04:43et donc appeler, je ne sais pas, votre mère,
04:45en me faisant passer pour vous,
04:46et en demandant quelque chose.
04:48Donc on est vraiment dans ce flou...
04:50On a fait ici sur une journée spéciale IA,
04:50on a ouvert la matinale,
04:52c'est l'IA qui parlait à ma place.
04:53Donc ils ont pris ma voix,
04:55je n'ai pas dit un mot de tout ça,
04:56tout le monde est tombé dans le panneau.
04:58C'est ça.
04:59Mais alors c'est quoi ?
04:59Parce qu'on se dit,
05:00est-ce que c'est l'émetteur aujourd'hui
05:01qui doit être le gage de confiance ?
05:03Si vous regardez TF1, France 2,
05:06vous écoutez RTL,
05:08vous regardez BFMT,
05:09vous dites, bah tiens,
05:09eux je leur fais confiance
05:10parce qu'ils sont sérieux.
05:12C'est un gage de quelque chose, ça ou pas ?
05:13En tout cas, ce qui est...
05:14Oui, normalement.
05:15Oui, nous, on vérifie.
05:16Je crois que s'il faut bien comprendre quelque chose,
05:18c'est que ce qui se passe à ce micro, Thomas,
05:20vous en êtes d'une certaine manière le responsable,
05:22comme l'antenne que vous représentez.
05:24Mais on peut se faire avoir aussi.
05:25On peut se faire avoir,
05:26mais la question n'est pas tant,
05:26est-ce qu'on peut se faire avoir
05:27que qui exerce la responsabilité
05:29de la parole portée ?
05:31La liberté d'expression, c'est génial,
05:33c'est merveilleux,
05:33mais il faut le conditionner au fait que
05:37quand on dépasse le cadre
05:38de cette liberté d'expression,
05:40il faut pouvoir rendre des comptes.
05:42Et donc, il faut qu'il y ait quelqu'un
05:44qui soit responsable de cette parole.
05:45Les plateformes numériques,
05:46où circulent ces contenus fabriqués
05:48en intelligence artificielle,
05:50n'assument pas cette responsabilité.
05:51Franchement, quand on regarde X,
05:53ex-Twitter,
05:54pour tout vous dire,
05:55ce débat de ce matin,
05:56il est parti de ça.
05:57On regarde X,
05:58on en parlait dans la rédaction,
05:58on dit mais c'est incroyable,
05:59on ne sait plus croire,
06:01on ne sait plus,
06:02on est paumé complètement.
06:03C'est quoi ?
06:04Il faut fermer le robinet,
06:05il ne faut plus regarder
06:05ou il y a encore quelque chose
06:06à sauver sur ces sites-là ?
06:07Alors, ce que vous décrivez,
06:09c'est le phénomène de chat et de la souris,
06:10où finalement, à chaque fois,
06:12on va plus loin
06:13et donc on a du mal à rattraper.
06:14Alors, il y a un certain nombre
06:15de techniques qui cherchent
06:16à lutter contre ça,
06:17avec notamment des filigranes
06:19sur comment est-ce qu'on peut
06:21altérer quelques pixels d'une image
06:22pour qu'on puisse détecter
06:24qu'elle a été générée par IA.
06:25On passe l'image dans une sorte
06:26de révélateur comme pour les faux billets ?
06:28En fait, c'est comme si on mettait
06:29une empreinte invisible
06:30à l'œil nu dans l'image
06:31et qu'on ne peut pas,
06:32même si je fais une capture d'écran,
06:33elle sera toujours présente
06:34pour pouvoir rendre identifiable
06:36cette image.
06:37Mais je pense que ça nous montre aussi
06:39plus que jamais
06:39l'importance des médias.
06:40Parce qu'effectivement,
06:41à une époque où tout le monde
06:42pouvait être son propre média,
06:43on se rend compte de l'importance
06:45de pouvoir s'appuyer sur des médias
06:46qui sont des sources
06:47dans lesquelles on peut avoir confiance
06:50pour pouvoir vérifier les informations.
06:51Donc, je dirais que la réponse,
06:52elle est multifactorielle,
06:53mais ça change quand même
06:55le rapport dans la confiance
06:56à l'information.
06:57Et ça, c'est une étude
06:58que j'avais,
06:59un papier scientifique
07:00que j'avais publié
07:01avec plusieurs chercheuses
07:01il y a quelques années.
07:02On était juste avant Tchad GPT.
07:04On s'était rendu compte
07:05que sur des textes,
07:06les gens étaient incapables
07:07de distinguer les vrais défauts.
07:09Certes, c'était déjà le cas
07:10avec GPT2,
07:11l'ancêtre des modèles
07:12derrière Tchad GPT.
07:13Mais ce qui changeait
07:14le plus profondément,
07:15c'est que dès lors
07:16que les gens savaient
07:17qu'ils étaient potentiellement
07:18exposés à des contenus
07:19générés par IA,
07:20ils n'avaient plus confiance
07:21en rien
07:22et ils avaient d'autant plus
07:25tendance à discriminer
07:26tout type d'images,
07:27même des images réelles.
07:28Il faut voir l'émetteur,
07:30des gens qui ont de la confiance.
07:31Si on prend un président
07:32de la République,
07:32un chef d'État,
07:33à priori on a confiance.
07:34Même le président des États-Unis
07:36utilise l'IA
07:36dans ses communications.
07:38Donald Trump.
07:38Le problème de Donald Trump,
07:40ce n'est pas uniquement ça.
07:40C'est que selon les instituts
07:41de fact-checking américains,
07:43il manque 97% du temps,
07:45Thomas.
07:46C'est-à-dire que ça,
07:46le problème n'est pas tant
07:47l'intelligence artificielle
07:48que l'émetteur en lui-même.
07:50Oui, mais il est quand même
07:51président des États-Unis
07:52donc forcément ça fait
07:54coûter tout le monde de tout.
07:55Saint-Thomas,
07:55je crois ce que je vois,
07:56c'est terminé,
07:56il est mort.
07:57Ah mais en fait,
07:57je pense qu'on s'est trompé
07:59sur Saint-Thomas,
07:59mon cher Thomas.
08:00Oui, je n'étais pas
08:01directement...
08:02Mais non, mais je vous dis,
08:02moi j'ai porté mon prénom
08:03comme un badge
08:04de certification journalistique
08:05pendant des années.
08:06Mais non, mais bien entendu
08:07parce que Saint-Thomas,
08:08c'est celui qui croit
08:09ce qu'il voit.
08:09Mais en réalité,
08:10on a mal lu la Bible.
08:11Est-ce que l'IA peut aider
08:12à débusquer les fake news
08:14Marion Carré ?
08:15Alors, effectivement,
08:16il y a déjà cet enjeu
08:17de comment est-ce qu'à l'origine,
08:18à la racine,
08:19on peut faire en sorte
08:20d'avoir dans les contenus générés
08:22ces filigranes dont je parlais
08:23ou des métadonnées
08:25qu'on va pouvoir inscrire
08:26dans le fichier
08:27pour se rendre compte.
08:28C'est la carte d'identité
08:29du fichier.
08:29C'est ça, exactement.
08:30C'est la carte d'identité.
08:31Alors tout ça, encore une fois,
08:33ce qui est hyper intéressant,
08:34c'est que c'est une matière
08:35en constante évolution
08:36parce qu'à chaque fois,
08:37ça se perfectionne.
08:38Donc les techniques d'aujourd'hui
08:39ne sont pas celles de demain
08:43flou généralisé.
08:44Il y a des personnes
08:44qui oeuvrent pour travailler
08:46sur cet enjeu de fiabilité.
08:48Ça, on parlait du coup
08:48des contenus textuels
08:50et visuels.
08:51Mais il y a aussi tout un enjeu
08:52sur ces grands modèles
08:53de langage qu'on utilise
08:54sur comment est-ce qu'ils peuvent
08:55aussi être permissifs
08:56à des fake news.
08:57C'est-à-dire que dans les données
08:58qu'ils absorbent pour s'entraîner,
09:01ils peuvent aussi absorber
09:02par exemple des contenus
09:02de propagande.
09:03Et il y a quelques mois,
09:04j'étais en Lettonie
09:05et je parlais avec Sildé
09:06qui était le champion national de l'IA
09:08qui m'expliquait que tout leur enjeu
09:09c'était de faire en sorte
09:10de ne pas avoir de contenu russe
09:12qui soit aspiré par mégarde
09:13dans les contenus d'entraînement de l'IA.
09:15En fait, c'est aussi multidimensionnel
09:17les échelons sur lesquels
09:18on peut lutter
09:19contre la désinformation.
09:21Je ne trouve pas ça
09:22formidablement rassurant
09:23tout ce que vous nous dites.
09:23Parce que là, je me suis dit
09:24ils vont venir les deux.
09:25C'est deux gros champions.
09:26C'est ça, on va pouvoir trouver des solutions.
09:27On va faire ça, ça et ça
09:27et la recette est réglée.
09:29Et là, je vois que la recette
09:30elle n'est pas facile à trouver.
09:31La recette n'est pas facile
09:31mais en réalité, je crois
09:32qu'on ne pourra pas faire l'économie
09:35de pousser les plateformes numériques
09:37à faire un travail là-dessus.
09:39On a quand même plusieurs chiffres
09:40qui nous montrent très bien
09:41qu'il y a une faille
09:43il y a un trou dans la raquette
09:44je sais que vous aimez le tennis
09:45il y a un énorme trou dans la raquette
09:47sur la question de la certification
09:49des contenus qui circulent
09:50sur les réseaux sociaux.
09:5283% des contenus IA
09:54ne sont pas étiquetés comme tels
09:55par les plateformes.
09:56C'est-à-dire qu'on a quand même
09:58là une énorme faille
09:59de la part des réseaux sociaux
10:01qui ne font pas le travail
10:02qu'ils devraient faire
10:03qui est une obligation du DSA
10:06de dire quand un contenu
10:07est ou non modifié
10:09en intelligence artificielle.
10:10La deuxième chose qu'il faut dire
10:12et qui est quand même très importante
10:13c'est qu'on a 97% des Français
10:15qui sont incapables de détecter
10:17une photo fabriquée en IA
10:19ou une photo originelle.
10:20Donc ça veut dire
10:20qu'il faut qu'on apprenne.
10:21Moi pardon mais je me considère
10:23dans ces 97%
10:23Mais bien entendu
10:24mais il faut qu'on apprenne
10:27en fait
10:27il faut qu'on comprenne que
10:28comme sur les questions
10:30de cybersécurité
10:31où on a dû se former
10:32comme sur les questions
10:33de phishing
10:34où on a dû apprendre
10:35que certains emails
10:36étaient en réalité
10:37pas exactement ce qu'on nous disait
10:39des pièges et tout
10:39comme sur les coups de fil
10:40qu'on reçoit toute la journée
10:42qui sont là aussi
10:43des publicités déguisées
10:44il va falloir qu'on apprenne
10:46On est condamné à devenir fou
10:48à vivre dans une grotte
10:49coupée du monde ?
10:50Non
10:50Moi je vais vous dire un truc
10:51je regarde des vidéos
10:52de petits chats
10:52ça me fait marrer
10:53les chats qui parlent
10:54etc.
10:55On est d'accord
10:56Je trouve ça tellement mignon
10:57et tellement sympa
10:57qu'au bout d'un moment
10:58je crois que mon cerveau
10:59finit par se dire
10:59mais il parle le chat
11:01ou quoi ?
11:01Évidemment
11:02je pousse un peu le trait
11:03mais vous voyez ce que je veux dire ?
11:04Mais c'est parfois
11:06tellement bien fait
11:06qu'on voudrait que ça soit
11:07ça vous rentre dans la tête en fait
11:08c'est ça qui est dangereux
11:09Ce qui est intéressant
11:10c'est que vous mettez en avant
11:11à travers ça
11:12cette pollution du
11:14AI slope
11:15c'est ces contenus
11:15la bouillie d'intelligence artificielle
11:17avec des chats
11:18qui jouent du violon
11:18qui chantent etc.
11:20où effectivement
11:21on baigne en continu
11:22dans ces contenus
11:23et du coup
11:23ça crée une forme d'ancrage
11:25en nous
11:25c'est-à-dire qu'à force
11:26même si on veut chercher
11:27à se dépolluer
11:29de tout ça
11:30C'est l'algorithme
11:30du coup vous propose que ça
11:31On baigne quand même
11:32en continu dedans
11:33et donc je pense que vraiment
11:34c'est un enjeu de muscler
11:35nos réflexes
11:36et notre esprit critique
11:37pour pouvoir continuer
11:38à naviguer dans ces eaux-là
11:39Et ça ça commence dès l'école
11:39et on doit s'appuyer
11:40sur cette formidable armée
11:41qui s'appelle
11:41les instituteurs et les professeurs
11:43Dernière question
11:43On a vu cette semaine
11:44Pascal Praud sur CNews
11:45une chaîne d'info
11:46tomber dans le panneau
11:47d'une fausse une
11:48d'un journal People
11:48elle montrait
11:49Najat Vallaud-Belkacem
11:50la socialiste
11:50et Yael Brown-Pivet
11:51la présidente de l'Assemblée
11:52côte à côte
11:53vêtues toutes deux
11:54d'une veste et d'un pantalon en jean
11:56Comment aurait-on pu savoir
11:58que cette une était bidon ?
11:59C'est juste du bon sens
12:01Non mais ça c'est quelque chose
12:02qu'ils font visiblement
12:03pas suffisamment sur cette antenne
12:05C'est d'aller vérifier l'information
12:06En réalité le journal en question
12:08Closer publie sa une
12:10sur son site internet
12:11Donc c'était pas très compliqué
12:13d'aller faire ce travail-là
12:14Mais là il y a quelque chose
12:15qui est finalement
12:16là où le piège se retourne
12:18un peu contre nous
12:18en tout cas contre eux
12:19C'est que pourquoi ils ont cru
12:21à cette histoire ?
12:22Parce qu'ils avaient hyper envie
12:23d'y croire
12:24Et donc ils avaient tellement
12:25envie d'y croire
12:26Ils étaient un peu comme vous
12:26avec vos petits chats
12:27Ils trouvaient ça tellement bien
12:28qu'il fallait que ça soit vrai
12:29Bon et bien merci beaucoup
12:31en tout cas à tous les deux
Commentaires

Recommandations