Passer au playerPasser au contenu principal
  • il y a 7 heures
Anthony Morel vient à la table d'Estelle Midi pour nous faire découvrir les dernières innovations de la tech. Au menu aujourd'hui : "L'IA, nouveau détecteur de mensonges ?".

Catégorie

📺
TV
Transcription
00:00RMC Estelle Midi, on n'arrête pas le progrès.
00:04A l'approche des élections municipales, Anthony, bonjour d'abord.
00:07Bonjour.
00:07Un outil qui pourrait servir, une IA qui peut déterminer si un homme politique dit toute la vérité.
00:13Ça peut sembler complètement dingue et pourtant c'est une technologie qui commence à être utilisée aux Etats-Unis,
00:18des détecteurs de mensonges de nouvelle génération.
00:20Ouais, on pourrait l'adopter sur RMC d'ailleurs,
00:22parce qu'à chaque fois qu'on a un débat ou une interview politique,
00:25eh bien on pourrait utiliser cet outil qui va analyser chaque phrase prononcée
00:30et qui va lui donner un score d'authenticité.
00:33C'est un détecteur de mensonges.
00:33Je ne donnerai pas les noms, mais certains politiques, ça sonnerait souvent.
00:36Ça sonnerait pas mal.
00:38Ça sonnerait assez régulièrement.
00:39C'est tout l'intérêt en fait de cet outil, alors qu'il n'est pas encore déployé en France,
00:42qui a commencé à être testé aux Etats-Unis pendant la dernière élection présidentielle.
00:46Alors plus précisément, c'était pendant la primaire républicaine
00:49où en fait on a utilisé cet outil qui a été conçu par une entreprise américaine.
00:53Et donc en gros, le principe, c'est un algorithme qu'on a entraîné
00:56à déterminer la sincérité d'une personne.
01:00Comment on fait ça ?
01:01Eh bien en fait, l'intelligence artificielle va analyser une vidéo
01:04et va analyser surtout ce qu'on dit dans la vidéo
01:06et va détecter des choses qui sont très difficiles, voire inaudibles pour l'être humain.
01:12Alors c'est à la fois les choses qu'on dit, alors ça c'est assez facile, le vocabulaire.
01:16Si vous utilisez des formules très alambiquées pour dire une chose simple,
01:20globalement c'est pas très bon signe.
01:21C'est responsable mais pas coupable.
01:22Voilà ce genre de choses.
01:24Mais il y a aussi le ton de la voix, non j'imagine ?
01:25C'est exactement ça.
01:26C'est-à-dire le ton de la voix, est-ce que tu as des petites micro-hésitations,
01:30des toutes petites choses qui vont être complètement imperceptibles à l'oreille humaine
01:34mais que l'IA, elle, va être capable de percevoir.
01:36Et à partir de tout ça, eh bien on va être capable de dire
01:38cette personne-là, ah là il y a quand même un loup, c'est un petit peu bizarre.
01:42Donc ça bip un peu, t'as raison.
01:44Et on va être capable de...
01:47Alors ils ne l'ont pas fait comme ça, mais on pourrait imaginer effectivement,
01:51si les hommes politiques étaient consentants évidemment,
01:54mais de dire voilà, on fait un débat et on va analyser en temps réel la façon dont vous parlez,
01:58on va essayer de déterminer si vous dites la vérité ou pas.
02:01Là on parle uniquement du débat politique, c'est une première étape là.
02:05À l'avenir, plus personne ne pourra mentir.
02:07C'est-à-dire si désormais on est tous équipés quelque part d'un détecteur de mensonges.
02:10Oui c'est vrai, alors je mets quand même un bémol
02:11et c'est aussi pour ça qu'on ne pourrait peut-être pas l'utiliser en direct
02:14et que ce serait un petit peu compliqué, c'est que ce n'est pas fiable à 100%.
02:16En tout cas, pas pour l'instant.
02:18Il n'y a pas de preuve scientifique que ça fonctionne de manière parfaite.
02:22C'est-à-dire qu'en gros, l'IA ne peut pas détecter le fait qu'on mentir.
02:25C'est une intention, c'est une intention morale si on peut dire.
02:28L'IA n'est pas capable de faire ça.
02:29Elle est capable en revanche de détecter des variations biologiques ou physiologiques,
02:33c'est-à-dire l'état de stress ou d'anxiété.
02:36Et il n'y a pas une corrélation parfaite entre les deux.
02:38Il y a des gens qui sont très entraînés à mentir
02:39et ils vont être zéro stress, pas du tout d'anxiété.
02:42Ils vont réussir à balancer des bobards pendant une heure.
02:45Donc ce n'est pas la fin de l'infidélité.
02:47Voilà, alors oui, tu avais des inquiétudes peut-être, je ne sais pas.
02:50Certains pourront continuer à mentir.
02:51Alors tu as raison, parce que c'est l'un des cas d'usage.
02:54J'allais te dire, il n'y a pas que les hommes politiques, évidemment.
02:56C'est un exemple, mais il y a plein de cas d'usage qu'on peut imaginer pour ces technologies.
02:59Et je pense que l'un des plus gros business, ça va être de sortir une application
03:02où tu vas pouvoir écouter en douce ta conjointe ou ton conjoint
03:05et analyser si elle te dit des bobards ou si elle te dit la vérité.
03:08Et là, évidemment, on met le curseur très très loin dans l'intrusion,
03:12voire dans l'illégalité, évidemment.
03:13Il y a d'autres cas d'usage qui sont intéressants.
03:16Ça va être, par exemple, alors ils le vendent comme ça,
03:18en tout cas ceux qui font ce logiciel,
03:19c'est pour des analystes financiers qui vont écouter, par exemple,
03:22un chef d'entreprise qui présente les résultats de son entreprise
03:24pour des entreprises cotées,
03:25pour déterminer s'il dit bien la vérité
03:27quand il annonce la stratégie de l'entreprise.
03:29On peut imaginer plein de cas d'usage pour les gardes à vue.
03:32Évidemment, la police, la justice aux Etats-Unis.
03:34C'est marrant, j'ai pensé infidélité avant de penser ça.
03:37Chacun voit midi à sa porte.
03:39Chacun n'est pas voleur.
03:41Chacun son mensonge.
03:42Et puis là, on parlait uniquement de la voix,
03:44mais on va aussi, l'IA va analyser tout le visage,
03:47tous les gestes de la personne.
03:48Oui, j'allais dire que c'est encore pire,
03:49parce que vraiment, notre corps nous trahit.
03:51Il y a toute la communication non-verbale,
03:52et ça, l'intelligence artificielle est extrêmement performante pour le faire.
03:56C'est-à-dire qu'on a aujourd'hui des caméras intelligentes
03:58avec des algorithmes qui vont analyser, là encore,
04:01tous les petits...
04:02La gouttelette de sueur.
04:04Exactement, la petite gouttelette de sueur qui perd,
04:06la pupille, la tontoïe.
04:08Quand on pose une question sur ton CV,
04:10et que voilà, t'es un peu le lapin,
04:11il faut les yeux pris dans les parts, là.
04:13Oui, oui, bien sûr, je pars le 5 long.
04:15Ah, vous êtes bilingue espagnole.
04:16Oui, c'est ça.
04:18Hablo espagnol, muy bien, voilà.
04:19Non, mais c'est ça.
04:20Et en fait, le truc, c'est qu'on va aller vers une société
04:23où ça va être de plus en plus compliqué de mentir,
04:24où on va apprendre aussi à mentir face à la machine,
04:27parce qu'il y a aussi des techniques pour tromper les algorithmes.
04:29Enfin, il y a tout un nouveau type de stratégie
04:31qui va se mettre en place.
04:33Je ne sais pas si c'est souhaitable, en fait,
04:34de vivre dans une société sans mensonge.
04:36C'est une question qui va au-delà de la philosophie.
04:38Vous avez 4 heures.
04:39Oui, c'est ça.
04:39C'est presque une question philosophique.
04:41Mais en tout cas, ce qu'il faut savoir,
04:42c'est qu'il y a des outils de plus en plus sophistiqués
04:44pour permettre de savoir si on dit la vérité, quoi.
04:47Anthony, vous nous avez dit toute la vérité dans cette chronique.
04:49Évidemment.
04:50On est en train d'analyser.
04:52Pour vérifier, il y a des podcasts, évidemment.
04:54On n'arrête pas le progrès.
04:55Quand vous voulez, sur l'appli RMC,
04:57on parle de quoi demain ?
04:58Demain, on va parler de Dr ChatGPT.
05:00Est-ce qu'il faut vraiment lui faire confiance ?
05:01Il y a des études très intéressantes
05:03qui viennent d'être publiées sur le sujet.
Commentaires

Recommandations