Passer au playerPasser au contenu principal
Avec Fabrice Epelbouin, Enseignant à Sciences Po et entrepreneur, Véronique Reille- Soult, Co-fondatrice et présidente du cabinet Backbone Consulting, Cyril Darmon, CEO BIBLOS-AI Expert IA

Retrouvez Le Numérique pour tous avec Vanessa Perez tous les dimanches à 14h30 sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/

———————————————————————

🔴 Nous suivre sur les réseaux sociaux 🔴

▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
———————————————————————

☀️ Et pour plus de vidéos du Numérique pour tous : https://www.youtube.com/playlist?list=PLaXVMKmPLMDR4AnvSdAZjJkIhzXsyJ9fd

##LE_NUMERIQUE_POUR_TOUS-2025-10-19##

Catégorie

🤖
Technologie
Transcription
00:00Sud Radio, le numérique pour tous, Vanessa Perez.
00:04Bonjour et bienvenue dans le numérique pour tous, l'émission dédiée au digital, à l'innovation et à la tech responsable.
00:09Et aujourd'hui, on va parler de nouvelles embarrassantes et de censures sur les réseaux sociaux,
00:14entre étalage de vie personnelle, lancement de rumeurs et propagande, comment décerner le vrai du faux.
00:19C'est ce que nous tenterons de comprendre avec nos invités.
00:21Aujourd'hui, dans notre chronique intelligence artificielle, on vous expliquera comment se fabriquent les vidéos virales
00:27et néanmoins compromettantes qui inondent vos réseaux.
00:30Le numérique pour tous, spéciale nouvelle embarrassante et censure, c'est tout de suite et c'est sur Sud Radio.
00:35Sud Radio, le numérique pour tous, Vanessa Perez.
00:39Et pour commencer cette émission, j'ai le plaisir de recevoir Fabrice Eppel-Bouin.
00:42Fabrice, bonjour.
00:43Bonjour.
00:43Vous êtes enseignant à Sciences Po et grand décrypteur de l'actualité générée par les réseaux sociaux.
00:48Et pour commencer, vous allez nous raconter une petite histoire, Fabrice, si on peut l'appeler.
00:52Ainsi, celle de l'ordinateur du fils de Joe Biden.
00:55Qu'est-il arrivé à cet ordinateur ?
00:58Tout bêtement, comme beaucoup d'ordinateurs, il est tombé en panne.
01:01Et puis, le fils de Joe Biden s'est dit qu'il allait profiter d'un voyage à Washington
01:06pour donner son MacBook à une petite échoppe de façon à le faire réparer.
01:11Et puis, malheureusement, le fils de Joe Biden avait des revenus importants.
01:14Le nouveau MacBook d'Apple était sorti.
01:16Il s'est dit que finalement, il allait en racheter un.
01:18Le système de backup d'Apple sont bien foutus.
01:20Donc, il a restauré toutes ces données sur son nouveau MacBook.
01:23Et il a complètement oublié son vieux MacBook dans une petite échoppe.
01:26Et évidemment, ça n'a pas manqué.
01:29Le propriétaire de la petite échoppe a fini par ouvrir le MacBook.
01:32Et s'est aperçu qu'il n'y avait pas le moindre mot de passe, pas le moindre chiffrement.
01:35Et que tout était non seulement accessible sur le disque dur du laptop.
01:39Mais c'est évidemment aperçu qu'il avait affaire au laptop du fils du vice-président des Etats-Unis.
01:43Alors, c'est là que tout commence.
01:45Cette histoire, évidemment, a fait couler beaucoup d'encre outre-Atlantique.
01:48Quels éléments compromettants le disque dur a-t-il révélé ?
01:50Ça ne manquait pas.
01:52Les plus graphiques étaient sans doute la sauvegarde de l'iPhone de Hunter Biden.
01:57Qui était remplie de selfies.
01:59Qui documentait le moindre moment de sa vie de patachon.
02:02Qu'il menait en Ukraine.
02:04Où, grosso modo, il occupait la moitié de son temps avec des prostituées.
02:08L'autre moitié à consommer de la drogue.
02:10Ou plus exactement, c'était souvent lié.
02:12Tout ça en documentant ça avec des selfies.
02:15Donc, vraiment, une vie de déchéance la plus absolue.
02:18Et puis, beaucoup, beaucoup, beaucoup d'emails qui racontaient les affaires du fils de Hunter Biden.
02:23Parce qu'il gagnait très, très bien sa vie.
02:24Avec, notamment, des oligarques de l'énergie ou de diverses industries qui étaient chinois ou ukrainien.
02:30Et qui, très clairement, à en croire les emails, s'étaient plus intéressés par le papa que par le fils.
02:36Expliquez-nous, Fabrice, comment les réseaux sociaux, justement, et l'appareil d'État américain ont réussi à étouffer cette information, précisément avant les élections ?
02:43Alors, six mois avant les élections, la copie du disque dur de Hunter Biden circule absolument partout.
02:47Y compris au sein du FBI.
02:48Évidemment, la plupart des républicains ont leur copie.
02:50Et puis, quinze jours avant les élections, le New York Post sort le scoop, explique le contenu.
02:58Et là, les réseaux sociaux censurent tout lien vers l'article du New York Post.
03:02Et éliminent tous les comptes qui osent parler de cette affaire.
03:04Alors, expliquez-nous concrètement, Fabrice, comment les réseaux sociaux et l'appareil d'État américain ont-ils réussi à étouffer cette information qui, au demeurant, est sortie et a explosé avant les élections ?
03:15Ah oui, six mois avant les élections, le laptop d'Hunter Biden, enfin la copie du disque dur, est déjà distribuée très largement à travers Washington.
03:22Le FBI a une copie.
03:23La plupart des pontes des républicains ont leur copie.
03:26Tout le monde sait que ça va finir par sortir.
03:28De façon très opportuniste, un mois avant les élections, le FBI et la CIA font des exercices de simulation avec les grandes plateformes de réseaux sociaux,
03:36de façon à anticiper une hypothétique opération des informations russes, qui pourrait être une fuite d'informations.
03:43Et puis, comme par hasard, quinze jours plus tard, le New York Post sort l'affaire du fils d'Hunter Biden.
03:47Et les réseaux sociaux censurent tout et éliminent tous les comptes qui osaient parler de cette affaire, au prétexte que c'était une ingérence russe,
03:54ce qui a déjà été confirmé à l'époque par cinquante comptes du renseignement, qui ont été démentis par la suite.
04:00Alors, on va aller maintenant faire un focus sur le réseau X, un Twitter que vous connaissez bien.
04:04Expliquez-nous, depuis un an, l'algorithme du réseau a évolué.
04:09Et comment justement cet algorithme permet d'avoir une information qui est plus vérifiée et proche de la vérité ?
04:14Alors, l'algorithme et ce qui l'accompagne ont grandement évolué depuis, finalement, l'acquisition de Twitter par Elon Musk.
04:21On a eu les community notes, qui ont été sans doute ce qu'il y a de plus efficace pour lutter contre les fake news.
04:25Les community notes, donc.
04:26Les community notes, qui permettent à une sélection de personnes qui sont préqualifiées d'apposer sur n'importe quel tweet un commentaire
04:33pour soit le recontextualiser, soit au contraire le démentir.
04:36Et à partir de là, l'information, la fake news, qui est toujours aussi virale que sur Twitter ou ailleurs, est accompagnée d'un démenti.
04:43Alors, si on devait identifier la plus grosse fake news, justement, propagée par des médias prestigieux et qui a été désamorcée par X Twitter récemment, quelle serait-elle ?
04:52Alors, la plus grosse fake news, on va dire, dans le camp de ceux qui chassent les fake news, c'est sans conteste le Russiagate.
04:58Cette histoire de collusion entre Trump et Vladimir Poutine, qui auraient ensemble comploté pour accéder au pouvoir et à la magistration suprême américaine.
05:09Ça a été servi matin, midi et soir par les médias les plus prestigieux qui soient aux Etats-Unis ainsi qu'en France pendant au moins trois ans.
05:17Il y a eu la fameuse enquête du procureur Mueller qui a blanchi Donald Trump et toute hypothèse de complicité entre les deux.
05:24Non pas que les Russes, les Russes sont intervenus, c'est pas le souci.
05:27Mais il n'y a jamais eu de complicité entre Vladimir Poutine et Donald Trump.
05:30La théorie conspire a continué à parcourir et puis plus récemment, les Etats-Unis ont déclassifié une quantité de documents issus de la CIA
05:39qui montrent que, effectivement, c'était un complot assez grossier du reste, mais dans lequel toute la presse la plus prestigieuse a pataugé et patauge encore pour une partie d'entre elles.
05:48Il y a eu récemment une enquête au sein de Twitter X.
05:53Quelle fake news ou quel mécanisme de censure cette enquête a-t-elle dévoilé ?
05:57Alors si on parle du dernier volet des Twitter Files qui concerne la France,
06:01elle montre finalement que le DSA, qui est l'argumentation européenne qui permet de modérer les réseaux sociaux,
06:07a été préparé de façon conjointe entre les Etats-Unis et la France,
06:12que le mécanisme qui consiste à déléguer à des associations, des ONG, la capacité de censurer les réseaux,
06:18a été mis en place avant qu'il ait une réalité, une existence légale,
06:22et que les Etats-Unis comptaient bien profiter de faire autour du parapluie européen de la modération,
06:28de façon à eux-mêmes modérer leurs propres utilisateurs en nivelant par le bas la modération au niveau mondial.
06:34C'est très intéressant en termes de fabrique de la loi,
06:36d'autant plus que c'est arrivé avec une investigation du Sénat américain sur les coulisses de la préparation du DSA,
06:41qui montre comment ils se sont préparés en interne, comment ils ont simulé et anticipé la modération qui allait venir.
06:47Et donc on a un éclairage très intéressant, mais assez complexe, sur les coulisses de la fabrication d'une réglementation européenne.
06:54Ce que vous voulez dire, c'est que les grandes plateformes, en fait, ce qu'on appelle les GAFAM,
06:57Google, Amazon, Facebook et Microsoft, tout ça participe en fait d'un grand jeu politique,
07:03et aujourd'hui le pouvoir n'appartient plus aux politiques, le pouvoir appartient aux plateformes ?
07:06C'est des acteurs politiques à part entière.
07:08Maintenant, le politique, s'il s'en donne les moyens, peut encore prendre la main.
07:11On l'a vu sous l'ère Biden, où très concrètement, les plateformes étaient totalement assujetties aux pressions des politiques,
07:17avec des pressions très lourdes.
07:18Il faut rappeler que le politique américain peut démanteler n'importe quel GAFAM en claquant des doigts.
07:22Ils sont tous en infraction des lois antitrust.
07:24Donc si le pouvoir américain décide de démanteler ou de découper Facebook ou Microsoft
07:29ou n'importe lequel le SEGAFAM en petits morceaux, il peut le faire, il a les moyens juridiques de le faire.
07:34Ce qui fait que, dans un premier temps, sous Biden, c'était cette pression-là qui était exercée
07:38pour contraindre les plateformes à faire tout et n'importe quoi.
07:42Aujourd'hui, on a une espèce d'alliance entre une oligarchie des plateformes et le pouvoir Trump,
07:47ce qui n'est pas nécessairement mieux comme relation politique.
07:50Et puis nous, nous sommes une petite colonie lointaine.
07:53On est colonisés par les GAFAM depuis maintenant 20 ans.
07:55Le cloud, on a été entièrement colonisés.
07:57Maintenant, on est au stade de l'intelligence artificielle.
07:59Et donc, forcément, on est assujettis aussi bien aux plateformes qu'aux pouvoirs américains.
08:03Merci beaucoup Fabrice Eppelboin.
08:04Restez avec nous, on marque une courte pause et on se retrouve dans un instant dans le numérique pour tous sur Sud Radio
08:09pour parler des nouvelles embarrassantes et de la censure.
08:12Sud Radio, le numérique pour tous, Vanessa Perez.
08:16Et pour continuer cette émission, j'ai le plaisir de recevoir Véronique Reissoult.
08:19Bonjour Véronique.
08:20Bonjour.
08:21Vous êtes experte en stratégie de réputation et en communication de crise.
08:24Et vous êtes spécialiste de l'opinion et notamment cofondatrice et présidente du cabinet Backbone.
08:30Alors Véronique, on l'a compris, sur les réseaux, il suffit parfois d'une phrase sortie de son contexte
08:34et une réputation peut être fissurée et mise à mal en quelques secondes.
08:39Toutes ces petites phrases qu'on voit circuler, je pense notamment à celle de Sandrine Rousseau
08:42qui excelle dans le domaine, est-ce qu'elles correspondent à une véritable stratégie
08:45pour agiter des algorithmes et créer ou défaire une réputation ?
08:49Alors une stratégie pour faire parler de soi certainement.
08:53Utiliser les algorithmes, oui, sans doute.
08:55Je pense que quelquefois c'est malgré eux, mais oui, sans doute.
08:59Je vois quelqu'un qui me fait un nom de la tête.
09:03Je pense qu'ils ont découvert au fur et à mesure, parce que les algorithmes,
09:06pour certains, ils ne les maîtrisent pas tant que ça,
09:09mais ils se sont aperçus qu'en étant dans l'excès, dans l'émotion,
09:13avec des petites phrases courtes et simples à partager,
09:15et ça favorise l'engagement.
09:18Et quand on favorise l'engagement, on a une viralité plus forte.
09:21Mais je ne suis pas certaine qu'ils avaient toujours décortiqué la réalité d'heure,
09:25en tout cas pour Mme Rousseau, puisque c'est elle que vous avez pris comme exemple.
09:30Elle a le mérite d'utiliser un des leviers de viralité les plus efficaces,
09:34qui est l'émotion.
09:35Alors l'émotion, vous pouvez être dans des émotions de joie,
09:39j'entends par là quelque chose qui est drôle, quelque chose qui est intelligent,
09:42vous avez la joie de le partager, c'est pas trop...
09:45Là on a juste de la colère comme émotion, c'est ça ?
09:48Elle, elle est plutôt colère, peur, révolte, voilà, choquant.
09:53Faire en sorte que ces phrases interpellent, énervent,
09:56et quand vous êtes énervé, vous partagez, quitte à critiquer.
09:59Et elle considère à juste titre sans doute que sa visibilité,
10:03elle est plus importante que l'adhésion en tout cas à aujourd'hui.
10:07Véronique, certaines fake news, donc des nouvelles qui sont fausses et érodées,
10:10ne détruisent pas seulement des carrières, elles installent un doute permanent,
10:13on n'est plus sur la rumeur.
10:15Est-ce qu'on arrive à réparer l'image de quelqu'un qui a été sali,
10:19et comment le fait-on ?
10:20Alors c'est un long chemin, vous avez deux catégories.
10:25Ceux qui sont dans une logique de scandale.
10:26Quand c'est un scandale, vous ne pouvez pas parler.
10:28Donc votre sujet, c'est de faire en sorte que vous rentriez dans une logique de polémique,
10:32et là, quand c'est une polémique, vous pouvez parler.
10:34Alors évidemment, vous n'aurez pas tout le monde d'accord avec vous,
10:37mais vous pouvez commencer à poser quelques jalons.
10:39Ensuite, si votre fake news est diffamante ou facilement démontable,
10:43on va dire qu'on peut rentrer dans une discussion.
10:45Le pire, ce sont les fake news qui sont vraisemblables,
10:49et quand c'est vraisemblable, c'est vrai dans l'opinion.
10:52Donc là, c'est plus compliqué.
10:53Maintenant, par une forme de constance, par des logiques de cohérence,
10:57par des prises de parole et des actions qui sont alignées,
11:01on peut arriver à débunker.
11:03Ça prend du temps, mais on peut arriver à remonter.
11:06On imagine que tout politique ou tout grand patron
11:08peut être assujetti justement à ces armes, en fait, qui circulent sur Internet.
11:12Est-ce que c'est un travail de longue haleine et de profondeur
11:15qu'on doit faire en amont avant que la crise n'explose,
11:17ou alors on peut réparer rapidement une fois que la crise est exposée ?
11:21Alors on va dire que 80% de la réussite d'une gestion de crise,
11:24ou plus exactement de la réussite de la communication autour d'une crise,
11:29c'est la préparation et l'anticipation.
11:30Donc oui, s'organiser, anticiper, suivre les sujets sensibles.
11:35Après, la réalité, c'est qu'il faut arriver à factualiser,
11:38c'est remettre votre réaction à la juste place,
11:41parce que quand vous avez une crise ou que vous êtes attaqué,
11:43vous avez tendance soit à sur-réagir, soit à sous-réagir.
11:46Donc se poser, regarder quelle est la réalité de ce qui est en train de se passer.
11:49Et puis après, ça veut dire prendre la parole,
11:52parce que c'est un des sujets les plus compliqués au moment d'une crise.
11:56Et puis oui, si vous êtes préparé, c'est plus facile
11:59que si vous devez gérer juste dans l'urgence de l'émotion.
12:02Est-ce qu'il y a un effet durable quand on attaque justement ces attaques sur Internet ?
12:06Est-ce qu'elles sont oubliées du jour au lendemain ?
12:08Parce qu'on voit effectivement, ce sont des épisodes qui sont très courts,
12:11qui animent les médias et ça retombe immédiatement.
12:14Est-ce qu'il y a un mal durable ?
12:15Ou alors tout ça va à la vitesse de la lumière,
12:17et en fait ce sont des périodes de 2-3 jours et on passe à autre chose.
12:19Alors juste aimer vous dire que oui,
12:22faites le gros dos et ça passera.
12:23Ça va dépendre de la réalité de qui vous êtes et de votre visibilité.
12:27La long tail sur les réseaux sociaux, ça existe.
12:30Le web a de la mémoire.
12:32Est-ce que j'ai besoin de vous citer le nombre de fois
12:33où on exhume du fin fond de l'histoire du web
12:37des moments gênants pour les uns et les autres ?
12:39Donc en fait c'est plus un sujet de débit des informations autour de vous.
12:43Donc si on parle beaucoup de vous tout le temps,
12:45oui un buzz et un bad buzz peut être enfoui par un good one,
12:50mais en règle générale, pour à peu près de sous le monde,
12:53mauvaise nouvelle de ce type,
12:55il faut arriver à la couvrir par des bonnes nouvelles.
12:58Merci beaucoup Véronique Reissoul pour Backbone.
13:01Restez avec nous, on marque une courte pause
13:02et on se retrouve dans quelques instants
13:04pour notre chronique Intelligence Artificielle.
13:07Jingle !
13:08Biblos-ai.com
13:10L'intelligence artificielle nouvelle génération présente
13:13La Minute IA
13:15Et pour cette Minute IA,
13:17nous avons le plaisir de retrouver Cyril Darmon,
13:19notre expert Intelligence Artificielle.
13:21Alors Cyril, on voit de plus en plus de vidéos
13:23avec des chatons qui dansent sous notre président de la République
13:26en tenue des années 80.
13:29Alors avant de juger, expliquez-nous comment on peut fabriquer ces vidéos.
13:33Alors c'est très simple.
13:34Bonjour Vanessa.
13:35C'est très simple parce qu'en réalité,
13:37les logiciels qui sont à notre disposition
13:39nous offrent cette possibilité.
13:41À partir d'un selfie, d'une photo
13:44qu'on va directement télécharger sur l'application,
13:47on va choisir sa musique, on va choisir le texte
13:49et l'application va directement mettre en scène cette photo.
13:54Et à ce moment-là, nous sortir une vidéo complètement fake
13:56de nous avec notre timbre de voix,
14:00avec notre véritable face,
14:02mais avec des mimiques,
14:04avec des mouvements de bouche
14:06qui ne nous appartiennent pas.
14:08Alors Cyril, vous pourriez honnêtement nous citer
14:10deux, trois applications qui permettent de faire ces vidéos ?
14:12Tout à fait.
14:13On a trois applications vraiment phares.
14:15On a Edgen, on a Sora 2,
14:17donc l'application de OpenAI,
14:20et puis on a FaceApp
14:21qui permettent justement de fabriquer ces fake news.
14:25En effet, elles sont à portée de clics.
14:26Mais Cyril, ce n'est pas sérieux tout ça
14:28et c'est même dangereux,
14:29on l'a entendu notamment avec Véronique.
14:31Le véritable grand danger dont il faut se prémunir
14:34est de ne jamais lâcher par rapport à nos auditeurs.
14:37Tout à fait.
14:38Alors ce n'est pas nouveau Vanessa.
14:39À chaque émergence de nouvelles technologies,
14:41on voit apparaître des personnes malveillantes.
14:43Et aujourd'hui, ces personnes malveillantes
14:45se servent du clonage,
14:47se servent de toutes ces possibilités
14:49de transformer les vidéos de fake
14:51pour pouvoir manipuler,
14:53pour pouvoir créer des informations
14:55complètement fautes.
14:57Les logiciels que l'on peut utiliser
14:59sont beaucoup accessibles sur Internet,
15:01comme on vient de le voir,
15:02mais les plus dangereux aujourd'hui
15:04sont accessibles via le Darknet.
15:05Mais Cyril, concrètement,
15:07qu'est-ce qui est véritablement préjudiciable
15:09avec ces vidéos ?
15:10La pédocriminalité et la réputation.
15:13Aujourd'hui, en pédocriminalité,
15:15on voit justement qu'il y a des gens malveillants
15:17qui fabriquent des scènes complètement indécentes
15:20et qui mettent ça à disposition.
15:23Et les pouvoirs publics, la communauté européenne
15:24et le monde entier est en train de légiférer
15:26pour justement enrayer tout ça
15:29et créer des lois cyber
15:31pour enfermer ces nouveaux criminels.
15:33Cyril, comment on reconnaît le vrai du faux
15:35alors dans ce cas-là ?
15:37Très compliqué.
15:37Très compliqué parce qu'aujourd'hui,
15:41les sociétés d'intelligence artificielle
15:43nous mettent à disposition des outils
15:45pour pouvoir fabriquer du faux
15:47de plus en plus facilement.
15:49Et donc, la complexité,
15:53c'est comment arriver à détecter
15:54ces fausses vidéos.
15:57Ça va être très compliqué
16:00dans les années à venir.
16:02Aujourd'hui, on a par exemple
16:04OpenAI, donc Sam Altman,
16:06qui est en train de fabriquer une machine
16:08qui s'appelle l'Orbe
16:08où on va scanner notre propre iris
16:12et c'est le seul moyen,
16:14on va avoir ce qu'on appelle
16:15un passeport numérique
16:17et ça sera le seul moyen
16:19de pouvoir justement
16:20prouver notre humanité.
16:23Donc aujourd'hui, la recommandation
16:24pour nos auditeurs,
16:25évitez de mettre des photos
16:26de vos enfants sur les réseaux.
16:28Je pense que c'est le plus simple
16:29et le plus immédiat.
16:30Merci beaucoup Cyril Darmond.
16:32La Minute IA
16:33Avec Biblos-AI.com
16:35L'intelligence artificielle
16:36nouvelle génération,
16:38fiable et souveraine
16:39qui facilite votre quotidien
16:40et protège les données
16:41de votre entreprise.
16:43Le numérique pour tous,
16:44c'est fini pour aujourd'hui.
16:45Pour prolonger la discussion,
16:46on se retrouve sur vos réseaux sociaux
16:47préférés et ceux de nos invités.
16:50Il est temps pour moi
16:50de vous souhaiter
16:51une excellente fin de week-end
16:52et de vous dire
16:53à la semaine prochaine.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations