Passer au playerPasser au contenu principal
  • il y a 2 jours

Catégorie

🗞
News
Transcription
00:00Bonjour à tous, je suis très heureuse de vous retrouver pour une nouvelle émission d'un jour une vie
00:04et je peux vous dire qu'on va apprendre beaucoup de choses aujourd'hui à travers le témoignage de mon invité.
00:08Imaginez la scène, cette toute jeune fille de 16 ans à l'époque est tranquillement chez elle
00:13lorsqu'elle découvre que quelqu'un a volé ses photos sur les réseaux sociaux, y compris son visage et ses images.
00:20Elles sont utilisées pour créer du contenu pornographique diffusé en ligne.
00:26On appelle ces clichés truqués des deepfakes et aujourd'hui ils ont investi tous les secteurs, la politique, le cinéma mais aussi potentiellement,
00:35vous allez le comprendre aujourd'hui, notre vie quotidienne à tous, personne n'est à l'abri des dérives de l'intelligence artificielle.
00:43C'est ce que nous verrons avec notre expert ce matin Olivier Lascar qui est journaliste et auteur.
00:48Il répondra à toutes nos questions de novice et surtout il nous donnera tous ses conseils pour se protéger de ses dérives.
00:55Tous les jours, toutes vos vies, toutes vos vraies vies sont sur RTL. Merci d'être avec nous.
01:02Bonjour Noémie.
01:03Bonjour.
01:03Et bonjour Olivier.
01:04Bonjour.
01:05Merci beaucoup d'avoir accepté notre invitation.
01:07Olivier, pour qu'on soit tout de suite très clair pour les personnes qui ne sont pas forcément à la pointe des dernières technologies.
01:14Est-ce que vous pouvez nous expliquer, encore une fois avec des mots très simples, ce que sont ces deepfakes ?
01:19Alors, les deepfakes, ce sont des photos qui ressemblent à des photos, donc des images photoréalistes, mais qui sont complètement fausses.
01:28Elles sont fabriquées par l'ordinateur et en l'occurrence par ce qu'on appelle l'intelligence artificielle.
01:34Donc, on parle d'images qui ressemblent à des photos.
01:36Des sons aussi.
01:37Des sons.
01:37Elles peuvent ressembler à des vrais sons.
01:38Et des séquences vidéo, c'est-à-dire qu'on a l'impression que ça a été filmé par le premier smartphone venu et en fait, c'est intégralement bidonné par la machine.
01:46Comment sont apparues ces images truquées ? Depuis combien de temps ?
01:49Alors, c'est assez récent parce qu'il y a eu une accélération de la technologie, d'abord du côté de l'intelligence artificielle elle-même, c'est de l'informatique.
01:58Et on a trouvé une façon de programmer, d'une façon particulière qu'on appelle le deep learning.
02:03Le deepfake, le deep de deepfake vient de deep learning.
02:06Donc, d'un côté, il y a cette façon de faire de l'informatique.
02:09De l'autre, il y a eu une accélération terrible dans les microprocesseurs.
02:13Certains microprocesseurs qu'on utilise notamment...
02:16Vous m'avez perdu, là.
02:17Je vous ai perdu.
02:18Bon, alors, il y a eu les microprocesseurs d'un côté, l'informatique d'un côté, et la donnée qui était accessible, puisqu'aujourd'hui, tout est numérique.
02:27Il y a un monceau de photos qui sont disponibles sur Internet.
02:31Donc, c'est un matériel qui est utilisé pour truquer.
02:35À partir du vrai, on fait du faux.
02:37D'accord.
02:38Vous aviez entendu parler de ce terme des deepfakes.
02:40Vous, Noémie.
02:41Bonjour, Noémie.
02:42Bonjour.
02:43Oui, j'en ai déjà entendu parler, que ce soit au lycée ou avec mes amis.
02:47C'est un terme qu'on a déjà entendu passer.
02:49Après, forcément, on ne s'y attarde pas beaucoup, étant donné qu'on n'est pas forcément...
02:56Concerné, on ne se sent pas forcément concerné.
02:57Alors, vous, comment vous avez découvert qu'on vous avait volé des photos ?
03:00Je me réveille un matin, on est en 2022, et je me fais DM, c'est-à-dire qu'on m'envoie un message en privé sur Instagram par un parfait inconnu,
03:11qui m'explique qu'il a été ajouté par un compte Snapchat, qui se prénomme Noémie.s,
03:18et il me dit qu'il y a des photos de moi nue qui tourneraient sur cette application.
03:23D'accord.
03:25Donc, des photos de vous nue.
03:26Comment cet inconnu avait compris qu'il s'agissait d'un piratage ?
03:30C'est ce qu'il vous a alerté sur le fait que c'était un piratage ?
03:33Oui.
03:33Ou il a cru que c'était du premier degré et que vous aviez posé nue pour les réseaux sociaux ?
03:36Il s'est douté que c'était des montages et que ce n'était pas moi derrière ce compte Snapchat,
03:41étant donné que moi, j'étais en public seulement sur TikTok.
03:44D'accord.
03:45Ça, c'est tous les réseaux sociaux dont on en parlait partout.
03:47Il n'y a pas vraiment de différence, on ne va pas rentrer là-dedans.
03:49Mais en gros, il y avait des comptes diffusés au grand public où il y avait des photos de vous détournées,
03:53où vous étiez nue.
03:55Entre autres, ce faux compte avait donc été créé à votre nom, avec des photos à vous.
04:00Il n'y avait donc aucune manière de comprendre que ça n'était pas vous à l'origine de ça.
04:05Oui, aucune.
04:06Comment vous avez réagi du haut de vos 16 ans avec ces images choquantes de vous ?
04:10Je me souviens que mes premières réactions, ça a été forcément de la peur et aussi de l'incompréhension sur ce qui se passait.
04:18J'ai eu beaucoup de mal à accepter qu'il y avait des images de moi nue qui tournaient.
04:24Et la peur a pris le dessus, c'est ce qui a fait que j'ai mis de côté en fait ce qui se passait,
04:29parce que je ne savais pas comment réagir face à ça.
04:32C'est-à-dire que vous n'en avez pas parlé à vos parents ?
04:34Non, je l'ai gardé pour moi jusqu'à vos 19 ans.
04:37Jusqu'à vos 19 ans, pour quelle raison vous n'en avez pas parlé à vos parents ?
04:40Parce que quand on regarde les photos qui tournaient sur moi, j'avais forcément honte de ce qui m'arrivait.
04:46Et de un, j'avais un peu de mal à montrer ça à mon père, lui montrer des photos humiliantes à mon sujet,
04:52des messages aussi humiliants à mon égard, j'avais du mal à lui montrer ça.
04:56Il y a que moi, j'avais honte de moi sur ces photos, alors que ce n'était pas moi, mais j'avais honte de ce qui se passait.
05:01Je me voyais mal descendre dans le salon et dire à mon père, papa, écoute, il y a des photos de moi nue qui tournent.
05:06C'était quoi comme genre de photos exactement ?
05:07C'était des photos vraiment à connotation sexuelle, directe ?
05:12Des fois, c'était juste seulement mes photos.
05:13Des photos vraiment lambda que je pouvais poster sur les réseaux sociaux.
05:17Et des fois, ça pouvait être des nudes de femmes qui tournaient sans qu'on voit leur tête.
05:21Et ils utilisaient le pronom « je » pour faire semblant que c'était moi qui étais derrière ces comptes.
05:28Et quel genre de messages vous avez reçu suite à la publication de ces photos ?
05:32Je n'ai pas forcément reçu de messages, moi, personnellement, dans mes comptes privés.
05:36Mais je sais que je me suis fait interpeller plusieurs fois dans mes messages privés Instagram
05:39pour me dire « écoute, fais attention, il y a des photos de toi qui tournent sur Instagram, sur Snapchat, sur Telegram. »
05:46Et donc, sur ces photos, il y avait du texte qui parlait en votre nom comme si vous exposiez vous-même ces photos et ces photos à caractère pornographique.
05:55Vous en avez parlé à des copains, à défaut d'en parler avec vos parents ?
05:59Au début, non. J'ai vraiment tout gardé pour moi parce que je n'avais pas forcément un très bon entourage sur qui comptait.
06:06Donc, ça a pris du temps avant que je puisse m'ouvrir à quelqu'un.
06:10Et au bout de 2-3 mois, j'en ai parlé à un de mes meilleurs amis qui s'appelle Paul.
06:13Oui, mais 2-3 mois, en fait. Vous avez quand même attendu 2-3 mois parce que vous aviez honte.
06:17Olivier, quand on est parent ou grand-parent, je pense à tous ceux qui nous écoutent, cette jungle des réseaux sociaux, ça peut évidemment faire très peur.
06:24Je vois même tous les termes qu'utilise Noémie. Tout le monde n'est pas forcément capable de tout dépatouiller et essayer de comprendre.
06:30Est-ce qu'on est suffisamment armés aujourd'hui pour venir en aide à nos jeunes, pour les protéger ?
06:36Non, je ne crois pas. Le récit de Noémie, il est tout à fait caractéristique.
06:40Elle explique bien cette sidération qu'éprouvent les gens qui sont victimes de ces faux.
06:47Souvent, quand on attrape le responsable, il va dire, ce n'est pas grave, de toute façon, c'était pour de faux, c'était bidonné.
06:54Mais le choc que ressent la victime, il est vrai.
06:57La photo est fausse, mais le choc est vrai.
06:59Parce que l'image, elle a été vue par des amis, par la famille, par des collègues, des copains, des profs.
07:03Donc, non, on n'est pas assez éduqués à cette problématique.
07:08Alors, Noémie a réussi à mettre la main, justement, sur celui qui faisait circuler ses photos.
07:12Mais ça arrive bien plus tard et vous allez voir que c'est assez sidérant aussi, quand on découvre qui c'est.
07:16Juste, est-ce que c'est... Alors, pardon, mais c'est possible de créer des comptes sur des réseaux sociaux en usurpant une identité comme ça ?
07:23C'est facile ? C'est très facile.
07:25Donc, moi, je peux me faire passer pour n'importe qui.
07:26Absolument. Grâce à cette fameuse intelligence artificielle, on peut générer des images de photos de profils qui ont l'air vraies, mais qui n'existent pas.
07:33La personne n'existe pas.
07:35Complètement affolant, en fait.
07:36C'est complètement... L'intelligence artificielle et l'utilisation des deepfakes, c'est l'éléphant dans le corridor, quoi.
07:41On ne le voit pas, alors qu'on ne devrait parler que de ça.
07:43Le danger de l'IA, ce n'est pas les robots tueurs.
07:46C'est tout ce bidonnage qui va impacter nos vies.
07:48Donc, on peut créer très facilement de faux profils, avec de fausses photos, de fausses adresses.
07:53Et donc, créer, comme ça, un personnage complètement virtuel, qui peut être complètement mal intentionné.
07:59Et ça donne des situations comme celle de Noémie, petite jeune fille de 16 ans, complètement affolée, qui n'ose même pas en parler à ses parents.
08:05Vous êtes nombreux à nous appeler au 3210.
08:07Vous réagissez également au 64900.
08:09Vous envoyez jour suivi de votre message ou de votre question.
08:13Votre question, vos questions.
08:15Vous vous demandez comment mieux accompagner vos ados, ou même d'éviter d'être vous-même victime d'une usurpation d'identité.
08:21Vous n'hésitez pas. On vous attend. A tout de suite sur RTL. Merci d'être avec nous.
08:24Merci infiniment d'être avec nous sur RTL pour une émission extrêmement importante.
08:28Nous sommes de retour avec Noémie.
08:30On vous explique depuis tout à l'heure sa vie d'adolescente qui a été bouleversée à cause des réseaux sociaux,
08:35puisque des photos d'elle, ce qu'on appelle des deepfakes, ont été truquées et détournées pour en faire du contenu pornographique,
08:42alors qu'elle n'avait que 16 ans.
08:44Olivier Lascar, qui est journaliste spécialiste de ce sujet,
08:48est-ce qu'il existe aujourd'hui, nous pose Olivier, un autre Olivier,
08:52il nous demande est-ce qu'il existe aujourd'hui un moyen de faire supprimer rapidement ce genre de contenu détourné
08:56ou un compte tout simplement qui usurpait notre identité ?
09:00Oui, les deepfakes pornos, les montages comme ceux décrits par Noémie, sont interdits par la loi.
09:06Donc toutes les plateformes ont, alors il faut chercher les notes de bas de page,
09:10les adresses, les emails qui vont bien,
09:12mais ils sont obligés de mettre un accès particulier pour faire des mails en disant
09:17ces documents me concernent et me mettent dans des situations...
09:22Donc on alerte la plateforme.
09:23On peut les alerter. Par contre, il faut avoir un réflexe, c'est prendre des captures d'écran.
09:26Il faut bien fournir des documents parce que sur Internet, ça va, ça vient
09:33et le faussaire peut faire disparaître les documents aussi rapidement qu'il les a émis.
09:38Et ça marche ça, de prévenir la plateforme ? Elle supprime tout ?
09:41Ça marche de mieux en mieux, mais par contre, il y a un facteur temps qui est important.
09:44Il faut réagir le plus vite possible.
09:46Oui, parce qu'eux-mêmes ne réagissent pas forcément très rapidement, les Facebook et compagnie.
09:50Noémie, est-ce qu'il y a un photomontage qui vous a particulièrement marqué ?
09:54Oui, il y en a un qui m'a particulièrement marqué.
09:57C'était une photo que j'ai publiée dans une story Instagram,
10:00c'est-à-dire dans une photo qui est éphémère et qui ne dure que 24 heures.
10:04J'ai fait une photo dans une cabine d'essayage avec une tenue vraiment très appropriée,
10:10rien d'alarmant et rien de dénudé surtout.
10:13Et cette photo, elle s'est retrouvée sur un canal Telegram.
10:16C'est encore un autre réseau social.
10:19Un autre réseau social.
10:20C'est comme des groupes de discussion.
10:21Vous avez certainement entendu parler WhatsApp,
10:23où il y a des groupes comme ça, tout simplement,
10:25de personnes qui discutent entre elles, c'est un peu ça.
10:27Et j'étais nue dessus.
10:30Et c'était exactement la même photo que j'ai faite dans la cabine habillée,
10:34mais j'étais nue.
10:35En fait, elle était vraiment détournée à l'immédiat.
10:38Oui, et très réaliste.
10:40Très, très réaliste.
10:41Et même moi, j'aurais pu croire que j'étais nue sur cette photo, en fait.
10:44Vous êtes devenue quel genre de jeune fille ?
10:47Stressée, angoissée ?
10:48Vous aviez même peur dans votre vie réelle ?
10:51Oui, j'ai toujours eu peur.
10:52Et j'ai toujours eu cette boule d'angoisse qui était constante, en fait.
10:57Parce que forcément, ça a été devenu quotidien, en fait, ce que je vivais.
11:02Donc forcément, le stress et l'anxiété, ça a été...
11:05Crescendo, oui.
11:06Ça a été crescendo, vraiment.
11:08Et oui, j'ai vécu avec ça durant toute mon adolescence, en fait.
11:11Vous aviez peur de croiser des personnes dans la rue qui vous prennent pour cette jeune fille que vous n'étiez pas ?
11:15Oui, surtout quand mon adresse, elle a été divulguée sur ces réseaux-là.
11:19Mais non, qui a diffusé...
11:20Il y a une personne qui a diffusé votre adresse personnelle ?
11:22Oui, enfin, la ville où j'habitais a été divulguée.
11:26Et j'ai commencé à avoir très peur.
11:29Et je me confinais, en fait, constamment à la maison.
11:31Et là, vous n'en aviez toujours pas parlé à qui que ce soit ?
11:33Personne.
11:34Est-ce qu'on est resté dans la sphère virtuelle ?
11:37Ou est-ce que ça a fini par vous porter préjudice au lycée, Noémie ?
11:41Oui, dans mon premier établissement, parce que j'ai changé deux fois d'établissement durant mes années de lycée.
11:49Une fois que j'ai quitté mon premier établissement, j'ai entendu des échos comme quoi des nudes tourneraient sur moi.
11:54Alors des nudes, c'est des photos de vous nues ?
11:55Des photos de moi nues, oui.
11:57Et une fois que je suis rentrée dans mon nouveau lycée, il y a des personnes qui sont venues me voir en me disant
12:02est-ce que c'est toi qui tournerais sur les réseaux sociaux, en fait ?
12:07Et il y a eu des groupes de discussion entre jeunes ados où ces photos ont circulé ?
12:11À part celui qui a été créé en mon nom, non. Il n'y en a pas eu d'autres.
12:16Donc il y a eu un groupe de discussion en votre nom sur un réseau social où vous diffusiez vous-même, soi-disant, des photos ?
12:22Oui.
12:23Alors à quel moment vous avez décidé d'en parler à quelqu'un ?
12:28Pardon mais je me mets à la place de votre mère ou de votre père et je me dis à quel moment vous en avez parlé ?
12:33En fait avec le temps, forcément je me suis créé un entourage et j'ai pris le temps d'en parler à des amis à moi
12:39et à la maman de ma meilleure amie qui a été comme une mère durant cette épreuve étant donné que je n'arrivais pas à en parler à mes parents.
12:45Et c'est ce qui m'a beaucoup aidée en fait parce que ça m'a apporté du soutien, ça m'a apporté de l'aide, du courage
12:50et ça m'a aidée à affronter en fait ce qui se passait sur les réseaux sociaux.
12:55Alors maintenant on va passer, donc au moment où vous avez décidé, vous avez réussi à reprendre les choses en main,
13:00il fallait savoir démasquer qui était à l'origine de ça. Comment vous y êtes prise ?
13:05Étant donné que les photos qui tombaient sur les réseaux sociaux, c'était des photos qui étaient publiées dans mes comptes privés,
13:11j'ai vite compris qu'il y avait quelqu'un parmi mes abonnés qui les prenait en capture.
13:15Donc c'était parmi vos connaissances qu'il y avait quelqu'un qui faisait des photos de ce que vous diffusiez pour les diffuser ailleurs ?
13:20C'est ça, il les prenait en capture d'écran et les divulguait du coup sur les autres plateformes.
13:24Donc j'ai vite compris que parmi mes abonnés, il y avait quelqu'un qui faisait tout ça.
13:28Donc j'ai décidé de poster des stories sur Instagram en masquant une certaine partie de mes abonnés
13:34et si la photo tombait et qu'il y avait imaginons 15 personnes qui l'avaient vue...
13:39Alors pour décortiquer, vous avez joué à l'appât.
13:42Donc c'est ça, vous avez diffusé des photos de vous et vous les envoyez à des personnes précises
13:48pour savoir qui potentiellement récupérait cette photo pour la diffuser après sur des groupes malveillants.
13:54Oui, c'est ça.
13:55Donc ça a fait entonnoir.
13:56C'est ça.
13:57Et alors vous avez fini par tomber sur combien de personnes l'entonnoir ?
14:00Vous avez fait le tri au fur et à mesure ?
14:01Oui, au fur et à mesure j'ai fait le tri.
14:04Je suis tombée du coup à deux personnes en octobre 2024.
14:06Et j'ai commencé cette enquête en 2023, donc ça a pris deux ans.
14:12Et pendant deux ans vous avez subi ce harcèlement ?
14:15Oui, deux ans, oui.
14:15Tous les jours avec des notifications quotidiennes m'humiliant et m'insultant.
14:19Et donc ces deux personnes, avant de nous dire qui était finalement le coupable,
14:25quel était leur profil ?
14:26C'était que des hommes, parce que j'ai décidé de trier dès le début femmes et hommes en fait.
14:33Et donc j'ai gardé que des hommes qui étaient dans mon ancien établissement,
14:37étant donné que j'étais mal entourée, etc.
14:38Ça a été le premier instinct que j'ai eu, c'était de prendre tous les hommes que j'avais dans mon ancien établissement.
14:44Des jeunes hommes de votre âge ?
14:46De mon âge, de mon âge, oui.
14:48Et petit à petit du coup je suis tombée à deux suspects en 2024.
14:53Quel était leur profil à ces suspects ?
14:55D'un côté j'avais la personne sociable, souriante, qui était un peu populaire entre gros guillemets au lycée.
15:03Et de l'autre j'avais un profil qui était beaucoup plus discret, beaucoup plus intelligent,
15:08très dans son coin en fait, qui n'adressait pratiquement la parole à la personne.
15:11Alors vous allez me dire comment vous avez démasqué le coupable.
15:15Ça sert à quelque chose d'aller à la police Olivier ?
15:16Oui, il faut aller à la police.
15:18Alors elle a super bien réagi Noémie avec cette enquête.
15:21D'abord elle était avec des documents qui étaient d'accès privé sur les réseaux sociaux.
15:25On peut verrouiller quand même en amont pour faire en sorte que les photos ne soient pas vues par tout le monde.
15:29Le grand public, oui c'est ça.
15:30Donc c'est ce qu'elle a fait. Malheureusement ça n'a pas suffi.
15:33Donc elle a fait son enquête elle-même, elle a eu beaucoup de courage.
15:36Mais c'est vrai que si aujourd'hui ça arrive à quelqu'un, c'est la vertu de votre émission,
15:39il faut que cette personne elle sache qu'elle est en droit de porter plainte.
15:44C'est complètement hors la loi.
15:45Et du coup elle aura l'aide des autorités ?
15:48Elle aura l'aide des autorités, oui.
15:50Alors effectivement c'est le parcours du combattant.
15:54Ce sont des délits qui sont nouveaux.
15:56Donc il va falloir qu'elle trouve des oreilles attentives dans le commissariat où elle va aller.
15:59Mais c'est complètement hors la loi.
16:01Donc il faut absolument aller porter plainte.
16:03On n'a pas le droit de trafiquer l'image d'une personne sans son consentement.
16:08Alors qui était ce garçon derrière ce harcèlement ?
16:10On va en parler avec vous Noémie.
16:12Donc c'est totalement improbable.
16:14Et puis vous allez répondre aussi à toutes nos questions Olivier.
16:16Toutes les questions que nos auditeurs se posent sur cette IA avec laquelle nous allons devoir composer
16:21et dont on doit se méfier.
16:22A tout de suite.
16:23Merci d'être avec nous dans Un jour une vie sur RTL.
16:26Nous sommes de retour avec Noémie qui a été victime de ce qu'on appelle les deepfakes,
16:30des photomontages qui lui ont rendu la vie impossible.
16:33Noémie a décidé de mener sa propre enquête pour démasquer son harceleur.
16:36C'est ce qu'elle nous raconte depuis tout à l'heure.
16:38Et donc au final, il ne restait plus que deux suspects parmi ses connaissances.
16:42On parle donc de très jeunes hommes.
16:45Qui était donc le coupable Noémie ?
16:47C'était mon camarade de classe.
16:49Durant mes années de collège, il a été dans ma classe en quatrième et en troisième.
16:53Donc c'est un garçon de votre âge qui vous connaissait personnellement ?
16:56Oui, exactement.
16:57Vous êtes allée le confronter ?
16:58Non.
16:59Qu'est-ce qu'il lui a pris ?
17:00Enfin pardon, mais c'est quoi ?
17:02C'est de la vengeance ?
17:02Vous l'aviez éconduit ?
17:04Pourquoi il a fait ça ?
17:05Vous avez une idée ?
17:05Oui, parce qu'étant donné que j'ai porté plainte, moi en octobre 2024 contre X,
17:11parce que je ne savais pas encore qui était le coupable,
17:14quand il s'est fait prendre, l'excuse qu'il a donnée au policier,
17:18c'est comme quoi je l'aurais recalé en troisième.
17:22C'est-à-dire qu'il aurait demandé que je sorte avec lui.
17:25Oui, c'est ça, vous l'aviez conduit, c'est ça.
17:27Et que j'avais dit non.
17:27Et il a voulu se venger ?
17:29Oui, il avait cette soif de vengeance et d'humiliation, en fait, à cause de mon nom, en fait.
17:34Est-ce que, c'est-à-dire que là, c'est ce que je comprends,
17:37c'est que ce ne sont pas que des spécialistes ou des initiés qui réalisent ces deepfakes et ces photomontages ?
17:43N'importe qui, y compris un jeune homme de 16 ans, peut chez lui porter préjudice de cette manière
17:48et créer ces photos.
17:49C'est facile à créer ces photomontages ?
17:51Oui, c'est devenu terriblement facile grâce au progrès de l'intelligence artificielle.
17:55Donc avant, il fallait être une sorte de Mozart de l'informatique pour arriver à faire ces trucages.
17:59Aujourd'hui, ce n'est plus du tout le cas.
18:01Il existe des applis qui sont en accès libre.
18:04Il existe des solutions extrêmement faciles d'usage qui permettent de truquer, par exemple, des photos.
18:10Mais il faut citer aussi les sons.
18:11Aujourd'hui, l'audio peut se truquer extrêmement facilement.
18:15C'est-à-dire, si on récupère combien de secondes de ma voix, on peut la truquer et lui faire dire n'importe quoi ?
18:21Je vais vous faire peur.
18:22Il suffit de cinq secondes de la voix d'une personne pour fabriquer un double numérique.
18:28Donc ça veut dire qu'aujourd'hui, on peut avoir un coup de fil de son banquier
18:31qui vous demande de délivrer une somme d'argent importante.
18:35Et il faut avoir le réflexe de lui poser des questions qui permettront de vous rendre compte
18:39que c'est vraiment votre banquier et pas une voix deepfake.
18:42Aujourd'hui, on en est là.
18:43Donc c'est vraiment un problème, non pas de santé publique, mais de gouvernance.
18:47Vous voyez mon regard à câblé, c'est pour ça que vous soyez.
18:49Oui, je le vois.
18:50Vous avez écrit Deepfake, l'IA au service du faux, aux éditions Hérold, Olivier.
18:56Est-ce qu'il y a Thierry qui nous a écrit au 3210 et qui nous dit
18:58« Existe-t-il des manières de détecter les fausses vidéos ou les fausses photos générées par l'IA ? »
19:04En effet, une super application ou un super logiciel qui pourrait scanner et dire tout de suite
19:09si c'est du faux ou du vrai, ça existe ?
19:10C'est le rêve, mais ça n'existe pas.
19:12Ça n'existe pas encore.
19:13Il y a des labos spécialisés dans l'informatique qui travaillent à ces solutions.
19:17Mais aujourd'hui, il n'y existe pas de solution technique
19:20auxquelles on pourrait faire manger un document, une photo par exemple,
19:24et qui permettrait de dire « Elle est fausse à 100% » ou « Elle est vraie à 100% ».
19:27Ça n'existe pas malheureusement.
19:29Donc il faut vraiment qu'il y ait un travail de vigilance de chacun d'entre nous
19:32et c'est ce qu'on appelle l'éducation aux sources.
19:36Il faut toujours se poser la question de qui émet ce document ?
19:41Est-ce que dans le cas des médias, est-ce que c'est une source médiatique sûre ?
19:44Est-ce que dans le cas de la sphère personnelle, est-ce que c'est des amis ?
19:47Mais vous savez, il faut presque en revenir au truc d'agence secret,
19:50avec des questions dont seul l'interlocuteur peut connaître la réponse.
19:54Oui, le nom de mon premier animal de compagnie.
19:56Exactement, on en est là aujourd'hui, mais il faut avoir ce type de réflexe en tête.
20:00Est-ce que ce jeune homme a été condamné, Noémie ?
20:02Donc il est passé devant le juge ?
20:04Oui, il est passé devant le juge le 1er octobre 2025.
20:08Et de quelle peine il a écopé ?
20:09Il s'est pris 6 mois de prison avec sursis,
20:13un suivi psychiatrique,
20:15l'interdiction de rentrer en contact avec moi pendant 3 ans,
20:17et des dommages d'intérêt dans mon temps de 4 000 euros.
20:22Est-ce que vous avez quand même fini par en parler à vos parents ?
20:25Oui, j'en ai parlé à mes parents.
20:27À quel moment vous en avez parlé à vos parents ?
20:29Juste avant le procès en fait.
20:31Et comment ont-ils réagi ?
20:33Forcément, étant donné que j'étais une victime,
20:35leur réaction n'a pas été de la colère ou de l'énervement parce que je l'aurais caché.
20:38Ils ont compris en fait la facette du fait que c'est compliqué d'en parler
20:42et que j'avais honte de vivre tout ça.
20:45Donc ils ont été très à l'écoute,
20:47ils m'ont beaucoup écoutée,
20:48ils m'ont prise dans leurs bras,
20:50ils ont été très bienveillants,
20:52inquiets aussi beaucoup.
20:53Et oui, mon père, je sais qu'il me l'a dit,
20:56qu'il avait du mal à dormir la nuit
20:58après qu'il ait découvert tout ça.
21:00Bien sûr.
21:01On doit également se méfier des images, Olivier,
21:03grand public,
21:04les images qui circulent,
21:05pas seulement sur des jeunes femmes, des jeunes hommes,
21:07mais des images politiques,
21:09des images également de catastrophes naturelles.
21:11Aujourd'hui, les deepfakes, c'est partout en fait.
21:13C'est partout parce que ça peut manipuler une personne individuellement,
21:16mais ça peut aussi manipuler les opinions.
21:18On a vu par exemple le deepfake autour de Macron,
21:22l'épisode célèbre de la gifle dans l'avion.
21:25Ça a été étiré à l'infini dans des deepfakes
21:28qui étaient des vidéos avisées comiques,
21:31si on veut.
21:33Mais dans certains cas,
21:36on peut truquer complètement.
21:38Il y a eu un cas célèbre en Slovaquie,
21:40en Slovaquie,
21:41à trois jours d'une élection législative
21:44où un deepfake audio a été diffusé sur Internet
21:47où on entendait le leader du parti pro européen
21:50qui menait les sondages.
21:52Et d'après ce son,
21:53il expliquait comment il allait bourrer les urnes
21:55pour truquer l'élection.
21:56On s'est rendu compte que c'était un deepfake,
21:58mais trois jours après, il a perdu.
22:00Noémie, qu'est-ce que vous auriez envie de dire
22:03à tous les adultes qui nous écoutent
22:05et également tous les jeunes ?
22:06Vous avez envie de dire quoi aujourd'hui au micro d'RTL ?
22:09De faire attention parce que, malgré tout,
22:12celui qui m'a causé tout ce tort et cette humiliation,
22:14ça n'a pas été un inconnu.
22:15Ça a été quand même quelqu'un que je connaissais un minimum.
22:18Donc oui, de se méfier des apparences
22:19et de prendre conscience que chaque photo
22:21qu'on peut publier sur Internet,
22:23elle peut être utilisée.
22:24En fait, elle est à la portée de tout le monde.
22:26Donc avoir conscience que chaque poste est utilisé
22:30et ça peut se retourner contre vous.
22:32Et donc se montrer d'une extrême vigilance.
22:34Merci beaucoup Noémie pour votre franchise.
22:37Merci Olivier d'avoir été avec nous.
22:38Olivier Lascard, auteur de Deepfake,
22:40l'IA au service du faux aux éditions Erol.
22:43Merci également à toute mon équipe.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations

17:36