Skip to playerSkip to main content
  • 8 hours ago

Category

🗞
News
Transcript
00:00– Bonsoir Jules. – Bonsoir Maria.
00:04– Direction aujourd'hui le Soudan, ou presque, des vidéos mettant en scène la pire crise humanitaire au monde,
00:11comme le décrit l'ONU, se multiplient sur les réseaux sociaux.
00:14– Oui, premier exemple, avec cette vidéo, vous allez la voir d'une femme ligotée,
00:19contrainte de courir à côté d'un véhicule tenu par un homme en treillis.
00:23Cette vidéo, elle a été vue des millions de fois sur les réseaux sociaux, elle a ému les internautes.
00:28Eh bien pourtant, cette scène n'a jamais eu lieu, elle a été générée par l'intelligence artificielle.
00:34On peut s'en rendre compte relativement facilement en se concentrant sur la partie où il y a la femme,
00:39avec cet effet jeu vidéo sur l'image qui n'est pas très réaliste,
00:43et qui trahit donc l'utilisation de l'intelligence artificielle.
00:46Mais, et c'est là que le phénomène devient de plus en plus inquiétant,
00:50d'autres vidéos prétendument filmées au Soudan sont, elles, ultra réalistes.
00:56Exemple, avec cet enfant en train de pleurer face à la caméra, en train de demander de l'aide,
01:04il faut être vraiment très attentif pour déceler les quelques imperfections sur l'image.
01:10Il faut se concentrer sur les mouches qui sont sur son visage,
01:14où certaines parties des corps des mouches disparaissent, puis réapparaissent,
01:18ce qui permet de comprendre que la vidéo n'est pas authentique.
01:21Mais on va aller encore plus loin, troisième exemple, avec cette vidéo,
01:27qui, elle, ne présente aucun défaut, a priori, sur l'image.
01:31On voit une femme âgée qui s'adresse une nouvelle fois à la caméra,
01:35et qui tient un enfant dans les bras.
01:37Le seul moyen de se rendre compte que c'est une vidéo générée par l'intelligence artificielle,
01:41et bien, vous le voyez, c'est de s'intéresser au sigle.
01:43Sur l'image, Sora, c'est une application qui permet de créer des vidéos avec des mouvements et des sons hyper réalistes.
01:51Des vidéos comme celle-ci, Jules, on en compte des milliers sur les réseaux sociaux,
01:55avec toujours la même recette.
01:56Oui, cette internaute, vous allez le voir sur TikTok, en a fait sa spécialité.
02:01Vous voyez un défilé des dizaines et des dizaines de vidéos,
02:04qui cumulent des millions de vues sur le réseau social.
02:07La grande majorité mettent en scène des femmes ou des enfants en pleurs, qui demandent de l'aide.
02:13D'autres vidéos postées par d'autres internautes semblent, elles, dénoncer l'implication des Émirats arabes unis dans le conflit.
02:20On sait qu'Abou Dhabi est accusé par l'armée régulière soudanaise de soutenir les rebelles des FSR.
02:25Et bien, cette vidéo, générée, elle aussi, par l'intelligence artificielle,
02:30on peut le voir avec quelques défauts, notamment sur les mains,
02:32montrent des hommes revêtus de l'habit traditionnel émiratif
02:37et qui lancent les restes de leur repas à des enfants soudanais en détresse.
02:41C'est-on qui se cache derrière ces comptes ?
02:44Difficile à savoir. Combien sont-ils ? Où sont-ils basés ?
02:48Les internautes qui diffusent ce genre de vidéos se comptent par dizaines.
02:50Pourquoi ? Parce qu'il suffit d'avoir un téléphone et un abonnement à une application d'intelligence artificielle
02:55pour commencer à créer ce genre de contenu.
02:58Les journalistes du Média 20 Minutes ont réussi à en identifier deux.
03:04Aucun n'est basé au Soudan.
03:06L'un est en Arabie Saoudite et l'autre en Asie du Sud-Est.
03:10Mais les deux interrogés n'ont donné aucune explication sur la raison de leur geste.
03:15Et pourtant, ce geste, il pose un vrai problème d'instrumentalisation.
03:19Oui, parce que quand on voit l'ampleur du phénomène,
03:22on pourrait se dire à première vue que ça met la lumière sur un conflit trop longtemps passé sous silence,
03:27que les spectateurs qui tombent sur ce genre de vidéos peuvent ensuite s'intéresser davantage au conflit.
03:32Mais la réelle conséquence de ces pratiques, c'est l'invisibilisation des vraies victimes.
03:38Il existe déjà, malheureusement, suffisamment de témoignages comme celui-ci
03:42de personnes qui ont réussi à fuir les massacres ou qui évoquent les exactions qu'elles ont subies
03:49sans qu'il soit nécessaire de diffuser de fausses informations.
03:52D'autant plus que ces vidéos, pour paraître encore plus réalistes,
03:55elles copient, elles réutilisent les hashtags, les référencements utilisés par les journalistes,
04:01ce qui a pour effet de noyer les vraies victimes dans un océan de faux témoignages.
04:06Il y a aussi peut-être des motivations politiques.
04:09On l'a vu dans la vidéo qui met en scène un prétendu émirati au Soudan.
04:13Ce qu'il faut comprendre surtout, c'est que ces vidéos génèrent énormément de vues.
04:181,6 million, 2,9 millions et qui dit vu, dit monétisation, dit de l'argent fait sur le dos
04:25de la détresse des civils soudanais.
04:28Et puis enfin, la dernière conséquence de ces pratiques, c'est de rendre le travail des enquêteurs
04:32encore plus difficile pour retrouver les vraies victimes.
04:35Il n'y a donc aucune bonne raison de créer ou de partager ce genre de contenu.
04:40C'était la chronique Info-Antoxe de Jules Boiteau.
04:42Merci à vous, Jules.
Be the first to comment
Add your comment

Recommended