00:00On termine cette édition avec Anthony Level, bonjour.
00:08Bonjour Delphine.
00:09Vous êtes expert en réglementation affaires publiques internationales dans le domaine de l'IA, du numérique, de l'information, des médias.
00:15Ancien directeur des affaires publiques d'ailleurs de TF1, je vous avais reçu à cette occasion.
00:19Vous avez évolué dans le milieu du digital, je vous ai reçu aussi quand vous avez commencé à travailler sur le watermarking avec Imatag,
00:25qui est une spin-off d'Inria, et vous avez récemment cofondé l'Abel4AI,
00:30donc une solution européenne pour l'identification des contenus générés ou manipulés par l'IA.
00:36Alors, je voulais qu'on discute ensemble d'une nouvelle réglementation chinoise récente,
00:41dont le nom est « Mesures pour l'identification du contenu synthétique généré par l'IA ».
00:47Quelles sont ces mesures qui sont prises ?
00:50Merci Delphine déjà pour votre invitation.
00:51Et puis donc effectivement, Pékin a frappé fort récemment, le 14 mars dernier,
00:56avec cette loi dans laquelle elle vise à reprendre le contrôle sur les flux d'informations chinois.
01:02Parce que pour pouvoir reprendre le contrôle, il faut savoir quelle est la nature du contenu qu'on regarde,
01:05et c'est impréalable.
01:06Donc elle a décidé de le faire.
01:07Elle a décidé de le faire très rapidement, puisque ce sera en vigueur le 15 septembre prochain.
01:12C'est-à-dire qu'en fait, ce qui est notable, c'est que c'est la première réglementation de ce type
01:15qui va être en exécution dans le monde.
01:18Donc ça va être un gros précédent pour tous les autres pays.
01:19Alors j'ai envie de dire, nous on a quand même de la IAC en Europe.
01:22Oui, mais ces mesures de transparence ne démarquent qu'à l'été 2026.
01:26Sur ce sujet-là.
01:27Donc un petit peu plus tard que la Chine.
01:29Donc l'objectif de Pékin, c'est de promouvoir avant tout une IA de confiance, une IA fiable, une IA saine.
01:36C'est le premier objectif.
01:37L'objectif également du contrôle.
01:39Le deuxième objectif, c'est de protéger sa population contre les deepfakes.
01:42Il y a eu l'année dernière une affaire retentissante où un célèbre acteur chinois a été deepfaké en ligne
01:46pour en fait obtenir des appels de fonds, des appels de contributions et donc du détournement d'argent.
01:51Sur le terrain chinois, il y a eu aussi pas mal de ce qu'on appelle des arnaques au président.
01:55C'est-à-dire des arnaques financières pour détourner de l'argent,
01:57se faisant passer souvent sous forme de visioconférence pour quelqu'un qu'on n'est pas et faire détourner des fonds.
02:02Ce dont a peur la Chine aussi, c'est les dispositifs de manipulation de masse,
02:08comme il peut y avoir avec la géopolitique internationale.
02:10Elle cherche à se prémunir de ça également.
02:13Donc en fait, la Chine a fait preuve quand même de rapidité, d'agilité et d'anticipation
02:17parce que vous savez que selon certains experts, d'ici la fin de l'année,
02:20c'est 80 à 90% du contenu synthétique, du contenu en ligne qui pourrait être de nature synthétique.
02:25Donc elle est plus rapide que les autres sur ce point.
02:27Et est-ce qu'elle a des mesures spécifiques ?
02:30Oui, c'est des mesures absolument spécifiques.
02:32En fait, qui visent à responsabiliser les générateurs, les plateformes et les citoyens chinois.
02:37Il va se passer trois choses lors de la génération d'un contenu.
02:40Le but de cette réglementation, c'est que le contenu soit étiqueté comme synthétique
02:43de sa conception jusqu'à sa distribution la plus lointaine possible.
02:47Donc sur toute sa chaîne, finalement, de vie, il doit être estampillé comme synthétique.
02:50C'est pas simple de déterminer les responsabilités, justement, de chacun ?
02:53Elle l'a faite. C'est-à-dire que je vais vous l'expliquer.
02:56Au niveau du générateur, il a déjà trois responsabilités.
02:58C'est-à-dire que dès la création du contenu, il doit mettre des cartons, pour si c'est de l'image,
03:03ou des invites vocales, si c'est de l'audio, pour dire directement dans le contenu,
03:06dedans, devant, à l'intérieur, derrière et autour, c'est ce que prévoit cette réglementation,
03:11il doit y avoir une mention comme quoi ce contenu est synthétique.
03:13Et cette mention doit suivre le contenu tout au long de sa vie.
03:15Ça, c'est la première chose qu'il doit faire.
03:17La deuxième, c'est que pour chaque contenu...
03:18C'est une mention cachée ou non cachée ?
03:19Non. Pour le moment, je suis sur les mentions qui sont bien visibles par les citoyens chinois.
03:24Les deux autres sont des mentions cachées.
03:26Les métadonnées, c'est-à-dire c'est un fichier texte qui est attaché à chaque contenu synthétique
03:29et qui va dire « je suis synthétique, je viens de tel générateur et j'ai été créé à telle date ».
03:33Et la troisième mesure d'identification technique, c'est du filigrane numérique,
03:36du tatouage numérique, c'est-à-dire cachée, incrustée très en profondeur dans le contenu,
03:41une carte d'identité du contenu qui reprend finalement les métadonnées du contenu,
03:45mais de manière beaucoup plus sécurisée, de manière à pouvoir rester le plus longtemps possible
03:48malgré des manipulations qui peuvent avoir lieu en ligne sur le contenu.
03:52Donc, trois actions au niveau du générateur.
03:54Puis, une fois que le contenu est généré, trois actions côté distributeur.
03:57La première action, c'est le distributeur, donc une plateforme de distribution à un réseau social chinois,
04:01va chercher s'il y a des mesures implicites, c'est-à-dire est-ce qu'il y a des métadonnées attachées à ce contenu
04:05ou est-ce qu'il y a un filigrane attaché à ce contenu.
04:08Et là, elle le répercute tout simplement sur l'utilisateur en réaffichant des mentions explicites
04:11pendant la consommation du citoyen chinois de la plateforme en question.
04:17Si le contenu n'est pas doté de métadonnées ni de filigrane,
04:21alors elle s'attend à ce que le citoyen chinois déclare de lui-même
04:25qu'il a utilisé par exemple un outil qui n'est pas en Chine, un outil de génération,
04:28et qu'il le déclare lors de l'upload du contenu sur la plateforme en question.
04:32Et si toutefois, il n'y a ni l'un ni l'autre, pas de mention explicite,
04:35pas de mention implicite, pas de déclaration de l'utilisateur.
04:37Alors c'est là où c'est très intéressant, c'est que la plateforme doit faire des efforts
04:41pour essayer de détecter si le contenu contient des traces d'artificialité.
04:45Et il faut savoir que tous les générateurs de contenu contiennent des traces de génération,
04:50ce qu'on appelle des artefacts, des anomalies et des traces.
04:53Souvent c'est sous forme de croix parce qu'en fait le processus de débruitage
04:56d'un contenu généré dans sa génération fait que ça laisse quelques traces.
04:59Vous savez, le synthétique cherche à reproduire la réalité
05:02et ce n'est pas simple du tout de reproduire exactement la réalité.
05:04Donc il y a toujours des choses et on peut les détecter, ces traces,
05:07avec des technologies très spécifiques.
05:09Donc il n'y aura pas de score d'artificialité affiché au public dans ce type de cas,
05:13mais il y aura quand même une mention, ce contenu est suspecté d'être généré par l'IA.
05:18Donc on voit qu'ils vont très très loin.
05:19Ils vont très loin.
05:20Bon, merci pour cette inspiration Anthony Levet, je rappelle que vous êtes le cofondateur de Label4AI.
05:26Merci à tous de nous avoir suivis, c'était Smartech,
05:29on se retrouve très vite sur la chaîne BeSmart4Change.
05:34Sous-titrage Société Radio-Canada
05:37Sous-titrage Société Radio-Canada
Commentaires