Passer au playerPasser au contenu principalPasser au pied de page
  • il y a 4 jours

Catégorie

🗞
News
Transcription
00:01Accompagné ce soir de Mathieu Bocoté, bonsoir.
00:04Bonsoir.
00:04Alexandre Malafaille, bonsoir.
00:06Bonsoir Pierre de Villeneuve.
00:06Et bonsoir à vous Clara Chapaz.
00:08Bonsoir.
00:08Merci d'être avec nous en direct sur Europe 1.
00:10Vous êtes ministre délégué chargé de l'intelligence artificielle et du numérique.
00:14Comme je le disais à l'instant, plusieurs sites pornographiques, Pornhub, YouPorn, RedTube,
00:18vont donc bloquer leur accès en France jusqu'à nouvel ordre à partir de demain.
00:23Pourquoi ? Parce qu'ils ne veulent pas se soumettre à la nouvelle législation française en place.
00:29Tout à l'heure, sur Twitter, votre collègue du gouvernement Aurore Berger,
00:34qui s'occupe de la lutte contre les discriminations, a dit au revoir, merci.
00:39Tant mieux. Vous dites la même chose ce soir ?
00:41Oui, ce soir, je dis que c'est inadmissible ce qu'il se passe quand ces sites disent
00:47qu'ils ne veulent pas se conformer à la régulation en sous-entendant,
00:51ou même en le disant très clairement, que ça serait une atteinte à la vie privée.
00:55Ils mentent. Ils mentent.
00:56Parce que ce qu'on a voulu faire avec la loi qui nous permet de protéger les mineurs
01:02face à ces contenus pornographiques, c'est tout simplement de dire
01:05qu'on ne stigmatise pas les adultes qui veulent consommer ce contenu,
01:09ils font bien ce qu'ils veulent, mais on ne doit pas le faire
01:11au détriment de la protection de nos enfants.
01:13Mais aujourd'hui, quand un mineur va sur ce genre de site,
01:15et c'est la même chose d'ailleurs sur les sites pour les alcools, etc.,
01:18il y a juste cliquer pour dire que vous êtes majeur.
01:21N'importe qui peut cliquer. Est-ce que ça, on va le changer ?
01:23Mais c'est bien le problème. Aujourd'hui, n'importe qui qui cherche à accéder
01:27à ce type de contenu, on a fait l'expérience,
01:29on tombe sur le site internet, et on a devant nous un bouton
01:32qui dit « j'ai plus de 18 ans » et je clique dessus.
01:35Je veux dire, n'importe qui qui a été un enfant,
01:37et je crois qu'on a tous été des enfants,
01:39c'est que c'est absolument facile de cliquer sur ce bouton
01:42et de prétendre qu'on a l'âge pour accéder à ce contenu.
01:45Et bien ce qu'on fait, de façon très ambitieuse,
01:47et je salue d'ailleurs l'action de mon collègue Jean-Noël Barrault
01:50qui a porté cette loi, la loi Sren, on a dit en France...
01:53C'était ministre du numérique avant et qui aujourd'hui est ministre des Affaires étrangères.
01:56Pour resituer, voilà.
01:57Tout à fait, qui était ministre du numérique à l'époque,
02:00et on a dit, et le Parlement a voté cette loi,
02:04en grande majorité, 360 voix ont voté cette loi,
02:07on a dit quelque chose très simple,
02:08on a dit que la France allait être en avance sur cette question,
02:11et obliger les sites pornographiques
02:13à vérifier l'âge des utilisateurs.
02:15De la même façon que, quand on se rend dans un sex shop,
02:20on doit prouver qu'on a plus de 18 ans,
02:21et ça ne choque personne.
02:22C'est plus facile, j'allais dire, le caissier,
02:24il voit si vous avez 13 ans ou 18 ans.
02:27Mais les plateformes, elles ont des solutions techniques pour le faire.
02:30On a créé un référentiel,
02:33ce qu'on appelle le double anonymat,
02:35avec l'Arcom et avec le concours de la CNIL,
02:37parce que la protection des données privées,
02:39c'est très important.
02:40Et c'est là où je suis en colère.
02:41Parce que quand les sites YouPorn, Pornhub disent que ça mettrait en péril la vie privée,
02:47c'est un mensonge,
02:47parce qu'aujourd'hui, on a, avec ce référentiel,
02:51permis à de nombreux sites qui se sont déjà mis en conformité
02:54de protéger nos enfants sans avoir accès à l'information de l'utilisateur.
02:59En double anonymat, c'est-à-dire qu'on se connecte,
03:01la plateforme a simplement l'information de l'âge,
03:04il y a plein de solutions pour le faire.
03:06Ça peut être la pièce d'identité,
03:07ça peut être un tiers de confiance,
03:09ça peut être même, j'ai rencontré une solution technique
03:12qui utilisait le mouvement de la main
03:14pour déterminer l'âge de l'utilisateur.
03:15Toutes ces solutions existent,
03:17toutes ces solutions existent
03:19et permettent de faire quelque chose de très simple,
03:22de garantir que nos enfants n'ont pas accès
03:24à des contenus qui ne sont pas faits pour eux.
03:27Mathieu, côté souris, pourquoi ?
03:29Je m'amusais du mouvement de la main sur un site pornographique,
03:31pardonnez-moi, j'avais environ 7 ans à l'âge mental.
03:33Mais de manière plus sérieuse, cela dit,
03:37la régulation des contenus pornographiques,
03:38je pense que tout le monde comprend
03:39que c'est une nécessité pour les plus jeunes.
03:41Ensuite, est-ce que vous ne craignez pas
03:42que cette volonté de réguler plus largement
03:45les plateformes, les sites, et ainsi de suite,
03:47est-ce que vous ne craignez pas
03:48que sous d'honorables prétextes, dans ce cas-là,
03:51on ait la tentation de réguler toujours davantage,
03:54comme je l'entendais ces jours-ci,
03:55suite aux événements de ce week-end,
03:57il faudrait aussi réguler les réseaux sociaux,
04:00limiter l'expression de telles scènes
04:01qu'on a pu capter comme vidéo, et ainsi de suite.
04:04La volonté, déjà entendue, je crois,
04:05de membres de votre gouvernement,
04:06qui disait peut-être même suspendre les réseaux sociaux
04:08si ça devient nécessaire.
04:10Donc je comprends la régulation dans le cas que vous donnez,
04:12mais est-ce qu'il n'y a pas aujourd'hui
04:12une tentation liberticide dans la volonté d'encadrement ?
04:15Il y a une tentation, même pas une tentation,
04:18il y a un espace numérique
04:20qui s'est construit au détriment de nos jeunes.
04:23Et je crois qu'il faut être très clair sur cette question.
04:25Si les sites pornographiques
04:27avaient pris leur responsabilité
04:28et avaient décidé qu'ils ne se feraient pas d'argent,
04:31sur nos enfants.
04:33Parce que c'est ce qui se passe,
04:35YouPorn, PornHub,
04:36c'est plus de 400 millions d'euros de chiffre d'affaires
04:37qui ne se feraient pas d'argent sur nos enfants,
04:39qui, dès 12 ans, régulièrement,
04:42vont voir ces patients qui ne sont pas pour eux.
04:43Mais je ne vous contredis pas sur ça.
04:45Si ils avaient pris leur responsabilité, ça serait.
04:47Donc moi, je ne suis pas surprise de ce bras de fer
04:48de YouPorn, PornHub et compagnie.
04:51Je ne m'attendais pas à ce qu'ils disent
04:52« Tiens, là, tu arrives vendredi,
04:53je vais mettre un petit peu de vérification. »
04:55Si je peux me permettre, je vais préciser ma question,
04:57je la croirais plutôt claire.
04:58Il y a la question du contenu pornographique.
05:00Tout le monde, à peu près, s'entend sur ça.
05:02Une fois que c'est dit,
05:03la tentation de la régulation des contenus
05:04sur les réseaux sociaux va beaucoup plus loin
05:06de n'importe quel contenu.
05:08Et si je peux me permettre,
05:08mais ça, c'est peut-être mon défaut nord-américain,
05:10je me méfie terriblement lorsque l'État veut me dire...
05:12Je ne parle pas de la pornographie ici,
05:14mais plus largement,
05:14lorsque l'État me dit que j'ai le droit de regarder,
05:16de quelle manière de regarder,
05:17comment interagir,
05:17ce qui est un contenu haineux, pas haineux,
05:19des informations, pas informations.
05:21Là, je m'inquiète lorsque l'État décide
05:22de jouer aux tuteurs.
05:23Mais je vais vous répondre,
05:24parce que vous voyez,
05:25sur le contenu pornographique,
05:26vous êtes d'accord.
05:27Vous vous dites, ça ne pose pas de questions,
05:29c'est normal, on veut protéger nos enfants.
05:31Quand on passe sur les réseaux sociaux,
05:34là aussi, ce n'est pas on veut,
05:35c'est on a décidé en européen
05:37que les réseaux sociaux
05:38devaient respecter nos règles,
05:40c'est-à-dire que de la même façon,
05:43en ligne comme hors ligne,
05:45il y a les mêmes règles.
05:46Et dans ce pays,
05:47vous avez dit d'Amérique du Nord,
05:49ce n'est pas tout à fait la même chose,
05:50mais dans ce pays,
05:51il y a un certain nombre de contenus
05:54qui sont simplement illicites.
05:55Je n'ai pas le droit à cette antenne
05:56de me mettre à avoir des contenus
05:58contre les homosexuels,
06:00des contenus racistes,
06:01des contenus qui appellent au terrorisme.
06:03C'est interdit.
06:04Et il n'y a aucune raison,
06:05et nous avons fait ce choix,
06:07que ce qui est interdit hors ligne
06:08soit autorisé en ligne.
06:10C'est tout simple.
06:11C'est la façon dont on a défini
06:14notre vivre ensemble,
06:15notre liberté d'expression,
06:16qui a un droit absolument fondamental,
06:18mais qui est encadré.
06:19Comme toujours,
06:21c'est la question du glaive et du bouclier,
06:23donc il y a toujours des parades.
06:24Est-ce que vous ne craignez pas
06:25des détournements,
06:26l'usage de VPN ou autre,
06:27qui pourraient évidemment permettre
06:28d'accéder à ces sites ?
06:30Les VPN,
06:31on explique peut-être à ceux qui...
06:32Oui,
06:32c'est une connexion
06:34par le biais de services à l'étranger
06:35qui vous permettent
06:36de réaccéder au service
06:37que vous voulez
06:38sans avoir effectivement
06:38de...
06:39Dans un autre couloir,
06:40il y a un numérique.
06:41Exactement.
06:42Voilà.
06:42Et la deuxième question,
06:43mais qui est en fait
06:44celle qui touche également à la drogue,
06:45c'est comment on soigne le mal ?
06:46Parce que finalement,
06:47il y a une consommation
06:48qui est impulsive,
06:50compulsive,
06:50qui commence très tôt,
06:51très jeune.
06:52Et ça,
06:52comment est-ce qu'on fait en sorte
06:53que plutôt que d'empêcher,
06:55il y a toujours le risque
06:56de contournement,
06:56comment on entrave finalement
06:58l'envie,
06:59comment on éduque,
06:59comment on fait en sorte
07:00que ça soit un peu moins...
07:02Est-ce que c'est du ressort
07:03du numérique déjà ?
07:04Un peu moins l'éviant d'ailleurs.
07:05Oui,
07:05pour la première question,
07:07je ne crains pas,
07:08je le sais,
07:08je veux dire,
07:09on a tous été des enfants.
07:11Combien d'entre nous
07:12ont essayé
07:13avec un ami un peu plus âgé
07:14d'aller acheter une bière
07:15au supermarché
07:16parce qu'on voulait boire une bière
07:17alors qu'on n'avait peut-être
07:18pas l'âge de la boire ?
07:19Des révélations que vous nous faites
07:19avec la rachatrice.
07:21Non mais je veux dire,
07:22on a tous été des enfants,
07:23donc on sait très bien
07:24qu'un enfant potentiellement
07:27essaiera de contourner la règle.
07:29Je ne suis pas naïve.
07:30Pour autant,
07:31je pense que ce qui est très important
07:32dans la question du contenu pornographique,
07:34c'est qu'il y a plus d'un enfant sur trois
07:35qui tombe sur ce contenu
07:37par hasard.
07:38Par hasard.
07:38C'est-à-dire qu'il va chercher
07:40une information,
07:41peu importe d'ailleurs
07:43ce qu'il est en train de chercher,
07:44et il va tomber sur ce contenu-là.
07:45Et c'est sa première rencontre
07:47avec ce contenu pornographique.
07:49Il ne l'a pas voulu.
07:50Et ça,
07:50c'est le minimum des protections.
07:53Alors il y aura toujours,
07:54comme avec toute règle,
07:55des façons d'essayer
07:56de contourner.
07:57Mais aujourd'hui,
07:58notre responsabilité,
07:59comme les sites
08:00eux-mêmes ne l'apprennent pas,
08:02c'est de protéger nos enfants.
08:03Clara Chappaz,
08:03autre sujet,
08:04les réseaux sociaux
08:05sont une menace
08:06pour les moins de 15 ans.
08:08On a parlé de Skinny Talk,
08:09qui est donc ce réseau social
08:13qui faisait l'apologie
08:14de la maigreur.
08:15Mais il y a plein d'autres choses.
08:16Il y a par exemple
08:17ces influenceuses
08:19qui expliquent
08:20comment il faut parler
08:21à son mari.
08:22Et là,
08:22je fais référence
08:23au rapport
08:23sur les frères musulmans.
08:24Il y a l'hyperviolence
08:26des jeunes
08:27qui est également...
08:29Qu'est-ce qu'on fait
08:30sur les réseaux sociaux ?
08:31Comment est-ce qu'on peut
08:32réguler ça
08:32sans évidemment
08:33parler du glaive
08:34et du bouclier ?
08:35Alexandre,
08:35c'est tout à fait juste.
08:36Sans être totalement liberticide.
08:39Oui,
08:39vous parliez aussi
08:40de l'éducation
08:40et j'y reviendrai
08:42parce que je me permets
08:43une toute petite appartie là-dessus.
08:44Bien sûr que l'éducation
08:45c'est fondamental.
08:46J'ai été avec Sarah El-Airy,
08:48la haute commissaire à l'enfance,
08:49auprès d'une association
08:50qui s'appelle
08:51We Are Lovers
08:51dans un collège
08:52il y a quelque temps
08:53qui fait de la sensibilisation
08:54à l'addiction
08:55à la pornographie.
08:56C'est extrêmement important
08:57de parler,
08:58d'expliquer aux jeunes
08:59que déjà on peut en parler.
09:01D'ailleurs,
09:01j'invite tous les parents
09:02qui nous écoutent ce soir
09:03à avoir ces conversations
09:04en famille avec leur enfant.
09:06Ça ne doit pas être tabou.
09:07On doit pouvoir en parler
09:07dans la société
09:08mais on doit pouvoir aussi protéger.
09:10Et sur les réseaux sociaux,
09:12la réponse,
09:13elle est simple.
09:14C'est de dire,
09:14comme je l'expliquais tout à l'heure,
09:16qu'en Europe,
09:17on a fait le choix
09:17de dire que les réseaux sociaux
09:19sont responsables
09:20de s'assurer
09:21que les contenus illicites
09:23ne sont pas mis en ligne
09:25sur leur plateforme.
09:26Ils sont responsables aussi
09:28de ce qu'on appelle
09:29des risques systémiques.
09:31Donc de nous protéger
09:31contre ces risques systémiques.
09:33Et l'exemple
09:33dont vous parliez Skinny Talk,
09:34je veux juste expliquer
09:35très rapidement
09:36ce que c'est Skinny Talk.
09:37Skinny Talk,
09:38c'est une tendance
09:39sur TikTok,
09:40le réseau social TikTok
09:41qui,
09:42la moyenne d'âge
09:42où on se crée un compte
09:43sur TikTok,
09:44c'est 7 ans,
09:45quand c'est interdit
09:45avant 13 ans,
09:46j'y reviendrai.
09:477 ans.
09:48Qui promeut des vidéos,
09:49des millions de vues
09:51sur des vidéos
09:52qui promeuvent
09:53la maigreur extrême
09:53et qui disent aux jeunes filles
09:55il faut mieux être vide
09:56que vilaine.
09:57Tu entends ton estomac
09:59gargouiller,
09:59c'est super,
10:00il t'applaudit
10:00parce que tu t'es affamé.
10:02C'est le genre de contenu
10:03qu'on trouve
10:03sur cette plateforme
10:04par millions de contenus.
10:06Et donc,
10:08ce qu'on a fait
10:08sur cette question-là,
10:09parce que TikTok
10:11n'a pas pris
10:12tout de suite
10:12ses responsabilités,
10:13c'est qu'on ne les a pas lâchés.
10:15Donc, moi,
10:15je suis allée voir TikTok
10:16en France.
10:16Je leur ai demandé
10:17à ce qu'ils agissent
10:18et qu'ils bloquent
10:19ce type de contenu.
10:20Ils ne l'ont pas fait.
10:21On m'a dit,
10:22c'est à Dublin
10:22que ça se passe,
10:23il y a un centre
10:24de responsabilité,
10:24de transparence.
10:25Très bien,
10:25j'ai pris l'avion,
10:26je suis allée à Dublin.
10:27À Dublin,
10:27qu'est-ce qu'on m'a dit ?
10:28C'est compliqué,
10:29Madame la Ministre,
10:30les règles d'utilisation,
10:31vous savez,
10:33c'est pas blanc,
10:34c'est pas noir,
10:34il faut qu'on réfléchisse.
10:35Mais qui fait les règles ?
10:37Qui fait les règles ?
10:37C'est vous.
10:38Ce week-end,
10:39à 23h,
10:40samedi soir,
10:41les équipes de TikTok
10:41nous ont informés
10:42qu'enfin,
10:43ils ont retiré
10:44du moteur de recherche
10:45de la plateforme
10:46ce hashtag
10:47Skinny Talk
10:47qui est inadmissible
10:48parce qu'il fait peser
10:50un risque de santé
10:51terrible
10:51sur nos jeunes filles.
10:53Est-ce que c'est
10:54une bonne chose ?
10:55Oui.
10:55Est-ce que ça reste
10:56un petit pas aussi ?
10:57Est-ce qu'il faut
10:58qu'à chaque fois
10:59qu'on a ce type de problème,
11:00une ministre de la République
11:01se déplace jusqu'à Dublin
11:02pour pouvoir protéger
11:04nos enfants ?
11:05Alors,
11:06la réponse,
11:07c'est une réponse systémique.
11:08C'est ce qu'on a fait
11:09en Européen
11:09avec le Digital Service Act,
11:11c'est de dire
11:11c'est votre responsabilité
11:12et on les contrôlera.
11:14Et j'ai saisi
11:15la Commission européenne
11:16sur cette question.
11:17Mais moi,
11:17je veux aller plus loin.
11:18Aujourd'hui,
11:20il est inadmissible
11:21que nos enfants
11:22aient accès à ce type
11:23de plateforme
11:24parce qu'on parle
11:25des contenus
11:25mais il ne faut pas oublier
11:26que la plateforme
11:27elle-même
11:27est un problème.
11:29Quand on a une plateforme
11:30qui nous met dans
11:31ces bulles
11:31d'enfermement
11:32comme TikTok,
11:33moi j'en ai fait
11:33l'expérience,
11:34j'ai posté une vidéo
11:35sur ce fameux
11:36Skinny Talk
11:37où je dénonçais Skinny Talk,
11:38j'ouvre TikTok,
11:39on pourrait le faire ensemble,
11:40je n'ai que des contenus
11:42qui promuevent
11:42la maigreur extrême.
11:44Ça vous coupe
11:44l'envie de manger,
11:45il faut quand même se le dire.
11:47Quand on est sur Instagram
11:48ou sur ces plateformes...
11:49C'est un problème dans votre propos,
11:50c'est que vous vous appuyez
11:50sur des exemples
11:51tout à fait légitimes,
11:53la lutte qu'on se tripe
11:54de vidéos complètement débiles,
11:55mais ensuite j'ai souvenir,
11:56vous me pardonnerez
11:57d'avoir un peu de mémoire,
11:58de vous avoir entendu
11:59vous inquiéter
12:00des fausses opinions.
12:01Et moi quand on s'inquiète
12:02des fausses opinions,
12:03c'était votre propos,
12:03je vous cite.
12:04De la même manière
12:05quand on a encore...
12:05Monsieur je vous arrête,
12:06là je vous arrête
12:06parce que vous faites
12:07quelque chose
12:07qui n'est pas très chic,
12:08c'est-à-dire que vous prenez
12:09le début d'un propos
12:10que j'ai rectifié
12:11la seconde suivante
12:14et ma position
12:15est très claire
12:16sur cette question,
12:17nous avons décidé
12:19en européen
12:20que l'un des risques
12:21qu'il y a sur la plateforme
12:22c'est les risques
12:24de diffusion
12:24des fausses informations
12:25qui se diffusent,
12:27les fameuses fake news
12:28qui se diffusent
12:28beaucoup plus vite.
12:28Oui mais vous comprenez
12:29que c'est complexe
12:30aujourd'hui des fake news.
12:31Je vous donne un exemple.
12:31Vous avez probablement
12:32entendu parler de la question
12:33de la santé de Joe Biden
12:34tout récemment.
12:35Vous avez souvenu
12:35que la présidence américaine
12:37a menti...
12:38Je vous donne un exemple
12:39parce que vous en trouvez
12:39un peu.
12:40Deux ans de mensonges
12:42de la présidence américaine,
12:43le système mondial
12:44médiatique globalement
12:45dit que ce sont
12:45des fake news
12:46quand on parlait
12:46de la santé cognitive
12:47de Joe Biden
12:47et aujourd'hui,
12:48on apprend que c'était vrai
12:50qu'il était dément.
12:51La question que je pose
12:51c'est est-ce que
12:51le système médiatique global
12:53à part relayer
12:54de la désinformation,
12:55quel est votre rôle
12:56dans tout cela ?
12:56Il y a des règles
12:57partout,
12:58ici aussi
12:59et la règle chez moi
13:01c'est qu'il y a une pub
13:02qui part maintenant.
13:04Donc vous allez répondre
13:04mais après la pub
13:05Clara Chappage
13:06et merci de votre compréhension
13:08comme on dit
13:09dans le langage courant
13:10à tout de suite
13:10sur En Parti
13:11Maëlle Asseline
13:12Europe 1 Soir
13:1319h-21h
13:15Pierre de Villeneuve
13:16Toujours avec
13:16Alexandre Malafaille,
13:18Mathieu Bocoté,
13:19Clara Chappage,
13:20ministre délégué
13:20chargé de l'intelligence
13:22artificielle et du numérique
13:23et Mathieu Bocoté
13:24qui repose sa question.
13:25En quelques secondes,
13:26vous inquiétez
13:27de la désinformation
13:28sur les réseaux sociaux ?
13:29Moi je vous réponds
13:30par l'exemple suivant.
13:31Joe Biden sentait,
13:32on a tous été témoins
13:34pendant plusieurs années
13:35de son effondrement cognitif.
13:36La Maison-Blanche
13:37mentait explicitement
13:39sans gêne.
13:40À la rigueur,
13:40c'est normal,
13:40les politiques mentir,
13:41ça fait un peu partie
13:42du boulot.
13:42Mais cela dit,
13:43les médias
13:44relayaient la chose
13:45conscients de relayer
13:46un mensonge
13:47et accusaient de désinformation
13:48et de fake news
13:49ceux qui nommaient
13:50la démence ouverte
13:51de Joe Biden.
13:52Deux ans plus tard,
13:53un livre est sorti,
13:54vous avez peut-être vu
13:54il y a une dizaine de jours,
13:56qui dit effectivement,
13:57il y a eu un cover-up
13:57pour masquer
13:58l'état de sa santé cognitive.
14:01Effectivement,
14:01les médias y ont participé.
14:03Effectivement,
14:03c'est des désinformations.
14:04Alors moi,
14:05je dis que c'est très bien
14:05de s'inquiéter
14:05des mauvais tweets
14:06qui peuvent passer sur X,
14:07mais ça,
14:08c'est quand même
14:08la désinformation
14:09un peu plus lourde.
14:10Je vois qu'on se dit
14:11que finalement,
14:12ce n'était peut-être
14:12pas si court que ça,
14:13la question.
14:14Je vais essayer
14:14d'être courte
14:15dans la réponse.
14:17Vous me questionnez
14:17sur ce qui s'est passé
14:19tout ça aux Etats-Unis.
14:20Moi, en fait,
14:21pourquoi je suis là ce soir ?
14:22Pour les gens ici,
14:23là, en France,
14:23qui nous écoutent,
14:24toutes les familles
14:24qui nous écoutent,
14:25c'est pour leur dire
14:26quelque chose de très simple
14:26qu'on n'a pas besoin
14:27de rentrer dans tout ça,
14:28c'est que ma priorité,
14:29c'est de protéger
14:30les enfants en ligne.
14:31Alors,
14:31on peut chercher
14:32plein d'excuses
14:34de pourquoi la régulation
14:35ce n'est pas bien,
14:35ceci, cela.
14:36Moi,
14:37je refuse aujourd'hui
14:38qu'un enfant de 12 ans,
14:39toutes les semaines,
14:39il puisse avoir accès
14:40en cliquant sur un bouton
14:41à du contenu pornographique.
14:42Mais ça,
14:43vous l'avez expliqué,
14:44Clara Chandra.
14:44Vous êtes content
14:45que les deux sujets
14:45sont liés ?
14:46Mais alors non,
14:47les deux sujets
14:48ne sont pas liés.
14:48protéger les enfants
14:49de l'accès
14:51au site pornographique,
14:52c'est un de mes combats.
14:54Il y a un deuxième combat,
14:55c'est la protection
14:55des enfants tout court
14:56sur les réseaux sociaux.
14:58Et ça,
14:58je veux bien
14:58qu'on en parle aussi
14:59parce que vous parlez
15:01de désinformation.
15:02Moi,
15:02je vous parlais
15:03de quelque chose
15:03qui est à mon sens
15:04une vraie priorité,
15:06c'est que sans aller
15:07sur le contenu,
15:08les réseaux sociaux,
15:09pourquoi c'est un problème
15:10pour nos enfants ?
15:11Ce n'est même pas tant
15:11pour ce type de contenu.
15:13C'est parce que,
15:14comme je commençais
15:15à le dire tout à l'heure
15:15quand on a été interrompus
15:17par la page de publicité,
15:18sur les réseaux sociaux,
15:24on a des phénomènes
15:26qui ne sont pas appropriés
15:28pour les plus jeunes.
15:29Des phénomènes d'enfermement,
15:30des phénomènes
15:31de troubles de l'attention
15:32parce qu'on a
15:33des vidéos très courtes
15:34comme ci, comme ça.
15:35Des phénomènes de recherche,
15:36du like.
15:37On est d'accord avec ça, madame ?
15:38Ah, vous êtes d'accord ?
15:39Ah, très bien.
15:39Que les pathologies
15:40propres aux réseaux sociaux,
15:41que ça détruise l'esprit
15:42de la jeunesse,
15:43il n'y a aucun doute là-dessus.
15:44Moi, c'est ma priorité.
15:45D'accord, moi,
15:46ce que je vous demandais
15:46si vous n'avez pas l'inquiétude,
15:47mais je crois que ce n'est pas le cas
15:48entre la régulation exagérée
15:50et ça.
15:51Mais ce n'est pas
15:52de la régulation exagérée.
15:53Vous ne criez pas
15:54si il y a des dérives,
15:54c'est la seule question
15:55que je vous pose.
15:55Je ne crains pas.
15:56Je crains pas.
15:56Voilà, elle vous a répondu.
15:57Je ne crains pas.
15:59Je suis déterminée
16:01à faire en sorte
16:01qu'on puisse protéger
16:02nos enfants en ligne
16:03et interdire les réseaux sociaux
16:04avant 15 ans.
16:05Je me mettrais jusqu'au bout
16:06comme j'ai pu le faire.
16:07Interdire tous les réseaux sociaux
16:09avant 15 ans ?
16:10Comment est-ce qu'on va faire ?
16:11Comment on fait ?
16:12Pour interdire les réseaux sociaux
16:14avant 15 ans.
16:16Le voile aussi ?
16:16Le président de la République.
16:18Je suis, je vous le dis,
16:19sur les réseaux sociaux
16:20avant 15 ans.
16:21J'aimerais qu'on arrête
16:21de tout mélanger
16:22pour que les gens
16:23entendent bien
16:24quelles sont mes priorités.
16:26Je veux protéger
16:27les enfants en ligne.
16:29Et comment ?
16:30Pourquoi ?
16:31Je crois que c'est clair.
16:31Vous l'avez dit,
16:32vous êtes d'accord.
16:32Comment est-ce qu'on fait
16:34pour empêcher
16:36les réseaux sociaux
16:36avant 15 ans ?
16:37Je plaide
16:38pour une véritable
16:39vérification d'âge
16:40sur les réseaux sociaux.
16:41Parce que c'est la même façon
16:42que le petit bouton
16:43de j'ai plus de 18 ans.
16:44C'est la même chose.
16:46On a des outils.
16:47On a des outils.
16:48Ces plateformes qui nous disent,
16:48d'ailleurs c'est les mêmes,
16:49ces plateformes qui nous disent
16:50je ne sais pas
16:51quel âge a mon utilisateur
16:53alors qu'ils savent
16:54où est-ce que j'ai fait mes courses,
16:55où est-ce que j'habite,
16:56qu'est-ce que j'aime manger le soir,
16:57à midi, à 4h,
16:58et qu'ils peuvent me cibler
16:59avec de la publicité
17:00extrêmement précise
17:01mais que quand il s'agit
17:02de savoir l'âge,
17:03ils ne savent pas.
17:04C'est cynique.
17:05C'est cynique.
17:06Et quand aujourd'hui,
17:07une plateforme comme Meta
17:08fait de la publicité
17:10partout,
17:11sur votre antenne certainement,
17:12on ne l'a pas entendu,
17:12ça aurait été d'actualité,
17:14mais sur les antennes des radios,
17:16dans le métro,
17:17à la gare,
17:17je suis sûre que vous les avez vues
17:18ces publicités.
17:20Je demande
17:20que l'Union Européenne
17:22me régule
17:23pour protéger les enfants
17:24mais que ça soit
17:25l'App Store
17:27qui vérifie l'arrière.
17:29C'est un peu comme si
17:30j'avais un comportement déviant.
17:32Je sais que c'est déviant
17:33mais bon,
17:34j'aimerais bien
17:35qu'on me régule quand même.
17:36Et puis d'ailleurs,
17:36par exemple,
17:37si j'avais un comportement déviant
17:38envers les enfants,
17:39ça serait bien
17:40qu'on éloigne les enfants.
17:41Ce n'est pas vraiment
17:41ma responsabilité à moi
17:42de faire quelque chose.
17:44Et bien,
17:45ça,
17:45ça doit cesser.
17:46Et donc moi,
17:46je me bats au niveau européen
17:48et on a été très ambitieux
17:49au niveau européen
17:50avec le règlement
17:51dont vous parliez.
17:52Pas qu'au niveau européen
17:53puisque vous avez reçu hier
17:54avec Aurore Berger
17:54l'ensemble des plateformes.
17:55Qu'est-ce que vous leur avez dit ?
17:56Et on leur a dit
17:57que nos règles,
17:59c'est nos règles.
18:00Et c'est pareil
18:00pour les sites pornobatiques.
18:01Mais qu'est-ce qu'ils vous ont répondu ?
18:02S'ils ne veulent pas
18:02respecter nos règles
18:03et qu'ils disent
18:04on s'en va,
18:05et bah tant mieux.
18:05Non mais très bien,
18:06qu'est-ce qu'ils vous ont dit
18:07les autres ?
18:08Meta,
18:08Facebook,
18:09TikTok ?
18:10Qu'est-ce que vous les avez
18:14tous reçus hier ?
18:14Je les ai reçus hier,
18:15je les ai reçus il y a deux mois,
18:16je les recevrai demain,
18:17je les recevrai dans quelques mois.
18:19Comme je vous l'ai dit,
18:20moi je ne lâcherai pas
18:21sur ces combats-là.
18:22Et ils nous ont dit
18:23quelque chose de très simple,
18:26que la protection des mineurs,
18:27ils avaient un peu comme vous,
18:29bien conscience
18:29que c'était une priorité
18:30et que d'ailleurs,
18:31dans leurs conditions
18:32d'utilisation,
18:34les réseaux sociaux
18:36sont interdits
18:36au moins de 13 ans,
18:37je ne l'invente pas,
18:38c'est déjà dans les conditions
18:39d'utilisation.
18:40Mais que tout ça
18:41était très compliqué,
18:42donc moi je leur réponds
18:42que nous avons des solutions,
18:46nous avons des solutions.
18:46Et vous allez travailler ensemble ?
18:47Et nous allons y travailler.
18:49Et ils sont d'accord ?
18:50Mais bien sûr,
18:51mais ils n'ont pas le choix,
18:51c'est la loi.
18:52La responsabilité des plateformes,
18:54des sites pornographiques,
18:55de vérifier l'âge,
18:56c'est la loi.
18:57La responsabilité des réseaux sociaux
18:59d'être responsable
19:01des risques qu'il y a
19:02sur leur plateforme,
19:02c'est la loi.
19:03Et la responsabilité
19:04des réseaux sociaux
19:05de vérifier l'âge
19:06d'utilisateur,
19:07ça sera la loi très bientôt.
19:08Donc notamment les vidéos
19:09qui concernent
19:10l'entrisme islamiste
19:11dont je parlais tout à l'heure,
19:13ça, ça sera régulé
19:14par les plateformes ?
19:15Mais ça l'est déjà.
19:16Ça l'est déjà.
19:18Dans le cadre.
19:18On peut faire la manip,
19:20vous et moi,
19:20on peut trouver beaucoup de choses.
19:21Oui, parce que,
19:22pour revenir à ce que disait monsieur,
19:23ce que nous avons décidé en Europe,
19:27c'est que la responsabilité,
19:28elle est sur les plateformes.
19:29Et ça, je pense qu'il faut
19:30que ça soit très clair.
19:31Ce n'est pas le gouvernement
19:32ou la commission européenne
19:33ou je ne sais qui
19:34qui, vidéo par vidéo,
19:35dit ça c'est ok,
19:36ça c'est pas ok.
19:37Les plateformes,
19:38elles ont la responsabilité
19:39de s'assurer
19:41que tout contenu illicite,
19:42tout contenu illicite,
19:44ne doit pas être sur la plateforme.
19:46L'enjeu est majeur
19:47parce que derrière tous ces enjeux
19:48de cette question
19:49de désinformation et de manipulation,
19:50il y a une question fondamentale
19:51qui est celle de la déstabilisation
19:52de notre vieux monde.
19:54Il y a un très beau rapport de l'OTAN
19:56dont une phrase
19:57la dernière disait
19:58que l'ultime champ de bataille
19:59c'est le cerveau humain.
20:01C'est ce qui est en train
20:01de se jouer aujourd'hui.
20:02Donc là, on régule,
20:03on se défend,
20:05mais comment est-ce qu'à un moment donné
20:06on est capable de riposter,
20:07voire d'attaquer ?
20:08Parce qu'on sait d'où viennent les coups.
20:09Une bonne partie de ces coups-là,
20:10on sait qu'ils ne sont pas simplement
20:11le fruit du hasard.
20:12Donc à un moment donné,
20:13est-ce qu'on est capable
20:13de changer de braquet
20:14pour rééquilibrer le rapport de force
20:16parce que ce qui se passe effectivement
20:17avec cette guerre des cerveaux
20:18est redoutable ?
20:19Et pas qu'uniquement
20:19sur des questions
20:20qui touchent à la pornographie ?
20:21Oui, je pense que c'est important
20:22ce que vous mentionnez
20:24parce que cette question
20:26de la manipulation d'informations,
20:28c'est un concept
20:29qui parfois peut être assez flou.
20:31Et on a eu des exemples récents,
20:33vous y faites référence,
20:35qui montrent bien
20:35que c'est très réel.
20:37Quand l'image du mouchoir
20:40que peut-être certains ont vu
20:41sur les réseaux,
20:43on fait croire
20:44et c'est très orchestré,
20:45je pense que les gens,
20:46il faut qu'ils en prennent conscience.
20:48Ça a été dit.
20:49On fait croire
20:50que ça ne serait pas un mouchoir.
20:51On voit bien
20:52qu'il se passe
20:52sur ces réseaux sociaux
20:53des phénomènes d'ingérence.
20:55Comme vous l'avez dit,
20:56l'ingérence, c'est quoi ?
20:57C'est des puissances étrangères
20:59qui tentent de déstabiliser
21:02via ce type d'informations
21:03factuellement fausses.
21:05Et donc,
21:06pour revenir à votre question,
21:09il y a plusieurs choses.
21:10Il y a un,
21:12les plateformes,
21:14leur responsabilité,
21:15c'est de s'assurer
21:15de mettre en place
21:17des solutions efficaces
21:19pour lutter
21:20contre ce type de phénomène.
21:22Et deux,
21:22il y a toute la stratégie offensive
21:24sur laquelle vous m'interrogez.
21:25Moi, je suis ministre du numérique,
21:27donc ce n'est pas
21:28le portail que j'occupe.
21:30Mais vous représentez
21:30le gouvernement ce soir.
21:31Mais je pense qu'on voit bien
21:33aujourd'hui
21:33de façon très claire
21:35ce qui se passe en ligne.
21:36Et donc,
21:37c'est un enjeu majeur.
21:38Alors,
21:38si je peux me permettre,
21:39vous me donnez raison malgré vous.
21:40Vous m'avez dit d'abord,
21:41il n'y a rien à voir
21:42entre la question
21:43de la pornographie
21:44pour les enfants
21:44et de l'autre côté,
21:45la régulation du numérique.
21:47Vous venez de faire
21:47le lien vous-même.
21:48Donc, je dis la régulation
21:49du numérique au sens large.
21:50On peut trier les éléments.
21:51Il y a la question
21:52de la pornographie.
21:52On est tous d'accord.
21:54La question de la régulation
21:55plus largement.
21:57Moi, j'y reviens
21:58parce que c'est très important,
21:59je crois.
21:59La désinformation,
22:00elle ne vient pas
22:01que du numérique.
22:01Quand, par exemple,
22:02je donne un exemple,
22:03les événements de samedi et dimanche.
22:04Vous regardez la presse
22:05« mainstream »
22:05pendant 48 heures.
22:07On nous explique
22:07que ça s'est bien passé.
22:08Oui, il y a eu
22:09quelques débordements,
22:10mais rien d'essentiel.
22:11Et après coup,
22:12parce que les images
22:13sont remontées à la surface
22:14grâce aux réseaux sociaux
22:15et qu'il n'y aurait peut-être
22:16pas réussi à passer
22:17le filtre des médias
22:18plus traditionnels,
22:19on est obligé
22:19de tenir compte
22:20ensuite de ces images
22:22qui, en d'autres circonstances...
22:23C'est la preuve d'art, en fait.
22:24Mais la preuve d'artisation
22:25des médias
22:25vont m'inquiéter en général.
22:26Ça, c'est une inquiétude
22:27et je pense que ce n'est pas
22:28une inquiétude illégitime.
22:29Tout pouvoir
22:30tend à abuser de son pouvoir,
22:31même en démocratie.
22:32Qu'est-ce qu'on fait contre ça ?
22:34Écoutez, moi,
22:35je suis ministre du numérique
22:36et ce que je fais,
22:37encore une fois,
22:38j'y reviens,
22:38c'est que je protège
22:39les enfants,
22:40nos citoyens,
22:40des dérives du numérique.
22:41Encore une fois,
22:42le numérique,
22:43c'est un outil formidable.
22:44Il y a plein de choses
22:44qu'on peut faire avec le numérique
22:45qui sont très positives.
22:47Mais vous protégez tout le monde.
22:48Il y a des choses aussi
22:49qui font des dérives,
22:52qui ont des conséquences
22:53très concrètes
22:54sur le développement
22:55de nos enfants.
22:55Et je refuse
22:56qu'on s'interdise
22:57de trouver
22:58et de chercher
22:58des solutions
22:59pour ce type de problématiques
23:02absolument fondamental.
23:04Quand 40% des enfants,
23:0540%...
23:06Mais pourquoi vous revenez
23:07toujours aux enfants ?
23:08On vous a posé une question
23:10sur la désinformation,
23:10vous avez répondu
23:11sur la désinformation.
23:12Je vous en pose une sur ça,
23:13vous revenez sur les enfants,
23:14j'essaie de comprendre.
23:15Mais parce qu'aujourd'hui,
23:16pourquoi je suis là,
23:16à la base ?
23:17Mais non, non,
23:17vous êtes là
23:18pour répondre aux questions.
23:19Pardonnez-moi,
23:20vous êtes ministre,
23:21mais on fait notre travail.
23:22Je vous réponds à vos questions.
23:23Je suis là pour vous dire
23:24ma priorité,
23:25c'est un,
23:26protéger les enfants en ligne.
23:27On a une grande étape
23:29aujourd'hui
23:30avec les sites pornographiques.
23:31Deux,
23:32on a encadré
23:33les réseaux sociaux,
23:34on leur a donné
23:34une responsabilité
23:35sur les contenus illicites,
23:37sur les risques
23:38qu'on appelle systémiques,
23:40les manipulations
23:40d'informations.
23:42Oui,
23:42c'est une de leurs responsabilités.
23:44La protection des mineurs,
23:45la protection de la santé,
23:46tous ces risques-là,
23:47c'est leur responsabilité.
23:48Et je ne vois pas le problème,
23:49au contraire,
23:49je pense que c'est
23:50une très bonne chose.
23:51Et on signale quand même
23:51que vous serez bien sûr
23:52très attentive et présente,
23:54j'imagine,
23:54au salon Vivatech
23:55du 11 au 14 juin prochain
23:57à la porte de Versailles.
23:59On parlera beaucoup
24:00d'intelligence artificielle
24:01et malheureusement,
24:02on n'a plus le temps.
24:0220h44 sur Orbe.

Recommandations