Passer au playerPasser au contenu principalPasser au pied de page
  • il y a 2 mois
La commission d'enquête relative aux effets psychologiques de TikTok sur les mineurs auditionne Clara Chappaz, ministre déléguée en charge de l'Intelligence artificielle et du Numérique depuis le 21 septembre 2024. La commission d'enquête, créée le 13 mars dernier, est présidée par le député socialiste Arthur Delaporte et a pour rapporteure la députée du socle commun Laure Miller. Retrouvez les temps forts de cette audition.

Catégorie

🗞
News
Transcription
00:00:00Générique
00:00:00Bonjour et bienvenue sur LCP.
00:00:09Depuis le mois de mars, une commission parlementaire enquête sur TikTok.
00:00:13Elle cherche à mesurer les effets psychologiques nocifs des réseaux sociaux sur les mineurs.
00:00:18Incitation au suicide, à la scarification, les contenus problématiques ne manquent pas sur le réseau social.
00:00:24Comment lutter contre ce fléau que peut faire l'Assemblée nationale en ce mois de juin
00:00:29à l'approche de l'été ?
00:00:30Les députés auditionnent Clara Chappaz.
00:00:32Elle est chargée du numérique et elle prône l'interdiction des réseaux sociaux pour les moins de 15 ans.
00:00:38La séance est ouverte. A tout à l'heure.
00:00:40Nous recevons donc Madame Clara Chappaz, ministre déléguée auprès du ministre de l'Economie, des Finances
00:00:48et de la Souveraineté industrielle et numérique sur un air de roc.
00:00:55Madame la ministre, je vous remercie de prendre le temps de répondre à notre invitation.
00:01:04Comme je vous l'ai indiqué, peut-être qu'il faudra, si notre audition dure, que je m'absente
00:01:08parce que je dois intervenir dans une table ronde sur la question de la désinformation à l'air numérique.
00:01:14Néanmoins, votre audition est importante pour la commission,
00:01:18tant vous savez que l'actualité de la régulation des réseaux sociaux occupe à la fois votre agenda
00:01:27mais aussi préoccupe le Parlement.
00:01:30Nous avons donc l'honneur de vous accueillir aujourd'hui pour faire un peu un état des lieux
00:01:34sur la situation, les initiatives du gouvernement, sur la régulation des plateformes,
00:01:41les rapports aussi parfois compliqués avec l'Europe.
00:01:44Nous avons eu l'occasion avec Madame la rapporteure de nous rendre à Bruxelles le 4 juin dernier.
00:01:49Nous y avons rencontré à la fois la DG Connect, des collègues du Parlement européen
00:01:55mais aussi les représentants de la CNIL irlandaise,
00:02:00les co-commissaires de la CNIL irlandaise qui étaient fortuitement à Bruxelles ce jour-là.
00:02:06Et vous aviez pu les rencontrer quelques semaines auparavant.
00:02:09Donc on est aussi un peu au fait des difficultés
00:02:13mais surtout maintenant ce dont on a besoin Madame la Ministre c'est de solutions
00:02:16et on compte évidemment sur le gouvernement pour en porter.
00:02:22Voilà donc je vous remercierai au préalable de nous déclarer tout intérêt public ou privé
00:02:26qui serait de nature à influencer vos déclarations.
00:02:28Et je vous rappelle que l'article 6 de l'ordonnance du 17 novembre 1958
00:02:31relative au fonctionnement des assemblées parlementaires
00:02:33impose aux personnes auditionnées par une commission d'enquête
00:02:36de prêter serment de dire la vérité, toute la vérité et rien que la vérité.
00:02:40Et donc je vous remercierai de lever la main droite et de dire je le jure.
00:02:46Je le jure.
00:02:47Je vous remercie.
00:02:47Vous avez donc la parole pour une durée de 10 minutes environ.
00:02:51Je vous remercie.
00:02:53Monsieur le Président de la Commission, Madame la rapporteure de la Commission,
00:02:56Mesdames, Messieurs les députés,
00:02:58je souhaiterais en premier lieu saluer votre choix salutaire
00:03:00opéré par l'Assemblée nationale de conduire cette commission d'enquête
00:03:04sur votre initiative Madame la rapporteure.
00:03:06Vous vous emparez avec sérieux et lucidité d'un enjeu crucial de notre temps,
00:03:10l'impact des réseaux sociaux sur les mineurs.
00:03:13Ce que vous examinez ici n'est pas un simple fait de société,
00:03:18ce n'est pas une inquiétude passagère,
00:03:20c'est une question vitale pour notre jeunesse,
00:03:22pour qui les interactions avec le monde se feront principalement via les écrans,
00:03:25où ils passent plus de 4 heures par jour.
00:03:28Vous le savez, c'est un sujet qui me tient profondément à cœur
00:03:31et sur lequel j'ai engagé un combat déterminé depuis ma nomination, vous l'avez rappelé.
00:03:36Ce combat, c'est celui d'une interdiction d'accès aux réseaux sociaux avant 15 ans.
00:03:40Un combat que je mène en ligne droite avec les priorités du Président de la République,
00:03:43dans le prolongement des recommandations du rapport de la Commission sur les écrans.
00:03:47Je crois que vous les avez aussi auditionnés.
00:03:49Bien sûr, je suis ministre du Numérique,
00:03:53et je sais mieux que personne certainement à quel point le numérique,
00:03:56les réseaux sociaux, ce sont des outils formidables,
00:03:58et je ne veux pas ici dresser un tableau tout noir du numérique.
00:04:02Ce sont des espaces d'opportunité, de liberté, de créativité, d'apprentissage, d'émancipation.
00:04:06Qui n'a pas fait l'expérience heureuse de retrouver parfois un ami de longue date sur les réseaux,
00:04:11de découvrir une information ?
00:04:13Mais cela ne doit pas nous empêcher de regarder lucidement leurs dérives et d'y répondre.
00:04:21Car elles existent, ces dérives, elles sont massives, elles sont documentées,
00:04:26elles ont des conséquences concrètes sur la vie de nos enfants.
00:04:30Un consensus scientifique solide émerge aujourd'hui.
00:04:33L'exposition précoce, intensive, aux réseaux sociaux chez les adolescents,
00:04:37notamment entre 8 et 15 ans, est associée à des troubles du sommeil,
00:04:40des troubles alimentaires, une augmentation des comportements à risque,
00:04:44un enfermement dans des bulles algorithmiques, une détérioration nette de la santé mentale.
00:04:50Comment justifier qu'un enfant sur 4 dise ressentir de l'anxiété sur les réseaux sociaux ?
00:04:57Pire, qu'un enfant sur 5 se réveille la nuit pour vérifier ses réseaux sociaux.
00:05:01A l'échelle de la société, les premières études montrent que le temps passé sur les réseaux,
00:05:05leurs conséquences sur le développement cognitif, émotionnel des adolescents,
00:05:09pourraient d'ailleurs nous coûter de 1 à 2 points de PIB dans l'avenir.
00:05:13C'est un enjeu majeur de santé mentale, c'est un enjeu majeur de société tout court.
00:05:18Nous avons toutes et tous fait l'expérience.
00:05:22Les plateformes peuvent amplifier la dévalorisation de l'image de soi,
00:05:26favoriser les phénomènes de harcèlement, exposer à des contenus violents, pornographiques,
00:05:30encourager des pratiques qui vont jusqu'à l'automutilation.
00:05:32Il suffit de tendre l'oreille aux familles, aux médecins, aux enseignants.
00:05:38Il suffit d'écouter les jeunes eux-mêmes, qui d'ailleurs se disent souvent pris dans un tourbillon numérique
00:05:42dont ils ne maîtressent plus les codes.
00:05:44Pourtant, les chiffres sont implacables.
00:05:47Près de 3 enfants sur 4 en dessous de 13 ans sont déjà sur au moins une plateforme,
00:05:53quand bien même dans les conditions générales d'utilisation de ces dites plateformes,
00:05:56elles sont interdites au moins de 13 ans.
00:05:58J'entends le désarroi des familles face à l'absence de repères clairs
00:06:02confrontées à la difficulté de poser un cadre auprès de leurs enfants.
00:06:06J'entends le désarroi des enfants qui ne veulent pas être exclus de cet espace numérique
00:06:10devenu espace de sociabilité,
00:06:12quand bien même ils sont conscients de l'impact négatif qu'il peut y avoir sur leur santé.
00:06:17J'entends la demande forte d'une action de la part des pouvoirs publics
00:06:21et j'ai engagé une action déterminée pour y répondre.
00:06:24Car je le dis très clairement,
00:06:25ce n'est ni aux enfants ni aux parents de porter seule cette responsabilité.
00:06:30Je veux saluer l'engagement constant des associations,
00:06:33en particulier celui des signaleurs de confiance comme e-enfance et points de contact
00:06:36avec qui je travaille étroitement.
00:06:39Leur rôle est indispensable, ils alertent, ils accompagnent, ils agissent.
00:06:43Je veux aussi saluer l'ensemble des initiatives parlementaires, dont celles-ci,
00:06:47mais elles sont nombreuses,
00:06:48qui permettent toutes de nourrir la réflexion
00:06:51que le gouvernement mène pour la France et soutient au niveau européen.
00:06:55Je porte un message qui ne varie pas.
00:06:57Avant 15 ans, les réseaux sociaux, c'est non.
00:06:59Ce n'est pas une posture, ce n'est pas un symbole,
00:07:02c'est une mesure éducative de prévention, de protection, de bon sens.
00:07:07Je m'inscris dans la continuité de l'action du ministre Laurent Marc-Angeli,
00:07:10que je crois que vous venez d'auditionner,
00:07:12et qui a porté une loi votée à l'unanimité
00:07:14pour établir une majorité numérique à 15 ans.
00:07:16C'est une avancée importante, mais nous le savons ici toutes et tous,
00:07:22cette majorité numérique restera théorique si elle n'est pas accompagnée
00:07:25d'une véritable vérification de l'âge sur les réseaux sociaux,
00:07:29idéalement au niveau européen.
00:07:31Nous avons tous été des enfants,
00:07:33nous ne savons que trop bien que lorsqu'il suffit de changer la date
00:07:36de son année de naissance pour s'inscrire sur un réseau,
00:07:39la tentation est grande.
00:07:40Il n'y a pas d'interdiction des réseaux sociaux sans vérification de l'âge.
00:07:45Et c'est donc cette bataille de la vérification de l'âge
00:07:47que nous menons avec fermeté.
00:07:49Quand je vois Instagram qui dépense des millions d'euros
00:07:52pour faire de la publicité dans nos gares,
00:07:54les métros, les titres de presse, la radio,
00:07:56pour demander une véritable vérification d'âge
00:07:59à l'échelle de l'Union européenne,
00:08:01je me dis deux choses.
00:08:03Une entreprise du numérique américaine
00:08:06qui demande de la régulation,
00:08:08c'est une première,
00:08:09je crois que cela montre bien la hauteur des enjeux qui nous occupent.
00:08:12Mais pour autant, je leur redis clairement,
00:08:14ils doivent assumer leurs responsabilités.
00:08:17Quand ils demandent à ce que cette vérification se fasse sur l'App Store,
00:08:20il me semble que ce n'est pas à la hauteur des enjeux.
00:08:22Il faut sortir absolument de ce ping-pong
00:08:25dans lequel les acteurs se renvoient la balle,
00:08:27que j'avais d'ailleurs dénoncée dès le mois de janvier
00:08:29lorsque je les ai réunies toutes ensemble,
00:08:32les plateformes, les App Store, les associations,
00:08:34les réseaux de téléphone,
00:08:35pour faire le point sur les actions mises en place.
00:08:39Aussi, je veux le dire clairement,
00:08:41les technologies existent.
00:08:43Les solutions sont là,
00:08:44elles sont développées,
00:08:45nous en avons même recensé une quinzaine
00:08:47par des entreprises françaises, européennes.
00:08:49Elles permettent de vérifier l'âge de l'utilisateur
00:08:52sans identifier une personne,
00:08:54sans compromettre les données personnelles,
00:08:56un impératif tout aussi important sur lequel nous ne céderons pas.
00:08:59Et sur lequel nous avançons,
00:09:01en européen,
00:09:02avec une solution harmonisée dont nous serons,
00:09:04la France, un des pays pilotes.
00:09:06Quand bien même ces solutions ne conviendraient pas aux plateformes du numérique,
00:09:12ces entreprises ont parmi les meilleurs ingénieurs du monde.
00:09:15Je ne peux me résoudre à croire qu'ils ne peuvent résoudre ce problème.
00:09:18Google, d'ailleurs, il me semble, y travaille activement,
00:09:20ils m'en ont fait la démonstration.
00:09:23Notre devoir est désormais de les généraliser,
00:09:25de les imposer comme un standard, ces solutions de vérification d'âge,
00:09:29et non de les laisser à l'appréciation de tel ou tel acteur,
00:09:32ou de laisser les acteurs se renvoyer la balle entre eux
00:09:34pour savoir qui va prendre cette responsabilité de vérifier l'âge des utilisateurs.
00:09:40Cette démarche, nous l'apportons à l'échelle nationale, bien sûr,
00:09:43mais aussi et surtout au niveau européen,
00:09:45car la régulation du numérique ne peut s'arrêter aux frontières nationales.
00:09:49C'est pourquoi, dès 2022, sous la présidence française du Conseil de l'Union européenne,
00:09:53nous avons porté avec détermination le Digital Service Act.
00:09:56Ce texte, je sais que vous en parlez et vous en avez parlé régulièrement dans cette commission,
00:10:02je veux le dire clairement, il constitue une avancée majeure.
00:10:06Il sort les plateformes du statut de simple hébergeur technique, c'est très important.
00:10:11Il leur appose un devoir de vigilance,
00:10:13notamment en matière de protection des mineurs et de santé mentale.
00:10:16C'est un texte très ambitieux, certainement le plus ambitieux du monde.
00:10:19Mais nous devons maintenant aller au bout des potentialités de ce texte.
00:10:24Le DSA ne doit pas rester une promesse sur papier,
00:10:27il doit devenir une réalité bien concrète.
00:10:29C'est d'ailleurs tout le sens des discussions en cours, en ce moment même,
00:10:32sur l'article 28 consacré aux mineurs, dont nous souhaitons renforcer la portée,
00:10:37en faisant en sorte de rendre obligatoire la vérification de l'âge pour accéder aux réseaux sociaux.
00:10:41Il s'agit bien d'une mesure appropriée, proportionnée, pour garantir le niveau de protection adéquat de nos enfants,
00:10:47pour reprendre les mots du DSA.
00:10:49Je l'ai dit à la commission européenne, je l'ai d'ailleurs fait inscrire à l'ordre du jour du dernier conseil du numérique,
00:10:54avec mes homologues, où une demi-douzaine de pays ont suivi notre position.
00:10:58Nous le redirons d'ailleurs ensemble dans les jours qui viennent,
00:11:01aux côtés de nos collègues ministres de l'Education et de la Santé,
00:11:04à l'occasion de prises de positions communes avec plusieurs de nos homologues européens.
00:11:09Une première.
00:11:11Aujourd'hui, c'est 13 Etats membres qui se sont ralliés à notre position.
00:11:15Je crois qu'il faut le réaffirmer haut et fort,
00:11:18l'Europe, forte de ses 450 millions de citoyens, pèse face aux géants du numérique.
00:11:24Et nous assumons, en européens, cette responsabilité.
00:11:27Je ne lâcherai donc rien pour faire appliquer pleinement ce texte, si nous n'y parvenons pas,
00:11:32alors je le dis sans détour, nous prendrons des mesures à l'échelle nationale, nous l'avons déjà fait sur d'autres dossiers.
00:11:38En parallèle, nous agissons concrètement.
00:11:42Lorsque nous avons alerté sur les contenus associés au hashtag skinny talk, nous avons obtenu des résultats.
00:11:47Des ajustements ont été apportés, des hashtags ont été retirés, mais soyons lucides,
00:11:53cela n'est pas parfait et cela ne peut pas être un modèle pérenne.
00:11:57Nous ne pouvons pas faire reposer une stratégie de régulation sur l'indignation, l'émotion, la pression ponctuelle.
00:12:02Est-ce qu'il faut, sincèrement, qu'une ministre de la République se déplace à Dublin
00:12:06à chaque fois qu'un contenu dangereux émerge sur une plateforme ?
00:12:09Bien sûr que non.
00:12:11Nous avons posé des règles, nous attendons qu'elles soient respectées
00:12:14et si ce n'est pas le cas, nous prendrons les mesures qui s'imposent.
00:12:17Des enquêtes sont en cours, vous le savez, au niveau de la Commission européenne.
00:12:20Des sanctions, des amendes très lourdes peuvent être prononcées.
00:12:23Et je compte bien que nous allions jusqu'au bout avec la Commission européenne sur cette question.
00:12:29Enfin, je veux vous le dire, notre objectif n'est pas d'interdire pour interdire,
00:12:33car j'entends aussi cette musique montée, mais bien de protéger.
00:12:37Pas punir pour punir, mais de responsabiliser.
00:12:40Je me permets une comparaison que chacun, je crois, comprendra.
00:12:44Nous avons interdit l'alcool avant 18 ans, vous en conviendrez.
00:12:47Nous avons encadré sa publicité, informé sur ses dangers, mis en place des campagnes de prévention.
00:12:52Il nous faut faire la même chose pour les réseaux sociaux, pas par méfiance du progrès,
00:12:56mais pour construire des repères, pour poser des limites, pour accompagner les parents et les jeunes.
00:13:00C'est tout le sens de la stratégie que nous menons avec mes collègues Elisabeth Borne et Catherine Vautrin,
00:13:06sous l'égide du Premier ministre et du Président de la République.
00:13:09Nous avons besoin d'un cadre clair pour les familles, d'outils pour les éducateurs,
00:13:13de dispositifs concrets pour aider les enfants à grandir dans un environnement numérique sûr.
00:13:18Je n'ignore pas la difficulté de ce combat.
00:13:21Vous avez eu l'occasion d'auditionner un certain nombre de personnes très engagées,
00:13:25et encore une fois, je veux saluer cet engagement.
00:13:27Ce combat, il bouscule des habitudes, il heurte des intérêts, il suppose du courage.
00:13:34Mais je vous le dis avec gravité, avec conviction, protéger nos enfants en ligne,
00:13:38c'est un défi immense, mais c'est un combat que nous pouvons gagner ici, en Europe.
00:13:42Nous allons construire ensemble, nous construisons ensemble une protection
00:13:47à la hauteur de notre époque.
00:13:49Merci encore de votre engagement.
00:13:50Merci de me permettre aujourd'hui d'être à vos côtés pour ce moment important.
00:13:54Merci à tous, et je suis bien sûr disposée pour répondre à toutes vos questions.
00:13:59Merci Madame la Ministre, Madame la Rapporteure.
00:14:04Merci beaucoup Monsieur le Président.
00:14:05Merci Madame la Ministre.
00:14:06Merci déjà de porter ce combat et de la voie qui est la vôtre au sein du gouvernement
00:14:11et à l'échelle européenne, et de défendre en effet nos enfants.
00:14:17Merci pour votre propos liminaire qui est en effet déjà très complet.
00:14:21En effet, vous l'avez dit, à l'occasion de beaucoup d'auditions,
00:14:24le DSA est évidemment revenu très régulièrement comme étant un outil
00:14:28qui va nous permettre de réguler cette plateforme à l'échelle européenne.
00:14:33Vous en avez un peu parlé, mais on ne peut pas s'empêcher en effet
00:14:37de trouver ça trop long, trop lent.
00:14:40Monsieur Marc-Angeli, juste avant vous, nous expliquait que c'était une espèce de symbole
00:14:46de l'impuissance publique en quelque sorte, parce que voilà, on n'en voit pas véritablement
00:14:50les effets dans nos foyers et sur le terrain.
00:14:55Vous avez dit à plusieurs reprises que vous vouliez avancer à l'échelle européenne,
00:14:58mais que si, en cas de blocage, vous pourriez en effet agir à l'échelle française, nationale,
00:15:05est-ce que vous pourriez nous expliquer votre stratégie un peu plus concrètement,
00:15:08c'est-à-dire dans quel délai, si jamais ça ne fonctionne pas
00:15:11et que vous n'arrivez pas à trouver un consensus pour agir à l'échelle européenne,
00:15:14vous pourriez prendre vos responsabilités à l'échelle nationale, s'il vous plaît.
00:15:20On prend plusieurs questions d'un coup, on fait...
00:15:23Ça vous va, ça fluidifie les échanges.
00:15:27Très bien.
00:15:29D'abord, revenir sur le DSA, parce que j'entends, je veux dire,
00:15:32n'importe qui échange avec des familles, avec des enfants,
00:15:35ou soi-même en fait l'expérience, vous êtes élu,
00:15:38vous êtes aussi la cible de ce qui peut se passer sur les réseaux sociaux.
00:15:42Le sang vit et le subit au quotidien,
00:15:46tous ces phénomènes qu'on a bien décrits sur les réseaux sociaux
00:15:49et qu'on sait maintenant de façon documentée ont un impact non négligeable sur la santé de nos enfants.
00:15:55Pour autant, je veux rappeler quand même quelque chose.
00:15:58Le DSA, c'est un texte, je crois, dont nous pouvons être fiers.
00:16:05Et ça, je l'assume, parce qu'on a décidé, et c'est notre force en tant qu'Européens,
00:16:11d'être 450 millions d'Européens qui décident d'imposer quelque chose de très fort,
00:16:15c'est de mettre la responsabilité sur les plateformes.
00:16:18Et c'est un cadre qui est unique, qui a été en tout cas un des premiers,
00:16:22ce qui est maintenant aussi répliqué par exemple dans le Online Safety Act au Royaume-Uni,
00:16:27mais qui a été un des premiers à être aussi ambitieux et déterminé
00:16:29sur la responsabilité qui fait peser sur les plateformes.
00:16:31C'est un vrai changement de paradigme,
00:16:33parce qu'on ne considère plus que les plateformes sont des simples hébergeurs techniques,
00:16:38mais qu'ils ont bien une responsabilité sur un certain nombre de prérogatives
00:16:41et en ce qui nous occupe aujourd'hui, la protection des enfants en ligne.
00:16:45Et ça, je ne laisserai personne nous embarquer dans cette musique,
00:16:49parce que je crois aussi que parfois elle est certainement un petit peu instrumentalisée,
00:16:53de dire que l'Europe est impuissante, l'Europe est forte,
00:16:55l'Europe c'est 450 millions de personnes,
00:16:57il y a plus de personnes sur TikTok et sur tous les gros réseaux sociaux,
00:17:00Facebook, etc. en Europe qu'il y en a aux Etats-Unis.
00:17:03Et ça nous donne cette force-là d'avoir pu imposer nos règles.
00:17:07Est-ce que je me satisfais du fait que les enquêtes prennent autant de temps ?
00:17:12Non, je l'ai rappelé plusieurs fois à la Commission européenne,
00:17:14nous voulons bien sûr aller au bout, j'entends ce que la Commission dit
00:17:18quand ils disent qu'ils veulent des enquêtes solides sur un texte encore relativement récent
00:17:22qui n'a été transposé que l'année dernière en droit français.
00:17:25Il faut que ces enquêtes soient solides,
00:17:26parce qu'on voit bien que c'est des sujets de société absolument majeurs.
00:17:30Mais oui, nous voulons que ça aille plus vite et nous voulons des changements structurels,
00:17:32mais je crois que les outils sont là.
00:17:34Les outils sont là, parce que quand on voit l'impact des amendes
00:17:37qui peuvent aller jusqu'à 6% du chiffre d'affaires mondial,
00:17:41que ça peut avoir sur des acteurs économiques,
00:17:44et l'impact systémique des changements que l'on peut obtenir grâce à ce texte,
00:17:48moi j'ai confiance dans le fait qu'on a la bonne régulation,
00:17:51tout autant il faut l'appliquer, et il faut l'appliquer plus fort et plus vite.
00:17:54Mais il y a eu des bougées, je pense à TikTok Lite,
00:17:56dont vous avez certainement parlé,
00:17:58qui a été une fonctionnalité qui a été retirée sur le marché européen
00:18:01grâce à cet outil qui est le nôtre,
00:18:03et il y en aura d'autres.
00:18:05Les enquêtes sont en cours et elles iront au bout,
00:18:07on fera tout pour qu'elles aillent au bout et qu'elles y aillent le plus vite possible,
00:18:10parce que c'est bien un sujet absolument urgent.
00:18:12Vous le savez, il y a trois enquêtes en cours sur le réseau social dont nous parlons aujourd'hui,
00:18:19TikTok, une enquête sur le design,
00:18:22une enquête sur TikTok Lite qui est clos, je le disais,
00:18:25et une enquête aussi sur les ingérences.
00:18:27Nous suivons de très près avec la Commission, ce sont des enquêtes,
00:18:29donc nous n'avons bien sûr pas toutes les informations,
00:18:33parce qu'il dit enquête, il dit procédure,
00:18:35mais nous suivons de très près et nous nous assurons qu'elles aillent au bout,
00:18:38comme d'ailleurs la Commission est allée au bout sur des enquêtes d'un texte aussi récent,
00:18:42le DMA, je pense par exemple à Meta et Apple qui ont été condamnés il n'y a pas si longtemps que ça.
00:18:49Sur la question des avancées européennes versus nationales,
00:18:54on est dans un moment charnière,
00:18:56je pense que la voix de la France est entendue sur cette question,
00:19:00et je m'en réjouis,
00:19:00où nous avons, comme je le disais dans mon propos liminaire,
00:19:03dans les trois mois, je me donne trois mois,
00:19:06qui sont devant nous,
00:19:07une opportunité unique,
00:19:09c'est celle de définir justement grâce au DSA de façon précise
00:19:12ce que l'on entend que les plateformes mettent en place pour protéger les mineurs.
00:19:15Et je veux être très claire,
00:19:17la première des protections,
00:19:18c'est de connaître l'âge des utilisateurs,
00:19:20parce qu'on peut faire plein de super fonctionnalités,
00:19:23des comptes adolescents, etc.,
00:19:25que je salue,
00:19:26ce sont de très bonnes initiatives,
00:19:27mais tant qu'on ne sait pas quel âge la personne a,
00:19:30c'est un peu inopérant.
00:19:33Et donc, le combat que l'on mène en ce moment,
00:19:36c'est de s'assurer que dans ces lignes directrices,
00:19:38nous ayons de façon très claire la vérification de l'âge sur les réseaux sociaux,
00:19:42pas de l'estimation, mais bien de la vérification,
00:19:44parce qu'il me semble que c'est la base de tout système de protection.
00:19:48Donc, comment on mène ce combat ?
00:19:50On le mène au niveau européen,
00:19:52comme je vous le disais,
00:19:52on l'a fait inscrire à l'ordre du jour du Conseil du numérique
00:19:54maintenant une dizaine de jours.
00:19:57On a été suivi par 13 pays
00:19:59qui se sont positionnés pour demander cette vérification de l'âge,
00:20:03parce qu'en ce moment, on est dans ce processus
00:20:04d'entrée dans notre technique,
00:20:05mais où on écrit concrètement ce qu'on appelle les lignes directrices,
00:20:08c'est-à-dire comment est-ce qu'on veut que cette protection soit détaillée.
00:20:12Et je crois que c'est le moment.
00:20:14La Commission européenne connaît très bien notre position.
00:20:16Comme je vous le disais,
00:20:17nous avons aussi rallié les ministres de l'éducation
00:20:19et bien sûr aussi côté santé,
00:20:22pour avoir des prises d'opposition fortes sur cette question-là,
00:20:24parce que si nous avons la possibilité d'imposer la vérification de l'âge,
00:20:29ensuite nous travaillerons avec la Commission,
00:20:30et j'ai déjà beaucoup commencé et entamé ces travaux en ce sens,
00:20:35pour qu'au niveau national,
00:20:37on puisse être libre d'imposer l'âge que l'on veut
00:20:39et trouver les voies de passage juridiques
00:20:41qui nous permettent de le faire.
00:20:42parce que j'entends que certains pays ont peut-être d'autres indications de l'âge minimum
00:20:50qu'elles voudraient sur les plateformes.
00:20:51Donc je plaide pour une harmonisation de la vérification de l'âge
00:20:53et qu'ensuite on ait, nous, la possibilité en droit national de pouvoir imposer les 15 ans
00:20:59comme étant l'âge auquel on peut accéder au réseau.
00:21:03Et si nous n'arrivions pas à l'obtenir au niveau européen,
00:21:09mais encore une fois, je fais tout pour que cela arrive,
00:21:13il nous faudra étudier toutes les voies nationales
00:21:15en bonne relation avec la Commission,
00:21:18qui nous est très attentif et très déterminé sur cette question-là,
00:21:23pour, et je crois qu'on en parlera peut-être,
00:21:25vous avez auditionné Laurent Marc-Angeli,
00:21:28pour pouvoir s'assurer que ce que l'on décide ici
00:21:31puisse être opérant, et en termes de procédures,
00:21:33et en termes de voies réglementaires.
00:21:35Donc il y a plusieurs pistes qui sont sur la table,
00:21:37mais chaque combat l'un après l'autre,
00:21:39le premier, c'est la vérification de l'âge au niveau européen.
00:21:42Et on avance.
00:21:45Merci. Madame la rapporteure.
00:21:47Merci beaucoup.
00:21:49Alors, je reviens peut-être un petit peu en arrière sur le sujet.
00:21:54Vous l'avez vu, notre commission d'enquête,
00:21:56elle a voulu cibler sur TikTok.
00:21:58Et en effet, vous avez parlé des réseaux sociaux
00:22:01comme étant la source d'expériences
00:22:06qui peuvent être évidemment bénéfiques,
00:22:08le fait de pouvoir retrouver quelqu'un
00:22:10qu'on n'a pas vu depuis longtemps.
00:22:11De toute évidence, c'est quand on discute avec les jeunes,
00:22:14TikTok n'a pas forcément vocation à cela,
00:22:16c'est-à-dire que même la messagerie est très peu utilisée,
00:22:19et TikTok, c'est vraiment le fait de visionner des vidéos
00:22:22en boucle, sur un fil continu et infini.
00:22:25Est-ce que vous, vous diriez qu'il y a une spécificité TikTok aujourd'hui ?
00:22:29Et comment vous abordez-vous les différents réseaux sociaux à ce titre ?
00:22:34Oui, moi, ce n'est pas mon rôle en tant que ministre du numérique
00:22:36d'avoir un jugement de valeur sur tel ou tel réseau.
00:22:39Par contre, mon rôle, c'est de faire en sorte qu'ils respectent tous nos règles
00:22:41et de travailler en relation de grande proximité avec la commission pour ce faire.
00:22:46Donc, par exemple, quand sur TikTok, je vois la tendance skinny talk,
00:22:51deux choses, j'alerte et je dénonce, mais je saisis aussi l'ARCOM et la commission européenne
00:22:57pour ouvrir une enquête sur ce phénomène-là.
00:23:00Mais je l'aurais fait de la même manière, peu importe la plateforme,
00:23:03parce que la protection des mineurs, c'est leur responsabilité.
00:23:05Et ça, je pense qu'il faut être très clair, c'est déjà leur responsabilité dans le DSA.
00:23:08Donc, il y a plusieurs enquêtes en cours.
00:23:11TikTok n'est pas la seule plateforme.
00:23:12Il y a des enquêtes sur le réseau social IX, sur d'autres.
00:23:17Pour différentes raisons, je veux que toutes ces enquêtes aillent au bout,
00:23:22parce que les heures qui sont passées sur les réseaux,
00:23:26peu importe les réseaux confondus, que passent les Européens, les Françaises
00:23:31et les Français sur ces réseaux doivent être faites dans le cadre de nos règles.
00:23:37Merci beaucoup.
00:23:39Je pose une question et puis après, je laisse la parole.
00:23:42Je reviens du coup sur la vérification de l'âge.
00:23:45Lorsqu'on est allé évidemment à Bruxelles, on a eu ce sujet qui était en effet central
00:23:49et qui nous a été expliqué par différents membres,
00:23:52notamment de la Commission européenne et la DG Connect,
00:23:54avec en effet ce sujet vérification ou estimation.
00:23:57Peut-être que vous pouvez nous en parler de ce combat que vous menez
00:23:59pour que ce soit vraiment la vérification et non pas une simple estimation.
00:24:02On a entendu parler du mini-wallet et puis du projet plus large
00:24:05de vérification avec le e-wallet.
00:24:07Est-ce que vous pouvez peut-être nous en dire un petit peu plus,
00:24:10nous dire si vous travaillez aussi sur une réduction des délais ?
00:24:12Parce qu'on voit bien que ça peut être potentiellement long.
00:24:16Est-ce que vous pouvez nous en dire un petit peu plus ? Merci.
00:24:17La question de la vérification ou de l'estimation, en fait c'est de dire
00:24:25est-ce qu'en entrant sur le réseau social, on veut que la plateforme
00:24:29soit responsable de vérifier l'âge ?
00:24:31Il y a plein de solutions techniques, encore une fois avec des tiers de confiance
00:24:34qui s'assurent de la protection des données personnelles.
00:24:36Je pense que ça c'est important de le rappeler parce que notamment
00:24:38dans ces outils qui sont maintenant, grâce à la loi SREN que vous avez votée,
00:24:42utilisée pour protéger les mineurs des contenus pornographiques,
00:24:47il y a eu beaucoup ce débat de mais est-ce qu'en vérifiant l'âge,
00:24:51finalement on ne prend pas un risque sur les données personnelles ?
00:24:54La réponse est non.
00:24:55Le référentiel qui a été établi pour les sites de contenu pornographique
00:24:59par l'ARCOM avec l'aide de l'ACNIL est très clair.
00:25:03Ça s'appelle du double anonymat, c'est-à-dire vérifier l'âge
00:25:05mais sans donner l'information personnelle dans ce cas précis
00:25:09aux sites pornographiques.
00:25:11mais on peut bien imaginer que ça serait la même chose pour les réseaux sociaux,
00:25:14c'est une obligation.
00:25:16Donc comment est-ce qu'on met en place des outils pour vérifier l'âge
00:25:20au moment où on se rend sur les réseaux par rapport à des dispositifs d'estimation
00:25:25qui eux, comme c'est de l'estimation, devraient, en rassemblant un certain nombre
00:25:30d'informations qu'ils ont sur les utilisateurs, estimer si la date de naissance,
00:25:35en tout cas aujourd'hui c'est une date de naissance, c'est comme ça qu'on rentre,
00:25:37qu'on a rentrée et correcte par rapport à l'estimation technique qui peut être faite
00:25:41par ailleurs.
00:25:42Pourquoi on plaide pour de la vérification ?
00:25:44Parce qu'il me semble que d'un point de vue technique, aujourd'hui un grand nombre
00:25:50de plateformes disent avoir déjà mis en place, dont celle que vous avez auditionnée,
00:25:54des outils d'estimation.
00:25:57Pour autant quand on fait des sondages, trois enfants sur quatre nous disent être déjà
00:26:01sur les réseaux sociaux avant l'âge qui est censé être l'âge minimum, enfin qui est
00:26:06l'âge minimum dans les conditions d'utilisation actuelles, qui est 13 ans.
00:26:09Donc on voit bien un décalage entre l'efficacité de l'estimation de l'âge et la réalité
00:26:15du terrain qui est que les jeunes enfants sont déjà sur les réseaux.
00:26:19Et puis je crois que c'est important que ce soit très clair pour les utilisateurs que
00:26:25c'est un service, je faisais le parallèle avec la consommation de l'alcool, c'est un
00:26:30service qui est autorisé à partir d'un certain âge.
00:26:35Et pour ça, le fait de vérifier l'âge quand on rentre, il me semble que c'est la façon
00:26:39la plus claire de porter ce message-là.
00:26:42De la même façon que quand on va acheter de l'alcool, il faut prouver qu'on a soi-même
00:26:45plus de 18 ans.
00:26:47C'est comme ça je crois aussi qu'on posera ce cadre clair.
00:26:49Parce que ce qui est important dans cette régulation, c'est à la fois de dire il y a un âge
00:26:54auquel on peut accéder, cet âge c'est le même pour tout le monde et on fait en sorte
00:26:57qu'il soit respecté.
00:26:58Mais ça nous permet aussi de poser un cadre, je crois que les familles attendent, parce
00:27:02que quand je discute avec les parents, je fais souvent un exercice qu'on appelle
00:27:05les cafés IA, on parle d'IA partout sur le territoire, il n'y a pas une seule fois
00:27:09où on ne dévie pas sur les réseaux sociaux, pas une seule fois.
00:27:11Tous les parents m'interpellent sur cette question, vous le savez mieux que personne,
00:27:14vous avez rencontré je ne sais combien de parents pour préparer cette commission d'enquête.
00:27:18Et je crois que la difficulté qu'il a l'heure, le désarroi des parents aujourd'hui,
00:27:21c'est aussi qu'il est difficile, et je l'entends, de dire nous dans notre famille
00:27:26on va prendre cette décision-là et ça va être cet âge-là.
00:27:29Et c'est pour ça que la régulation est un outil, c'est que quand les plateformes
00:27:34elles-mêmes ne prennent pas leur responsabilité de s'assurer de l'âge de leurs utilisateurs,
00:27:37si on dit maintenant c'est obligatoire, de vérifier l'âge, ça permet aussi aux familles
00:27:40de s'appuyer sur cette régulation pour fixer un cadre.
00:27:44Donc je pense que c'est absolument fondamental.
00:27:46Sur les outils qui existent, on en a recensé, je le disais, quinzaine en début d'année
00:27:52dans le cadre des discussions avec les sites pornographiques pour leur présenter des solutions.
00:27:57Encore une fois, je pense que techniquement c'est un défi que beaucoup de plateformes
00:28:01sont capables de résoudre elles-mêmes.
00:28:03mais les solutions existent en double anonymat
00:28:06et en effet nous travaillons au niveau européen sur cette solution qui s'appelle le mini-wallet
00:28:11pour avoir une solution de vérification d'âge harmonisée.
00:28:14Les travaux sont en cours et en juillet il y aura les premières,
00:28:18la commission nous a indiqué qu'en juillet il y aura les premières étapes
00:28:21et nous sommes portés volontaires pour être pays pilote pour déployer cette solution en France
00:28:26avec quelques autres pays pour qu'on puisse avoir une solution européenne
00:28:31open source qui permet de vérifier l'âge en double anonymat
00:28:35et qui s'appuie sur des technologies européennes.
00:28:40Donc l'idée c'est aussi bien sûr de s'assurer que le cadre qu'on a mis en place
00:28:45pour les sites pornographiques avec l'Arcom et la CNIL soit conforme au cadre européen
00:28:50et qu'il y ait un cadre harmonisé pour qu'avec ce mini-wallet et ces solutions-là
00:28:55nous puissions rendre la régulation la plus opérante possible.
00:29:00Merci. Alors on va passer la main aux collègues qui sont présents dans la salle.
00:29:05Monsieur Sauterre, puis ensuite ça sera Monsieur Vogita.
00:29:09Merci Monsieur le Président, Madame la Ministre, Madame la Rapporteure.
00:29:13J'aurais de nombreuses questions, je vais essayer de n'en serrer que quelques-unes suite à votre propos.
00:29:20Peut-être la première, commencée par la décision qui a été celle du Tribunal administratif de Paris
00:29:26il y a 48 heures par rapport à la notion de contrôle d'âge sur les sites pornographiques.
00:29:35Et on se rend bien compte de cette question spécifique de la difficulté de mise en accord
00:29:44et en corrélation avec le droit européen.
00:29:47Je voudrais pouvoir vous entendre sur ce point-là.
00:29:51Le deuxième point, je trouve qu'il faudrait que nous puissions évoquer,
00:29:55revenir sur les effets sur la santé psychologique et mentale des jeunes.
00:30:01On l'a vu notamment à partir des Facebook Leaks en 2021 que tout cela a été documenté de la part des plateformes connues
00:30:10et malheureusement voulues en partie par les plateformes pour continuer à maintenir cette source économique,
00:30:25de maintenir le plus longtemps possible les personnes sur la plateforme.
00:30:28On se rend compte là-dessus que le DSA n'a pas pris en compte ces aspects-là,
00:30:33qui est aujourd'hui une boîte à outils intéressante, mais dont on a du mal.
00:30:39Permettez-moi peut-être d'avoir cette image.
00:30:41Cette boîte à outils existe, mais on n'utilise pas vraiment les outils qui sont dans celle-ci.
00:30:47On a pu évoquer les questions sur d'autres sujets, sur les enquêtes face à X, face à d'autres plateformes,
00:30:58et il ne se passe rien.
00:31:00Les enquêtes se poursuivent sur la base des enquêtes sur les questions de la concurrence,
00:31:07et c'est sur la DG Commerce qui avait mis ça en place.
00:31:10On n'est pas vraiment sur les mêmes notions, et là-dessus je pense aussi qu'on doit pouvoir réinterpeller l'échelon européen
00:31:18sur une autre modalité d'action et une autre calendrier informationnel à ce niveau-là.
00:31:24Et j'en terminerai pour revenir sur la question du contrôle d'âge et de la vérification de l'âge qui me paraît essentielle.
00:31:31Vous avez évoqué e-wallet, moi j'aurais voulu évoquer avec vous peut-être une possibilité, une réflexion.
00:31:36Nous avons en France l'application France Identité qui est utilisée,
00:31:40qui permet à ce niveau-là pour celles et ceux qui le souhaitent d'enregistrer leur papier d'identité dans l'application.
00:31:50Aujourd'hui, est-ce qu'il est creusé l'hypothèse qu'à travers l'application France Identité,
00:31:55l'application France Identité puisse servir de tiers de confiance,
00:31:58car ils ont là-dessus l'application identité en produisant par exemple un certificat anonymisé là-dessus
00:32:04que les plateformes et les réseaux pourraient reconnaître de manière sécurisée.
00:32:09Je vous remercie.
00:32:11Je vous remercie pour toutes ces questions.
00:32:14Revenir d'abord sur la décision du tribunal de Paris concernant les sites pornographiques.
00:32:17Je vais vous le dire sans détour, je ne suis pas surprise que les sites pornographiques mettent tout en œuvre
00:32:23pour essayer de ne pas se conformer à leurs obligations.
00:32:26s'ils avaient voulu protéger les enfants de ces contenus qui sont interdits aux mineurs.
00:32:32Je pense qu'il faut être très clair.
00:32:34Ce qu'on demande aux sites pornographiques, c'est juste de faire respecter quelque chose qui est interdit depuis plus de 30 ans en ligne
00:32:40et ce qui est inadmissible et qui donne lieu au fait qu'un garçon sur deux et une fille sur trois des 10 ans
00:32:47consomment du contenu pornographique régulièrement.
00:32:50Donc pas surprise parce que là aussi il y a certainement des enjeux commerciaux
00:32:53et donc le monde dans lequel ils se seraient auto-saisis de la situation
00:33:00et ils auraient auto-mis des mécanismes de protection n'existent pas.
00:33:04C'est bien là que du coup notre rôle, parlement et gouvernement, prend tout son sens.
00:33:09Qu'est-ce qui s'est passé exactement il y a 48 heures ?
00:33:12Le tribunal de Paris a décidé de suspendre la mise en application de l'arrêté avant le jugement définitif.
00:33:18Donc le jugement définitif n'est pas encore passé.
00:33:21Et bien sûr nous mettons tout en oeuvre pour que nous puissions nous défendre sur cette question-là
00:33:26et nous défendre avec l'ambition bien sûr de gagner cette défense.
00:33:32Mais nous allons aussi nous pourvoir en cassation pour pouvoir contester cette décision
00:33:37qui d'ailleurs avait été une décision différente il y a une semaine ou deux
00:33:40concernant un autre recours par une des autres sociétés de sites pornographiques
00:33:44où le tribunal avait décidé de ne pas suspendre.
00:33:47Donc on voit qu'il y a différentes réponses à différents moments.
00:33:51Nous notre réponse et notre ligne ne faiblit pas.
00:33:53C'est de dire que les sites pornographiques doivent protéger les enfants.
00:33:56Cette loi a été votée par le Parlement et on fera tout pour qu'elle soit mise en oeuvre par tous les sites.
00:34:00C'est un combat qui est long mais que nous continuerons à mener jusqu'au bout.
00:34:07Vous pouvez compter sur mon entière détermination à le faire.
00:34:12Après ces procédures nationales, aussi rappelées, comme je disais en cassation devant le Conseil d'État pour ce recours-là,
00:34:18mais après ces procédures nationales, il y a aussi des choses qui avancent au niveau européen
00:34:24et je pense qu'il faut le souligner parce que sur SREN et sur la question de la mise en place
00:34:30d'une vérification d'âge sur les sites pornographiques pour les jeunes de moins de 18 ans,
00:34:34on nous a souvent dit « mais la France avance seule, c'est impossible ».
00:34:40On a montré que c'était possible mais surtout on a montré que la France était en avance et que l'Europe suivait
00:34:46parce que dans les fameuses lignes directrices de l'article 28 du DSA dont je parlais,
00:34:51il y a quelque chose qui pour le coup dès les premières éditions et les premières propositions de la Commission européenne est très claire,
00:34:57c'est la vérification d'âge sur les sites pour adultes.
00:35:01Donc aux sites qui aujourd'hui cherchent à sortir de leurs obligations, je veux dire que dans tous les cas,
00:35:05l'échelon européen arrive, donc on peut continuer à essayer de gagner du temps
00:35:10ou on peut prendre nos responsabilités et protéger les enfants.
00:35:13Sur la question des effets sur la santé mentale qui sont documentés
00:35:21et votre sentiment que finalement le DSA n'est pas allé au bout sur un certain nombre d'enquêtes,
00:35:30je l'ai dit en peau plus luminaire, je vous rejoins, bien sûr que je veux que les enquêtes aillent plus vite
00:35:34parce que chaque jour qui passe, c'est des contenus comme Skinny Talk qui sont vus par 500 millions, je crois, de jeunes filles
00:35:42sur l'application TikTok et qui incitent à l'extrême maigreur, qui disent des choses du type,
00:35:49pour en avoir fait l'expérience directement sur mon propre fil, puisqu'à ce moment-là, j'ai passé un petit peu de temps sur cette plateforme,
00:35:57qu'il faut mieux être vite que vilaine, que quand ton estomac gargouille, c'est qu'il t'applaudit.
00:36:02Voilà, je pense qu'on voit les effets absolument délétères sur la santé mentale et la santé tout court
00:36:08des jeunes filles qui consomment ce type de contenu en boucle.
00:36:15Pour autant, les enquêtes sont en cours et moi, je pense qu'il faut se dire que, comme vous l'avez dit,
00:36:23on a les outils, il faut les utiliser et on rappelle à la Commission notre position de fermeté sur cette question.
00:36:29Encore une fois, nous ne sommes pas tout seuls.
00:36:30Tous mes homologues aujourd'hui, avec qui on discute de ces questions, sont complètement alignés pour le fait de dire
00:36:36que ce qu'on a réussi à faire, par exemple, avec TikTok Lite, en allant très vite et en s'assurant qu'avec une enquête de la Commission,
00:36:43cette fonctionnalité n'est pas déployée sur notre marché, on puisse le faire sur tous les autres problèmes
00:36:47qu'on voit sur cette plateforme ou sur les autres plateformes qui ont des enquêtes en cours.
00:36:52Et encore une fois, il faut, je l'entends, que les enquêtes soient solides, mais il faut qu'elles aillent au bout et nous y veillons, bien sûr.
00:37:01Sur la question plus systémique et de la documentation, dans le DSA, il y a aussi quelque chose de très clair,
00:37:06c'est que TikTok, comme toutes les autres plateformes, a l'obligation d'analyser ce qu'ils appellent les risques systémiques.
00:37:12La protection des enfants, c'en est un, et c'est-à-dire de remettre des rapports annuels sur ces risques-là,
00:37:20sur les conséquences négatives sur le bien-être physique et mental des mineurs.
00:37:25Et le DSA prévoit aussi des prérogatives d'audit des algorithmes pour, de façon technique,
00:37:31pouvoir comprendre comment ces plateformes sont gouvernées et avoir un droit de regard sur ces algorithmes
00:37:37pour comprendre, encore une fois, quels sont les biais connectifs qu'ils induisent
00:37:40et éventuellement demander des corrections.
00:37:43Donc, sur cette question-là, je crois qu'il faut continuer à maintenir la pression
00:37:50et continuer à exiger que les enquêtes aillent au bout.
00:37:53Et vous pouvez compter sur moi pour le faire.
00:37:55Sur la question du contrôle de l'âge, oui, France Identité, c'est une des solutions qui existent.
00:38:01Je pense aussi à deux cas postes que j'ai vus pendant le salon Vivatec la semaine dernière.
00:38:05Je pense qu'aujourd'hui, il y a plein de solutions techniques.
00:38:07Il faut sortir de cette idée qu'il n'y a pas de solution.
00:38:09Cette idée, elle est poussée par des acteurs qui n'ont pas envie d'utiliser ces solutions.
00:38:14Enfin, en tout cas, c'est comme ça que j'en fais une analyse, parce que les solutions, elles existent.
00:38:19Et encore une fois, j'invite les acteurs, nous l'avons fait en janvier, à venir rencontrer ces solutions.
00:38:24Il y en a une quinzaine rien que dans notre pays.
00:38:27Et j'étais à Vivatec la semaine dernière, qui est le salon de l'innovation le plus gros au monde aujourd'hui.
00:38:32Il y a un nombre d'entreprises qui m'ont interpellée pour me dire, je sais qu'en ce moment, vous avez ce combat sur la vérification d'âge.
00:38:38Eh bien, vous savez quoi ? Moi, avec la blockchain, je peux permettre de faire des tokens.
00:38:42Moi, avec telle technologie, je peux vous offrir une solution.
00:38:45Ces solutions, elles sont là, avec des tiers de confiance.
00:38:48France Identité peut en être un, avec une certification.
00:38:51Et je crois vraiment, sincèrement, qu'aujourd'hui, ce n'est plus entendable de se cacher derrière un argument faussement technique,
00:38:57surtout quand on est dans une entreprise du numérique qui est particulièrement technique et innovante.
00:39:02Merci, Madame la Ministre.
00:39:05Alors, je vois que Monsieur Vaugeta trépigne, mais on va faire un ordre de priorité par ceux qui sont présents dans la salle.
00:39:12Et donc, voilà, je remercie et je souhaite la bienvenue à Monsieur Belladat pour cette audition et à qui je cède la parole.
00:39:18Merci, Monsieur le Président, Madame la rapporteure, Madame la Ministre.
00:39:23C'est vrai qu'on évoque ce public de jeunes qui est le premier à subir les risques associés aux médias algorithmiques,
00:39:31notamment la désinformation et cette manipulation d'informations.
00:39:35Je voudrais revenir notamment sur la labellisation volontaire des influenceurs d'informations.
00:39:40Vous avez évoqué à l'instant la certification, mais du côté plutôt technique et des offreurs de solutions.
00:39:46Et ces influenceurs produisent de l'information comme les journalistes qui, eux, sont soumis à des règles déontologiques
00:39:52ou comme les éditeurs de presse et de services audiovisuels soumis également à des obligations strictes.
00:39:59Et le rapport des États généraux d'information évoquait justement cette piste-là en septembre 2024.
00:40:07Il s'agirait, selon le rapport, de reconnaître celles et ceux sur les services en ligne et plateforme
00:40:12qui visent à offrir à un public une information de qualité indépendante et attachée aux faits.
00:40:17Il s'agirait, il s'engagerait volontairement, je dis bien volontairement,
00:40:21à respecter des exigences renforcées en matière de traitement de l'information,
00:40:24en matière de qualité de source, d'honnêteté dans le traitement et dans la présentation de l'information.
00:40:30Sous quelles conditions, Madame la Ministre, pensez-vous possible de mettre en œuvre cette labellisation volontaire
00:40:35dans le respect de la liberté d'expression, de communication et d'information ?
00:40:39Et est-ce qu'une telle mesure est actuellement envisagée par le gouvernement ? Merci.
00:40:45Je vous remercie. Vous touchez à un point fondamental,
00:40:49parce que dans la question du DSA,
00:40:53il y a la question aussi de la responsabilité des plateformes face à la désinformation.
00:40:57et je sais que ce point-là a été aussi l'objet de beaucoup de débats récents
00:41:03et souvent mis en opposition avec la liberté d'expression.
00:41:06Et je veux être très claire, la liberté d'expression, c'est un droit fondamental de notre pays,
00:41:10c'est un principe fondateur et il n'a jamais été question que le DSA remette en cause ce principe.
00:41:17Simplement, le DSA est très clair sur quelque chose,
00:41:21c'est que ce qui est interdit hors ligne, il est aussi en ligne.
00:41:26Et nous avons, en France, dans la déclaration des droits de l'homme,
00:41:31une liberté d'expression qui est différente du premier amendement américain,
00:41:37et c'est comme ça, c'est factuel,
00:41:39et donc qui fait que dans cette audition à la radio ou sur un réseau,
00:41:42il y a des propos, et je ne parle pas de désinformation,
00:41:45je parle des propos licites qu'on ne peut pas tenir.
00:41:48Les propos homophobes, les propos antisémites,
00:41:52les appels à la haine, à la violence, au terrorisme,
00:41:53et donc les plateformes, avec le DSA, ont cette responsabilité d'agir sur ces contenus,
00:41:58mais ils ont aussi la responsabilité d'agir sur, de façon systémique, la désinformation.
00:42:03Bien sûr, ça pose un certain nombre de questions de comment ils le font,
00:42:10mais de la même façon que la protection des mineurs, les obligations sont claires,
00:42:15il doit y avoir, par les plateformes, un rapport annuel qui mesure, quantifie,
00:42:19comprend les risques de désinformation et présente un certain nombre de pistes de solutions,
00:42:24les outils sont nombreux, chaque plateforme est libre de décider la façon dont ils se saisissent du sujet,
00:42:31que ce soit avec un réseau de journalistes, que ce soit avec des notes communautaires,
00:42:35c'est bien leur pleine liberté, mais ils doivent juste être clairs sur l'efficacité de ces dispositifs.
00:42:41Ils doivent aussi être, parce que le DSA le demande,
00:42:47clairs sur le fait qu'ils ont une obligation de coopérer avec les chercheurs agréés
00:42:50pour travailler sur ces questions-là.
00:42:53Il y a aussi des enquêtes en cours sur un certain nombre de plateformes
00:42:55et qui auront bout et qui détermineront si oui ou non ces dispositifs sont efficaces.
00:43:02Vous m'interrogez aussi sur la question de la responsabilité des producteurs de contenus eux-mêmes,
00:43:08des fameux influenceurs et de la qualité de l'information qu'ils donnent.
00:43:12Je pense qu'il faut s'arrêter une seconde et se dire que certains nombres d'études,
00:43:17je pense à l'étude qui a été menée par Softskill notamment,
00:43:20montrent qu'aujourd'hui les plus jeunes ont autant confiance dans l'information
00:43:26qui leur est rapportée par les influenceurs, les créateurs de contenus,
00:43:30qu'ils ne l'ont par des titres de presse.
00:43:32C'est la réalité du monde dans lequel on vit.
00:43:34Et que deux enfants sur dix aujourd'hui, si mes souvenirs sont bons,
00:43:38mais il faudra peut-être préciser la statistique parce que je ne l'ai pas là, je l'ai deux têtes,
00:43:42pensent par exemple, je ne cite qu'un exemple,
00:43:44mais que les pyramides ont été construites par des extraterrestres.
00:43:47Alors on peut sourire, mais c'est la réalité du monde dans lequel on vit.
00:43:52Et donc ça pose un certain nombre de questions sur la responsabilité des plateformes,
00:43:56je crois qu'on y a répondu de façon très claire.
00:43:57Le cadre est là, il faut qu'il soit mis en œuvre.
00:43:59Je comprends que ce ne sont pas des questions faciles, je comprends qu'il y a plusieurs façons de les adresser,
00:44:04mais il faut qu'elles soient efficaces, ça c'est clair.
00:44:06Et la deuxième question, c'est la responsabilité des producteurs de contenus eux-mêmes.
00:44:12Nous avons confié à M. Delaporte et M. Vogeta une mission dans la prolongation de la loi influenceur
00:44:18que vous avez portée sur le fait de nous aider à réfléchir à un certain nombre de ces problématiques-là.
00:44:24Voilà, je crois qu'on ne doit pas s'interdire de réfléchir à un certain nombre de choses qu'on peut mettre en place,
00:44:30dans le respect du droit européen bien sûr, pour pouvoir toujours encore protéger nos enfants.
00:44:39Merci Madame la Ministre.
00:44:41Je ne reviendrai pas sur la mission dont nous attendons toujours formellement la lettre.
00:44:46Voilà, c'est une soft relance.
00:44:48Je vais maintenant donner la parole à M. Vogeta.
00:44:53C'est bon, vous avez eu toutes les réponses.
00:44:55M. Vogeta.
00:44:58Merci M. le Président.
00:44:59Bonjour Madame la Ministre.
00:45:03Écoutez, quelques questions en essayant d'éviter les redondances avec ce qui a déjà été dit.
00:45:09D'abord sur la loi Marc-Angeli, il y avait à l'époque, il y a un an, nous avions voté dans le cadre d'un projet de loi d'adulte à la passion du droit européen,
00:45:21donc l'obligation pour le gouvernement de remettre au Parlement un rapport sur les mesures d'adaptation requises,
00:45:28suite aux observations de la Commission européenne sur la loi Marc-Angeli,
00:45:31donc qui proposait d'établir une majorité numérique à 15 ans.
00:45:35Qu'en est-il ? Avez-vous ce rapport ? Pouvez-vous nous dire quelles sont les conclusions principales ?
00:45:42Et notamment sur ce rapport que vous appuyez pour parler de la voie juridique qui serait éventuellement ouverte
00:45:49pour nous permettre à nous, au niveau français, une fois que la vérification de l'âge serait imposée au niveau européen,
00:45:57nous, au niveau français, de pouvoir imposer aux plateformes des contraintes spécifiques basées, justement, sur l'âge, une fois vérifiée ?
00:46:06Donc ça, c'est ma première question.
00:46:10Ma deuxième question, c'est, avec une remarque supplémentaire, pour revenir sur la loi Influenceurs,
00:46:19nous nous avions un peu anticipé déjà avec Arthur Delaporte le fait que tôt ou tard,
00:46:23il y aura une vérification d'âge efficace, le plus tôt possible, je l'espère, et vous allez y contribuer.
00:46:31Mais nous avions anticipé, en imposant, non pas aux plateformes, mais aux créateurs de contenus,
00:46:37le filtrage de leur propre contenu en fonction de l'âge du mineur,
00:46:41et notamment de l'obligation, dans le cadre de certaines promotions de produits ou de services interdits au moins de 18 ans,
00:46:48eh bien, l'obligation d'exclure de l'audience de ces promotions les personnes identifiées par la plateforme comme ayant moins de 18 ans.
00:46:56Donc, nous avions anticipé, ça fait partie, je pense, des voies de passage juridiques,
00:47:00mais il y en a peut-être d'autres, et j'aimerais bien vous entendre sur ce sujet.
00:47:03Le deuxième sujet, c'est sur le contrôle parental, et in fine, la responsabilisation des parents.
00:47:09On ne peut pas uniquement parler d'interdire, ici, il faut évidemment éduquer, sensibiliser,
00:47:14s'assurer que les parents sont embarqués, comprennent les risques auxquels sont exposés leurs enfants,
00:47:19et comprennent leur capacité à agir et à réagir face à ces risques,
00:47:23et puissent s'emparer des outils qui sont à leur disposition.
00:47:26Alors, les outils, ils sont nombreux, ils sont intégrés au dispositif, ils sont intégrés au système d'opération,
00:47:31ils sont aussi intégrés aux plateformes, mais ce que nous savons,
00:47:34et nous le vérifions à chaque audition des plateformes, notamment de par leur volonté de ne pas répondre aux questions,
00:47:44mais nous savons et nous devinons que ces outils de contrôle parental sont très souvent non utilisés
00:47:51sur les comptes identifiés comme étant des comptes de mineurs.
00:47:56Et donc, cela indique que le pourcentage de comptes de mineurs, qu'ils soient identifiés ou pas comme étant mineurs,
00:48:02sur lesquels les outils de contrôle parental ou de contrôle de l'usage en termes de temps maximum,
00:48:08le pourcentage des comptes sur lesquels ces outils sont utilisés est probablement très faible,
00:48:14de l'ordre de quelques points de pourcentage.
00:48:17À partir de là, faudrait-il réfléchir à renforcer ce qu'était la loi Studer sur le contrôle parental par défaut,
00:48:24et aller éventuellement vers une loi qui impose aux fabricants d'écrans à vendre des écrans
00:48:32qui soient configurés par défaut dans une configuration moins de 18 ans,
00:48:39quitte ensuite à permettre, bien sûr, à tout usager majeur de débloquer ou de déconfigurer ce contrôle parental
00:48:46une fois qu'il aura fait la preuve de son âge ?
00:48:49Est-ce une piste sur laquelle vous envisagez de travailler ?
00:48:53Et le cas échéant, de quelle manière du point de vue juridique ?
00:48:57Voilà, ce sont mes deux questions essentielles.
00:49:00Merci, monsieur le député.
00:49:02Tout d'abord, sur le rapport à vous, à tous vos collègues dans cette salle et au Parlement en général,
00:49:08je m'excuse au nom du gouvernement pour le retard,
00:49:10parce que oui, nous devions vous remettre ce rapport il y a quelques mois déjà,
00:49:14et je sais à quel point vous êtes sensibles au respect des délais de publication des rapports
00:49:19et donc en attente de ce contenu, et donc je tiens sincèrement à m'excuser pour ça.
00:49:24Il y a eu deux, trois situations, bref.
00:49:30J'ai signé ce rapport hier, donc il vous sera remis très prochainement
00:49:34pour vous en dire les grandes lignes, deux choses qui expliquent du coup
00:49:40le retard d'application de la loi Marc-Angélie,
00:49:42qui encore une fois, je veux saluer cette PPL parce que ça a été voté à l'unanimité,
00:49:48et je pense que ça montre bien que ces enjeux sont transpartisans
00:49:52et sont des enjeux de société majeurs,
00:49:54et vraiment je salue l'engagement du Parlement sur cette question.
00:49:58Donc deux points qui ont été notés par la Commission européenne
00:50:01et donc qu'on clarifie dans le rapport, sans être trop longue,
00:50:04on pourra bien sûr en reparler une fois que vous aurez reçu exemplaire,
00:50:07mais il y a déjà eu une question de procédure,
00:50:09la procédure de notification qui a été réalisée avant la fin du statu quo
00:50:14et qui du coup n'a pas été respectée comme il le fallait au niveau du droit européen,
00:50:20et ensuite sur le fond, une réflexion de l'Europe
00:50:26sur la conformité de la loi avec le droit européen,
00:50:30notamment plusieurs dispositions de cette loi
00:50:33qui étaient en contradiction avec le droit européen.
00:50:36Le rapport vous présentera deux options,
00:50:38on pourrait reprendre le contenu de la loi dans une ordonnance
00:50:43et reprendre la procédure de notification
00:50:45pour que les choses soient faites dans l'ordre,
00:50:49mais des analyses de nos services,
00:50:51l'adéquation entre cette loi et les réglementations européennes
00:50:53resterait très fragile,
00:50:55donc ce n'est pas l'option que l'on conseille et que l'on envisage.
00:50:59Deux, qui est l'option pour laquelle aujourd'hui je mets ma volonté politique,
00:51:04c'est qu'au niveau européen, on puisse instaurer cette vérification d'âge
00:51:08et la possibilité pour chaque État membre de déterminer l'âge auquel
00:51:13l'accès des réseaux sociaux est autorisé,
00:51:16qui soit en adéquation avec les lignes directrices du DSA
00:51:19qu'on est en train de rédiger au moment où on se parle.
00:51:22Et donc c'est cette seconde option que le rapport préconise
00:51:25et c'est l'ambition politique qui est la mienne aujourd'hui
00:51:27pour pouvoir interdire les réseaux sociaux avant 15 ans.
00:51:32Dans la question du droit national,
00:51:34tout le travail aussi que nous avons entamé avec la Commission
00:51:37depuis maintenant quelques temps,
00:51:39c'est un peu complexe et je ne veux pas rentrer dans...
00:51:42mais n'hésitez pas si c'est des questions plus précises,
00:51:44mais il y a plusieurs bases qui encadrent les plateformes
00:51:48aujourd'hui dans le droit européen.
00:51:50Il y a le DSA, on en a beaucoup parlé,
00:51:53il y a le RGPD, la question de la protection des données personnelles,
00:51:56et il y a les services et médias audiovisuels,
00:51:57qui est la base juridique qu'on avait utilisée
00:51:59pour les sites pornographiques.
00:52:01Aujourd'hui, avec la Commission,
00:52:03on analyse les différentes voies
00:52:05qui nous permettraient d'avoir une définition de l'âge légal
00:52:10pour lequel on peut s'inscrire aux réseaux sociaux
00:52:12au niveau national, en fonction de ces différents textes.
00:52:16Et pour le coup, je tiens à vous rassurer,
00:52:19la Commission nous a vraiment assuré,
00:52:20encore pendant le Conseil européen,
00:52:23la vice-présidente Ena Virkounen et son équipe
00:52:27nous ont assuré de leur volonté de nous accompagner
00:52:28à identifier les bases légales.
00:52:31C'est un travail qui, du coup, n'est pas 100% abouti,
00:52:34donc je ne peux pas aujourd'hui vous dire
00:52:36voilà comment on va passer,
00:52:37mais c'est un travail qui est en cours
00:52:38et sur lequel on compte bien aller jusqu'au bout.
00:52:42Sur la question des mineurs,
00:52:46aujourd'hui, il y a déjà dans le DSA
00:52:49l'obligation pour les plateformes
00:52:52de ne pas cibler les mineurs avec de la publicité.
00:52:56Donc ça, c'est une première décision très importante
00:53:00qui a été prise au moment de ce texte-là.
00:53:02Et bien sûr, dans le cadre de la loi
00:53:04que vous avez portée avec votre collègue,
00:53:06Monsieur le Président,
00:53:07vous aviez permis des avancées notables
00:53:12sur l'obligation de mentionner très clairement
00:53:14les contenus sponsorisés,
00:53:16l'interdiction de promouvoir certains produits,
00:53:18comme vous le disiez,
00:53:20avec des sanctions très lourdes
00:53:21pour les créateurs de contenus
00:53:22et pas du coup seulement pour les plateformes.
00:53:25L'interdiction, vous le disiez,
00:53:27de faire apparaître aussi des produits
00:53:31qui sont interdits aux mineurs
00:53:32dans des publicités menées par les influenceurs
00:53:34pour ces mineurs avec les audiences
00:53:36et l'interdiction aussi que je salue
00:53:38de faire apparaître des enfants
00:53:39dans les contenus commerciaux
00:53:40sans l'autorisation.
00:53:43Donc je pense que tous ces travaux-là
00:53:44vont dans le même sens,
00:53:46d'une responsabilisation et d'une protection accrue
00:53:49de nos mineurs en ligne.
00:53:52Nous nous sommes aussi entretenus
00:53:53avec le vice-président McGrath
00:53:56sur la question du Digital Fairness Act
00:53:58qui regarde attentivement une partie des travaux
00:54:02qui avaient été menés par vous, par la France
00:54:04sur la question de l'influence commerciale en ligne
00:54:07pour réfléchir au niveau européen
00:54:09à ce qu'on pourrait mettre en place.
00:54:11Donc je pense qu'encore une fois,
00:54:12on a été en avance sur cette question-là.
00:54:14Ce n'est pas un combat facile,
00:54:16c'est un combat en effet sur lequel
00:54:18il reste un certain nombre de choses
00:54:19à mettre en place,
00:54:20notamment la vérification de l'âge
00:54:21qui me semble en effet la base
00:54:24pour que tout ça soit opérant
00:54:25sur la question des audiences.
00:54:27Mais je crois que c'est un combat
00:54:28sur lequel on montre la voie
00:54:30et c'est bien sûr une bonne chose.
00:54:32Sur la question des parents,
00:54:35du rôle des parents
00:54:35et surtout des outils
00:54:36qui sont mis à leur disposition,
00:54:37je salue le travail qui avait été fait
00:54:39par votre ancien collègue,
00:54:40monsieur le député Studer,
00:54:42sur la question du contrôle parental
00:54:44pour imposer que des dispositifs
00:54:47de contrôle parentaux
00:54:47soient mis dans les différents appareils
00:54:51et installés, préinstallés.
00:54:53Nous avons d'ailleurs fait une réunion
00:54:54avec Catherine Vautrin,
00:54:56la ministre de la Santé,
00:54:57du travail des familles
00:54:59sur cette question-là
00:55:01avec les opérateurs téléphoniques aussi
00:55:03pour suivre dans quelle mesure
00:55:05les opérateurs téléphoniques
00:55:06peuvent nous donner
00:55:08des indications très claires
00:55:09sur comment les contrôles parentaux
00:55:12que proposent les opérateurs téléphoniques
00:55:15sont utilisés aujourd'hui,
00:55:17est-ce qu'ils sont connus des parents,
00:55:19est-ce qu'ils sont utilisés,
00:55:20est-ce qu'ils sont mis en oeuvre ?
00:55:21Ils nous garderont ce suivi de proximité.
00:55:24Après, je pense,
00:55:26et vous l'avez très justement dit,
00:55:27qu'il faut être conscient de la situation,
00:55:29les plateformes aussi ont des dispositifs
00:55:32de contrôle parentaux pour certaines
00:55:33et nous disent de façon d'ailleurs très honnête
00:55:35qu'aujourd'hui,
00:55:36ils ne sont pas massivement utilisés.
00:55:39Je pense que c'est une question,
00:55:40en effet,
00:55:41il y a une question réglementaire,
00:55:43est-ce qu'on veut aller plus loin,
00:55:44est-ce qu'on veut faire par défaut ?
00:55:46Je ne m'interdis pas de regarder
00:55:47toutes les options.
00:55:48Et puis, il y a une question d'éducation,
00:55:49je le disais dans mon propos liminaire,
00:55:51je pense que tout le travail
00:55:52qui est fait avec cette commission d'enquête,
00:55:54tout le travail qui est fait avec le Parlement
00:55:55sur toutes ces initiatives,
00:55:57tout le travail que l'on mène au gouvernement,
00:55:59doit aussi nous permettre
00:56:00d'avoir un vrai débat de société
00:56:02autour de la question que les écrans,
00:56:04et la place que les écrans prennent
00:56:06dans la vie de nos enfants
00:56:06et des conséquences bien réelles
00:56:08sur leur santé
00:56:09pour pouvoir donner un certain nombre
00:56:11de pistes aux familles.
00:56:13et la question de l'éducation
00:56:15à ces outils de contrôle parentaux
00:56:17en est bien sûr un.
00:56:19Donc, nous y serons attentifs
00:56:21parce que je pense qu'aujourd'hui,
00:56:24la plupart des parents,
00:56:25quand on les questionne,
00:56:26il y a des études qui montrent
00:56:27que trois quarts des parents
00:56:28sont bien sûr favorables
00:56:28à ces outils-là,
00:56:30mais encore 60% presque d'entre eux
00:56:33ne les utilisent pas.
00:56:35Donc, il y a une question
00:56:36d'éducation, de sensibilisation,
00:56:38d'accompagnement
00:56:38à laquelle on doit être attentif
00:56:40parce que je vous suis complètement
00:56:44sur cette question-là.
00:56:47Avoir les règles, c'est très bien,
00:56:49mais ça ne suffit pas.
00:56:50Il faut aussi bien sûr accompagner.
00:56:52Et donc, on y prendra toute notre part.
00:56:56Merci.
00:56:57Alors, Madame la Ministre,
00:56:59je vais peut-être vous amener
00:57:00à préciser la nature
00:57:03de la marche de manœuvre nationale
00:57:05parce que c'est vrai que nous,
00:57:06on est législateurs nationaux,
00:57:07on réfléchit sur les possibilités
00:57:11d'agir plus rapidement en tout cas
00:57:13puisque vous évoquiez le DFA
00:57:15et quand on est allé à Bruxelles,
00:57:16on a dit que c'était
00:57:17à horizon 2029 par exemple.
00:57:19Donc, s'il faut attendre
00:57:19un nouveau DSA ou un DFA,
00:57:22on peut toujours attendre.
00:57:23Donc, voilà,
00:57:24quelle est notre marge d'agilité ?
00:57:28Est-ce qu'on peut rentrer
00:57:28un peu dans le détail ?
00:57:29Je crois que Madame la Rapporte
00:57:29avait une question complémentaire.
00:57:31Oui, exactement.
00:57:33Si vous pouvez nous préciser,
00:57:35en effet, les échanges
00:57:35que vous avez actuellement
00:57:36avec la Commission
00:57:37et peut-être les premières conclusions,
00:57:40même provisoires,
00:57:40que vous avez sur le cadre
00:57:42qui nous permettrait, nous,
00:57:43de légiférer là-dessus
00:57:44et si vous trouvez en effet
00:57:47une façon de pouvoir légiférer
00:57:48au niveau national,
00:57:50est-ce que dans ce cas-là,
00:57:51vous avez dans votre réflexion
00:57:53l'idée de pouvoir ensuite
00:57:55sortir les décrets d'application
00:57:56de la loi Marc-Angeli
00:57:57sans avoir besoin peut-être
00:57:59de légiférer sur le sujet ?
00:58:01Oui, c'est une question importante.
00:58:09De façon claire,
00:58:11je n'aurai pas toutes les réponses
00:58:12que vous me demandez aujourd'hui.
00:58:13On peut vous revenir
00:58:14avec plus de précision,
00:58:16mais comme vous le voyez bien,
00:58:17c'est une discussion
00:58:17qui est en cours de construction.
00:58:19Donc on étudie toutes les pistes.
00:58:20Donc un certain nombre de pistes,
00:58:21on n'a pas encore été au bout
00:58:23de l'analyse pour vous répondre
00:58:24de façon précise
00:58:25entre les différents thèses
00:58:27que j'ai cité tout à l'heure,
00:58:28DSA, DMA,
00:58:30pardon, pas DMA,
00:58:31SMA, RGPD,
00:58:32lesquels sont les meilleurs leviers
00:58:34pour avancer.
00:58:35Pour autant,
00:58:36quelle est la marge nationale claire ?
00:58:37Déjà, de façon très claire
00:58:42et unie, portée d'une même voix,
00:58:43le fait que ce sujet,
00:58:44c'est une priorité
00:58:45de la représentation nationale,
00:58:47du gouvernement.
00:58:48Je salue d'ailleurs aussi
00:58:49vos collègues du Sénat.
00:58:51Catherine Morin de Sailly
00:58:52a fait une PPRE sur cette question-là,
00:58:54je crois, qui est sortie hier
00:58:55ou avant-hier,
00:58:56en tout cas cette semaine,
00:58:59qu'on a une volonté très forte
00:59:03et assumée d'aller plus loin
00:59:04pour protéger les mineurs en ligne,
00:59:06qu'on arrive à rassembler
00:59:08au niveau européen pour le faire.
00:59:11Au moment même
00:59:12où on est en train de préciser
00:59:13dans le DSA
00:59:15les lignes directrices
00:59:17et les obligations des plateformes
00:59:18sur la protection des mineurs,
00:59:20c'est pour moi extrêmement précieux
00:59:23et actionnable
00:59:24parce qu'on est aujourd'hui
00:59:27dans le moment
00:59:28où on peut agir
00:59:29sur cette question-là.
00:59:31Et c'est pour ça que j'ai dit
00:59:31que je me donne trois mois
00:59:32parce que c'est vraiment maintenant.
00:59:34Ensuite,
00:59:35si on prend les choses
00:59:36dans l'ordre,
00:59:39on a,
00:59:39et vous le verrez dans le rapport,
00:59:40étudié les différentes possibilités
00:59:42d'avancer en droit national
00:59:43avec la loi Marc-Angeli
00:59:45telle qu'elle.
00:59:46Il faudrait prendre une ordonnance.
00:59:47le problème le plus complexe
00:59:51de la loi,
00:59:51c'est qu'il y a la question
00:59:52de l'autorité de suspension
00:59:53puisque nous avons confié
00:59:56à la Commission européenne
00:59:57pour les très grandes plateformes,
00:59:59donc les très grands réseaux sociaux,
01:00:00que sont notamment celui
01:00:02qui occupe cette commission,
01:00:03la Commission européenne
01:00:05comme autorité de régulation.
01:00:08Donc non seulement ça serait très long,
01:00:10parce qu'on estime qu'il faudrait
01:00:11à peu près un an,
01:00:11il faudrait un dadu,
01:00:12une certaine rédaction,
01:00:13mais aussi nous sommes
01:00:14que ça serait peu opérant
01:00:16de partir de cette loi-là
01:00:17telle qu'elle
01:00:18à cause de ce problème-là.
01:00:21Donc c'est pas le schéma
01:00:23vers lequel on se dirige.
01:00:26Pour autant,
01:00:27on étudie toutes les pistes
01:00:28pour que ça soit
01:00:29le plus opérant possible.
01:00:31Et encore une fois,
01:00:32je pense qu'il faut le rappeler,
01:00:34la Commission européenne
01:00:34dans les derniers échanges
01:00:36des dernières semaines,
01:00:37on se parle très régulièrement
01:00:38sur cette question-là,
01:00:39a vraiment fait preuve
01:00:40d'une volonté assumée
01:00:42de nous aider
01:00:43à trouver les voies de passage.
01:00:45Donc j'entends
01:00:45que c'est compliqué,
01:00:47c'est long,
01:00:48mais je pense qu'il faut rappeler
01:00:49quand même
01:00:49que ce qu'on a décidé
01:00:50de faire en Europe,
01:00:51c'est absolument fondamental
01:00:53et on ne peut le faire
01:00:54que parce qu'on est
01:00:54450 millions d'Européens.
01:00:56Moi, je suis très fière
01:00:57d'être européenne
01:00:57parce que, oui,
01:01:00ce sont parfois
01:01:00des procédures longues,
01:01:02mais quand les enquêtes
01:01:04qui sont en cours
01:01:05iront au bout
01:01:05et si certaines des enquêtes
01:01:07décident,
01:01:10pensent que les plateformes
01:01:11manquent à leurs obligations,
01:01:13que les amendes sont donc prononcées,
01:01:15je pense que ça sera un moment fondateur
01:01:19pour ce combat-là
01:01:19et qu'il ne faut pas non plus
01:01:21dévaloriser le chemin
01:01:22qui est fait par l'Europe
01:01:23sur cette question.
01:01:27Merci beaucoup.
01:01:28Vous avez parfaitement raison.
01:01:29On n'en a, je pense,
01:01:30pas forcément toujours conscience
01:01:31et d'ailleurs,
01:01:32c'est peut-être l'occasion
01:01:32de rendre hommage aussi
01:01:33à Thierry Breton,
01:01:34un Français dont on a vu
01:01:36quand on s'est déplacé à Bruxelles
01:01:37qui était un peu une star
01:01:38aux yeux de certains parlementaires européens.
01:01:41Non, mais c'est vrai
01:01:42parce qu'il a fait un travail colossal
01:01:43et en fait, peut-être que nous,
01:01:45Français, n'avons pas forcément
01:01:46conscience de ça
01:01:46et c'est quand même dommage
01:01:47et donc on peut peut-être
01:01:49quand même lui rendre
01:01:49encore une fois hommage
01:01:50pour l'ampleur du travail
01:01:52qui a été le sien.
01:01:53Je vous laisse simplement
01:01:54vous poser une question
01:01:55peut-être un petit peu décalée,
01:01:57mais sur la question,
01:01:57enfin, pas tant que ça d'ailleurs,
01:01:58mais sur la question
01:01:59de la sensibilisation
01:02:00des parents,
01:02:01des enfants
01:02:01et je rentre un peu plus
01:02:03dans le détail,
01:02:04on a eu le sentiment
01:02:06à travers les auditions
01:02:07que ce soit des parents de victimes
01:02:08mais aussi des parents d'élèves,
01:02:10des associations de parents d'élèves
01:02:12d'une forme un peu
01:02:13d'incompréhension
01:02:14de se dire,
01:02:17en fait,
01:02:18la commission écran en plus
01:02:19est arrivée là-dessus,
01:02:21on nous alerte sur les écrans,
01:02:23l'impact des écrans
01:02:23du numérique sur nos enfants
01:02:25et puis en fait,
01:02:26c'est l'éducation nationale elle-même
01:02:28qui, même si nous,
01:02:30on fait de la résistance
01:02:30en tant que famille
01:02:31à ne pas confier
01:02:33de téléphone à nos enfants,
01:02:34à ne pas favoriser
01:02:35les écrans chez nous,
01:02:36c'est finalement
01:02:37l'école elle-même
01:02:38qui arrive
01:02:39et qui, voilà,
01:02:40met un écran
01:02:41entre les mains
01:02:42de nos enfants,
01:02:43évidemment,
01:02:43il y a les applications
01:02:44Pronote, etc.,
01:02:46qui sont en cause
01:02:47et voilà,
01:02:49quel regard vous portez
01:02:49là-dessus ?
01:02:50On a auditionné
01:02:51évidemment la direction
01:02:52de l'éducation nationale
01:02:53et on avait,
01:02:54enfin, moi en tout cas,
01:02:55c'est personnel,
01:02:55j'avais un peu le sentiment
01:02:56que ça prenait du temps
01:02:58pour saisir l'impact
01:02:59de la commission écran
01:03:00et le mettre en œuvre ensuite
01:03:01au sein même
01:03:02de l'éducation nationale.
01:03:05Je vous remercie
01:03:05pour cette question.
01:03:07Comme je l'ai indiqué
01:03:08dans mon propos liminaire,
01:03:09on travaille avec mes collègues
01:03:11Catherine Vautrin
01:03:11et Elisabeth Borne
01:03:12sur cette question
01:03:12des écrans et des enfants
01:03:14puisque les trois sujets numériques
01:03:16qui sont à l'éducation
01:03:17sont bien sûr extrêmement liés
01:03:19et j'entends ces questions
01:03:22des parents
01:03:23et peut-être rappeler
01:03:24que ma collègue
01:03:25la ministre d'État
01:03:26Elisabeth Borne
01:03:27a annoncé un certain nombre
01:03:29de recommandations
01:03:29du rapport écran
01:03:30qu'elle a fait sienne
01:03:31et que sous l'impulsion
01:03:33du président de la République
01:03:36et du Premier ministre,
01:03:38elle a déjà annoncé
01:03:39mettre en place
01:03:39dès cette rentrée.
01:03:41C'est la question
01:03:42de ce qu'on appelle
01:03:43la pause numérique au collège,
01:03:44c'est-à-dire pas de téléphone portable
01:03:45dans les collèges.
01:03:47Je pense que c'est une mesure
01:03:48qui était attendue
01:03:49et qui sera positive
01:03:51justement pour renforcer
01:03:53l'adéquation du discours,
01:03:56disons,
01:03:56notamment dans le cadre
01:03:57de l'école.
01:03:59Et elle a annoncé aussi
01:04:00il y a quelques semaines de ça
01:04:01lorsqu'on était ensemble
01:04:02pour lancer le défi
01:04:03des 10 jours sans écran,
01:04:04on aura peut-être l'occasion
01:04:05d'y revenir,
01:04:07qu'elle voulait mettre
01:04:10en place
01:04:10une pause
01:04:12sur les notifications
01:04:13pronotes,
01:04:14notamment
01:04:15dans les heures nocturnes
01:04:18et à certaines heures
01:04:20du week-end.
01:04:21Le cadre, je crois,
01:04:21n'est pas encore précisé,
01:04:22il faudra vérifier,
01:04:23mais est en cours
01:04:24d'écriture
01:04:25parce que ça fait aussi partie,
01:04:27je crois,
01:04:28des recommandations,
01:04:30des problématiques
01:04:31soulevées par les parents
01:04:31et certainement
01:04:32des recommandations
01:04:33mentionnées par la commission écran.
01:04:35Donc vous vous assurez
01:04:36que nous sommes
01:04:38très déterminés
01:04:40à travailler ensemble
01:04:41pour mettre en place
01:04:42les recommandations du rapport.
01:04:44Ce sont les premières
01:04:44que nous avons sélectionnées.
01:04:46Catherine Vautrin
01:04:47a aussi annoncé
01:04:47il y a quelques jours
01:04:48l'interdiction des écrans
01:04:50pour les moins de 3 ans
01:04:51pour pouvoir aussi
01:04:53donner ce cadre clair
01:04:54dans les familles,
01:04:55important,
01:04:56de la même façon
01:04:57que la loi
01:04:58dite anti-fessé
01:04:59qui avait porté
01:05:00Adrien Taquet
01:05:00a permis,
01:05:02je pense,
01:05:02de mettre le doigt
01:05:03sur cette problématique
01:05:04et un cadre très clair
01:05:05dans les familles,
01:05:06de pouvoir dire
01:05:07les écrans avant 3 ans
01:05:09c'est interdit,
01:05:09c'est donner une règle
01:05:10qui est la même pour tous
01:05:11et donner un cadre
01:05:12qui facilite les discussions
01:05:13et toute cette partie
01:05:15parents-enfants.
01:05:18Vous dire aussi
01:05:19que nous travaillons ensemble
01:05:21à la question
01:05:22de la communication
01:05:23et de la politique
01:05:24publique plus générale
01:05:26qui encadre
01:05:27cette question
01:05:28des enfants
01:05:28et des écrans.
01:05:29Il y avait eu
01:05:30porté par nos prédécesseurs
01:05:31un dispositif
01:05:32qui s'appelait
01:05:32Je protège mon enfant
01:05:33qui avait fait
01:05:36un certain nombre
01:05:36de campagnes
01:05:36de sensibilisation.
01:05:39C'est trop tôt
01:05:39pour vous dire
01:05:39exactement quelle forme
01:05:40la communication prendra
01:05:42mais bien sûr
01:05:42nous avons en tête
01:05:44une politique d'accompagnement
01:05:45qui va de pair
01:05:46avec ces interdictions
01:05:47parce que l'un
01:05:49ne s'oppose pas à l'autre
01:05:50ou l'un ne va pas
01:05:51sans l'autre
01:05:52c'est poser des règles
01:05:53et ensuite bien sûr
01:05:54accompagner,
01:05:55éduquer,
01:05:56sensibiliser.
01:05:59Merci Madame la rapporteure
01:06:04Madame la Ministre
01:06:04peut-être pour continuer
01:06:05dans cette question
01:06:06de la communication
01:06:07et de la prévention
01:06:08dans votre propos liminaire
01:06:09vous avez évoqué
01:06:10une plateforme
01:06:11qui a dépensé
01:06:12je pense
01:06:12des sommes considérables
01:06:14pour une forme
01:06:15de jeu de ping-pong
01:06:16en disant
01:06:16c'est pas moi
01:06:17c'est à l'autre de faire
01:06:18sur la protection
01:06:19des mineurs
01:06:21on se rend bien compte
01:06:22là-dessus
01:06:22qu'il y a une volonté
01:06:23peut-être affichée
01:06:24mais qui a aussi
01:06:25une volonté
01:06:25de se dédouaner
01:06:26de se déresponsabiliser
01:06:27des plateformes
01:06:29qui est un peu
01:06:30à mon sens
01:06:31une forme de facilité
01:06:32de leur part
01:06:33de vouloir
01:06:34s'en laver
01:06:35les mains
01:06:36j'aurais souhaité
01:06:37pouvoir
01:06:37vous interroger
01:06:38également
01:06:39sur
01:06:40comment nous pourrions
01:06:42intégrer
01:06:43de la prévention
01:06:44sur ces plateformes
01:06:45directement
01:06:45parce que
01:06:47on se rend compte
01:06:48qu'il y a aujourd'hui
01:06:49je fais
01:06:51de la course
01:06:53à pied
01:06:53quand parfois
01:06:54on veut
01:06:55s'inscrire
01:06:55à une course
01:06:57on n'a plus besoin
01:06:58aujourd'hui
01:06:59d'avoir
01:06:59un certificat
01:07:00médical
01:07:01mais on suit
01:07:02au moment
01:07:03de l'inscription
01:07:04une forme
01:07:04de déclaration
01:07:05à ce niveau-là
01:07:07et pour aller
01:07:08à pouvoir
01:07:09s'enregistrer
01:07:09on a l'obligation
01:07:11de suivre
01:07:12une vidéo
01:07:13préventive
01:07:13qui indique
01:07:16un certain nombre
01:07:16de risques
01:07:16à quel moment
01:07:18nous ne pourrions-nous
01:07:18pas avoir
01:07:19un dialogue
01:07:20sans l'obliger
01:07:21mais aussi
01:07:22dans une volonté
01:07:23on l'a encore vu
01:07:25quand on a auditionné
01:07:26les plateformes
01:07:26il y a 48 heures
01:07:27qui la main sur le cœur
01:07:28nous déclarait
01:07:28que leur système économique
01:07:30nécessitait d'être
01:07:31le plus propre
01:07:32et le plus sain possible
01:07:33avoir au bout
01:07:34d'un certain nombre
01:07:35de temps
01:07:35de présence continue
01:07:36sur ces plateformes
01:07:37d'avoir
01:07:38des vidéos
01:07:40obligatoires
01:07:41qui en quelque sorte
01:07:42bloqueraient
01:07:43la poursuite
01:07:45de l'usage
01:07:46tant que celle-ci
01:07:46n'a pas été
01:07:48vue
01:07:49et suivie
01:07:50par l'utilisateur
01:07:52et je pense
01:07:52que là aussi
01:07:53c'est naturellement
01:07:54pour l'usage
01:07:55des mineurs
01:07:56eux-mêmes
01:07:57ou des jeunes
01:07:58eux-mêmes là-dessus
01:07:58mais aussi
01:07:59des parents
01:08:00qui pour beaucoup
01:08:01je pense
01:08:01n'ont pas conscience
01:08:02de l'impact
01:08:03que cela peut avoir
01:08:04et donc
01:08:04que ces vidéos
01:08:06de prévention
01:08:07puissent également
01:08:08s'adresser
01:08:08aux parents
01:08:09directement
01:08:10Je vous remercie
01:08:13sur la première question
01:08:14de la campagne
01:08:15de publicité
01:08:16oui je vous rejoins
01:08:16je pense que
01:08:18c'est à la fois
01:08:21une bonne chose
01:08:22de voir qu'on appelle
01:08:23à de la vérification
01:08:24d'âge
01:08:24et à la fois
01:08:24un peu cynique
01:08:25de dire qu'on a besoin
01:08:26de la commission européenne
01:08:28pour nous réguler
01:08:28pour ça
01:08:29c'est un peu
01:08:30sans chercher
01:08:31un parallèle
01:08:32qui fonctionne complètement
01:08:35mais comme si
01:08:35on avait
01:08:36une très grande
01:08:37conscience scientifique
01:08:38des risques
01:08:39que fait peser
01:08:40la consommation
01:08:42d'alcool
01:08:42sur les mineurs
01:08:44et qu'à l'heure
01:08:44actuelle encore
01:08:45on cherche à dire
01:08:46il faut nous empêcher
01:08:47de leur en vendre
01:08:48quand les intérêts commerciaux
01:08:52ou en tout cas
01:08:52les entreprises
01:08:53les intérêts d'entreprise
01:08:54quels qu'ils soient
01:08:54font qu'elles ne prennent
01:08:57pas leurs responsabilités
01:08:57c'est là où je crois
01:08:58tout le sens
01:08:59de notre action
01:09:00doit venir
01:09:01et donc on prendra
01:09:02ces responsabilités là
01:09:03sur la question
01:09:04de la prévention
01:09:05oui
01:09:07je pense que c'est
01:09:08des très bonnes idées
01:09:09que je n'ai pas forcément
01:09:10toutes expertisées
01:09:11mais c'est bien aussi
01:09:12comme ça que je vois
01:09:12le sens de mon action
01:09:13et je crois aussi
01:09:16dans la co-construction
01:09:17avec les plateformes
01:09:19je les ai réunies
01:09:20toutes je vous le disais
01:09:21il y a quelques temps
01:09:22déjà
01:09:22je crois que c'était
01:09:23mi-avril
01:09:24pour adresser
01:09:25déjà pour leur partager
01:09:26cette position
01:09:27qui est la mienne
01:09:28d'interdire les réseaux sociaux
01:09:29avant 15 ans
01:09:29et puis pour réfléchir
01:09:32ensemble
01:09:32à ce qu'on pouvait
01:09:33mettre en place
01:09:33pour pouvoir
01:09:35adresser le sujet
01:09:37aussi de façon positive
01:09:38parce qu'au-delà
01:09:39de la régulation
01:09:39je suis tout à fait d'accord
01:09:40il y a plein de choses
01:09:41très positives
01:09:41qu'on peut mettre en place
01:09:42d'ailleurs c'est un peu
01:09:43ce que nous a dit
01:09:44TikTok
01:09:45mettre en place
01:09:46sur la question
01:09:47de l'extrême maigreur
01:09:48des contenus
01:09:49qu'il pousse
01:09:49aux utilisateurs
01:09:50sur l'explication
01:09:52de ce type de tendance
01:09:53je n'émettrai pas
01:09:55de jugement
01:09:55sur est-ce que ça fonctionne
01:09:56ou pas
01:09:56je n'en ai pas fait l'expérience
01:09:58mais c'est la démonstration
01:09:59qui nous ont faite
01:10:00et je pense que c'est
01:10:02en effet une bonne chose
01:10:03d'imaginer
01:10:04comment est-ce que
01:10:05ces plateformes
01:10:06qui ont une audience
01:10:06énorme
01:10:08des centaines de millions
01:10:08de personnes
01:10:09peuvent aussi être
01:10:10des vecteurs
01:10:11d'éducation
01:10:11de sensibilisation
01:10:12c'est comme ça
01:10:15que je vois les choses aussi
01:10:17et je pense qu'il y a
01:10:17plein de choses
01:10:17très positives
01:10:18qui peuvent être faites
01:10:19c'est comme ça aussi
01:10:20qu'on peut imaginer
01:10:20le rôle des influenceurs
01:10:21d'ailleurs dans la mission
01:10:23que nous
01:10:25vous avons
01:10:26vous confierons
01:10:27très prochainement
01:10:28monsieur
01:10:31Vogetta
01:10:32et monsieur Delaporte
01:10:33il y a cette question
01:10:34aussi dans quelle dynamique
01:10:36disons plus positive
01:10:37on peut embarquer
01:10:38les influenceurs
01:10:38pour qu'ils soient
01:10:39des relais
01:10:40de ces messages-là
01:10:41quand on lance
01:10:43le défi
01:10:43des 10 jours sans écran
01:10:44avec Elisabeth Borne
01:10:45qu'on essaie d'engager
01:10:46des créateurs de contenu
01:10:48à partager ces messages
01:10:49de sensibilisation
01:10:50un certain nombre d'entre eux
01:10:51ont fait des vidéos
01:10:52par la suite
01:10:52qui étaient assez interpellantes
01:10:54pour les jeunes
01:10:55de montrer
01:10:55comment est-ce que
01:10:56finalement sans écran
01:10:58on reprend un contrôle
01:11:00de notre quotidien
01:11:01je comprends
01:11:02que ça peut surprendre
01:11:04qu'un ministre du numérique
01:11:05invite à se déconnecter
01:11:09pour autant
01:11:09je pense que
01:11:10de la part
01:11:11de personnes
01:11:12notamment influenceurs
01:11:13qui eux-mêmes
01:11:14ont une activité commerciale
01:11:16via les réseaux sociaux
01:11:17d'inviter à cette prise de conscience
01:11:18à cette réflexion
01:11:19c'est bien sûr une bonne chose
01:11:20et je crois qu'on peut
01:11:22on a une opportunité
01:11:23au-delà de la régulation
01:11:24encore une fois
01:11:25les pouvoirs publics
01:11:26prendront leurs responsabilités
01:11:27mais au-delà de la régulation
01:11:28de co-construire
01:11:30d'embarquer ensemble
01:11:31avec les plateformes
01:11:32sur des solutions
01:11:33plus positives
01:11:34d'éducation
01:11:35et de sensibilisation
01:11:38je suis complètement d'accord
01:11:39Merci beaucoup
01:11:43peut-être une question
01:11:45alors si j'étais polémique
01:11:47je dirais que
01:11:48nous agissons peut-être
01:11:49en ordre dispersé
01:11:50au Parlement sur ce sujet
01:11:51mais que vous faites de même
01:11:52peut-être aussi au gouvernement
01:11:53et je fais référence
01:11:55en effet
01:11:55à la réunion
01:11:57avec les plateformes
01:11:57organisées par Orberger
01:11:58mais comme je ne suis pas polémique
01:12:00je ne vais pas dire ça
01:12:01et je vais plutôt
01:12:02au contraire
01:12:03voir les choses
01:12:04plutôt sous un bon angle
01:12:05c'est-à-dire qu'en fait
01:12:06tous les ministres
01:12:06se saisissent désormais
01:12:08de ce sujet
01:12:08un peu comme l'environnement
01:12:09il y a quelques années
01:12:10où on avait l'impression
01:12:11que seule la ministre
01:12:11de l'environnement
01:12:12parlait d'environnement
01:12:13alors que c'est hyper transversal
01:12:14là je voulais avoir
01:12:15votre regard
01:12:16en tant que ministre du numérique
01:12:17sur le fait que finalement
01:12:18de plus en plus
01:12:19d'autres ministres
01:12:20s'en emparent
01:12:21et que c'est sans doute
01:12:21une bonne chose
01:12:22et puis je reviendrai après
01:12:23sur le fond peut-être
01:12:24mais là-dessus
01:12:25sur la forme
01:12:26sur la forme
01:12:27bien sûr que c'est une bonne chose
01:12:28de la même façon
01:12:28que cette commission d'enquête
01:12:29est une bonne chose
01:12:30que l'APPRE
01:12:31que je mentionnais tout à l'heure
01:12:32de Catherine Morin
01:12:32de Sey est une bonne chose
01:12:33vous savez moi
01:12:34j'ai été nommée
01:12:35ministre du numérique
01:12:35fin septembre
01:12:36et j'ai un profil
01:12:37disons plutôt technique
01:12:38j'ai travaillé dans le numérique
01:12:39une dizaine d'années
01:12:40dans différentes
01:12:41start-up entreprises
01:12:43et pour autant
01:12:44il n'y a pas un jour
01:12:45où je ne répète pas
01:12:46que le numérique
01:12:47ce n'est pas un truc de geek
01:12:47c'est un sujet
01:12:50qui est imminemment politique
01:12:51c'est un sujet de société
01:12:52et je pense que
01:12:53c'est bien sûr
01:12:54quand on voit
01:12:55la détermination
01:12:57que vous mettez
01:12:57dans cette salle
01:12:58que vous mettez
01:12:59dans vos fonctions
01:13:00au Parlement
01:13:01qu'ont mis certains
01:13:01de mes collègues
01:13:02au gouvernement
01:13:02je pense à Laurent Marc-Angeli
01:13:04qu'ont mis
01:13:05certains de mes collègues
01:13:07dans les mois derniers
01:13:08pour montrer
01:13:10l'ampleur
01:13:11de ce problème
01:13:12qu'on peut
01:13:13je crois embarquer
01:13:14comme sur tout sujet
01:13:15de société
01:13:15toute la société
01:13:16et quand
01:13:17je reviens
01:13:18à mon expérience
01:13:19personnelle
01:13:20dans mon dispositif
01:13:21de caféia
01:13:22mais quand
01:13:22dans tous mes échanges
01:13:24sur le numérique
01:13:24ce sujet des réseaux sociaux
01:13:25revient sur la table
01:13:26avec les parents
01:13:27avec les enfants
01:13:27avec les professeurs
01:13:28avec tous mes interlocuteurs
01:13:30c'est que c'est un sujet
01:13:31de société absolument majeur
01:13:33auquel
01:13:34le plus nombreux
01:13:36on est à s'y intéresser
01:13:38et à y chercher
01:13:39des réponses
01:13:39le mieux c'est
01:13:40c'est un sujet
01:13:41de préoccupation majeure
01:13:42du président de la république
01:13:43d'ailleurs
01:13:44qui avec la commission
01:13:45écran
01:13:46je pense qu'il faut le rappeler
01:13:47a permis de répondre
01:13:48à une question fondamentale
01:13:50qui est de poser les bases
01:13:51de
01:13:51les experts
01:13:53voilà ce qu'ils peuvent
01:13:54documenter
01:13:55sur l'impact
01:13:56des réseaux sociaux
01:13:57et des écrans
01:13:57en général
01:13:58sur nos enfants
01:13:58avec un certain nombre
01:14:00de recommandations
01:14:01que
01:14:02aujourd'hui
01:14:02Catherine Vautrin
01:14:03Elisabeth Borne
01:14:04moi-même
01:14:04nous mettons en place
01:14:06avec une grande détermination
01:14:08et un travail
01:14:09interministériel
01:14:11très fluide
01:14:12parce qu'il en va
01:14:13de la protection
01:14:14de nos enfants
01:14:14et que c'est un sujet
01:14:15fondamental
01:14:16donc pour moi
01:14:17pas d'ordre dispersé
01:14:18mais sujet
01:14:19qui prend de l'ampleur
01:14:21et c'est une bonne chose
01:14:21et d'ailleurs
01:14:22j'en profite
01:14:23quand ces questions-là
01:14:27sont mises à l'ordre du jour
01:14:28de débats
01:14:29parlementaires
01:14:30je pense à un débat
01:14:32que nous avions fait
01:14:33au Sénat
01:14:33sur
01:14:33l'impact
01:14:37des réseaux sociaux
01:14:39sur la vie démocratique
01:14:40de notre nation
01:14:42et la question
01:14:42des ingérences étrangères
01:14:44j'invite
01:14:45tous les parlementaires
01:14:46à venir
01:14:46parce que je comprends
01:14:47que quand on dit ça
01:14:48comme ça
01:14:48ça puisse avoir l'air
01:14:50un peu technique
01:14:50mais aujourd'hui
01:14:51quand les plus jeunes
01:14:52passent 4 heures par jour
01:14:53sur les réseaux sociaux
01:14:54quand ils s'informent
01:14:54sur les réseaux sociaux
01:14:55quand ils échangent
01:14:56quand ils sociabilisent
01:14:57sur les réseaux sociaux
01:14:58il me semble fondamental
01:14:59qu'en tant que politique
01:15:00nous puissions bien comprendre
01:15:02l'ampleur du phénomène
01:15:03et nous puissions
01:15:03unir nos forces
01:15:04pour apporter des réponses
01:15:05Merci beaucoup
01:15:10et donc oui
01:15:11je faisais référence
01:15:11en fait
01:15:12à tout ce sujet
01:15:14autour d'Aurore Berger
01:15:15sur du coup
01:15:15les questions plus
01:15:16de sexisme
01:15:17de masculinisme
01:15:18en tout cas
01:15:18qui avaient été mises
01:15:18en évidence
01:15:19lorsqu'elle est intervenue
01:15:21on se rend compte
01:15:23dans les auditions
01:15:23qu'on a une espèce
01:15:24de zone grise
01:15:25du contenu
01:15:25qui n'est pas forcément
01:15:26en tout cas
01:15:28les plateformes
01:15:28se retranchent
01:15:29derrière le fait
01:15:29qu'en fait
01:15:30ça n'est pas condamnable
01:15:31aujourd'hui
01:15:31selon la loi française
01:15:34actuelle
01:15:34et que donc
01:15:35ils ne peuvent pas
01:15:36forcément du coup
01:15:37modérer a priori
01:15:38donc ma question
01:15:39elle est double
01:15:40est-ce que vous pensez
01:15:41que la loi française
01:15:42doit évoluer
01:15:42pour toucher un peu plus
01:15:45à ces questions
01:15:45de sexisme
01:15:46de masculinisme
01:15:47qui aujourd'hui
01:15:48sont difficiles
01:15:48à capter
01:15:49et deuxième élément
01:15:50est-ce que vous pensez
01:15:51aussi qu'il faut
01:15:51que la procédure
01:15:52judiciaire évolue
01:15:55avec peut-être
01:15:55une forme de procédure
01:15:57plus rapide
01:15:57d'une sorte de référé numérique
01:15:59ou quelque chose
01:16:00de ce style
01:16:00pour permettre
01:16:02à postériori
01:16:03de pouvoir
01:16:04plus efficacement
01:16:05retirer du contenu
01:16:06qui nous semble problématique
01:16:08Alors je vais vous faire
01:16:10une réponse
01:16:10à plusieurs étages
01:16:12mais sur la responsabilité
01:16:13des plateformes
01:16:14elles-mêmes
01:16:15le DSA
01:16:16est très clair
01:16:17et les plateformes
01:16:20ont la responsabilité
01:16:21de protéger
01:16:22leurs utilisateurs
01:16:23et de s'attaquer
01:16:24à ces fameux
01:16:25risques systémiques
01:16:26dont la protection
01:16:26des mineurs
01:16:27et via les audits
01:16:28réguliers
01:16:29via les enquêtes
01:16:30je pense qu'on peut avoir
01:16:31des réponses systémiques
01:16:32qui sont bien sûr
01:16:33nécessaires
01:16:34parce que j'entends
01:16:35quand les associations
01:16:36me disent parfois
01:16:36les signaleurs de confiance
01:16:37dont encore une fois
01:16:38je salue le travail
01:16:39remarquable
01:16:39qu'elles font depuis
01:16:4015 ans, 20 ans
01:16:42pour certaines
01:16:43sur cette question-là
01:16:43de la protection
01:16:44des enfants en ligne
01:16:45mais qu'elles peuvent
01:16:45avoir le sentiment
01:16:46pour être allées
01:16:47écouter les différents appels
01:16:49les différentes interactions
01:16:50dans leur bureau
01:16:51le sentiment de parfois
01:16:53vider un peu
01:16:53l'océan à la petite cuillère
01:16:54donc on voit bien
01:16:56à quel point
01:16:56la réponse ne peut être
01:16:57que systémique
01:16:58et le DSA pour ça
01:16:59est un très bon outil
01:17:00c'est un outil puissant
01:17:02sur la question
01:17:03des contenus illicites
01:17:04parce que pour le coup
01:17:06bon, il n'y a pas
01:17:08de zone grise
01:17:08illicite, c'est illicite
01:17:09et donc ils ont
01:17:11une responsabilité
01:17:12ils ont une procédure
01:17:15à respecter
01:17:15quand on tombe
01:17:17sur les autres types
01:17:19de problématiques
01:17:21en effet
01:17:21c'est un peu
01:17:22plus compliqué
01:17:23mais je crois
01:17:24que c'est plus compliqué
01:17:25dans le monde physique
01:17:26qu'en dans le monde numérique
01:17:28c'est pas une question
01:17:28numérique finalement
01:17:29donc est-ce qu'il faut
01:17:31une loi
01:17:32qui permet
01:17:35d'aller plus loin
01:17:35sur ce type de contenu
01:17:36là je laisserai
01:17:37ma collègue
01:17:37Aurore Berger
01:17:38répondre
01:17:38parce que c'est bien sûr
01:17:39elle qui est experte
01:17:40de ces sujets
01:17:41mais les discours
01:17:43de haine
01:17:43quels qu'ils soient
01:17:45dans le DSA
01:17:46sont des discours
01:17:48qui ne sont pas
01:17:48autorisés
01:17:49sur les plateformes
01:17:50donc l'articulation
01:17:52entre discours de haine
01:17:53et masculinisme sexiste
01:17:54est-ce qu'elle est assez claire
01:17:55dans le droit national actuel
01:17:56honnêtement
01:17:57je ne peux pas vous répondre
01:17:58et je laisserai Aurore Berger
01:18:00vous répondre
01:18:01pourtant
01:18:02pour autant
01:18:03les risques systémiques
01:18:04y compris
01:18:05le risque de masculinisme
01:18:06dans le DSA
01:18:07c'est très clair
01:18:08c'est quelque chose
01:18:09qui est la responsabilité
01:18:10des plateformes
01:18:11sur la question
01:18:11des procédures judiciaires
01:18:13c'est un sujet
01:18:14que j'ai commencé
01:18:16à regarder aussi
01:18:16de près
01:18:17parce que
01:18:19ça fait quoi
01:18:20la question
01:18:21qui m'a été posée
01:18:23hier
01:18:24aux questions
01:18:24au gouvernement
01:18:25on revient souvent
01:18:26sur cette question
01:18:27de l'anonymat
01:18:28en ligne
01:18:29et je tiens à rappeler
01:18:30qu'il n'y a pas
01:18:31d'anonymat en ligne
01:18:32il y a un pseudonymat
01:18:34qui de façon assez caractérisée
01:18:36maintenant
01:18:36peut encourager
01:18:37des discours de haine
01:18:39des comportements
01:18:39qui sont absolument
01:18:42répréhensibles
01:18:43mais qu'aujourd'hui
01:18:44ces comportements
01:18:45sont bien punis
01:18:47de la même chose
01:18:48en ligne
01:18:49qu'en ligne
01:18:49il n'y a pas
01:18:50d'impunité en ligne
01:18:51je crois que ça
01:18:51il faut vraiment le rappeler
01:18:52quand Thomas Jolie
01:18:53est victime
01:18:56de cyberharcèlement
01:18:56c'est 7 personnes
01:18:57qui sont condamnées
01:18:58jusqu'à 8 mois
01:18:58de prison
01:18:59avec sursis
01:18:59après j'entends
01:19:01que c'est une procédure
01:19:03qui a été assez longue
01:19:04je crois plusieurs mois
01:19:057 mois
01:19:06de mémoire
01:19:06et que du coup
01:19:08ce n'est pas forcément
01:19:09satisfaisant
01:19:09et ce qu'on peut trouver
01:19:10en lien avec
01:19:11Gérald Darmanin
01:19:12manière de faire
01:19:15qu'il soit
01:19:15plus opérante
01:19:16de raccourcir les délais
01:19:17c'est quelque chose
01:19:18qu'il faudra
01:19:18qu'on regarde ensemble
01:19:19mais je tiens
01:19:20à être très claire
01:19:21les propos
01:19:24qui ne sont pas
01:19:26autorisés
01:19:26dans le monde physique
01:19:28ne sont pas autorisés
01:19:29non plus en ligne
01:19:29il n'y a pas
01:19:31d'impunité en ligne
01:19:31et il n'y a pas
01:19:32d'anonymat
01:19:33quand de tels propos
01:19:35sont proférés
01:19:36sur les réseaux
01:19:37on retrouve les personnes
01:19:38grâce à l'adresse IP
01:19:39grâce aux données
01:19:40de connexion
01:19:41que la plateforme
01:19:41a l'obligation
01:19:42de conserver
01:19:43justement pour ce type
01:19:44de problématiques
01:19:45et les personnes
01:19:46sont punies
01:19:46je pense que c'est
01:19:47important de le dire
01:19:48dans le prolongement
01:19:51peut-être de cette question
01:19:52on nous a souvent dit
01:19:53que la lutte
01:19:53contre le terrorisme
01:19:54et ce qu'on peut faire
01:19:56en ligne aujourd'hui
01:19:57était une forme de modèle
01:19:58est-ce que vous avez aussi
01:19:59déjà entendu ça
01:20:00et dans les moyens aussi
01:20:01de lutter contre
01:20:02notamment les influenceurs
01:20:03et les contenus
01:20:04problématiques
01:20:05qu'ils peuvent avoir
01:20:06est-ce que vous avez
01:20:07un regard que vous portez
01:20:08sur aujourd'hui
01:20:08la répression des fraudes
01:20:10ou d'autres formes
01:20:10de sanctions
01:20:11qui peuvent leur être
01:20:12infligées
01:20:13le président de cette commission
01:20:16va sans doute
01:20:17travailler là-dessus
01:20:17mais voilà
01:20:17est-ce que vous avez
01:20:18aussi une réflexion
01:20:19déjà là-dessus
01:20:20pour faire évoluer
01:20:21le droit
01:20:22alors dans le cadre
01:20:25de la loi influenceur
01:20:26il y a un certain
01:20:27nombre d'obligations
01:20:28qui ont été mises
01:20:29sur les influenceurs
01:20:30de respecter
01:20:30je l'ai rappelé tout à l'heure
01:20:31et l'autorité de contrôle
01:20:33a maintenant du coup
01:20:34le pouvoir
01:20:35tous les décrets
01:20:36ne sont pas encore passés
01:20:36mais le pouvoir
01:20:37de commencer à mettre
01:20:38en oeuvre cette loi
01:20:38donc on sera très vigilant
01:20:40on a échangé avec
01:20:40la DGCRF
01:20:42sur cette question
01:20:43de s'assurer
01:20:45que maintenant
01:20:46qu'on a les outils
01:20:47on est sur le point
01:20:48de les avoir
01:20:49pour un certain nombre
01:20:50des décrets
01:20:51qui restent à passer
01:20:52mais on pourra ensuite
01:20:54bien sûr
01:20:55les faire appliquer
01:20:55et rappeler
01:20:56la responsabilité
01:20:57des influenceurs
01:20:59qui est la leur
01:20:59dans le cadre
01:20:59de cette loi là
01:21:00est-ce que ça va
01:21:02assez loin
01:21:03est-ce qu'on peut faire plus
01:21:04c'est tout le sens
01:21:05de la mission
01:21:06qu'on a confiée
01:21:07à Arthur Delaporte
01:21:08et Stéphane Vogeta
01:21:09pour potentiellement
01:21:12étendre
01:21:12dans le respect
01:21:13du cadre européen
01:21:15parce qu'on veut
01:21:15des lois
01:21:16qui puissent ensuite
01:21:17être appliquées
01:21:18et un certain nombre
01:21:19de responsabilités
01:21:20pour répondre
01:21:21aux problématiques
01:21:21donc ça c'est un travail
01:21:22qui portera ses fruits
01:21:24dans les mois à venir
01:21:25et que je suivrai bien sûr
01:21:26avec une grande attention
01:21:27Je pense une dernière question
01:21:32mais sur votre relation
01:21:33avec les plateformes
01:21:34est-ce que
01:21:35comment vous les décririez
01:21:36aujourd'hui
01:21:37et est-ce que vous
01:21:38même si en effet
01:21:40ce n'est pas votre rôle
01:21:41premier
01:21:41vous l'avez dit tout à l'heure
01:21:42sur Skinny Talk
01:21:42est-ce que c'est à une ministre
01:21:43du gouvernement
01:21:44d'aller à Dublin
01:21:45pour soulever une problématique
01:21:47sachant qu'il peut y en avoir
01:21:48potentiellement énormément
01:21:49de ce genre de contenu
01:21:51est-ce que vous avez quand même
01:21:53au sein de votre cabinet
01:21:54une espèce de vigie
01:21:56qui peut signaler
01:21:57enfin en tout cas
01:21:57qui relève les contenus
01:21:58problématiques
01:21:59et qui régulièrement
01:22:00les signale malgré tout
01:22:01aux plateformes
01:22:02en dépit de ce rôle
01:22:03qui normalement est
01:22:04d'ailleurs exercé parfaitement
01:22:05vous l'avez dit
01:22:06par les signaleurs de confiance
01:22:07Oui bien sûr
01:22:08c'est le rôle des signaleurs
01:22:09de confiance
01:22:09c'est bien sûr aussi
01:22:10le rôle de l'ARCOM
01:22:11c'est le rôle des citoyens
01:22:13tout court
01:22:13dans la loi SREN
01:22:14il y avait la question
01:22:15de la réserve citoyenne
01:22:17du numérique
01:22:17sur laquelle on est en train
01:22:18de travailler
01:22:19au moment où on se parle
01:22:20pour pouvoir aussi
01:22:22s'appuyer sur les citoyens
01:22:24qui ont envie de participer
01:22:25à ce projet là
01:22:27après comme
01:22:29ministre du numérique
01:22:31bien sûr que je suis
01:22:31très attentive
01:22:32à ces questions là
01:22:33et bien sûr que
01:22:34quand quelque chose
01:22:35comme Skinny Talk arrive
01:22:36je me sens
01:22:38dans mon rôle
01:22:39de le signaler
01:22:40à l'ARCOM
01:22:40de le signaler
01:22:41à la commission européenne
01:22:42et puis de mettre
01:22:42tout en oeuvre
01:22:43pour obtenir des réponses
01:22:45des plateformes elles-mêmes
01:22:46et que quand elles me disent
01:22:47qu'elles n'ont pas le pouvoir
01:22:48de changer les choses en France
01:22:49mais qu'il faut aller voir
01:22:49à Dublin
01:22:50ma réponse est donc
01:22:51d'aller à Dublin
01:22:52quand à Dublin
01:22:52ils me disent qu'il faut
01:22:53aller à Los Angeles
01:22:54j'aurais dit que j'allais
01:22:54aller à Los Angeles
01:22:55mais on s'est arrêté là
01:22:56ils ont agi avant
01:23:00et je continuerai de le faire
01:23:02mais ce n'est pas
01:23:03une réponse systémique
01:23:04je pense que
01:23:05comme tout sujet
01:23:07éminemment politique
01:23:08vu que le numérique
01:23:08c'est devenu un sujet
01:23:09très politique
01:23:09l'engagement du politique
01:23:11en tout cas ma façon
01:23:12de voir les choses
01:23:12c'est qu'il ira par là
01:23:14s'il doit aller par là
01:23:15mais le travail de fond
01:23:16que nous faisons sur le DSA
01:23:18notamment sur les lignes directrices
01:23:19c'est le travail
01:23:20le plus fondamental
01:23:21et on continuera à le faire
01:23:23parce que
01:23:25parce que
01:23:25parce que
01:23:26oui encore une fois
01:23:28quand les associations
01:23:28me disent
01:23:29qu'elles vident
01:23:29à la petite cuillère
01:23:31les comportements problématiques
01:23:33qu'elles voient sur les réseaux
01:23:34je l'entends
01:23:35je l'entends
01:23:35donc ce n'est pas à moi
01:23:36de le faire dans un monde idéal
01:23:37pourtant je pense que
01:23:39ça peut aider
01:23:40à accélérer les choses
01:23:41et quand ça pourra aider
01:23:42tant que ça pourra aider
01:23:43je le ferai
01:23:44mais surtout
01:23:45je mets toute mon énergie
01:23:46à obtenir des réponses
01:23:47des réponses systémiques
01:23:48pour qu'on puisse sortir
01:23:50de cette situation
01:23:50pour nos enfants
01:23:51ah oui
01:23:53et mes relations
01:23:54avec les plateformes
01:23:54donc je vous le dis
01:23:55je les vois très régulièrement
01:23:57pas que d'ailleurs
01:23:57pour ce sujet
01:23:58il y a plein d'autres sujets
01:23:59avec ces entreprises
01:24:01qui ont des projets
01:24:02divers et variés
01:24:04en France
01:24:05qui sont des entreprises
01:24:08aussi pour certaines
01:24:10très impliquées
01:24:10dans nos labos de recherche
01:24:11qui sont sur la question
01:24:13des réseaux sociaux
01:24:14et de la protection
01:24:14des mineurs
01:24:15je les réunis régulièrement
01:24:16et ce depuis le début d'année
01:24:18encore une fois
01:24:19avec cette logique
01:24:20de fermeté sur les attentes
01:24:22de co-construction
01:24:23sur la réponse
01:24:24moi je pense que
01:24:25c'est aussi caricatural
01:24:28de se dire que
01:24:30elles vont bouger
01:24:32par elles-mêmes
01:24:32parce que
01:24:33on l'a bien dit
01:24:34parfois
01:24:34quand les intérêts
01:24:36sont divergents
01:24:36il faut de la régulation
01:24:37pour bouger
01:24:38et c'est comme ça
01:24:39depuis que
01:24:39le monde est monde
01:24:40et c'est bien notre rôle
01:24:42et vous pouvez compter sur moi
01:24:44pour porter ça
01:24:44pour autant
01:24:45c'est aussi caricatural
01:24:46je pense
01:24:47de se mettre
01:24:47dans une posture
01:24:48où on ne peut pas
01:24:50travailler ensemble
01:24:50je pense qu'il y a plein de choses
01:24:51qu'on peut faire ensemble
01:24:52c'était votre question
01:24:53de tout à l'heure
01:24:53et j'ai bien l'ambition
01:24:55de continuer à les engager
01:24:56en ce sens
01:24:56sans naïveté
01:24:57avec force et détermination
01:25:00avec fermeté
01:25:02dans le discours
01:25:03mais
01:25:03aujourd'hui
01:25:05et ça sera peut-être
01:25:07le mot de conclusion
01:25:07mais
01:25:08et c'est d'ailleurs
01:25:09ce que je leur ai dit
01:25:10je ne pense pas
01:25:12je pense que le monde
01:25:13où la prise de conscience
01:25:15de ce problème
01:25:16était encore un peu fragile
01:25:17est derrière nous
01:25:18et donc
01:25:19même d'un point de vue
01:25:20purement cynique
01:25:21si elles veulent continuer
01:25:23à avoir des utilisateurs
01:25:24il va falloir qu'elles adressent
01:25:25ce problème
01:25:26donc soit on le fait ensemble
01:25:27soit on le fait contre elles
01:25:29mais dans tous les cas
01:25:31on va avancer
01:25:32pour protéger nos enfants
01:25:32C'est terminé
01:25:34pour cette audition
01:25:35de la ministre déléguée
01:25:36au numérique
01:25:37Clara Chappas
01:25:38qui prône notamment
01:25:39l'interdiction
01:25:40des réseaux sociaux
01:25:41pour les moins de 15 ans
01:25:43mesure promise
01:25:44et votée
01:25:45il y a longtemps
01:25:46mais jamais appliquée
01:25:48c'est la fin de cet épisode
01:25:49à très bientôt
01:25:50sur LCP
01:25:50pour voir
01:25:51ou revoir
01:25:51une autre séance
01:25:53au coeur
01:25:53de l'Assemblée Nationale
01:25:55Ciao ciao

Recommandations