- il y a 4 mois
La commission d'enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs dévoile jeudi 11 septembre ses conclusions.
"Délit de négligence numérique parentale", "couvre-feu numérique"... le rapport préconise des recommandations fortes pour protéger les plus jeunes.
"Délit de négligence numérique parentale", "couvre-feu numérique"... le rapport préconise des recommandations fortes pour protéger les plus jeunes.
Catégorie
📺
TVTranscription
00:00:00Nous avons entendu 178 personnes pour près de plus de 90 heures d'audition.
00:00:08Donc ça c'est le deuxième tome et vous pourrez retrouver, lire en intégralité ces comptes rendus qui sont riches d'enseignements.
00:00:17Et le deuxième tome que vous voyez, c'est la synthèse à laquelle Laure a travaillé tout l'été.
00:00:23Et je tiens à dire, pour y avoir passé quelques heures de journée de lecture la semaine dernière, que j'ai été, comme l'ensemble des collègues lors de la commission d'enquête,
00:00:34et je salue Constance Lecré qui rentre dans cette salle, extrêmement impressionné à la fois par la qualité de la synthèse,
00:00:45qui rencontre, il nous semble, et c'est pour cela que nous avons adopté à l'unanimité ce rapport, des travaux et des auditions avec précision
00:00:56et avec effroi également, il faut le dire, puisque le constat global, s'agissant de la responsabilité de TikTok sur la mise en danger des plus jeunes, est accablant.
00:01:07Alors, aujourd'hui, nous le disons, et Laure aura l'occasion de le préciser, c'est pour ça que je ne serai pas long,
00:01:14la commission d'enquête a eu un effet public important, et il me semble, en tant que président, qu'il est nécessaire de m'y attarder quelques instants.
00:01:24Votre présence nombreuse aujourd'hui témoigne de cette rencontre entre le Parlement et les citoyens,
00:01:32entre un enjeu de société et des enjeux de régulation, il y a aujourd'hui, en effet, urgence à agir, urgence aussi à sensibiliser le grand public.
00:01:42C'est pour cela que l'une des auditions qui a été sans doute les plus commentées, les plus suivies, les plus controversées aussi,
00:01:47a eu non seulement un mérite essentiel, celui de faire connaître et de diffuser au plus grand nombre l'existence de cette commission d'enquête,
00:01:55mais elle a aussi été une porte d'entrée vers d'autres auditions.
00:01:59Et à titre d'exemple, sur un forum des associations, la semaine dernière, je tombe sur une âme qui me dit qu'elle s'excusait presque
00:02:05de ne pas avoir regardé l'intégralité des auditions.
00:02:08Elle me dit, voilà, je suis obligé de les regarder en fois deux, tellement il y en a, mais c'est pas suivant.
00:02:13Et ce type de rencontre, j'en ai pas eu qu'une.
00:02:15Donc c'est pour vous dire à quel point, voilà, des gens ont découvert la commission d'enquête à travers cette audition problématique,
00:02:22et derrière ont été supéfaits, effarés et intéressés aussi par l'ensemble des témoignages que nous avons pu recueillir.
00:02:30Donc voilà, quand l'Assemblée nationale sait se saisir de ces enjeux, elle trouve son public dans une période où le Parlement est parfois contesté dans son utilité.
00:02:40Nous considérons ici qu'il s'agit sans doute l'un des premiers apports de cette commission,
00:02:44celui de partager un diagnostic, non seulement avec l'ensemble des collègues à l'unanimité, mais aussi de le partager avec la société.
00:02:53Alors je tiens à dire, TikTok est dangereux, des sujets sont particulièrement ressortis,
00:02:59moi il y en a un qui m'a marqué, la diffusion des idéologies extrémistes et en particulier du masculinisme.
00:03:05Ça c'est, je pense, l'une des choses que cette commission d'enquête aura pu mettre en avant.
00:03:11Madame la rapporteure présentera ses propositions.
00:03:14Je me permettrais de dire que si le rapport a été adopté à l'unanimité, et c'est heureux,
00:03:19parce qu'il témoigne de ce travail collectif et du travail personnel de Madame la rapporteure,
00:03:23ainsi que de l'ensemble, notamment des administrateurs qui nous ont accompagnés,
00:03:27qui ont travaillé avec nous d'arrache-pied sur ces derniers mois, y compris pendant l'été,
00:03:32ces propositions ne font pas toute l'unanimité.
00:03:36Je tiens juste à le préciser, il peut y avoir des débats, et c'est tant mieux,
00:03:39parce que les débats qui nous agitent ne sont pas des débats clivants sur les clivages politiques traditionnels,
00:03:45mais c'est des débats aussi qui agitent le corps social,
00:03:47qui agitent aussi ce qu'on peut retrouver quand on va à un débat dans n'importe quel collège ou lycée avec les jeunes,
00:03:52et donc c'est tant mieux.
00:03:53Il n'y a pas d'unanimité absolue sur l'ensemble des conclusions,
00:03:56mais le constat, les diagnostics, est la première de ces étapes, la plus importante de ces briques.
00:04:02Et je vous laisse, madame la rapporteure, la parole pour présenter votre rapport.
00:04:08Merci, monsieur le Président. Merci, cher Arthur.
00:04:12Bonjour à toutes et à tous.
00:04:14Quelques mots, et puis ensuite je vous montrerai une petite vidéo, si vous en êtes d'accord.
00:04:18Quelques mots quand même pour dire que ce travail, c'est le fruit, ce rapport, c'est le fruit plutôt d'un travail de 6 mois,
00:04:25et même davantage, puisque cette proposition de résolution qui a été votée à l'Assemblée nationale en mars,
00:04:31je l'avais déposée en janvier, et je veux juste avoir un mot pour remercier à la fois les signataires de cette proposition de résolution,
00:04:36puisqu'on était 80 à l'origine de différents partis, c'était une proposition transpartisane,
00:04:41mais aussi remercier mon groupe et Gabriel Attal, puisqu'en fait, vous le savez peut-être,
00:04:47le chemin d'une proposition de résolution comme d'une proposition de loi pour un député,
00:04:50c'est un petit parcours du combattant, et il faut pouvoir déjà l'inscrire à l'ordre du jour, et ça c'est une vraie étape.
00:04:55Et donc j'ai eu la confiance de mon groupe Ensemble pour la République pour ce faire,
00:04:58et c'est la raison pour laquelle on a pu ensuite le faire passer en mars, voilà, dans l'hémicycle,
00:05:03juste après la Commission des Affaires Sociales, et puis ensuite travailler avec Arthur
00:05:07et les autres députés membres de la Commission Enquête pendant tous ces mois.
00:05:12Je voudrais aussi dire que cette démarche, elle est évidemment en hommage aux jeunes
00:05:16qui ont été victimes de cet engrenage algorithmique,
00:05:19particulièrement les victimes du collectif Algos Victima,
00:05:22que nous avons reçu à travers une des auditions,
00:05:25et je voudrais évidemment à ce titre les remercier, remercier leur avocate
00:05:28pour le combat qu'ils mènent en parallèle de nos travaux.
00:05:31Évidemment remercier mes collègues députés qui ont été présents pendant les auditions,
00:05:35au premier rang desquels Arthur Delaporte qui a pris la présidence de cette commission
00:05:38et qui a permis de réaliser ces auditions avec sérieux et sérénité, autant que possible en tout cas.
00:05:43Et puis remercier évidemment les administrateurs qui m'ont accompagnée à la fois dans les auditions,
00:05:47dans la rédaction du rapport, qui font un travail de l'ombre qui est extrêmement précieux,
00:05:51et je les en remercie très sincèrement.
00:05:54Et puis je voudrais vous montrer une petite vidéo qui dure quelques minutes,
00:05:57mais qui permet peut-être de poser le décor de ces travaux.
00:06:02Étudiants de longtemps, j'ai pu trouver dans les formats courts des personnes partageant les mêmes centres d'intérêt que moi.
00:06:18Mais les défilements rapides de contenu très courts et très différents étaient insurgents et addictifs.
00:06:23J'ai pu m'en rendre compte et m'en détacher.
00:06:26Mais ce n'est pas que ça de beaucoup de mes amis qui ont besoin de cette section-là.
00:06:31Certains ont même des défilements automatiques pour les gens qui se brossent les dents.
00:06:34Mais il faut sensibiliser au danger et surtout développer des raisons de s'en détacher.
00:06:39Pour ma part, je pense que les réseaux sociaux, notamment TikTok, ont bien évidemment des effets positifs,
00:06:44parce qu'on peut y apprendre, y divertir, et même trouver de l'idée.
00:06:47Et ces effets positifs ne vont pas faire au prix qu'il y a des effets négatifs.
00:06:50Ils sont censés se confronter à du contenu qui peut provoquer de la comparaison, de l'activité ou de la perte en confiance en soi.
00:06:58Et c'est pour cette raison que je pense qu'il faudrait avoir un peu plus de réglementation sur ce réseau social en tant que TikTok.
00:07:03...tenu que ma fille regardait, et des contenus mortifères, des façons de se scarifier,
00:07:12de lui montrer comment faire un nœud pour se pendre,
00:07:16Le téléphone est noir, et là, on a vu les contenus auxquels il était confronté de façon quotidienne.
00:07:22Imaginez que sur les raisons auxquelles nos enfants ont accès,
00:07:27si facilement il puisse y avoir de tels contenus.
00:07:29Donc tout a commencé dans une période où j'étais vraiment triste,
00:07:33et j'ai republié une vidéo, c'était un lampadaire de la pluie,
00:07:37et la musique c'était Freak,
00:07:39et ça disait I won't wake up this time,
00:07:42et au bout de deux jours, j'étais submergée par des vidéos,
00:07:45des tutos suicides,
00:07:47donc les gens qui expliquaient ce qu'on pouvait prendre pour mettre fin à nos jours,
00:07:50tout en mettant, par exemple, à la place du S un dollar,
00:07:55à la place du I un un, etc.
00:07:58pour détourner tout ce qui est surveillance,
00:08:02des tutos clarifications, harcèlement, anxiété,
00:08:06tout pour promouvoir le suicide.
00:08:07Vraiment quelque chose de très toxique.
00:08:10Puis après, j'ai vu que TikTok, c'était très nocif,
00:08:13et que ça pouvait emmener à de très graves conséquences.
00:08:16Alors, tout d'un coup, j'ai signalé en masse,
00:08:22j'ai signalé deux, trois fois si la vidéo ne voulait pas s'effacer TikTok,
00:08:26il y en a certaines qui veulent pas s'effacer,
00:08:28comme par exemple les vidéos avec un paysage,
00:08:31où il y a écrit, moi, tout ce que j'attends, c'est de mourir,
00:08:34sans l'être cachée, en plus,
00:08:36genre vraiment tout écrit mot à mot.
00:08:38Elle a reproché de deux, enfin, vous a dit,
00:08:40elle a trouvé ce qu'elle a cherché,
00:08:42pour vous en dire, c'est elle qui a voulu se mettre là-dedans,
00:08:45donc elle a bien voulu, alors ça te connaît en ce moment,
00:08:47il y a des moyens d'étranger comme les émoticônes,
00:08:50pour le cerf, pour les scarifications,
00:08:52les reprochistes pour le suicide.
00:08:53La particularité avec l'algorithme TikTok,
00:08:55c'est qu'il crée une sorte de bulle de contenu
00:08:57qui ne va jamais vraiment aller à l'encontre de notre pensée.
00:09:01Et donc, quand on regarde du contenu
00:09:04qui concerne la méditation,
00:09:05qui concerne la dépression,
00:09:07ou qui concerne la haine envers soi-même,
00:09:09et bien on va s'enfermer dans cet univers
00:09:10qui nous rassure dans notre mal-être,
00:09:13qui normalise notre comportement et nos pensées,
00:09:14et qui ne nous poussent pas forcément
00:09:16à aller voir au-delà
00:09:17et à aller chercher de l'aide, notamment.
00:09:19On n'a jamais pu contrôler les contenus.
00:09:23Il y a tout un environnement
00:09:26pour que l'enfant soit addict à tout ça.
00:09:29Il rentre dans cette communauté,
00:09:31dans cette spirale néfaste, délétère.
00:09:35Les graves et les images choquantes
00:09:37sont banalisées sur l'application,
00:09:38telles que le suicide, la mutilation,
00:09:40la pornographie, la pédopornographie.
00:09:43Certains utilisateurs ont trouvé une faille
00:09:45pour parler de ces sujets sans être banalisées.
00:09:49Ils utilisent des émotifs pour en parler,
00:09:51or cela fait des années qu'ils sont utilisées
00:09:53et personne ne fait rien,
00:09:54alors qu'ils sont rendus de tous.
00:09:56Tiktok a choisi ses cibles
00:09:57en partagant ce genre de vidéos plus sensibles.
00:09:59Certains utilisateurs n'ont même pas 13 ans
00:10:01et ne sont pas fermés ni des jours
00:10:03sur ce réseau social.
00:10:05Ils peuvent tomber sur ces vidéos choquantes
00:10:07car oui, Tiktok est une addiction.
00:10:09Donc elle avait un sacré caractère,
00:10:11mais je l'ai changé.
00:10:12Elle dévorait des romans
00:10:13et peu de temps près à avoir eu son téléphone,
00:10:15c'était fini.
00:10:16C'est vrai que j'ai plus profité
00:10:17de ma petite dernière
00:10:18et c'est pour ça qu'on était très très liés.
00:10:22Et du jour au lendemain,
00:10:24c'était fini.
00:10:25Plus de conversation,
00:10:26plus de petits moments ensemble,
00:10:30plus d'activité manuelle,
00:10:32plus de patience pour rien.
00:10:34Elle était toujours sur la défensive.
00:10:36Je me suis tapé perte de poids
00:10:38en me mettant dans la tête d'une adolescente
00:10:39et très rapidement,
00:10:43en 5 minutes,
00:10:44j'ai commencé à avoir des contenus
00:10:45sur l'anorexie,
00:10:46les scénarifications, le suicide.
00:10:47La triste moment,
00:10:48c'est que Tiktok utilise
00:10:50cette faiblesse
00:10:52de certains jeunes
00:10:54pour en faire des bénéfices dessus.
00:10:57Par exemple, moi,
00:10:58ça m'est déjà arrivé
00:10:58d'être un peu triste
00:11:00et de me réfugier sur les réseaux sociaux.
00:11:03Il suffit juste de liker sur Tiktok
00:11:05une vidéo avec une musique triste,
00:11:08un texte,
00:11:09et souvent,
00:11:10c'est des couleurs assez solides,
00:11:11et en fait,
00:11:15au bout de 5 minutes,
00:11:15on se retrouve envahi
00:11:17par plusieurs Tiktok
00:11:20qui sont très soins.
00:11:23le professeur en psychiatrie
00:11:26qui le suit
00:11:27arrive à faire le lien
00:11:29entre les réseaux sociaux
00:11:30et le mal-être de notre fils.
00:11:33et l'algorithme,
00:11:34il est bien plus fort que nous,
00:11:36il est plus fort que les parents,
00:11:37il est plus fort que l'accompagnement
00:11:39qu'on pourrait donner
00:11:40à nos enfants.
00:11:43Cet algorithme,
00:11:44il lui renvoyait jour après jour
00:11:45sa douleur,
00:11:46voilà.
00:11:47Et il creusait encore
00:11:48de plus en plus le trou
00:11:50dans lequel elle tombait.
00:11:51une fille avait eu
00:11:53ces problèmes-là,
00:11:55je ne sais pas
00:11:55s'il y a 20 ans,
00:11:57si elle serait morte aujourd'hui.
00:11:59Je ne dis pas
00:11:59que c'est Tiktok
00:12:00qui l'a tuée,
00:12:01mais Tiktok
00:12:02qui a fortement,
00:12:03fortement compris.
00:12:04On a du mal
00:12:05à avoir une vision très claire
00:12:06de tous les usages
00:12:06qu'il y a dans cet outil.
00:12:07Et il faudrait qu'on ait
00:12:08un regard finalement
00:12:09dissocié de chaque usage
00:12:10et qu'on réinterroge
00:12:11chaque usage
00:12:11et qu'on arrive
00:12:12à le vivre autrement
00:12:13que dans le smartphone.
00:12:15Là aussi,
00:12:15c'est normal,
00:12:16on a été pris beaucoup
00:12:17par une invention extraordinaire
00:12:18dans laquelle on s'est plongé,
00:12:19mais qui nous empêche
00:12:20de réfléchir.
00:12:21Et il nous empêche
00:12:21de réfléchir
00:12:22à chaque usage distinct
00:12:23qu'on a dedans
00:12:23et qu'on soit capable
00:12:24de sélectionner
00:12:25pour un enfant,
00:12:26un adolescent,
00:12:26si on veut lui donner
00:12:27un téléphone,
00:12:28qu'est-ce qu'on souhaiterait
00:12:28qu'il ait,
00:12:29du SMS,
00:12:29du téléphone,
00:12:30peut-être,
00:12:30je ne sais pas,
00:12:31du Google Maps
00:12:31ou que sais-je,
00:12:32de localisation,
00:12:33mais si ça s'arrête là,
00:12:34ça devrait être
00:12:34largement suffisant.
00:12:36Et nous,
00:12:37ce qui nous paraît important
00:12:38au-delà de parler du numérique,
00:12:40c'est de repenser effectivement
00:12:41les alternatives au numérique
00:12:42parce que ça fait aussi 15 ans
00:12:44qu'on est enfermé
00:12:44dans le numérique.
00:12:45On pense loisir numérique,
00:12:47on pense information numérique,
00:12:48on pense communication numérique.
00:12:50Donc on n'arrive plus
00:12:50à créer du lien,
00:12:51on n'arrive plus à se parler,
00:12:52on n'arrive plus à s'informer
00:12:53autrement par le numérique.
00:12:55Et les jeunes,
00:12:55effectivement,
00:12:56en bâtissent largement.
00:12:57Et les jeunes ont du mal
00:12:58à recréer du lien,
00:12:59d'ailleurs,
00:12:59ils ne savent plus forcément le faire.
00:13:00Donc il nous paraît
00:13:01qu'il ne faut avoir
00:13:01une politique publique forte
00:13:03pour restreindre finalement
00:13:05la place du numérique
00:13:06dans la vie des jeunes.
00:13:07Il faudrait donc créer
00:13:08des alternatives plus fortes.
00:13:09Alors des choses
00:13:09qu'on faisait bien avant,
00:13:10mais peut-être réinvestir
00:13:11dans effectivement
00:13:12des infrastructures,
00:13:13d'autres activités sportives,
00:13:16culturelles, artistiques,
00:13:17des lieux d'échange,
00:13:18de partage d'activités
00:13:19qui soient partout
00:13:19implémentées localement.
00:13:20Depuis la sortie du rapport,
00:13:22pour le coup,
00:13:23on pensait qu'on est à l'origine
00:13:25d'une rupture civilisationnelle.
00:13:28Il s'est passé quelque chose.
00:13:29Et c'est vrai que depuis 20 ans,
00:13:31on l'a dit,
00:13:31ça a été rapporté et répété.
00:13:33On avait entre nous
00:13:34une révolution
00:13:38qui a facilité nos vies.
00:13:40le digital, le numérique.
00:13:43Et forcément,
00:13:44toute la société
00:13:44était tournée vers
00:13:45les astres positifs.
00:13:46On se réveille 20 ans après
00:13:48avec une explosion
00:13:50des capacités techniques
00:13:51et technologiques
00:13:52et qui ont produit
00:13:54un effet pervers.
00:13:55C'est que lorsque l'humanité
00:13:56est intéressée par un objet,
00:13:58un tuyau, un canal,
00:14:00forcément,
00:14:00le produit vient juste derrière
00:14:02pour ne pas dire en même temps.
00:14:03Dans lesquels on vit,
00:14:04maintenant,
00:14:04il venait l'espace
00:14:05essentiellement d'adultes.
00:14:06On a évacué finalement
00:14:07les jeunes,
00:14:08les jeunes de l'espace
00:14:10qui est neutre.
00:14:11Je le dis,
00:14:12je le répète,
00:14:13on a de plus en plus
00:14:14d'espaces dans lesquels
00:14:15les jeunes ne sont pas admis.
00:14:17Des espaces de l'échange
00:14:18sont jeunes,
00:14:19des avions sont jeunes.
00:14:20Donc l'espace d'échange
00:14:21est un espace adulte-morphique.
00:14:24Et donc les jeunes
00:14:24trouvent un espace
00:14:26qui est devenu
00:14:26un espace virtuel
00:14:27dans lequel ils se retrouvent
00:14:28entre eux
00:14:29et ils deviennent
00:14:29finalement captifs.
00:14:31Et la parole sortie
00:14:32du téléphone
00:14:33au bien de l'objet,
00:14:34de la tablette,
00:14:35a plus de force
00:14:35celle de l'adulte.
00:14:38Merci pour votre attention.
00:14:40C'était un peu long
00:14:40mais je trouvais
00:14:41que c'était important
00:14:42de pouvoir vous donner
00:14:43un peu une vision
00:14:44pour ceux qui n'ont pas vu
00:14:45toutes les auditions
00:14:45finalement du sujet
00:14:47qui est en fait
00:14:47un sujet de société,
00:14:48un sujet majeur
00:14:49qui nous concerne tous,
00:14:51qu'on est des enfants,
00:14:51qu'on n'en est pas,
00:14:52qu'on est des petits-enfants,
00:14:53qu'on soit soi-même jeune,
00:14:54ça concerne tout le monde
00:14:55et Arthur l'a un peu dit aussi.
00:14:57Mais voilà,
00:14:58quand on se promène,
00:14:59quand on discute,
00:15:00quand on échange
00:15:01même dans le cadre privé,
00:15:02on voit bien
00:15:02que c'est un sujet
00:15:03qui concerne tout le monde.
00:15:04C'est la raison pour laquelle
00:15:05nous avons,
00:15:06vous le savez,
00:15:07souhaité lancer
00:15:07une grande consultation publique
00:15:09qui est une démarche
00:15:10assez inédite
00:15:10pour une commission d'enquête.
00:15:12Quand on l'a lancée,
00:15:13on ne savait pas du tout
00:15:14si les choses prendraient
00:15:15d'autant qu'elle avait été
00:15:17évidemment reliée
00:15:18par certains médias
00:15:19et on les en remercie.
00:15:20Mais voilà,
00:15:21tout le monde ne va pas
00:15:21sur le site
00:15:22de l'Assemblée nationale
00:15:22et puis par ailleurs,
00:15:23il y avait beaucoup de questions
00:15:24donc on ne savait pas
00:15:24si ça prendrait.
00:15:25Au final,
00:15:26on a eu 31 000 personnes
00:15:28qui sont venues
00:15:28répondre à ce questionnaire ouvert
00:15:31qui portait sur l'usage
00:15:32un peu des réseaux sociaux
00:15:33dans nos vies à tous
00:15:34donc 31 000 personnes
00:15:36et plus de moitié de jeunes
00:15:37particulièrement de lycéens
00:15:39qui ont beaucoup répondu
00:15:40qui se sont emparés du sujet.
00:15:41Alors évidemment,
00:15:42ça n'a pas valeur de sondage
00:15:43cette consultation
00:15:44mais ça nous a quand même
00:15:44permis de recueillir
00:15:45finalement une masse de données
00:15:46qui nous ont conforté
00:15:48et qui ont conforté
00:15:49un certain nombre
00:15:49de nos auditions
00:15:52et de témoignages
00:15:52qu'on pouvait avoir
00:15:53de spécialistes
00:15:54qui eux étudient finalement
00:15:55l'opinion
00:15:55et nos pratiques
00:15:56dans la société actuelle.
00:15:58Ce qu'il en est ressorti
00:15:59et les principaux enseignements
00:16:00vous le savez
00:16:01et on l'a aussi entendu
00:16:02dans les auditions
00:16:03c'est que le temps passé
00:16:04sur notre téléphone
00:16:05il est croissant
00:16:06et qu'il explose
00:16:07particulièrement
00:16:08chez les jeunes.
00:16:09Sur tous les répondants
00:16:10qu'on a eu
00:16:10plus de 50%
00:16:11passent plus de 3 heures
00:16:12par jour
00:16:13sur leur téléphone
00:16:14et si on regarde
00:16:15vraiment juste
00:16:15les moins de 18 ans
00:16:16c'est plus de 70%
00:16:17des jeunes
00:16:18qui estiment passer
00:16:19plus de 3 heures
00:16:20par jour
00:16:20sur leur téléphone.
00:16:21S'agissant de TikTok
00:16:22on a évidemment pu constater
00:16:23que c'était l'application
00:16:24qui était effectivement
00:16:25utilisée par une large part
00:16:26des mineurs
00:16:2772% des répondants
00:16:29entre 16 et 18
00:16:30et 64% des 12-15 ans
00:16:32affirment que TikTok
00:16:34le consulte
00:16:34au moins une fois par jour.
00:16:36De ce fait
00:16:36non seulement TikTok
00:16:37touche une majorité
00:16:38des Français mineurs
00:16:39mais ce qu'on constate
00:16:40c'est que les mineurs
00:16:41eux-mêmes
00:16:42constituent finalement
00:16:43la part la plus large
00:16:44de l'audience de TikTok
00:16:45et c'est la raison
00:16:46pour laquelle
00:16:46on s'est focalisé
00:16:48sur TikTok
00:16:49à travers cette commission
00:16:49d'enquête.
00:16:51On a pu constater
00:16:51à travers ces enseignements
00:16:52qu'il y a un niveau
00:16:53assez faible de confiance
00:16:54à l'égard de TikTok
00:16:55de la part de la population
00:16:56générale
00:16:56mais des jeunes en particulier
00:16:58donc une forme
00:16:58certaine de lucidité.
00:17:01Évidemment
00:17:01d'autres réseaux sociaux
00:17:03bénéficient aussi
00:17:04de cette même méfiance
00:17:06de la jeunesse
00:17:07à l'égard des informations
00:17:08qu'ils font circuler.
00:17:10On y apprend aussi
00:17:10que les dispositifs
00:17:11de contrôle parental
00:17:12ne sont pas encore
00:17:13évidemment bien appropriés
00:17:14par les parents.
00:17:15On s'en doutait
00:17:15et on l'avait perçu
00:17:16à travers les auditions
00:17:18mais c'est une confirmation.
00:17:19Et on voit aussi
00:17:20que le projet
00:17:21d'interdiction
00:17:21de l'affaire
00:17:22aux réseaux sociaux
00:17:22avant un certain âge
00:17:23il recueille quand même
00:17:24une majorité d'approbations.
00:17:27Alors évidemment
00:17:27certains sont plus favorables
00:17:28à 15 ans
00:17:29d'autres à 13 ans
00:17:29mais on voit bien
00:17:30que c'est un sujet
00:17:31finalement
00:17:31à la fois
00:17:32qui est plutôt
00:17:34un sujet
00:17:35populaire
00:17:37on va dire
00:17:38et puis par ailleurs
00:17:38qu'il n'y a pas
00:17:39cette idée
00:17:40et c'était un peu
00:17:40le risque qu'on avait
00:17:41de dire
00:17:42finalement ça va être
00:17:42les jeunes
00:17:43contre les parents
00:17:43et on va avoir
00:17:45un espèce de choc
00:17:45des générations.
00:17:46Bah non
00:17:46finalement on voit bien
00:17:47que chez les jeunes aussi
00:17:48il y a cette idée
00:17:49qu'en effet
00:17:49peut-être qu'il faut
00:17:50interdire l'accès
00:17:51aux réseaux sociaux
00:17:52avant un certain âge.
00:17:53Ce constat
00:17:54de notre enquête
00:17:55il a été confirmé
00:17:56par les auditions
00:17:56vous avez dans le rapport
00:18:00un certain nombre
00:18:00d'études
00:18:01qu'on reprend
00:18:02qui ont été reprises
00:18:02à travers nos auditions
00:18:03mais on voit bien
00:18:04d'après le Credoc
00:18:05que 96% des français
00:18:06de 12 à 17 ans
00:18:07ont un smartphone
00:18:08vous voyez autour de vous
00:18:09mais c'est démontré
00:18:10à travers
00:18:11ces études
00:18:13depuis 2020
00:18:14le temps passé
00:18:14par les français
00:18:15sur les réseaux sociaux
00:18:16depuis 2020
00:18:17le Covid
00:18:18a augmenté
00:18:18de 86%
00:18:20selon les diamétries
00:18:20et TikTok
00:18:21évidemment
00:18:22a la plus forte progression
00:18:23puisque l'application
00:18:24a gagné 354%
00:18:26d'utilisateurs français
00:18:27supplémentaires
00:18:27entre 2020
00:18:28et aujourd'hui.
00:18:30Cet équipement
00:18:31il s'accompagne
00:18:31d'un taux d'utilisation élevé
00:18:3342% des enfants
00:18:34de 12 à 17 ans
00:18:35passent entre 2
00:18:36et 5 heures par jour
00:18:37devant un smartphone
00:18:39dans le cadre
00:18:40d'une étude
00:18:40qui a été menée
00:18:41par l'association
00:18:41E-Enfance
00:18:42il a été montré
00:18:43que 24%
00:18:44des jeunes équipés
00:18:45d'un smartphone
00:18:45ne tiendraient pas
00:18:46plus d'une heure
00:18:47sans ce dernier
00:18:48et cette proportion
00:18:49elle est plus élevée
00:18:50chez les lycéens
00:18:51un peu plus faible
00:18:51chez les enfants
00:18:53d'école primaire
00:18:54mais elle existe
00:18:55malgré tout
00:18:55de façon
00:18:56assez prononcée.
00:18:58Selon l'association
00:18:59E-Enfance
00:18:5986% des français
00:19:00de 8 à 18 ans
00:19:01sont inscrits
00:19:02sur les réseaux sociaux
00:19:0267%
00:19:05des élèves
00:19:05de primaire
00:19:0665%
00:19:07des enfants
00:19:08de 6 à 8 ans
00:19:09sont inscrits
00:19:10sur les réseaux sociaux
00:19:10chez leurs aînés
00:19:12évidemment
00:19:12les taux sont
00:19:13beaucoup plus importants.
00:19:14Selon Média Métrie
00:19:15les français
00:19:15de 11 à 17 ans
00:19:16qui utilisent
00:19:16les réseaux sociaux
00:19:17et les messageries
00:19:18passent en moyenne
00:19:183 heures et 11 minutes
00:19:19ce qui finalement
00:19:20va dans le sens
00:19:21de notre consultation
00:19:22publique.
00:19:24Donc vous le voyez
00:19:24c'est un sujet
00:19:25qui est finalement
00:19:26omniprésent dans nos vies
00:19:27peu importe notre âge
00:19:28et donc il y a évidemment
00:19:29un vrai sujet.
00:19:30Moi ce que
00:19:31en réfléchissant
00:19:32et en essayant
00:19:32de prendre du recul
00:19:33sur ces 6 mois de travail
00:19:34je trouve que
00:19:35finalement il y a
00:19:36quelques grandes questions
00:19:37qui se dessinent
00:19:37à travers cette réflexion.
00:19:39la première c'est
00:19:40une question très large
00:19:42mais c'est l'avenir
00:19:43que nous voulons
00:19:43pour nos enfants.
00:19:45Il suffit d'ouvrir les yeux
00:19:46un instant
00:19:47de se promener dans la rue
00:19:48de regarder les cours
00:19:48de collège
00:19:50alors plus maintenant
00:19:51mais les cours de lycée
00:19:52et la sortie des collèges
00:19:54les salles d'attente
00:19:55de médecins
00:19:55les transports publics
00:19:56et il suffit d'ouvrir
00:19:57juste les yeux
00:19:58pour voir qu'en fait
00:19:59on est face à une forme
00:20:00d'extrême digitalisation
00:20:02de nos vies
00:20:02et de la vie
00:20:04de nos jeunes
00:20:05a fortiori
00:20:05que la place des smartphones
00:20:06dans nos vies
00:20:07elle est particulièrement
00:20:08importante notamment
00:20:09chez nos enfants
00:20:10et finalement
00:20:11voilà la question
00:20:13c'est celle
00:20:14à la fois de la vie quotidienne
00:20:15de nos jeunes aujourd'hui
00:20:16mais de la vie
00:20:17qu'on veut pour les adultes
00:20:18qu'ils vont devenir
00:20:19et du monde
00:20:19que l'on veut pour demain
00:20:20vu l'importance
00:20:22que cela prend dans nos vies.
00:20:23Donc est-ce qu'on est condamné
00:20:24finalement
00:20:25à subir cette influence
00:20:27des réseaux sociaux
00:20:28sur notre vie
00:20:28en termes de temps passé
00:20:29en termes d'influence
00:20:30de ce que l'on voit
00:20:31en termes d'appréhension
00:20:32du monde
00:20:32de vision du monde
00:20:33que l'on a
00:20:34puisque vous l'avez vu
00:20:35si vous avez regardé le rapport
00:20:36mais on voit bien
00:20:37que l'algorithme
00:20:38finalement nous donne
00:20:39une vision tronquée
00:20:40du monde
00:20:41à tous
00:20:41une vision différente
00:20:42d'ailleurs selon
00:20:43les vidéos sur lesquelles
00:20:44on va s'arrêter
00:20:44et que ça pose quand même
00:20:45un vrai sujet
00:20:46sur ensuite
00:20:47la façon dont on
00:20:48se construit personnellement
00:20:49et la façon dont on voit
00:20:50le monde.
00:20:51la réponse à la question
00:20:53évidemment
00:20:53vous l'avez saisi
00:20:55si vous avez lu
00:20:56la première partie
00:20:56de ce rapport
00:20:57puisqu'on a essayé
00:20:58finalement d'ouvrir
00:20:59le capot de la machine TikTok
00:21:01et ce qu'on a vu
00:21:02n'était quand même
00:21:03pas très glorieux
00:21:04et pas très beau
00:21:05on a vu en fait
00:21:06un océan
00:21:07de contenus néfastes
00:21:08Arthur en a déjà parlé
00:21:10mais voilà
00:21:10des contenus
00:21:11de promotion du suicide
00:21:12d'automutilation
00:21:13des troubles
00:21:14du comportement alimentaire
00:21:15qui sont mis en avant
00:21:15des conseils de santé
00:21:17qui sont farfelus
00:21:18et donc extrêmement néfastes
00:21:19une exposition à la violence
00:21:21sous toutes ses formes
00:21:22du racisme
00:21:23de l'antisémitisme
00:21:24de la pédocriminalité
00:21:25et des contenus néfastes
00:21:27ceux-ci
00:21:28que je viens de décrire
00:21:29qui bénéficient
00:21:29d'une large audience
00:21:30parce qu'en réalité
00:21:32vous l'avez tous en tête
00:21:34mais le modèle économique
00:21:35de ces réseaux sociaux
00:21:36de ces plateformes
00:21:37repose sur l'économie
00:21:38de l'attention
00:21:38certains même nous ont dit
00:21:39sur l'économie
00:21:40de la manipulation
00:21:41et pour garder finalement
00:21:43le plus possible
00:21:44notre attention
00:21:45on pousse finalement
00:21:46les contenus
00:21:47qui vont retenir
00:21:48le plus notre attention
00:21:48qui sont en réalité
00:21:49des contenus radicaux
00:21:51les contenus les plus violents
00:21:52parfois
00:21:53les plus clivants
00:21:53parce qu'en fait
00:21:54ce que nous ont expliqué
00:21:55beaucoup de spécialistes
00:21:56c'est que
00:21:57les contenus qui contiennent
00:21:59le plus notre attention
00:22:00sont ceux qui mobilisent
00:22:01nos émotions négatives
00:22:02donc la rage
00:22:03la colère
00:22:04voilà
00:22:05des images qui vont nous choquer
00:22:06nous sidérer
00:22:07vont retenir notre attention
00:22:08les mineurs sont évidemment
00:22:10une cible stratégique
00:22:11et majeure pour les plateformes
00:22:13on l'a vu
00:22:13on l'a entendu
00:22:14et les plateformes
00:22:16elles-mêmes
00:22:16ne vont pas nier
00:22:17et puis cet algorithme
00:22:18qui est enfermant
00:22:20et finalement
00:22:22on peut résumer
00:22:22la puissance de TikTok
00:22:24à deux choses
00:22:25c'est à la fois
00:22:26le design
00:22:27ces vidéos infinies
00:22:28qui circulent
00:22:29et qui sont
00:22:31évidemment
00:22:31extrêmement addictives
00:22:32et puis cet algorithme
00:22:33qui est très puissant
00:22:35chez TikTok
00:22:35et qui est d'ailleurs
00:22:36copié par tous les autres
00:22:37certains nous ont même parlé
00:22:38de sucrerie mentale
00:22:39comme on irait chercher
00:22:40un petit bonbon
00:22:41à un moment de la journée
00:22:42finalement on va chercher
00:22:43ces petites vidéos
00:22:44pour nous nourrir
00:22:47entre guillemets
00:22:47de cette façon
00:22:49alors en effet
00:22:50la question
00:22:51qui était celle fondamentale
00:22:52de notre commission d'enquête
00:22:53c'était celle des effets
00:22:54sur la santé
00:22:55de nos jeunes
00:22:56évidemment ils sont
00:22:58aujourd'hui
00:22:58il y a eu de la nuance
00:22:59dans nos auditions
00:23:00parce qu'ils sont difficiles
00:23:01à quantifier
00:23:01autant la cigarette
00:23:03l'impact sur la santé physique
00:23:05des uns et des autres
00:23:06elle est assez évidente
00:23:07et le lien de causalité
00:23:08est facile à faire
00:23:08autant sur un sujet
00:23:10à une question de santé mentale
00:23:11il est difficile
00:23:11finalement de prendre
00:23:13tel ou tel facteur
00:23:14qui va causer
00:23:14une altération
00:23:16de notre santé mentale
00:23:17et de celle de nos jeunes
00:23:17pour autant
00:23:18ce qui est certain
00:23:19et ce sur quoi
00:23:20tout le monde s'accorde
00:23:21c'est qu'il y a des effets
00:23:22qui sont évidents
00:23:23sur la santé physique
00:23:24de nos jeunes
00:23:25il y a l'effet sur le sommeil
00:23:26en termes de qualité
00:23:27de quantité
00:23:27on le voit bien
00:23:28puisque c'est une forme
00:23:29de dépendance
00:23:30qui se développe
00:23:30à l'égard de la plateforme
00:23:31et bien nos jeunes
00:23:32vont avoir du mal
00:23:33à décrocher
00:23:34et ça aura un impact
00:23:35évidemment sur l'heure
00:23:36à laquelle ils vont se coucher
00:23:37sur l'heure parfois
00:23:38à laquelle ils vont se réveiller
00:23:39parce qu'il y a des notifications
00:23:40qui vont les réveiller
00:23:42et sur l'heure à laquelle
00:23:43ils vont se réveiller
00:23:44aussi le matin
00:23:45donc il y a un effet évident
00:23:46sur le sommeil
00:23:47et on sait l'importance
00:23:48de le sommeil
00:23:49pour nous tous
00:23:50mais a fortiori
00:23:50pour nos jeunes
00:23:51qui sont en construction
00:23:52il y a la question
00:23:53de la concentration
00:23:53et du développement cognitif
00:23:55qui a été aussi mis en évidence
00:23:56par les chercheurs
00:23:58et les spécialistes
00:23:59que nous avons reçus
00:24:00une réduction de la tolérance
00:24:01à l'ennui
00:24:01finalement avec ces vidéos
00:24:02qui défilent
00:24:03on ne supporte plus
00:24:04des vidéos un peu plus longues
00:24:06ou un temps d'attente
00:24:07et on a ce réflexe
00:24:08de se jeter finalement
00:24:09sur les réseaux sociaux
00:24:10un effet aussi
00:24:11sur la construction sociale
00:24:12on l'a bien vu aussi
00:24:14à travers les auditions
00:24:14il y a une forme
00:24:16de banalisation
00:24:16de la violence
00:24:17et puis TikTok
00:24:18et les autres réseaux sociaux
00:24:20sont aussi
00:24:20des lieux de fragmentation
00:24:21identitaire
00:24:22finalement
00:24:22on va se réfugier
00:24:23et l'algorithme
00:24:24le fait pour nous
00:24:25dans finalement
00:24:26une espèce de bulle
00:24:27identitaire
00:24:28qui va évidemment
00:24:29nous conforter
00:24:29dans la situation
00:24:31qui est la nôtre
00:24:32à un instant T
00:24:32et en fait
00:24:33on a finalement
00:24:34des bulles identitaires
00:24:35qui sont sur les réseaux sociaux
00:24:37particulièrement sur TikTok
00:24:38et évidemment
00:24:39qui font du mal
00:24:40aussi à notre cohésion
00:24:41sociale et nationale
00:24:42et puis comme je l'ai dit
00:24:43tout à l'heure
00:24:44l'effet sur le rapport
00:24:44au monde
00:24:45qui est en effet
00:24:46extrêmement faussé
00:24:47ce qui est sûr aussi
00:24:48c'est que
00:24:49sur la santé mentale
00:24:51et sur l'effet
00:24:52que les images
00:24:52qu'on peut avoir
00:24:53à regarder
00:24:55défiler
00:24:55et avoir défiler
00:24:56il y a un effet
00:24:57qui est aussi
00:24:58mis en évidence
00:24:59et qui a été mis en évidence
00:25:00à travers nos auditions
00:25:02c'est l'idée
00:25:03qu'en effet
00:25:03si nous sommes fragiles
00:25:04si nous sommes
00:25:05un peu vulnérables
00:25:06et bien de toute évidence
00:25:07cette vulnérabilité
00:25:09elle va être renforcée
00:25:10par l'effet
00:25:11de l'algorithme
00:25:12et de TikTok
00:25:13sur nous
00:25:15et la question
00:25:16que beaucoup
00:25:17nous ont posée
00:25:17enfin nous ont exposée
00:25:20plutôt
00:25:20c'est à l'idée
00:25:21de dire en fait
00:25:21l'adolescence
00:25:22est-ce que c'est pas
00:25:23par essence
00:25:24une période
00:25:24de vulnérabilité
00:25:25on a tous été adolescents
00:25:26on est en phase
00:25:27de construction
00:25:28de soi
00:25:29et de toute évidence
00:25:30on a des points
00:25:31de fragilité
00:25:32qui sont évidents
00:25:33dans notre personnalité
00:25:34donc forcément
00:25:35les réseaux sociaux
00:25:36ont un impact
00:25:37sur tous les adolescents
00:25:39à ce niveau-là
00:25:41alors
00:25:41on a entendu
00:25:45et Arthur
00:25:45le mettait aussi
00:25:46en avant
00:25:47à travers les auditions
00:25:48souvent
00:25:48qu'il y a des effets positifs
00:25:49bah oui
00:25:50c'est un divertissement
00:25:50et on a des adolescents
00:25:52qui peuvent tout à fait
00:25:53prendre du recul
00:25:55sur ce qu'ils voient
00:25:56et se divertir
00:25:57il y a bien heureusement
00:25:58des vidéos
00:25:59qui sont aussi
00:25:59très instructives
00:26:00éducatives
00:26:01bien sûr
00:26:01mais la question
00:26:03qui se pose
00:26:04c'est que
00:26:05en effet
00:26:05peut-être que des adolescents
00:26:07un peu plus forts
00:26:08mentalement
00:26:08vont pouvoir s'en sortir
00:26:09mais est-ce que
00:26:10sous le prétexte
00:26:11que des adolescents
00:26:12vivent bien
00:26:13leur vie
00:26:14sur les réseaux sociaux
00:26:15est-ce qu'il faut
00:26:16qu'on sacrifie
00:26:16finalement tous les autres
00:26:18adolescents
00:26:18qui eux
00:26:19se trouvent enfermés
00:26:20se trouvent piégés
00:26:21par les effets
00:26:21de l'algorithme
00:26:22et de ce réseau social
00:26:23à mon sens
00:26:24la réponse est non
00:26:25je pense qu'il ne faut pas
00:26:26s'en satisfaire
00:26:26d'où les propositions
00:26:28que je ferai
00:26:28et que vous avez pu voir
00:26:30l'autre question
00:26:32et c'est la deuxième partie
00:26:33du rapport
00:26:33c'est la question
00:26:34de la régulation
00:26:34j'ai titré
00:26:35le combat de David
00:26:37contre Goliath
00:26:37et j'ai titré
00:26:39à l'issue
00:26:39encore en certaine
00:26:40en effet
00:26:40si vous lisez cette partie
00:26:42vous verrez
00:26:42le travail
00:26:43qu'on a pu réaliser
00:26:44le travail énorme
00:26:45qui est surtout fait
00:26:46à l'échelle de l'Union Européenne
00:26:47j'avais été frappée
00:26:48et on a été nombreux
00:26:49à être frappés
00:26:49en auditionnant Thierry Breton
00:26:51de se dire
00:26:51mais cet homme
00:26:53devrait être une idole
00:26:54en France
00:26:55parce qu'il a quand même
00:26:55fait un travail
00:26:56colossal
00:26:57à l'échelle de l'Union Européenne
00:26:58avec ce DSA
00:26:59on partait de très loin
00:27:01et puis par ailleurs
00:27:02il nous a expliqué
00:27:02toutes les pressions
00:27:03qu'il avait pu subir
00:27:04de la part des plateformes
00:27:05donc en effet
00:27:05il y a un travail
00:27:06qu'il ne faut pas nier
00:27:06à l'échelle de l'Union Européenne
00:27:08simplement
00:27:08on peut tous se dire
00:27:09que quotidiennement
00:27:10dans nos familles
00:27:11dans nos vies
00:27:12on ne voit pas encore
00:27:13du tout
00:27:13l'impact que ce travail a
00:27:15et l'application
00:27:16pleine et entière
00:27:16de ce DSA
00:27:17n'est de toute évidence
00:27:18pas encore
00:27:19une réalité
00:27:20donc
00:27:21ce que j'ai
00:27:22ce que j'ai voulu expliquer
00:27:24dans cette partie
00:27:25c'est qu'il nous faut
00:27:26évidemment
00:27:26continuer la bataille
00:27:28sur cette application
00:27:29pleine et entière
00:27:29du DSA
00:27:30on a eu
00:27:31avec la pression
00:27:32de plusieurs pays
00:27:32et évidemment
00:27:33la France
00:27:34cet été
00:27:34des lignes directrices
00:27:35qui ont été exposées
00:27:35par la Commission Européenne
00:27:36et qui visent à renforcer
00:27:38et à faire en sorte
00:27:39que ce DSA
00:27:39y soit pleinement appliqué
00:27:41par ailleurs
00:27:43j'expose aussi
00:27:43dans cette partie
00:27:44le sujet de la modération
00:27:45qui est
00:27:46il me semble-t-il
00:27:46extrêmement imparfaite
00:27:47du travail colossal
00:27:48qui est fait par les
00:27:49signaleurs de confiance
00:27:50qu'on a reçu
00:27:51mais qui
00:27:51si je reprends
00:27:54leurs mots eux-mêmes
00:27:55sont en train de vider
00:27:56l'océan
00:27:57avec une petite cuillère
00:27:58trouée
00:27:58donc en effet
00:27:59pour le coup
00:28:01nous partageons
00:28:02cette idée
00:28:03de renforcer
00:28:04les signaleurs de confiance
00:28:05notamment dans leur financement
00:28:06pour autant
00:28:07je crois que c'est pas
00:28:08une solution satisfaisante
00:28:09parce qu'en effet
00:28:09la question
00:28:10c'est
00:28:11est-ce qu'on est condamné
00:28:12à essayer de nettoyer
00:28:13et de passer
00:28:14a posteriori
00:28:15pour essayer
00:28:15de faire en sorte
00:28:16que
00:28:16les contenus de ce réseau
00:28:18soient le moins néfastes
00:28:20possible
00:28:20et avec une issue
00:28:21qui sera forcément
00:28:22insatisfaisante
00:28:23ou est-ce qu'il faut pas
00:28:24quand même
00:28:24qu'on s'interroge
00:28:25sur la protection
00:28:26a priori
00:28:26de notre jeunesse
00:28:28et de nos enfants
00:28:29ça c'est pour la deuxième partie
00:28:32et donc je considère
00:28:34que tout en menant
00:28:35ce travail
00:28:36de pression
00:28:37sur l'Union Européenne
00:28:40pour continuer
00:28:40dans la protection
00:28:41de nos enfants
00:28:42à tout prix
00:28:43rien n'empêche
00:28:44de fermer le robinet
00:28:45de cette industrie
00:28:46au niveau national
00:28:47c'est la raison
00:28:48pour laquelle
00:28:48en dehors
00:28:50je ne vous détaille pas
00:28:52toutes les recommandations
00:28:53une à une
00:28:54sinon on va être passé
00:28:55un certain temps
00:28:56mais donc sur la question
00:28:57de l'Union Européenne
00:28:58évidemment
00:28:59il faut continuer
00:29:00à batailler
00:29:00pour qu'il y ait un âge
00:29:01je pense minimum
00:29:02qui soit établi
00:29:03à l'échelle de l'Union Européenne
00:29:04ce sera beaucoup plus simple
00:29:06mais on voit bien
00:29:06que c'est pas gagné du tout
00:29:07d'où l'idée
00:29:08de le faire au niveau national
00:29:09il y a la question
00:29:10du paramétrage
00:29:11en fonction de l'âge
00:29:12en effet
00:29:12on pourra avoir
00:29:13un réseau social
00:29:13qui s'adapte à notre âge
00:29:14et dont les contenus
00:29:15sont adaptés à l'âge
00:29:16auquel
00:29:17que l'on a
00:29:18au moment où on se connecte
00:29:19ça aussi
00:29:19c'est quelque chose
00:29:20qu'il faut qu'on pousse
00:29:21on voit bien
00:29:22qu'on commence
00:29:22à faire entendre
00:29:23cette idée
00:29:23à l'échelle de l'Union Européenne
00:29:24c'est pas gagné
00:29:25donc il faut continuer
00:29:25à le pousser
00:29:26il faut définir aussi
00:29:27là aussi
00:29:28et beaucoup de mes collègues
00:29:30c'était un sujet
00:29:31qui leur tenait à coeur
00:29:32il faut aussi
00:29:32qu'on développe
00:29:33des standards
00:29:33minimaux
00:29:34en matière de contenu
00:29:35et de durée
00:29:36des formations
00:29:36des modérateurs
00:29:37et qu'on s'attache
00:29:37à mieux réguler
00:29:39leurs conditions de travail
00:29:40on a eu une audition
00:29:41d'un modérateur
00:29:41qui nous expliquait
00:29:42comment se passaient
00:29:43ces journées
00:29:43c'est effrayant
00:29:45et donc il faut aussi
00:29:46se poser la question
00:29:47de sujets de la modération
00:29:48et des modérateurs
00:29:49eux-mêmes
00:29:49et évidemment poursuivre
00:29:51en tout cas
00:29:51je l'estime
00:29:52la réflexion
00:29:52sur le changement
00:29:53de statut
00:29:53des plateformes
00:29:54elles sont aujourd'hui
00:29:55hébergeures
00:29:55certes
00:29:56avec une responsabilité
00:29:57renforcée
00:29:58mais elles ne sont pas
00:29:59considérées comme
00:29:59éditeurs de contenu
00:30:00alors même que
00:30:01l'algorithme
00:30:02de leur propre mot
00:30:04est quand même
00:30:05un algorithme
00:30:05qui identifie
00:30:08certains contenus
00:30:08qui pousse
00:30:09certains contenus
00:30:10à ce titre là
00:30:10on peut se demander
00:30:11si ce statut
00:30:12ne pourrait pas être
00:30:13modifié quand même
00:30:14pour renforcer
00:30:14considérablement
00:30:15leurs responsabilités
00:30:16dans les contenus
00:30:17qu'elles diffusent
00:30:18on va voir
00:30:19dans un horizon
00:30:20un peu lointain
00:30:21de trois ans
00:30:22le Digital Furness Act
00:30:23là encore
00:30:24qui est un renforcement
00:30:26de la protection
00:30:27aussi de nos jeunes
00:30:28en ligne
00:30:29là aussi
00:30:30il faut qu'on
00:30:30prenne les devants
00:30:31qu'on bataille
00:30:32déjà des députés
00:30:33au Parlement européen
00:30:34français
00:30:35qui font ce travail
00:30:36avec d'autres
00:30:37parlementaires européens
00:30:38il faut qu'on soit
00:30:39à la manœuvre
00:30:39aussi pour pouvoir
00:30:40encore faire pression
00:30:41et faire en sorte
00:30:42que ce nouveau règlement
00:30:43il soit satisfaisant
00:30:44et qu'il aille vraiment
00:30:45qu'il soit ambitieux
00:30:46sur la question
00:30:46de la protection
00:30:47des mineurs
00:30:48on en a parlé aussi
00:30:49beaucoup
00:30:49et ça tenait à cœur
00:30:50à beaucoup de membres
00:30:51de la commission
00:30:51la question du pluralisme
00:30:52algorithmique
00:30:53qu'on puisse quand même
00:30:54maîtriser finalement
00:30:55l'influence de l'algorithme
00:30:57sur les contenus
00:30:58qu'on va avoir
00:30:58à regarder
00:30:59donc tout ça
00:31:00c'est la partie
00:31:01de recommandation
00:31:02sur le fait
00:31:03de continuer le combat
00:31:04et d'intensifier le combat
00:31:05à l'échelle de l'Union européenne
00:31:06ce que je vous disais
00:31:07en effet
00:31:07c'est que malgré tout
00:31:08je pense qu'il ne faut pas
00:31:09se satisfaire de ça
00:31:10parce que ça ne va pas
00:31:11assez vite
00:31:11et il faut qu'on puisse
00:31:12reprendre la main
00:31:13reprendre le contrôle
00:31:14sur la vie de nos jeunes
00:31:15et sur notre vie
00:31:16globalement
00:31:16en France
00:31:17et là
00:31:18il me semble qu'il existe
00:31:19un certain nombre
00:31:19de recommandations
00:31:21que je formule
00:31:21qui peuvent être
00:31:22mises en oeuvre
00:31:24très rapidement
00:31:25la question en effet
00:31:26qui fait débat
00:31:27de l'interdiction
00:31:28des réseaux sociaux
00:31:29avant un certain âge
00:31:30moi je l'assume
00:31:31et nous sommes nombreux
00:31:32à la portée
00:31:33à l'assumer
00:31:34ça ne veut pas dire
00:31:35pour autant
00:31:35qu'à partir de 15 ans
00:31:36c'est open bar
00:31:37et qu'il n'y a plus
00:31:38aucun danger
00:31:38à aller regarder
00:31:39les réseaux sociaux
00:31:40évidemment qu'à 16 ans
00:31:41on peut être plus fragile
00:31:42et que d'autres jeunes
00:31:44peuvent à 14 ans
00:31:44avoir déjà
00:31:45une force d'esprit
00:31:46qui leur permet
00:31:47de prendre du recul
00:31:48sur ce qu'ils voient
00:31:48simplement je suis persuadée
00:31:51qu'en fixant une limite
00:31:52dans la société
00:31:52on passe déjà
00:31:53un message très fort
00:31:54à l'égard des enfants
00:31:56à l'égard des familles
00:31:56à l'égard de la société
00:31:57toute entière
00:31:58qui n'est pas passé
00:31:59aujourd'hui
00:31:59de toute évidence
00:32:00et donc je pense
00:32:01qu'il faut qu'on puisse
00:32:01légiférer là dessus
00:32:02par ailleurs
00:32:03vous l'avez peut-être vu
00:32:04mais on a une fenêtre de tir
00:32:05qui me semble être idéale
00:32:06puisque cet été
00:32:07la commission européenne
00:32:08nous a expliqué
00:32:09le 15 juillet
00:32:10qu'elle ouvrait
00:32:10cette possibilité
00:32:11aux droits nationaux
00:32:12ce n'était pas le cas avant
00:32:13vous savez que la loi
00:32:14Marc-Angé
00:32:14que nous avions voté
00:32:16n'avait pas été mise en oeuvre
00:32:17puisque le droit européen
00:32:19nous l'empêchait
00:32:19aujourd'hui
00:32:20la commission européenne
00:32:21sous la pression
00:32:22notamment de la France
00:32:22nous dit
00:32:23vous pouvez y aller
00:32:24vous pouvez légiférer
00:32:25je pense qu'il faut
00:32:25évidemment sauter
00:32:26sur cette occasion
00:32:27pour le faire très vite
00:32:28par ailleurs
00:32:28j'ajoute que le sujet central
00:32:31c'est celui
00:32:31de l'identification de l'âge
00:32:32quand on va sur le réseau social
00:32:33si vous pouvez entrer
00:32:35n'importe quelle date de naissance
00:32:36sur le réseau social
00:32:37en vous inscrivant
00:32:37tout ça n'a pas beaucoup de sens
00:32:39nous sommes d'accord
00:32:39pour autant
00:32:40là encore
00:32:41fenêtre de tir idéale
00:32:43en tout cas je l'estime
00:32:43puisque au printemps prochain
00:32:45nous sommes un des pays
00:32:46qui allons tester
00:32:48un logiciel
00:32:49qui va nous être fourni
00:32:50par la commission européenne
00:32:51pour pouvoir avoir
00:32:51un système de vérification d'âge
00:32:53donc labellisé
00:32:54et fiable
00:32:55avec un système
00:32:55de double anonymat
00:32:56donc ça c'est à l'horizon
00:32:58du printemps prochain
00:32:59c'est bien que finalement
00:33:00ces deux ouvertures
00:33:01qui sont celles
00:33:02de la commission européenne
00:33:02vont nous permettre
00:33:03d'avoir un dispositif
00:33:04qui sera efficace
00:33:06en tout cas c'est ce que je souhaite
00:33:07et donc j'estime
00:33:08qu'il faut sauter sur l'occasion
00:33:09vous savez
00:33:09le temps prend
00:33:10le processus législatif
00:33:12chez nous
00:33:12on pourrait arriver
00:33:13au printemps prochain
00:33:13avec tout ça
00:33:14en ordre de marche
00:33:15dans notre pays
00:33:16néanmoins
00:33:17comme on le disait
00:33:18à partir de 15 ans
00:33:19on a quand même
00:33:20encore évidemment
00:33:20des fragilités
00:33:21et puis on voit bien
00:33:22le phénomène de dépendance
00:33:23lié aux réseaux sociaux
00:33:24qui a un impact
00:33:24sur la vie quotidienne
00:33:26de nos jeunes
00:33:26raison pour laquelle
00:33:27je plaide pour
00:33:28un couvre-feu numérique
00:33:30qui pourrait évidemment
00:33:31commencer
00:33:32tout ça et discuter
00:33:33mais à 22h
00:33:34et se terminer
00:33:34le lendemain à 8h
00:33:35l'idée derrière ça
00:33:36c'est
00:33:37on a eu beaucoup de témoignages
00:33:38vraiment beaucoup de témoignages
00:33:39de jeunes qui nous disaient
00:33:40j'essaye d'arrêter
00:33:41mais en même temps
00:33:41c'est vrai que mes parents
00:33:42me disent
00:33:42à 21h à 22h
00:33:44éteint ton téléphone
00:33:45et puis en fait
00:33:45je regarde 5 minutes
00:33:46puis en fait
00:33:46je pars pour 2h
00:33:47de défilement
00:33:48de vidéos
00:33:50et je n'arrive pas
00:33:50à m'arrêter
00:33:51et donc beaucoup nous disaient
00:33:52et ce matin
00:33:53il y avait des témoignages
00:33:54à la radio
00:33:54de jeunes eux-mêmes
00:33:55qui disaient
00:33:55ça serait peut-être
00:33:56une bonne idée
00:34:00l'application s'arrête
00:34:01à 22h
00:34:02et je vais me coucher
00:34:03sereinement
00:34:03sans avoir les notifications
00:34:04et cette pression
00:34:05qui peut reposer sur l'enfant
00:34:06qui peut être aussi
00:34:07un facteur d'anxiété
00:34:08très fort
00:34:09donc l'idée
00:34:09du couvre-feu numérique
00:34:11pourrait permettre
00:34:11de sanctuariser
00:34:13finalement la nuit
00:34:14de nos jeunes
00:34:14et de leur permettre
00:34:15de dormir sereinement
00:34:17il y a la question aussi
00:34:18de l'éducation nationale
00:34:19personnellement
00:34:20à travers ce rapport
00:34:21j'ai voulu quand même
00:34:22demander
00:34:23et insister
00:34:25sur une forme de prise
00:34:25de conscience
00:34:26de l'éducation nationale
00:34:27là encore
00:34:28c'est le fruit aussi
00:34:28de beaucoup de témoignages
00:34:30des associations
00:34:31de parents d'élèves
00:34:31qu'on a reçues
00:34:32à travers cette commission
00:34:33d'enquête
00:34:33qui nous disent
00:34:33vous êtes gentils
00:34:34mais finalement
00:34:35on essaye de tenir
00:34:37nos enfants
00:34:37relativement éloignés
00:34:38des écrans
00:34:39et puis finalement
00:34:40c'est l'éducation nationale
00:34:41qui nous ramène
00:34:42et qui ramène
00:34:42nos enfants
00:34:43devant l'écran
00:34:44parce que
00:34:44les devoirs
00:34:46on les obtient
00:34:46à travers un logiciel
00:34:48qu'on va consulter
00:34:48soit sur son téléphone
00:34:49soit sur son iPad
00:34:50soit sur son ordinateur
00:34:51le soir
00:34:51parce que maintenant
00:34:52les livres sont exclusivement
00:34:54dans certains établissements
00:34:55numériques
00:34:56donc évidemment
00:34:56pas le choix
00:34:57il faut se mettre
00:34:57devant un ordinateur
00:34:58ou devant un iPad
00:35:00parce qu'il y a
00:35:01des boucles de discussion
00:35:02qui sont parfois même
00:35:03initiées par les professeurs
00:35:04qui finalement font
00:35:05qu'on n'a pas le choix
00:35:06on est obligé
00:35:07de se mettre
00:35:07sur les réseaux sociaux
00:35:09et sur des boucles
00:35:10sur WhatsApp
00:35:11ou Telegram
00:35:11et donc je pense
00:35:12qu'on doit pouvoir
00:35:13à la fois
00:35:14étendre la pose numérique
00:35:16portable en pose
00:35:17qui aujourd'hui
00:35:18est présent
00:35:19au collège
00:35:20au lycée
00:35:21et à la fois
00:35:22avoir une
00:35:23se poser la question
00:35:25et surtout
00:35:25le faire très rapidement
00:35:27d'une forme
00:35:27de décroissance numérique
00:35:29de décroissance digitale
00:35:30au sein de l'éducation nationale
00:35:31il y a des pays
00:35:32dans le nord de l'Europe
00:35:33qui ont entrepris
00:35:33ce phénomène
00:35:34de retour en arrière
00:35:35en se disant
00:35:35on est peut-être allé
00:35:36un peu trop loin
00:35:37il n'y avait pas d'intérêt
00:35:38pédagogique
00:35:39à mettre du numérique partout
00:35:40et bien revenons
00:35:40tout simplement en arrière
00:35:41et bien je pense
00:35:42qu'il est urgent
00:35:43pour l'éducation nationale
00:35:44de le faire
00:35:45s'agissant de l'interdiction
00:35:46des portables au lycée
00:35:47on voit bien
00:35:48qu'il y a eu
00:35:48des expérimentations
00:35:49par-ci par-là
00:35:50de portables interdits au lycée
00:35:51et quand on regarde
00:35:52les articles
00:35:53que vos confrères
00:35:54ont pu faire sur le sujet
00:35:55on voit qu'en fait
00:35:55les jeunes eux-mêmes
00:35:56sont satisfaits
00:35:57parce que ça les libère
00:35:58finalement d'un poids
00:35:59de regarder tout le temps
00:36:00leur téléphone
00:36:00de regarder les notifications
00:36:01ils sont tranquilles
00:36:02pour la journée
00:36:03ils le récupèrent le soir
00:36:04en sortant du lycée
00:36:05et ça apaise les relations
00:36:06moi j'ai beaucoup
00:36:07de témoignages aussi du jeune
00:36:08mais vous le voyez peut-être
00:36:09vous-même
00:36:09qui dans les lycées
00:36:10en fait passent leur temps
00:36:11sur le téléphone
00:36:11pendant les interclasses
00:36:13passent le temps
00:36:14sur leur téléphone
00:36:15à la cantine
00:36:16on les airpods
00:36:17et passent leur temps
00:36:17sur leur téléphone
00:36:18enfin il faut être à d'autres
00:36:19pour ne pas se rendre compte
00:36:20qu'il y a quand même
00:36:20un petit sujet
00:36:21ne serait-ce que
00:36:22pour les interactions
00:36:23qu'on peut avoir
00:36:24avec ses camarades de classe
00:36:26évidemment je pense
00:36:27qu'il y a une sensibilisation
00:36:28et on est tous tombés
00:36:29d'accord là-dessus
00:36:30massive à faire
00:36:31et qui aujourd'hui
00:36:32n'existe pas du tout
00:36:34dans notre société
00:36:35sensibilisation pour les parents
00:36:37on a un carnet de santé
00:36:38qui est donné aux parents
00:36:39lorsqu'ils ont leurs enfants
00:36:40quand ils sortent de la maternité
00:36:41avec un certain nombre
00:36:42d'éléments de prévention
00:36:45qui sont inscrits
00:36:46d'office dans le carnet de santé
00:36:47pourquoi pas rajouter
00:36:48des éléments
00:36:49sur la question des écrans
00:36:50et sur la question des réseaux sociaux
00:36:51ça permet d'avoir
00:36:52une première approche
00:36:53pour les parents
00:36:54lorsqu'ils sortent de la maternité
00:36:55on a aussi tous
00:36:56des réseaux de PMI
00:36:57qui sont là auprès des parents
00:36:58qui peuvent les sensibiliser
00:36:59sur tout un tas de sujets
00:37:00d'alimentation
00:37:01de bien-être de l'enfant
00:37:02et bien je pense
00:37:03qu'il serait intéressant aussi
00:37:04d'expliquer aux parents
00:37:05d'expliquer le fonctionnement
00:37:07du cerveau de leur enfant
00:37:08c'est pas l'idée
00:37:08de les culpabiliser
00:37:09mais de leur montrer
00:37:10qu'un cerveau d'un enfant
00:37:11c'est pas un adulte miniature
00:37:13donc son cerveau
00:37:14il est en phase de construction
00:37:15et qu'en effet
00:37:16passer quelques heures par jour
00:37:18sur un écran
00:37:19et bien en effet
00:37:20ça peut abîmer le cerveau
00:37:21de façon irrémédiable
00:37:23et donc je pense
00:37:24qu'il y a un effort
00:37:25vraiment à faire
00:37:26et sur le rapport
00:37:27sans faire de polémique
00:37:28mais j'estime quand même
00:37:29qu'on a une commission
00:37:30enfant et écran
00:37:32qui a rendu son rapport
00:37:33au président de la République
00:37:34il y a maintenant
00:37:34un peu plus d'un an
00:37:35avec finalement
00:37:36deux, trois idées
00:37:37extrêmement fortes
00:37:38et extrêmement basiques
00:37:39notamment pas d'écran
00:37:41avant trois ans
00:37:41des écrans fortement déconseillés
00:37:43avant six ans
00:37:44une interdiction
00:37:46en tout cas c'est ce qu'il préconisait
00:37:47des téléphones avant 11 ans
00:37:48une interdiction des smartphones
00:37:49donc avec un accès à internet
00:37:51avant 13 ans
00:37:52une interdiction des réseaux sociaux
00:37:53avant 15 ans
00:37:54et une interdiction des réseaux sociaux
00:37:56enfin une interdiction
00:37:57en tout cas
00:37:58un accès aux réseaux sociaux éthiques
00:37:59entre 15 ans
00:38:00et 18 ans
00:38:01c'est basique
00:38:01tout le monde a salué ce rapport
00:38:03il y a maintenant
00:38:04un an et demi quasiment
00:38:05et finalement
00:38:06on se rend compte
00:38:07ça n'a pas encore irrigué
00:38:08vraiment tous les pans
00:38:09de notre administration
00:38:11de nos administrations
00:38:12et je crois que le moment
00:38:13est venu peut-être de le faire
00:38:14c'est des messages
00:38:14qui sont simples
00:38:15qui sont basiques
00:38:16mais là encore
00:38:16qui ne sont pas encore passés
00:38:18pour vous donner un exemple
00:38:19un site internet
00:38:20qui est très bien fait
00:38:21qui s'appelle
00:38:21je protège mon enfant
00:38:22.fr
00:38:22et bien il n'est pas à jour
00:38:24c'est à dire qu'il propose encore
00:38:26à des parents
00:38:27qui ont un enfant
00:38:27moins de 3 ans
00:38:28un système de mettre en place
00:38:29un dispositif de contrôle parental
00:38:30sur le téléphone
00:38:31auquel l'enfant a accès
00:38:32ben non en fait
00:38:33normalement
00:38:34le message qu'il faudrait faire passer
00:38:35c'est qu'il n'y a pas de téléphone
00:38:36fort heureusement
00:38:38et nécessairement
00:38:39avant 3 ans
00:38:39donc il faut mettre
00:38:40ce site à jour
00:38:42de toute urgence
00:38:43et puis il faut le faire connaître
00:38:44par tous les parents
00:38:45on a eu à travers aussi
00:38:47les auditions
00:38:47beaucoup de parents
00:38:48qui nous disaient
00:38:48moi je ne sais pas du tout
00:38:49quel dispositif de contrôle parental
00:38:50on peut prendre
00:38:51on me dit en plus
00:38:52que les enfants
00:38:53ont facilement
00:38:54des moyens
00:38:55pour les contourner
00:38:56etc
00:38:56je pense qu'aussi
00:38:57il faut que l'état
00:38:57prenne ses responsabilités
00:38:58et labellise finalement
00:39:00tout un tas
00:39:00de petites applications
00:39:01qui aujourd'hui existent
00:39:02on a des tas
00:39:03de start-up
00:39:04notamment en France
00:39:05qui déjà
00:39:06commencent à sortir
00:39:07des dispositifs
00:39:07qui sont des bons dispositifs
00:39:09mais on n'est pas forcément
00:39:10quand on est parent
00:39:10au courant de tout cela
00:39:11il y a des téléphones aussi
00:39:12qui existent sans accès à internet
00:39:14qui ont l'apparence
00:39:15d'un smartphone
00:39:15mais qui sont dans son parole
00:39:16qui peuvent être
00:39:17une première approche
00:39:18pour un enfant
00:39:19et pour des parents
00:39:20qui peuvent être stressés
00:39:20que l'enfant n'ait pas de téléphone
00:39:22et bien tout ça
00:39:22doit être labellisé
00:39:23pour être finalement
00:39:24mis en valeur
00:39:25et que ça puisse servir d'exemple
00:39:26évidemment pour les autres
00:39:27et pour tout le privé
00:39:29qui pourrait finalement
00:39:30avancer aussi sur ce sujet
00:39:31mais pour que les parents
00:39:32soient un peu aiguillés
00:39:33on avait aussi
00:39:34et là c'est peut-être
00:39:35des actions
00:39:35qui sont plus de moyens
00:39:37et de long terme
00:39:37la question de la formation
00:39:38d'un certain nombre
00:39:39de professionnels
00:39:40on voit bien
00:39:41on l'a entendu
00:39:42que ce soit au sein
00:39:43de l'éducation nationale
00:39:44mais aussi au sein
00:39:45de nos professionnels
00:39:46de santé
00:39:47finalement on sait à peu près
00:39:48ce que c'est le TikTok
00:39:49mais on n'y est jamais
00:39:50forcément allé
00:39:51et on n'a pas conscience
00:39:52de l'ampleur
00:39:52que ça peut représenter
00:39:53et beaucoup de parents
00:39:55nous disaient aussi
00:39:55finalement
00:39:56lorsque un enfant
00:39:57est en phase de mal-être
00:39:58qui va consulter
00:39:59par exemple un psychiatre
00:40:00et bien jamais
00:40:02il y a ce réflexe
00:40:02ou en tout cas rarement
00:40:03il y a ce réflexe
00:40:04de dire mais est-ce que
00:40:04tu vas sur les réseaux sociaux
00:40:06quelle approche
00:40:06tu as des réseaux sociaux
00:40:07combien de temps il passe
00:40:08et en fait c'est un peu
00:40:09l'éléphant au milieu de la pièce
00:40:10c'est-à-dire qu'on voit bien
00:40:10que l'enfant
00:40:11il est alimenté sans cesse
00:40:12parce qu'il passe
00:40:134 heures, 5 heures
00:40:14parfois plus
00:40:15sur les réseaux sociaux
00:40:16chaque jour
00:40:16mais on n'en parle pas
00:40:17alors que c'est quand même
00:40:18le cœur du sujet
00:40:19donc on préconise
00:40:21avec cette commission d'enquête
00:40:22vraiment une formation massive
00:40:24et continue
00:40:25que ce soit des professeurs
00:40:26donc au sein
00:40:27de l'éducation nationale
00:40:28puis de tous les professionnels
00:40:29de santé
00:40:29pour que ce sujet
00:40:30finalement il soit quand même
00:40:31omniprésent dans nos esprits
00:40:32parce que c'est en fait
00:40:33le quotidien
00:40:34de nos jeunes
00:40:35de nos enfants
00:40:36je suggère aussi
00:40:38alors
00:40:39quelque chose
00:40:40dont on va parler
00:40:42déjà un petit peu
00:40:42mais la question
00:40:43d'un délit
00:40:44de négligence parentale
00:40:45numérique
00:40:46évidemment l'idée
00:40:47n'est pas de taper
00:40:48de mettre en prison
00:40:49des parents
00:40:49c'est pas du tout l'objet
00:40:50mais c'est l'idée
00:40:51de créer peut-être
00:40:52un électrochop
00:40:52de dire finalement
00:40:53tout le monde est responsable
00:40:54dans l'histoire
00:40:55évidemment les premiers responsables
00:40:56sont les plateformes eux-mêmes
00:40:57qui ont créé cet outil
00:40:58terrible
00:40:59évidemment l'État
00:41:01et on doit prendre
00:41:02nos responsabilités
00:41:03pour protéger nos enfants
00:41:04mais les parents
00:41:04doivent aussi
00:41:05et sans aucun doute
00:41:06protéger leurs enfants
00:41:08et je pense que là
00:41:09si on a
00:41:10comme on le souhaite tous
00:41:11une phase de sensibilisation
00:41:12massive
00:41:12dans les 2-3 prochaines années
00:41:14je pense qu'il faudra
00:41:15se poser la question
00:41:16quand même
00:41:16de pouvoir avoir
00:41:18un acte un peu fort
00:41:19à l'égard des parents
00:41:20et de leur dire
00:41:21vous êtes aussi responsable
00:41:22de ce que vous faites
00:41:23et de l'objet
00:41:23que vous mettez
00:41:24entre les mains
00:41:25de votre enfant
00:41:25qui n'a pas vu
00:41:26au restaurant
00:41:27des parents
00:41:28qui mettent un téléphone
00:41:28devant les yeux
00:41:29de leurs très jeunes enfants
00:41:30pour être un peu tranquilles
00:41:31pendant leur déjeuner
00:41:32ou leur dîner
00:41:32dans une salle d'attente
00:41:34de médecin
00:41:34pour éviter que l'enfant pleure
00:41:35pour lui mettre un écran
00:41:36devant les yeux
00:41:37pour qu'il soit un petit peu calme
00:41:39et moi j'entends aussi
00:41:39beaucoup de professeurs
00:41:40dans les quartiers
00:41:41moi je suis de Reims
00:41:42qui me disent
00:41:43nous on récupère des enfants
00:41:45à l'école maternelle
00:41:46à 3 ans
00:41:47donc on voit bien
00:41:48qu'en fait
00:41:48en raison de leur comportement
00:41:50ils ont eu accès
00:41:51à des écrans
00:41:52pendant plusieurs heures par jour
00:41:53depuis leur naissance quasiment
00:41:54et je pense qu'il faut pouvoir
00:41:56faire passer un message
00:41:56un peu choc
00:41:57de dire
00:41:57c'est pas anodin
00:41:58ces écrans présents
00:42:00dans la vie des plus jeunes
00:42:01ils ont un impact
00:42:02sur le cerveau
00:42:02qui a un impact très fort
00:42:03et très bénéritaire
00:42:04évidemment
00:42:05un dernier mot aussi
00:42:07parce qu'on a eu ce sujet
00:42:09qui est un petit peu revenu
00:42:10et parce que je pense
00:42:11que notre rôle
00:42:12en tant que législateur
00:42:13et puis que hommes et femmes
00:42:14engagés en politique
00:42:15c'est aussi d'imaginer
00:42:16le monde de demain
00:42:16et de ne pas avoir
00:42:17une vision à court terme
00:42:18je pense aussi
00:42:19qu'il faut qu'on puisse
00:42:19et on l'a entendu
00:42:20à la fin de la vidéo
00:42:22imaginer un monde
00:42:23et des alternatives
00:42:25au numérique
00:42:26pour nos enfants
00:42:26peut-être
00:42:27en effet
00:42:28que si nos enfants
00:42:29se réfugient sur ces téléphones
00:42:30c'est parce qu'ils n'ont pas
00:42:31forcément d'alternatives
00:42:32joyeuses
00:42:33et intéressantes
00:42:35autour d'eux
00:42:35ou qu'ils ne les voient pas assez
00:42:36et que les parents
00:42:37ne les voient pas assez
00:42:37raison pour laquelle
00:42:38je pense qu'on a tout un tas
00:42:39de financements
00:42:40qui sont fléchés
00:42:41sur nos quartiers
00:42:41sur des associations
00:42:42sur des centres de jeunesse
00:42:45des centres sociaux
00:42:46dans toutes nos villes
00:42:47dans tous nos territoires
00:42:48et bien il faudrait
00:42:49que l'État
00:42:50ait un petit peu
00:42:50une vision un peu plus claire
00:42:52et puisse flécher
00:42:53tous ces financements
00:42:53sur des alternatives
00:42:55au numérique
00:42:55sur le fait de valoriser
00:42:57des initiatives
00:42:58qui sont prises
00:42:58pour nos jeunes
00:42:59lorsqu'ils ne sont pas
00:43:00à l'école
00:43:01le soir
00:43:01le week-end
00:43:02le mercredi
00:43:03pour qu'ils puissent avoir
00:43:03des activités
00:43:04qui les apaisent
00:43:06qui les rendent
00:43:06un peu plus joyeux
00:43:07et qui leur permettent
00:43:08de voir qu'en fait
00:43:09il y a autre chose
00:43:09que le téléphone
00:43:10ça c'est du plus long terme
00:43:11évidemment
00:43:12mais je pense qu'il faut
00:43:12avoir cette vision
00:43:13la jeunesse
00:43:14c'est quand même
00:43:14un angle mort
00:43:15je trouve
00:43:16de nos politiques publiques
00:43:17aujourd'hui
00:43:17et notamment la phase adolescente
00:43:19on a beaucoup de choses
00:43:20qui sont faites
00:43:20sur les jeunes enfants
00:43:22et sur notamment
00:43:23les 1000 premiers jours
00:43:24puisqu'on a considéré
00:43:25que c'était essentiel
00:43:25maintenant il faut qu'on puisse
00:43:27réfléchir à la phase adolescente
00:43:29on voit bien qu'à 12 ans
00:43:30vous proposer des jeux de société
00:43:31à un enfant
00:43:31dans les maisons de quartier
00:43:33ou les centres sociaux
00:43:33ça sera plus hyper satisfaisant
00:43:35et c'est pas vraiment le rendeur
00:43:36donc il faut qu'on puisse
00:43:37réinventer un peu
00:43:37des activités
00:43:40pour nos jeunes
00:43:40pour qu'ils restent
00:43:41enthousiastes
00:43:42et qu'ils puissent éviter
00:43:43de se réfugier
00:43:44dans ces réseaux sociaux
00:43:45voilà je suis désolée
00:43:46d'avoir été sans doute
00:43:47trop longue
00:43:48voilà les éléments
00:43:49et le fruit
00:43:49de notre travail
00:43:50de 6 mois
00:43:51de cette enquête
00:43:52comme je vous le disais
00:43:53je pense que c'est un sujet
00:43:54de société
00:43:54qui s'étalera pas demain
00:43:55et puis peut-être
00:43:56rajouter un dernier mot
00:43:57pour vous dire
00:43:58que dans une phase politique
00:43:59sans doute un petit peu
00:44:00compliquée
00:44:01ça n'a rien de dire
00:44:01avec une assemblée
00:44:03un peu morcelée
00:44:04ça n'a rien de dire aussi
00:44:05et bien c'est un sujet
00:44:06je pense
00:44:07qui peut nous rassembler
00:44:08et qui pourrait être
00:44:09un sujet à mettre
00:44:10sur la table
00:44:11du Premier ministre
00:44:11pour les prochains mois
00:44:12parce que je pense
00:44:13qu'on peut faire quelque chose
00:44:14et surtout je dois
00:44:14je pense qu'on doit
00:44:16absolument agir rapidement
00:44:17c'est ce que les familles
00:44:19et les jeunes eux-mêmes
00:44:19nous demandent
00:44:20je vous remercie
00:44:21pour votre attention
00:44:21il y a des questions
00:44:28alors je crois
00:44:32que les micros
00:44:32qui sont
00:44:33dans la salle fonctionnent
00:44:36madame du coup
00:44:37si vous voulez
00:44:37pardon
00:44:39bonjour
00:44:43je suis en train de me faire
00:44:44pour le groupe EBRAS
00:44:44alors je suis désolée
00:44:45j'ai tous aussi
00:44:46un peu long
00:44:46j'ai trois questions
00:44:47une question
00:44:48pour chaque annonce
00:44:49de vous
00:44:49et une question
00:44:50qui s'adresse
00:44:52à vous deux
00:44:52la première question
00:44:56c'est
00:44:57madame Garl
00:44:58hier
00:45:00Ursula
00:45:00Finberian
00:45:02dans son discours
00:45:03sur l'état de l'union
00:45:03a dit qu'elle était favorable
00:45:05à ce que
00:45:06l'Union européenne
00:45:07s'inspire
00:45:07de l'Australie
00:45:09pour limiter
00:45:09l'accès aux réseaux sociaux
00:45:11du coup
00:45:12est-ce que pour vous
00:45:12c'est un bon signal
00:45:14est-ce que vous
00:45:15s'y croyez vraiment
00:45:16ou est-ce que vous
00:45:16vous dites que
00:45:17bon ça restera
00:45:18c'est une déclaration
00:45:19d'intention
00:45:20et ça n'ira pas plus loin
00:45:21monsieur Delaporte
00:45:24ma question
00:45:25c'est sur
00:45:26ce matin
00:45:26vous avez déclaré
00:45:27sur France Info
00:45:28que vous
00:45:29vouliez porter plainte
00:45:31qu'est-ce que
00:45:33vous espérez
00:45:34avec ça
00:45:34est-ce que c'est pour
00:45:35obliger TikTok
00:45:36à avoir
00:45:39une modération
00:45:40beaucoup plus efficace
00:45:41ou est-ce que
00:45:42c'est autre chose
00:45:42et la question
00:45:44pour vous deux
00:45:46c'est
00:45:47vous disiez à l'instant
00:45:47que c'est un sujet
00:45:48transpartisan
00:45:49que c'est un sujet
00:45:50qui peut réunir l'Assemblée
00:45:51et que
00:45:52ça pourrait arriver
00:45:53sur la table
00:45:54du Premier ministre
00:45:55dans les mois à venir
00:45:56est-ce que vous
00:45:57vous espérez
00:45:58avoir un projet de loi
00:45:59ou est-ce que
00:46:00c'est au Parlement
00:46:00maintenant
00:46:01d'arriver
00:46:02avec une proposition
00:46:03transpartisane
00:46:04voilà
00:46:05quelle est la suite
00:46:06merci
00:46:06je réponds sur la 1
00:46:09et la 3
00:46:09sur la première question
00:46:11moi je pense
00:46:11qu'en effet
00:46:12c'est une bonne chose
00:46:13on voit bien
00:46:13que le combat
00:46:14qui est mené par la France
00:46:15depuis maintenant
00:46:16de nombreuses années
00:46:17on est vraiment précurseur
00:46:18il faut quand même
00:46:18quand il y a des raisons
00:46:20de dire que ça va
00:46:21il faut le dire
00:46:21donc on est vraiment
00:46:23précurseur sur ce sujet
00:46:24avec d'autres pays
00:46:24et donc évidemment
00:46:25on voit bien
00:46:26que les lignes bougent
00:46:27plus on se fera entendre
00:46:29et plus on frappera fort
00:46:30notamment avec des mesures nationales
00:46:32plus l'Union Européenne
00:46:34se dirait qu'en effet
00:46:34ils n'ont pas le choix
00:46:35et qu'il faut qu'ils avancent
00:46:35sur le sujet
00:46:36donc ce discours
00:46:37je le vois comme une bonne étape
00:46:39une étape importante
00:46:40en revanche
00:46:40en effet
00:46:41je suis aussi lucide
00:46:42ça prend beaucoup de temps
00:46:43il faut continuer à batailler
00:46:44mais je crois
00:46:45qu'il faut reprendre la main
00:46:46en droit national
00:46:47et c'est ce que
00:46:48nous comptons faire
00:46:50et donc ça répond
00:46:50à votre troisième question
00:46:51en effet
00:46:52peut-être qu'un projet de loi
00:46:54sera déposé par le gouvernement
00:46:55je pense que
00:46:56pour l'instant
00:46:56le sujet
00:46:57n'est pas encore
00:46:57le sujet brûlant
00:46:58pour l'instant
00:46:59puisqu'on est encore
00:46:59dans des phases
00:47:00de concertation
00:47:01pour le Premier ministre
00:47:02mais je pense que
00:47:03notre responsabilité
00:47:04en tant que législateur
00:47:05c'est de prendre les devants
00:47:05encore une fois
00:47:06je vous le disais
00:47:07il y a des députés
00:47:08de tous bords
00:47:08qui sont favorables
00:47:10à cette idée
00:47:11et donc
00:47:11l'objectif en enfin
00:47:12c'est de pouvoir
00:47:13déposer une proposition
00:47:14de loi rapidement
00:47:14pour mettre le sujet
00:47:17dans l'actualité
00:47:17très très vite
00:47:18parce qu'il y a
00:47:18il y a une urgence
00:47:19à le faire
00:47:19merci
00:47:21alors je vais rebondir
00:47:22sur la troisième question
00:47:23pour commencer
00:47:24je suis d'accord avec Laure
00:47:26quels que soient
00:47:27les gouvernements
00:47:27qui arrivent
00:47:28en tout cas
00:47:29je crois qu'il faudra
00:47:31se saisir
00:47:32de ce sujet
00:47:33à la fois
00:47:33en tant que législateur
00:47:34mais je l'ai dit
00:47:35pour la loi influenceur
00:47:36on a besoin
00:47:37de l'appui du gouvernement
00:47:38pour aller vite
00:47:39on a besoin
00:47:40sur ce type de sujet
00:47:41des appuis
00:47:42notamment du conseil d'état
00:47:44parce qu'il y a quand même
00:47:45des sujets de compatibilité
00:47:45avec les droits européens
00:47:46on a besoin
00:47:47de la procédure accélérée
00:47:49pour éviter de passer
00:47:49un an et demi
00:47:50c'est comme ça
00:47:51qu'on a réussi
00:47:51à faire avancer
00:47:52la loi influenceur
00:47:52et la France a été
00:47:54sur ce sujet là
00:47:55précurseur
00:47:55tout comme la loi
00:47:56Marc-Angeli
00:47:57d'une certaine manière
00:47:58même si elle a eu
00:47:58des difficultés
00:47:59d'application
00:47:59on a été précurseur
00:48:01donc pour le coup
00:48:03j'en profite
00:48:04pour une nuance
00:48:05parce que je voulais
00:48:06laisser madame
00:48:06la rapporteure
00:48:07le présenter
00:48:07vous savez
00:48:08il y a un sujet
00:48:09sur la limite d'âge
00:48:09à 15 ans
00:48:10moi je trouvais
00:48:10que le cadre
00:48:11de la loi Marc-Angeli
00:48:12était intéressant
00:48:13parce qu'il permettait
00:48:15un accès progressif
00:48:16aux réseaux sociaux
00:48:16avec une utilisation
00:48:17supervisée
00:48:18mais dans un environnement
00:48:19assez lit
00:48:20c'est ça la nécessité
00:48:21entre 13 et 15
00:48:23voilà
00:48:23moi ma peur
00:48:24c'est qu'à 15 ans
00:48:26on tombe dans l'océan
00:48:27sans avoir appris
00:48:28à nager dans la piscine
00:48:30donc c'est une nuance
00:48:32mais je pense
00:48:33qu'elle mérite
00:48:34d'être mentionnée
00:48:35d'autant que
00:48:36quand on discute
00:48:36avec les jeunes eux-mêmes
00:48:37ils sont de manière générale
00:48:38et là on l'a dit
00:48:38pour de la régulation
00:48:40pour une interdiction
00:48:41avant un certain âge
00:48:42mais leur adhésion
00:48:44s'effrite
00:48:45à partir de 14 ans
00:48:47globalement
00:48:47il y a
00:48:48moins de la moitié
00:48:49des mineurs
00:48:50qui sont pour
00:48:51à 15 ans
00:48:52et moi je pense
00:48:53qu'il faut
00:48:53essayer de leur faire confiance
00:48:54aussi sur l'appréhension
00:48:56des risques
00:48:56et parfois
00:48:57le problème c'est qu'ils ne sont pas
00:48:58encore totalement
00:48:59formés
00:49:00matures
00:49:02donc le sujet
00:49:02c'est vraiment
00:49:04la manière
00:49:05dont on évince
00:49:06et là on l'a dit
00:49:07c'est la première des priorités
00:49:08les contenus problématiques
00:49:09et dont on régule l'alcool
00:49:10ce qui m'amène à répondre
00:49:11à votre deuxième question
00:49:13pourquoi est-ce que j'ai annoncé
00:49:15ce matin
00:49:16à voir
00:49:17à l'issue de cette commission
00:49:18d'enquête
00:49:18saisie
00:49:19la procureure
00:49:20de la république
00:49:21il suffit de lire
00:49:24le rapport
00:49:24de madame la rapporteure
00:49:25il suffit de lire
00:49:26les comptes-rendus
00:49:27des auditions
00:49:27pour voir que
00:49:29TikTok ne peut pas
00:49:29ne pas savoir
00:49:30TikTok ne peut pas
00:49:32ne pas savoir
00:49:32qu'il mette
00:49:33en danger
00:49:34des dizaines
00:49:36de millions
00:49:36de jeunes
00:49:38voire des centaines
00:49:39de millions
00:49:39de jeunes
00:49:40dans le monde entier
00:49:41alors ici nous on est en France
00:49:43ce qui compte
00:49:44si on considère
00:49:45qu'il y a une mise en danger
00:49:46de la vie d'autrui
00:49:47et bien c'est quelque chose
00:49:49qui est de l'ordre du droit pénal
00:49:51là quand on parle
00:49:51des sanctions au niveau
00:49:52de la commission européenne
00:49:53c'est des sanctions
00:49:53d'ordre administratif
00:49:55et donc voilà
00:49:57moi je considère
00:49:58à l'issue de cette commission
00:49:59qu'il y a
00:49:59des sujets
00:50:00au moins de nature pénale
00:50:02absolument
00:50:02qui méritent
00:50:03investigation
00:50:04pour pouvoir
00:50:04s'il n'y a pas
00:50:05une forme de complicité
00:50:07active
00:50:08on appellerait
00:50:09une abstention aggravée
00:50:11d'une certaine manière
00:50:11de la plateforme
00:50:12qui savait
00:50:13qu'il y avait
00:50:13des troubles
00:50:14liés aux conséquences
00:50:16de l'algorithme
00:50:17et qui n'a pas agi
00:50:18de manière
00:50:19à les empêcher
00:50:20de façon absolue
00:50:22parce que s'il reste
00:50:231% de risque
00:50:24ou 0,1% de risque
00:50:25c'est toujours
00:50:260,1% de trop
00:50:27et donc c'est un sujet
00:50:28à la fois
00:50:29de modèle économique
00:50:29mais aussi des conséquences
00:50:30de ce modèle économique
00:50:31qui leur l'a dit
00:50:33et se manifeste
00:50:34dans tout le rapport
00:50:35ça transpire
00:50:35a une incidence
00:50:37sur la vie des jeunes
00:50:38ça c'est le premier volet
00:50:40et le deuxième volet
00:50:41c'est que
00:50:41quand on a auditionné
00:50:42TikTok
00:50:43pendant 7h35
00:50:44moi j'ai été choqué
00:50:46je vous dis choqué
00:50:47par l'attitude
00:50:48des responsables
00:50:49de TikTok
00:50:50ils ne savaient rien
00:50:52ils faisaient tout bien
00:50:53et il y a notamment
00:50:55un moment
00:50:56qui m'a paru
00:50:57être un mensonge flagrant
00:50:59devant la commission d'enquête
00:51:01c'est le moment
00:51:02dit des Kentucky fans
00:51:03les Kentucky fans
00:51:05c'est des révélations
00:51:06qui ont été faites
00:51:08aux Etats-Unis
00:51:09de notes internes
00:51:10qui disent
00:51:11voilà TikTok savait
00:51:12TikTok savait
00:51:13qu'il y avait des effets
00:51:13de l'algorithme
00:51:14sur les mineurs
00:51:14ces révélations
00:51:16elles ont été publiques
00:51:17aux Etats-Unis
00:51:18elles ont été également
00:51:20publiques en France
00:51:21ça a été notamment
00:51:22partagé par Libération
00:51:24qu'a répondu
00:51:26je vais vous lire
00:51:27sa réponse
00:51:27la responsable Europe
00:51:30de TikTok
00:51:31je ne connais absolument
00:51:33pas cette étude
00:51:33ni sait d'où viennent
00:51:35ses propos
00:51:35cette question
00:51:36lui avait été posée
00:51:37au préalable
00:51:38par écrit
00:51:38quand on dit
00:51:40je ne connais absolument
00:51:42pas une étude
00:51:42qui a été mentionnée
00:51:43dans un questionnaire écrit
00:51:44transigné à l'avocat
00:51:45qui a été publiée
00:51:46il s'agit pour moi
00:51:47d'un mensonge flagrant
00:51:48et donc
00:51:49d'un parjure
00:51:50devant la commission d'enquête
00:51:51parjure
00:51:53parce qu'on prête serment
00:51:54de dire la vérité
00:51:54rien que la vérité
00:51:56on peut dire
00:51:56je ne veux pas vous répondre
00:51:57mais on ne peut pas dire
00:51:59je ne connais pas
00:52:00alors qu'on connaît
00:52:01et donc
00:52:02il y a là pour moi
00:52:03la nature aussi
00:52:04à saisir la justice
00:52:05parce qu'on ne peut pas
00:52:07mentir impunément
00:52:08à la représentation nationale
00:52:09et au DALSA
00:52:10à nos concitoyens
00:52:11allez-y
00:52:26oui, bonjour
00:52:30Raphaël Laby de BFMTV
00:52:31quand je dis de l'apport
00:52:33il y a un mot qui ressort
00:52:35en tout cas
00:52:35qui paraît résumer
00:52:36effectivement le comportement
00:52:37de TikTok
00:52:37c'est le cynisme
00:52:38on a l'impression
00:52:39que c'est une entreprise
00:52:40qui est totalement cynique
00:52:41même si on peut critiquer
00:52:42évidemment aussi
00:52:43les autres plateformes
00:52:43vous parliez de votre article 40
00:52:45à la procureure de Paris
00:52:46juste concrètement
00:52:48comment on va chercher
00:52:49les gens qui travaillent
00:52:53chez TikTok
00:52:53c'est une entreprise
00:52:54qui n'est pas basée en France
00:52:55ils sont au Royaume-Uni
00:52:57TikTok France
00:52:58techniquement
00:52:59ils ne s'occupent pas
00:52:59de la plateforme
00:53:00ils s'occupent des affaires publiques
00:53:01et du marketing
00:53:02donc concrètement
00:53:04pénalement
00:53:04comment on va chercher
00:53:06TikTok
00:53:07est-ce qu'on les attend
00:53:08en bas de l'avion
00:53:08comme pour Pavec Dorof
00:53:09pour Telegram
00:53:11est-ce qu'on les met
00:53:11sous contrôle judiciaire
00:53:12concrètement
00:53:13il se passe quoi ?
00:53:14alors
00:53:16la personne en question
00:53:17elle est nationalité française
00:53:18donc du coup
00:53:20c'est TikTok France
00:53:21le droit
00:53:21non non
00:53:22elle est TikTok Europe
00:53:22donc elle travaille à Londres
00:53:25mais elle est nationalité française
00:53:26et donc
00:53:26elle n'a pas le droit
00:53:27de mentir devant la somme nationale
00:53:28comme n'importe quel citoyen français
00:53:30ça c'est le premier point
00:53:31le deuxième point
00:53:32sur la responsabilité légale
00:53:34et pénale
00:53:35d'une entreprise
00:53:35elle est
00:53:36quelle que soit
00:53:36l'adresse de leur siège
00:53:38la différence
00:53:39ce qu'il faut comprendre
00:53:40c'est que le droit européen
00:53:41c'est un droit
00:53:41qui régule
00:53:42les obligations commerciales
00:53:43des plateformes
00:53:44lui
00:53:44il peut être localisé
00:53:46dans le pays
00:53:46où les plateformes
00:53:47sont enregistrées
00:53:48mais rien n'empêche
00:53:49en France
00:53:50d'intenter
00:53:51ou d'engager
00:53:52la responsabilité pénale
00:53:53d'un acteur économique
00:53:56s'il a une activité
00:53:57en France
00:53:57le droit pénal
00:53:58il s'applique pour tout le monde
00:53:59quelle que soit sa nationalité
00:54:00il n'y a pas d'extraterritorialité
00:54:02du droit pénal
00:54:02sinon si vous êtes américain
00:54:03et que vous commettez un crime
00:54:04en France
00:54:05on a le droit
00:54:06de vous poursuivre
00:54:06non bien sûr
00:54:07mais ma question c'est
00:54:08vous plaidez finalement
00:54:09pour une stratégie
00:54:10à la télégramme
00:54:11c'est à dire que
00:54:11entre guillemets
00:54:13on attend les dirigeants
00:54:14de TikTok
00:54:14alors moi je ne suis pas
00:54:16la justice
00:54:16pour le coup
00:54:17ce que je peux vous dire
00:54:18c'est qu'on a saisi
00:54:19la justice
00:54:20qu'elle devra
00:54:21il faudra peut-être
00:54:22un peu de temps
00:54:23mais donner des réponses
00:54:24voir si
00:54:25ce que nous estimons
00:54:26en tout cas
00:54:28comme dérive
00:54:29mais revêt
00:54:30d'une caractérisation
00:54:31juridique précise
00:54:32s'il y a lieu
00:54:33derrière
00:54:33d'engager des poursuites
00:54:34et s'il y a lieu derrière
00:54:36de convoquer
00:54:38les personnes
00:54:39devant un tribunal
00:54:40ça c'est pas
00:54:40à nous de décider
00:54:41nous voilà
00:54:42on a des soupçons
00:54:44on a des faisceaux
00:54:45d'indices concordants
00:54:46qui montrent
00:54:46qu'il y a
00:54:47une connaissance
00:54:48j'ai évoqué tout à l'heure
00:54:49et donc du coup
00:54:51qui dit connaissance
00:54:52dit inaction
00:54:53dit complicité active
00:54:55et juste une toute petite question
00:54:57sur la loi française
00:54:58qu'est-ce qui empêcherait
00:54:59aujourd'hui
00:55:00de garder la loi
00:55:00Marc-Angeli
00:55:01mais de publier
00:55:02le décret d'application
00:55:03qui n'a jamais été publié
00:55:05depuis juillet 2023
00:55:06alors en effet
00:55:08oui on avait eu
00:55:09la commission européenne
00:55:10je pense qu'on pourrait
00:55:11sous réserve
00:55:12de ce que pourront nous dire
00:55:13en effet les spécialistes
00:55:14mais je pense qu'on pourrait
00:55:15en effet la reprendre
00:55:16moi j'estime que
00:55:17en tout cas moi
00:55:18j'avais une divergence
00:55:18sur les 13-15 ans
00:55:19et la nuance
00:55:20qui était établie
00:55:21dans la loi Marc-Angeli
00:55:22et par ailleurs
00:55:23je pense que ça serait
00:55:23l'occasion de brossir
00:55:24la question du couvre-feu
00:55:25etc d'ajouter finalement
00:55:26des éléments
00:55:27qui font partie
00:55:29de ce rapport
00:55:30de la commission d'enquête
00:55:31et qui permettrait
00:55:32d'avoir peut-être
00:55:33un panel un peu plus large
00:55:35de mesures de prévention
00:55:36et de protection
00:55:36de la jeunesse
00:55:37mais en effet
00:55:37on pourra tout à fait
00:55:38s'inspirer d'une partie
00:55:40de la rédaction
00:55:40de cette loi
00:55:41qui était une loi
00:55:42un peu lanceuse d'alerte
00:55:43Merci beaucoup
00:55:45Vous avez une question là-bas ?
00:55:47Bonjour
00:55:48le micro est un peu haut
00:55:49je suis Emma Monizat
00:55:50pour l'humanité
00:55:51j'avais un
00:55:53une question
00:55:53sur le discours masculiniste
00:55:55qui est une des plus
00:55:56grandes propagandes
00:55:58qui se diffuse
00:55:58sur les réseaux sociaux
00:55:59comme TikTok
00:56:00et qui produit
00:56:01une forme de radicalisation
00:56:02qui est beaucoup plus visible
00:56:04que d'autres formes
00:56:04de radicalisation
00:56:05vous avez d'ailleurs
00:56:06auditionné plusieurs
00:56:07de ses influenceurs
00:56:08dont Alexis Tchens
00:56:09ce discours
00:56:11il touche pas seulement
00:56:11les jeunes
00:56:12mais aussi les adultes
00:56:12qui sont présents
00:56:13sur la plateforme
00:56:14et contribuent au backlash
00:56:15des féministes
00:56:16est-ce que vous avez
00:56:16des préconisations particulières
00:56:18concernant ce type de discours
00:56:19ou est-ce que ça rentre
00:56:20dans le cadre général
00:56:21de la lutte
00:56:21contre toutes les formes
00:56:22de propagandes
00:56:23qui pullulent
00:56:23sur les réseaux sociaux
00:56:24alors en effet
00:56:27moi à travers le rapport
00:56:28j'ai stigmatisé
00:56:30particulièrement
00:56:30ce phénomène
00:56:31que vous évoquez
00:56:32j'ai pas établi
00:56:33de préconisation
00:56:34parce que
00:56:34en effet
00:56:35on pourrait tout à fait
00:56:35modifier la loi
00:56:37pour que ça soit
00:56:38mieux caractérisé
00:56:38donc ça
00:56:39ça peut être
00:56:39un projet
00:56:40auquel je peux adhérer
00:56:41je pense que
00:56:42déjà il y a une frontière
00:56:44qui est parfois
00:56:44assez fine
00:56:45entre la liberté d'expression
00:56:46et des propos
00:56:47qui peuvent être
00:56:47pénalement condamnables
00:56:48et qu'il faut faire attention
00:56:50et pas se tromper de combat
00:56:51parce qu'après
00:56:51on va nous
00:56:52l'idée n'est pas
00:56:53d'être étiqueté
00:56:54comme censeur
00:56:55et ensuite
00:56:55de faire diverger
00:56:58le débat
00:56:58l'idée
00:56:59c'est surtout
00:57:00de responsabiliser
00:57:01les plateformes
00:57:01moi j'ai estimé
00:57:03que dans les priorités
00:57:04l'idée c'était avant tout
00:57:05de pouvoir modifier
00:57:06cette logique économique
00:57:07qui est celle
00:57:08de TikTok
00:57:09mais des autres plateformes
00:57:10aussi
00:57:10et qui conduit
00:57:11finalement
00:57:11à mettre en évidence
00:57:12et à pousser
00:57:13tous les contenus
00:57:14qui sont les contenus
00:57:15radicaux
00:57:15vous voyez dans le rapport
00:57:17on a aussi
00:57:17la question du racisme
00:57:18de l'antisémitisme
00:57:19qui sont aussi
00:57:20des contenus
00:57:20qui pullulent
00:57:21et qui prospèrent
00:57:22grâce à l'algorithme
00:57:23et donc je ne me suis pas
00:57:24focalisé sur une
00:57:25des thèses
00:57:27des théories
00:57:28et des opinions
00:57:28extrêmes
00:57:29qui prospèrent
00:57:31grâce à l'algorithme
00:57:32je pense que c'est tout
00:57:33mais je pense que c'est
00:57:33le système
00:57:34qu'il faut essayer
00:57:34de modifier
00:57:35et qu'il faut parvenir
00:57:36à modifier
00:57:36plus que modifier
00:57:38la loi
00:57:38avec le risque
00:57:39en effet
00:57:39de passer pour des censeurs
00:57:40alors qu'en réalité
00:57:41on veut juste
00:57:42avoir un environnement
00:57:43sain et équilibré
00:57:44aussi sur le numérique
00:57:45comme on peut l'avoir
00:57:46parfois
00:57:46dans la vraie vie
00:57:47je suis globalement
00:57:50d'accord avec l'ordre
00:57:51il ne faut pas passer
00:57:52pour des censeurs
00:57:52mais je vais me permettre
00:57:53de vous dire
00:57:54que ça fait partie
00:57:55des points
00:57:56que j'ai rajouté
00:57:58dans les recommandations
00:57:59de l'avant-propos
00:58:00la recommandation numéro 3
00:58:02en intégrant
00:58:04mais c'est plus large
00:58:05en fait
00:58:05l'objet de la commission
00:58:06d'enquête
00:58:06et comme finalement
00:58:07beaucoup des propositions
00:58:08aussi liées à l'éducation
00:58:09par exemple
00:58:10mais qui est renforcée
00:58:12le cadre juridique
00:58:12des délits sexistes
00:58:13en ligne
00:58:13et du cyberharcèlement
00:58:14en y intégrant la lutte
00:58:15contre l'idéologie masculiniste
00:58:16parce qu'on le voit aussi
00:58:18avec le procès
00:58:19qui va s'ouvrir
00:58:19dans quelques jours
00:58:20de Tiffende
00:58:21au tribunal de Paris
00:58:23qu'il y a aujourd'hui
00:58:24des raids
00:58:26contre des influenceurs
00:58:28par exemple féministes
00:58:29de la part de masculinistes
00:58:30qui a un vrai sujet
00:58:31de société
00:58:32derrière tout ça
00:58:33et l'audition du HCE
00:58:35que nous avons eu
00:58:35sur la question
00:58:36du sexisme en ligne
00:58:37de Bérangère Couillard
00:58:38on a essayé de voir
00:58:39si le cadre juridique
00:58:40était satisfaisant
00:58:41et moi
00:58:42de ce qu'il ressort
00:58:43de cette audition
00:58:44et des différentes auditions
00:58:45qu'on a pu avoir
00:58:45je trouve que
00:58:46voilà
00:58:47c'est pas assez bien défini
00:58:48que ça mériterait
00:58:49une meilleure définition juridique
00:58:50et plus largement
00:58:51il y a un vrai sujet
00:58:51sur les questions
00:58:52de cyberharcèlement
00:58:53je profite pour le dire
00:58:54que ça
00:58:54pour le coup
00:58:55j'essaierai avec
00:58:56Cetane Vogeta
00:58:57d'intégrer aussi ça
00:58:58dans la mission
00:58:59qui nous a été confiée
00:58:59par le gouvernement
00:59:00par François Mérou
00:59:03mais il se prolonge
00:59:03voilà
00:59:04sur la question
00:59:05des enjeux émergents
00:59:06du numérique
00:59:07notamment sur la lutte
00:59:07contre le cyberharcèlement
00:59:08Bonjour
00:59:17moi c'est Maria Scott
00:59:18de Libération
00:59:19et je voudrais avoir
00:59:20j'ai quelques questions
00:59:21par rapport au couvre-feu numérique
00:59:22déjà en quoi
00:59:23est-ce qu'il consiste
00:59:25comment est-ce qu'il pourrait
00:59:26être mis en place
00:59:27est-ce que ça existe
00:59:29ailleurs
00:59:30et est-ce que ce serait
00:59:31anticonstitutionnel
00:59:32Merci pour ces questions
00:59:36alors en quoi ça consiste
00:59:37l'objectif et l'idée
00:59:38c'est que les plateformes
00:59:40c'est d'imposer aux plateformes
00:59:41l'extinction de leur plateforme
00:59:46à partir d'une certaine heure
00:59:48en l'occurrence 22h
00:59:49vous le savez tout ça
00:59:51et vous le devinez
00:59:52tout ça dépend aussi
00:59:53de la vérification de l'âge
00:59:54puisque je souhaite
00:59:55l'imposer aux 15-18 ans
00:59:56là encore il faut évidemment
00:59:58pouvoir vérifier de façon fiable
01:00:00l'âge qui est celui
01:00:01des utilisateurs de la plateforme
01:00:03donc encore une fois
01:00:04comme je vous disais
01:00:04qu'on a une perspective
01:00:05plutôt favorable
01:00:06au printemps prochain
01:00:07l'idée c'est de pouvoir
01:00:09établir ça au printemps prochain
01:00:11aussi lorsqu'on aura
01:00:11le logiciel adéquat
01:00:12s'agissant des pays
01:00:15dans lesquels ça peut
01:00:16déjà exister
01:00:17alors on a un état
01:00:18des Etats-Unis
01:00:18qui le pratique
01:00:19l'Utah si je ne me trompe pas
01:00:21et on a aussi la Chine
01:00:22exemple particulier
01:00:24mais ça veut dire que
01:00:25c'est possible
01:00:26et que ça existe
01:00:27et ça veut dire surtout
01:00:28que si les Chinois le font
01:00:29pour leur propre application
01:00:30posons-nous peut-être
01:00:31les bonnes questions
01:00:31de savoir ce qu'on donne
01:00:32à nos enfants
01:00:33et de quelle façon
01:00:33on le donne
01:00:34s'agissant de la constitutionnalité
01:00:36peut-être que ça pose question
01:00:38ça on pourra évidemment
01:00:40interroger le Conseil d'Etat
01:00:42en amont
01:00:42si on est aidé
01:00:43par le gouvernement
01:00:44ou par la présidente
01:00:45de l'Assemblée nationale
01:00:46évidemment qu'il faudra
01:00:47cadrer juridiquement
01:00:49et suffisamment
01:00:50notre proposition
01:00:51pour qu'elle puisse prospérer
01:00:52c'est des choses qu'on pourra voir
01:00:54quand on rédigera
01:00:54la proposition de loi
01:00:56de façon transpartisane
01:00:57dans les jours
01:00:57et les semaines qui viennent
01:00:58Je vais ligner le prière
01:01:05pour la croix
01:01:05mon autre proposition
01:01:08qui faisait peut-être
01:01:09un petit peu débat
01:01:10c'est la question
01:01:10d'une délite négligence
01:01:11des parents
01:01:12est-ce que vous pourriez
01:01:14nous en dire plus
01:01:15concrètement
01:01:16à partir de quand
01:01:17est-ce qu'on pourrait estimer
01:01:17qu'un parent est négligent
01:01:19comment quantifier
01:01:20une négligence parentale
01:01:21et pourquoi la punir
01:01:23si sévèrement ?
01:01:25Alors encore une fois
01:01:26l'idée c'est de créer
01:01:27le débat et de pouvoir
01:01:28susciter les réactions
01:01:29et surtout interroger
01:01:30la question de la responsabilité
01:01:31des parents
01:01:32moi j'ai été frappée
01:01:33pendant toutes
01:01:33à la fois les auditions
01:01:34mais surtout les messages
01:01:35que je pourrais recevoir
01:01:36sur les réseaux sociaux
01:01:37eux-mêmes
01:01:37tout le monde avait un avis
01:01:39extrêmement tranché
01:01:40c'était soit les plateformes
01:01:41qu'il fallait absolument
01:01:42sanctionner, contrôler etc
01:01:43soit c'était la responsabilité
01:01:45des politiques
01:01:45qui ne faisaient rien
01:01:46et beaucoup
01:01:47j'avais beaucoup de messages
01:01:48me disant en fait
01:01:48c'est la responsabilité
01:01:49des parents
01:01:50on doit être responsable
01:01:51et on doit être tenu responsable
01:01:52de ce qu'on met
01:01:53dans les mains de son enfant
01:01:54donc je pense qu'il y avait
01:01:55un volet quand même
01:01:55à ne pas négliger
01:01:56comment est-ce qu'on le qualifie
01:01:58de la même manière
01:01:58qu'aujourd'hui
01:01:59vous savez il existe déjà
01:02:00un délit de négligence
01:02:01tout court
01:02:02parce qu'on doit protéger
01:02:03son enfant dans sa santé
01:02:04sa moralité
01:02:05sa sécurité
01:02:06ça fait déjà partie
01:02:08de la loi française
01:02:09et tout ça en effet
01:02:10est une histoire de nuance
01:02:11si vous nourrissez mal
01:02:12votre enfant
01:02:13si vous n'allez pas
01:02:13le rechercher à l'école
01:02:14tout ça peut constituer
01:02:15une négligence
01:02:16mais c'est au juge
01:02:16de le décider
01:02:18en fonction des faits
01:02:19qui sont ceux
01:02:20qu'il a devant les yeux
01:02:21donc je pense qu'il ne faut pas
01:02:22fixer de limites précises
01:02:24dans la loi il n'est pas
01:02:25de dire au delà de 30 minutes
01:02:26c'est de la négligence
01:02:27c'est pas ça
01:02:27c'est l'idée de pouvoir
01:02:29élargir cette forme de négligence
01:02:30la sécurité
01:02:31la moralité de son enfant
01:02:32en effet
01:02:32quand si jamais
01:02:33son enfant de 6 ans
01:02:35passe 7 heures par jour
01:02:36devant TikTok
01:02:36on peut en effet
01:02:37se poser la question
01:02:37de est-ce que sa sécurité
01:02:39et sa moralité
01:02:40sont réellement protégées
01:02:41par les parents
01:02:42donc voilà
01:02:42c'est à débattre
01:02:44et encore une fois
01:02:45dans le rapport
01:02:46si vous le lisez
01:02:47je préconise
01:02:48de réfléchir à cette sanction
01:02:49dans les 3 ans
01:02:50c'est à dire
01:02:52quand on aura vraiment
01:02:52opéré une sensibilisation
01:02:54massive
01:02:54de l'ensemble
01:02:55de la population
01:02:55et qu'on aura pu dire
01:02:56je ne savais pas
01:02:58ça fait partie
01:03:00des propositions
01:03:01sur lesquelles
01:03:01j'ai une petite nuance
01:03:02que je ne dirais pas
01:03:03je m'en doutais
01:03:05c'est bon pour vous ?
01:03:11Philippine Farge
01:03:14pour le journal du dimanche
01:03:16j'ai deux questions
01:03:17vous avez parlé
01:03:17de la Chine
01:03:18déjà c'est intéressant
01:03:20comment est-ce que
01:03:21vous voyez le fait
01:03:22que la Chine
01:03:23utilise une autre plateforme
01:03:24beaucoup plus réglementée
01:03:26est-ce que
01:03:27ça peut être
01:03:27une source d'inspiration
01:03:29sur certains aspects
01:03:29bien sûr
01:03:30comment vous analysez
01:03:32ce modèle-là
01:03:33et autre question
01:03:35vous parliez
01:03:35de fraction identitaire
01:03:37TikTok est aussi un lieu
01:03:39pour la radicalisation
01:03:41des mineurs
01:03:43l'apologie du terrorisme
01:03:44on l'avait avec un influenceur
01:03:45algérien
01:03:47qui est détenu
01:03:47en rétention administrative
01:03:49est-ce qu'il y a un travail
01:03:50à faire
01:03:51avec le
01:03:52avec les renseignements
01:03:53est-ce que ça a été fait
01:03:55comment voir aussi cela
01:03:57alors sur la question de la Chine
01:04:00oui je ne dirais pas
01:04:01de manière générale
01:04:01que c'est un modèle
01:04:02en tout cas peut-être
01:04:03d'autres députés
01:04:04peuvent le dire
01:04:05mais pas moi
01:04:05en revanche
01:04:06en effet ça pose quand même
01:04:07question de voir
01:04:08de quelle façon
01:04:09ils ont conçu
01:04:11leur propre création
01:04:13finalement pour leur jeunesse
01:04:14à eux
01:04:15puisqu'en effet
01:04:15vous le savez
01:04:16il y a ce couvre-feu
01:04:17qui existe
01:04:17et puis surtout
01:04:18il y a un tri
01:04:18dans les contenus
01:04:19qui sont donnés à voir
01:04:20aux enfants
01:04:21et avec du contenu
01:04:23notamment éducatif
01:04:24qui n'existe
01:04:24en tout cas
01:04:25qui n'est pas poussé
01:04:25par l'algorithme
01:04:26chez nous
01:04:27donc ça pose
01:04:28enfin ouais
01:04:29ça pose une question
01:04:29un peu plus large
01:04:30c'est-à-dire
01:04:30si eux font ça
01:04:31pour leur jeunesse
01:04:32et qu'ils nous balancent
01:04:33entre guillemets
01:04:33une plateforme
01:04:36et un réseau social
01:04:38qui lui
01:04:38est complètement débridé
01:04:40on peut en effet
01:04:41se poser la question
01:04:42c'est d'ailleurs
01:04:42la question que s'était posée
01:04:43le rapport
01:04:44de la commission
01:04:45d'enquête du Sénat
01:04:46qui portait plutôt
01:04:46sur la question
01:04:47ingérence étrangère
01:04:48s'agissant de TikTok
01:04:50donc oui
01:04:50ça pose question
01:04:51est-ce qu'il faudrait
01:04:52le copier
01:04:53à bien des égards
01:04:55sans doute
01:04:55le couvre-feu
01:04:56c'est une manière aussi
01:04:57de répondre
01:04:58à la question
01:04:59par ailleurs
01:05:00sur le tri
01:05:01dans le contenu
01:05:02ben là
01:05:02ça pose la question
01:05:02de l'algorithme
01:05:03de la force
01:05:04de l'algorithme
01:05:04ça c'est un sujet
01:05:05qui en effet
01:05:06qu'on ne pourra pas
01:05:07traiter à l'échelon national
01:05:08mais qu'en revanche
01:05:09il faut continuer à pousser
01:05:09comme je le disais
01:05:10et comme je le dis
01:05:11dans le rapport
01:05:11à l'échelle
01:05:12de l'Union européenne
01:05:13et s'agissant
01:05:14de la fragmentation
01:05:15identitaire
01:05:16bien sûr
01:05:17ça a été mis en évidence
01:05:18par beaucoup de nos auditions
01:05:19notamment Hugo Michon
01:05:20pour ne citer que lui
01:05:22mais la table ronde
01:05:23était composée
01:05:23de plusieurs chercheurs
01:05:24qui montraient en effet
01:05:26que finalement
01:05:27c'est des contenus
01:05:28qui d'une part
01:05:29passent
01:05:30entre les mailles
01:05:31du filet
01:05:31puisque souvent
01:05:32et notamment
01:05:33les contenus terroristes
01:05:34j'ai le souvenir
01:05:34qui nous expliquait
01:05:35qu'il suffisait
01:05:36de mettre un filtre
01:05:36un peu rose fluo
01:05:37et de mettre
01:05:38une petite musique
01:05:38entraînante
01:05:39et en fait
01:05:39on avait des vidéos
01:05:40terroristes
01:05:41vraiment en temps réel
01:05:41donc en effet
01:05:43ça pose la question
01:05:44de la modération
01:05:44qui n'est pas satisfaisante
01:05:46et puis comme je vous disais
01:05:47d'un algorithme
01:05:48qui pousse
01:05:48le trash
01:05:49qui pousse
01:05:50le radical
01:05:50qui pousse
01:05:51à la violence
01:05:53y compris
01:05:53la violence verbale
01:05:54et physique
01:05:54et donc oui
01:05:55bien sûr
01:05:56c'est un sujet fondamental
01:05:58et est-ce qu'il faut renforcer
01:05:59alors on a déjà
01:06:00aujourd'hui
01:06:01les moyens
01:06:01de pouvoir contrôler
01:06:03de pouvoir surveiller
01:06:04les réseaux sociaux
01:06:04et finalement
01:06:05faire des signalements
01:06:06le rapport préconise
01:06:07évidemment
01:06:07de renforcer
01:06:08ces moyens
01:06:08de créer une cellule
01:06:09qui serait un peu
01:06:10une cellule interministérielle
01:06:11et qui viendrait
01:06:12finalement faire une veille
01:06:13des réseaux sociaux
01:06:14plus satisfaisantes
01:06:15qu'elle ne l'est aujourd'hui
01:06:16puisqu'on a été alerté
01:06:16pendant les auditions
01:06:17et qui permettrait
01:06:18j'ai dit à moyen constant
01:06:20parce qu'on est dans un cadre
01:06:21budgétaire contraint
01:06:23mais on doit pouvoir
01:06:24en effet être plus efficace
01:06:25sur un dispositif
01:06:27de veille
01:06:27des réseaux sociaux
01:06:28pour pouvoir en effet
01:06:29bloquer
01:06:29des contenus extrêmes
01:06:31des contenus terroristes
01:06:32qui en effet
01:06:33pullulent
01:06:33et continuent à prospérer
01:06:34malgré tout
01:06:35sur les réseaux sociaux
01:06:35aujourd'hui
01:06:36et sur TikTok en particulier
01:06:37merci
01:06:39si le sujet des radicalités
01:06:41vous intéresse
01:06:41je vous renvoie vraiment
01:06:43à l'une des dernières auditions
01:06:45qu'on a menées
01:06:46donc dans le rapport
01:06:47qui est l'audition
01:06:49du 24 juin dernier
01:06:49parce que
01:06:51on avait
01:06:51comme vous le dites
01:06:53Hugo Micheron
01:06:53qui présentait
01:06:54ses enquêtes
01:06:57ses conclusions
01:06:57en tout cas
01:06:58sur la question
01:06:58de présence de contenu
01:06:59djihadiste
01:07:00comme l'on le disait
01:07:01puis on avait aussi
01:07:02d'autres chercheurs
01:07:03qui faisaient quelque chose
01:07:04de vraiment très intéressant
01:07:05c'est-à-dire le lien
01:07:06entre ce qu'on évoquait
01:07:07tout à l'heure
01:07:07les idéologies masculinistes
01:07:09les idéologies antisémites
01:07:10et les influenceurs
01:07:12d'extrême droite radicale
01:07:13et en fait
01:07:14il nous expliquait
01:07:15que les contenus
01:07:15d'extrême droite radicale
01:07:17allaient parfois
01:07:18mettre en valeur
01:07:19une idéologie masculiniste
01:07:21une idéologie terroriste
01:07:22c'est comme ça
01:07:23qu'on a eu
01:07:23des féminicides
01:07:24en France aussi
01:07:25c'est des actes terroristes
01:07:27qui le parti
01:07:27s'est saisi aussi
01:07:28de cela
01:07:29et donc
01:07:30il y a vraiment
01:07:31une action à faire
01:07:33c'est pour ça
01:07:33que je pense
01:07:33que le masculinisme
01:07:34est l'une des clés
01:07:35alors évidemment
01:07:36qu'il y a des enjeux
01:07:36de liberté d'expression
01:07:37mais vous savez bien
01:07:38la liberté d'expression
01:07:39elle n'est pas absolue
01:07:39et on a vu aussi
01:07:41c'est pour ça que je pense
01:07:42qu'il faut renforcer
01:07:42la qualification pénale
01:07:43mais comment
01:07:44l'impunité
01:07:45ou le sentiment d'impunité
01:07:46de gens comme Alex Hitchens
01:07:48pouvait derrière
01:07:50susciter
01:07:50une banalisation
01:07:52et une diffusion
01:07:53de ces discours problématiques
01:07:54et avec parfois
01:07:56l'or évoquait
01:07:56les filtres roses
01:07:57mais parfois aussi
01:07:58le prisme du jeu
01:07:58on a eu un témoignage
01:08:00extrêmement glaçant
01:08:01par exemple
01:08:02d'Anders Breivik
01:08:02ou je ne sais plus
01:08:03de quel terroriste
01:08:03qui était reconstitué
01:08:05dans des jeux vidéo
01:08:05enfin voilà
01:08:06des gens se filment
01:08:08en train de jouer à ça
01:08:09et donc c'est de l'apologie
01:08:10cachée du terrorisme
01:08:10mais en fait
01:08:12ne peuvent le savoir
01:08:12que ceux qui
01:08:13on les code
01:08:14et quand un modérateur
01:08:16TikTok au Portugal
01:08:17va le regarder
01:08:18lui il ne va pas être
01:08:18en capacité de le décider
01:08:19et donc ces contenus
01:08:20vont rester en ligne
01:08:21après
01:08:22sur les questions terroristes
01:08:24en général
01:08:24quand il y a un signalement
01:08:25de la France
01:08:26par les autorités
01:08:28police ou justice
01:08:29alors les contenus
01:08:30sont rapidement retirés
01:08:31ça c'est quand même
01:08:32l'un des effets positifs
01:08:33qu'il faut mentionner
01:08:34mais le problème
01:08:34c'est que les contenus
01:08:35existent
01:08:35et ne sont pas modérés
01:08:36a priori
01:08:36et par ailleurs
01:08:37on n'a pas assez
01:08:38de moyens d'effectifs
01:08:39derrière
01:08:40pour modérer complètement
01:08:41une question ?
01:08:46Merci beaucoup
01:08:46Merci à toutes et tous
01:08:49pour votre présence
Écris le tout premier commentaire