- il y a 3 mois
Avec Arthur Delaporte
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
---
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##SUD_RADIO_MEDIA-2025-06-17##
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
---
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##SUD_RADIO_MEDIA-2025-06-17##
Catégorie
🗞
NewsTranscription
00:00Le 10h midi, Sud Radio Média, Valérie Expert, Gilles Ganzemann.
00:05Bonjour à toutes et à tous, bonjour Gilles.
00:07Bonjour Valérie, on va scroller aujourd'hui.
00:10On va scroller avec Arthur Delaporte, bonjour.
00:12Vous êtes député PS du Calvados et vous êtes président de la commission d'enquête
00:16sur les effets psychologiques de TikTok sur les mineurs.
00:20Alors vous avez été à la une de l'actualité avec quelques extraits de TikTokers,
00:25de personnalité, des réseaux qui se sont comportés de façon un petit peu inhabituelle
00:30on va dire lors d'auditions.
00:32Lors d'auditions, mais ces auditions sont beaucoup plus importantes
00:35et beaucoup plus sérieuses qu'on a pu le dire.
00:38Vous avez auditionné plus d'une centaine de personnes.
00:41On a vu que ces quelques images de TikTokers, en particulier l'un d'entre eux
00:45qui a quitté de façon assez brutale et mal élevée, on peut le dire comme ça, l'audition.
00:53Mais on va revenir avec vous sur cette commission d'enquête.
00:57Peut-être nous expliquer.
00:57Ce qui continue, tout à l'heure vous recevez des gens de chez Meta,
01:00c'est-à-dire Facebook, Instagram et YouTube.
01:03Et avant jeudi, vous avez reçu des gens de TikTok qui étaient, mais alors,
01:09d'une, comment dire, en fait ils étaient très légers et superficiels.
01:13Dire une forme de placidité.
01:15Voilà, c'est ça.
01:15Moi j'étais surpris en fait, parce que pourquoi est-ce qu'on parle de TikTok aujourd'hui ?
01:20Pourquoi est-ce qu'on fait cette commission ?
01:22C'est parce qu'il y a des jeunes qui se sont suicidés,
01:24parce qu'ils étaient exposés à des algorithmes qui les ont renforcés, on va dire, dans leur mal-être,
01:31et qui leur ont mis pour certains les clés pour comment se pendre, comment se scarifier, etc.
01:35Donc ça, aujourd'hui, il y a un sujet TikTok qu'on a essayé de poser à l'Assemblée nationale
01:40de la façon la plus sérieuse possible,
01:41mais aussi en entendant tous les acteurs du système.
01:45Des victimes, évidemment, aux psychologues, aux représentants de TikTok, on y reviendra sans doute,
01:51mais aussi, voilà, vous l'évoquiez, aux influenceurs.
01:53Et pour le coup, on n'a pas fait que les influenceurs dits problématiques qui ont fait un peu le buzz.
01:58On a auditionné une dizaine d'influenceurs, c'est-à-dire 10% quasiment du nombre total de personnes qu'on a auditionnées,
02:04et ça a fait beaucoup moins de bruit que ceux de la semaine dernière.
02:07Mais oui, mais vu le nombre d'abonnés qu'ils ont, c'est un peu légo.
02:10Hugo Descript, il avait aussi plusieurs millions d'abonnés,
02:14et pour autant, on n'a pas parlé de l'audition d'Hugo Descript.
02:16Pourquoi ? Parce qu'il est venu dans une perspective de réflexion collective,
02:20et il n'a pas cherché non plus, lui, à faire le buzz là-dessus.
02:23Quel est l'objectif de la commission ?
02:26L'objectif de cette commission, c'est d'une part de faire un diagnostic,
02:30parce qu'aujourd'hui, on a une application, et on l'évoquait à l'instant,
02:34qui se croit au-dessus des lois, ou qui pense qu'elle n'a pas vraiment de compte à rendre à la société,
02:38parce qu'elle se dit simplement productrice d'une solution,
02:41mais que les contenus qui sont problématiques, ce n'est pas que de sa faute.
02:44Alors qu'on sait très bien qu'il y a une logique derrière tout ça,
02:47qui est la logique de l'algorithme, et que cet algorithme,
02:49c'est-à-dire la manière dont sont présentés les contenus aux utilisateurs,
02:53il est pensé pour nous garder le plus longtemps sur la plateforme,
02:55et comment est-ce qu'on fait ça ? Avec des contenus chocs.
02:57Donc, le modèle économique de TikTok, il est basé là-dessus.
03:01Il est basé sur quelque chose qui, en soi, n'est pas sain.
03:04Plus on choque les gens, plus ils restent, plus on peut leur balancer de la pub.
03:07Bon, une fois qu'on a dit ça, on se dit quand même qu'il y a un problème.
03:10Donc, on a essayé de faire un peu un état des lieux avec les différents experts de cette plateforme,
03:15avec les victimes, je le disais, et maintenant, l'objectif, c'est de proposer aussi des solutions,
03:20de réfléchir à la manière de mieux réguler les réseaux sociaux.
03:24Et donc, voilà ce qu'on a essayé de faire, je le dis de la façon la plus sérieuse possible,
03:29en essayant d'auditionner, disons, toutes les paroles possibles,
03:34pour ne pas qu'on nous dise, eh bien, vous avez fait une commission TikTok sur les tiktokers.
03:37Et en tant que député du Calvados, vous avez fait un TikTok sur le camembert, le cidre, les pommes, non ?
03:43Non.
03:43Mais ça marchera ? Il faut ?
03:45Vous savez que quand je fais des contenus liés à la cantine de l'Assemblée,
03:49c'est ce qui a le mieux fonctionné sur mon TikTok.
03:51Vous faites des vidéos sur...
03:53Pourquoi il n'est pas bien la cantine de l'Assemblée ?
03:54Non, mais je n'ai pas fait 50 000 vidéos TikTok.
03:56J'en ai peut-être fait une cinquantaine au total depuis deux ans.
03:58et celles qui ont le mieux marché, c'est celles qui sont liées à la bouffe,
04:00ce qui montre bien que quand on parle de politique, ça n'intéresse pas.
04:03Quand j'explique comment on mange un yaourt à la cantine, là, pour le coup, ça intéresse.
04:07Eh bien, on va passer aux zappings.
04:11Sud Radio Média, l'instant zapping.
04:14C'est Valérie qui se mouche.
04:16Voilà.
04:16Voilà, parce qu'elle est enrhumée.
04:18On vous dit tout, nos auditeurs.
04:20L'image qui a fait le tour des médias et des radios...
04:23Je me reprends, du coup.
04:25L'image qui a fait le tour des médias, des radios et des réseaux sociaux
04:28est celle du siège de la télévision iranienne Irib,
04:31bombardée alors que la journaliste à l'antenne fustigeait Israël.
04:35Ce sont des images de guerre, évidemment.
04:37La présentatrice du journal de la télévision d'État iranienne
04:41est en train de lire la dernière déclaration du Conseil supérieur de la Sécurité nationale.
04:50Qu'entretentit une immense explosion.
04:52Le siège reste vide.
04:55La fumée envahit le studio.
05:00L'armée israélienne vient de frapper le siège de la télévision publique dans le nord de Téhéran.
05:06Il est en partie détruit.
05:09Devant son téléviseur, cette téléspectatrice n'en croit pas ses yeux.
05:13Peu de temps après, la télévision publique est parvenue à émettre d'un autre endroit à Téhéran
05:19avec ce reporter sur le terrain devant le bâtiment bombardé.
05:23Il n'y a pas que le sexe, c'est aussi la guerre.
05:26Est-ce que la guerre doit être accessible aux mineurs sur les réseaux sociaux, au TikTok ?
05:30On voit un peu tout.
05:31Il y a les pour, les contre, il y a évidemment beaucoup de fakes.
05:35Et donc dans tout ce brouhaha sur les réseaux sociaux concernant cette guerre,
05:40comment dire à son enfant ou à la personne mineure
05:44ce qu'il se passe réellement là-bas, même si c'est assez compliqué ?
05:48Déjà, faire en sorte que les moins de 13 ans n'aient pas accès aux réseaux sociaux.
05:53Ça, normalement, c'est la règle même de TikTok.
05:56On n'a pas le droit de se créer un compte avant 13 ans,
05:57ce qui permet, si on parle d'images choquantes de guerre,
06:02de pouvoir les accompagner là-dedans.
06:04Et puis, si on a entre 13 et 15 ans,
06:07normalement, on a un compte qui est filtré.
06:09Donc on n'est pas forcément exposé non plus, théoriquement, à des images violentes.
06:13Donc il faut s'assurer aussi...
06:14Ça, c'est la théorie dans la réalité.
06:16C'est-à-dire que la plupart des jeunes, en fait, frôlent sur l'oral.
06:19C'est ça. C'est là où ça va devenir très compliqué.
06:22C'est ce que j'ai essayé d'expliquer à TikTok.
06:23Ils nous disent, oui, chaque année, on éjecte 600 000 jeunes
06:26en montrant qu'ils ont menti sur leur âge.
06:29Je leur dis, oui, mais dans vos chiffres,
06:30vous n'avez que 5% de mineurs sur votre plateforme.
06:34Alors qu'en fait, si on fait un simple sondage,
06:37on voit que c'est à peu près 50% d'une classe d'âge à 11 ou 12 ans qu'à TikTok.
06:41Donc ça veut dire que vous devriez avoir au moins 3 fois plus de jeunes.
06:44Donc il y a 2 tiers des jeunes qui sont présents sur TikTok qui ont menti sur leur âge.
06:47Donc ils se retrouvent exposés à des contenus de majeurs.
06:50Et donc à des contenus qui ne sont pas forcément adaptés.
06:52Et vous doutez-vous dans les écoles, les images d'Israël ?
06:56C'est sûr que ça tourne.
06:58Ça tourne et quand moi je vais dans les classes,
07:01j'essaie justement de parler des contenus qui peuvent avoir choqué.
07:05Alors ce n'est pas tant les images de guerre qu'on me dit.
07:07C'est plus des images éventuellement de sexualité parfois.
07:11C'est des images d'humiliation aussi qui peuvent avoir choqué les jeunes.
07:18La guerre, ce n'est pas forcément ce à quoi on va être le plus exposé si on ne s'y intéresse pas.
07:22Il faut savoir que globalement, l'algorithme va nous proposer ce qu'on aime.
07:27Et donc si on ne s'intéresse pas à l'actualité internationale,
07:31on ne va pas forcément y être exposé.
07:34Sur TikTok, j'ai fait un zapping pour vous.
07:36Sur TikTok ou les réseaux sociaux, on donne des conseils pour tricher au bac.
07:40Vous savez qu'hier c'était le bac, il y avait plein de vidéos pour tricher.
07:45Alors totalement dépassé en TikTok puisqu'il y a aussi l'IA.
07:48Vous pouvez demander des conseils pour tricher au bac.
07:51Mais ils ne sont pas les seuls.
07:52Écoutez ce sujet où dans le futur, vos copies du bac pourraient être corrigées par l'IA.
07:59BFM a demandé à un correcteur de tester l'IA pour corriger toutes ces copies.
08:03On va voir ce qui est le mieux, l'humain ou l'IA pour corriger les copies.
08:07D'un moment, il les corrige à une vitesse de dingue.
08:09Cette même copie de brevette français a été corrigée d'un côté par un professeur
08:14et de l'autre par l'intelligence artificielle.
08:16La notation est proche, mais chat GPT est plus sévère.
08:19Un oubli du trait d'union qui est sanctionné par de 0,5 points, ce qui serait sévère.
08:25Son constat, l'intelligence artificielle peut être un très bon outil d'assistance
08:29pour faire gagner du temps au correcteur, mais il ne peut pas le remplacer.
08:32C'est vraiment l'intérêt du correcteur humain, c'est d'apprécier sa juste valeur d'un élève
08:36et la bonne utilisation du bon mot, le petit éclair de génie.
08:40Mais il y a fort à parier que les outils se perfectionnent.
08:42Il y a un marché qui se chiffre potentiellement à des dizaines, voire des centaines de millions d'euros.
08:48Donc il y a plusieurs entreprises qui ont d'ailleurs levé des financements importants.
08:51Mais pour l'instant, pas question pour l'éducation nationale d'y recourir.
08:54Eh oui, pour l'instant, la ministre de l'éducation nationale a dit que les copies seraient corrigées
08:59par des hommes et pas par l'IRM.
09:01Oui, enfin, ils ne sont pas dans le bureau des profs.
09:05Non, mais oui, c'est vrai.
09:07Vous êtes soupçonneuse.
09:09Non, je ne suis pas soupçonneuse, j'en ai parlé avec un prof qui m'a dit, je crois que je vais essayer.
09:12Une copie écrite, c'est quand même un peu plus compliqué.
09:16Mais c'est vrai qu'il va y avoir de plus en plus d'appui.
09:19Vous pouvez la numériser, vous pouvez la photographier, l'envoyer.
09:22Rédiger les appréciations, vous voyez, à la fin, ça vous fait une synthèse.
09:27Bien sûr.
09:27Ça, il y a de plus en plus de profs qui ont recours, mais moins vite que les élèves quand même.
09:31Ils s'adaptent plus rapidement.
09:32Vous êtes douée dans ça, vous ?
09:33Non, mais ça m'a intéressé.
09:35Le sujet m'a intéressé.
09:36J'ai posé la question à un enseignant.
09:38Et il veut le faire.
09:39Et il m'a dit qu'il allait essayer.
09:40Comment il s'appelle ?
09:41C'est la news média du moment.
09:44C'était partout hier.
09:45Anne-Sophie Lapix, déchue du vin paire par Daphine Ernot.
09:50Kit France 2 rejoint le groupe M6 RTL pour être sur la radio, mais également sur le groupe M6.
09:56Elle va présenter, entre autres, un magazine politique le dimanche.
10:00Alors, je vous pose une question et une question se pose.
10:02Valérie, va-t-elle continuer à pousser la chansonnette ?
10:06Il en faut peu pour être heureux, vraiment très peu pour être heureux.
10:10Il faut se satisfaire du nécessaire.
10:14C'est bien sûr la chanson de l'ours Balou dans le livre de la jungle.
10:18Quand on fait la java, le samedi à Broadway, ça swing comme un meudon.
10:23Je prends garde sous mon sein la grenade.
10:29Je me voyais déjà en haut de l'affiche, en dix fois plus gros que n'importe qui.
10:33C'est votre son musique, ça ?
10:35Non, ce n'est pas mon son musique.
10:36D'accord.
10:37Non, c'est un clin d'œil à Sophie Lapix, au moment de son départ.
10:40On m'avait dit, mais là, en train de chanter, je n'avais pas pu l'occasion, parce qu'il y avait d'autres actualités.
10:44J'ai changé d'avis rapidement.
10:45Non, non, c'est un peu long, si je peux me permettre.
10:48Je pense que vous n'aimez pas la belle chanson.
10:50Alors, elle n'est pas la seule à chanter.
10:52Ça, c'est mon son musical.
10:53Là aussi, c'est un petit bijou.
10:55Alors, ça avait lieu le 27 mai.
10:56Non, je l'avais mis de côté, parce que c'était un politique.
10:59J'avais dans l'idée, on avait dans l'idée de vous recevoir avec Valérie.
11:02Alors, à l'occasion du printemps des seniors, au parc Borély de Marseille,
11:08Benoît Payan, vous savez, c'est le maire de Marseille.
11:11Il a fait un petit récit.
11:15Allons-y.
11:15On est obligé d'écouter, ça ?
11:32Benoît Payan qui chante Claude François.
11:35Je ne sais pas, on peut peut-être demander une chanson à Arthur.
11:37On avait eu aussi le ministre de la Justice, Gérald Darmanin,
11:42qui avait chanté.
11:43Donc, les politiques chantent ou chantaient.
11:45En fait, je vais vous dire une chose.
11:47Les politiques sont des citoyens, des Français, comme les autres.
11:51Et il y en a qui chantent bien.
11:52Une chanson, Arthur.
11:53Non, non, moi je chante mal.
11:55Et je considère que ça fait partie aussi de mon petit jardin secret d'accord.
12:01Vous voyez, Stéphane, notre auditeur, qui sait tout, me dit
12:05« Non, en deux minutes, ça fait un scan de la correction du prof
12:07et on compare le scan et la copie. »
12:09Et hop, hop, hop.
12:11Donc, ça va très vite et c'est possible.
12:12Allez, on se retrouve dans un instant avec vous, Arthur Delaporte,
12:16pour parler de cette commission d'enquête sur les effets psychologiques de TikTok sur les mineurs.
12:21A tout de suite.
12:24Le 10h midi, Sud Radio Média.
12:27Valérie Expert, Gilles Gansman.
12:30Sud Radio Média, l'invité du jour.
12:33L'invité du jour, c'est Arthur Delaporte.
12:35Vous êtes député PS du Calvados.
12:37Vous êtes président de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs.
12:42Le sujet est important et je voulais qu'on aille ce matin au-delà de l'anecdotique.
12:47Alors, c'est vrai que ça a mis en lumière cette commission d'enquête avec certains influenceurs
12:54que vous avez interrogés et qui ont eu un comportement très peu adapté à ces auditions.
13:00Néanmoins, c'est un sujet très important.
13:02Comment vous, vous êtes emparé de ce sujet ?
13:05Vous êtes jeune, vous avez 33 ans.
13:08Quand on est président de cette commission d'enquête, qu'est-ce qui vous a animé dans ce choix ?
13:14Moi, j'ai candidaté pour la présidence de cette commission d'enquête
13:16qui avait été, je le rappelle, décidée, portée par une députée macroniste qui s'appelle Laura Miller
13:21et qui est donc rapporteure de cette commission d'enquête.
13:26Le rapport, c'est elle qui va rédiger en gros la synthèse de ces auditions
13:29et les pistes de mesures législatives.
13:33Et en fait, on a besoin de quelqu'un pour présider les travaux.
13:35Ça veut dire organiser les auditions, mais aussi peut-être suggérer des noms, etc.
13:40Donc, c'est moi qui fais les convocations.
13:42C'est le rôle du président.
13:43Mais vous avez candidaté pour le faire.
13:44Ça veut dire que c'est un sujet qui vous intéressait ?
13:46J'ai candidaté parce que je suis l'auteur de la loi sur l'influence commerciale,
13:48la loi du 9 juin 2023.
13:50Et donc, j'ai fait partie, enfin, avec Stéphane Vogetta,
13:53on est un peu les deux députés qui se sont spécialisés, entre guillemets,
13:56sur les influenceurs et donc plus largement les réseaux sociaux.
14:00Et c'est vrai que...
14:01Quand vous parlez de l'influence commerciale,
14:02c'est quand ils vendent des objets ou des produits.
14:05Voilà.
14:05C'est tous les placements de produits, etc.
14:07Tous les placements de produits pour que nos auditeurs comprennent.
14:09Et certains ont été très condamnés, très fortement.
14:12Voilà.
14:13Et aujourd'hui, on voit qu'il y a de plus en plus de mises à la mente d'influenceurs.
14:17On a une brigade de l'influence commerciale qui s'est créée
14:19à la direction de la concurrence, de la consommation, de la répression, des fraudes.
14:21On avance.
14:22On a fait comprendre qu'il y avait des règles.
14:24Il fallait mettre communication commerciale quand on était rémunéré.
14:26Bon.
14:26Ça, c'est les effets de la loi influenceur.
14:28Mais ce que je veux dire, au-delà de la loi influenceur,
14:31on a développé un réseau de connaissances aussi,
14:33dans le monde du numérique, dans le monde de l'influence.
14:35Et moi, j'ai remarqué que beaucoup des influenceurs problématiques,
14:39les tantis, par exemple,
14:40qui faisaient des placements de produits à l'emporte de pièces, etc.
14:43Les tantis sont une famille d'influenceurs,
14:45enfin, un couple d'influenceurs qui...
14:47En fait, c'était des portés,
14:49ou Adèle Laurent qui avait fait des pubs pour de la crypto,
14:52des gens qui ont perdu beaucoup d'argent à cause d'Adèle Laurent.
14:55Ils se sont reportés, notamment d'Instagram, vers TikTok.
15:00Et leurs revenus se sont transformés.
15:02Alors, il y en a comme Adèle Laurent qui gagne beaucoup d'argent maintenant grâce au porno.
15:05Il y en a d'autres qui gagnent beaucoup d'argent grâce au live TikTok.
15:09C'est le cas notamment de Julien Tanty qui gagne plusieurs centaines de milliers d'euros,
15:14voire millions d'euros par an grâce à l'argent que vont lui donner les gens sur des live TikTok.
15:19Et comment ils donnent de l'argent ?
15:20C'est juste qu'on comprenne le fonctionnement.
15:22Pour ceux qui ne connaissent pas TikTok,
15:23vous avez une partie, on va dire, flux de vidéos.
15:27Vous pouvez regarder des vidéos courtes ou plus ou moins courtes
15:29et vous les faites défiler comme ça.
15:31Elles défilent toutes seules.
15:32Et puis, à côté de ça, vous avez une partie live.
15:34Vous pouvez passer en live et vous pouvez avoir ce qu'on appelle des matchs.
15:37Donc, vous allez être contre une autre personne en live.
15:40Et le but pour gagner ce match, c'est d'avoir le plus de points possibles.
15:45Et ces points, c'est de l'argent.
15:47Et donc, en fait, les gens vont acheter des roses
15:50ou des cadeaux qui valent parfois plusieurs centaines d'euros
15:52qui vont donner à leur influenceur préféré pour qu'ils gagnent le match.
15:56Et donc, c'est un peu comme si vous étiez au casino,
15:58sauf que votre seule espérance de gain,
15:59c'est que l'influenceur vous remercie en criant votre nom.
16:03Mais ça crée des communautés.
16:04C'est vertigineux.
16:04C'est totalement vertigineux.
16:06Et non, c'est autorisé.
16:07Où est le problème ?
16:08C'est mon argent, si je veux lui...
16:10Je joue à l'avocat du diable.
16:12Moi, si je veux donner 100 euros à unis attentif, où est le problème ?
16:16Vous pouvez très bien donner de l'argent.
16:17Sauf que moi, ce qui me pose problème, là, en l'occurrence,
16:19c'est qu'il y a des jeunes qui vont voir ça.
16:21C'est que c'est extrêmement addictif.
16:23Et quand on va dans des classes de collège,
16:25il y a des jeunes qui ont déjà donné de l'argent.
16:27Comment ils le donnent ?
16:29Parce qu'ils n'ont pas de carte bleue.
16:30Ils prennent le compte Apple Pay de leurs parents.
16:32Ils achètent des pièces sur TikTok grâce à ça.
16:35Et on a le cas de parents qui ont écrit à TikTok en disant
16:37« Je vous en prie, bannissez mon enfant,
16:39parce qu'il est tellement fan de tel influenceur
16:42qu'il va passer son temps à lui donner de l'argent. »
16:43Et ça m'a déjà coûté 1 500, 2 000 euros.
16:44Moi, si je vole le compte de ma mère d'Apple Pay,
16:48c'est qu'il y a un souci, quand même.
16:49Évidemment qu'il y a un souci.
16:51Mais c'est à la fois de la faute des parents
16:52qui découvrent ça peut-être un peu tard
16:54et qui auraient pu mettre en place des mécanismes de contrôle parental.
16:57Mais en même temps, c'est aussi TikTok
16:59qui a créé un système où des mineurs,
17:00même s'ils n'ont pas triché sur leur âge,
17:03peuvent voir ce type de système.
17:04Et puis par ailleurs, c'est quand même un peu particulier comme modèle.
17:07Donc moi, j'ai essayé de mettre en lumière
17:10notamment ces sujets-là dans la commission d'enquête.
17:13On en a parlé la semaine dernière.
17:15Alors c'est vrai qu'on a moins parlé du phénomène des lives
17:17que de l'exposition des enfants.
17:20Mais on en a quand même parlé, si vous avez un peu suivi la commission.
17:23Voilà, moi, je pense qu'on ne pouvait pas
17:26passer à côté de ce phénomène des lives
17:29où il y a des agences spécialisées dans les lives
17:31où TikTok prélève par ailleurs 50% de commission
17:33sur les cadeaux qui sont faits.
17:36Et on peut regarder, il y a des sites spéciaux,
17:38pour voir combien gagnent les plus grands liveurs.
17:41Et c'est en effet plusieurs milliers d'euros par semaine.
17:44Mais qu'est-ce qu'on fait une fois qu'on a fait cet état des lieux ?
17:47Qu'est-ce qu'on fait ?
17:49Par exemple, moi, je suis pour une proposition simple.
17:51C'est qu'au-delà de la manière dont on peut mieux réguler
17:54sur les lives, par exemple,
17:55les mineurs ne puissent plus voir de lives.
17:57Tout simplement.
17:58Et qu'est-ce que vous répond TikTok,
17:59puisque vous les avez éditionnés ?
18:00En fait, TikTok, eux, ils considèrent
18:02que les lives, c'est anodin, etc.
18:04Mais en fait, pour moi, il y a un sujet live,
18:07en soi, qui fait qu'on doit pouvoir empêcher.
18:10Ils nous disent que les mineurs ne peuvent pas monter dans les lives.
18:12Donc, ils ne peuvent pas eux-mêmes devenir des liveurs.
18:14Mais bon, s'ils se disent avoir menti sur son âge,
18:16il y a des mineurs de 17 ans qui live,
18:18qui gagnent de l'argent, etc.
18:19Vous avez pensé que TikTok s'en souciait de ça ?
18:22Pour moi, il y a une vraie légèreté chez TikTok.
18:23Et surtout, le vrai sujet, c'est comment on arrive à contrôler l'âge ?
18:27Absolument.
18:27Aujourd'hui, en fait, sur TikTok...
18:28C'est la même chose sur les sites pornos et autres.
18:30Il n'y a pas de contrôle a priori.
18:32Il y a un contrôle que si l'algorithme suspecte que vous êtes mineur,
18:35là, on vous demande un peu de justifier notre identité, un selfie, etc.
18:38Donc, concrètement, comment ça peut se faire, le contrôle de l'âge ?
18:41Comment ça peut se faire ?
18:42Quand vous vous inscrivez sur la plateforme,
18:43le même mécanisme, déjà, que celui que TikTok a mis en place
18:47pour vérifier quand ils ont des soupçons,
18:48vous l'avez au début.
18:50Vous faites un selfie, vous montrez votre pièce d'identité.
18:52Il y a quelque chose qui en train de se...
18:53Ce n'est pas à vous que je vais dire,
18:54on peut substituer une pièce d'identité,
18:56prendre celle de ses parents...
18:57Mais le selfie, par exemple,
18:59globalement, si vous n'êtes pas à côté d'un adulte,
19:03vous ne pouvez pas le faire.
19:04Donc, vous allez déjà réduire un peu les risques.
19:06Mais surtout, ce qu'il faut mettre en place,
19:07au-delà de ce qui existe déjà,
19:09et ce qui ne coûterait pas grand-chose à TikTok à faire,
19:11enfin, si ça leur coûterait de l'argent, justement,
19:13ça ferait qu'il y ait moins de mineurs,
19:14qu'ils seraient ciblables, etc.
19:16Ils ont un intérêt économique à ce que des mineurs soient vus comme majeurs.
19:18Vous disiez, 50% des...
19:20Voilà.
19:20Alors, moi, j'ai...
19:22Juste pour finir une petite seconde, sur le contrôle de l'âge,
19:24on va mettre en place, en France,
19:26on va expérimenter, notamment à l'échelle européenne,
19:27des dispositifs de portefeuille numérique.
19:31On va pouvoir, ça s'appelle les mini-wallets,
19:33ou les mini-wallets,
19:34pouvoir contrôler, finalement, l'identité des gens,
19:37donc, de façon anonyme, etc.
19:39Et ça...
19:40Ça veut dire que, qu'est-ce qu'on aura ?
19:41D'ici quelques mois, on aurait des solutions techniques
19:44pour pouvoir vérifier l'âge des personnes.
19:46Donc, moi, je pense qu'il va falloir imposer des vérifications d'âge
19:49à tous les utilisateurs des réseaux sociaux.
19:51Ça veut dire qu'avec ma carte d'identité et ma carte bleue,
19:54je pourrais mettre 20 euros dans mon wallet,
19:57et c'est mon wallet qui valide reste...
19:59Alors, oui, vous ne mettrez pas forcément d'argent,
20:00mais, en tout cas, vous mettrez votre carte d'identité dans un wallet sécurisé,
20:04et derrière, en fait, l'application interrogerait...
20:06Ce wallet, est-ce qu'il serait anonyme ?
20:08Voilà, il interrogerait, il serait juste,
20:10est-ce que plus ou moins de 15 ans ?
20:11Est-ce que plus ou moins de 18 ans ?
20:12Voilà.
20:12Et ça, ça serait quand même très utile
20:15pour pouvoir avoir une certification le plus fort de l'âge.
20:18Alors, moi, le gros souci...
20:19Enfin, le gros souci...
20:21Il y a vraiment, pour moi, une vraie erreur
20:23dans cette commission TikTok.
20:26Vous ne vous attaquez pas à la racine,
20:29parce que d'où vient Julien Tanty ?
20:31D'où vient Adé Laurent, cher M. Delaporte ?
20:34Il vient de la téléréalité et de la fiction.
20:37Est-ce que la téléréalité est indiquée
20:39avec un moins 10 ou un moins 18 sur les écrans télé ?
20:43Non.
20:43Ça veut dire que toute leur histoire
20:45vient de la télévision et est accessible aux mineurs.
20:49Donc, oui, quand moi, je vois Julien Tanty...
20:51Enfin, comme moi...
20:52Quand les gens voient Julien Tanty ou autre,
20:55plutôt beau gosse, dragué...
20:57Évidemment que ça crée de l'affectif
20:59et que ça crée du public.
21:00Ce public-là qui se sont créés
21:02et les fans qui se sont créés
21:04ne vient pas de TikTok.
21:06Ça vient de la télévision.
21:07Ils ont été rendus célèbres,
21:09en particulier par le groupe M6.
21:12Mais vous avez raison de dire déjà
21:13que tous les influenceurs ne sont pas problématiques.
21:16Tous les influenceurs ne sont pas problématiques.
21:18Loin de là, il y a beaucoup d'influenceurs
21:19qui essaient de faire des choses intéressantes
21:21et on en a reçu des contenus pédagogiques.
21:23Un ancien prof de physique chimie,
21:26M. Lechat, qui fait des contenus positifs.
21:29Hugo Décrypte, on en parlait tout à l'heure.
21:31Mais il y a des influenceurs
21:32qui, pour certains, viennent de la télé-réalité.
21:34Donc, vous évoquiez Tanty, Adé Laurent.
21:37Bon, voilà.
21:38Et c'est vrai qu'ils ont reconverti...
21:39Ils sont des stars, hein, pour les...
21:40Ils ont reconverti la notoriété
21:42qu'ils avaient acquise dans la télé-réalité
21:44avec donc des comptes de réseaux sociaux
21:47qui ont eu une première base, comme ça, de fans
21:50grâce à Instagram, puis TikTok.
21:54Mais, je veux dire, le problème ne se limite pas là.
21:56Quand on a Nasdaq,
21:58Nasdaq, il ne vient pas de la télé-réalité.
21:59Par contre, il a créé une télé-réalité sur Twitch.
22:02Donc, du coup, une plateforme de diffusion de vidéos en direct
22:04où sa maison est devenue un peu une télé-réalité
22:07où il y a des mineurs qui sont venus,
22:08qui se sont retrouvés à avoir des relations intimes avec d'autres,
22:12à se mettre en conflit avec d'autres,
22:13parfois de manière totalement fictive.
22:16Il racontait dans la commission qu'il faisait des dramas.
22:18Donc, voilà, ça, c'est de la télé-réalité pirate, on va dire,
22:22qui ne se passe pas sur N6.
22:23Et puis, quand on avait Alexis Tchens,
22:25qui est un influenceur masculiniste,
22:27qui explique que les filles sont inférieures aux garçons,
22:30qu'elles ne doivent pas sortir dans la rue avant 22h,
22:33que si elles ont des robes affriolantes,
22:35ben, c'est des putes.
22:36Voilà, ça, c'est ce qu'il dit, notre...
22:38Comment, Alexis Tchens ?
22:40Il n'a pas de lien avec la télé-réalité en soi.
22:41Donc, pour moi, il ne faut pas non plus dire que c'est la source du problème.
22:45Parce qu'il y en a beaucoup, il y en a énormément.
22:47Le fait que vous les ayez auditionnés pour certains à distance,
22:51ça vous a été reproché par certains,
22:54alors que ce n'est pas normalement dans les normes
22:56de l'audition des commissions d'enquête.
22:58Comment vous l'expliquez ?
22:59Alors, il n'y a pas de normes des commissions d'enquête, déjà.
23:01Il n'y a pas de règles.
23:03Ce que je peux vous dire, c'est que dans nos auditions,
23:05on en a mené à peu près la moitié en visio,
23:08sur la centaine de personnes qu'on a auditionnées.
23:10Est-ce que vous me disiez, certains habitent à Dubaï ?
23:12Certains, les tantilles habitent à Dubaï.
23:13Je n'allais pas leur faire faire un aller-retour en avion
23:14pour faire une audition.
23:17Et que, moi, j'ai aussi des collègues
23:18qui sont députés des Français de l'étranger.
23:20Et comme on a voulu avoir un rythme intense d'audition,
23:23on en a mis certaines le lundi, certaines le vendredi,
23:25on les faisait finalement aussi par Zoom.
23:27Bon, ben voilà, on peut faire des réunions par Zoom,
23:29on peut faire des auditions par Zoom.
23:30Et comme, de toute façon,
23:32ce n'est pas une convocation judiciaire.
23:34On peut d'ailleurs aujourd'hui faire des visioconférences
23:37avec un magistrat instructeur par Zoom.
23:39Non, mais on est obligé d'accepter.
23:41On ne peut pas refuser de participer à une commission d'enquête.
23:45J'ai des médecins qui ont fait ça,
23:47des auditions entre deux consultations.
23:48On ne m'a pas reproché d'avoir fait les médecins.
23:50Là, si certains disent,
23:53il aurait dû le convoquer en physique,
23:54oui, c'est vrai, Alexis Tchent l'avait convoqué en physique.
23:56Je lui avais dit, voilà.
23:57Le matin, il nous a appelé, il nous a dit,
23:59je suis à l'étranger, j'ai un empêchement,
24:01je ne peux plus venir.
24:02C'est celui qui a claqué la porte entre les mains.
24:04Voilà.
24:05On avait le choix entre reporter l'audition
24:07avec une convocation formelle
24:09ou dire, bon, ben, on maintient l'audition
24:11et on permet la présence physique.
24:15La présence par visio.
24:16J'ai choisi la deuxième option.
24:18Si c'était à refaire, parce que je ne connaissais pas,
24:20enfin, je ne savais pas à quel point
24:21il serait dans une attitude de différence.
24:22Je l'aurais sans doute convoqué en physique.
24:24Comme ça, on se serait passé de ce sketch.
24:26Voilà.
24:26Qu'est-ce qu'il risque ?
24:28Il risque une grosse amende
24:30ou voire une peine de prison
24:31si on saisit la justice.
24:33Et vous allez le faire ou pas ?
24:35On envisage de le faire.
24:36Ça me paraît logique, non ?
24:37Ça serait la logique, voilà.
24:39Mais qu'est-ce qui fait que vous ne le feriez pas ?
24:41Quand on se comporte mal, vous allez le faire.
24:44Disons que c'est le plus probable.
24:45Mais je ne veux pas le faire de pub, en fait.
24:47Alors, sur le web, à la fin de son audition,
24:50vous avez mis des menaces à exécution
24:52puisque son compte n'existe pas.
24:54et avant que son compte soit supprimé...
24:56Comment ça n'existe ?
24:57Son compte a été annulé par TikTok, supprimé.
25:00Mais avant que son compte soit supprimé,
25:02il avait ce message pour vous.
25:04Vous ne pouvez pas me cancel.
25:07Je vais dire ce que je pense jusqu'au bout.
25:09Et il y aura des milliers de personnes pour m'écouter,
25:11des millions de personnes qui m'écouteront.
25:14Que vous le vouliez ou non,
25:15que vous me bannissez ou non,
25:16j'espère que TikTok France est en train de me regarder là maintenant.
25:19Je vais dire ce que je pense jusqu'au bout.
25:21Si c'est ce qu'il pense,
25:24c'est des propos qui sont en fait misogynes
25:26et qui sortent du cadre légal,
25:28en fait, la liberté d'expression, elle n'est pas absolue.
25:31Quand on explique que si une fille,
25:32elle n'est pas d'accord avec soi,
25:34on la gifle,
25:35ben non, en fait, on n'a pas le droit de dire ça.
25:37Donc oui, il y a un vrai sujet,
25:40c'est qu'il n'a aucune conscience des limites,
25:42et on le voit d'ailleurs.
25:43Et si son compte a été suspendu par TikTok,
25:46c'est parce qu'il était contraire aux règles d'utilisation.
25:48Non, c'est parce qu'il y a eu la commission.
25:49Sans la commission, il aurait continué son compte.
25:51Alors, je tiens à dire que, par exemple,
25:52le compte d'Adé Laurent a été suspendu
25:54avant qu'on l'auditionne.
25:55Ah, d'accord.
25:56Notamment parce qu'Aurore Berger
25:57avait fait un signalement d'un certain nombre de comptes,
26:00dont celui d'Adé Laurent,
26:01dont celui d'Alexis Chels,
26:03dont celui de Nastas.
26:04Donc tous ces comptes-là,
26:05ils étaient déjà aussi repérés par des ministères.
26:08Ce n'est pas simplement la commission
26:09qui les a épinglés.
26:11Et je tiens à dire aussi
26:12que si nous, on les a auditionnés,
26:14c'est parce qu'ils étaient ressortis
26:15dans les noms d'une grande consultation citoyenne
26:17qu'on avait lancée.
26:18C'était une des questions.
26:19Alors, on va y revenir.
26:20On doit marquer une petite pause de pub
26:22et on revient dans un instant.
26:23Comment ont été sélectionnés les influenceurs
26:25que vous avez auditionnés ?
26:26C'est intéressant pour nos auditeurs.
26:28Le supplément Média
26:40avec Arthur Delaporte,
26:41député PS du Calvados,
26:42président de la commission d'enquête
26:44sur les effets psychologiques de TikTok
26:45sur les enfants.
26:47Donc cette question,
26:49comment ont été sélectionnés
26:50ceux que vous avez auditionnés,
26:52en particulier chez les influenceurs ?
26:54Alors, comment on les a sélectionnés ?
26:56Par deux moyens.
26:57Le premier, c'était quand même
26:59la grande consultation citoyenne
27:01qu'on a lancée sur le site
27:02de l'Assemblée nationale.
27:03On a eu plus de 30 000 réponses,
27:05dont près de la moitié de mineurs.
27:07Donc, il y avait une question,
27:09notamment, qui était,
27:11alors pas celle la plus répondue,
27:12mais quels sont les influenceurs
27:13qui ont produit des contenus
27:14qui vous ont choqués ?
27:15Et dans les premiers noms
27:17qui ressortaient,
27:17il y avait Nasdaq,
27:18il y avait Adé Laurent,
27:20il y avait Létanti,
27:22bon, et il y avait Hitchens.
27:23Voilà, il n'y avait pas qu'eux.
27:25Mais on a pris eux
27:26parce qu'ils avaient chacun
27:28une incarnation
27:30d'un sujet différent.
27:32Les uns, c'était les expositions
27:33des enfants,
27:34de leurs propres enfants.
27:35Le deuxième, c'était
27:36une organisation
27:37d'une communauté
27:38un peu hors du monde
27:41avec des enfants dedans.
27:43Nasdaq.
27:44Le troisième, c'était
27:45la question de la pornographie,
27:47etc.,
27:47qui pose un certain nombre
27:49de sujets aussi.
27:50Et le dernier,
27:51c'était le masculinisme.
27:52Et on a fait
27:53des tables rondes
27:54à chaque fois spécialisées
27:55avec des chercheurs,
27:57notamment sur les questions
27:57de sexisme.
27:58Et pareil,
27:59c'est les noms
28:00de Hitchens
28:01qui ressortaient.
28:02Donc, il y avait
28:03à la fois cette consultation
28:04et aussi les experts
28:05qui nous disaient ça.
28:06Donc, c'est un peu
28:07à travers ces deux canaux
28:09qu'on a fait cette synthèse
28:10et qu'on a eu ces
28:10quatre profils,
28:12on va dire,
28:13un peu complémentaires,
28:14qui nous permettaient
28:15à chaque fois,
28:15sur chaque audition,
28:16de filer un axe différent.
28:17Alors, la commission,
28:18elle est retransmise
28:19sur LCP.
28:20Résultat,
28:20sur tous les réseaux sociaux,
28:22il y a beaucoup
28:23de montages
28:24avec des faits
28:25et puis avec des réels.
28:26Mais il y a eu aussi
28:26un petit montage
28:27des meilleurs moments,
28:28enfin des meilleurs moments,
28:29des moments les plus...
28:30Je sais si c'est les meilleurs.
28:31Oui, on va dire
28:32les moments...
28:32Les plus vertigineux, peut-être.
28:33Je vous dirais
28:34une expression jeune,
28:35les moments
28:35what the fuck.
28:37Donc, on va regarder
28:38les moments WTF.
28:40On dit de vous,
28:40vous êtes le Robin des Bois
28:42digitales.
28:42Est-ce que vous avez
28:43déjà distribué l'argent
28:44à des partis politiques ?
28:45Mais c'est quoi la prochaine ?
28:52Est-ce que j'ai financé
28:53l'armée du Tchad ?
28:55C'est quoi ?
28:56En décembre,
28:56je suis allé en Thaïlande.
28:57En étant créateur
28:58de contenu pour adultes,
28:59j'ai visité un espace
29:00où il y avait des éléphants.
29:03Donc, j'ai pris une vidéo
29:03avec un éléphant
29:04et j'ai dit
29:04un concurrent sérieux
29:06avec la métaphore
29:07de la trompe.
29:08Voilà.
29:09Ça vous fait rire, monsieur ?
29:11Là, on est à des centaines
29:12de milliers d'euros.
29:13Des centaines ?
29:14Oui, quelques centaines.
29:16Et vous ?
29:17Moi, le salaire net
29:19d'un député,
29:20après un pot,
29:21c'est à peu près
29:225 000 euros.
29:23J'ai vu à l'extérieur
29:25et j'étais étonné.
29:26Vous avez des chauffeurs ?
29:27Alors, c'est des chauffeurs
29:28partagés.
29:29Il y en a une dizaine
29:29pour toute l'Assemblée.
29:31C'est ce métier-là
29:31de créateur de contenu.
29:32Moi, je dirais
29:33qu'il faudrait plus d'encadrement.
29:35Pas sévère,
29:35pas des punitions,
29:37mais ça vous fait sourire,
29:39monsieur le député.
29:40Ça vous fait sourire.
29:41Je vous parle de la santé mentale
29:42des créateurs de contenu.
29:43Excusez-moi,
29:45je ne vous demande pas
29:45de me faire de remarques.
29:47Vous êtes ici en audition.
29:48Vous souriez pendant le temps
29:49que je parle.
29:50Vous avez pris 10 secondes
29:51de mon propos.
29:52Vous l'avez isolé
29:53et vous venez de me le balancer
29:54à la gueule.
29:54C'est le problème de TikTok.
29:55À la gueule, excusez-moi,
29:56mais vous prenez son téléphone
29:57si elle refuse.
29:57C'est une pute fin de relation.
29:58Ce n'est pas moins problématique.
29:59Sur TikTok et sur YouTube,
30:01les conditions...
30:01Excusez-moi, je vais finir.
30:02C'est moi qui mène l'audition.
30:03Je suis président
30:04de la commission d'enquête.
30:05Excusez-moi,
30:05on va couper le son
30:06de monsieur Etienne.
30:13Quel est votre regard
30:16sur ces influenceurs
30:17après les avoir auditionnés ?
30:19Déjà, vous voyez,
30:19c'est un peu les 5 extraits
30:21qu'on tournait,
30:21que vous avez un peu compilé.
30:22Oui, oui, ce que j'ai dit
30:23au départ.
30:23Oui, oui, mais je pourrais
30:24revenir sur chacun d'entre eux,
30:26par exemple,
30:27sur les revenus.
30:28Parce que l'une de nos questions,
30:29c'est quel est le modèle
30:30économique de ces influenceurs ?
30:32Ils sont obligés
30:32de communiquer vos revenus.
30:34Ils doivent répondre
30:35aux questions qu'on leur pose
30:36et ils doivent dire la vérité.
30:37Donc là, vous voyez,
30:38il est un peu gêné.
30:39Il finit par dire
30:40quelques centaines,
30:42plusieurs centaines
30:43de milliers d'euros,
30:44ce qui est quand même énorme,
30:45par mois.
30:47Et donc, voilà,
30:49lui dit ça
30:50et pour essayer
30:51de détourner l'attention,
30:51il dit, et vous ?
30:53Je pense qu'il est persuadé
30:54que les députés
30:54gagnent beaucoup d'argent.
30:56Donc, comme je sais aussi
30:57que cette audition,
30:58elle est suivie,
30:59compris par des gens.
31:00J'ai deux options.
31:01Soit je lui dis,
31:01ce n'est pas vous
31:02qui posez les questions,
31:03soit c'est moi.
31:03Soit je lui dis la vérité.
31:04De toute façon, c'est public.
31:05Combien gagne un député
31:06après impôt,
31:07c'est 5 000 euros.
31:08Et là, je réponds ça.
31:09Le gars, il dit,
31:10ah merde, il a répondu.
31:11Donc, il dit,
31:12il veut redonner l'idée
31:13qu'on a des super avantages,
31:16des super profits.
31:17Ah ben, vous avez des chauffeurs.
31:18Pour tout vous dire,
31:19je suis venu ici à vélo,
31:20à Sud Radio.
31:22Et en effet,
31:22il y en a une dizaine
31:23de chauffeurs
31:23pour toute l'Assemblée.
31:24Donc, ce n'est pas non plus
31:25un luxe incommensurable.
31:27Mais ils essayaient
31:28de vous coincer
31:30et de retourner.
31:30En fait, l'oprom,
31:32l'idée de l'abus,
31:33etc.,
31:34sur l'institution.
31:35Donc, j'ai préféré
31:36cette transparence-là
31:37pour ce qui est
31:38du moment
31:39où j'ai souri,
31:41dit-il,
31:42et où il est séparé.
31:43Alors que,
31:44de retourner le truc
31:44en mode,
31:45bon, je suis en train
31:46de parler de la souffrance
31:47des créateurs de contenu.
31:48Donc, sous-entendu,
31:49ce n'est quand même
31:49pas de ma faute
31:50s'il y a des gamins
31:50qui se foutent sur la gueule,
31:51qui sont harcelés
31:52parce qu'ils sont passés
31:52dans ma maison.
31:54Moi aussi,
31:54c'est dur pour moi.
31:55Je gagne plusieurs centaines
31:56de millions d'euros,
31:56mais c'est dur.
31:57Peut-être.
31:58Mais, et là,
32:00je vous le dis
32:00parce que je ne l'ai pas
32:01dit publiquement,
32:02mais j'ai une notification
32:03avec un texto
32:05avec une,
32:07voilà,
32:07rien à voir avec l'audition.
32:09Qui ?
32:10J'ai mon texto,
32:11j'esquisse un sourire
32:12à la lecture du texto,
32:14et lui,
32:15qui est en train de parler,
32:17paf,
32:17saisit ce moment
32:19d'inattention,
32:20pareil,
32:20pour détourner l'attention.
32:21Ça fait un truc en boucle
32:23et ça devient,
32:24qu'est-ce qu'il est irrespectueux,
32:25ce président qui sourit
32:26quand il parle
32:27de santé mentale.
32:28Ça n'avait rien à voir.
32:29Ça n'avait rien à voir.
32:30Et par ailleurs,
32:32enfin, je veux dire,
32:33voilà,
32:33toute la journée,
32:34ah, tout à l'heure,
32:35je ne vous ai pas dit,
32:35mais vous avez regardé,
32:36je ne sais pas si vous avez regardé,
32:37mais vous imaginez,
32:38en fait,
32:38il veut juste détourner le cadre.
32:40On veut lui dire
32:40qu'elle a regardé son portable.
32:42Contourner,
32:43finalement,
32:43le cadre de l'institution
32:44parce qu'il cherche
32:46le clash,
32:47le buzz.
32:47Ils l'ont dit.
32:48Voilà.
32:48Donc,
32:48ils font tout
32:49pour ça.
32:50Et d'ailleurs,
32:51on voit bien aussi
32:52en quoi
32:52ça peut être problématique.
32:54Alors,
32:55certains influenceurs
32:55comme Adé Laurent
32:56ont pointé du doigt
32:57le manque de contrôle parental.
32:59Certains de nos auditeurs
33:00nous disent ça.
33:01C'est les parents
33:01qui sont responsables.
33:03Je pense que ceux
33:03qui disent ça
33:04n'ont pas d'enfants.
33:05La responsabilité partagée.
33:06Oui,
33:06c'est très compliqué
33:08d'avoir ce contrôle.
33:11Et donc ça,
33:11bon,
33:12oui,
33:12il y a une responsabilité partagée.
33:14Mais sur les solutions,
33:15parce qu'on a beaucoup parlé
33:16des influenceurs,
33:17mais il y a des solutions.
33:17Il y a l'Australie
33:18qui a réussi à interdire.
33:20Non.
33:20Non, pas totalement.
33:21C'est-à-dire qu'ils ont dit
33:22qu'ils allaient interdire.
33:23Ah, ils ne l'ont pas fait.
33:24Alors qu'ils essaient de le faire,
33:25ce n'est pas si simple que ça.
33:27La question,
33:28parce qu'Emmanuel Macron,
33:29par exemple,
33:29lui dit
33:30on va interdire
33:30au moins de 15 ans
33:31les réseaux sociaux.
33:32Mais c'est quels réseaux sociaux ?
33:34Est-ce que c'est YouTube ?
33:35On ne peut pas.
33:35Il y a Twitch.
33:36Mais dans ce cas-là,
33:36si on interdit YouTube,
33:37Twitch, etc.,
33:38pas de vidéos,
33:39du coup,
33:39pour les enfants
33:40de moins de 15 ans.
33:41On interdit Netflix,
33:42on interdit les jeux vidéo.
33:44Et puis en fait,
33:44on va interdire WhatsApp aussi.
33:45Parce que WhatsApp,
33:46c'est aussi un réseau social
33:47ou Telegram.
33:47Il y a des trucs problématiques.
33:48Donc en fait,
33:54je préfère la régulation.
33:56Mais la régulation,
33:57est-ce qu'elle est efficace ?
33:58C'est la vraie question.
33:59Déjà, on parle
34:00des dispositifs
34:00de contrôle parental.
34:01On a entendu,
34:02notamment lors des auditions
34:03des familles de victimes,
34:05des parents d'enfants
34:05qui se sont suicidés.
34:06Et ils nous ont expliqué
34:08qu'ils avaient mis
34:09des processus
34:10de contrôle parental.
34:11Et que ce n'était pas
34:12parce qu'ils avaient mis
34:13un processus
34:13de contrôle parental,
34:14une limitation du temps d'écran
34:16qui n'avait pas eu
34:16du contournement.
34:18Parce qu'en fait,
34:18on peut contourner
34:19le contrôle parental.
34:20Et que par ailleurs,
34:21les jeunes n'avaient pas été
34:22exposés à des souffrances.
34:23Si on limite, par exemple,
34:24le temps d'écran des jeunes
34:25à une heure par jour,
34:26en fait, sur TikTok,
34:27en une heure,
34:28on peut déjà voir 4000 vidéos.
34:30Donc, en fait,
34:31ça n'a pas non plus
34:32d'effet...
34:33Mais souvent,
34:34ils se sont suicidés
34:35à cause du harcèlement,
34:36pas à cause des infilations.
34:36Ils se sont suicidés
34:37à cause de plusieurs choses,
34:38en fait.
34:38À cause, parfois,
34:40de difficultés
34:41dans la vie de tous les jours.
34:42Un grand-père qui meurt,
34:44du harcèlement au collège.
34:46Et puis, du coup,
34:46un peu de tristesse.
34:47Et donc, du coup,
34:48un peu de tristesse,
34:48on écoute des musiques tristes.
34:49Et puis, en fait,
34:49ces musiques tristes
34:50vont proposer du contenu
34:51avec des gens qui disent
34:52« Aujourd'hui,
34:53c'est le dernier jour de ma vie. »
34:55Comment...
34:56Avec, voilà,
34:57des vidéos de corps,
34:58des vidéos de...
34:58Une sorte de banalisation.
34:59Et en fait,
35:00banalisation du suicide.
35:01On a aussi, sur TikTok,
35:03des mots-clés
35:04qui peuvent renvoyer
35:05vers tout ça.
35:06Et donc, les jeunes
35:06vont se remettre
35:07à regarder de plus en plus
35:08de ce type de contenu.
35:09On a beaucoup parlé
35:09de Skinny Talk, par exemple.
35:11Skinny Talk,
35:12c'était tout ce qui promouvait
35:13la maigreur excessive.
35:15Certes, TikTok a,
35:17face à cette polémique,
35:18supprimé l'accès au hashtag.
35:20Mais il reste encore
35:21plein de vidéos
35:21avec des contenus
35:22qui sont extrêmement problématiques.
35:24Et on les a montrés
35:25aux représentants de TikTok
35:26la semaine dernière.
35:27On nous dit
35:27« Ah, ben, on va voir
35:29pourquoi ces contenus
35:30sont toujours en ligne. »
35:30C'est qui,
35:31les représentants de TikTok
35:32en France ?
35:32Alors, on a auditionné...
35:34Alors, tous les représentants.
35:35On a la représentante...
35:37Oui, Meta.
35:38Meta, c'est...
35:38Aujourd'hui,
35:39c'est les autres plateformes.
35:40Donc, Meta,
35:41on aura Snapchat
35:42dans quelques semaines
35:43parce qu'on a une commission TikTok
35:45mais on ne se limite pas,
35:46évidemment,
35:46à considérer que
35:47c'est que sur TikTok
35:48qu'il y a des dérives.
35:49Il y a aussi des dérives
35:50sur les autres réseaux sociaux
35:51et toutes les listes
35:51de régulation
35:52qu'on peut proposer
35:54pour TikTok,
35:54elles doivent aussi,
35:55évidemment,
35:55s'appliquer au reste.
35:56Donc, pour finir
35:57sur cette histoire
35:58de qui on a reçu,
35:59on a reçu TikTok,
36:00en effet,
36:00la responsable de TikTok Europe,
36:03la patronne de TikTok Europe.
36:05On a reçu
36:05les responsables européens
36:06de la modération des contenus.
36:07On a reçu ceux
36:08qui font aussi
36:09toute la dimension business
36:10de TikTok,
36:11TikTok Marketplace.
36:12Voilà.
36:13Donc, on a essayé
36:13d'avoir tout le panel
36:15des responsables de TikTok
36:15et à chaque fois,
36:17ce n'est pas de leur faute.
36:17Alors que,
36:18objectivement,
36:19si l'algorithme est problématique,
36:20c'est bien que
36:21c'est TikTok
36:22qui l'a mis en place.
36:23Et s'il est si problématique,
36:24c'est parce qu'il est très addictif,
36:25parce qu'il induit aussi
36:26les jeunes à passer,
36:27on n'en a pas parlé,
36:28de plus de temps
36:29devant leur écran
36:29parce qu'on n'arrive pas
36:30à sortir du flux de contenu
36:31et plus on est devant son écran,
36:32moins on dort.
36:33Est-ce qu'on pourrait imaginer
36:34un Arcom des réseaux sociaux
36:35qui gère ça
36:36et qui met des allemandes ?
36:38Il y a déjà une compétence
36:39de l'Arcom aujourd'hui
36:40sur la régulation
36:41des réseaux sociaux,
36:42sauf que c'est une compétence
36:43qui est partagée.
36:44Avec l'ARCEP ?
36:45Non, pas avec l'ARCEP,
36:47avec la CNIL,
36:48la CNIL sur la protection
36:49des données.
36:50Et en fait,
36:51comme c'est quelque chose
36:51qui se fait à l'échelle européenne,
36:53c'est en fait la CNIL irlandaise
36:55qui gère les données
36:56des utilisateurs de TikTok
36:58et qui protège
36:59les utilisateurs de TikTok
37:00et qui a condamné TikTok
37:01à des amendes
37:02qui sont aujourd'hui en contentieux
37:03à l'échelle européenne.
37:04Et de l'autre côté,
37:05on a quelque chose
37:06qui s'appelle le DSA,
37:07qui est le Règlement européen
37:09sur les services numériques,
37:10qui a mis en place
37:12à Bruxelles,
37:13il y a 200 enquêteurs
37:15qui sont aujourd'hui
37:16en train de scruter
37:17justement le contenu
37:18de TikTok.
37:19Et donc,
37:20il y a des enquêtes
37:20qui ont été ouvertes
37:21contre TikTok,
37:22notamment sur la dimension mineure,
37:24donc avec ces effets
37:25que j'évoquais
37:26de ce qu'on appelle
37:27le rabbit hole,
37:27qui est en fait
37:28le terrier de lapin
37:29où on va être
37:30dans un tunnel de contenu
37:31et on ne va pas réussir
37:32à en sortir.
37:33Et aussi,
37:34tous ces effets
37:35sur l'exposition
37:36à des contenus problématiques,
37:38etc.
37:38Donc aujourd'hui,
37:39il y a des enquêtes.
37:39Ce que j'espère,
37:40c'est que ces enquêtes,
37:41elles vont aboutir,
37:42qu'il va y avoir des amendes,
37:43que TikTok va évoluer
37:44et va mettre vraiment
37:45les moyens de modération
37:46parce qu'aujourd'hui,
37:47il n'y a que 500 personnes
37:48qui sont chargées
37:49de superviser
37:50des dizaines de millions
37:52de contenus.
37:54Voilà,
37:54donc c'est essentiellement
37:54de la grève.
37:55Vous rendez quand,
37:55votre rapport ?
37:56Le rapport,
37:56il sera rendu
37:57dans la première quinzaine
37:58de septembre,
37:59autour du 8-9 septembre.
38:00Bon,
38:00on vous réinvitera
38:01pour la rapporteure
38:03qui viendra.
38:05Qui fait le rapport.
38:05Merci,
38:06merci Arthur Delaporte,
38:07président de la commission
38:08d'enquête
38:09sur les effets psychologiques
38:10de TikTok sur les mineurs.
38:11Évidemment,
38:12vous pouvez suivre
38:13ces débats
38:14sur la chaîne parlementaire.
38:17Merci à vous
38:17et dans un instant...
38:18Et sur le compte YouTube
38:18de l'Assemblée.
38:19Voilà,
38:19Canal 8.
38:20TikTok,
38:21non.
38:21TikTok,
38:22non.
38:22Merci à vous.
38:24Sud Radio,
38:25votre avis fait la différence.
Recommandations
39:51
|
À suivre
37:04
39:37
39:58
39:09
37:38
37:09
15:19
37:34
38:19
34:55
37:14
26:10
40:43
38:16
37:01
35:07
23:59
37:24
35:57
26:02
36:17
10:16