Skip to playerSkip to main content
  • 19 hours ago

Category

🗞
News
Transcript
00:00Générique
00:00Bienvenue dans le débat. Faut-il interdire les réseaux sociaux aux adolescents ?
00:09L'Australie est le premier pays à avoir franchi le pas.
00:12Les moins de 16 ans sont officiellement interdits de conserver ou de créer un compte d'utilisateurs.
00:18Facebook, Instagram, Youtube, TikTok, Snapchat, Reddit depuis hier minuit.
00:24L'objectif c'est de protéger les jeunes des algorithmes addictifs.
00:28Et si les plateformes ne prennent pas de mesures raisonnables pour faire respecter la loi,
00:32elles risquent des amendes pouvant atteindre 28 millions d'euros.
00:35Les géants de la tech ont condamné l'interdiction, mais la plupart, comme Meta par exemple,
00:40ont commencé à supprimer les comptes d'utilisateurs.
00:43Réaction des adolescents australiens, ils sont souvent sceptiques.
00:47Deux adolescents d'ailleurs aidés d'une ONG ont exercé un recours.
00:50Et des organisations de défense des droits de l'homme émettent des réserves sur l'efficacité d'une telle interdiction.
00:56Alors comment l'Australie est-elle arrivée à prendre une mesure aussi radicale que celle d'une interdiction des réseaux sociaux pour les ados ?
01:03Et pourquoi ? Quels sont finalement les risques pour les adolescents ?
01:07Cela pourrait-il faire des émules ?
01:09D'autres pays comme la Malaisie, le Danemark, mais plus largement l'Union Européenne, pourraient-ils s'en inspirer ?
01:15Comment cette mesure est-elle appliquée ?
01:17Sera-t-elle efficace ?
01:18L'interdiction est-elle la meilleure des solutions ?
01:21On en parle avec mes invités.
01:22J'ai le plaisir d'avoir à mes côtés Serge Tisseron.
01:24Bonsoir à vous. Merci d'être là. Vous êtes psychiatre et docteur en psychologie.
01:29En face de vous, nous avons Marc Burlet. Bonsoir.
01:32Journaliste australien basé à Paris.
01:34Vous êtes également français et britannique. Trois nationalités ?
01:36Oui, ça arrive.
01:37Mais on est content que vous soyez australien ce soir.
01:39Vous allez nous raconter un peu ce qui se passe en Australie.
01:41Merci d'être là. Stéphanie Yon-Courtin est avec nous.
01:43Bonsoir. Vous êtes rapporteuse pour Renew Europe, d'ailleurs, sur la protection des mineurs en ligne au Parlement européen.
01:49Eurodéputée Renew.
01:50Bienvenue à vous. Katia Roux, bonsoir.
01:52Vous êtes chargée des plaidoyers, de plaidoyers technologies et droits humains à Amnesty International France.
01:59Merci d'être là également.
02:01Ce sont donc des centaines de milliers d'adolescents australiens qui se sont réveillés ce matin déconnectés des applications Facebook, Instagram, Youtube, TikTok, Snapchat.
02:11On fait un point en image avec nos confrères de France 2.
02:16Depuis ce matin, voilà le message qui apparaît sur les téléphones des moins de 16 ans en Australie.
02:21En raison de la loi en Australie, vous n'êtes plus autorisé à utiliser de réseaux sociaux avant vos 16 ans.
02:27Une première mondiale vantée par le Premier ministre.
02:30Cela fera une énorme différence.
02:34C'est l'un des plus grands changements sociaux et culturels auxquels notre nation ait été confrontée.
02:40Impossible dorénavant de passer du temps sur Snapchat ou Instagram.
02:44Une initiative qui semble diviser parents et enfants.
02:47Les enfants de moins de 16 ans sont très vulnérables.
02:51Ils peuvent être contraints de parler à des personnes ou de faire des choses dont ils ne savent pas vraiment si c'est bien ou non.
02:57C'est décevant parce que c'est ma principale source de communication et de divertissement.
03:02Cette mesure fait réagir jusqu'en France.
03:05Ce matin, devant un collège-lycée de Paris, les principaux concernés sont bien conscients du problème.
03:114 heures snap et 2 heures 40 à peu près TikTok.
03:15En moyenne, tous les jours ?
03:16En moyenne, tous les jours, oui.
03:17Ça fait beaucoup ou pas ?
03:18Oui, je pense que ça fait beaucoup.
03:19Les réseaux sociaux, ça nous distrait beaucoup.
03:20Par exemple, des fois, je ne fais pas mes devoirs parce que je regarde mon téléphone.
03:24Ceux qui ont les réseaux sociaux sont très jeunes.
03:26Il y en a même ma petite soeur.
03:27Elle peut y accéder alors qu'elle a seulement 10 ans.
03:30Donc je trouve que 16 ans, c'est le bon âge.
03:32Ça nous informe.
03:33On peut s'exprimer comme dans la vie sociale.
03:36Par exemple, dans la vie de tous les jours, on ne veut pas forcément parler à des gens.
03:38Mais sur les réseaux, ça nous permet.
03:40Comment cette mesure va-t-elle s'appliquer ?
03:43Pour vérifier l'âge des utilisateurs,
03:45les réseaux peuvent recourir à différents moyens techniques.
03:48Ça peut être la reconnaissance faciale,
03:50s'assurer que par des algorithmes, on va définir quel est l'âge potentiel.
03:54Ça va être également la vérification d'identité par un tiers.
03:57En France, ça pourrait être France Connect, par exemple.
03:59Et puis ensuite, il y a d'autres mécanismes techniques,
04:03mais qui sont bien souvent intrusifs en termes de vie privée.
04:06La loi australienne va être scrutée partout dans le monde.
04:10La Nouvelle-Zélande réfléchit déjà à une mesure similaire.
04:14Alors Marc Burlé, vous êtes Australien.
04:16440 000 jeunes Australiens de 13 à 15 ans sur Snapchat,
04:20selon un document gouvernemental australien.
04:22Ça fait 95% des ados qui utilisent les réseaux sociaux de 13 à 15 ans.
04:26Quelles sont les réactions déjà en Australie ?
04:28On a vu que c'était mitigé.
04:29Vous avez passé quelques coups de fil.
04:30Qu'est-ce qu'on vous dit ?
04:31Oui, je parlais avec ma famille, avec les gens autour.
04:35Et je dois dire que, d'abord, c'était très bien accueilli.
04:38Largement accueilli.
04:39Largement bien accueilli.
04:40Pas tout le monde, mais largement.
04:42Y compris par les jeunes,
04:44qui comprenaient aussi qu'il y avait des problèmes avec les réseaux,
04:48les algorithmes qui les font plonger dans les scrolling sans cesse et tout ça.
04:57Ils savaient très bien.
04:57Mais évidemment, il y a des critiques.
05:01Même si l'intention est reconnue comme une bonne chose là-bas,
05:07l'implémentation, comme c'était marqué dans le reportage,
05:10l'implémentation, c'est un problème.
05:12Il y a déjà des instances, apparemment, des jeunes moins de 16 ans
05:17qui ont pu passer leur reconnaissance faciale pour pouvoir accéder à des comptes.
05:22Simplement changer la date de naissance et quand même entrer dedans.
05:26Donc, ce n'est pas simple à mettre en œuvre.
05:29Le principe est bien accueilli, mais c'est l'implémentation qui va être mise en appreuve.
05:35Comment Anthony Albanese, ce travailliste et cette classe politique australienne,
05:39s'est finalement unie autour de cette interdiction ?
05:41C'est une mesure assez radicale.
05:43C'est radicale, mais en Australie, il n'y a pas beaucoup de choix.
05:46C'est un outil qui est comme un marteau.
05:49Mais en Australie, ce n'est pas le même poids que l'Europe.
05:51Ils n'ont pas la même possibilité de faire changer les algorithmes,
05:58le fonctionnement des plateformes comme l'Europe.
06:01On va en discuter, mais en Australie, c'est quand même un pays de 27 millions.
06:06En Europe, l'Union européenne, c'est 450 millions.
06:10Et donc, en Australie, une interdiction peut se faire, peut avoir un impact immédiat.
06:16En Europe, ça va prendre un an, deux ans, vous allez nous dire.
06:22Ça peut prendre beaucoup de temps en Australie.
06:24Un petit pays quand même, sans le poids politique.
06:27Qu'est-ce que ça dit la classe politique ?
06:29Est-ce que ça va être efficace ?
06:30C'est une nouvelle loi.
06:31On doit voir après l'efficacité.
06:34Il y a des doutes énormément.
06:36Les gens sont sceptiques.
06:38Mais quand même, c'est un début.
06:40Et c'est un début qui fait débat jusqu'à Bruxelles, jusqu'à Paris.
06:45Oui, on en parle même ce soir, parce qu'on en parle de la Malaisie.
06:48Mais le Danemark, l'Union européenne, tous ces pays pourraient s'en inspirer.
06:52Serge Tisseron, combien d'heures en moyenne par jour passe un ado sur les réseaux ?
06:56Globalement, c'est 4 heures.
06:57Et apparemment, c'est un peu tous les pays de la même chose que 4 heures par jour.
07:01Quels sont les risques pour la santé des ados ?
07:04Oui, alors 4 heures ou plus.
07:064 heures ou plus.
07:06Mais aujourd'hui, ces risques sont bien connus.
07:10Sur la santé mentale en particulier ?
07:12Oui, sur la santé mentale en particulier.
07:13Le principal ennemi des réseaux sociaux, c'est le sommeil.
07:17D'abord, moins de sommeil en quantité, parce que trop d'ados dorment avec leur téléphone mobile.
07:23Il faut profiter de cette émission pour dire aux parents,
07:26interdisez absolument les téléphones mobiles dans la chambre de votre enfant la nuit.
07:29Il faut sortir de la chambre.
07:30Il faut le laisser en dehors de la chambre, que chacun s'achète un réveil,
07:33que les parents donnent le bon exemple.
07:34Parce qu'un ado, il va toujours être tenté de l'utiliser la nuit.
07:37S'il reçoit un appel d'un copain, s'il veut regarder une série, consulter son réseau social préféré.
07:42Donc le gros problème, c'est le sommeil.
07:44Baisse du sommeil, baisse d'attention, baisse de concentration.
07:47Problème alimentaire, évidemment, parce que quand on ne dort pas,
07:50évidemment, on peut être tenté de grignoter toute la journée.
07:52Et puis aussi une réceptivité, évidemment, à toutes les fake news,
07:57à toutes les théories du complot,
07:59à tout ce qu'on peut trouver de plus crapuleux sur les réseaux sociaux.
08:02Et puis, évidemment, aussi des risques de consulter des sites problématiques,
08:07masculinistes, misogynes, etc.
08:09Ça fait beaucoup de risques.
08:10Donc l'interdire, ça vous choque ou pas ?
08:12Non. Alors, l'interdire, c'est la solution du marteau.
08:16Si vous voulez, ce qui me gêne dans cette histoire,
08:18c'est qu'il y a un risque énorme.
08:20Il y a un risque énorme.
08:20Quand on diagnostique un risque en médecine,
08:23on dit qu'il faut limiter le risque.
08:24Mais on dit aussi qu'il faut protéger les gens.
08:26On vaccine, par exemple, pour protéger les gens.
08:28On leur donne des règles d'hygiène alimentaire.
08:30Or, ce qui m'ennuie dans cette histoire,
08:32c'est comme si le seul outil qu'on avait pour résoudre les problèmes,
08:35c'était interdire.
08:36Et c'est traiter, finalement, les jeunes,
08:38et ils vont le dire,
08:39c'est traiter les jeunes, finalement,
08:41comme s'ils avaient besoin d'être protégés encore jusqu'à 16 ans.
08:44Non, ils ont besoin d'être aidés à s'auto-protéger.
08:47C'est ça, l'éducation.
08:48Éduquer des enfants à s'auto-guider, à s'auto-protéger.
08:51Et ça, hélas, ça n'est pas prévu
08:53dans les lois qui sont annoncées aujourd'hui.
08:55On va écouter tout de même le témoignage
08:57d'une mère en France, en Bretagne.
08:59Une mère qui témoigne après le suicide de son fils de 15 ans,
09:01qui a été victime de harcèlement.
09:03On va l'écouter.
09:04C'était sur TikTok, justement.
09:0580% des messages qui lui sont envoyés
09:10sont des messages mélancoliques, de tristesse,
09:15voire même, on va dire, d'incitation,
09:19très clairement, à la mort,
09:22lui disant qu'il compte pour personne aujourd'hui,
09:25donc finalement, les gens s'apercevront
09:27qu'il comptera pour quelqu'un une fois qu'il ne sera plus là.
09:30C'est juste trop grave.
09:32On a découvert clairement, sur son fil TikTok,
09:36le fameux fil pour toi, que TikTok savait.
09:39TikTok savait qu'il n'allait pas bien.
09:43TikTok n'a rien fait.
09:45Et TikTok ne nous aide pas à trouver la vérité.
09:48Stéphanie Nyon-Courtin, vous êtes députée européenne,
09:51très investie, justement, sur la protection des mineurs en ligne.
09:53Vous avez eu affaire à ce type de témoignages,
09:55également, de maires extrêmement peinées, alertées,
10:00en fait, désemparées face à ce pouvoir des réseaux sociaux.
10:04Oui, parce que je suis maman, moi-même,
10:06et que je rencontre de nombreux parents qui viennent m'en parler,
10:08puisqu'ils savent que c'est un sujet sur lequel je travaille.
10:11Et TikTok, il se trouve que je connais bien.
10:14J'ai commencé à travailler sur les problématiques
10:15de pratiques addictives au Parlement européen
10:18depuis 2021-2022.
10:20Et j'accompagnais l'ancienne ministre du numérique,
10:22notamment à Dublin, pour aller parler aux gens
10:25de TikTok sur, notamment, un phénomène au-delà du cyberharcèlement
10:30qui était Skinny Talk,
10:32qui est une application qui faisait l'apologie de l'anorexie.
10:35Et où des parents sont venus nous voir
10:36parce que leur fille arrêtait de manger
10:38et où on disait, dans TikTok,
10:40que plus vous étiez maigre, moins vous mangez,
10:44plus vous étiez belle.
10:45Alors, pour une jeune fille qui est en train de se construire
10:47une jeune ado de 12, 13, 14 ans, c'était terrible.
10:50On a réussi à interdire
10:53ce TikTok, Skinny Talk.
10:55Maintenant, c'est contourné.
10:58C'est-à-dire qu'il y a d'autres plateformes
11:00qui le proposent.
11:01Et bien évidemment, moi, j'entends ça.
11:03Et c'est pour ça qu'on fait face
11:06à un fléau mondial.
11:07Pour s'inspirer de l'Australie en Europe,
11:08interdire ?
11:08Oui, on le fait déjà.
11:10C'est-à-dire qu'on a commencé les travaux
11:11sous l'impulsion, d'ailleurs, de la France
11:14qui a entraîné avec elle 25 sur 27 États membres.
11:18Ça, c'est pour le Conseil, les États membres.
11:20Et nous, au Parlement européen,
11:21il y a trois semaines, on a voté un rapport
11:24que je porte, que vous l'avez dit,
11:25pour mon groupe Renew,
11:26sur la protection des mineurs en ligne,
11:27qui demande instamment à la Commission,
11:29puisque c'est la Commission qui ne peut
11:30que légiférer là-dessus,
11:31et nous, on va adopter ces textes,
11:33instamment, d'instaurer une majorité numérique
11:37européenne harmonisée à l'échelle des 27.
11:38Une majorité numérique européenne,
11:40ça veut dire interdiction d'utilisation
11:41des réseaux sociaux.
11:42Des réseaux sociaux.
11:43Alors, à partir de 13 ans,
11:46interdiction totale.
11:47Sauf que, pour répondre à monsieur,
11:49entre 13 ans et 16 ans,
11:50notre recommandation,
11:52c'est interdiction,
11:53sauf autorisation parentale,
11:55parce que ce qu'on souhaite,
11:56c'est justement inciter
11:57cette formation des parents,
12:00le fait de les accompagner.
12:01Moi, je suis maman,
12:02et je reconnais qu'il y a,
12:04et la petite jeune le disait tout à l'heure,
12:05il y a aussi des plateformes,
12:08il y a des réseaux sociaux
12:09qui sont éducatifs.
12:10Au départ, on voulait en faire
12:12plutôt un jardin d'enfants,
12:15quelque chose qui permettait,
12:16comme disait cette petite jeune,
12:17de se sociabiliser,
12:18de parler.
12:19Or, on en a fait une jungle numérique,
12:21c'est la nouvelle cigarette 2.0,
12:24et je crois que c'est la première
12:25des choses à faire.
12:26Nécessité fait loi,
12:27on reconnaît tous au niveau mondial
12:29qu'il y a la nécessité
12:29de faire quelque chose
12:30parce que les réseaux sociaux
12:31sont des amplificateurs.
12:33Donc, entre 13 et 15 ans,
12:34avec autorisation parentale,
12:3613 et 16 ans.
12:3713 et 16 ans,
12:38avec autorisation parentale,
12:39possibilité de les consulter,
12:40et à partir,
12:41mais avant 13 ans,
12:42interdiction comme en Australie.
12:44Total, et avec, pardon,
12:45mais un système de vérification
12:46très important,
12:48parce que sans vérification robuste,
12:51protectrice des données,
12:54puisque tout à l'heure,
12:54on a vu un expert
12:55qui disait qu'il y avait
12:55un problème aussi,
12:56eh bien nous,
12:57on voudrait favoriser quelque chose
12:58au niveau européen
12:59qui s'appelle le portefeuille
13:01numérique européen
13:02qui est en test
13:02dans 5 États membres
13:04et qui prévoit justement
13:05cette vérification de données.
13:07Alors, à ce stade,
13:07on n'en sait pas plus
13:08que c'est en test,
13:09mais c'est quelque chose
13:10qu'on appelle de nouveau
13:11au niveau européen,
13:12parce que ce que vous disiez
13:13très justement,
13:14c'est qu'on a 450 millions
13:16de consommateurs en Europe
13:17et c'est ce poids
13:19qui va faire plier les plateformes.
13:21Les États membres seuls,
13:22s'ils font des choses
13:23au niveau national
13:25et de façon isolée,
13:26ne s'en sortiront pas
13:27les plateformes
13:28sans bouffer
13:29dans la grèche
13:29de la fragmentation.
13:31Katia Roux,
13:32Amnesty International
13:33a mené une enquête
13:33sur les dangers
13:34des réseaux sociaux,
13:35mais vous,
13:35vous ne soutenez pas
13:36l'interdiction
13:37en Australie,
13:39cette interdiction
13:39justement d'utilisation
13:40des réseaux sociaux
13:41au moins de 16 ans.
13:42Pourquoi ?
13:43Alors, je crois
13:44qu'on partage
13:44le même constat,
13:45c'est-à-dire qu'effectivement
13:46sur la dangerosité
13:47des réseaux sociaux,
13:48sur le fait
13:49que les jeunes
13:50sont exposés
13:51à des contenus
13:51problématiques.
13:53On a tout récemment
13:54mené une enquête
13:54aussi sur TikTok,
13:55on a montré
13:56les effets
13:56sur la santé mentale
13:57des jeunes
13:58liés au fonctionnement
13:59même de la plateforme
14:00et à ces algorithmes,
14:01à la conception addictive
14:02de la plateforme.
14:03Comment ils fonctionnent
14:04ces algorithmes justement ?
14:05Alors, l'algorithme
14:06en fait va,
14:07tout simplement pister
14:08tout ce que les utilisateurs
14:09et utilisatrices font en ligne.
14:11Ce qu'ils regardent,
14:11ce qu'ils partagent,
14:12ce qu'ils commandent,
14:13ce qu'ils aiment
14:14et en tirer en fait
14:15des déductions
14:16quant à leur centre d'intérêt,
14:17leur niveau de bien-être
14:18et ensuite faire
14:19des recommandations.
14:20Et donc au final,
14:21on a l'impression
14:22qu'on est à peu près libre
14:23sur le réseau social.
14:24Au final,
14:25tout ce qu'on voit
14:25a été proposé,
14:27recommandé par l'algorithme
14:28en fonction de ce qu'il aurait
14:30perçu
14:30comme étant notre centre d'intérêt.
14:32Et donc très rapidement,
14:33on peut tomber
14:34dans ce que nous,
14:34on a qualifié
14:35des rabbit's hole,
14:35mais c'est l'expression consacrée.
14:37Rabbit's hole,
14:37donc des trous de pour lapin.
14:39Oui, en fait,
14:39des spirales de contenu,
14:40en l'occurrence ici,
14:42toxiques et préjudiciables
14:43pour des enfants
14:44qui sont effectivement vulnérables,
14:46qui présentent
14:46des failles psychologiques.
14:47Et donc TikTok
14:48va venir exploiter ces failles
14:50et les transformer
14:50en moyen de maximiser
14:51leur engagement
14:52et leur profit.
14:53Ça, c'est le constat
14:54et on est tout à fait d'accord
14:55sur le fait qu'il faut agir.
14:57En revanche,
14:57on pense que la responsabilité
14:58en premier lieu,
14:59elle est sur la plateforme.
15:00Et ce dont on appelle
15:01de nos voeux,
15:02c'est vraiment
15:02un changement
15:03du modèle économique
15:04de la plateforme.
15:05Donc ce modèle
15:06qui est fondé
15:07sur la captation
15:08des données personnelles,
15:09sur une conception addictive
15:10de la plateforme.
15:11Parce que si on parle
15:12de cigarette 2.0,
15:13c'est parce que la plateforme
15:14a conçu
15:15un système
15:16d'addiction, en fait.
15:18À condition qu'ils acceptent
15:19en fait de revenir
15:20sur leur modèle,
15:21qu'il y ait un modèle
15:22de business aussi
15:23qui fonctionne très bien pour eux.
15:24Absolument.
15:24Et c'est là où ça va être
15:25très difficile.
15:26Mais pour autant,
15:27l'interdiction,
15:28pourquoi il y a une réserve
15:29de la part
15:29de certaines organisations
15:30des droits humains,
15:31y compris,
15:32d'Amnesty International,
15:33c'est que ça ne nous semble
15:34pas forcément être
15:35le moyen le plus efficace
15:36pour atteindre
15:38ce qu'on veut tous
15:38atteindre ici,
15:39c'est-à-dire un environnement
15:40numérique qui soit sûr
15:41pour les jeunes en ligne.
15:42Bon, d'une part,
15:43ça a déjà été dit,
15:44les jeunes trouveront
15:45sans douter un moyen
15:46de contourner en fait
15:47cette interdiction.
15:48Mais par ailleurs,
15:49ça pourrait aussi
15:50venir porter atteinte,
15:51ça a été dit dans le reportage
15:52à certains droits,
15:54le droit à la liberté
15:55d'expression.
15:55ce sont aussi des espaces
15:57où les jeunes vont
15:58s'exprimer,
15:59partager,
15:59sortir de l'isolement,
16:00communiquer.
16:01Donc ça leur permet aussi
16:02parfois de participer
16:03à la discussion publique,
16:04à la discussion politique.
16:05Et donc ça,
16:06c'est aussi un risque.
16:07Et c'est pour ça
16:08qu'Infiné,
16:08ce qu'on demande,
16:09c'est un changement systémique.
16:11Et aujourd'hui,
16:11il n'est pas reconnu
16:12des plateformes,
16:13en fait,
16:13cette nécessité
16:14de changer leur modèle.
16:17Et c'est ce vers quoi
16:18on veut tendre.
16:19Voilà.
16:19L'interdiction ne nous semble pas
16:20forcément le moyen
16:21le plus efficace
16:22pour atteindre ce changement-là
16:25parce que ça déplace aussi
16:26en quelque sorte
16:26la responsabilité.
16:28Et c'est trop facile
16:28après pour les plateformes
16:29de se dédouaner
16:30de cette responsabilité,
16:31de la replacer
16:32sur les utilisateurs,
16:33sur les jeunes,
16:34sur les parents
16:34ou sur les États.
16:35Ce qu'on demande,
16:36ce sont des lois
16:36et en l'occurrence
16:37au gouvernement australien
16:39de pouvoir poser
16:39un cadre réglementaire
16:41qui soit protecteur
16:42des données personnelles
16:44ou pouvoir contrer
16:45effectivement
16:45ces conceptions addictives.
16:46Ils vont trop loin.
16:47C'est finalement
16:47ce que dit
16:48Amnistie internationale
16:49au gouvernement australien
16:51Marc Burlet
16:51et deux adolescents
16:52d'ailleurs aidés
16:53d'une ONG.
16:54Je ne suis pas sûre
16:54que ce soit Amnistie internationale.
16:56Ils ont exercé
16:56un recours
16:57pour inconstitutionnalité.
16:59Donc ça pourrait être
17:00retoqué par un juge
17:01au nom, par exemple,
17:02des droits de l'homme,
17:02de la liberté d'expression.
17:03Ce n'est pas étonnant.
17:05Une des personnes
17:05avec qui je parlais
17:06en Australie,
17:07c'est une fille de 16 ans,
17:09elle a une amie
17:10aux États-Unis.
17:11Ce qui n'est pas rare
17:12en Australie quand même
17:13parce qu'il y a
17:14beaucoup de partage
17:15de culture et tout ça.
17:16Donc évidemment,
17:17il y a une coupure
17:18d'un réseau social,
17:20un vrai réseau,
17:21son événement
17:22d'ingérosité
17:23et tout ça
17:23dans les réseaux.
17:24Mais il y a aussi
17:25des vrais...
17:26Du coup,
17:26elle ne peut plus parler
17:27à sa copine américaine.
17:30Oui,
17:30mais il y a aussi
17:32des nuances
17:33dans cette loi.
17:34C'est que
17:34les nouveaux réseaux sociaux
17:37pour les jeunes,
17:38ce n'est pas Facebook,
17:39ça c'est notre génération
17:40ou je ne sais pas quoi,
17:41c'est WhatsApp
17:42qui n'est pas interdit
17:43là-bas.
17:44Parce qu'il y a des groupes
17:45sur WhatsApp
17:45où on se parle entre eux,
17:47ils partagent
17:47tous les contenus
17:49qu'ils trouvent
17:49sur TikTok,
17:50ça peut être partagé
17:51sur WhatsApp.
17:52Donc évidemment...
17:53Et là,
17:53l'Australie
17:53n'interdit pas WhatsApp.
17:54Ce n'est pas interdit
17:55WhatsApp, non.
17:56Ça va venir au marché.
17:56Mais ça peut venir
17:58parce qu'évidemment,
17:59c'est une loi
17:59qui va être en évolution.
18:00Je pense que les Australiens
18:01ne sont pas bêtes.
18:02Ils savent très bien
18:03qu'il y a des limites
18:04dans la loi.
18:05Déjà,
18:05ils ont dit
18:05que ça ne va pas être parfait.
18:07Ils ne vont pas pouvoir
18:09interdire tout le monde.
18:11Je pense que ça va aller
18:12en parallèle
18:13avec ce que fait l'Europe
18:14et peut-être
18:15les autres pays
18:15comme l'Inde,
18:16le Brésil,
18:17Malasie,
18:18Nouvelle-Zélande
18:18qui y réfléchissent
18:20aussi à ce sujet.
18:22Serge Tisseron,
18:23quand on parle
18:23de 16 ans,
18:2415 ans,
18:2413 ans,
18:25à votre avis,
18:25quel est le seuil ?
18:26Quel est le bon âge ?
18:28Parce qu'un ado,
18:28parfois,
18:29les psychiatres disent
18:30que c'est jusqu'à 25 ans.
18:32À partir de quel âge
18:33il faut interdire
18:34les réseaux sociaux
18:35ou en tout cas
18:36les limiter,
18:36les encadrer ?
18:37Alors,
18:38il faut dire et répéter
18:39que les jeunes,
18:40les adolescents
18:41présentent une fragilité
18:42particulière.
18:44Cette fragilité,
18:45elle a d'abord
18:46des raisons neurologiques.
18:47Elle a aussi actuellement
18:48des raisons sociales,
18:49l'insécurité climatique,
18:50la guerre en Ukraine,
18:51mais elle a d'abord
18:52des raisons neurologiques.
18:53C'est-à-dire que le cerveau
18:54de l'adolescent,
18:55il mûrit en deux étapes.
18:57La première étape,
18:58c'est aux alentours
18:59de la puberté,
18:5911, 12, 13 ans.
19:00Et là,
19:01l'ado,
19:01il est envahi
19:02des émotions de l'adulte,
19:04mais l'adulte,
19:05il peut arriver
19:05à les contrôler,
19:06au moins lorsqu'il est
19:07dans la vie sociale.
19:08L'ado,
19:09il n'a pas les moyens
19:09de les contrôler encore
19:10parce que la région
19:12cérébrale
19:13qui permettrait ce contrôle,
19:14qui est la région préfrontale,
19:16elle arrive à maturation
19:17qu'aux alentours
19:19de 25 ans.
19:19Ce qui ne veut pas dire
19:20qu'il n'y ait pas une maturation.
19:21Heureusement,
19:22qu'il soit en route avant.
19:23Ça veut dire que l'ado,
19:24il change constamment,
19:25il est constamment
19:26insécurisé dans ses repères.
19:28Et ce qui va lui permettre
19:28de se sécuriser,
19:30c'est son réseau de pairs,
19:31P-I-R-S,
19:32ses potes.
19:32Et il y a même
19:33des experts américains
19:34qui disent
19:34les ados n'ont jamais été
19:35accros aux écrans,
19:36ils n'ont jamais été
19:36accros aux réseaux sociaux,
19:38ils sont accros
19:38à leurs potes.
19:39Et sur les réseaux aussi.
19:40Et sur les réseaux aussi.
19:41Mais à leurs potes sur les réseaux.
19:42Et donc du coup,
19:43si on leur supprime
19:43ce contact avec leurs potes
19:45sur les réseaux,
19:46il faut qu'ils aident
19:47en contact avec leurs potes
19:48ailleurs que sur les réseaux.
19:49Et c'est toute la question
19:50de savoir
19:51quels sont les relais
19:52qui vont être pris.
19:53Si par exemple,
19:54une enquête montre
19:55qu'une marque de Cornflakes
19:56est toxique,
19:58les parents sont invités
19:59et peut-être
20:00l'État va l'interdire.
20:01Mais on va dire
20:01utiliser une autre marque.
20:03Alors puisque les ados
20:04ont tellement besoin
20:05de leur père pour se construire
20:06à un moment
20:07où ils ont conscience
20:07du fait qu'il faut
20:08qu'ils se séparent
20:09de leurs parents.
20:10Ça va bientôt arriver.
20:11Il faut qu'ils construisent
20:12leur père,
20:12leur vie professionnelle,
20:13leur vie affective,
20:14qu'ils envisagent
20:14de partir de la famille.
20:16Sur qui s'appuyer ?
20:17Pas sur les frères,
20:18les soeurs,
20:18les parents,
20:18sur les potes.
20:19Alors ces potes,
20:19ils vont les retrouver où ?
20:20Donc ça veut dire
20:22qu'il faut y réfléchir.
20:25Mais ça veut dire
20:25qu'il faut y réfléchir
20:26dès maintenant.
20:27C'est-à-dire
20:27qu'il ne suffit pas de dire
20:28voilà, on va interdire
20:29les réseaux sociaux
20:30et puis ils vont aller mieux.
20:31Ben non,
20:32parce qu'on parle
20:32d'épidémie de solitude.
20:34Bon, même si les réseaux sociaux
20:35aujourd'hui,
20:35ce n'est pas fondamentalement
20:36des réseaux sociaux,
20:37ce n'est plus
20:37des réseaux sociaux fondamentalement.
20:39C'est 7 à 15%
20:41d'échanges entre potes.
20:43Le reste,
20:43c'est utilisation
20:44de divertissement
20:45et information.
20:46Ce qui est d'ailleurs
20:47pas mal du tout.
20:47L'information et le divertissement,
20:48ce n'est pas forcément
20:49de l'abrutissement.
20:50Ce n'est pas pire
20:50que certaines émissions de télé.
20:51Le problème,
20:51c'est le scrolling,
20:52c'est la diction.
20:54Voilà.
20:54Le problème,
20:54c'est de trouver
20:55une alternative
20:56pour qu'ils puissent
20:57construire leur identité
20:58en marge de leur famille
20:59et aussi avec leurs parents
21:00et quand leurs parents
21:01l'acceptent
21:01pendant cette période
21:02de l'adolescence.
21:03Donc, moi,
21:04la question que je pose,
21:04c'est par quoi
21:05vont-ils le remplacer ?
21:07Et ce que je crains beaucoup,
21:08c'est qu'ils le remplacent
21:08par l'intelligence artificielle
21:10puisque ce que vous disiez,
21:11madame,
21:11de la manière dont TikTok
21:13a poussé un enfant au suicide,
21:15on voyait la mère protester,
21:16eh bien actuellement,
21:17aux Etats-Unis,
21:17Open Eye a 4 procès
21:19pour suicide
21:20et Caractère Eye
21:21a 2 procès pour suicide.
21:22Il y a une loi
21:23exactement de la même logique.
21:26C'est-à-dire que
21:26s'ils vont sur GPT
21:29ou sur Caractère
21:30ou Replica
21:31en truquant leur âge,
21:33ils tomberont
21:33exactement dans le même piège
21:34que sur TikTok.
21:35Oui,
21:36l'intelligence artificielle
21:36ajoute encore
21:37cette problématique.
21:39Donc,
21:39il faudrait en toute logique
21:40ajouter l'intelligence artificielle
21:41à la machine.
21:42C'est ce qu'on a ajouté
21:42nous dans notre rapport,
21:43c'est pour ça que j'ai...
21:44Alors,
21:44quelle alternative justement
21:46Stéphanie Yon-Courtin ?
21:47Garder ses potes
21:48quand on a 13 ans,
21:49qu'on n'habite pas
21:50dans le même pays ?
21:51Oui, mais justement,
21:51parce que justement,
21:52nous, ce qu'on met en avant,
21:53c'est le fait que
21:54jusqu'à 13 ans,
21:56et vous l'avez bien décrit,
21:58monsieur,
21:59jusqu'à 13 ans,
22:00il y a une vulnérabilité
22:01et les enfants
22:02ne font pas trop
22:02la différence
22:03et ont du mal
22:05à prendre du recul.
22:06Et je vais vous dire...
22:07Mais ils ont déjà des potes.
22:08Oui, mais je vais vous dire
22:08une chose,
22:09c'est que la majorité
22:10des plateformes
22:11dans leurs conditions
22:11d'utilisation
22:12posent déjà
22:13comme limite
22:1413 ans.
22:15Ils ne l'appliquent pas.
22:16Ils le savent.
22:17Ça, c'est la première chose.
22:18Regardez les conditions
22:19d'utilisation.
22:20Donc, c'est pour ça
22:20que nous, on l'a rappelé.
22:21Et c'est pour ça
22:22que ce n'est pas une interdiction,
22:23c'est juste une demande
22:24qu'ils appliquent
22:25leurs propres règles.
22:26Ils savent très bien.
22:27Et pourquoi est-ce
22:28qu'ils ne l'appliquent pas ?
22:28Alors, ils ne l'appliquent pas,
22:29mais parce que...
22:30Et c'est là où je m'inscris
22:30en faux avec madame,
22:31si vous voulez,
22:32parce qu'on est sur un business
22:34qui tourne autour
22:35de l'économie de l'attention.
22:37Et vous ne pouvez pas
22:37demander à ces plateformes
22:39qui, en fait,
22:39sont des ogres
22:40de vos données
22:40de limiter,
22:43puisque c'est justement
22:43comme ça
22:44qu'elles se rémunèrent.
22:44Et donc, c'est à nous,
22:45malgré tout,
22:46sans interdire pour interdire,
22:48mais interdire,
22:49d'abord,
22:50limiter l'accès,
22:51complexifier l'accès.
22:53C'est déjà ça.
22:54Et avoir des limites,
22:55vous parliez de scrolling,
22:57ce défilement infini,
22:59ne plus l'avoir par défaut.
23:01C'est-à-dire que les jeunes,
23:03trouver des systèmes
23:04comme cela,
23:05c'est interdire
23:05les chatbots,
23:06comme vous l'avez dit,
23:07parce qu'il y a des décès
23:08et que la loi en Californie...
23:10Donc là, on les interdit
23:11jusqu'à quel âge ?
23:11Parce que les ados
23:12aiment beaucoup
23:13avoir effectivement
23:14leur 7GPT.
23:15Entre 13 ans,
23:16jusqu'à 13 ans,
23:17nous, c'est ce qu'on propose.
23:17Et entre 13 et 16 ans,
23:19une discussion
23:20avec les parents.
23:21Il faut un accord parental.
23:22Ce qui veut dire
23:23qu'il y a une démarche
23:24et on n'est pas
23:24dans l'interdiction
23:25pour l'interdiction,
23:26mais on est dans
23:27l'accompagnement.
23:28Il y a,
23:28et on l'a vu d'ailleurs
23:29très bien
23:29et je trouve que ça,
23:30c'est intéressant.
23:31Un accord parental,
23:32c'est quoi ?
23:33Juste pour télécharger
23:34l'application ?
23:35Pour pouvoir avoir accès ?
23:36Chaque fois que l'enfant
23:37utilise le téléphone,
23:38ça va être les parents derrière.
23:38Pour pouvoir avoir accès ?
23:40Pour pouvoir avoir accès
23:41et pour en discuter ?
23:42Ça veut dire
23:43que les parents,
23:43en fait,
23:43donnent leur accord
23:44une fois pour toutes
23:45et qu'une fois qu'ils ont donné
23:46leur accord,
23:47entre 13 et 16 ans,
23:48ils peuvent...
23:48Ça, c'est pas ce que nous disent
23:49les parents.
23:50Enfin, pour être tout à fait honnête,
23:51j'entends l'économie de l'attention
23:52et le fait que ce soit
23:53le business model,
23:54le modèle économique
23:56de ces plateformes.
23:57Pourquoi on n'appelle
23:58à le changer,
23:58même si on sait effectivement
23:59que c'est un objectif
24:00très, très ambitieux
24:01et très lointain ?
24:02Parce que si on ne touche pas
24:03à ça,
24:04on pourra mettre
24:04autant de pansements
24:05qu'on veut sur la jambe de bois,
24:07on n'arrivera pas
24:07à réduire les risques,
24:09ce que vous disiez tout à l'heure,
24:10l'atténuation des risques.
24:12Aujourd'hui, en fait,
24:13ce que vous décriviez
24:14de, effectivement,
24:15le défilement à l'infini,
24:16la lecture automatique
24:17des vidéos,
24:18le fait d'avoir
24:18des recommandations algorithmiques
24:20basées sur
24:21nos intérêts personnels intimes,
24:23ça, ce sont des choix
24:24de conception addictives
24:25de la plateforme.
24:26Et pourquoi les jeunes
24:28restent 5, 6, 7 heures par jour ?
24:30Parce qu'en fait,
24:30l'algorithme sait leur parler.
24:32Donc, évidemment,
24:33ça, ce sont des choix
24:34de conception.
24:34On peut changer
24:35ces choix de conception.
24:37Et le contrôle parental derrière,
24:39nous, dans l'enquête
24:40qu'on a faite sur TikTok,
24:41on a rencontré les familles
24:42du collectif Algos Victima,
24:44effectivement,
24:44qui a porté plainte
24:45contre TikTok
24:46pour détérioration
24:47de la santé mentale
24:48de leurs enfants,
24:49dont certains
24:49se sont effectivement
24:50donnés la mort.
24:52Les familles nous ont dit
24:52à quel point
24:53a passé leur temps
24:53à signaler.
24:55Certaines à contrôler.
24:5624 heures sur 24,
24:57espace en ligne,
24:58derrière,
24:59effectivement,
24:59ce que vous disiez,
25:00derrière l'épaule
25:01pour vérifier.
25:02Mais en fait,
25:02elles ne peuvent pas.
25:03Certaines familles ont réduit
25:04à 15 minutes par jour
25:05le temps sur TikTok.
25:07Ça ne sert à rien
25:08parce que la conception,
25:09c'est mieux que 4 heures.
25:10Oui, mais en fait,
25:11il suffit de...
25:12Nous, on a vu,
25:13entre 15 et 20 minutes,
25:14on a fait une expérience manuelle.
25:15Entre 15 et 20 minutes,
25:17dès qu'on signale
25:18un intérêt pour la santé mentale,
25:19on se retrouve
25:19avec un fil pour toi
25:20qui est inondé
25:22de vidéos
25:22sur la santé mentale.
25:23si on les regarde deux fois,
25:25on se retrouve
25:25avec la moitié
25:26des vidéos
25:27qui apparaissent
25:27sur le fil
25:27qui sont des vidéos
25:28tristes.
25:29Au bout de 3 à 4 heures,
25:30on avait des vidéos
25:31sur le suicide,
25:32y compris sur des méthodes
25:33sur comment passer à l'acte.
25:34Donc tout ça,
25:34en documenté,
25:35on est très au fait
25:36de l'impact
25:37que ça peut avoir
25:37dans la vie réelle.
25:38Pour autant,
25:39les familles elles-mêmes
25:40nous disaient,
25:40en fait,
25:41aujourd'hui,
25:41on est démunis
25:42et à titre personnel,
25:44ça ne doit pas reposer
25:44sur nous,
25:45en fait,
25:46la responsabilité
25:47de contrôler.
25:47On pourrait donc souhaiterier
25:48que les GAFAM
25:49revoient leurs algorithmes
25:52et que les états
25:53les poussent
25:53à le faire.
25:55Ils sont capables
25:56de le faire,
25:56ils peuvent le faire.
25:57Oui,
25:57mais ils ne le font pas.
25:58Par exemple,
25:59en Australie,
25:59Meta a dit tout de suite
26:00qu'on va se conformer
26:02à la loi australienne,
26:03même si on n'est pas
26:04du tout d'accord
26:04avec cette interdiction.
26:05Encore,
26:05l'Australie,
26:06c'est un petit marché.
26:07Ils ont essayé
26:07par exemple
26:09l'accès aux médias.
26:10Là-bas,
26:11les médias,
26:11le site,
26:12la plateforme,
26:13ont dit d'accord,
26:14on va couper l'Australie
26:15du marché mondial
26:16de ce qu'on offre
26:17aux autres.
26:18Les plateformes
26:19ne peuvent pas faire ça
26:20en Europe.
26:21C'est différent.
26:22Et même en Australie,
26:23les plateformes
26:24ne se soumettent pas
26:25au désidérata
26:26d'un État,
26:27des familles.
26:28Elles refusent la réglementation
26:28européenne.
26:29Alors voilà,
26:30on va parler du bras de fer
26:31avec l'Union européenne
26:32qui est juste
26:32de pire en pire,
26:34si je puis me permettre,
26:36avec le DSC.
26:37Donc on voit bien
26:37que ce n'est pas simple
26:38du tout
26:38de leur demander
26:39à elles-mêmes
26:40dans le cadre
26:41de leur business
26:41de tout revoir.
26:42Justement,
26:43c'est là où je vous...
26:44La mission s'appelle
26:47débat,
26:48mais quand même,
26:49je tiens à dire
26:49que vos points de vue
26:49ne sont pas opposés,
26:51ils sont complémentaires.
26:52Oui, tout à fait.
26:53Ce que vous dites,
26:54vous êtes à faire raison.
26:55Mais en même temps,
26:56cette idée
26:56entre 13 et 16 ans
26:58que les parents
26:59vont donner l'autorisation,
27:01l'idée,
27:01ce n'est pas seulement
27:02de re-responsabiliser
27:03les parents.
27:04L'idée,
27:04c'est aussi
27:05de favoriser les échanges
27:06entre les jeunes
27:07et les parents.
27:07Or, vous savez très bien
27:08qu'aujourd'hui,
27:09dans les familles,
27:11il y a des silos.
27:12Quel que soit l'âge,
27:12à 11 ans,
27:13on est sur ces outils numériques,
27:15à 13, à 15, etc.
27:16S'il y a 10 enfants,
27:17ils sont chacun
27:17sur une tranche numérique
27:18différente.
27:19Donc, ce qu'il faut,
27:20c'est redonner
27:21de la parole
27:22dans les familles,
27:23des surfaces d'échange,
27:24des occasions d'échange.
27:25Et je vous assure
27:26que si les parents
27:27ont la main
27:27sur l'autorisation,
27:29il va y en avoir
27:30des échanges
27:30parce que les enfants...
27:31Ça va provoquer
27:32des échanges.
27:33Ça va provoquer
27:33des échanges.
27:34On n'a pas toujours
27:36deux parents.
27:38On a peut-être
27:38un parent qui travaille.
27:40En Australie,
27:40les distances
27:40sont tellement énormes.
27:42Donc, déjà,
27:42pour le transport
27:43entre l'école
27:44et la maison
27:45et peut-être
27:45les parents,
27:47le bureau,
27:47tout ça,
27:48il n'y a pas
27:49énormément de temps
27:50de passer ensemble.
27:52Il ne faut pas penser
27:53dans le cadre
27:53comme en Europe.
27:55On entre 300 mètres
27:56en un chez soi.
27:57Ce n'est pas du tout ça
27:58en Australie.
27:59Quelquefois,
27:59ça peut être
27:59des dizaines de kilomètres.
28:01Parfois,
28:01on ne voit pas du tout
28:02ses parents.
28:02Tout seul.
28:03Donc, évidemment,
28:04on n'est pas tout seul
28:05si on a un téléphone
28:06à la main.
28:06Donc, c'est problématique
28:08quelque part aussi.
28:09Il y a isolement
28:11à isolement.
28:12Et que vont-ils faire
28:13alors dans ces transports
28:14en commun
28:14qui durent des heures
28:15entre l'école
28:16et le logement ?
28:17On regarde le streaming,
28:19on a la musique.
28:20Mais quand ils ne l'auront plus
28:21aussi,
28:21quand on n'a plus ça,
28:22ça va être forcément...
28:23Alors, parce qu'ils l'avaient
28:24sans être exposés
28:24à des contenus dangereux,
28:26ça serait vraiment
28:26un problématique.
28:27Donc, ça veut dire,
28:27ils vont écouter de la musique
28:28au lieu de se mettre
28:29sur Snapchat.
28:29Oui, mais évidemment,
28:30on veut parler
28:32avec ses amis.
28:33Si ma meilleure amie
28:35est à 30 kilomètres,
28:37on peut toujours se parler.
28:3830 kilomètres,
28:39c'est rien en Australie.
28:40C'est pas comme Paris.
28:41Mais sans WhatsApp,
28:42c'est plus possible.
28:43WhatsApp,
28:44on peut le faire actuellement.
28:45Mais le problème,
28:45c'est qu'on va voir rapidement
28:47les jeunes
28:48qui vont basculer
28:49vers WhatsApp
28:50sur les autres sites
28:51comme Lemonade
28:52et les autres
28:53qui ne sont pas
28:54sur la liste.
28:54Alors, ça,
28:54c'est l'autre problème.
28:55Ils basculent
28:56sur des sites moins connus.
28:57Ça, c'est le problème
28:57avec la législation
28:58prescriptive comme ça.
28:59C'est où l'Europe
29:01va attaquer
29:02le problème à la source.
29:04L'Australie
29:04n'a pas le pouvoir
29:05de le faire,
29:06mais peut faire
29:06quelque chose
29:07dès maintenant
29:07qui va former
29:08un peu le débat en Europe.
29:10Et ensemble,
29:10on va arriver.
29:12C'est le pionnier.
29:12Stéphanie Nioncourtin,
29:13justement,
29:14il y aura une bataille.
29:15Elle a déjà lieu
29:16la bataille
29:16entre l'Union Européenne
29:17et ses GAFAM
29:18sur justement
29:19un tas de législations.
29:22Ce fameux DSR,
29:23le Digital Service Act
29:24ne concerne pas
29:24que les réseaux sociaux.
29:25C'est beaucoup plus global.
29:26Mais on voit bien
29:27qu'ils sont dans une guerre.
29:28Enfin, Trump,
29:29l'a même dit
29:29qu'ils ne cherchent
29:31absolument pas
29:31à se soumettre,
29:32à changer leurs algorithmes.
29:33On est dans un business.
29:34Donc comment
29:34l'Union Européenne,
29:36même unie autour de ce texte,
29:37peut demander
29:38à Meta,
29:40à Google,
29:40de se conformer,
29:42de faire en sorte
29:42que leur algorithme
29:43ne soit pas addictif,
29:45change ?
29:46D'abord,
29:47vraiment revenir
29:47sur ce que vous disiez
29:48qui est très important.
29:48C'est réaliste de le penser ?
29:49Oui, moi je pense
29:50que c'est la responsabilisation
29:51des plateformes
29:52et c'est vraiment
29:52ce qu'on a voté en 2022.
29:54Le point commun
29:54de toutes ces législations
29:56que vous mentionnez,
29:56il y a aussi le DMA.
29:59qui est l'autre concurrentiel,
30:01c'est l'autre pendant.
30:032022,
30:04on a mis fin
30:04à la jungle numérique.
30:05Ça ne se fait pas
30:06du jour au lendemain.
30:07On a laissé
30:08ces plateformes
30:09réseaux sociaux
30:10s'autoréguler
30:11pendant des décennies
30:12en déversant
30:14finalement
30:14leur écosystème,
30:16en tissant
30:16des toiles énormes
30:17et en captant
30:18nos données.
30:19Maintenant,
30:19on a renversé
30:20la tendance
30:21et la vapeur
30:21dès 2022.
30:22Et pour répondre
30:23à votre question,
30:24ça gêne
30:24Donald Trump
30:25et ses amis
30:26oligarques de la tech
30:28parce que lui
30:29est pour une dérégulation.
30:31Il est en train
30:31de favoriser
30:32tous ses copains
30:33qui ont déjà
30:34des réseaux tentaculaires
30:36pour asseoir
30:38et déverser
30:39sur nous.
30:39Mais est-ce qu'elle est
30:39assez puissante
30:40l'Europe
30:40pour être en confrontation
30:42avec les Etats-Unis ?
30:42Elle est puissante
30:43s'il y a une volonté
30:44de la Commission européenne
30:45et nous,
30:45c'est ce qu'on appelle
30:46encore de nos voeux
30:47cette semaine,
30:48d'appliquer le DSA
30:49parce que le DSA
30:50pose un principe
30:51très simple,
30:51responsabilisation
30:52des plateformes.
30:53Tout ce qui est interdit
30:54hors ligne
30:55dans la vie réelle
30:56est interdit en ligne.
30:57C'est-à-dire que normalement,
30:58les enfants ne devraient pas
30:59pouvoir voir
31:00un quart de seconde
31:01sur un réseau social
31:02la décapitation
31:03d'un professeur
31:04d'histoire géo.
31:05C'est encore le cas.
31:06Pourquoi ?
31:07Parce que la Commission européenne
31:08manque de volonté
31:09parce que le DSA
31:10c'est plus que
31:1230 millions d'euros
31:14d'amende maximum.
31:15C'est la possibilité
31:16de suspendre
31:17la plateforme
31:18de façon temporaire.
31:19Alors,
31:20ce qui va jusque-là,
31:20pour l'instant,
31:21on est à 120 millions
31:22d'amende
31:22qui a été infligée
31:23à X
31:25et bon,
31:26suspendre la plateforme
31:27sans un autre.
31:28C'est pas terminé
31:28parce qu'en fait,
31:29il va y avoir
31:29plusieurs jours,
31:31il y a des délais
31:33pour se mettre
31:33en conformité.
31:34Mais cette suspension,
31:35je pense que le simple fait
31:36de la brandir,
31:37elle est très importante
31:38parce que c'est
31:38de l'argent de poche
31:39pour 120 millions.
31:40Quand vous êtes valorisé
31:43à 20 milliards,
31:44à plus que ça,
31:45ça ne compte pas.
31:46Pas grand-chose.
31:47Le simple fait
31:48de leur retirer
31:49l'accès,
31:50vous le disiez tout à l'heure,
31:51à 450 millions
31:52de consommateurs,
31:53c'est beaucoup plus
31:54que les Etats-Unis.
31:55Oui.
31:56Katia,
31:56vous y croyez ?
31:57C'est réaliste tout de même ?
31:58Sur le DSA,
31:59tout à fait d'accord
32:00avec le fait que,
32:01oui,
32:01ça a été un vrai progrès,
32:03arraché de hautes luttes
32:04de pouvoir essayer
32:05de réguler les plateformes.
32:07Et par rapport
32:07à ce que vous disiez,
32:08c'est effectivement très important
32:09en parallèle
32:10d'avoir la discussion
32:11en famille,
32:12entre adultes,
32:13enfants,
32:14encadrants,
32:14accompagnants,
32:15etc.
32:16Essentiel.
32:17Pour autant,
32:18aujourd'hui,
32:18l'inquiétude,
32:18elle est aussi,
32:19est-ce que l'Union européenne
32:20va tenir ces textes ?
32:22On sait qu'il y a ce qu'on appelle
32:24le pushback des Etats-Unis
32:26aujourd'hui,
32:26qui veulent détricoter
32:27une partie des lois numériques
32:29qui, qu'on pensait en fait
32:30acquises et stables,
32:32je pense même au RGPD,
32:33je pense aux règlements
32:34européens sur l'IA.
32:36Ils veulent détruire tout ça.
32:36On a le Digital Omnibus,
32:39oui,
32:39mais la Commission européenne
32:41a présenté récemment
32:42ces propositions
32:43dans le cadre
32:43du Digital Omnibus,
32:45donc un package
32:45de propositions
32:46pour simplifier
32:48finalement
32:48la réglementation.
32:50Nous, on est très inquiets.
32:51On est très inquiets
32:51parce que ça vient remettre
32:52en cause la protection
32:53des non-dépersonnels
32:54dans le cadre du RGPD.
32:56Ça vient remettre en cause
32:57potentiellement
32:57le fait d'interdire
32:58des décisions automatisées
32:59qui reposent sur l'IA.
33:00Ça vient remettre en cause
33:01le texte
33:02règlement européen
33:03sur l'IA
33:03qui n'est même pas encore
33:04mis en œuvre
33:05pour les systèmes à haut risque.
33:07Ça devait être 2026,
33:08la proposition,
33:08c'est que ça soit reporté
33:09à 2027.
33:09Et on a peur,
33:10on a peur
33:11que ça vienne à terme
33:12remettre en cause
33:12le DSA
33:13qui, là je vous rejoins,
33:15est une avancée
33:16en termes de cadre
33:17réglementaire
33:18pour les plateformes.
33:19Si l'UE
33:20ne tient pas là-dessus,
33:21effectivement c'est problématique.
33:22C'est juste un mot
33:24sur ce côté
33:25sur la psychologie
33:26de ces ados.
33:28Avant on parlait
33:28de la télévision
33:295 heures par jour,
33:30c'était vraiment
33:31le grand problème
33:32il y a 40 ans.
33:34Après on a parlé
33:34des jeux vidéo.
33:35Après les jeux,
33:36exactement,
33:37les jeux vidéo
33:37c'était le diable
33:38absolu.
33:39Et aujourd'hui,
33:40les réseaux
33:40et l'intelligence artificielle.
33:42Est-ce que vous avez
33:42l'impression
33:43avec votre expérience
33:44que finalement
33:45on s'en est quand même
33:46plus ou moins sorti
33:47à chaque fois
33:47qu'il y a eu
33:47un défi comme ça ?
33:48Oui mais ce n'est pas
33:49du tout pareil.
33:50Là c'est une autre dimension.
33:51Non, parce que
33:52le pouvoir d'influence
33:54des algorithmes
33:55a considérablement
33:56augmenté.
33:57Vous savez,
33:57il y a même
33:57des experts
33:58qui disent
33:58qu'on n'est plus
33:59aujourd'hui
33:59strictement
34:00dans une économie
34:01de l'attention,
34:02c'est-à-dire
34:02de retenir l'utilisateur.
34:04On serait dans
34:04une économie
34:05de l'intention,
34:06c'est-à-dire
34:07grâce à des algorithmes
34:08d'influencer
34:09les comportements,
34:10les choix
34:11et pourquoi pas
34:12pas seulement
34:12les achats commerciaux
34:13ou les votes
34:14même de certains
34:14utilisateurs.
34:16Donc c'est cette politique-là
34:17qui est relayée
34:18aujourd'hui
34:18par les GAFAM
34:19qui participent
34:20largement
34:20à un système
34:21dans lequel
34:22les 4-5ème
34:23ou les 9-10ème
34:23de l'humanité
34:24ne leur importent pas.
34:25Ils veulent sauver,
34:27c'est ce qu'on appelle
34:27les visions du demain,
34:30c'est-à-dire
34:31sauver ceux
34:32qui valent vraiment
34:32la peine.
34:33Donc ils se moquent
34:34énormément
34:34et ils se fichent
34:35complètement
34:35de la santé mentale
34:37de 9-10ème
34:38ou même la vie
34:38de 9-10ème
34:39de la population.
34:40Ils veulent essentiellement
34:40accroître leurs profits
34:41pour explorer l'espace
34:42et créer peut-être
34:43une nouvelle race humaine
34:44le transhumanisme
34:45et donc tout ça
34:46fait qu'ils ne reculent
34:47devant aucun moyen
34:48pour influencer les gens
34:50et malheureusement
34:51ils sont relayés
34:52par Trump
34:52qui voit ça
34:53d'un très bon oeil
34:53et les réseaux sociaux
34:55et Trump arrive
34:56à un très mauvais moment
34:58si on peut dire
34:58parce qu'il arrive
34:59en même temps qu'il y a
34:59et il est en train
35:00avec l'intelligence artificielle
35:01de pousser aux mêmes excès.
35:03D'où la difficulté.
35:03Est-ce qu'il faudrait
35:04une sorte de retour
35:05par exemple dans les écoles
35:06au manuel scolaire
35:07au Danemark
35:08ils y pensent
35:09Serge Tisseron
35:09et d'ailleurs parfois
35:11même les géants
35:12de la tech
35:13mettent leurs enfants
35:14dans des écoles
35:14où il n'y a pas
35:14de réseau social
35:15où on revient
35:16vraiment à quelque chose
35:17de plus traditionnel
35:18est-ce que ça serait
35:19totalement trop en décalage
35:22avec la société actuelle
35:23ou est-ce qu'au contraire
35:24il faut revenir
35:24à ce type de méthode ?
35:25Alors beaucoup d'études
35:26montrent aujourd'hui
35:27ce qui est important
35:27c'est pas tant d'écran
35:29c'est accompagnement.
35:30Alors évidemment
35:31je ne parle pas de ceux
35:31qui sont 4, 5, 6 heures
35:33petits devant la télé
35:34ou 4, 5, 6 heures
35:35par jour
35:35sur les réseaux sociaux
35:36mais l'accompagnement
35:37est toujours extrêmement important
35:38et du coup
35:39quand on parle
35:40des écrans à l'école
35:41je crois que la grande erreur
35:42ça a été de mettre
35:43un écran par enfant
35:44il aurait fallu mettre
35:45plusieurs enfants
35:46devant un écran
35:47si vous voulez
35:47qu'est-ce qu'il fait
35:48aujourd'hui
35:49qu'est-ce qu'il peut faire
35:50contrepoids aujourd'hui
35:51à cette façon
35:52dont chaque outil numérique
35:54cherche à capturer
35:55l'attention
35:56de chaque utilisateur
35:57s'enfermer
35:58dans son outil numérique
35:59c'est le fait
36:00de parler
36:00et malheureusement
36:02l'école
36:02en mettant chaque enfant
36:03devant un écran
36:04sans s'en rendre compte
36:07elle a eu
36:07une politique toxique
36:08parce que les enfants
36:09dès que vous les mettez
36:10à plusieurs devant un écran
36:11ils communiquent
36:12ils échangent
36:12ils décident
36:13ce qu'ils peuvent faire ensemble
36:14donc il faudrait déjà
36:15une réforme
36:16de l'utilisation
36:16des outils numériques
36:17à l'école
36:18peut-être que moins
36:19d'outils numériques
36:20ce qu'il faudrait
36:20et puis le portable
36:21en dehors de la classe
36:22le portable en dehors de la classe
36:23bien sûr
36:23si on est d'accord
36:24mais surtout
36:25une utilisation collective
36:26des outils numériques
36:27pour revaloriser
36:28la place des échanges
36:29et puis finalement
36:30de ce qu'on appelle
36:30l'intelligence collective
36:32qui est aujourd'hui
36:33totalement bafouée
36:36et piétinée
36:36par les GAFAM
36:38Marc Burlet
36:39la Malaisie prépare une loi
36:40la Chine aussi
36:41on parle beaucoup
36:42de la Chine
36:42quand on vit en Australie
36:44elle régule
36:44le temps d'usage
36:46des réseaux sociaux
36:47alors bon
36:47c'est plus facile
36:48j'imagine pour les Chinois
36:49de réguler
36:50les réseaux sociaux
36:51mais alors là
36:52c'est plus l'interdiction
36:53mais c'est
36:53la régulation
36:55du temps passé
36:56sur les jeux en ligne
36:57sur ce fameux
36:58couvre-feu numérique
36:59qu'est-ce que vous en pensez ?
37:00Je pense que c'était
37:01quand ils ont pensé
37:03cette législation
37:04ils ont pensé
37:05où mettre
37:06l'implémentation
37:08de restrictions
37:09et je crois
37:09qu'une des questions
37:11était peut-être
37:11dans l'operating system
37:13des téléphones Apple
37:14par exemple
37:15de pouvoir couper
37:16le téléphone
37:17à un moment donné
37:18ou d'avoir
37:19une quota
37:20de temps libre
37:22donc c'est toujours
37:22une possibilité
37:23avec une technologie
37:24tout est possible
37:25il faut choisir
37:26avec la législation
37:27ils ont choisi
37:29quelque chose
37:30qui a été disponible
37:31à eux
37:32mais c'est pas
37:34forcément transposable
37:36aux autres jurisdictions
37:37comme l'Europe
37:39Le couvre-feu
37:39l'idée d'un couvre-feu
37:40on dirait
37:40ben voilà
37:41les ados ne peuvent
37:41plus avoir accès
37:42à leurs réseaux sociaux
37:43en France
37:44après 21h par exemple
37:46ou après le soir
37:47pour justement
37:48mieux dormir
37:48Moi je pense que
37:49justement
37:50la limitation
37:50ne peut être
37:51qu'intéressante
37:52pour vivre
37:52avec son temps
37:53c'est-à-dire
37:54de ne pas revenir
37:54à tout livre
37:56par exemple
37:57mais effectivement
37:58essayer d'avoir un mix
37:59ce qui est drôle
38:02quand même
38:02le comble en Chine
38:03c'est que TikTok
38:04est interdit
38:05la version TikTok
38:07c'est un groupe
38:08chinois
38:09et toute la version TikTok
38:12telle que
38:13nos enfants l'ont
38:14est considérée
38:15comme trop toxique
38:16est interdite
38:17ils ont Douyin
38:17qui est un autre
38:19équivalent de TikTok
38:20mais beaucoup plus éducatif
38:21et qui est je crois
38:23pour les moins de 14 ans
38:24autorisées
38:25jusqu'à 40 minutes
38:26par jour
38:26donc il faut attention
38:27au cerveau
38:27de leurs adolescents
38:28donc vous voyez
38:29ça montre bien
38:31qu'il y a un problème
38:32avec TikTok
38:32liberté d'expression
38:33tout ça
38:34oui
38:34c'est-à-dire
38:35pas liberté d'expression
38:36en Chine
38:37donc c'est plus simple
38:38peut-être ça rejoint
38:38la question aussi
38:39de l'équipe de droit
38:40à chaque fois
38:40qu'on cite effectivement
38:41la manière
38:42dont la Chine
38:43traite ce problème
38:44il faut aussi
38:45se poser la question
38:45en face
38:46du droit à la liberté
38:46d'expression
38:47du droit à l'information
38:48du verrouillage
38:49de la société
38:50du contrôle social
38:51et de la surveillance
38:52simplement peut-être
38:53qu'un des messages
38:54à garder en tête
38:55c'est-à-dire que
38:56ce sont des systèmes
38:57qui sont extrêmement
38:58prédateurs de données
38:59extrêmement intrusifs
39:00ce que vous disiez
39:01est très juste
39:01c'est que ça va
39:02très très loin
39:02dans la définition
39:04des centres d'intérêt
39:05du niveau de bien-être
39:06de potentiellement
39:07un comportement
39:08les algorithmes
39:09font des déductions
39:10pour maintenir les gens
39:11le plus longtemps possible
39:12en ligne
39:12donc c'est très intrusif
39:14il ne faut pas
39:14que les mesures
39:15qui soient mises en face
39:16soient également intrusives
39:17et prédatrices
39:18de données personnelles
39:19quand on parle
39:20de vérification de l'âge
39:21la problématique en face
39:23c'est que ça repose
39:24forcément sur une collecte
39:25un traitement de données
39:26personnelles
39:26quand on parle
39:27de reconnaissance faciale
39:28aussi
39:28donc voilà
39:30il faut aussi
39:30faire attention
39:31à ce qu'on propose
39:32ne présente pas
39:34de nouveaux risques
39:35sur les mêmes droits
39:36c'est-à-dire le droit
39:36à la vie privée
39:37et donc c'est là
39:38ils le font forcément
39:39Katia Roux
39:40forcément quoi ?
39:41si à partir du moment
39:42où vous donnez
39:42votre identité
39:43avec une reconnaissance faciale
39:44vous donnez des données
39:46d'ailleurs que vous donnez
39:47de toute façon
39:47oui alors c'est exactement
39:49en fait c'est le problème
39:50de ces plateformes
39:50c'est-à-dire qu'en fait
39:50elles sont gratuites
39:52mais elles sont conditionnées
39:53par l'abandon
39:53des données personnelles
39:54dès lors
39:55exactement
39:56en fait dès lors
39:57qu'on accepte
39:57les conditions générales
39:58d'utilisation
39:58on accepte de donner
39:59ces données personnelles
40:01et c'est là
40:01où en fait
40:02on revient au modèle
40:03de fonctionnement
40:04de ces plateformes
40:04et c'est pour ça
40:05qu'on appelle à le changer
40:06parce que comme vous dites
40:07on ne peut pas faire autrement
40:08mais tant qu'elles ne seront pas
40:09sanctionnées
40:09à la plateforme là
40:10vont-elles le faire ?
40:12je veux poser une question
40:13si l'Australie réussit
40:15avec cette mesure
40:16cette restriction
40:16qu'est-ce qui va se passer
40:18avec les enfants
40:19de 16 ans
40:21qui vont pouvoir accéder
40:22aux réseaux sociaux
40:23sans l'expérience
40:25de plusieurs années ?
40:27qu'est-ce qui va se passer ?
40:28c'est une question
40:28plus agnès
40:29sur un certifron peut-être
40:30à 16 ans
40:31on a un grand ado
40:32écoutez moi
40:33c'est le privilège de l'âge
40:34en 1998
40:35j'ai écrit un bouquin
40:36y a-t-il un pilote dans l'image
40:37le sous-tit
40:38c'était
40:38si danger des images
40:39et des moyens
40:40de s'en protéger
40:40je prenais l'éducation
40:42aux images
40:43ça n'a jamais vu le jour
40:44dans le système scolaire
40:45en France
40:45jamais
40:46et aujourd'hui
40:47moins que jamais
40:47et si vous voulez
40:49il y a quand même
40:49urgence
40:50à ce qu'aujourd'hui
40:51avec l'éruption
40:52de l'intelligence artificielle
40:53les enfants
40:54qui ont aujourd'hui
40:545-6 ans
40:55ils seront totalement
40:56dans l'intelligence artificielle
40:57quand ils en auront
40:5812-13
40:58totalement
40:59il y aura plus de progrès
41:00dans les 5 ans qui viennent
41:01que ce qu'il y en a eu
41:02dans les 5 ans qui sont passés
41:04et donc il faut absolument
41:05parallèlement
41:06à toutes ces mesures
41:07que vous décrivez
41:07et qui sont très importantes
41:08en effet
41:09favoriser une éducation
41:10aux images
41:11qui sera aussi
41:11une éducation
41:12à la liberté
41:13au décryptage
41:14parce que
41:14mais qui doit l'enseigner ?
41:15Les profs ?
41:17Peut-être créer
41:17des personnes de ressources
41:18il y a déjà
41:18des personnes de ressources
41:19dans les établissements scolaires
41:20pour répondre aux questions
41:22des parents
41:23des enfants
41:23des enseignants
41:25autour du harcèlement
41:26il en faut plus
41:26il faut aussi plus de moyens
41:27il en faut plus
41:28mais il faudrait
41:28que ces personnes aussi
41:29ou d'autres
41:30aient aussi du temps déchargé
41:32si ces personnes
41:33s'intéressent au numérique
41:34pour pouvoir servir
41:35de personnes de ressources
41:36parce qu'effectivement
41:37on ne va pas créer
41:37une spécialité
41:38éducation aux images
41:39concernant aux élèves
41:40mais je voudrais aussi
41:41dire un mot de la Chine
41:41parce que dès qu'on dit
41:42un mot de la Chine
41:43il faut quand même
41:43se rendre compte
41:44qu'il n'y a pas
41:44de temps libre en Chine
41:45le temps libre
41:46qu'on gagne
41:47en étant interdit
41:48de réseau social
41:49et bien il est utilisé
41:50par l'État
41:51pour vous faire rentrer
41:52les valeurs de l'État
41:53dans la tête
41:53par d'autres moyens
41:54La propagande chinoise
41:56Merci beaucoup Serge
41:56d'avoir été avec nous
41:57Katia Roux
41:58Stéphanie Yon-Courtin
41:59Merci Marc Burlet
42:00d'avoir participé
42:01à cette émission
42:02Merci à vous tous
42:02de l'avoir suivie
42:03Vous la retrouvez
42:04sur Youtube
42:05les réseaux sociaux
42:06A demain
Be the first to comment
Add your comment

Recommended