- il y a 2 jours
https://www.arcom.fr/actualites/presentation-de-letude-de-larcom-sur-la-protection-des-mineurs-en-ligne
Catégorie
🗞
NewsTranscription
00:00À nos quatre participants à la table ronde, nous avons François-Marie Caron, qui est pédiatre, qui a présidé la Société française de pédiatrie ambulatoire et qui fait partie de notre collège d'experts jeunes publics.
00:16Nous avons Anne Cordier, qui est professeure à... Je vous laisse vous présenter.
00:23Chercheuse en sciences de l'information et de la communication à l'Université de Lorraine.
00:27Merci beaucoup. Nous avons Xavier Delporte, qui nous vient de la CNIL et qui est chargé des relations avec le public.
00:34Et nous avons Arthur Delaporte, qui est député du Calvados et qui est bien connu ces jours-ci pour avoir présidé la fameuse commission dite TikTok.
00:46Alors, dans cette table ronde, nous allons essayer de parler des utilisateurs.
00:50La première table ronde, c'était plus sur la responsabilité des plateformes.
00:55Et là, nous allons parler des utilisateurs, des parents, des enfants, de l'éducation nationale.
01:00Un débat qui a d'ailleurs été amorcé juste à la fin de la table ronde précédente.
01:04Et nous allons nous demander comment faire.
01:07Nous allons commencer par vous, monsieur le député.
01:09Donc, sur ces points-là, quels sont les enseignements de la commission que vous avez présidé et quels sont éventuellement les moyens d'action que nous aurions pour remédier aux problématiques que vous avez rencontrées ?
01:24Alors, je l'ai quand même apporté parce que je vous dis que je suis président.
01:27J'étais président.
01:29Donc, je vous apporte le résultat.
01:31Voilà.
01:32Alors, je l'offre à l'Arcom, évidemment.
01:34Ça fera un exemplaire papier.
01:36Et sinon, pour tout le monde, il est disponible en PDF gratuitement sur le site de l'Assemblée nationale, sans cookies ni tracking.
01:44Donc, voilà, vous pouvez aller le consulter.
01:49Et je vous indique également qu'il y a à la fois le rapport.
01:55Je précise quand même le rapport.
01:57Il y a un avant-propos.
01:58Moi, je n'ai rédigé que l'avant-propos et non le rapport en lui-même.
02:01Donc, j'ai des recommandations personnelles.
02:03Et derrière, il y a les recommandations de la rapporteure.
02:06Voilà.
02:07C'est comme ça que c'est structuré.
02:08On l'a adopté à l'unanimité parce que, notamment, on était d'accord sur,
02:14quasiment l'essentiel et surtout sur le constat, sur le diagnostic.
02:18Donc, voilà, on en a parlé ici.
02:20Je ne vais pas revenir dessus puisqu'il s'agit plutôt de parler des pistes, on va dire, de régulation.
02:25Je vous invite aussi à ne pas vous arrêter au premier PDF en téléchargement,
02:29mais à consulter éventuellement le deuxième PDF un peu plus massif.
02:34Il fait 800 pages.
02:36Alors, vous pouvez évidemment sélectionner, mais en fait, c'est le compte rendu des auditions.
02:40Et il est évident que dans une synthèse, on ne peut pas tout aborder, tout traiter.
02:45Et donc, il y a vraiment des auditions extrêmement riches.
02:47Alors, évidemment, celle de l'Arcov est particulièrement riche.
02:49Mais au-delà de ça, la CNIL aussi, bien sûr, je ne vais pas faire de jaloux.
02:54Mais ce que je peux vous dire, c'est qu'il y a aussi l'idée que ce rapport, c'est une synthèse sur des choses qui ne font pas forcément consensus,
03:04qu'il y a donc du débat dans l'espace social.
03:07Et là, à l'instant, on voyait que sur les pistes de régulation qui sont proposées par Jonathan Haidt,
03:14en fait, on peut les débattre, on peut les discuter.
03:18Et ce n'est pas un absolu.
03:19Et ce n'est pas parce que c'est quelqu'un qui a une forme d'autorité, qu'elle soit politique, morale ou scientifique,
03:24qui propose des pistes de régulation, que ces pistes sont un absolu.
03:28Parce qu'en fait, on peut dire 16 ans, on peut dire 15 ans, on peut dire 18 ans.
03:31Et puis, pourquoi pas interdire tout simplement,
03:32puisqu'on considère que les réseaux sociaux sont dangereux par leur design algorithmique
03:36qui fait que même des adultes de 30 ans peuvent se retrouver à tomber dans des spirales dépressives.
03:42Donc voilà, moi, je considère que l'enjeu, ce n'est pas simplement la protection des enfants,
03:45c'est la protection de la société dans son ensemble.
03:48Et donc, c'est pour ça que si on commence par cette mesure de 15 ans,
03:50moi, j'ai quelques appréhensions à l'idée que ce soit la norme qui vienne tout réguler,
03:57alors qu'en fait, le sujet, il est en amont et qu'on ne peut pas rendre les enfants coupables de choses dont ils ne sont pas
04:03et que les enfants ont des droits, des droits d'accès à l'information.
04:07Et d'ailleurs, l'audition qu'on a eue avec la CNIL, notamment, je le dis,
04:11je l'ai trouvée très intéressante parce que la CNIL avait aussi des sociologues
04:14qui ont travaillé sur le rapport des jeunes à l'information aux réseaux sociaux.
04:17Et dans ce rapport des jeunes aux réseaux sociaux, il y a aussi des choses positives,
04:21de découvertes, d'émancipation, de création de l'air, même si ces liens sont distanciels,
04:27en tout cas médiatisés par une plateforme numérique.
04:30Eh bien, en fait, ils ont aussi un intérêt.
04:32Donc, évidemment que ça ne peut pas être l'alpha et l'oméga
04:36et que la manière dont ça fonctionne aujourd'hui est dangereuse.
04:39Et c'est ce que montrait finalement une grande partie.
04:42Donc, vous voyez, moi, je suis d'accord sur la plupart des constats qui sont faits,
04:45mais c'est vrai que sur les solutions, ça peut diverger.
04:47Donc, si je dois résumer en 1 minute 30,
04:52ce qui, moi, me semble être prioritaire dans la mise en œuvre de mesures pour protéger les mineurs,
04:56c'est d'abord la régulation de l'algorithme.
04:59Donc, ça, c'est quelque chose qui se fait, qui doit se faire à l'échelle européenne.
05:02Mais en fait, ça doit se faire à l'échelle mondiale.
05:04C'est-à-dire que ce qui s'applique en Europe doit s'appliquer partout.
05:07Parce qu'on ne peut pas se permettre aussi de se dire qu'on accepte un Internet à la carte.
05:11Parce que l'Europe serait suffisamment puissante pour pouvoir réguler.
05:15C'est très bien protéger les jeunes européens.
05:17Mais moi, je pense aussi aux jeunes de pays qui ont des gouvernements,
05:21qui ne sont pas forcément aussi soucieux de la protection des mineurs.
05:23Et donc, en fait, c'est une réflexion que je vais essayer de pousser dans le débat.
05:28Mais c'est bien d'avoir l'Europe.
05:29Franchement, c'est super.
05:30C'est bien d'avoir la France.
05:31C'est super.
05:32Mais il faut aussi penser à tous les enfants du monde.
05:34Et donc, il faut aussi attendre des plateformes.
05:37Et je sais qu'il y a certains représentants des plateformes ici, dans cette salle.
05:40La même éthique et la même exigence vis-à-vis des contenus qui sont proposés aux enfants
05:46et au-delà, à tous les publics, qu'ils ont en Europe et partout.
05:49Et ce n'est pas simplement une affaire réglementaire.
05:51C'est une affaire de rôle social des big tech.
05:55Même si on sait très bien que leur premier objectif, c'est d'abord de gagner de l'argent.
05:58Mais voilà, on peut espérer ou on doit espérer que ce n'est pas incompatible.
06:01Sinon, alors, on est dans un monde qui va bien.
06:04Bon, d'accord, OK.
06:05On est dans un monde qui ne va pas bien.
06:07Donc ça, c'est la première mesure.
06:09La régulation de la Lorraine et utiliser le cadre européen pour aller le plus loin possible.
06:14Et notamment, les guidelines de la lignes directrices de la Commission européenne
06:18qui sont sorties en juillet vont dans le bon sens,
06:21puisqu'elles disent qu'on peut aller plus loin sur la protection des mineurs.
06:24Mais évidemment, qu'il faut étendre ça plus largement.
06:27Maintenant, comment on fait pour faire appliquer ça ?
06:29Bon, on met des sanctions.
06:30Moi, je suis pour une taxation différentielle aussi, y compris à l'échelle nationale.
06:34Donc on a aujourd'hui une fiscalité du numérique avec la taxe GAFAM.
06:39Bon, pourquoi pas un mécanisme de bonus-malus, type pollueur-payeur,
06:44avec l'idée que ce qu'on va récolter vis-à-vis des plateformes les plus problématiques.
06:49Et d'ailleurs, l'enquête de l'ARCOM permet de montrer aussi que toutes les plateformes ne sont pas égales,
06:54en tout cas du point de vue des utilisateurs, sur le plan de leurs effets sur le public.
06:59Et donc, si on constate que certaines plateformes sont plus dangereuses parce que l'algorithme est plus puissant,
07:05et capte plus l'attention, et modère plus mal, etc.,
07:09et bien dans ce cas-là, on les fait payer.
07:11Et on les fait payer, et avec ça, on finance les signaleurs de confiance, je le dis.
07:16Parce qu'aujourd'hui, l'un des sujets aussi qui me pose problème,
07:19c'est que les signaleurs de confiance ont un modèle fragile.
07:24Certaines sont des associations qui reposent simplement sur le bénévolat.
07:28Alors qu'aujourd'hui, si on veut une bonne régulation des contenus,
07:31et bien il faut avoir des gens qui font le travail.
07:34Alors soit c'est le rôle de la puissance publique,
07:36et dans ce cas-là, il faut aussi évidemment renforcer les moyens de la puissance publique
07:39qui régulent le numérique.
07:41Mais si on considère, et c'est le cas aujourd'hui du mécanisme qui se met en place à l'échelle européenne,
07:45que les signaleurs de confiance peuvent être des acteurs privés,
07:48alors ceux qui font ce travail d'intérêt général doivent avoir une redistribution d'argent public
07:54et non pas un fléchage direct par les plateformes.
07:56Sinon, ça les rend dépendantes et finalement vulnérables
07:59des changements de politique des différentes plateformes.
08:02Je sais, pour en avoir parlé récemment avec Justine Adlande d'Yenfance,
08:07que même si ça représente une part minime, en tout cas non majoritaire, de leur financement,
08:12et bien malgré tout, ça laisse l'idée qu'il y a ce qu'on appelle un conflit d'intérêt.
08:18Parce que le conflit d'intérêt ne se définit pas par la réalisation de ce conflit d'intérêt,
08:21mais par la présomption, ou en tout cas l'apparence.
08:24Quand vous avez un financement qui vient, soit vous mettez en place des règles déontologiques,
08:28oui, évidemment vous le faites, c'est super, mais du point de vue du public,
08:30moi je me dis, tiens, ils ont 200 000 euros de TikTok ou 800 000 euros de TikTok, c'est pas vrai.
08:34Mais, et bien en fait, ils sont dépendants de TikTok.
08:38Donc du coup, il faut en fait un fonds de dotation général des signaleurs de confiance
08:42pour pouvoir redistribuer cet argent et faire en sorte que les signaleurs de confiance ne soient pas dépendants.
08:48Voilà un peu trois mesures, enfin trois logiques.
08:51Le financement, la protection des signaleurs de confiance, la fiscalité pollueur-payeur.
08:58Alors, il y en a plein d'autres, mais voilà, pour commencer.
09:01Merci beaucoup. Il y en a d'autres qui ont été abordés dans la première table ronde,
09:05et notamment la fameuse question de la vérification d'âge et de la majorité numérique.
09:11Merci beaucoup. Alors, je vais passer la parole à François-Marie Caron,
09:16parce que ce qu'on aimerait maintenant, c'est vous, en tant que pédiatre,
09:21d'avoir un peu votre retour d'expérience sur ce que ça a comme impact.
09:26Alors, je vois que vous n'êtes pas complètement sur la même longueur d'onde
09:30que notre intervenant précédent à distance. Alors, dites-nous, vous.
09:36Merci beaucoup. Je voudrais d'abord rassurer les élèves de première.
09:38Vous n'êtes pas des crétins digitaux. Arrêtez d'écouter les gens qui vous font peur.
09:42On est absolument, je pense que tu es d'accord avec moi, en opposition et un peu énervé
09:47par les propos de la personne qui parlait avant.
09:5120 ans après, en 2005, je faisais partie de la conférence de la famille.
09:55On parlait de la protection des enfants sur Internet.
09:57On est maintenant en 2025. On parle.
09:59On est passé, en fait, de l'ordinateur au smartphone.
10:02Je prends mon papier parce qu'on essaie de garder le temps.
10:05Ce qui aurait dû être une formidable opportunité, c'est-à-dire l'accès à la culture pour tous,
10:09à la connaissance pour tous, à partir de 1993, où le Web était devenu gratuit,
10:15est devenu, par manque de régulation et par manque de connaissance des effets collatéraux,
10:19un formidable amplificateur des inégalités.
10:21En plus, l'histoire s'est accélérée parce qu'en 1996, c'est l'arrivée de DoubleClick
10:27qui est une industrie, un entrepreneur qui a mis en place le marketing centré sur les données personnelles.
10:34Et c'est là que ça a commencé à dérailler.
10:36Les prédateurs s'en sont emparés.
10:37Et maintenant, avec un outil qui nous donne gratuit,
10:41on réussit à être les premières capitalisations boursières dans le monde
10:44avec des chiffres d'affaires qui dépassent certains États.
10:47Donc, vous voyez que le défi est compliqué à résoudre,
10:51avec d'un côté la démocratie, comme on l'a dit tout à l'heure,
10:53et de l'autre côté le monde financier.
10:55Et notre ami Picsou Trapp, c'est pas Donald, pour moi, c'est Picsou,
10:59est bien là pour essayer de mettre des bâtons dans les roues.
11:02Alors, constat, constat de l'étude, les enfants sont une cible privilégiée.
11:06C'est pas nouveau, c'est depuis 1946.
11:08Alors, tout à l'heure, j'ai dit 20 ans.
11:09Là, ce qui compte bien, ça fait 80 ans que la publicité à la télé vise les enfants.
11:14L'étude que nous venons de découvrir, c'est particulièrement riche.
11:17Ça permet d'ouvrir des pistes d'action parce que parents et enfants réclament tous deux
11:21plus d'accompagnement par l'école et par les pères,
11:25plus de recommandations et beaucoup moins d'injonctions,
11:28plus de protection par les plateformes et plus de régulation par l'ARCOM.
11:33Les dangers décrits ne sont pas une surprise,
11:36pas plus que l'écart entre la perception des enfants et des parents sur les risques.
11:40Juste un petit bémol, enfin un petit bémol, mais une constatation quand même.
11:44La vie, c'est risqué et faire du vélo, c'est dangereux.
11:47Et pourtant, on fait du vélo alors qu'on est conscient des risques.
11:51Ce qui me frappe le plus, moi, toujours, c'est la sous-estimation
11:53des conséquences physiques certaines et sévères du manque de sommeil
11:57et de la sonorité sur l'usage des écrans.
11:59Et ça, c'est où ?
12:03La particularité de la révolution numérique, c'est que les parents,
12:06ils sont tout autant en difficulté que les enfants.
12:08On est toujours en train de taper sur les enfants,
12:09mais il faudrait regarder un petit peu ce que font les parents sur les écrans.
12:11Les parents s'angoisent face à la présence de leur enfant sur les réseaux.
12:14C'est plus souvent eux qui leur facilite l'accès.
12:17Et cette peur vient d'une incompréhension de ce que pensent
12:20et de ce que vivent les adolescents.
12:23Certes, il y a des utilisations très problématiques.
12:26Il y a un problème, on est bien d'accord.
12:28Je ne suis pas sûr que le modèle de l'élection soit le bon modèle.
12:31Mais les enfants adorent et utilisent ce formidable moyen de tisser des liens
12:36et surtout d'avoir une connaissance sociale.
12:38Et c'est la problématique de l'adolescent.
12:39Et c'est vraiment un outil pour eux qui est la vie.
12:43Avant, on disait quand ils étaient sur les écrans, ils étaient no life.
12:45Eux, pour eux, no life, c'est de ne pas avoir de smartphone.
12:48Alors là, on a dit que la crise de santé mentale était due aux écrans.
12:53Là, c'est un petit peu simpliste parce que s'ils ne se connectaient pas
12:57ou si on ne supprimait pas les écrans, je ne pense pas que la guerre en Ukraine,
13:00je ne pense pas que le Gaza, je ne pense pas que le problème du climat,
13:05je ne pense pas que les conséquences du Covid avec 44 semaines sans école aux USA,
13:09je ne pense pas que tout ça disparaîtrait,
13:11que la problématique de la santé mentale disparaîtrait.
13:13Les adolescents doivent être informés, ils doivent être éduqués
13:17aux risques et aux mauvais usages du numérique.
13:18On est d'accord, mais aussi, ils doivent être alertés sur les dangers de la rue,
13:22d'une sexualité non réfléchie, de mauvaise fréquentation, etc.
13:25Donc, de la vie en général.
13:27On est bien d'accord, les réseaux facilitent les mauvaises rencontres,
13:30mais il faut qu'il y ait en face la famille, l'école, la formation,
13:35la prévention et la régulation.
13:37Quelle que soit l'époque, chaque société apporte ses dangers.
13:40On doit adapter notre système éducatif et les parents aussi.
13:44Alors, les pistes d'action, puisque je vais terminer par ça.
13:46D'abord, il faudrait relire les conclusions de la commission écran.
13:49Il y a tout ou presque tout.
13:51Je trouve qu'il y a vraiment beaucoup de choses très intéressantes
13:53et qui sont tout à fait différentes de ce qu'on a entendu juste avant.
13:57L'interdiction des réseaux avant 15 ans dans la forme actuelle des réseaux,
14:00c'est une bonne mesure, mais on se rappelle quand même
14:03que c'est interdit au moins de 13 ans et que depuis la loi RGPD,
14:06théoriquement, il faut une autorisation parentale entre 13 et 15 ans.
14:09Donc déjà, si on appliquait la loi, ce serait pas mal.
14:12Moi, j'ai l'habitude en consultation de dire aux parents et aux adolescents,
14:15on va mettre le téléphone de l'adolescent dormir dans la cuisine
14:18avec celui des parents.
14:20Première question de l'adolescent, mais comment je vais faire pour me réveiller ?
14:23Mais ça, c'est autre chose.
14:25Et enfin, pourquoi ne pas créer de jeunes ambassadeurs du numérique
14:28sur le modèle des ambassadeurs du harcèlement
14:30et créer des conseils municipaux des adolescents ?
14:33Parce qu'en frein, on pourrait répondre aux besoins d'accompagnement par les pères
14:37et surtout écouter nos adolescents.
14:39Il y en a marre de l'adophobie et c'est un peu comme le No Kids,
14:43ça peut énerver.
14:44On a de la place pour les adolescents.
14:46Écoutons un petit peu.
14:48Juste une chose, leurs pratiques sexuelles n'ont pas été franchement modifiées
14:52depuis leur accès très facile à la pornographie.
14:55Donc nous, adultes, on imagine des choses.
14:58Il faudrait d'abord des résultats scientifiques.
14:59Merci beaucoup pour ces propos
15:03qui vous valent un succès d'estime dont je ne doutais pas
15:09et qui nous permettent d'avoir une mise en perspective des risques que vivent les jeunes
15:14qui est effectivement en lien avec les risques habituels
15:19et qu'il faut effectivement mesurer à ses tonnes
15:22et avec des réponses qui soient adaptées
15:25mais qui ne diabolisent pas outre mesure ce qu'on est en train de vivre.
15:31Donc merci.
15:31Je crois que c'était très important d'avoir ce point de vue.
15:34Xavier Delporte, nous avons travaillé ensemble.
15:38Oui, pardon, pardon.
15:39La tâche ne m'est pas facilitée.
15:42Nous avons travaillé ensemble sur un mécanisme de vérification d'âge
15:46pour l'accès au site pornographique.
15:48Il est vrai que la CNIL finalement a dans son escarcelle de par le RGPD
15:53la question vraiment de comment gérer l'accès des mineurs
15:59et comment sauvegarder cet accès.
16:02Donc vous, quel est votre point de vue ?
16:05Vous en êtes où dans vos réflexions et où est-ce qu'on peut aller ?
16:09Merci pour cette question simple.
16:11Je vais essayer de faire court.
16:13Donc effectivement, le RGPD a prévu des dispositions protectrices
16:17des mineurs, donc le RGPD qui a bientôt 10 ans d'entrée en application,
16:22qui malheureusement n'est pas totalement respecté,
16:25notamment par un certain nombre de grandes plateformes,
16:29mais par beaucoup d'autres acteurs et dans bien des domaines.
16:33Et ça, c'est le rôle du régulateur qui est la CNIL
16:36et de ses homologues en Europe de s'en assurer.
16:38C'est un énorme travail puisque, évidemment, il ne faut pas penser que les plateformes
16:46ou d'autres acteurs économiques ou parfois même l'État dans d'autres domaines
16:50sont toujours très contents quand on leur demande de faire quelque chose.
16:54Et donc ils se bagarrent et c'est bien normal.
16:56On est dans une démocratie.
16:58Ils ont des voies de recours aussi devant la justice.
17:01Donc il faut affirmer l'État du droit et le faire respecter,
17:09mais il faut aussi finalement convaincre l'ensemble des acteurs
17:12des bénéfices qu'ils peuvent en retirer.
17:15Et il est certain que ce soit des sites à caractère pornographique
17:21ou des acteurs dont le modèle économique est basé sur la donnée personnelle,
17:27ce n'est pas tout à fait évident de leur faire comprendre
17:29que c'est dans leur intérêt de ne plus faire ça.
17:33Donc il faut arriver à trouver.
17:37Et encore une fois, dans une démocratie, c'est souvent ça.
17:39On a plein d'intérêts divergents.
17:41Et donc il faut faire la balance de ces intérêts
17:43et essayer de trouver des solutions.
17:46On a eu beaucoup de débats.
17:47On a beaucoup parlé avec Justine sur la vérification de l'âge protection des mineurs
17:53contre le droit des internautes majeurs à accéder.
17:59On a travaillé notamment avec l'ARCOM, avec des chercheurs aussi,
18:06à trouver des solutions équilibrées qui permettent d'atteindre ces deux objectifs.
18:10Des solutions, et M. le Président de l'ARCOM l'a dit, sont mises en place aujourd'hui.
18:15Alors il faut forcer la main.
18:16Mais il y a des sites qui mettent en place des dispositifs
18:20à voir si effectivement ils respectent bien le référentiel technique
18:24qui a été adopté par l'ARCOM après avis de l'ACNIL.
18:28Et donc on arrive à faire des choses.
18:30Déjà, ça c'est aussi un problème positif.
18:32C'est-à-dire que les choses évoluent.
18:34Notre intervenant depuis les Etats-Unis expliquait les différences
18:39entre avant et après 2010-2012.
18:44Les réseaux sociaux tels qu'ils existent aujourd'hui
18:47ne sont plus les mêmes que ceux qui ont été créés.
18:52Si on parle du paramétrage, par exemple,
18:55et des possibilités de paramétrage,
18:58ce n'est pas du tout la même chose aujourd'hui qu'il y a 15 ans.
19:03J'imagine que dans la salle, il y a un certain nombre de parents,
19:06peut-être d'adolescents,
19:08peut-être que vous avez accompagné votre enfant
19:11à se créer un compte sur un réseau social
19:13et que donc vous avez passé 3 à 4 heures
19:16à fouiller dans les paramètres pour choisir les bonnes options.
19:21Ça prend du temps, mais c'est ce temps-là qui est aussi nécessaire.
19:27Le problème des plateformes et des acteurs économiques en général,
19:32outre le problème réglementaire,
19:35c'est que le problème de la protection des mineurs,
19:39ce n'est pas un problème que juridique
19:40et que c'est souvent un petit peu trop laissé aux juristes.
19:44Alors j'adore les juristes.
19:45J'en suis un moi-même.
19:46Mais si on laisse les juristes s'occuper de tout dans le monde,
19:50ça ne va pas marcher.
19:51Et sur Internet, il y a des gens dont le métier,
19:55c'est de designer des interfaces,
19:57c'est-à-dire de choisir à quoi va ressembler un service en ligne.
20:03Ces gens-là, aujourd'hui, y compris dans leurs écoles,
20:05on ne leur parle jamais des enfants,
20:09on ne leur parle jamais des droits des enfants.
20:12L'association britannique Five Rides vient juste de sortir un rapport
20:17sur le rôle des designers et ils pointent ça.
20:19C'est-à-dire que les designers n'ont aucune connaissance
20:22des enjeux de la protection des enfants.
20:25Et pourtant, c'est eux qui construisent ces dispositifs.
20:28Donc il y a une nécessité.
20:30Et je pense que sur la vérification de l'âge,
20:32ça rentre aussi en compte.
20:33Il ne s'agit pas simplement en plus de mettre un dispositif technique,
20:36mais comment est-ce qu'on fait en sorte
20:37que ce dispositif technique soit simple et fluide ?
20:41Pourquoi Google est devenu le premier moteur de recherche au monde ?
20:45Certes, ils ont racheté DoubleClick.
20:49Et donc, ils ont gagné énormément d'argent
20:51qui leur permet d'avoir des milliers d'ingénieurs
20:52qui travaillent tous les jours à la performance
20:54dans le montant de recherche.
20:55Quand vous arrivez sur Google,
20:58vous avez un champ, vous écrivez ce que vous voulez,
21:00et puis c'est tout.
21:02C'est hyper simple.
21:04D'ailleurs, les grands acteurs de l'IA générative,
21:07s'ils ne sont pas trompés, ils ont fait la même chose.
21:10C'est hyper simple.
21:12Ça, ça s'appelle du design.
21:14Pourquoi ?
21:14Pour la protection des mineurs,
21:16le design n'est jamais utilisé pour ça.
21:19Donc, évidemment, le droit, c'est important.
21:21Les régulateurs ont leur rôle à jouer.
21:23Le législateur a son rôle à jouer.
21:26Peut-être que des fois,
21:26le législateur devrait prendre des temps de pause.
21:30Je ne parle pas que le législateur national.
21:36En ce moment, c'est mécanique.
21:38On n'a pas le choix.
21:38Parce qu'il y a beaucoup de lois,
21:42notamment européennes, en la matière.
21:45Et il faut arriver à faire discuter ces lois.
21:47On travaille beaucoup,
21:48CNIL, ARCOM, sur l'interrégulation.
21:52Comment DSA et RGPD,
21:54on arrive à concilier des choses
21:56qui, parfois, ne sont pas tout à fait évidentes.
21:58Mais on ne peut pas compter que sur le droit.
22:03Enfin, juste pour finir,
22:04vous avez dit quelque chose de très important,
22:07M. Caron,
22:08c'est écoutons nos ados.
22:11Écoutons aussi leurs parents.
22:12Écoutons aussi, on a parlé, par exemple, de l'école.
22:14Écoutons les enseignants.
22:15Il faut aller sur le terrain.
22:19Il faut discuter avec les gens.
22:20Et merci beaucoup à l'ARCOM d'avoir invité une classe à venir ici.
22:26Merci à la classe d'être venus.
22:28Merci à eux d'être venus.
22:29J'espère qu'ils ont l'occasion de s'exprimer.
22:32C'est hyper important d'écouter.
22:34Alors, les études le font,
22:36mais les études, c'est nécessaire.
22:39Mais voilà, plus on les écoute, mieux c'est.
22:40On en a conscience.
22:41Et c'est pour ça que l'ARCOM, d'ailleurs,
22:43va maintenant travailler directement avec un panel jeunes
22:46parce qu'on a vraiment conscience
22:47qu'il n'y a pas que les adultes
22:49qui ont les réponses à donner à ces problématiques
22:53qui concernent les jeunes.
22:54Anne Cordier,
22:55sur ces équilibres bien complexes.
22:59D'abord, Anne Cordier,
23:00qui va quand même expliquer
23:01qu'en tant que chercheuse en sciences de l'information
23:02et de la communication,
23:03elle va un jour par semaine dans des classes,
23:06voir des enseignants, voir des élèves.
23:08Et que je suis, depuis 2012,
23:11une quinzaine de jeunes nés...
23:14Tiens, 2012 ?
23:16Jonathan Haït a arrêté ça.
23:17C'est peut-être à cause de moi
23:18qu'en fait, la santé mentale des jeunes se degrade.
23:21Depuis 2012, ce n'est pas Instagram.
23:23C'est Anne Cordier commence son enquête longitudinale.
23:26Bon, très sérieusement.
23:27C'est quand même important de le dire aussi.
23:29Effectivement, aller les rencontrer.
23:33En fait, on ne fait que parler d'eux sans jamais leur donner la parole.
23:36Ou alors, on leur donne la parole en ayant un cas.
23:40Et forcément, c'est soit son enfant,
23:42parce que forcément, c'est la huitième merveille du monde,
23:45soit le cas problématique,
23:46mais jamais les adolescents,
23:48que moi, j'appelle, comme mes étudiants d'ailleurs,
23:51les jeunes extraordinaires,
23:52puisqu'ils le sont.
23:54Chacun a sa spécificité, sa singularité.
23:56Et ça, il faut l'entendre.
23:58Évidemment, là, on entre par les risques.
23:59Donc, de fait, on va interroger des jeunes
24:01qui se sont exposés au risque,
24:02ce qui est tout à fait normal,
24:03puisque c'est essentiel et que c'est un vrai sujet.
24:06Mais quand on va aussi rencontrer,
24:09de façon indifférente,
24:11les différents profils,
24:14on voit une très grande diversité,
24:16avec, de toute façon, chez toutes et tous, vraiment,
24:18une vraie conscience.
24:19Ça, c'est certain.
24:20Et là, l'enquête, elle vient confirmer des choses
24:23dont nous, on avait aussi vu la porter.
24:27Une vraie conscience.
24:28Une montée en puissance, d'ailleurs,
24:29de cette conscience, quand même,
24:31et d'une connaissance plus fine des fonctionnalités,
24:35par exemple, des dispositifs techniques.
24:37Moi, je ne dirais pas les plateformes,
24:38mais je vais y revenir, je vais dire pourquoi après.
24:40Donc, des différents dispositifs techniques.
24:42On voit une montée en compétences, là, clairement,
24:44chez eux, au fil des années.
24:46Et, alors, je ne vais pas revenir sur ce que François-Marie Caron,
24:51en gros, François-Marie Caron a fait le grand 1.
24:53Je vais faire le grand 2.
24:54Comme ça, ça va me permettre de gagner du temps.
24:56Mais il y a évidemment un troisième élément,
24:58moi, qui me paraît important dans ce que vous avez dit,
25:00la régulation, les politiques publiques, etc.,
25:02et l'éducation, en fait.
25:05Mais l'éducation, ça ne se décrète pas, déjà.
25:10Et puis, surtout, ça suppose de la progressivité.
25:13Ça veut dire qu'on doit progressivement entrer dans le monde,
25:18progressivement entrer dans le monde numérique,
25:20qui est le même monde, qui est un monde prolongé.
25:23On doit progressivement aussi apprendre à...
25:27Et moi, ce qui me fait très, très peur
25:29dans cette espèce de porte fermée
25:32et puis qui va s'ouvrir d'un coup,
25:33tel qu'on nous l'annonce, en tout cas, pour le moment,
25:36c'est quand la porte s'ouvre, en fait,
25:39qu'est-ce que je fais ?
25:40Et donc, moi, je pense que oui, dès le plus jeune âge,
25:42il faut faire de l'éducation au numérique,
25:46insister sur la nécessité d'une culture numérique.
25:49Alors, l'éducation au numérique,
25:50ce n'est pas mettre des tablettes dans les écoles,
25:52ce n'est pas faire de l'écran pour l'écran,
25:53comme l'a dit un Premier ministre,
25:56il y a quelques...
25:57Je ne sais plus, mois ou années,
25:59mais en tout cas, il n'y a pas si longtemps que ça.
26:01Ça change trop.
26:03Mais cette charge contre l'école,
26:04elle est insupportable.
26:06L'école ne fait pas de l'écran pour l'écran.
26:07Et d'ailleurs, les trois derniers rangs le savent,
26:12d'abord parce qu'il faudrait qu'il y ait des écrans dans l'école
26:13et que l'accès au réseau n'est pas...
26:18Voilà.
26:18Il y a un moment, il faut se rendre compte des réalités.
26:22Et puis ensuite, parce que bien sûr,
26:24il y a toujours un projet pédagogique,
26:25il y a toujours un encadrement éducatif
26:27et que justement, le lieu principal
26:30où il doit y avoir du numérique
26:32et où il doit y avoir de l'éducation
26:34par le numérique et au numérique,
26:36c'est l'école,
26:37parce que c'est un lieu de mixité sociale.
26:39Et donc, il faut quand même penser
26:40qu'il y a des inégalités sociales majeures
26:42d'accès à l'information,
26:44de traitement de l'information,
26:45d'évaluation, de connaissance de source.
26:47Et oui, tout le monde, même les pauvres,
26:49ont droit d'accéder à de l'information
26:51et de jouer aux jeux vidéo,
26:53même s'ils ne s'appelaient pas à Jonathan Hayt
26:54et à d'autres.
26:55Et ça, vraiment, j'insiste.
26:56Ensuite, l'école, c'est aussi un lieu
26:58où il y a des adultes qui sont protecteurs,
27:01qui sont responsables,
27:02qui sont formés,
27:03pas toujours autant qu'on aimerait,
27:05qu'on voudrait peut-être,
27:06mais qui sont formés
27:07et qui aiment les adolescents et les enfants.
27:12Et ça, c'est quand même hyper important.
27:14Et donc, j'insiste,
27:15il est essentiel de renforcer
27:17cette éducation au numérique dans l'école,
27:21pas avec des projets bling-bling
27:23ou avec une heure par-ci, par-là,
27:25mais avec des programmes mis en application.
27:28Il y a quand même pas mal de cadres
27:29et des temps dédiés.
27:31Et la culture numérique,
27:32elle s'accompagne nécessairement aussi,
27:34et ça répond à la question du jeune homme tout à l'heure
27:36sur Jean-Port Manov aussi,
27:38en tout cas une partie,
27:39c'est aussi des compétences psychosociales.
27:42C'est-à-dire que c'est aussi apprendre à vivre ensemble,
27:44apprendre à s'exprimer les uns avec les autres,
27:46savoir conduire un débat,
27:48ne pas confondre la réaction, l'action,
27:50l'opinion, le fait, le savoir, etc.
27:53Et ça, ça passe aussi
27:55par une éducation digne de ce nom.
27:59Et puis, je voudrais juste dire une dernière chose.
28:02J'ai dit que je refusais le terme de plateforme
28:03parce que depuis tout à l'heure,
28:05on dit les plateformes.
28:07Ça m'agace.
28:08C'est comme les écrans.
28:09C'est comme les jeunes, d'ailleurs.
28:10C'est agaçant.
28:11Enfin, le jeune n'est pas agaçant.
28:13Je veux dire le fait de dire les machins.
28:14Et les plateformes, en fait,
28:17ce qui m'intéresse, c'est que
28:18j'entends tout le monde dire
28:20« Ah oui, parce qu'il n'y a pas d'alternative. »
28:22Ben si, en fait.
28:23D'ailleurs, un des lycéens tout à l'heure a dit
28:26« On dit souvent, l'information, c'est le pouvoir. »
28:29Oui.
28:30Et celui qui a dit ça,
28:31il s'appelle Aaron Schwartz.
28:33C'est un militant des communs.
28:34C'est quelqu'un qui est à l'origine
28:36de choses que vous connaissez.
28:38Wikipédia, Reddit, les flux RSS.
28:40Bref, un autre web est possible.
28:42Un autre monde est possible.
28:45C'est aussi ça qu'on doit porter, il me semble.
28:47C'est que le monde numérique, c'est notre monde.
28:51Là, on a fait le choix.
28:52Une société entière a fait le choix d'accéder
28:55et d'adopter des modèles prédateurs.
28:57On peut faire le choix d'adopter d'autres modèles.
29:00Ils sont là.
29:01Et en plus, ils sont gratuits.
29:03En vrai, vous n'êtes pas le produit quand vous les utilisez.
29:06Donc, ça change quand même beaucoup de choses.
29:08Et moi, je voudrais qu'on réinsiste sur ça,
29:10qu'on arrête de dire que les plateformes favorisent l'engagement.
29:12Non, elles favorisent l'exploitation des données personnelles
29:16et des instincts des individus,
29:17ce qui n'est pas la même chose que l'engagement.
29:19Wikipédia favorise l'engagement, par exemple.
29:22Mastodon peut favoriser l'engagement.
29:24Tout ça avec un design safe pour les utilisateurs,
29:27et c'est important de le dire.
29:29Et dernière chose, mais j'y tiens vraiment, vraiment, vraiment.
29:33Ce sont des choix de société.
29:34Mais on ne fait pas des choix de société dans la peur,
29:37dans l'interdiction, dans cet hyper contrôle et cet hyper fantasme
29:41de l'un et de l'autre.
29:43Et oui, je crois qu'on peut protéger, on peut parler risque,
29:47mais on doit aussi parler, et ça va ensemble,
29:49de joie et de plaisir et de chance aussi d'accéder à de l'information.
29:54C'est un droit fondamental pour nos sociétés.
29:58Merci beaucoup pour ce qui est un véritable plaidoyer
30:03pour les jeunes, pour leurs parents, pour l'éducation nationale.
30:07C'est sûr qu'on en a besoin.
30:08D'ailleurs, l'étude montre à quel point, effectivement,
30:11il y a ce besoin d'arrêter les discours culpabilisants
30:14et d'avancer parce que tout le monde le souhaite.
30:18Je pense que vous aurez pu constater que, en tout cas,
30:20nous sommes dans le pluralisme des opinions
30:23et que ça nous permet aussi d'avoir un pluralisme
30:27des idées qui sont exprimées sur ces sujets-là.
30:32Je vous propose donc maintenant,
30:33puisque nous avons pu garder un petit créneau
30:36pour les questions-réponses,
30:38l'Icée de la Croix, posez toutes vos questions d'un seul coup.
30:42Et comme ça, on y répondra,
30:43et au moins, on est sûr de ne pas en oublier.
30:46Et ensuite, avec un peu de chance,
30:47ça nous permettra de garder un tout petit peu de temps
30:49pour les questions de la salle.
30:54Bonjour.
30:55Du coup, aujourd'hui, on sait que les jeunes,
30:56ils ont accès très tôt aux réseaux sociaux
30:58et ils voient tout le temps des images faussées,
31:01des corps qui sont retouchés et des vies embellies
31:04parce que les influenceurs ne montrent que le positif.
31:07Et ça ne représente pas du tout la vraie vie.
31:09Cela peut créer des troubles du comportement alimentaire,
31:12des complexes, des problèmes de santé mentale
31:14et une sensation d'échec.
31:15Et du coup, selon vous, la question,
31:17ce serait comment identifier et pénaliser les personnes
31:20qui transmettent une image assez faussée
31:22par les filtres des retouches ou autres ?
31:25On imagine mal les GAFAM se passer des 27 pays européens.
31:54est-ce que c'est aussi une des forces majeures de lieux
31:56de pouvoir faire pression aussi efficacement
31:58sur ces grandes entreprises ?
32:02Ok, merci.
32:03Est-ce qu'il y a encore une question ?
32:05Ou est-ce que...
32:08Bonjour.
32:13Alors, on voit que l'IA est de plus en plus présente dans nos vies,
32:17ce qui développe une méfiance des gens.
32:21Est-ce que vous pensez que ça peut pousser les utilisateurs en ligne
32:24à se tourner vers des groupes qui essaieraient de contrer,
32:29que ce soit des groupes complotistes, voire sectaires ?
32:32Merci.
32:33Merci infiniment.
32:35Alors, sur la question qui a trait au rôle des influenceurs,
32:40qui souhaite répondre ?
32:42Je peux me lancer ?
32:44Je m'en doute.
32:45Après, je me mets à disposition.
32:48Non, parce qu'avant de travailler sur la commission d'enquête TikTok,
32:53je suis l'auteur de la loi sur les influenceurs de 2023,
32:57co-auteur avec un député qui s'appelle Stéphane Vogetta.
33:00Et je suis actuellement parlementaire en mission
33:02du gouvernement de François Bayrou,
33:03mais bon, les choses se prolongent,
33:06sur la régulation des réseaux sociaux,
33:09notamment, enfin, c'est un peu plus large que ça.
33:10Donc, on a réfléchi à ces questions-là,
33:13parce que c'est vrai que les stéréotypes sexistes
33:17et les injonctions à la maigreur
33:19sont monnaie courante sur les réseaux sociaux.
33:22Donc, il y a deux choses.
33:23Il y a à la fois la régulation des influenceurs eux-mêmes
33:27qui font de la pub pour des produits de beauté,
33:30amincissants, amégrissants,
33:32qui utilisent des filtres pour présenter, en fait,
33:35des vertus spécifiques que les produits ne leur donnent pas.
33:38Mais, par exemple, cette magnifique crème anti-rides,
33:41grâce à un filtre, en fait, elle marche très, très bien.
33:43Donc, voilà, enfin, ce super truc amincissant
33:46avec quelques effets pareils de retouches,
33:49ça marche super.
33:49Donc, on a imposé un certain nombre de règles.
33:52Déjà, on a interdit de faire n'importe quel type de pub
33:56si vous faites des injonctions de santé,
33:58enfin, des trucs où vous dites que c'est bon pour la santé,
34:00alors que ça n'est pas bon.
34:01Voilà, c'est illégal.
34:03Si vous ne précisez pas dans une publicité
34:06que vous avez retouché l'image et que vous le faites,
34:08c'est illégal, et ainsi de suite.
34:10Donc, vous devez, voilà, informer votre public
34:12des différents effets.
34:14Donc, ça, c'est ce qu'on a fait sur la loi influenceur.
34:15On a aussi interdit la publicité pour la médecine,
34:17la chirurgie esthétique,
34:18en disant que c'était particulièrement dangereux.
34:21Et donc, voilà, on a aussi essayé de travailler là-dessus.
34:24Mais on ne peut pas, non plus, changer la société.
34:27Parce que là, c'est aussi un modèle social
34:29qui valorise les corps, etc.
34:32Et c'est vrai que les corps conçus comme beaux,
34:35c'est-à-dire maigres,
34:37et donc, du coup, aujourd'hui,
34:39c'est aussi sur tout ça qu'il faut travailler.
34:41Et le problème, c'est que,
34:42on évoquait, vous l'avez évoqué dans votre question,
34:45les réseaux sociaux vont avoir tendance.
34:47Alors, les réseaux sociaux,
34:49certains réseaux sociaux, je veux bien le dire,
34:51mais sauf qu'en général, aujourd'hui,
34:53quand je dis réseaux sociaux,
34:54vous comprenez de qui je veux parler.
34:56Et vous ne pensez pas à mastodontes.
34:59Les réseaux sociaux valorisent aussi ce type de contenu-là,
35:02parce que soit ils choquent, soit ils donnent envie.
35:04Et donc, c'est ce que vous allez regarder.
35:06Donc, là, il y a ce sujet de la régulation de l'algorithme
35:09sur lequel on revient,
35:10et qui est bien plus large que simplement la loi influenceuse.
35:14Merci beaucoup.
35:14Je vais peut-être prendre la question sur l'Europe,
35:16parce que l'ARCOM s'est beaucoup investie,
35:18évidemment, sur la régulation européenne.
35:22Évidemment, travailler au niveau de l'Europe
35:24par rapport à des plateformes
35:25qui ne sont pas implantées dans chaque pays
35:29et qui ne tiennent pas leur fréquence
35:31du régulateur national,
35:34c'est la seule possibilité
35:35pour avoir une possibilité réelle d'influence
35:38et pouvoir avoir des actions efficaces.
35:41Et à l'inverse,
35:42ça répond aussi à la demande des plateformes elles-mêmes
35:44qui n'ont pas envie d'avoir une réglementation
35:47qui diffère dans chaque pays,
35:48parce que ça serait quasiment inapplicable pour elles.
35:51Donc, oui, le niveau de l'Europe est très nécessaire.
35:56Oui, ça retarde peut-être un peu
35:58parce que forcément, c'est un peu moins souple
36:00quand on est obligé d'être sous l'arcane
36:03de 27 pays qui doivent décider ensemble
36:05des actions à mener.
36:06Mais c'est la seule solution.
36:08Et franchement, l'Europe ne se débrouille pas si mal
36:11dans le défi qui lui est posé.
36:14Et puis, sur la dernière question...
36:16Non, sur l'Europe aussi,
36:18si vous permettez,
36:19comme le RGPD a un petit peu plus d'ancienneté
36:21que le règlement sur les services numériques,
36:24on a des exemples concrets
36:26d'actions répressives
36:28qui ont abouti au niveau européen
36:30pour faire bouger les lignes
36:31sur un certain nombre de réseaux sociaux.
36:34Les 27 CNIL d'Europe
36:36ont pris une décision portée
36:40par la CNIL irlandaise,
36:42imposant par exemple à TikTok et à Instagram
36:45avec plusieurs centaines de millions d'euros d'amende
36:47et une injonction de le faire dans un certain délai
36:51de, par défaut, rendre les comptes des mineurs privés
36:57alors qu'ils étaient auparavant publics.
36:59Et ça, c'est parce que c'est effectivement 27 pays unis
37:03qui prennent cette décision.
37:06Le RGPD a été aussi le premier texte européen
37:10à avoir ce qu'on appelle une portée extraterritoriale.
37:13C'est-à-dire que c'est un texte qui s'applique aux acteurs
37:15qui sont en France et dans les autres pays de l'Union européenne,
37:17qui s'applique aussi à des acteurs hors Union européenne
37:21qui veulent avoir accès au marché de l'Union européenne.
37:25Et donc, à travers le monde, il y a eu des évolutions,
37:28des lois de tout un tas de pays
37:30pour se rapprocher du standard du RGPD
37:33et des acteurs économiques hors Union européenne
37:36qui veulent pénétrer notre marché,
37:37aujourd'hui, conçoivent leurs produits
37:38pour essayer d'être conformes au RGPD.
37:41Donc ça, c'est effectivement la puissance de l'Europe.
37:44Merci beaucoup. Il reste la question sur l'IA.
37:46D'accord. Donc la question sur l'IA qui était plutôt le lien
37:52entre la manipulation, si j'ai bien compris,
37:55et éventuellement le fait d'aller s'enfermer
37:57dans une bulle de désinformation par l'IA, c'est ça ?
38:00C'est un petit peu ça l'idée ? C'était ça que tu voulais dire ?
38:02Oui. Alors, en fait, ça c'est un risque de toute façon
38:05que tout le monde va avoir partout dans le monde, d'ailleurs,
38:09en ligne ou hors ligne.
38:11En réalité, on est tous dans des bulles de filtre.
38:13La preuve, moi, avec mon collègue, par exemple,
38:16là, on est un peu une bulle à nous tous seuls,
38:17c'est-à-dire qu'on est d'accord avec nous-mêmes.
38:19Et donc, du coup, on refuse un peu les choses
38:21qui sont un peu en dehors de nous.
38:22Mais je suis sûre que c'est le cas de d'autres.
38:24Dans la salle, je ne vise personne, mais voilà.
38:26Donc, alors, la difficulté, une fois qu'on a dit ça,
38:29quand même, c'est qu'avec l'IA, la vraie difficulté,
38:32c'est qu'en fait, on pense qu'on est face à des informations.
38:34À des, plus loin, informations.
38:37Et donc, déjà, il faut qu'on explique comment fonctionne l'IA,
38:39qu'on comprenne mieux ce que c'est que l'IA générative,
38:43qui va générer par des rapprochements statistiques, en fait.
38:46Donc, on n'est pas exactement sur la même chose
38:48que sur les groupes de complotistes, j'allais dire, connus,
38:51si tant est qu'ils le soient.
38:53Et on ne va pas leur faire de la pub.
38:55Après, la difficulté, là aussi, qu'on a avec l'IA,
38:58mais de toute façon, l'IA Act est là.
39:01Et il va y avoir, c'est sûr, des renforcements à faire,
39:06parce que la vraie difficulté, là encore,
39:08c'est comme avec les plateformes de réseaux sociaux numériques,
39:11c'est les modèles économiques qui sont sous-tendus, en fait.
39:14Ben oui, c'est-à-dire qu'on revient toujours à la même chose,
39:16c'est que si le modèle économique qui est sous-tendu par cette IA
39:21va chercher dans certains, on va dire, corpus, entre guillemets,
39:28et est configuré de manière à fournir un certain type de données,
39:33de fait, ça va orienter l'opinion.
39:36C'est pour ça que, par exemple, c'est assez drôle,
39:38vu de France, en tout cas, mais, par exemple,
39:41Elon Musk et... Picsou ? Picsou, voilà.
39:46Donald Trump ont appelé KGPT ou WokGPT, par exemple,
39:50considérant que GROC, donc leur IAE,
39:54était évidemment bien meilleur que Tchadjupiti,
39:57considéré de gauche, ce qui laisse son geur.
40:01Mais donc, ça montre combien c'est un enjeu.
40:03Là aussi, c'est un enjeu politique, c'est un enjeu économique.
40:07Et là encore, on a des choix possibles,
40:09en tant qu'individu aussi, en fait.
40:11Il existe des IA génératives, des modèles d'IA génératives
40:16qui ne relèvent pas de ces modèles prédateurs
40:23et problématiques aussi.
40:25Donc là, encore une fois, il y a des encouragements politiques
40:27à faire et il y a des renforcements juridiques.
40:30Merci. Alors, très, très rapidement,
40:32pour qu'on puisse avoir quand même...
40:33Si ça vous intéresse de pouvoir comparer
40:35comment fonctionnent les systèmes d'IA génératives,
40:37vous avez un outil formidable qui s'appelle Comparia.
40:40Vous faites un prompt et il vous donne les résultats
40:44de plusieurs IA génératives différentes
40:46et vous avez même la consommation
40:48que chaque IA a générée pour produire la réponse.
40:52C'est un outil très intéressant,
40:53notamment pour les lycéens et étudiants, mais pas que.
40:57Merci beaucoup.
40:58Alors, j'ai un prompteur devant moi.
40:59Il nous reste 4 minutes 32.
41:02Est-ce qu'il y a des questions dans la salle ?
41:04Peut-être les prendre tout ensemble,
41:06s'il y en a plusieurs.
41:07Et nous essayerons d'y répondre dans ce temps.
41:09Donc, si vous voulez bien être d'ailleurs concis dans vos questions.
41:13Merci beaucoup.
41:14Bonjour, Mégane Jansou, journaliste pour Contexte.
41:17Question pour la CNIL.
41:18On a beaucoup parlé de majorité numérique.
41:21On connaît les projets du gouvernement
41:22pour faire un projet de loi sur le sujet.
41:26Pourquoi on ne parle pas de l'utilisation du RGPD
41:30pour interdire les réseaux sociaux aux mineurs,
41:32alors que, visiblement, la Commission a l'air de dire
41:34que c'est OK, ça peut servir à ça ?
41:36Alors, je ne vais pas polémiquer avec la Commission européenne
41:41et ses porte-parole.
41:43Nous, notre analyse, et c'est celle des autorités partout en Europe,
41:48c'est que le RGPD ne permet pas d'interdire
41:51la création d'un compte par un mineur.
41:54Le RGPD soumet une interdiction de consentement
42:00à certains traitements de données à caractère personnel
42:04avant l'âge de 15 ans en France,
42:06mais ça peut être des âges différents
42:07dans les autres pays européens.
42:09Et entre 15 et 18 ans,
42:14au seul accord du jeune,
42:15et en dessous de 15 ans,
42:17effectivement, a priori interdit,
42:19sauf qu'on s'en prend du parent.
42:20Mais donc, on n'est pas sur la création du compte.
42:22On est, par exemple, sur l'acceptation
42:24de la géolocalisation, des cookies, etc.
42:27C'est un point juridique un peu complexe.
42:32Merci beaucoup.
42:34D'autres questions ?
42:39Écoutez, alors, effectivement,
42:41c'est vrai que ça a été dense,
42:43que ça a été animé par moments,
42:47et que beaucoup de choses se sont dites.
42:49Donc, il reste à vous remercier beaucoup,
42:52à remercier, évidemment, le lycée de La Croix
42:54et son professeur d'être venu ici.
42:58Tous ceux qui sont restés.
43:00Martin, est-ce que tu veux dire un dernier mot ?
43:02Non ?
43:03Alors, voilà, nous vous renvoyons
43:05à regarder en détail cette étude,
43:07parce qu'encore une fois,
43:09il y a beaucoup de choses qu'on retrouve dedans
43:11qui ont été dites sur les deux tables rondes,
43:13et qui sont, certes, parfois alarmantes,
43:16mais d'autres fois positives.
43:17Et c'est là-dessus, je pense,
43:18qu'il vaut mieux rester.
43:19Alors, on a d'abord le rapport
43:24de la commission TikTok à prendre.
43:26Alors, si vous voulez, je le redis,
43:28vous avez, pour ceux qui veulent lire ce soir,
43:32et vous ne vous endormirez pas, c'est passionnant,
43:3430 pages d'introduction, 300 pages de rapport,
43:37et 800 pages de compte-rendu d'audition.
43:39Vous pouvez les regarder en vidéo aussi,
43:41en accéléré, sur le site de l'Assemblée nationale.
43:44Il y a des gens qui m'ont dit qu'ils l'avaient fait.
43:45Donc, n'hésitez pas.
43:46Merci à tous.
43:48Tant qu'on y est, on vous présente un livre
43:50qui s'appelle
43:50« Faut-il et interdire les réseaux sociaux »,
43:53préfacé par Serge Tisseron,
43:55sous la direction de Serge Tisseron,
43:56avec Grégoire Borst, moi-même, et Nadia Dame.
43:58Et je pense que ça alimentera le débat,
44:00et c'est 5 euros.
44:02Et moi, j'aimerais bien qu'on n'utilise plus
44:04le terme contrôle parental,
44:05mais paramétrage parental.
44:07Ou accompagnement parental,
44:08ce qui a été proposé dans l'étude.
44:10Merci à tous.
44:11Bonne soirée.
44:12Bonne soirée.
Recommandations
0:32
1:45
2:30
2:36:26
46:09
29:04
19:58
1:22
35:58
1:40