00:00Avec Katia Roux, elle est chargée de plaidoyer technologie et droits humains à Amnesty International France.
00:07Bonsoir à vous, merci d'être là ce soir avec nous.
00:11Le texte de loi devrait a priori trouver une majorité à l'Assemblée Nationale.
00:15Alors sur le constat, c'est-à-dire les risques des réseaux sociaux sur les ados,
00:19qui sont listés d'ailleurs dans la proposition de loi, cyberharcèlement, comparaison permanente,
00:25exposition à des contenus violents, système de captation de l'attention
00:29au détriment du sommeil.
00:30Est-ce que vous alertez sur tous ces dangers et quel est le pire de tous ?
00:36Nous alertons absolument sur tous les dangers que vous avez cités.
00:40Quand on creuse un petit peu le modèle d'activité des réseaux sociaux,
00:44on se rend compte effectivement que c'est un modèle fondé sur la surveillance,
00:47la captation des données personnelles, qui repose sur des choix addictifs.
00:52C'est-à-dire que les plateformes ont fait le choix de créer des réseaux
00:56qui maintiennent le plus longtemps possible les utilisateurs et utilisatrices en ligne.
01:01Donc oui, les impacts peuvent être effectivement graves sur, par exemple,
01:05des jeunes vulnérables.
01:06On a mené une enquête à Amnesty International sur TikTok
01:09qui a montré les effets potentiels sur la santé mentale de jeunes vulnérables.
01:13Ce sont des systèmes qui entraînent dans des spirales de contenus potentiellement toxiques,
01:18potentiellement préjudiciables,
01:20et qui peuvent avoir des vraies conséquences dramatiques dans la vie réelle.
01:23Donc oui, on partage tout à fait le constat de l'impact de ces plateformes
01:28qui est directement lié au choix de conception des entreprises, des réseaux sociaux.
01:33Et c'est bien à ça qu'il faut s'attaquer aujourd'hui.
01:35Le gouvernement donc engage une procédure accélérée sur ce texte
01:38qui vise lui donc à interdire les réseaux sociaux au moins de 15 ans
01:42et à interdire les portables dans les lycées.
01:45L'interdiction est-elle la solution ?
01:47Alors effectivement, le débat aujourd'hui est très présent dans l'espace politique
01:54et c'est tant mieux.
01:55On se réjouit que les pouvoirs publics se saisissent de cette question
01:58et en fassent une urgence parce que c'est une question aussi de droits humains.
02:01Impact sur le droit à la vie privée, impact sur la liberté de penser,
02:04impact sur le droit à la santé.
02:07Maintenant, est-ce que l'interdiction est une solution satisfaisante ?
02:10Effectivement, on questionne cela puisque ça ne correspond pas vraiment à la réalité
02:15de toute une génération qui vit à la fois en ligne et hors ligne.
02:20On l'a vu dans le reportage que vous venez de passer.
02:23Les jeunes disent en fait leur addiction, leur impuissance à se défaire de ces réseaux-là.
02:28Mais est-ce qu'une interdiction va pouvoir effectivement les rendre plus sûres ?
02:31Eh bien, probablement pas puisqu'en fait le fonctionnement de ces réseaux ne va pas changer.
02:35On craint que les jeunes puissent contourner cette interdiction.
02:38Et puis effectivement, le fonctionnement, les contenus toxiques, problématiques
02:44resteront en fait sur ces réseaux.
02:46Donc aujourd'hui, nous on pointe davantage la responsabilité des plateformes.
02:50On demande à ce que les réglementations qui existent, notamment en Europe,
02:53donc le Digital Services Act qui encadre les plateformes,
02:56qui leur impose des obligations en termes de prise en compte de ces risques systémiques
03:00justement, soient mises en œuvre de manière stricte.
03:03Aujourd'hui, on en est loin et on pense que c'est ça la solution
03:07qui permettra de rendre cet environnement numérique sûr pour toutes et tous.
03:11Alors l'Australie a fait, il y a un mois et demi,
03:14a mis en place cette interdiction justement des réseaux sociaux aux adolescents.
03:18Est-il possible de faire un premier bilan ?
03:19C'était il y a à peu près deux mois.
03:23Alors c'est difficile.
03:24Nous-mêmes, nous n'avons pas enquêté de manière exhaustive sur l'impact de la mesure.
03:28On entend parfois, selon les témoignages, des personnes qui disent
03:32« bon voilà, ça nous a sorti un petit peu de la plateforme »
03:38et d'autres qui nous disent « en fait, c'est très facilement contournable,
03:41en fait, la vérification de l'âge ».
03:43Donc aujourd'hui, c'est difficile de tirer un bilan.
03:46En revanche, les craintes persistent parce que les mesures qui sont mises en avant,
03:50et le reportage l'a mentionné, en termes de vérification d'âge,
03:52ça va être la reconnaissance faciale ou l'accès à des données personnelles.
03:56Et il ne faudrait pas que les mesures qui soient mises en place
03:59pour contrer les effets négatifs de ces plateformes
04:02comportent elles-mêmes des risques en matière de droits humains.
04:05Donc aujourd'hui, on n'a pas vraiment de système de vérification de l'âge
04:08qui soit fiable et qui garantisse qu'il n'y ait pas davantage d'atteintes aux droits humains.
04:13Et donc, on vient questionner cette mesure-là.
04:16Et effectivement, il y a une volonté d'accélérer les choses en France.
04:20Nous, on préférait qu'il y ait une volonté de vraiment remettre la responsabilité
04:24sur les plateformes et de mettre en œuvre une réglementation
04:28qui n'est pas parfaite, mais qui pourrait vraiment améliorer
04:31le quotidien et l'expérience en ligne de tous les utilisateurs et utilisatrices.
04:34Donc vous, vous souhaiteriez une réglementation européenne
04:38appliquée à tous les Européens et qui puisse faire en sorte
04:42que les plateformes elles-mêmes soient réglementées.
04:45C'est ça, en fait, ce que vous défendez à Amnistie internationale ?
04:48Exactement. Et cette réglementation, elle existe.
04:51C'est le Digital Services Act, le DSA, qui est mis en œuvre depuis 2023
04:56pour les très grandes plateformes, donc les entreprises des réseaux sociaux,
04:59et qui, plus de deux ans après, peinent à être mis en œuvre efficacement.
05:02Il y a des enquêtes qui ont été ouvertes par la Commission européenne.
05:05On attend toujours les conclusions, notamment celles précisément
05:08sur les effets de TikTok sur la santé mentale des jeunes.
05:11Aujourd'hui, il y a des mesures très claires qui ont été adoptées dans ce texte
05:15de lutter contre la conception addictive, donc cette lecture automatique des vidéos,
05:21le fait qu'il y a un système de recommandation algorithmique
05:24qui vient personnaliser tous les contenus qu'on va recevoir en ligne,
05:27le défilement à l'infini, tout ça, effectivement, fait que ça rend les jeunes
05:31et les moins jeunes, d'ailleurs, accros.
05:34Et c'est contre ces choix addictifs qu'il faut lutter,
05:37c'est contre le modèle de ces plateformes qui vise à maintenir
05:41les utilisateurs en ligne le plus longtemps possible,
05:43quel que soit le contenu qui est poussé.
05:45Peu importe si le contenu est problématique,
05:47peu importe si ça a des conséquences sur les droits des utilisateurs et utilisatrices,
05:50l'idée, c'est de maintenir les gens le plus longtemps possible en ligne
05:53pour faire du contenu personnalisé, pour faire de la publicité ciblée
05:57et, in fine, pour faire du profit.
05:58On voit bien que c'est quand même l'interdiction qui prend un peu le dessus
06:01puisque là, il y a un consensus au sein de l'Assemblée nationale.
06:06Donc, c'est une mesure plus radicale, peut-être plus ou moins efficace.
06:09C'est ce que vous dites.
06:11Votre approche est peut-être, en étant plus globale, plus longue,
06:14elle va prendre plus de temps à être mise en place.
06:16Donc, une interdiction pourrait peut-être accélérer cela.
06:20C'est vrai qu'on nous dit souvent,
06:22le changement de modèle d'activité des plateformes,
06:25c'est un peu utopique, en fait, comme vision.
06:28En réalité, pas du tout.
06:29Encore une fois, ce sont des choix.
06:31Donc, ça peut prendre effectivement du temps.
06:33Mais il ne faut pas que, dans cet intervalle de temps,
06:35des mesures qui pourraient priver aussi d'accéder à des informations,
06:40priver de la liberté de s'exprimer ou de participer au débat public,
06:46ne puissent effectivement impacter encore plus les droits
06:49des jeunes utilisateurs et utilisatrices.
06:51Donc, oui, c'est la mesure aujourd'hui qui est privilégiée.
06:52On comprend pourquoi cette mesure est poussée en termes de symboles pour aller vite.
06:59Malheureusement, ça risque non seulement de manquer l'effet escompté,
07:04peut-être de créer de nouveaux risques en matière de droits humains,
07:07mais surtout, ça ne rend pas les plateformes plus sûres et plus responsables.
07:10Et il faut continuer à demander, en fait, un changement de ce modèle.
07:14Il faut continuer à remettre en cause ce monopole, en fait, de ces grandes plateformes,
07:19parce qu'on nous fait croire depuis très longtemps maintenant
07:21qu'il n'y a pas de modèle alternatif.
07:23Et c'est ça aussi une des grandes réussites de ces plateformes.
07:25C'est finalement, si on nous dit ça ne peut pas changer,
07:29qu'il faut interdire entre-temps,
07:30eh bien, on ne remet pas en cause le modèle.
07:32On ne fait pas émerger d'autres alternatives plus respectueuses des droits humains.
07:36Et puis, on discrédite finalement les personnes
07:37qui revendiquent ces changements systémiques.
07:39Aujourd'hui, il faut absolument que la responsabilité
07:42soit replacée sur les plateformes.
07:43Merci, Katia Roux.
07:45Vous êtes chargée de plaidoyer Technologie et Droits Humains
07:47à Amnistie Internationale France.
07:49Merci.
07:50Merci.
07:51Merci.
07:52Merci.
07:53Merci.
Comments