00:00Bonjour Maître, merci d'être avec nous.
00:02Pour bien comprendre ce qui a motivé ces familles à attaquer en justice le réseau social chinois,
00:06j'aimerais qu'on revienne ensemble sur leur histoire.
00:09Elles ont cofondé avec vous un collectif qui s'appelle Algos Victima
00:12et à l'origine, il y a le drame vécu par une jeune fille, Marie, 15 ans.
00:16Qu'est-ce qui s'est passé pour elle ? On la voit juste ici.
00:20Marie était victime de harcèlement scolaire.
00:25Elle s'est donnée la mort il y a trois ans maintenant.
00:30Et avec les parents, on a commencé à mener le combat judiciaire
00:35pour trouver la vérité de ce qui avait pu se passer dans son établissement.
00:39Et au cours de cette enquête et de ce dossier,
00:42qui est actuellement dans les mains d'un juge d'instruction,
00:45on s'est également rendu compte que dans les derniers mois avant sa mort,
00:50si je puis m'exprimer ainsi, elle s'était complètement enfermée,
00:55réfugiée dans le réseau social TikTok,
00:58a diffusé des vidéos très alarmantes sur son état,
01:01sur son envie d'en finir.
01:03Et que non seulement la plateforme n'a pas censuré ces vidéos
01:06qui se sont diffusées tranquillement à d'autres,
01:10mais également elle en a reçu dans la même idée.
01:15Donc ça a alimenté en quelque sorte ?
01:17Ça a alimenté complètement son mal-être.
01:19Marie était une petite qui souffrait déjà
01:22quand elle s'est vraiment enfermée dans ce réseau.
01:24Mais en fait, si vous voulez, l'engrenage a été terrible
01:28parce que ça a été un accélérateur tout bonnement de son mal-être.
01:32Donc il y a une responsabilité là-dedans pour vous de TikTok
01:34dans le suicide de Marie ?
01:35Exactement.
01:36C'est-à-dire qu'après, avec les parents, on s'est dit
01:38mais on ne peut pas ne pas réagir.
01:40Parce que oui, effectivement, il y a des comptes à rendre
01:43sur le harcèlement qu'elle a vécu.
01:45Mais également, TikTok a participé finalement au drame absolu.
01:50Marie, ce n'est pas la seule enfant victime que vous défendez aujourd'hui.
01:54Vous représentez aussi Elisa et ses parents.
01:56Elisa a 13 ans.
01:57Qu'est-ce qui se passe pour elle ?
01:59Elisa, c'est très difficile parce qu'aujourd'hui,
02:01on pourrait dire qu'elle est dans la tourmente
02:03et qu'elle n'en est pas encore sortie
02:05parce qu'elle refuse de croire qu'elle ne va pas bien
02:10et qu'il faut qu'elle se soigne.
02:12Alors que pour autant, elle ne va pas bien
02:14puisqu'elle a déjà fait des séjours à l'hôpital.
02:20Simplement, pour elle, elle a l'impression que finalement,
02:24c'est la vie tout ça.
02:25Parce qu'il faut comprendre que pour beaucoup de jeunes,
02:27le fait d'être sur les réseaux pendant X heures pendant la journée
02:30et finalement, voir défiler des vidéos
02:33au contenu absolument affreux, anxiogène
02:36ou qui promeut le suicide, c'est normal.
02:38Pour Elisa, on parle de maltraitance envers elle-même.
02:41Elle se fait du mal, on sait bien ça.
02:43Est-ce qu'elle allait mal avant de devenir addicte aux réseaux sociaux ?
02:48Est-ce que ça a amplifié un mal-être ?
02:50Ou au contraire, ça l'a créé ?
02:51Non. Et justement, c'est ça qu'il faut aussi bien comprendre,
02:53c'est que moi, les familles qui viennent me voir,
02:55on est sur des profils de jeunes tout à fait divers
02:58et on n'est pas que sur des jeunes
03:00qui finalement sont allés sur le réseau
03:02parce que comme ils étaient un peu exclus des autres,
03:06se sont réfugiés là-dedans et donc étaient déjà fragiles.
03:08Attention, le mal-être que vit beaucoup d'adolescents
03:11aujourd'hui en France, ce n'est pas un mal-être
03:13qui est réservé aux personnes vulnérables si vous voulez
03:16et aux enfants vulnérables.
03:17Il y a aujourd'hui sept familles que vous représentez
03:19qui vont attaquer TikTok en justice dans les prochains jours.
03:23Est-ce que vous pensez vraiment pouvoir gagner
03:25contre un tel géant comme TikTok ?
03:28C'est-à-dire que je ne me pose même pas cette question
03:31dans le sens où moi, je vais présenter au juge
03:35des faits tout à fait incontestables
03:38et des liens tout aussi incontestables
03:40entre ce qui a pu être visionné,
03:43ce qui est visible aujourd'hui sur la plateforme
03:45et le lien de causalité direct avec le mal-être de ces jeunes.
03:49Donc je suis plutôt très sereine et je le suis d'autant plus
03:52que le débat s'internationalise
03:54et que je ne suis pas la seule aujourd'hui.
03:56Nous ne sommes pas que la France à, si vous voulez,
03:59se battre et essayer de faire réagir
04:01les entreprises de réseaux sociaux.
04:03Mais il y a quelques instants justement,
04:04on apprenait que l'autorité australienne
04:06abandonnait son bras de fer judiciaire
04:08qu'elle avait engagé contre X
04:10pour faire enlever des vidéos difficiles,
04:12violentes de ce réseau social-là.
04:14Un État, une justice qui abandonne face à X
04:18et vous, avec cette famille qui continue le combat,
04:20il n'y a pas un décalage ?
04:22Alors je vais vous dire la différence.
04:24C'est que justement, il s'agit d'un État
04:26et là il s'agit de parents.
04:27Et les parents, ils sont du coup en souffrance
04:29et ils veulent justement que ça change
04:32et aussi pour leurs enfants.
04:34Pour ceux qui sont encore là, pour qui se disent
04:36« Ah là là, mes parents se battent,
04:38donc il faut que j'aille mieux,
04:39donc on va y aller, on va continuer le combat. »
04:41Et puis pour ceux qui ne sont plus là,
04:43ils se le doivent encore plus.
04:44C'est ça la principale différence.
04:45Est-ce que vous allez demander
04:46d'interdire TikTok en France ?
04:47Non, non, non, non.
04:49Alors beaucoup effectivement
04:51de détracteurs de notre combat
04:53veulent le résumer à finalement
04:55le collectif Algos Victimas
04:57souhaiterait interdire TikTok.
04:59Ce n'est absolument pas ça.
05:00Nous, on souhaite la régulation.
05:01Et ça passe par quoi ?
05:02De cette plateforme qui aujourd'hui
05:03est au degré zéro de la régulation.
05:05Justement, par une initiative
05:07collective comme la nôtre,
05:09le but, il est double.
05:11Le premier but, évidemment,
05:13c'est de porter en justice nos doléances
05:15et que cette entreprise soit condamnée
05:20parce qu'aujourd'hui,
05:21elle présente un outil commercial défectueux, point.
05:24Et puis le deuxième but,
05:27c'est de porter une impulsion plus grande
05:29qui fera qu'à un moment,
05:30cette entreprise ne pourra plus se dire
05:32qu'elle peut continuer ses outils commerciaux.
05:34Très concrètement, ça veut dire quoi ?
05:36Ça veut dire vraiment appliquer l'interdiction
05:38à l'application pour les moins de 13 ans ?
05:40Ça veut dire...
05:41C'est plein de choses.
05:42Là, vous avez vu qu'aujourd'hui,
05:43les évolutions du législatif
05:45sont quand même assez multiples.
05:46Il y a le DSA à l'échelle européenne
05:48qui a été mis en place il y a quelques mois.
05:50On a effectivement les interdictions
05:51de réseaux sociaux.
05:52Sauf que tout ça, évidemment,
05:53il faut que ça puisse être incarné.
05:55Et pour que demain,
05:56l'application puisse être effective,
05:58effectivement, ça doit passer
06:01par des combats comme celui qu'on mène.
06:02Merci, merci beaucoup,
06:03maître Laure Boutron-Marmillon,
06:04d'avoir accepté notre invitation.
06:05Merci à vous.
Commentaires