00:00Alors d'abord, je voudrais vous dire qu'aujourd'hui, à mon sens, l'ère de l'irresponsabilité des plateformes est révolue.
00:05On l'a vu avec Portmanov, qui, à mon sens, a été récemment une illustration parfaite du fait qu'on ne pouvait plus continuer comme ça.
00:12Et les plateformes qui diffusent du contenu ne peuvent plus continuer à se laver les mains de ce qu'ils diffusent.
00:18Voilà, point.
00:20Ce que je voulais vous dire, c'est qu'aujourd'hui, ce qu'on voit, c'est que les députés, ils ont ouvert le capot de la machine TikTok.
00:25Et ils ont fait les mêmes constats que nous, avec le collectif Algos Victima, on a fait il y a trois ans, avec les premières familles qui nous ont rejoints et qui ont mené à ce recours, effectivement, que nous avons déposé entre les mains du tribunal judiciaire de Créteil en novembre dernier, avec cette famille.
00:41Pour reboutir à quoi ?
00:42On cherche à reconnaître la responsabilité de TikTok dans la dégradation de l'état de santé mentale de sept jeunes filles, dont deux se sont suicidées.
00:51Donc j'ai apporté les preuves nécessaires pour montrer que toutes ces jeunes filles, la dégradation de leur état de santé est en lien direct avec ce à quoi elles étaient biberonnées, que dis-je, matraquées toute la journée.
01:04Est-ce qu'on peut tenir de TikTok de plus de modération, tout simplement, plus de contrôle ?
01:10C'est ce qu'on leur demande.
01:11C'est ce qu'on leur demande.
01:11Qu'est-ce qu'ils répondent ?
01:12C'est ce qu'on leur demande.
01:14Aujourd'hui...
01:15Parce qu'ils rejettent le rapport TikTok.
01:16Aujourd'hui, ils se réfugient derrière cette notion d'hébergeur de contenu, qui consisterait à dire que, dans la mesure où ce n'est pas eux qui éditent le contenu, ils ne peuvent en être tenus responsables.
01:29Mais à partir du moment où on fait tous les constats, et le rapport le fait également, qu'ils ont la main sur l'outil.
01:35Ils ont développé un business sur ce contenu.
01:38Donc à partir de là...
01:39Ils peuvent vraiment supprimer toutes les vidéos ?
01:40Évidemment.
01:41Il peut vraiment sélectionner et supprimer les vidéos.
01:45À l'heure de l'intelligence artificielle telle qu'elle est aujourd'hui, tout le monde le dit, en une fraction de seconde, l'outil est capable de détecter ce que dit le contenu.
01:57Et partant de là, ils pourraient le faire.
01:59Donc c'est une question de volonté ?
02:00C'est une question de volonté, pourquoi ils ne le font pas ?
02:01Parce que c'est du business.
02:02Mais ça nie la responsabilité individuelle, tout ça.
02:03Ils ont un corner, on va dire, et ils ont une autre chose qui, à mon sens, est essentielle.
02:09C'est que, pourquoi ils ne le font pas ? C'est l'économie de l'attention.
02:12Ces jeunes-là, ils restent sur la plateforme, parce que, comme on est tous, nous, quand il y a un accident de voiture, attirer...
02:19Oui, c'est le trash qui attire.
02:21C'est le trash qui attire.
02:21Voilà, ça attire.
02:22Et eux, leur plateforme, ce n'est plus rien si demain, elles n'attirent pas.
02:26Donc voilà, aujourd'hui, à mon sens, il faut arrêter l'hypocrisie.
02:30Évidemment qu'ils peuvent le faire, évidemment qu'ils ont la main, ils ne le font pas.
02:33Un mot, quand même, sur la responsabilité individuelle.
02:35Pardon, on parle de mineurs qui sont sous la responsabilité de parents.
02:38Est-ce que ce n'est pas aux parents, tout simplement, de mettre des contrôles parentaux,
02:41de ne pas laisser le smartphone dans la chambre toute la nuit ?
02:44Je voudrais quand même vous dire que toutes mes familles, l'absolue totalité de mes familles,
02:49avaient mis en place des contrôles parentaux, avaient même donné un portable plutôt tard
02:54par rapport à ce que les chiffres de l'INSEE donnent.
02:56Et pour autant, ça ne suffit pas.
02:58On ne peut rien contre cette viralité-là.
Commentaires