Le réseau social chinois est dans le collimateur du régulateur français qui l'accuse de plusieurs manquements concernant la modération d'une tendance jugée "dangereuse". Tiktok s'en défend et annonce avoir déjà pris des mesures
00:00Alors vous posez exactement la bonne question parce que tout l'enjeu c'est bien de faire la part des choses entre la liberté d'expression d'un côté et puis à l'autre extrémité des mineurs en danger.
00:09C'est tout l'objet du travail qu'on a fait, qui nous a pris plusieurs mois, pour lequel on s'est adjoint évidemment des chercheurs, des autorités nationales, des associations de terrain, etc. pour documenter le phénomène.
00:18Là où il faut faire très attention c'est qu'on a plein d'outils pour lutter contre les contenus légaux, mais d'une façon générale les gens peuvent émettre un avis.
00:28C'est-à-dire qu'il y a dans cette traîne des contenus qui sont extrêmement problématiques, puis il y a aussi beaucoup de contenus qui en fait ne le sont pas.
00:33Les gens après tout ont le droit de dire j'aime bien être mince, j'aime pas être mince, etc. Et ça n'est pas illégal.
00:38Donc ce sur quoi nous on veut alerter la commission, ce ne sont pas tant les contenus en eux-mêmes que le fait que le fonctionnement intrinsèque de TikTok est problématique.
00:49C'est-à-dire qu'on a levé deux alertes par rapport à cette tendance dont Raphaël Grabli a très bien décrit le fonctionnement.
00:55La première alerte c'est celle du mécanisme, je dirais de l'enfermement.
01:00Le principe de TikTok c'est que dès que vous y accédez, vous tombez sur un univers qui est entièrement personnalisé, qui est entièrement fait pour vous,
01:07et qui ne vise qu'à ne vous proposer des contenus qui sont susceptibles de vous satisfaire.
01:12Évidemment le problème, je pense que tout le monde en a fait l'expérience, c'est que dès que son attention s'arrête sur un contenu,
01:17que ce soit parce qu'il vous plaît ou parce qu'il vous heurte d'ailleurs, vous allez recevoir davantage de contenus,
01:22et davantage de contenus qui vont chercher à capter votre attention.
01:25Vous rentrez dans une bulle, finalement dans une spirale, et toutes les études ont montré effectivement que les contenus qui font de la peine,
01:33qui choquent, qui sont un peu inquiétants, finalement attirent plus l'œil que de chatons sympathiques.
01:38Donc effectivement, on peut aller vers quelque chose de triste, de dark sur TikTok.
01:42Et de plus en plus. C'est vrai que si vous regardez longtemps des vidéos de chatons, que vous voyez beaucoup de vidéos de chatons,
01:47finalement tout ça n'est pas très grave. Mais c'est vrai que dès que vous vous intéressez, en l'occurrence, à des contenus sur le régime,
01:52le risque c'est que vous soyez entraîné progressivement vers des contenus extrêmement nocifs.
01:58Nous ce qu'on dit, c'est que TikTok, si ce risque est avéré, TikTok doit l'atténuer.
02:03C'est ça la règle, et il en est capable. Il est capable de savoir quelle est la couleur de votre chaton préféré.
02:08Il est capable que vous êtes vulnérable et qu'il est en train de vous entraîner dans une tendance dangereuse.
02:12Donc notre alerte, et le travail qu'on a fait, c'est de documenter cette mécanique.
02:15Et de dire, en fait, il y a un effet d'entraînement.
02:18Et cet effet d'entraînement, TikTok doit, parce qu'il en est capable, le limiter.
Écris le tout premier commentaire