- il y a 2 mois
Marschall Truchot, du lundi au jeudi de 17h à 19h avec Olivier Truchot & Alain Marschall. Deux heures pour faire un tour complet de l’actualité en présence d’invités pour expliquer et débattre sur les grands sujets qui ont marqué la journée.
Catégorie
📺
TVTranscription
00:00Le constat est encore pire qu'escompté, c'est ce qui ressort aujourd'hui du rapport parlementaire sur la plateforme TikTok.
00:07TikTok qui aujourd'hui est pointée du doigt parce qu'elle est un danger pour les adolescents avec ses algorithmes, avec les contenus qu'elle propose.
00:15Alors on va en parler bien évidemment avec nos invités, mais d'abord on va regarder ce que l'étranger, ce que nos voisins ont fait pour essayer de contrer TikTok ou de limiter TikTok.
00:24C'est avec François Gapillon, bonsoir François.
00:26Bonsoir à tous, vous dites nos voisins, c'est même un peu plus loin parfois, commençons en l'occurrence par l'Australie qui a frappé fort en votant à la fin de l'année dernière l'interdiction des réseaux sociaux aux moins de 16 ans.
00:36Cette loi qui doit entrer en vigueur le 10 décembre prochain fournit toutefois peu de détails sur ces modalités d'application, sont tout de même prévues.
00:43Des amendes pouvant atteindre 50 millions de dollars australiens pour les plateformes évidemment.
00:49Fin juillet, c'est le Royaume-Uni qui avait mis en place une nouvelle réglementation obligeant les sites web, les réseaux sociaux, les plateformes de partage de vidéos à mettre en oeuvre des contrôles stricts de l'âge.
01:00En Norvège, le gouvernement s'est donné pour objectif de fixer, on verra ce qu'il en est vraiment, un seuil d'accès à 15 ans.
01:07Mais le pays ne dispose pas d'échéances ni de pistes pour le mettre en oeuvre.
01:11En Chine, où Internet est étroitement contrôlé, on le sait, des mesures de restriction d'accès pour les mineurs existent depuis 2021 avec obligation d'identification via un document d'identité.
01:21Les moins de 14 ans ne peuvent passer plus de 40 minutes par jour sur Douyin, c'est la version chinoise de TikTok.
01:27Et le temps de jeu en ligne des enfants et des adolescents est désormais limité.
01:32J'ajoute, pour terminer, un autre cas emblématique me semble-t-il, des problématiques liées à des réseaux comme TikTok.
01:38En Italie, en 2021, une jeune Sicilienne de 10 ans s'était asphyxiée et elle en était morte avec une ceinture tout en s'enregistrant avec son téléphone portable.
01:47Le drame avait conduit l'Australie, l'autorité italienne, pardon, pour la protection des données personnelles à bloquer le réseau social chinois.
01:55Temporairement, le temps de renforcer son règlement.
01:58Merci François Gapillan.
01:59Pour comprendre le danger que peut représenter ce réseau social, nous avons invité Arnaud Ducoin.
02:05Bonsoir, merci d'avoir accepté notre invitation.
02:07Vous avez témoigné devant la commission d'enquête parlementaire.
02:12Racontez-nous l'histoire de Pénélope.
02:13Pénélope, c'est votre fille qui s'est pendue le 28 février 2024.
02:18Et ce que vous racontiez notamment, c'est que sur TikTok, finalement, elle avait trouvé le mode d'emploi.
02:25Oui, alors tout d'abord, merci de nous donner la parole.
02:28Moi, je suis là aussi pour alerter les parents qui laissent les enfants passer des heures sur le réseau TikTok,
02:33sans se douter de la dangerosité de cette plateforme.
02:37TikTok, ce n'est pas un réseau social comme les autres.
02:41C'est un outil qui est extrêmement puissant avec un algorithme qui capte l'attention des enfants,
02:47qui parfois les isole et parfois aussi les entraîne dans une spirale destructrice.
02:52Et notre... Moi, je peux en parler en connaissance de cause.
02:57Notre histoire, avec ma femme Géraldine, on a adopté trois enfants.
03:03La première, Pénélope.
03:06Et j'ai envie de dire jusqu'à l'âge de 14-15 ans, Pénélope, c'était une enfant brillante, souriante, agréable,
03:12qui ne présentait aucune particularité.
03:14Elle a souhaité faire une année de césure en seconde et partir aux États-Unis.
03:19Et c'est là qu'on nous a appelés pour nous dire qu'elle se scarifiait au bout d'un mois.
03:23Donc, on l'a fait rapatrier.
03:24Et ça a été le début de la descente aux enfers pour elle et aussi pour toute la famille.
03:30C'est le rôle à jouer TikTok ?
03:31Ça correspondait à son adolescence, c'est ça ?
03:33Alors, ça correspondait... On a 16 ans.
03:36Oui, c'est ça.
03:37À la joue, on se cherche, on peut avoir des petits troubles, des influences.
03:41Mais quel rôle à jouer TikTok, alors ?
03:42Alors, on s'est aperçus quand elle est rentrée,
03:45donc on a pris toutes les dispositions pour aller voir psychologue, psychiatre,
03:50et on s'est aperçus que, peu à peu, elle s'est enfermée dans sa douleur
03:54et elle s'est réfugiée sur TikTok.
03:57Elle s'isolait dans sa chambre.
03:59Et malgré tous les soins et toutes les possibilités qu'on lui a données,
04:04on voyait que l'État ne s'arrangeait pas.
04:07Je tiens à préciser aussi qu'on n'a jamais laissé nos enfants avec leur téléphone le soir après 21h.
04:15On essayait d'avoir une hygiène pour eux numérique, digitale,
04:21pour ne pas les laisser toute la nuit avec le téléphone.
04:23Mais c'est très compliqué pour nous, parents, avec un enfant de 16 ans, 17 ans ou 18 ans,
04:28de contrôler les réseaux sociaux.
04:29Et ce qui s'est passé, c'est le 29 février 2024,
04:35elle s'est suicidée dans sa chambre.
04:37Et quelques jours après, on a eu accès à son ordinateur
04:42et notamment à son compte TikTok.
04:44Et c'est là où on a été sidérés, c'est là où on a pris réellement conscience
04:48de quel environnement numérique, dans lequel environnement numérique elle était.
04:54Qu'est-ce que ça lui donnait, apportait TikTok ?
04:55Qu'est-ce que ça lui fournissait comme contenu ?
04:57TikTok lui fournissait quasiment exclusivement des vidéos sur le suicide,
05:03sur la scarification ou sur des vidéos, des contenus inappropriés,
05:07des contenus très noirs.
05:09Je pense qu'elle s'est réfugiée dans ce réseau social-là
05:13parce que c'est un peu comme un effet de communauté.
05:16C'est-à-dire qu'elle y retrouvait aussi des jeunes
05:18qui étaient dans des souffrances psychologiques aussi comme elles
05:22et qui publiaient des vidéos qui, malheureusement, prenaient le suicide.
05:31Moi, ce que je veux dénoncer, c'est l'algorithme de TikTok.
05:34Parce que je n'ai rien foncièrement contre un TikTok qui soit vertueux,
05:38qui donne des vidéos positives, éducatives à nos enfants.
05:43Il faut vivre avec son temps.
05:43Je ne suis pas contre ça.
05:45Mais le TikTok que nous avons, nous,
05:47ce n'est pas le même TikTok que nos amis chinois.
05:50Les enfants chinois, ils n'ont pas accès à aucune vidéo négative.
05:54Il y a un couvre-feu numérique à 10h le soir
05:56qui reprend à 8h du matin.
05:58Ça, on n'a pas le même TikTok.
05:59Et qui filtre les contenus, donc, aussi.
06:01Voilà.
06:02Ce qu'il faut expliquer pour ceux qui ne connaissent pas TikTok,
06:05c'est que l'utilisateur, en fait, se retrouve
06:07avec des images qu'il renvoie à ce qu'il regarde le plus souvent.
06:11C'est-à-dire que plus il regardera des images de jeunes se suicidant
06:15ou donnant un mode d'emploi, plus il sera alimenté par ces images.
06:19Tout à fait.
06:19Donc, on se retrouve enfermé dans le système.
06:21Là, vous parlez, sur TikTok, il y a une option, c'est le fil pour toi.
06:24Et donc, c'est une sphère personnelle dans laquelle on trouve ses intérêts,
06:29les vidéos qui portent notre intérêt.
06:31Mais moi, j'ai fait la propre expérience.
06:34J'ai ouvert un compte TikTok.
06:36Et pour vous démontrer l'hypocrisie de TikTok,
06:39lorsque j'ai tapé le mot « suicide » sur le TikTok,
06:44il y a eu un message de prévention qui est apparu instantanément
06:47m'invitant à aller consulter, prendre de l'aide et consulter SOS Suicide.
06:50Jusque-là, je me suis dit, effectivement, ils font leur job de censure.
06:54C'est plutôt bien.
06:55Par contre, ce qu'il faut que vous compreniez,
06:57c'est qu'il y a une hypocrisie totale.
06:59Il y a un lexique caché de TikTok.
07:01Quand vous voulez parler de suicide sur TikTok,
07:03vous n'utilisez pas le mot.
07:05Vous utilisez le drapeau de la Suisse, une croix blanche.
07:07On le voit sur cet écran.
07:08Donc là, ce qu'on voit, c'est quand il y a le drapeau suisse
07:11et le chemin le plus court.
07:12Donc, ça veut dire le suicide et le chemin le plus court.
07:13Voilà.
07:14Et ce mot-là, l'algorithme détecte tout de suite
07:16que vous parlez de suicide.
07:18Et à aucun moment, il n'y a un message de censure.
07:20Et là, dans les secondes qui viennent,
07:22et je l'ai réellement constaté,
07:24les secondes, les minutes,
07:25il y a un déferlement de vidéos plus noires
07:28les unes que les autres sur le suicide.
07:30Qu'est-ce que vous appelez ces vidéos noires ?
07:32C'est-à-dire, qu'est-ce qu'on voit ?
07:34Eh bien, on, par exemple...
07:35L'archologie du suicide ?
07:36Voilà.
07:37Moi, sur le TikTok de ma fille,
07:39j'ai vu des vidéos
07:40comment réaliser un nœud coulant pour se pendre.
07:44Quelle est la chronologie de la mort lorsqu'on se pendre ?
07:46Au bout de combien de secondes, vous perdez conscience ?
07:48Au bout de combien de secondes, vous décédez ?
07:50On a des vidéos qui vous entraînent
07:52dans cette spirale mortifère.
07:55Et ces vidéos ont ce qu'on appelle aussi des likes.
07:56C'est-à-dire, elles sont aimées ?
07:58Alors, ces vidéos, l'algorithme,
08:00il fonctionne de deux façons.
08:02La première, c'est, si vous acceptez
08:03de visionner le format de 8 secondes,
08:08à peu près, de cette vidéo,
08:10c'est que vous adhérez à cette idée.
08:11Donc, l'algorithme détecte que ce contenu vous intéresse.
08:14Donc, il va vous en envoyer.
08:16Si vous likez ou si vous commentez,
08:19c'est encore pire.
08:21Il sait tout de suite que cette vidéo vous convient.
08:24Et donc là, dans votre fil pour toi,
08:26il y aura une multiplication de ces théories.
08:28Donc, vous êtes nourri en constante.
08:30Et une chose aussi,
08:31ma fille présentait des troubles,
08:34j'en conviens.
08:35Mais aujourd'hui, quand vous regardez les sondages,
08:38le dernier sondage qui est sorti sur Ipso,
08:41des enfants de 11-24 ans,
08:43il y a un enfant sur quatre aujourd'hui
08:45qui présente des troubles psychologiques.
08:47Ça veut dire que ces enfants-là,
08:49s'ils sont en contact avec le réseau TikTok,
08:54avec l'algorithme,
08:55automatiquement, ils vont se faire happer par ce réseau.
08:59C'est un...
09:00Ça ne les aidera pas, au contraire, ça les enfoncera.
09:03C'est ce que vous voulez dire.
09:03Dans leur mal-être, en fait, c'est ça.
09:04Mais carrément, oui.
09:05Mais pardon, ce témoignage que vous apportez ce soir, Arnaud,
09:10c'est pour dire aux parents qui nous regardent,
09:13contrôlez le smartphone de vos enfants.
09:15Moi, j'ai même presque envie de dire interdisé presque,
09:19mais on ne peut pas interdire.
09:20Mais moi, ce que je veux qu'ils prennent conscience,
09:22parce que moi, avant que ce drame nous frappe,
09:25je n'avais pas conscience de ce qui se passait sur TikTok.
09:28Sur TikTok, il y a des vidéos, bien sûr,
09:30sur le suicide, la scarification,
09:32sur les troubles alimentaires,
09:36sur des prédateurs sexuels.
09:38C'est une jungle.
09:40Si...
09:40Je vais vous donner une image.
09:42Vous n'accepteriez pas de laisser vos enfants dans un parc
09:46si vous savez qu'il y a un prédateur dedans.
09:48Eh bien, n'acceptez pas de laisser vos enfants
09:50qui puisaient mineurs aller sur TikTok,
09:53parce que c'est un prédateur.
09:55Et si un jour, ils sont dans une situation psychologique défaillante,
10:00TikTok va l'analyser
10:01et va leur mettre la tête sous l'eau.
10:04C'est juste un petit chiffre pour ceux qui ne connaissent pas TikTok.
10:06C'est 15 millions d'utilisateurs actifs en France,
10:099,5 millions d'internautes français qui visitent TikTok.
10:12C'est le premier réseau social des jeunes.
10:13Tous les jours, et 4 millions qui ont entre 15 et 24 ans.
10:17Monsieur le député, on va parler également avec une avocate,
10:19maître Laure Boutron-Barmion, bonsoir, qui est avec nous
10:22et qui est spécialisée dans la défense des mineurs
10:24et qui a déposé un recours collectif contre TikTok.
10:27On va y revenir un instant, mais sur ce rapport,
10:30parce qu'il y a des préconisations,
10:31c'est plutôt un contrôle très strict que vous demandez.
10:35Vous demandez l'interdiction des réseaux sociaux au moins de 15 ans,
10:39c'est d'ailleurs ce que souhaite aussi Emmanuel Macron,
10:41un couvre-feu numérique de 22h à 8h,
10:45et puis même la création d'un délit de négligence numérique
10:47pour finalement sanctionner les parents
10:49qui laissent leurs enfants sans contrôle devant les écrans.
10:53Mais comment faire respecter tout ça ?
10:54Parce que c'est des mesures, on peut dire pourquoi pas,
10:56mais comment peut-on appliquer par exemple la couvre-feu numérique ?
10:59Même parfois les parents n'y arrivent pas, alors pourquoi l'État y arriverait ?
11:02Je vais revenir sur déjà le rapport.
11:05Le rapport, c'est deux pavés, ça c'est la synthèse, ça c'est les auditions.
11:09Moi j'ai présidé les auditions, c'est pas moi qui ai écrit les propositions qui sont faites.
11:13Néanmoins, le constat qui est contenu dans la synthèse,
11:16je le partage à 200%.
11:18Il y a un danger TikTok, et Arnaud Ducoin le montrait à l'instant,
11:22il y a un problème avec l'algorithme,
11:23il y a un problème avec l'application qui met en danger les jeunes,
11:26et c'est d'ailleurs pour cela que j'ai saisi ce matin,
11:28à l'issue de ces travaux, la procureure de Paris,
11:30pour lui signaler qu'à mon sens, TikTok mettait en danger délibérament les jeunes aujourd'hui,
11:36et pas simplement, parce qu'on connaît des gens qui étaient plus âgés,
11:39qui se sont retrouvés aussi confrontés à ces mêmes contenus problématiques,
11:42et qui ont commis aussi, pour certains, des tentatives de suicide.
11:45Donc le sujet, c'est vraiment comment on arrive à dire que la responsabilité première, c'est TikTok.
11:50Tout ça pour vous dire que les préconisations qui sont faites dans ce rapport
11:53sont celles de la rapporteure, leur mineur.
11:56Je crois que vous la recevrez dans la soirée,
11:59mais ce que je peux vous dire, c'est que je partage l'idée de la plupart des recommandations.
12:04J'ai quelques petites réserves d'interprétation,
12:06mais ce n'est pas grave, c'est tant mieux, c'est le débat,
12:08et je crois que le plus important, c'est le constat qui fait collectivement,
12:12sur le que faire, moi je pense qu'il faut d'abord
12:13taper sur la plateforme et s'assurer que
12:15s'il n'y a pas d'action,
12:18on ferme la plateforme, ça c'est le sujet premier.
12:20On pourrait fermer TikTok ?
12:21Bien sûr, aujourd'hui on peut le faire.
12:23Le droit européen le permet, et je crois qu'il faut aller plus loin
12:26et plus vite, il faut mettre des amendes importantes,
12:28dissuasives, et moi je pense qu'il faut mettre en place
12:29une fiscalité pollueur-payeur, où tant qu'il y a une problématique
12:32de santé mentale, il faut financer à la fois
12:34les organismes de santé mentale, mais aussi ce qu'on appelle
12:36les signaleurs de confiance, ceux qui font les signalements.
12:37On rappelle que c'est un groupe chinois qui est propriétaire de TikTok.
12:40On peut le faire,
12:41parce qu'ils sont dans le cadre européen, ils ont des règles,
12:44des obligations respectées à l'échelle européenne.
12:46Sur les trois sujets que vous mettez en avant.
12:48Sur le couvre-feu, on va pouvoir le faire très bientôt
12:50puisqu'on va mettre en place des mécanismes
12:52de régulation d'âge à l'échelle nationale.
12:54Moi je suis pour qu'on le fasse, il y a un consensus
12:56là-dessus, sur l'idée qu'on va
12:58pouvoir vérifier l'identité, surtout l'âge
13:00des personnes, parce que c'est le seul truc qui compte.
13:02Après, le deuxième sujet sur les moins de 15 ans
13:04ou les plus de 15 ans. On a bien vu, Pénénoppe tout de suite
13:06avait 16 ans. Donc en fait, c'est pas parce qu'on aura
13:08interdit au moins de 15 ans, qu'on aura réglé le problème.
13:11Enfin, elle a commencé à 16 ans.
13:12Elle n'a pas commencé
13:14à 15 ans. Donc, pour moi,
13:16le sujet ne sera pas réglé si on a interdit
13:18au moins de 15 ans. Et j'ai plutôt tendance à dire
13:20qu'il faut mieux un espace sécurisé
13:23entre 13 et 18 qu'autre chose.
13:24Sur le couvre-feu, l'application, ça peut se faire.
13:27Les Chinois arrivent à le faire.
13:28Oui, mais les Chinois et d'autres pays,
13:31ça va se diffuser. Moi je suis certain que bientôt
13:32les mineurs ne pourront plus utiliser les applications
13:34à partir d'une certaine année.
13:35Nous sommes avec une avocate. Alors déjà, c'est quoi ce recours
13:38collectif contre TikTok que vous avez déposé ?
13:41Alors d'abord, je voudrais vous dire
13:42qu'aujourd'hui, à mon sens,
13:43l'ère de l'irresponsabilité des plateformes est révolue.
13:46On l'a vu avec Portmanov,
13:48qui, à mon sens, a été récemment une illustration
13:50parfaite du fait qu'on ne pouvait plus
13:52continuer comme ça. Et les
13:54plateformes qui diffusent du contenu ne peuvent
13:56plus continuer à se laver les mains
13:57de ce qu'ils diffusent. Voilà. Point.
14:00Ce que je voulais vous dire, c'est que
14:02aujourd'hui, ce qu'on voit, c'est que les députés,
14:04ils ont ouvert le capot de la machine TikTok
14:06et ils ont fait les mêmes constats
14:07que nous, avec le collectif
14:10Algos Victima, on a fait il y a trois ans
14:12avec les premières familles qui nous ont
14:14rejoints et qui ont mené à ce
14:16recours, effectivement, que nous avons
14:17déposé entre les mains du tribunal judiciaire de Créteil
14:20en novembre dernier, avec cette famille.
14:22Pour reboutir à quoi ?
14:23On cherche à reconnaître la responsabilité de TikTok
14:26dans la dégradation de l'état de santé
14:27mental de
14:29sept jeunes filles, dont deux se sont suicidées.
14:32Donc j'ai apporté les preuves nécessaires
14:34pour montrer que
14:35toutes ces jeunes filles,
14:37la dégradation de leur état de santé
14:39est en lien direct avec
14:41ce à quoi elles étaient
14:42biberonnées, que dis-je, matraquées
14:44toute la journée.
14:45Est-ce qu'on peut tenir du TikTok
14:47de plus de modération, tout simplement ?
14:49Plus de contrôle ?
14:50C'est ce qu'on leur demande.
14:51C'est ce qu'on leur demande.
14:52Qu'est-ce qu'ils répondent ?
14:53C'est ce qu'on leur demande.
14:55Aujourd'hui...
14:55Parce qu'ils rejettent le rapport TikTok.
14:57Aujourd'hui, ils se réfugient derrière
14:59cette notion d'hébergeur de contenu
15:03qui consisterait à dire que
15:05dans la mesure où ce n'est pas eux
15:06qui éditent le contenu,
15:08ils ne peuvent en être tenus responsables.
15:10Mais à partir du moment
15:11où on fait tous les constats,
15:12et le rapport le fait également,
15:14qu'ils ont la main sur l'outil.
15:16Ils ont développé un business
15:17sur ce contenu.
15:19Donc à partir de là...
15:19Ils peuvent vraiment supprimer
15:20toutes les vidéos ?
15:21Évidemment.
15:22Parce qu'il y a un TikTok,
15:22c'est un puissant fond.
15:23Il peut vraiment sélectionner
15:25et supprimer les vidéos.
15:26À l'heure de l'intelligence artificielle
15:28telle qu'elle est aujourd'hui,
15:30tout le monde le dit,
15:31en une fraction de seconde,
15:34l'outil est capable de détecter
15:36ce que dit le contenu.
15:38Et partant de là,
15:39ils pourraient le faire.
15:39Donc c'est une question de volonté.
15:40C'est une question de volonté.
15:41Pourquoi ils ne le font pas ?
15:41Parce que c'est du business.
15:42Mais ça nie la responsabilité individuelle.
15:44Aujourd'hui, ils ont un corner,
15:45on va dire,
15:45et ils ont une autre chose
15:48qui, à mon sens, est essentielle.
15:50C'est que...
15:51Pourquoi ils ne le font pas ?
15:52C'est l'économie de l'attention.
15:53Ces jeunes-là,
15:54ils restent sur la plateforme
15:55parce que, comme on est tous, nous,
15:57quand il y a un accident de voiture,
15:59attirer...
16:00Oui, c'est le trash qui attire.
16:01C'est le trash qui attire.
16:02Voilà, ça attire.
16:03Et eux, leur plateforme,
16:05ce n'est plus rien
16:05si demain, elle n'attire pas.
16:07Donc voilà,
16:08aujourd'hui, à mon sens,
16:09il faut arrêter l'hypocrisie.
16:11Évidemment qu'ils peuvent le faire.
16:12Évidemment qu'ils ont la main.
16:13Ils ne le font pas.
16:14Un mot quand même
16:14sur la responsabilité individuelle.
16:16Pardon, on parle de mineurs
16:17qui sont sous la responsabilité
16:17de parents.
16:19Est-ce que ce n'est pas aux parents,
16:19tout simplement,
16:20de mettre des contrôles parentaux,
16:22de ne pas laisser
16:23le smartphone dans la chambre
16:24toute la nuit ?
16:25Je voudrais quand même vous dire
16:27que toutes mes familles,
16:28l'absolue totalité de mes familles,
16:30avaient mis en place
16:31des contrôles parentaux,
16:32avaient même donné
16:33un portable plutôt tard
16:34par rapport à ce que
16:36les chiffres de l'INSEE donnent.
16:37Et pour autant,
16:38ça ne suffit pas.
16:39On ne peut rien
16:39contre cette viralité-là.
16:41Vraiment, j'invite
16:42ceux qui croiraient
16:43que TikTok a raison
16:45à aller se rapporter.
16:46Vous verrez,
16:47c'est démontré.
16:48Il y a des photos,
16:48il y a des captures d'écran,
16:49il y a les auditions
16:51de TikTok
16:51qui sont effarantes.
16:52Vous verrez leur déni,
16:53la manière dont ils se réfugient
16:55dans un mensonge permanent.
16:57C'est aussi pour ça
16:57que j'ai saisi
16:58pour parjure
16:59la Procure de Paris
17:00parce qu'ils ont menti.
17:01Merci à vous,
17:02merci à nous du coin,
17:03père de Pédélope,
17:04d'être venu témoigner.
17:05Merci Maître Boutron,
17:06Marmion
17:06et M. le député de La Porte.
17:07Merci.
17:08Merci.
Recommandations
9:08
|
À suivre
17:57
19:46
20:08
20:37
15:02
7:25
22:58
36:11
17:18
18:16
24:23
17:33
3:31
24:45
21:38
Écris le tout premier commentaire