Passer au playerPasser au contenu principal
  • il y a 3 mois
Mort en direct du streameur Jean Pormanove : le parquet de Nice ouvre une enquête et la ministre chargée du Numérique saisit l'Arcom. Arthur Delaporte, député PS du Calvados, président de la Commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, est l'invité de RTL Matin.
Regardez L'invité de RTL Matin avec Stéphane Boudsocq du 20 août 2025.

Catégorie

🗞
News
Transcription
00:006h, 9h, RTL Matin, avec Stéphane Boutsoc.
00:04Nous vous parlons ce matin sur RTL de la mort de Raphaël Graven,
00:07connu sous le pseudonyme de Jean Pormanov ou JP,
00:10dans des vidéos très suivies sur les réseaux sociaux.
00:13Une mort en direct particulièrement choquante pour cet homme de 46 ans
00:17qui avait l'habitude de se filmer en train de subir des violences physiques
00:21et des humiliations de la part d'autres streamers.
00:24Images diffusées sur le réseau Kik.
00:26Une enquête a été ouverte sur les circonstances et responsabilités de ce décès.
00:32En direct avec nous, Arthur Delaporte, bonjour.
00:35Bonjour.
00:36Vous êtes député socialiste du Calvados,
00:38président de la commission d'enquête sur les effets psychologiques du réseau TikTok sur les mineurs.
00:43On précise évidemment d'emblée que le réseau TikTok n'est absolument pas impliqué dans ce drame,
00:47mais ça fait de vous un connaisseur de ce dossier.
00:50La mort de ce streamer a été diffusée sur le réseau Kik,
00:53où est hébergée sa propre chaîne vidéo,
00:55suivie par près de 200 000 personnes.
00:57Il y a une autorité de régulation de l'audiovisuel compétente,
01:00elle s'appelle l'Arcom.
01:02Elle est là pour encadrer ses médias numériques.
01:04Vous nous dites ce matin, Arthur Delaporte, qu'elle a failli à sa mission ?
01:08Aujourd'hui, ce qui est sûr, c'est que l'Arcom a été saisi,
01:12notamment suite à une enquête de Mediapart en décembre dernier,
01:16qu'elle a été de nouveau saisie par la LDH en janvier dernier,
01:19et qu'elle devra expliquer pourquoi il ne s'est rien passé depuis.
01:22Et que s'il y a eu une suspension temporaire du compte,
01:25ça a été du fait de la plateforme elle-même,
01:28et non pas, a priori, d'injonction de l'Arcom.
01:30Même s'il y a eu en parallèle de ça, en plus, une enquête de police,
01:34et que tout ceci a continué jusqu'au drame tragique
01:37qui s'est passé il y a deux jours maintenant.
01:40Et donc, voilà, moi je tiens à dire déjà que je suis,
01:42je pense, comme l'ensemble des Françaises et des Français,
01:43choqués, sidérés par le décès de Raphaël Graven,
01:46mais que ça révèle plus largement, oui, une défaillance
01:49dans la modération des plateformes d'une part,
01:52parce que c'est à elle que revient la responsabilité première,
01:54et de Kik en particulier, qui a construit son modèle
01:57comme un modèle toxique, et puis des pouvoirs publics
01:59qui n'ont pas su protéger suffisamment cet homme.
02:02Est-ce qu'il faut aller plus loin sur Delaport ?
02:04C'est-à-dire qu'au-delà des contrôles qui sont du ressort de l'Arcom,
02:07est-ce qu'il faudrait créer un service qui soit entièrement dédié
02:10aux streams et aux réseaux sociaux ?
02:13Alors, ce qui est sûr, c'est qu'aujourd'hui, l'Arcom n'a pas les moyens de sa mission.
02:16Elle n'a que 23 personnes pour assurer l'application du DSA.
02:20Ils sont une soixantaine en Allemagne.
02:22Là, le DSA, c'est le règlement sur les services numériques à l'échelle européenne,
02:25qui permet justement de mettre des sanctions aux plateformes,
02:27de leur mettre des amendes, de leur demander des comptes.
02:29Donc, il y a un sujet à ce niveau-là.
02:30Il y a aussi un sujet au niveau du renforcement des moyens de la police,
02:33parce qu'en fait, ici, c'est Faro, c'est notamment des enquêteurs spécialisés sur le numérique
02:38qui doivent pouvoir agir très rapidement
02:39quand on remarque que des personnes en situation de vulnérabilité
02:42sont exploitées.
02:44Et il faut évidemment donner aussi des pouvoirs au juge judiciaire
02:47pour pouvoir suspendre plus rapidement, dans des délais extrêmement forts,
02:51des différentes vidéos qui sont problématiques.
02:52Parce qu'on a ce cas qui est symptomatique,
02:55qui est ce qui est le plus sordide, le plus violent.
02:57Mais plus largement, on a des personnes qui subissent
02:59des harcèlements extrêmement violents,
03:01qui subissent des vidéos non consenties qui sont diffusées.
03:05Et parfois, en fait, elles doivent voir des mois et des mois
03:07leurs vidéos problématiques encore en ligne.
03:10Et ça peut parfois les conduire jusqu'au suicide.
03:12Donc, on a un problème aujourd'hui, en effet, de moyens humains
03:16au service de l'enquête judiciaire ou de l'enquête administrative comme l'ARCOM,
03:21mais aussi de capacité des citoyens à agir quand ils dénoncent des contenus problématiques.
03:26Et puis, il y a aussi un problème de fond, tout de même.
03:28C'est-à-dire que si ce genre de vidéos très choquantes et violentes existent,
03:33c'est qu'il y a une demande.
03:34Vous qui avez enquêté sur les effets psychologiques de TikTok, notamment,
03:38c'est un questionnement, j'imagine, une inquiétude même.
03:41Mais, d'une...
03:42Cette chaîne, il y avait...
03:45Vous m'entendez ?
03:46Oui, on vous a retrouvé.
03:47On vous a retrouvé.
03:47Oui.
03:48Je disais, il y a quelque chose de problématique, c'est que sur cette chaîne,
03:50il y a des gens qui donnaient de l'argent.
03:52C'était la chaîne la plus suivie sur la plateforme Kik.
03:54Et donc, en fait, les personnes qui participaient, et donc Raphaël Graven, y compris lui,
03:59recevaient de l'argent de leur communauté pour mettre en scène ces supplices.
04:04Donc, il y a, en fait, une forme d'économie du sordide, une économie du trash,
04:08qui est née de ces réseaux sociaux et qui est encouragée par les plateformes elles-mêmes.
04:13Et ça se passe sur TikTok, ça se passe sur Twitch, ça se passe sur tout un certain nombre de réseaux sociaux,
04:18parce que ce qui fait du choc, ce qui, finalement, attire l'attention des utilisateurs,
04:22c'est aussi ce qui génère de l'argent.
04:23Et donc, là, il y a un sujet de modèle économique des plateformes.
04:26Et là, ça dépend aussi du régulateur.
04:28Il faut empêcher qu'on puisse faire de l'argent avec le type de contenu.
04:31Alors là, on parle évidemment de plateformes qui sont légales, en tout cas pour l'instant.
04:35Kik, X, Twitch, TikTok, si vous connaissez bien le dossier,
04:39connaissent des dérapages qui sont fréquents.
04:41Mais il y a aussi une phase beaucoup plus sombre, ce qu'on appelle le dark web.
04:44Là, on peut carrément trouver des contenus abjects, violents,
04:48de la sexualité qui met en scène des enfants.
04:51C'est un enjeu de société.
04:53Au-delà de ce cas dramatique dont on parle, il y a vraiment autre chose.
04:57Mais c'est sûr, c'est que là, il y a des enjeux de régulation très forts.
05:00Le dark web, on ne pourra pas jamais aller au bout.
05:02Mais là, ce qu'il faut savoir, c'est que le problème de ces plateformes,
05:04c'est qu'elles sont accessibles très facilement et à tout le monde.
05:07Et donc, l'enjeu de régulation premier, pour moi, il est d'abord ici.
05:10Et évidemment, derrière, il faut aller sur le dark web.
05:12Mais vous savez, sur Telegram, vous pouvez en deux clics être face à des contenus qui sont très problématiques.
05:17Sur TikTok, en deux clics, vous pouvez être face à des contenus de violence.
05:20Donc, en fait, il n'y a pas de spécificité du dark web.
05:24Aujourd'hui, en fait, tous ces contenus, ils sont accessibles en un clic et à tout le monde.
05:28Et avec un enjeu particulier, celui de la protection des mineurs.
05:31Même si là, en l'occurrence, on voit bien que Jean Pormenave n'était pas mineur.
05:35Et donc, finalement, la protection, elle doit être bien plus large que cela.
05:39Merci pour ces éclaircissements.
05:40Merci.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations