- il y a 5 mois
Catégorie
🗞
NewsTranscription
00:00En compagnie des chroniqueurs de la première heure d'Europe 1 Soir, Ophélie Roch, professeur de français, journaliste, et Gilles Boutin, journaliste au Figaro Économie.
00:08Bonsoir à tous les deux. On va parler de ce drame absolument sordide, la mort de ce streamer, Jean Pormanov.
00:16Personnellement, je ne le connaissais pas. Est-ce que vous connaissiez cette personne jusqu'à cette information ?
00:22Non, honnêtement non.
00:25Très vieux et très en décalage avec ses tendances et cette plateforme, effectivement, que je ne connaissais pas non plus.
00:29Il était suivi, et ça, ça paraît absolument hallucinant, par plus de 670 000 personnes sur les réseaux sociaux.
00:37Il postait régulièrement des vidéos dans lesquelles il se faisait violenter et humilier.
00:41Depuis quelques heures, ses vidéos ressortent, bien sûr, un petit peu partout.
00:46Elles sont absolument sordides. C'est très difficile de les regarder.
00:51On est avec Vanessa Lalo, qui est psychologue clinicienne libérale spécialisée dans les pratiques numériques et leurs accompagnements.
01:00Bonsoir, merci d'être en direct avec nous ce soir sur Europe 1.
01:05Bonsoir.
01:05D'abord, un mot sur cette personne, sur ce streamer. Je ne sais pas si vous le connaissiez.
01:12Je disais qu'il était particulièrement suivi. Il était suivi notamment pour ses vidéos à caractère violent, des vidéos d'humiliation.
01:23Qu'est-ce que ça révèle de la société ? Comment est-ce qu'une personne peut être suivie par autant de monde pour de telles vidéos, pour de tels actes ?
01:33Alors, rappelons-nous, dans les années 2000, de la série de Jackass, qui était des défis violents, dangereux,
01:43qui mettaient en scène le spectacle de la souffrance, la culture du spectaculaire.
01:47Et c'est exactement ça qu'on retrouve dans, malheureusement, cette chaîne menée par deux personnes qui humiliaient en permanence deux autres personnes,
01:57dont JP, comme il s'appelait, et Kudu.
01:59Et ça vient montrer toute cette espèce de spectacle, la culture du morbide, mine de rien,
02:06et qui est quand même aussi un espace de défouloir pour les individus qui regardent.
02:10C'est-à-dire que ça nous apporte, finalement, de l'adrénaline par procuration.
02:14Ça suscite une sorte d'excitation et de stress de voir quelqu'un qui se fait malmener dans un cadre qui paraît sécurisé.
02:21Et ça, c'est un point qui est extrêmement important pour comprendre vraiment pourquoi les spectateurs sont accros à ce type de violence et de l'évolution.
02:26Qu'est-ce que ça veut dire, un cadre qui paraît sécurisé ?
02:30Et bien, comme c'est sur une chaîne et que, en fait, la personne paraît volontaire et que tout semble, comment dire, avec un consentement, en fait, généralisé,
02:39et bien, cela nous paraît tout à fait normal, en fait.
02:43Ce n'est pas du tout pareil que de voir quelqu'un qui se ferait agresser dans la rue, par exemple.
02:47Là, il y a cette espèce de chose où la personne est là volontairement.
02:50Sauf que la grosse question qu'il faut se poser, c'est le consentement de cette personne
02:53qui avait quand même des grandes vulnérabilités psychologiques et potentiellement un handicap.
02:58Et puis, ce consentement, il vient, ce consentement affiché sur ces vidéos publiquement.
03:04On parlait de plus de 670 000 personnes, essentiellement des jeunes qui suivent ce type de vidéos.
03:10Ce consentement-là, il vient légitimer une certaine violence.
03:15Exactement.
03:16Et puis, il y a une espèce de transgression aussi par rapport aux normes de la société
03:19qui pousse les personnes à avoir envie de regarder ce genre de choses.
03:22Mais ce n'est pas parce qu'il a été suivi par beaucoup de personnes
03:25et qu'ils recevaient de l'argent en échange de toutes ces humiliations
03:28qu'ils étaient forcément consentants.
03:30Ça, je pense que c'est un point qui est extrêmement important pour comprendre cette situation-là.
03:33C'est qu'il y avait quand même une emprise, a priori, de ces deux acolytes.
03:36Et ce n'est pas pour rien qu'ils ont été en garde à vue en janvier 2025
03:39parce qu'il y avait quand même des soupçons de maltraitance,
03:42pas en bande organisée, je ne sais plus comment ça s'appelait,
03:45de violences volontaires en réunion sur personnes vulnérables.
03:48Et ils s'amusaient à se moquer de ses capacités intellectuelles.
03:51Et donc, la vraie question qu'on doit se poser, quand même,
03:54c'est pourquoi on ne protège pas les personnes qui sont extrêmement vulnérables
03:56et les mineurs qui, bien sûr, peuvent accéder à ce type de contenu.
04:00Et Gilles Boutin.
04:01Oui, bonsoir.
04:02Précisément, sur cette question de la protection des personnes
04:04et aussi sur l'atteinte à la dignité, ça ne date pas d'hier.
04:09Toute personne qui a fait sa première année de droit
04:12connaît l'arrêt de Morsan-sur-Orge du Conseil d'État
04:15qui a interdit le lancer de nains.
04:18Or, même les personnes naines, dites naines, qui participaient, étaient consentantes.
04:23Là, on a affaire à des personnes dont les facultés de défense et de jugement
04:28ont l'air d'être beaucoup plus limitées.
04:31Sur l'aspect juridique, comment expliquez-vous qu'il y a eu une telle inaction ?
04:36Avez-vous une grille de lecture à ce sujet ?
04:39Alors, bon, je ne suis pas jurie, je ne suis que psychologue.
04:42Mais je trouve surprenant qu'ils aient été en garde à vue
04:45et relâchés sans aucune autre forme de...
04:50Enfin, que je... Voilà, sans rien d'autre derrière.
04:54Oui, ou en tout cas de vérifier quelque chose.
04:56Il y a clairement énormément de questions qui se posent autour de cette affaire.
05:00Bien évidemment, la responsabilité des plateformes aussi.
05:03Dans quelle mesure les plateformes de streaming comme Twitch, TikTok,
05:07Kik, aussi, que je ne connaissais pas, qui est cette plateforme australienne,
05:11d'après ce que j'ai compris ?
05:12Elle est française.
05:13Ah, c'est une plateforme française, Kik ?
05:15C'est une plateforme française, oui.
05:16Elle va dire australienne d'origine.
05:18D'origine australienne, si, si.
05:20Dans quelle mesure ces plateformes portent-elles une responsabilité
05:23dans la diffusion de contenus extrêmes et potentiellement dangereux, Ophélie Rock ?
05:30Pardon, excusez-moi, j'étais en train de regarder la plateforme en question.
05:32Moi, ce qui me, en tant que professeur, ce qui me, alors je ne la connaissais pas,
05:36cette plateforme, je ne sais pas depuis combien de temps, en effet,
05:38elle a déferlé en masse en France, parce que c'est quand même des chiffres qui sont impressionnants.
05:43Mais ce qui, moi, m'effraie, ne m'effraie pas, et ne me surprend pas presque,
05:48c'est que la violence des vidéos, elles sont à trois, ces vidéos à visionner ou à entendre.
05:53C'est indéniable.
05:55Par contre, ce manque d'empathie qu'il peut y avoir envers la victime,
05:59elle ne me surprend pas tant que ça.
06:00Parce que moi, j'ai le sentiment que depuis que les réseaux sociaux affluent,
06:04il y a toujours eu de la télé-réalité où on se moquait de quelqu'un,
06:06il y a toujours eu ça.
06:07Déjà, à mon époque, je me souviens de certains candidats
06:10qui étaient un petit peu les souffres-douleurs.
06:13Mais là, on a passé un cap, à mon sens, dans la capacité, en fait,
06:18à se plonger dans l'ignominie, à ne pas, comment dire,
06:22à ne pas voir, en fait, le côté humain, tout simplement.
06:25Parce que, bah oui, les vidéos, il y a un côté, en fait,
06:27qui est presque amateur, artisanal.
06:30C'est-à-dire que les agresseurs parlent mal,
06:32ils parlent comme des jeunes, en fait, mais des jeunes pas éduqués.
06:35Et j'ai le sentiment que les enfants, en fait, adhèrent à ces propos-là.
06:40Et moi, ce que je voulais poser à votre invité comme question,
06:43c'était, est-ce qu'il y a des études qui montrent, en fait,
06:47quel ravage à long terme ce genre de vidéos
06:49peut occasionner dans l'esprit des plus jeunes ?
06:52Alors, les seules études qu'on pourrait avoir en lien,
06:58ce serait avec les jeux vidéo.
07:01Parce que là, ça, ça a été fortement étudié depuis extrêmement longtemps
07:04et on sait qu'il n'y a pas de causalité ou de passage à l'acte
07:07suite à des jeux vidéo violents.
07:10Par contre, ce genre de vidéos-là sont quand même assez récentes
07:13parce que là, maintenant, les spectateurs sont acteurs.
07:15C'est-à-dire qu'en donnant de l'argent, en faisant des subs,
07:18comme on dit, des subs, en allant s'abonner, en allant faire des dons,
07:22en fait, on est acteurs nous-mêmes de quelque chose.
07:24Et c'est ça qui vient tout changer.
07:27Et du coup, sur ça, on n'a pas 20 ans de recul, si vous voulez,
07:30pour savoir si ça pourrait avoir un impact.
07:33Les jeux vidéo dont vous faites allusion, les jeux vidéo violents,
07:36pour le coup, on commence à avoir un peu de recul,
07:39ces jeux dénotent aussi d'une certaine fascination pour la violence
07:43d'une certaine partie de la jeunesse.
07:48Pas que la jeunesse, nous sommes humains,
07:50il y a toujours une espèce de curiosité morbide
07:52quand on voit un accident sur l'autoroute.
07:54Nous avons quand même une sorte de sadisme un peu inné chez les humains.
08:00Donc ça, c'est aussi indéniable, en fait,
08:02qu'on a des pulsions agressives, des pulsions sadiques.
08:05Mais là, ce qui est intéressant dans cette situation-là,
08:07c'est que cette transgression, elle est presque souhaitée,
08:10elle est même souhaitée à travers les donations des spectateurs
08:14pour aller maltraiter quelqu'un,
08:16comme si, avec la comparaison qu'on pourrait se faire de
08:18« moi, je ne me laisserais pas malmener comme ça,
08:20donc moi, je suis plus fort ».
08:21Il y a quelque chose comme ça dans la psychologie aussi,
08:24qui vient nous permettre de nous identifier
08:26à quelqu'un de faible,
08:29parce que c'est quand même ce que cette personne semblait être,
08:33et cette espèce de désinhibition à travers l'écran
08:37qui fait qu'on ne va pas vraiment culpabiliser.
08:40Moi, j'aimerais qu'on s'interroge encore une fois.
08:42Je suis désolé, je me répète,
08:44mais sur la responsabilité des plateformes,
08:45elle est pointée directement par la ministre
08:48chargée de l'intelligence artificielle et du numérique,
08:52Clara Chappas, qui a réagi sur les réseaux sociaux,
08:56qui nous dit que Jean Portmanoff a été humilié,
08:58maltraité pendant des mois en direct sur Kik.
09:01Une enquête judiciaire est en cours.
09:03L'Arcom a été saisie et effectué un signalement,
09:06et elle a effectué un signalement également sur Pharos.
09:08Elle a contacté les responsables de cette plateforme
09:10pour obtenir des explications.
09:12La responsabilité des plateformes en ligne
09:13sur la diffusion de contenu illicite n'est pas une option,
09:16c'est la loi, ce type de défaillance peut conduire au pire,
09:19qui peut conduire au pire, n'a pas sa place en France,
09:22en Europe, ni ailleurs.
09:23Réaction également de Sarah El Haïry,
09:25haute commissaire à l'enfance.
09:26Les plateformes ont une responsabilité immense
09:28dans la régulation des contenus en ligne,
09:30afin que nos enfants ne soient pas exposés
09:32à des contenus violents.
09:34J'appelle les parents à la plus grande vigilance.
09:37Gilles Boutin, la responsabilité des plateformes,
09:39là-dessus, il n'y a aucun doute,
09:40mais la responsabilité aussi de l'Arcom.
09:42C'est-à-dire, effectivement, l'Arcom est saisi aujourd'hui,
09:45mais on n'est pas en train de découvrir,
09:47enfin, en tous les cas,
09:48on imagine que l'Arcom n'est pas en train de découvrir
09:51la violence qu'il y a sur ces plateformes,
09:53et notamment sur Kik.
09:54En 2024, une enquête avait été ouverte par Mediapart,
09:59qui dénonçait un business de la maltraitance
10:01organisée autour de ces streams.
10:04Et puis, plus récemment, en tout début d'année,
10:06le parquet de Nice avait déjà ouvert une enquête
10:08visant plusieurs streamers proches,
10:10notamment de cette victime.
10:14L'Arcom s'en est vite lavé les mains
10:15parce qu'elle avait connaissance, effectivement,
10:17de ses pratiques.
10:19Et elle s'était expliquée en disant
10:22que la plateforme en question
10:23ne répondait pas tout simplement,
10:25et de par son extraterritorialité,
10:27était inatteignable.
10:29Ça s'est arrêté là pour l'Arcom.
10:31Ensuite, du côté des autorités,
10:35elles étaient tout à fait au courant,
10:36et c'est très étrange que les personnes aient été relâchées,
10:38et qu'il n'y ait pas une mesure de mesure de...
10:40Enfin, elles ont été mises en garde à vue,
10:42les deux streamers tortionnaires.
10:44Ils n'ont pas été mis sous une procédure de contrôle,
10:47ou de mise à distance des personnes.
10:50Donc, il y a une faillite à tous les étages,
10:54et je suis surpris que...
10:55Est-ce que c'est le fait qu'il y ait consentement
10:56qui pose problème, justement, aux autorités ?
10:59Ça, ça sera à eux de le dire,
11:01et ça sera une enquête plus approfondie
11:03qui permettra de déterminer
11:04où sont apparus des biais d'interprétation.
11:07Mais ce qui est vraiment très surprenant,
11:10c'est que la ministre s'en offusque.
11:12Bon, peut-être qu'à titre personnel,
11:13elle découvrait la situation.
11:15Son ministère, lui, ne la découvrait pas.
11:17Elle saisit l'Arcom,
11:18pour une enquête,
11:19mais c'est surtout sur l'Arcom
11:21qu'il faudrait finir par enquêter.
11:22Parce qu'elle s'emmène vraiment à la traîne
11:24des nouvelles pratiques.
11:25Elle n'a pas l'air d'être au courant
11:26qu'il y a des myriades de chaînes sur Internet
11:28qui vont arrêter de regarder uniquement la télévision.
11:30C'est ça, parce qu'en fait,
11:31ils sont capables de fermer sans raison
11:32la première chaîne de la TNT.
11:34Mais là, en revanche,
11:35ils ne font absolument rien, on fait l'Iroc.
11:37Non, ils ne font rien.
11:38Après, je ne sais pas, l'Arcom, en effet,
11:40je pense que ce qui est compliqué
11:41pour ce dispositif,
11:43c'est de venir réglementer
11:46ou légiférer sur des plateformes
11:48qui, en effet, sont extraterritoriales.
11:51C'est-à-dire que je ne sais même pas
11:51si l'Arcom est conçu
11:53pour pouvoir émettre un jugement
11:56qui soit suivi des faits.
11:56Parce que quand bien même l'Arcom dirait
11:58« En effet, c'est une honte.
11:59Arrêtons la diffusion. »
12:01Comment l'arrêter, en vrai ?
12:02Une chaîne de télé,
12:03il faut la couper à la source.
12:04On a la capacité,
12:05parce qu'on l'a bien vu
12:06sur les sites pornographiques.
12:07Il y a eu des blocages
12:09qui ont été décidés.
12:10Il y a des blocages.
12:11En fait, quand on veut, on peut.
12:12La réalité, c'est quand on veut, on peut.
12:14Oui et non,
12:15parce que moi, j'ai envie de vous dire,
12:16beaucoup de jeunes ne regardent pas
12:17ces choses-là directement
12:19depuis leur ordinateur
12:20ou leur portable.
12:20Beaucoup passent par un VPN.
12:21Donc, ça, vous ne pouvez pas...
12:22Non, mais d'accord.
12:22C'est comme la drogue.
12:25Le problème, c'est que dans les faits,
12:27ça change finalement.
12:27Toujours est-il que pour le moment,
12:28ce sont des plateformes
12:30qui sont accessibles directement
12:32par n'importe qui.
12:33Elles sont accessibles.
12:33C'est vrai qu'il y a...
12:34Et encore une fois, effectivement,
12:35comme vient de le dire Gilles Boutin,
12:36il y a plusieurs sites pornographiques
12:38qui ne sont plus aujourd'hui
12:39accessibles depuis la France.
12:41Écoutez, j'ai tellement...
12:42Moi, je l'ai voir les jeunes faire.
12:44Donc, pour moi,
12:44quand on dit un site inaccessible,
12:46ça me fait doucement rire
12:47parce qu'en vrai,
12:47ils ont tous un VPN.
12:49Quasiment tous.
12:50Et il suffit de passer par là
12:51pour que ça vous débride Internet.
12:53C'est comme si vous vous connectez
12:55en fait faussement
12:55depuis un pays étranger,
12:57là où l'ARCOM n'a pas
12:58moyen à légiférer.
13:00Donc, je suis un petit peu sceptique.
13:01Après, bien sûr que ça va limiter
13:03le fait que si l'ARCOM, en effet,
13:05arrive à faire fermer cette chaîne,
13:06ça va limiter un certain nombre de vues,
13:09mais ça ne va pas les empêcher entièrement.
13:11Vanessa Lalo,
13:12est-ce que selon vous,
13:13ce drame aurait pu être évité ?
13:16Oh, question extrêmement complexe.
13:19Mais effectivement,
13:20on aurait peut-être pu
13:21se saisir un petit peu
13:23plus gravement de cette situation
13:24quand elle a été dénoncée
13:25par Mediapart
13:26fin 2024.
13:28Parce que c'est quand même pas normal
13:29qu'on laisse faire
13:31ce degré de violence
13:32devant des spectateurs,
13:34que ce soit autant suivi,
13:36et que quand même
13:37cette question
13:38de la vulnérabilité
13:39de la personne décédée
13:42n'aurait pas dû être évacuée
13:44comme ça.
13:45Mais en tout cas,
13:46pour revenir sur la question
13:47de TIC en tant que telle
13:49et des régulations,
13:49ce qui est quand même compliqué,
13:50c'est qu'il y a un règlement européen
13:52et qu'on ne peut pas
13:53couper comme ça
13:54la source,
13:56que ce soit dans notre pays
13:57ou hébergé ailleurs.
14:01Et pourquoi est-ce qu'on y arrive
14:01justement,
14:02on l'évoquait il y a quelques instants,
14:03pourquoi est-ce qu'on y arrive
14:04avec les sites pornographiques
14:06et on n'y arrive pas
14:06avec des plateformes
14:07comme TIC ?
14:07Parce que justement,
14:08ce n'est pas du tout
14:09la même chose.
14:09C'est-à-dire que la question
14:10des réseaux sociaux
14:11et de leur éditorialisation,
14:14est-ce que ce sont
14:15des hébergeurs de contenu
14:16ou des médias
14:16avec un édito ?
14:18Et ça,
14:18c'est la grande question
14:19qui se pose depuis très longtemps
14:20parce que quand on a eu
14:21les problématiques
14:23avec Facebook
14:24lors de la première élection
14:25de Trump
14:26et tout un tas d'autres soucis
14:28sur d'autres plateformes,
14:29cette question est toujours revenue
14:30comme une sorte de running gag
14:32qui n'est jamais traitée finalement
14:34parce qu'on n'arrive pas
14:35à savoir
14:35quelle est la position
14:37que l'on doit donner
14:37à ces plateformes.
14:39Est-ce qu'ils sont responsables
14:40des contenus
14:41qu'ils hébergent
14:41mais auquel cas,
14:42ça voudrait dire
14:42que ce sont des médias
14:43ou est-ce que ce sont
14:45de simples hébergeurs
14:46de contenu
14:47et auquel cas,
14:48finalement,
14:48on se demande bien
14:49comment on pourrait légiférer
14:51sur quelque chose ?
14:54Gilles Boutin,
14:55dernière question.
14:55Oui,
14:56et au niveau sociétal,
14:57avez-vous une idée
14:58de la façon
14:59dont il faudrait procéder
15:00pour sensibiliser
15:01un maximum,
15:02notamment dans la jeune génération,
15:04pour qu'ils n'aillent pas
15:06consulter ce genre de vidéos ?
15:09Alors ça,
15:09c'est tout bonnement impossible
15:10puisqu'il y a quand même
15:11des rites d'initiation
15:12et des rites de passage
15:13à l'adolescence
15:14qui font qu'on cherche
15:15quand même l'extrême,
15:16on cherche à se faire peur,
15:17on cherche des contenus
15:19qui vont être plus ou moins toxiques.
15:21Donc ça,
15:21c'est une première réalité.
15:23De base,
15:24les mineurs,
15:25ce sera difficile
15:25de les empêcher
15:26d'aller voir
15:26un certain nombre de contenus.
15:28Par contre,
15:28ce qu'on peut faire,
15:29c'est proposer
15:29de la contre-culture,
15:31de faire des contre-propositions
15:32avec des personnes
15:33qui sont bienveillantes,
15:34qui proposent des contenus
15:35qui sont chouettes,
15:36avec des médias
15:37qui sont plus positifs.
15:39Proposer des alternatives,
15:40déjà,
15:40c'est une manière
15:41de les guider
15:42dans leur pratique numérique
15:44parce que sinon,
15:45c'est très bien
15:46qu'ils vont se montrer
15:46des contenus entre eux
15:47et que ça va passer
15:48par Telegram
15:49et d'autres choses
15:50qu'on ne maîtrise pas
15:51et sur lesquelles
15:51on ne peut pas vraiment
15:52aller s'infiltrer
15:53nos adultes
15:53où il se passe
15:54des choses qui sont terribles.
15:57Donc ça a toujours existé,
15:57ces plateformes.
15:58Et de toute façon,
15:59si on bannit celle-là,
16:00ça apparaîtra sur une autre.
16:01Une autre apparaîtra.
16:02C'est exactement ce qu'on voit
16:02avec les sites pornos.
16:04Vous parliez de ça tout à l'heure,
16:05mais c'est exactement
16:06la même chose qu'on voit.
16:07Par contre,
16:07ce qu'il faut quand même se dire,
16:08c'est que le numérique,
16:09c'est un reflet quand même.
16:10Il y a un miroir
16:11de notre société.
16:12Et notre société
16:12est quand même assez toxique
16:14sur un certain nombre de points.
16:16Et notamment sur la violence.
16:17On peut se poser la question,
16:18ben oui,
16:18pourquoi on a besoin
16:19d'Internet pour se défouler ?
16:20Parce que ce n'est pas
16:21parce qu'il y a Internet
16:21qu'on se défoule.
16:22Il y a aussi
16:23une problématique causale
16:25dans notre société
16:26qui fait que ça ne va pas très bien.
16:27Merci beaucoup Vanessa Lalo
16:28d'avoir été avec nous,
16:29psychologue clinicienne libérale
16:31spécialisée dans les pratiques numériques
16:32et leurs accompagnements.
16:35Dans un instant,
16:36on va parler de Gérald Darmanin
16:38qui entend renforcer la lutte
16:40contre les unions frauduleuses.
16:41Ce sera juste après
16:42le journal permanent.
16:44Il est 19h31 sur Europe 1.
Commentaires