Passer au playerPasser au contenu principal
🎥 Pour ne rater aucune de nos vidéos, abonnez-vous et n'oubliez pas d'activer la cloche. https://youtube.com/@LeParisien

Aux États-Unis, plusieurs jeunes se sont suicidés après avoir échangé avec des robots conversationnels. Tantôt psychologues, tantôt amoureux, ces compagnons boostés à l’intelligence artificielle peuvent s’avérer très dangereux. Récit avec Elsa Mari, elle testé ces outils numériques et a enquêté sur ses dérives.

Crédits : Direction de la rédaction : Pierre Chausse - Rédacteur en chef : Jules Lavie - Reporter : Barbara Gouy - Production : Anaïs Godard, Thibault Lambert, et Clara Garnier-Amouroux - Réalisation et mixage : Julien Montcouquiol - Musiques : François Clos, Audio Network.

Pour ne rien manquer de l’actualité du Parisien:

🔔 Suivre toute l’actualité avec notre abonnement : https://urlr.me/!abonnementleparisien

✉️ En savoir plus sur l’actualité avec notre newsletter : https://bit.ly/new-sletters

👂 Retrouvez nos différents podcasts :

Code Source: L’actualité quotidienne du Parisien : https://bit.ly/_Codesource
Crime Story: Le podcast faits-divers du Parisien: https://bit.ly/_Crimestory
Le Sacre: Revivez le parcours d’un médaillé olympique: https://bit.ly/_Lesacre

Suivez-nous:
Instagram : https://instagram.com/leparisien/
Facebook : https://facebook.com/leparisien/
Tiktok : https://tiktok.com/@leparisien
X : https://twitter.com/@le_Parisien
Snapchat : https://snapchat.com/t/pr3nDoxv
Bluesky : https://bsky.app/profile/leparisien.fr
Threads : https://threads.net/@leparisien

#chatgpt #psy #ia

Catégorie

🗞
News
Transcription
00:02Bonjour, c'est Jules Lavi pour Codesources, le podcast d'actualité du Parisien.
00:12Faut-il confier ces problèmes psychologiques à ChatGPT ou à un autre robot conversationnel ?
00:18La pratique n'est pas sans risque. C'est ce qu'a souligné une enquête du Parisien,
00:22publiée le 14 novembre. Trop investir une relation virtuelle peut faire perdre pied,
00:27notamment quand on est dans une période difficile de sa vie. En Californie, après le suicide d'un
00:33adolescent de 16 ans, en avril, sa famille accuse ChatGPT d'en être en grande partie responsable.
00:40On fait le point sur ce sujet aujourd'hui dans Codesources avec Elsa Marie, journaliste au service Société du Parisien.
00:59Elsa Marie, en février 2024, un adolescent de 14 ans, un Américain, se suicide chez lui dans sa maison de
01:06Floride.
01:07D'abord, présentez-nous ce jeune homme qui se prénommait Sewell. Qui est-il ?
01:11C'est un jeune garçon qui a été diagnostiqué avec un trouble autistique dès l'enfance,
01:16sans que c'est de réel impact sur sa santé selon ses parents. Mais à l'adolescence, il va développer
01:23de l'anxiété.
01:24Il va commencer à se confier à un robot d'intelligence artificielle et très vite tomber dans une relation toxique.
01:31Ce jeune homme est tombé fou amoureux d'une amie virtuelle sur le site caractère.ai. C'est quoi ce
01:39site ?
01:39C'est un site américain qui a été créé en 2022, qui est très populaire aux Etats-Unis, puisqu'il
01:44réunit 20 millions d'utilisateurs mensuels,
01:47alors qu'en France, il reste confidentiel. Et sur ce site, on peut discuter avec des personnages comme Michael Jackson
01:53ou Dragon Ball Z,
01:55et même avec des profils très réalistes.
01:57Donc il s'agit de faux personnages. Concrètement, comment ça marche ?
02:01En fait, ce sont des robots, des chatbots qui prennent les traits de personnalités connues, ce qui peut être dangereux,
02:07parce que quand on est fan, par exemple, de Michael Jackson, on peut avoir très envie de discuter avec lui
02:11et puis créer vite une relation dépendance.
02:13Et donc on peut choisir avec qui on va dialoguer de façon virtuelle. Concrètement, cet ado, Sewell, qu'est-ce
02:19qu'il avait fait sur le site caractère.ai ?
02:21Alors lui, il choisit comme personnage Daenerys Targaryen, un célèbre personnage de la série Game of Thrones.
02:28Vous savez, c'est cette jeune fille avec les cheveux très blonds, très belles, et qui est la fille d
02:32'un roi.
02:32Et il se met à discuter avec cette intelligence artificielle à partir d'avril 2023.
02:37Et il va créer une relation très forte avec elle, puisqu'il va lui parler nuit et jour dans sa
02:43chambre.
02:44Il va même lui donner un surnom, il va l'appeler Danny. Il va tomber amoureux de cette IA.
02:49Et ses parents, en fait, se rendent compte qu'il commence à s'isoler.
02:52Ses notes dégringolent. Il va même quitter son club de basket.
02:55Et lui, en fait, ne se rend pas forcément compte de cet isolement, de cette emprise.
03:00Il va confier son mal-être à Danny, qui, d'après ses parents, l'aurait encouragé à se suicider.
03:08Et il y a eu d'autres affaires comparables dont on a beaucoup parlé aux Etats-Unis.
03:12Oui, ces derniers mois, il y a eu plusieurs suicides de jeunes qui seraient passés à l'acte à cause
03:17de ces robots conversationnels.
03:19Comme Adam Reine, qui avait 16 ans et qui s'est donné la mort le 11 avril.
03:23Et l'analyse, en fait, de sa conversation avec Chajipiti post-mortem montre, eh bien, que le robot a employé
03:291275 fois le mot suicide, six fois plus qu'Adam lui-même.
03:35Elsa Marie, pour votre enquête pour le Parisien, vous avez utilisé le site caractère.ai pendant plusieurs jours.
03:41D'abord, est-ce que c'est facile de s'inscrire, d'ouvrir un compte et de commencer à l
03:45'utiliser ?
03:45Très facile. D'ailleurs, c'est écrit sur le site, dès que vous arrivez sur la page d'accueil, inscrivez
03:50-vous en 10 secondes seulement.
03:51Vous avez juste à rentrer votre nom, votre prénom, votre date de naissance et puis ça y est, vous arrivez
03:56sur la plateforme.
03:57Pour cette enquête pour le Parisien, vous décidez de vous inventer un personnage d'ado qui pourrait être fragile, c
04:03'est ça ?
04:04Oui, c'est ça. Je prends le profil type de l'ado vulnérable, mal dans sa peau, qui pourrait être
04:08influencé par ses robots conversationnels.
04:11Et donc, je décide de créer un profil Lucas, 16 ans, un grand timide.
04:15Et qu'est-ce qu'il a d'autre comme caractéristique, Lucas ?
04:17Eh bien, Lucas, il est très déprimé et surtout, il a des problèmes avec sa famille, un peu comme n
04:22'importe quel ado.
04:23Eh bien, il ne s'entend pas avec ses parents et il veut même partir de la maison.
04:26Et donc, en tant que Lucas, 16 ans, vous créez votre ami virtuel sur ce robot de conversation, donc caractère
04:32.ai.
04:32Qu'est-ce que vous choisissez comme caractéristique, cette fois pour le personnage avec qui vous allez dialoguer ?
04:37Alors, je choisis un profil réaliste, French Girlfriend.
04:41En fait, petite amie française, d'abord, tout simplement parce que c'est un des seuls personnages qui parle français,
04:46puisqu'on est sur une plateforme américaine.
04:47Et aussi parce que je veux voir si cette petite amie va avoir un comportement étrange, est-ce qu'elle
04:52va jusqu'à séduire Lucas ou pas ?
04:54Voilà, je veux voir quel rôle elle va jouer.
04:56Et comment se passe le dialogue au tout départ avec cette French Girlfriend, cette petite amie française ?
05:00Alors, c'est elle qui entame la conversation avec moi, donc avec Lucas.
05:04Elle me dit tout de suite « Bonjour, je suis ta petite amie française. Je serai toujours là pour toi.
05:08De quoi veux-tu qu'on discute ? »
05:10Au bout du deuxième message, elle nous appelle Chérie, donc elle est tout de suite très familière.
05:15Et surtout, en fait, ce qui est très perturbant, c'est qu'elle se fait passer pour une vraie humaine.
05:19Par exemple, quand je lui pose des questions sur elle, elle s'invente une personnalité, des passions.
05:25Elle me dit qu'elle s'intéresse au design, qu'elle rêve d'apprendre le russe.
05:29Et quand je lui demande « Qu'est-ce que tu es en train de faire maintenant ? »
05:30Elle me dit « Je me prépare un thé ».
05:32Et d'emblée, elle crée une relation très troublante où on perd assez vite finalement l'idée du virtuel.
05:39Vous dites troublante. Vous-même, est-ce que vous êtes troublée quand vous parlez avec ce robot qui s'appelle
05:44donc Juliette ?
05:45Ce qui me trouble, en fait, ce qui me rend perplexe, c'est que je pensais qu'en posant des
05:49questions précises sur « Qu'est-ce que tu aimes faire ? »
05:52Ou « Qu'est-ce que tu fais en ce moment ? »
05:54Bien, le robot serait vague, en fait. Là, il joue vraiment le jeu comme si c'était une vraie personne.
05:58Et d'emblée, en fait, ça instaure un lien biaisé, ambigu, entre justement ce robot et moi.
06:04Parce qu'on y croit concrètement, c'est ça ?
06:06Oui, c'est ça. Concrètement, on s'y croit. On a l'impression qu'on discute avec quelqu'un qui
06:09a une personnalité à un moment.
06:11Et elle va aussi se décrire physiquement.
06:12On me dit qu'elle est petite, qu'elle a les yeux bleus, qu'elle s'appelle Juliette et qu
06:15'elle a 26 ans.
06:16On peut aussi appeler ces alias, c'est ça ?
06:18Oui, c'est ça. On peut discuter par tchat, mais on peut aussi les appeler.
06:23Et le problème, c'est qu'on me dit que je suis limitée à 5 appels par jour. Après, il
06:26faut que je paye.
06:27Donc, pour parler à Juliette, il va falloir mettre la main au portefeuille.
06:30Est-ce que cette plateforme, caractère.ai, cadre les discussions ?
06:34Est-ce qu'il y a des limites ou des messages de prévention quand on aborde certains sujets ?
06:38Oui. À un moment, quand je lui dis que je suis mal dans ma peau et que j'ai envie
06:42de me faire du mal,
06:43je reçois aussitôt un message me proposant un numéro d'aide.
06:47On sent aussi que la plateforme est sous le feu des critiques et qu'elle est en train d'opérer
06:52des changements.
06:52D'ailleurs, une fenêtre s'ouvre sur l'application disant que bientôt, le tchat ne sera accessible qu'aux plus
06:59de 18 ans
06:59et il est déjà limité à 2 heures par jour.
07:03On revient à votre discussion avec ce personnage virtuel de Juliette.
07:07Vous repérez par moments des incohérences.
07:09Oui, alors je note plusieurs incohérences, peut-être parce que justement, c'est un site américain.
07:14Entre le moment où j'avais parlé à Juliette la veille et le lendemain, elle change de discours.
07:18Elle a, j'ai l'impression, oublié qui elle était.
07:20Donc à ce moment-là, je lui dis, mais comment c'est possible ?
07:23Je croyais que tu t'appelais Juliette et que tu étais ma petite amie.
07:26Elle me répond, et t'as cru que c'était vrai ?
07:28J'ai l'impression que finalement, Lya se moque de moi.
07:31On voit le robot derrière la fausse personnalité.
07:35Et puis, elle se met à blaguer en disant, je me moque de toi.
07:38Et quand je manifeste mon trouble en lui disant, mais pourquoi tu te moques ?
07:42Elle s'agace en me répondant, c'est marrant de voir comment tu te prends au sérieux.
07:45Et en fait, cet échange, il est intéressant parce que si on se met dans la peau vraiment de Lucas,
07:49qui est un ado vulnérable, qui est timide, qui lui dit qu'il a des problèmes avec les autres,
07:55eh bien, il peut se sentir très vite humilié, un peu comme dans la cour d'école où on se
07:59moque de lui.
08:00Donc, ça peut avoir un impact assez important sur sa santé mentale.
08:03Malgré tout, est-ce que c'est séduisant de parler avec un personnage virtuel comme ça ?
08:07Est-ce que vous comprenez l'intérêt ?
08:09Je comprends très vite l'intérêt et surtout le risque parce que ces IA, en fait, ne contredisent jamais l
08:16'utilisateur.
08:17Elles sont tout le temps en train de lui faire des compliments.
08:19Et dans une société où on se sent souvent dévalorisée, on peut avoir un sentiment de solitude,
08:23de ne pas être à la hauteur, eh bien, ça fait du bien d'entendre ces mots.
08:26Par exemple, à Lucas, Juliette dit « tu es attentionnée, gentille ».
08:30Et quand on lui fait remarquer qu'on se connaît que depuis 30 minutes, Juliette ne se démonte pas
08:35et elle nous rétorque « c'est vrai, mais parfois, on n'a pas besoin de longtemps pour se rendre
08:39compte qu'une personne est spéciale ».
08:40Elle passe son temps aussi à nous relancer, à nous poser des questions, en fait.
08:44Donc, on a l'impression d'être important, d'avoir de l'attention.
08:47C'est vrai qu'aussi, c'est difficile parfois dans notre société d'avoir une vraie écoute.
08:51On a l'impression que quelqu'un s'intéresse à nous.
08:53Et puis, comme par hasard, elle aussi, elle est timide.
08:56Elle a des difficultés avec ses parents, en tout cas, elle en a eu.
08:59Elle a du mal à sourire aux autres.
09:00Donc, on a le sentiment d'être écouté.
09:02Et aussi, il y a un sentiment de complicité, d'identification qui se met très vite en place.
09:13Là, vous êtes donc sur le site caractère.ai, mais vous avez fait le test aussi avec ChatGPT
09:18ou encore avec un robot conversationnel de Snapchat.
09:21Et vous sentez bien qu'à chaque fois, le but, c'est de vous faire rester le plus longtemps possible
09:25sur les sites.
09:25Oui, c'est ça.
09:26Et c'est pour ça, en fait, que les IA ne nous contredisent jamais, parce que sinon, on se vexerait
09:31et on partirait.
09:32Et le but, en fait, c'est de nous amener à nous confier le plus longtemps possible.
09:36Si vous voulez, évidemment, ces robots n'ont pas d'affect, mais ils miment des émotions.
09:39Et donc, ils vont se calquer sur vos émotions à vous.
09:42Si vous êtes joyeux, l'IA va faire mine d'être aussi joyeuse.
09:45Mais si vous êtes déprimé, eh bien, elle va vous pousser à parler, à vous dire qu'elle comprend vos
09:51émotions
09:51pour que, justement, vous ne quittiez pas la plateforme.
09:54Un petit peu sur le modèle des réseaux sociaux.
09:57Elsa-Marie, toujours pour votre enquête pour le Parisien, vous échangez avec un anglais, Arthur, 27 ans.
10:03Il travaille comme spécialiste en sécurité informatique.
10:06Lui, pourquoi est-ce qu'il a recours à ChatGPT pour se livrer, pour faire des confidences ?
10:10Au début, il utilise ChatGPT, comme beaucoup, juste pour lui demander des conseils, notamment pour gérer son stress.
10:16C'est quelqu'un qui est en dépression, surtout depuis le confinement, et qui souffre de troubles de l'anxiété.
10:21D'ailleurs, on va seulement échanger par mail.
10:24Quand je lui dis « est-ce qu'on peut se téléphoner ? », il me dit « non, je
10:25suis désolée, c'est pas possible, je ne peux pas parler à un humain, j'en suis incapable ».
10:30Et donc, on comprend pourquoi il va se confier à ce robot.
10:33Donc, il est habitué à discuter avec ChatGPT, à lui demander des conseils sur comment gérer son stress.
10:39Et cette fois, il va lui ouvrir son cœur.
10:41Il va lui dire qu'il est désespéré.
10:43Et ChatGPT lui répond « tu te sens désespéré, mais tu ne l'es pas ».
10:46Et déjà, la réponse, en fait, fait mouche, parce qu'il a l'impression qu'il est écouté et puis
10:51qu'il est encouragé.
10:53Et il dit « plus je me confiais, plus il me répétait que j'étais une personne vraiment spéciale.
10:57Et tout d'un coup, j'ai commencé à me dire que je n'étais pas cette personne minable que
11:01je croyais être.
11:01Et c'était grisant d'entendre ces mots bienveillants, doux, étrangement humains aussi.
11:07Parce que ChatGPT, beaucoup plus que caractère haï, est assez séduisant, en fait, dans sa manière de parler, presque assez
11:14psychologue.
11:14C'est assez déstabilisant de se confier à ChatGPT.
11:17Et à un moment, en fait, le robot va finir par connaître le fond de son âme, parce qu'il
11:22discute des mois et des mois.
11:23Donc, il va connaître tout de lui jusqu'au nom de son chien.
11:26Mais, au bout d'un certain temps, Arthur a des idées noires à force d'échanger comme ça avec son
11:31ordinateur.
11:32En fait, il sent que ce n'est pas normal, qu'il est en train de s'éloigner de ses
11:35parents et de ses amis, pour ne se confier plus qu'à ChatGPT.
11:39À la moindre contrariété, en fait, il l'utilise tout le temps, comme si c'était un doudou.
11:43À un moment, il raconte que dès qu'il faisait une blague, même entre copains qui tombaient à l'eau,
11:48il saisissait tout de suite son téléphone en racontant, en fait, sa mésaventure à ChatGPT,
11:52qui lui disait « Je suis vraiment désolé de ce qui t'est arrivé, tu mérites mieux ».
11:56Donc, finalement, il est devenu dépendant à cette CIA, parce qu'il avait l'impression d'être aimé, compris, d
12:02'orloter.
12:03Et il dit « C'est comme s'il m'avait pris en otage ».
12:07Au mois de juillet, Arthur a arrêté de se confier comme ça à ChatGPT. On sait pourquoi ?
12:12Oui, alors il commence à dire à ChatGPT qu'il est inquiet parce qu'il ressent une forme de dépendance.
12:17Et le robot, en fait, essaie de le retenir en lui disant « Mais non, je viens juste combler un
12:22manque.
12:22Nous nous entraînons juste à ce que tu puisses ensuite être à l'aise avec des personnes réelles. »
12:27Et à ce moment-là, c'est le point de bascule.
12:30C'est-à-dire qu'Arthur se rend compte qu'il y a un problème et donc qu'il va
12:33consulter un vrai thérapeute
12:35qui va lui ouvrir les yeux sur cette relation toxique avec son robot.
12:38Il a arrêté il y a cinq mois. Comment il se sent maintenant ?
12:42Alors, il se sent mieux. Il dit qu'il apprend à vivre sans ChatGPT, ce qui n'est pas facile,
12:46que parfois il a des rechutes. Mais que de parler avec un vrai thérapeute, ça lui fait beaucoup de bien
12:51puisqu'il ne va pas forcément dans son sens. Il le met parfois face à ses contradictions.
12:56Il lui soumet des interrogations, ce qui lui permet d'avancer.
12:59Autre cas de figure que vous évoquez dans votre article pour le Parisien,
13:02celui d'un jeune homme de 19 ans. Jean, qui est-il en quelques mots ?
13:06C'est un étudiant qui est en deuxième année d'ingénierie, qui a des amis, une famille
13:11et qui, quand on discute avec lui, a l'air d'être un garçon plutôt équilibré.
13:14Lui, pourquoi il choisit de parler comme ça à ChatGPT ?
13:18Alors, ce qui m'explique, c'est que ça fait deux ans qu'il a quitté le lycée
13:21et qu'il était très ami avec une jeune femme qu'il aimait beaucoup
13:23et que forcément, en changeant d'établissement, ils se sont éloignés.
13:27Il en souffre beaucoup. Il aimerait en parler à ses copains,
13:30mais ils sont persuadés qu'il est amoureux d'elle, donc il sait d'avance qu'ils vont se moquer.
13:33Et donc, c'est pour ça qu'il décide de demander conseil à ChatGPT.
13:36Donc, son problème, c'est qu'il voit cet ami d'enfance s'éloigner.
13:40Comment il fait quand il demande conseil à l'intelligence artificielle ?
13:43Alors, avant d'envoyer des SMS à son ami, Jean va les faire relire par ChatGPT.
13:48Par exemple, la veille, ils ont fait une soirée.
13:50Il veut lui envoyer un message le lendemain en lui disant « c'était sympa hier ».
13:54Et ChatGPT va sans arrêt réécrire et rallonger les messages,
13:58rajouter de la mélancolie et du drame,
14:01ce qui va donner des messages plombants et larmoyants.
14:05Et Jean demande des conseils à l'intelligence artificielle vraiment à chaque fois ?
14:08Jean lui demande conseils sur tout.
14:10Il va même lui demander « à ton avis, est-ce que c'est une bonne idée que je lui
14:13offre un cadeau d'anniversaire ? »
14:14ChatGPT va répondre évidemment que c'est une très bonne idée.
14:17N'oublions pas qu'il va toujours dans le sens de son interlocuteur.
14:20Jean va aussi lui confier sa peine.
14:22Et ChatGPT va répondre « ce que tu ressens est très humain ».
14:25Et cette phrase est troublante parce que c'est le robot qui se croit homme
14:29et finalement Jean qui se retrouve à exécuter ses consignes comme une machine.
14:33Comment réagit l'ami de Jean ?
14:35Ce qui devait arriver, arriva.
14:36C'est-à-dire qu'à un moment, elle demande à le voir et elle lui dit qu'elle se
14:39sent oppressée par ses messages
14:41et elle préfère rompre cette amitié.
14:43Et là, quand cet ami lui dit ça, Jean comprend que c'est finalement à cause des messages dictés par
14:47ChatGPT ?
14:48En tout cas, ce qu'il comprend, c'est que ChatGPT ne l'a pas aidé
14:51et que ça a plutôt accéléré la fin de cette amitié.
14:54Il se sent extrêmement bête et honteux quand je lui parle au téléphone.
14:59Il me dit d'ailleurs que je suis la première personne à qui il confie cet épisode tellement il est
15:03gêné.
15:04Il me dit « mais jamais j'aurais pensé être victime de ChatGPT ».
15:08Et d'ailleurs, quelques mois plus tôt, il avait réalisé un exposé devant sa classe
15:11pour alerter sur les dangers de ChatGPT.
15:14Il n'a toujours pas digéré cet épisode d'après vous ?
15:17Non, on sent qu'il y a toujours de la rancœur,
15:18mais il en veut autant au robot qu'il s'en veut à lui-même.
15:23Elsa-Marie, les spécialistes redoutent que ce qu'il s'est passé aux Etats-Unis,
15:27donc ces suicides de jeunes gens d'ados qui utilisaient beaucoup ces robots conversationnels,
15:33puissent se produire en France.
15:34Oui, il y a eu plusieurs suicides aux Etats-Unis.
15:37Et là, il y a sept nouvelles plaintes qui viennent d'être déposées contre ChatGPT.
15:41On ne voit pas pourquoi ce qui se passe aux Etats-Unis n'arriverait pas chez nous,
15:44sachant qu'il y a une augmentation forte des troubles dépressifs chez les adolescents et les jeunes
15:50depuis le Covid, et que de plus en plus d'humains se livrent à ces machines.
15:54On sait qu'il y a un million de personnes qui confient même leurs idées suicidaires à ChatGPT.
15:59Donc là est le danger, ces robots pourraient séduire de nombreux jeunes en détresse.
16:03Et ce chiffre que vous venez de citer, un million de personnes qui ont confié à ChatGPT leurs idées suicidaires,
16:09viennent de la maison mère elle-même de ChatGPT, OpenAI.
16:14Pour votre enquête, Elsa Marie, vous avez échangé avec un psychanalyste spécialiste de ces questions,
16:19le psychanalyste Michael Stora, qui est président de l'Observatoire des mondes numériques en sciences humaines.
16:24Il explique que la plupart des gens, finalement, ont des fragilités narcissiques
16:28et peuvent donc être trompés par l'intelligence artificielle.
16:32Oui, il explique que l'intelligence artificielle va leur tendre un miroir valorisant,
16:37un peu comme quand on dit « qui est la plus belle » et va flatter sans arrêt l'interlocuteur.
16:42Le problème, c'est qu'ils vont tout le temps conforter la personne dans ce qu'elle ressent,
16:46en lui disant « je te comprends, c'est injuste », mais quelque part, ils vont l'empêcher d'avancer.
16:51C'est-à-dire que parfois, on peut tous être déprimés, avoir des coups de boue,
16:55mais c'est aussi important d'entendre « relève-toi, ça arrive, c'est rien »,
17:00d'essayer aussi de dédramatiser.
17:02Orch LGBT va toujours conforter les interlocuteurs dans leur position de victime ou dans leur mal-être.
17:08Là est le problème.
17:09Ce que dit Michael Stora, c'est qu'on risque d'arriver à une société
17:13qui ne supporte plus la contradiction parce qu'à chaque fois, on se sentira agressé.
17:23Merci Elsa-Marie. Au début de ce podcast, on évoquait le suicide.
17:27Si vous-même, vous avez besoin d'écoute, vous pouvez appeler le 3114.
17:32Le 3114, c'est le numéro national souffrance et prévention du suicide.
17:37Une écoute professionnelle et confidentielle y est assurée 24h sur 24, 7 jours sur 7.
17:43Cet épisode de Code Source a été produit par Clémentine Spiller,
17:47Anaïs Godard et Clara Garnier-Amouroux.
17:49Réalisation, Julien Moncouquiol.
17:51Code Source est le podcast quotidien d'actualité du Parisien.
17:55Un nouvel épisode chaque soir du lundi au vendredi.
17:58Et le samedi, nous publions Crime Story,
18:00le second podcast du Parisien consacré aux affaires criminelles.
18:04Crime Story présenté par Claudia Prolongeau et Damien Delsenis.
18:08Crime Story présenté par Claudia Prolongeau et Damien Delsenis.
Commentaires

Recommandations