- il y a 1 heure
Vendredi 15 mai 2026, retrouvez Camille Guislain (directrice, Clinique d'Yveline), Julie Salomon (Directrice médicale, Qare), Hervé Bonnaud (Président, Nex&Com;) et Stéphane Mouchabac (psychiatre à l'hôpital Saint-Antoine) dans SANTÉ FUTURE, une émission présentée par Alix Nguyen.
Catégorie
🗞
NewsTranscription
00:01Générique
00:08Bonjour à tous et à tous et bienvenue dans Santé Futur, votre rendez-vous dédié à l'innovation et à
00:12l'avenir de la santé.
00:14Salut Hervé, ravi de te retrouver.
00:16Salut Ali.
00:16Aujourd'hui une question qui concerne déjà des millions de personnes et peut-être davantage qu'on l'imagine.
00:21Les IA conversationnelles sont-elles en train de devenir faute de mieux ?
00:24Un nouveau recours en santé mentale ?
00:26Une enquête européenne révélée ces derniers jours, alerte près d'un jeune sur deux,
00:31utilise désormais une IA conversationnelle pour évoquer des sujets personnels ou intimes.
00:36Un tiers la considère parfois comme un thérapeute et la majorité estime que ces outils donnent des conseils fiables
00:42et gardent leur confidence secrète alors même que ces IA ne sont ni médecins, ni psychologues, ni encadrés comme des
00:48outils de soins.
00:49Au sommaire de cette émission donc, entre pénurie de psychiatres, hausses de troubles anxieux
00:53et disponibilité permanente des chatbots, une nouvelle relation est en train de s'installer.
00:58Des personnes en situation de vulnérabilité se tournent vers des machines capables de répondre immédiatement, sans cadre médical.
01:05Mais que se passe-t-il réellement dans ces interactions ?
01:07Quel impact sur la santé mentale des patients ?
01:10Où commence le soutien ? Où commence le danger ?
01:12Et qui est responsable quand une IA influence une personne en détresse ?
01:16Pour en parler, Santé Futur reçoit le docteur Stéphane Mouchabac, psychiatre à l'hôpital Saint-Antoine à Paris,
01:22chercheur à l'Institut du cerveau en IA et en numérique,
01:25et Camille Guilin, directrice de la clinique psychiatrique d'Yvelines.
01:29Dans le scan, Hervé Bono s'interroge sur ce que le cinéma dit de notre rapport aux IA capables d
01:34'écoute émotionnelle
01:35et sur ce que leur succès révèle en creux de notre solitude.
01:39Et puis, notre pépi de santé du jour, c'est CARE, plateforme de téléconsultation médicale,
01:44qui travaille sur les outils d'orientation et d'accompagnement numérique des patients.
01:48Le docteur Julie Salomon, sa directrice médicale, sera sur ce plateau.
01:55Bonjour Camille Guilin.
01:57Bonjour.
01:57Bonjour docteur Mouchabac.
01:59Bonjour.
01:59Bienvenue à tous les deux.
02:01Pour commencer, un peu de contexte, on voit aujourd'hui des patients qui utilisent des IA
02:06pour parler de leur mal-être avant même de consulter.
02:09Concrètement, qu'est-ce que ça change dans la façon dont les patients arrivent aujourd'hui en consultation ?
02:15Alors c'est vrai qu'on voit de plus en plus de patients arriver en ayant déjà consulté et consulté
02:21une IA.
02:21Alors il y a un côté très positif, c'est que ça déstigmatise la psychiatrie,
02:25c'est-à-dire qu'effectivement on a au moins des personnes qui peuvent parler de leur mal-être à
02:31quelqu'un,
02:31enfin en tout cas ils imaginent à quelqu'un,
02:34et ça peut avoir un côté positif puisque ça peut amener aux soins.
02:38C'est-à-dire que l'IA est maintenant en capacité de dire là il faudrait aller consulter.
02:42Donc il y a un petit côté positif.
02:44Par contre, là où effectivement il faut qu'on s'alerte,
02:48c'est que parfois certaines personnes pensent que c'est suffisant,
02:52alors que, et du coup ils ne vont pas consulter,
02:55et ça peut aussi retarder le diagnostic et retarder les soins.
02:58Et c'est là où effectivement il faut qu'on ait vraiment un moment de vigilance.
03:03Docteur Gouchéri.
03:05Alors nous ce qu'on voit, c'est un petit peu ce qui vient d'être évoqué,
03:07c'est vraiment un changement de contexte.
03:10Une fois je reçois un mail d'une patiente qui me dit
03:12voilà je sais que vous travaillez sur ce champ,
03:14et j'ai mis mon dentier dans un chat de GPT, qu'en pensez-vous ?
03:18Et c'était la première fois que je l'ai remercié,
03:21parce que je dis que c'est globalement la relation qui est en train de s'installer demain.
03:24Nous ne sommes plus deux, mais trois.
03:26C'est-à-dire qu'avant, les gens regardaient sur les moteurs de recherche,
03:29on leur disait vous avez mal lu, mal vu,
03:30et aujourd'hui ils arrivent avec déjà un matériel en consultation.
03:35Alors ce matériel c'est peut-être pour de l'analyse, de traitement, de clinique à vie,
03:39mais le deuxième champ c'est que les gens se confient de plus en plus,
03:42et en particulier les jeunes, à ces outils,
03:45qui sont des outils très performants pour certaines tâches,
03:47mais pas toutes, dont celles de faire du soin,
03:49puisqu'elles ne sont pas faites et entraînées pour.
03:52Et c'est là où, effectivement, comme on vient de le dire,
03:54il y a à la fois un intérêt et en même temps des zones d'ombre
03:57qu'il va falloir cadrer un petit peu.
03:59Mais ça veut dire que ces patients, ils arrivent avec des réponses construites en fait ?
04:03Il faut comprendre une chose, à n'importe quelle heure, à n'importe quel moment,
04:08il répondra globalement à l'outil de la même manière,
04:10toujours de façon plutôt bienveillante, cadrée, d'allure humaine,
04:14et c'est fait pour, et c'est fait aussi pour qu'on reste sur ces outils,
04:17il y a un côté quand même mercantile dans leur usage,
04:19et ce sentiment de disponibilité permanente,
04:23ou que quelle que soit la demande que vous fassiez,
04:25vous avez le sentiment d'être un génie absolu,
04:27parce que vous êtes encensé par la nature.
04:29Mais c'est surtout l'écoute immédiate que vont chercher les gens.
04:32Et une réponse immédiate.
04:33On est dans une société où finalement tout se passe tout de suite,
04:37un tiens vaut mieux que deux, tu l'auras,
04:38et effectivement les gens vont aller vers cette solution immédiate de facilité
04:42qui est disponible H24.
04:44Et justement, c'est l'aspect complètement inédit des IA,
04:46c'est cette écoute immédiate.
04:48Est-ce que ça a un impact sur la prise en charge ?
04:51Alors c'est clairement un impact, ça c'est sûr,
04:53puisque certains des patients arrivent en ayant l'impression
04:56déjà de savoir ce qu'il en est,
04:59et donc du coup ça a déjà un impact.
05:01C'est-à-dire que vous avez un travail dans la prise en charge
05:03de déconstruction de ce qui a été dit ?
05:04Alors en tout cas de psychoéducation, ça c'est sûr.
05:07Pas forcément de déconstruction,
05:09parce qu'il y a des choses qui sont plutôt bien dites,
05:11mais de psychoéducation,
05:13parce qu'effectivement ça ne remplace pas la relation humaine.
05:16Quand vous décidez d'aller voir un thérapeute,
05:18vous décidez de vous mettre en mouvement,
05:20et donc vous décidez d'aller mieux aussi.
05:21Quand vous êtes au fond de votre canapé,
05:24il n'y a pas cette mise en avant.
05:26Et ça, c'est une des problématiques de l'IA.
05:30Sans compter que l'IA, elle est paramétrée
05:32pour vous relancer en permanence.
05:34Donc chez certaines personnes qui...
05:36Ça veut nourrir le mal quoi.
05:38Exactement, de rumination anxieuse,
05:40vous allez rester dans cette rumination anxieuse.
05:42Et ça, c'est aussi un des défauts de l'IA,
05:46d'autant plus que ça crée une vraie dépendance affective.
05:51Sur la dépendance affective, vous le partagez ?
05:53La dépendance affective, on l'a vu
05:55quand on est passé d'une version 4 à une version 5
05:58d'un célèbre agent génératif.
06:01Les jeunes se sont dit, il n'est plus comme avant,
06:03parce qu'on avait reproché à ces IA
06:05d'être un petit peu trop pseudo-empathiques.
06:07Mais pour revenir, on a le sentiment que c'est récent,
06:09mais ce n'est pas récent du tout.
06:11Dans les années 60, Wiesenbaum, au MIT,
06:13va créer un agent qui s'appelle ELISA,
06:15alors qu'il est un prototype de base.
06:17Ce n'est absolument pas le génératif,
06:19c'est un algorithme avec des schémas
06:23où on répond à ça, puis ça, puis ça.
06:25Et on a appelé l'effet ELISA,
06:26c'est-à-dire que les gens pensaient ou ressentaient
06:29la présence humaine à travers quelque chose
06:31qui est vraiment très sommaire.
06:32Moi, j'ai utilisé des émulations,
06:34ça ne ressemble pas à ce qu'on est capable de faire.
06:35Et déjà, on est capable d'attribuer,
06:37et c'est ça qui est très intéressant,
06:38ce qu'on appelle une agentivité,
06:40c'est-à-dire une vie avec une décision
06:42qui est prise par cette machine,
06:43une sorte d'incarnation
06:45qui fait qu'on lui donne une vie réelle.
06:48Et c'est là où il faut y avoir un petit peu confusion.
06:51Confusion qu'on oublie que c'est une machine
06:52qui, à cette table, n'a jamais dit
06:53« S'il te plaît, merci à Anthropique,
06:55JGPT ou qui on veut ».
06:57On voit qu'on est capable d'avoir cet effet-là.
06:59Et il y a même des travaux qui montraient
07:01que si on simule un langage très social
07:04versus un langage très froid,
07:06et qu'un petit robot nous répond,
07:08au moment où on doit éteindre le robot,
07:09il dit « Non, j'ai peur du noir,
07:11je ne veux pas mourir »,
07:11les gens qui ont été exposés
07:13à quelque chose de social
07:14vont mettre plus de temps
07:15et lui trouver des excuses.
07:16Ce qui veut dire qu'on peut penser
07:17qu'en face de nous, on a un humain.
07:19Et c'est là où le babelès,
07:20c'est-à-dire qu'il faut rappeler
07:22ce qu'est un humain versus une IA,
07:24pour l'instant,
07:24et qu'il n'y ait pas confusion.
07:26Parce que ce qui va manquer à l'IA,
07:28c'est ce discernement,
07:29dans l'analyse de certains signaux,
07:30pour dire là peut-être,
07:31la réponse n'est pas ajustée,
07:33elle ne répond pas à un contexte plus global,
07:34elle ne s'intègre pas
07:35dans une histoire d'un sujet.
07:37Bref, la réponse que je vais donner
07:39de manière très assertive,
07:41très bienveillante,
07:42n'est pas adaptée du tout au contexte.
07:44Or, on a tendance à faire très confiance
07:46aux sorties de ces outils,
07:48ce qu'on appelle un biais algorithmique
07:49et un biais d'autorité,
07:51voire même plus confiance qu'à un humain.
07:53Et donc on voit
07:53qu'on a un changement de paradigme.
07:55Mais ça ne date pas d'hier,
07:56il y a eu vraiment pas mal de versions.
07:57Simplement, il y a eu un désert informatique
07:59puisqu'on n'a pas eu plus de capacités
08:01pendant des années,
08:02on est resté sur les mêmes projets.
08:03Et là, avec la puissance du calcul,
08:05on change.
08:06Et surtout, c'est rentré dans l'usage.
08:07Mais on découvre un truc
08:08qui existe depuis assez longtemps.
08:10Est-ce que, néanmoins,
08:10vous le disiez tout à l'heure,
08:11au lieu de subir cette IA
08:13qui, de toute façon,
08:14fait partie de nos vies,
08:15est-ce qu'il n'y aurait pas un moyen
08:16de l'intégrer dans le parcours de soins ?
08:18Bien sûr.
08:19C'est l'objectif,
08:20je ne sais pas ce que vous avez à dire,
08:22mais c'est vraiment l'objectif
08:23de toutes les personnes
08:23qui travaillent dessus.
08:25Il ne faut pas oublier
08:25qu'un outil comme
08:27les grands LLM qu'on connaît,
08:29les grands modèles actuels,
08:31ne sont pas faits pour ça, à la base.
08:32Ils sont faits pour répondre
08:33à des questions
08:34qu'on leur pose
08:35de manière assez générale.
08:36C'est un 4x4,
08:36mais il n'est pas fait pour courir
08:37sur un circuit de Formule 1.
08:39Or, le soin
08:40et la thérapie,
08:41la psychothérapie,
08:42c'est une sorte de Formule 1
08:43dans un domaine donné.
08:44Donc, il va donner des réponses
08:46qui vont être plus ou moins adaptées,
08:48vu qu'il est entraîné
08:49sur des très très très très
08:50grands sets de données.
08:51C'est quand même globalement
08:52assez juste,
08:53mais il va manquer
08:54la précision
08:55d'un outil
08:56qui est fait que pour cela.
08:58C'est un petit peu
08:59comme un outil multifonction
09:00versus un outil monofonction.
09:02Et n'oublions pas
09:03que, même aujourd'hui,
09:05ces outils ne sont pas faits
09:06pour ça,
09:07même s'ils le simulent.
09:09Ils sont faits
09:09des outils de dialogue, en fait.
09:11C'est des outils génératifs,
09:12c'est-à-dire qu'on leur pose
09:12une question,
09:13ils génèrent une réponse.
09:13Ils vous évitent
09:14d'avoir à faire
09:15tout un lot de recherches
09:16qu'on faisait avant.
09:17Maintenant, est-ce qu'ils sont...
09:17Ce n'est pas de diagnostic pour autant ?
09:19De soutien émotionnel,
09:20non, ce n'est pas leur réponse.
09:20Mais ce qui est le cas.
09:21Voilà, les gens l'utilisent.
09:22C'est ce qu'on appelle
09:23une exaptation,
09:24c'est pris pour autre chose
09:25par rapport à son but initial.
09:27Et on a entendu parler
09:30de cas d'aggravation
09:31de troubles psychiques
09:32et de passage à l'acte,
09:33notamment aux Etats-Unis.
09:35On sait jusqu'où ?
09:36Ça peut se généraliser ?
09:37Est-ce que ça peut être...
09:39C'est une grande...
09:39Je vais juste répondre rapidement,
09:41mais c'est une complexité.
09:43C'est-à-dire qu'un cas
09:43parmi les millions, millions,
09:44millions, millions d'usages
09:45ne reflètent pas
09:46réellement un danger.
09:48Toutes les nouveautés
09:50exposent à ce type de questions.
09:51Et moi, quand j'étais plus jeune,
09:53quand on jouait au jeu de rôle,
09:54on lui disait
09:54ça rend fou, etc.
09:55Donc il y a toujours
09:56des inquiétudes.
09:57Et il ne faut pas confondre
09:57quelqu'un de vulnérable
09:58exposé à quelque chose
09:59de non adapté
10:00de la population générale.
10:02mais on va peut-être
10:02voir émerger
10:03des néopathologies.
10:03Et donc quel garde-fou
10:04on met en place, alors ?
10:05Le garde-fou,
10:07c'est justement
10:08d'utiliser des outils
10:08faits pour.
10:09C'est-à-dire des outils
10:10qu'on entraîne,
10:10qu'on valide scientifiquement
10:12et qui sont calibrés
10:13pour répondre à du soin
10:15et non un outil généraliste
10:16qui n'est pas fait pour.
10:17Camille ?
10:17Et puis c'est aussi
10:19d'en parler.
10:20C'est-à-dire qu'effectivement,
10:21c'est toute la psychoéducation
10:23qu'on va faire aux patients
10:24de dire,
10:25attention,
10:27justement,
10:27ce n'est pas un outil fait pour.
10:29Rien ne remplacera aussi
10:32d'aller voir un thérapeute,
10:33vous vous déplacez
10:33pour aller le voir
10:34et par moments,
10:35lui, il va vous permettre
10:36de faire un pas de côté,
10:37ce que vous ne permets pas
10:38pour le moment lire.
10:40Et donc c'est ça aussi
10:41qui va permettre justement
10:43de cadrer aussi un peu les choses.
10:46C'est-à-dire que...
10:46Et donc ça,
10:46c'est de la prévention,
10:47mais je veux dire,
10:48les plateformes en elles-mêmes,
10:49il ne faudrait pas les régler
10:51de façon à ce qu'elles n'allent
10:52pas aussi loin
10:53dans les préconisations,
10:54les diagnostics ?
10:55Vous savez,
10:56si vous prenez un avion,
10:58a priori,
10:59quel que soit l'aéroport
10:59où vous allez atterrir,
11:00vous avez les mêmes chances
11:01d'atterrir ?
11:01C'est-à-dire qu'il y a
11:02quand même une espèce
11:02de gouvernance mondiale,
11:04il y a des protocoles
11:05qui font que tout le monde
11:06s'aligne pour que ça soit
11:06le mieux possible.
11:07L'IA, il n'y en a pas.
11:09Chacun fait un peu à sa sauce
11:10avec les lois locales,
11:11on a les lois européennes,
11:12il y a les lois américaines,
11:13la propriété,
11:14la confidentialité.
11:15Quand vous confiez quelque chose,
11:16à qui vous le confiez ?
11:17Qu'est-ce qu'on peut en faire derrière ?
11:18Et on aurait besoin
11:19quand même
11:19de sorte d'harmonisation.
11:21Mais c'est pour ça que,
11:21finalement,
11:22le travail des gens
11:23qui font de la recherche,
11:30est de garder
11:31des modalités
11:31d'évaluation de ces outils
11:33qui sont ceux,
11:33par exemple,
11:34du médicament,
11:35qui sont ceux
11:35des thérapies
11:36et que l'on applique
11:38les mêmes schémas
11:39d'évaluation,
11:40de vérification
11:41qui sont très longs
11:42et très coûteux,
11:42c'est pour ça que ça en repute plus un,
11:44pour valider ces outils
11:45et que ce soit
11:46des outils thérapeutiques.
11:47Et qui doit emporter
11:48aujourd'hui
11:49la responsabilité
11:50de ce que l'IA énonce ?
11:52Alors, un peu tout le monde,
11:54j'ai envie de dire.
11:55C'est-à-dire que...
11:56Aussi bien le soignant
11:57que les plateformes,
11:58les pouvoirs publics ?
11:58Alors,
11:59effectivement,
12:00un peu toutes ces personnes-là.
12:02Et puis,
12:03quand on est notamment
12:03dans le cas des jeunes,
12:04ça va être aussi
12:05le cas des parents.
12:06C'est-à-dire qu'effectivement,
12:07toute personne qui voit
12:07qu'une autre personne
12:09qui s'isole de plus en plus
12:11et qui préfère parler
12:12à un IA qu'à un humain,
12:13effectivement,
12:14il faut se questionner
12:15sur qu'est-ce qui se passe derrière.
12:17Et ça,
12:17c'est une responsabilité collective.
12:19Après,
12:20au sein des hôpitaux,
12:21effectivement,
12:21il y a des comités éthiques,
12:23il y a des instances
12:25qui y réfléchissent
12:26et je pense qu'effectivement,
12:27il faut que les instances
12:28hospitalières se questionnent
12:30sur l'avenir de l'IA,
12:32tant auprès des patients
12:33qu'auprès des soignants.
12:37Ce qui nous interroge beaucoup,
12:38c'est aussi
12:40le fait d'aiguiller
12:41ces patients,
12:42de leur expliquer
12:42qu'il y a un risque
12:43à dire tout
12:44et n'importe quoi
12:45sur ces outils-là.
12:46la propriété des données,
12:48elle n'est pas la vôtre.
12:50À partir du moment
12:50où on discours avec,
12:52on livre des données,
12:53de l'information
12:54qui peut être utilisée.
12:55Mais c'est ça aussi
12:56ce que disent les études,
12:57c'est qu'il y a une confiance
12:58assez aveugle globalement
12:59sur ce qu'on confie à une IA.
13:01Voilà,
13:01et ça,
13:01il faut faire un petit peu attention.
13:03Moi,
13:03quand je vois des gens
13:03qui mettent tout leur dossier
13:05sur un des outils
13:06pour le faire analyser,
13:07ils viennent de raconter
13:08les trois quarts de leur vie
13:09qui permettent
13:10de déduire le reste.
13:11Est-ce que ça,
13:11on a mesuré le niveau de risque
13:12quand on se confie à une IA ?
13:13Pas encore vraiment.
13:15Il y a de la supposition,
13:17puis vous savez,
13:17il y a l'opacité aussi des modèles
13:19selon les pays.
13:19Mais c'est trop tôt encore
13:20pour l'évaluer.
13:20On ne sait pas encore
13:22véritablement où ça va
13:23et qui fait quoi.
13:23Les modèles RGPD ici
13:26sont censés être plus garants
13:27que ceux qui sont dans notre pays.
13:30Mais là où ça devient intéressant,
13:31c'est cette notion
13:32de curateur de données.
13:33Le boulot des soignants,
13:34c'est de devenir des garants.
13:35Et si on retient l'étymologie
13:37du mot garants,
13:38c'est waran,
13:39c'est warir,
13:40garir,
13:40c'est du haut latin
13:41et du bas francis
13:42qui veut dire protéger d'eux.
13:43Et guérir,
13:43c'est protéger d'eux.
13:44Et être un garant,
13:45c'est protéger d'eux.
13:46Et vous voyez qu'on retombe
13:47dans quelque chose
13:48qui est guérir
13:48en protégeant des excès
13:50d'un outil.
13:51Et c'est là où il y a tout le gap.
13:52Et nous,
13:53on a beaucoup travaillé
13:54sur ce qu'on appelle
13:54les modèles d'acceptabilité,
13:55comment une profession
13:57intègre une nouveauté,
13:58une innovation,
13:59pour que ça soit une innovation
14:00dans son corpus.
14:01Eh bien,
14:02on voyait que des gens
14:02étaient très réticents.
14:03Mais ils étaient réticents
14:04parce qu'ils souvent,
14:04ils ne connaissaient pas.
14:05Or, à un moment,
14:06quand un patient
14:07va venir vous voir,
14:08c'est comme s'il me demande
14:08ce médicament,
14:09comment il marche.
14:10Si je ne suis pas capable
14:11de séparer le bon grain
14:12de l'ivraie,
14:12je représente aussi
14:14une forme de perte de chance.
14:15Et ça,
14:15c'est difficile à accepter
14:16parce que plus ça va,
14:18on me dit,
14:18qu'en pensez-vous ?
14:19Cet outil,
14:19je l'ai vu.
14:20Qu'est-ce que ça vaut ?
14:20Et nous,
14:21on va devoir aussi
14:22les connaître
14:23et en même temps
14:24les intégrer
14:24parce que ce sont
14:25des opportunités
14:26très importantes.
14:27Et regardez,
14:28je termine,
14:29je suis allé
14:29dans un pays au Ghana
14:31avec une mission
14:32comme ça
14:32et il y a 33 psychiatres
14:34pour 32 millions d'habitants.
14:3633 psychiatres
14:37pour 32 millions d'habitants
14:37avec des gens
14:38qui ont des problèmes
14:39exactement similaires
14:40à n'importe qui,
14:41voire certains
14:42plus compliqués.
14:43Eh bien,
14:44ces outils-là
14:44sont aussi des opportunités.
14:46Et comme on disait,
14:47le principe de l'hormèse,
14:48de la dose n'est le poison,
14:49ça va dépendre
14:50de comment on les utilise.
14:52Et dans des pays
14:52qui sont sous-dotés,
14:54mais les nôtres
14:54le sont aussi
14:55par moment et par endroit,
14:56c'est aussi une opportunité.
14:57On dit quand même
14:57que la psychiatrie,
14:58c'est le parent pauvre.
14:59Exactement.
14:59On ne doit pas tout rejeter massivement
15:01parce que ça représente
15:02certains dangers.
15:03C'est une opportunité aussi.
15:04Il faut savoir
15:05que quand même
15:0550% du temps des soignants
15:08est occupé
15:08à faire de l'administratif.
15:10Donc on peut imaginer,
15:11en tout cas,
15:11moi, en tant que directrice de clinique,
15:13c'est ce que j'espère,
15:14c'est-à-dire que l'IA
15:14permet à mes soignants
15:16de retourner auprès du patient
15:17et pas de remplir des cases
15:20devant un ordinateur.
15:21Donc si l'IA permet ça,
15:23pour moi,
15:24c'est un combo gagnant.
15:25C'est-à-dire que j'ai des soignants
15:26qui, à la fois,
15:27retrouvent du sens à leur travail
15:28parce qu'ils ont décidé
15:29d'être soignants
15:30et pas de remplir des cases,
15:32donc d'aller auprès du patient.
15:34Et j'ai des patients
15:35qui seront mieux pris en charge.
15:37Oui, si tant est
15:38qu'on utilise l'IA
15:39pour les bons outils.
15:41Exactement.
15:41Mais aujourd'hui,
15:42et en l'état,
15:43ça ne vous inquiète pas
15:44plus que ça,
15:45quant à l'avenir ?
15:46Moi, je suis un peu biaisé
15:47dans la mesure où je travaille là-dessus.
15:48Je m'y intéresse
15:49depuis une bonne quinzaine,
15:50vingtaine d'années.
15:51Et là, on a vu une explosion,
15:52donc on en parle.
15:53Mais aussi,
15:54il ne faut pas réduire l'IA
15:55juste aux intelligences artificielles génératives.
15:57C'est plein de choses l'IA.
15:58C'est la reconnaissance d'images,
16:00c'est la reconnaissance de caractères,
16:02c'est les apprentissages
16:04pour séparer des catégories,
16:06pour faire de la prospection.
16:07C'est plein de choses l'IA.
16:08Et on parle des IA génératives
16:09parce que c'est celles
16:10qu'on utilise le plus facilement
16:11et qui sont maintenant
16:12accessibles à toutes.
16:13Mais c'est un très, très,
16:14très vaste corpus aussi.
16:15Et donc, avoir peur,
16:17non, avoir peur,
16:18ça ne serait finalement
16:19pas la bonne position.
16:21La position,
16:21c'est d'avoir une approche
16:23qui est complète.
16:24Nous, par exemple,
16:25on évalue des modèles sociologiques
16:27d'acceptabilité.
16:28On fabrique des modèles mathématiques
16:29et on fait de la prospective.
16:31On questionne.
16:31Là, par exemple,
16:32on prépare un article
16:33sur est-ce que ces outils,
16:35on appelle de phénotypage numérique,
16:37c'est-à-dire comment on récolte
16:37des données avec votre téléphone
16:39qui indiquent vos états mentaux,
16:41le GPS, l'accéléromètre,
16:43l'exposition à la lumière,
16:44combien d'appels vous avez fait,
16:45qui caractérisent votre comportement.
16:47Est-ce que si on est
16:48dans une boucle permanente
16:49de feedback
16:50qui nous explique notre santé,
16:51on ne perd pas un peu
16:51notre libre-arbitre ?
16:52Ça, par exemple,
16:53c'est des interrogations
16:54qu'on doit avoir.
16:54Donc, il ne faut pas être
16:55pour, contre.
16:56Ça n'existe pas.
16:57Il faut réfléchir
16:59parce que c'est là
17:00et de toute façon,
17:01le cas d'usage est déjà là.
17:01Comment composer avec...
17:02Exactement.
17:03Le cas d'usage est déjà là.
17:05Restez avec nous,
17:06c'est déjà fini,
17:06c'est l'heure du scan.
17:11Et Hervé,
17:12pour aller plus loin,
17:13tu voudrais nous parler
17:13de cinéma.
17:15Oui, parce que c'est bien
17:16de se dire que quand on est tout seul,
17:17il vaut mieux parler avec une nia
17:18que de parler avec personne.
17:19La question que je me suis posée
17:20pour aller au-delà,
17:21parce que je savais
17:21que le débat serait brillant,
17:23est-ce qu'il vaut mieux
17:24de ne pas tomber amoureux
17:25d'une nia
17:25que de tomber amoureux
17:26de personne,
17:27surtout quand on ne s'aime plus.
17:28Et donc,
17:29le septième A
17:29aborde depuis des années
17:31ce thème
17:31et je pourrais vous tenir
17:33deux heures sur le sujet
17:34mais je ne vais parler
17:35que de trois ou quatre films
17:37sinon...
17:37Et donc,
17:38je pourrais commencer par R.
17:40R qui est sorti en 2013
17:41et je l'ai revu récemment.
17:43Heure quand même,
17:43je me permets.
17:44Comment ?
17:44Heure.
17:45Heure, pardon.
17:46Heure,
17:46t'as raison.
17:47Et donc,
17:48c'est une fable mélancolique
17:49sur la solitude
17:50et on parlait juste avant
17:51de l'épidémie de solitude
17:53décrite par l'OMS.
17:55Dans ce film,
17:56vous vous souvenez,
17:56Joachim Phoenix
17:57sort d'une rupture
17:58assez difficile
17:59et il tombe follement amoureux
18:01de Samantha,
18:01son IA
18:02qui à l'époque
18:02est purement vocale.
18:04Le cinéma va faire
18:05après une IA
18:06incarnée par Scarlett Johnson.
18:09Exactement.
18:09Et on s'est dit à l'époque,
18:10ce n'est que fiction,
18:12ça n'arrivera jamais.
18:14Treize ans plus tard,
18:15des millions de personnes
18:16communiquent chaque jour
18:17avec une IA
18:17pour des raisons
18:18thérapeutiques
18:19voire intimes
18:20et on en a quand même
18:21un paquet
18:21qui leur disent
18:22bonsoir tous les soirs.
18:23Donc,
18:23ce film était juste
18:25un peu en avance
18:26sur son temps.
18:26Et il y a aussi
18:27le film Ex Machina
18:28d'Alex Guerlain.
18:29Absolument.
18:30Sorti de la machine
18:30et ça a été au-delà.
18:32Et donc là,
18:32nous avons un homme
18:33qui tombe amoureux
18:34d'une IA
18:34qui a un corps.
18:35Un corps de robot,
18:36certes.
18:37Et la fin est triste
18:38parce que cette IA
18:40le manipule
18:41afin de s'échapper
18:43de...
18:43Je ne sais pas
18:43vous raconter
18:44tout le film,
18:45mais...
18:46Et elle enferme
18:47cet homme
18:47et puis elle s'échappe.
18:48La morale qui est derrière,
18:50qui est sous-jacente,
18:51c'est attention,
18:52les machines n'aiment pas
18:53les hommes.
18:54Et la question,
18:55c'est dans la vraie vie,
18:56qui enferme qui ?
18:57Est-ce que c'est l'IA
18:57ou est-ce que les hommes
18:58ne savent pas très bien
18:59s'auto-enfermer ?
19:01Et d'ailleurs,
19:02ça peut amener
19:02plein d'autres questions.
19:03Qu'est-ce qu'on reproche
19:04finalement à un amour
19:06porté à une IA ?
19:08Ça,
19:08qu'elle ne ressent rien ?
19:10Ben,
19:10prouvez-moi que votre ex
19:11ressentait quelque chose.
19:13Vous voyez la question ?
19:14Qu'elle ne dit
19:16que ce que vous voulez entendre ?
19:17Je pense qu'il y a
19:17la moitié des couples
19:18qui survivent comme ça.
19:19C'est un peu cynique.
19:20Qu'elle ne sera jamais là
19:22physiquement ?
19:22Demandez donc aux couples,
19:24aux millions de couples
19:26qui vivent séparés
19:27si ça se résume
19:28à l'absence
19:29de sentiments physiques.
19:30Vous voyez ce que je veux dire ?
19:31Ça n'est pas tout à fait vrai.
19:32Donc,
19:32autant revenir au cinéma.
19:35Et revenons
19:35qu'à Blade Runner
19:372049,
19:38sorti en 2017.
19:40Donc là,
19:40on a un bel acteur canadien,
19:41Ryan Gosling,
19:42qui tombe amoureux
19:43d'une IA holographique.
19:45Elle est douce,
19:46elle est parfaite,
19:47il est follement amoureux
19:48et le lien
19:51est irréel.
19:52Mais entre nous,
19:54est-ce que c'est mieux
19:54d'être amoureux
19:55d'un lien irréel
19:56qu'amoureux de rien du tout ?
19:57En fait,
19:58c'est la question
19:58qui fait mal,
19:59ce n'est pas la réponse.
20:00Autre pitch,
20:01celui de la chercheuse
20:01qui teste un robot conçu
20:03pour être son partenaire
20:04de vie idéale.
20:05Oui, ça,
20:05c'est Amurman,
20:06en 2021.
20:07Je ne sais pas
20:07si vous vous souvenez
20:08de ce film.
20:08Une chercheuse,
20:09elle conçoit
20:09le robot idéal
20:11et vraiment,
20:12il est conçu
20:13pour qu'elle l'aime
20:14de façon inconditionnelle.
20:15Évidemment,
20:16elle va tomber amoureuse.
20:17Comment tomber,
20:18comment repousser
20:19cet amour
20:20absolument parfait
20:21alors que
20:22les humains
20:23sont finalement
20:24bien difficiles à aimer.
20:26Contradictoire,
20:27indisponible,
20:28décevant,
20:28fatigué,
20:29tout ce que vous voulez.
20:29Et l'IA,
20:30elle est toujours là,
20:31elle n'a pas d'humeur,
20:32elle n'a pas d'état d'âme,
20:32elle n'a pas de reproche surtout.
20:34Et c'est pour ça
20:34que c'est dangereux.
20:35C'est tellement plus simple
20:36d'aimer une IA.
20:37Et pour finir,
20:38tu reviens à her.
20:39Je reviens à her
20:40parce qu'à la fin,
20:40Samantha,
20:41la belle IA,
20:42quitte Joachim Phoenix
20:43et il se retrouve tout seul.
20:45Ce n'est pas de beau
20:46parce qu'il avait appris
20:47à s'ouvrir
20:47et il avait réappris
20:48à aimer
20:49et à s'aimer.
20:50Donc la leçon de ce film,
20:52c'est que
20:52l'IA,
20:53on en parlait avant,
20:55elle peut nous tenir compagnie
20:56durant les nuits trop longues
20:58où on est bien seul.
20:59Elle est littéralement
21:00mieux que rien.
21:02Voir,
21:03c'est plus facile
21:03de supporter une IA
21:05qu'un conjoint qui ronfle,
21:07qui oublie votre anniversaire,
21:08qui râle,
21:09qui ne vous écoute pas
21:10et qui a des torts
21:11et qui ne les reconnaît jamais.
21:12C'est ce qui s'appelle l'humain.
21:14Donc la question n'est pas
21:16vaut mieux-t-il
21:18aimer une IA
21:18qu'en être seul,
21:19mais plutôt
21:20pourquoi sommes-nous
21:21devenus si seuls
21:23que cette question
21:24puisse même être posée ?
21:25C'est triste,
21:26mais merci beaucoup.
21:28Vous avez 20 secondes
21:29très rapidement
21:30pour réagir.
21:31Qu'est-ce que ça vous évoque ?
21:33C'est un peu plus philo, là ?
21:34On est moins dans la psychologie ?
21:36Alors, effectivement,
21:38ce que ça montre,
21:39c'est qu'effectivement,
21:40les gens sont quand même
21:41très seuls
21:41et de plus en plus, peut-être,
21:43parce que quand on préfère
21:44parler à une IA
21:44et qu'on n'arrive pas
21:45à parler à quelqu'un,
21:47ça questionne quand même
21:47sur le fait
21:48qu'on n'arrive pas
21:48à trouver quelqu'un.
21:50Combien même
21:50soit-il imparfait ?
21:51Ça dit peut-être aussi
21:52quelque chose
21:53de l'état
21:53de la santé mentale
21:54aujourd'hui.
21:55Moi, je me dis toujours,
21:56enfin, c'est les études
21:57qui le disent,
21:58la solitude est une chose,
21:59le sentiment d'inutilité
22:00en est un autre
22:01et c'est lui
22:01qui est le plus péjoratif
22:02dans l'absolu.
22:03Et finalement,
22:04ces IA, parfois,
22:05nous font penser
22:05qu'on n'est absolument
22:06pas inutile.
22:07C'est là où
22:07le débat commence.
22:09Merci beaucoup.
22:10Merci à tous les deux.
22:11Docteur Stéphane Mouchabac,
22:12psychiatre à l'hôpital
22:13Saint-Antoine à Paris
22:14et Camille Guilin,
22:15directrice d'une clinique
22:16psychiatrique
22:16dans les Yvelines.
22:17On passe tout de suite
22:18à la Pépite Santé.
22:23Et aujourd'hui,
22:24dans la Pépite Santé,
22:25nous recevons le docteur
22:26Julie Salomon,
22:27directrice générale
22:28médicale de CARE,
22:29pédiatre à l'hôpital Necker.
22:31Merci d'être avec nous,
22:32docteur.
22:33Bonjour.
22:33CARE est une clinique digitale
22:35et vous avez développé
22:36CARE Mind,
22:37un programme d'accompagnement
22:38des patients souffrant
22:39d'anxiété ou de dépression
22:40avec un suivi quotidien
22:42entre les consultations.
22:43Comment est née CARE Mind,
22:45pour commencer ?
22:46Alors, d'abord,
22:47de la volonté de CARE,
22:48de faciliter l'accès aux soins
22:50partout, pour tous
22:51et apporter des soins
22:52de qualité identique
22:53sur tout le territoire.
22:54Et puis, du constat
22:56que la prise en charge
22:57de la santé mentale,
22:59qui est un gros sujet
23:00de société aujourd'hui,
23:02était insuffisant
23:03dans le parcours présentiel,
23:05en parallèle d'une attraction
23:07assez forte des patients
23:09pour le numérique.
23:10Et donc, tout cela combiné
23:12nous a donné l'idée
23:13qu'un programme d'accompagnement
23:15de ces consultations
23:16de santé mentale
23:17pouvait être fait
23:19en numérique chez nous,
23:21sachant qu'on a la spécificité
23:22non seulement d'apporter
23:23des ressources numériques,
23:24mais également de l'humain,
23:26ce qui est notre caractéristique.
23:27Et on a évoqué
23:28dans la partie précédente
23:29la notion d'écoute immédiate
23:31que permet l'IA,
23:33qui change notre rapport
23:35aussi à la santé mentale.
23:37Est-ce que c'est quelque chose
23:38qui a motivé aussi
23:39la création de CARE Mind ?
23:40Pas forcément,
23:41parce que notre activité principale,
23:43ce sont des téléconsultations médicales.
23:45On s'est rendu...
23:46Il n'y a pas de chatbot en permanence ?
23:47Alors, dans le programme,
23:48on en a développé un,
23:50et ce n'est pas un chatbot,
23:50c'est un chat avec des humains derrière.
23:54Mais notre activité,
23:55elle est numérique,
23:55mais en fait,
23:56c'est la digitalisation
23:57de la consultation médicale.
23:58Donc, le numérique,
23:59pour nous, c'est une évidence,
24:01mais ce n'est pas ça,
24:02ce n'est pas le fait
24:03de l'attractivité des IA
24:06qui nous a motivés.
24:07D'accord.
24:07C'est vraiment de se dire,
24:08on propose déjà
24:09des téléconsultations
24:10avec des psychiatres.
24:11Il y a une vraie activité,
24:15enfin,
24:15il y a une vraie attraction aussi
24:16de la part des patients
24:17parce qu'on déstigmatise
24:18et on lève beaucoup de barrières
24:20et de tabous
24:20qui freinent l'accès aux soins.
24:22Et on s'est rendu compte
24:24qu'entre les consultations,
24:25entre les téléconsultations,
24:26il pouvait y avoir encore un espace
24:28pour un accompagnement
24:29digital et humain.
24:31Et concrètement,
24:31comment fonctionne CARE Mind
24:32au quotidien ?
24:33Qu'est-ce que reçoit le patient ?
24:34Alors, le patient a une application
24:37sur laquelle il a un programme quotidien
24:39d'accompagnement
24:40avec des exercices psychoéducatifs,
24:43d'autorégulation émotionnelle,
24:45des évaluations à travers des questionnaires
24:47qui sont standardisés, reconnus,
24:49et puis des suivis
24:51de son observance thérapeutique aussi,
24:53ce qui est un gros enjeu
24:54au niveau de la santé mentale.
24:55Et lorsqu'il a besoin,
24:57entre les téléconsultations
24:58qui sont du coup facilitées sur CARE,
25:01mais qui peuvent être aussi
25:02de la consultation présentielle,
25:03l'application n'est pas forcément
25:05dépendante de la téléconsultation,
25:07le patient a accès à un chat
25:09avec des professionnels
25:11d'infirmières, psychologues.
25:13Disponibles 24 sur 24 ?
25:15Pas 24 sur 24,
25:165 jours sur 7,
25:17parce qu'on ne peut pas non plus
25:18entretenir une espèce d'immédiateté
25:20qui n'est pas forcément salutaire.
25:22Qui n'est pas saine, vous pensez ?
25:23Pas forcément.
25:24Disons qu'il y a une réponse rapide
25:26dans les 24 heures globalement,
25:27puisque c'est 5 jours sur 7,
25:29donc c'est quand même une réponse
25:30très rapide pour un problème
25:31de santé mentale,
25:32mais l'immédiateté parfois
25:34peut avoir un effet un peu retort,
25:35un peu pervers,
25:36donc on a choisi
25:37cette intermédiaire
25:38entre la rapidité
25:39mais pas l'immédiateté.
25:40Et pourquoi il y a un côté pervers ?
25:42Justement, ce serait intéressant
25:42d'aller un peu plus loin sur...
25:43Parce qu'en fait,
25:44ça entretient quand...
25:46Bon, c'est une population
25:47de patients qui ont des dépressions
25:49légères et modérées
25:49ou de l'anxiété.
25:50Plutôt jeunes, pardon ?
25:51Plutôt jeunes,
25:52notamment parce qu'il y a
25:53une population qui a
25:54une attractivité vers le numérique.
25:56Dans cette population jeune,
25:58on a plus de 60%
25:59des patients qui consultent sur CARE
26:00qui ont moins de 35 ans,
26:02donc c'est notre population.
26:04Mais en fait,
26:05le côté immédiat
26:06peut entretenir
26:07des ruminations anxieuses,
26:09avoir un espèce
26:10d'effet d'entretien
26:11si la bouffe...
26:14Ça nourrit le mal-être.
26:14Voilà.
26:15Néanmoins,
26:16on a des réponses rapides
26:17dans la journée
26:17quand quelqu'un a besoin,
26:18c'est quand même
26:19dans les minutes ou l'heure
26:20qui suit.
26:20Oui, il ne s'agit pas
26:21de l'étang de 13.
26:22Voilà, ce n'est pas du H24
26:24comme si c'était un bot
26:26parce qu'il y a des humains.
26:27Oui, Hervé,
26:28la dernière question te revient.
26:29Vous avez combien de patients
26:29déjà qui utilisent
26:30votre plateforme
26:32ou le nombre
26:33de téléconsultations ?
26:34Alors, on a 3,5 millions
26:36de patients
26:37qui ont téléconsulté sur CARE.
26:38On a presque 10 millions
26:39de téléconsultations
26:40à notre actif
26:41depuis 2018.
26:42Et en fait,
26:43sur le programme
26:44qui a démarré
26:45l'été dernier,
26:46on est déjà à 2500 patients
26:47qui suivent ce programme.
26:49Merci beaucoup.
26:50Merci,
26:51docteur Julie Salomon,
26:52directrice médicale de CARE.
26:53Merci à toi, Hervé.
26:55et merci à Émilie Roche
26:57qui produit cette émission.
26:58À très bientôt
26:59sur Bismarck for Change.
27:13et merci à l'élimine.
27:16et merci à l'élimine.
Commentaires