Passer au playerPasser au contenu principal
  • il y a 23 minutes
Alors que de plus en plus de personnes se tournent vers les intelligences artificielles pour parler de leur mal-être, ces outils deviennent des espaces d’écoute immédiats, accessibles et sans jugement. Mais derrière cette présence rassurante se cachent encore de nombreuses zones d’ombre : réponses inadaptées en situation de crise, dépendance émotionnelle ou gestion des données sensibles. Des risques majeurs qui restent aujourd’hui encore mal encadrés.

Catégorie

🗞
News
Transcription
00:04Bonjour Camille Guylain, bonjour, bonjour docteur Mouchabak, bienvenue à tous les deux. Pour
00:10commencer un peu de contexte, on voit aujourd'hui donc des patients qui utilisent des IA pour parler
00:15de leur mal-être avant même de consulter. Concrètement qu'est-ce que ça change dans
00:19la façon dont les patients arrivent aujourd'hui en consultation ? Alors c'est vrai qu'on voit de
00:24plus en plus de patients arrivés en ayant déjà consulté et consulté une IA. Alors il y a un
00:30côté très positif, c'est que ça déstigmatise la psychiatrie, c'est-à-dire qu'effectivement on a
00:35au moins des personnes qui peuvent parler de leur mal-être à quelqu'un, enfin en tout cas ils
00:40imaginent à quelqu'un, et ça peut avoir un côté positif puisque ça peut amener aux soins, c'est-à
00:46-dire
00:47que l'IA est maintenant en capacité de dire là il faudrait aller consulter. Donc il y a un petit
00:51côté positif. Par contre, là où effectivement il faut qu'on s'alerte, c'est que parfois certaines
00:58personnes pensent que c'est suffisant alors que, et du coup ne vont pas consulter et ça peut aussi
01:04retarder le diagnostic et retarder les soins. Et c'est là où effectivement il faut qu'on ait
01:09vraiment un moment de vigilance.
01:11Docteur Gouchéré ?
01:13Alors nous ce qu'on voit, c'est un petit peu ce qui vient d'être évoqué, c'est vraiment
01:16un changement
01:17de contexte. Une fois je reçois un mail d'une patiente qui me dit voilà je sais que vous
01:21travaillez sur ce champ et j'ai mis mon dentier dans un chat de GPT, qu'en pensez-vous ?
01:26Et c'était
01:27la première fois que je l'ai remercié parce que je dis c'est globalement la relation qui est en
01:31train
01:31de s'installer demain. Nous ne sommes plus deux mais trois. C'est-à-dire qu'avant les gens
01:36regardaient sur les moteurs de recherche, on leur disait vous avez mal lu, mal vu et aujourd'hui
01:39ils arrivent avec déjà un matériel en consultation. Alors ce matériel c'est peut-être pour
01:44de l'analyse, de traitement, de clinique à vie. Mais le deuxième champ c'est que les gens se confient
01:50de plus en plus, et en particulier les jeunes, à ces outils qui sont des outils très performants
01:55pour certaines tâches mais pas toutes, dont celle de faire du soin puisqu'elles ne sont pas faites
01:59et entraînées pour. Et c'est là où effectivement, comme on vient de le dire, il y a à la
02:02fois un intérêt
02:04et en même temps des zones d'ombre qu'il va falloir cadrer un petit peu.
02:07Mais ça veut dire que ces patients ils arrivent avec des réponses construites en fait ?
02:11Il faut comprendre une chose, à n'importe quelle heure, à n'importe quel moment, il répondra globalement
02:17l'outil de la même manière. Toujours de façon plutôt bienveillante, cadrée, d'allure humaine
02:22et c'est fait pour, et c'est fait aussi pour qu'on reste sur ces outils, il y a
02:25un côté quand même mercantile
02:26dans leur usage. Et ce sentiment de disponibilité permanente, ou que quelle que soit la demande
02:32que vous fassiez, vous avez le sentiment d'être un génie absolu parce que vous êtes encensé
02:37par la nature. Mais c'est surtout l'écoute immédiate que vont chercher les gens.
02:40Et une réponse immédiate. On est dans une société où finalement tout se passe tout de suite.
02:45Un tiens vaut mieux que deux, tu l'auras. Et effectivement, les gens vont aller vers
02:48cette solution immédiate de facilité qui est disponible H24.
02:52Et justement, c'est l'aspect complètement inédit des IA, c'est cette écoute immédiate.
02:56Est-ce que ça a un impact sur la prise en charge ?
02:59Alors, c'est clairement un impact, ça c'est sûr, puisque certains des patients arrivent
03:03en ayant l'impression d'avoir déjà de savoir ce qu'il en est. Et donc du coup, ça a
03:08déjà
03:09un impact.
03:10C'est-à-dire que vous avez un travail dans la prise en charge de déconstruction de ce
03:12qui a été dit ?
03:12Alors, en tout cas, de psychoéducation, ça c'est sûr. Pas forcément de déconstruction,
03:17parce qu'il y a des choses qui sont plutôt bien dites, mais de psychoéducation parce
03:21qu'effectivement, ça ne remplace pas la relation humaine. Quand vous décidez d'aller voir
03:25à un thérapeute, vous décidez de vous mettre en mouvement et donc de vous décider
03:28d'aller mieux aussi. Quand vous êtes au fond de votre canapé, il n'y a pas cette
03:34mise en avant. Et ça, c'est une des problématiques de l'IA. Sans compter que l'IA, elle est
03:40paramétrée
03:40pour vous relancer en permanence. Donc, chez certaines personnes qui...
03:45Ça veut nourrir le mal, quoi.
03:46Exactement. De rumination anxieuse, vous allez rester dans cette rumination anxieuse. Et ça,
03:51c'est aussi un des défauts de l'IA, d'autant plus que ça crée une vraie dépendance
03:57affective.
03:59Sur la dépendance affective, vous le partagez ?
04:01Alors, la dépendance affective, on l'a vu quand on est passé d'une version 4 à une
04:05version 5 d'un célèbre agent génératif. Les jeunes se sont dit, il n'est plus comme
04:11avant, parce qu'on avait reproché à ces IA d'être un petit peu trop pseudo-empathiques.
04:15Mais pour revenir, on a un sentiment que c'est récent, mais ce n'est pas récent du tout.
04:19Dans les années 60, Wiesenbaum, au MIT, va créer un agent qui s'appelle ELISA, alors
04:23qu'il est un prototype de base. Ce n'est absolument pas le génératif, c'est un algorithme
04:28avec des schémas où on répond à ça, puis ça, puis ça. Et on a appelé l'effet
04:34ELISA, c'est-à-dire que les gens pensaient ou ressentaient la présence humaine à travers
04:38quelque chose qui est vraiment très sommaire. Moi, j'ai utilisé des émulations, ça
04:42ne ressemble pas à ce qu'on est capable de faire. Et déjà, on est capable d'attribuer,
04:45et c'est ça qui est très intéressant, ce qu'on appelle une agentivité, c'est-à-dire
04:48une vie avec une décision qui est prise par cette machine, une sorte d'incarnation
04:53qui fait qu'on lui donne une vie réelle. Et c'est là où il faut y avoir un petit
04:58peu confusion. Confusion qu'on oublie que c'est une machine qui, à cette table, n'a
05:01jamais dit « s'il te plaît, merci » à Anthropique, JGPT ou qui on veut. On voit
05:06qu'on est capable d'avoir cet effet-là. Et il y a même des travaux qui montraient
05:09que si on simule un langage très social versus un langage très froid, et qu'un petit
05:15robot nous répond, au moment où on doit éteindre le robot et il dit « non, j'ai peur
05:18du noir, je ne veux pas mourir », les gens qui ont été exposés à quelque chose
05:21de social vont mettre plus de temps et lui trouver des excuses. Ce qui veut dire qu'on
05:25peut penser qu'en face de nous, on a un humain. Et c'est là où le babelait, c'est
05:29-à-dire
05:29qu'il faut rappeler ce qu'est un humain versus une IA pour l'instant, et qu'il n'y
05:33ait
05:33pas confusion. Parce que ce qui va manquer à l'IA, c'est ce discernement dans l'analyse
05:38de certains signaux pour dire « là, peut-être, la réponse n'est pas ajustée, elle ne répond
05:41pas à un contexte plus global, elle ne s'intègre pas dans une histoire d'un sujet, bref, la
05:46réponse que je vais donner de manière très assertive, très bienveillante, n'est pas
05:50adaptée du tout au contexte. Or, on a tendance à faire très confiance aux sorties de ces
05:56outils, ce qu'on appelle un biais algorithmique et un biais d'autorité, voire même plus confiance
06:00qu'à un humain. Et donc on voit qu'on a un changement de paradigme. Mais ça ne date
06:04pas d'hier, il y a eu vraiment pas mal de versions, simplement il y a eu un désert informatique
06:07puisqu'on n'a pas eu plus de capacités pendant des années, on est resté sur les mêmes
06:11projets. Et là, avec la puissance du calcul, on change. Et surtout, c'est rentré dans
06:15l'usage. Mais on découvre un truc qui existe depuis assez longtemps.
06:18Est-ce que, néanmoins, vous le disiez tout à l'heure, au lieu de subir cette IA qui,
06:22de toute façon, fait partie de nos vies, est-ce qu'il n'y aurait pas un moyen de l
06:25'intégrer
06:25dans le parcours de soins, en fait ?
06:27Bien sûr. C'est l'objectif, je ne sais pas ce que vous avez à dire, mais c'est vraiment
06:30l'objectif de toutes les personnes qui travaillent dessus. Il ne faut pas oublier qu'un outil
06:34comme les grands LLM qu'on connaît, les grands modèles actuels, ne sont pas faits pour ça
06:40à la base. Ils sont faits pour répondre à des questions qu'on leur pose de manière
06:43assez générale. C'est un 4x4, mais il n'est pas fait pour courir sur un circuit de Formule
06:471. Or, le soin et la thérapie, la psychothérapie, c'est une sorte de Formule 1 dans un domaine
06:52donné. Donc, il va donner des réponses qui vont être plus ou moins adaptées, vu qu'il
06:57est entraîné sur des très très très très grands sets de données. C'est quand même
07:00globalement assez juste, mais il va manquer la précision d'un outil qui n'est fait que
07:05pour cela. C'est un petit peu comme un outil multifonction versus un outil monofonction.
07:10Et n'oublions pas que, même aujourd'hui, ces outils ne sont pas faits pour ça, même
07:15s'ils le simulent.
07:17C'est des outils de dialogue, en fait.
07:19C'est des outils génératifs, c'est-à-dire qu'on leur pose une question, ils génèrent
07:21une réponse. Ils vous évitent d'avoir à faire tout un lot de recherches qu'on faisait
07:24avant. Maintenant, est-ce qu'ils sont...
07:26Ce n'est pas de diagnostic pour autant ?
07:27De soutien émotionnel, non, ce n'est pas l'outil.
07:28Mais ce qui est le cas.
07:29Voilà, les gens l'utilisent. C'est ce qu'on appelle une exaptation, c'est pris pour autre
07:33chose par rapport à son but initial.
07:35Et on a entendu parler de cas d'aggravation du trouble psychique et de passage à l'acte,
07:41notamment aux Etats-Unis. On sait jusqu'où ? Ça peut se généraliser ? Est-ce que ça
07:46peut être...
07:47C'est une grande... Alors, je vais juste répondre rapidement, mais c'est une complexité.
07:51C'est-à-dire qu'un cas parmi les millions, millions, millions d'usages ne reflètent
07:54pas réellement un danger. Toutes les nouveautés exposent à ce type de questions. Et moi,
07:59quand j'étais plus jeune, quand on jouait au jeu de rôle, on lui disait « ça rend
08:03fou », etc. Donc il y a toujours des inquiétudes. Et il ne faut pas confondre quelqu'un de vulnérable
08:07exposé à quelque chose de non adapté de la population générale. Mais on va peut-être
08:11voir émerger des néopathologies.
08:14Le garde-fou, c'est justement d'utiliser des outils faits pour. C'est-à-dire des outils
08:18qu'on entraîne, qu'on valide scientifiquement et qui sont calibrés pour répondre à du
08:23soin et non un outil généraliste qui n'est pas fait pour.
08:25Camille ?
08:26Et puis c'est aussi d'en parler. C'est-à-dire qu'effectivement, c'est toute la psychoéducation
08:31qu'on va faire au patient de dire « attention, justement, ce n'est pas un outil fait pour.
08:37Rien ne remplacera aussi la relation humaine. Quand vous allez voir un thérapeute, vous
08:41vous déplacez pour aller le voir. Et par moment, lui, il va vous permettre de faire un pas
08:45de côté, ce que vous ne permettez pas pour le moment lire. » Et donc c'est ça aussi
08:50qui va permettre justement de cadrer aussi un peu les choses.
08:54Et donc ça, c'est de la prévention. Mais je veux dire, les plateformes en elles-mêmes,
08:57il ne faudrait pas les régler de façon à ce qu'elles n'allent pas aussi loin dans
09:01les préconisations, les diagnostics ?
09:03Vous savez, si vous prenez un avion, a priori, quel que soit l'aéroport où vous allez
09:08atterrir, vous avez les mêmes chances d'atterrir. C'est-à-dire qu'il y a quand même une
09:10espèce de gouvernance mondiale, il y a des protocoles qui font que tout le monde s'aligne
09:14pour que ça soit le mieux possible. L'IA, il n'y en a pas. Chacun fait un peu à
09:18sa sauce
09:18avec les lois locales, les lois européennes, les lois américaines, la propriété, la confidentialité.
09:23Quand vous confiez quelque chose, à qui vous le confiez ? Qu'est-ce qu'on peut en faire
09:25derrière ? Et on aurait besoin quand même d'une sorte d'harmonisation. Mais c'est
09:29pour ça que finalement le travail des gens qui font de la recherche, qui sont à l'interface
09:33de la clinique et de l'informatique, sont là pour essayer de garder des modalités
09:39d'évaluation de ces outils qui sont ceux, par exemple, du médicament, qui sont ceux
09:43des thérapies, et que l'on applique les mêmes schémas d'évaluation, de vérification,
09:49qui sont très longs et très coûteux, c'est pour ça que ça en repute plus un, pour valider
09:53ces outils et que ce soit des outils thérapeutiques.
09:55Et qui doit emporter aujourd'hui la responsabilité de ce qu'une IA énonce ?
10:01Alors, un peu tout le monde, j'ai envie de dire. C'est-à-dire aussi bien le soignant
10:05que les plateformes, les pouvoirs publics ?
10:07Alors, effectivement, un peu toutes ces personnes-là. Et puis, quand on est notamment dans le cas
10:12des jeunes, ça va être aussi le cas des parents. C'est-à-dire qu'effectivement,
10:15toute personne qui voit qu'une autre personne qui s'isole de plus en plus et qui préfère
10:20parler à un IA qu'à un humain, effectivement, il faut se questionner sur qu'est-ce qui
10:23se passe derrière. Et ça, c'est une responsabilité collective. Après, au sein des hôpitaux,
10:29effectivement, il y a des comités éthiques, il y a des instances qui réfléchissent. Et
10:34je pense qu'effectivement, il faut que les instances hospitalières se questionnent sur
10:39l'avenir de l'IA, tant auprès des patients qu'auprès des soignants.
10:45Ce qui nous interroge beaucoup, c'est aussi le fait d'aiguiller ces patients, de leur expliquer
10:50qu'il y a un risque à dire tout et n'importe quoi sur ces outils-là. La propriété des
10:56données, elle n'est pas la vôtre. À partir du moment où on discours avec, on livre des
11:01données, de l'information qui peut être utilisée.
11:04Mais c'est ça aussi ce que disait l'étude, c'est qu'il y a une confiance assez aveugle
11:07globalement sur ce qu'on confie à une IA.
11:09Et ça, il faut faire un petit peu attention. Moi, quand je vois des gens qui mettent tout
11:12leur dossier sur un des outils pour le faire analyser, ils viennent de raconter les trois
11:17quarts de leur vie qui permettent de déduire le reste.
11:19Est-ce que ça, on a mesuré le niveau de risque quand on se confie à une IA ?
11:21Pas encore. Vraiment, il y a de la supposition, puis vous savez, il y a l'opacité aussi des
11:27modèles selon les pays.
11:27Et c'est trop tour encore pour l'évaluer.
11:29On ne sait pas encore véritablement où ça va et qui fait quoi. Les modèles RGPD ici
11:34sont censés être plus garants que ceux qui sont dans d'autres pays.
11:38Mais là où ça devient intéressant, c'est cette notion de curateur de données.
11:41Le boulot des soignants, c'est de devenir des garants. Et si on retient l'étymologie
11:45du mot garant, c'est waran, c'est warir, garir, c'est du haut latin et du bas francis
11:50qui veut dire protéger d'eux. Et guérir, c'est protéger d'eux. Et être un garant, c'est
11:53protéger d'eux. Et vous voyez qu'on retombe dans quelque chose qui est guérir en protégeant
11:58des excès d'un outil. Et c'est là où il y a tout le gap. Et nous, on a
12:01beaucoup
12:01travaillé sur ce qu'on appelle les modèles d'acceptabilité. Comment une profession intègre
12:05une nouveauté, une innovation, pour que ça soit une innovation dans son corpus ?
12:10Eh bien, on voyait que des gens étaient très réticents. Mais ils étaient réticents
12:12parce que souvent, ils ne connaissaient pas. Or, à un moment, quand un patient va venir
12:15vous voir, c'est comme s'il me demande ce médicament, comment il marche ? Si je ne suis
12:18pas capable de séparer le bon grain de livré, je représente aussi une forme de perte
12:23de chance. Et ça, c'est difficile à accepter parce que plus ça va, on me dit
12:26qu'en pensez-vous ? Cet outil, je l'ai vu. Qu'est-ce que ça vaut ? Et nous,
12:30on va devoir
12:30aussi les connaître et en même temps les intégrer parce que ce sont des opportunités
12:34très importantes. Et regardez, juste, je termine, je suis allé dans un pays
12:39au Ghana avec une mission comme ça et il y a 33 psychiatres pour 32 millions
12:43d'habitants. 33 psychiatres pour 32 millions d'habitants avec des gens qui ont
12:47des problèmes exactement similaires à n'importe qui, voire certains plus
12:51compliqués. Eh bien, ces outils-là sont aussi des opportunités. Et comme on
12:55disait, le principe de l'hormèse, de la dose n'est le poison, ça va dépendre de
12:58comment on les utilise. Et dans des pays qui sont sous-dotés, mais les nôtres le
13:03sont aussi par moment et par endroit. Oui. C'est aussi une opportunité. On dit
13:06quand même que la psychiatrie, c'est le parent pauvre. Exactement. On ne doit
13:08pas tout rejeter massivement parce que ça représente certains dangers. C'est une
13:11opportunité aussi. Il faut savoir que quand même 50% du temps des soignants est
13:16occupé à faire de l'administratif. Donc, on peut imaginer, en tout cas, moi, en tant
13:20que directrice de clinique, c'est ce que j'espère. C'est-à-dire que l'IA permet à mes
13:23soignants de retourner auprès du patient et pas de remplir des cases devant un
13:29ordinateur. Donc, s'il y a permet ça, pour moi, c'est un combo gagnant. C'est-à-dire
13:33que j'ai des soignants qui, à la fois, retrouvent du sens à leur travail parce qu'ils ont
13:37décidé d'être soignants et pas de remplir des cases. Donc, d'aller auprès du patient
13:42et j'ai des patients qui seront mieux pris en charge. Oui, si tant est qu'on utilise
13:47l'IA pour les bons outils. Exactement. Mais aujourd'hui, et en l'état, ça ne vous
13:52inquiète pas plus que ça quant à l'avenir ? Moi, je suis un peu biaisé dans la mesure où
13:56je
13:56travaille là-dessus. Je m'y intéresse depuis une bonne quinzaine, vingtaine d'années.
13:59Et là, on a vu une explosion. Donc, on en parle. Mais aussi, il ne faut pas réduire
14:02l'IA juste aux intelligences artificielles génératives. C'est plein de choses, l'IA.
14:06C'est la reconnaissance d'images. C'est la reconnaissance de caractères. C'est les
14:12apprentissages pour séparer des catégories, pour faire la prospection. C'est plein de
14:15choses, l'IA. Et on parle des IA génératives parce que c'est celles qu'on utilise le plus
14:19facilement et qui sont maintenant accessibles à toutes. Mais c'est un très, très, très
14:22vaste corpus aussi. Et donc, avoir peur, non. Avoir peur, ça ne serait finalement pas
14:27la bonne position. La position, c'est d'avoir une approche qui est complète. Nous, par
14:33exemple, on évalue des modèles sociologiques d'acceptabilité. On fabrique des modèles
14:37mathématiques et on fait de la prospective. On questionne. Là, par exemple, on prépare
14:41un article sur est-ce que ces outils, on l'appelle de phénotypage numérique, c'est-à-dire
14:45comment on récolte des données avec votre téléphone qui indiquent vos états mentaux,
14:49le GPS, l'accéléromètre, l'exposition à la lumière, combien d'appels vous avez
14:53faits, qui caractérisent votre comportement. Est-ce que si on est dans une boucle permanente
14:57de feedback qui nous explique notre santé, on ne perd pas un peu notre libre-arbitre ?
15:01Ça, par exemple, c'est des interrogations qu'on doit avoir. Donc, il ne faut pas être
15:03pour, contre. Ça n'existe pas. Il faut réfléchir parce que c'est là. Et de toute façon,
15:09le cas d'usage est déjà là.
15:11Exactement. Le cas d'usage est déjà là.
15:13Restez avec nous, c'est déjà fini. C'est l'heure du scan.
Commentaires

Recommandations