00:00Laurence est radiologue à Clermont-Ferrand et elle élève des Alpagas.
00:05Mais elle se pose une question sur l'utilisation de l'intelligence artificielle en consultation.
00:10Qui est responsable si l'outil se trompe ?
00:25L'IA peut t'aider, mais juridiquement, tu resteras le décideur et tu dois pouvoir le démontrer.
00:30L'IA va te proposer un diagnostic, une conduite à tenir ou te classer une radio.
00:35Si demain c'est une erreur, qui paie ?
00:38En droit, la vraie question n'est pas IA ou pas IA,
00:42c'est est-ce que toi, médecin, tu as agi conformément à tes obligations professionnelles
00:47et est-ce que tu peux le prouver ?
00:53Le Code de la santé publique vient dire que hors défaut d'un produit de santé,
00:57les professionnels de santé ne sont responsables des dommages,
01:00d'actes de prévention de diagnostic et de soins qu'en cas de faute.
01:04Donc s'il y a ce trompe, on va analyser ta faute éventuelle.
01:07L'imprudence, le défaut de vigilance, l'absence de vérification, le manque de traçabilité.
01:13Tu dois donner des soins consensueux, dévoués, fondés sur les données acquises de la science,
01:19en faisant appel, si besoin, à des tiers compétents.
01:22Il y a peut-être un tiers compétent, mais tu ne peux pas déléguer ton jugement médical.
01:27En contentieux, ce qu'on te reproche rarement, c'est d'avoir utilisé un outil.
01:31Ce qu'on te reproche, c'est d'avoir cessé de raisonner.
01:38Le premier point important, c'est dans l'outil que tu utilises,
01:42est-ce que c'est un dispositif médical qui est marqué CE ?
01:46Ça change tout parce que ça permet d'avoir la sécurité d'utilisation de l'outil.
01:52C'est incontournable.
01:56L'information du patient, comme tu sais, repose sur une information loyale,
02:01sur les investigations, les traitements proposés, leurs utilités,
02:05les risques fréquents ou graves normalement prévisibles et les alternatives.
02:09Quand il y a un rôle réel dans l'investigation ou l'orientation diagnostique et thérapeutique,
02:15tu dois pouvoir expliquer au minimum que c'est un outil d'aide,
02:20ses limites et que c'est toi qui arbitres.
02:22S'il y a pèse dans la décision, elle va entrer dans la discussion d'information avec le patient.
02:31Il faut surtout éviter le copier-coller dans une IA grand public.
02:37La CNIL va rappeler que les données de santé sont un régime à part.
02:41Tu as dû entendre parler du RGPD, Règlement Général de la Protection des Données.
02:46C'est un traitement en principe interdit, sauf avec certaines exceptions,
02:50mais avec un cadre bien spécifique.
02:52Tu ne dois jamais injecter des données identifiantes dans une IA
02:56dont tu ne maîtrises pas le cadre, l'hébergement, la sous-traitance, la sécurité
02:59et surtout la réutilisation des données.
03:03Donc si tu échanges et partages des informations aussi avec d'autres professionnels de santé
03:07dans la prise en charge, attention à la façon dont tu vas échanger avec ces autres praticiens.
03:151. Qualification et conformité.
03:18Est-ce que c'est un dispositif médical ? Est-ce qu'il est marqué CE ?
03:222. La double lecture clinique.
03:24L'IA propose, toi tu arbitres.
03:26Il faut qu'il y ait une cohérence clinique et des données acquises de la science.
03:303. La traçabilité.
03:32Attention à mettre dans le dossier ce qui n'est pas noté n'est pas fait.
03:37J'ai utilisé l'outil X qui a été consulté.
03:39J'en déduis Y et du coup je prends la décision Z
03:43car tels et tels éléments cliniques viennent conforter cette décision.
03:47Il faut pouvoir le tracer.
03:48Il faut aussi signaler tout incident.
03:50Comme c'est l'utilisation d'un dispositif médical, si on a un événement indésirable,
03:56en lien avec le produit de santé, dont le dispositif médical,
04:00tu dois passer par le portail national de signalement auprès de la NSM.
04:04Et puis, quand tu vas souscrire en fait à l'utilisation d'un outil d'IA,
04:08il y a un contrat avec un fabricant.
04:11Le fabricant peut aussi lui être exposé sur le terrain de la responsabilité du produit défectueux.
04:17Mais ça ne t'exonère pas. Ton risque reste la faute clinique.
04:21Si tu mets le pilotage automatique, l'absence de vérification et l'absence de preuve,
04:27tu risques de voir ta responsabilité engagée.
04:30Si tu déploies l'IA en cabinet pour du tri de l'imagerie, de la rédaction, de l'aide à
04:35la décision,
04:36tu dois prendre la tâche avec ton assureur de responsabilité civile professionnelle
04:40et un avocat spécialisé en santé numérique pour cadrer le statut de ton outil.
04:45Est-ce que c'est un dispositif marqué CE, le contrat avec le fournisseur,
04:49les règles de sécurité de RGPD, l'information du patient et surtout les protocoles de traçabilité ?
04:56L'IA conseille. Le médecin décide et ça se documente dans le dossier.
05:00Sous-titrage Société Radio-Canada
Commentaires