Passer au playerPasser au contenu principal
  • il y a 1 jour
L’intelligence artificielle s’impose progressivement dans les cabinets médicaux, de l’aide au diagnostic à l’analyse d’imagerie. Mais en cas d’erreur, la responsabilité du médecin peut-elle être engagée ? Me Dominique Decamps-Mini, avocate au cabinet Theis 360, spécialisé en droit de la santé, rappelle les règles juridiques qui encadrent l’usage de ces outils.
L’intelligence artificielle s’installe dans la pratique médicale, notamment en radiologie, où elle peut proposer des diagnostics, classer des images ou orienter la prise en charge. Mais son utilisation soulève une question centrale : qui est responsable en cas d’erreur ?
La réponse juridique est claire : « L’IA peut t’aider, mais juridiquement, tu resteras le décideur et tu dois pouvoir le démontrer. »
Une responsabilité fondée sur la faute
En droit français, la responsabilité du médecin repose sur la notion de faute. Le Code de la santé publique prévoit que les professionnels de santé ne sont responsables qu’en cas de manquement à leurs obligations.
« La vraie question n’est pas de savoir s’il y a une IA ou non, mais si le médecin a agi conformément à ses obligations professionnelles et s’il peut le prouver. »
Autrement dit, ce n’est pas l’usage de l’outil qui sera jugé, mais la manière dont il est utilisé. En cas d’erreur, les juridictions analyseront notamment un éventuel défaut de vigilance, une absence de vérification ou un manque de traçabilité.
« Ce qui est reproché, ce n’est pas d’avoir utilisé un outil, c’est d’avoir cessé de raisonner. »
Impossible de déléguer son jugement clinique
L’IA peut intervenir comme un tiers technique, mais elle ne remplace pas le raisonnement médical.
« Il y a peut-être un tiers compétent, mais tu ne peux pas déléguer ton jugement médical. »
Le médecin doit donc confronter les propositions de l’IA aux données acquises de la science et à la situation clinique du patient. L’outil reste une aide, jamais un décideur.
Dispositif médical, traçabilité et preuve
L’un des premiers réflexes à avoir concerne la nature de l’outil utilisé. Est-il considéré comme un dispositif médical ? Est-il marqué CE ?
« Ça change tout, parce que ça permet d’avoir des garanties sur la sécurité d’utilisation. »
Autre point clé : la traçabilité. Chaque utilisation de l’IA doit être documentée dans le dossier médical.
« Ce qui n’est pas noté n’est pas fait. J’ai utilisé l’outil X, j’en déduis Y et je prends la décision Z en fonction d’éléments cliniques. »
En cas de contentieux, cette traçabilité devient un élément central de défense.
Information du patient et RGPD
L’utilisation de l’IA doit également être intégrée à l’information délivrée au patient, notamment si elle influence la décision médicale.
« Tu dois pouvoir expliquer que c’est un outil d’aide, ses limites, et que c’est toi qui arbitres. »
Sur le plan des données, la vigilance est maximale. Les données de santé sont strictement encadrées par le RGPD.
« Tu ne dois jamais injecter des données identifiantes dans une IA dont tu

Catégorie

🗞
News
Transcription
00:00Laurence est radiologue à Clermont-Ferrand et elle élève des Alpagas.
00:05Mais elle se pose une question sur l'utilisation de l'intelligence artificielle en consultation.
00:10Qui est responsable si l'outil se trompe ?
00:25L'IA peut t'aider, mais juridiquement, tu resteras le décideur et tu dois pouvoir le démontrer.
00:30L'IA va te proposer un diagnostic, une conduite à tenir ou te classer une radio.
00:35Si demain c'est une erreur, qui paie ?
00:38En droit, la vraie question n'est pas IA ou pas IA,
00:42c'est est-ce que toi, médecin, tu as agi conformément à tes obligations professionnelles
00:47et est-ce que tu peux le prouver ?
00:53Le Code de la santé publique vient dire que hors défaut d'un produit de santé,
00:57les professionnels de santé ne sont responsables des dommages,
01:00d'actes de prévention de diagnostic et de soins qu'en cas de faute.
01:04Donc s'il y a ce trompe, on va analyser ta faute éventuelle.
01:07L'imprudence, le défaut de vigilance, l'absence de vérification, le manque de traçabilité.
01:13Tu dois donner des soins consensueux, dévoués, fondés sur les données acquises de la science,
01:19en faisant appel, si besoin, à des tiers compétents.
01:22Il y a peut-être un tiers compétent, mais tu ne peux pas déléguer ton jugement médical.
01:27En contentieux, ce qu'on te reproche rarement, c'est d'avoir utilisé un outil.
01:31Ce qu'on te reproche, c'est d'avoir cessé de raisonner.
01:38Le premier point important, c'est dans l'outil que tu utilises,
01:42est-ce que c'est un dispositif médical qui est marqué CE ?
01:46Ça change tout parce que ça permet d'avoir la sécurité d'utilisation de l'outil.
01:52C'est incontournable.
01:56L'information du patient, comme tu sais, repose sur une information loyale,
02:01sur les investigations, les traitements proposés, leurs utilités,
02:05les risques fréquents ou graves normalement prévisibles et les alternatives.
02:09Quand il y a un rôle réel dans l'investigation ou l'orientation diagnostique et thérapeutique,
02:15tu dois pouvoir expliquer au minimum que c'est un outil d'aide,
02:20ses limites et que c'est toi qui arbitres.
02:22S'il y a pèse dans la décision, elle va entrer dans la discussion d'information avec le patient.
02:31Il faut surtout éviter le copier-coller dans une IA grand public.
02:37La CNIL va rappeler que les données de santé sont un régime à part.
02:41Tu as dû entendre parler du RGPD, Règlement Général de la Protection des Données.
02:46C'est un traitement en principe interdit, sauf avec certaines exceptions,
02:50mais avec un cadre bien spécifique.
02:52Tu ne dois jamais injecter des données identifiantes dans une IA
02:56dont tu ne maîtrises pas le cadre, l'hébergement, la sous-traitance, la sécurité
02:59et surtout la réutilisation des données.
03:03Donc si tu échanges et partages des informations aussi avec d'autres professionnels de santé
03:07dans la prise en charge, attention à la façon dont tu vas échanger avec ces autres praticiens.
03:151. Qualification et conformité.
03:18Est-ce que c'est un dispositif médical ? Est-ce qu'il est marqué CE ?
03:222. La double lecture clinique.
03:24L'IA propose, toi tu arbitres.
03:26Il faut qu'il y ait une cohérence clinique et des données acquises de la science.
03:303. La traçabilité.
03:32Attention à mettre dans le dossier ce qui n'est pas noté n'est pas fait.
03:37J'ai utilisé l'outil X qui a été consulté.
03:39J'en déduis Y et du coup je prends la décision Z
03:43car tels et tels éléments cliniques viennent conforter cette décision.
03:47Il faut pouvoir le tracer.
03:48Il faut aussi signaler tout incident.
03:50Comme c'est l'utilisation d'un dispositif médical, si on a un événement indésirable,
03:56en lien avec le produit de santé, dont le dispositif médical,
04:00tu dois passer par le portail national de signalement auprès de la NSM.
04:04Et puis, quand tu vas souscrire en fait à l'utilisation d'un outil d'IA,
04:08il y a un contrat avec un fabricant.
04:11Le fabricant peut aussi lui être exposé sur le terrain de la responsabilité du produit défectueux.
04:17Mais ça ne t'exonère pas. Ton risque reste la faute clinique.
04:21Si tu mets le pilotage automatique, l'absence de vérification et l'absence de preuve,
04:27tu risques de voir ta responsabilité engagée.
04:30Si tu déploies l'IA en cabinet pour du tri de l'imagerie, de la rédaction, de l'aide à
04:35la décision,
04:36tu dois prendre la tâche avec ton assureur de responsabilité civile professionnelle
04:40et un avocat spécialisé en santé numérique pour cadrer le statut de ton outil.
04:45Est-ce que c'est un dispositif marqué CE, le contrat avec le fournisseur,
04:49les règles de sécurité de RGPD, l'information du patient et surtout les protocoles de traçabilité ?
04:56L'IA conseille. Le médecin décide et ça se documente dans le dossier.
05:00Sous-titrage Société Radio-Canada
Commentaires

Recommandations