00:00Vous avez des tribunaux dans lesquels le juge, quand il prend une décision qui n'est pas celle que recommande la machine,
00:05est obligé de se justifier trois fois plus que ça n'était le cas précédemment.
00:09Parce qu'évidemment, ceux qui sont lésés par la décision contestent en disant « mais ce juge est nul, la machine dit exactement le contraire, je devrais être blanchi » ou le contraire, peu importe.
00:19Et donc là aussi, il y a un enjeu colossal parce que si vous connaissez des magistrats et des juges qui font ce métier,
00:25en fait, leur travail fondamental, c'est d'essayer de se mettre à la place des personnes qui sont dans le cas qu'ils étudient
00:32et de comprendre pourquoi il a fini par assassiner sa femme.
00:37Peut-être qu'elle était insupportable, mais peut-être que c'est lui qui est complètement à côté de ses chaussures.
00:41Donc ce travail-là, qui en fait amène à la décision finale du juge, qui est un jugement, aucune machine ne peut le faire.
00:47Si je rebondis sur cette question de l'intelligence artificielle par rapport, par exemple, au marché du travail,
01:02l'intelligence artificielle, ce n'est plus un secret pour personne, va le bousculer fondamentalement.
01:06Est-ce que vous voyez ça comme une occasion à saisir, une chance, ou bien cela va tellement nous bousculer
01:15que cela va nous plonger dans une crise sociale et par suite peut-être existentielle et identitaire ?
01:21Oui, ça va, vous m'entendez ? Oui, ça marche.
01:24Je vais essayer aussi de répondre à la fois à la question de Fabrice à la fin et puis celle que vous venez de poser.
01:30Donc peut-être, je vais commencer simplement par rappeler pour tout le monde, pour qu'on se mette d'accord là-dessus,
01:35l'intelligence artificielle, c'est une métaphore pour désigner des logiciels qui n'ont rien d'intelligent,
01:41qui sont des empilements d'interrupteurs, un neurone, quand on parle de réseau de neurones, un neurone, c'est un interrupteur.
01:47Un interrupteur, c'est un outil qui fait passer ou non le courant. Oui, non, 0,1.
01:53Vous avez des interrupteurs un tout petit peu subtils.
01:56Quand vous appuyez dessus, ils font traverser le courant, mais la lumière monte progressivement avant d'être au maximum.
02:02Appelons ça un interrupteur subtil. Un neurone, dans les réseaux de neurones, qui sont omniprésents dans l'intelligence artificielle aujourd'hui,
02:10c'est un interrupteur subtil, pas plus que ça.
02:13Et donc l'IA, c'est des empilements de couches d'interrupteurs subtils, c'est tout.
02:18Ça n'a rien à voir avec la manière dont un cerveau fonctionne, des synapses, un système nerveux.
02:22Donc ça, c'est une énorme métaphore. Et ces machines, de mon point de vue, n'ont strictement rien d'intelligent, premièrement.
02:29Deuxièmement, oui, ça va évidemment bouleverser le marché du travail, parce qu'il y a un certain nombre de tâches répétitives, automatiques,
02:35qu'on va pouvoir déléguer à ces machines. Mais ça pose d'énormes questions dès aujourd'hui, qui ne sont pas exactement celles de la tienne, Fabrice,
02:43mais je vais y revenir, mais qui sont des questions à la fois politiques, juridiques, éthiques, colossales.
02:48Donc j'en nomme juste trois. C'est l'usage de l'IA dans la médecine.
02:53Donc on a maintenant, vous savez ça, des logiciels spécialisés qui ont été entraînés, par exemple, pour identifier des cas de cancer
03:00à partir des symptômes qu'on observe aujourd'hui et qui font ça mieux que la plupart des médecins, même les plus compétents.
03:08Parce que c'est vrai qu'ils ont digéré davantage de données. Bon, OK. Et donc ça, c'est très utile.
03:12Mais la tentation va être forte, elle est déjà là, de remplacer carrément le médecin avec lequel vous avez un dialogue,
03:20ou j'ai un dialogue, par une machine. Et ça, c'est nier que dans le dialogue avec un médecin,
03:27il y a quelque chose de la thérapie qui se joue déjà là. Je prends comme exemple des personnes que je connais
03:33qui souffrent d'un cancer. Bon, la relation qu'elles ont avec leur cancérologue est fondamentale.
03:39Et ça fait partie de la thérapie et de la possibilité de la rémission.
03:41Il y a une espèce d'alliance implicite qui se noue entre le patient et le médecin qui ne se nouera jamais avec une machine.
03:49Et donc la tentation de remplacer le médecin par une machine, c'est croire que le médecin,
03:55c'est juste une banque de données qui fournit un catalogue de vos symptômes et un diagnostic.
04:00Non, c'est quelqu'un avec qui j'entre en relation parce qu'il est capable ou elle est capable de prendre ma place comme patient sans quitter la sienne
04:09et de comprendre de l'intérieur un peu ce que je vis. Et c'est dans cette relation-là qu'il y a quelque chose comme un début de chemin de thérapie qui s'inaugure à mon avis.
04:17Deuxième exemple, très rapidement, la question de la justice.
04:22Aux États-Unis, maintenant, vous avez des IA qui ont été entraînés sur la quasi-totalité de la jurisprudence américaine.
04:27Donc vous avez des tribunaux dans lesquels le juge, quand il prend une décision qui n'est pas celle que recommande la machine,
04:33est obligé de se justifier trois fois plus que ça n'était le cas précédemment.
04:37Parce qu'évidemment, ceux qui sont lésés par la décision contestent en disant « mais ce juge est nul, la machine disait exactement le contraire, je devrais être blanchi » ou le contraire, peu importe.
04:47Et donc là aussi, il y a un enjeu colossal parce que si vous connaissez des magistrats et des juges qui font ce métier,
04:53en fait, leur travail fondamental, c'est d'essayer de se mettre à la place des personnes qui sont dans le cas qu'ils étudient
04:59et de comprendre pourquoi il a fini par assassiner sa femme.
05:03Vous voyez ? Peut-être qu'elle était insupportable, mais peut-être que c'est lui qui est complètement à côté de ses chaussures.
05:08Donc ce travail-là, qui en fait amène à la décision finale du juge, qui est un jugement, aucune machine ne peut le faire.
05:16D'autant que si la machine est entraînée sur les données du passé, ce qui est le cas forcément, par construction,
05:21elle reproduit les biais du passé.
05:23Et donc dans le cas de la justice américaine, elle reproduit le fait que pendant des années, des décennies,
05:28cette justice a été raciste, misogyne et une justice de classe, fondamentalement.
05:34Donc ce n'est pas avec ça qu'on va rendre justice aujourd'hui.
05:38Deuxième exemple.
05:39Le troisième exemple, qui a été abondamment cité par le pape François dans ses derniers textes sur l'IA,
05:45c'est la question des machines létales autonomes.
05:48Donc ce sont des machines qui peuvent prendre la décision de tirer sur quelqu'un et de tuer quelqu'un
05:52sans qu'il n'y ait aucun humain qui n'ait appuyé sur un bouton.
05:55Alors imaginez que cette machine fasse une erreur et qu'elle exécute un innocent, un enfant qui était là par hasard.
06:03Et bon, le système de reconnaissance de la machine a cru que c'était un ennemi et l'a abattu.
06:07Alors qui est responsable de la décision ?
06:10Personne.
06:12On ne va pas aller faire un procès à la société privée qui a vendu le logiciel parce que la machine a exécuté un enfant.
06:18Et donc vous voyez bien qu'on est en train de, à ce moment-là, s'autoriser à mener une guerre
06:22dans laquelle plus personne n'est responsable des décisions qui sont prises dans cette guerre.
06:26Donc par exemple, le concept même de crime de guerre disparaît.
06:29Il est vidé de son sens.
06:31Vous n'allez pas accuser une machine d'avoir commis un crime de guerre.
06:33Qu'est-ce que ça veut dire ?
06:34A fortiori, le concept de crime contre l'humanité.
06:37Et donc toutes les règles de la guerre comme telles sont potentiellement remises en cause.
06:42Donc là, c'est trois lieux fondamentaux.
06:43Alors, pour résumer, à mon avis, ce qui est derrière ça, c'est l'incapacité fondamentale d'une machine à prendre la place de l'autre.
06:51Et le fait que ce qui peut-être nous caractérise, au moins en partie, pas les seuls,
06:56alors ça rejoint maintenant la question que tu posais Fabrice, c'est que nous, nous sommes capables de vivre quelque chose de cette expérience spirituelle
07:02qui est consentir à nous mettre à la place de l'autre sans quitter la mienne,
07:06pour comprendre l'autre, aimer l'autre, entrer en relation avec l'autre.
07:08Bon, ça c'est une expérience spirituelle humaine profonde qu'une machine ne peut pas faire.
07:13Après, si j'essaie de répondre à la question pourquoi, dans nos écoles, on a fini par consentir à essayer de déléguer la relation pédagogique,
07:22où là aussi c'est fondamental que le professeur, l'instit, puissent se mettre à la place de son élève, sinon c'est un mauvais prof en fait.
07:30Pourquoi est-ce qu'on a osé faire ça et être tenté de déléguer ça à une machine ?
07:34Je crois parce qu'il y a une tentation gnostique derrière l'imaginaire de l'IA,
07:38qui est qu'on pourrait viser une humanité sans corps.
07:41C'est ça qui est visé.
07:42Donc lorsque des sociétés de la Silicon Valley proposent qu'on puisse transplanter la conscience de quelqu'un dans une machine,
07:50c'est faire croire qu'une humanité vivante est possible sans corps, parce qu'une machine n'a pas de corps.
07:54Et ça c'est un vieux fantasme qui habite, y compris le christianisme,
07:59et contre lequel le christianisme lutte depuis 18 siècles maintenant.
08:03Et ça c'est vraiment quelque chose, je crois, qu'il faut dénoncer aujourd'hui.
08:15Abonnez-vous !
Commentaires