- il y a 4 mois
Laurence Devillers, professeure à la Sorbonne et chercheuse spécialiste des interactions homme-machine, a signé l'appel mondial visant à fixer des "lignes rouges" pour l'intelligence artificielle. Pour elle, "il est urgent de travailler sur l'éthique et la règlementation". Laurence Devillers est également l'auteure du livre "L'IA, ange ou démon ? Le nouveau monde invisible" paru aux éditions du Cerf.
Catégorie
📺
TVTranscription
00:00Bonjour à tous, merci de nous retrouver sur BFM2. On va revenir ensemble sur cet appel mondial lancé en marge de l'Assemblée Générale de l'ONU,
00:10cet appel lancé concernant l'intelligence artificielle pour fixer des lignes rouges.
00:17On en parle avec notre invité Laurence Devilleur. Bonjour, merci beaucoup d'être avec nous.
00:22Vous êtes professeure à la Sorbonne et chercheuse spécialiste des interactions hommes-machines.
00:29Cet appel qui demande de fixer des lignes rouges et qui s'alarme de risques catastrophiques liés à cette technologie.
00:38L'intelligence artificielle nous menace vraiment ?
00:42Je pense que ce n'est pas la bonne façon de poser le sujet. Ce n'est pas pour ça que j'ai signé cette prise de conscience.
00:49C'est parce que de façon beaucoup plus insidieuse que l'idée que demain ce serait une bombe atomique,
00:55ces machines vont changer notre rapport au monde, notre rapport aux autres et qu'il est urgent de travailler sur l'éthique.
01:03L'éthique et la réglementation. Nous sommes devant des hors-la-loi qui prennent ici l'esprit de nos enfants,
01:11qui vont changer sans doute la démocratie. Cet outil d'une puissance non comprise par beaucoup est devenu finalement un objet de tous les jours,
01:20qui nous parlent. La parole est une arme. La parole vient majoritairement de 95% dans ces tchats GPT et catéras
01:29des États-Unis ou du monde anglo-saxon. On doit comprendre la puissance de frappe de cette parole,
01:37de cette manipulation, des fake news sur les réseaux sociaux grâce à l'IA décuplé,
01:43qui sont dans notre intimité. Et là, il y a un risque énorme pour nos enfants et pour la population globale,
01:49pour l'intelligence collective. C'est ça ma vision de l'horreur qui nous attend si nous sommes pas capables de mettre des limites.
01:56C'est pour ça que j'ai signé cette tribune et que je pense qu'il faut tous se rallier sur cette idée d'avoir des lignes rouges
02:05de façon internationale. Je participerai bientôt au Forum de la paix pour défendre AI beneficial for children,
02:13ce qui n'est pas le cas maintenant. On cherche en France à donner des lignes rouges, interdire les réseaux sociaux pour les jeunes
02:20ou travailler sur l'interdiction des chatbots aussi pour les moins de 6 ans. Il est important de comprendre
02:29qu'on doit aussi changer notre imaginaire par rapport à ces technologies.
02:33Et justement, comment cela est possible de réglementer à une échelle mondiale le recours à l'intelligence artificielle,
02:41le fonctionnement de celle-ci, alors que c'est plutôt opaque ?
02:47C'est totalement opaque. L'ONU est le bon endroit où on pouvait lancer cette tribune et cet appel.
02:54Je n'ai jamais signé avant quoi que ce soit qui allait dans ce sens-là.
02:57Encore une fois, j'ai horreur des propos anxiogènes et je ne suis pas là pour dire que demain,
03:04le monde sera, on va disparaître. Ça, c'est Frankenstein, ce n'est pas du tout mon sujet.
03:09Je ne suis pas là non plus pour dire, alors que je suis pro-IA, c'est mon domaine de recherche depuis 30 ans,
03:15que ces outils ont une inconscience des émotions ou quoi que ce soit qui est de nous faire disparaître également.
03:21C'est tout à fait absurde. Je suis devant une position beaucoup plus centrale où j'appelle avec raison à réfléchir
03:30aux conséquences que pourrait avoir cette IA développée partout pour l'éducation de nos enfants, pour nous dans la société.
03:39Qu'est-ce que ça veut dire cette machine qui a une ressemblance à la parole humaine et qui porte des messages manipulateurs, discriminants,
03:48isolant les gens de leurs conjoints même. On voit des suicides. Jusqu'où irons-nous pour, de façon internationale, dire qu'il y a un sujet ?
03:57Je pense que parler de nos enfants, c'est vital en ce moment et j'en appelle à un sursaut mondial sur la préservation des plus vulnérables,
04:08qui sont ces enfants qui vont avoir peut-être comme compagnons de jeu dès leur premier âge un téléphone ou une IA qui leur parle.
04:16Oui, il y a de plus en plus de jeunes d'ailleurs disent avoir recours par exemple à Tchad GPT à la place d'un psy,
04:22en tout cas pour se confier de leurs problèmes parfois personnels. Et c'est là, vous, ce qui vous alerte,
04:29c'est comme ça d'avoir une relation quasiment intime, personnelle avec une machine.
04:35Oui, l'IA c'est un monde de l'invisible. J'ai écrit IA Ange ou Démon en mars 2025 pour décrier cela.
04:42Le Tchad GPT, ce n'est pas votre ami, ce n'est pas votre ange gardien.
04:45C'est une IA algorithmique, certes puissante, complexe, mais qu'on peut démystifier.
04:53Et c'est ça mon sujet aujourd'hui, c'est pour ça que j'en parle dans tous les médias.
04:57L'engouement en plus pour les IA génératives mobilise chez tout un chacun des processus inconscients.
05:03On projette, on fantasme, on idéalise et en même temps c'est source d'angoisse.
05:08Donc, on voit bien que là, on est devant une manipulation vraiment très, très forte.
05:14Et je pense qu'il est urgent d'alerter et sûrement de réduire ce qu'on est en train de faire avec ces Tchad Bots
05:21qui sont un hold-up de nos vies, de nos esprits, de notre créativité, de notre intelligence.
05:26Nous sommes beaucoup plus intelligents que ces machines.
05:28On n'a pas du tout dépassé, on n'est pas à la super intelligence.
05:31Et on voit arriver, de la part de la Silicon Valley, un espèce de marketing sur le langage.
05:39C'est alimenté sur l'idée que la supériorité des machines est évidente sur l'humain.
05:44C'est faux.
05:44Ce glissement sémantique sans fondement scientifique, je le répète,
05:48c'est pour ça qu'il y a beaucoup de scientifiques aussi qui ont signé cette coalition,
05:53pourrait nourrir des discriminations terribles contre l'humanité.
05:56Et je pense que là, il y a un sujet fondamental de société qu'on doit absolument prendre à sa juste mesure.
06:04Moi, j'en appelle au président Trump et à tous les présidents qui, pour l'instant, laissent faire en disant
06:09qu'on ne doit pas réglementer parce qu'on empêche l'innovation.
06:15J'espère qu'on parlera plutôt de progrès.
06:17Samatman parle de progrès toutes les secondes, mais c'est aussi un objectif marketing.
06:21Donc, attention à ce qu'on est en train de faire.
06:22Attention au déferlement qu'on ne pourra bientôt plus contrôler, même avec une IA qui n'est pas intelligente.
06:29Selon vous, en ayant une relation comme ça très proche, en utilisant notamment l'intelligence artificielle générative,
06:37de plus en plus au quotidien par certaines personnes,
06:40on peut après développer des biais cognitifs sur d'autres choses,
06:44être orienté sur de fausses informations parfois, puisque l'IA parfois se trompe tout de même.
06:49On a vu des cas.
06:50L'IA va se tromper de plus en plus.
06:54À force de rajouter des données et des données venant d'autres IA,
06:57on va faire baisser aussi le niveau de ces IA qui vont apprendre des choses qu'elles ont déjà vues, répétées
07:02et peut-être amplifiées des fake news.
07:05Donc, la transmission de savoir entre humains est essentielle.
07:09Le langage entre humains est essentiel.
07:11Il porte beaucoup plus que juste les mots qui sont prononcés.
07:14C'est une interaction entre une abstraction de l'un vers l'autre, de l'imagination de l'un vers l'autre.
07:21Ça n'a rien à voir avec ce qu'on fait avec cette machine qui est vide.
07:24Elle n'a pas de psyché, elle n'a pas d'inconscient.
07:27Elle sait lire nos expressivités, mais elle ne sait pas lire notre inconscient non plus.
07:31Donc, je pense qu'on doit revenir à une compréhension fine de ce qu'est la production de la parole à travers ces machines,
07:40la démystifier et bien comprendre l'impact que ça peut avoir sur nous
07:43et éviter justement ces drames qu'on voit de temps en temps et qu'on verra de plus en plus.
07:50Alors, on a bien vu cet appel mondial lancé à l'ONU.
07:54Comment, après avoir un cadre contraignant, vous le disiez, pour l'instant, les chefs d'État laissent beaucoup faire les entreprises du secteur.
08:03Comment vraiment pouvoir contrôler tout cela à l'échelle des États, des mesures contraignantes ?
08:10C'est assez compliqué à mettre en place.
08:12Évidemment, en France, ça dépendra de l'Union européenne.
08:16Ça reste possible ?
08:18Ça reste possible parce qu'on est tous parents, on a tous des enfants.
08:22On comprend tous qu'il y a une puissance énorme pour certains objectifs, d'ailleurs qu'il faut garder.
08:28En vertical, on peut très bien faire de l'IA générative, prédictive, sauver des vies, optimiser des systèmes, moins consommer.
08:35Donc, c'est extraordinaire la puissance qu'on peut développer grâce à ces systèmes IA.
08:39Maintenant, le leur de dire ou la bêtise de dire que ce sont des compagnons qui ont une personnalité, une conscience,
08:45une espèce d'anthropomorphisme de ces objets est totalement hors de propos, si je voulais.
08:56Et c'est ça qu'il faut répéter à volonté.
08:59On a besoin de mettre des réglementations.
09:01On les fera aussi grâce à l'école, grâce à la société qui doit s'emparer de ce danger pour elle-même.
09:09Et je pense que l'éthique, comme on l'a fait pour la biologie, comme on l'a fait avant dans de nombreux autres sujets,
09:18l'éthique doit être au cœur du développement des prochains systèmes technologiques.
09:22Et si on projette un peu dans le futur, peut-être que ces grands géants du numérique auront des problèmes de responsabilité plus tard.
09:32On leur demandera pourquoi ils ont laissé faire, alors qu'ils savaient très bien quelles étaient les conséquences de certains outils qu'ils développaient.
09:39C'est trop facile de dire qu'on n'est pas responsable, que la machine est super intelligente,
09:43qu'elle a donc dépassé ce qu'elle pouvait faire et que nous ne pouvons pas la contrôler.
09:47J'en appelle donc à la responsabilité de ces géants du numérique pour faire en sorte qu'il y ait moins de risques.
09:54Et je pense que si de l'intérieur ils le comprennent, ils vont comprendre aussi que la société ne va plus adhérer,
09:59ne va plus consommer ses produits s'il n'y a pas une prise en compte des risques de façon beaucoup plus forte que ce qui est à l'heure actuelle.
10:08Avec derrière, et je l'ai entendu de la bouche de Samatman et d'autres grands leaders dans ce secteur,
10:16pourquoi ne pas faire, pourquoi plutôt ne pas doter ces machines d'une personnalité juridique ?
10:21Vous voyez, l'humain n'aurait plus à être responsable, mais ce serait la machine elle-même qui serait responsable.
10:26On ne va pas les mettre en prison, on ne va pas pouvoir les changer comme ça.
10:31Et donc, ça voudrait dire que finalement, les concepteurs seraient moins responsables.
10:36Il y a une co-responsabilité à trouver, mais ils sont responsables au premier chef.
10:40Et si demain, il y a des comptes qui sont demandés par la société pour des dérives qui risquent de se passer,
10:46ce sera vers eux qu'on va se tourner.
10:47Donc, attention à demain, soyons en coalition tous ensemble, industriels, chercheurs et grandes ONG et les prix Nobel qui étaient là aussi,
10:59pour aller donner une vision et une direction beaucoup plus raisonnée, beaucoup plus raisonnable.
11:05En parlant d'éthique, justement, la bioéthique existe, l'éthique de l'IA doit exister.
11:09Quand on vous écoute, on a l'impression que les autorités ont du retard.
11:14On parle beaucoup des réseaux sociaux aujourd'hui, de TikTok, de la réglementation de ces algorithmes-là.
11:19Et pendant ce temps-là, l'intelligence artificielle générative prend de plus en plus de place, de plus en plus d'importance.
11:26Et là-dessus, très peu de réglementation.
11:28Il n'y a pas un train de retard, justement, de la part des autorités face à ce monde numérique qui évolue de plus en plus et beaucoup plus vite ?
11:40Je suis tout à fait d'accord avec vous.
11:42Depuis 2017, depuis 2016 même maintenant, on alerte le gouvernement du président Macron pour dire
11:48« Il faut absolument qu'il y ait des réglementations, une éthique comprise, une éducation sur l'éthique, parler d'éthique à tout le monde et en même temps travailler sur les normes. »
11:59Moi, j'ai été pendant deux ans à l'AFNOR où j'ai pu me rendre compte à quel point ceux qui voulaient faire les normes en Europe étaient finalement les géants du numérique,
12:07que ce soit les Américains ou les Chinois, dissimulés derrière des chercheurs qui acceptaient de jouer ce jeu-là.
12:11Donc, on a besoin, et ça je l'ai dit moult fois, au gouvernement d'actions, d'actions visibles.
12:19Et ce n'est pas juste en disant « Demain, il faut que les enfants soient… »
12:22On interdise les réseaux sociaux aux enfants à moins de 15 ans.
12:25Ça ne suffit pas. Il faut savoir comment on fait ça et pousser pour que, effectivement, des techniques soient mises en place de façon urgente.
12:33Et de la même façon, il est urgent d'arrêter la « friend check », osons l'IA à n'importe quel prix.
12:38Ce n'est pas à n'importe quel prix qu'il faut aiser l'IA.
12:40Oui, c'est peut-être là le rôle, là aussi, évidemment, de l'école, que de montrer les dangers de l'intelligence artificielle,
12:48au-delà de créer simplement des images rigolotes sur ChatGPT ou des vidéos sur d'autres sites d'IA génératives.
12:59Oui, alors l'engouement pour ces IA génératives, elle est partout, même de la part de chercheurs, de philosophes, etc.,
13:04qui finalement pensent qu'on est en train de créer un nouveau monde, que ces objets peuvent créer, nous aider à créer, etc.
13:11Moi aussi, je pense qu'on peut en tirer énormément parti, mais pas à n'importe quel prix.
13:16Et pas en ce moment, avec cette poussée venant des États-Unis et de la Chine, avec cette compétition pour le pouvoir.
13:23Je pense qu'on est sur une boucle qui va sans doute exploser à un moment donné,
13:29parce qu'on a mis beaucoup trop d'argent par rapport à la rentabilité qui est effective en ce moment.
13:35Ce monde, il faut le rendre visible, il faut le rendre plus transparent,
13:38pour qu'on ait confiance dans l'idée qu'on puisse aller plus loin.
13:43Pour la science, c'est évident qu'on va beaucoup gagner.
13:45Pour tous les experts dans leur domaine, c'est évident qu'ils vont beaucoup utiliser l'IA à bon escient.
13:52Maintenant, la mettre dans les mains de tout le monde sans qu'on soit formés, c'est une aberration.
13:56C'est même un danger.
13:58Et là, je pense que le hold-up qui a été fait par OpenAI en 2022 était évident.
14:05Et je pense qu'ils auront à en répondre, à être responsables de beaucoup de mes faits derrière.
14:09J'ai l'impression qu'on va aller dans ce sens-là, parce qu'il y a aussi un autre sujet, celui de l'écologie,
14:20la dépense d'énergie liée à tous ces objets qu'on essaie de construire, d'ajouter partout,
14:28alors qu'on n'en a pas forcément besoin.
14:30Donc, il y a une mesure à prendre qui est, quelle est l'utilité ?
14:34Dans quel domaine on doit développer ces objets ou ces systèmes d'IA ?
14:39Dans quel champ d'action ils vont augmenter, améliorer notre intelligence des situations ?
14:46Je pense à la santé, évidemment, à l'écologie ou d'autres sujets.
14:51Et pas à n'importe quel prix, n'importe comment, pour n'importe qui.
14:54Mes étudiants, ils demandent un chat GPT 4x4, ou alors ils vont demander des choses évidentes.
14:59Et pour certains, ils deviennent moins rationnels devant la machine,
15:03c'est-à-dire qu'ils doutent eux-mêmes de leur intelligence.
15:06Ça, c'est la fin du libre-arbitre, de l'esprit critique, d'une position plus forte.
15:13Or, on a besoin demain de talent pour aller plus loin.
15:16On a besoin de talent pour continuer.
15:18Nous avons énormément de grandes écoles, nous avons énormément de chercheurs en France et en Europe.
15:25Ils vont pour beaucoup aux États-Unis ou en Chine.
15:28Essayons de construire en Europe.
15:31Si vous avez écouté le rapport de Raghi, il faudrait investir largement sur ces sujets en Europe
15:36et pousser à ce qu'il y ait des innovations, certes, mais avec prise de conscience d'éthique,
15:41donc avec des règles, des lignes rouges.
15:43Donc, merci à ceux qui ont lancé cette coalition.
15:47Le Forum de la paix, qui sera bientôt à Paris, 29-30 octobre, va relayer certainement aussi toutes ces idées.
15:55Merci à Joshua Bengio, qui est pris Turing et qui défend cette position.
15:59Merci à beaucoup d'autres qui sont présents dans ces signatures.
16:04Je pense qu'on doit prendre la mesure de façon collective.
16:08Un dernier mot, vous le disiez, vous le voyez, vous, par exemple, à la Sorbonne,
16:14des étudiants qui se remettent en question de ce qu'ils peuvent avoir compris,
16:19par exemple, lorsqu'ils vont ensuite interroger le chat de GPT,
16:22voire peut-être remettre en question des propos tenus par des enseignants,
16:27si une intelligence artificielle dit autre chose ?
16:32Oui, alors on ne le voit pas qu'à la Sorbonne, avec nos étudiants.
16:35Nous, on a fait des tests pour évaluer cela.
16:37Donc, on peut dire qu'effectivement, on peut trouver un certain nombre d'étudiants
16:40qui vont remettre en cause ce qu'ils pensaient, donc leur propre rationalité devant la machine
16:45et changer d'avis alors qu'ils avaient juste 100 machines.
16:49On le voit dans la société où certains patients qui vont voir leur médecin leur disent
16:54« Ah mais non, non, j'ai vu, chat de GPT m'a dit que… »
16:58Mais chat de GPT n'est pas vérifié, chat de GPT amalgame en même temps que la théorie d'Einstein,
17:05« Les recettes de cuisine de Madame Michu ».
17:09On est devant… Nous sommes devant des systèmes qui apprennent tout au même niveau.
17:15Ce sont des algorithmes qui génèrent des probabilités.
17:18On n'a pas d'assurance du tout que le fait est vrai.
17:21D'ailleurs, toute cette machine qui engloutit l'énorme corpus de données a perdu toutes les sources,
17:27donc on ne sait plus qui est responsable de ce qui est dit.
17:29La composition finale de la machine, que j'appelle un fousi-tout, de temps en temps tombe très juste
17:35et nous allons nous en inspirer.
17:37La machine parle plutôt bien, c'est-à-dire qu'elle a bien appris la forme du langage,
17:41mais absolument pas ni les intentions, ni la politique derrière, ni la compréhension de ce qu'elle dit.
17:47Évidemment, on projette dessus le contraire.
17:50On pense qu'elle comprend.
17:51On pense qu'elle est même morale de temps en temps, voire elle a des émotions.
17:56Et là, on est vraiment, vraiment dans l'erreur.
18:00Eh bien, merci beaucoup pour toute cette analyse, Laurence Devilleur.
18:04Je rappelle que vous êtes professeure à la Sorbonne et chercheuse spécialiste des interactions hommes-machines.
18:11Merci beaucoup d'avoir été avec nous sur BFM2 pour revenir sur cet appel mondial lancé
18:17pour fixer des lignes rouges à l'intelligence artificielle.
18:21L'appel lancé en marge de l'Assemblée générale de l'ONU qui se tient actuellement à New York.
18:27Merci de nous avoir suivis sur BFM2.
18:29Restez bien avec nous.
18:30Un nouveau direct à suivre dans quelques instants.
Commentaires