- il y a 7 heures
- #sudradio
Avec Laurence Devillers, auteur de "L'IA, ange ou démon ? Le nouveau monde de l'invisible" éd. du Cerf
Retrouvez La France dans tous ses états du lundi au vendredi de 12h à 14h sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
———————————————————————
▶️ Suivez le direct : https://dai.ly/x8jqxru
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/profile.php?id=100063607629498
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
———————————————————————
☀️ Et pour plus de vidéos de Bercoff dans tous ses états : https://www.youtube.com/playlist?list=PLaXVMKmPLMDQe5oKZlhHutOQlGCq7EVU4
##ACTU_DU_JOUR-2026-03-03##
Retrouvez La France dans tous ses états du lundi au vendredi de 12h à 14h sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
———————————————————————
▶️ Suivez le direct : https://dai.ly/x8jqxru
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/profile.php?id=100063607629498
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
———————————————————————
☀️ Et pour plus de vidéos de Bercoff dans tous ses états : https://www.youtube.com/playlist?list=PLaXVMKmPLMDQe5oKZlhHutOQlGCq7EVU4
##ACTU_DU_JOUR-2026-03-03##
Catégorie
🗞
NewsTranscription
00:00Ça fait peur. Un livre intégralement rédigé par l'intelligence artificielle, le travail humain réduit à de la simple vérification,
00:07les droits d'auteurs menacés, l'IA va-t-elle faire disparaître nos auteurs ?
00:11On en parle avec la professeure en intelligence artificielle et éthique à la Sorbonne, chercheuse au CNRS, auteure de l
00:16'IA, Anjou ou Démon, ce nouveau monde de l'invisible, paru aux éditions du CERF.
00:20Bonjour, Laurence De Villers.
00:21Bonjour.
00:23Merci Laurence De Villers d'être avec nous en studio sur Sud Radio.
00:28Effectivement, moi j'ai lu votre livre. Ce qui me choque le plus, c'est la béatitude ou l'insouciance.
00:37C'est un progrès scientifique énorme.
00:40On s'attendait, on l'a vu dans les films, c'est le robot, c'est la cybernétique. Est-ce
00:44qu'on aura des doubles humains avec des clones ?
00:47Enfin bon, le cinéma nous a prêté tout un tas de scénarios possibles. On y est là, concrètement.
00:54Les premières indications que l'on a, même si on a quelquefois des choses qui sont formidables dans la modernité,
01:01la facilité,
01:01les premières indications que l'on a et les premières réflexions sociologiques et même philosophiques sont plutôt inquiétantes, vous ne
01:07trouvez pas ?
01:08Oui, elles sont très inquiétantes, trop inquiétantes pour l'instant.
01:12On devrait mieux comprendre ce qui se passe à l'intérieur de ces systèmes, qui sont des boîtes noires, mais
01:16qu'on peut en tout cas mieux apprivoiser que ce qu'on le fait aujourd'hui.
01:19On n'est pas formé. Et je pense qu'il y a une mystification dans tout ça, parce que ces
01:24objets, pour l'instant, sont très loin d'une intelligence humaine.
01:27Ils n'ont pas d'émotion, de ressenti, ni d'intention propre.
01:30Il n'y en aura jamais.
01:31Il y en aura si on fait du cyborg.
01:34Si on fait du cyborg.
01:35Pas seulement. Et si on suit les dires de Yann Lequin, et ce que j'ai pu voir aussi dans
01:40le monde asiatique, au Japon notamment, et en Chine,
01:43l'idée de faire une modélisation à l'intérieur de ces machines des émotions,
01:48pour prendre quelque chose de simple, des variables liées à la souffrance ou à l'aspect négatif,
01:54peuvent faire que la machine peut avoir des intentions.
01:56C'est-à-dire qu'on peut jouer sur une émotion artificielle.
01:58Vous voulez dire que le mot intelligence, qui pour l'instant est assorti de la notion d'artificiel,
02:03pourrait devenir l'intelligence toute ?
02:06Non.
02:07Ce ne sera jamais une intelligence humaine, on est bien d'accord.
02:09Ce ne sera toujours pas une intelligence humaine,
02:10mais ça pourrait être en fait une intelligence différente,
02:15liée en fait à une structure qu'on aurait mis à l'intérieur,
02:18une conscience artificielle, des émotions artificielles, certes simplistes,
02:22par rapport à ce que nous sommes nous dans le vivant,
02:24mais qui pourraient avoir des effets sur l'autonomie de la machine,
02:28sur le fait qu'elles décident des choses toutes seules.
02:30Je pense que l'IA agentique munie de ce genre de choses,
02:33ça peut aller assez loin.
02:34Déjà l'IA agentique, c'est-à-dire cette IA qui perçoit, décide et fait de l'action dans notre
02:39monde réel,
02:39peut avoir des conséquences non négligeables, peut être attaquée en cyber.
02:42Donc on voit là déjà des vrais sujets.
02:44Je ne suis pas dans l'anxiété comme ces gens dont vous parliez, ces experts.
02:48Je préfère en fait, c'est-à-dire sur la compréhension fine de ce qui se passe,
02:51et je trouve encore aujourd'hui que nous sommes sous-informés sur la façon dont ces systèmes marchent.
02:57Ce soir, je serai au M4-2 Odéon Hautefeuille pour en parler,
03:00et pour démystifier cette super-intelligence qui n'existe pas.
03:03Laurence de Villers, on est en plein dans la phrase emblématique de François Rabelais,
03:08« Science sans conscience n'est que ruine de l'âme », le titre de votre ouvrage.
03:12IA, en vous démont, le nouveau monde de l'invisible.
03:15L'inconscience dont parlera Rabelais, elle est où, là ?
03:18Non préparation, non mesure de l'impact ?
03:21Pas seulement. Il y a un biais de confiance.
03:23C'est ce que vous disiez tout à l'heure.
03:25C'est-à-dire que quand mes étudiants me parlent, par exemple, de leur relation,
03:29parce que ce sont des outils de relation, c'est Tchad GPT ou autre,
03:33ils me disent « l'IA ne juge pas, l'IA est neutre, l'IA ne garde pas mes données
03:37».
03:37Ils ont cette fausse impression d'être en un monde parallèle,
03:41qui est totalement cloisonné, secret, etc., invisible.
03:45Cette invisibilité est en fait un leurre.
03:48Effectivement, leurs données sont récupérées,
03:49pour faire des modèles plus rapides, plus inventifs,
03:53et plus près de l'intimité des gens, pour les manipuler plus.
03:56Et puis, le biais de confiance, c'est de penser ça.
03:58Cette IA n'est tout sauf neutre.
04:00Alors, ce n'est pas l'IA, ce sont les gens qui lui donnent des données,
04:03qui l'optimisent et qui la rendent autonome.
04:06On est en train de jouer avec le feu en apprenti sorcier.
04:09Quel est le premier fléau ?
04:12C'est-à-dire, c'est l'incitation à la paresse, à ne pas faire,
04:15donc on transfère, on confie à une machine le soin de faire un travail
04:20à partir duquel on va être jugé, on va être noté, on va être apprécié.
04:23Je crois qu'il y a deux grands méfaits que je vois.
04:25Un, qu'on ne se préoccupe pas de l'apprentissage des enfants,
04:28et qu'eux seront des cibles très vulnérables face à ces machines
04:31qui vont les manipuler dès l'enfance,
04:33des nounours avec Tchad GPT à 3 ans.
04:35Et le deuxième point, c'est l'idée de remplacer beaucoup de tâches par ces machines
04:39qui sauront les faire à peu près, pas avec la même qualité.
04:43Et c'est là où il faut trouver la frontière.
04:44Sinon, on va désapprendre des sujets extrêmement importants pour notre survie collective.
04:49On ne compte plus les familles où les enfants font les devoirs avec Tchad GPT le soir.
04:53Est-ce qu'il y a moyen ?
04:54Alors, les enseignants vous disent, il y a des fois où on le voit,
04:56il y a des situations où on peut ne pas le voir.
04:59Oui, oui, je pense qu'on va être bluffé par la capacité de ces machines
05:03et puis la capacité des adolescents aussi à les utiliser.
05:05Ce sont des gens intelligents.
05:06Ah ben, ça va très très vite.
05:08Sauf qu'ils n'auront pas appris les fondamentaux.
05:10On a besoin de mémoriser pour pouvoir aller plus loin,
05:13abstraire plus et comprendre plus.
05:15Ces machines ne comprennent pas.
05:17Elles ne font que restituer des situations que nous n'avons peut-être pas vues.
05:20Nous leur, nous anthropomorphisons ces machines.
05:23On projette qu'elles ont des capacités
05:24et qu'en plus qu'on peut leur faire confiance.
05:26Donc, je suis là pour dire, attention,
05:29il faut vraiment penser à système E, système 1, système 2 de Daniel Kahneman
05:33qui était quelqu'un qui a travaillé en économie du comportement.
05:35Et le système 2, là, n'existe pas.
05:37La machine ne réfléchit pas, ne raisonne pas telle que nous.
05:40Et donc, nous allons suivre les dires de ces machines
05:43et sûrement en étant aussi sur système 1.
05:45Ce qui fait que personne ne va réfléchir dans cette histoire.
05:47Je pense que c'est dangereux.
05:48Laurence de Villers, comment empêcher ?
05:50D'abord, comment réaliser, comment cibler ?
05:52Si tout d'un coup, on a un nouveau livre de Proust
05:54à la recherche du temps perdu,
05:55qu'on va titrer différemment avec un autre nom d'auteur,
05:58une machine va produire des millions de signes de textes littéraires,
06:03ça va être vendu, ça va être lu.
06:04Comment peut-on ?
06:05Voyez, un jour, ça arrivera.
06:07D'abord, on ne saura pas si c'est vrai ou faux.
06:09Et comment l'empêcher ?
06:10Alors, il y a là, on a besoin de réfléchir à plus long terme.
06:14De la même façon pour l'éducation.
06:15C'est-à-dire que si demain, ces machines fournissent des ouvrages de l'art en multitude,
06:22fulltitude, qui va les nourrir ?
06:24On a besoin de la richesse, de la créativité humaine pour aller plus loin.
06:28Si ces machines en sont arrivées là...
06:30Ça s'alimente quand même, il faut l'alimenter.
06:32Il faut l'alimenter.
06:33Et c'est là où j'ai peur que personne ne veuille plus alimenter ces machines
06:36s'ils ne sont pas reconnus comme des auteurs et valorisés.
06:39Tant mieux, ça veut dire que la machine s'arrêtera ou pas du tout ?
06:42Non, ça veut dire qu'il faut trouver un système, la machine ne va pas s'arrêter.
06:45Il faut trouver un système pour qu'on valorise tous les auteurs,
06:49qu'on comprenne bien la valeur humaine dans la créativité
06:52et le fait que ces machines ne vont faire que des pâles copies.
06:55Alors, ce n'est pas tout à fait vrai pour tout,
06:56mais en même temps, on nous balade dans les évaluations qu'on fait.
06:59Ces machines n'ont pas une intention, une imagination.
07:03Par contre, on peut les piloter pour qu'elles aillent sur des points intéressants
07:07en mathématiques, dans la santé, pour trouver en physique des théorèmes,
07:11pour tout un tas de sujets.
07:13C'est vrai, mais n'oubliez jamais qu'il y a des humains qui sont là,
07:17qui ont construit ces algorithmes, qui les ont nourris de données,
07:20qui les ont optimisés, qui ont décidé de tous les paramètres internes
07:22et tout ça dans une vision, dans un usage.
07:25Donc, attention à ne pas comprendre autre chose que la machine fait tout cela,
07:30toute seule.
07:32Question basique, à qui profite le crime aujourd'hui ?
07:35Ah, vous l'avez bien dit, à qui ?
07:37À tous ces finances.
07:38Oui, financiers.
07:39Les gens qui sont sur la finance, de tout cela.
07:41L'économie va très bien.
07:43Alors, elle va très bien.
07:44Ou elle va s'arrêter à un moment donné,
07:46mais je pense qu'elle continuera à aller très bien.
07:48On commence à remplacer les gens.
07:50Et ça, c'est le deuxième sujet extrêmement important.
07:52C'est une bulle, c'est une bulle gigantesque.
07:53Non, non, non.
07:54Elle va continuer.
07:55Je ne pense pas qu'elle va éclater.
07:57Mais par contre, on ne se préoccupe pas de l'emploi des jeunes.
08:01Or, aujourd'hui, si on licencie des jeunes parce qu'ils sont en entrée,
08:04qu'ils n'ont pas l'expertise dans tous les domaines,
08:06que ce soit avocat, médecin ou en passant par d'autres métiers,
08:10on va se tromper d'objectifs.
08:12Il faut qu'on raisonne à une vision un peu plus lointaine.
08:15C'est-à-dire que si demain, les jeunes n'apprennent pas
08:17avec des experts capables de débusquer
08:19quand la machine répond mal,
08:21quand elle n'est pas bien calibrée,
08:22eh bien, on ira dans le mur.
08:23On va aller vers une chute progressive
08:25parce qu'ils n'auront pas appris autre chose
08:27que de suivre ces foutues machines.
08:29Alors, quand on a eu peur de l'informatique,
08:31il y a 30-40 ans, on a instauré la CNIL,
08:33le Conseil National Informatique et Libertés,
08:35une instance qui était là pour contrôler,
08:37qu'il n'y ait pas de débordement,
08:38que ça n'est pas trop loin.
08:39Est-ce qu'on peut imaginer un Conseil National
08:42de l'Intelligence, un CNIA,
08:44Conseil National de l'Intelligence Artificielle,
08:47qui serait là pour réguler,
08:48s'assurer que ça ne va pas trop loin,
08:49que la législation veille au bon fonctionnement
08:52de cette intelligence artificielle
08:53et que, surtout, elle ne s'empare pas de pouvoirs
08:55qui ne sont pas les siens ?
08:56Ou c'est impensable de créer un organisme de ce genre ?
09:00Souhaitable, impensable,
09:00dans le climat international
09:03qui est le nôtre en ce moment ?
09:04Il faudrait que ce soit mondial, d'ailleurs ?
09:06Bien sûr.
09:07Donc, européen et mondial, bien sûr.
09:08Donc, les plateformes sont la majorité américaine.
09:12On parle de souveraineté chez nous,
09:13mais en fait, on est en coalition
09:14avec tous les États du monde,
09:16avec les États-Unis, pour certains aspects,
09:18avec la Chine, pour d'autres.
09:19Donc, il est évident que ça doit être mondial.
09:22Or, je ne vois pas arriver cela réellement,
09:25comme tout le monde.
09:26Les GAFAM vivront uniquement de l'intelligence artificielle.
09:30Non, les GAFAM, pour l'instant,
09:31ils vivent de la publicité
09:32et même pas d'IA.
09:33Oui, mais ils vont s'en emparer.
09:34Ils vont s'en emparer, inévitable.
09:35Mais pour l'instant, ce n'est pas rentable.
09:37Là, ça fera mal.
09:38Oui, d'accord.
09:39Ça peut faire mal,
09:41mais c'est surtout, moi, je suis très inquiète
09:42par rapport à l'objectif plutôt armé.
09:45Si vous voulez, c'est dual,
09:46l'intelligence artificielle.
09:47On peut faire des choses formidables,
09:49on peut faire la même chose, détestable.
09:50Les drones qui vont décider de leur cible
09:51et qui vont aller attaquer partout.
09:54Dans la classe politique,
09:55vous sentez un début d'inquiétude.
09:56Vous pensez qu'il y a des parlementaires
09:57ou des responsables politiques
09:58qui commencent, comme vous,
09:59à vous inquiéter en disant
10:00« Faudrait peut-être qu'on pose des jalons. »
10:01Moi, ça fait depuis 4-5 ans
10:03que je suis dans cet état-là.
10:04Je sais, je sais.
10:05Or, je ne vois pas beaucoup la dynamique portée.
10:07Je la vois, par exemple, dire
10:09« On va interdire les réseaux sociaux
10:10au moins de 15 ans. »
10:11Bon, d'accord.
10:12Et quoi d'autre ?
10:13Donc, j'ai l'impression
10:14qu'on a toujours un train de retard
10:15sur la vision qu'il faudrait construire
10:17de cette IA qui déferle sur nous.
10:20On a besoin d'être en pluridisciplinarité
10:22et d'être dans l'action,
10:24pas seulement dans la réflexion
10:25et dans l'écriture de livrable
10:27autour de l'éthique de l'IA,
10:28ce que j'ai fait pendant 4 ans.
10:29Vous voyez ?
10:30Donc, il faut une action
10:30qui soit proche des industriels
10:32parce que le milieu industriel
10:33a besoin de la recherche,
10:34a besoin aussi de comprendre les politiques
10:37et d'actionner la politique.
10:38Qu'est-ce qu'ils font en Chine
10:39de mieux que nous ?
10:40Eh bien, ça, par exemple.
10:41Alors, on peut dire
10:41que c'est géré par le haut totalitariste.
10:43D'accord.
10:44Mais, en attendant,
10:45il y a des vraies ambitions industrielles
10:48qui sont des visions communes
10:50avec une force de frappe.
10:52Nous, nous n'avons pas ça.
10:53Nous devons le faire.
10:54Et sur l'éducation, c'est la même chose.
10:56Nous devons organiser mieux
10:58les ressources que nous avons
10:59et nous en avons.
11:00Donc, je suis plutôt positive sur l'avenir
11:02si on arrive à créer
11:05une vraie dynamique
11:06en Europe et en France.
11:08Donc, un sujet à mettre sur le programme
11:10des candidats à la présidence de la République.
11:12Il faudra à un moment donné
11:12qu'ils s'en inquiètent.
11:14Merci, Laurence De Villers,
11:15d'avoir été sur Sud Radio aujourd'hui,
11:17auteure de l'IA Anjou-Démon,
11:19le nouveau monde de l'invisible
11:20à lire absolument.
11:21Et ce soir, MK2, Odéon, Hautefeuille,
11:2419h, pour détruire la super-intelligence de l'IA.
11:27Merci, Laurence de Villers,
Commentaires