Passer au playerPasser au contenu principal
  • il y a 2 jours

Avec Éric Hazan, entrepreneur, enseignant à HEC et à Sciences Po, co-auteur de “Faut-il encore décider ? La décision humaine à l'ère de l'IA” (Flammarion) et Murielle Popa-Fabre, conseillère senior tech et politiques publiques à l’Institut IA & Société (ENS–PSL), experte en intelligence artificielle. À retrouver sur https://www.radiofrance.fr/franceinter/podcasts/le-debat/le-debat-de-la-grand-matinale-du-mardi-31-mars-2026-1544475

Catégorie

🗞
News
Transcription
00:00C'est le débat du jour.
00:01Nous avons beaucoup de systèmes autonomes, des drones et d'autres outils avec de l'intelligence artificielle dont je ne
00:08peux pas vraiment vous parler.
00:12Voilà le secrétaire d'état américain à la défense, journée thématique sur France Inter, drones, la guerre transformée.
00:19L'intelligence artificielle occupe une place croissante sur le champ de bataille, ce qui pose des questions éthiques vertigineuses.
00:27Mais que se passe-t-il quand on délègue la décision militaire à des machines ?
00:31Les humains sont-ils encore maîtres de la guerre ?
00:34Faut-il résister ou bien s'adapter à cette nouvelle forme de conflit militaire augmentée par l'IA ?
00:45Et j'ai le plaisir d'en débattre ce matin avec Eric Hazan.
00:48Bonjour.
00:48Bonjour.
00:49Vous êtes entrepreneur, vous êtes enseignant à HEC et à Sciences Po.
00:52Vous êtes co-auteur de ce livre paru aux éditions Flammarion.
00:56Faut-il encore décider ?
00:58Point d'interrogation.
00:59La décision humaine à l'ère de l'intelligence artificielle.
01:01Je rappelle que cet ouvrage avait fait pas mal parler de lui.
01:05A ma gauche, Muriel Popafare.
01:08Bonjour.
01:08Bonjour.
01:08Vous êtes conseillère technique et politique...
01:12Tech et politique publique.
01:14Pardon.
01:15J'ai écorché votre titre.
01:17À l'Institut IA et Société.
01:19C'est à l'École Normale Supérieure.
01:21Et vous êtes experte en intelligence artificielle.
01:25Pour commencer, un petit peu de pédagogie avec l'un et l'autre.
01:29Essayons de comprendre où et comment l'intelligence artificielle est utilisée aujourd'hui sur le champ de bataille.
01:35Eric Hazan, à propos de l'Ukraine, de l'Iran, de la guerre entre l'Israël et la Palestine,
01:39vous parlez de guerre algorithmique.
01:41Qu'est-ce que ça signifie ?
01:42En fait, si on se réfère un petit peu à Clausewitz, la guerre c'est un brouillard.
01:47Donc les informations sont manipulées, rien n'est fiable et forcément les ennemis ne vous donnent pas forcément les informations
01:53les plus claires.
01:54Et donc on est dans ce monde-là.
01:55Et tout d'un coup, ce qui se passe avec...
01:56Clausewitz, c'était bien avant l'intelligence artificielle, les drones et...
02:00Exactement.
02:01Et quand on se pose aujourd'hui et qu'on regarde un petit peu ce qui se passe sur le
02:04champ de bataille,
02:05en fait, l'intelligence artificielle permet de mieux naviguer, permet de mieux cibler.
02:10Et tout ça, ça se passe finalement en quelques secondes.
02:12Donc on met en face des soldats, des cibles, toutes les 30 secondes, les 20 secondes.
02:18Et le soldat finalement, avec des drones semi-autonomes, qui ne sont pas encore tous autonomes.
02:23On va en discuter.
02:25Avec ces drones semi-autonomes, il a juste à appuyer sur un petit bouton.
02:28Donc la question dans cette guerre algorithmique, finalement, c'est quel est le degré d'autonomie quand ça va si
02:33vite ?
02:33Ça vous va, Muriel Popafabre, le terme de guerre algorithmique ?
02:37Ce sont des algorithmes qui prennent le pouvoir ?
02:39Ce sont des algorithmes qui sont désormais au centre de la guerre ?
02:43Ce sont en tout cas des algorithmes qui servent à brasser des flux de données dynamiques, continues.
02:49Colossaux.
02:49De l'imagerie satellite, des flux de données qui proviennent de drones,
02:55des banques de cibles militaires, du traçage de téléphones portables,
02:59toute analyse de signaux de vie, tout ça est conflu dans une structure algorithmique
03:05qui permet d'identifier des cibles potentielles.
03:08D'accord.
03:09Donc en fait, ce que je note chez l'un et chez l'autre, c'est que la première question,
03:12c'est la question du ciblage.
03:14C'est-à-dire que grâce à l'intelligence artificielle, on cible beaucoup plus, beaucoup mieux,
03:19beaucoup plus vite et beaucoup plus précisément, c'est ça ?
03:21Et à travers des données, par exemple, on a vu avec le ciblage qui a porté la mort de Kamenei,
03:27et on a vu aussi l'utilisation de données civiles.
03:29Les flux des caméras de circulation, donc à utilisation civile de Téhéran,
03:35ont été utilisés pour faire du repérage.
03:38Et ça, c'est nouveau ?
03:39C'est une potentialité qui est nouvelle parce qu'on ne pouvait pas faire converger tout ça
03:44pour trouver des bons motifs.
03:47C'est-à-dire que c'est une quantité gigantesque de données, des données militaires en continu.
03:52Voilà. Et des données civiles, donc vous dites les caméras de vidéosurveillance dans la rue,
03:58les données des téléphones portables, les données des réseaux sociaux,
04:01tout ça converge pour affiner le ciblage militaire.
04:06Alors, quand on est face, Eric Hazan, à une telle quantité de cibles,
04:12déterminées aussi vite et aussi précisément,
04:14comment le cerveau humain peut s'adapter et peut continuer de prendre des décisions ?
04:19D'abord, qu'est-ce que vous appelez des drones semi-autonomes, Eric Hazan ?
04:22Les drones semi-autonomes, ce sont finalement des drones qui font la navigation et le ciblage,
04:27dont on parlait tout à l'heure, mais qui ne décident pas de tirer au dernier moment.
04:31C'est l'humain qui tire.
04:33Alors, quand on est à cette vitesse...
04:35Donc, le soldat est derrière ?
04:36Le soldat est derrière, il appuie sur le bouton.
04:38D'accord.
04:38Donc, la question, c'est justement, mettons-nous à la place de ce jeune soldat,
04:42puisque un soldat, c'est souvent jeune.
04:44Ce soldat a appuyé sur le bouton.
04:47Il a parfois un biais d'automatisation.
04:48C'est-à-dire ?
04:49C'est-à-dire que, en fait, comme c'est la machine qui analyse toutes les données dont parlait Muriel,
04:53il se dit que la machine a raison.
04:56Et donc, il appuie.
04:58Et on n'a pas le temps de réfléchir.
04:59On n'a pas le temps de réfléchir.
05:00On n'a pas le temps de réfléchir.
05:01C'est d'abord une question de temps et de quantité d'informations à intégrer pour le cerveau humain.
05:06C'est une accélération de la décision.
05:08Et là, ça pose la question du déplacement de la décision.
05:11Ce n'est pas à ce moment-là que la décision se produit.
05:13En réalité, c'est au moment de la définition des objectifs et des règles de la machine.
05:17Et c'est à ce moment-là qu'on doit se poser les questions éthiques dont vous parliez tout à
05:21l'heure.
05:22Muriel Popafabre, vous allez dans le même sens qu'Éric Hazan.
05:25Je pense en effet qu'il y a une vraie question de fond qu'on appelle une question de gouvernance,
05:30en terminologie technique, qui est de se dire comment je vais créer la situation
05:35pour que l'humain puisse continuer à prendre lui la décision et avoir la bonne supervision.
05:41Mais concrètement, comment c'est possible face à une telle avalanche d'informations
05:44et à une telle accélération dont parle Éric Hazan ?
05:48Eh bien, il y a beaucoup de travail qui est fait.
05:50On commence à en discuter maintenant dans la sphère publique et c'est très positif
05:54de comprendre quel est le bon moment dans le processus
05:57qui va vous permettre de pouvoir prendre une décision éclairée.
06:01Donc, si on prend un exemple simple d'un processus comme un gâteau,
06:04farine, oeuf, sucre de base...
06:06On est très loin du registre militaire, mais avec le gâteau.
06:10On va y arriver.
06:11Donc, si je dois répondre à la question, est-ce qu'il y a assez d'oeufs ?
06:16D'accord, ou assez de farine ou assez de beurre ?
06:17Je vais me mettre soit au moment du produit fini,
06:20et là je vais être dans la situation où je vais pouvoir juste me fier au goût.
06:23Si j'ai été là au moment de la présélection des ingrédients,
06:26je vais savoir la taille des oeufs.
06:28Si j'ai été là au moment de la cuisson, je vais savoir la question du volume,
06:31est-ce qu'il monte bien ?
06:32Si j'ai été là au milieu du mélange, je vais avoir la couleur.
06:35Mais si je suis juste là au moment du goût,
06:38c'est-à-dire à la phase finale, dans le produit fini,
06:41quand la cible est déjà packagée,
06:42je suis dans la situation où s'il y a de la vanille,
06:45je ne vais pas sentir le goût des oeufs.
06:46Et donc, je ne vais pas pouvoir prendre ma décision.
06:48C'est ça.
06:49Donc, il y a vraiment une question de prédéfinition des oeufs sensibles.
06:52En réalité, imaginez que le soldat prendra sa décision au milieu de l'action,
06:58sur le terrain, avec des esseins de drone qui tirent de partout.
07:03J'imagine.
07:05En réalité, c'est trop tard.
07:07Ce n'est pas là que ça doit se faire.
07:09Que ce soit fait exactement.
07:10En tout cas, ce n'est pas là qu'il peut aménager l'espace.
07:13Il a de la marge de manœuvre.
07:14Voilà.
07:14Ce n'est pas là qu'il a de la marge de manœuvre.
07:16Et surtout, il n'y a pas un partage collectif de la responsabilité.
07:20Si c'est vraiment au moment du champ de bataille.
07:22Mais dans les cibles qu'on a vues dans la guerre dernièrement,
07:27c'est des cibles qui sont analysées,
07:31qui arrivent une fois par jour.
07:32Et c'est des centaines de cibles.
07:34Des centaines de cibles.
07:36Des centaines de cibles.
07:36Plusieurs centaines de cibles.
07:37C'est ça la différence avec l'intelligence artificielle.
07:39C'est ça.
07:40Alors, est-ce qu'on est en train de perdre le contrôle sur la guerre ?
07:42C'est vraiment la question que je posais, Éric Azan.
07:44C'est une bonne question.
07:45C'est une question un peu prématurée.
07:48On est loin d'être arrivé encore à des drones autonomes,
07:51à des armes autonomes.
07:53Est-ce que l'humain est en train de perdre le contrôle sur la guerre ?
07:57On peut se poser la question sur pas mal de sujets,
07:59pas seulement la guerre, mais parlons de la guerre.
08:00Oui, mais là, c'est aujourd'hui.
08:01C'est la thématique que vous propose France Inter aujourd'hui.
08:05D'ailleurs, je vous invite à rejoindre Jérôme Cadet entre 13h et 14h.
08:09Fabienne Synthèse entre 18h et 20h.
08:14parce qu'on va poursuivre cette réflexion.
08:16Et donc, il y a plusieurs choses.
08:19Aujourd'hui, ça va très vite.
08:20Donc, ça va très vite parce qu'on est dans des conflits.
08:23Donc, on utilise des armes.
08:24Ces armes, on n'a pas forcément eu le recul.
08:26Je vous engage à essayer de rechercher s'il y a eu une réflexion éthique au Congrès américain
08:30sur l'utilisation des armes et des drones semi-autonomes.
08:33Il n'y en a pas beaucoup.
08:35Il y a eu quelques petites choses écrites au moment de Biden, mais il n'y a pas grand-chose.
08:38Donc, la question aujourd'hui, c'est qu'on est allé très vite dans la guerre.
08:42Donc, on n'a pas eu la réflexion sur la doctrine militaire qui dit finalement
08:46quels sont les objectifs, quelles sont les règles dans l'utilisation de ces armes-là.
08:50Donc, on est sur l'accélération de la prise de décision quand on est sur le terrain.
08:54Mais l'accélération de la prise de décision militaire, aujourd'hui, c'est dans l'utilisation des armes.
08:57Donc, la question aujourd'hui, c'est de déplacer cette discussion et de faire un pas de côté
09:02et de se dire à quel moment on implique le citoyen.
09:04On est dans des univers démocratiques.
09:05À quel moment la dimension démocratique de l'utilisation de ces armes,
09:09la gouvernance démocratique de la doctrine militaire rentre dans le jeu ?
09:12Mais ce que je ne comprends pas, et je vous pose la question à l'un et à l'autre,
09:15c'est pourquoi est-ce qu'il faudrait s'inquiéter et qu'est-ce qu'on risque ?
09:18Parce que si l'intelligence artificielle cible mieux, plus vite, avec plus de précision et plus de clairvoyance
09:25qu'aucun cerveau humain ne le fera jamais,
09:28pourquoi est-ce que ce n'est pas une excellente chose de lui déléguer, en réalité, la décision de tirer
09:32?
09:33Théoriquement, aujourd'hui, quand on dit qu'on va cibler, il y a moins de victimes civiles,
09:37c'est plutôt mieux que quand je balance un missile, entre guillemets, dans l'air.
09:41Et que j'arrose une zone, on n'a pas, comme ça a été fait au Vietnam.
09:44La question, c'est pas forcément...
09:46Donc, théoriquement, c'est plutôt mieux.
09:48La réalité, c'est que d'abord, intrinsèquement dans l'IA,
09:51qui devient l'infrastructure de la décision militaire, intrinsèquement dans l'IA,
09:55il y a une forme de... une volonté de faire plaisir à son interlocuteur.
09:59Donc, ça pose plein de problèmes dans la façon dont l'IA elle-même réagit dans un certain nombre d
10:05'analyses.
10:06Donc, par exemple, je veux toucher une certaine cible,
10:09on va peut-être, à un moment, quand on entraîne les modèles,
10:12on va se retrouver avec des IA qui vous disent
10:15mais, en fait, c'est plutôt dans cette direction qu'il faut aller chercher
10:19en reproduisant les biais de la personne qui fine-tune le modèle.
10:23Donc, ça signifie que l'IA peut nous entraîner à commettre des erreurs, c'est ça ?
10:28De toute façon, elle nous fait commettre des erreurs, mais moins que d'autres mécaniques.
10:32Moins que d'autres. Alors, Muriel, il ne peut pas faire...
10:33Il faut avoir le courage de prendre la responsabilité de quelque chose qu'on ne comprend pas.
10:39Il y a vraiment une question en plus qui s'ajoute à la question éthique,
10:42qui est d'ordre technique, c'est-à-dire, déjà, la fiabilité de l'instrument,
10:46quel est le taux d'erreur, mais au-delà de ça,
10:48les systèmes algorithmiques sont des systèmes qui ont des biais.
10:51Et ces biais, on les découvre juste en les testant.
10:54Et ça dépend du cas d'usage.
10:56On l'a vu, il y a plusieurs ingénieurs, à la fois d'Open&A et de Google,
11:00qui ont signé une lettre ouverte, on a un millier, millier, 1200 signatures,
11:04pour ne pas utiliser l'IA actuelle dans des systèmes autonomes.
11:09Donc, ça veut dire que la communauté, qui sait comment sont développées,
11:13sans méfie, et ne veut pas ce cas d'usage.
11:16Et c'est très important de comprendre que la question du biais, elle émerge en contexte.
11:21Si je suis un drone autonome, qui a compris, qui a appris à détecter
11:28que quand les personnes sont stables, fixes, devant le drone,
11:33elles sont prêtes à tirer, parce qu'elles voient le drone et elles s'arrêtent.
11:38Et là, du coup, le drone déclenche automatiquement un tir.
11:42Mais si je suis dans un contexte civil,
11:44les personnes qui sont le plus à même de s'arrêter devant le drone
11:48sont probablement des enfants.
11:49Des enfants, c'est ça.
11:51Et donc, on se retrouve dans un biais qui est de nature contextuelle.
11:54Et donc, la question de la gouvernance, c'est-à-dire comment on peut collectivement
11:57trouver le bon moment pour que l'humain puisse rester au centre de la prise de décision,
12:02est une chose.
12:03Et la question technique, maintenant, se rajoute à la question éthique.
12:06Et puis, il y a la question aussi de, comment dire, de se déresponsabiliser totalement
12:10de l'acte de tuer.
12:14Évidemment, là, je soulève des questions de droit, de droit de la guerre, de droit international.
12:19La guerre est soumise à un droit.
12:21La responsabilité de la guerre, la responsabilité du crime de guerre,
12:24Éric Azan, c'est quand même ce qui effleure derrière ces questions qu'on pose ce matin ?
12:28Si c'est la machine qui tue ?
12:30Oui, c'est la bonne discussion parce que, finalement, la machine a des qualités et des défauts.
12:34Elle reproduit beaucoup des biais que nous avons nous-mêmes.
12:36Et donc, quand on fait la guerre sans l'IA, on a aussi pas mal de biais.
12:39Bah oui, ça, c'est sûr.
12:40Voilà.
12:41Donc, on se déplace vers une machine qui fait plutôt moins d'erreurs.
12:44Mais, néanmoins, elle en fait.
12:46Et la question, c'est effectivement la responsabilité.
12:48Donc, qui est responsable ?
12:50Au tribunal de la haie, le jour où il faudra rendre des comptes sur des crimes de guerre.
12:55Est-ce que c'est l'ingénieur qui a fine-tuné le modèle ?
12:57Est-ce que c'est le fabricant du drone ?
13:00Est-ce que c'est le soldat qui était ?
13:01Ou est-ce que c'est son commandant ?
13:02Pour l'instant, toute cette discussion...
13:04C'est une question hyper intéressante.
13:05C'est une question hyper intéressante.
13:06C'est abyssal, oui.
13:07Pour l'instant, c'est pas vraiment clair.
13:09Et c'est pour ça qu'il faut faire rentrer le citoyen dans la discussion.
13:12Parce que c'est presque une question aussi vertigineuse que celle de la doctrine sur l'arme nucléaire il y
13:17a quelques années.
13:18Absolument. C'est-à-dire que ça englobe des questions de droit, de justice et donc derrière de démocratie.
13:23Voilà. Dans un moment où le multilatéralisme est à l'arrêt.
13:28Oui. Et alors, depuis le début de ce débat, vous parlez de « fightening ». Qu'est-ce que ça
13:32veut dire ?
13:33C'est quand on finalise la programmation du modèle à la fin.
13:37C'est-à-dire qu'on l'entraîne et puis à la fin, on finalise pour que ça fonctionne.
13:40Et bien sûr, à ce moment-là, on met un peu plus d'humains dans le système.
13:43Un peu plus d'humains.
13:43Donc un peu plus de biais, peut-être.
13:44Peut-être.
13:45Peut-être. Mais c'est vrai que la question de « à la fin, qui sera traduit au tribunal pour
13:48un crime de guerre ? » est totalement vertigineuse.
13:51Un mot de conclusion peut-être avec vous, Muriel Popafard ?
13:54Peut-être pour conclure sur une note positive.
13:58C'est exceptionnel ce qui s'est passé aux Etats-Unis avec le débat entre Anthropique et le département de
14:04la guerre.
14:04Parce qu'on s'est rendu compte...
14:05Il faut que vous rappeliez ce que c'est qu'Anthropique et ce qui s'est passé à ce moment
14:08-là.
14:09Anthropique, c'est un développeur de modèles comme Tchad-GPT, qui ont été les premiers modèles qui ont pu travailler
14:15sur des données classifiées.
14:16Donc qui ont tout de suite été utilisées pour la guerre.
14:19Et qui s'est retrouvée avec le département de guerre qui voulait avoir des clauses contractuelles.
14:24Et Anthropique a refusé.
14:25De tout utiliser pour la guerre.
14:27Et Anthropique a refusé.
14:29Un des juges a déjà validé le refus d'Anthropique.
14:33Et tout le monde s'est mis à parler de ça.
14:35Tout le monde et personne ne voulait prendre la responsabilité.
14:38Donc on se retrouve devant une responsabilité que plus personne ne veut prendre.
14:41Et quelque part, il y a quelque chose de très positif là-dessus.
14:44De très vertueux.
14:45Et de très vertueux.
14:45Ça a créé des débats partout.
14:46Ça a créé des débats partout.
14:48Les médias s'en sont mêlés.
14:48Et ça commence à devenir le centre de nos discussions.
14:51Éric Azan, Muriel Popafabre, je vous remercie.
14:54Parce que vous avez fait preuve de beaucoup de pédagogie dans ces questions extrêmement complexes.
14:59C'est important pour moi et pour les auditeurs de France Inter.
15:01Merci à tous les deux.

Recommandations