00:00On prend un peu de hauteur avec vous, Maëva Lamy, dans cette édition spéciale.
00:03On parle de cet outil qui s'impose dans cette guerre, c'est vrai, énormément, c'est l'intelligence artificielle.
00:10Oui, tout à fait, Léopold. Déjà, via l'utilisation de drones et d'armes semi-autonomes qui ont été utilisées
00:16également en Ukraine.
00:17Alors, on parle vraiment d'armes semi-autonomes. Il y a encore toujours une intervention humaine.
00:22Mais on peut parler de drones intelligents, capables d'adapter leur trajectoire et d'attaquer l'ennemi.
00:28Et puis, un autre volet qui est extrêmement utilisé concernant cette intelligence artificielle dans la guerre en Iran, c'est
00:35l'analyse de renseignements.
00:37L'armée américaine utilise notamment une IA qui s'appelle Claude, c'est son nom, et qui permet d'analyser
00:44d'énormes quantités de données.
00:46Des images satellites, des images de vidéosurveillance, de radars, du son ou encore des images de drones, donc énormément de
00:53données.
00:53Mais cette intelligence, cet outil, Claude, il identifie les cibles.
00:57Il peut également les hiérarchiser et proposer des scénarios de frappe aux armées.
01:03C'est un travail, il faut bien comprendre, qui était jusque-là effectué par des centaines, des milliers d'analystes
01:08humains qui prenaient du temps,
01:10qui coûtaient de l'argent et qui permet donc aujourd'hui d'accélérer considérablement la conduite des opérations.
01:16C'est grâce à ces outils, un petit mot, qu'Israël a pu neutraliser Ali Khamenei, mais aussi mener des
01:21milliers de frappes en seulement quelques jours.
01:23Alors on l'a compris, Maëva, c'est révolutionnaire, mais ça suscite quand même de vifs débats.
01:28Oui, déjà pour ce qui est de la question de la responsabilité humaine, s'il y a une erreur, à
01:32qui ? Qui est responsable ?
01:33Et puis aussi parce que ces outils permettent de prendre des décisions rapides, et donc avec parfois des décisions en
01:39seulement quelques secondes,
01:41et donc éventuellement des erreurs. Ça a même causé un litige entre Anthropique, la société qui a développé Claude, et
01:47Donald Trump,
01:48puisqu'Anthropique a en fait interdit l'utilisation de ces outils dans certains cas, la surveillance de masse, les systèmes
01:53d'armes totalement autonomes.
01:55Résultat, Donald Trump a décidé de ne plus recourir à cet outil Claude et de se tourner plutôt vers Tchad
02:00GPT à l'avenir.
Commentaires