00:00Anthropik pourrait se retrouver sur une liste noire du Pentagone.
00:03On vous explique.
00:10A l'été 2025, l'armée américaine passe un contrat de 200 millions de dollars
00:15avec un des géants de l'industrie de l'IA aux Etats-Unis, Anthropik,
00:18pour utiliser Claude, son chatbot.
00:20Claude est le seul grand modèle à être utilisé dans les systèmes classifiés de l'armée.
00:24Il aurait par exemple servi aux forces spéciales lors de l'opération
00:28qui a conduit à la capture du président vénézuélien Nicolas Maduro.
00:32Problème, Anthropik, qui a été fondé par des anciens d'OpenAI en 2021,
00:36a toujours revendiqué une approche éthique de l'IA.
00:39Elle refuse que Claude soit utilisé pour de la surveillance de masse
00:42et la fabrication d'armes trop autonomes.
00:44Ce qui a amené le secrétaire de la défense américaine, Pitex-7,
00:47à poser un ultimatum le 24 février de 2026.
00:50Anthropik doit lever toutes les restrictions à l'utilisation de son IA.
00:53La société californienne a jusqu'à vendredi soir pour se conformer aux souhaits du Pentagone.
00:58Le ministre pourrait utiliser une loi de 1950 pour forcer une entreprise privée
01:02à produire des biens pour la défense nationale.
01:04Si elle refuse, elle serait inscrite sur la liste d'entreprises
01:06qui présentent un risque pour la chaîne d'approvisionnement.
01:09Ça ferait sauter son contrat avec l'armée américaine
01:11et avec d'autres entreprises qui travaillent avec elle.
01:13Pour l'instant, seules des entreprises étrangères y figurent,
01:16comme l'équipementier chinois Huawei.
01:17Sous-titrage Société Radio-Canada
01:18Sous-titrage Société Radio-Canada
Commentaires