00:00Une IA peut-elle décider de tuer sans l'accord d'un humain ?
00:02C'est une question stratégique, politique.
00:05J'ai presque envie de vous dire que c'est la question originelle de la robotique.
00:10La réponse qui a été apportée jusque-là systématiquement par les humains est non.
00:14Par contre, on le voit bien sur le champ de bataille,
00:16que ce soit la guerre en Iran aujourd'hui ou d'une autre manière la guerre en Ukraine,
00:22des IA autonomes sont utilisées à très large échelle
00:26avec des temps de décision humaine qui sont de plus en plus courts.
00:28Aujourd'hui, on pourrait lancer, c'est déjà en partie le cas en Ukraine,
00:33lancer des IA sans connexion Internet, totalement autonomes,
00:36qui ont verrouillé une cible et qui vont être en système stationnaire en attendant de trouver leur cible.
00:41Alors ça marche plus ou moins bien, etc.
00:43Cette perspective ouvre déjà une transformation du champ de bataille
00:46et ce n'est pas sûr que ce soit plus favorable à l'homme.
00:48Il y a un moment donné, il va aussi se poser la question de la réglementation
00:51et on espère de ce point de vue-là que les guerres en cours vont ouvrir des réflexions à terme
00:54de régulation aussi bien des IA que de la robotique,
00:57que tout simplement un nouveau droit de la guerre qui inclut ces nouvelles technologies.
Commentaires