00:00Anthony, un texte fait beaucoup parler dans le monde de la tech, c'est un essai signé Dario Amodei, le patron d'Entropique.
00:06Il évoque le futur de l'intelligence artificielle et ça vous a fait froid dans le dos.
00:09Ah mais accrochez-vous parce que ça fait vraiment peur. Je vous invite à aller le lire, il est en accès libre ce texte qui s'appelle
00:14« L'adolescence de la technologie » dans lequel Dario Amodei, c'est pas n'importe qui, patron d'Entropique,
00:20c'est vraiment quelqu'un qui a priori sait de quoi il parle et en plus qui a plutôt intérêt à nous vanter les mérites de l'intelligence artificielle.
00:25Eh bien dans cet essai de 70 pages, il veut nous réveiller, il veut nous mettre en garde face aux menaces existentielles qui pèsent sur l'humanité.
00:35Sa thèse, je le cite, « L'humanité, dit-il, est sur le point de se voir confier un pouvoir presque inimaginable
00:40et il est profondément incertain que nos systèmes sociopolitiques et technologiques possèdent la maturité nécessaire pour l'exercer. »
00:48Ce qu'il explique, Dario Amodei, c'est que dans quelques années, un ou deux ans au minimum, peut-être un peu plus,
00:52on va voir arriver une nouvelle génération d'IA, ce qu'il appelle la Powerful AI, l'IA puissante ou l'IA toute puissante.
00:58En gros, une IA qui serait plus intelligente que n'importe quel prix Nobel, dans n'importe quelle matière,
01:03qui serait capable de résoudre des problèmes mathématiques irrésolus par l'humain,
01:06qui pourrait contrôler de manière autronome un ordinateur, un robot, l'équipement d'un laboratoire.
01:11Et ça, on peut le multiplier à l'infini.
01:12Il dit qu'il faut imaginer l'IA de demain comme un pays de 50 millions de personnes
01:16qui seraient plus brillantes les unes que les autres et qui travailleraient toutes dans la même direction.
01:21Le problème, c'est dans quelle direction ?
01:23L'IA, dit-il, elle est difficile à contrôler, elle est imprévisible.
01:27Et donc, qu'est-ce qui va se passer ?
01:29Est-ce qu'à un moment, elle va se montrer hostile ?
01:31Est-ce qu'à un moment, elle pourrait, demande Dario Amodei,
01:33décider de dominer le monde militairement à travers des systèmes d'armement supérieur
01:37mis au point par l'intelligence artificielle ?
01:40Donc là, on arrive sur des trucs qui commencent à faire un petit peu froid dans le dos, effectivement.
01:44Est-ce qu'elle va, parce que c'est plus simple pour arriver à ses objectifs
01:47ou à des objectifs qu'on lui a fixés, eh bien, maximiser sa volonté de puissance, si l'on peut dire ?
01:53On a eu des exemples où l'IA, dans des situations expérimentales, on lui donne un objectif
01:58et puis à un moment, on lui dit « je vais t'éteindre ».
02:01Et pour éviter qu'on l'éteigne et pour atteindre ses objectifs,
02:04eh bien, elle va se mettre à mettre en place des stratégies de chantage,
02:07de manipulation de l'être humain, voire de mise en danger de l'être humain.
02:10Enfin, ça, c'est une réalité aujourd'hui.
02:12Il explique aussi, je trouvais ça complètement fou dans son essai,
02:15que les modèles d'IA sont entraînés sur toute la littérature possible et imaginable,
02:19y compris des bouquins de science-fiction où l'intelligence artificielle se rebelle contre l'être humain.
02:24Et que ça, ça pourrait avoir une influence sur le comportement de l'intelligence artificielle.
02:28Donc voilà, ce qu'il explique, c'est qu'on est face au plus gros risque existentiel de l'histoire de l'humanité.
02:34Il y a un autre film avec Scarlett Johansson qui n'est pas « Her », qui est un autre,
02:37où elle se bat comme ça contre une IA dans un…
02:39Ah, je ne l'ai pas vu celui-là.
02:40C'est pas très bien, mais l'idée est la même.
02:43On dirait un scénario de science-fiction quand même.
02:44Exactement, on est en plein dedans.
02:45Une fois qu'on a dit ça, qu'est-ce qu'on fait ?
02:46On débranche la LGBT tout de suite ?
02:48On se roule en boule dans un coin et on ne bouge plus.
02:50Non, il explique, alors, c'est la bonne nouvelle.
02:52Il explique, Dario Amodei, qu'il n'est pas alarmiste.
02:54Heureusement, parce que sinon, je ne sais pas ce que ce serait.
02:56Mais il explique surtout qu'on a de bonnes chances d'arriver à un monde où l'IA sera bénéfique pour tout le monde
03:01si on prend en compte ce qu'il dit en ce moment et qu'on agit.
03:05Et il met en place un concept que je trouve très intéressant, qui est celui d'IA constitutionnel.
03:11En gros, ce qu'il explique, c'est que dans l'entraînement des IA,
03:14il faut mettre un document central, une sorte de constitution,
03:17de valeurs, de principes que l'IA va toujours devoir garder en tête
03:20à chaque fois qu'on lui pose une question, qu'on lui fait un prompt,
03:23ou qu'elle agit, qu'elle opère, qu'elle réalise une opération.
03:26Et en fait, ça doit être au-dessus de tout le reste.
03:29Donc, ça va être les valeurs humaines, ne pas faire de mal à l'être humain.
03:31C'est un peu les principes d'Azimov, vous savez, les principes de la robotique.
03:34C'est exactement la même chose, sauf que là, c'est dans la réalité.
03:36On revient à une notion essentielle dans le monde de l'IA,
03:39qui est celle d'alignement, le fait de concevoir des IA qui soient conformes à nos valeurs.
03:45Je vous rappelle cet exemple qu'on connaît bien maintenant.
03:48C'est en gros une IA qui n'est pas alignée, à laquelle on va demander
03:51« Donne-moi des solutions pour réduire la pollution ».
03:53La solution la plus simple, c'est d'exterminer la race humaine, tout simplement.
03:56Sauf que si on l'aligne et si on la rend constitutionnelle,
03:59évidemment, elle va prendre en compte la valeur de la vie humaine,
04:01et elle ne fera pas ça.
04:02Donc ça, c'est vraiment l'élément le plus important.
04:03Merci beaucoup, Anthony Morel.
Commentaires