Passer au playerPasser au contenu principal
  • il y a 2 jours
Aymeric Roucher, auteur de l'ouvrage "Ultra-intelligence, Jusqu'où iront les IA ?", était l'invité de Frédéric Simottel dans Tech & Co, la quotidienne, ce mercredi 22 octobre. Il s'est penché sur le livre qu'il a écrit sur l'intelligence artificielle, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.

Catégorie

📺
TV
Transcription
00:00Tech & Co, la quotidienne, l'invité.
00:05Notre invité s'appelle Emeric Rouchet, bonsoir.
00:07Bonsoir Frédéric.
00:08Merci d'être avec nous, alors on vous reçoit parce que c'est sorti un livre aux éditions Odile Jacob
00:12qui s'appelle Ultra Intelligence, jusqu'où iront les IA ?
00:17Alors il y a une partie qui est à la fois l'histoire de l'IA, vous nous faites quelques rappels,
00:21bienvenue parce que c'est vrai que tout d'un coup on se rend compte que,
00:24enfin pour certains peuvent se rendre compte que l'IA ça fait quand même un moment qu'on en parle,
00:28elle n'est pas née en 2022, il y a eu une ère un peu glaciaire c'est vrai,
00:32mais en tout cas c'était important d'avoir ça et puis on se projette aussi dans le futur,
00:37donc transformation du monde du travail, on va parler de souveraineté aussi dans cet ouvrage.
00:42Alors vous n'êtes pas un écrivain à proprement parler, vous êtes polytechnicien,
00:47vous êtes ingénieur en informatique, spécialiste en machine learning,
00:50ancien responsable des agents IA chez Ginkface et vous avez lancé votre start-up qu'il y a pour nom ?
00:56C'est encore en gestation.
00:57En tout cas vous lancez votre start-up.
00:59Première question avant de parler de cet ouvrage,
01:01comment vous percevez un peu ce tourbillon dont on parle ici tous les soirs,
01:05ces milliards de dollars dépensés partout,
01:07cette innovation chaque soir, je disais tout à l'heure au début de l'émission,
01:11on ne peut quand même pas parler d'Open&I tous les soirs,
01:13ben si on en parle tous les soirs, là il y a encore un navigateur qui sort,
01:17voilà comment vous percevez ça aujourd'hui ?
01:19Alors je suis d'accord avec vous, je pense que ça va extrêmement vite,
01:22et en fait c'est pour ça que j'ai voulu en parler,
01:24c'est qu'après avoir vu ça de mon côté d'ingénieur, j'ai vu la technique,
01:28et c'est pour ça que je m'appuie sur la technique comme vous le dites dans la première partie du livre,
01:31je pense qu'il faut poser ces bases-là,
01:33et en fait quand on s'appuie sur la technique,
01:34on voit la suite du livre, c'est-à-dire cette espèce de décollage fulgurant des capacités des IA
01:39vers ce que j'appelle une ultra-intelligence,
01:42un peu le concept clé.
01:43Ce n'est pas l'intelligence générale,
01:45le concept est un peu différent,
01:47l'intelligence générale qui sera un jour l'intelligence qui sera aussi puissante que celle de l'humain,
01:53votre définition elle est différente de cette ultra-intelligence.
01:56Oui exactement, en fait je pense qu'on a un biais humain,
01:59et en fait même chez les ingénieurs on l'a souvent,
02:01de se dire, on va essayer de,
02:03si on veut appeler cela une intelligence,
02:05ces intelligences artificielles,
02:06si on veut les appeler des intelligences,
02:08on va vouloir qu'elles aient toutes les mêmes caractéristiques,
02:09qu'elles cochent toutes les cases que coche l'intelligence humaine,
02:11et donc qu'elles soient au moins aussi bonnes que nous sur tous les domaines.
02:15Donc par exemple cette notion de AGI,
02:16donc l'intelligence artificielle générale,
02:19c'est un peu ça,
02:19c'est l'idée de cocher au moins toutes les cases de l'intelligence humaine.
02:22Mais moi je pense que ce qui est plus pertinent,
02:23c'est de voir là où les IA sont largement meilleurs que nous.
02:26Un exemple qui m'a frappé,
02:28c'est qu'une IA d'aujourd'hui,
02:29si vous lui demandez de jouer au Morpion,
02:31elle peut perdre face à un enfant de 10 ans,
02:33simplement parce qu'elle n'a pas été entraînée pour ça,
02:35ce n'est pas une capacité dans laquelle elle brille particulièrement.
02:37En revanche, la même IA,
02:38vous lui demandez de coder le programme qui va être capable
02:41d'être complètement imbattable au Morpion,
02:43elle va réussir à vous faire ce programme-là d'un seul coup,
02:45et donc à battre ce même enfant.
02:47En fait pour moi c'est plus pertinent de regarder
02:49ces dimensions de l'ultra-intelligence,
02:50ces domaines où l'IA est bien bien meilleure que nous
02:52et va ouvrir des nouvelles possibilités.
02:54Alors, il y a beaucoup de choses dans cet ouvrage.
03:00Dans la deuxième partie,
03:02ça s'appelle La course aux étoiles,
03:04et justement, vous dites que c'est un progrès fulgurant
03:09et la révolution de l'ambivalence,
03:11ça veut dire quoi ?
03:12Alors, si on revient en arrière,
03:14en 2019,
03:16en fait on pourrait même revenir encore plus en arrière,
03:18en 2015,
03:18la création de OpenAI,
03:20donc cette boîte américaine qui à l'époque était complètement inconnue,
03:22qui n'était même pas vraiment une boîte au début,
03:23c'était une fondation,
03:24avec des chercheurs qui partaient un peu dans leur rêve.
03:26On en a suffisamment entendu parler avec Elon Musk,
03:27qui a bien râlé contre ses anciens...
03:29Qui aurait adoré reprendre le contrôle,
03:31parce qu'il y a mis des millions,
03:32et il aurait bien aimé en tirer quelque chose.
03:34En fait, au début,
03:34c'était ce pari des chercheurs
03:35de faire une intelligence
03:37qui apprenne juste à générer du texte.
03:39En fait, ce dont on s'est aperçu en 2019,
03:41c'est qu'en entraînant simplement une IA
03:42à générer du texte,
03:43on n'avait plus besoin de la spécialiser
03:45dans un domaine particulier.
03:47On pouvait avoir une IA,
03:48comme elle était entraînée
03:49à prédire tous les textes assez précisément,
03:51en fait, elle avait intégré
03:52les connaissances qui sont nécessaires
03:53à prédire la suite des textes,
03:54et ça, ça veut dire être intelligent.
03:56Un exemple qui était donné par Ilya Soutzkever,
03:58un des anciens chercheurs d'OpenAI
04:00qui était lead là-bas,
04:02c'était de dire une enquête de police,
04:04un roman d'Agatha Christie.
04:06Si, à un moment, le texte dit
04:07« Et là, l'enquêteur pointa du doigt
04:09le coupable, deux points,
04:10en laissant en suspens la suite »,
04:12un modèle qui serait capable
04:13de prédire précisément le mot suivant,
04:15donc le nom du coupable,
04:16ça veut dire qu'il doit avoir compris
04:17en amont tous les éléments de l'enquête.
04:19Et donc, c'est là qu'ils ont mis
04:21les premiers pas de cette intelligence
04:22qui était beaucoup plus généraliste
04:23que les précédentes.
04:25Et ensuite, si on regarde
04:25la trajectoire de progrès,
04:27pourquoi j'ai une trajectoire
04:28de progrès fulgurante ?
04:29C'est qu'en 2019,
04:30à l'époque, on avait GPT-2,
04:32donc vraiment l'ancêtre du GPT actuel,
04:34qui savait à peine enchaîner
04:35deux phrases cohérentes.
04:36GPT-3, lui, il savait enchaîner
04:38non seulement les phrases,
04:39mais les idées.
04:40GPT-4, il résolvait la première question
04:42de l'examen d'entrée de Polytechnique.
04:43Et GPT-5, je l'ai testé tout à l'heure,
04:45il résout l'intégralité de l'examen.
04:46Oui, c'est quand même assez incroyable.
04:48Et justement, vous décrivez dans cet ouvrage
04:51cette course à la puissance
04:52computationnelle,
04:54c'est comme ça qu'on pourrait la décrire.
04:57Vous pensez que l'IA atteindra
04:59justement un point de rupture un jour ?
05:02Ou alors, est-ce qu'on va toujours être
05:03en auto-amélioration continue ?
05:05Je pense que ça,
05:06c'est une excellente question.
05:08Aux États-Unis,
05:09parmi les chercheurs les plus avancés,
05:10il y en a certains
05:10qui tirent une sonnette d'alarme
05:12en disant
05:13l'IA pourrait échapper
05:14à notre contrôle
05:14quand il va s'auto-améliorer.
05:16Ça, je le traite dans le livre,
05:17je pense que c'est une question
05:17qui reste ouverte,
05:18parce qu'il y a aussi,
05:19à mesure que l'IA s'auto-améliore,
05:21elle va rencontrer aussi
05:22de plus en plus vite
05:22des nouvelles barrières.
05:24Peut-être que...
05:24Enfin, je pense que ce n'est pas tranché
05:26cette question de
05:26est-ce qu'il y a une possibilité
05:27d'échappement ?
05:28Je pense que le risque est faible
05:29et puis c'est un problème technique.
05:30Donc, au pire,
05:30on peut le résoudre.
05:32Là, justement,
05:32on en a parlé tout à l'heure
05:33dans le débrief avec nos experts.
05:35Il y a un moratoire qui est sorti.
05:37Il y a tout le monde.
05:38On a Prasari,
05:39Will Ayam,
05:40Steve Bannon,
05:40ça part dans tous les sens,
05:42qui veulent dire
05:43attention à cette IA,
05:44il faut davantage de gouvernance.
05:47Ils ne disent pas freiner
05:48le développement,
05:48bien qu'ils l'apprennent.
05:49Comment vous...
05:50Ce n'est pas possible
05:51de faire ça ?
05:52Je pense qu'individuellement,
05:53c'est un cri.
05:54Le cri est bon à lancer.
05:56Enfin, l'appel est bon
05:57à être lancé, sans doute.
05:58Surtout que j'imagine
05:58que tous ces gens-là
05:59n'ont pas les mêmes.
06:00Il y en a un,
06:00c'est pour les deepfakes.
06:01Il y en a un autre,
06:01c'est pour la politique.
06:03Il y a pas mal de choses différentes.
06:05Moi, je suis d'accord
06:06avec votre point
06:06que c'est difficile
06:08de sortir de la course.
06:09Pour moi,
06:09c'est impossible
06:09d'en sortir individuellement.
06:11Parce que,
06:11donc ça,
06:12je l'entraide
06:12sur le chapitre
06:13sur la souveraineté.
06:14Je pense que c'est une technologie
06:15qui est tellement puissante
06:15et qui va tellement augmenter
06:17toutes les forces d'une nation,
06:18mais y compris la force militaire,
06:19que si décider de sortir seul
06:21de la course,
06:22c'est risquer de devenir,
06:23comme dans la fable de La Fontaine,
06:24on risque de devenir
06:25le pot de terre.
06:26Et même si on est très amis
06:27avec le pot de fer voisin
06:28qui lui a développé l'IA à fond
06:29et est beaucoup plus solide que nous,
06:30en fait,
06:30le premier chaos de la route
06:31va nous jeter l'un contre l'autre
06:32et c'est le pot de terre
06:33qui risque d'éclater.
06:34Donc en fait,
06:35choisir de sortir de la course à l'IA,
06:37c'est abdiquer sa souveraineté.
06:38Ce qui, je pense, est dangereux.
06:39D'ailleurs, ce qui est intéressant,
06:40vous parlez de la course à la souveraineté,
06:42moi, c'est ces deux thèmes
06:42que j'ai vus,
06:43surtout la transformation
06:43du monde du travail,
06:45cette course à la souveraineté.
06:46Vous n'êtes ni pessimiste
06:47ni optimiste,
06:48mais vous êtes assez factuel,
06:51finalement.
06:52C'est ça qui est intéressant
06:53dans cet ouvrage.
06:55Vous avez voulu ne pas créer
06:56le climat anxiogène
06:57parce que là,
06:57si on veut,
06:58on peut en écrire,
07:00on pourra en écrire
07:00des pages et des pages.
07:01Ne pas non plus donner espoir
07:04en disant,
07:04vous allez voir,
07:06les Français,
07:07on va être beaucoup plus forts
07:08que les Américains
07:08parce qu'on sait bien.
07:09Je trouve que c'est ça
07:10qui vous avait réussi.
07:11C'est une volonté
07:12dans l'écriture de cet ouvrage.
07:15J'ai essayé
07:16de ne pas me projeter trop loin.
07:17J'ai essayé de prendre
07:18ce que je savais
07:19sur le plan technique
07:19et donc de l'expliquer
07:21au lecteur
07:21et de projeter un peu,
07:23mais encore techniquement,
07:24où ça pouvait aller.
07:25Et ensuite,
07:25sur les conséquences de société,
07:26j'essaie de ne pas me projeter
07:27trop loin
07:28parce que je pense qu'aussi,
07:29moi, je peux tirer
07:30les conséquences un peu
07:31à l'ordre 1.
07:32Dire, par exemple,
07:32si les IAS sont capables
07:37mais ensuite,
07:37aller plus loin que ça,
07:39je pense que je suis peut-être
07:39moins légitime là-dessus
07:40donc je n'ai pas voulu
07:41trop m'avancer.
07:42Et en effet,
07:42je pense qu'en tant que société,
07:43on a tout de même ce défi
07:44de poser tous ces différents axes.
07:47Il y en aura qui seront vraiment
07:47des pures conséquences positives.
07:49Par exemple,
07:49dans le domaine de la santé,
07:51il va y avoir
07:51des améliorations phénoménales.
07:53Il y en a qui sont des risques aussi
07:55et je pense qu'il faut
07:56qu'on mesure très précisément
07:57dans chaque domaine
07:58quels sont les risques
07:58pour être capable
07:59de brider les uns
08:00sans non plus tout arrêter
08:01parce qu'on revient
08:03à ce problème de souveraineté
08:04dont on parlait.
08:04La quatrième partie du livre,
08:06c'est que faire ?
08:07Faut-il ralentir ?
08:08Gagner la course ?
08:08La passe de l'IA dans la société ?
08:10J'imagine que ça vient
08:11de toutes vos discussions
08:12avec plusieurs de vos collègues.
08:15Dans l'IA,
08:16il y en a quand même
08:16beaucoup qui sortent de l'X
08:17donc je pense que vous connaissez
08:19un peu tout le monde.
08:20Ça vient d'où ?
08:20Ce ne sont pas des conseils,
08:23c'est des réflexions.
08:25Vous donnez des pistes
08:26de réflexion davantage.
08:28C'est ça.
08:29Par exemple,
08:30sur le plan politique,
08:31je pense qu'on a certainement
08:33besoin d'investissement.
08:34Si on compare
08:34à ce qui se fait aux Etats-Unis,
08:35OpenAI,
08:36pour leur projet Stargate,
08:37ils ont levé 500 milliards.
08:39Nous, en Europe,
08:39on est à quelques milliards
08:40pour les plus grands data centers
08:41mais on a une différence
08:43d'ambition d'un facteur 100.
08:44C'est assez terrible.
08:45Si on se dit
08:45qu'il y a une course,
08:46on ne va pas la gagner
08:47dans la direction
08:48où on est parti actuellement.
08:49Je pense qu'en termes
08:50de régulation aussi,
08:52on a des changements à faire.
08:53Ça, c'est les changements
08:53au niveau collectif.
08:54Je propose aussi
08:55des pistes individuellement
08:55parce que je pense
08:56que chacun peut être acteur
08:57de ce changement.
08:59Justement,
08:59aujourd'hui qu'on a l'IA,
09:04compétent
09:04et d'avoir soi-même
09:05un impact dans ce domaine.
09:06Est-ce que si on devait
09:07dire en conclusion
09:08pour votre livre,
09:09il faut s'inquiéter un peu,
09:12s'enthousiasmer beaucoup
09:12et surtout se sentir responsable,
09:15c'est un peu comme ça.
09:16Exactement.
09:16Je pense que c'est
09:16une excellente conclusion
09:17et je recommanderais aux gens
09:18de se former
09:19et peut-être de lire mon bouquin
09:20peut être une première étape.
09:21En tout cas,
09:21et en plus,
09:22il se parcourt assez,
09:23ce n'est pas critique
09:26ce que je dis,
09:26mais assez facilement.
09:27C'est-à-dire qu'on peut
09:28vraiment prendre
09:29certaines des parties.
09:32Pour ceux qui s'intéressent
09:33à ces technologies,
09:33en tout cas,
09:34je le conseille.
09:35Émeric Rouchet,
09:35ultra intelligent,
09:36jusqu'où iront les IA
09:37cette édition Audi Jacob.
09:39J'espère qu'on aura
09:40l'occasion de vous recevoir
09:40le jour où
09:41cette start-up sera lancée.
09:44Merci Émeric Rouchet
09:44d'avoir été avec nous.
09:45Merci de nous avoir suivis
09:46sur BFM Business.

Recommandations