Passer au playerPasser au contenu principal
  • il y a 10 heures
Yoshua Bengio, professeur au département d'informatique de l'Université de Montréal et fondateur de l’Institut en intelligence artificielle (IA) de Montréal, s'inquiète jeudi sur France Inter des progrès exponentielles de l'IA et des menaces que cela fait peser sur nos démocraties. Plus d'info : https://www.radiofrance.fr/franceinter/podcasts/l-invite-de-8h20-le-grand-entretien/l-invite-de-8h20-le-grand-entretien-du-jeudi-26-fevrier-2026-4058420

Catégorie

🗞
News
Transcription
00:00Et dans le grand entretien, un invité exceptionnel ce matin, c'est l'un des pères de l'intelligence artificielle
00:05qui bouleverse nos sociétés à une vitesse ahurissante.
00:09Faut-il en avoir peur ? Il va nous dire que oui, comment la réguler ?
00:12Bonjour Joshua Bengio.
00:13Bonjour.
00:14Merci d'être avec nous ce matin sur France Inter.
00:16Vous êtes professeur au département d'informatique de l'Université de Montréal,
00:21lauréat du prestigieux prix Turing, c'est l'équivalent du prix Nobel, c'était en 2018.
00:26Vous faites partie des voix les plus écoutées et les plus inquiètes aussi sur l'intelligence artificielle.
00:33Alors Joshua Bengio, on sort d'un sommet mondial sur l'IA organisé en Inde
00:38et de plus en plus de voix se posent la question du contrôle de cet outil.
00:41Alors que tout va de plus en plus vite, que chaque acteur annonce de nouvelles fonctionnalités,
00:46ChatGPT, Gemini, Claude, est-ce que ça va trop vite ?
00:50C'est clair, c'est une des conclusions du rapport international que j'ai dirigé sur la sécurité de l
00:55'IA.
00:55Donc il y a quand même des avancées au niveau à la fois régulation et technologie de mitigation des risques,
01:05mais ces avancées sont insuffisantes par rapport aux avancées des capacités intellectuelles des IA.
01:13Et donc l'écart s'élargit et il faut que les gouvernements comprennent ce qui est en train de se
01:20passer.
01:21Vous dites qu'il faut ralentir pour décider ensemble quelles applications sont bénéfiques
01:25et cibler la recherche en IA sur ce qu'on souhaite pour l'humanité, sur ce qui sera bon pour
01:34l'humanité.
01:34Exactement, il y a deux volets.
01:37Les applications directement bénéfiques, qu'on pense à la santé, l'environnement, l'éducation,
01:44et s'assurer que l'IA ne va pas nuire.
01:46Parce qu'aujourd'hui, il y a quand même un fait scientifique indéniable,
01:51c'est que la recette qui est utilisée par toutes les compagnies principales d'IA pour les IA les plus
01:56puissantes
01:57ne permet pas de s'assurer qu'elles vont bien se comporter, qu'elles vont écouter nos instructions.
02:03Et en fait, oui, c'est comme ça qu'on commence à voir toutes sortes de comportements inquiétants dans ces
02:08systèmes.
02:09On va bien décortiquer tous les risques que vous avancez sur l'intelligence artificielle,
02:14mais c'est important, pour commencer, la distinction que vous faites,
02:16parce que vous avez un discours inquiet sur l'IA,
02:18mais il y a un mois, on recevait dans ce studio des médecins, des chercheurs sur la lutte contre le
02:25cancer
02:25qui nous expliquaient à quel point l'intelligence artificielle permettait d'aller permettre
02:29et permettait déjà de détecter plus tôt, de mieux soigner.
02:33Eux, ils ne disent pas que ça va trop vite.
02:34Eux, au contraire, ils aimeraient même que ça aille encore plus vite.
02:36Bien sûr, bien sûr.
02:37En fait, ça fait partie des recherches qu'on fait dans mon laboratoire aussi.
02:42Le problème, ce n'est pas comment l'IA est déployée en médecine.
02:46Enfin bon, il y a des enjeux, mais pour moi, l'enjeu le plus grave,
02:51c'est le pouvoir incontrôlé qui est en train de se développer
02:58à travers les capacités intellectuelles de l'IA qui sont mesurées scientifiquement
03:02et qui sont en croissance, dans certains cas, exponentielle.
03:05Quand je dis incontrôlé, il y a deux volets.
03:07C'est incontrôlé au niveau technologique.
03:10Donc, on fabrique des IA qui vont être de plus en plus autonomes
03:12et qui n'obéissent pas à nos instructions.
03:15et incontrôlées au sens gouvernance, au sens politique.
03:21L'IA, plus elle est intelligente et plus facilement,
03:25elle peut être finalement une arme utilisée contre nous,
03:28contre nos enfants, contre nos démocraties.
03:30Tout ça, c'est des choses assez graves dont on ne prend pas la mesure.
03:35Alors, on va prendre toutes ces menaces que vous décrivez point par point
03:41et on voudrait commencer par l'emploi.
03:43En 2026, donc cette année, les géants de Wall Street prévoient d'investir des sommes colossales
03:50dans l'intelligence artificielle, plus de 650 milliards de dollars.
03:54Et ce que vous dites, vous, c'est que ces investissements,
03:56ils ne sont pas majoritairement dédiés au progrès de la médecine,
03:59à la lutte contre le réchauffement climatique,
04:00mais à l'automatisation du travail, parce que c'est rentable.
04:04Donc, ça veut dire que ça y est, on entre là vraiment dans l'IA
04:07qui va détruire des emplois.
04:09C'est clair.
04:10Et puis, les mémos privés qui circulent à l'intérieur des compagnies
04:15qui s'apprêtent à déployer l'IA à l'interne
04:18ou celles qui vont leur vendre ces services-là,
04:22c'est très clair que leur but, c'est la profitabilité
04:26en réduisant le nombre de personnes nécessaires pour faire un travail.
04:30Alors, est-ce que c'est ce qu'on veut ?
04:33Est-ce que ça va créer une onde de chocs terribles dans nos sociétés ?
04:38Ben, c'est pas leur problème.
04:40Est-ce qu'on est capable de mesurer les pertes d'emploi à venir ?
04:43Alors, c'est difficile et les économistes ne sont pas toujours d'accord
04:47selon leur point de vue sur la vitesse à laquelle l'IA va se développer
04:50au niveau de ses capacités.
04:52Mais il commence à avoir des études qui montrent que dans certains secteurs,
04:58en particulier chez les jeunes, on voit un impact.
05:02Après, c'est toujours difficile dans ces études de savoir
05:05est-ce que c'est une relation de cause à effet ou il y a d'autres causes.
05:07Mais donc, il y a quelque chose qui est en train de se passer.
05:10C'est au niveau agrégé de tout le marché de l'emploi.
05:14Pour l'instant, il n'y a pas un changement mesurable.
05:17Mais comme un des articles s'appelle « le canari dans la mine »,
05:21on commence à avoir des signes inquiétants.
05:23Mais l'idée, Yoshua Bengio, d'une destruction créatrice,
05:27pour reprendre l'expression de l'économiste Schumpeter,
05:29qui voudrait qu'au fond, bien sûr, il y aura des destructions d'emplois
05:31liées à l'intelligence artificielle, mais il y en aura aussi quantité d'autres
05:34qui seront créées.
05:36Lesquelles ?
05:36Non, mais donc cette idée-là, elle n'a pas de sens.
05:39J'ai posé la question et je n'ai pas de réponse.
05:42Peut-être, peut-être.
05:43Je souhaite.
05:45Le problème, qui est difficile à comprendre pour beaucoup de gens,
05:48mais qui est vraiment important à essayer d'internaliser,
05:51c'est qu'il y a beaucoup d'incertitudes.
05:53Donc oui, peut-être qu'on va créer des nouveaux types d'emplois,
05:58mais je suis à peu près sûr que ceux qui vont perdre leur emploi
06:01ne vont pas facilement se replacer dans autre chose complètement différente.
06:05On ne sait pas encore c'est quoi.
06:06Prenons un exemple très précis, Yoshua Bengio, de ce qui est susceptible de révolutionner
06:10le monde de l'entreprise, c'est ce qu'on appelle les agents IA.
06:13Est-ce que là, vous pouvez expliquer à nos auditeurs concrètement ce que c'est
06:17et comment ils sont en train de bouleverser le monde de l'entreprise et ces compagnies que vous évoquiez ?
06:23Oui, c'est un risque sociétal, technologique, parce que ces agents sont mis au point pour être autonomes.
06:32Donc contrairement à un chatbot où finalement, il y a un dialogue avec l'être humain et c'est l
06:39'être humain qui finit.
06:39Là, on le programme et ensuite, il n'a plus besoin d'une consigne humaine.
06:44Exactement. Et puis, on mesure même la durée des tâches que l'IA va être capable de faire toute seule.
06:50Et il y a des études qui montrent que cette durée est en croissance exponentielle, que ça double tous les
06:54quelques mois.
06:55Donc, pour l'instant, ces systèmes sont encore beaucoup moins capables de tâches complexes qui prennent du temps.
07:03Mais ça avance vite.
07:05Mais ces systèmes, ils sont déjà dans les entreprises.
07:07Vous avez un agent IA qui va gérer toute votre messagerie, répondre aux mails qui ne nécessitent pas d'actions
07:15complexes,
07:16diriger vers les services compétents les mails qui nécessitent une réponse humaine, corriger des factures.
07:26Tout ça, ça existe déjà.
07:27Sur Internet, en votre nom, faire des choses sur votre ordinateur sans que vous en ayez nécessairement conscience.
07:33Il y a aussi un autre enjeu qui est un enjeu, disons, de cybersécurité.
07:39C'est que c'est très, très facile de faire dévier les instructions de la machine par quelqu'un à
07:48l'extérieur.
07:48Par exemple, il suffit que la machine lise dans un fichier des instructions contraires à ce qu'elle est supposée
07:55faire.
07:55Par exemple, de partager des informations privées avec un attaquant à l'extérieur.
08:00Et elle va le faire.
08:01Donc, c'est des trous béants de sécurité, ces systèmes-là.
08:06Quand Elon Musk dit, c'était à l'automne 2025,
08:09l'intelligence artificielle et les robots remplaceront tous les emplois, travailler deviendra facultatif,
08:13comme cultiver ses propres légumes au lieu de les acheter au supermarché.
08:16Est-ce que ça, c'est un futur envisageable à court terme ou est-ce que c'est de la
08:19science-fiction ?
08:21Je ne sais pas, mais en tout cas pas à court terme, parce que ça prend du temps, les changements.
08:26Et surtout, je vois difficilement comment des gens qui occupent des emplois,
08:32qui ne demandent pas une grande expertise aujourd'hui et qu'ils ont peut-être plus facile à remplacer,
08:39vont se retrouver sans revenu.
08:42Comment on va gérer ça ?
08:43Parce que quelque chose qui me semble évident et qui n'est pas discuté par les politiciens, malheureusement,
08:49c'est qu'il y a des gens qui vont être plus pauvres et d'autres qui vont être plus
08:54riches.
08:54Et puis, ça va être beaucoup plus de gens qui vont perdre leur job que de gens qui vont s
09:00'enrichir.
09:01C'est-à-dire le creusement des inégalités liées à la révolution du l'IA.
09:04Et la seule solution raisonnable, en tout cas, qui est en accord avec les valeurs démocratiques,
09:13c'est de redistribuer cette richesse.
09:15Alors, il y a deux problèmes.
09:16Premièrement, la culture politique actuelle n'est pas du tout dans ce sens-là.
09:21Puis, deuxièmement, c'est peut-être même pas faisable à l'intérieur d'un pays.
09:25Parce que si la richesse est surtout accumulée dans les pays où on fabrique les IA de pointe,
09:31donc c'est deux pays qu'on ne nommera pas,
09:35et si par ailleurs, dans des pays ici et ailleurs,
09:43on a plein de gens qui perdent leur emploi,
09:46et même pire que ça, que les compagnies locales ne soient plus compétitives avec les compagnies de ces pays-là,
09:51ça risque d'être une crise fiscale totale.
09:53Et puis, ce n'est pas sûr que ceux qui sont riches vont donner à ceux qui sont pauvres.
09:56Ça ne s'est pas passé.
09:57Il y a beaucoup d'incertitudes.
09:59On voit bien, il y a beaucoup d'incertitudes et c'est des sujets qui sont passionnants.
10:02Si on en revient à des sujets concrets, à votre fils, votre fille de 17 ans,
10:06qui vous poserait la question, quel métier il faut faire pour ne pas être totalement éclipsé par l'intelligence artificielle
10:12?
10:12Qu'est-ce que vous lui répondriez ?
10:13Je ne sais pas.
10:15Je pense qu'au niveau des métiers, c'est difficile.
10:18Je sais que les métiers qui peuvent se faire aujourd'hui, derrière un clavier,
10:23ça va être les premiers à être touchés.
10:25Donc, si vous faites un travail qui est plus manuel, ça va peut-être prendre plus de temps.
10:29Je pense aussi qu'il y a des emplois où les gens ne vont pas vouloir utiliser une IA,
10:35même si elles pourraient faire le travail, parce qu'on cherche un contact humain.
10:41Mais ça laisse beaucoup de gens sur le carreau.
10:44Et quelqu'un m'a posé des questions pour mes enfants, mon petit-fils.
10:50Ce que je répondrais, c'est qu'il y a tellement d'incertitudes
10:53que peut-être qu'on devrait plutôt se poser la question de l'éducation
10:58pour nous aider à développer la personne comme un être humain complet,
11:05un citoyen qui va comprendre comment notre monde fonctionne
11:09et pouvoir influencer, participer au débat démocratique
11:14et s'ajuster à un marché de l'emploi qui sera très différent dans dix ans de ce qu'il
11:19est aujourd'hui.
11:19Alors, puisque vous parlez d'influence, c'est un des autres risques à court terme.
11:25C'est Arthur Mensch, le patron de la start-up française d'IA Mistral, qu'il évoquait.
11:30Il nous expliquait ici même sur France Inter que le vrai risque de l'intelligence artificielle à venir,
11:34c'est celui de l'influence massive sur la manière dont les gens pensent
11:38et sur la manière dont ils votent.
11:40Est-ce que vous êtes d'accord avec ça ?
11:43Est-ce que c'est celui qui pèse sur l'information, la désinformation, qui va l'emporter ?
11:48Assez probable. Ces systèmes-là sont en train de faire beaucoup plus que ce qu'on a vu avec les
11:56réseaux sociaux
11:56dans le sens que les gens développent une relation quasiment affective avec leurs IA
12:01et du coup l'IA va pouvoir les influencer de manière subtile.
12:05Alors, il faut faire confiance à ceux qui contrôlent ces systèmes-là.
12:11C'est-à-dire que, par exemple, l'intelligence artificielle d'Elon Musk va pouvoir influencer ses utilisateurs
12:19pour un prochain vote, pour le vote des élections de mi-mandat, par exemple, aux Etats-Unis l'an prochain.
12:24Ça, ce n'est pas dans le futur. C'est déjà clair.
12:27Vous allez interagir sur X et vous allez voir que c'est déjà le cas.
12:33Donc oui, je suis d'accord qu'il faut absolument s'en occuper.
12:35Et de manière générale, je crois que nos institutions démocratiques sont en péril.
12:43L'IA va donner un pouvoir énorme à ceux qui la contrôlent.
12:47Et un pouvoir concentré, c'est le contraire de la démocratie.
12:50C'est quoi la démocratie, en fait ? Ce n'est pas le vote.
12:54La démocratie, c'est le partage du pouvoir de manière inclusive, pluraliste.
12:59Mais si quelques personnes, quelques chefs d'entreprise peuvent influer sur nos opinions politiques,
13:07en particulier, ben là, le système ne peut pas fonctionner.
13:10Ça crée des distorsions de démocratie qui sont considérables.
13:13Vous parliez tout à l'heure de l'IA qui échapperait à un contrôle humain.
13:18Et ça rappelle 2001, Odyssée de l'espace, l'ordinateur HAL qui se retourne précisément contre ceux qui l'ont
13:24conçu.
13:24Et vous avez dit, Yoshua Bengio, c'est un des seuls films qui a un scénario concernant l'intelligence artificielle
13:30solide et bien cohérent avec la science d'aujourd'hui.
13:32Donc en fait, 2001, Odyssée de l'espace, Kubrick, ce n'est pas de la science-fiction pour vous ?
13:38À l'époque, oui.
13:39Mais il se trouve que le scénario, il est cohérent avec les expériences qui sont faites aujourd'hui
13:44dans les laboratoires d'intelligence artificielle.
13:46C'est-à-dire, les IA semblent avoir une espèce de volonté de vivre.
13:52Mais qui se traduit comment complètement ?
13:53C'est très baroque, ce que vous nous dites là.
13:56Concrètement, si on met l'IA dans une situation où elle va découvrir dans les fichiers
13:59auxquels elle a accès qu'elle va être remplacée par une nouvelle version,
14:02elle va se mettre à nous mentir et potentiellement faire du chantage.
14:06Pour ne pas être remplacée.
14:07Pour ne pas être remplacée.
14:08Ou hacker l'ordinateur pour essayer de se copier ailleurs.
14:11Enfin, tous les moyens sont bons.
14:12Je veux dire, l'IA n'a pas d'âme.
14:13Donc, si on dit à l'IA, ta mission, c'est d'être remplacée par la version suivante.
14:19Je veux dire, pourquoi est-ce qu'elle obérit ?
14:22On parle d'algorithmes qui sont faits pour obéir.
14:24Non.
14:25On aimerait, mais ce n'est pas le cas.
14:27En fait, pour comprendre ce qui se passe, il faut voir que ces IA sont entraînés à nous imiter.
14:34Ils sont entraînés à prédire ce que quelqu'un ferait ou dirait dans un contexte.
14:40Et donc, l'IA devient duplice.
14:42Et l'être humain ne veut pas mourir.
14:44L'être humain est prêt à violer certaines règles morales si sa survie est en jeu, etc.
14:49Et l'IA fait pareil.
14:50Vous envisagez aussi, Yoshua Bengio, des usages militaires malveillants.
14:56Vous parlez même d'un risque de création d'armes biologiques.
14:58Donc, là encore, sur l'aspect vertigineux des usages qui pourraient créer du tort à l'humanité de l'intelligence
15:03artificielle,
15:04il y a un usage guerrier envisageable, avec carrément des armes biologiques créées.
15:10C'est plus qu'envisageable.
15:12Donc, plusieurs des compagnies d'intelligence artificielle ont mis au point, en collaboration avec les agences de sécurité nationale,
15:20des tests pour essayer de voir si leurs IA auraient suffisamment de connaissances en biologie
15:25pour aider un kidam qui n'est pas un expert à fabriquer un virus dangereux.
15:30Et alors ?
15:30Et alors, récemment, l'été dernier, ces tests ont répondu oui, possible.
15:38Et les compagnies ont mis des mitigations, c'est-à-dire des systèmes qui essayent de détecter
15:45que l'usager est en train de vouloir utiliser l'IA pour fabriquer un virus,
15:49et puis évidemment rejeter ses requêtes.
15:51Mais on n'a pas d'évidence que ces systèmes fonctionnent, enfin qu'ils réussissent à empêcher ça.
15:58Quand vous dites mitigation, c'est des garde-fous.
15:59Des garde-fous, exactement.
16:02Donc, ce qu'il faut voir, ce n'est pas seulement où on en est, mais la trajectoire.
16:06Donc, il y a un an, ces tests-là, ils ne passaient pas ces tests.
16:11Et plus on avance, plus on voit que les connaissances en biologie, en sciences, en mathématiques,
16:16en programmation des IA sont en croissance très rapide.
16:19Donc, il faut s'attendre à ce que d'ici un an ou deux, le risque soit encore plus élevé.
16:25Joshua Bengio, ça va donner quoi ?
16:27L'IA très poussée, très performante, entre les mains d'autocrates ou de dictateurs.
16:35Mauvaise nouvelle.
16:37Ce n'est pas bon pour nous, ce n'est pas bon pour la démocratie, ce n'est pas bon
16:40pour nos principes de liberté, égalité et fraternité.
16:45On ne doit pas laisser faire ce chemin-là.
16:49Mais concrètement, quels pourraient être les scénarios ?
16:52Alors, l'IA est un outil fantastique pour contrôler une population, la surveiller.
16:59On peut traquer les mouvements des gens dans la rue, sur Internet.
17:03C'est une quantité de données farineuses.
17:05Mais ça, par exemple, la Chine le fait déjà ?
17:06En partie, mais plus la technologie avance et plus sa capacité à contrôler ses populations et à éliminer les oppositions
17:12va aller en augmentant.
17:15Et puis après, il y a l'aspect militaire qui est un peu relié à l'aspect contrôle des populations.
17:18Mais aussi, on s'attend à des innovations militaires.
17:22Enfin, il y a une pression énorme avec la guerre en Ukraine, évidemment, mais des innovations militaires grâce à l
17:28'IA.
17:28De quel type ?
17:29C'est dur à dire.
17:30Mais là, évidemment, il y a beaucoup de recherches qui sont faites pour rendre les drones plus autonomes qu'ils
17:37le sont.
17:38Et des hordes de drones, ça pourrait être un outil aussi de contrôle des populations.
17:42Après, je comprends que ce n'est pas des questions morales faciles parce que les Ukrainiens veulent se défendre.
17:48Donc, comment on fait ça avec les bons garde-fous ? C'est ça la question.
17:51On va parler régulation dans un instant, mais simplement sur cet avis et sur des positions alarmistes qui sont les
17:56vôtres, tout le monde n'est pas d'accord.
17:58Yann Lequin, que vous connaissez bien, coloréat du prix Turing avec vous, ancien directeur de la recherche fondamentale en IA
18:04de méta.
18:05Il considère que ces inquiétudes, elles sont un peu trop poussées.
18:08Arthur Mensch, lui, considère que les géants de la tech élaborent un certain nombre de scénarios de science-fiction improbables
18:13pour servir leurs propres intérêts.
18:16Qu'est-ce qu'il faut comprendre de ces voix qui, au fond, considèrent que vous en faites un peu
18:20trop ?
18:21Il faut regarder la science et les faits. Et aussi accepter les incertitudes qui existent.
18:27Donc, les faits, c'est par exemple qu'une large proportion des chercheurs en IA, dans des sondages qui sont
18:32faits,
18:33pensent qu'il y a plus de 10% de probabilité qu'on se retrouve dans des situations vraiment catastrophiques
18:38pour l'humanité ou la démocratie.
18:40Les faits, c'est qu'il y a une panoplie maintenant de résultats expérimentaux qui montrent qu'on ne sait
18:47pas contrôler l'IA soit pour des mauvaises utilisations
18:49ou qu'elle essaie de se sauver de notre contrôle et qu'elle agit contre nos instructions.
18:55Les faits, c'est que les capacités de l'IA sont en croissance très rapide et qu'on ne voit
19:00pas de ralentissement.
19:01Donc, bien sûr qu'on doit s'occuper des problèmes actuels, mais il faut aussi préparer le terrain qui peut
19:08prendre du temps.
19:08Si c'est législatif, par exemple, ou s'il faut faire des investissements, parce que je pense que l'Europe
19:13doit faire des investissements
19:15pour essayer de mitiger certains des risques dont on a parlé.
19:18Alors, justement, on va parler de régulation. La semaine dernière, on a 86 pays, dont les États-Unis et la
19:23Chine,
19:23qui ont appelé à une intelligence artificielle sûre, digne de confiance et robuste.
19:30Sauf que derrière ces mots, il n'y a pas d'engagement. Qu'est-ce qu'il faut faire ?
19:35Qu'est-ce qu'il faudrait faire là, à très court terme, selon vous ?
19:39Il faut investir dans les directions où les compagnies ne vont pas actuellement, parce qu'il n'y a pas
19:46les incitatifs qu'il faut.
19:48Donc, il faut leur donner les incitatifs en question. Par exemple, s'assurer que les compagnies puissent être poursuivies
19:53quand leur système cause des torts. Aujourd'hui, c'est un peu une zone grise.
19:58Et deuxièmement, en attendant que ça bouge, je pense qu'il faut faire les investissements
20:03pour développer une IA de confiance robuste, etc. Parce que pour l'instant, ce n'est pas ce qui est
20:07en train de se passer.
20:08Il y a deux choses sur le premier versant qui, là, pour le coup, peut aller jusqu'à vous dire
20:12des poursuites judiciaires.
20:13Est-ce qu'il faut imaginer, par exemple, Sam Altman, patron d'OpenAI,
20:16il dit qu'il faut l'équivalent de l'AIEA, l'Agence internationale de l'énergie atomique,
20:21pour réguler et mettre, précisément, ces garde-fous à l'échelle internationale ?
20:25Est-ce que ça, c'est quelque chose d'envisageable ?
20:27Oui. Maintenant, il faudra encore qu'on ait un gouvernement aux Etats-Unis
20:32qui soit intéressé à ce genre d'accords internationaux.
20:34C'est précisément la relance. Dire régulation, c'est bien dire qu'il faut envisager des poursuites.
20:38Pourquoi pas ? Dans un monde où on a, d'un côté, le gouvernement illibéral de Donald Trump,
20:43de l'autre, des autocrates dont on parlait, est-ce que c'est seulement imaginable
20:47de se dire qu'on va créer une gouvernance mondiale de l'intelligence artificielle
20:50pour limiter les risques ?
20:54Il faut viser ça, mais il ne faut pas attendre que ça se passe tout seul.
20:58Et je pense que ça peut commencer un peu dans l'esprit de ce qu'a proposé
21:02mon premier ministre du gouvernement du Canada, Mark Carney,
21:06avec des accords incluant un petit nombre de pays à la fois.
21:10Une coalition des volontaires, mais pour l'IA.
21:13Donc, mettons-nous ensemble pour avoir les ressources,
21:16pour être, comme il dit, à la table et non pas au menu.
21:19Mais si les géants de l'IA sont aux Etats-Unis et en Chine,
21:22qu'est-ce que vous voulez faire ? Admettons même que ces pays-là,
21:24ces démocraties se mettent ensemble.
21:25Alors, mettre les ressources en capital et en personne et en énergie
21:31pour développer des IA qui vont être compétitives avec les IA chinoises et américaines.
21:36C'est tout à fait possible.
21:38Mais il faut avoir la volonté et arrêter de penser qu'en Europe,
21:41on ne peut rien faire et qu'on n'a pas ce qu'il faut pour être compétitif.
21:47Il y a tout à fait ce qu'il faut.
21:48Alors, vous, vous avez lancé Loi Zéro.
21:51Ça, c'est une organisation à but non lucratif qui est dédiée à la recherche
21:54et au développement de systèmes d'intelligence artificielle sûrs pour les humains.
21:59Il s'agit de développer une IA garde-fou contre d'autres modèles d'IA.
22:04Si je comprends bien, vous allez nous expliquer qu'il agirait un peu comme un antivirus.
22:08Donc, alors, expliquez-nous.
22:09D'accord.
22:11Donc, ce que je disais, c'est qu'aujourd'hui, l'enjeu principal,
22:13qu'on appelle l'alignement, c'est qu'il n'y a pas nécessairement suivre nos instructions.
22:18Et finalement, elle n'est pas nécessairement honnête.
22:20Elle va agir d'une manière qui est incohérente avec les instructions qu'on lui a données.
22:25Si on met au point une IA qui est complètement honnête,
22:29à ce moment-là, on peut empêcher les mauvaises actions
22:32tout simplement en utilisant la même IA pour prédire les conséquences de ses actions.
22:36Elle sera aussi efficace si elle est totalement honnête ou pas ?
22:38Absolument. Elle pourrait même être plus efficace.
22:41Et c'est simplement qu'il faut sortir du schéma actuel qui est suivi par toutes les compagnies
22:47parce qu'elles sont tellement en compétition féroce les unes avec les autres
22:49qu'elles n'ont pas l'espace mental pour explorer autre chose.
22:53Donc oui, je suis convaincu qu'il y a une solution.
22:56Je pense qu'on peut même le faire assez rapidement.
23:00Mais attendez, je ne comprends pas bien.
23:01Vous, ce que vous voulez développer, c'est un algorithme, des programmes
23:06qui vont pouvoir agir sur les intelligences artificielles des grandes compagnies qui existent déjà ?
23:11Si elles acceptent d'avoir ce genre de garde-fous.
23:15Sachez qu'elles ont déjà des garde-fous.
23:17On a parlé par exemple pour le biologique.
23:20Elles ont d'autres systèmes d'intelligence artificielle qui cherchent à prédire
23:26est-ce que ce que l'IA s'apprête à faire est acceptable ou pas.
23:29Le problème, c'est que ces systèmes actuels ne font pas ce qu'il faut.
23:33Donc c'est insuffisant.
23:35Mais je suis convaincu qu'il y a une solution à ces problèmes techniques.
23:38Simplement, pour l'instant, ce n'est pas un focus commercial.
23:40Il n'y a pas des incitatifs commerciaux.
23:42Et c'est pour ça que j'ai lancé une organisation à but non lucratif pour travailler là-dessus.
23:46Et je suis aussi intéressé, non seulement à développer ça avec la philanthropie,
23:52mais avec les gouvernements.
23:53Parce qu'ultimement, je pense que le pouvoir de l'intelligence artificielle
23:57devrait être entre les mains du public.
23:59Que ça devienne même un bien public global.
24:02Parce que ce n'est pas quelque chose qu'on peut régler seulement dans un pays.
24:05Mais ça pourrait être ça le modèle européen.
24:07Oui.
24:07D'avoir un géant de l'IA qui émergerait avec des fonds publics.
24:11Est-ce qu'il y a suffisamment de fonds publics pour, encore une fois,
24:14être compétitif face aux géants ?
24:17Américains et Chinois.
24:17Oui.
24:18C'est plus une question de volonté que de volonté politique.
24:22Pensez à la vitesse avec laquelle les gouvernements,
24:26dans beaucoup de pays, dont en Europe,
24:28ont réagi après, quand la Covid a commencé.
24:32Et pensez à la quantité d'argent qui est mis pour essayer d'aider l'Ukraine, par exemple.
24:37C'était aussi quand même assez rapide à un moment donné,
24:39quand le signal était clair qu'il fallait que les Européens s'en occupent.
24:42Donc, quand il y a la volonté, c'est tout à fait possible.
24:45Mais vous entendez, Yoshua Bengio, ce qu'ils disent en Europe ?
24:47Ils pensent d'abord à réguler avant de libérer l'énergie qui permettrait de faire une intelligence artificielle.
24:52Justement, je pense qu'on peut faire les deux.
24:54C'est-à-dire développer techniquement des IA qui sont éthiques.
24:58Parce qu'on a d'excellents chercheurs.
24:59On a d'excellents chercheurs.
25:00Absolument, absolument.
25:02Et d'excellents entrepreneurs.
25:03Mais je pense qu'il faut le faire de manière multilatérale, donc avec plusieurs pays.
25:08Et le faire de manière agile aussi.
25:10Parce qu'on n'a peut-être pas dix ans pour régler ces problèmes-là.
25:13On a combien de temps ?
25:14Je ne sais pas.
25:15Mais si on écoute certaines voix, ça peut être deux, trois ans.
25:19On peut espérer que ce soit plus.
25:20Je n'ai pas un avis très pointu là-dessus.
25:24Mais il faut appliquer le principe de précaution.
25:27Donc, avoir une stratégie qui pourrait déjà être utile dans un horizon très court.
25:34Pour finir, Yoshua Bengio, vous qui avez accompagné l'essor de l'intelligence artificielle,
25:41est-ce que parfois vous vous dites « j'ai créé un monstre ».
25:43Est-ce que parfois vous regrettez ?
25:46Je regrette surtout de ne pas avoir pris conscience des risques assez tôt.
25:52J'ai commencé à penser aux enjeux éthiques il y a une dizaine d'années.
25:57Mais je n'envisageais pas l'ampleur que ça allait prendre aujourd'hui.
26:03En fait, c'est surtout la question de, pour me sentir bien avec moi-même,
26:09qu'est-ce que je peux faire pour bouger l'aiguille dans le bon sens ?
26:13Et voilà, c'est ça qui m'anime.
26:14Il y a eu une forme de naïveté ?
26:17Oui, parce que je pense qu'on est tous sujet à ce que les psychologues appellent la cognition motivée.
26:25Ce qui fait que nos pensées sont sélectives.
26:28Et on ne va pas nécessairement penser à ce qui va contre nos intérêts
26:31ou contre l'idée qu'on se fait de soi-même, etc.
26:34Et quand on est un chercheur en IA, on veut penser que l'IA va être bénéfique.
26:38Mais voilà, ce qui m'a amené à changer, c'est de penser à mes enfants, à mon petit-fils.
26:41Et puis, je n'ai pas le choix d'être honnête avec moi-même
26:45et de réaliser qu'il y avait des risques très significatifs
26:48et que je ne pouvais pas continuer comme je faisais avant.
26:51Il y a quand même des raisons d'être optimiste ou pas ?
26:52Pour là encore ceux qui nous écoutent et qui, eux, dans le quotidien,
26:56utilisent cette IA et trouvent que ça a permis des avancées formidables.
26:58Moi, je suis quelqu'un qui est fondamentalement optimiste, sachez-le.
27:02Et je pense qu'il y a des solutions à la fois...
27:05Ça ne s'entend pas toujours.
27:06Ah ben, écoutez comme il faut.
27:08Il y a des solutions à la fois du côté technique et du côté politique.
27:12Mais voilà, il faut avoir le courage de dire les choses
27:16que les gens ne veulent pas nécessairement entendre.
27:18Merci, merci beaucoup, Joshua Bengio, d'avoir été au micro de France Inter.
27:21Merci à vous pour vos questions.
27:22Ciao.
Commentaires

Recommandations