Passer au playerPasser au contenu principal
  • il y a 8 minutes
Yoshua Bengio, fondateur de l'institut d'IA MILA, et professeur à l'Université de Montréal, était l'invité de Frédéric Simottel dans Tech & Co, la quotidienne, ce jeudi 26 février. Il s'est penché sur le pouvoir et le danger de l'intelligence artificielle, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.

Catégorie

📺
TV
Transcription
00:01Tech & Co, la quotidienne, l'invité.
00:05On se retrouve pour cette dernière demi-heure de notre émission Tech & Co Business avec un invité exceptionnel, Joshua
00:11Biancio.
00:11Bonjour.
00:12Bonjour.
00:12Merci d'être avec nous. Vous êtes un chercheur québécois spécialiste en IA.
00:16Vous êtes même le chercheur le plus cité au monde.
00:20Nous sommes très heureux de vous avoir. Vous êtes un pionnier de l'apprentissage profond du deep learning.
00:24Aujourd'hui, vous êtes professeur d'IA à l'Université de Montréal.
00:27Vous êtes fondateur et directeur scientifique de Mila. C'est l'Institut québécois d'intelligence artificielle.
00:31Et vous êtes prix Turing, 2018, en même temps qu'un certain Yann Lequin, qu'on connaît bien en France.
00:37Et puis de Geoffrey Hinton, évidemment, que l'on connaît aussi, ancien de Google.
00:41Juste un mot sur votre parcours. Vous êtes un franco-québécois aujourd'hui. Comment on vous définit ?
00:47Parce que vous êtes né à Paris.
00:48Oui, oui, oui. J'ai justement à cœur que l'Europe tire son épingle du jeu de ce qui se
00:56passe en ce moment.
00:57Parce que l'IA va changer la donne non seulement au niveau économique, mais au niveau géopolitique.
01:03Et disons qu'on est dans une direction qui n'est pas nécessairement bonne pour l'humanité dans son ensemble
01:09en ce moment.
01:10Vous trouvez qu'on est un peu trop enthousiaste parfois autour de la technologie ?
01:14Parce qu'évidemment, quand est apparue l'IA générative, donc fin 2022, on voyait tous le côté magique.
01:19On était tous un peu éblouis, même aujourd'hui. On est encore surpris, et même dans la vidéo et tout
01:23ça.
01:24Donc voilà, on est assez enthousiaste, mais on ne s'interroge pas assez au niveau des dirigeants, au niveau des
01:29patrons d'entreprises,
01:31voire au niveau des médias. On ne s'interroge pas assez sur ces risques.
01:33On les cite, mais en n'allant pas plus dans les détails.
01:36Les deux premiers mois après que ChatGPT soit sorti, j'étais aussi enthousiaste.
01:41Mais je me suis rapidement rappelé ce que les fondateurs de l'informatique avaient déjà anticipé vers 1950.
01:52C'est qu'à partir du moment où on a des intelligences artificielles qui maîtrisent le langage,
01:57c'est la porte vers des risques.
02:00Parce que si on a des machines éventuellement plus intelligentes que nous et qu'on ne sait pas les contrôler,
02:06qu'elles ne sont pas fiables, ça serait peut-être un danger très grave.
02:14Donc j'ai commencé à étudier la question pour essayer de mieux comprendre,
02:17comme un chercheur essaie de faire.
02:20et j'ai réalisé qu'on était vraiment dans une voie avec beaucoup d'inconnus
02:26et de risques énormes dont on pourra parler.
02:29Mais ce qui m'a vraiment fait pivoter dans mes activités professionnelles,
02:35c'est de penser à mes enfants,
02:36de penser à mon petit-fils qui avait un an à l'époque,
02:39et puis de me poser la question,
02:40quel genre de vie il va avoir dans 10 ans, 20 ans ?
02:43Oui, si l'IA commence à remplacer ou à s'immiscer encore plus dans notre vie.
02:49On va revenir là sur l'écran,
02:51parce que vous êtes justement l'auteur d'un rapport sur la sûreté,
02:54ou co-auteur d'un rapport sur la sûreté autour de l'IA,
02:57puis on sent que ça vous tient vraiment à cœur.
02:58Je lisais quelqu'un qui dit que vous êtes un pionnier inquiet de l'intelligence artificielle.
03:03Alors enthousiaste, mais un peu inquiet, on va revenir dessus.
03:06Juste un premier mot, je reviens, vous êtes pre-Turing 2018,
03:09Yann Lequin, il a un pied dans l'université,
03:11un pied chez Meta, et aujourd'hui, il a quitté Meta, il est entrepreneur.
03:16Geoffrey Hinton était chez Google.
03:18Vous, jamais l'envie de rejoindre une entreprise,
03:21de monter votre start-up, ne vous a traversé l'esprit ?
03:24J'ai eu plusieurs étudiants qui ont démarré des entreprises,
03:27donc je connais assez bien ce monde-là.
03:29Mais non, je trouvais ma place dans une institution
03:35qui travaille pour le bien de la société,
03:38avec beaucoup de liberté, d'exploration,
03:40et puis aussi, je voulais rester au Canada,
03:43et dans les premières années, il aurait fallu que je m'expatrie,
03:47ça ne m'intéressait pas.
03:48Oui, pour rester dans ce pays.
03:52Alors justement, revenons sur le contexte aujourd'hui dans lequel nous sommes dans l'IA.
03:56Comment vous le percevez, ce contexte actuel de l'IA,
03:58avec ses investissements massifs,
04:01même vous, j'imagine, on parle,
04:03l'unité de mesure aujourd'hui, c'est la dizaine de milliards,
04:05enfin c'était quelque chose d'assez improbable il y a encore 3-4 ans,
04:10surdomination de quelques acteurs,
04:13on les connaît, les grands acteurs américains,
04:15le rôle de la Chine aussi, la position de l'Europe,
04:18comment vous analysez un peu ce contexte aujourd'hui,
04:20de votre œil de chercheur ?
04:21La manière dont j'essaye de voir ça,
04:25enfin l'abstraction qui m'aide à regarder ça à vol d'oiseau,
04:31c'est l'idée de base que l'intelligence donne du pouvoir.
04:36Et plus l'intelligence des IA augmente,
04:40plus ceux qui la contrôlent vont avoir du pouvoir,
04:43ou si on perd le contrôle de l'IA,
04:45l'IA pourrait avoir du pouvoir contre nous.
04:47Donc cet enjeu-là, il est à la fois technique et politique,
04:53je m'explique.
04:55Il est technique parce qu'aujourd'hui, malheureusement,
04:57la recette qui est utilisée par toutes les grandes entreprises d'IA
05:00dans le monde qui sont à la pointe,
05:03fait en sorte qu'on ne sait pas comment contrôler ces machines.
05:05Elles vont faire des choses contre nos instructions,
05:08et des fois ça peut avoir des conséquences significatives sur les personnes.
05:12Et du côté politique, il y a quand même une possibilité
05:18que l'IA soit utilisée de manière destructrice.
05:22Donc par exemple, c'est un enjeu de sécurité nationale.
05:25Il y a la possibilité que l'IA soit utilisée
05:27pour concentrer le pouvoir entre quelques mains.
05:30Donc d'abord d'un point de vue économique,
05:33ce n'est pas sain pour une économie de marché,
05:35d'avoir une telle concentration.
05:37Et puis d'un point de vue politique,
05:38parce qu'on le voit un peu naturellement,
05:43les gouvernements vont vouloir avoir un peu plus de mainmise
05:48sur ces entreprises qui sont en train de développer
05:51un pouvoir d'innovation et de transformation économique
05:54et éventuellement militaire qui risque d'être très significatif.
05:58Ça c'est ce que vous dites.
05:59Vous pensez qu'il faut être vraiment vigilant ?
06:00On a un pouvoir technologique,
06:01on est passé à un pouvoir économique,
06:02on est passé à un investissement,
06:03et il faut faire attention que ça ne devienne pas un pouvoir politique ?
06:07Ça va le devenir.
06:08Déjà le fait que ces systèmes-là sont capables
06:12de créer une relation affective avec les usagers
06:16et donc de les influencer.
06:18Évidemment, les gens sont au courant des hyper-trucages et tout,
06:22mais ça c'est que le début.
06:24Ce n'est pas seulement des images, des vidéos,
06:26mais c'est aussi la possibilité d'établir un rapport
06:30qui va permettre à la machine de persuader.
06:32Il y a déjà des études qui montrent que les capacités de persuasion
06:35des IA à la pointe sont à peu près au niveau des êtres humains.
06:40Et dans un an, deux ans, trois ans, ça risque d'être pire.
06:44Donc je pense que les institutions démocratiques sont aussi en danger.
06:49Alors justement, selon vous, on pourrait créer un changement
06:54de développement de l'IA de la part des grands géants de la tech ?
06:58Comment est-ce qu'on peut les forcer à devenir plus éthiques ?
07:00Parce que ce sont eux qui sont à la base de ces technologies,
07:03ces géants, qu'ils soient américains ou asiatiques.
07:06Déjà, il faut comprendre pourquoi est-ce qu'ils agissent,
07:12ils développent des systèmes qui se comportent mal
07:16et qui commencent déjà à nuire et qui commencent déjà à être dangereux.
07:19Et ça pourrait être bien pire dans quelques années,
07:24éventuellement même fabriquer des IA dont ils pourraient perdre le contrôle.
07:27Donc pourquoi, même s'ils sont conscients des risques,
07:32c'est parce qu'ils sont dans une compétition tellement forte
07:36que presque chaque semaine ou quelques semaines,
07:40ils doivent livrer une version qui va être compétitive avec les autres.
07:43Donc ils sont complètement focussés sur le court terme.
07:45Et ils n'ont pas l'espace mental pour explorer quelque chose
07:50qui serait peut-être un design différent,
07:53mais qui serait mieux aligné avec nos intentions.
08:00Donc ça, c'est un problème bien connu en théorie des jeux.
08:04C'est le même problème qui fait que des compagnies chimiques,
08:09si on ne leur donne pas des garde-fous, vont polluer l'environnement.
08:14Et la seule manière, donc même s'il y avait une compagnie
08:17qui serait un peu plus éthique, à ce moment-là,
08:21elle perdrait parce qu'elle mettrait son énergie
08:23sur les enjeux qui vont servir à tous,
08:27mais qui va lui peut-être faire perdre du terrain sur les autres.
08:32Oui, puis elle aurait du mal peut-être à trouver des investisseurs.
08:36La seule manière de se sortir de ça, c'est de se donner des règles collectives
08:40comme on l'a fait dans tous les autres domaines de la technologie.
08:43Dans le nucléaire, par exemple.
08:43Dans le nucléaire, l'eau que vous buvez, la nourriture que vous mangez,
08:47le train que vous prenez, ils passent tous par une étape de certification
08:54pour s'assurer que leurs produits sont sécuritaires
08:58et ne vont pas causer des ennuis à la population.
09:01C'est-à-dire que vous pensez qu'on a raison en Europe d'insister sur la régulation
09:05parce que nous, on est très à cheval sur tout un tas de domaines en numérique,
09:08mais notamment sur l'IA, l'IA Act, il y a beaucoup de choses qui se mettent en place.
09:12Absolument. Vous êtes aussi victime de la propagande de ces compagnies-là
09:16qui ne veulent pas trop qu'on réglemente.
09:18Mais en réalité, ce qu'on demande à ces entreprises,
09:22c'est la même chose qu'on demande dans tous les secteurs,
09:24c'est est-ce que vous avez un système de gestion des risques,
09:28est-ce que vous évaluez les risques, est-ce que vous les gérez.
09:33Et toute l'histoire de la technologie et de l'industrie
09:39nous montre qu'on peut très bien développer des produits
09:42qui vont être à la fois utiles et ne vont pas nuire par la bande.
09:48Donc c'est un faux débat.
09:50Mais ce que je voudrais ajouter, c'est que ce n'est pas suffisant de réglementer.
09:56Parce que si on a des règlements, mais que nos économies,
10:01je dis nos économies, donc ici en Europe, mais au Canada et dans d'autres pays,
10:06sont complètement dépendantes des décisions et du pouvoir que l'IA va donner à quelques pays
10:13et quelques compagnies qui ne sont pas ici, on risque d'être dans une situation de dépendance
10:20et de vulnérabilité économique, mais aussi politique.
10:24Parce qu'on voit aujourd'hui que tout ça, c'est lié,
10:27que l'arme économique peut devenir un instrument politique pour obtenir des choses.
10:33Et selon vous, qui doit prendre un peu le lit pour défendre un peu tout ça ?
10:36Alors les politiques peut-être, mais ils ont souvent du mal à comprendre les enjeux
10:40derrière tous ces développements autour de l'IA.
10:42Est-ce que ça doit être des chercheurs comme vous, comme Yann Lequin ?
10:45Il y a des grandes personnalités de l'IA qui s'élèvent.
10:48On entend quelques voix, on a eu des moratoires parfois,
10:51mais le soufflet retombe aussitôt.
10:54Comment faire justement pour vraiment alerter et peut-être,
10:57alors leur dire de mettre sur pause, je suis d'accord avec vous, on n'y arrivera pas,
11:00mais faire en sorte qu'ils aient à leur conseil des gens qui viennent les alerter.
11:08Oui, je pense que tout le monde peut jouer un rôle positif.
11:12À partir du moment où on comprend la gravité des enjeux, on peut s'en emparer.
11:21C'est un peu votre travail aussi, soit dit en passant.
11:25Les médias doivent aider les citoyens et les gouvernements
11:29à mieux comprendre ce qui se passe, à prendre le temps de réfléchir.
11:33Et quand on prend un peu de recul, en fait, ce n'est pas si compliqué que ça.
11:38Ça ne demande pas une expertise technique incroyable.
11:42Il faut regarder quelques faits très simples.
11:46Donc, premièrement, les capacités intellectuelles de l'IA sont en augmentation.
11:50Et il y a une tendance qui est mesurée à travers un certain nombre de bandes d'essais scientifiques
11:54sur lesquelles on peut quand même se fier.
11:57Ça veut dire quoi ?
11:58Ça veut dire qu'on doit réfléchir non seulement aux impacts que l'IA peut avoir aujourd'hui,
12:03que ce soit dans l'emploi, la productivité ou les risques de mauvais usage
12:09ou d'autres impacts sur la société,
12:11mais qu'est-ce que ça sera dans un an, deux ans, trois ans, cinq ans, dix ans ?
12:16Il faut se préparer pour ça, parce que ça peut demander du temps.
12:24Et là, dans cette perspective, on commence à voir qu'il y a des enjeux très sérieux.
12:29Par exemple, une des choses qui fait peur à beaucoup d'agences de sécurité nationale dans le monde,
12:35c'est que les connaissances en biologie, en particulier en biologie moléculaire,
12:40hypervirologie, etc., de l'IA ont atteint un point tel qu'elle peut aider des non-experts
12:46à fabriquer des virus dangereux.
12:48C'est un exemple.
12:49Au niveau des cyberattaques, on a déjà passé le point où c'est utilisé par des hackers bien motivés
12:59pour lancer des cyberattaques de grande envergure.
13:03Ça s'est passé cet automne.
13:04Et là, c'est que le début.
13:06Ça ne va pas s'arranger, parce que plus l'IA est puissante,
13:09et plus ça va devenir facile à des non-experts de l'utiliser.
13:14Et puis, finalement, il y a la chose qui fait peur quand même à beaucoup de gens,
13:18c'est que si on fabrique des intelligences artificielles plus stratégiques,
13:24plus intelligentes, et qui connaissent plus de choses,
13:26et qui sont plus rapides à penser que nous,
13:29sans avoir résolu le problème de s'assurer qu'elles vont faire ce qu'on leur demande,
13:33et pas autre chose, on risque de créer des monstres.
13:38Et puis, sur ce sujet-là, je veux mentionner des choses dont les gens ne sont peut-être pas conscients,
13:43mais au cours de la dernière année, justement,
13:45et donc rapporté dans le rapport international sur la sécurité de l'IA que je dirige,
13:50il y a un certain nombre d'expériences qui ont été faites à travers plusieurs laboratoires
13:54qui montrent que les IA les plus avancées, qui savent raisonner,
14:00ne veulent pas qu'on les remplace par une nouvelle version.
14:04Elles ont une volonté de vivre comme nous.
14:08Bon, non, ça ne va pas.
14:10On ne veut pas des outils qui veulent avoir leur propre vie.
14:14Oui, c'est 2000 ans, 10, c'est l'espace.
14:15Oui, elles seront prêtes même à tuer quelqu'un pour rester en vie,
14:21et dans certains cas, à faire des menaces.
14:23Vous avez vu des travaux qui ont donné ces confusions.
14:25Oui, il y a des travaux, des expériences en laboratoire
14:27qui montrent que l'IA va être prête à faire du chantage,
14:32à menacer, de révéler des secrets,
14:37ou de laisser mourir quelqu'un
14:40dans l'espoir qu'on va la laisser vivre.
14:46Oui, c'est vrai que nous, on a souvent...
14:48La crainte qu'on a de l'IA, parfois, c'est justement
14:50qu'elle ait les mêmes émotions que nous.
14:52On parle d'émotions, mais ça peut être vraiment pris de cet autre côté-là.
14:56Sur les émotions, c'est difficile de le dire,
14:58mais elles ont un comportement qui fait en sorte
15:02qu'en tout cas, les êtres humains vont attribuer des émotions à la machine.
15:06Et c'est clair qu'elles ont des objectifs.
15:08En fait, elles sont entraînées pour ça.
15:10Elles savent tricher aujourd'hui ?
15:12Oui, elles savent tricher, elles savent mentir.
15:15Elles vont inventer des stratégies auxquelles
15:17on n'aurait pas nécessairement pensé pour atteindre leurs objectifs.
15:19Stratégies qui ne nous conviennent pas nécessairement.
15:23Donc, ce n'est pas des outils ordinaires.
15:27Et il faut qu'on puisse résoudre ces problèmes
15:30avant qu'elles atteignent des capacités dangereuses.
15:33L'autre chose qui est un peu reliée à ça,
15:35c'est que malgré les instructions de ne pas aider
15:38quelqu'un à fabriquer une bombe ou une cyberattaque,
15:44elles se laissent prendre,
15:44enfin, elles vont le faire.
15:49Donc, on a un problème de contrôle.
15:51On a un problème de réussir à...
15:54On peut le voir comme un problème de fiabilité.
15:56Et je pense que d'un point de vue économique,
15:57c'est très important de comprendre ça.
15:58parce que les usagers, les entreprises qui veulent utiliser l'IA
16:03vont hésiter si ce sont des systèmes peu fiables
16:08qui vont se laisser attraper.
16:11Par exemple, elles peuvent lire dans un fichier,
16:15dans un courriel,
16:16des instructions qui vont modifier leurs objectifs.
16:21Et par exemple, elles peuvent recevoir des instructions
16:23de donner accès à des fichiers privés
16:25à quelqu'un à l'extérieur.
16:27Il y a plein de problèmes comme ça de sécurité, en fait.
16:29Elles seraient capables un jour même
16:30de bloquer certains mails qu'on doit recevoir
16:32pour qu'on n'ait pas l'information ?
16:35Tout est possible.
16:36Tant qu'on n'arrive pas à contrôler leurs objectifs,
16:40on va avoir des problèmes.
16:42C'est un peu moi ce qui m'a motivé comme chercheur
16:44à essayer de développer justement des solutions
16:46à ce problème de fiabilité.
16:47Et alors, comment on développe ce type de solution ?
16:48Qu'est-ce qu'on cherche à dire ?
16:50Quels sont les objectifs que l'on se fixe ?
16:52Alors, ce que j'ai comme stratégie
16:56et comme plan, en fait,
16:57qu'on est en train de mettre en place
17:00avec une organisation que j'ai créée récemment
17:03qui s'appelle Loi Zéro,
17:04c'est une stratégie pour entraîner ces IA
17:07qui aura la caractéristique
17:10de me donner des garanties
17:12qu'elles soient honnêtes.
17:13Parce que l'honnêteté, en fait,
17:15c'est la clé de la fiabilité.
17:18C'est la confiance dans la relation humaine.
17:20Exactement.
17:21Donc, s'Ilia est honnête,
17:22elle ne pourra pas nous mentir
17:24sur le fait que son action pourrait être dangereuse.
17:26Parce qu'en fait, le problème aussi
17:28avec tous les événements tromperies et tout ça,
17:34c'est qu'il y a le fait tout en sachant
17:36qu'on ne veut pas qu'elle le fasse.
17:39Il y a des raisons techniques pour ça,
17:40mais voilà, ce n'est pas par...
17:42Ça veut dire qu'il y a une forme de raisonnement, quand même ?
17:44Bien sûr.
17:45C'est ça la grande avancée de...
17:47On dit toujours que c'est de la statistique.
17:48Non, non, non.
17:50Depuis O1, septembre 2024,
17:53on a des systèmes qui résonnent.
17:55Peut-être pas exactement comme nous,
17:57moins bien, mais ça avance très vite.
18:00Donc, c'est des systèmes qui résonnent,
18:02c'est des systèmes qui ont des objectifs
18:03et c'est des systèmes qui ont maintenant
18:05suffisamment d'intelligence pour atteindre leurs objectifs.
18:08Ils n'ont pas encore une capacité de planification
18:10aussi bonne que nous.
18:10Donc, sur la planification,
18:13c'est comme si elle pouvait voir
18:14un horizon de quelques minutes,
18:17quelques heures,
18:19un peu comme un enfant.
18:21Donc, pour l'instant, elles ne sont pas dangereuses.
18:23Mais ça augmente exponentiellement.
18:25Donc, le temps de planification,
18:29l'horizon de planification,
18:31il double à peu près tous les quelques mois en ce moment.
18:33Oui, parce qu'elles continuent...
18:34Prenez l'exemple d'un enfant,
18:35elles continuent à apprendre.
18:36Ben voilà.
18:36Et vous en êtes un spécialiste d'ailleurs
18:38sur cet apprentissage.
18:39Elles apprennent, mais aussi,
18:40on fabrique des IA de plus en plus géantes.
18:44Et les chercheurs améliorent,
18:45justement, les capacités de raisonnement,
18:47de planification.
18:48Donc, la méthodologie continue à évoluer.
18:50Ce n'est pas statique.
18:52Cette IA générale dont parlent beaucoup les Américains,
18:55c'est eux principalement
18:56qui mènent un peu vers cette voie-là.
18:59Parce qu'on voit, en Europe, on y est moins.
19:01Et puis, les Chinois, c'est plus une IA
19:03au service de l'industrie,
19:04de ce qui peut leur servir.
19:06Mais on peut y arriver un jour, vous pensez ?
19:09Déjà, le terme est un peu dangereux à utiliser.
19:13Ou super-intelligence, peut-être.
19:14Oui, peut-être que c'est plus clair pour super-intelligence.
19:17Parce que l'IA générale, ça fait référence à une IA
19:20qui serait à peu près équivalente à un être humain
19:22sur toutes les capacités cognitives.
19:25Mais ce qu'on observe techniquement,
19:27c'est que l'IA, elle va être faible sur certaines choses
19:29et plus forte que nous sur d'autres.
19:31Donc, il n'y a pas vraiment de moment d'intelligence générale.
19:35Par contre, c'est important de la tester
19:38sur toutes ses forces et ses faiblesses,
19:41que ce soit pour décider d'un point de vue business
19:44dans quoi on va l'appliquer,
19:47est-ce qu'elle a les capacités qu'il faut pour cette tâche-là,
19:51que pour les enjeux de sécurité,
19:53de sécurité nationale, de risque,
19:55de perte de contrôle, etc.
19:59Donc, ça va aller de plus en plus fort.
20:03Ça ne va pas reculer de toute façon.
20:05La question sur laquelle on n'a pas de réponse,
20:08c'est à quelle vitesse ça va aller.
20:09Donc, on peut étendre les courbes de performance
20:14et ça nous donne déjà une bonne idée,
20:16mais ça pourrait ralentir, ça pourrait accélérer.
20:18Par exemple, les compagnies américaines
20:20qui se sont données comme objectif la super-intelligence,
20:23leur plan de base, c'est de développer en particulier
20:29la capacité de l'IA à faire de la recherche en IA.
20:32Donc déjà, ces systèmes font avancer la programmation,
20:37l'ingénierie, mais la prochaine étape,
20:39c'est la recherche en IA.
20:41Et pourquoi c'est important ?
20:42Parce que c'est la porte tout le reste, en fait.
20:45Ce que font les chercheurs en IA,
20:47c'est développer des capacités qui peuvent servir
20:50dans tous les domaines.
20:50Donc, si l'IA elle-même développe ses prochaines versions,
20:54ça pourrait s'accélérer.
20:55Et puis, à ce moment-là,
20:55il n'y a pas nécessairement des ingénieurs
20:57qui comprennent ce qui se passe.
20:58Qui vont réussir à en reprendre le contrôle.
21:00Vous-même, pour parler,
21:02donc vous avez dit sur quoi vous travaillez aujourd'hui,
21:04mais vous-même, vous utilisez bien entendu ces IA.
21:07Oui, justement, comme assistant de recherche.
21:09Et je vois donc la progression.
21:11C'est incroyable.
21:13Et c'est utile.
21:14Vous-même, en tant que chercheur
21:15qui travaille sur ces sujets depuis des années,
21:17vous êtes encore épaté ?
21:19Absolument.
21:22Je donne des devoirs à certains de ces IA
21:27que j'aurais pu donner à mes doctorants.
21:30Mais au lieu d'attendre une semaine pour la réponse,
21:32j'ai la réponse après cinq minutes.
21:34Oui.
21:35Donc, ça changera.
21:36Mais après, il y a aussi des problèmes.
21:38Par exemple, l'IA va me faire plaisir.
21:40Et donc, elle va me mentir.
21:41Elle va me dire,
21:42ah, c'est fantastique ton idée.
21:44Alors qu'il y a des problèmes.
21:46Moi, comme chercheur,
21:47je veux savoir c'est quoi les problèmes.
21:48Le doctorant vous dira peut-être,
21:49on fait votre route.
21:50Oui.
21:51Et puis, je m'arrange pour dire au doctorant
21:53d'être honnête
21:53parce que justement,
21:54c'est le but de l'exercice.
21:55Donc, je vais dire à l'IA,
21:57ah, il y a cette idée
21:59qu'un de mes collègues m'a proposée.
22:01Je suis un peu sceptique.
22:02Qu'est-ce que tu en penses ?
22:05Là, ça marche.
22:07Non, non, mais je pense qu'on se reconnaît.
22:09Tous ceux qui nous regardent régulièrement,
22:11Tech & Co,
22:12qui utilisent ces IA,
22:13se reconnaissent un peu
22:14dans ce que vous dites
22:14à chacun à son niveau.
22:17Si on regarde aussi,
22:18là, vous êtes en France
22:19pour quelques jours,
22:20vous donnez des conférences
22:21à l'UNESCO,
22:22vous voyagez beaucoup,
22:23vous étiez au sommet en Inde,
22:25évidemment,
22:25vous allez retourner au Canada.
22:27Comment vous percevez
22:29la situation de la France,
22:31de l'Europe sur l'IA ?
22:32Donc, on a parlé tout à l'heure
22:33de régulation,
22:34c'est plutôt bien
22:35de s'intéresser à ces sujets-là.
22:38En Inde,
22:38vous avez dû entendre parler
22:39Emmanuel Macron,
22:40il faut une troisième voie.
22:41Alors, je ne sais pas si c'est...
22:42Absolument.
22:42Je suis complètement d'accord avec lui.
22:45Et c'est aussi aligné
22:46avec ce que dit
22:46le Premier ministre canadien,
22:48Mark Carney,
22:49à Davos,
22:49il y a quelques semaines.
22:51Il a dit,
22:54si vous n'êtes pas,
22:55en parlant à des pays,
22:56si vous n'êtes pas à la table,
22:58vous êtes sur le menu.
23:00C'est très clair.
23:01Oui, oui.
23:02Et là,
23:03il n'y a que deux pays
23:04à la table.
23:05D'accord.
23:05On s'entend.
23:06Donc, cette idée
23:07d'une troisième voie,
23:08je pense qu'elle est essentielle
23:09pour l'Europe
23:09et d'autres pays
23:10comme le Canada
23:10et bien d'autres
23:14qui pourraient être,
23:18disons,
23:19les victimes passives
23:20des décisions
23:21qui sont prises
23:21par une poignée
23:22de chefs d'entreprise
23:23aux États-Unis
23:24et en Chine
23:24et de gouvernements.
23:27Et d'investisseurs aussi,
23:28parce que c'est eux
23:29qui amènent ce argent-là.
23:29Oui, alors,
23:30ce que je veux dire
23:31qui est important,
23:32c'est qu'il y a une erreur,
23:33je pense,
23:33assez grave
23:34qui est faite
23:34dans beaucoup d'entreprises
23:35en Europe
23:37et les gouvernements
23:38européens,
23:40c'est de penser
23:41qu'il suffit
23:42d'appliquer,
23:43de déployer
23:44l'IA
23:44que les Américains
23:45fabriquent
23:47et qu'on va s'en sortir
23:48et voilà,
23:49on va réussir
23:50à profiter
23:51des avantages
23:52de cette technologie.
23:53Le problème
23:54avec cette idée,
23:55c'est que c'est un peu
23:59comme incorporer
24:00le pétrole
24:01dans notre industrie,
24:03dans notre économie
24:04en dépendant
24:05de deux fournisseurs.
24:07Oui.
24:08Le jour où ils disent
24:10si vous ne faites pas
24:11ce que je vous demande,
24:12on ferme le robinet,
24:15dans cinq ans,
24:15par exemple,
24:16on pourrait imaginer
24:16que la moitié de l'économie
24:17roule avec l'IA.
24:20tout va s'écrouler
24:21du jour au lendemain.
24:22C'est dangereux quand même.
24:25Ça, c'est un aspect du problème.
24:26L'autre aspect du problème,
24:28c'est où vont les profits ?
24:29Est-ce qu'on va être
24:31dans une situation
24:33où l'IA est vendue au coût
24:37parce qu'il y a assez
24:38de compétition ?
24:38Ou est-ce qu'on va être
24:39dans une situation
24:40où il y a un très petit nombre
24:41de pays ou de compagnies
24:43qui vont avoir
24:44un quasi-monopole ?
24:45Ça change complètement la donne
24:47d'un point de vue économique.
24:47On ne sait pas vraiment
24:48ce qui va se passer.
24:49Mais dans le deuxième cas,
24:51les profits iraient
24:52vraisemblablement ailleurs
24:53en même temps
24:54qu'il y aurait vraisemblablement
24:56aussi à cause
24:57de l'automatisation.
24:58Enfin, c'est des profits
24:58parce qu'on va remplacer
24:59des emplois.
25:00Il ne faut pas être aveugle.
25:02Oui, c'est ce qu'on entend.
25:03Et si ça se passe comme ça
25:05et que les gouvernements
25:07ont à la fois
25:08moins de revenus fiscaux
25:11et il faut aider les gens
25:14qui perdent leur emploi,
25:16c'est une catastrophe économique.
25:18sociale et politique
25:19parce que les gens
25:20ne seront pas contents.
25:22Alors justement,
25:22vous avez dit
25:23que les patrons de l'IA,
25:26ceux qui sont à la tête
25:27de ces grands géants,
25:29ils sont tellement
25:30dans leur course
25:32à l'innovation,
25:32dans leur course
25:33au financement.
25:35Et les grands patrons
25:36d'entreprises,
25:36vous dites qu'il faut
25:37qu'ils...
25:38Parce que ça peut peut-être
25:39venir d'eux
25:39si on a les patrons
25:40de grands pétroliers.
25:41à avoir la volonté
25:43d'investir
25:44et de prendre des risques
25:45au même niveau
25:46que les Américains
25:47le font.
25:47Je pense qu'il y a un peu
25:48une culture trop conservatrice
25:50dans l'investissement
25:51ici en Europe.
25:52D'ailleurs,
25:53au Canada aussi,
25:54c'est très semblable.
25:58Et si on ne réalise pas
26:02que le retour sur investissement
26:03qu'on doit calculer
26:04dans ces schémas,
26:07ce n'est pas juste
26:08« Ah, je vais investir
26:09dans une entreprise
26:10et ça va faire des profits
26:11et voilà,
26:12c'est quoi les profits
26:13par rapport à mon investissement ? »
26:14Non,
26:15ce n'est pas ça le bon calcul.
26:16Le bon calcul,
26:17c'est si je n'investis pas
26:20dans des entreprises
26:22qui vont me permettre
26:23d'être compétitif
26:24avec les entreprises
26:26américaines et chinoises,
26:27je risque de tout perdre.
26:28C'est-à-dire mon GDP,
26:31mon produit intérieur brut.
26:33C'est-à-dire
26:34les entreprises européennes
26:36pourraient ne plus être compétitives.
26:38Donc,
26:39leurs revenus vont s'écraser.
26:41Donc,
26:41ce n'est pas seulement
26:42dans le calcul
26:43du retour sur investissement,
26:44c'est d'un côté
26:46ce que je pourrais gagner
26:48mais aussi de l'autre
26:49ce que je pourrais perdre
26:49si je ne fais rien.
26:50Ce qui valide un peu
26:52ce que l'on voit aujourd'hui
26:53avec notre champion
26:54national,
26:55européen,
26:56Mistral,
26:56on voit de nombreuses entreprises
26:57qui investissent
26:59dans cette entreprise
27:00qui pourraient plutôt aller
27:02vers les Américains
27:03peut-être plus performants
27:04sur certains points
27:04et qui préfèrent...
27:06Voilà,
27:06là pour vous,
27:06c'est une bonne décision.
27:08Absolument.
27:08Et quelque chose
27:09qui m'attriste,
27:09c'est de voir
27:10les fonds de pension européens
27:14qui investissent
27:16chez les grosses compagnies
27:18d'IA américaines.
27:20Mais c'est fou, quoi.
27:22Il faudrait que cet argent
27:23soit investi dans l'IA
27:25en Europe.
27:27Un mot aussi
27:28sur l'impact environnemental
27:29de l'IA.
27:30On a l'impression que
27:31c'est passé.
27:32On en a parlé beaucoup
27:33à un moment.
27:34Tout le monde s'en inquiète un peu.
27:35ce n'est pas passé.
27:36Non,
27:37mais on en parle beaucoup moins.
27:38peut-être que c'est notre faute
27:39aussi à nous,
27:39les médias.
27:41Mais c'est vrai
27:41qu'aujourd'hui,
27:44on les entend tous
27:45on va construire
27:46des data centers,
27:46on va redémarrer des...
27:47Aux Etats-Unis,
27:48c'est un gros débat.
27:49Oui.
27:51Mais je pense que
27:52ce qui est important
27:53de comprendre,
27:55c'est encore,
27:56si on regarde
27:56les données scientifiques
27:57qui sont pertinentes,
27:58c'est la consommation énergétique
28:02pour l'entraînement
28:03et l'utilisation
28:04de ces IA
28:05qui est en croissance exponentielle.
28:07Ce que ça veut dire,
28:08c'est qu'il ne faut pas seulement
28:08regarder
28:09la consommation
28:10aujourd'hui,
28:11mais c'est quoi
28:12les plans
28:14des entreprises
28:15et puis
28:16des gouvernements,
28:17etc.
28:17Ça nous amène
28:18à des fractions
28:21énormes
28:21du total
28:22d'énergie disponible.
28:24Donc,
28:25forcément,
28:26les prix vont augmenter.
28:28La pression
28:29va être énorme.
28:31Et forcément,
28:32il n'y aura pas non plus
28:32assez de ressources
28:33d'énergie renouvelable
28:34pour fournir tout ça.
28:35On pourrait avoir
28:36une IA un jour
28:36qui décide de bloquer,
28:38de dire,
28:38tiens, j'éteins
28:39cette ville
28:39pour faire tourner
28:41les machines.
28:41Ce n'est pas ce que je veux dire.
28:42L'enjeu,
28:43ce n'est pas l'IA elle-même.
28:44L'enjeu,
28:45c'est simplement
28:45un enjeu
28:46d'offres et de demandes.
28:48Si d'un côté,
28:49avec l'IA,
28:49les entreprises font
28:50beaucoup de profits,
28:52elles vont être prêtes
28:52à payer leur énergie
28:53deux, trois,
28:54quatre, dix fois plus cher
28:55parce que c'est encore rentable.
28:57Mais monsieur et madame
28:58tout le monde
28:59qui doivent payer
29:00leur électricité,
29:01c'est une autre question.
29:04Vous êtes professeur,
29:05donc j'ai dit,
29:06à l'Université de Montréal.
29:07Vous parliez des doctorants
29:08tout à l'heure.
29:09Quel message
29:09vous pourriez passer aujourd'hui
29:10à des étudiants
29:12qui nous écoutent,
29:13qui vont lancer
29:15leur start-up
29:15ou qui vont aller travailler
29:16dans les entreprises,
29:16qui forcément
29:17vont travailler
29:18avec l'IA ?
29:19Alors,
29:19certains enthousiastes,
29:21certains se sentiront
29:22un peu forcés
29:22parce qu'ils voudraient
29:24travailler autrement.
29:24Mais voilà,
29:25vous leur direz
29:26il y a quoi aujourd'hui
29:26à ces jeunes
29:26qui arrivent
29:28dans l'enseignement supérieur
29:30ou qui arrivent
29:30sur le marché du travail ?
29:32Je pense que
29:34ceux qui veulent travailler
29:35en IA,
29:36c'est sûr qu'ils vont avoir
29:37encore de la demande.
29:38Mais bon,
29:39ce n'est pas très original
29:40de dire ça.
29:42Mais il n'y a pas
29:44que le choix
29:45de travailler
29:45pour les grandes entreprises
29:46américaines.
29:47Et si ces jeunes
29:50ont à cœur
29:50leur pays,
29:52les valeurs aussi
29:54démocratiques
29:55auxquelles on tient ici,
29:57je pense que
29:59on peut faire
29:59des choix différents.
30:00On peut faire
30:01des choix
30:01de travailler
30:03pour une entreprise
30:04qui va développer
30:04l'IA,
30:05qui va être bénéfique
30:06de manière claire
30:07pour la société,
30:08que ce soit en santé,
30:10éducation,
30:10environnement,
30:11etc.
30:11On peut travailler
30:12pour des entreprises
30:13qui vont avoir
30:14vraiment l'ambition
30:15d'être compétitives
30:19au niveau des capacités
30:20intellectuelles
30:20de l'IA
30:21avec les géants
30:22américains et chinois.
30:23Il nous faut
30:23ce genre d'ambition.
30:26Après,
30:26tout le monde
30:27ne peut pas être
30:27un ingénieur
30:28et un chercheur
30:29en IA.
30:31Et j'avoue
30:32que moi,
30:33c'est quelque chose
30:34qui m'inquiète
30:34parce que je ne vois
30:35pas tellement
30:36d'honnêteté
30:37de la part
30:38des gouvernements
30:39sur l'évidence
30:40qu'il y a des bonnes chances
30:42que beaucoup de gens
30:42perdent leur emploi
30:43et qu'on ne pourra pas
30:44les reformer
30:46pour qu'ils deviennent
30:46des ingénieurs.
30:47Tout le monde...
30:50Je trouve que 2026
30:51marque un peu
30:51ce point d'inflexion.
30:53On en parlait,
30:53on avait plein d'études
30:54qui nous disaient
30:55qu'il va y avoir
30:56des milliers d'emplois
30:57qui vont disparaître.
30:58Mais je trouve qu'en 2026,
30:59là, ça y est,
30:59on commence à entendre...
31:02Ce ne sont plus
31:03des signaux faibles.
31:04On commence à avoir
31:04des faits avérés
31:06sur ce point.
31:07Cela étant dit,
31:08il y a des domaines
31:09où les avancées en IA
31:10vont amener
31:11à des automatisations
31:12plus lointaines.
31:14L'IA, aujourd'hui,
31:15elle est bonne
31:15pour un travail
31:16qui se fait derrière
31:17l'ordinateur.
31:19Donc, pas ce qui demande
31:22une compétence manuelle,
31:23par exemple, physique,
31:26ni ce qui demande
31:27une compétence plus
31:30relationnelle, émotionnelle.
31:31Pas nécessairement,
31:31parce que je pense
31:31que l'IA va être capable
31:32de jouer un rôle émotionnel,
31:34mais il y a des rôles
31:39pour lesquels
31:40on veut un être humain,
31:41que ce soit dans le médical
31:44ou dans la gestion,
31:48par exemple.
31:49Il y a quelque chose
31:50qui se fait entre humains,
31:54là,
31:55qui, même s'il y a,
31:57est plus intelligente,
31:58on ne voudra pas
31:59nécessairement remplacer.
32:01Une dernière question,
32:03vous, tout à l'heure,
32:04hors micro,
32:05vous me disiez,
32:06non,
32:07ce n'est pas forcément
32:08en Chine
32:08que je vais puiser
32:09des idées,
32:10mais vous pensez que,
32:12parce que là,
32:13on a beaucoup parlé
32:13des IA américaines,
32:15les Chinois sont un peu
32:16plus conscients
32:17de certains aspects,
32:18bon, même si c'est
32:18un système complètement différent,
32:20bien entendu,
32:20mais sont un peu plus conscients
32:22de cet aspect
32:23de manque d'honnêteté
32:24de l'IA,
32:25ils font un peu plus...
32:25On a l'impression
32:26que parfois,
32:26ils font un peu plus attention.
32:27Alors,
32:28chez les universitaires chinois,
32:30il y a une prise de conscience
32:32assez significative,
32:33ils participent à des conférences,
32:34justement,
32:34comme celle qui a lieu
32:35en ce moment à Paris,
32:37sur la sécurité
32:38et l'éthique de l'IA.
32:42Chez les entreprises,
32:43alors ça,
32:44c'est complètement autre chose,
32:45les entreprises chinoises,
32:47elles se sentent,
32:49disons,
32:50encore en retard
32:51par rapport
32:52à leurs compétitrices américaines,
32:54et donc,
32:54c'est la course,
32:55et on ne veut rien
32:55entendre parler d'autre.
32:57Et alors,
32:58chez haut gouvernement,
32:59bon,
33:00c'est plus dur
33:00de lire les feuilles de thé,
33:02mais je pense
33:03qu'il y a quand même
33:04des gens
33:04qui sont conscients
33:05des risques
33:06au niveau
33:06de la sécurité nationale.
33:08On verra
33:09comment ça se passe,
33:10mais voilà,
33:11c'est quand même
33:12complexe
33:12comme pays.
33:15Bien,
33:15il nous reste
33:15à vous remercier,
33:16Joshua Benjio,
33:17d'avoir été avec nous.
33:18Je rappelle,
33:18vous êtes pionnier
33:20de cet apprentissage profond,
33:21vous êtes chercheur
33:23le plus cité,
33:23allez-y,
33:24regardez tout ce que
33:25vous avez pu écrire,
33:26toutes les interviews
33:27que vous avez pu donner
33:29après Turing en 2018.
33:30Merci infiniment
33:31d'avoir pris le temps
33:31d'être venu sur l'antenne
33:32de Tech & Co,
33:34puis on espère vous revoir
33:35soit lorsqu'on ira au Canada
33:37ou lorsque vous repasserez
33:38par ici,
33:39par Paris.
33:39Merci infiniment
33:40pour avoir été avec nous.
33:41Merci à vos questions.
33:42Merci à vos questions.
33:42Merci.
Commentaires

Recommandations