Passer au playerPasser au contenu principal
  • il y a 2 jours
Lundi 17 novembre 2025, retrouvez Murielle Popa-Fabre (Experte IA auprès du Conseil de l'Europe), Antoine Bosselut (Professeur à l’Ecole polytechnique Fédérale de Lausanne), Flavien Chervet (auteur et analyste de l'IA) et Benoit Rottembourg (Chercheur dans l'équipe Regalia, Inria) dans SMART TECH, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Bonjour à tous, faut-il inscrire l'alignement des intelligences artificielles à l'agenda de l'Europe ?
00:14Aligner les IA, cela veut dire créer un garde-fou ultime, une sécurité majeure pour la protection des humains.
00:22Cette idée n'est pas une idée farfelue, c'est l'objet d'une proposition de résolution européenne qui a été déposée au Sénat.
00:30On en parle aujourd'hui, ce sera notre sujet à la une avec trois experts pour en débattre.
00:35Je vous propose aussi dans cette édition une interview autour de la question de l'écosystème des LLM,
00:40ces grands modèles de langage européen ouverts, une proposition de LLM alternative.
00:46C'est tout de suite 3 questions A.
00:52Antoine Bousselu, professeur assistant à l'école Polytechnique fédérale de Lausanne
00:58et qui est membre également du comité de pilotage de Swiss AI Initiative,
01:02qui porte le projet Apertus, a l'objectif de développer en Europe des LLM alternatifs ouverts au service du bien commun.
01:11Il est venu faire passer un message très clair au Tech Show Paris.
01:16Nous avons pu lui tendre notre micro juste avant sa conférence.
01:20Antoine Bousselu, bonjour.
01:22Merci d'être avec nous.
01:23Vous êtes professeur à l'école Polytechnique fédérale de Lausanne.
01:27Vous êtes également membre du comité de pilotage de Swiss AI Initiative
01:30qui a lancé un projet dont vous êtes co-responsable qui s'appelle Apertus
01:35et qui vise à développer des LLM pour le bien commun.
01:39Vous allez nous expliquer ce que ça veut dire pour le bien commun.
01:42Ça veut dire répondre à certaines normes éthiques, peut-être environnementales.
01:48En quoi ça consiste ? Sur quoi vous vous appuyez très concrètement pour décider que ça va être pour le bien commun ?
01:52Ça dépend un peu de comment, qu'est-ce qu'on décide qui soit, ce qu'on met dans le LLM qui est différent par rapport à tous les autres.
02:00C'est quelque chose que nous on a réfléchi beaucoup.
02:01Bien sûr, quand on met plein de ressources pour ce développement, il faut bien savoir comment, quelle est la différence avec ce qu'il y a déjà.
02:07Et donc pour nous, c'était vraiment cette question éthique, principalement de regarder ce qui manquait éthiquement dans ce qu'il y avait déjà.
02:14Et donc on a choisi, un, de faire un modèle complètement ouvert et transparent où tout le monde pourrait après auditer ce qu'on avait fait pour le développer.
02:22Donc un modèle open source ?
02:23Exactement, mais complètement open source, pas seulement open weight comme la plupart.
02:26On a aussi seulement utilisé des données publiques et on a respecté les droits d'auteur pour des gens qui disaient qu'ils ne voulaient pas que leurs données soient intégrées dans nos bases, qu'on utilisait pour entraîner le modèle.
02:36Et finalement, on a entraîné sur à peu près 2000 langues qui sont parlées partout dans le monde pour pouvoir réflecter tout le monde et pas seulement le monde western et souvent le monde qui parle anglais.
02:45Donc différence évidente, vous allez me dire, avec les grands modèles américains.
02:52Est-ce qu'il y a une différence avec ce qui se fait déjà en France ?
02:54Par exemple, je pense à Mistral ou encore au laboratoire Qtai.
02:58Oui, donc il y a des petites différences.
03:01Déjà, Mistral, c'est bien plus près de ce que nous on fait par rapport à des open AI et par rapport à des anthropiques.
03:07Par contre, il reste des différences.
03:08Mistral, ils ne disent jamais sur quelles données ils ont entraîné.
03:11C'est souvent des données privées qui viennent d'entreprises, donc on ne peut pas nécessairement voir comment est-ce que les données qu'ils ont utilisées, à la fin, affectent le comportement du système.
03:21Nous, tout ça est complètement ouvert.
03:23On peut regarder exactement sur quoi ça a été entraîné.
03:25Ça peut être un outil de recherche, de science et non seulement pour les entreprises.
03:30Sur les modèles d'entraînement, est-ce que ce sont des LLM qui ont été spécialisés dans certains domaines ou secteurs ?
03:36Pour le moment, non. Pour le moment, ça a plutôt été entraîné sûrement sur des données de base de web qui sont bien sûr en pleine quantité, mais pas nécessairement de la meilleure qualité souvent.
03:47Mais malgré ça, on a quand même pu avoir des niveaux de performance qui, en fait, sont au niveau des meilleurs modèles ouverts d'aujourd'hui.
03:55Vous êtes venu ici au Tech Show Paris pour présenter ce projet.
03:59Qu'est-ce que vous avez eu envie de faire passer comme message, tout particulièrement ?
04:03Le message particulier que je veux passer, c'est que c'est vraiment une opportunité maintenant pour réfléchir à comment on veut développer les IA du futur.
04:11Bien sûr, ChatGPT a trois ans. Ça nous a pris par surprise. On a pris trois ans pour essayer de se rattraper où on est.
04:16Maintenant, c'est vraiment le moment de réfléchir si on veut que l'IA de demain soit différente que celle qu'on est maintenant.
04:21Et pour ça, il faut prendre des décisions pour changer le développement, pour changer qui est représenté dans les IA, pour changer les données sur lesquelles on l'entraîne.
04:28Et comment, en fait, créer des environnements de collaboration pour créer ces IA très puissants ?
04:32Mais comment, justement, on fait pour créer vraiment une dynamique en Europe ?
04:34Parce qu'on entend beaucoup ce discours de dire que, finalement, on a une carte à jouer sur la sécurité des IA, sur des modèles plus éthiques, sur l'open source.
04:43Mais il s'agit aussi d'animer une communauté, de la rendre vraiment active au point de créer un écosystème puissant.
04:49Exactement. Et ça, c'est exactement ce que je pense que les modèles ouverts peuvent faire. Bien sûr, on a des avantages en Europe, on a aussi. On n'a pas des compagnies de tech qui sont évaluées à des milliers, mille de milliards.
05:02Et ça, bien sûr, ça veut dire que les gagnants des révolutions de technologie précédentes sont les gagnants aujourd'hui aussi. Par contre, il y en a toujours qui peuvent venir, qui peuvent changer les dynamiques.
05:11Et ça, c'est à quoi on doit réfléchir ici en Europe. Et je pense que la communauté ouverte qui peut, en fait, prendre plein d'avances qui sont faites par beaucoup de gens.
05:19Et après, les additionner ensemble, c'est vraiment le modèle qu'il faut en Europe aujourd'hui pour continuer cette amélioration pour nous.
05:25On entend le public vous applaudir. Merci beaucoup.
05:27Dans ce cas-là, merci beaucoup.
05:28Beaucoup d'initiatives aujourd'hui se retrouvent derrière cette idée de créer vraiment un écosystème très dynamique autour des LLM européens et ouvert.
05:38On suivra ça dans Smartech. Pour le moment, c'est l'heure d'ouvrir un autre débat, celui de l'alignement de l'IA.
05:44Faut-il mettre ce sujet à l'agenda de l'Europe ?
05:46L'alignement de l'intelligence artificielle garde-fou ultime.
05:54Doit-on mettre ce sujet à l'agenda de l'Europe pour se protéger de tous les dangers et les risques de l'IA ?
06:00Pour en parler, Muriel Popafabre est avec nous. Bonjour Muriel.
06:03Bonjour.
06:03Experte au Conseil de l'Europe, vous intervenez sur les questions de réglementation de l'IA et de protection des données.
06:09Également en plateau, Flavien Chervet. Vous êtes prospectiviste, entrepreneur, directeur de l'innovation à Lyry,
06:15qui est une école de management centrée sur ces questions d'innovation.
06:18Vous êtes aussi auteur de plusieurs ouvrages sur l'intelligence artificielle.
06:22On va citer le dernier, Hello, une BD qui vient donc de sortir.
06:28Voilà. Et vous avez participé à l'organisation d'un colloque au Sénat sur ce thème de faire de l'alignement de l'IA,
06:35une opportunité industrielle européenne.
06:38À côté de vous, Benoît Rotembourg. Bonjour.
06:40Bonjour, Benoît. Chercheur à l'Institut national de recherche en sciences et technologies du numérique.
06:46Inria, fondateur et directeur de l'équipe Regalia, qui est un projet qui se concentre sur la conception de méthodes de détection de biais
06:54et d'atteinte au droit dans les algorithmes d'IA.
06:57Alors, on peut préciser d'ailleurs aussi que Inria, maintenant, est un pilier de l'INESIA,
07:01qui est un nouvel institut d'évaluation de sécurité des IA qui a été créé au début de 2025.
07:07Alors, on parle de quoi ? On parle d'une proposition de résolution européenne sur l'alignement des intelligences artificielles en Europe,
07:14qui a été déposée par la sénatrice Vanina Paoli-Gagin, sénatrice de l'Aube.
07:19Elle a été envoyée donc à la Commission des affaires européennes du Sénat.
07:23L'objectif, c'est d'ériger cet alignement des IA en objectif stratégique pour l'Europe.
07:29J'aimerais déjà qu'on se mette d'accord sur une définition de ce qu'est l'alignement.
07:34J'ai présenté ça comme un garde-fou pour faire vite.
07:37Je pense qu'il y aurait des définitions bien plus précises que moi, Muriel.
07:41La question de la définition fait partie des problèmes à la fois technologiques et aussi dans l'option,
07:46dans l'hypothèse de travailler au niveau européen pour qu'il y ait un alignement sur la définition.
07:52Donc, vous voyez qu'on aligne, on aligne, on aligne.
07:55Donc, c'est fondamentalement dû au fait que l'IA n'est pas simplement un objet technologique,
08:02mais aussi un objet culturel et aussi un objet qui interface la vie,
08:07donc qui a un énorme impact sur la société et qui peut avoir un impact à grande échelle pour influencer la société.
08:16Et quand on dit impact à grande échelle, on pense tout de suite à un impact aussi sur la démocratie,
08:20impact sur les relations sociales, impact sur la vision qu'ont les jeunes d'eux-mêmes.
08:25Et là, on pense à plein d'événements qui se sont passés dans la dernière année
08:28qui ont montré aussi ce visage, impact sur les droits de l'homme,
08:33notamment avec le traité international du Conseil d'Europe qui se dédie uniquement à ça.
08:38Et donc, la définition, c'est vraiment très très large.
08:43Oui, c'est comment aligner l'intelligence artificielle à notre propre ligne éthique, finalement ?
08:51À la fois individuelle et au niveau de la société.
08:54Grosse ambition.
08:57Comment vous définiriez-vous la question de l'alignement, Benoît ?
09:00Alors, je vais prendre la casquette métrologique, finalement.
09:03Comment mesurer qu'une IA est alignée par rapport à un ensemble de valeurs,
09:09de valeurs même de textes de loi, ou de valeurs éthiques, disons, d'une entreprise,
09:14ou de valeurs individuelles ?
09:15Alors, je ne veux pas voir ça, par exemple.
09:17Alors, je vais commencer par la négative.
09:19C'est difficile de surveiller qu'une IA se comporte bien.
09:23Le sentiment qui se dégage, c'est qu'on savait que l'IA dérapait un peu.
09:32On parle d'hallucination, on parle de faux positifs.
09:35C'est dommage qu'on vous dise que vous avez Alzheimer, alors que vous ne l'avez pas.
09:38L'inverse.
09:39Donc, on sent bien les faux positifs.
09:40On sent aussi tous ces problèmes d'empoisonnement,
09:42qu'on peut tordre une IA à déformer ce qu'on parle.
09:45Et avec l'IA générative, s'ajoutent de nouveaux problèmes.
09:48Parce qu'elle nous est tellement familière.
09:50Elle parle à nos gamins.
09:50Elle nous parle à nous, dans un langage presque de coach,
09:54parfois en tout cas de conseiller, de compagnon, on dit un IA, compagnon.
09:59Que du coup, observer qu'un compagnon se comporte bien,
10:04dans un discours, un chatbot, dans toute une conversation,
10:07c'est extrêmement difficile.
10:09D'autant plus qu'il fait tout pour qu'on soit très content de ses réponses,
10:13puisqu'il est toujours d'accord avec nous.
10:14Une chercheuse du CNAM, Stéphane Eloïse Gra, disait
10:18« C'est une formidable machine à faire croire. »
10:21Ah oui.
10:22Alors je suis un peu plus cynique qu'elle.
10:25Et je dis, c'est comme enfiler un exosquelette fantastique,
10:30qui vous donne un sentiment de puissance,
10:32mais qui a des fournis dans les jambes.
10:34Et par moments, waouh, vous perdez pied.
10:37Et donc c'est délicat.
10:39Et donc ça demande de la mesure.
10:41Ça demande de vérifier que la ligne jaune,
10:43et malheureusement ce n'est pas une ligne jaune,
10:45vous n'avez pas la même, vos enfants n'ont pas les mêmes,
10:49tel ou tel texte de loi n'a pas la même,
10:51comme des définitions.
10:52Qu'est-ce que c'est qu'une vidéo pédocriminelle ?
10:54Il faut une définition.
10:56Et donc, une fois qu'on a ces définitions,
10:58et c'est beaucoup de travail pour les juristes,
11:00les scientifiques peuvent essayer de voir
11:02si la ligne jaune est franchie.
11:04Moi je suis plutôt sur le désalignement que sur l'alignement,
11:06mais il faut bien mesurer ce qu'on a envie de refuser.
11:10Regardez des deux côtés.
11:11Flavien, vous avez conseillé la sénatrice
11:15sur le dépôt de cette proposition de résolution européenne
11:19sur l'alignement.
11:20Quelle est votre définition,
11:21et comment on peut s'en sortir justement
11:23sur une définition commune au niveau européen ?
11:27L'alignement, ça part de la technique,
11:29et techniquement on a une définition qui est relativement claire,
11:31c'est faire en sorte qu'un système d'IA
11:33soit aligné avec les intentions de ses concepteurs.
11:35Ça peut être aligné avec quelque chose de très négatif pour la société
11:37si les concepteurs sont des terroristes.
11:38D'un point de vue technique, c'est en effet comment faire en sorte
11:42qu'un système d'IA puisse être contrôlé suffisamment bien.
11:46Et le problème se pose avec les chatbots,
11:48mais là où il devient beaucoup plus évident,
11:49c'est quand on a des systèmes qui travaillent en autonomie,
11:52ce qu'on appelle des agents IA,
11:54et on va de plus en plus vers ces systèmes
11:55qui au lieu juste de donner une réponse,
11:57vont travailler tout seuls pendant un certain temps,
11:59et quand ils sont en environnement ouvert,
12:00il est très difficile de prévoir tout ce qu'ils vont faire.
12:03Donc ça c'est la partie technique.
12:05Après, il y a évidemment une question sociétale,
12:06même si on sait aligner des systèmes d'IA techniquement,
12:09et aujourd'hui on ne sait pas le faire,
12:10soyons très honnêtes,
12:12mais si on savait le faire,
12:13une question on se poserait, c'est aligner avec quoi ?
12:15Et en effet, là il y a un débat de société,
12:17il y a un débat démocratique,
12:18il y a aussi une question qui est intéressante,
12:19c'est de se dire, est-ce qu'on veut...
12:21Est-ce qu'on peut imaginer plusieurs types d'alignements ?
12:22Un alignement sur la sécurité,
12:24un alignement sur l'emploi,
12:26un alignement sur l'éthique ?
12:28On peut avoir des systèmes d'IA
12:29qui sont alignés sur des types de valeurs différentes,
12:31mais ces systèmes d'IA aujourd'hui sont à usage général.
12:34Ce ne sont plus des systèmes qui servent à une seule chose,
12:36un chat GPT, pour prendre l'exemple connu,
12:38ou un Mistral, pour prendre l'exemple français,
12:40c'est des systèmes qui peuvent servir
12:41dans tous les domaines que vous venez d'évoquer.
12:43Et donc, on a un sujet,
12:45c'est que contrairement au système d'IA pré-IA génératif
12:48qui était très spécifique et restreint,
12:50aujourd'hui l'alignement devient un problème généraliste,
12:52comment on fait pour qu'un système d'IA
12:53qui peut faire plein de choses
12:54ne déborde pas sur un petit truc qu'on n'avait pas prévu,
12:57là où un utilisateur va l'utiliser
12:59pour quelque chose de complètement original.
13:01Donc, la question alignée avec quoi,
13:05pour moi, le problème qu'elle suppose,
13:07c'est de se dire,
13:07est-ce qu'on veut aligner l'IA
13:08avec des valeurs communes de société
13:10au risque de les lisser ?
13:11C'est ce qu'on fait aussi, par exemple,
13:12les réseaux sociaux ou des choses comme ça.
13:15Mais on sait aussi que le problème des réseaux sociaux,
13:17c'est d'enfermer chacun dans sa bulle
13:18en fonction des cercles sur lesquels il est.
13:20Et donc, si on décide que l'alignement
13:22peut s'adapter à l'individu,
13:24à des groupes, etc.,
13:25ce qu'on peut avoir envie de penser,
13:27c'est aussi tout d'un coup un sujet d'enfermement.
13:29Donc, quoi qu'on fasse de l'alignement,
13:32il risque d'exacerber
13:33ou le lissage de nos valeurs,
13:35ou le sur-individualisme
13:36et l'enfermement dans nos bulles.
13:39Donc là, il y a une ambiguïté de ce sujet
13:40et je n'ai pas la réponse,
13:42mais c'est pour ça qu'on a voulu,
13:44avec le sénateur Vanina Paoli-Gagin,
13:46porter ça au niveau européen,
13:47en faire une proposition de résolution,
13:49travailler aussi avec le SGPI en France
13:51pour essayer de porter de l'investissement.
13:53Pour porter des investissements industriels
13:57qui permettent à un tissu de se mettre en place
14:00pour expérimenter,
14:01pour faire un peu ce qu'on appelle un « moonshot ».
14:03Aujourd'hui, le marché est très restreint
14:05pour proposer des solutions d'alignement à l'industrie,
14:08mais les systèmes d'IA
14:09devenant de plus en plus autonomes
14:10et de plus en plus puissants,
14:11ces solutions vont être de plus en plus attendues.
14:14Et donc, on se dit que d'ici trois ans,
14:15ça sera un maillon assez stratégique
14:16dans la chaîne de valeur de l'IA,
14:17d'être capable d'aligner des systèmes d'IA
14:19et d'avoir et des technologies
14:21et une réflexion à la fois légale,
14:23éthique, philosophique, politique
14:25sur le sujet poussé,
14:27ça sera un avantage concurrentiel.
14:28Donc, c'est vraiment ce double aspect
14:30qu'on a envie de développer,
14:31faire un pendant industriel
14:32à une réflexion politique.
14:34Alors, moi, je suis partagée entre
14:35est-ce qu'on n'en parle pas un peu trop tôt
14:36ou un peu trop tard, finalement,
14:38parce que ça me projette,
14:40ça me reprojette, en fait,
14:41dans la crise de 2023,
14:43novembre 2023,
14:44quand Sam Altman se fait sortir
14:46d'OpenAI pour se faire réintégrer
14:49quelques jours après,
14:52c'était justement sur cette question
14:54de l'alignement.
14:56On va dire que l'emblème,
14:58le grand responsable montré du doigt
15:00pour le départ de Sam Altman,
15:01c'est aussi celui qui, derrière,
15:02a créé une entreprise
15:03sur le super alignement.
15:06Donc, est-ce que nous,
15:072023, c'était quand même il y a deux ans,
15:10on n'arrive pas un peu tard
15:11en se posant ces questions
15:12et déjà en Silicon Valley,
15:13on bosse dessus,
15:15ou est-ce qu'on n'est pas un peu tôt
15:16parce que, finalement,
15:16on ne sait pas encore
15:17où tout ça va ?
15:19Les meilleurs, aujourd'hui,
15:20sont très clairement
15:21dans la Silicon Valley
15:22et la boîte la plus avancée
15:24au monde sur les technologies
15:25d'alignement des LLM,
15:27des systèmes d'IA à usage général,
15:29c'est Anthropik.
15:30C'est Anthropik,
15:31alors, en termes de publication,
15:33il y a aussi DeepMind,
15:33il y a aussi OpenAI
15:34qui ont des travaux très avancés,
15:35mais Anthropik a un peu lancé
15:38vraiment la science
15:39de l'alignement
15:40vis-à-vis des systèmes d'IA modernes.
15:42Et la question, en fait,
15:44on est en train...
15:44Donc, ça veut dire que, voilà,
15:45c'est déjà lancé.
15:46C'est déjà lancé,
15:47mais aujourd'hui,
15:48par rapport à la course
15:49à la performance,
15:50la course à l'alignement
15:51est très, très restreinte.
15:53Donc, on n'a pas besoin
15:53de la même surface financière
15:54pour jouer dans la même cour
15:56que ces géants-là.
15:57Oui, je veux dire,
15:57on peut créer des géants
15:58sur l'alignement
15:59assez rapidement.
16:00en Europe parce que ça ne demande
16:02pas autant de débauches
16:03et d'énergie vraiment physique
16:05que d'argent.
16:06Moi, je pense que c'est
16:07exactement le bon moment
16:08parce qu'il y a une prise
16:10de conscience au niveau européen
16:12de la nécessité de convergence
16:16pour un nouveau marché européen
16:18et que l'Europe puisse devenir
16:20le baril centre de confiance globale
16:23sur l'échiquier digital international.
16:26Et moi, j'aimerais bien
16:27comment est-ce qu'on peut
16:28incarner la confiance
16:30quand on n'est pas à la tête
16:32aujourd'hui des grandes entreprises d'IA ?
16:34Moi, je pense que la partie technologique
16:38n'est parfois pas la plus chronophage.
16:41Et donc, je pense qu'on a déjà
16:43depuis 2019 au Conseil de l'Europe
16:46et de façon générale,
16:48même au niveau des standards industriels,
16:50un travail de fond
16:51sur comment les droits fondamentaux
16:54peuvent être évalués
16:55dans un système d'IA.
16:56Donc, quelque part, notre avance
16:59est étonnamment une avance
17:01qui est réglementaire,
17:03mais qui a déjà fait le passage
17:05du discours intellectuel
17:06et du travail dans les standards industriels
17:08sur qu'est-ce que c'est
17:09un standard sociotechnique.
17:11Donc, cette alliance
17:12entre la préoccupation de l'impact
17:15sur un droit de l'homme,
17:16sur un droit fondamental européen,
17:18et la technique.
17:19Donc, je ne suis pas sûre
17:21qu'on soit si en retard que ça.
17:22Par contre, je suis certaine
17:25que la Chine a publié en octobre 2023
17:28son premier standard industriel
17:30sur l'alignement de l'IA en Chine.
17:32Et il est extrêmement détaillé.
17:34Et il donne exactement les pourcentages
17:36de déviations qu'on peut avoir
17:38par rapport à une 13, une quinzaine
17:42de paramètres
17:43parce que la Chine s'est rendue compte
17:46qu'il s'agissait d'un outil
17:48qui allait, non seulement,
17:50savait que c'était un outil persuasif,
17:52comme on le sait d'un point de vue technologique,
17:54mais aussi que c'était quelque chose
17:55qui pouvait avoir un impact
17:57sur l'information à grande échelle.
17:59Donc, la question d'intégrité
18:00de l'information a tout de suite
18:02été le premier passage à l'acte
18:06dans la gouvernance de l'IA en Chine.
18:08Et quand vous entendez le mot alignement,
18:12donc j'ai l'impression que vous êtes
18:14en tout cas aligné sur l'importance
18:17que ça recouvre et le coup à jouer
18:20peut-être pour l'Europe,
18:21mais quitte du super alignement ?
18:23Est-ce que c'est la même notion ?
18:25Est-ce que c'est l'étape d'après ?
18:28Alors, ce n'est pas la même notion
18:30parce que j'ai envie de faire
18:32un peu le vieux cynique là-dessus.
18:35Je crois que le terme super alignement,
18:37c'est quand même du marketing.
18:38C'est de l'incantation.
18:39On va dire ça poliment.
18:41Mais c'est mon point de vue.
18:43A l'inverse, je pense qu'un alignement
18:45par morceau, par cible,
18:47les droits fondamentaux,
18:48la non-manipulation,
18:50les droits du commerce,
18:51il n'y a pas que droits fondamentaux aussi.
18:53Ou je disais la cybersécurité.
18:54Voilà.
18:55Ou le non, par exemple,
18:56est-ce qu'une IA peut être empoisonnée
18:58à travers le message ?
18:59Est-ce qu'une IA peut trahir
19:00ces données d'entraînement ?
19:01Toutes ces questions,
19:02mais il y en a beaucoup.
19:04Mais elle demande,
19:05pour être bien posée,
19:06elle demande de regarder
19:07le domaine aval
19:08sur lequel l'IA s'applique.
19:10Et auquel cas,
19:11ça fait déjà beaucoup de rails
19:13pour faire de l'alignement.
19:15Et moi, je pense aussi
19:17que c'est le bon moment
19:17parce que beaucoup
19:19des premières promesses,
19:21c'est quand même trois ans
19:22de ChatGPT maintenant,
19:23et on nous disait,
19:24je ne sais pas si vous vous souvenez,
19:25oh mais ça va être vite corrigé,
19:27les petites hallucinations là.
19:28Non, ça n'est toujours pas corrigé.
19:29J'ai demandé votre âge
19:31à Grock,
19:34à ChatGPT
19:34et à Le Chat hier.
19:36Ok.
19:37J'ai eu quand même
19:38un écart de trois ans
19:39sur votre âge.
19:40Oui, oui.
19:41Je ne vous dirai pas si.
19:42Comme je n'ai pas votre âge.
19:43J'ai reçu un invité
19:44qui lui a été déclaré mort
19:46par toutes les intelligences
19:47artificielles génératives.
19:48Donc vous voyez,
19:49il y a pire.
19:49Mais ça fait trois ans
19:50qu'on nous promet
19:51que ces problèmes-là
19:52devraient être corrigés.
19:52Oui.
19:53Et donc,
19:54vous ne pouvez pas écouter
19:55des discours
19:55de la même personne
19:56qui vous promet quelque chose
19:58qui n'est pas tenu d'un côté
19:59et qui vous dit
20:00qu'il est en train
20:00de fabriquer un truc génial
20:01de l'autre.
20:02Donc,
20:03si on fait un petit peu attention,
20:06tout ça,
20:07c'est quand même
20:07des freins vers l'adoption.
20:10On peut voir le côté négatif.
20:11Ah,
20:11on va empêcher une IA
20:12de faire ça.
20:13Mais moi,
20:13je vois le côté positif.
20:14Tant qu'une IA
20:15n'est pas capable
20:16d'être fiable
20:17dans une vraie profession,
20:19pas pour un exposé
20:20de gamin de troisième.
20:21On se doute
20:22qu'il y a un taux d'erreur
20:24acceptable.
20:25Mais sur,
20:25dans la vraie vie professionnelle,
20:28où un engagement commercial,
20:30ça engage l'entreprise.
20:31Un engagement de fiabilité,
20:33ça engage l'entreprise.
20:34Etc.
20:34Etc.
20:35Donc,
20:35où le faux positif
20:36coûte cher
20:37en médical.
20:39Voilà.
20:39Comme par hasard,
20:40ce sont tous les sujets
20:41que l'AI Act
20:43liste
20:44comme endroit
20:45soit interdit
20:46et manipulation subliminale,
20:48soit des endroits
20:49à haut risque.
20:50Et donc,
20:50moi,
20:50je ne suis pas du tout,
20:51je pense qu'on n'est pas du tout
20:53en retard.
20:53on essaye de poser
20:55par risque
20:55décroissant,
20:57on essaye de poser
20:58des règles du jeu.
20:59Nous,
20:59Europe,
21:00on les prononce
21:01peut-être un peu vite,
21:02mais je ne pense pas
21:04que de l'autre côté,
21:05les IA aillent si vite
21:06que ça soit trop tard.
21:08D'accord.
21:08Je pense que c'est bon moment.
21:10Mais ça reste,
21:12pour l'Europe,
21:12une approche par le risque,
21:13finalement.
21:14Pour l'Europe,
21:15oui.
21:15De poser cette question
21:16de l'alignement.
21:18Il y a quelque chose
21:18que Benoît disait
21:19avec lequel je suis
21:19complètement d'accord,
21:20c'est que l'alignement
21:20est une opportunité
21:21parce qu'il va y avoir
21:22de plus en plus besoin
21:23d'alignement
21:24pour permettre l'adoption.
21:25Donc,
21:25c'est une vraie opportunité
21:26industrielle.
21:27La traiter par le risque,
21:29c'est l'aspect légal,
21:29mais la traiter par l'opportunité,
21:31c'est l'aspect industriel
21:31et c'est ça aussi
21:32qu'on veut pousser
21:38très intéressante.
21:40On voit le développement
21:41très rapide
21:41des systèmes d'IA
21:42et sans jouer
21:44à l'anthropomorphisme
21:45en disant
21:46qu'on va avoir
21:47des systèmes d'IA
21:48plus intelligents
21:48que les humains,
21:49ce n'est pas le même type
21:50d'intelligence,
21:51mais on va avoir
21:52des systèmes d'IA
21:53de plus en plus poussés,
21:54de plus en plus performants
21:55et on va probablement
21:57dépasser un stade
21:58où il sera très difficile
22:00de comprendre
22:00comment fonctionne
22:01un système d'IA
22:02et même quel type
22:03de résultat est produit.
22:04C'est déjà le cas
22:05avec le cadre de la boîte noire.
22:06C'est déjà le cas
22:06parce que j'ai regardé
22:07dans les algorithmes.
22:08Aujourd'hui,
22:08on comprend relativement
22:09le fonctionnement
22:11mais on comprend
22:12relativement bien
22:13le résultat.
22:14Il est probable
22:15qu'on aille vers des systèmes
22:16qui, d'une certaine façon,
22:17nous dépassent
22:18très grandement
22:19en termes de capacité brute,
22:22ce qui est logique.
22:23Le cerveau humain
22:24n'est pas du tout optimisé
22:25pour être extrêmement intelligent.
22:27On a évolué sous contrainte
22:29et donc on a un cerveau
22:30qui est extrêmement adapté
22:31à notre niche
22:31mais qui n'a pas du tout
22:32toutes les capacités intellectuelles.
22:34Personne ici
22:34ne peut apprendre 50 langues.
22:36L'IA en connaît plus.
22:37Personne ne peut lire
22:38un million de mots
22:39en quelques secondes.
22:40On lit un peu.
22:41Donc, on a des différences
22:42d'intelligence.
22:43Et donc, on va avoir
22:43des systèmes
22:44qu'on pourra qualifier
22:45de super intelligents.
22:46Je pense qu'il faut
22:46assumer ce mot.
22:47C'est un mot fort.
22:48En France, on n'aime pas ça.
22:49Mais je pense qu'il faut l'assumer
22:50parce qu'on va être confronté
22:51à des objets monde
22:52d'un nouveau type.
22:53Et le problème de ces systèmes,
22:55c'est que s'ils sont
22:56beaucoup plus capables
22:57que nous de tâches intellectuelles,
22:59ils seront par exemple
22:59beaucoup plus capables
23:00de manipulations.
23:01On voit déjà des comportements
23:02de manipulation
23:03ou des IA qui font semblant
23:05d'être alignés
23:05quand on les teste
23:06pour pas qu'on réduise
23:07leur capacité.
23:08Donc, si un système
23:08est très très intelligent,
23:10on va dire,
23:11j'utilise le mot
23:11avec des guillemets,
23:12mais en tout cas très capable
23:13de résultats qui ont l'air
23:14d'être intelligents
23:15et qu'il est capable
23:16de manipuler,
23:17de faire semblant
23:18d'être aligné, etc.
23:19l'humain sera plus capable
23:21de valider qu'une IA
23:22est alignée.
23:23Et donc,
23:23c'est d'autres mécanismes
23:24qui doivent être mis en oeuvre
23:25et les recherches
23:26dans le superalignement,
23:27c'est dire comment on crée
23:28des IA qui alignent
23:29d'autres IA.
23:30Et donc ça,
23:31c'est toute une branche
23:31de la recherche très sérieuse.
23:32Il ne faut pas du tout
23:33le voir comme un fantasme.
23:36Aujourd'hui,
23:37on a déjà des systèmes d'IA
23:38qui servent à des systèmes d'IA
23:39et demain,
23:40il nous faudra des systèmes d'IA
23:41de plus en plus poussés
23:42pour aligner d'autres systèmes d'IA.
23:44On se demande
23:45comment ça va bien se passer
23:47quand on dit ça.
23:48En effet,
23:48ça pose pas mal de questions.
23:49Mais il y a cette approche
23:50un peu en escalier.
23:51On a des systèmes d'IA
23:52de plus en plus performants
23:54qui alignent le grade
23:55juste au-dessus
23:56jusqu'à ce qu'on ait
23:57des systèmes quasi super intelligents
23:58qui alignent des systèmes
23:59super intelligents.
24:00C'est l'idée.
24:00Là,
24:01c'est même plus la super intelligence,
24:02on vous parlez,
24:02c'est presque l'intelligence générale
24:04qui est pour l'instant
24:06aussi encore
24:07dans le domaine du fantasme.
24:09Mais vous vouliez réagir ?
24:10Moi,
24:10je rajouterais un élément
24:12d'infrastructure
24:13qui est important.
24:14C'est-à-dire qu'on approche
24:16à quelques mois
24:19de produits
24:20qu'on appelle
24:21« personal intelligence »
24:22donc de l'intelligence personnelle
24:24qui pourraient être
24:25en fait
24:25non plus déployés
24:27par plateforme
24:28mais être déployés
24:30sur nos terminaux,
24:32sur nos téléphones,
24:33en local.
24:34Et ça,
24:35c'est encore
24:35c'est vraiment fondamental
24:37pour comprendre
24:37combien cette question
24:38de l'alignement
24:39est urgente maintenant
24:40parce que ça veut dire
24:41qu'on va se retrouver
24:42sur des systèmes
24:43où il ne suffit pas
24:45de les tester
24:45une fois
24:47ou de continuer
24:47à les tester
24:48en tant que grande entreprise
24:50qui possède
24:50une énorme infrastructure.
24:52On aura besoin
24:53d'avoir un alignement
24:54qui est personnel.
24:56Et donc,
24:56ça sera extrêmement compliqué
24:58avec ces agents
24:59IA
24:59en local
25:01de trouver
25:03le bon équilibre
25:04par rapport
25:05à prédire
25:06de quoi vous avez besoin.
25:07Donc,
25:07par exemple,
25:08que vous avez besoin
25:08d'une prédiction de trafic
25:09parce que vous allez
25:10à l'aéroport
25:11ou que vous avez besoin
25:11d'un dossier de ça.
25:12Donc,
25:12en fait,
25:13ce n'est pas simplement
25:13une question
25:14sur les droits,
25:16c'est une question
25:16sur le produit
25:17et c'est une question
25:18qui arrive
25:19de plus en plus près
25:20de l'individu,
25:22la question de l'alignement
25:23et de comment
25:24on va pouvoir,
25:25même dans une hypothèse
25:26réglementaire,
25:27même dans une hypothèse
25:28où ce chemin
25:29qui a commencé au Sénat
25:30arrive au niveau européen,
25:32comment on va se retrouver
25:33techniquement
25:33du fait de ce changement
25:35d'infrastructure
25:36qui est très positif
25:37pour l'Europe
25:37parce que du coup,
25:38ça veut dire
25:39qu'on fait comme l'Afrique
25:41qui a sauté sur la téléphonie,
25:42nous on saute
25:43sur l'IA,
25:45petit modèle
25:45sur le téléphone
25:46et comment on va
25:49vraiment,
25:50concrètement,
25:51techniquement,
25:52pouvoir assurer
25:53cet alignement
25:53et non seulement
25:55protéger
25:56les citoyens européens
25:57mais créer
25:58un bon produit
25:59pour les Européens
26:00où les valeurs européennes
26:02sont,
26:02et la culture,
26:03simplement,
26:04les pratiques,
26:04les habitudes,
26:05comment je vais avoir
26:06la simulation interne
26:08par LLM
26:09à l'intérieur
26:09de mon système
26:10de recommandation
26:11qui est dans mon agent IA
26:12qui va prédire
26:13la façon
26:14dont on voyage à Paris,
26:15la façon
26:15dont on passe
26:16d'un métro à l'autre.
26:17Est-ce que ça veut dire
26:18que ça passera,
26:18Muriel,
26:19par une nouvelle réglementation,
26:22par des textes de loi ?
26:24Parce que là,
26:25aujourd'hui,
26:25on parlait
26:26dans le débrief
26:27de l'actu
26:28de l'omnibus package
26:30qui vise à,
26:31justement,
26:32simplifier un petit peu
26:33toutes ces mesures
26:33autour du numérique
26:34au niveau européen.
26:36Si on rajoute
26:37une couche
26:37sur l'alignement,
26:38comment on fait ?
26:40Comment on fait ?
26:40Surtout,
26:41comment on l'implémente ?
26:42C'est notamment
26:43pour cette question.
26:44Il faut qu'il y ait
26:44un exemple.
26:44C'est pour l'industriel
26:45et qu'il faut
26:46que la partie légale
26:49soit juste là
26:49pour légitimer
26:50la capacité
26:52à lancer
26:53une industrie
26:54autour de la question
26:54de l'alignement.
26:55Donc, industrie,
26:56c'est-à-dire financement ?
26:57Du financement
26:57pour qu'il y ait
26:58des start-up
26:58qui se créent,
26:59pour que des entreprises
26:59puissent lancer
27:00des projets
27:01et qu'on ait
27:02par le bas
27:03par les choses
27:05qui se font réellement.
27:06Et une fois
27:07qu'on a l'écosystème,
27:08finalement,
27:09on peut commencer
27:10à écrire le texte.
27:11C'est ça que vous dites ?
27:12On se projette
27:12dans un univers
27:13où on a chacun
27:14un petit assistant
27:15pour certaines
27:16de nos tâches.
27:18Prenons l'exemple
27:18de la rédaction
27:19de Curriculum Vité
27:20pour candidater
27:21à une offre d'emploi.
27:22Aux Etats-Unis,
27:23c'est massif.
27:24On parle de 40%
27:26des CV
27:26produits aujourd'hui
27:28via une assistance
27:30de type
27:31Tchad GPD
27:31ou autre.
27:32Il faut dire
27:32que le CV,
27:32franchement...
27:33Je vous suis.
27:36Mais c'est massif.
27:37Mais c'est massif.
27:37De l'autre côté,
27:38donc moi,
27:39j'ai mon agent IA
27:40qui m'aide
27:40à faire mon CV.
27:42De l'autre côté,
27:43l'assistante RH
27:44qui me recrutera,
27:46peut-être,
27:47a elle-même
27:48son assistant.
27:49Et oui.
27:49Ah, Kéteri,
27:50qu'est-ce qu'on a montré
27:51que les assistants IA
27:53de Tchad GPT
27:54favorisent
27:56les CV
27:56écrits par Tchad GPT ?
27:58Quelle horreur !
27:58Vous voyez ?
27:59Donc,
28:00rien ça.
28:01Je ne suis pas du tout
28:02en 2040.
28:03Oui,
28:03c'est aujourd'hui.
28:04Et alors,
28:04je suis d'accord
28:05qu'on pourrait réfléchir
28:06à l'utilité du CV,
28:08mais c'est facile
28:09quand on est vieux.
28:09C'est un bon exemple.
28:10Mais quand on est jeune,
28:11on est démuni,
28:12on cherche des petits stages,
28:14on cherche des choses,
28:14on envoie un CV
28:15puisqu'il n'y a pas trop le choix.
28:16Donc,
28:17rien que ça,
28:18sur ce côté,
28:19des IA entre elles,
28:21donc du coup,
28:22ça pose la question de
28:22mais mon IA à moi,
28:24quelle est-elle ?
28:26Comment se décrit-elle ?
28:27Est-elle agnée
28:28avec un ensemble
28:28de choses précises ?
28:30Et puis de l'autre côté,
28:30l'IA de celui
28:31qui veut m'employer,
28:33quelle est-elle
28:33et comment, etc.
28:34Vous voyez,
28:34dès qu'on est sur des agents
28:36qui se parlent
28:37et c'est en train d'arriver.
28:38Et on est vraiment,
28:39oui,
28:40c'est vraiment le sujet majeur
28:43qu'on doit traiter
28:43donc avec urgence.
28:45Moi,
28:45c'est ça que je retiens
28:45de nos échanges.
28:46Merci beaucoup
28:47à tous les trois.
28:48Muriel Popafam,
28:48experte au Conseil de l'Europe,
28:49Benoît Autembourg,
28:50chercheur dans l'équipe
28:51Régalia à INRIA
28:52et Fabien Chervais,
28:54auteur et analyste en IA.
28:56Merci beaucoup
28:56à tous de nous avoir suivis.
28:58C'était Smartech
28:58et on se retrouve très vite.
28:59Sous-titrage Société Radio-Canada
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations