Passer au playerPasser au contenu principal
  • il y a 2 jours
Faire de l’alignement des IA une opportunité plutôt qu’une contrainte : tel est le pari européen. Comment garantir que les algorithmes restent sous contrôle, éthiques et transparents, tout en soutenant la compétitivité technologique du continent ?

Catégorie

🗞
News
Transcription
00:00L'alignement de l'intelligence artificielle garde-fou ultime.
00:08Doit-on mettre ce sujet à l'agenda de l'Europe pour se protéger de tous les dangers et les risques de l'IA ?
00:13Pour en parler, Muriel Popafabre est avec nous.
00:15Bonjour Muriel, experte au Conseil de l'Europe.
00:18Vous intervenez sur les questions de réglementation de l'IA et de protection des données.
00:22Également en plateau, Flavien Chervet.
00:24Vous êtes prospectiviste, entrepreneur, directeur de l'innovation à Lyri,
00:28qui est une école de management centrée sur ces questions d'innovation.
00:32Vous êtes aussi auteur de plusieurs ouvrages sur l'intelligence artificielle.
00:35On va citer le dernier, Hello, une BD qui vient donc de sortir.
00:42Vous avez participé à l'organisation d'un colloque au Sénat sur ce thème de faire de l'alignement de l'IA une opportunité industrielle européenne.
00:51À côté de vous, Benoît Rotembourg, bonjour.
00:53Benoît, chercheur à l'Institut national de recherche en sciences et technologies du numérique.
00:59INRIA, fondateur et directeur de l'équipe Regalia,
01:02qui est un projet qui se concentre sur la conception de méthodes de détection de biais et d'atteinte au droit dans les algorithmes d'IA.
01:10On peut préciser d'ailleurs aussi qu'INRIA est un pilier de l'INESIA,
01:14qui est un nouvel institut d'évaluation de sécurité des IA,
01:18qui a été créé au début de 2025.
01:21Alors, on parle de quoi ?
01:22On parle d'une proposition de résolution européenne sur l'alignement des intelligences artificielles en Europe,
01:27qui a été déposée par la sénatrice Vanina Paoli-Gagin, sénatrice de l'Aube.
01:32Elle a été envoyée à la Commission des affaires européennes du Sénat.
01:36L'objectif, c'est d'ériger cet alignement des IA en objectif stratégique pour l'Europe.
01:42J'aimerais déjà qu'on se mette d'accord sur une définition de ce qu'est l'alignement.
01:47J'ai présenté ça comme un garde-fou pour faire vite.
01:51Je pense qu'il y aurait des définitions bien plus précises que moi, Muriel.
01:54La question de la définition fait partie des problèmes à la fois technologiques
01:58et aussi dans l'option, dans l'hypothèse de travailler au niveau européen
02:02pour qu'il y ait un alignement sur la définition.
02:05Donc, vous voyez qu'on aligne, on aligne, on aligne.
02:07C'est fondamentalement dû au fait que l'IA n'est pas simplement un objet technologique,
02:15mais aussi un objet culturel et aussi un objet qui interface la vie,
02:21donc qui a un énorme impact sur la société
02:24et qui peut avoir un impact à grande échelle pour influencer la société.
02:29Et quand on dit impact à grande échelle, on pense tout de suite à un impact aussi sur la démocratie,
02:33impact sur les relations sociales, impact sur la vision qu'ont les jeunes d'eux-mêmes.
02:38Et là, on pense à plein d'événements qui se sont passés dans la dernière année
02:41qui ont montré aussi ce visage, impact sur les droits de l'homme,
02:46notamment avec le traité international du Conseil d'Europe qui se dédie uniquement à ça.
02:51Et donc, la définition, c'est vraiment très très large.
02:56Oui, c'est comment aligner l'intelligence artificielle à notre propre ligne éthique, finalement ?
03:04À la fois individuelle et au niveau de la société.
03:07Grosse ambition.
03:10Comment vous définiriez-vous la question de l'alignement, Benoît ?
03:13Alors, je vais prendre la casquette métrologique, finalement.
03:17Comment mesurer qu'une IA est alignée par rapport à un ensemble de valeurs,
03:22de valeurs même de textes de loi ou de valeurs éthiques, disons, d'une entreprise
03:27ou de valeurs individuelles ?
03:29Alors, je ne veux pas voir ça, par exemple.
03:30Alors, je vais commencer par le négatif.
03:33C'est difficile de surveiller qu'une IA se comporte bien.
03:38Le sentiment qui se dégage, c'est qu'on savait que l'IA dérapait un peu.
03:45On parle d'hallucination, on parle de faux positifs.
03:48C'est dommage qu'on vous dise que vous avez Alzheimer alors que vous ne l'avez pas.
03:51L'inverse.
03:52Donc, on sent bien les faux positifs.
03:54On sent aussi tous ces problèmes d'empoisonnement qu'on peut tordre une IA, déformer ce qu'on parle.
03:58Et avec l'IA générative, s'ajoutent de nouveaux problèmes.
04:01Parce qu'elle nous est tellement familière.
04:03Elle parle à nos gamins.
04:04Elle nous parle à nous, dans un langage presque de coach, parfois, en tout cas de conseiller,
04:09de compagnon, on dit.
04:10EI, companion.
04:12Que du coup, observer qu'un compagnon se comporte bien,
04:16dans un discours, un chatbot, dans toute une conversation, c'est extrêmement difficile.
04:22D'autant plus qu'il fait tout pour qu'on soit très content de ses réponses,
04:26puisqu'il est toujours d'accord avec nous.
04:27Une chercheuse du CNAM, Stéphane Eloïse Gra, disait,
04:32c'est une formidable machine à faire croire.
04:34Ah oui.
04:35Alors, je suis un peu plus cynique qu'elle.
04:38Et je dis, c'est comme enfiler un exosquelette fantastique,
04:43qui vous donne un sentiment de puissance, mais qui a des fourmis dans les jambes.
04:47Et par moments, waouh, vous perdez pied.
04:50Et donc, c'est délicat.
04:52Et donc, ça demande de la mesure.
04:55Ça demande de vérifier que la ligne jaune,
04:57et malheureusement, ce n'est pas une ligne jaune,
04:59vous n'avez pas la même, vos enfants n'ont pas les mêmes,
05:03tel ou tel texte de loi n'a pas la même,
05:04comme des définitions.
05:05Qu'est-ce que c'est qu'une vidéo pédo-criminel ?
05:07Il faut une définition.
05:09Et donc, une fois qu'on a ces définitions,
05:11et c'est beaucoup de travail pour les juristes,
05:14les scientifiques peuvent essayer de voir si la ligne jaune est franchie.
05:17Moi, je suis plutôt sur le désalignement que sur l'alignement.
05:20Mais il faut bien mesurer ce qu'on a envie de refuser ou d'accéder.
05:24Garder des deux côtés.
05:25Flavien, vous, vous avez conseillé la sénatrice
05:28sur le dépôt de cette proposition de résolution européenne sur l'alignement.
05:33Quelle est votre définition,
05:34et comment on peut s'en sortir, justement,
05:36sur une définition commune au niveau européen ?
05:40L'alignement, ça part de la technique.
05:42Et techniquement, on a une définition qui est relativement claire,
05:45c'est faire en sorte qu'un système d'IA soit aligné
05:46avec les intentions de ses concepteurs.
05:48Ça peut être aligné avec quelque chose de très négatif pour la société
05:50si les concepteurs sont des terroristes.
05:52Donc, d'un point de vue technique,
05:54c'est en effet comment faire en sorte
05:55qu'un système d'IA puisse être contrôlé suffisamment bien.
05:59Et le problème se pose avec les chatbots,
06:01mais là où il devient beaucoup plus évident,
06:02c'est quand on a des systèmes qui travaillent en autonomie,
06:05ce qu'on appelle des agents IA,
06:07et on va de plus en plus vers ces systèmes
06:09qui, au lieu juste de donner une réponse,
06:10vont travailler tout seuls pendant un certain temps.
06:12Et quand ils sont en environnement ouvert,
06:13il est très difficile de prévoir tout ce qu'ils vont faire.
06:16Donc ça, c'est la partie technique.
06:18Après, il y a évidemment une question sociétale,
06:20même si on sait aligner des systèmes d'IA techniquement,
06:22et aujourd'hui, on ne sait pas le faire,
06:24soyons très honnêtes,
06:25mais si on savait le faire,
06:26une question se poserait, c'est aligner avec quoi ?
06:28Et en effet, là, il y a un débat de société,
06:30il y a un débat démocratique,
06:31il y a aussi une question qui est intéressante,
06:32c'est de se dire, est-ce qu'on veut...
06:34Est-ce qu'on peut imaginer plusieurs types d'alignement ?
06:35Un alignement sur la sécurité,
06:37un alignement sur l'emploi,
06:39un alignement sur l'éthique ?
06:41On peut avoir des systèmes d'IA
06:42qui sont alignés sur des types de valeurs différentes,
06:44mais ces systèmes d'IA, aujourd'hui,
06:46sont à usage général.
06:47Ce ne sont plus des systèmes qui servent à une seule chose,
06:49un Tchadjipiti, pour prendre l'exemple connu,
06:52ou un Mistral, pour prendre l'exemple français.
06:53Ce sont des systèmes qui peuvent servir
06:54dans tous les domaines que vous venez d'évoquer.
06:56Et donc, on a un sujet,
06:58c'est que, contrairement au système d'IA pré-IA génératif,
07:01qui était très spécifique et restreint,
07:03aujourd'hui, l'alignement devient un problème généraliste.
07:05Comment on fait pour qu'un système d'IA
07:06qui peut faire plein de choses
07:08ne déborde pas sur un petit truc
07:10qu'on n'avait pas prévu,
07:10là où un utilisateur va l'utiliser
07:12pour quelque chose de complètement original ?
07:15Donc, la question d'aligner avec quoi ?
07:18Pour moi, le problème qu'elle suppose,
07:20c'est de se dire,
07:20est-ce qu'on veut aligner l'IA
07:21avec des valeurs communes de société
07:23au risque de les lisser ?
07:24C'est ce qu'on fait aussi, par exemple,
07:25les réseaux sociaux, ou des choses comme ça.
07:28Mais on sait aussi que le problème des réseaux sociaux,
07:30c'est d'enfermer chacun dans sa bulle
07:31en fonction des cercles sur lesquels il est.
07:34Et donc, si on décide que l'alignement
07:35peut s'adapter à l'individu,
07:37à des groupes, etc.,
07:38ce qu'on peut avoir envie de penser,
07:40c'est aussi, tout d'un coup,
07:42un sujet d'enfermement.
07:43Donc, quoi qu'on fasse de l'alignement,
07:45il risque d'exacerber
07:46ou le lissage de nos valeurs,
07:48ou le surindividualisme
07:50et l'enfermement dans nos bulles.
07:52Donc là, il y a une ambiguïté de ce sujet,
07:54et je n'ai pas la réponse,
07:55mais c'est pour ça qu'on a voulu,
07:57avec le sénateur Vanina Paoli-Gagin,
07:59porter ça au niveau européen,
08:01en faire une proposition de résolution,
08:02travailler aussi avec le SGPI en France
08:04pour essayer de porter de l'investissement.
08:06Secrétaire général pour l'investissement.
08:08Tout à fait.
08:08Pour porter des investissements industriels
08:10qui permettent en fait
08:11à un tissu de se mettre en place
08:13pour expérimenter,
08:15pour faire un peu ce qu'on appelle un moonshot.
08:16Aujourd'hui, le marché est très restreint
08:18pour proposer des solutions
08:19d'alignement à l'industrie,
08:21mais les systèmes d'IA
08:22devenant de plus en plus autonomes
08:23et de plus en plus puissants,
08:25ces solutions vont être
08:26de plus en plus attendues.
08:27Et donc, on se dit que d'ici trois ans,
08:28ça sera un maillon assez stratégique
08:30dans la chaîne de valeur de l'IA,
08:31d'être capable d'aligner
08:31des systèmes d'IA
08:32et d'avoir et des technologies
08:34et une réflexion à la fois légale,
08:37éthique, philosophique, politique
08:38sur le sujet poussé,
08:40ça sera un avantage concurrentiel.
08:41Donc, c'est vraiment ce double aspect
08:43qu'on a envie de développer,
08:45faire un pendant industriel
08:46à une réflexion politique.
08:47Alors, moi, je suis partagée entre
08:48est-ce qu'on n'en parle pas
08:49un peu trop tôt
08:49ou un peu trop tard finalement,
08:51parce que ça me projette,
08:53ça me reprojette en fait
08:54dans la crise de 2023,
08:56novembre 2023,
08:57quand Sam Altman se fait sortir
08:59d'OpenAI
09:01pour se faire réintégrer
09:02quelques jours après,
09:05c'était justement
09:06sur cette question de l'alignement,
09:09on va dire que l'emblème,
09:11le grand responsable
09:13montré du doigt
09:13pour le départ de Sam Altman,
09:15c'est aussi celui qui derrière
09:16a créé une entreprise
09:16sur le super alignement.
09:19Donc, est-ce que nous,
09:202023, c'était quand même
09:22il y a deux ans,
09:23on n'arrive pas un peu tard
09:24en se posant ces questions
09:25et déjà en Silicon Valley,
09:27on bosse dessus
09:28ou est-ce qu'on n'est pas
09:29un peu tôt parce que finalement,
09:30on ne sait pas encore
09:30où tout ça va ?
09:32Les meilleurs aujourd'hui
09:34sont très clairement
09:35dans la Silicon Valley
09:35et la boîte la plus avancée
09:37au monde sur les technologies
09:39d'alignement des LLM,
09:40des systèmes d'IA
09:41à usage général,
09:42c'est Anthropik.
09:44C'est Anthropik,
09:44alors en termes de publication,
09:46il y a aussi Deepman,
09:47il y a aussi OpenAI
09:47qui ont des travaux très avancés
09:48mais Anthropik a un peu lancé
09:51vraiment la science
09:53de l'alignement
09:53vis-à-vis des systèmes d'IA modernes.
09:55Et la question en fait,
09:57on est en charge.
09:57Donc ça veut dire que
09:58voilà, c'est déjà lancé.
09:59C'est déjà lancé
10:00mais aujourd'hui,
10:01par rapport à la course
10:02à la performance,
10:03la course à l'alignement
10:05est très très restreinte.
10:06Donc on n'a pas besoin
10:06de la même surface financière
10:08pour jouer dans la même cour
10:09que ces géants-là.
10:10Je veux dire,
10:10on peut créer des géants
10:11sur l'alignement
10:12assez rapidement.
10:14en Europe
10:14parce que ça ne demande pas
10:15autant de débauches
10:16et d'énergie
10:17vraiment physique
10:18d'argent.
10:20Moi je pense que
10:20c'est exactement le bon moment
10:22parce qu'il y a une prise
10:23de conscience
10:24au niveau européen
10:25de la nécessité
10:27de convergence
10:29pour un nouveau marché européen
10:31et que l'Europe
10:33puisse devenir
10:34le barry centre
10:34de confiance global
10:36sur l'échiquier
10:37digital international.
10:39Et moi j'aimerais bien
10:40que ça me dit
10:41comment est-ce qu'on peut
10:42incarner la confiance
10:43quand on n'est pas
10:44à la tête aujourd'hui
10:45des grandes entreprises d'IA ?
10:47Moi je pense que
10:48il y a
10:49dans la partie technologique
10:51et parfois
10:52pas la plus chronophage.
10:54Et donc je pense
10:55qu'on a déjà
10:56depuis
10:562019
10:58au Conseil de l'Europe
11:00et de façon générale
11:01même au niveau
11:01des standards industriels
11:03un travail de fond
11:04sur comment
11:06les droits fondamentaux
11:07peuvent être évalués
11:08dans un système d'IA.
11:09Donc
11:10quelque part
11:11notre avance
11:12est étonnamment
11:14une avance
11:14qui est réglementaire
11:16mais qui a déjà
11:17fait le passage
11:18du discours intellectuel
11:20et du travail
11:20dans les standards industriels
11:21sur qu'est-ce que c'est
11:23un standard sociotechnique.
11:25Donc
11:25cette alliance
11:26entre
11:26la préoccupation
11:27de l'impact
11:28sur un droit de l'homme
11:29sur un droit fondamental
11:30européen
11:31et la technique.
11:32Donc
11:33je ne suis pas sûre
11:34qu'on soit si en retard
11:35que ça
11:35par contre
11:37je suis certaine
11:38que la Chine
11:38a publié
11:39en octobre
11:412023
11:42son premier standard
11:43industriel
11:43sur l'alignement
11:44de l'IA
11:44en Chine
11:46et il est
11:46extrêmement détaillé
11:47et il donne
11:48exactement
11:49les pourcentages
11:50de déviations
11:51qu'on peut avoir
11:52par rapport
11:52à une
11:53treize
11:54une quinzaine
11:55de paramètres
11:56parce que
11:57la Chine
11:58s'est rendue compte
11:59qu'il s'agissait
12:00d'un outil
12:01qui allait
12:02non seulement
12:03savoir que c'était
12:04un outil persuasif
12:05comme on le sait
12:06d'un point de vue technologique
12:07mais aussi
12:08que c'était quelque chose
12:09qui pouvait avoir
12:09un impact
12:10sur l'information
12:11à grande échelle.
12:13Donc la question
12:13d'intégrité
12:14de l'information
12:14a tout de suite
12:15été le premier passage
12:18à l'acte
12:19dans la gouvernance
12:20de l'IA
12:21en Chine.
12:22Et quand vous entendez
12:23le mot alignement
12:25j'ai l'impression
12:26que vous êtes
12:27en tout cas
12:28aligné
12:28sur l'importance
12:30que ça recouvre
12:31et le coup
12:33à jouer
12:33peut-être
12:33pour l'Europe
12:34mais quoi est
12:35du super alignement
12:36est-ce que c'est
12:37la même notion
12:37est-ce que c'est
12:39l'étape d'après ?
12:42Alors c'est pas
12:42la même notion
12:43parce que
12:43j'ai envie
12:45de faire
12:45un peu le vieux cynique
12:48là-dessus
12:48je crois que le terme
12:49super alignement
12:50c'est quand même
12:51du marketing
12:51c'est de l'incantation
12:53on va dire ça poliment
12:53mais c'est mon point de vue
12:56à l'inverse
12:56je pense qu'un alignement
12:58par morceau
12:59par cible
13:00les droits fondamentaux
13:01la non-manipulation
13:03les droits du commerce
13:04il n'y a pas que
13:04les droits fondamentaux
13:05aussi
13:05où je disais
13:06la cybersécurité
13:07ou le non
13:08par exemple
13:09est-ce qu'une IA
13:10peut être empoisonnée
13:11à travers le message
13:12est-ce qu'une IA
13:13peut trahir
13:13ces données d'entraînement
13:14toutes ces questions
13:15mais il y en a beaucoup
13:16mais elle demande
13:18pour être bien posée
13:19elle demande
13:20de regarder
13:20le domaine aval
13:21sur lequel l'IA
13:22s'applique
13:23et auquel cas
13:24ça fait déjà
13:25beaucoup de rails
13:26pour faire de l'alignement
13:28et moi je pense aussi
13:30que c'est le bon moment
13:31parce que
13:32beaucoup des premières promesses
13:33c'est quand même
13:34trois ans
13:35de la GPT maintenant
13:36et on nous disait
13:37je ne sais pas si vous vous souvenez
13:38oh mais ça va être vite corrigé
13:40les petites hallucinations
13:41
13:41non ça n'est toujours pas corrigé
13:42j'ai demandé votre âge
13:45à Grock
13:47à Tchad GPT
13:48et à Le Chat
13:49hier
13:49ok
13:50j'ai eu quand même
13:51un écart de trois ans
13:53sur votre âge
13:54j'ai reçu un invité
13:57qui lui a été déclaré mort
13:59par toutes les intelligences
14:01artificielles génératives
14:01donc vous voyez
14:02à pire
14:02mais ça fait trois ans
14:03qu'on nous promet
14:04que ces problèmes-là
14:05devraient être corrigés
14:06et donc
14:07vous ne pouvez pas écouter
14:08des discours
14:08de la même personne
14:10qui vous promet quelque chose
14:11qui n'est pas tenu
14:12d'un côté
14:12et qui vous dit
14:13qu'il est en train de fabriquer
14:14un truc génial de l'autre
14:15donc
14:16si on fait un petit peu attention
14:18tout ça
14:20c'est quand même
14:20des freins vers l'adoption
14:21on peut voir le côté négatif
14:24ah on va empêcher
14:25une IA de faire ça
14:26mais moi je vois le côté positif
14:27tant qu'une IA
14:28n'est pas capable
14:29d'être fiable
14:30dans une vraie profession
14:32pas pour un exposé
14:33de gamin de troisième
14:34on se doute
14:35qu'il y a un taux d'erreur
14:37acceptable
14:37mais sur
14:39dans la vraie vie professionnelle
14:40
14:41un engagement commercial
14:42ça engage l'entreprise
14:44un engagement de fiabilité
14:46ça engage l'entreprise
14:47etc.
14:47ou le faux positif
14:49coûte cher
14:50en médical
14:52comme par hasard
14:53ce sont tous les sujets
14:54que l'AI Act
14:56liste
14:57comme endroit
14:58soit interdit
14:59et manipulation subliminale
15:01soit des endroits
15:02à haut risque
15:03et donc moi je suis pas du tout
15:04je pense qu'on n'est pas du tout en retard
15:06on essaye de poser
15:08par risque
15:09décroissant
15:10on essaye de poser des règles
15:11du jeu
15:12nous Europe
15:13on les prononce peut-être
15:14un peu vite
15:15mais
15:16je ne pense pas
15:18que de l'autre côté
15:18les IA aillent si vite
15:20que ça soit trop tard
15:21d'accord
15:21je pense que c'est le bon moment
15:22mais ça reste
15:24pour l'Europe
15:25une approche par le risque
15:26finalement
15:27pour l'Europe
15:28oui
15:28de poser cette question
15:29de l'alignement
15:30il y a quelque chose
15:31que Benoît disait
15:32avec lequel je suis complètement d'accord
15:33c'est que l'alignement
15:34est une opportunité
15:35parce qu'il va y avoir
15:35de plus en plus besoin
15:36d'alignement
15:37pour permettre l'adoption
15:38donc c'est une vraie opportunité
15:39industrielle
15:40la traiter par le risque
15:42c'est l'aspect légal
15:42mais la traiter par l'opportunité
15:44c'est l'aspect industriel
15:45et c'est ça aussi
15:45qu'on veut pousser
15:46avec cette résolution
15:47et travailler avec le SGPI
15:48pour revenir sur la question
15:49du super alignement
15:50je pense que c'est une notion
15:51très intéressante en fait
15:52on voit le développement
15:54très rapide des systèmes d'IA
15:55et sans jouer à l'anthropomorphisme
15:58en disant
15:59on va avoir des systèmes d'IA
16:01plus intelligents que les humains
16:02c'est pas le même type d'intelligence
16:04mais on va avoir des systèmes d'IA
16:06de plus en plus poussés
16:07de plus en plus performants
16:08et on va probablement dépasser un stade
16:11où il sera très difficile
16:13de comprendre
16:14comment fonctionne un système d'IA
16:15et même quel type de résultat il produit
16:17c'est déjà le cas
16:18avec le plan de la boîte noire
16:19c'est déjà le cas
16:19parce que je vais regarder
16:20dans les algorithmes
16:21aujourd'hui on comprend relativement
16:23on ne comprend pas
16:23le fonctionnement
16:25mais on comprend relativement bien
16:26le résultat
16:27il est probable
16:28qu'on aille vers des systèmes
16:29qui d'une certaine façon
16:30nous dépassent
16:31très grandement
16:32en termes de capacité brute
16:34ce qui est logique
16:36le cerveau humain
16:37n'est pas du tout optimisé
16:38pour être extrêmement intelligent
16:40on a évolué sous contrainte
16:42et donc on a un cerveau
16:43qui est extrêmement adapté
16:44à notre niche
16:45mais qui n'a pas du tout
16:46toutes les capacités intellectuelles
16:47personne ici peut apprendre
16:4850 langues
16:49l'IA en connaît plus
16:50personne ne peut lire
16:51un million de mots
16:52en quelques secondes
16:53l'IA peut
16:54donc on a des différences
16:55d'intelligence
16:55et donc on va avoir des systèmes
16:57qu'on pourra qualifier
16:58de super intelligents
16:59je pense qu'il faut assumer ce mot
17:00c'est un mot fort
17:01en France on n'aime pas ça
17:02mais je pense qu'il faut l'assumer
17:03parce qu'on va être confronté
17:04à des objets mondes
17:05d'un nouveau type
17:06et le problème de ces systèmes
17:08c'est que
17:08s'ils sont beaucoup plus capables
17:10que nous de tâches intellectuelles
17:12ils seront par exemple
17:13beaucoup plus capables
17:13de manipulation
17:14on voit déjà des comportements
17:16de manipulation
17:16ou des IA qui font semblant
17:18d'être alignés
17:18quand on les teste
17:19pour pas qu'on réduise
17:20leur capacité
17:20donc si un système
17:22est très très intelligent
17:23on va dire
17:24j'utilise le mot
17:25avec des guillemets
17:25mais en tout cas très capable
17:26de résultats
17:27qui ont l'air d'être intelligent
17:28et qu'il est capable
17:29de manipuler
17:29de faire semblant
17:31d'être aligné
17:32l'humain sera plus capable
17:34de valider
17:34qu'une IA est alignée
17:36et donc
17:36c'est d'autres mécanismes
17:37qui doivent être mis en oeuvre
17:38et les recherches
17:39dans le super alignement
17:40c'est dire
17:40comment on crée des IA
17:41qui alignent d'autres IA
17:43et donc ça
17:44c'est toute une branche
17:44de la recherche
17:45très sérieuse
17:45c'est pas du tout
17:46faut pas du tout
17:47le voir comme un fantasme
17:49aujourd'hui
17:50on a déjà
17:51des systèmes d'IA
17:51qui servent à aligner
17:52des systèmes d'IA
17:52et demain
17:53il nous faudra
17:54des systèmes d'IA
17:54de plus en plus poussés
17:55pour aligner
17:55d'autres systèmes d'IA
17:56on se demande
17:58comment ça va bien se passer
18:00quand on dit ça
18:00en effet ça pose pas mal
18:02de questions
18:02mais il y a cette approche
18:04un peu en escalier
18:04on a des systèmes d'IA
18:05de plus en plus performants
18:07qui alignent
18:08le grade juste au-dessus
18:09jusqu'à ce qu'on ait
18:10des systèmes
18:10quasi super intelligents
18:11qui alignent des systèmes
18:12super intelligents
18:13c'est l'idée
18:13là c'est même plus
18:14la super intelligence
18:15c'est presque
18:16l'intelligence générale
18:17alors qui est
18:19pour l'instant aussi
18:20encore
18:20dans le domaine du fantasme
18:22mais
18:22vous vouliez réagir ?
18:24on rajouterait un élément
18:25d'infrastructure
18:26qui est important
18:27c'est-à-dire qu'on approche
18:30on s'approche
18:31à quelques mois
18:33de produits
18:33qu'on appelle
18:34personal intelligence
18:35donc de l'intelligence personnelle
18:37qui pourrait être en fait
18:39non plus déployé
18:40par plateforme
18:41mais être déployé
18:43sur nos terminaux
18:45en local
18:46en local
18:47et ça c'est encore
18:48c'est vraiment fondamental
18:50pour comprendre
18:50combien cette question
18:51de l'alignement
18:52est urgente maintenant
18:53parce que ça veut dire
18:55qu'on va se retrouver
18:55sur des systèmes
18:56où il ne suffit pas
18:58de les tester
18:58une fois
19:00ou de continuer
19:01à les tester
19:01en tant que
19:02grande entreprise
19:03qui possède
19:03une énorme infrastructure
19:04on aura besoin
19:06d'avoir un alignement
19:07qui est personnel
19:08et donc
19:10ça sera extrêmement compliqué
19:11avec ces agents
19:12IA
19:12en local
19:15de trouver
19:16le bon équilibre
19:17par rapport
19:18à prédire
19:19de quoi
19:19vous avez besoin
19:20donc par exemple
19:21que vous avez besoin
19:21d'une prédiction de trafic
19:22parce que vous allez
19:23à l'aéroport
19:24ou que vous avez besoin
19:25d'un dossier de ça
19:25donc en fait
19:26ce n'est pas simplement
19:27une question
19:27sur les droits
19:29c'est une question
19:29sur le produit
19:30et c'est une question
19:31qui arrive
19:32de plus en plus près
19:33de l'individu
19:35la question de l'alignement
19:36et de comment
19:37on va pouvoir
19:38même dans une hypothèse
19:39réglementaire
19:40même dans une hypothèse
19:41où ce chemin
19:42qui a commencé au Sénat
19:43arrive au niveau européen
19:44comment on va se retrouver
19:46techniquement
19:47du fait de ce changement
19:48d'infrastructure
19:49qui est très positif
19:50pour l'Europe
19:50parce que du coup
19:51ça veut dire
19:52qu'on fait comme l'Afrique
19:54qui a sauté
19:55sur la téléphonie
19:55nous on saute
19:56sur l'IA
19:58petit modèle
19:59sur le téléphone
20:00et comment on va
20:02vraiment
20:03concrètement
20:04techniquement
20:05pouvoir assurer
20:06cet alignement
20:07et non seulement
20:08protéger
20:09les citoyens européens
20:11mais créer
20:11un bon produit
20:12pour les européens
20:14où les valeurs européennes
20:15sont
20:15et la culture
20:16simplement
20:17les pratiques
20:17les habitudes
20:18comment je vais avoir
20:20la simulation interne
20:21par LLM
20:22à l'intérieur
20:22de mon système
20:23de recommandation
20:24qui est dans mon agent IA
20:25qui va prédire
20:26la façon
20:27dont on voyage à Paris
20:28la façon
20:28dont on passe
20:29d'un métro à l'autre
20:30est-ce que ça veut dire
20:31que ça passera
20:32Muriel
20:32par une nouvelle
20:34réglementation
20:35par des textes
20:36de loi
20:37parce que là
20:38aujourd'hui
20:38on parlait
20:39dans le débrief
20:40de l'actu
20:41de l'omnibus package
20:43qui vise à justement
20:44simplifier un petit peu
20:46toutes ces mesures
20:47autour du numérique
20:48au niveau européen
20:49si on rajoute
20:50une couche
20:50sur l'alignement
20:51comment on fait ?
20:53Comment on fait ?
20:54Surtout comment
20:54on l'implémente
20:55c'est notamment
20:56pour cette question
20:57c'est un exemple
20:58industriel
20:58et qu'il faut
20:59que la partie légale
21:02soit juste là
21:03pour légitimer
21:04la capacité
21:05à lancer
21:06une industrie
21:07autour de la question
21:08de l'alignement
21:08Donc industrie
21:09c'est-à-dire financement
21:10du financement
21:11pour qu'il y ait
21:11des start-up
21:11qui se créent
21:12pour que des entreprises
21:13puissent lancer
21:13des projets
21:14et qu'on est
21:15par le bas
21:16par les choses
21:19qui se font réellement
21:20Et une fois qu'on a
21:20l'écosystème
21:21finalement
21:22on peut commencer
21:23à écrire le texte
21:24c'est ça que vous dites ?
21:25Mais si on se projette
21:26dans un univers
21:26où on a chacun
21:28un petit assistant
21:28il y a pour certaines
21:29de nos tâches
21:30prenons l'exemple
21:31de la rédaction
21:32de Curriculum Vité
21:33pour candidater
21:34à une offre d'emploi
21:35aux Etats-Unis
21:37c'est massif
21:37on parle de 40%
21:39des CV
21:40produits aujourd'hui
21:41via une assistance
21:43de type Tchat-GPD
21:44ou autre
21:45Il faut dire
21:45que le CV
21:45franchement
21:46Je vous suis
21:48Mais c'est massif
21:49Mais c'est massif
21:50De l'autre côté
21:51donc moi j'ai mon agent
21:53IA
21:53qui m'aide
21:54à faire mon CV
21:54De l'autre côté
21:56l'assistante RH
21:57qui me recrutera
21:59peut-être
22:00à elle-même
22:01son assistant
22:02qui a
22:02Kétri
22:03qu'est-ce qu'on a montré
22:04que les assistants IA
22:06de Tchat-GPD
22:08favorisent
22:09les CV
22:10écrits par Tchat-GPD
22:11Quelle horreur
22:12Vous voyez
22:12Donc rien ça
22:14Je ne suis pas du tout
22:15en 2040
22:16Oui c'est aujourd'hui
22:17Et alors
22:17je suis d'accord
22:18qu'on pourrait réfléchir
22:19à l'utilité du CV
22:21Ok
22:21Mais c'est facile
22:22quand on est vieux
22:22C'est un bon exemple
22:23Mais quand on est jeune
22:24on est démuni
22:25on cherche des petits stages
22:27on cherche des choses
22:27on envoie un CV
22:28parce qu'il n'y a pas trop le choix
22:29Donc rien que ça
22:31sur ce côté
22:32des IA
22:33entre elles
22:33Donc du coup
22:35ça pose la question
22:35de mais mon IA à moi
22:37quelle est-elle
22:39comment se décrit-elle
22:40est-elle anniée
22:41avec un ensemble
22:42de choses précises
22:42et puis de l'autre côté
22:43l'IA de celui
22:44qui veut m'employer
22:45quelle est-elle
22:46et comment etc
22:47Vous voyez
22:47dès qu'on est sur
22:49des agents
22:49qui se parlent
22:50et c'est en train d'arriver
22:51Et on est vraiment
22:52oui
22:53c'est vraiment
22:54le sujet majeur
22:56qu'on doit traiter
22:56donc avec urgence
22:58moi c'est ça
22:58que je retiens
22:59de nos échanges
22:59Merci beaucoup
23:00à tous les trois
23:01Muriel Popafam
23:02experte au Conseil de l'Europe
23:03Benoît Autambour
23:03chercheur dans l'équipe
23:04Regalia à Inria
23:06et Flavien Chervais
23:07auteur et analyste
23:08en IA
23:09Merci beaucoup
23:09à tous de nous avoir suivis
23:11c'était Smartech
23:12et on se retrouve très vite
23:13Sous-titrage Société Radio-Canada
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations