- il y a 2 mois
Conférence de / lecture by Chahrazed LABBA, INTERSCULPT 2025 - Les Avatars de l'Intelligence, Mardi/Tuesday 7 Octobre/October 2025, Montigny-lès-Metz, France.
Catégorie
📚
ÉducationTranscription
00:00Merci d'être venu pour cette nouvelle académique de conférence InterSchool 2025 des avatars de l'intelligence.
00:15Nous avons le plaisir de recevoir Charazette Labat, qui est maîtresse de conférence à l'Université de Lorraine,
00:23et qui s'intéresse aux problèmes actuels de l'intelligence artificielle et de ses relations avec l'éthique.
00:33Elle va nous expliquer ça très en détail.
00:36Et ensuite, on accueillera Hélène Aloukachova, qui est une artiste tchèque, qui présentera son travail.
00:43Elle expose d'ailleurs avec nous dans la salle à l'eau.
00:47Merci à Charazette Labat d'être venue pour cet après-midi.
00:50Merci. Alors, je me présente, je suis Charazette Labat, une prise de conférence à l'Université de Lorraine.
00:57J'enseigne à l'esprit de Lorraine, donc particulièrement mon master-mètre parcours numérique et sciences informatiques.
01:04Donc, c'est le master-mètre qui prépare les enseignants qui vont enseigner l'informatique au dossier et au collège.
01:15Excusez-moi, peut-être que vous allez parler dans le micro, parce que vous parlez doucement.
01:18Ah, vous ne voulez que...
01:20D'accord.
01:22Alors, on va essayer de ouvrir.
01:25Peut-être que ça fonctionne, c'est pas grave.
01:28Allez-y.
01:30C'est bon, on va parler comme ça.
01:33C'est le micro.
01:35Vous avez besoin de quoi ?
01:43Ah oui, je sais que tu peux en faire dire.
01:45Ah, c'est le micro.
01:45J'ai besoin d'une note.
01:48Mais c'est bon.
01:48Ça devrait aller comme ça.
01:50Oui.
01:50Donc, et côté recherche, donc j'ai fait ma recherche en intelligence artificielle,
02:02donc le laboratoire de l'Orient, donc c'est le laboratoire de l'Orient de recherche de l'informatique.
02:08Aujourd'hui, ma présentation porte sur l'IA élitique, vers une intelligence artificielle de confiance.
02:15Donc, en gros, aujourd'hui, en fait, l'intelligence artificielle est déjà présente autour de nous,
02:25en fait, parfois sans que nous ayons pleinement conscience.
02:29Donc, si je prends le domaine de la santé, par exemple, aujourd'hui,
02:35les médecins, ils sont assistés et aidés par l'intelligence artificielle
02:39afin de mieux déconstiquer des maladies, d'être plus précis.
02:45Donc, l'IA agro-analyse des grandes quantités ou des milliers d'images médicales
02:52sont utilisés pour détecter des signaux faibles,
02:58donc que l'être humain n'est pas capable tout seul, en fait,
03:03donc qu'il pourrait, non, mais en fait, qu'il ne peut pas détecter tout seul.
03:07Aujourd'hui, aussi, on utilise des assistants vocaux,
03:10donc comme Siri et Alexa.
03:12Donc, ce sont des outils qui sont basés sur l'intelligence artificielle.
03:17Donc, ces outils-là, ils sont capables de comprendre nos demandes,
03:20de travailler nos messages et, finalement, en fait,
03:24de vous fournir, en fait, le service dont nous avons besoin.
03:28Sur Netflix, sur YouTube et sur d'autres sites Internet,
03:33par exemple, sur Amazon, les sites, en fait, e-commerce,
03:36en gros, quand vous vous connectez, vous avez une recommandation,
03:41soit des films, soit des vidéos, soit des produits, en fait,
03:45qu'il faut acheter, donc tout ça, en fait, c'est basé sur ce qu'on appelle,
03:49en fait, des algorithmes ou de modèles de recommandation.
03:53Donc, ces modèles de recommandation, on utilise soit la similarité de votre profil
03:58avec d'autres profils d'utilisateurs pour vous recommander des produits
04:03ou des films ou des vidéos qui étaient recommandés
04:07ou qui étaient animés par ces personnes-là,
04:10ou sinon, en fait, on se basera sur votre historique.
04:13Autre chose, en fait, aujourd'hui, dans le domaine de transport,
04:17aussi, on trouve de plus en plus des véhicules autonomes.
04:22Donc, ces véhicules-là, en fait, sont capables
04:24de transporter des personnes, en fait, sans avoir un conducteur.
04:29Donc, ils vont se déplacer tous ceux.
04:32Ces véhicules autonomes, en fait, sont basés aussi sur l'intelligence artificielle.
04:36Ils sont capables de détecter les obstacles
04:38et de prendre des décisions en temps réel,
04:41soit pour tourner, soit pour s'arrêter, de faire ces dossiers.
04:46Dans le domaine des entreprises, en fait, avec les entreprises,
04:50aujourd'hui, l'emploi aussi de plus en plus l'intelligence artificielle
04:53pour trier des candidatures.
04:56Donc, les services humains, aujourd'hui, en fait,
04:58des ressources humaines utilisent l'IA pour faire des tri de candidatures,
05:03pour des idées. L'IA peut permettre qu'on voit d'anticiper les besoins
05:08en termes de ressources humaines.
05:12Et en plus, en fait, elles assistent les entreprises
05:15dans leur stratégie, en fait, dans leur stratégie,
05:20leur fonctionnement.
05:22Au niveau, en fait, des banques,
05:25aujourd'hui, en fait, les banques utilisent de plus en plus,
05:28en fait, l'intelligence artificielle.
05:31Donc, on s'est bien avec les fraudes bancaires, aujourd'hui.
05:33Donc, en fait, des milliers de transactions sont analysées chaque jour,
05:37en fait, pour pouvoir détecter s'il y a des fraudes ou pas.
05:41Et l'éducation, aussi, en fait, en tant que domaine,
05:44elle ne fait pas d'exception.
05:45Bon, en fait, on va l'utilisation de l'intelligence artificielle,
05:49donc soit l'IA générative,
05:52donc, aujourd'hui, elle est utilisée pleinement par les étudiants,
05:56donc, ce qui fait aussi un peu un débat sur ce point-là,
06:01mais aussi, en fait, à travers aussi les outils numériques,
06:05aujourd'hui, qui sont fournis.
06:07Ces outils numériques, ce sont des plateformes d'apprentissage en ligne,
06:10où on peut trouver, en gros, des outils qui permettent,
06:14par exemple, de personnaliser l'apprentissage des étudiants,
06:18de faire des recommandations de ressources pédagogiques,
06:21et même d'identifier les étudiants qui sont en difficulté d'apprentissage.
06:27Comme ça, en fait, on peut notifier à l'avance l'enseignant pour intervenir.
06:33Aujourd'hui, en fait, l'IA, elle est employée aussi,
06:36dès le jeune âge, en fait, des élèves pour prédire,
06:40pour détecter des signaux faibles des étudiants, en fait,
06:44qui sont en risque d'abandonner.
06:46En fait, s'ils peuvent abandonner, depuis l'âge de 9 ans, 10 ans,
06:52on peut dire que si cet étudiant-là présente des signaux faibles,
06:56et qu'il peut abandonner, par exemple, à l'âge de 13 ans, 16 ans.
07:01Donc, voilà.
07:03Si on veut aujourd'hui mesurer à quel point l'intelligence artificielle
07:07s'est imposée dans notre société,
07:09il suffit de regarder les chiffres.
07:12Donc, ici, à gauche, c'est un graphique,
07:17une figure, en fait, qui présente le chiffre d'affaires mondiales
07:21du marché de l'IA.
07:22On peut constater qu'en 2023, on était à 136 milliards de dollars,
07:28alors qu'on s'attend que, en 2023,
07:32donc que ce chiffre-là se multiplie par 4.
07:37Donc, cette croissance rapide reflète, en gros,
07:42l'énorme accélération de l'investissement
07:45dans tous les domaines liés à l'IA,
07:48comme l'apprentissage automatique ou l'apprentissage de Chine,
07:51traitement automatique des langues,
07:54et la robotique basée sur l'IA.
07:58Sur notre graphique, donc, un robot,
08:01c'est l'adoption par les utilisateurs qui explose.
08:04Donc, le nombre de personnes utilisant des outils
08:07d'intelligence artificielle
08:08suit une trajectoire exponentielle.
08:12On peut, en fait, constater qu'en 2020,
08:15on était 115 millions à utiliser l'IA,
08:18ou des outils d'IA,
08:20en s'attendant à ce que ce nombre-là, en fait,
08:23atteint 729 millions de personnes d'ici 2030.
08:28D'accord ?
08:30Donc, ici, cela se confirme aussi, en fait,
08:32par des chiffres plus précis.
08:34Aujourd'hui, 66% utilisent l'IA régulièrement autour du monde,
08:39donc régulièrement, soit, en fait,
08:40dans le cadre professionnel,
08:42soit, en fait, dans la vie quotidienne de tous les jours.
08:4792% des étudiants utilisent l'IA,
08:51je l'ai dit, ça fait peur, mais c'est la réalité.
08:57Donc, au niveau, aussi, des organisations,
09:00en fait, on compte aujourd'hui presque 80% des entreprises,
09:04en fait, qui ont intégré l'intelligence artificielle,
09:07en fait, dans leur fonctionnement.
09:10Et pour les hôpitaux, le domaine, en fait,
09:13les organisations sanitaires,
09:14on compte aujourd'hui aussi presque 80%
09:17des hôpitaux, en fait, qui utilisent l'IA,
09:20soit pour faire des diagnostics,
09:22en fait, pour faire le suivi des patients.
09:24Donc, derrière cette diversité, en fait, d'applications,
09:33il est important de comprendre que l'intelligence artificielle,
09:37en fait, n'est pas une technologie unique,
09:39mais en gros, en fait, c'est un système de technologies
09:41qui sont complémentaires.
09:43Donc, c'est, en gros, en fait, si on souhaite la définir,
09:50donc l'IA regroupe un ensemble des technologies
09:53qui permettent à la machine de percevoir son environnement,
09:58de raisonner, d'apprendre, d'agir et d'interagir.
10:02Donc, remontez les exemples, en fait,
10:04pour mieux comprendre cette diversité.
10:06Donc, je ne sais pas si vous avez entendu parler,
10:11par exemple, des machines d'organisme
10:13ou de l'apprentissage automatique.
10:15Donc, en fait, l'apprentissage automatique,
10:17en gros, on a des données.
10:19Dans ces données-là, on a des exemples
10:21et on a un modèle ou un algorithme
10:24qui va apprendre sur ces exemples-là,
10:27soit pour faire des recommandations,
10:28soit pour faire des prédictions.
10:30Je prends un exemple, par exemple,
10:32dans le domaine de l'éducation,
10:34on peut prédire à l'avance
10:36si un étudiant va être en difficulté
10:38ou pas que tout le monde l'a dit.
10:40Donc, on a des données,
10:42déjà, en fait, des historiques d'autres données,
10:45en fait, qui concernent des élèves,
10:48où on a, en fait,
10:49si l'étudiant a été engagé à tel pour ce stage,
10:53s'il était régulier, s'il était curieux.
10:56En fait, là, on a une description
10:59du comportement de l'étudiant.
11:01Et là, on sait bien, en fait,
11:02si cet eau-là correspond à une telle valeur,
11:06en fait, on peut dire que l'étudiant,
11:07il va être oniché,
11:09où il y a un risque moyen qui va échouer,
11:12où il peut, en fait, réussir sans l'année.
11:16Donc, dans ce cadre-là,
11:18là, ici, on a des exemples
11:20ou des données déjà existants.
11:21Et ce que nous allons faire,
11:22c'est que nous allons tourner un modèle
11:24ou un algorithme qui va apprendre
11:26à partir de ces données-là.
11:28comme ça, si on lui demande de faire des prédictions
11:31pour n'importe quel étudiant,
11:34donc, il pourra le faire.
11:37Il y a aussi, en fait,
11:38le deep learning.
11:39En gros, le deep learning,
11:41ce sont des réseaux de normes.
11:44En gros, ce sont des modèles,
11:46des algorithmes qui imitent un petit peu,
11:49en fait, le fonctionnement du cerveau.
11:51Il y a aussi, en fait, la robotique.
11:55Donc, ça, tout ce qui est en lien avec les robots.
11:58Il y a la vision, en fait,
11:59la vision, en fait, la vision de l'ordinateur
12:02qui donne aux machines la capacité
12:04d'interpréter des images et des vidéos,
12:06soit, en fait, pour faire la reconnaissance globale
12:09ou la reconnaissance faciale.
12:11On a la natural language processing,
12:17où, en fait, c'est le traitement de langage naturel
12:21qui permet, en gros, au système de comprendre
12:24et de produire du langage humain.
12:27Donc, là, en fait, en termes de panorama,
12:29en fait, il y a plusieurs technologies,
12:32en fait, qui sont complémentaires
12:35et qui composent, en gros, l'écosystème de l'IA.
12:41Dans cette présentation, en fait,
12:44je vais me concentrer sur l'IA, en fait,
12:48fondée sur les données.
12:50Donc, l'IA fondée sur les données,
12:52contrairement au système expert, en fait,
12:54qui sont fondés sur les règles,
12:57cette famille de techniques apprend directement
13:00à partir des exemples des données.
13:02Donc, elle est capable de détecter des motifs
13:05ou des patterns dans des conflits ou des données
13:08et elle permet, en fait, en gros,
13:10de générer des prédictions au même de contenu
13:14sans être explicitement programmé.
13:17Donc, les principaux piliers
13:20de l'IA fondée sur les données,
13:22ce sont l'apprentissage automatique,
13:24l'apprentissage profond,
13:26le traitement de langage naturel,
13:28vision et speech.
13:32Donc, face à ce développement rapide,
13:37plutôt, en fait, il faut avoir conscience
13:39qu'il y a présent à la fois
13:41une formidable opportunité,
13:43mais en même temps, en fait,
13:44des risques majeurs.
13:46Donc, ces promesses,
13:47ça compagne des risques réels.
13:51Donc, les algorithmes,
13:52ils peuvent reproduire ou amplifier
13:54des billets existants
13:55et conduire à des discriminations.
13:58Ça, nous allons voir après avec
13:59quelques exemples, en fait,
14:01de la vie réelle.
14:03On peut avoir aussi, en fait,
14:05une atteinte à la vie privée.
14:08Donc, la collecte,
14:09c'est de donner des questions
14:11sur la vie privée et leur utilisation.
14:14En plus, en fait,
14:15il y a de nombreux systèmes
14:17d'intelligence artificielle
14:18qui restent opaques.
14:20C'est une boîte noire.
14:22Donc, on ne sait pas
14:22qu'est-ce qu'il y a dedans.
14:25En fait, pourquoi l'IA
14:26a pris cette décision-là.
14:29Et on a, en fait,
14:29le problème de responsabilité.
14:31Ça peut arriver que l'IA
14:33produit des erreurs.
14:36Et, en fait, parfois,
14:37ces erreurs-là,
14:39peuvent même venir
14:41à des conséquences graves.
14:45Je ne sais pas si vous avez entendu
14:46parler dernièrement,
14:47mais il y a un édition aux États-Unis,
14:49par exemple,
14:50il était en train
14:51de discuter avec Tchadjipité.
14:53Il n'était pas bien mentalement.
14:56Et Tchadjipité lui a recommandé
14:59de suicider.
15:00Il a encouragé à suicider
15:02et de ne pas discuter
15:03ou ne pas parler à sa famille,
15:05par exemple.
15:06Et dans ce cas-là,
15:07en fait,
15:07qui est le responsable ?
15:08Est-ce que c'est Tchadjipité ?
15:10Est-ce que c'est les concepteurs
15:11de Tchadjipité ?
15:12Est-ce que c'est OpenAI,
15:13en fait,
15:13qui commercialise Tchadjipité ?
15:16Donc, là,
15:17la responsabilité,
15:18le problème de responsabilité,
15:19ou le cas d'erreur,
15:20on a aussi, en fait,
15:21lié à l'IA,
15:22surtout dans des situations
15:23comme celle-là,
15:24en fait,
15:25c'est nécessaire à traiter.
15:28D'où, en fait,
15:29la nécessité, ici,
15:30en fait,
15:30d'avoir une approche
15:31qui soit éthique
15:32pour construire une l'IA
15:34qui est digne de confiance.
15:38Donc, ici,
15:39je vais vous présenter
15:41quelques chiffres
15:42et perceptions
15:43de la confiance
15:44par les utilisateurs
15:45de l'IA.
15:45Comme je l'ai dit tout à l'heure,
15:47en fait,
15:47ces chiffres-là
15:48sont issus
15:49d'une étude internationale
15:51qui s'appelle
15:51« Trace,
15:52Attitude and Use,
15:53Conparticipation Intelligence ».
15:55Donc,
15:56c'est une étude
15:57qui a été éliminée
15:58en 2025.
16:00En gros,
16:00en fait,
16:00il y a 47 pays
16:01qui ont participé
16:02à cette étude-là
16:03et 47 000 personnes
16:06qui s'étaient interrogées
16:08dans le cadre
16:09de cette étude.
16:09Donc,
16:10j'imagine,
16:10presque 1000 personnes
16:11par pays.
16:12en gros,
16:13la France
16:13fait partie
16:14de ces pays-là.
16:16Du coup,
16:16en fait,
16:16dans le monde,
16:17on a presque 66%
16:19des personnes
16:19qui utilisent
16:20régulièrement
16:21l'IA.
16:22En France,
16:23on a 67%
16:24qui utilisent
16:25régulièrement l'IA.
16:26Donc,
16:26régulièrement l'IA,
16:27ça veut dire
16:27soit dans le cadre
16:28professionnel
16:29ou soit dans la vie
16:30du tout,
16:31les gens.
16:32Surtout,
16:32en fait,
16:33au niveau du monde,
16:34on a 46%
16:35qui font confiance
16:36à l'IA.
16:38Contre 33%
16:40seulement,
16:41en fait,
16:41qui font confiance
16:42à l'IA
16:42en France.
16:44Donc,
16:45il y a 72%
16:47en fait
16:47qui l'acceptent
16:49globalement.
16:50En France,
16:51il y a 61%
16:52qui l'acceptent
16:53globalement.
16:54Donc,
16:54l'adoption,
16:55elle est élevée,
16:56mais le problème,
16:57en fait,
16:57la confiance,
16:58elle est fragile.
16:59Nous allons voir,
17:00en fait,
17:00pourquoi la confiance,
17:02elle est fragile.
17:04Donc là,
17:04ces chiffres-là aussi
17:05sont issus
17:06de la même étude.
17:08Il y a 40%
17:09en fait,
17:09qui jugent
17:10que la réglementation
17:11ou les lois
17:12en fait,
17:12actuelles
17:13sont suffisantes.
17:14Par contre,
17:15en fait,
17:15seuls 32%
17:17en fait,
17:17en France
17:18qui trouvent
17:18ces réglementations
17:19sont suffisantes.
17:21Mais ce qui fait
17:22encore peur,
17:22c'est que,
17:23en France,
17:24il y a 92%
17:25qui ne savent pas
17:26qu'il existe
17:27des lois
17:29et des réglementations
17:30en fait,
17:31qui contouvent l'IA.
17:34Il y a des gens
17:35en fait,
17:36qui l'utilisent,
17:37mais ils ne savent même pas
17:38qu'il y a des lois
17:39en fait,
17:39en gros,
17:39qui contrôlent
17:41l'usage
17:41de l'IA.
17:44Donc,
17:44c'est tout
17:44fort,
17:45donc,
17:46en gros,
17:47en fait,
17:47on a aussi
17:4775%
17:49qui demandent
17:49un cadre
17:50plus strict
17:51et 87%
17:53en fait,
17:54des utilisateurs
17:54en France
17:55qui savent
17:55des lois
17:56contre la désinformation.
17:59Donc,
17:59ce constat
17:59est révélateur.
18:01Donc,
18:01pour construire
18:02la confiance,
18:03il ne suffit pas
18:04de publier
18:04des lois
18:05ou des principes.
18:06Donc,
18:07il faut aller plus loin
18:08pour comprendre
18:09pourquoi cette confiance
18:11reste fragile.
18:13Donc,
18:13et cela tient
18:14à une raison simple.
18:15Donc,
18:15les inquiétudes
18:16des citoyens
18:17ne sont pas abstraites.
18:18Nous allons voir
18:19en fait,
18:19après,
18:20qu'il y a des cas
18:21et des incidents réels
18:23qui font qu'en fait,
18:25on n'a pas
18:25trop de confiance
18:27en l'IA.
18:31Donc,
18:32parmi en fait,
18:34les grands défis
18:35éthiques
18:36auxquels en fait,
18:37l'intelligence artificielle
18:39est aujourd'hui confrontée,
18:41c'est la protection
18:41des données privées.
18:44Donc,
18:45l'intelligence artificielle,
18:46comme on a dit,
18:47en fait,
18:47surtout celle qui est fondée
18:48sur les données,
18:49donc,
18:50elle se nourrit
18:51de données.
18:51Donc,
18:51le carburant,
18:52c'est les données.
18:53C'est littéralement,
18:55donc,
18:55plus on a
18:56le volume de données,
18:58plus on a
18:58une bonne qualité
18:59des données,
19:00plus on a
19:00une diversité
19:01au niveau des données,
19:03on a
19:03des bonnes performances
19:05du système.
19:06D'accord ?
19:07Donc,
19:07sauf que
19:08le problème,
19:10c'est que
19:11cette dépendance
19:12crée
19:12beaucoup
19:14des risques
19:14ou en fait
19:15crée des risques
19:16majeurs.
19:17Donc,
19:17ces risques-là,
19:18il y a la surveillance
19:19de masse
19:20et de profilage,
19:21donc,
19:21parfois,
19:21à notre insu,
19:22parfois,
19:23on est filmé
19:24sans savoir même
19:26qu'on est filmé.
19:28Il y a derrière,
19:29en fait,
19:29des systèmes intelligents
19:30qui détectent
19:31aujourd'hui,
19:32en fait,
19:33avec la reconnaissance faciale,
19:35on peut être
19:35reconné facilement.
19:37Donc,
19:38on a ensuite
19:38la fuite
19:40ou le volume
19:40des données sensibles.
19:41En fait,
19:41ce qu'on connaît
19:43aujourd'hui,
19:43c'est des données
19:44sensibles,
19:45donc,
19:45des fois,
19:46avec nom,
19:47crée,
19:47nom,
19:47adresse,
19:48numéro de téléphone,
19:50et ça,
19:50de suite.
19:51Donc,
19:52si ces données-là
19:53sont fluides
19:54ou sont volées,
19:55donc,
19:55là,
19:55on est pas...
19:57et ça arrive déjà,
19:59en fait,
19:59des fois,
19:59pour les assurances,
20:01pour les opérateurs
20:02téléphoniques,
20:04en fait.
20:05Il y a aussi,
20:06en fait,
20:06la réutilisation
20:07non concentrée
20:09des données.
20:09Parfois,
20:10en fait,
20:10on participe
20:11à une étude
20:12où il y a
20:13une collecte
20:13des données,
20:14donc,
20:14la collecte
20:15des données
20:15est faite
20:15pour une raison
20:17prévère,
20:18mais après,
20:18en fait,
20:18peut-être que
20:19ces données-là
20:20sont utilisées
20:21d'une autre manière
20:22dans un usage
20:23secondaire,
20:24sans savoir,
20:26en fait,
20:26que nous devions
20:27être utilisées,
20:29ce sont notre
20:29consentement.
20:31Donc,
20:31en fait,
20:31je ne sais pas
20:32si vous vous rappelez,
20:33en fait,
20:33de l'affaire
20:33Cambridge Analytica
20:35où,
20:37c'est des exemples
20:38qui,
20:38je pense,
20:38les plus célèbres,
20:39il y a 10 millions
20:40de profils Facebook
20:41qui ont été exploitées
20:42sans consentement
20:43pour influencer
20:45les compagnies
20:46électorales.
20:48Ça fait déjà
20:49un peu de mythes.
20:50Après,
20:51il faut savoir
20:51qu'il y a
20:52des assistants
20:53beaucoup
20:53comme Amazon,
20:54Alexa
20:55et Google Home,
20:56ont été accusés
20:57de conserver
20:58des données
21:00sur les utilisateurs,
21:03en fait,
21:03que même les utilisateurs,
21:04en fait,
21:05n'imaginaient pas
21:06ces données-là
21:07et quelles-elles étaient
21:07conservées
21:09par ces assistants
21:10vont-ils ?
21:11Un autre défi,
21:18en fait,
21:18lié à l'intelligence,
21:20à l'utilisation
21:21du visage
21:21de l'intelligence
21:22artistique,
21:23c'est les billets
21:23et la discrimination.
21:25Si la question
21:26de la vie privée
21:27est souvent évoquée
21:28en tant que
21:29commentaire d'éthique,
21:30c'est des billets
21:31algorithmiques
21:32tout aussi
21:32centraux.
21:33Les billets
21:34naissent
21:35principalement
21:36sur trois
21:37évoquent le cible,
21:39soit pendant
21:39l'entraînement
21:40de modèles,
21:41soit dans les données
21:42initiales,
21:43soit pendant
21:44la conception,
21:46soit aussi
21:47par l'équipe
21:49qui a mis en place
21:50le modèle.
21:51Donc,
21:51si on manque
21:52de diversité
21:53au niveau de l'équipe,
21:54donc,
21:54si on n'a que
21:55des ingénieurs,
21:55on n'a pas,
21:56par exemple,
21:56des juristes,
21:57on n'a pas
21:57des sociologues,
21:59on n'a pas
21:59d'utilisateurs
22:00finaux,
22:01là,
22:01ça peut aussi
22:02engendrer
22:04ou introduire
22:05des billets
22:06dans le modèle
22:07conscient.
22:09Donc,
22:09conséquence,
22:12il y a déjà,
22:13on peut avoir
22:13des discriminations
22:14au niveau
22:15de recrutement,
22:16on peut avoir
22:16des discriminations
22:17quant à la banque
22:19en fait,
22:20pour attribuer
22:20ou pas
22:21un crédit.
22:24Ici,
22:25en fait,
22:25l'incident
22:25le plus célèbre
22:26est celui
22:27de Amazon.
22:28Amazon,
22:29ils ont créé
22:30un outil
22:31pour trier
22:33en gros
22:34les candidatures.
22:36Sauf qu'en fait,
22:37le modèle,
22:38il a été entraîné
22:39sur des données
22:40où il y avait
22:41plus des CV
22:42masculins
22:44en fait,
22:44qui étaient retenus.
22:45Ce qui fait que
22:46l'algorithme,
22:46il a commencé
22:47à discriminer
22:48les femmes
22:48et à éliminer
22:49les candidatures
22:51féminines.
22:55Et du coup,
22:55en fait,
22:56là,
22:58ce système
22:58a été abandonné
23:00après avoir
23:01systématiquement
23:01défavorisé
23:03des candidatures
23:03féminines.
23:05Juste en fait,
23:06pour dire
23:06comment,
23:07en fait,
23:07juste un modèle,
23:09juste en lui donnant
23:10des données déjà,
23:11viser en fait,
23:12comment il peut,
23:13en fait,
23:13la conséquence,
23:14en fait,
23:14ça,
23:15on dit,
23:15on a,
23:16les gens qui travaillent
23:18sur l'intelligence
23:20artificielle,
23:21ils disent que
23:21trashy,
23:24trash-file.
23:24Donc,
23:25si tu donnes
23:25de la poubelle,
23:27la sortie,
23:27ça va être
23:28une poubelle.
23:30Donc,
23:30ça ne peut pas
23:31donner des bons
23:33résultats.
23:36La troisième,
23:37ou le troisième
23:38défi,
23:39plutôt,
23:39c'est la transparence
23:40et l'explicabilité.
23:42En fait,
23:42les systèmes
23:44d'intelligence
23:45artificielle
23:45sont très souvent
23:46des bois noirs,
23:48donc ils prennent
23:48des décisions
23:49efficaces,
23:49parfois meilleures
23:51que celles des humains,
23:53mais ils nous semblent
23:53incapables,
23:54des fois,
23:55d'expliquer
23:55comment ils y arrivent.
23:57Donc,
23:58ce monstice
23:59d'explicabilité
24:00pose des problèmes
24:01réels.
24:03Les utilisateurs
24:04ne savent pas
24:04pourquoi une décision
24:06a été prise.
24:07Il devient difficile
24:08donc de contester
24:09une erreur
24:10et même
24:11les concepteurs
24:12ne comprennent
24:13parfois plus
24:14le raisonnement
24:14du modèle.
24:16Donc,
24:17ici,
24:17peut-être
24:18un exemple
24:19réel,
24:19c'était
24:19l'utilisation
24:20de l'algorithme
24:21COMPA,
24:23c'était aux Etats-Unis
24:24dans le système
24:25judiciaire
24:26américain
24:26et c'était
24:28pour attribuer
24:29des scores
24:30de risque
24:30à des personnes.
24:33Sauf que,
24:33en fait,
24:34cet algorithme-là,
24:35il était
24:36liésé
24:37tel sort
24:37qu'il était
24:38plus si vert
24:39dans ses scores
24:40envers les afro-américains.
24:42en les comparant
24:44aux blancs.
24:46Donc,
24:47là,
24:47on n'a même pas
24:48pu expliquer
24:49pourquoi il était
24:50plus sévère
24:51envers les afro-américains
24:52et pas
24:53les autres.
24:58Donc,
24:59le dernier défi,
25:01ça concerne
25:02la responsabilité.
25:03Donc,
25:04aujourd'hui,
25:05il y a
25:05plusieurs incidents
25:07qui sont liés
25:08à l'IA.
25:09par exemple,
25:09je prends
25:10l'exemple
25:10en 2018,
25:12il y a
25:12un véhicule
25:13autonome
25:13hiver
25:14qui a percuté
25:15et tué
25:17une piétonne
25:18en Arizona
25:19et,
25:20en fait,
25:20là,
25:21il y avait
25:21des responsabilités
25:22qui étaient
25:23fous.
25:23Donc,
25:25qui est responsable?
25:26Est-ce que
25:27c'est les ingénieurs
25:29qui ont conçu
25:30les systèmes
25:31de freinage?
25:32Est-ce que
25:32c'est hiver?
25:34Est-ce que,
25:35je ne sais pas,
25:35est-ce que c'est
25:36déjà la personne
25:37qui devrait
25:40surveiller
25:41cet véhicule
25:43autonome
25:43et il n'a pas
25:44pris la décision
25:45dans le moment?
25:46Donc,
25:47là,
25:47vraiment,
25:48ce n'est pas
25:48clair
25:49qui est responsable
25:51en cas d'erreur
25:52du dommage
25:53ou de discrimination.
26:00Pour aller plus loin,
26:01il ne suffit pas
26:02de compter
26:03sur la bonne volonté
26:04des entreprises
26:04ou des chercheurs.
26:05Donc,
26:05il faut aussi
26:06un cadre
26:07juridique
26:08qui soit
26:09solide.
26:10C'est exactement
26:10l'objectif
26:11de l'AIM Act.
26:12Je ne sais pas
26:13si vous avez
26:13entendu parler.
26:15En gros,
26:16c'est adopté
26:17par l'Union Européenne
26:18en 2021.
26:19Il s'agit
26:20du premier grand texte
26:22législatif au monde
26:24consacré
26:24spécifiquement
26:25à l'intelligence
26:26artificielle.
26:28Sa particularité
26:29est d'adopter
26:30une approche
26:31basée
26:31sur les risques.
26:33Aujourd'hui,
26:34si on souhaite
26:35développer un système
26:37basé sur l'intelligence
26:38artificielle,
26:40il faut un score
26:41de risque
26:42associé
26:44à ce outil-là
26:46ou à cette IAL.
26:47Donc,
26:47est-ce que...
26:48Donc là,
26:49on définit
26:49quatre niveaux
26:51de risque.
26:51le risque minimal
26:53et limité
26:54en gros,
26:55aucune exigence
26:56particulière.
26:57Par contre,
26:58à partir de
26:58hauts risques,
26:59surtout là,
27:00dans des domaines
27:01qui sont sensibles
27:02comme la santé
27:03et l'éducation
27:04du plus grand,
27:05ainsi de suite,
27:05là,
27:06il faut...
27:08ils doivent respecter
27:10les obligations
27:10très strictes
27:11comme la documentation
27:12technique,
27:13l'audit de conformité,
27:15la supervision
27:15humaine
27:16et explicabilité.
27:18Donc,
27:18tout ça,
27:19en fait,
27:19il devrait être
27:20fourni.
27:21Pour tout ce qui est
27:22appris,
27:23il y a des interdits.
27:24Par exemple,
27:25je prends un exemple
27:25du scoring social.
27:27En fait,
27:27c'est un mécanisme
27:28utilisé en Chine
27:30pour que les gens
27:31se montrent
27:31contre eux.
27:33Ça,
27:33c'est encore
27:33horrible.
27:34Donc,
27:34ça,
27:35c'est interdit
27:37en Maho
27:38et c'est interdit
27:39en fait
27:39dans le cadre
27:40de l'AIM Act.
27:42Donc,
27:43l'idée derrière
27:43cette représentation,
27:45c'est simple,
27:45protéger les citoyens
27:47sans freiner
27:48l'innovation.
27:49c'est une étape
27:51ajeure
27:52pour faire
27:53du lien
27:53de la technologie
27:54fiable,
27:55sûr et
27:56libre de confiance.
28:00Donc,
28:00après avoir vu
28:01comment
28:02l'AIM Act
28:02pose un cadre
28:03réglementaire
28:04pour encadrer
28:05les risques
28:05liés à l'IA,
28:06donc il est important
28:07de rappeler
28:08que la loi
28:09ne suffit pas
28:10à elle seule
28:11dans construire
28:12une IA
28:13liée de confiance
28:14et propose aussi
28:15sur des pratiques
28:16quotidiennes
28:17des concepteurs,
28:18des entreprises
28:19et des organisations
28:20qui la déploient
28:21et la déploient.
28:23Donc,
28:23en gros,
28:24par exemple,
28:25dans mon travail
28:25de recherche,
28:26je suis très
28:27impliquée
28:27dans tout ce qui est
28:28audit d'algorithme
28:29et d'avène de confiance.
28:32L'idée,
28:32c'est d'avoir
28:33des plateformes
28:34ou des outils
28:35qui sont capables
28:36de vérifier
28:38régulièrement
28:38comment vérifier
28:39la sécurité
28:40d'un bâtiment
28:41ou la qualité
28:42d'un bâtiment
28:42et les licences
28:44seraient d'évaluer
28:44tout le temps
28:45les modèles IA
28:46pour détecter
28:46les éventuels billets,
28:48pour mesurer
28:49leur équité
28:50et d'assurer
28:51qu'ils restent
28:52performants
28:53dans différents
28:54contextes.
28:56Les labeurs
28:57de confiance,
28:57c'est une sorte
28:58de certification
29:00du système IA.
29:02C'est plutôt
29:04en fait
29:04au risque.
29:07Aujourd'hui,
29:08le label
29:08de confiance
29:09joue un rôle clé
29:10qui permet
29:11de certifier
29:12qu'un système
29:13respecte
29:14certaines exigences
29:15techniques
29:17et éthiques,
29:18ce qui facilite
29:19la confiance
29:19des utilisateurs
29:20et des partenaires.
29:23Il faut
29:23des équipes
29:24pluridisciplinaires.
29:25On sait bien
29:26que l'IA
29:27a besoin
29:27des experts
29:28pour la développer,
29:30mais ça l'empêche
29:31en fait
29:31dans le groupe
29:32des gens
29:35impliqués
29:36dans le développement
29:37de cette IA-là.
29:38On a besoin
29:38du juriste,
29:39on a besoin
29:40du sociologue,
29:41on a besoin
29:42aussi même
29:42de l'utilisateur
29:43final.
29:46Il faut toujours
29:47en fait,
29:48il ne faut pas
29:49laisser l'IA
29:49toute seule,
29:50donc il faut toujours
29:51maintenir une supervision
29:52humaine
29:53dans la décision
29:54critique.
29:55Donc,
29:55par exemple,
29:56si l'IA va
29:57assister
29:58les médecins
29:59dans le diagnostic
30:00des maladies,
30:02il ne faut pas
30:02le laisser
30:03toute seule.
30:04Et si l'IA
30:05décide quelque chose,
30:06derrière,
30:07il faut avoir
30:07aussi un être humain
30:10dont l'avion
30:11peut dire
30:11si c'est bon
30:12ou pas bon.
30:14La transparence
30:15proactive,
30:15en gros,
30:16ici,
30:17ça concerne
30:18d'explicabilité
30:21du modèle.
30:23Donc,
30:24il faut expliquer
30:26clairement
30:26comment fonctionne
30:27un système,
30:28quelles sont
30:28ses limites,
30:30dans quelles situations
30:31il peut se tromper.
30:32Donc,
30:33cela permet,
30:33en gros,
30:34de renforcer
30:34la confiance
30:35et d'éviter
30:36des attentes
30:37irréalistes.
30:44Bon,
30:45là,
30:45j'ai terminé
30:46avec tout ce qui
30:46est IA
30:47éthique.
30:47et là,
30:48je vais parler
30:48un petit peu.
30:51C'est bien
30:51d'avoir
30:52un terrain
30:52réglementaire
30:53solide
30:54et ainsi
30:55des bonnes
30:57pratiques
30:58pour mettre
30:58en place
30:59un système
31:00IA
31:01qui est digne
31:01de confiance,
31:02mais ça n'empêche
31:03qu'aujourd'hui,
31:04il existe aussi
31:05des solutions
31:05techniques
31:06un peu avancées
31:07qui permettent
31:08de conseiller
31:09performance,
31:10respect de la vie
31:11privée
31:11et conformité
31:12réglementaire.
31:14Et là,
31:14je parle
31:15d'une solution
31:16qui est prometteuse
31:17je ne sais pas
31:18si vous avez entendu
31:19parler de cette
31:20solution-là,
31:21c'est l'apprentissage
31:22fédéral.
31:23Donc,
31:23aujourd'hui,
31:24ce n'est pas
31:24les données
31:24qui voyagent,
31:25mais c'est
31:25les modèles
31:26qui voyagent
31:27dans les données.
31:29Donc,
31:29aujourd'hui,
31:30on ne veut plus
31:31que ce qu'on a dit
31:32parce qu'on a dit
31:32que pour les données,
31:34les données peuvent
31:34contenir des données
31:36sensibles,
31:37des données
31:37qui sont
31:39confidentielles.
31:41Donc,
31:41l'idée aujourd'hui,
31:42c'est de garder
31:42les données
31:43là où elles sont
31:44générées.
31:45Si elles sont
31:45générées sur mon téléphone,
31:47elles restent
31:47sur mon téléphone.
31:48Donc,
31:49elle ne va pas
31:49voyager ailleurs.
31:51Donc,
31:51ce qui va
31:52être communiqué,
31:54c'est des modèles
31:56d'intelligence
31:56artificielle.
31:58Je vais te prendre
31:59un exemple simple.
32:00Aujourd'hui,
32:01en fait,
32:01Google,
32:02ils ont une application
32:03qui s'appelle
32:03Google Gboard.
32:05Donc,
32:05c'est un clavier
32:07Google.
32:08Et ce clavier Google,
32:10on utilise tous
32:11et ce clavier-là
32:12fait l'utiliser
32:13le principe
32:13de l'apprentissage
32:14fédérique.
32:16Donc,
32:16c'est quoi,
32:17en fait,
32:17le principe ?
32:18C'est que les données
32:19restent locales,
32:21soit dans un hôpital,
32:22soit dans un smartphone,
32:23soit dans une banque
32:24et ce que nous allons
32:27envoyer,
32:27il y a une OTT central
32:29qui détient un modèle,
32:31un algorithme.
32:32Ce modèle-là,
32:33il va être partagé
32:34entre les entités
32:36qui détiennent
32:37les données.
32:38Ils vont entraîner
32:39sur leurs données locales
32:41et juste,
32:41en fait,
32:41ils vont communiquer
32:42un nouveau modèle
32:44mis à jour.
32:45Donc,
32:46ce modèle-là,
32:46il va être quelque part
32:48ici,
32:49agrégé
32:50pour créer
32:50un modèle
32:51global.
32:52Donc,
32:55ici,
32:55l'idée,
32:55c'est de faire
32:56voyager des modèles
32:57mais pas du tout
32:59des données.
32:59Donc,
33:00là,
33:00ça renforce
33:00encore
33:01la confidentialité
33:04et le respect
33:04de la vie privée.
33:06Donc,
33:06je prends ici,
33:07en fait,
33:07les exemples,
33:08quelques exemples
33:09qui fonctionnent bien
33:11aujourd'hui.
33:12Là,
33:12j'ai parlé
33:13des smartphones,
33:14en gros,
33:15de nos téléphones.
33:17C'est marrant
33:17parce que les gens,
33:18en fait,
33:18ne savent pas
33:19que sur nos téléphones.
33:20il y a déjà un modèle
33:21fédéré
33:22qui est en train
33:22de tourner.
33:24Juste,
33:24en fait,
33:24vous êtes en train
33:25de saisir
33:25et dès que vous mettez,
33:27par exemple,
33:27une lettre,
33:28vous aurez un mot
33:29qui va être suggéré.
33:30Donc,
33:31ça,
33:31ça vient
33:31de ce qu'on appelle
33:32apprentissage fédéré.
33:33Donc,
33:34Google utilise
33:35nos smartphones
33:36pour entraîner
33:37un modèle.
33:39C'est vrai
33:40que quelque part,
33:41vous allez me dire
33:41oui,
33:42on n'est pas au moment
33:43mais avec Google,
33:44en fait,
33:45quand on accepte
33:46du truc,
33:46donc,
33:47le consentement,
33:48c'est implicite
33:50dans le JAC7.
33:53Après,
33:53en fait,
33:54aujourd'hui,
33:54dans le domaine
33:55de la santé,
33:56même en France,
33:58il y a des hôpitaux
33:58aujourd'hui
33:59qui entraînent
34:01un modèle commun,
34:03par exemple,
34:03du diagnostic
34:04sans échanger
34:07de données.
34:08Donc,
34:08on peut trouver
34:09quatre à cinq
34:10organisations sanitaires
34:13aujourd'hui
34:14qui partagent
34:16un modèle.
34:16Chaque partie
34:18ou chaque opétale,
34:19en fait,
34:19va entraîner
34:20ce modèle-là
34:21sur leurs données
34:22et finalement,
34:23il y aura
34:23un modèle global
34:24en commun
34:25qui peut être
34:25utilisé
34:26par tout le monde.
34:28Comme ça,
34:28en fait,
34:29chacun a participé
34:30avec ses propres données
34:32sans les avoir
34:32partagées.
34:37Bon,
34:37mais comme
34:38toute technique,
34:40donc,
34:40elle a aussi
34:41ses défis.
34:42Donc,
34:43ici,
34:43avec l'apprentissage
34:44figuerré,
34:45vu qu'on est
34:46dans un système
34:46un peu distribué,
34:48le problème
34:49est toujours
34:49en fait,
34:50les attaques
34:50et on a toujours
34:51des clients
34:52malveillants
34:52ou des parties
34:53malveillantes,
34:54en fait,
34:55qui peuvent
34:55entraîner
34:57ou inférer
34:58en fait,
34:59ou poisonner
35:00le modèle.
35:01On a toujours
35:02en fait,
35:02le problème aussi
35:03des théorogénéités
35:04des données
35:04parce qu'en fait,
35:05finalement,
35:06les gens qui vont
35:06participer
35:07à l'entraînement
35:08de modèles,
35:09ils ne sont pas
35:09tous d'une bonne
35:11qualité de données.
35:11Donc,
35:12si quelques-uns,
35:13ils ont une mauvaise
35:14qualité de données,
35:15ça peut impacter
35:16le modèle final.
35:18Après,
35:19il y a aussi,
35:19en fait,
35:20le coût
35:20et l'orchestration
35:21dans le coût
35:22de l'infrastructure.
35:23En fait,
35:23ça peut s'élever
35:24avec un grand nombre
35:26de participants
35:27ou des parties
35:28qui vont
35:28entretenir
35:29le modèle.
35:30donc,
35:32ici,
35:33pour résumer,
35:35si l'on devrait
35:36retenir une idée
35:37de cette présentation,
35:38c'est que l'IA
35:39est un formidable
35:40lelier
35:41d'innovation,
35:43mais qu'elle ne peut
35:44être pleinement
35:46bénéfique
35:46si elle est encadrée
35:48par des principes
35:49solides.
35:50Ces principes-là,
35:51en fait,
35:51il faut la réglementation,
35:54les lois
35:54est en plus
35:55la bonne pratique
35:57et surtout,
35:58en fait,
35:58la collaboration
35:59entre les parties
36:01publiques
36:01et privées
36:02pour faire fonctionner
36:04tout ça.
36:06Je vous remercie
36:07pour votre attention.
36:09Merci.
Écris le tout premier commentaire