- il y a 2 jours
Catégorie
🗞
NewsTranscription
00:00...
00:00On vient de le voir, les femmes restent donc fortement sous-représentées dans l'écosystème de l'IA.
00:12Les rôles de leadership reflètent ces mêmes disparités avec seulement 29% des responsables de départements d'IA
00:18dans les entreprises européennes qui sont des femmes.
00:20Et si les biais étaient grandement responsables ?
00:23On a déjà, Madame la Ministre a déjà abordé ce sujet des biais.
00:27On va explorer et décrypter ce sujet en profondeur.
00:30Et je vais demander à Gianne Baciocchini, directrice du recrutement de Capgemini,
00:35Amélie Groux, lead data scientist et analyste chez Sanofi,
00:39Raphaël Taub, cofondatrice de Matricis,
00:41et Jean-Christophe Vidal, directeur général chez Connexio, enseignant à l'ESCP à Harvard, de me rejoindre sur scène.
00:49Bonjour à tous les quatre.
00:50Alors on va commencer par vous, Gianne Baciocchini.
00:5440% des collaborateurs sont des femmes chez Capgemini.
00:58Le sujet du recrutement des femmes, il est donc crucial, on va en parler.
01:03Mais avant tout, je voudrais qu'on définisse avec plusieurs personnes de cette table ronde
01:07ce qu'est réellement un biais et pourquoi, finalement,
01:11parce qu'on a beaucoup parlé en préparant ce think tank,
01:14pourquoi le biais renforce le biais ?
01:16Est-ce que vous pouvez nous raconter la mécanique ?
01:18En fait, le biais, c'est tout simplement, ce sont des raccourcis que notre cerveau va prendre
01:23pour juger soit une personne, soit une situation,
01:27mais basés sur des faits qui ne sont pas vérifiés
01:32ou bien sur des situations qui ne sont pas réelles.
01:36Et en réalité, en fait, ça discrimine pas mal les femmes, en général, ces biais-là.
01:40Et les biais peuvent être de plusieurs genres.
01:43Ce sont des biais liés à l'âge, aux caractéristiques physiques,
01:47mais aussi des biais d'affirmation,
01:49parce qu'on a envie de recruter souvent quelqu'un qui nous ressemble,
01:53ou bien ça peut être des biais d'attribution.
01:56Par exemple, en général, le leadership est attribué généralement aux hommes.
02:01Jean-Christophe, il y a aussi une différence entre les biais techniques ou cognitifs
02:05et les biais sociaux. Est-ce qu'on peut revenir dessus ?
02:08Oui, les biais sociaux, vous en parliez un instant.
02:12Les biais techniques et cognitifs,
02:15ils sont particulièrement forts dans tout ce qui est lié à l'IA,
02:18parce qu'à partir du moment où on a énormément de données
02:21qui concernent les hommes, qui sont gérées par des hommes
02:26et qui suivent des programmes développés par des hommes,
02:30eh bien évidemment, on va se retrouver dans une accélération de ces biais,
02:37et une forme de confirmation en permanence de ces biais,
02:41et notamment des biais de genre,
02:43qui sont particulièrement prégnants dans l'intelligence artificielle.
02:46Voilà pour cette présentation.
02:48Alors Amélie Groux, vous, je le disais à l'instant,
02:50vous êtes lead data scientist.
02:52Est-ce que vous pouvez nous préciser,
02:54nous expliquer exactement ce que vous faites chez Sanofi ?
02:57Est-ce qu'il y a beaucoup de femmes qui travaillent en connexion avec l'IA
02:59aujourd'hui chez Sanofi ?
03:01Oui, alors nous, chez Sanofi, on a cette ambition de vouloir vraiment réduire le temps
03:05entre le moment où on a un médicament qui rentre en recherche
03:09et le moment où ça devient un traitement accessible à nos patients.
03:12Et pour ça, on veut vraiment miser sur l'IA pour accélérer ce temps.
03:15Et moi, mon rôle dans tout ça, c'est de trouver des opportunités,
03:18d'utiliser cet IA pour nos différents collaborateurs et métiers,
03:22les chercheurs, les scientifiques,
03:23et avec mon équipe, de développer ces IA d'une manière responsable et éthique.
03:28Alors, quels sont les biais que vous, vous avez identifiés chez Sanofi
03:33et ceux qui vous semblent les plus pernicieux ?
03:35Peut-être si vous pouvez nous répondre avec un cas extrêmement concret.
03:38Oui, oui, alors nous, on voit des différences dans la santé
03:40entre les hommes et les femmes.
03:42Si on prend des différences de symptômes, par exemple,
03:45par rapport à des maladies, si on prend l'exemple de l'infarctus,
03:47on dit souvent, chez les hommes, on a cette douleur thoracique très violente
03:50qui résonne dans le bras gauche, la mâchoire.
03:52Là où, chez les femmes, ça va être beaucoup plus léger,
03:54avec un sentiment d'oppression qui est souvent associé à l'anxiété.
03:57Et on passe à côté de diagnostics pour les femmes.
04:01Et donc, nous, quand on développe ces traitements
04:03et qu'on utilise des IA qui nous assistent
04:05dans ce développement de médicaments,
04:07on doit vraiment s'assurer que ces différences,
04:09elles sont prises en compte.
04:11Et donc, si on a une IA qui est alimentée par de la donnée
04:13d'essais cliniques, qu'on a vraiment une représentation équitable
04:16des hommes et des femmes,
04:17et que derrière, quand l'IA donne ses résultats,
04:20on puisse prendre ça en compte.
04:21et qu'on s'assure de l'efficacité équitable
04:24de nos traitements pour les hommes et les femmes,
04:26et aussi de bien prendre en compte les effets secondaires
04:28de part et d'autre.
04:30Alors, on va rester dans le monde de la médecine.
04:32Avec vous, Raphaël Thau, vous êtes la cofondatrice
04:34de Matricis, qui s'appuie aussi
04:36sur l'intelligence artificielle.
04:38Est-ce que vous pouvez expliquer
04:40à l'assistance
04:41le propos de votre entreprise,
04:44comment est née votre entreprise,
04:45et quelles solutions vous développez grâce à l'IA aujourd'hui ?
04:49Merci beaucoup.
04:50Donc nous, on développe une solution d'intelligence artificielle,
04:52et la première qui aide les radiologues à dépister mieux
04:56les pathologies gynécologiques.
04:58En particulier, on s'intéresse à l'imagerie IRM,
05:00et au dépistage sur l'IRM de l'endométriose,
05:03l'adénomiose,
05:03l'hémium et les fibromutérins.
05:06Donc c'est un produit qui permet aux radiologues,
05:07quand ils lisent les images,
05:09de repérer plus facilement
05:10les signes de ces pathologies.
05:12Donc c'est un peu comme
05:13si vous jouez à Où est Charlie,
05:15quand vous êtes radiologue,
05:17en cherchant des patterns,
05:19et ça met des carrés autour de ces patterns.
05:21Donc forcément, on imagine bien
05:22que ça va à la fois plus vite
05:23et que c'est plus précis.
05:24Et nous, on a une spin-off
05:25de deux instituts français,
05:26l'INRIA,
05:27qui est le Centre national de recherche,
05:28notamment en intelligence artificielle,
05:30et la BHP,
05:31que vous connaissez probablement
05:32le grand réseau d'hôpitaux franciliens.
05:35Alors vous, Raphaël,
05:36vous n'êtes pas exposé aux biais de genre,
05:38dont on va parler tout au long
05:39de cette table ronde,
05:40mais aux biais ethniques.
05:42Racontez-nous,
05:43et puis j'aimerais avoir
05:44votre regard global sur les biais.
05:47Alors nous, par nature,
05:48justement sur les biais de genre,
05:49on est plutôt extrêmement biaisé,
05:50puisqu'on ne traite que des données
05:51d'imagerie des femmes.
05:53Et sur la question des biais ethniques,
05:56j'aimerais justement,
05:57j'adorerais pouvoir vous répondre.
05:59Et la vérité, c'est que je ne peux pas...
06:00D'abord, c'est quoi un biais ethnique,
06:01peut-être, pour les gens
06:02qui sont dans cette salle ?
06:03Donc exactement comme les biais
06:04dans n'importe quelle nature,
06:05typiquement dans la santé,
06:07c'est qu'on ne va avoir
06:08pas nécessairement les mêmes résultats
06:11en fonction de la génétique
06:13des personnes auxquelles on s'adresse,
06:15donc typiquement pour un médicament,
06:17ou aussi pour certains diagnostics.
06:22Et donc ça, comme c'est génétique,
06:23c'est aussi ethnique.
06:25Donc par exemple,
06:25les symptômes ne vont pas être
06:26exactement les mêmes
06:27en fonction de votre origine génétique.
06:29et ça, c'est une question
06:31qui se pose typiquement aux Etats-Unis
06:33quand on cherche à faire approuver
06:35par un régulateur
06:36un système d'intelligence artificielle,
06:38on va m'imposer d'avoir
06:39dans les essais cliniques
06:40une représentation diverse
06:41des différentes ethniques
06:43qui composent le pays.
06:44Et ça, c'est quelque chose,
06:45par exemple,
06:45qu'on n'impose pas en France.
06:48Et comme la majorité des données
06:49que j'utilise sont françaises,
06:50c'est aussi une réponse
06:51que je ne peux pas donner.
06:52je n'ai aucune idée
06:53de la différence
06:55de fonctionnement
06:56de mon système
06:56en fonction
06:57de l'origine ethnique des gens.
06:59Alors que c'est quand même
07:00une assez bonne question
07:01parce que justement,
07:02on pourrait très facilement imaginer
07:04que ça fonctionne moins bien
07:05sur certaines ethnies.
07:06Quels sont les risques, Amélie,
07:09liés à l'IA et au biais
07:10dont on vient de parler,
07:12inhérents chez Sanofi ?
07:14Et comment, vous,
07:16est-ce que vous limitez ces risques
07:17si vous y parvenez ?
07:19Oui, oui, on est très, très, très vigilants
07:21parce qu'il s'agit
07:21de la vie des patients à la fin.
07:24Et donc, nous, on cherche à infuser
07:26cet IA un peu partout chez Sanofi
07:27pour devenir un peu un assistant
07:29pour les différents cœurs de métier.
07:32Mais ça veut dire,
07:33si on laisse l'humain au cœur
07:34de ces métiers,
07:34il doit aussi être conscient
07:35de ces risques
07:36et de ces biais qu'on a dans les IA.
07:38Et donc, pour ça,
07:38on sensibilise énormément
07:40nos collaborateurs,
07:41soit qui développent
07:42ou qui utilisent ces IA.
07:44Et on a aussi mis en place
07:45un cadre RAIS,
07:47donc Responsible AI
07:48for Everyone at Sanofi,
07:50qui est un cadre
07:51avec quatre piliers principaux.
07:53Donc, la robustness
07:54et la sûreté de ces modèles,
07:55la transparence,
07:57l'équité
07:58et aussi l'éco-responsabilité.
08:00Et on ne parle pas seulement
08:01d'un ensemble de bonnes pratiques.
08:03On parle vraiment d'un cadre
08:04qui est intégré
08:05dans nos processus opérationnels,
08:07qui permet réellement
08:08d'identifier et de contrôler
08:09les risques
08:09depuis l'ensemble
08:10du cycle de vie
08:12de nos produits IA.
08:13Donc, on a vraiment
08:14à cœur
08:15d'identifier tous ces risques
08:16et de les contrôler
08:17de bout en bout
08:18pour limiter ces risques
08:19chez Sanofi.
08:19Merci, Amélie.
08:21Je me tourne vers vous,
08:22Giane,
08:22puisque Capgemini
08:23a mené une étude
08:24auprès de 2700 leaders
08:26dans 11 pays
08:27et passé au panneau fin
08:289 secteurs d'activité.
08:30On aimerait comprendre
08:31ce qui ressort
08:32de cette étude.
08:36Est-ce que les biais
08:37limitent la croissance
08:38et les opportunités
08:39à la fois pour les hommes
08:40et les femmes
08:40ou davantage pour les femmes ?
08:42Quels sont les points
08:43saillants de cette étude,
08:44finalement ?
08:44Effectivement,
08:45on a voulu retester
08:46parce qu'on a fait quand même
08:47il y a eu des années
08:48d'efforts pour améliorer
08:50la présence
08:51des leaders féminins
08:52dans tous les secteurs
08:54et je voulais partager
08:55deux résultats avec vous.
08:57Le premier,
08:57c'est que le leadership
08:58maintenant transcende le genre,
08:59ce qui est quand même
09:00une très bonne nouvelle
09:01parce que 63% des hommes
09:03et 74% des femmes
09:05considèrent que
09:06la présence de femmes
09:07dans les cadres dirigeants
09:09d'une entreprise
09:10améliore la performance
09:11de l'entreprise.
09:12On peut le mesurer
09:14à travers,
09:14si on prend les fortunes 500,
09:17qui ont le plus de femmes
09:18au conseil d'administration,
09:19elles ont les meilleures
09:20performances financières.
09:21Et même un exemple,
09:22Ginny Lever
09:23qui a voulu,
09:23à travers sa gestion
09:24des talents,
09:25augmenter de plus de 40%
09:27le nombre de femmes
09:28dans leurs effectifs
09:29de dirigeants,
09:30ils ont augmenté directement
09:31de plus de 30%
09:32de leurs ventes.
09:33Donc là,
09:33on a un lien direct
09:34entre la présence de femmes
09:36au poste de leadership
09:38et la performance financière
09:39des entreprises.
09:40Par contre,
09:41dans la même étude,
09:42on a aussi commencé
09:43à identifier
09:44quelles sont
09:44les compétences
09:46de leadership
09:46de demain.
09:47Et dans les compétences
09:48de leadership
09:48de demain,
09:49il y a des nouvelles compétences.
09:51C'est la gestion de l'IA
09:52dont on vient parler,
09:53la gestion de la data,
09:54la gestion de l'agilité.
09:55Et malheureusement,
09:56aujourd'hui,
09:57quand on interroge
09:57les femmes
09:58et les hommes,
10:00les hommes disent
10:00que ce sont
10:01des compétences masculines.
10:03Donc on a un travail
10:04continu
10:05à faire
10:06sur cet axe-là
10:07parce que dans les formations
10:08de nos leaders
10:08et pas que dans la tech.
10:09dans la tech,
10:10on arrive,
10:11peut-être qu'on maîtrise
10:11ce monde-là.
10:12Mais dans les autres secteurs,
10:14il faudra encore plus
10:15aider et former
10:17les femmes dirigeantes
10:18pour faire partie
10:21des leaders de demain.
10:22Jean-Christophe Vidal,
10:24quelles sont les conséquences
10:25sociétales de ces biais
10:26et est-ce que c'est
10:27pour cette raison,
10:28finalement,
10:29que vous avez
10:29quelque part rejoint
10:30l'association Connexio
10:31il y a 5 ans ?
10:32L'association Connexio,
10:35moi je l'avais rejoint
10:36au départ
10:36pour pouvoir la développer
10:37parce qu'aujourd'hui
10:39elle est présente
10:39dans 4 régions en France.
10:41Peut-être que vous pouvez
10:41la présenter très rapidement.
10:43C'est une association
10:43qui forme au numérique
10:44les personnes qui sont
10:45les plus éloignées de l'emploi
10:46et quand on parle
10:47de former au numérique,
10:48c'est aussi bien
10:49de la bureautique
10:49que de former
10:50des futurs experts
10:51de cybersécurité.
10:53Donc c'est très large
10:54et à chaque fois,
10:54évidemment,
10:55on est en 2025,
10:56on intègre de l'IA
10:57dans nos programmes.
10:59On essaye d'avoir
11:00des promotions
11:00qui soient les plus
11:02paritaires possibles
11:03et aujourd'hui
11:03on arrive à avoir
11:04environ 51% de femmes
11:06dans nos promos
11:07donc on arrive
11:09à avoir cette diversité.
11:10En revanche,
11:11ce n'est pas la raison
11:11pour laquelle
11:12j'ai rejoint l'association
11:12mais en revanche,
11:14assez rapidement,
11:15on a pris conscience
11:16et là c'est au niveau
11:17de l'ensemble des équipes
11:18du fait que,
11:19évidemment,
11:20les femmes sont
11:20sur-représentées
11:21dans la tech,
11:22la ministre parlait
11:22de 23% tout à l'heure.
11:24Lorsqu'on regarde
11:24l'IA,
11:26c'est 17% seulement de femmes
11:27et lorsqu'on regarde
11:28les équipes
11:29qui gèrent la data
11:30et qui programment,
11:32on descend à 12%.
11:34Donc en fait,
11:34il y a une récupération
11:36qu'il faut faire
11:37et qu'il faut faire
11:37de manière assez urgente
11:38parce que lorsqu'on a
11:40des billets,
11:40ça se traduit
11:41de manière très immédiate
11:44dans les compositions
11:44des équipes,
11:46ça n'attire,
11:46ça est plus difficile
11:47d'attirer des personnes,
11:49c'est très simple.
11:50Moi,
11:51j'ai plus de 45 ans,
11:53je suis un homme blanc,
11:54si je souhaite rejoindre
11:55une équipe
11:56qui est de personnes
11:58uniquement féminines
11:59ayant 20 ans,
12:02tout de suite,
12:02je vais me dire
12:03que je n'ai pas ma place.
12:05Donc imaginez
12:06des personnes,
12:07des femmes
12:08qui rejoignent
12:09des équipes
12:09100% masculines
12:11ou parfois
12:11vous avez des blagues
12:12raveleuses,
12:13ça ne donne pas
12:14vraiment envie.
12:15Et pour autant,
12:16lorsque moi,
12:16j'avais démarré
12:17ma carrière
12:17dans la tech
12:19chez Accenture
12:20il y a presque 25 ans,
12:22on avait 45%
12:24de femmes,
12:2455% d'hommes.
12:26Donc en fait,
12:27je vais dire
12:27que ce n'est pas
12:28une fatalité.
12:29Mais les métiers
12:31de la tech
12:31étant devenus
12:32plus attractifs,
12:34mieux rémunérateurs,
12:35plus visibles,
12:36finalement,
12:37les mecs
12:37s'y sont engouffrés
12:38beaucoup plus rapidement.
12:39Mais Jean-Christophe,
12:40la question c'est
12:41est-ce que c'est difficile
12:41pour une entreprise
12:42de débiaiser
12:43une fiche de poste ?
12:44Ah, alors ça,
12:45oui,
12:45ce n'est pas simple.
12:46Ce n'est pas simple,
12:47mais il y a des solutions
12:48pour pouvoir y arriver.
12:49Pourquoi est-ce que
12:49ce n'est pas simple ?
12:50Parce qu'en effet,
12:50quand on emploie
12:51le mot leadership,
12:53tout de suite,
12:54on va trouver
12:55plus d'hommes.
12:56Pour autant,
12:57on a mené
12:57avec Arborus
12:59et les équipes
13:00de Christina Lunghi
13:01à tout un travail
13:03de manière
13:03à pouvoir identifier
13:05les biais masculins
13:06et les biais féminins
13:07qu'il y a
13:07dans les fiches de poste.
13:09Et moi,
13:09je vais vous dire,
13:09je suis convaincu
13:10qu'il y a une nécessité
13:11de provoquer
13:12de la mixité
13:13dans les équipes.
13:14Je me suis dit,
13:15moi, dans mes équipes,
13:15il y a quand même
13:1650% de femmes,
13:1750% d'hommes
13:18et ceux-ci
13:19à tous les niveaux
13:19de responsabilité
13:20la connexion
13:21n'a quand même
13:21pas été mauvaise.
13:23On a passé
13:24nos fiches de poste,
13:25toutes les fiches de poste
13:26au TAMI
13:26et on s'est rendu compte
13:27qu'on avait
13:28un biais masculin
13:30extrêmement fort
13:30dans toutes nos fiches de poste
13:32alors même qu'on arrivait
13:33à recruter à peu près
13:34à parité.
13:35Tout ça pour dire,
13:36oui, il y a des biais,
13:37ce n'est pas simple
13:37de les dépasser.
13:38Donc, il faut avoir
13:38ce warning
13:39des biaisés
13:40en permanence.
13:41Jean-Christophe,
13:42vous gardez votre micro,
13:43vous avez contribué
13:44à créer un programme
13:46qui s'appelle
13:46Explore ton talent
13:47à destination
13:47des jeunes décrocheurs
13:48de 16 à 25 ans
13:50pour attirer plus de femmes
13:51dans les sciences,
13:52l'informatique et l'IA.
13:54Concrètement,
13:54comment ça marche
13:55et où est-ce que vous allez
13:56les dénicher ces talents
13:58qui ont décroché ?
13:59Oui.
14:00Ce n'est pas simple.
14:01Pour aller les dénicher,
14:02on fait du terrain.
14:05C'est des associations locales.
14:07C'est la mission de lutte
14:07contre le décrochage scolaire.
14:09Ce sont des lycées,
14:10voire parfois des collèges.
14:11On va chercher des jeunes
14:12à partir de l'âge de 15 ans
14:14de manière à pouvoir
14:16les embarquer dans notre programme
14:17dès l'âge de 16 ans.
14:19Ensuite,
14:20volonté de pouvoir attirer
14:21les jeunes femmes
14:22dans ce programme
14:22sur des sciences dures,
14:24ce n'est pas totalement évident.
14:25C'est un travail au quotidien
14:27de montrer
14:28qu'elles peuvent y arriver.
14:30Parce que pour faire simple,
14:31nous, on propose
14:32une dizaine de promos par an
14:33avec 20, 30 personnes
14:36à chaque fois.
14:37Si on voulait avoir
14:38des promos 100% mec,
14:39on y arriverait
14:40sans aucune difficulté.
14:42Donc de nouveau,
14:42on se force
14:43à faire en sorte
14:44que les jeunes femmes
14:44puissent intégrer le programme.
14:46Et ça marche.
14:47Ça marche parce qu'elles s'accrochent plus,
14:50notamment dans tout ce qui est maths,
14:53algorithmes,
14:54bref, des trucs qui,
14:54a priori,
14:55ne sont pas marrants.
14:56Elles vont s'accrocher beaucoup plus.
14:57Elles vont réussir.
14:59Donc, mesdemoiselles et mesdames,
15:01si vous voulez rejoindre
15:02des programmes,
15:03des filières scientifiques
15:04et techniques,
15:05on est à l'école 42,
15:06je crains que je prêche
15:07des personnes
15:07qui sont déjà converties,
15:09mais vraiment,
15:10allez-y
15:10parce que vous pouvez
15:12vous débrouiller extrêmement bien.
15:15Il y a des places à prendre,
15:17évidemment,
15:17dans les métiers de la tech,
15:18mais aussi de la transition écologique.
15:20Donc, voilà,
15:21il faut y aller,
15:21et c'est maintenant.
15:22Jianne,
15:23votre métier,
15:24il a été complètement révolutionné
15:26avec l'arrivée de l'IA.
15:27On a envie de comprendre
15:28comment est-ce que vous l'utilisez,
15:30cette IA,
15:30dans votre travail de recrutement.
15:32Est-ce que vous avez des points de vigilance
15:33dont parlait Jean-Christophe
15:37à l'instant ?
15:38Et est-ce que c'est grâce à l'IA
15:39que vous atteignez ce chiffre de 40%
15:41que je citais en introduction,
15:4240% de femmes,
15:43aujourd'hui,
15:44chez Capgemini ?
15:45Oui, en partie.
15:46En fait,
15:46dans le métier du recrutement,
15:47c'est vrai que la promesse de l'IA,
15:49souvent,
15:49c'est de plus de productivité.
15:52Et on avait une crainte aussi.
15:53Est-ce que ça ne va pas rapporter du biais ?
15:55Parce qu'on voulait, bien sûr,
15:57enlever les tâches répétitives
15:58pour les recruteurs,
15:59qui sont la prise de rendez-vous.
16:01C'est assez simple,
16:01le doctolibre de la prise de rendez-vous
16:03est mise en place.
16:04Bien sûr,
16:05la revue de toutes les annonces
16:06pour les rendre plus neutres,
16:08ça, c'est quelque chose
16:09qui est automatique.
16:09Mais en fait,
16:10on avait le sujet
16:10du screening de CV
16:12qui était fait aujourd'hui
16:13par les recruteurs et les managers.
16:15Et là,
16:15on savait qu'il y avait
16:16des biais inconscients.
16:17Ça, c'est quelque chose
16:18qu'on a réussi à mesurer.
16:19On a fait toute une étude.
16:20On a demandé à plusieurs personnes
16:22de screener les CV.
16:24On vient d'un monde
16:25où il y a très peu de femmes déjà.
16:26Donc, la représentation,
16:27on a confirmé
16:28qu'au moment de regarder les CV,
16:31malheureusement,
16:31nos recruteurs et nos managers
16:33avaient une discrimination inconsciente
16:35envers les femmes.
16:37Et en fait,
16:37ce qu'on a essayé de faire avec l'IA,
16:39c'est plutôt de neutraliser cet effet.
16:41Donc, on avait une IA
16:42qu'on a, bien sûr,
16:43avec un partenaire,
16:44mais en fait,
16:45on a aussi mis des équipes
16:46de data scientists
16:47qui ont regardé l'IA.
16:49On a testé cette même IA.
16:50On a réussi à démontrer
16:51qu'elle enlevait
16:52tous les biais de genre.
16:53Elle était à 50% neutre
16:55dans cette première étape
16:56qui était le screening de l'IA.
16:58Donc, ça nous a plutôt rassurés
16:59et aidés
17:00à enlever les biais inconscients
17:02à cette première étape du process.
17:04Amélie,
17:05ce que dit JN,
17:05est-ce que ça vous parle ?
17:06Et vous,
17:07quelles sont les solutions
17:08que vous avez mises en place
17:09chez Sanofi
17:09pour lutter en profondeur
17:11contre les biais ?
17:13Oui, oui.
17:14On part aussi, nous,
17:15énormément sur la problématique
17:16de la diversité
17:17dans les équipes.
17:19Vous me demandiez tout à l'heure
17:19le pourcentage de femmes
17:20dans mon métier.
17:21Quand on est sur l'ensemble
17:22des data scientists
17:23qui sont au cœur
17:24des développements de ces IA,
17:25on est à 30% environ.
17:27Mais quand on arrive
17:28à des postes comme le mien,
17:29de manager, de lead,
17:30on descend à 10%.
17:31Donc, il y a vraiment
17:32des opportunités d'amélioration.
17:34Et nous,
17:34chez Sanofi,
17:35étant une entreprise pharmaceutique,
17:36contrairement à des Google,
17:37des Amazon, des Microsoft,
17:38on n'est pas identifié,
17:39on n'est pas le premier entreprise
17:41qui vient à l'esprit
17:41pour les talents du digital.
17:43Donc, on est vraiment proactif
17:45dans cette démarche
17:45d'aller chercher
17:46les jeunes talents.
17:48On fait des interventions
17:48dans les écoles
17:49pour pouvoir sensibiliser
17:50à ces métiers,
17:52notamment les jeunes filles.
17:53On a des programmes
17:53de mentorat,
17:54de visite de nos sites
17:55pour vraiment faire découvrir
17:57tous ces métiers
17:57et faire venir
17:58les jeunes femmes
17:59dans le digital.
18:00Et après,
18:01il s'agit aussi
18:01de retenir les femmes
18:02qui sont déjà là
18:03et les pousser vers ces rôles
18:05de leadership
18:06et de managers.
18:07Et pour ça,
18:07on a aussi énormément
18:08de programmes
18:09de développement
18:09de leadership,
18:10de coaching,
18:11de mentorat.
18:12On a des groupes
18:13de ressources employées
18:14dédiés,
18:15cet équilibre en femmes
18:16et pousser les femmes
18:16dans le leadership.
18:18Et donc,
18:18on cherche vraiment
18:19à avoir cet équilibre
18:20qui va nous permettre
18:21d'avoir des IA
18:22plus justes et éthiques.
18:23Merci beaucoup, Raphaël.
18:25La dernière question
18:26est pour vous.
18:26Vous, comment est-ce que
18:27vous travaillez au quotidien
18:28pour gommer ces biais ?
18:31Comment est-ce que
18:32vous gardez ça en tête ?
18:33Et deuxième question,
18:34puisqu'il y a toujours
18:35deux questions en une avec moi.
18:37Est-ce que vous avez
18:37le sentiment
18:37que l'IA
18:38a révolutionné,
18:40est en train de révolutionner
18:40le monde de la médecine ?
18:41Ça, c'est peut-être
18:42aussi une question
18:42pour vous, Amélie.
18:43Comment on travaille
18:45pour compenser ces biais ?
18:48En intelligence artificielle,
18:50déjà, il faut se dire
18:51que ce qui est biaisé,
18:52ce n'est pas l'algorithme lui-même.
18:53Ce qui est biaisé,
18:54c'est deux choses.
18:54C'est un,
18:55les données qu'on va rentrer
18:56dans cet algorithme,
18:57et donc la façon
18:58dont elles ont été sélectionnées.
18:59Et ensuite,
19:00c'est l'évaluation
19:01de cet algorithme.
19:02Donc, est-ce que
19:03on a seulement pensé
19:04à évaluer cet algorithme
19:06selon des questions de genre,
19:07par exemple.
19:08Et puis ensuite,
19:09il y a une question
19:09plus générale qui est
19:11en fait à quoi sert cet algorithme
19:13et à quel problème
19:14collectivement
19:14on décide de s'intéresser
19:15et donc pour quel problème
19:17on développe de la technologie,
19:18que ce soit
19:18de l'intelligence artificielle
19:19ou même autre chose.
19:21Nous, évidemment,
19:21on n'est pas tellement concernés
19:23par la sélection de données
19:23et leur évaluation
19:24sur les biais de genre
19:25puisque naturellement,
19:27ce ne sont que
19:27des données féminines.
19:29Mais par contre,
19:30le fait de s'intéresser
19:31à un sujet
19:31qui est globalement
19:32assez délaissé,
19:34ça, c'est une façon
19:35de compenser les biais de genre
19:36en l'occurrence de la médecine.
19:38Et sinon, oui,
19:39clairement,
19:40l'intelligence artificielle
19:41a un impact énorme
19:42sur la médecine.
19:43Et extrêmement positif.
19:45Extrêmement positif,
19:46clairement.
19:46Que ce soit
19:47à la fois en routine clinique,
19:49donc ce que vous,
19:50en tant que patient,
19:51vous voyez,
19:53et puis aussi
19:53en recherche pharmaceutique,
19:55enfin en recherche médicale,
19:56en routine clinique,
19:57pour vous donner une idée,
19:58il y a des hôpitaux
19:59dans lesquels vous allez
20:00aux Etats-Unis maintenant,
20:01vous allez avoir
20:02une intelligence artificielle
20:04qui enregistre
20:04votre conversation
20:05avec le médecin,
20:06qui va faire en temps réel
20:06des recommandations
20:07aux médecins
20:08s'il y a des questions
20:09qu'il n'a pas pensé à poser
20:10ou des recommandations
20:11de traitement spécifique.
20:12Peut-être même
20:13qu'elle va recommander
20:14l'entrée d'un patient
20:15dans un essai clinique
20:16s'il correspond
20:17aux critères nécessaires.
20:19Ensuite,
20:19quand vous allez
20:20plutôt à l'étape
20:21des tests de diagnostic,
20:22il y en a plein
20:23qui sont déjà approuvés
20:24par les régulateurs,
20:25qui sont déjà sur le marché,
20:26qui utilisent de l'IA.
20:27Si vous cassez la jambe
20:29et que vous allez
20:29à l'hôtel-Dieu
20:30au service des urgences,
20:31vous allez avoir une IA
20:32qui relie votre scanner
20:34en même temps
20:35que le radiologue.
20:35Et ça,
20:36on a montré
20:36que ça marche mieux
20:37qu'un radiologue tout seul
20:37et qu'une IA toute seule.
20:39Etc.
20:40Merci beaucoup
20:41à tous les quatre.
20:42On peut vous applaudir
20:43extrêmement chaleureusement.
20:45Merci infiniment.
Recommandations
2:51
0:19
15:56
14:03
17:35
13:59
7:32
20:58
3:38
3:09
Écris le tout premier commentaire