- il y a 2 jours
Catégorie
🗞
NewsTranscription
00:00Ces événements que le Think Tank Marie-Claire organise chaque année depuis si longtemps maintenant sont importants et à chaque fois je leur dis je peux pas, j'ai pas le temps et puis après quand je vois l'agenda, quand je vois ce qui se passe dans le monde, je me dis non, il faut que nous soyons encore nombreux et nombreux à porter ces messages qui sont absolument essentiels.
00:29Peut-être d'ailleurs aujourd'hui plus qu'ils ne l'ont jamais été. Alors je voudrais évidemment remercier très chaleureusement le Think Tank Marie-Claire pour sa constance parce que vous avez vu que beaucoup, beaucoup, beaucoup ont tendance à reculer aujourd'hui et c'est grâce à l'engagement et à cette capacité de mobilisation et de sensibilisation de la société sur ce sujet qui est devenu vital que peut-être nous n'allons pas nous endormir sur un sujet qui devient absolument essentiel.
00:59Je dois vous avouer, cela dit, que quand j'ai reçu l'invitation cette année j'ai hésité. J'ai pas hésité parce que je n'étais pas intéressée, ceux et celles d'entre vous qui me connaissaient savaient que je porte ces sujets avec force et conviction depuis plus de 25 ans.
01:14Mais j'ai hésité parce que je me suis dit mais qu'est-ce que je vais bien pouvoir dire que vous ne savez pas déjà ?
01:21Qu'est-ce que je vais pouvoir dire que toutes les illustres panélistes avant moi ne vous ont déjà dit ? Qu'est-ce que vous ne savez pas ?
01:29Vous ne savez pas que malgré les efforts acharnés de tant d'associations, malgré le travail des femmes et d'hommes sincèrement engagés,
01:38et l'exemple de Christina et d'Isabelle fait chaud au cœur, qu'est-ce qu'on ne sait pas ?
01:44Que dans les écoles, les entreprises et les politiques publiques, il y a des travaux qui sont faits, et malgré tout, les chiffres ne progressent pas aussi rapidement qu'on le voudrait.
01:55Comme vous devez vous en douter, à la Fondation Femmes numériques, nous suivons ces chiffres de très très près.
02:01Et en 2024, malgré tout, ça fait 7 ans qu'on existe, seules 24% des personnes travaillant dans le numérique en France sont des femmes.
02:1017% de femmes dans les métiers techniques, et 12% parmi les chercheurs en intelligence artificielle, alors même que c'est en train de révolutionner nos vies.
02:23Et force est de constater qu'à ce rythme-là, la parité, nous ne l'atteindrons si tout se passe bien qu'en 2070.
02:34On ne sera même pas là pour le voir, en tout cas pour la plupart d'entre nous.
02:38Sur LinkedIn, le réseau social professionnel par excellence, les femmes ne représentent que 19% des profils actifs, contre 24% des hommes.
02:51Alors même que les femmes constituent près de la moitié de la population active.
02:58Même dans le monde virtuel, la réalité reste totalement déséquilibrée.
03:02Et quand on regarde les contenus numériques, le Haut Conseil à l'égalité a publié il y a quelques temps une étude extrêmement intéressante
03:13qui montrait que les femmes ne représentent que 34% des personnages visibles sur YouTube, 36% sur TikTok et 44% sur Instagram.
03:22Levez la main si vous n'utilisez aucun de ces réseaux sociaux.
03:24Waouh !
03:28Il y a dix mains qui se sont levées, c'est pas mal.
03:31Eh bien, partout, partout, oui, ça ne m'étonne pas Catherine que ça te fasse sourire, parce que je sais combien tu t'es impliquée là-dessus.
03:40Partout, sur ces réseaux sociaux, même sur Instagram, où elles sont un peu plus que 40%,
03:46elles occupent des rôles secondaires, principalement liés à la sphère intime ou domestique.
03:52Et vous ne serez pas surpris d'apprendre que leur image est évidemment stéréotypée.
03:58Soit elles sont maternelles, soit elles sont sentimentales, soit elles sont mignonnes comme des poupées.
04:04Les plateformes ne reflètent pas la diversité du réel, en fait, elles les déforment totalement.
04:12Et nous savons toutes et tous ici que l'intelligence artificielle, Christina le disait tout à l'heure, se nourrit essentiellement de données.
04:20S'il n'y a pas de données, il n'y a pas d'intelligence artificielle.
04:24Et évidemment, moins il y a de femmes, moins il y a de seniors, de personnes d'origines sociales et culturelles différentes pour compléter ces données,
04:33plus il y aura de biais, de préjugés et de stéréotypes qui s'installeront.
04:38Parce qu'une technologie qui ne se construit que dans l'entre-soi finit évidemment toujours par la reproduire.
04:45Et c'est une loi aussi vieille que le monde.
04:49Alors permettez-moi d'être un tout petit peu disruptive cette année.
04:52Et si on mettait de côté pour un instant l'outil technologique et numérique et que nous nous posions une question beaucoup plus essentielle,
05:03celle de la gouvernance et de la souveraineté, non pas dans un monde virtuel des algorithmes, mais dans le monde réel,
05:12celui de nos choix, de nos valeurs et de nos responsabilités.
05:16Parce que comment, comment est-ce qu'on peut espérer construire une intelligence artificielle plus intelligente, plus inclusive et plus éthique,
05:29ou encore plus alignée sur nos valeurs, si notre société elle-même ne l'est pas ?
05:36C'est totalement illusoire.
05:41Si nos institutions, nos entreprises et nos politiques peinent encore à incarner cette inclusion que nous appelons de nos voeux,
05:47et si nos valeurs de liberté, d'égalité et de dignité vacillent encore sous le poids de la peur, de la compétition ou de l'indifférence,
06:01on peut penser que ce ne sont pas nos outils numériques qui vont miraculeusement changer les choses.
06:09Et donc, avant de parler de la gouvernance de la technologie, nous devons peut-être commencer par parler de la gouvernance de nous-mêmes.
06:20Parce que l'IA ne fera jamais mieux que la société qui la conçoit.
06:25L'éthique de l'intelligence artificielle n'est pas un supplément d'âme jetée comme ça sur les circuits imprimés de la modernité.
06:38Elle en est en fait la condition de sa légitimité.
06:43Parce que c'est ce qui empêche la technologie de devenir un instrument de domination ou d'exclusion.
06:49Parce que dès lors qu'un algorithme trie des candidatures, qu'il oriente une décision de justice ou qu'il attribue un score de crédit,
06:58eh bien il devient un acteur moral.
07:01Et cet acteur, même silencieux, engage évidemment notre responsabilité collective.
07:08Les chercheurs, les juristes et les philosophes, conscients de l'impact de ce sujet dans nos vies,
07:15ont dû extraire l'IA du champ technique pour l'ancrer dans celui bien plus exigeant de la responsabilité humaine.
07:24Kant nous parlait d'autonomie et de dignité.
07:27Rawls, de justice et d'équité.
07:31Carole Gilligan, elle, parlait de l'éthique de l'attention à l'autre.
07:35Et Anna Arendt, ça, ça va vraiment vous parler, nous mettait en garde contre la banalité du mal.
07:41Celle qui naît de l'abdication de la pensée critique, de la délégation de nos choix à des systèmes sans conscience.
07:50« Science sans conscience n'est que ruine de l'âme », disait Rabelais.
07:55Mais quand on voit la manière dont on utilise ces outils aujourd'hui, c'est comme si on n'avait pas appris, malgré toutes ces alertes.
08:02Nous avons cru pouvoir déléguer à la machine ce que nous n'avions pas réussi à résoudre nous-mêmes.
08:09Nos biais, nos injustices et nos angles morts.
08:14Quand un logiciel de recrutement élimine des candidatures féminines parce qu'il a été entraîné sur des données d'entreprise où les hommes dominaient,
08:23ce n'est pas une discrimination consciente.
08:27C'est une discrimination automatisée.
08:30Quand un algorithme de justice prédictive accorde un score de récidive plus élevé à un homme noir qu'à un homme blanc,
08:38nous n'avons pas effacé le racisme, nous l'avons codifié.
08:43Et quand les modèles d'IA génératives associent spontanément les femmes à des métiers d'assistante,
08:50à nos responsabilités de mère, à nos rôles d'infirmière,
08:54et les hommes à des rôles de cadres dirigeants ou des ingénieurs ou des pilotes d'avions,
09:01nous voyons bien à quel point le patriarcat s'est infiltré jusque dans nos pixels.
09:08Et quand les plateformes sociales récompensent la viralité plus que la vérité,
09:14la colère plus que la nuance,
09:17eh bien, elle fragilise les démocraties qu'elle prétendait renforcer.
09:22Et si vous regardez bien,
09:24même la guerre s'est transformée.
09:27L'intelligence artificielle s'invite désormais sur les champs de bataille,
09:30dans les drones, dans la désinformation,
09:32et même la manipulation des émotions.
09:35Vous savez, quand vous postez quelque chose
09:37et que vous allez regarder toutes les minutes si votre ami a liké,
09:40quand nos enfants nous disent
09:43« Mais je ne comprends pas, on est partis en vacances ensemble,
09:46on a pris plein de photos,
09:47elle a laqué les photos de mes amis et pas les miennes. »
09:50Ça s'appelle de la manipulation des émotions.
09:53Vous savez, ce fameux petit « ting »
09:55qu'on entend quand un message arrive
09:58et qu'on se jette sur le téléphone,
09:59même quand on est face à notre amoureux au restaurant.
10:01Non, il faut absolument que je regarde.
10:02Ça s'appelle de la manipulation des émotions.
10:07Et ce ne sont plus seulement les territoires qu'on conquiert,
10:10ce sont les consciences.
10:13Alors oui, nous avons donné aux machines le pouvoir de décider
10:16sans toujours leur donner le sens des responsabilités.
10:20Nous avons poursuivi l'efficacité,
10:22parfois au prix de la justice,
10:24et nous avons confondu la vitesse du progrès
10:27avec sa direction morale.
10:30C'est pourquoi l'éthique n'est plus une option morale,
10:34c'est devenu une urgence politique.
10:37Parce que les technologies que nous inventons
10:39façonnent désormais nos institutions,
10:43nos relations humaines
10:44et notre humanité tout entière.
10:47Alors comment espérer ?
10:50Comment espérer que des biais si profondément ancrés
10:53dans nos sociétés,
10:55dans nos institutions,
10:56dans nos cultures et dans nos imaginaires
10:58ne se retrouvent pas dans nos algorithmes ?
11:01D'abord, parce qu'il faut quand même rappeler
11:03que ces outils aident,
11:05pas de la manière dont on voudrait,
11:07mais qu'elles aident quand même à l'inclusion
11:09et au progrès humain.
11:11Parce que grâce à ces outils technologiques,
11:14aujourd'hui,
11:15grâce à des plateformes d'apprentissage en ligne,
11:18eh bien l'éducation devient plus accessible,
11:20même dans des régions les plus reculées.
11:23Les technologies de santé connectées
11:25permettent un suivi médical à distance.
11:29Elles réduisent les inégalités en matière de soins.
11:31Et il y a des avancées
11:33comme les applications d'insertion professionnelle
11:35qui, elles aussi,
11:37simplifient l'accès à l'emploi
11:38pour des groupes généralement sous-représentés.
11:43Et il faut aussi nous rappeler
11:44que les femmes innovent.
11:46Et elles innovent de manière complémentaire aux hommes.
11:49Et j'ai arrêté de dire
11:50qu'il nous faut plus de femmes dans le numérique.
11:53Et j'avais cette discussion avec Charlène Jouangui,
11:56qui est notre déléguée générale,
11:58et Juliette Delas, qui est en charge de nos partenariats
12:01chez Femmes at Numérique.
12:02Et je leur disais,
12:03il faut arrêter de parler de féminisation
12:05des métiers du numérique.
12:06D'abord, parce qu'il ne s'agit pas
12:08d'opposer les métiers masculins ou féminins.
12:12Chacun doit pouvoir faire le métier
12:13qu'il a envie de faire.
12:15Mais qu'on le veuille ou non,
12:16nous avons, nous les femmes,
12:17un regard différent sur la société
12:19parce que nos expériences de la société
12:21sont différentes.
12:24Et quand les femmes utilisent les outils numériques,
12:27et donc je ne vous dis pas
12:28aller vers le numérique
12:29parce que c'est génial,
12:30parce que les métiers sont en grande...
12:32Non.
12:32Je vous dis aller vers le numérique
12:34parce que le numérique vous permet
12:36d'innover, de créer, d'inventer,
12:38de parler mieux qu'on ne le fait
12:41quand on est toute seule dans notre coin,
12:44dans nos zones rurales,
12:45dans nos quartiers populaires, etc.
12:48Et il faut marteler aussi
12:50que les algorithmes n'ont pas de conscience,
12:53mais qu'ils ont une mémoire
12:57et qu'ils ont la mémoire des données
12:59que nous leur donnons à apprendre.
13:02Et si nous ne voulons pas avoir à expliquer
13:04à nos filles pourquoi elles ont été larguées
13:07sur le terrain des innovations,
13:10il faut que nous embrassions ce monde technologique
13:13parce que ces données racontent nos histoires,
13:16nos choix et aussi nos silences.
13:18Isabelle Roche et Christina Longhi
13:21ont totalement raison.
13:23Si on ne fait rien,
13:24les machines ne feront que perpétuer
13:27les mécanismes de nos injustices.
13:29Elles reproduiront nos préjugés
13:31à la vitesse du numérique
13:32et à la froideur du calcul.
13:36C'est pourquoi la question de l'inclusion
13:38n'est pas périphérique,
13:39elle est devenue centrale.
13:41Parce qu'un monde conçu
13:42sans la moitié de l'humanité
13:44ne peut être ni juste,
13:47ni intelligent.
13:47Et c'est là que tout commence.
13:50Avant de corriger les biais des machines,
13:53il nous faut corriger ceux de nos sociétés,
13:56il nous faut corriger ceux de nos comportements,
13:58de nos pensées
13:59et de la manière dont nous utilisons
14:01ces outils technologiques.
14:04Il y a beaucoup de solutions qui existent.
14:07Parce qu'il n'y a pas de fatalité.
14:10Nous pouvons, toutes et tous ensemble,
14:12changer les choses,
14:14d'abord en étant conscients
14:16de ce qui se passe,
14:17et en tant que citoyens,
14:19en tant que parents,
14:20en tant que professeurs,
14:22en tant que bénévoles
14:24de nos associations,
14:26nous pouvons,
14:27avec les politiques publiques,
14:29avec les entreprises,
14:30changer les choses.
14:31D'abord au niveau structurel.
14:33Nous pouvons diversifier
14:34dès la conception,
14:36pas à la fin du projet.
14:37C'est pour ça qu'il nous faut
14:38plus de 15% de femmes
14:39dans la production
14:40et dans le côté technique.
14:42On peut impliquer
14:43les utilisateurs finaux
14:45parce que souvent,
14:46les outils sont fabriqués
14:47sans les personnes
14:48qui vont les utiliser.
14:50On peut questionner
14:51les objectifs qui sont fournis
14:53et reparamétrer les modèles.
14:56Et on n'a pas besoin
14:56d'être un million.
14:57Il suffit que nous soyons 50.
15:00Au niveau de l'entreprise,
15:02former les équipes
15:03à la diversité et à l'équité.
15:05Vous avez vu combien
15:06les droits humains reculent
15:07à chaque fois qu'il y a des crises
15:09comme celles que nous vivons aujourd'hui.
15:12Jamais les associations
15:13ont été autant en difficulté
15:15pour lever des fonds.
15:17Jamais.
15:18Parce que les entreprises
15:19qui n'y croyaient pas
15:20ont pris Donald Trump
15:22comme un prétexte pour reculer.
15:24Et les entreprises
15:25qui y croyaient
15:25sont tellement sollicitées
15:27qu'elles n'ont plus suffisamment
15:28pour distribuer à tout le monde.
15:30Les médias aussi ont un rôle,
15:32que ce soit la presse
15:33ou la télévision.
15:34C'est pour ça que ce que fait
15:35le think tank Marie-Claire
15:37est tellement important.
15:38Parce qu'il faut en parler,
15:39en parler, en parler.
15:40parce que quand on n'en parle pas,
15:42ce sont ceux qui disent
15:43qu'il faut plus de masculinisme
15:44dans les entreprises
15:45qui gagnent.
15:47Il faut aussi,
15:48au niveau de nos écosystèmes,
15:49renforcer les initiatives.
15:52Femmes actes numériques
15:52en est une,
15:53mais il y en a des milliers.
15:56On a besoin de gens
15:57qui viennent de tous les environnements
15:59pour venir enrichir nos réflexions.
16:03Et il faut soutenir
16:04les associations qui sont attaquées
16:06quand elles défendent
16:07les droits humains.
16:09Et rappeler que l'État
16:10doit être un accompagnateur
16:13et pas seulement un régulateur.
16:15J'ai été ministre.
16:17Je sais le nombre de lois
16:18qui sont votées
16:19dont les décrets ne sortent jamais
16:21ou dont on ne contrôle
16:23jamais l'application.
16:25Financer la recherche,
16:27soutenir la montée en compétences,
16:29éviter les marchés à deux vitesses.
16:31Parce que, soyons clairs,
16:33l'éthique ne devrait jamais être
16:35un luxe réservé
16:37à ceux qui ont déjà tout
16:38ou qui sont puissants.
16:40Si on veut véritablement
16:42que l'éthique,
16:42que ce mot ait un sens,
16:44ce sont toutes les personnes,
16:46indépendamment de leur genre,
16:48de leur origine sociale,
16:49du lieu où elles habitent,
16:52qui devraient pouvoir l'utiliser.
16:54Mesdames et messieurs,
16:55en conclusion,
16:57je voudrais vous dire
16:58que je crois profondément
16:59que nous pouvons réconcilier
17:00progrès et humanité.
17:02Et pour ce faire,
17:03nous avons besoin
17:04de trois piliers.
17:05La souveraineté
17:06pour pouvoir garder
17:07la maîtrise
17:08de notre destin numérique
17:09et ne pas dépendre
17:11de certains dirigeants
17:12qui arrivent avec des folies
17:14qui nous font faire
17:15des années de recul.
17:18Le deuxième, c'est l'éthique
17:20pour faire du droit
17:21un véritable levier de confiance.
17:23Et le troisième,
17:23c'est l'inclusion
17:24parce que la diversité
17:26n'est pas un terme
17:28philosophique,
17:29c'est une réalité.
17:31Notre humanité
17:32est diverse.
17:33Et même si chacune
17:34et chacun d'entre vous
17:34qui êtes dans cette salle
17:35ce matin
17:36portez des valeurs communes
17:38parce que sinon
17:39vous ne seriez pas là,
17:41tournez-vous
17:41et regardez-vous
17:42les uns les autres.
17:43Vous êtes,
17:44nous sommes
17:45tous divers
17:46et diverses.
17:48Et la vraie question,
17:49c'est celle-ci.
17:50Et si l'IA
17:51n'était pas seulement
17:53un objet à réguler,
17:55mais un outil
17:56qu'on pouvait mettre
17:57au service
17:57de notre cause,
17:58et si l'IA
17:59ne nous permettait
18:01pas seulement
18:02d'éviter les biais,
18:04mais qu'elle nous permettait
18:04d'interroger activement
18:06les structures
18:07du pouvoir,
18:10et si on avait
18:10une IA
18:11construite
18:11avec les marges
18:12et non
18:13depuis les centres,
18:16une IA
18:16capable
18:17de réparer
18:17les inégalités
18:18qu'elle a
18:19trop souvent
18:21contribué
18:22à amplifier,
18:23le développement
18:25d'une intelligence
18:26artificielle
18:26responsable
18:27ne peut pas
18:29être une incantation.
18:30Il doit se construire
18:31ligne de code
18:33après ligne de code
18:34dans les choix
18:36de nos méthodes,
18:37dans nos outils
18:38et dans nos valeurs.
18:40Ça doit être
18:40une IA
18:40qui respecte les gens,
18:42mais ce n'est pas
18:42elle qui va le décider,
18:43ce sont ceux
18:44et celles
18:44qui vont le construire.
18:46Une IA
18:46qui tient compte
18:47de la dignité,
18:48de la liberté
18:48et de la diversité
18:50de chacune
18:50et de chacun.
18:51Une IA
18:52qui est loin
18:52de nous gouverner,
18:54comme certains
18:55ont raison
18:55de craindre
18:56que cela arrive.
18:58Une IA
18:58où chaque chercheur,
18:59chaque entrepreneur,
19:00chaque citoyen
19:02choisit sa voie,
19:04faire plus
19:05que l'innovation
19:05et rendre
19:07notre avenir
19:08plus habitable
19:09et plus désirable.
19:12Mesdames et messieurs,
19:14j'ai la conviction
19:15que chacune
19:16et chacun
19:16d'entre nous
19:17dans cette salle
19:17pouvons faire
19:19de l'éthique
19:19notre boussole,
19:21de l'inclusion
19:22un cap
19:22et de la souveraineté
19:24notre devoir collectif.
19:26Je vous remercie.
19:27Applaudissements
19:29...
19:31...
19:33...
19:35...
19:39...
19:41...
19:43...
19:45...
Recommandations
17:35
|
À suivre
14:03
13:59
7:32
20:58
3:38
3:09
2:02
2:15
8:47
34:03
37:38
1:49
0:15
Écris le tout premier commentaire