- il y a 2 jours
Catégorie
🗞
NewsTranscription
00:00Comment construire une IA plus inclusive, plus alignée avec nos valeurs ? Quels sont les leviers à notre disposition ? Et quel travail a déjà été engagé dans ce sens ?
00:18Pour en parler, je vais accueillir tout de suite Christina Longhi, dont on a beaucoup parlé depuis le début de cette matinée.
00:22Elle va enfin prendre la parole, présidente fondatrice d'Arborus, qui va nous raconter pourquoi elle a créé la première charte internationale pour une IA inclusive.
00:32Et on accueille également Isabelle Roche, députée de Moselle, présente parce qu'elle connaît très bien le monde de la tech, secrétaire nationale à l'égalité femmes-hommes du parti Horizon.
00:42On les applaudit s'il vous plaît.
00:43Bonjour à toutes les deux.
00:54Christina Longhi, je vais commencer par vous.
00:57Vous êtes donc la fondatrice d'Arborus, qui a été créée en 1995, il y a 30 ans, pour travailler en profondeur sur les systèmes d'égalité liés aux organisations et aux systèmes.
01:06Pourquoi cette création ? Et j'ai envie de vous demander, est-ce que vous êtes satisfaite des résultats en 30 ans ?
01:13Non, là, vous l'avez dit.
01:14Voilà, ça marche.
01:15Ah, si, c'est bon.
01:15Merci, Capucy.
01:17Alors, pourquoi cette création ? Parce que quand j'ai démarré Arborus, je sortais à peine de mes études, et c'est un petit peu la méthodologie que j'ai mis en place tout de suite, et on en a parlé toute la matinée, c'est le déclic.
01:29C'est-à-dire que si on n'a pas le déclic, et si on ne comprend pas pourquoi il faut faire les choses, on ne les fait pas ou on les fait mal.
01:35Donc, moi, je m'étais rendue compte, petite anecdote, de pourquoi il y avait un problème d'égalité en France et en Europe,
01:42parce que je travaillais avec la Commission européenne, et dans un des bureaux de la Commission, il y avait un panneau, un poster, palmarès des pays européens en matière de parité.
01:53Et la France, à l'époque, on était avant-dernier, avant la Grèce. Je parle d'un petit peu avant, en 1995.
01:59Donc, j'ai eu comme un électrochoc. Moi, j'ai fait des études de droit. Donc, on nous apprend la déclaration universelle des droits de l'homme et du citoyen.
02:06Et donc, c'est bien des droits de l'homme et pas du droit des femmes. Et ça n'est pas du tout universel.
02:10Donc, ça m'a tellement électrochoquée que j'ai créé Arborus avec cette vision, déjà à l'époque, qui commence à rentrer un petit peu aujourd'hui dans les consciences
02:19que les problèmes d'inégalité, c'est systémique. Ça n'est pas une volonté comme ça, au coup par coup, mais c'est véritablement nos systèmes d'organisation.
02:28Donc, est-ce que je suis satisfaite ? Oui, parce que les résultats de mon organisation... Alors, je ne suis pas satisfaite globalement,
02:35parce qu'on l'a entendu toute la matinée et on n'a qu'à regarder les journaux tous les jours. On voit bien qu'on n'y est pas à l'égalité.
02:42On est très loin de là. Mais pour nos travaux, en tous les cas, moi, je suis assez satisfaite parce qu'en 2004, j'ai créé le label égalité
02:51qui est aujourd'hui porté par l'AFNOR en France. En 2010, j'ai créé le label international GES, Gender Equality, European and International Standards
03:00sur l'égalité et sur l'inclusion, qui est présent dans 56 pays avec plus de centaines d'entreprises labellisées.
03:08En 2019, j'ai fait le lien avec les objectifs du développement durable parce que je ne pense pas qu'on puisse avoir un monde durable
03:15sans l'égalité entre les femmes et les hommes, qui sont, comme ça a été dit ce matin, les deux pôles de l'humanité.
03:20Et en 2020, et c'est l'objet de cette conférence, et merci vraiment de cette invitation, j'ai créé avec Delphine Pouponneau
03:29du groupe Orange la première charte internationale pour une IA inclusive. Et on a ajouté à notre certification GES,
03:37le GES AI, avec des belles entreprises labellisées et qui sont tous les deux, ces deux, la charte et le label reconnus
03:44comme les livrables de la France pour le AI Summit de Paris.
03:48Cette charte, Christina, c'est une sorte de barrière pour protéger la planète d'une IA qui vous ferait profondément peur ?
03:56Oui, oui, moi je suis terrorisée par cette IA. Franchement terrorisée parce que quand on voit comment elle est utilisée,
04:03quand on voit comment elle fonctionne, eh bien on voit à quel point elle est exclusive.
04:07On est très très loin de l'inclusion. Donc la charte, c'est un moyen, effectivement, de premièrement sensibiliser.
04:12en en parlant, en parlant du sujet, en essayant d'expliquer qu'est-ce qu'une IA inclusive, ce qui est compliqué,
04:19et puis de donner, avec les sept principes directeurs de cette charte, le mode d'emploi pour arriver à avoir une inclusion.
04:28Alors pour comprendre pourquoi vous êtes terrorisée, vous m'avez confié en préparant cette interview,
04:33plusieurs petites anecdotes, effectivement, assez douloureuses, voire effroyables.
04:38Peut-être que vous pouvez en partager avec le public une d'entre elles ?
04:42Oui, volontiers. Alors c'est une anecdote tout à fait récente, puisqu'elle date du 3 juin de cette année,
04:48où nous avons fêté les 30 ans d'Arborus au siège de L'Oréal, au siège international de L'Oréal.
04:53Et à cette occasion, vous savez tous et toutes qu'il y a une directive européenne qui est en préparation, en transposition,
04:59sur la transparence salariale. Et donc, avec Marie-Josie Merman, que tout le monde connaît,
05:05et Catherine Génisson, qui a été à l'origine de la première loi réelle sur l'égalité professionnelle en France,
05:11je leur ai proposé de faire un manifeste. Donc on a fait un manifeste, et dans ce manifeste,
05:16vous verrez, il y a des mesures qui ont été signées, d'ailleurs, je crois qu'Elisabeth Moreno est là,
05:21signée aussi par Elisabeth. Voilà, je te vois.
05:25Toutes les anciennes ministres, donc, en poste, qui pouvaient signer, ont signé ce manifeste.
05:31Et donc, il y avait deux terminologies en particulier qui figuraient dans ce manifeste.
05:38Il y avait le mot parentalité, et il y avait un fonds qui me tient à cœur depuis très longtemps,
05:43un fonds spécial pour l'égalité et l'inclusion.
05:46Comme j'étais à la bourre, comme toujours dans les événements comme ça,
05:49je dis, je vais le passer à Chajipiti, je lui envoie mon truc, je lui dis,
05:53fais-moi une jolie mise en page pour l'envoyer à l'impression.
05:55Et bien, Chajipiti, il m'a enlevé parentalité, il a mis paternité.
06:00Donc, la parentalité, pour lui, ça, n'existe pas.
06:02Et le fonds spécial pour l'égalité et l'inclusion est devenu le fonds social européen d'investissement.
06:08Donc, Chajipiti, il m'a complètement arnaqué, il m'a dénié dans mes questions d'égalité,
06:13il m'a transformé un texte alors que je ne lui avais absolument pas demandé,
06:17je lui avais demandé de faire de la mise en page.
06:19Donc, vous voyez à quel point, finalement, on peut se laisser embarquer,
06:22si on n'est pas ultra-vigilant, vers des sujets qui ne sont absolument pas ceux qu'on veut traiter.
06:28Merci beaucoup, Christina.
06:29Cet exemple est particulièrement probant.
06:32Isabelle Roche, est-ce que vous êtes aussi, ouvrez les guillemets, terrifiée que Christina ?
06:37Et est-ce que vous, je suis désolée, j'ai toujours mille questions en une,
06:40est-ce que vous en prenez la mesure à l'Assemblée nationale ?
06:43Quelle réflexion sociétale est-ce que vous menez, justement, sur l'IA ?
06:46Et ajoutons une dernière question, est-ce que vous vous faites aider par des ingénieurs
06:50pour vraiment prendre la mesure de ce qui est en train de se passer en France et dans le monde ?
06:55Merci, Capucine, pour toutes ces questions.
06:57Donc, c'est vrai que beaucoup de questions en une.
07:00Donc, je vais commencer par la première.
07:03Est-ce que je suis effrayée ?
07:04Terrifiée.
07:05Terrifiée.
07:06Terrifiée.
07:06Alors, je ne sais pas si c'est le terme terrifié qui pourrait être exact.
07:10En tout cas, c'est quelque chose qui me préoccupe, et déjà depuis de nombreuses années,
07:13puisque, en 2020, j'ai fait partie des premières politiques à intervenir sur le sujet
07:20en publiant une tribune dans Le Monde, l'IA et les biais de genre.
07:23Donc, ça remonte à il y a déjà quelques années.
07:26Et j'avais le sentiment d'être bien seule.
07:28Donc, ça, ça passe tout de suite à la quatrième question,
07:31avec est-ce que les politiques en prennent conscience ?
07:34Oui, maintenant...
07:34C'est extrêmement important.
07:35On en parlait avec Jean-Baptiste Marnanti tout à l'heure.
07:38Est-ce qu'il y a une prise de conscience des politiques ?
07:39Effectivement, on voit que dans le budget,
07:41ce n'est pas forcément l'investissement qui est le plus...
07:45Non, je suis d'accord.
07:47Mais je vous dis, il y a cinq ans, j'étais quasiment toute seule à en parler.
07:52Et puis, au fur et à mesure, c'est des sujets qui infusent.
07:58Et on est de plus en plus de politiques à y en avoir bien conscience
08:02et à sortir de ce domaine de l'investissement.
08:05Donc, effectivement, il faut de l'investissement dans la tech et tout ça.
08:08Donc, ça, un nombre de députés ou de sénateurs en sont convaincus
08:11et travaillent là-dessus.
08:12Savoir comment on va faire pour que nos entreprises puissent,
08:16une fois passées les phases de maturité,
08:18vraiment se développer et industrialiser les process.
08:21Mais il y a tout le côté, on va dire, sociologique, sociétal.
08:24Qu'est-ce qu'on en fait ?
08:25C'est quoi les usages de l'IA ?
08:26Et ça, on est quelques députés.
08:28On est de plus en plus à y faire attention
08:30et à faire attention aux transpositions européennes
08:33et à vraiment en prendre conscience.
08:36Donc, si cela me terrifie, non.
08:40Parce que je me dis qu'il faut vraiment en parler,
08:43il faut faire en sorte d'amener cette prise de conscience
08:48vraiment au bon niveau et au maximum.
08:51Et des événements comme celui d'aujourd'hui y participent,
08:54font en sorte qu'on prend conscience de ce qu'est l'IA.
08:57Ça peut être notamment l'IA générative.
08:59Je pense que ça aussi, c'est très important.
09:02Il a fallu qu'au niveau des députés,
09:04on fasse bien la différence.
09:06Et quand j'étais présidente de la commission
09:07aux affaires culturelles et d'éducation pendant deux ans,
09:09je me suis aussi battue pour ça.
09:11Donc, vous demandez si on est entouré d'experts et de ça.
09:13Oui, au niveau de la commission,
09:15j'ai fait intervenir des experts
09:16pour que justement, on monte en compétences.
09:18Et ça, c'est extrêmement important.
09:20Alors, Isabelle Roche, vous militez pour une sécurisation,
09:23une régulation de l'espace numérique.
09:26Par ailleurs, dans le même temps,
09:29vous avez publié une autre tribune,
09:31très récemment, dans le journal du dimanche.
09:34La tribune dimanche.
09:37Et vous militez dans cette tribune
09:39sur cette nécessité du temps long,
09:42de la frustration.
09:44Qu'est-ce qui est le plus important ?
09:45La sécurisation, le temps long ?
09:47Les deux.
09:48Les deux.
09:49Pourquoi ?
09:49Les deux.
09:50Parce que la sécurisation,
09:52on voit que, notamment par rapport aux femmes,
09:54on a un énorme problème avec les cyberviolences.
09:57Donc, on voit bien que l'espace numérique
09:59est un espace qui, des fois,
10:01peut s'apparenter à la jungle.
10:03Donc, on a besoin d'avoir des normes,
10:05on a besoin de pouvoir les faire appliquer,
10:07des règles.
10:08Ce qui s'applique dans la vie courante
10:10doit pouvoir s'appliquer de façon aussi stricte
10:14dans l'espace numérique.
10:16Donc, ça, c'est vraiment quelque chose
10:18sur lesquels je travaille.
10:20Donc, c'est les transpositions
10:21des directives européennes.
10:23C'est tout cet arsenal.
10:24Et là, on le voit que c'est au niveau européen
10:26qu'on le fera.
10:27Même si la France peut être moteur,
10:29peut impulser,
10:30la loi Marc-Angeli sur les réseaux sociaux,
10:31sur la majorité numérique,
10:33était là pour qu'on se saisisse,
10:35on s'empare de ce sujet
10:36et on aille le porter au niveau européen.
10:38Et puis, le temps long,
10:39le temps long qui est indispensable
10:41de retrouver ou de trouver
10:43cet esprit critique,
10:44cette capacité, justement,
10:46à pouvoir aussi discriminer
10:48les informations
10:50que l'IA générative nous délivre.
10:53Donc, à se cultiver,
10:56on va dire, à apprendre aussi
10:58dans les livres traditionnels,
11:01mais pas que les livres traditionnels,
11:02c'est aussi en allant au musée,
11:05en discutant avec des amis.
11:06Donc, c'est aussi développer
11:06sa capacité de concentration.
11:08Tout à fait.
11:09Tout à fait.
11:09Ça, c'est très, très important.
11:11Et pourquoi c'est important
11:13de développer sa capacité
11:14de concentration
11:15et cette capacité, justement,
11:16ce que je disais,
11:17à discriminer ?
11:18Parce que,
11:19quand j'ai créé cette tribune,
11:21ce qui est sous-jacent aussi derrière,
11:23c'est le fait que l'IA,
11:24elle doit être vraiment inclusive
11:26et pas exclusive,
11:27comme le dit Christina.
11:28Parce qu'on voit bien
11:30et vraiment, au moins,
11:32quelque chose, là, pour le coup,
11:33qui pourrait m'effrayer,
11:33c'est, on va dire,
11:36ce fossé qui peut être
11:37en train de se créer
11:38entre les personnes,
11:40entre ceux qui auront la capacité
11:43de faire un prompt
11:44de bonne qualité
11:45parce qu'ils auront
11:48un orthographe correct,
11:50ils auront une syntaxe
11:51très bonne,
11:53ils auront une culture
11:54qui fait qu'ils savent déjà
11:55rédiger.
11:57Ils sont en capacité
11:58de faire la bonne demande
12:00à l'IA générative.
12:01Et puis, ceux qui ne savent pas,
12:03ceux qui vont faire
12:03un prompt de deux lignes
12:04parce qu'ils ne savent pas
12:06faire mieux
12:07parce qu'on ne leur a pas appris
12:08parce que plein de choses.
12:09Et la deuxième chose,
12:10et j'en termine là,
12:12on voit aussi
12:13les IA génératives
12:14qui se développent,
12:14celles qui auront
12:15les bonnes données vérifiées,
12:17celles qui auront été entraînées
12:18sur des données qualifiées,
12:19tout ça.
12:20Et qui sont payantes ?
12:21Et qui sont payantes.
12:22Et donc là,
12:23vous combinez quelqu'un
12:25qui a un capital culturel
12:26qui est bon
12:27avec une IA payante
12:29et vous voyez que le résultat,
12:31il est très bon.
12:32Et puis,
12:32ceux qui n'auront pas ça,
12:34et là,
12:35d'une IA que l'on pensait
12:36réductrice d'inégalités,
12:39on peut avoir une IA
12:39qui va être vraiment
12:40exclusive,
12:42excluante,
12:42et ça, moi,
12:43effectivement,
12:44c'est un combat de tous les jours.
12:45Mais alors, Christina,
12:46est-ce que l'IA est capable
12:47de construire une société
12:49plus juste ?
12:50Ou sera-t-elle capable ?
12:52Alors, paradoxalement,
12:53malgré le fait qu'elle me terrifie,
12:56enfin,
12:56je vais peut-être exagérer
12:57un petit peu,
12:57mais c'est vraiment
12:58un risque extrêmement important.
13:01Et c'est pour ça
13:01qu'on a beaucoup agi
13:02et que je me suis engagée
13:03personnellement
13:04depuis plus de 5 ans maintenant
13:05sur ce sujet
13:07et que je vais continuer
13:08parce que je crois
13:08que c'est vraiment,
13:09c'est pas un sujet de mode,
13:10c'est un sujet d'avenir
13:11pour vous,
13:12pour les générations
13:13qui arrivent,
13:14pour nos enfants.
13:14Donc, la vraie question,
13:16c'est dans quel monde
13:17on veut vivre.
13:19Donc, pour répondre
13:20à votre question,
13:21moi, j'ai pris le contre-pied
13:23en disant,
13:24il faut que l'IA,
13:25qui est ultra rapide,
13:27devienne un accélérateur
13:28d'égalité.
13:29Mais pour ça,
13:29il faut des conditions.
13:30Et il faut vraiment
13:31des conditions
13:31extrêmement drastiques.
13:33Donc, nous,
13:34d'une façon très concrète,
13:36on a la prise de conscience
13:37avec la charte,
13:38l'évaluation
13:39dont a parlé
13:39Sacha Rubel
13:41tout à l'heure,
13:42qui est très importante
13:43avec notre label.
13:45Globalement,
13:46plus globalement,
13:48je viens de signer
13:48un partenariat
13:49avec l'Université d'État
13:50de Milan,
13:51qui est son département
13:51de recherche
13:52qui s'appelle Human Hall,
13:53sur une réécriture,
13:56un recodage
13:57pour apprendre à l'IA
13:58elle-même
13:59à devenir inclusive
14:00et non pas exclusive.
14:02Donc, ça,
14:02c'est un programme
14:02de recherche très puissant,
14:04extrêmement innovant,
14:06qui va donner des fruits,
14:07j'espère, importants.
14:09Et puis,
14:09on a trois groupes
14:10de travail.
14:11Alors, un groupe
14:11sur le cyberharcèlement
14:13dans le cadre
14:14de notre charte
14:15avec Gabriela Belaïde,
14:17un groupe
14:17avec Jean-Christophe Vidal
14:19qu'on a entendu
14:20tout à l'heure
14:21et Glantin Tancret
14:23de son cabinet
14:25qui s'appelle
14:26Taylor River Search
14:27qui travaille
14:28sur le recrutement
14:29inclusif
14:30et on a un groupe
14:31sur la Smart City,
14:32Smart Building
14:32puisque ce qui nous différencie
14:34des animaux,
14:34c'est d'avoir besoin
14:35d'un toit pour vivre
14:36et ça, c'est très important.
14:38Donc, on est
14:39dans une révolution
14:40aujourd'hui
14:41qui est en train
14:42de se faire.
14:42Il ne faut pas
14:43que cette révolution,
14:43elle vienne contre nous,
14:45il faut qu'elle soit
14:45pour nous,
14:46pour nous les humains.
14:47Donc, il faut la lier
14:48à l'absence de frugalité
14:50de l'IA déjà
14:51et puis, il faut vraiment
14:52qu'on change
14:55de paradigme.
14:56Ça fait 30 ans
14:57que je dis,
14:58il faut qu'on crée
14:58une culture de l'égalité
14:59et bien maintenant,
15:00il faut qu'on crée
15:01une culture de l'égalité
15:02inclusive
15:02et là,
15:03les pouvoirs publics
15:04et vous,
15:06chère Isabelle,
15:08c'est vraiment
15:08un rôle fondamental
15:09et il faut que ce partenariat
15:11public-privé
15:12se mette véritablement
15:13en place
15:14parce qu'il y a urgence.
15:15Si on ne fait rien,
15:16ça sera comme dans le film
15:17qu'elle nous a montré
15:18tout à l'heure,
15:18Sacha,
15:19ça va être n'importe quoi.
15:21Isabelle Roche,
15:22encore deux dernières questions.
15:23On est ici à l'école 42,
15:24ce n'est pas anodin.
15:26L'éducation joue un rôle
15:28extrêmement important,
15:29cette sous-représentativité
15:30des femmes
15:31dans le secteur du numérique,
15:32qu'est-ce que vous en pensez ?
15:34Comment le gommer ?
15:36Alors,
15:36comment le gommer ?
15:37Par la formation,
15:38la formation,
15:39la formation,
15:39la formation
15:40et la déconstruction
15:41des stéréotypes
15:42et ça,
15:43dès tout de suite...
15:45Parler du CP,
15:46donc ça doit commencer
15:46très très tôt.
15:47Ah oui,
15:48mais même à la maternelle,
15:49c'est tout de suite
15:51que ça doit commencer
15:52donc on a des choses
15:54après,
15:54on va dire,
15:54assez simples
15:55à mettre en oeuvre,
15:56c'est les cours d'école
15:57dégenrés,
15:57donc ça,
15:58on voit que ça marche bien
15:59quand les petits garçons
16:00et les petites filles
16:01peuvent jouer ensemble
16:02et qu'on ne met pas
16:03les petites filles
16:03à la périphérie
16:04d'une cour de récréation.
16:06Déjà,
16:06ça peut commencer par là
16:07et puis bien entendu,
16:09enfin quand je dis
16:10la formation,
16:11c'est la formation
16:12des enseignants
16:13et la prise de conscience
16:14de la nécessité
16:15de l'égalité
16:15et de faire en sorte
16:17que les femmes
16:17soient incluses
16:18dans le système.
16:19Il y a une étude
16:19qui est très intéressante,
16:20vous mentionnez le CP,
16:22c'est qu'avant le CP,
16:23petites filles,
16:23petits garçons,
16:24même niveau en maths,
16:25vraiment il n'y a pas
16:26de problème,
16:26il n'y a pas de différence,
16:27à la fin du CP,
16:28les petites filles
16:30sont moins bonnes
16:30que les petits garçons
16:31et pourtant,
16:33il ne s'est pas passé
16:35quelque chose
16:35d'exceptionnel,
16:37sauf une année de CP
16:39avec des apprentissages
16:40et au fait que,
16:42et ça,
16:42ça a été très documenté
16:43par Stanislas Dehaene,
16:45on va moins valoriser,
16:46moins interroger
16:47les petites filles.
16:48Et ça aussi,
16:49il y a des études
16:49qui montrent
16:50que dans une salle de classe,
16:51on va d'abord
16:52interroger les petits garçons
16:53avant d'interroger
16:54les petites filles.
16:55Donc finalement,
16:56au bout d'un moment,
16:56elles ne vont plus lever la main,
16:57elles vont se mettre
16:58en retrait.
16:58Donc en fait,
16:59c'est un système
17:00qui fait qu'il y a
17:02un retrait
17:03qui se fait
17:04dans différentes sphères,
17:07on va dire
17:07un retrait insidieux
17:08par un système
17:10qui est mis en place
17:12comme ça,
17:13dont on n'a pas forcément
17:13conscience.
17:14Donc il faut vraiment
17:15impérativement
17:15compter
17:17et ça,
17:18quand on compte,
17:20c'est super important.
17:21On interroge
17:22autant les petites filles
17:23que les petits garçons
17:23et déjà là,
17:24on voit qu'on va pouvoir
17:25bien récupérer
17:27un certain déficit
17:29et puis,
17:30bien entendu,
17:32pousser
17:32les programmes
17:35qui ont lieu
17:35à l'heure actuelle
17:36qu'Elisabeth Borne
17:37a mis en place
17:38avec les maths
17:41pour les filles
17:42et toutes ces expériences.
17:43Il faut impérativement
17:44faire en sorte
17:45qu'on redonne
17:47confiance
17:47ou on donne confiance
17:49aux filles
17:50dans leur capacité
17:51et que ce système
17:52soit un peu contraint.
17:54Oui,
17:55je complèterai juste
17:55Isabelle
17:56puisque l'éducation,
17:58évidemment,
17:58c'est fondamental.
18:00Mais il faut éduquer
18:01tout le monde,
18:01c'est-à-dire,
18:01il faut éduquer les parents,
18:02il faut éduquer
18:03dans les entreprises,
18:04il faut éduquer
18:04les politiques,
18:05il faut éduquer
18:07absolument tout le monde
18:08parce que c'est vraiment
18:09ce changement-là
18:10qui ne peut se faire que
18:12et surtout,
18:13et surtout,
18:14on l'a bien vu ce matin,
18:15ceux qui décident
18:16de tout aujourd'hui,
18:17c'est les datas.
18:18Les datas,
18:19elles sont confiées
18:19par des humains,
18:21donc il faut que ces humains-là
18:22soient conscients
18:23de la data
18:24qu'ils donnent
18:25à l'algorithme
18:26pour pouvoir
18:27changer les choses.
18:28Et donc,
18:29c'est pour ça que moi,
18:29j'insiste beaucoup
18:30sur l'éducation de l'IA
18:31avant même celle des humains
18:33parce qu'on voit bien
18:33parce qu'on voit bien
18:33que si on prend les lois
18:34sur l'égalité professionnelle,
18:36on n'y est pas
18:37et pourtant,
18:38il y a plein de femmes volontaristes.
18:40Donc,
18:40j'en termine par là
18:41et du coup,
18:42on l'IA.
18:43Dernière question
18:44qui me semble essentielle
18:45avant de se quitter,
18:46Isabelle Roche,
18:47l'instabilité politique
18:48que vous connaissez
18:49et économique
18:50que l'on connaît tous,
18:52pourrait-elle freiner
18:53l'innovation
18:53sur ce sujet,
18:55selon vous ?
18:55C'est primordial,
18:56cette question.
18:57Oui,
18:58clairement,
18:59l'instabilité politique,
19:00on le voit,
19:01c'est un facteur
19:02de stress,
19:04d'anxiété
19:05pour les investisseurs,
19:06pour tout le monde.
19:07Donc,
19:08oui,
19:08ça ne peut que freiner
19:09et notamment,
19:11moi,
19:11là où ça me fait peur
19:13et en tout cas,
19:14j'alerte,
19:15c'est aussi une régression
19:16pour l'égalité femmes-hommes
19:18parce que généralement,
19:20quand en période de crise,
19:21ce n'est pas l'égalité femmes-hommes
19:22qui est mise en avant,
19:23c'est généralement ça
19:24qui en fait les frais.
19:25Donc,
19:26c'est pour ça
19:27que je fais en sorte
19:28d'être une députée
19:29qui fait que la stabilité
19:30soit au Parlement.
19:32Merci beaucoup
19:33pour ces mots.
19:34Merci d'avoir été là ce matin.
19:36Merci beaucoup,
19:37Christina.
19:37Vous restez avec moi,
19:38je vais juste faire
19:39une petite conclusion
19:39et appeler Elisabeth Moreno.
19:41Je voudrais vous remercier
19:42infiniment pour votre écoute
19:43très attentive
19:45et fidèle
19:46depuis le début
19:46de cette matinée.
19:47On restera sur ces mots
19:49que vous avez prononcés,
19:50Isabelle Roche,
19:51qui sont particulièrement importants.
19:53Réhabiliter la frustration,
19:54retrouver la fécologie
19:55du manque.
19:57J'aime beaucoup cette phrase
19:58et c'est là-dessus
20:00que je vais donc laisser la parole
20:01à Elisabeth Moreno
20:02qui doit être juste là.
20:04Sous-titrage Société Radio-Canada
20:09Sous-titrage Société Radio-Canada
Recommandations
0:58
|
À suivre
2:51
0:19
15:56
14:03
17:35
13:59
7:32
20:58
3:38
3:09
2:02
Écris le tout premier commentaire