- il y a 2 jours
Catégorie
🗞
NewsTranscription
00:00Bonjour à toutes et à tous. Merci infiniment Madame la Ministre pour cette introduction.
00:13Je vais commencer avec quelques chiffres. 2,5 milliards de messages par jour, 29 000 par seconde.
00:20Voilà donc les chiffres que l'on attribue au seul chat GPT déjà utilisé par 10% de la population adulte mondiale.
00:30Des chiffres, vous l'avez compris, qui donnent le vertige. Chat GPT, on va en parler dans cette première table ronde.
00:35Et tout simplement, le développement technologique le plus rapide de l'histoire.
00:40Mais il n'y a pas que lui, le chat du français Mistral AI, Meta AI déployé par Instagram, Grok, celui d'Elon Musk que vous connaissez,
00:48le chinois Dipsic également. L'intelligence et l'agilité de tous ces assistants conversationnels émerveillent,
00:55autant qu'elles ne terrifient, car l'entrée de l'IA dans la vie des utilisateurs mondiaux n'en est qu'assez balbutiement.
01:03Alors devant ce bouleversement sociétal, économique, quelles conséquences sur notre manière de penser, de travailler, d'innover, de se regarder ?
01:14Et quelle place les femmes vont-elles pouvoir prendre dans cette révolution qui est en cours ?
01:21En France, les femmes ne représentent que 25% des effectifs IA, Mme la ministre vient de le rappeler,
01:27contre 26% en Europe et 22% dans le monde.
01:30J'ai envie de vous dire qu'il y a une véritable course contre la montre aujourd'hui qui est engagée pour faire de l'IA un levier d'émancipation.
01:38Mais la bonne nouvelle, c'est que c'est possible.
01:41C'est d'ailleurs le résultat d'une étude implacable qui vient d'être publiée, menée par l'IFOP pour Amazon,
01:47qui démontre le pouvoir émancipateur du numérique sur les parcours féminins,
01:51à condition que les femmes disposent des moyens pour surmonter les barrières initiales.
01:54Deux chiffres issus de cette étude sont à retenir.
02:0089% des femmes considèrent que l'innovation est une opportunité.
02:0496% des femmes dans la tech sont satisfaites de leurs opportunités professionnelles.
02:13Alors cette matinée sera volontairement, résolument, audacieuse et avant-gardiste,
02:19comme tous les think tanks Marie-Claire.
02:21Elle va s'articuler autour de cinq séquences clés.
02:23D'abord, un état des lieux et des enjeux pour les femmes sur un terrain sociétal,
02:27avec les chiffres de l'étude de la JFD à l'appui.
02:31Puis un focus, évidemment, sur les biais et ses conséquences.
02:35Dans ces conditions, comment faire de l'IA un vecteur d'égalité,
02:39avec la keynote très attendue de Sacha Rubel,
02:41qui est déjà dans cette salle, directrice des politiques publiques pour l'IA chez AWS.
02:47Des témoignages dans des secteurs aussi différents que le luxe ou la défense.
02:50Et puis, nous plongerons dans une cinquième partie dans le futur pour notre dernière séquence,
02:56pour tracer une trajectoire, la trajectoire idéale,
03:00pour comprendre comment construire une IA plus inclusive.
03:03Voilà pour cette introduction.
03:04Pour ouvrir les débats et cette journée, j'invite tout de suite Carole Bien-Aimé-Besse,
03:08qui est productrice,
03:09et Caroline Martin, associée chez E-Wi-Fi Berneuvel,
03:12à me rejoindre sur scène.
03:13Bonjour à toutes les deux, merci d'être là ce matin.
03:39Carole Bien-Aimé-Besse, je le dis à l'instant, vous êtes productrice,
03:42vous avez été membre de l'Arcom,
03:44vous êtes également autrice d'un livre qui s'appelle
03:47Crépuscule numérique aux éditions de l'Observatoire.
03:50Ce qui nous intéresse, c'est votre regard sur l'IA au sens large,
03:54ses conséquences sociétales,
03:56mais également vos recherches, vos travaux sur le monde de l'audiovisuel
04:00et la production en général, qui va évidemment nous éclairer.
04:04Caroline Martin, bonjour et bienvenue.
04:05Vous êtes associée chez E-Wi-Fi Berneuvel et vous avez donc accompagné la JFD
04:10dans la réalisation du baromètre européen de l'IA.
04:13Votre expertise sera précieuse pour nourrir les échanges
04:16et apporter un éclairage concret sur les enjeux d'innovation
04:19et d'inclusion liés à l'IA.
04:22Carole, on commence par vous.
04:23Le sous-titre de votre livre, c'est
04:25« Quand l'IA bouleverse notre rapport à la vérité »,
04:29j'ai envie de vous demander si l'IA nous ment.
04:32Alors, merci beaucoup pour votre invitation.
04:35Merci, Cabucine, d'entrer dans le vif du sujet.
04:39Alors, est-ce que l'IA nous ment ?
04:40Alors, je dirais que non, elle ne nous ment pas,
04:42puisque, en fait, l'IA, elle fait ce qu'on lui demande de faire.
04:46En revanche, c'est vrai que notre cerveau,
04:48il n'a jamais été autant exposé à des processeurs aussi puissants.
04:53Donc, l'IA, elle a une capacité de falsifier le réel.
04:57C'est-à-dire qu'elle a la capacité de falsifier tout ce que l'on connaît,
05:00tout ce que l'on pensait être tangible.
05:03Par exemple, comme notre droit,
05:05elle invente des textes de loi, des articles, des jurisprudences.
05:09Elle aussi falsifie des photos.
05:13On l'a vu, vous vous souvenez,
05:14au moment de l'apparition de Chad GPT en 2023,
05:17on a vu apparaître ces photos absolument réalistes.
05:21Du pape ?
05:21D'actualité, oui, du pape, de Donald Trump en prison,
05:25du pape habillé d'une façon très étrange.
05:28Et on pouvait effectivement considérer que ces photos pouvaient provenir de l'AFP.
05:33Et on est nombreux à avoir été pris au piège.
05:36On a parlé tout à l'heure des deepfakes.
05:38Donc, ces hyper-trucages qui permettent de falsifier des vidéos.
05:43Donc, on se souvient du début de la guerre en Ukraine,
05:45d'une vidéo de Volodymyr Zelensky,
05:49qui, tout à coup, dans le cadre d'une interview télé, capitulait.
05:55En fait, c'était une fausse vidéo qui avait été générée par, évidemment, les Russes.
06:01Donc, vraiment, aujourd'hui, on est face à un monde
06:05où, potentiellement, tout est falsifiable.
06:07Et donc, notre cerveau, il va falloir qu'il corrige.
06:11Enfin, il est toujours très enclin, en fait, à tomber dans le piège des biais.
06:16Donc, on peut peut-être parler des biais deux secondes
06:20parce qu'effectivement, si on parle du mensonge,
06:24c'est aussi que notre cerveau, parfois, est enclin à...
06:28Vous savez très bien ce biais de répétition.
06:31C'est-à-dire que plus vous voyez une information,
06:33et plus votre cerveau est enclin à la croire.
06:35Alors, même si l'information est fausse.
06:38Il y a des tas de biais, comme ça, cognitifs,
06:41qui font le propre de l'homme,
06:43qui nous permettent de vivre et de comprendre le monde qui nous entoure
06:47et d'atténuer, parfois, ce monde.
06:50On pense, par exemple, aussi à ce que j'appelle, moi, le mensonge social, par exemple.
06:56Quand quelqu'un que vous aimez beaucoup,
06:59qui a beaucoup travaillé, vous présente quelque chose
07:02qui n'est pas totalement abouti,
07:04mais vous ne lui direz pas que c'est totalement abouti
07:06parce que vous prendrez en compte le fait qu'il ait beaucoup travaillé.
07:09Et donc, ces petits mensonges sociaux, ça nous permet de faire société.
07:15Et donc, attention à cette falsification.
07:20Carole, on parle de l'IA comme d'une révolution,
07:22mais quelle est la grande différence, selon vous,
07:25entre cette révolution, cette innovation tech,
07:29et les révolutions précédentes ?
07:31L'invention de l'écriture, par exemple, de l'imprimerie,
07:34ou même d'Internet, dans les années 2000.
07:36Est-ce que, vraiment, on est dans une révolution qui est complètement différente ?
07:40Alors, on est dans des révolutions différentes.
07:43Je vais essayer de faire très court, parce qu'on manque de temps.
07:47C'est-à-dire qu'à chaque fois, on délègue des tâches.
07:51Donc, que ce soit l'écriture, l'imprimerie,
07:53on délègue, ça vient en soutien, finalement, de l'activité humaine.
08:00Mais également, ça nous permet de populariser,
08:04c'est-à-dire que, et de mieux mémoriser, en fait, l'existant.
08:09Donc, l'imprimerie, on imprime,
08:11donc c'est la mémoire du texte, du savoir.
08:14L'ordinateur, lui, il mémorise beaucoup plus de choses.
08:17La vidéo, elle mémorise les images, les sons.
08:20Donc, en ça, je trouve qu'il y a, finalement,
08:24quelque chose d'assez commun avec ces révolutions.
08:27En revanche, c'est la, finalement,
08:30c'est la fulgurance avec laquelle ces technologies s'installent dans nos livres.
08:33Donc, il y a une histoire de rapidité, finalement.
08:35C'est vraiment ça, la différence.
08:37Donc, si on compare, par exemple, avec l'arrivée de la télévision,
08:39il a fallu environ 35 ans pour que la moitié des foyers aient une télévision.
08:44Aujourd'hui, on l'a vu, en 5 jours,
08:48ChatGPT a 5 millions d'abonnés au moment de son lancement.
08:52Donc, on voit très bien qu'on est, aujourd'hui,
08:55dans une fulgurance qu'on n'a jamais connue
08:58et qui est, en fait, assez perturbante.
09:01Parce que même si on prend, par exemple, l'arrivée de Netflix,
09:05il a quand même fallu 5 ans
09:07avant qu'on s'en empare.
09:11Et je ne parle même pas de toute la population.
09:14Donc, vraiment, aujourd'hui, je crois qu'on est face à quelque chose
09:18que nous ne connaissons pas.
09:20Alors, dans votre livre, vous parlez de garde-fous,
09:23qu'ils soient éthiques, juridiques, politiques.
09:25Vous les jugez indispensables, je cite,
09:28« avant qu'ils ne soient trop tard ».
09:29Mais alors, c'est quand trop tard, Carole ?
09:32C'est quoi se mettre en ordre de bataille ?
09:34Et est-ce que c'est possible, alors que l'IA, vous venez de le dire,
09:37qu'avale à une vitesse vertigineuse ?
09:39Alors, moi, je pense que, honnêtement, c'est-à-dire que ce n'est pas
09:43« il va falloir », c'est « il faut ».
09:46On est dans le présent.
09:48Elle est plus que présente, comme je l'ai dit, vous l'avez rappelé.
09:51Je veux dire, ce sont des milliards de messages échangés 5 jours.
09:54Aujourd'hui, on s'aperçoit que l'IA générative,
09:58Tchad GPT, Gemini, le chat de Mistral, DeepSync,
10:04vont remplacer et commencent à remplacer
10:07à la fois les réseaux sociaux et les moteurs de recherche.
10:10Donc, on voit bien une baisse de fréquentation des réseaux sociaux
10:12pour se reporter vers ces outils.
10:16Donc, bien sûr que, clairement, il faut remettre de l'éthique
10:21au cœur de la création de ces outils.
10:23Et si on revient aux thématiques d'aujourd'hui,
10:25c'est-à-dire que le problème, c'est que, un,
10:29ces outils sont contrôlés par de grosses entreprises
10:32qui sont souvent basées aux Etats-Unis ou en Chine.
10:35Et même si on a des champions français,
10:38on a quand même, je veux dire, moi, j'ai quelques chiffres
10:41qui permettent de comparer les choses,
10:43mais aux Etats-Unis, on a plus de 50 000 brevets en 2023
10:46qui sont déposés en IA contre 1 000 en France.
10:50Donc, ça veut dire que l'IA, que l'on utilise tous
10:54et qui s'est généralisée et globalisée,
10:56elle est créée par un pays, par des ingénieurs
11:00qui sont basés dans un pays avec des visions économiques
11:03qui ne sont pas forcément les mêmes que les autres.
11:06Donc, si je fais un petit comparatif avec le cinéma,
11:08c'est comme si on avait, si le monde se nourrissait
11:10uniquement de cinéma américain.
11:12Et on voit bien que la vision du monde,
11:14on a besoin, même s'ils sont moins puissants,
11:16mais de la vision du cinéma français,
11:17de la vision du cinéma coréen,
11:20qui nous permettent de voir le monde de manière diverse
11:23et plus représentative de ce qu'il est.
11:26Merci beaucoup, Carole.
11:28Caroline Martin, je me tourne vers vous.
11:29Je le disais, vous avez accompagné la GFD
11:31qui soutient, qui accompagne les femmes dans la tech
11:33pour réaliser une étude qui explore les impacts,
11:36les opportunités et les défis de l'IA
11:37dans 8 secteurs économiques à travers 8 pays en Europe.
11:41Vous avez cherché, avec ce baromètre,
11:43à mesurer en quoi l'IA peut être un facteur de progrès.
11:47Si les entreprises s'en saisissent de la bonne façon,
11:50qu'est-ce que c'est, d'abord, le progrès ?
11:52Qu'est-ce que vous entendez par progrès ?
11:54Comment est-ce que vous avez, globalement,
11:55rapidement travaillé sur cette étude ?
11:58Alors, en tout cas, bonjour à toutes et à tous.
12:00Ravie d'être parmi vous aujourd'hui.
12:02Donc, c'est vrai que, par progrès,
12:04quand on a commencé à travailler sur cette étude-là,
12:05on s'est dit, comment est-ce que l'IA peut améliorer
12:08de façon significative, finalement, les sociétés,
12:11l'environnement, mais aussi la vie humaine,
12:14et tout ça de façon éthique.
12:16Donc, voilà, c'était le constat assez,
12:19enfin, en tout cas, l'ambition assez forte
12:21qu'on s'est donnée sur cette étude-là.
12:23Et on s'est dit, finalement, le progrès,
12:25comment est-ce qu'on pourrait le définir ?
12:27Donc, on a défini 5 grands piliers
12:28qui sont l'emploi, l'accès et l'inclusion,
12:32le sujet de confiance aussi,
12:34le sujet de maturité technologique sur ces sujets-là,
12:37et le sujet aussi d'utilisation en faveur
12:39de la transformation sectorielle.
12:42Suite à ça, on s'est dit, finalement,
12:44quels sont les indicateurs qu'on veut essayer
12:46de quantifier.
12:49Et pour faire ça, on s'est appuyé
12:51sur un comité assez engagé sur le sujet
12:56avec des entreprises comme La Poste,
12:58L'Oréal, Carrefour, Sanofi,
13:01qu'on a pu interviewer,
13:02qu'on a pu aussi mobiliser
13:03à travers différentes réunions de travail.
13:06Important aussi, parce que qui dit études,
13:07dit aussi chiffres,
13:08on est allé interviewer un panel
13:10de 400 cadres dirigeants en Europe
13:13qui avaient une bonne vision de ces sujets-là
13:15pour leur entreprise.
13:16Donc, on était plutôt sur des entreprises
13:18de plus de 250 salariés.
13:20Et après, on a aussi travaillé sur toute une partie,
13:22finalement, data crunching,
13:24et aussi analyse d'études existantes sur le sujet,
13:27parce que, bien entendu,
13:28le sujet est quand même déjà aussi bien traité
13:30par ces différentes études à l'échelle mondiale,
13:34et aussi européenne, voire française aussi.
13:35Alors, quelles actions concrètes
13:37est-ce qu'on peut entreprendre
13:38pour rendre cette IA plus inclusive et responsable ?
13:41C'est un peu le sujet.
13:42Oui.
13:43Alors, c'est une bonne question,
13:44et pour le coup, il y a pas mal de choses à faire.
13:47Premier point, c'est comment est-ce qu'on arrive
13:49à favoriser la diversité des équipes
13:50sur toute la chaîne de valeur de l'IA ?
13:52Donc, sur toute la chaîne de valeur de l'IA,
13:54je parle assez grossièrement, on va dire,
13:56de collecte, de création, finalement,
13:59de conception des algorithmes,
14:00mais aussi de la partie entraînement.
14:01Il y a plein d'autres choses.
14:02Mais en tout cas, c'est ces points-là
14:04qui sont assez clés.
14:05Il y a un sujet aussi
14:08de garantir, finalement,
14:10l'accessibilité des outils.
14:13Et ce, en fait, finalement,
14:15de dire qu'il faut que, finalement,
14:16les entreprises soient quand même
14:17assez proactives sur ce sujet-là
14:18et se dire, en fait,
14:19si j'attribue des licences,
14:20il faut que je réfléchisse à
14:21est-ce que je le fais aussi
14:22de façon équitable dans mon entreprise ?
14:25Parce que, finalement,
14:25on peut avoir aussi, finalement,
14:29des profils qui sont parfois
14:30plus réticents à utiliser ces outils.
14:32Et c'est vrai que je pense que
14:33le sujet a évolué par rapport
14:34à l'année dernière.
14:35Mais avec, finalement,
14:36l'utilisation de l'IA,
14:37on a aussi un peu ce sentiment,
14:39parfois, d'usurpation,
14:40de triche.
14:41Et c'est vrai qu'on avait
14:42un fort penchant féminin
14:43à se dire, en fait,
14:44utiliser l'IA,
14:45c'est aussi tricher.
14:45Je pense que les mentalités
14:46ont évolué.
14:47Mais en tout cas,
14:48il faut promouvoir
14:50et il faut pousser, finalement,
14:52peut-être ces profils
14:53plus réticents
14:53à utiliser ces outils-là.
14:56Donc, il y a l'accessibilité,
14:58il y a aussi la formation.
14:59Donc, par formation aussi,
15:00c'est de se dire
15:01comment est-ce que je mets
15:02à disposition aussi
15:03de mes collaborateurs
15:04la capacité à bien utiliser
15:06ces outils,
15:06à la fois pour leur potentiel technique,
15:08mais aussi le faire
15:09dans un cadre assez responsable
15:10et justement aussi
15:12avec pas mal de défiance
15:13quand on utilise ces outils-là.
15:15Donc, ça, c'est un point intéressant
15:16et parmi justement
15:19le comité qu'on a eu
15:20autour de la table,
15:21on avait des entreprises
15:22comme L'Oréal
15:23ou comme La Poste
15:24qui ont développé
15:25des vrais programmes
15:26de formation assez globaux
15:28pour leurs collaborateurs
15:30et un programme aussi
15:32qui avait pas mal
15:32attiré notre attention,
15:33c'est un programme
15:34qui a été monté par La Poste
15:35qui s'appelle
15:35l'école de la data
15:36et de l'IA.
15:38Et là, ce qui était intéressant...
15:39On va en parler plus tard.
15:40Mais en tout cas,
15:41c'était le sujet
15:41promotion paritaire
15:43qui était assez intéressant.
15:44Donc, tant mieux
15:44si on en parle par la suite.
15:45Mais en tout cas,
15:45ça montre ces points-là.
15:47Et après, il y a toute la partie
15:48finalement au-delà de ça.
15:49Il y a qu'est-ce que je mets en place
15:51finalement comme protocole
15:52pour aller venir finalement
15:54ositer finalement
15:56les données qui sont utilisées.
15:57Comment est-ce que je teste
15:58les algorithmes ?
15:59Comment est-ce que finalement
16:00je crée des comités
16:01qui nous permettent
16:02de s'assurer que finalement
16:03l'utilisation se fait ?
16:05Alors, Caroline Martin,
16:06vous avez aussi passé au crible
16:07le nombre des entreprises
16:08qui ont désigné
16:09ce qu'on appelle
16:10un responsable IA
16:11au sein de leur COMEX.
16:13J'aimerais savoir
16:15quel est le pourcentage
16:16de femmes
16:17qui sont responsables IA
16:20et comment est-ce que
16:21vous avez interprété
16:22vous ce chiffre ?
16:23Alors déjà,
16:23de façon générale,
16:24il y avait à peu près
16:2565% d'entreprises
16:26qu'on a interviewées
16:27qui ont un responsable
16:29dédié à l'IA
16:30qui siège au COMEX.
16:31Donc ça, c'est déjà
16:32une vraie prise de conscience
16:33du sujet.
16:34Et sur ce chiffre-là,
16:35on avait un chiffre
16:36donc au niveau européen
16:37et qui était assez homogène
16:39sur les différents pays
16:40qu'on a pu interviewer
16:41qui étaient de 29%
16:42des femmes
16:43qui finalement
16:44prennent part
16:45à ce poste-là.
16:46Donc 29%,
16:47on pourrait me dire
16:47c'est plutôt pas mal
16:48par rapport aux chiffres
16:49des femmes dans la tech.
16:51Pour autant,
16:51c'est encore pas assez
16:52parce qu'on a du mal
16:53toujours à dépasser
16:54ce tiers.
16:55Et on pense vraiment
16:57qu'il y a un vrai enjeu
16:58en tout cas
16:58de pousser encore plus
17:00des femmes
17:01sur ces postes-là.
17:02Et c'est là aussi
17:03où la GFD
17:04intervient beaucoup
17:04sur finalement
17:05comment est-ce qu'on peut
17:06arriver à accélérer
17:06les carrières
17:07des femmes dans la tech
17:09pour justement accéder
17:10à ce type de postes
17:11qui sont très stratégiques
17:12maintenant dans les entreprises.
17:12Alors justement,
17:13les carrières des femmes
17:14dans la tech,
17:15vous parlez dans votre étude
17:16d'un océan bleu
17:17d'opportunités,
17:18je cite,
17:18qui s'ouvre pour les femmes
17:19à l'intersection
17:20de la technologie
17:21et du business.
17:22Est-ce que vous pouvez
17:22nous préciser
17:23cet océan bleu ?
17:24Oui.
17:25Alors du coup,
17:26en fait,
17:26ça met en avant
17:28le fait qu'il y a
17:28des énormes opportunités
17:29finalement
17:30qui sont apportées
17:31par l'IA
17:32parce qu'en fait,
17:33finalement,
17:33l'IA,
17:33on estime que ça peut
17:34finalement transformer
17:35profondément les secteurs
17:39entre la tech et le business.
17:41Et en fait,
17:42on pense que justement,
17:43c'est cette sensibilité
17:45à savoir gérer finalement
17:46des problèmes à résoudre
17:48et le mettre au regard de la tech,
17:50c'est des choses
17:50où on pense que finalement,
17:51les femmes peuvent être
17:52vraiment de vrais atouts
17:53pour justement
17:54cette sensibilité-là
17:56et tout ce qui va derrière
17:57qui traite de gouvernance,
17:59qui traite de formation,
18:00qui traite finalement
18:01de venir résoudre
18:02ces problèmes-là.
18:04Donc voilà.
18:04Donc on estime que finalement,
18:05il y a une place énorme
18:06pour les femmes
18:07à jouer sur ces types de postes
18:08et quand on parle finalement
18:09d'Océan Bleu,
18:11c'est finalement cet espace
18:12d'innovation
18:13et de leadership
18:13qui reste,
18:15enfin qui se crée,
18:16mais qui reste encore à créer.
18:18Et on pense que finalement,
18:19les femmes ont toutes les cartes
18:21en main pour en devenir
18:22finalement les capitaines.
18:24Merci beaucoup, Caroline.
18:25Carole, une réaction,
18:27un regard sur les chiffres
18:28que vient de nous donner Caroline.
18:30Est-ce que c'est le moment,
18:31selon vous,
18:31pour les femmes
18:31vraiment de prendre une place ?
18:34C'est-à-dire que oui,
18:35les femmes doivent prendre part
18:36à toutes les révolutions majeures
18:38de l'histoire du monde
18:41et donc évidemment,
18:42elles doivent être plus présentes
18:43dans les métiers de la tech
18:46et de l'IA
18:47mais moi j'ai en tête,
18:49je ne sais pas si vous avez vu
18:50cette photo de la French Tech
18:51il y a quelques semaines
18:52où on voyait les dirigeants
18:54de la French Tech
18:55et effectivement,
18:56c'était,
18:57il y avait très très très peu de femmes
18:59donc il y a un vrai,
19:00il faut qu'elles reviennent
19:01dans les filières,
19:02dans les filières scientifiques,
19:04je dirais reviennent
19:05mais qu'elles y viennent
19:06qu'on crée un environnement
19:08favorable aussi
19:09dans ces filières scientifiques
19:10parce qu'on sait très bien
19:11que le peu de femmes
19:12qui s'y trouvent
19:13font part souvent
19:14d'une atmosphère
19:15qui est parfois toxique
19:16puisqu'elle est majoritairement masculine
19:19donc toutes les femmes
19:21doivent revenir
19:21pour pouvoir recréer,
19:23revenir à la base des modèles,
19:24de la création des algorithmes
19:25pour les débiaiser
19:27et la rendre plus inclusive
19:29cette IA
19:30et cette nouvelle révolution
19:35et moi j'ai en tête
19:36cette phrase de Bill Gates
19:38qui en 1995
19:39qui disait
19:39celui qui contrôlera le numérique
19:41contrôlera le monde
19:42et c'est très intéressant
19:44de penser à ça
19:44parce que d'une certaine manière
19:46oui lui pensait
19:47aux entreprises
19:48et aux pays
19:48qui allaient contrôler
19:49ces technologies
19:50mais il y a aussi
19:51de se dire
19:52que finalement
19:53ça ne peut pas être
19:54uniquement contrôlé
19:55par des ingénieurs
19:57hommes
19:57souvent blancs, jeunes
20:00hétérosexuels
20:02je veux dire
20:03le monde
20:03il est composé
20:04de beaucoup plus que ça
20:05et il faut que les femmes
20:07prennent leur part
20:07mais c'est vrai
20:08que c'est un long chemin
20:09et il va falloir passer
20:10je pense
20:11par des incitations
20:13des bonus
20:14sans doute
20:15donner
20:16peut-être que la BPI
20:18pourrait créer
20:19je ne sais pas
20:21une politique
20:21beaucoup plus encadrante
20:23et inclusive
20:23pour permettre
20:24aux femmes
20:25d'avoir leur place
20:26au sein de cette économie
20:28Carole bien aimée
20:29vous venez de parler
20:30du mot
20:32vous venez de prononcer
20:33le mot
20:33environnement favorable
20:34on ne peut pas commencer
20:35ce think tank
20:36passionnant
20:37sans parler
20:38du contexte
20:39actuel
20:40de l'incertitude
20:41du manque de vision
20:42de la crise de confiance
20:43qui se répand
20:44qui sont des mots
20:45de notre société actuelle
20:46est-ce qu'il découle
20:47selon vous
20:48en partie
20:49du déferlement
20:50de l'IA
20:51alors l'IA
20:52alors parce que
20:53c'est vrai qu'on parle d'IA
20:54mais il y a beaucoup d'IA
20:55et donc si moi
20:56je reprends
20:57les algorithmes
20:58qui ont fait
20:58les réseaux sociaux
21:00donc les algorithmes
21:01de recommandation
21:02on sait très bien
21:03que les modèles d'affaires
21:05de ces entreprises
21:06de la tech
21:07donc des réseaux sociaux
21:08l'objectif
21:09c'était de nous faire
21:10passer un maximum
21:11de temps
21:12pour pouvoir connaître
21:14un maximum
21:14d'informations
21:15sur nous
21:16pour pouvoir ensuite
21:16nous vendre
21:17de la publicité
21:17donc ces algorithmes
21:19ils ont très vite compris
21:21que en fait
21:22les informations
21:23polarisantes
21:24anxiogènes
21:26qui généraient aussi
21:27de la haine
21:28de la peur
21:29pouvaient en fait
21:30générer plus d'engagement
21:32chez les utilisateurs
21:33et donc
21:34on se retrouve aujourd'hui
21:35dans un monde
21:36ultra polarisé
21:37on le voit bien
21:38que ce soit en politique
21:39en économie
21:40on ne parvient plus
21:41vraiment à parler
21:42de fond
21:43on est vite
21:44sur des débats
21:45qui tournent court
21:46le point Godwin
21:47dont on parlait
21:48dans les années 90
21:49on l'atteint très très vite
21:50parce que c'est vrai
21:51que très vite
21:51on se met à s'insulter
21:52et à ne pas parler
21:53de fond
21:54donc oui c'est vrai
21:55que l'IA
21:56d'une certaine manière
21:57elle a participé
21:58mais l'IA
21:59qu'on a créé nous
22:00c'est ça
22:01je veux dire
22:02c'est pas quelque chose
22:02d'abstrait
22:03l'IA
22:03c'est créé
22:04par des êtres humains
22:06et c'est entraîné
22:07par les êtres humains
22:08donc on participe
22:09à cette incertitude
22:10et à cette anxiété générale
22:11exactement
22:12même si
22:13on peut peut-être
22:14parler deux secondes
22:15de cette tribune
22:16qui a été publiée
22:17par des chercheurs
22:18qui s'inquiètent
22:19de la super intelligence
22:20parce que c'est vrai
22:22que si elle devient
22:23incontrôlable
22:23on va avoir un problème
22:24on est extrêmement
22:26pris par le temps
22:26donc je voudrais
22:27absolument vous poser
22:28cette dernière question
22:29Carole
22:29on l'a dit en introduction
22:31vous êtes productrice
22:32est-ce que l'IA
22:33remet en cause
22:34votre métier
22:36aujourd'hui
22:36quels sont les premiers
22:37effets de l'IA
22:38sur la production
22:38audiovisuelle
22:40les films
22:41à quoi va ressembler
22:43la télévision
22:43dans les prochaines années
22:44c'est vraiment
22:45une question
22:45qui nous taraude
22:47est-ce que vous pouvez
22:47nous offrir
22:48une petite plongée
22:49dans ce futur
22:50ce petit trailer
22:51sur lequel
22:53je vous propose
22:54de commenter
22:56donc ce que vous êtes
22:57en train de voir
22:58ça a été réalisé
23:00par une personne
23:01un réalisateur
23:03américain
23:05qui sur son ordinateur
23:06voilà
23:07a fait plusieurs promptes
23:08pendant une semaine
23:09et donc il y a
23:10tout est créé
23:12par intelligence artificielle
23:13avec un ordinateur
23:14et avec une personne
23:14derrière son ordinateur
23:15donc il n'y a pas
23:17d'être humain
23:18il n'y a pas
23:18de comédien
23:19c'est absolument
23:21dément
23:22c'est la technologie
23:24d'aujourd'hui
23:24je pense que dans
23:25six mois
23:25elle sera encore
23:26plus incroyable
23:28et enfin voilà
23:31donc on pourrait se dire
23:33mais c'est à peu
23:34parce que ça va
23:35remplacer
23:37pour que je puisse
23:39ouais est-ce qu'on peut
23:41baisser le son
23:42s'il vous plaît
23:42en régie
23:43merci
23:43voilà donc juste
23:44dire que effectivement
23:45ça peut être très effrayant
23:47en se disant
23:48qu'il y a plein de gens
23:48qui vont perdre leur boulot
23:49et de l'autre côté
23:51c'est ce que dit
23:52George Miller
23:53le réalisateur de Mad Max
23:54ça va aussi créer
23:56une opportunité
23:58pour des tas de gens
23:59qui n'avaient pas accès
24:00à ces grands studios
24:01au métier
24:02de la réalisation
24:04et de la création
24:05donc vraiment
24:06je suis partagée
24:07donc je ne veux pas
24:08ni être un doomer
24:09ni être un accélérationniste
24:11je dirais simplement
24:13qu'il faut être enthousiaste
24:14mais quand même
24:15être raisonnée
24:16et se dire
24:17qu'il faut qu'on réfléchisse
24:19ensemble à un modèle
24:20qui inclut tout le monde
24:21et qui ne laisse personne
24:23sur le bas côté
24:23c'est ce qu'on va faire ce matin
24:25merci beaucoup
24:25à toutes les deux
24:26merci infiniment
24:27de votre présence
24:28on peut vous applaudir
24:29très chaleureusement
24:30merci à tous
24:31merci à tous
24:32merci à tous
24:33merci à tous
24:34merci à tous
24:36merci à tous
24:37merci à tous
24:38merci à tous
24:41merci à tous
Recommandations
0:58
|
À suivre
2:51
0:19
15:56
14:03
17:35
13:59
7:32
20:58
3:38
3:09
Écris le tout premier commentaire