Passer au playerPasser au contenu principal
  • il y a 2 jours
Irénée Régnauld, doctorant en sociologie à l'EHESS et auteur de "Technologies partout, démocratie nulle part", décrypte les impensés du déploiement massif de l'IA et des infrastructures numériques en France. Le chercheur pointe un débat public focalisé sur les "risques" au détriment des questions sociales et démocratiques, à l'image des projets de data centers lancés sans réflexion sur leur utilité. Il interroge également la notion de souveraineté technologique face au poids des capitaux étrangers dans ces infrastructures stratégiques.

Catégorie

🗞
News
Transcription
00:00La grande interview aujourd'hui c'est avec Irénée Regnaud, doctorant à l'école des hautes études en sursociale.
00:12Il travaille sur ces sujets d'éthique, des technologies dont je vous ai parlé dans ce sommaire.
00:16Il est cofondateur en 2017 de l'association Le Mouton Numérique.
00:20Je crois que c'est comme ça que je vous ai identifié d'ailleurs Irénée.
00:22Ça remonte à cette époque-là, Le Mouton Numérique qui interroge sous ses dimensions sociales, politiques, environnementales, cette transformation numérique.
00:32Vous êtes aussi Irénée l'auteur du blog Mais où va le web ?
00:35Ou encore, je peux citer un ouvrage, Technologie partout, démocratie nulle part,
00:39plaidoyer pour que les choix technologie deviennent l'affaire de tous, que vous avez écrit avec Yael Benayoun, merci,
00:47et paru aux éditions FIP en 2020.
00:50Est-ce que vous diriez, Irénée, que vous êtes un technocritique ?
00:54C'est dur de commencer par cette question.
00:57Oui, mais ça ne veut pas dire grand-chose dans le sens où le spectre de la technocritique est très large.
01:02C'est un néologisme qui est fondé en 1975 à la base,
01:04qui va poser quelque part un mot sur plein de mouvements critiques des techniques
01:08qui ont émergé depuis la révolution industrielle.
01:11Mais il y a plein de branches, si vous voulez, dans la technocritique.
01:14Alors, parlez-nous justement de ce mouvement, ou de ces mouvements plutôt, technocritiques.
01:18Comment ils évoluent actuellement et quelle ampleur ils ont pris ?
01:22Ce qui est intéressant, c'est qu'en fait, ils ne cessent jamais d'exister.
01:26Mais ils se renouvellent en permanence, et souvent par le prisme de nouvelles technologies,
01:30de nouvelles infrastructures qui font débat.
01:32Donc on a beaucoup de mouvements technocritiques, la fin des années 90, 2000, sur les OGM, le nucléaire,
01:37des débats, des concertations, des controverses, etc.
01:40Et aujourd'hui, effectivement, avec l'arrivée de l'intelligence artificielle,
01:45principalement des LLM, en fait, des modèles de langage,
01:47on assiste à un renouveau par ce prisme-là.
01:50Mais ça ne veut pas dire que les autres questions derrière ne sont plus posées,
01:53les questions énergétiques notamment.
01:54Et donc ça revient à travers tout un tas de formes,
01:56qui peuvent être des plus radicales, du côté de groupes anarchistes très revendiqués,
02:02à des groupes qui le sont moins, et qui vont quand même se déplacer,
02:04par exemple sur le terrain, des centres de données, pour aussi se confronter
02:08à des grands projets qu'on pourrait qualifier parfois d'inutiles,
02:11ou en tout cas qui sont peu discutés.
02:13Et puis toute une constellation de groupes, on en voit en permanence, en fait,
02:17syndicats, professeurs, enseignants, dans le monde de la santé, etc.,
02:20qui, eux, ne se revendiquent pas forcément d'une technocritique à proprement parler,
02:24parce que c'est un terme, en réalité, un peu pour les intellos,
02:27mais qui ont des critiques quand même à faire sur l'utilité des technologies.
02:31Qui questionnent, en fait.
02:32Qui questionnent, qui voient aussi,
02:34parfois, qui sont, d'une certaine manière, déclassés.
02:37On le voit tous, ce que fait l'intelligence artificielle.
02:40Le prétexte qu'elle est, parfois, pour faire faire des choses,
02:43alors qu'on pourrait faire autrement.
02:45Et donc, aujourd'hui, vous avez, par exemple,
02:46des groupes très intéressants dans la traduction,
02:49qui, au-delà de critiquer,
02:51revendiquent aussi une profession,
02:53des pratiques, et qui montrent
02:54qu'ils ne sont pas automatisables dans les termes
02:56de l'intelligence artificielle, en fait.
02:58Et ça, je pense que c'est aussi quelque chose qui est très intéressant.
03:00Ça nous permet de découvrir ce qui est vraiment un métier,
03:02au-delà de la façon dont on l'automatise,
03:04qui est souvent biaisé.
03:06Oui, ce que je dis souvent, c'est que finalement,
03:07c'est l'occasion ou jamais de montrer la valeur
03:09que l'on propose, que l'on apporte
03:11dans la réalisation de nos métiers,
03:13ou même dans notre quotidien.
03:15Pour autant, oui, il y a certaines personnes
03:17qui se sentent exclues,
03:19et ce n'est pas forcément juste un sentiment.
03:20Non, ce n'est pas du tout un sentiment.
03:22Enfin, ce que la sociologie du travail, notamment,
03:25observe depuis plusieurs années,
03:27à la fois en allant voir ces groupes
03:28et en faisant des ethnographies situées,
03:30c'est-à-dire en suivant les gens.
03:32On ne peut pas, comment dire,
03:33prendre de décisions sur la qualité d'un travail
03:36sans le regarder de près.
03:37Il y a toujours, par exemple,
03:38cette vulgate de l'intelligence artificielle
03:40qui est de dire,
03:41on va remplacer les tâches fastidieuses.
03:43Mais ça ne se passe pas comme ça.
03:44Un sociologue ne voit jamais ça.
03:46Il voit que, parfois, c'est le cas,
03:47et que quand on supprime une tâche fastidieuse,
03:49peut-être que c'était un repos cognitif
03:51qu'on évacue,
03:52et du coup, on en vient à densifier le travail.
03:55Donc ça, c'est très important,
03:56puisque ça change les journées.
03:57La délégation des tâches automatisées,
03:59ça, vous n'y croyez pas, par exemple ?
04:00Ce n'est pas que je n'y crois pas.
04:01En fait, tout est question aussi de contexte,
04:04d'organisation autour de la technologie,
04:07de la façon dont on l'utilise aussi,
04:09même si elle n'est jamais neutre.
04:10D'une certaine manière,
04:11c'est vrai qu'aujourd'hui,
04:12les intelligences artificielles,
04:13elles ont quand même plutôt tendance
04:14à vous extraire,
04:15j'allais dire de la plus-value,
04:17mais c'est un petit peu ça,
04:18en fait,
04:18de la connaissance,
04:19des compétences cognitives,
04:20et à vous redispercer
04:21sur de la vérification,
04:22de la relecture,
04:23qui sont des tâches
04:23potentiellement plus compliquées,
04:25moins intéressantes.
04:27Oui.
04:27Et sans compter qu'on entraîne
04:29ces intelligences artificielles,
04:30si on peut devenir des ouvriers
04:32du numérique et de l'IA.
04:35Mais c'est un peu le principe.
04:36Certains auteurs sociologues
04:37aujourd'hui parlent de taylorisation.
04:39Je crois qu'il y a beaucoup de gens
04:40aujourd'hui qui utilisent les IAC
04:42qui ont ce sentiment-là.
04:43Pas tous.
04:43Parfois, ce sont des sentiments mêlés.
04:45Par exemple,
04:46quand on regarde les informaticiens,
04:47les développeurs,
04:48on y découvre aussi des choses.
04:50On apprend des compétences,
04:51comme par exemple,
04:52apprendre à prompter,
04:53pas comme vous et moi,
04:55vraiment comme un vrai informaticien
04:57peut prompter une IA
04:57pour qu'elle code
04:58ou qu'elle recode correctement.
04:59Ce n'est pas du tout l'usage
05:00qu'on peut en avoir
05:01dans l'usage de tous les jours.
05:03Mais pour autant,
05:04encore une fois,
05:04le métier se déplace.
05:05Le métier se déplace toujours.
05:07Il change.
05:07On compare souvent l'IA,
05:10par exemple,
05:10à un stagiaire ou un assistant.
05:12Moi, j'entends tout le temps ça.
05:13C'est quand même un assistant
05:15qui a un pouvoir de transformation
05:16sur votre travail
05:17qui est énorme, en fait.
05:19Donc, ce n'est pas juste un assistant.
05:22Ces mouvements technocritiques,
05:24et on va même adresser maintenant
05:26ce front anti-IA
05:28que moi, j'ai vu émerger,
05:30en particulier au moment
05:31du sommet international
05:32organisé par la France
05:33sur l'intelligence artificielle,
05:35où on a vu un contre-sommet
05:37s'organiser
05:38et puis des mouvements
05:40anti-tech se manifester.
05:43Il se radicalise ?
05:44Il est important,
05:45ce mouvement anti-IA,
05:46ce front anti-IA, selon vous ?
05:48Il est particulièrement français aussi ?
05:51Non, il n'est pas français.
05:52On en voit à l'international.
05:54Certains groupes français
05:56vont aller rayonner
05:57à l'international
05:58et inversement,
05:59certains groupes internationaux
06:00vont créer des sortes
06:01de supursales en France.
06:02Par exemple,
06:03la rhétorique de la pause,
06:04faire une pause dans l'IA,
06:05c'est quelque chose
06:06qui est plutôt né en Angleterre,
06:07aux Etats-Unis,
06:08et qui a été importé.
06:10Est-ce qu'il se radicalise ?
06:11Mais en fait,
06:12à la hauteur de ce que la technologie fait,
06:14j'ai envie de dire.
06:15C'est quelque chose
06:15qui intervient en miroir
06:16pour des raisons
06:17qui sont aussi justifiées
06:19par ces personnes,
06:20c'est-à-dire
06:20des désastres environnementaux,
06:22de l'accaparation des terres,
06:24notamment pour implanter
06:25les data centers.
06:26L'IA, c'est aussi quelque chose
06:27de très physique,
06:28si vous voulez.
06:29Donc ça donne lieu
06:30à des prises territoriales
06:31qui, elles-mêmes,
06:32vont engager des publics
06:33à s'y investir pour dire
06:34pourquoi là ?
06:36Pourquoi nous ?
06:37Est-ce que c'est cette IA-là
06:38qu'on veut ?
06:39Vous voyez ?
06:40Au-delà de qualifier
06:41les uns et les autres
06:42de plus radicaux ou pas,
06:43et c'est très bien
06:44qu'il y ait eu des contre-sommets
06:45qui ont pu faire venir
06:46par exemple des syndicats
06:47ou des enseignants
06:48parler de leur métier,
06:49parce qu'on leur dit
06:49qu'ils vont corriger
06:50les copies plus vite,
06:51mais certains disent
06:51qu'en fait,
06:52s'ils ont moins de temps,
06:53c'est parce qu'il y a trop
06:53d'évaluation
06:54et qu'ils aimeraient bien
06:55plus de temps
06:55pour corriger les copies.
06:57Vous voyez,
06:57ça permet de retourner
06:58les questions
06:58et de ne pas se figurer
06:59le travail des gens
07:01comme quelque chose
07:01de toujours automatisable.
07:03C'est ça qui est intéressant
07:03dans le anti-IA,
07:05qui n'est pas toujours
07:06fondamentalement un anti-IA.
07:08En fait,
07:08il y a aussi des gens
07:08qui aimeraient
07:09qu'il y ait un tout petit peu moins
07:10ou beaucoup moins
07:11ou en numérique
07:12ou différemment,
07:13beaucoup plus contenu.
07:14Et le fond de la question
07:15qui est posée,
07:16c'est qui décide,
07:17qui finance,
07:18quels sont,
07:19comme vous citiez
07:19mon livre de 2020 tout à l'heure,
07:21pourquoi ces développements
07:23technologiques
07:23ne sont pas plus démocratiques
07:25et il y a plein de moyens
07:25de démocratiser ces enjeux.
07:28Oui,
07:28ce qui est intéressant
07:29dans ces manifestations,
07:31c'est qu'on a le sentiment
07:32qu'enfin,
07:33finalement,
07:34on en parle entre nous
07:35de ces transformations
07:36numériques et technologiques
07:38et qu'il en ressort
07:39des cas concrets
07:40et en l'occurrence,
07:42effectivement,
07:42pas toujours extrêmes.
07:44Et cette idée
07:45de pause IA,
07:47qui semble aujourd'hui
07:48complètement anachronique,
07:51extrême,
07:52totalement décalée,
07:53elle a quand même
07:54réussi à se faire une place
07:55à l'occasion
07:56d'une conférence
07:57au Sénat récemment,
07:59en s'achetant finalement
08:02un peu une virginité.
08:03Est-ce qu'il y a,
08:04selon vous,
08:05des infiltrations
08:06presque politiques,
08:07j'ai envie de dire,
08:08pour influencer
08:10la marche
08:11un peu rapide,
08:13peut-être,
08:14de la technologie
08:15dans la société ?
08:16En fait,
08:16il faut bien comprendre
08:17d'où vient ce mouvement,
08:18principalement issu des Etats-Unis,
08:20qui en fait,
08:21renouvelle ce qui s'est passé
08:22en 2015,
08:22quand tout un tas de gens
08:24dans la Silicon Valley,
08:25vous aviez dû le voir à l'époque,
08:26ont signé ces fameuses lettres
08:27en disant,
08:28il faut faire une pause,
08:29il faut arrêter.
08:29dont Elon Musk,
08:31dont Nick Bostrom,
08:32dont absolument tout ce que vous voulez
08:34aussi de transhumanisme
08:34dans la Silicon Valley,
08:35les mêmes qui font les IA aujourd'hui.
08:37Donc cette rhétorique revient,
08:39c'est vrai qu'elle s'est un petit peu
08:40transformée dans des termes français
08:42qui ne sont pas exactement les mêmes,
08:43mais elle pose une question
08:44de la façon dont on politise le sujet.
08:46Faire une pause aujourd'hui dans l'IA,
08:47c'est faire une pause
08:47dans le capitalisme numérique,
08:49c'est faire une pause
08:49dans le capital risque,
08:51par exemple.
08:52Donc concrètement,
08:53ça voudrait dire quoi ?
08:54Arrêter de payer des salaires
08:55dans les entreprises ?
08:56Vous voyez,
08:57c'est des choses qui sont
08:58faciles à dire,
08:59entre guillemets,
08:59et qui ne sont pas faciles
09:00à mettre en place
09:01et qui mettent un peu
09:01le problème à l'envers.
09:03Puisque la finalité
09:04de ces mouvements,
09:05c'est de dire,
09:06on va mettre des lignes rouges.
09:07Vous voyez ?
09:08Donc on ne veut pas construire une IA,
09:09par exemple,
09:09qui soit trop consciente d'elle-même
09:10ou qui puisse produire
09:12des risques dits existentiels.
09:14C'est la fameuse rhétorique
09:14des risques existentiels.
09:16Et en fait,
09:16ça, ça nous suit depuis 50 ans
09:17en sociologie des sciences.
09:19Il y a toujours quelqu'un
09:19pour dire à un moment donné,
09:20il faut réguler par les risques.
09:21Sauf que quand on régule
09:22par les risques,
09:23on ne pose jamais
09:23la question en amont
09:24de quelle valeur
09:25on va mettre dans la technologie,
09:26quelle technologie on veut.
09:27Donc si on veut,
09:28entre guillemets,
09:28réguler l'IA,
09:30la question,
09:30ce n'est pas de la poser ou pas,
09:31c'est d'intervenir
09:32là où on finance
09:33et quelles infrastructures
09:34on construit,
09:35au nom de qui,
09:36en fait,
09:36et de quoi.
09:37Donc moi,
09:37je pense que c'est
09:38malheureusement un faux débat.
09:40Et d'ailleurs,
09:41je pense qu'on va avoir
09:41les lignes rouges,
09:42à mon avis,
09:43dans quelques années,
09:43à l'échelle européenne
09:44ou peu importe.
09:45Et on va se rendre compte
09:46qu'elles ne servent
09:46strictement à rien
09:47parce que ça ne changera
09:48rien dans le travail,
09:49ça ne changera rien
09:49dans l'implantation
09:50des data centers.
09:50Elles viendront d'où
09:51ces lignes rouges selon vous ?
09:52On a vu déjà
09:53des députés,
09:55pour le dire ainsi,
09:56par exemple au UK,
09:58en Angleterre,
09:59signer des notes d'intention
10:01sur le fait
10:01qu'il fallait mettre
10:02des lignes rouges
10:02ou encore au niveau européen.
10:04Donc ça peut venir
10:05de ces arènes-là.
10:06Je n'en sais rien,
10:06à vrai dire,
10:07je ne connais pas le futur
10:07et ce n'est pas si important.
10:09Est-ce que ça vous semble
10:14que l'IA Act présente
10:16déjà des lignes rouges
10:17mais qui sont encore une fois
10:18une régulation par les risques ?
10:19Ce n'est pas neutre.
10:20Si vous voulez,
10:20en Europe,
10:20on a plutôt l'habitude
10:21de réguler par les droits.
10:22Le droit à la déconnexion,
10:23le droit à la vie privée,
10:24etc.
10:25Donc on part de la personne,
10:27en fait, si vous voulez.
10:28C'est très différent,
10:29comment dire,
10:30symboliquement,
10:32que de partir de risque
10:32parce que finalement,
10:33les risques,
10:34on fait d'une question sociale
10:35une question technique.
10:36Vous voyez ce que je veux dire ?
10:37Et ce n'est pas du tout
10:38la même chose.
10:39Donc cette régulation
10:39est sans doute souhaitable.
10:41L'IA Act,
10:41à priori,
10:42personne n'est contre.
10:43Mais elle n'interroge pas,
10:43par exemple,
10:44la technologie au travail.
10:45Comment elle se diffuse ?
10:47Concrètement,
10:47c'est ça les vraies questions.
10:49Alors,
10:49moi,
10:50je m'étais intéressée
10:50à ce sujet
10:51du management algorithmique,
10:54management par l'algorithme
10:55grâce à Benoît Rotembourg,
10:56d'ailleurs,
10:57de Regalia Inria,
10:59qui lui-même
10:59était rentré
11:00dans un groupe de travail
11:01de l'ANAC,
11:02donc l'Agence Nationale
11:03pour l'Amélioration
11:03des Conditions de Travail.
11:06On voyait
11:07à quel point,
11:08finalement,
11:09on était déjà soumis,
11:11finalement,
11:11au dictat
11:12des algorithmes
11:13au quotidien
11:14dans notre travail.
11:15Et c'est le cas.
11:16C'est typiquement
11:17ce genre de régulation
11:18qu'on a quand même
11:18du mal à envisager
11:19à un niveau plus élevé.
11:21Mais pourquoi ?
11:22Pourquoi est-ce qu'on
11:22n'en prend pas conscience ?
11:23Parce que finalement,
11:24ce n'est pas si gênant
11:24que ça,
11:25d'après vous ?
11:26Ah si,
11:26c'est très gênant.
11:27La surveillance algorithmique...
11:28Les syndicats
11:29ne se soulèvent pas
11:30aujourd'hui
11:30sur ces sujets-là.
11:32Alors,
11:33vous avez un front syndical.
11:34Il existe,
11:35clairement,
11:35sur les sujets
11:36de management algorithmique
11:37et sur les sujets d'IA.
11:38Vous avez des documents
11:40assez complets,
11:40notamment chez Solidaires
11:41et Solidaires Informatiques.
11:42Il faut les éplucher.
11:42C'est intéressant
11:43parce qu'eux aussi,
11:44ils vont regarder
11:45de près le travail.
11:46Par exemple,
11:46Solidaires Impôts
11:48a fait une enquête
11:48auprès de dizaines
11:49de milliers d'agents
11:50et ils en déduisent
11:51que 84% d'entre eux
11:53disent que l'IA
11:54n'a pas du tout
11:55remplacé les tâches fastidieuses.
11:5784%.
11:57Donc,
11:57ce n'est pas mes chiffres,
11:58c'est les leurs.
11:59On va prendre avec
11:59les pincettes scientifiques
12:01d'un discours
12:02qui vient d'un syndicat
12:02mais c'est une étude
12:03qui a l'air robuste.
12:04Et donc,
12:05en fait,
12:05ils le documentent
12:06et ça,
12:06c'est intéressant.
12:06Donc,
12:06il y a quand même
12:07un front qui se constitue.
12:08Après,
12:09en France,
12:09on n'est pas un pays
12:09très syndiqué.
12:10La question du syndicalisme
12:12est aussi une question
12:13éminemment politique.
12:15Et puis,
12:15il y a aussi
12:15une question
12:16de culture numérique.
12:18Oui,
12:18éventuellement,
12:19mais moi,
12:20je ne serais pas si critique
12:21que ça vis-à-vis des syndicats.
12:22Je pense que ça monte
12:23beaucoup en compétence.
12:24Ils connaissent bien,
12:25en fait,
12:26la façon dont les outils
12:27numériques se déploient.
12:28Ils ont des propositions,
12:29parfois,
12:30ça peut être intéressant.
12:31Donc,
12:32il se passe des choses.
12:33L'idée que
12:34l'intelligence artificielle
12:36soit finalement
12:38pas vouée
12:39à devenir
12:39une intelligence artificielle générale
12:41avec cette grande menace
12:42du risque suprême
12:43sur la planète
12:45et les êtres humains,
12:46mais que finalement,
12:47elle continue à progresser
12:48dans la société,
12:50ça,
12:50ça peut être quelque chose
12:50de rassurant.
12:51Je pose la question
12:52parce qu'on est en train
12:53de se dire,
12:54tiens,
12:54avec le départ
12:55de Yann Lequin
12:56de chez Meta
12:57qui veut monter
12:58sa propre boîte
12:59pour parler d'IA,
13:00de nouveaux modèles mondiaux,
13:02un peu
13:04en opposition,
13:06j'ai envie de dire,
13:07à ceux qui
13:07nous font fantasmer
13:09une IA générale.
13:11Est-ce que ça,
13:11ça ne va pas rassurer
13:12un peu tout le monde
13:12en se disant finalement
13:13que ça ne reste
13:14qu'un outil technologique ?
13:15Alors,
13:15tout le monde,
13:16je ne pense pas.
13:17Je pense que vous allez
13:17parmi les plus radicaux,
13:18ils ne seront jamais rassurés
13:19de rien,
13:20en l'occurrence.
13:21Je pense que ça dit
13:22quelque chose d'intéressant
13:23ce départ de Yann Lequin.
13:25Ça dit aussi
13:25que la confiance,
13:26vraiment,
13:27si on se met
13:28dans sa perspective,
13:28et il le dit
13:29depuis longtemps
13:29dans la faculté des LLM,
13:31des modèles de langage,
13:32à aller vers
13:33ces promesses rhétoriques,
13:34c'est un petit peu
13:35comme la planète Mars,
13:36si vous voulez,
13:36on y va,
13:36c'est toujours pour
13:37dans 30 ans,
13:37quelque part.
13:38Ça dit que ça fait
13:40un peu dégonfler la bulle.
13:41Mais nous,
13:41ça nous pose une question
13:42à revers.
13:43Est-ce qu'il faut investir
13:44là-dedans,
13:44finalement ?
13:45Est-ce qu'il ne faut pas
13:46laisser quelques grandes puissances
13:48s'écharper sur l'autel
13:49de cette fameuse
13:49intelligence artificielle générale
13:51et décider de parfois
13:52pas faire,
13:53parfois faire autre chose ?
13:54Vous voyez ce que je veux dire ?
13:55Et ce n'est malheureusement
13:56pas la direction qu'on prend,
13:57si on est assez factuel.
13:59Vous parliez du sommet
14:00de l'IA en début d'année.
14:01Il y avait ce projet
14:02de 35 data centers
14:03qui ne seront probablement
14:04pas tous construits.
14:05C'est aussi des effets d'annonce.
14:06Mais c'est des infrastructures
14:08massives et très centralisées
14:10et qui correspondent,
14:11du point de vue
14:12de l'architecture,
14:13à ces fameux modèles
14:14de langage.
14:15Si on envisage une autre IA,
14:16est-ce qu'on a encore besoin
14:17de ça, en fait ?
14:18Donc, c'est vraiment...
14:19On peut l'apprendre
14:19par tous les boues.
14:20C'est aussi ce qui fait
14:20redouter une bulle.
14:21C'est qu'on se dit,
14:21finalement, on va peut-être
14:22construire des infrastructures...
14:23Ce qui ne servent à rien.
14:24Voilà.
14:25Et d'ailleurs, on se compare
14:25souvent au train en ce moment,
14:27mais le train,
14:27il a laissé des rails.
14:28Et on se demande,
14:30à quoi va servir
14:30toute cette puissance de calcul ?
14:32Alors, il y a d'autres voix
14:33en ce moment,
14:34qui émergent en France
14:36et en Europe,
14:37qui disent, finalement,
14:38il faut plutôt investir
14:44sur la sécurité de l'IA,
14:50c'est aussi faire de l'Europe
14:51quelque part la fabrique
14:53à sécurité éventuellement
14:54d'outils étatsuniens.
14:55Et surtout,
14:56c'est conforter un système.
14:57Vous voyez ce que je veux dire ?
14:58Par précaution,
14:59on va dire,
14:59il faut faire de la sécurité.
15:01Et a priori,
15:01personne n'est contre la sécurité.
15:02Surtout si, au bout du compte,
15:03vous avez une IA
15:04qui, entre guillemets,
15:05vous échappe,
15:06si c'est ça vraiment la peur.
15:07Mais en fait,
15:07vous allez faire travailler
15:08une industrie privée
15:09pour réguler, entre guillemets,
15:11sur les bords
15:12une autre industrie privée.
15:13Ce n'est pas une stratégie industrielle,
15:15du tout.
15:16Vous voyez, c'est...
15:17Oui, j'entends bien.
15:18Alors, l'argument aussi
15:19qui est avancé,
15:19c'est de construire, justement,
15:20une autre forme d'industrie
15:21d'intelligence artificielle
15:23avec des modèles
15:24plus frugaux,
15:25plus petits,
15:25plus sécurisés,
15:27voilà, différents.
15:28Une autre...
15:29Si c'est ça, peut-être.
15:30Une autre modèle
15:30d'intelligence artificielle
15:31qui serait à l'européenne.
15:33Mais il serait encore plus intéressant
15:35d'envisager la question à l'envers
15:37pour répondre à quel besoin, en fait.
15:39On voit bien ici
15:40que tout le monde
15:40est en train de se dire,
15:41quand même,
15:42cette IA,
15:42elle nous est arrivée
15:43un peu dessus comme ça
15:44par effraction.
15:44Puis on cherche quoi à en faire ?
15:46Il y a des trucs qui sont bien,
15:47il y a des trucs qui sont moins bien.
15:48Il y a quand même
15:49une emprise au sol, encore une fois,
15:51et un impact environnemental
15:51qui est très, très loin d'être neutre.
15:54Qui sera l'objet, d'ailleurs,
15:56d'une discussion
15:56dans la prochaine émission.
15:58Ah bah, parfait.
15:58Non, mais c'est...
15:59Il faut en parler, évidemment.
16:01Mais on se questionne
16:02rarement en amont.
16:03Moi, quand je vous parle concrètement
16:04d'un enseignant
16:05à qui on dit
16:05tu vas corriger des copies plus vite
16:07ou un fonctionnaire
16:08à qui on dit
16:08tu vas pouvoir faire
16:09telle interaction plus vite
16:10et que ces gens vous renvoient
16:12mais mon métier, c'est pas ça.
16:13En fait, je vais pas plus vite.
16:14Potentiellement,
16:15vous dégradez mon travail.
16:16Là, on a quand même une logique
16:18qui n'est pas une bonne logique.
16:20Et je pense que ça pèse aussi
16:21sur la société
16:22de voir que ces automatismes,
16:24parfois,
16:25ne sont pas ce qu'on voudrait avoir.
16:26Donc, démarrer des besoins,
16:27ça sert aussi à ça.
16:28Ça sert à interroger
16:29comment on améliore le travail.
16:31Tout simplement.
16:32Dans Technologie Partout,
16:33Démocratie Nulle Part,
16:35il y a aussi cette idée
16:36que la technologie nous gouverne,
16:38pas seulement au travail,
16:38mais que ce sont des solutions
16:40aussi de surveillance,
16:41d'intelligence artificielle.
16:42C'est, selon vous,
16:43une arme politique destructive ?
16:46Potentiellement.
16:47J'emploierai pas ces mots-là.
16:49Ce ne sont pas les miens.
16:51Après, je ne pense pas
16:53que là, aujourd'hui,
16:54si on parle de tchat GPT,
16:55ce soit tellement la question.
16:57Précisément sur ces sujets,
16:58moi, ce qui m'inquiète plus,
16:59c'est les modes de monétisation
17:00de tchat GPT.
17:02C'est-à-dire,
17:02comment on va passer
17:03à une monétisation
17:04de ce qu'on appelle l'intention.
17:05C'est-à-dire,
17:06on va parler beaucoup
17:07et on va pouvoir
17:07vous renvoyer quelque chose.
17:08Et donc, on se renferme
17:09dans un nouveau système,
17:10potentiellement,
17:11qui est la suite
17:12de l'économie de l'attention,
17:13où c'était enfermé
17:14par les petites notifications.
17:15Merci beaucoup
17:16d'avoir été avec nous,
17:17Irénée Regnaud.
17:18Vous étiez sur Smartech.
17:19C'était votre grande interview.
17:20Je rappelle,
17:20vous êtes doctorant en sociologie
17:22à l'EHESS,
17:24spécialiste des questions numériques
17:26et de politique spatiale.
17:27Aussi, on n'en a pas parlé,
17:28mais ce sera l'occasion
17:28de vous réinviter.
17:30A très bientôt.
17:31Merci à tous
17:31de nous avoir suivis.
17:32C'était Smartech
17:32sur la chaîne Bsmart.
17:34Bonne journée à tous.
17:38Sous-titrage Société Radio-Canada
17:43...
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations