- hier
Selon lui, l’esprit humain est “menacé dans ses capacités” par la technologie. Le philosophe Mark Hunyadi nous invite à monopoliser notre discernement humain pour rester acteur face aux machines. Il est l’invité de la grande interview pour nous présenter sa charte pour l’esprit humain et des pistes concrètes pour renforcer notre intelligence critique.
Catégorie
🗞
NewsTranscription
00:00Générique
00:00...
00:02Grand invité aujourd'hui dans Smartech,
00:08Marc Ouniadi, philosophe spécialiste de philosophie morale, sociale et politique,
00:14professeur à l'Université catholique de Louvain,
00:17également professeur associé à l'Institut Mine Télécom Paris pour les questions numériques.
00:21Merci beaucoup d'être connecté avec nous dans Smartech, c'est vraiment un grand plaisir.
00:26Vous évoquez souvent la technologie dans vos ouvrages,
00:30mais je voulais qu'on commence avec l'article qui, pour moi, a déclenché la demande d'interview,
00:37je l'avoue, c'est cet article paru dans la revue Esprit dédiée à l'intelligence artificielle.
00:43Vous y parlez donc de bataille de l'esprit,
00:45et vous citez ChatGPT finalement comme une technologie de l'esprit.
00:53Oui, bonjour tout d'abord.
00:56D'une manière générale, c'est très important, je pense,
00:58de caractériser, de qualifier les technologies numériques de technologies de l'esprit,
01:05c'est-à-dire que ne pas simplement les considérer au fond comme des outils extraordinairement pratiques,
01:13ce qu'ils sont aussi, naturellement,
01:15et donc chaque outil remplissant au fond sa fonction,
01:22et alors on peut très facilement mesurer les avantages et les inconvénients outil par outil.
01:27Je pense qu'il faut une vision beaucoup plus globale
01:29et considérer effectivement ces technologies comme des technologies de l'esprit,
01:36par quoi je ne veux pas dire seulement que ce sont des technologies qui, au fond,
01:40remplissent des fonctions cognitives,
01:43vous voyez, celles qu'on attribue normalement à l'esprit,
01:47mais que justement c'est beaucoup plus large,
01:48c'est-à-dire que le numérique,
01:52les technologies numériques instaurent une nouvelle relation au monde,
01:56c'est-à-dire que c'est une façon de se rapporter au monde.
01:59Il se trouve en effet que les technologies numériques sont de plus en plus un médiateur,
02:06une médiation obligée au monde,
02:08c'est-à-dire qu'on doit passer par le numérique pour accomplir la moindre de nos actions.
02:13Et par conséquent, c'est véritablement notre accès au monde qui est en jeu,
02:19ce qu'aucune technologie n'avait ni la possibilité,
02:23ni même la prétention de faire jusqu'à aujourd'hui.
02:26Mais aujourd'hui, elle s'interpose, le numérique s'interpose entre nous et le monde
02:32et développe ainsi ce que j'appellerais un méta-réflexe,
02:37qui est au fond le réflexe général de s'en remettre aux machines,
02:42à une machine, dès qu'on a un problème.
02:45On voit ça, par exemple, aujourd'hui, très clairement chez les enfants,
02:49qui, dès qu'il y a un problème, une question s'adresse,
02:53soit à un chat GPT, soit à un moteur de recherche, etc.
02:55donc s'adresse directement à la machine.
02:58Et je crois que d'une manière beaucoup plus...
03:01C'est un réflexe qui se développe de manière beaucoup plus générale.
03:05Et c'est en cela, si vous voulez, que je considère que c'est une technologie de l'esprit
03:09dans ce nouveau rapport au monde qu'il instaure
03:11et qu'il représente une certaine forme de danger, quand même,
03:16duquel il faut se protéger et dont on ne mesure pas toujours les enjeux.
03:21Oui, alors c'est vrai qu'aujourd'hui, pour tout, vous l'avez dit,
03:24pour tout, on doit d'abord obéir aux machines,
03:27obéir aux interfaces qui nous sont imposées
03:30par des grandes plateformes, par des géants du numérique.
03:33Alors vous nous dites que quand on doit combattre un ennemi,
03:36voilà, il faut connaître ses intentions
03:38et que le problème, c'est que les buts de la guerre
03:41menés par ces géants du numérique ne sont pas forcément très clairs.
03:44pour autant, vous êtes convaincu que cette conquête de l'esprit,
03:48c'est vraiment la mère des batailles.
03:50C'est comme ça que vous le définissez
03:52et qu'aujourd'hui, vous dites, en fait,
03:54l'Union européenne, avec ses réglementations,
03:57elle se trompe, finalement, en essayant de protéger l'individu
04:01plutôt que l'esprit. Expliquez-nous.
04:04Oui, c'est exactement cela.
04:06C'est-à-dire que la mère des batailles,
04:08c'est cette colonisation de l'esprit.
04:11Je pense que c'est ça le but ultime visé.
04:13Pour la raison simple,
04:15que quel que soit le but qu'envisagent les géants du numérique,
04:19ce que j'appelle les tech titans,
04:22et ces buts, on ne les connaît pas forcément,
04:24et peut-être qu'eux-mêmes ne les connaissent pas vraiment,
04:26et peut-être que ces buts, au fond,
04:27émergent de technologie en technologie,
04:30avec, par exemple, maintenant, l'intelligence générative,
04:35et bien, au fond, peut-être de nouveaux buts sont nés.
04:38Peu importe.
04:39Quel que soit le but que ces géants poursuivent,
04:42il devra passer par la colonisation de l'esprit.
04:45C'est-à-dire que le but ultime,
04:47c'est qu'au fond, nous soyons obligés d'être connectés
04:50à ces machines en permanence,
04:52que nous soyons obligés de passer par ces machines.
04:54C'est ça que j'appelle la colonisation de l'esprit,
04:56et elle a de grandes influences,
04:58de grandes conséquences,
04:59des conséquences de longue portée sur l'esprit lui-même.
05:03Et donc, première tâche, identifier ce champ de bataille,
05:06dire que c'est ça qui est en jeu.
05:08Et non pas seulement, justement, les droits,
05:13les droits individuels.
05:14Les droits individuels, c'est l'aspect sous lequel,
05:17généralement, on traite les problèmes éthiques,
05:21que ce soit au niveau national, international,
05:23ou en entreprise, avec les chartes éthiques, etc.
05:26Il s'agit toujours de défendre les droits et libertés,
05:29de protéger le respect de la vie privée,
05:31de protéger les données, etc.
05:33Ce qui est très bien, ce qu'il faut faire.
05:36Les droits individuels sont attaqués de toutes parts,
05:40c'est évident, donc il faut les défendre.
05:42Mais ce que je dis, c'est qu'au fond,
05:44ce combat-là n'est pas à la hauteur de l'enjeu global,
05:49qui est celui vraiment de l'esprit.
05:51Par conséquent, toutes les mesures que prend l'Europe,
05:55par exemple, qui est immensément productrices
05:59de textes normatifs sur le numérique.
06:02Il y avait le RGPD, mais il y a le DSA, le DMA,
06:05le DGA, l'IAAC, etc.
06:08Il y en a énormément.
06:11Donc, tous ces textes, au fond,
06:15ne protègent les individus qu'en tant qu'ils sont
06:18utilisateurs du numérique.
06:20Et ils ne le protègent pas,
06:22ce n'est pas du tout leur but,
06:23de le protéger du numérique lui-même.
06:26Or, si l'on considère que c'est l'esprit,
06:30en quelque sorte, qui est assiégé par le numérique,
06:33c'est l'esprit qu'il faut protéger.
06:35Et on ne peut pas protéger l'esprit au sens où je l'entends,
06:39c'est-à-dire comme relation au monde,
06:41comme l'organe, au fond, de notre relation au monde.
06:44On ne peut pas protéger l'esprit avec des droits individuels,
06:46tout simplement parce qu'on pourrait imaginer
06:49un monde entièrement numérisé
06:52qui respecterait parfaitement les droits individuels.
06:56Et d'ailleurs, ce que je dis là n'est pas une fiction,
06:58puisque, en fait, c'est vraiment l'horizon
07:02que propose l'Union européenne.
07:04L'Union européenne a ce grand projet pour 2050
07:08de digitaliser l'ensemble de notre vie sociale.
07:12Il y a un vaste projet d'économie digitale
07:15dans l'Union européenne.
07:18Et l'Union européenne, en même temps,
07:19est très attentive, évidemment,
07:21à respecter les droits individuels.
07:23Donc, c'est l'horizon que nous propose l'Union européenne.
07:28Or, j'affirme même qu'on ne protégera pas l'esprit
07:34en ajoutant, par exemple, un droit individuel
07:38pour la raison que je viens de dire,
07:39c'est-à-dire qu'on peut imaginer un monde entièrement numérisé
07:42et parfaitement respectueux des droits individuels.
07:46Et donc, il faut changer de cadre normatif.
07:51Et c'est ma proposition de proposer,
07:55de déclarer l'esprit humain, patrimoine commun de l'humanité,
08:00comme on l'a fait pour les fonds marins,
08:02avec une autorité dédiée, comme elle existe pour les fonds marins,
08:05on en a beaucoup parlé récemment,
08:08y compris avec une déclaration universelle
08:12des droits de l'esprit,
08:14qui serait, au fond, très différent,
08:16dans son esprit, si je puis dire,
08:18de la déclaration des droits de l'homme,
08:20qui est, elle, strictement axée sur les droits individuels.
08:23Alors, effectivement, je l'ai cité dans ma présentation,
08:27en introduction de l'émission,
08:29vous avez publié une proposition de déclaration universelle
08:31des droits de l'esprit humain,
08:32parue aux presses universitaires de France en 2024.
08:35Mais à quoi ressemblerait, finalement,
08:38un crime contre l'esprit ?
08:40C'est une très bonne question.
08:45Vous voyez, là où le crime contre l'esprit commence,
08:50c'est quand on fait de chaque utilisateur,
08:53de chaque personne, de chaque individu,
08:55ce que j'appelle un opérateur cybernétique.
08:58C'est-à-dire qu'en fait, on ne s'adresse à nous,
09:01en tant qu'utilisateur,
09:03que comme un opérateur qui doit, au fond,
09:07gérer des inputs, traiter l'information
09:09par notre comportement, par notre cerveau,
09:13et produire un output qui soit adéquat au système,
09:17qui soit conforme au système.
09:18C'est ce que j'appelle le devenir cybernétique de l'esprit.
09:22J'en prends juste un exemple,
09:24si vous voulez, avec la généralisation des QR codes,
09:28à laquelle on assiste dans notre société.
09:30On sait qu'on utilise de plus en plus les QR codes.
09:32Or, les QR codes présentent cette particularité
09:35qu'ils ne sont pas déchiffrables par l'esprit humain.
09:38Ce n'est pas comme un signe,
09:39ce n'est pas comme un pictogramme.
09:41Ce n'est pas déchiffré.
09:42Il faut donc une machine pour le déchiffrer.
09:47Et en fait, quand on nous demande de présenter un QR code
09:52pour, par exemple, ouvrir une porte,
09:54ce que nous faisons, nous,
09:55c'est mettre en relation deux machines.
09:58Donc, nous sommes réduits, au fond,
10:00notre comportement est réduit à la mise en relation
10:02de deux machines que, par ailleurs, nous ne comprenons pas.
10:06Donc, voilà ce que j'appelle,
10:07c'est un exemple particulièrement caricatural,
10:09mais on voit bien qu'il se généralise,
10:11de devenir cybernétique de l'esprit.
10:14C'est-à-dire, au fond, notre rôle se résumera,
10:16au fond, à faire fonctionner des machines.
10:19C'est ce type de comportement qui se généralise,
10:25qui menace, à mes yeux, véritablement l'esprit.
10:30Et donc, c'est pourquoi une telle...
10:34si vous voulez, le cadre normatif que je propose
10:37ne peut considérer le numérique
10:39et les technologies numériques et de l'intelligence artificielle,
10:41ce que j'appelle le numérique plus,
10:43c'est-à-dire le numérique augmenté de l'intelligence artificielle,
10:46il ne peut le considérer que globalement.
10:48On ne peut le considérer que globalement,
10:51parce qu'il n'y a aucun appareil,
10:52si vous voulez, il n'y a aucun outil
10:53qui, à lui tout seul, est une menace pour l'esprit.
10:56Ce qui est une menace pour l'esprit,
10:58c'est la généralisation de ses comportements,
11:01cette espèce de méta-réflexe qui se développe,
11:04dont je parlais tout à l'heure,
11:05c'est-à-dire de sans cesse s'adresser à les machines,
11:07d'être nous-mêmes juste un opérateur de ces machines,
11:11voire de ne faire que mettre en rapport des machines.
11:15C'est donc cette généralisation du numérique
11:18comme intermédiaire obligé au monde
11:20qui représente une véritable menace pour l'esprit.
11:25Et je pense que cette menace,
11:26elle est extrêmement sérieuse.
11:28Elle est extrêmement sérieuse.
11:30Et donc c'est pourquoi il faudrait, en fait,
11:31aussi une autorité dédiée,
11:32comme on l'a pour les fonds marins,
11:34l'AIFM, l'Autorité internationale pour les fonds marins,
11:36qui, au fond, débattrait,
11:38rendrait problématique,
11:41réflexibiliserait, si vous voulez, si je puis dire,
11:44donc il ne s'agit pas simplement d'interdire,
11:46mais de réfléchir à l'usage de ces outils numériques.
11:51Par exemple, je prends un exemple,
11:53Chagipiti, par exemple,
11:54dont l'usage se généralise,
11:57qui est une technologie absolument extraordinaire.
11:58Moi, je suis fasciné tous les jours.
12:00Et donc, vraiment, il faut l'admirer.
12:02Moi, je trouve qu'on ne l'admire pas assez.
12:03On n'explique pas assez,
12:04notamment aux jeunes, comment ça marche, etc.
12:06Ça a l'air naturel.
12:07Là, on pose une question, il répond.
12:08C'est quelque chose de tout à fait extraordinaire.
12:10Mais, donc, je n'ai aucun problème avec cette technologie.
12:13Néanmoins, je trouve tout à fait scandaleux,
12:15alors, véritablement,
12:16que Chagipiti,
12:18dont on savait pertinemment
12:21qu'il allait avoir d'immenses répercussions
12:23sur la société, sur les comportements,
12:24sur les individus, sur les professions,
12:26que Chagipiti ait pu être mis sur le marché
12:29par une simple décision de marché, justement.
12:32Vous voyez, c'est une chose, par exemple,
12:33qu'on ne fait jamais pour les produits pharmaceutiques.
12:36Les produits pharmaceutiques,
12:38une nouvelle molécule, un vaccin, etc.,
12:40doit passer par des tests,
12:41tout simplement parce qu'on sait bien
12:42qu'une molécule sauvage, si vous voulez,
12:45fait du mal au corps.
12:47Eh bien, pour l'esprit, tout le monde s'en fout.
12:49Et c'est un problème.
12:50Et c'est un problème.
12:51Je suis d'accord avec vous.
12:52J'avais fait le parallèle, d'ailleurs, avec la voiture.
12:54On ne va pas laisser une voiture autonome
12:55circuler dans les rues
12:56et faire ses tests sans précaution.
12:58Donc, vous dites,
12:59ces entreprises de l'intelligence artificielle,
13:00elles sont allées vraiment trop vite
13:02parce que vous voyez l'IA comme quelque chose
13:05qui est capable de vraiment menacer notre esprit.
13:09Le problème, c'est que c'est le marché
13:11qui dicte, en fait, le rythme ici
13:13de ces innovations technologiques.
13:16Et il n'y a aucune raison
13:17de laisser libre cours au marché.
13:19Il n'y en a aucune.
13:20Exactement comme on ne le fait pas
13:22pour les entreprises pharmaceutiques,
13:24si vous voulez.
13:25C'est exactement la même chose
13:26pour l'esprit,
13:28pour ce que j'appelle l'esprit.
13:29Encore faut-il prendre conscience du danger.
13:33C'est pourquoi je dis qu'il est très important,
13:36et c'est ce que je développe,
13:37notamment dans l'article
13:38que vous avez eu la gentillesse de citer,
13:40d'identifier le champ de bataille,
13:42le véritable champ de bataille
13:43sur lequel il faut, si vous voulez,
13:46se confronter au numérique.
13:49Ce champ de bataille,
13:50c'est le champ de l'esprit.
13:51C'est lui qui est menacé.
13:53Vous voyez, si, dans un horizon
13:56de quelques années,
13:58on en est réduit vraiment
13:59à juste obéir à des machines,
14:02à les faire entrer en contact
14:03les unes avec les autres, etc.,
14:05vous voyez bien que c'est une menace
14:07pour l'esprit.
14:08J'aimerais signaler quand même
14:09une étude...
14:10Mais est-ce que l'esprit
14:11ne sera pas plus fort ?
14:12Est-ce que l'esprit
14:13ne peut pas l'emporter, justement,
14:15sur ce que l'IA voudrait faire
14:16de l'esprit humain demain ?
14:19Alors, ça pourrait être le cas.
14:22Il y a toute une tendance,
14:24si vous voulez,
14:24qui pense à une IA des lumières.
14:26C'est-à-dire qu'au fond,
14:27on pourrait utiliser l'IA
14:29dans le sens d'une intelligence accrue,
14:31différenciée, etc., etc.
14:34Je n'y crois pas une seconde,
14:35tout simplement parce que
14:36ce n'est absolument pas comme ça
14:38que le numérique s'impose aux gens,
14:40d'une manière générale,
14:41aux utilisateurs.
14:42le numérique,
14:45pour le dire très vite,
14:46si vous voulez,
14:47le numérique s'est imposé à nous
14:49tout simplement
14:50parce qu'il permet
14:51de réduire les coûts.
14:52Il y a une force économique
14:54absolument incroyable
14:55dans le numérique.
14:57Cette force numérique,
14:58c'est précisément que...
15:00cette force économique du numérique,
15:02c'est précisément que
15:03le numérique a permis
15:05de modifier complètement
15:07la structure des coûts,
15:09notamment de la production,
15:11en réduisant les...
15:15en rendant les taux marginaux
15:17de production quasiment nuls,
15:19en rendant les coûts de transaction
15:22quasiment nuls,
15:24et en créant comme ça aussi
15:26les effets de réseau
15:29qui sont une espèce
15:29d'économie d'échelle
15:31du côté de la demande
15:32et non plus du côté de l'offre.
15:33Bref, tout ça
15:33est un véritable tsunami
15:36et c'est comme ça
15:37que ça s'impose
15:37et c'est à cause de ça,
15:39comme ça et à cause de ça
15:40que ça s'impose
15:41aux utilisateurs.
15:42Donc, parler d'une IA
15:43des Lumières,
15:44parler d'une IA
15:45qui libérerait
15:46notre intelligence
15:47est une profonde illusion
15:49à laquelle je ne crois
15:51pas une seconde,
15:52raison pour laquelle
15:52il faut ce nouveau cadre normatif.
15:54J'aimerais quand même signaler...
15:55Oui, juste pour terminer,
15:56juste pour terminer,
15:57très rapidement.
15:58Oui.
15:59Oui, parce qu'en fait
16:01on parle beaucoup
16:02des problèmes
16:03de santé mentale.
16:05Oui.
16:06Ça va être la porte d'entrée
16:08en fait
16:08pour une véritable réflexion
16:10sur l'esprit.
16:10Une étude toute récente
16:11d'il y a quelques jours
16:12du MIT
16:13que j'ai ici
16:14sous les yeux
16:14révèle que
16:17l'utilisation
16:17de Tchagipiti
16:18et c'est le titre
16:19de l'étude
16:20réduit significativement
16:22l'activité cérébrale.
16:23Ils ont mesuré cela
16:24puisqu'il faut mesurer
16:25tout cela scientifiquement.
16:27L'étude est absolument
16:28fascinante
16:30et la conclusion
16:32est absolument
16:33indiscutable
16:36et massive.
16:37N'est-ce pas ?
16:38Ça modifie complètement
16:39notre activité cérébrale
16:40mais surtout
16:40ça l'a réduit.
16:42Merci beaucoup.
16:43Donc nous sommes en danger.
16:44Nous sommes en danger.
16:44Merci beaucoup
16:46Marcouni a dit.
16:47Merci d'avoir accordé
16:48cet entretien à Spartac.
16:49Je rappelle que vous êtes
16:50professeur de philosophie morale
16:51et politique
16:52à l'Université catholique
16:53de Louvain.
16:54Merci d'avoir regardé cette vidéo !
16:59Merci d'avoir regardé cette vidéo !
Recommandations
5:58
|
À suivre
16:41
0:37
57:58
19:17
12:16
28:57
4:48
25:19