Passer au playerPasser au contenu principal
  • il y a 10 heures
Éric Salobir, prêtre de l'ordre des Dominicains et président de Human Technology Foundation, était l'invité de François Sorel dans Tech & Co, la quotidienne, ce jeudi 12 février. Il s'est penché sur l'intelligence artificielle, "nouveau meilleur ami de l'homme", sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.

Catégorie

📺
TV
Transcription
00:01Tech & Co, la quotidienne, l'invité.
00:05Voilà, pour terminer cette première émission depuis Cannes, ce premier Tech & Co, la quotidienne,
00:10j'accueille Eric Salobir. Bonsoir Eric.
00:13Bonsoir.
00:14Alors, vous êtes le président de Human Technology Foundation.
00:19Vous suivez évidemment l'évolution de l'intelligence artificielle
00:24et vous allez nous expliquer votre point de vue,
00:28comment intégrer l'intelligence artificielle avec les humains, finalement.
00:33Mais ce qui est intéressant, c'est que vous êtes prêtre de l'ordre des Dominicains.
00:38Et j'aimerais déjà que vous vous présentiez à tous ceux qui nous regardent et qui nous écoutent.
00:42C'est rare d'avoir un prêtre dans Tech & Co.
00:45Et après, expliquez votre cheminement pour expliquer l'IA.
00:50Alors effectivement, mon night job, c'est d'être prêtre.
00:53Mon day job, c'est de diriger une fondation qui travaille sur l'éthique et la gouvernance de l'IA.
00:57Les deux sont quand même un peu liés au sens où, au cœur des préoccupations, il y a l'humain.
01:02L'humain dans sa vie, l'humain dans la façon dont il utilise les technologies.
01:06Et en fait, je suis arrivé à ça.
01:07Au départ, je m'occupais beaucoup de technologies numériques, de réseaux, de communication.
01:12Vous avez été entrepreneur d'ailleurs aussi.
01:13J'ai été entrepreneur.
01:14En fait, on a créé différents projets.
01:17Et puis, petit à petit, on m'a demandé de plus en plus de travailler sur des questions éthiques, de
01:21gouvernance.
01:21Des entreprises sont venues nous voir, des administrations sont venues nous voir.
01:25Et à un moment, on s'est dit, il faut qu'on monte une fondation, qu'on fasse se parler
01:28de tous ces gens.
01:29Parce que finalement, ce qui manque, c'est surtout au niveau international, le bon dialogue avec les bonnes personnes.
01:34Alors, vous représenterez l'Église catholique.
01:37Est-ce que le fait que vous soyez prêtre modifie votre vision de la relation entre l'intelligence artificielle et
01:45les humains, à votre avis ?
01:46Moi, je ne représente pas toute l'Église catholique.
01:48Je représente moi-même.
01:49Mais ce que je peux dire, c'est qu'effectivement, je suis attentif à ce qu'on ne parle pas
01:53seulement des utilisateurs.
01:55Parce que tout le monde a les yeux fixés sur le client, l'utilisateur, combien on en a, comment il
01:59fonctionne.
02:00Moi, ce qui m'intéresse, c'est d'aller un cran en dessous au niveau du operating system de l
02:05'humain et essayer de comprendre vraiment les fondements anthropologiques.
02:09Pourquoi est-ce qu'on fonctionne comme ça ?
02:11Pourquoi est-ce que l'humain, par exemple, anthropomorphise la machine et lui parle ?
02:15Pourquoi des jeunes font un dating, c'est-à-dire en gros, sortent avec une app, alors que par définition,
02:20ils savent bien que c'est une machine ?
02:22Tout ça, c'est ça qui m'intéresse.
02:23Et c'est un sujet passionnant, en effet.
02:25On voit qu'il y a de plus en plus de relations étonnantes avec les LLM, les assistants vocaux et
02:33les intelligences artificielles.
02:36On se souvient, l'année dernière, Sam Atman, en plein été, change le ton et l'empathie de ChatGPT.
02:45Et il a reçu des milliers de mails et de messages, en fait, d'utilisateurs qui disaient « Mais c
02:50'est pas la mamilla, j'ai l'impression de discuter avec quelqu'un d'autre, c'est plus mon ami
02:54».
02:54C'est inquiétant d'avoir ce type de réflexion ou pas, à votre avis ?
02:59En fait, ce que je dirais en premier, c'est que c'est humain.
03:02C'est-à-dire, en fait, je pense que quand vous étiez petit, vous avez parlé à votre ours en
03:05peluche.
03:06L'humain cherche toujours quelqu'un à qui parler.
03:08Oui, mais bon, quand on est adulte et qu'on parle à son ours en peluche, c'est plus problématique
03:12quand même.
03:12Quand on est enfant, ça va.
03:13C'est vrai, mais l'ours en peluche, il ne vous répond pas.
03:15L'IA, elle vous répond et en plus, elle vous répond des choses plutôt intelligentes.
03:18Et en plus de ça, elle est utile.
03:20Donc à un moment, effectivement, il y a cette tentation de se trouver un peu embarqué dans une relation,
03:25quelque part de considérer l'IA plus comme un interlocuteur que comme un outil.
03:29Pour moi, c'est quelque chose qui est à mi-chemin entre les deux.
03:32Mais ce mi-chemin, on ne l'a pas encore pensé.
03:34On ne l'a pas encore imaginé.
03:36Est-ce que finalement, nos sentiments ne sont pas...
03:39Il n'y a pas un leurre avec l'IA ?
03:41C'est-à-dire qu'on a l'impression de discuter avec un humain, donc on s'attache.
03:46Mais parce que c'est ce que l'IA veut, finalement.
03:49Parce que derrière, il y a des considérations commerciales, il y a de la fidélité.
03:53Parce que si Tchadji Pity est gentil avec nous,
03:55j'irais peut-être plus souvent poser mes questions sur Tchadji Pity que sur Jimmy Naï ou sur le chat,
04:00etc.
04:01Vous voyez, est-ce qu'on n'est pas berné par tout ça ?
04:03En fait, ce n'est pas ce que l'IA veut, parce que l'IA, elle, elle ne veut rien.
04:06Et ce que veulent les concepteurs de l'IA, c'est qu'on l'utilise.
04:09Bien sûr, évidemment.
04:09Et on se rend compte qu'effectivement, l'utilisateur est souvent dérangé.
04:13On dit tout ce qu'on aimerait, une IA qui nous challenge.
04:15Une IA qui nous met au défi.
04:17Une IA qui nous dit, mais pourquoi tu me poses cette question ?
04:19Mais est-ce que tu es vraiment sûr de toi ?
04:20En fait, on se rend compte que les utilisateurs n'aimaient pas tellement discuter avec une telle IA.
04:24Ce qu'ils aiment, c'est quand même un peu qu'on aille dans leur sens.
04:28Et je pense que l'humain, et ça c'est un autre trait de caractère, l'humain évite le conflit.
04:32Et même avec votre meilleur ami, avec votre conjoint, vos enfants, vous pouvez avoir des moments de tension.
04:37Avec l'IA, vous ne l'aurez jamais.
04:38Et c'est ça qui fait qu'un certain nombre de jeunes, par exemple, vont se confier à une IA
04:42parce qu'ils considèrent, sur des choses très intimes, des peines de cœur ou autre,
04:46qu'ils ne sont pas jugés et que quelque part, il n'y a pas de réciprocité.
04:50C'est-à-dire, quelque part, ils demandent à l'IA, mais l'IA, elle, ne leur demandera jamais rien.
04:53Mais est-ce que ce n'est pas dangereux, justement, de voir de plus en plus d'adolescents
04:57qui s'attachent à leur IA, qui parfois même se renferment sur eux-mêmes
05:01et ne discutent même plus avec les humains ?
05:03Parce que les humains, eux, n'ont pas ces filtres-là.
05:06Alors effectivement, il y a une asymétrie au sens où l'IA, elle, ne veut rien,
05:11l'IA ne s'attache pas, alors que vous, vous voulez et vous vous attachez.
05:14Donc effectivement, ça peut présenter un danger.
05:16Il y a des formes de dépendance, il y a un espèce de déclin cognitif.
05:19Elle peut faire même semblant de s'attacher.
05:21On le voit qu'il y a des IA qui...
05:22Elle fait semblant, mais elle est programmée pour ça.
05:24Oui, voilà, c'est ça.
05:25Et justement, tout le danger, c'est peut-être de, quelque part,
05:29de se laisser entraîner dans cette voie-là.
05:31Mais cette voie-là, pour moi, elle n'est pas immuable, elle n'est pas obligatoire.
05:36En fait, on peut tout à fait programmer les IA différemment.
05:38On peut décider de les utiliser différemment.
05:40Et surtout, on peut former, dès le plus jeune âge,
05:43les jeunes à une utilisation particulière de l'IA.
05:47Ce n'est pas trop tard, à votre avis ?
05:49Je ne pense pas que ce soit trop tard.
05:50En fait, c'est une technologie qui est encore très jeune.
05:52Les modèles changent tous les trois mois.
05:54Les business models ne sont pas encore complètement trouvés.
05:56Quand vous voyez qu'un Français sur deux utilise aujourd'hui une IA au quotidien pour échanger, voilà.
06:02Oui, mais quand vous regardez, il y a un an, il y avait eu une étude qui disait
06:06que les jeunes utilisaient massivement l'IA pour, comment dire, se confier sur leur vie personnelle, etc.
06:12Cette année, la même étude, Harvard Business Review, a complètement revu ses chiffres
06:16en disant qu'on s'était un peu trompé sur la méthodologie.
06:18En fait, ils sont très attentifs à la pensée critique, ils sont très attentifs à l'apprentissage social,
06:25ils sont très attentifs à éviter le déclin cognitif.
06:28Donc, en fait, on voit que d'un côté, les jeunes se laissent entraîner
06:32et en même temps, ils ne sont peut-être pas si dupes qu'on croit.
06:35Mais alors, que faut-il faire ?
06:37Est-ce qu'il faut aller voir ces géants américains qui pilotent ces IA en leur donnant des garde-fous
06:42?
06:42Ou est-ce qu'il faut, finalement, sensibiliser les humains à garder ce recul nécessaire par rapport à l'IA
06:51et ne pas tomber dans les excès qu'on peut voir parfois, à votre avis ?
06:57Je pense que non seulement il faut faire les deux, c'est-à-dire beaucoup sensibiliser, former et dialoguer
07:01avec les grands patrons de la tech, mais il faut peut-être aussi développer nos propres modèles d'IA
07:06qui vont correspondre à nos propres valeurs, à nos propres usages.
07:10L'Union européenne est quand même un peu en retard sur ce sujet-là.
07:13On voit qu'on a quand même quelques champions.
07:15Peut-être qu'il faut qu'on les booste.
07:16Peut-être qu'il faut qu'on ait des IA différentes qui vont induire une utilisation différente.
07:21Mais ces IA différentes, quels intérêts, quels intérêts, quels intérêts, elles auraient à exister, en fait ?
07:27Est-ce qu'il y a un business derrière tout ça ?
07:28Parce qu'on est d'accord que derrière tout ça, il faut qu'il y ait un business.
07:32Alors moi, je pense qu'il y a un business parce qu'on voit qu'un certain nombre d'entreprises
07:35européennes
07:35ont du mal à trouver un modèle d'IA qui leur convient vraiment.
07:39Ils font beaucoup de fine tuning, ils retouchent,
07:41mais ils ont l'impression quelque part qu'il y a quelque chose à la base qui n'est pas
07:45eux,
07:45qui ne correspond pas à l'identité de l'entreprise.
07:47Si on a des entreprises qui sont peut-être plus proches de leurs clients,
07:50plus proches de leur marché et qui développent des choses plus spécifiques,
07:54là, on peut avoir un business model.
07:55Et à partir du moment où ces entreprises-là génèrent du revenu en B2B,
08:00elles peuvent aussi offrir ces services-là plus largement au grand public.
08:04Petite question sur, parce que vous êtes prêtre, rappelons-le aussi,
08:08est-ce qu'au quotidien, ça change votre job, l'IA, en tant que prêtre ?
08:13Alors, en tant que prêtre, pas encore, parce que les gens ne se confessent pas à une IA,
08:16les gens ne vont pas à la messe par IA.
08:18Ça peut être un danger, ça, ou pas ?
08:20Moi, je ne le vois pas comme un danger immédiat.
08:22Ce que je verrais comme danger, c'est si un certain nombre de gens commencent à proposer des services de
08:28ce style-là,
08:29du style, je ne sais pas, accompagnement spirituel par IA.
08:31Oui, mais est-ce que demain, on ne pourrait pas se confesser une IA, finalement ?
08:34Le gros problème, c'est que pourquoi est-ce que les gens vont se confesser ?
08:37Ce n'est pas tellement pour le plaisir de raconter tout ce qu'ils ont fait qui n'est pas
08:40bien,
08:40ça ne fait pas très plaisir, c'est pour se sentir pardonné.
08:43Pour se sentir pardonné, il faut se sentir pardonné par un humain qui dit « je te vois et je
08:47te pardonne ».
08:48Quand une machine fait ça et que vous recevez le ticket en disant « c'est bon, vous êtes pardonné
08:52»,
08:53au fond, quelque part, vos mauvaises actions, vos problèmes, etc.,
08:57ils vont continuer à tourner en boucle au fond de vous.
09:00Mais vous n'oubliez pas l'anthropomorphisme, ce que vous évoquiez tout à l'heure.
09:03Finalement, est-ce qu'on ne va pas, parce que l'IA est empathique,
09:06parce qu'elle sait arrondir les angles, nous faire croire qu'on va être pardonné,
09:11alors que finalement, comme vous le dites, c'est les dirigeants de cette IA qui vont le vouloir ?
09:16C'est une question intéressante, mais ce que je pense,
09:18c'est que l'anthropomorphisme, il va jusqu'à un certain point,
09:21et à un moment, c'est quand même vraiment le contact, mais même le contact présentiel.
09:25On ne peut pas se confesser par téléphone, par exemple.
09:28Pourquoi ? C'est parce qu'il ne suffit pas juste d'avoir un humain au bout du fil,
09:31il faut qu'il y ait une rencontre.
09:33Et la rencontre, elle passe par une forme d'incarnation.
09:35Vous et moi, on est face à face, en plateau, et là, il y a une conversation.
09:40Et je pense que c'est ça aussi qui est nécessaire.
09:42Et là, pour que l'IA arrive à ça, pour le moment, on est encore très très loin.
09:46Merci beaucoup d'être passé par le plateau de Tech & Co.
09:49Eric Salobierre, très intéressant de vous écouter.
09:51Merci à vous.
09:52Et alors, dernière petite question.
09:54Vous êtes ici à Cannes pour ce grand salon dédié à l'intelligence artificielle.
09:58Vous recherchez quoi ici ?
10:00Alors d'abord, je viens intervenir tout à l'heure sur scène,
10:03en parlant justement de la relation entre l'humain et la machine qui parle.
10:06Et puis, je viens à la recherche de nouveaux interlocuteurs,
10:09de nouvelles idées, de nouvelles ressources.
10:11Je pense qu'en fait, ce monde évolue très vite
10:13et qu'il faut rester constamment à l'écoute
10:15et jamais rester ancré sur ces certitudes
10:17qui, au bout de trois mois, sont vite périmées.
10:19Voilà, et ne pas oublier que l'humanité doit rester au centre de tout ça.
10:22Exactement.
10:23Merci beaucoup.
10:24Merci à vous.
10:24Rappelons que vous êtes le président de Human Technology Foundation
10:26et prêtre de l'ordre des Dominicains.
10:28Merci.
10:29Merci.
10:30Merci.
Commentaires

Recommandations