- il y a 22 minutes
Mardi 17 mars 2026, retrouvez Nadia Guerouaou (Docteure en neurosciences et psychologue clinicienne), Sébastien Broca (Professeur en sciences de l’information et de la communication à l’Université Paris 8) et Hugo Delattre (fondateur, Get in Touch) dans SMART TECH, une émission présentée par Delphine Sabattier.
Catégorie
🗞
NewsTranscription
00:07Bonjour à tous, bienvenue dans Smartech, c'est le jour de deux grands rendez-vous.
00:12Le premier avec les interviews de l'IA, on va parler avec les personnalités qui font l'actualité dans ce
00:18domaine.
00:18Et le deuxième avec le monde du libre et on va s'intéresser en particulier aux agents IA et à
00:24OpenClo plus précisément.
00:26Allez, je vous propose qu'on démarre tout de suite avec les interviews de l'IA.
00:32C'est parti pour les interviews de l'IA avec, autour de la table, des acteurs qui font des choses
00:40dans ce domaine ou en opposition d'ailleurs.
00:42Vous allez voir, cette semaine, autour de la table, nous avons Sébastien Broca, professeur en sciences de l'information et
00:47de la communication à l'Université Paris 8,
00:49co-directeur du laboratoire SEMTI. Bonjour Sébastien.
00:53Bonjour.
00:53Vous êtes le signataire d'un manifeste pour l'enseignement supérieur et l'éducation nationale face à l'IA générative,
01:00l'objection de conscience.
01:02Vous nous direz pourquoi vous estimez que c'est important.
01:06Avec vous, également autour de cette table, Roméo Bancel, bonjour.
01:10Bonjour.
01:10Co-fondateur de Get in Touch.
01:12Vous, vous allez tout nous expliquer sur comment l'IA transforme les stratégies commerciales des entreprises.
01:18Mais on commence avec Nadia. Bonjour Nadia Guérouaou.
01:23Vous êtes docteure en neurosciences, psychologue clinicienne.
01:26Vous êtes enseignante et conférencière en neuroéthique, éthique des systèmes d'IA et philosophie de l'innovation.
01:32Et l'autrice de Notre cerveau sous influence, comment les IA génératives modèlent nos émotions et façonnent nos sociétés.
01:43C'est paru chez Erol. Comment faites-vous le lien entre les émotions et l'intelligence artificielle ?
01:50En effet, je fais le lien et j'essaie de mettre un peu d'attention sur l'influence que les
01:57IA génératives peuvent avoir sur nos émotions.
02:00Parce que contrairement à ce que l'on peut avoir tendance à penser dans la psychologie populaire,
02:07ou ce qu'on appelle la folle psychologie, en fait, les émotions ont un effet sur beaucoup de domaines de
02:13nos existences,
02:14que ce soit dans notre prise de décision, nos raisonnements et même dans nos valeurs.
02:19Ce qu'on va juger être bon, juste, on sent très bien que ce sont des jugements pour lesquels les
02:26émotions ont leur mot à dire.
02:28Et pourtant, en fait, on parle énormément des effets des IA génératives sur notre mémoire ou sur le langage, mais
02:38très peu.
02:38Ou sur l'information, la désinformation.
02:41Exactement. Même si ça, c'est très lié, encore une fois, aux émotions.
02:44Mais on parle très peu, en fait, de leurs effets sur les émotions.
02:49Et en particulier, on parle très peu de la délégation de nos capacités émotionnelles à ces technologies.
02:56Et pourtant...
02:56C'est-à-dire, qu'est-ce qu'on délègue ?
02:58Eh bien, c'est quelque chose qu'on fait déjà.
03:00Si on réfléchit un petit peu à nos pratiques, en fait, quand vous demandez à votre LLM ou voilà...
03:08Notre chatbot.
03:08Votre chatbot préféré, je ne sais pas, chat GPT ou Claude,
03:12de rédiger un mail ou un message pour un interlocuteur dans un ton particulier.
03:18Il y a beaucoup ce genre de demandes, notamment dans les échanges professionnels.
03:22Rédige un mail qui soit empathique.
03:24Rédige un mail qui prenne en considération la sensibilité.
03:28Et de mon interlocuteur, eh bien, ce qu'on fait déjà de la délégation de nos émotions à ces technologies.
03:34Et un peu plus novateurs, des technologies qui sont au seuil de nos sociétés permettent littéralement de paramétrer l'expression
03:43de nos émotions,
03:44celle qu'on peut percevoir dans nos voix.
03:47Par exemple, là, je suis en train de parler.
03:49Il y a peut-être des petites choses qui montrent, qui laissent entendre que peut-être je suis nerveuse.
03:55Donc, ce genre de choses.
03:57On peut désormais les paramétrer en temps réel avec, je pense, notamment une technologie qui est développée au Japon
04:03par un des géants des télécommunications qui s'appelle SoftBank
04:06et qui permet, dans le cadre des call centers, de gommer en temps réel la colère dans la voix des
04:11clients mécontents.
04:12Ah oui !
04:13Donc ça, c'est une technologie qui est au seuil de nos sociétés.
04:15On peut faire la même chose en Europe.
04:17Il y a d'autres startups qui permettent de créer des faux sourires dans la voix des téléopérateurs.
04:22Et tout ça avec cette idée que finalement, les émotions devraient être régulées, managées
04:27pour lisser les interactions, augmenter la productivité.
04:31Ça doit vous intéresser, ça.
04:32Parce que pour augmenter sa stratégie commerciale, j'imagine que ça doit être redoutablement efficace.
04:39Oui, il y a beaucoup d'utilisation en ce moment, en plus d'IA, de génération de voix.
04:42Je pense notamment à Eleven Lab.
04:44Et je savais qu'on pouvait générer des voix avec une tonalité spécifique.
04:48Je ne savais pas que c'était possible de les changer en temps réel.
04:50C'est assez effrayant, d'une certaine manière.
04:52Alors, vous dites aussi, Nadia, que les filtres numériques qu'on utilise sur les réseaux sociaux,
04:57ce n'est pas juste des gadgets, ce n'est pas anodin.
05:00Oui, c'est ça.
05:00En fait, j'essaie, pour qu'on comprenne réellement ce qui se joue quand on fait ces délégations,
05:06quand on paramètre nos émotions ou d'autres capacités, d'ailleurs avec ces IA génératives,
05:13ce qui se passe, ce n'est pas uniquement en délégant, ce n'est pas uniquement une extériorisation.
05:17Souvent, on parle de ce qui se passe uniquement en termes d'extériorisation.
05:23Mais ce qu'on oublie, c'est que quand je fais avec ces technologies,
05:28en réalité, je vais incorporer un peu de ces technologies.
05:31Et ça, il y a plein d'études de psychologie expérimentale, de neurosciences,
05:36qui nous montrent qu'on a des données en faveur de cette lecture des effets des IA génératives.
05:43Si vous voulez, je peux vous donner un exemple, par exemple.
05:45Alors, il faut que tout le monde puisse avoir le temps de participer.
05:50Je voulais qu'on avance un petit peu aussi sur la question des deepfakes,
05:53qui étaient traitées aussi dans votre ouvrage.
05:56Vous dites que quand on mime, par exemple, notre sourire, ça a des conséquences profondes.
06:01Oui, voilà, c'est un exemple.
06:04Alors, quelles conséquences profondes et peut-être préoccupantes vous avez envie de mettre en avant, là ?
06:10La conséquence, c'est qu'en fait, ces expressions artificielles de nous-mêmes,
06:16elles vont orienter la manière dont on se perçoit.
06:20Donc, il y a une expérience qui s'appelle une expérience avec le paradigme de vocal feedback,
06:25qui montre que lorsque l'on transforme en temps réel la voix de participants,
06:30par exemple pour la rendre plus souriante,
06:33et qu'on équipe des participants de cette étude d'un casque et d'un micro.
06:39Donc, ils vont s'entendre en train de parler avec une voix qui est rendue plus souriante
06:42ou qui peut être rendue plus triste.
06:44Eh bien, après cette lecture, avec la voix transformée,
06:48l'évaluation que les gens se font de leur propre état,
06:55est tout à fait en parallèle, en adéquation avec la transformation qui a été opérée.
07:01C'est-à-dire, si je transforme votre voix pour la rendre plus joyeuse,
07:04vous allez vous sentir vous-même plus joyeux.
07:06Ce n'est pas mal pour le traitement,
07:07parce que je sais que vous travaillez sur les transformations de la voix
07:09dans les traitements post-traumatiques.
07:10Oui.
07:11Ça peut être un outil utile.
07:12C'était à la base ce genre de résultats qui m'ont amenée à m'intéresser en tant que thérapeute
07:17à ces technologies.
07:18Mais il faut avoir en tête qu'il peut y avoir des problèmes éthiques
07:24au fait de transformer ainsi à la fois notre expressivité,
07:28mais aussi notre ressenti.
07:29Oui.
07:30Et vous pointez du doigt aussi la normalisation des émotions ?
07:34Oui.
07:34Oui, en fait, dans les usages problématiques,
07:37les conséquences dont il faudrait un petit peu se questionner,
07:41sur lesquelles il faudrait se poser des questions,
07:42il y a ce que j'appelle la domestication de nos affects
07:45et la standardisation des émotions.
07:47Le type de sourire qui sont appliqués sur nos voix,
07:50ce n'est pas n'importe quel type de sourire.
07:51C'est un sourire qui est standardisé,
07:53c'est un sourire qui est encodé sur le modèle de l'esthétique dominante
07:58qui est une esthétique américaine.
08:01Donc, on parle du design, du smile design,
08:04qui est la définition de ce qu'est un beau sourire.
08:06Il y a à la fois sa forme, mais aussi à quel moment le sourire est désirable.
08:10Il n'y a pas toutes les sociétés qui considèrent qu'il faut sourire particulièrement.
08:14Il y a des endroits dans le monde où ce n'est pas du tout quelque chose que l'on
08:19va plébisciter.
08:20Et il faut aussi savoir qu'il y a des populations
08:22pour lesquelles on pourrait avoir une injonction au sourire qui est plus forte.
08:26Je pense par exemple aux femmes.
08:27On sait très bien qu'on demande beaucoup plus aux femmes
08:29de faire attention à ce travail émotionnel.
08:34Bon, Sébastien, ça résonne en vous quand vous entendez ce type de question ?
08:38J'essaie d'être souriant déjà pour essayer de faire pièce à ce biais de genre bien connu.
08:43Oui, alors ça résonne en moi.
08:45C'est très intéressant.
08:48Et en même temps, ce que je voulais apporter,
08:51en lien avec le manifeste des collègues d'Athécopole que vous mentionniez,
08:56c'est peut-être d'essayer de dézoomer un peu sur la question des usages.
08:58Parce que c'est vrai que toutes les discussions autour de l'IA sont souvent concentrées sur les usages
09:02et c'est passionnant, on le voit bien.
09:05Et c'est le cas aussi à l'université,
09:06où en gros, la réponse majoritaire qui est donnée aujourd'hui,
09:10c'est d'essayer d'accompagner ces usages des IA génératifs par les étudiants,
09:14d'essayer de faire le tri entre les usages licites, les usages illicites,
09:18mettre en place des chartes de l'IA, etc.
09:20Bon, pourquoi pas, on pourra revenir là-dessus.
09:22Ce qui est intéressant, c'est quand même de voir aussi
09:24qu'est-ce qui se passe quand on dézoome et qu'on regarde ces systèmes,
09:26comment ils sont produits.
09:27Qui est-ce qui les contrôle et quelles questions ils posent en amont même des usages.
09:33C'est ce que disait Nadia, c'est quand même un modèle occidental
09:36et même américain en fait.
09:38Voilà.
09:38Les questions que je pose, c'est en amont effectivement des usages.
09:40Et là, en amont, alors moi, les questions qui m'intéressent
09:43et qui transparaissent dans le manifeste, c'est par exemple,
09:45qu'est-ce que ça pose comme question au niveau social ?
09:47C'est-à-dire que ces systèmes, ils exploitent du travail.
09:50Ils exploitent le travail des créateurs, des artistes,
09:53dont les contenus sont utilisés pour entraîner les modèles.
09:55Ils exploitent le travail de celles et ceux qu'on appelle parfois les petites mains de l'IA,
09:59à savoir les personnes qui vont préparer, nettoyer les bases de données,
10:04et celles qui vont aussi bêta tester, par exemple, les chatbots,
10:07pour éviter qu'ils ne balancent les contenus sexistes, homophobes, racistes, etc.
10:13Ça, c'est souvent des travailleurs précaires.
10:14C'est du travail externalisé.
10:15C'est par exemple des gens au Kenya, chez des sous-traitants comme Sama.
10:19Il y a toutes ces questions sociales autour du travail, ça, c'est une chose.
10:23Il y a des questions environnementales également, qui sont très importantes,
10:26alors qu'il arrive beaucoup dans le débat public,
10:29parce qu'il faut bien se rendre compte aussi que derrière ces chatbots
10:32que nous utilisons toutes et tous ou presque aujourd'hui,
10:36il y a des infrastructures qui sont physiques et qui sont colossales.
10:41Alors, qui sont colossales en termes de capital investi.
10:43Je voudrais juste, pour rappeler quelques chiffres, dire qu'en 2026,
10:47on estime que quatre acteurs, Google, Meta, Amazon, Microsoft,
10:53vont investir 600 milliards de dollars dans la construction de nouvelles infrastructures,
10:57de centres de données essentiellement,
10:59pour massivement utiliser pour l'IA générative.
11:01C'est considérable en termes de capital,
11:03mais c'est aussi considérable en termes de consommation énergétique,
11:06de consommation de métaux aussi, de consommation d'eau.
11:10Donc ça, c'est des enjeux qui sont très importants
11:12et qu'on perd un peu de vue lorsqu'on est concentré sur les usages.
11:16Et puis, il y a peut-être un dernier point que je voudrais mentionner,
11:19c'est la question politique.
11:20On sait aujourd'hui que les grands chatbots que nous utilisons toutes et tous,
11:24ChatGPT, Cloud, Dentropik,
11:27ce sont des chatbots états-uniens liés à des entreprises de la tech,
11:31mais qui sont en fait toutes très liées au big tech.
11:34On sait que derrière OpenAI, il y a Microsoft.
11:36En France, on cite toujours le contre-exemple Mistral.
11:38Oui, alors Mistral, oui, mais qui est très minoritaire,
11:43qui est utilisé dans les entreprises,
11:45mais dans les usages, par exemple, de mes étudiants et étudiantes,
11:50je ne pense pas qu'il y en ait beaucoup qui utilisent Mistral.
11:54Et par ailleurs, Mistral n'est pas une entreprise entièrement française,
11:57parce qu'elle est financée par les capitaux américains.
12:00Mais bon, en tout cas, si on revient aux acteurs dominants,
12:03pour l'instant, que ce sont par exemple OpenAI,
12:06ce sont des entreprises qui sont très liées au gouvernement américain,
12:10administration Trump.
12:12Ce sont des technologies qui,
12:14et ça c'est explicitement dit par la Maison Blanche aujourd'hui,
12:16ont une vocation de domination économique et militaire.
12:20C'est les deux.
12:21C'est assurer la domination des États-Unis,
12:24l'impérialisme états-unien, pourrait-on dire.
12:26C'est dans le manifeste la techno-oligarchie.
12:29En fait, c'est un manifeste d'enseignants et de chercheurs
12:34qui mettent en avant la volonté d'être un objecteur de conscience
12:41face à l'intelligence artificielle.
12:44C'est une posture très politique, finalement, ce manifeste.
12:48C'est plus politique que ceux qui demandent une pause, un moratoire,
12:53ou d'organiser des débats, des réflexions sur ce sujet.
12:57C'est plus radical, oui.
12:59C'est plus politique et c'est plus radical.
13:01Je tiens aussi à préciser que je ne l'ai pas rédigé,
13:03et je suis pas du coup en lien avec les gens qui l'ont rédigé.
13:06Après, je l'ai signé, d'ailleurs avec quelques petites réticences
13:08sur lesquelles je pourrais revenir peut-être tout à l'heure,
13:10mais je l'ai signé parce que, ce qu'il faut voir aussi,
13:13et pour revenir à la question des universités,
13:15je disais, il y a un lien entre l'administration Trump et ses big tech.
13:19Il faut voir aussi que ce sont des gens qui détestent.
13:21Ça, c'est un de vos sujets de prédilection, d'ailleurs.
13:24C'est un de mes sujets.
13:24Mais si je reviens sur la question de l'université,
13:26ce sont des gens qui détestent l'université.
13:29Par exemple, l'entrepreneur Peter Thiel,
13:31dont il est souvent question en ce moment,
13:33Peter Thiel, depuis 2011, finance des bourses
13:35pour que les gens n'aillent plus à l'université,
13:38pour qu'ils quittent l'université.
13:40G. Day Vance, le vice-président de Donald Trump,
13:43en 2021, à la conférence à Nationaux Conservateurs,
13:46quel était le titre de sa communication ?
13:48« The universities are the enemy ».
13:50D'accord ?
13:51Donc ça, ce sont les gens qui contrôlent les outils
13:55que nous utilisons maintenant à l'université.
13:57C'est des choses que vous enseignez aujourd'hui à l'université.
13:59Est-ce qu'il est possible de continuer à enseigner
14:02sans enseigner, justement, l'histoire des technologies
14:06et sans utiliser l'intelligence artificielle ?
14:08Je vois, Nadia, qui réagit.
14:10Il faut vraiment mettre en avant ce que vous faites.
14:13C'est aussi l'idéologie qui est encodée dans ces systèmes
14:16et qui n'est même plus cachée.
14:18Si on pense à l'EI Action Plan du gouvernement américain,
14:23c'est littéralement explicite que certaines valeurs
14:26sont à privilégier dans les IA génératives
14:29qui sont utilisées par le gouvernement
14:30et d'autres à proscrire totalement,
14:33notamment des valeurs qui sont jugées trop « woke ».
14:35Et ces valeurs, elles ont un effet sur les usagers
14:38et sur les sociétés qui s'emparent de ces technologies.
14:43Ma question, c'était, est-ce que vous, en tant qu'enseignant,
14:46il y a une cohérence à dénoncer cela,
14:49mais sans plus, finalement, le dénoncer ?
14:51Si vous êtes objecteur de conscience,
14:52vous ne travaillez plus avec, vous ne l'utilisez plus ?
14:54Évidemment. Là, vous touchez un point qui, évidemment, est sensible
14:57et qui fait partie des choses qui m'ont interrogée.
15:00Quand je me suis demandé, alors, ce texte, finalement, je le signe ou pas ?
15:03Parce que, évidemment, le contre-argument, si je puis dire,
15:07c'est, en fait, quelque part, c'est déjà trop tard.
15:10Ces usages, ils sont déjà largement installés
15:13chez nos étudiants et étudiantes,
15:15mais aussi chez nous-mêmes, enseignants-chercheurs.
15:19Est-ce qu'on peut véritablement se passer de ces outils ?
15:23C'est compliqué.
15:24Est-ce qu'il ne faut pas aussi accompagner les étudiants et les étudiantes
15:27pour qu'ils les utilisent mieux ou moins mal ?
15:31Ce sont des vraies questions.
15:34Mais pourquoi est-ce que moi, j'ai quand même signé ce manifeste ?
15:37Parce qu'il me semble que ça place quand même dans le débat public
15:41des questions qui sont importantes et que, par ailleurs,
15:43il y a quelque chose qui est quand même très compliqué
15:45dans cette idée qu'on va pouvoir faire discriminer.
15:49Entre autres, il y a des usages qui sont bien, qui sont licites,
15:51même parfois intéressants, pédagogiquement.
15:53Et puis, il y a des usages qui sont mauvais.
15:56En fait, moi, ce distingo, je peux le faire abstraitement.
15:58Je peux dire que si vous utilisez l'IA pour formater votre bibliographie,
16:01ça ne me pose pas de problème.
16:02Pour corriger les fautes d'orthographe, ça ne me pose pas de problème.
16:04Si c'est l'IA qui rédige votre devoir, évidemment, ça me pose un problème.
16:07Donc, abstraitement, on peut tous faire ce distingo-là.
16:10Par contre, quand je me retrouve ensuite devant un devoir d'étudiant,
16:15est-ce que je peux réussir à dire qu'est-ce qui vient de lui ou d'elle ?
16:18Est-ce qu'il a véritablement lu les textes dont il parle ou pas ?
16:20Ça, c'est comment on réinterroge la manière d'enseigner ?
16:23Oui, mais le problème, c'est que ces outils, intrinsèquement,
16:27ils vous poussent.
16:28C'est très compliqué de les utiliser juste pour faire de la correction orthographique.
16:32Vous savez bien comment ça marche.
16:33Quand vous êtes à Saint-Chatbot, vous allez avoir envie de lui demander plus que ça.
16:38Ils sont quand même assez limités aujourd'hui pour produire des bons devoirs.
16:42J'imagine que vous les voyez arriver, non ?
16:45Ça, c'était vrai.
16:45Pour moi, ça, c'était vrai il y a trois ans.
16:47Évidemment, quand Chad Chipiti est arrivé en 2022-2023,
16:50ça produit des textes qui sont insipides.
16:54Maintenant, c'est plus compliqué.
16:55Maintenant, même à des niveaux master,
16:58des gens qui utilisent bien ces outils produisent, à mon avis,
17:00des devoirs qui sont assez convaincants.
17:02De toute façon, on ne va pas avoir le temps.
17:03Parce que ça, c'est une autre question.
17:04C'est comment on enseigne à l'ère de l'IA ?
17:06Puisque de toute façon, les étudiants les utilisent.
17:09Ça, c'est un autre sujet.
17:10Mais je voulais vous faire réagir parce que, Roméo,
17:13vous êtes le vendeur d'IA de la bande, là, aujourd'hui.
17:16Oui, un petit peu, oui.
17:17Comment vous réagissez quand vous entendez ces discours ?
17:21Vous êtes plutôt dans le mode, au contraire,
17:23inciter les entreprises à prendre en main ces technologies
17:25parce que ça va les aider à être plus performantes,
17:28à transformer leur discours commercial.
17:30À être plus efficaces, à mieux les utiliser.
17:33La vision qu'ont beaucoup d'entreprises, malheureusement,
17:36aujourd'hui, avec l'IA, c'est que c'est un moyen de remplacer,
17:38de réduire les équipes.
17:39Il y a plusieurs entreprises de la tech américaine
17:41qui se sont dit qu'on va licencier la moitié des équipes
17:43parce que maintenant, on a l'IA.
17:44Je pense que ça, ce n'est vraiment pas la bonne approche.
17:46Aujourd'hui, il faut plutôt garder la même quantité
17:50de production de contenu,
17:51mais vraiment augmenter la qualité de ce qu'on fait.
17:53Par contre, effectivement, sur les questions que vous posez,
17:56j'imagine que c'est plus au niveau de la data aussi
17:57que les questions se posent.
18:00C'est-à-dire l'exploitation des données ?
18:02Exactement.
18:03Aujourd'hui, une des choses que je mets beaucoup en avant,
18:05c'est que deux personnes qui utilisent la même IA
18:07peuvent avoir des résultats radicalement différents
18:10selon comment elles l'utilisent
18:11et qu'un enjeu très fort pour créer du meilleur contenu,
18:13c'est le contexte.
18:15Donc, par exemple, une des choses qu'on fait pour nos clients,
18:18c'est d'aider des dirigeants
18:19à prendre la parole sur LinkedIn, sur leurs enjeux.
18:22Et si vous demandez aujourd'hui à ChatGPT
18:24d'écrire un poste LinkedIn,
18:25le résultat va souvent être nivelé par le bas
18:28et être très mauvais.
18:29Alors que si vous ajoutez énormément de contexte
18:31sur ce que fait le dirigeant, ce que fait l'entreprise,
18:33par exemple, une interview,
18:35on essaie de faire des interviews de deux heures
18:36avec chaque personne
18:38et de le mettre comme contexte
18:39quand on va l'utiliser les IA,
18:41vous avez des résultats qui sont radicalement meilleurs.
18:43Mais effectivement, ça pose ensuite le problème
18:45de où vont toutes ces données
18:46qu'on fournit à l'IA pour travailler.
18:48On pourrait bien choisir ces modèles.
18:52Mais vous entendez aussi ces inquiétudes
18:55du côté des entreprises,
18:56ces inquiétudes qui sont partagées en plateau ?
18:58Beaucoup moins, honnêtement.
19:00L'inquiétude, c'est comment est-ce qu'on prend le pas
19:01sur les outils, on les utilise correctement,
19:03on devient plus productif, plus efficace,
19:06beaucoup moins de...
19:07La recherche de l'efficacité prime avant tout.
19:09C'est compréhensible pour des entreprises.
19:11Est-ce que vous constatez des résultats ?
19:12Parce qu'en fait, on dit souvent
19:13que les retours sur investissement ne sont pas là.
19:17Les retours sont assez unanimes.
19:20Mais est-ce que vous, vous constatez,
19:22peut-être pas un retour sur investissement économique,
19:25mais un retour sur investissement
19:28sur les stratégies qui sont mises en place
19:30par les entreprises ?
19:32Non, moi, je vois vraiment un retour
19:33sur investissement économique,
19:35sur l'utilisation d'outils.
19:37Dans quel domaine ?
19:38Sur la prospection commerciale.
19:39Les capacités qu'ont les commerciaux maintenant
19:41avec les bons outils.
19:43Il y a cinq ans, un commercial,
19:45il allait envoyer, mettons, 500 mails,
19:46tous les mêmes à 500 personnes.
19:48Aujourd'hui, on peut automatiquement
19:50faire des approches qui sont très personnalisées
19:52à chaque personne qu'on contacte
19:53avec énormément de contexte.
19:54Je vous approche parce que
19:55vous êtes une entreprise de telle taille,
19:57de tel type.
19:58Avoir des informations sur les dernières publications
20:00de l'entreprise.
20:01Et ça, ça augmente drastiquement
20:02les taux de réponse de ces entreprises.
20:04Et donc, le nombre de rendez-vous générez.
20:05Et ensuite, le nombre de...
20:07J'imagine que l'enseignant se dit
20:08mais on n'aurait pas besoin d'une IA.
20:10On peut le faire nous-mêmes, ça,
20:11de mieux renseigner ses mails
20:13et de se renseigner sur les entreprises
20:14qu'on contacte.
20:15Mais juste, ils n'ont pas le temps, en fait.
20:16Oui, c'est ça.
20:17Et même, il y a eu une transition avant l'IA
20:19où on utilisait des outils d'automatisation
20:21avec des variables,
20:23simplement mathématiquement,
20:24de remplacer des...
20:24sans utiliser de l'IA.
20:26Mais maintenant, ce que permet de faire l'IA,
20:27c'est vraiment avoir un contexte gigantesque
20:29et avoir une approche qui est vraiment
20:33unique pour chaque personne
20:33qu'on va aller contacter.
20:34Et est-ce que vous fixez des limites ?
20:35Parce que ça pose la question quand même,
20:36effectivement,
20:37de à quel moment je trompe ou pas
20:39mon interlocuteur sur
20:40est-ce que derrière, c'est une IA
20:42ou est-ce que c'est un humain
20:43à qui je parle ?
20:44À qui je parle, finalement ?
20:46Pour moi, la limite, c'est celle de...
20:48Le travail d'un commercial,
20:49c'est aussi d'avoir un rapport humain
20:50avec la personne,
20:51de comprendre son besoin,
20:52de vraiment interagir avec elle
20:54pour lui apporter la meilleure solution possible.
20:56Dans le cadre de la prospection,
20:58envoyer des mails,
20:58aller chercher des gens,
20:59générer des pubs,
21:00pour moi, l'utilisation est correcte.
21:02Par contre, toute la partie suivante
21:03d'accompagner la personne
21:05et les rendez-vous commerciaux,
21:06je sais qu'il y a des entreprises
21:07qui poussent des commerciaux IA
21:09où vous rentrez dans un rendez-vous
21:10et vous parlez à un robot.
21:11Mais ça, je pense que la limite est là.
21:14OK.
21:14Chacun fixe ses limites là
21:16autour de la table.
21:17En fait, on est vraiment en découverte
21:21des impacts sociétaux
21:24et personnels même
21:25de cette technologie.
21:27En tout cas, la question de la confiance
21:28qu'on m'a posée assez facilement
21:30quand on parle de deepfake mal
21:32je pense qu'il faudrait se la poser aussi
21:34pour des usages
21:34qui sont à la base développés
21:37pour être bienveillants
21:38et augmenter la productivité
21:39parce qu'on a quand même
21:40des petites données
21:41qui montrent que
21:42des effets positifs
21:43de messages qui sont rédigés
21:45pour être avenants
21:47sur certaines interactions
21:49vont être modérés
21:50dès lors que les individus
21:52se rendent compte
21:52qu'en fait,
21:52ça a été généré par une IA.
21:55Donc, ce serait peut-être bien
21:56d'anticiper ce genre
21:57de questions de confiance
21:58si on réfléchit même
21:59en termes de productivité
22:01et de l'usage de ces outils
22:02et de voir dans quelle mesure
22:03on peut rester dans des interactions
22:05qui permettent
22:06cette confiance
22:07et finalement
22:08que ça reste quand même
22:09une utilisation
22:11qui sert.
22:12Merci beaucoup
22:13à tous les trois.
22:14Je ne sais pas
22:15si j'ai réussi
22:15à vous mettre
22:16tous les trois
22:17en harmonie.
22:18En tout cas,
22:18c'était très intéressant
22:19de vous écouter,
22:20Nadia Guirou-Harou.
22:21Je rappelle votre ouvrage
22:23« Notre cerveau sous influence »
22:25paru aux éditions Erol
22:26et je rappelle
22:27que vous êtes docteur
22:28en neurosciences
22:28et psychologue clinicienne.
22:31Roméo Bancel,
22:32cofondateur de Get in Touch
22:33et Sébastien Broca,
22:34professeur en sciences
22:35de l'information
22:36et de la communication
22:36à Paris 8
22:37et donc signataire
22:39de ce manifeste
22:40pour une objection
22:41de confiance
22:42face à l'IA.
22:43Merci à tous.
22:44On continue.
22:45Smartech ne s'arrête pas.
22:46On s'intéresse
22:46au monde du libre maintenant.
22:54Comme promis,
22:55on termine cette édition
22:55avec notre rendez-vous
22:56avec le monde du libre
22:58et en invité
22:59Jean-Paul Smets,
23:00PDG de Rapid Space.
23:01Bonjour Jean-Paul.
23:02Bonjour.
23:02On va s'intéresser
23:03aux agents IA,
23:04en particulier à OpenClo,
23:05mais peut-être démarrer
23:06par qu'est-ce qu'un agent IA ?
23:07En fait,
23:08c'est le découplage
23:09entre le moteur conversationnel,
23:11en gros le moteur du chat,
23:12et le grand modèle de langage.
23:15Donc, en temps normal,
23:17ce qu'on connaît
23:17quand on va par exemple
23:18sur un site web
23:19chez, par exemple,
23:21Gemini de Google
23:22et qu'on tape une question
23:23« Où se trouve
23:24la place du colonel Fabien ? »
23:26En fait,
23:26la question va aller
23:27dans un moteur de chat
23:28qui est hébergé chez Google,
23:30qui va ensuite envoyer
23:31la question
23:31à un grand modèle de langage
23:34hébergé chez Google.
23:36Retour,
23:36la place du colonel Fabien
23:38est à Paris,
23:39et là,
23:39ça s'affiche
23:40sur le navigateur web.
23:41Et ça,
23:42c'est le mode classique.
23:43D'accord.
23:44Et donc,
23:45ce que changent
23:45les agents,
23:46c'est que
23:47le moteur de chat,
23:48au lieu de le mettre
23:49chez Google,
23:50on va le mettre
23:50chez soi,
23:51dans son laptop,
23:52dans son PC.
23:54Et donc,
23:55ça tourne en local.
23:56Donc,
23:56on va reposer
23:56la même question.
23:57où se trouve
23:58la place du colonel Fabien.
24:00Et grâce à un logiciel
24:02qui s'appelle OpenClaw,
24:03qui a été fait
24:03par Peter Steinberger,
24:05qui avant a fait
24:06PSPDFTK,
24:07donc non imprononçable,
24:08mais ça se trouve
24:08dans tous les moteurs
24:09de PDF,
24:10d'OcuSign,
24:11d'Oufthansa,
24:11partout.
24:12Il avait déjà vendu
24:13son entreprise
24:13plusieurs centaines
24:14de millions d'euros.
24:16Là,
24:16il a créé OpenClaw.
24:17On pose la question,
24:19elle reste en mémoire
24:20dans votre portable.
24:21On envoie la question
24:23au grand modèle
24:24de langage de Google
24:25qui répond
24:25où est la place
24:26du colonel Fabien.
24:27Sur l'image,
24:28on ne voit pas
24:28que le grand modèle
24:28de langage de Google.
24:29On voit Gemini,
24:30on voit DeepSync.
24:31C'est ce cas
24:31qui est bien aussi.
24:32C'est-à-dire,
24:32on peut décider,
24:33tiens,
24:34je ne vais pas l'envoyer
24:34à Google,
24:35mais à DeepSync
24:35ou à n'importe qui.
24:37Et la réponse arrive
24:38et elle est stockée
24:39localement
24:39dans l'ordinateur portable.
24:41Ce qui fait qu'en fait,
24:42tout l'historique
24:43de l'IA
24:44est stocké en local.
24:46Et dans les modèles
24:47récents d'IA,
24:48le fait d'avoir gardé
24:50tout l'historique
24:51et de connaître
24:52qui est l'utilisateur
24:53devient au moins
24:54aussi important
24:55que le modèle lui-même.
24:56Et c'est une grande évolution
24:58aujourd'hui de l'IA.
24:59Mais quand on parle
25:01d'agent IA,
25:02en fait,
25:02ça laisse surtout
25:03entendre
25:04une automatisation
25:05des tâches.
25:06Oui.
25:07Et en fait,
25:08c'est pour ça
25:09qu'on a une notion
25:10qui s'appelle
25:11les compétences,
25:12skills,
25:13que l'on met
25:14justement
25:14dans son open-clos
25:16localement.
25:17Alors,
25:17pour comprendre
25:17ce que c'est,
25:18si par exemple,
25:18on demande à DeepSync
25:19tout seul,
25:20enfermé dans son coin,
25:21quelle heure est-il ?
25:22Il va répondre
25:23« Je n'ai pas de moyens
25:24d'accéder à l'heure ».
25:25Donc,
25:26on va créer une compétence
25:27pour accéder à l'heure.
25:28Tu tapes la commande
25:30date
25:32dans le shell,
25:33donc ça,
25:34c'est une commande Unix
25:34ou qui est sur les Mac.
25:36Et cette compétence
25:37ne va pas être mise
25:38chez DeepSync
25:38ou chez Gemini,
25:39mais dans open-clos.
25:40Et la fois suivante,
25:42quand on pose la question
25:42« Quelle heure est-il ? »
25:43On va dire
25:43« Quelle heure est-il ? »
25:44Et d'ailleurs,
25:45si jamais tu as besoin
25:45de connaître l'heure,
25:46j'ai une compétence,
25:46moi,
25:47j'ai trouvé l'heure.
25:48Là, DeepSync dit
25:49« Tu pourrais utiliser,
25:51s'il te plaît,
25:51ta compétence
25:52pour me dire l'heure ? »
25:53Ok,
25:53ça revient dans open-clos.
25:55Open-clos repose la question
25:56« Quelle heure est-il ? »
25:57D'ailleurs,
25:58j'ai utilisé ma compétence
25:59« Quelle heure est-il ? »
26:00Il est 0h48.
26:01Et là,
26:02le modèle de langage
26:03est capable
26:03de produire une phrase.
26:04Il est 0h48.
26:06Donc,
26:07en fait,
26:07le modèle de langage
26:08produit la phrase,
26:09mais la compétence
26:10qui tourne localement
26:12produit l'information
26:13qui aide le modèle de langage
26:15à répondre aux questions.
26:16Heureusement que
26:17ce n'est pas aussi long
26:18dans le processus.
26:19Oui,
26:20mais là,
26:20au moins,
26:20on comprend comment ça marche.
26:22Et donc,
26:22ce qui est bien,
26:24c'est qu'on peut rajouter
26:24des compétences.
26:25Si on rajoute,
26:25par exemple,
26:26la compétence
26:27« Connaître l'agenda
26:28de celui qui pose les questions.
26:30Quel est mon prochain rendez-vous ? »
26:32Ma chronique
26:32sur le monde du libre.
26:34Ou si on met
26:35une compétence
26:35pour connecter open-clos
26:37à l'ERP de l'entreprise,
26:38« Quelles sont les dernières ventes
26:40et combien j'ai gagné d'argent ? »
26:42La réponse,
26:42« Tes dernières ventes
26:43sont avec Orange,
26:45Thalès,
26:45n'importe qui
26:46et tu as fait 25 millions d'euros
26:48en deux semaines. »
26:50Ou encore,
26:50on peut faire faire des choses.
26:52« Est-ce que tu ne voudrais pas
26:52acheter des ordinateurs portables
26:54pour nos stagiaires
26:54et leur envoyer un mail
26:56quand ils l'ont reçu ? »
26:57Et là,
26:57à chaque fois,
26:58c'est comme si on programmait
26:59en langage naturel
27:00autour d'open-clos
27:01un certain nombre de choses
27:03qui vont être exécutées
27:04grâce à la compétence
27:06en termes de langage
27:07du grand modèle de langage.
27:09Au moins,
27:09on comprend comment ça marche
27:10et à quoi ça sert.
27:11Oui.
27:12Est-ce que Open Cloud
27:13est bien positionné
27:14sur le marché des agents ?
27:16C'est le numéro un.
27:17Maintenant,
27:18il a été en quelque sorte
27:19acheté d'une certaine manière
27:20par OpenAI.
27:21C'est le nouveau logiciel libre
27:23de référence européen.
27:24Ça reste libre ?
27:25Oui,
27:26toujours.
27:27Ça reste un agent ?
27:28Et il faut savoir aussi
27:29qu'on peut demander
27:29à Open Cloud,
27:30à Cloud ou aux autres
27:31de vous écrire un agent
27:33parce qu'en fait,
27:33c'est très facile
27:34d'écrire un agent.
27:35On a nous-mêmes écrit,
27:36ça prend quelques semaines
27:37et les agents permettent
27:39d'écrire des agents
27:39qui permettent d'écrire des agents.
27:41Là,
27:41tu rentres de la conférence
27:42sur l'IA à Berlin.
27:44Ça faisait partie des sujets ?
27:45Ah,
27:46c'était le sujet majeur.
27:47Donc,
27:47il y en avait un
27:48qui était dire
27:49utiliser Mistral,
27:50en tout cas,
27:50arrêter d'utiliser
27:51Cloud,
27:53Anthropic,
27:53OpenAI,
27:54utiliser plutôt
27:54les modèles chinois
27:55parce qu'au moins,
27:56vous les faites tourner
27:57en local,
27:57ça ne va pas renseigner
27:58les Américains
27:59ou personne
28:00parce que ça tourne
28:01en local.
28:01Mais ce qu'il disait aussi,
28:02c'est très important
28:03d'avoir des environnements
28:05interopérables
28:05d'exécution d'agents
28:06et de s'intéresser
28:07aux algorithmes
28:08qu'il y a derrière
28:09les agents.
28:09Et donc,
28:10on avait peut-être
28:11les trois quarts
28:12des acteurs
28:13qui allaient dans ce sens-là.
28:15Merci beaucoup,
28:16Jean-Paul Smeth,
28:17de venir nous éclairer
28:18régulièrement
28:18sur ce qui se passe
28:19dans le monde du libre
28:20et de nous avoir
28:22plus précisément
28:23expliquer à quoi sert
28:24cette open-clos.
28:25Allez,
28:25merci à tous
28:26de nous avoir suivis.
28:27C'est la fin de Smartech.
28:28C'était la grande interview
28:30de l'IA.
28:31Aujourd'hui,
28:31beaucoup de sujets
28:32autour de l'éthique
28:33et on se retrouve
28:33pas plus tard que jeudi prochain.
28:35On sera en direct
28:35à 10h45
28:36sur la chaîne Bsmart
28:37pour le grand débrief
28:38de l'actu.
28:42Sous-titrage Société Radio-Canada
28:42Sous-titrage Société Radio-Canada
Commentaires