- il y a 9 heures
L’intelligence artificielle génère des opportunités, mais aussi des défis majeurs. Entre consommation énergétique massive, extraction de ressources et concentration du pouvoir technologique, ses impacts écologiques et sociaux interrogent. Comment concilier innovation et responsabilité, sans sacrifier ni l’un ni l’autre ? Un débat crucial pour l’avenir de ces technologies.
Catégorie
🗞
NewsTranscription
00:03C'est parti pour les interviews de l'IA avec, autour de la table, des acteurs qui font des choses
00:10dans ce domaine ou en opposition.
00:12D'ailleurs, vous allez voir, cette semaine, autour de la table, nous avons Sébastien Broca, professeur en sciences de l
00:17'information et de la communication à l'Université Paris 8, co-directeur du laboratoire SEMTI.
00:23Bonjour Sébastien.
00:24Bonjour.
00:24Vous êtes le signataire d'un manifeste pour l'enseignement supérieur et l'éducation nationale face à l'IA générative,
00:31l'objection de conscience.
00:32Vous nous direz pourquoi vous estimez que c'est important.
00:36Avec vous, également autour de cette table, Roméo Bancel.
00:40Bonjour.
00:40Bonjour.
00:41Co-fondateur de Get in Touch.
00:43Vous, vous allez tout nous expliquer sur comment l'IA transforme les stratégies commerciales des entreprises.
00:49Mais on commence avec Nadia.
00:51Bonjour Nadia Guérouaou.
00:53Vous êtes docteur en neurosciences, psychologue clinicienne.
00:57Vous êtes enseignante et conférencière en neuroéthique, éthique des systèmes d'IA et philosophie de l'innovation.
01:03Et l'autrice de Notre cerveau sous influence, comment les IA génératives modèlent nos émotions et façonnent nos sociétés.
01:13C'est paru chez Erol.
01:15Comment faites-vous le lien entre les émotions et l'intelligence artificielle ?
01:20En effet, je fais le lien et j'essaie de mettre un peu d'attention sur l'influence que les
01:28IA génératives peuvent avoir sur nos émotions.
01:30Parce que, contrairement à ce que l'on peut avoir tendance à penser dans la psychologie populaire, ce qu'on
01:38appelle la folle psychologie, en fait, les émotions ont un effet sur beaucoup de domaines de nos existences, que ce
01:45soit dans notre prise de décision, nos raisonnements et même dans nos valeurs.
01:50Ce qu'on va juger être bon, juste, on sent très bien que ce sont des jugements pour lesquels les
01:57émotions ont leur mot à dire.
02:00Et pourtant, en fait, on parle énormément des effets des IA génératives sur notre mémoire ou sur le langage, mais
02:08très peu.
02:09Ou sur l'information, la désinformation.
02:11Exactement, même si ça, c'est très lié, encore une fois, aux émotions, mais on parle très peu, en fait,
02:17de leurs effets sur les émotions.
02:20Et en particulier, on parle très peu de la délégation de nos capacités émotionnelles à ces technologies.
02:27Et pourtant...
02:27C'est-à-dire, qu'est-ce qu'on délègue ?
02:29Eh bien, c'est quelque chose qu'on fait déjà.
02:30Si on réfléchit un petit peu à nos pratiques, en fait, quand vous demandez à votre LLM ou votre chatbot
02:40préféré, je ne sais pas, chat GPT ou Claude,
02:43de rédiger un mail ou un message pour un interlocuteur dans un ton particulier.
02:48Il y a beaucoup ce genre de demandes, notamment dans les échanges professionnels.
02:53Rédige un mail qui soit empathique.
02:55Rédige un mail qui prenne en considération la sensibilité de mon interlocuteur.
03:00Eh bien, ce qu'on fait déjà de la délégation de nos émotions à ces technologies.
03:05Et un peu plus novateurs, des technologies qui sont au seuil de nos sociétés permettent littéralement de paramétrer l'expression
03:13de nos émotions,
03:14celles qu'on peut percevoir dans nos voix.
03:18Par exemple, là, je suis en train de parler.
03:20Il y a peut-être des petites choses qui montrent, qui laissent entendre que peut-être je suis nerveuse.
03:26Donc, ce genre de choses.
03:28On peut désormais les paramétrer en temps réel.
03:30Avec, je pense, notamment une technologie qui est développée au Japon par un des géants des télécommunications,
03:36qui s'appelle SoftBank, et qui permet, dans le cadre des call centers, de gommer en temps réel la colère
03:41dans la voix des clients mécontents.
03:43Ah oui !
03:43Donc ça, c'est une technologie qui est au seuil de nos sociétés.
03:46On peut faire la même chose en Europe.
03:47Il y a d'autres startups qui permettent de créer des faux sourires dans la voix des téléopérateurs.
03:53Et tout ça avec cette idée que finalement, les émotions devraient être régulées, managées, pour lisser les interactions, augmenter la
04:01productivité.
04:02Ça doit vous intéresser, ça, parce que pour augmenter sa stratégie commerciale, j'imagine que ça doit être redoutablement efficace.
04:10Oui, il y a beaucoup d'utilisation en ce moment, en plus d'IA, de génération de voix.
04:13Je pense notamment à Eleven Lab.
04:14Et je savais qu'on pouvait générer des voix avec une tonalité spécifique.
04:19Je ne savais pas que c'était possible de les changer en temps réel.
04:21C'est assez effrayant, d'une certaine manière.
04:23Alors, vous dites aussi, Nadia, que les filtres numériques qu'on utilise sur les réseaux sociaux, ce n'est pas
04:27juste des gadgets, ce n'est pas anodin ?
04:30Oui, c'est ça.
04:31En fait, j'essaie, pour qu'on comprenne réellement ce qui se joue quand on fait ces délégations,
04:37quand on paramètre nos émotions ou d'autres capacités, d'ailleurs, avec ces IA génératives,
04:43ce qui se passe, ce n'est pas uniquement en délégance, ce n'est pas uniquement une extériorisation.
04:48Souvent, on parle de ce qui se passe uniquement en termes d'extériorisation.
04:54Mais ce qu'on oublie, c'est que quand je fais avec ces technologies, en réalité, je vais incorporer un
05:01peu de ces technologies.
05:02Et ça, il y a plein d'études de psychologie expérimentale, de neurosciences qui nous montrent.
05:07On a des données en faveur de cette lecture des effets des IA génératives.
05:14Si vous voulez, je peux vous donner un exemple, par exemple.
05:16Alors, il faut que tout le monde puisse avoir le temps de participer.
05:20Je voulais qu'on avance un petit peu aussi sur la question des deepfakes, qui étaient traitées aussi dans votre
05:25ouvrage.
05:26Vous dites que quand on mime, par exemple, notre sourire, ça a des conséquences profondes.
05:31Oui, voilà, c'est un exemple.
05:33Voilà. Alors, quelles conséquences profondes et peut-être préoccupantes vous avez envie de mettre en avant ?
05:40La conséquence, c'est qu'en fait, ces expressions artificielles de nous-mêmes, elles vont orienter la manière dont on
05:49se perçoit.
05:51Donc, il y a une expérience qui s'appelle une expérience avec le paradigme de vocal feedback,
05:55qui montre que lorsque l'on transforme en temps réel la voix de participants, par exemple pour la rendre plus
06:03souriante,
06:04et qu'on équipe des participants de cette étude d'un casque et d'un micro,
06:09donc ils vont s'entendre en train de parler avec une voix qui est rendue plus souriante ou qui peut
06:13être rendue plus triste,
06:14et bien, après cette lecture, avec la voix transformée, l'évaluation que les gens se font de leur propre état
06:22est en parallèle,
06:29en adéquation avec la transformation qui a été opérée.
06:32C'est-à-dire, si je transforme votre voix pour la rendre plus joyeuse, vous allez vous sentir vous-même
06:36plus joyeux.
06:36C'est pas mal pour le traitement, parce que je sais que vous travaillez sur les transformations de la voix
06:40dans les traitements post-traumatiques.
06:41Oui, ça peut être un outil utile.
06:43C'était à la base ce genre de résultats qui m'ont amenée à m'intéresser en tant que thérapeute
06:47à ces technologies,
06:49mais il faut avoir en tête qu'il peut y avoir des problèmes éthiques au fait de transformer ainsi à
06:57la fois notre expressivité, mais aussi notre ressenti.
07:00Oui, et vous pointez du doigt aussi la normalisation des émotions ?
07:04Oui, en fait, dans les usages problématiques et les conséquences dont il faudrait un petit peu se questionner,
07:11sur lesquelles il faudrait se poser des questions, il y a ce que j'appelle la domestication de nos affects
07:15et la standardisation des émotions.
07:18Le type de sourire qui sont appliqués sur nos voix, c'est pas n'importe quel type de sourire.
07:22C'est un sourire qui est standardisé, c'est un sourire qui est encodé sur le modèle de l'esthétique
07:28dominante,
07:29qui est une esthétique américaine.
07:31Donc, on parle du design, du smile design, qui est la définition de ce qu'est un beau sourire.
07:37Il y a à la fois sa forme, mais aussi à quel moment le sourire est désirable.
07:41Il n'y a pas toutes les sociétés qui considèrent qu'il faut sourire particulièrement.
07:45Il y a des endroits dans le monde où ce n'est pas du tout quelque chose que l'on
07:49va plébisciter.
07:50Et il faut aussi savoir qu'il y a des populations pour lesquelles on pourrait avoir une injonction au sourire
07:55qui est plus forte.
07:56Je pense par exemple aux femmes. On sait très bien qu'on demande beaucoup plus aux femmes de faire attention
08:01à ce travail émotionnel, effectivement.
08:05Bon, Sébastien, ça résonne en vous quand vous entendez ce type de question ?
08:09J'essaie d'être souriant déjà pour essayer de faire pièce à ce biais de genre bien connu.
08:14Oui, alors ça résonne en moi. C'est très intéressant.
08:18Et en même temps, moi, ce que je voulais apporter, en lien avec le manifeste des collègues d'Athécopole que
08:25vous mentionniez,
08:26c'est peut-être d'essayer de dézoomer un peu sur la question des usages.
08:29C'est vrai que toutes les discussions autour de l'IA sont souvent concentrées sur les usages et c'est
08:34passionnant.
08:34On le voit bien. Et c'est le cas aussi à l'université, où en gros, la réponse majoritaire qui
08:40est donnée aujourd'hui,
08:41c'est d'essayer d'accompagner ces usages des IA génératifs par les étudiants, d'essayer de faire le tri
08:46entre les usages licites, les usages illicites,
08:49mettre en place des chartes de l'IA, etc. Bon, pourquoi pas, on pourra revenir là-dessus.
08:53Ce qui est intéressant, c'est quand même de voir aussi qu'est-ce qui se passe quand on dézoome
08:56et qu'on regarde ces systèmes, comment ils sont produits,
08:58qui est-ce qui les contrôle et quelles questions ils posent en amont même des usages.
09:03C'est ce que disait Nadia, c'est quand même un modèle occidental et même américain en fait.
09:08Ce qui est une question que je pose, c'est en amont effectivement des usages.
09:11Et là, en amont, alors moi, les questions qui m'intéressent et qui transparaissent dans le manifeste,
09:16c'est par exemple, qu'est-ce que ça pose comme question au niveau social ?
09:18C'est-à-dire que ces systèmes, ils exploitent du travail.
09:20Ils exploitent le travail des créateurs, des artistes dont les contenus sont utilisés pour entraîner les modèles.
09:26Ils exploitent le travail de celles ou ceux qu'on appelle parfois les petites mains de l'IA,
09:30à savoir les personnes qui vont préparer, nettoyer les bases de données,
09:35et celles qui vont aussi bêta-tester, par exemple, les chatbots,
09:38pour éviter qu'ils ne balancent les contenus sexistes, homophobes, racistes, etc.
09:43Ça, c'est souvent des travailleurs précaires.
09:45C'est du travail externalisé.
09:46C'est par exemple des gens au Kenya, chez des sous-traitants comme Sama.
09:50Voilà.
09:50Donc, il y a toutes ces questions sociales autour du travail.
09:53Ça, c'est une chose.
09:54Il y a des questions environnementales également,
09:56qui sont très importantes, alors qu'il arrive beaucoup dans le débat public.
10:00Parce qu'il faut bien se rendre compte aussi que derrière ces chatbots que nous utilisons toutes et tous,
10:05ou presque aujourd'hui, il y a des infrastructures qui sont physiques et qui sont colossales.
10:12Alors, qui sont colossales en termes de capital investi.
10:14Je voudrais juste, pour rappeler quelques chiffres, dire qu'en 2026,
10:17on estime que quatre acteurs, Google, Meta, Amazon, Microsoft,
10:23vont investir 600 milliards de dollars dans la construction de nouvelles infrastructures,
10:27de centres de données essentiellement, pour massivement utiliser pour l'IA générative.
10:32C'est considérable en termes de capital,
10:34mais c'est aussi considérable en termes de consommation énergétique,
10:37de consommation de métaux aussi, de consommation d'eau.
10:40Donc, ça, c'est des enjeux qui sont très importants
10:43et qu'on perd un peu de vue lorsqu'on est concentré sur les usages.
10:46Et puis, il y a peut-être un dernier point que j'aurais mentionné,
10:49c'est la question politique.
10:50On sait aujourd'hui que les grands chatbots que nous utilisons toutes et tous,
10:55ChatGPT, Cloud, Dentropik,
10:57ce sont des chatbots états-uniens liés à des entreprises de la tech,
11:02mais qui sont en fait toutes très liées au big tech.
11:05On sait que derrière OpenAI, il y a Microsoft.
11:07En France, on cite toujours le contre-exemple Mistral.
11:09Oui, alors Mistral, oui, mais qui est très minoritaire,
11:14qui est utilisé dans les entreprises,
11:16mais dans les usages, par exemple, de mes étudiants et étudiantes,
11:21je ne pense pas qu'il y en ait beaucoup qui utilisent Mistral.
11:25Et par ailleurs, Mistral n'est pas une entreprise entièrement française,
11:27parce qu'elle est financée par les capitaux américains.
11:29Non, mais enfin, elle est quand même.
11:31Mais bon, en tout cas, si on revient aux acteurs dominants,
11:34pour l'instant, que ce sont par exemple OpenAI,
11:36ce sont des entreprises qui sont très liées au gouvernement américain,
11:41administration Trump.
11:43Ce sont des technologies qui,
11:45et ça c'est explicitement dit par la Maison Blanche aujourd'hui,
11:47ont une vocation de domination économique et militaire.
11:50C'est les deux, c'est assurer la domination des Etats-Unis,
11:55l'impérialisme étatsunien, pourrait-on dire.
11:57Vous dénoncez dans le manifeste la techno-oligarchie.
12:00En fait, c'est un manifeste d'enseignants et de chercheurs
12:05qui mettent en avant la volonté d'être un objecteur de conscience
12:12face à l'intelligence artificielle.
12:14C'est une posture très politique, finalement, ce manifeste.
12:19C'est plus politique que ceux qui demandent une pause, un moratoire,
12:24ou d'organiser des débats, des réflexions sur ce sujet.
12:28C'est plus radical, oui.
12:30C'est plus politique et c'est plus radical.
12:31Je tiens aussi à préciser que je ne l'ai pas rédigé,
12:34et je suis pas le coup en lien avec les gens qui me rédigeaient.
12:36Après, je l'ai signé, d'ailleurs avec quelques petites réticences
12:39sur lesquelles je pourrais revenir peut-être tout à l'heure,
12:40mais je l'ai signé parce que ce qu'il faut voir aussi,
12:43et pour revenir à la question des universités,
12:45je disais qu'il y a un lien entre l'administration Trump et ses big tech.
12:50Il faut voir aussi que ce sont des gens qui détestent.
12:51Ça, c'est un de vos sujets de prédilection, d'ailleurs.
12:55Mais si je reviens sur la question de l'université,
12:57ce sont des gens qui détestent l'université.
13:00Par exemple, l'entrepreneur Peter Thiel,
13:02dont il est souvent question en ce moment,
13:03Peter Thiel, depuis 2011, finance des bourses
13:06pour que les gens n'aillent plus à l'université,
13:09pour qu'ils quittent l'université.
13:11G. Day Vance, le vice-président de Donald Trump,
13:13en 2021, à la conférence des nationaux conservateurs,
13:17quel était le titre de sa communication ?
13:19The universities are the enemy.
13:21D'accord ?
13:22Donc ça, ce sont les gens qui contrôlent les outils
13:26que nous utilisons maintenant à l'université.
13:27que vous enseignez aujourd'hui à l'université.
13:30Est-ce qu'il est possible de continuer à enseigner
13:33sans enseigner, justement, l'histoire des technologies
13:36et sans utiliser l'intelligence artificielle ?
13:39Je vois Nadia qui réagit.
13:40Il faut vraiment mettre en avant ce que vous faites.
13:44C'est aussi l'idéologie qui est encodée dans ces systèmes
13:47et qui n'est même plus cachée.
13:49Si on pense à l'EI Action Plan du gouvernement américain,
13:53c'est littéralement explicite que certaines valeurs
13:57sont à privilégier dans les IA génératives
14:00qui sont utilisées par le gouvernement
14:01et d'autres à proscrire totalement,
14:03notamment des valeurs qui sont jugées trop woke.
14:05Et ces valeurs, elles ont un effet sur les usagers
14:09et sur les sociétés qui s'emparent de ces technologies.
14:14Ma question, c'était, est-ce que vous, en tant qu'enseignant,
14:17il y a une cohérence à dénoncer cela,
14:19mais sans plus finalement le dénoncer ?
14:21Si vous êtes objecteur de conscience,
14:23vous ne travaillez plus avec, vous ne l'utilisez plus ?
14:25Évidemment. Là, vous touchez un point qui, évidemment,
14:27est sensible et qui fait partie des choses
14:30qui m'ont interrogée quand je me suis demandé
14:31alors ce texte, finalement, je le signe ou pas ?
14:34Parce que, évidemment, le contre-argument, si je puis dire,
14:38c'est, en fait, quelque part, c'est déjà trop tard.
14:41Ces usages, ils sont déjà largement installés
14:44chez nos étudiants et étudiantes,
14:45mais aussi chez nous-mêmes, enseignants-chercheurs.
14:49Est-ce qu'on peut véritablement se passer de ces outils ?
14:53C'est compliqué.
14:54Est-ce qu'il ne faut pas aussi accompagner les étudiants et les étudiantes
14:57pour qu'ils les utilisent mieux ou moins mal ?
15:02Ce sont des vraies questions.
15:04Mais pourquoi est-ce que moi, j'ai quand même signé ce manifeste ?
15:07Parce qu'il me semble que ça place quand même dans le débat public
15:12des questions qui sont importantes et que, par ailleurs,
15:14il y a quelque chose qui est quand même très compliqué
15:16dans cette idée qu'on va pouvoir faire discriminer.
15:19Entre, il y a des usages qui sont bien, qui sont licites,
15:22même parfois intéressants, pédagogiquement.
15:24Et puis, il y a des usages qui sont mauvais.
15:26En fait, moi, ce distinguo, je peux le faire abstraitement.
15:29Je peux dire que si vous utilisez l'IA pour formater votre bibliographie,
15:31ça ne me pose pas de problème.
15:32Pour corriger les fautes d'orthographe, ça ne me pose pas de problème.
15:35Si c'est l'IA qui rédige votre devoir, évidemment, ça me pose un problème.
15:38Donc, abstraitement, on peut tous faire ce distinguo-là.
15:41Par contre, quand je me retrouve ensuite devant un devoir d'étudiant,
15:46est-ce que je peux réussir à dire
15:47qu'est-ce qui vient de lui ou d'elle ?
15:49Est-ce qu'il a véritablement lu les textes dont il parle ou pas ?
15:50Ça, c'est comment on réinterroge la manière d'enseigner ?
15:54Oui, mais le problème, c'est que ces outils, intrinsèquement,
15:58ils vous poussent.
15:59C'est très compliqué de les utiliser juste pour faire de la correction orthographique.
16:03Vous savez bien comment ça marche.
16:04Quand vous êtes à Saint-Chatbot, vous allez avoir envie de lui demander plus que ça.
16:09Ils sont quand même assez limités aujourd'hui pour produire des bons devoirs.
16:13J'imagine que vous les voyez arriver, non ?
16:15Ça, c'était vrai.
16:16Pour moi, ça, c'était vrai il y a trois ans.
16:18Évidemment, quand Chat-Chipiti est arrivé en 2022, 2023,
16:20ça produit des textes qui sont insipides.
16:25Maintenant, c'est plus compliqué.
16:26Maintenant, même à des niveaux master,
16:28des gens qui utilisent bien ces outils
16:30produisent, à mon avis, des devoirs qui sont assez convaincants.
16:32De toute façon, on ne va pas avoir le temps,
16:33parce que ça, c'est une autre question.
16:34C'est comment on enseigne à l'ère de l'IA,
16:37puisque de toute façon, les étudiants les utilisent.
16:40Ça, c'est un autre sujet.
16:41Je voulais vous faire réagir,
16:42parce que, Roméo, vous êtes le vendeur d'IA de la bande, là, aujourd'hui.
16:47Oui, c'est un petit peu, oui.
16:48Comment vous réagissez quand vous entendez ces discours ?
16:52Vous êtes plutôt dans le mode, au contraire,
16:54inciter les entreprises à prendre en main ces technologies,
16:56parce que ça va les aider à être plus performantes,
16:59à transformer leur discours commercial.
17:01À être plus efficaces, à mieux les utiliser.
17:04La vision qu'ont beaucoup d'entreprises, malheureusement,
17:06aujourd'hui, avec l'IA,
17:07c'est que c'est un moyen de remplacer, de réduire les équipes.
17:10Il y a plusieurs entreprises de la tech américaine
17:11qui se sont dit qu'on va licencier la moitié des équipes
17:14parce que maintenant, on a l'IA.
17:15Je pense que ça, c'est vraiment pas la bonne approche,
17:17qu'aujourd'hui, il faut plutôt garder la même quantité
17:21de production de contenu,
17:22mais vraiment augmenter la qualité de ce qu'on fait.
17:24Par contre, effectivement, sur les questions que vous posez,
17:26j'imagine que c'est plus au niveau de la data aussi
17:28que les questions se posent.
17:31C'est-à-dire l'exploitation des données ?
17:33Exactement.
17:34Aujourd'hui, une des choses que je mets beaucoup en avant,
17:36c'est que deux personnes qui utilisent la même IA
17:38peuvent avoir des résultats radicalement différents
17:40selon comment elles l'utilisent
17:42et qu'un enjeu très fort pour créer du meilleur contenu,
17:44c'est le contexte.
17:45Donc, par exemple, une des choses qu'on fait pour nos clients,
17:48c'est d'aider des dirigeants
17:50à prendre la parole sur LinkedIn, sur leurs enjeux.
17:52Et si vous demandez aujourd'hui à ChatGPT
17:55d'écrire un poste LinkedIn,
17:56le résultat va souvent être nivelé par le bas
17:58et être très mauvais.
17:59Alors que si vous ajoutez énormément de contexte
18:02sur ce que fait le dirigeant, ce que fait l'entreprise,
18:04par exemple, une interview,
18:05on essaie de faire des interviews de deux heures
18:07avec chaque personne
18:08et de le mettre comme contexte
18:10quand on va l'utiliser à l'ISIA,
18:11vous avez des résultats qui sont radicalement meilleurs.
18:14Mais effectivement, ça pose ensuite le problème
18:15de où vont toutes ces données
18:17qu'on fournit à l'IA pour travailler.
18:18Il faut quand même bien choisir ces modèles.
18:20Exactement.
18:22Mais vous entendez aussi ces inquiétudes
18:25du côté des entreprises,
18:27ces inquiétudes qui sont partagées en plateau ?
18:29Beaucoup moins, honnêtement.
18:30L'inquiétude, c'est comment est-ce qu'on prend le pas
18:32sur les outils, on les utilise correctement,
18:34on devient plus productif, plus efficace,
18:36beaucoup moins de...
18:37La recherche de l'efficacité prime avant tout.
18:40C'est compréhensible pour des entreprises.
18:42Est-ce que vous constatez des résultats ?
18:43Parce qu'en fait, on dit souvent
18:44que les retours sur investissement ne sont pas là.
18:48Les retours sont assez unanimes.
18:51Mais est-ce que vous, vous constatez,
18:53peut-être pas un retour sur investissement économique,
18:56mais un retour sur investissement
18:58sur les stratégies qui sont mises en place
19:01par les entreprises ?
19:03Non, moi je vois vraiment un retour
19:04sur investissement économique,
19:05sur l'utilisation d'outils.
19:07Dans quel domaine ?
19:08Sur la prospection commerciale.
19:10Les capacités qu'ont les commerciaux maintenant
19:12avec les bons outils.
19:13Il y a cinq ans, un commercial,
19:15il a envoyé mettons 500 mails,
19:17tous les mêmes à 500 personnes.
19:19Aujourd'hui, on peut automatiquement
19:21faire des approches qui sont très personnalisées
19:22à chaque personne qu'on contacte
19:24avec énormément de contexte.
19:25Je vous approche parce que
19:26vous êtes une entreprise de telle taille,
19:28de tel type,
19:29avoir des informations sur les dernières publications
19:31de l'entreprise.
19:31Et ça, ça augmente drastiquement
19:33les taux de réponse de ces entreprises
19:34et donc le nombre de rendez-vous générez
19:36et ensuite le nombre de...
19:37J'imagine que l'enseignant se dit
19:39mais on n'aurait pas besoin d'une IA,
19:41on peut le faire nous-mêmes ça,
19:42de mieux renseigner ses mails
19:43et de se renseigner sur les entreprises
19:45qu'on contacte,
19:46mais juste, ils n'ont pas le temps en fait.
19:47Oui, c'est ça.
19:48Et même, il y a eu une transition avant l'IA
19:50où on utilisait des outils d'automatisation
19:51avec des variables,
19:54simplement mathématiquement,
19:56sans utiliser de l'IA.
19:57Mais maintenant, ce que permet de faire l'IA,
19:58c'est vraiment avoir un contexte gigantesque
20:00et avoir une approche qui est vraiment unique
20:03pour chaque personne qu'on va aller contacter.
20:04Et est-ce que vous fixez des limites ?
20:06Parce que ça pose la question quand même,
20:07effectivement,
20:08de à quel moment je trompe ou pas mon interlocuteur
20:11sur est-ce que derrière c'est une IA
20:13ou est-ce que c'est un humain ?
20:14À qui je parle ?
20:15À qui je parle, finalement ?
20:16Pour moi, la limite, c'est celle de...
20:18Le travail d'un commercial,
20:19c'est aussi d'avoir un rapport humain
20:21avec la personne,
20:22de comprendre son besoin,
20:23de vraiment interagir avec elle
20:25pour lui apporter la meilleure solution possible.
20:27Dans le cadre de la prospection,
20:28envoyer des mails,
20:29aller chercher des gens,
20:30générer des pubs,
20:31pour moi, l'utilisation est correcte.
20:32Par contre, toute la partie suivante
20:34d'accompagner la personne
20:35et les rendez-vous commerciaux,
20:37je sais qu'il y a des entreprises
20:38qui poussent des commerciaux IA
20:40où vous rentrez dans un rendez-vous
20:41et vous parlez à un robot.
20:42Mais ça, je pense que la limite est là.
20:44OK.
20:45Chacun fixe ses limites là autour de la table.
20:48En fait, on est vraiment en découverte
20:52des impacts sociétaux
20:54et personnels même de cette technologie.
20:57En tout cas, la question de la confiance
20:59qu'on m'a posée assez facilement
21:01quand on parle de deepfake,
21:02est malveillant.
21:03Je pense qu'il faudrait se la poser aussi
21:04pour des usages qui sont à la base
21:07développés pour être bienveillants,
21:09augmenter la productivité
21:10parce qu'on a quand même des petites données
21:11qui montrent que des effets positifs
21:14de messages qui seront rédigés
21:15pour être avenants
21:17sur certaines interactions
21:19vont être modérés
21:21dès lors que les individus se rendent compte
21:23qu'en fait, ça a été généré par une IA.
21:26Donc, ce serait peut-être bien
21:27d'anticiper ce genre de questions
21:28de confiance
21:29si on réfléchit même en termes de productivité
21:31et de l'usage de ces outils
21:32et de voir dans quelle mesure
21:34on peut rester dans des interactions
21:35qui permettent cette confiance
21:37et finalement que ça reste quand même
21:39une utilisation qui sert.
21:43Merci beaucoup à tous les trois.
21:45Je ne sais pas si j'ai réussi
21:46à vous mettre tous les trois en harmonie.
21:49En tout cas, c'était très intéressant
21:50de vous écouter, Nadia Guirou-Harou.
21:52Je rappelle votre ouvrage
21:53« Notre cerveau sous influence »
21:55paru aux éditions Erol.
21:57Et je rappelle que vous êtes docteur
21:58en neurosciences et psychologue clinicienne.
22:01Roméo Bancel,
22:02cofondateur de Get in Touch
22:04et Sébastien Broca,
22:05professeur en sciences de l'information
22:06et de la communication à Paris 8
22:08et donc signataire de ce manifeste
22:10pour une objection de confiance
22:12face à l'IA.
22:14Merci à tous.
22:15On continue.
22:16Smartech ne s'arrête pas.
22:17On s'intéresse au monde du libre maintenant.
Commentaires