- il y a 2 jours
Nous parlons à l'IA, elle nous répond. Nous la questionnons, elle semble nous comprendre. Mais dans cette conversation fluide se tisse un malentendu profond : croire que la machine nous ressemble. Qu’y a-t-il sous ces mots empathiques, ces voix de plus en plus réalistes et ces images parfois belles à se damner ? Des tokens, des pixels, des probabilités statistiques, des corpus de données invisibilisées. Pas de cerveau, pas de conscience. Ni magie, ni menace existentielle, mais à coup sûr, une technologie – et une industrie – qui entendent refaçonner nos manières, de communiquer, de travailler ou d’apprendre.
Échange avec Laurence Devillers, professeure à la Sorbonne et chercheuse au CNRS, spécialiste des interactions homme-machine et Marc Sztulman, conseiller régional en charge de l'IA, Président de Cyber'Occ
Suivez-nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
Bluesky : https://bsky.app/profile/lepoint.fr
Threads : https://www.threads.net/@lepointfr
WhatsApp : https://www.whatsapp.com/channel/0029VaDv82FL2ATwZXFPAK3c
www.lepoint.fr
Échange avec Laurence Devillers, professeure à la Sorbonne et chercheuse au CNRS, spécialiste des interactions homme-machine et Marc Sztulman, conseiller régional en charge de l'IA, Président de Cyber'Occ
Suivez-nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
Bluesky : https://bsky.app/profile/lepoint.fr
Threads : https://www.threads.net/@lepointfr
WhatsApp : https://www.whatsapp.com/channel/0029VaDv82FL2ATwZXFPAK3c
www.lepoint.fr
Catégorie
🗞
NewsTranscription
00:00Musique de générique
00:30Musique de générique
01:00Musique de générique
01:29Musique de générique
01:59Musique de générique
02:29Je suis ébatté par les possibilités
02:32Notamment techniques
02:33C'est une super intelligence très précise
02:35Mais en même temps
02:37Je suis profondément préoccupé
02:40Par l'intrusion massive
02:42De ces technologies dans nos vies
02:43C'est le débat
02:44Cette bourgeoisie des IA
02:47Qui vient s'inviter partout
02:48Dans tous les domaines
02:50De notre quotidien
02:52Oui je pense que
02:53On est tous
02:55Avec des IA testés à la maison
02:57En ce moment
02:58Il y en a partout
02:58Il y en a sur le téléphone
03:00Il y en a dans les montres
03:01Il y en a dans les voitures
03:02Et pour plus mal de choses
03:04C'est pratique
03:05Donc on adhère assez vite
03:08A ces objets
03:09Utilitaires
03:10Pratique
03:11Mais alors
03:13Ils en parlent
03:14Donc
03:14Ce que j'ai constaté
03:16Avec mes étudiants
03:16C'est qu'ils parlent
03:18À leur portable
03:18Et ils en parlent d'eux
03:20Deux
03:21Deux
03:21Deux
03:21Deux
03:21Deux
03:21Deux
03:21Deux
03:22Deux
03:22Deux
03:22Deux
03:23Deux
03:23Deux
03:24Deux
03:24Deux
03:25Et donc
03:25Il y a beaucoup
03:26Deux
03:26Deux
03:26Deux
03:27Deux
03:27Deux
03:28Deux
03:29Deux
03:30Deux
03:31Deux
03:32Deux
03:33Deux
03:34Deux
03:36Deux
03:37Deux
03:38Deux
03:39Deux
03:40Deux
03:41Deux
03:42Deux
03:43Deux
03:44Deux
03:45Deux
03:46Deux
03:47Deux
03:48Deux
03:49Deux
03:50Deux
03:51Deux
03:52Deux
03:53Deux
03:54Deux
03:55Deux
03:56Deux
03:57Deux
03:58Et j'ai l'impression qu'on va dans le mur, si on ne comprend pas plus, c'est comment marchent les machines.
04:04Alors très simplement, on n'est pas de super intelligence que je produis, et ça c'est démoniaque.
04:08Ça va vers le côté vraiment mauvais de tout ça, puisqu'en fait, c'est absolument pas intelligent, c'est le machin.
04:15C'est au plus de l'informatique augmentée.
04:17C'est plus impossible, mais l'informatique augmentée.
04:19Parce que, en fait, ce système qui apprend à partir de nos textes, je ne l'apprend pas dans notre espace.
04:27Ni avec l'information temporelle, ni avec l'information spatiale, aucun rapport avec le monde.
04:33Donc, je reprends le système de Kahneman, parce que vous connaissez ce théoricien économiste,
04:38puisqu'on décide dans un endroit qui parle d'économie, il connaît ce prix Nobel d'économie, il était aussi ici.
04:44Daniel Delman vient de décéder, il y a eu un très bon bouquin, qui s'appelle Système 1, Système 2.
04:48Comment je décide ?
04:51Eh bien, les élèves aujourd'hui qu'on utilise ici au Snapchat-blog, ils sont plutôt Système 1.
04:55Parce qu'il y réfléchit, ce n'est pas du tout, c'est presque comme l'intuition.
04:59Sauf qu'ils ne sont pas soustitifs, ils ne sont pas des notions, mais c'est comme l'intuition, c'est système 1.
05:02Le système 1, c'est quoi dans notre vie quotidienne ?
05:05C'est tout ce qui est prépéblé dans mon cerveau.
05:07C'est-à-dire que quand j'avance ma main pour prendre du hardeau, j'ai pas réfléchi à comment j'allais avancer ma main.
05:11Et il va tout seul.
05:12Système 2, c'est là où c'est cognitif.
05:15Donc là, je réfléchis, est-ce que j'ai déjà fait, qu'il a déjà fait.
05:18Voilà, j'ai été éduqué, je connais un peu l'histoire, je suis dans un milieu particulier, j'ai dû étudier des choses.
05:24Et tout ça va jouer sur ma façon de dessiner.
05:26Système 2.
05:28Bien, il y a l'élève qu'on a signé comme étant super et intelligent pour son système 1.
05:33Purement.
05:34Aucune émergence cognitive dans tout ça.
05:37Tout ce qui a été fait plus cliché, tu peux plus l'expliquer.
05:40C'est une structure ligne.
05:41On optimise ses modèles pour qu'il sache résumer, faire de la poésie, il faut répondre comme un psy, avoir de l'empathie.
05:48Tout ça, c'est programmé avec des programmes qui utilisent des données.
05:54Et par exemple, pour résumer, on met plein de textes et on met le résumé à côté qu'on veut.
05:59La machine apprend la fonction, le résumé.
06:02Donc on optimise tous ces systèmes qui sont bas niveau, à peu près de milliards de données.
06:05On peut dire que c'est un effet fondamentalement, cette machine, ce qu'elle a appris, c'était à prédire le mot suivant qui n'est pas un mot, c'est un tout cas.
06:12Ce qu'elle veut faire, il y a le cas qui paraît très intéressant,
06:15mais je n'ai pas un nouveau système qui va remplacer probablement les LR.
06:20C'est en fait d'apprendre les états du monde.
06:23Un état du monde, ce n'est pas juste du texte, ce n'est pas juste de la vidéo.
06:26C'est qu'est-ce que je suis, moi, dans l'espace dans lequel je suis.
06:30C'est l'extraction.
06:31Alors, ça va donner, effectivement, à la machine, non pas des successions de tokens,
06:36je ne vais rien dire, d'ailleurs, c'est des mots, ça, c'est fait chier, hein.
06:39C'est bien, donc, à l'intérieur, c'est des suites mathématiques.
06:42Quand on lit derrière, il sait, à l'intérieur, c'est des représentations des contextes majeurs
06:47dans lesquels on trouve ces objets, ça s'appelle les unbanking.
06:50Mais là, ce qu'on veut faire, il y a le cas, c'est de passer par des étapes, justement,
06:53où il va construire avec à peu près le même mécanisme d'autosupplation,
06:57c'est-à-dire se servir du futur pour apprendre ce que tu pourrais prédire,
07:04il va construire, en fait, des états internes dans la machine
07:08qui vont reprendre des actions que nous faisons.
07:10Et grâce à quoi ?
07:11Ben, grâce à ça.
07:12On va collecter des données sur le cou du nez des gens,
07:16avec, ici, des recalls.
07:18Et à partir de ces données, ces machines nourries grâce à ça
07:20pourront aller essayer de prédire son fait.
07:23Il y a déjà des très belles démonstrations qui vont, par exemple,
07:25faire un recette de calcine, la machine est capable de faire les mêmes gestes.
07:29Si je nous donne un robot, par exemple, pour une autre machine,
07:32elle est capable de décomposer, en fait, des actions pour arriver à un pute.
07:36Ce qui est le cul de l'algorithme de décomposer une action.
07:39Non, pas les ULM.
07:40Les ULM, c'est une pure machinerie statistique
07:42qui prédite le document suivant sans aucune abstraction de raisonnement.
07:47Ce qu'on a rajouté en raisonnement dans ces machines,
07:48je connais très bien le fait, c'est le point que vous avez,
07:51c'est-à-dire la requête pour arriver à avoir une réponse,
07:54vous les découpez en petits mouilles, vous faites plusieurs recettes
07:56et vous avez un espace de travail qui va essayer de sortir le marché,
08:00c'est plus intelligent, souvent c'est plus intelligent.
08:02Je vous dis, c'est comme de la triche.
08:04Donc, ce marketing-là, il faut en être conscient.
08:08Pourquoi ils font ça ? Pour deux raisons.
08:10La première, c'est d'essayer de vendre leurs outils.
08:13Pour l'instant, ils ne sont pas très rentables.
08:15Il va lever des fonds, mais il y a de la possibilité,
08:18parce qu'on venait à aller perdre 7 milliards cette année.
08:22Les autres, là, les gros, les Google et tout ça,
08:25ils ont suffisamment de publicité dans tout ce qu'ils vont capturer
08:27comme données sur nos comptes pour pouvoir bien faire.
08:30Mais tous ceux qui ne sont pas sur ces économies de publicité,
08:34ils ont plus de mal.
08:36Ils seraient allés à trouver des très bons compromis
08:38parce que tout ça, c'est pour dire que ce n'est pas bien
08:40parce qu'on ne connaît pas comment ça marche
08:43et qu'on nous explique ça très mal dans un but de manipulation.
08:47Ce qu'ils voudraient, eux, c'est qu'on adhère à des psys
08:49pour payer des services pour des objets qui n'ont pas tous ces fonctions-là
08:53et qui, plus c'est, qu'ils ne les maîtrisent pas.
08:55Donc, le fait de dire que c'est super intelligent,
08:57c'est de dire que comme ça, ce n'est pas nous.
08:58Il faudrait d'ailleurs qu'on ait une personnalité juridique à ces machines
09:01pour pouvoir prendre la responsabilité sur la machine
09:03et dédouaner, finalement, le créateur.
09:06Donc, ça va très, très loin.
09:07Et dedans, tout ça, l'aspectif est très présent.
09:10Alors, vous allez vous remarquer, entre 5 et 4, ce n'est pas les mêmes,
09:14c'est pas les mêmes, c'est vrai, c'est vrai, c'est vrai, c'est vrai.
09:15Vous parlez de la même du GPT dans la salle, non ?
09:19Personne n'utilise.
09:20Alors, levez la main ce qu'ils utilisent du GPT.
09:23Je ne comprends pas.
09:24Donc, on est un bon...
09:25Aussi, on soit 50 pour soi.
09:27Et aussi, hein, Marc.
09:29Marc, voilà, Marc, vous, c'est vraiment, moi.
09:31Vous êtes aussi passé là.
09:32Alors, terminez, oui, sur le 4 à 5, puis j'étais à mes 4 à 5.
09:35C'est super intéressant, hein, d'utiliser ce GPT, c'est résumé, c'est vrai, c'est
09:39vraiment de vérifier, même, les différences que je vais donner, parce que, fondamentalement,
09:44ce genre d'ego, ou de puzzle, a perdu ses sources, ok ?
09:47La grande différence entre le GPT et 4 autres, il y avait l'air très sympa, c'est le côté
09:51« je m'aligne », ok ?
09:53Et donc, ça, c'est différent selon l'empathie, c'est le pied de, comment on met ça, tu oublies
10:00déjà ?
10:00De confirmation.
10:01De confirmation, voilà.
10:02Le pied de confirmation, tout très connu en psycho, voilà, le premier, d'ailleurs,
10:06système, il s'appelait Lisa, qu'on avait construit, il avait ce pied-là, il stimule un psychothérapeute
10:11« c'est trop génial, c'est-à-dire que je reprends vos vœux », « ah, ma mère », « ah,
10:14votre mère », et tout de suite, on a l'impression que le truc comprend quelque chose, et en
10:17vrai, il ne comprend rien, du tout.
10:19Donc, ces machines qui ne comprennent rien, nous parlent comme ça, en disant « vous
10:23êtes formidables », « vous avez perdu votre job », « ah, ce n'est pas de votre
10:27truc », « vous êtes tellement formidables », « comment il fallait qu'on se remette en
10:29question avec un truc qui nous dit ça ? » D'autant plus pour les enfants, dont j'en parlerai
10:33après, je suis très impliqué sur l'éducation.
10:35Mais pour finir, le cas de les 5, donc tout le monde se met plein en disant « 5, ce n'est
10:39possible, il est plus éthique, mais il est trop froid, on n'en veut pas, rendez-nous
10:43notre copain ». Et l'autre qui s'en rendu plusieurs copains, ils se sont dit « on va
10:47faire mieux, en 5.1, vous avez des agents, on les appelle maintenant des agents, un qui
10:52est dédié à telle ou telle tâche, l'autre qui fait l'empathie pour vous aider à surmonter
10:56la perte du job, l'autre qui… ». Attention quand même à ce que vous avez dans les mains,
11:01ce n'est pas la bonne façon d'utiliser ces outils, ça dépense beaucoup d'énergie,
11:05vous savez quand vous faites une requête c'est 10 fois plus d'énergie que quand vous avez
11:08d'accord, si vous avez sous Google ou quelque chose, même Sabatman, le géant venait
11:11à l'éthique « Arquette, merci, Arquette, poli », ça ne sert à rien, ça gâche tout
11:16ton calcul.
11:17Alors attention à ce que vous avez dans les mains, Martin, la région, vous vous interrogez
11:22quand même de ce que vous allez mettre dans les mains des étudiants, des travailleurs,
11:27notamment les étudiants. Est-ce que c'est des questions que vous vous posez quand on se dit
11:33« il y a l'IA, il faut le mettre dans les mains », des personnes qui elles sont les garde-fous,
11:38que ce soit la formation, que ce soit les outils qu'on utilise, qu'on peut mettre à disposition
11:42pour toute sa personne ?
11:44Alors, je vais répondre, bien sûr moi je suis politique de l'État, donc je vais dire
11:49beaucoup de choses avec beaucoup de conviction, mais je n'ai aucune compétence technique,
11:54je préfère avoir rassuré tout le monde là-dessus. Vous savez tout ce que je dis avec des pincettes,
11:58moi aussi je fais un peu de prédictibilité du monde suivant. Plus sérieusement,
12:05et c'est ça, je suis une sorte là, une version riche de JJPT,
12:09plus sérieusement, j'aimerais vous rebondir sur un tout petit peu. Faites le test dans
12:15ChatGPT, dans Cloud on Gemini, de lui demander ce qu'il pense de votre style d'écriture.
12:21Parce qu'en fait, vous lui avez déjà donné énormément de données sur votre narcissisme,
12:28est-ce que vous utilisez la forme directe ou indirecte ?
12:31N'est-ce que vous utilisez mon jeu ?
12:33Le nombre de fois où vous lui donnez un ordre au contraire, vous lui demandez,
12:37vous avez une formation conditionnelle dans vos comptes, il peut déjà...
12:41Tu peux même aller plus loin, tu lui demandes,
12:42quelles sont mes émotions, quelle est votre nationalité ?
12:45Et il peut déjà, il a déjà votre profil psy,
12:48peut-être pas psychiatrique, mais du moins psy.
12:50Non, non, même si on a coupé la mémoire,
12:52parce qu'on peut aller chercher dans le paramètre,
12:54t'as que notre mémoire, notre mémoire, notre mémoire,
12:55notre mémoire, notre mémoire, notre mémoire,
12:56notre mémoire, notre mémoire, notre mémoire,
12:57notre mémoire, notre mémoire, notre protégé comme ça.
12:58Il y a une petite question, s'il ne voulait pas qu'il garde au rythme,
13:00il faut le faire faire. Par des faux nombres,
13:02donc il a l'historique.
13:04Oui, par des faux nombres, donc il a l'historique.
13:06C'était le vrai point. En région Occitanie,
13:08on a été la première région à faire un plan IA.
13:12On l'a adopté il y a plus d'années, il y a deux ans.
13:16Ce n'est pas la première.
13:18Je reformule.
13:20Je reformule.
13:22On a été la première région à avoir un plan IA ensemble,
13:28qui ne soit pas un plan IA pour le numérique,
13:32mais qui s'intéresse à l'intégralité des filières
13:34et à l'intégralité des filières de façon transversale.
13:36Je pense que là, je peux le dire.
13:38Voilà, là, je peux le dire.
13:40Notre plan IA, il est transversal,
13:44mais on l'a construit autour de deux notions.
13:46Une notion de souveraineté,
13:48je passe très vite parce que ce n'est pas le cœur de ce sujet.
13:50Et une deuxième question que vous m'avez posée,
13:52en fait, c'est la question de l'éthique
13:54et de comment on va utiliser les IA au sens très général
13:58et notamment les LLM,
14:00d'un point de vue éthique.
14:02Nous, on a eu plusieurs garde-fous.
14:04On a mis en place plusieurs garde-fous.
14:06Tout d'abord, on a refusé qu'il y ait des LLM
14:10pour les usagers du service public.
14:12On est en train d'essayer d'avoir des solutions locales,
14:16on-premise,
14:18sur nos serveurs, open source,
14:20pour les agents du service public.
14:22Mais on ne souhaite pas que l'usager puisse être en interaction.
14:26Ça, c'était le premier point.
14:28Le deuxième point, c'est qu'on a essayé d'avoir une approche autour de cas d'usage.
14:34C'est-à-dire qu'on s'est dit, c'est quoi les problèmes que l'on rencontre aujourd'hui,
14:40dans lesquels l'IA pourrait faire la différence,
14:42et non pas quels sont les problèmes que les vendeurs d'IA veulent que l'on résonne.
14:48On est parti de nos besoins et pas du marché.
14:50Donc, on a quelques cas d'usage,
14:52un question de la gestion de l'eau,
14:54tout à l'a été avec les hôpitaux tout à l'heure.
14:56Et là-dessus,
14:58il s'avère qu'on a une politique
15:00régionale qui est assez importante,
15:02qui est encore une des premières de France,
15:04qui est celle de l'ordi.
15:06L'ordi, c'est quoi ?
15:08C'est 74 000 ordinateurs qu'on donne par an
15:10à tout élève qui rentre en service.
15:12C'est pas envisage.
15:14Oui, merci.
15:16Blague à part,
15:18c'est une vraie politique.
15:20Ça a fait une puissance.
15:22Ça a permis d'éviter le déclenchage lors du Covid.
15:24Ça ne suffit pas de les ordinateurs.
15:26Il faut aussi éduquer les enfants,
15:28les adolescents, leurs parents,
15:30à ce que sont ces systèmes.
15:32Nous, on a construit à la Fondation de l'Espace-Ca
15:34des capsules éthiques et IA pour le...
15:36Mais très jeune.
15:38Si vous commencez avant la 6ème,
15:40les 7-10 ans, on leur parle de quoi ?
15:42Qu'est-ce que c'est que l'économie de l'attention,
15:44de l'attachement ?
15:46C'est la dopamine.
15:48Vous voyez, vous êtes devant votre écran
15:50et ça vous envoie de la dopamine dans le corps.
15:52C'est biologique.
15:54Et vous êtes plus heureux.
15:56C'est pour ça que quand la maman arrive,
15:58en disant « Hey, dans votre mentalité,
16:00ils sont en paire. »
16:02Une fois qu'on a dit ça aux enfants,
16:04« Ah ouais, c'est pas mal quand on dit ça. »
16:06Et ça leur donne, si vous voulez, une compréhension
16:08de ce qui est en train de se passer devant leur écran.
16:10C'est la même chose pour les adultes.
16:12Mais c'est important de comprendre
16:14que ça engendre chez nous
16:16des bouleversements biologiques.
16:18Il n'y a pas que ça.
16:20Ça va engendrer des bouleversements aussi politiques,
16:22sociaux, etc.
16:24Les influences de tous ces sujets sont fondamentaux.
16:28Notamment, vous avez très bien raison
16:30de ne pas utiliser les LLM américains.
16:32Vous pouvez peut-être utiliser l'israélien quand même.
16:34Mais c'est vrai qu'au jour d'aujourd'hui,
16:36on parle des systèmes qui reformulent tout
16:39à partir des tokens qui sont dans l'avion du système correctaire.
16:42C'est quoi ?
16:43Et à partir de 95% d'anglais.
16:46Donc ça veut dire quoi sur notre souveraineté ?
16:48Facile, si vous prenez la même chose sur le festival,
16:51vous demandez qu'est-ce que c'est que recevoir un diplôme ?
16:54En France, jusqu'à présent, il n'y avait pas de toches
16:56ni de petits chapeaux, là.
16:57Ben non, si.
16:58Si vous demandez ça, ça vous envoie
17:00« use les rémunis anglo-saxes ».
17:02C'est bien la preuve que c'est ça.
17:04Donc c'est pas...
17:05C'est très influencé.
17:06JGPT fait attention en ce moment.
17:08Il y a des études scientifiques qui montrent en Angleterre,
17:11British Institute, je crois que je retrouve exactement les citations,
17:14mais qui montrent qu'ils vont chercher leurs sources
17:17sur les serveurs russes.
17:18quand on leur pose des questions sur l'Ukraine.
17:21Donc ils ont fait tout un jeu de données sur l'Ukraine.
17:24Ils ont challengé Mistral, Grock, Tixik et plein d'autres.
17:28Et ce qu'ils ont pu remarquer, c'est que JGPT et Grock
17:31allaient trois fois plus prendre des données sur les serveurs russes.
17:35Donc on est manipulé à travers ces réseaux.
17:37C'est très politique.
17:38Aujourd'hui, il faut ouvrir les yeux.
17:40Et sur les dangers affectifs, il est énorme aussi.
17:44Parlons des sujets affectifs, et on reviendra à la marque sur le sujet de la formation des étudiants.
17:50Je disais demain, l'IA va devenir mon psy.
17:54Elle l'est déjà un peu.
17:56L'IA va m'aider à faire mon deuil.
17:59Est-ce que c'est la partie émergée d'iceberg ?
18:03J'espère que nous, les médias, adorons mettre en valeur parce qu'il va y avoir des soucis pragmatiques.
18:10Ou non, il y a...
18:13Vous voyez un mouvement de France pour les statistiques.
18:15Est-ce que ce sont les gens qui parlent, qui commencent à prompter leur grand-père disparu,
18:20leur petit ami imaginaire, etc.
18:22Je n'ai pas de statistiques.
18:24Mais par contre, ce que je sais, c'est que le Vatican, il est religieux de différentes religions.
18:29Ils s'intéressent beaucoup à ce sujet parce que la marque, vous voyez, c'est important dans l'ange catholique.
18:34C'est que je connais mieux.
18:35Le début et la fin.
18:37C'est l'ange ou démon.
18:39Nous aussi.
18:40Exactement.
18:41Ils ont trouvé le titre de mon livre.
18:42Un démon, c'est un ange déçu.
18:44On est toujours dans les anges.
18:46Déçu ou déçu.
18:47Déçu.
18:48Déçu.
18:49Et bon, bref, pour revenir à l'influence que ça peut avoir sur nous, elle est énorme.
18:55Des pet-pots.
18:56Moi, j'ai été à des conférences, à tout le départ, je suis vraiment sur le machine learning,
19:00tout le monde travaille à la Sorbonne, surtout au CNRS, avec des robots sociaux et qui détectent
19:04les émotions des gens.
19:05Mais je m'avais demandé de venir à des conférences sur la fin de vie et sur la mort.
19:11Alors, il y avait un psychiatre, un sociologue et moi, et on nous disait est-ce que c'est bien
19:17ou pas d'utiliser un pet-pot.
19:18Un pet-pot, c'est un chat-pot de consagilité qui apprend la voix et qui ne peut pas décider.
19:22Donc, par exemple, je vais aller dans ma poche, quand j'ai un problème, je parle et puis
19:25ça me répond avec une voix de mon père.
19:27Voilà.
19:28Donc, problème d'utilité, problème de se rappeler par le Black Mirror.
19:31On ne peut pas s'en débarrasser, parce que c'est quand même une représentation
19:34qu'on a aimée, qui était évidemment importante, comment vous les débarrasser d'eux.
19:39Tout son Versace, même si c'est un robot, c'est une voix, c'est impossible, c'est presque
19:44impossible.
19:45Donc, on ne fait pas de devine.
19:46Et autour du sein, il y avait une économie incroyable.
19:48Ils allaient dans les EHPAD, partout, chercher les données des personnes âgées, avec le
19:52consentement des personnes âgées et le consentement des enfants.
19:55C'est comme ça, ils sont toujours là.
19:57Ils vont continuer à souhaiter mon anniversaire.
19:59Alors, si je résume un peu.
20:01Vous connaissez vos arrières arrières grands-parents ?
20:03Bah non.
20:04Vous les a oubliés ou les arrières arrières.
20:06Mais là, on peut avoir une lignée, comme ça, complète, sur le pet-pot, avec tous nos ancêtres.
20:11Donc, autant vous dire, ça ne va pas nous aider à être vifs et agiles dans le vrai
20:15vie.
20:16Et puis, deuxième chose, ils consomment un max.
20:18Ils consomment un ras, quoi.
20:20Déjà, si vous raisonnez un peu, il faut regarder les statistiques.
20:23À l'heure actuelle, on a déjà un petit pourcent de l'énergie qui passe dans le numérique.
20:28Et en 2030, on nous promet que tout le monde a des outils-là, des questions, ça va être
20:34terrible.
20:35Et ça, est-ce qu'on l'anticipe ? Non.
20:36Il nous manque complètement d'anticipation là-dessus.
20:39L'autre chose qu'on voulait dire sur ces IA...
20:42Alors, pour sonner des potes, les chatonais ont trouvé un moyen.
20:45Ils ont dit, on ne va pas interdire, mais on a le droit d'utiliser pendant la période
20:48de deuil, c'est-à-dire 44 jours.
20:5044 jours.
20:51Et qui vient vérifier si on dépasse.
20:52Bah si, si.
20:53C'est déconnecté, ensuite.
20:54C'est déconnecté, oui.
20:55Et puis, c'est en plus avec les paroles contrères qui défendent et pas avec une reconstruction
21:00à l'âge LGBT ou c'est même pas la dignité de la personne qui est gardée, puisque vous pouvez
21:04faire dire n'importe quoi, n'importe qui.
21:06D'accord.
21:07Alors, sur la régulation, tout à l'heure, je ne suis pas d'accord avec Luc Lillac,
21:10je disais que c'est tous des cons dans la Silicon Valley.
21:13Parce que, nous, on a créé beaucoup de lois, là, on a mis un porte-fou, d'ailleurs,
21:20elle est créée, et donc on a une pyramide des risques.
21:23Les chatbots, les fameux chatbots sont dans la zone modérée, risque modéré.
21:28Alors, malgré ça que moi j'étais dans les comités d'éthique nationaux proposés par le président Macron et tout, et qu'on a réfléchis et dit que c'était pas modéré, c'était haut risque.
21:38On n'a rien fait.
21:39Donc, on a protégé les IA génératifs pour que ça se montait des leaders sur les IA génératifs.
21:44Très bien.
21:45Mais quand même, il y a des gens qui se suicident, il y a des jeunes qui se suicident, il y a des gens qui perdent leur fortune manipulée par ces objets.
21:51Ça isole, c'est vraiment malsain, quand même, surtout de ne pas prévenir.
21:55Et bien, la Silicon Valley, merci à eux, laquelle ils sont engagés, ils viennent sortir une loi.
22:00Une loi sur les agents compagnons.
22:02Elle est sortie, là, le 15 octobre.
22:04Et elle rentrera en vigueur le 1er juillet 2026.
22:07C'est agile, non ?
22:08Et donc, ce genre est réfléchi, effectivement, sur le contraire.
22:11Il y a des gens dans la Silicon Valley qui veulent utiliser, par exemple, Mattel veut faire un accord avec Opénial,
22:17en général, pour ça, des nounours qui parlent avec l'LGBT ou des poupées barbies pour Noël.
22:21Vous pensiez que c'est une bonne idée, ça ?
22:23Parce que demain, ça va être quoi, le langage des jeunes ? Qu'est-ce qu'ils vont apprendre ?
22:27Dans le langage au début, on apprend dans l'interaction tellement plus.
22:30La voix, c'est tellement autre chose.
22:32Le langage, c'est tellement autre chose.
22:33Ce sont des laxus, des sciences, la psyché de la personne.
22:38Quand je commence à lui demander, ça va, aujourd'hui, ça va, ça va, c'est pour tester une année.
22:42Il fait beau chez toi, c'est encore pour tester quand on est au téléphone.
22:45On ne le voit pas, donc on a moins d'infos.
22:47Donc, tous ces trucs-là sont des trucs de teamwork pour savoir qui j'ai en face.
22:51Donc, devant une machine, c'est pas la peine.
22:54La machine vous répondra n'importe quoi, puisqu'elle a copié sur nous, humains.
22:58Donc, effectivement, ce qu'il faut retenir, c'est que ces outils sont extrêmement brillants dans la science.
23:03Pour être, quand on est expert dans un domaine, et là, je prends juste l'MIT.
23:07Comme ça, après, tu passeras la parole à vos amis.
23:10Une art état, comme si la GPT vous avez...
23:12Je sais juste l'MIT.
23:13Elle a l'air très heureuse.
23:14Donc, une réelle expérience qui a été faite au Massachusetts Institute of Technology à Boston,
23:20MIT, renommée, que je ne dirais pas ce sont des cours non plus.
23:24Et ils ont fait cette expérience qui a été produite dans des genres de renom,
23:29et qui ont un cours de rélecture, et qui ont eu cours d'interprétés.
23:32Ils ont un ensemble d'étudiants, enfin, par exemple, deux groupes.
23:36Les uns utilisent GPT-4 et les autres, non.
23:39Et ils regardent avec des capteurs quelle est votre activité cérébrale.
23:44Ok.
23:45Ils peuvent regarder si ça touche des zones de mémorisation.
23:48Ceux qui utilisent GPT-4, en céphaloplas, pas beaucoup de mémorisation de ce qui est en train de se passer.
23:54Ils utilisent papier collé, comme les étudiants, elles sont vins dans la série des tests aussi.
23:58Les autres, à leur activité, ceux qui avaient utilisé GPT-4, ils avaient très bien rédaction, ils avaient tous les mêmes sujets.
24:05Les autres étaient contents de ce qu'ils avaient fait, peut-être moins bon, mais ils étaient contents.
24:09Ils échangent ceux qui n'avaient pas de GPT ont de GPT, ceux qui l'avaient ne l'ont plus.
24:15Et on leur repose la même question.
24:17Alors, ceux qui avaient été GPT-4, ils ne se souviennent plus de ce qu'ils ont raconté.
24:21Ce n'est pas eux qui l'ont écrit, ils ont fait des copies et collées.
24:23Et là, ils ont eu des programmes pour essayer de récupérer de trois très intéressants.
24:27Et les autres, qui avaient déjà travaillé sur le sujet, eux, on leur donne dans les mains une mine d'or aussi, avec plein d'autres situations, expériences, etc.
24:36Ils vont enrichir ce qu'ils ont fait en challengeant ce qui est vrai ou ce qui est faux.
24:40C'est ça, les GPT, c'est la friction, c'est la fameuse mix-lab et qui a l'importance.
24:44Ça marque, du coup, on les retrouve, nos étudiants, les revoilà avec l'ordinateur.
24:49Comment est-ce qu'on peut donner les outils, même pour leur dire, attention, on a besoin de ces trictions.
24:53qu'on doit vous encadrer, qu'on doit vous en parler, pour que continuez à marquer notre cerveau qui continue à bouillonner ?
24:59Alors, en t'écoutant, j'ai l'impression de quelque chose de fondamental, c'est qu'en réalité, l'IA, elle va alimenter les deux plus grandes passions humaines, qui sont le désir d'immortalité, les jabot, et la fainéantisme.
25:15Non, mais c'est le système 1, en fait. Le système 1 ne consomme pas de sucre, donc naturellement, on est tenté d'aller sur le système 1.
25:24Notre cerveau et l'Ictologie, en fait, on va consommer de sucre.
25:27On dépend sur le moins possible.
25:29Et donc, l'affinéantisme, c'est un vrai problème, parce que déjà, c'est la passion universelle, on ne va pas se mentir, et on ne va pas gérer peu plus.
25:39Oui, mais on le désire, on peut faire mon planique, on le désire ça, hein ?
25:42Oui, bien sûr.
25:43C'est vrai qu'on a beaucoup expliqué à tout le monde, ça se parasite, il y a de la manipulation, vous savez, tu parlais aux humains,
25:48ils le désirent quand même, cet objet, tu parles.
25:50Oui, et politiquement, l'objet, enfin, politiquement, pour les étudiants, pour les jeunes, en Occitanie, comment ça se matérialise ?
26:01Bien, ça se matérialise par, effectivement, un usage immodéré des jabots, des LLM.
26:085-6 heures sur numérique, il y a pas mal de chatbots.
26:11Et là-dessus, nous, on est en train d'essayer de mettre en place des formations, des sensibilisations à travers leur diversité.
26:19On met en place des vidéos d'accompagnement, dans un certain nombre de choses, on essaye de trouver des nouvelles solutions face à ces anciens problèmes.
26:28Même s'il faut être honnête, on se bat contre la biologie humaine et cette passion de la féminité.
26:34Et donc, il faut effectivement retrouver de l'affliction, il faut retrouver, en sorte, le mot fait un peu vieilleux, mais de loupier fort.
26:43Parce qu'en réalité, c'est comme ça que l'on apprend et c'est comme ça qu'on est en capacité de s'émanciper.
26:51Ce n'est pas sexy, au bout de l'histoire.
26:53Ce n'est pas sexy, mais je veux juste prendre un exemple pour rebondir sur ce que tu as dit, sur l'utilisation immodérée de JGPD en politique.
27:01Nous, à la région, on va jouer avec mes camarades, avec mes collègues, c'est ce qu'on appelle le moment de JGPD.
27:08C'est le moment où l'opposition fait un discours et il y a le mot « communauté » dedans.
27:15Parce qu'en réalité, comme il est entraîné sur des données anglophones, anglo-saxones, le mot « communauté » est utilisé dans tous les discours politiques aux États-Unis.
27:23Parce que c'est la communauté locale, le service de la communauté.
27:27En France, ça ne veut pas du tout dire ça.
27:29Et si vous regardez tous les politiques, et aujourd'hui le mot, dès qu'il y a des discours politiques qui utilisent le mot « communauté », ce sont des politiques qui ont fait faire leur discours par JGPD.
27:40Et donc, ça veut dire que la manipulation politique, elle commence là.
27:44C'est-à-dire qu'ils ne savent même plus, ils n'ont même pas essayé de créer leur propre pensée ou d'essayer de raisonner.
27:49Ils ont donné un thème à JGPD.
27:52Ils lui ont dit « pour moi un discours de gauche », « pour moi un discours de droite », « pour moi enfin ».
27:56Et ils vont annoncer cela.
27:59Et ils vont annoncer cela, et ça va avoir des conséquences politiques.
28:02Parce que si, à l'Assemblée nationale, allez voir les discours, vous pouvez noter dans les verbatis, vous allez trouver assez rapidement,
28:08ça veut dire qu'il y a des choses qui ont été défendues, notamment sur l'IA, qui ont été écrites par une IA elle-même.
28:15Et là, on est presque sur l'autopouillage de l'IA qui créerait ce propre-là.
28:19Il commençait à sortir des sujets, je ne sais pas si c'est complètement fantasmé, sur l'auto-intoxication de l'IA,
28:27qui depuis trois ans, en marketing sur le web, on commence à webscreper du contenu déjà.
28:34C'est par l'IA. Et l'IA, il y a cette théorie prochutée. Enfin, on atteint un peu, on a le risque d'atteindre le maximum aujourd'hui des modèles et des…
28:44Déjà, on est au maximum, c'est une zone fraîche. On a gravé tout ce qu'il y avait sur Internet et on a piqué toutes les connaissances qu'il y a partout.
28:51Donc, il ne reste pas grand-chose et les gens hésitent maintenant à mettre des nouvelles données.
28:55Et on nous a dit R.J.P.D. Bon, ça fait évitiver les problèmes. Donc, qu'est-ce que ça a engendré ?
29:02C'est engendré qu'on crée des données artificielles. On les crée partout en disant « c'est vachement bien ».
29:08Comme ça, on n'est plus sur la paille à ces gens. Et donc, grâce à ce blanc-saint, on va encore plus loin.
29:13Et ce qui est s'arrangeant, c'est que, ben, évidemment, on ne parle pas.
29:16Parce qu'au fur et à mesure qu'on standardise déjà cette machine, puis ça prend toujours les valeurs maximales.
29:22Sauf que l'intérieur, c'est comme un petit truc qui est rigolo, la température, je ne sais pas si.
29:26Qui connaît la température dans les LLM ?
29:28Il y en a, voilà, il y en a deux.
29:30Il y en a, il y en a, il y en a sept.
29:31Il y en a plus, il y en a un peu plus.
29:32Ouais, la température, c'est l'espèce de créativité, là, qu'on rajoute...
29:35C'est-à-dire que c'est...
29:36Mais oh, on va aller chercher...
29:37Non, non, on fait.
29:38On va aller chercher des réponses plus ou moins probables.
29:40Ouais, mais c'est plus bas niveau que ça, hein.
29:42Si au lieu de prédire le prochain token le plus probable, je prends, au hasard, dans les 10% des 8 heures.
29:48C'est plus proche, ouais.
29:50Ou 20%.
29:51Vous l'avez eu dans les mains, si vous avez utilisé ping de Microsoft, tout au début, il y avait un truc qui était déterministe, un peu créatif, très créatif.
29:58Pourquoi on ne l'a pas expliqué ? Pourquoi ça n'a pas été plus évident ?
30:01Il s'est allé enrichir tout ça.
30:03Je sais, il m'était trop en simple que si une question, il faut prendre une réponse, on reposait la même question.
30:07Au premier niveau aussi, on répondait autre chose.
30:10Donc ça, c'est des trucs informatiques qui me déplaisent.
30:13Je ne vois pas pourquoi ce n'est pas plus transparent.
30:15Ça devrait être du transparent pour nous expliquer au moins de quoi il y a des questions.
30:18C'est vraiment de l'enfumage total.
30:20Et c'est ce truc dont je parlais tout à l'heure.
30:21Il y en a des milliers de tâches comme ça pour le casse, mais il faut optimiser cette machine.
30:25Détecter les émotions, par exemple.
30:27Si vous posez la question, comme vous le disiez tout à l'heure, sur ce que vous venez de dire à la machine,
30:31qu'est-ce que tu en penses ?
30:32Vous êtes plus sensible, plus éthique, etc.
30:34La machine a tout un tas de trucs à vous raconter sur vous-même.
30:37Elle se plaît aussi, ça.
30:38Le désir qu'on nous parle de nous, c'est génial.
30:41Et on peut comme ça faire des heures et des heures avec ce système.
30:44Donc il faut faire très attention.
30:46Et notamment, quand je parle des enfants, je veux vraiment faire tout sur les enfants.
30:50Moi, j'ai signé cette fameuse tribune qui passait à l'ONU, avec Benjo, etc.
30:55On a dit « Ah, c'est des tumeurs, c'est des gens qui ne veulent pas faire de texte ».
30:58C'est pas vrai.
30:59Je suis scientiste vraiment.
31:00Et pour techno, quand c'est bien utilisé, et pour l'industrie, et pour économiser l'énergie,
31:05et pour plein de trucs, c'est vachement bien.
31:08Et bien, on va passer justement à la question.
31:10On a beaucoup parlé du démon qui se cache dans les heures.
31:13On va passer au déange.
31:15Marc, vous disiez, on peut faire des choses avec le maintien à domicile.
31:19On peut faire des choses pour la lutte contre le harcèlement scolaire.
31:23Quelles sont les possibilités pour cette IA, pour venir parler à nos plus vulnérables,
31:29non pas en exploitant leurs vulnérabilités.
31:31On avait hier un sociologue qui nous expliquait tout ça, un psychologue.
31:37Mais comment est-ce qu'on fait pour donner du temps avec l'IA aux personnes âgées,
31:43ou aux étudiants qui en ont besoin ? Et comment est-ce qu'on encale ?
31:48Alors, de façon très très générale, l'IA va effectivement permettre bien d'utiliser,
31:54ou du moins utiliser consciemment par l'utilisateur final.
31:58C'est peut-être ça le vrai problème de l'ordre de l'enjeu.
32:01Va permettre d'améliorer le maintien à domicile des personnes âgées.
32:07La réalité c'est que c'est déjà le cas.
32:09Quand vous avez une personne âgée qui va commencer à être une personne âgée,
32:13qui a toutes ses ampoules connectées, qui a tout un système, peu importe lequel,
32:17qui lui permet d'avoir ce thermostat à la bonne température,
32:21de savoir s'il est sorti ou rentré, s'il a quitte, l'éteint, si le gaz est éteint,
32:25si elle permet cette sécurisation-là.
32:27Et ça, on peut aller vers encore plus de choses.
32:31Il y a beaucoup de startups qui travaillent là-dessus.
32:33Nous, à la région, on a tout en fait sur la cyber-économie.
32:36Et il va falloir accompagner cela.
32:39Les japonais qui ont eu un problème démographique avant nous,
32:42ont beaucoup réfléchi à la question des robots dans les maisons de retraite.
32:46Là où il y a aussi des startups, Condé Paris et Bordeaux,
32:51qui travaillent sur des robots d'accompagnement pour des personnes âgées
32:54en situation de quasi-dépendance.
32:57Ce n'est pas la panacée, mais pour autant, c'est le premier élément sur ça.
33:02La panacée, parce qu'on en avait des robots humanoïdes.
33:05Oui, malheureusement.
33:07J'ai travaillé pendant 8 ans avec ces gens-là, je continue à travailler.
33:09C'est un peu rigide quand même parfois.
33:11Non, mais on s'en fout.
33:13De toute façon, vous savez, plus on va rendre le robot proche de l'humain,
33:17plus on va être très intelligent.
33:18Déjà, c'est un leurre.
33:19Si je mets le même système, c'est un robot meuble,
33:22ou un R2D2, ou alors monsieur un robot,
33:25moi, c'est lui qui est très intelligent.
33:28Bon, tout ça, c'est la manipulation.
33:30Il faut juste dire attention à ça.
33:31Et puis, attention à la politique sur la personne âgée.
33:34Et j'espère qu'effectivement, vous portez ce mot-là.
33:36Il faut absolument qu'on est, nous, de la technologie pour ça.
33:38Ça, on en avait énormément.
33:40On a travaillé sur ces sujets.
33:42J'ai analysé des robots, moi, avec plus francs robotiques,
33:44parmi la patronne, et tout petit.
33:46Il est émotionnel, il ne sait pas.
33:48Je travaille à collecter des données,
33:49à rentrer sur les axes,
33:50c'est l'éthique autour de ces sujets.
33:52C'est primordial.
33:53Et je ne vois pas beaucoup de start-up aller là-dessus.
33:56Alors, sur les questions d'éthique, nous, à la région,
33:58on a fait la transition rêvée.
34:00On est en train de construire un bac à sable réglementaire,
34:03c'est-à-dire un endroit où les start-up et les chercheurs,
34:08s'ils en ont besoin, au-delà de leur comité d'éthique,
34:10vont pouvoir entraîner leurs modèles,
34:13vont pouvoir entraîner leurs produits avant la commercialisation,
34:18avant la mise sur le marché,
34:20afin de respecter au mieux les règles éthiques,
34:23et les règles de tous les privés, de RGPD, et ainsi de suite.
34:27Voir d'une nouvelle version du RGPD qui souhaitait annoncer hier.
34:31Mais l'idée est réelle, l'idée est derrière ça,
34:33c'est qu'il va falloir de toute façon entraîner des algorithmes,
34:38entraîner des IA sur nos données de santé,
34:41sur les données de dépendance,
34:43sur les données de harcèlement scolaire,
34:45parce que concrètement, si on veut détecter rapidement
34:47le harcèlement scolaire,
34:49et bien on pourrait entraîner une IA à détecter un certain nombre de choses,
34:53un certain nombre de réfigurations de harcèlement.
34:57Il est alerté, ensuite. Il est alerté.
34:59Il est alerté. Il est alerté.
35:01Il y en a deux, hein, c'est un déçu qui est pas alerté.
35:03Oui, bien sûr.
35:04Mais effectivement d'alerter pour éviter que l'élève se trouve dans une situation
35:09où il ne peut parler à personne,
35:11ou parfois il n'a même pas au début de conscience qu'il est victime de harcèlement,
35:15et que le harcèlement scolaire, on sait que c'est le fléau des années 2000,
35:19enfin, dans les cours de registration,
35:23que par rapport à notre époque, nous, le harcèlement,
35:27à la limite, il s'est arrêté à la sortie de l'école.
35:29Mais eux, c'est...
35:31On a pas eu la même licence.
35:33Non, non, mais...
35:35Non, mais regardez l'adolescence, la série télévisée,
35:37ça, vous voyez bien ce que c'est plus harcèlement,
35:39ça plus le suicide, et ça plus la décomposition entre le réel et le non réel,
35:43parce que l'enfant n'est pas responsable de la clavier, en réalité, ce qu'il fait.
35:49Et du coup, pour utiliser des IA pour le dérouler au harcèlement,
35:52il faut bien entrer ces IA sur les données de harcèlement,
35:55et c'est là où le bac à sabre réglementaire,
35:57qu'on est en train de donner en région,
35:59aura tout son sens, que ce soit en matière de santé,
36:01de harcèlement, ou tous les cas d'usages
36:03qui pourraient prépasser les autorités via actes,
36:06le bac à sabre réglementaire pourra,
36:08d'un point de vue éthique et juridique,
36:10bien sûr, accompagner ces trois heures d'entre eux.
36:13Touriste, est-ce que tu as écrit tes lancements avec l'IA ?
36:16Tout ce que tu racontes, est-ce que l'IA, à un moment donné, t'a aidé ?
36:20Je perds. Donc, nous allons prendre à présent...
36:23Il y a eu tant d'un ressort d'eux, il y a eu vos communautés.
36:26Est-ce que vous avez des questions sur la communauté ?
36:28Va répondre.
36:29Oui. Monsieur, on me donne le micro.
36:35Baoul ?
36:36Ça va, on va vous l'ouvrir.
36:38Ça va marcher, ça va marcher.
36:39Allez-y, ça va marcher.
36:45Il y a le dysfonctionnement temporel.
36:48Je pense que l'IA, c'est fait que vous allez nous poser,
36:51des questions qui ne rentrent pas la baisse.
36:53Allez-y.
36:54J'aurais aimé que vous reveniez sur la décision de
36:56pas quitter des IA au contact de la population des citoyens.
37:01Parce qu'en première vue, je ne vois pas le problème.
37:04Au contraire, je dirais plus, ça serait un peu plus intéressant
37:06que l'agent sur un contrôle intervienne quand l'IA ne fonctionne pas.
37:11C'est pour ça qu'il n'y a pas de problème.
37:14Alors, une notation très simple, ce qu'on a voulu éviter, c'est, en tout cas,
37:19la grande crainte des usagers, la grande crainte des agents, c'était de se dire
37:23qu'on va supprimer des emplois.
37:25Et à terme, on va se retrouver, je vous y trouve, notre administration,
37:29mais les impôts, aujourd'hui,
37:33on a tous eu un jour à faire au trésor public.
37:38En tout cas, si ce n'est pas le cas, je vous souhaite bonne chance.
37:42Mais quand ça arrivera, mais tout sérieusement, nous, ce qu'on veut,
37:46c'est que l'usager, quand il vienne, l'IA,
37:49permette d'enrichir l'expérience du service public.
37:53Et donc, l'usager, quand il vient à la région,
37:55quand il vient dans une maison de région,
37:56quand il vient dans un centre d'accueil,
37:58on ne veut pas que ce soit l'IA qui le répète.
38:00On veut qu'il y ait un agent.
38:01Mais par contre, quand il est agent, l'agent, lui, il soit augmenté,
38:04parce qu'on a déployé un élément local
38:07pour qu'il puisse interroger nos bases de données,
38:10nos décisions administratives,
38:12pour avoir le meilleur service public possible pour l'usager.
38:16Et ça, ça a été notre tentative, notre première tentative de déploiement.
38:20Elle est probablement, d'un point de vue économique, pas efficiente.
38:23Effectivement, on pourrait dire,
38:25on met un LLM généraliste partout,
38:28enfin, un LLM sur nos données,
38:30sauf que les personnes, quand elles viennent voir une collectivité territoriale,
38:34qu'elles ne viennent pas voir une entreprise,
38:35elles viennent pas voir un service public.
38:37Et elles ont besoin que quelqu'un, à un moment donné,
38:39qui porte la responsabilité de cette décision.
38:41Et quand un agent accompagne,
38:43pour une entreprise qui demande une subvention,
38:45ou quelqu'un qui a un problème en matière de transport ou de lycée,
38:49qu'on a une demande de changement de lycée,
38:51qu'on a une demande de...
38:53qu'ils ont cassé l'ordi, qu'ils ont besoin d'un nouvel ordi,
38:55on a...
38:57je prends des exemples comme ça, mais...
38:59qu'ils ont quelqu'un qui est responsable et qui est physiquement responsable.
39:01Et ça, je pense que c'est important sur le service public,
39:05parce que...
39:07le principal cas, et bien, c'est déjà très vite non personnel,
39:11non personnalisé, et à la fin, il y a un projet.
39:13Et on a besoin de service.
39:15Et bien, c'est à peu près.
39:17Donc, c'est pour ça qu'on a l'autonomie, c'est très vite.
39:19J'ai une question technique,
39:21que j'ai même dit.
39:23Je vais faire deux fois la même, mais à la fin, un peu différente.
39:25Je vais de l'intégration des processus IA dans les IHL.
39:27C'est quoi ?
39:29Les IHL, c'est l'intégration de ma machine.
39:31Maintenant, je ne fais que ça, moi.
39:33Ah, pardon, c'est que t'es un seul modèle comme ça,
39:35mais c'est l'acronyme qui me semblait bizarre.
39:37Comment fournir la conscience à l'enfoncement des décisions faites ou proposées,
39:39par exemple, en expliquant le processus automatique de l'IA ?
39:41Ils ont expliqué, oui,
39:43il faut expliquer, oui, de l'intégration,
39:45et comment faire une conscience suffisante
39:47dans des décisions faites ou proposées, par exemple,
39:49en expliquant le processus automatique de l'IA ?
39:51Je pense qu'il faut, effectivement, ouvrir les machines.
39:53Moi, je dis déjà l'école, là, il faut
39:55venir avec un LLM qui ne marche pas,
39:57un chat GBT local, Lucie,
39:59je ne sais pas quoi, et vous le désinguer,
40:01c'est à vous regarder quelles sont les différentes strates
40:03et comment ça marche,
40:05pour habituer les gens à voir un peu l'intérieur de ces machines.
40:07La température, c'est un truc que beaucoup
40:09ne connaissent pas.
40:11Il y a des gens qui sont aussi traumatisés
40:13parce que, à ce coup, la conversation s'arrête
40:15parce qu'il y a un buffer maximal.
40:17Elle s'arrête.
40:19C'est chiant, mais non.
40:21C'est machinique.
40:23Donc, il faut vraiment donner à comprendre.
40:25Et pour avoir ça, il faut encadrer.
40:27Je vais vous donner un exemple sur les détections
40:29de cancers précoces,
40:31avec des IA presidives.
40:33Lorsque vous avez un médecin,
40:35un petit copain qui a trente ans de cohorte
40:37de jeunes femmes qui ont vu le cancer du sein.
40:39Et lui-ci, le problème,
40:41c'est génial cette machine d'abord,
40:43il faut avoir des choses que je ne vois pas.
40:45Donc, il voit des signaux faibles,
40:47des amalgames de pixels,
40:49des milliards de données que je ne verrai même pas dans ma fille.
40:51Du coup, il a mis quand même trente ans de cohorte de médecine.
40:53Mais, de temps en temps, il me sort un diagnostic
40:55qui est 67% de malchance d'avoir un cancer.
40:57Qu'est-ce que je fais du sein ?
40:59Alors, lui-ci, avec des trente ans d'éclenance,
41:01il est capable de dire être un faux positif.
41:03C'est-à-dire que tu ne comptes pas que la machine ait raison
41:05du tout avec certitude.
41:07Les jeunes médecins qui sortent de médecine,
41:09ils sont incapables de faire ça.
41:11Ils suivent la machine.
41:13Donc, demain, il faudra qu'on évite et qu'on encadre,
41:15comme vous le dites là, en donnant des processus,
41:17comment ça va marcher, et lever des pistes.
41:19Il n'y a aucune certitude.
41:21Et ça aussi, l'humain en sort du sein.
41:23Du vide, du doute.
41:25Et bien voilà, c'est vraiment ce qu'il faut retenir.
41:27L'incertain, ça devient de Blaise Pascal dans les pensées.
41:29C'est le max de ce qu'il faut comprendre ici.
41:31C'est-à-dire que tout ce que va vous dire cette machine,
41:33il n'est pas ni neutre, ni vrai.
41:37C'est approximatif.
41:39C'est recomposé par un autre humain qui n'a aucune intention
41:41de faire du mal, qui est juste là.
41:43De temps en temps, ça tombe bien.
41:45De temps en temps, ça tombe pas bien.
41:47Pour revenir sur les médecins,
41:49eux, lorsqu'ils prennent des décisions de biopsie
41:51pour tous les patients, ça les stresse.
41:53C'est de l'argent pour la sécurité sociale.
41:55Donc, on doit encadrer ces machines
41:57par des supervisions au-dessus
41:59qui nous proposent de regarder un peu
42:01d'où vient cette course
42:03de décision de la machine.
42:05Quels sont les indices sur lesquels on doit jouer ?
42:07Et c'est ça l'intérêt de l'IA.
42:09C'est d'améliorer notre intelligence.
42:11Dernière question Menti.
42:13LLM gourmand est connecté au serveur distant.
42:15À quand une nouvelle technologie où l'algorithme est déconnecté
42:19et moins gourmand en énergie ?
42:21Avec des gains, RSE, habilité ou tout.
42:23Marc, est-ce que vous réfléchissez aux IA ?
42:25Oui, alors deux fois, on y réfléchit.
42:27Il faut savoir qu'en région de Cittalie,
42:29on a la chance d'avoir un supercalculateur
42:31qui s'appelle Ad Astra,
42:33qui est un des trois supercalculateurs
42:35les moins énergivores par opération seconde.
42:37Alors non, Laurence, on connaît deux qui touchent la conférence.
42:41C'est une autre stratégie.
42:43J'en sais rien.
42:45J'en sais rien.
42:47J'en sais rien.
42:49C'est ça, non mais juste après,
42:51il y a Ad Astra.
42:53Mais ne vous inquiétez pas,
42:55on va remonter au classement
42:57pour la prochaine conférence.
42:59C'est pas du fait.
43:01Vous avez des calculs plus loin.
43:03C'est vraiment masculin, vous avez vu ?
43:05C'est que tu m'as dit qu'il y a un autre sujet,
43:07c'est pas moi.
43:09Mais on a des culpabilisés.
43:11J'ai dit Jean-François Bodefour hier,
43:13c'est un petit nombre de culpabilisés.
43:15D'accord, mais bon.
43:17Et Marc ?
43:19Bien sûr qu'on y réfléchit sur l'Iafrigal.
43:21Il y a une bonne nouvelle,
43:23et je sais que ça va...
43:25D'accord, oui.
43:27Il y a une loi, qui est la seule loi
43:29qui pour l'instant n'a jamais été violée par quiconque,
43:31qui s'appelle la loi de Moore,
43:33qui dit que la puissance de calcul des processeurs
43:35double tous les 18 mois,
43:37et qui dit qu'il y a une conséquence,
43:39c'est que l'enveloppe thermique des processeurs diminue.
43:43En 1998, un ordinateur, c'est 300 watts.
43:45Aujourd'hui, c'est 25 watts.
43:47Et donc, je permets de perturber,
43:49je vais dire quoi ?
43:51Et donc, il faut aussi avoir entré du bien conscience
43:55dans la technologie, même s'il y a des dépendances,
43:57ou il y a des questions de souhaits et ainsi de suite,
43:59parce que l'IA va logiquement devenir fungale,
44:03parce qu'elle va être optimisée,
44:05ou du moins les processeurs qui vont tourner l'IA
44:07vont devenir de plus en plus optimisés,
44:09et la parole est à l'adoption,
44:11c'est bon, bon, bon.
44:13Vas-y, Laurence, est-ce que vous vous carmènerez la discussion ?
44:15La loi de vous, elle va rester à redonner,
44:17parce que la miniaturisation sera plus possible.
44:19Maintenant, on va changer de format,
44:21et on ne va pas savoir qu'il n'en va pas.
44:23Pendant 30 ans, on aura trouvé autre chose, de toute façon.
44:25Allez, rendez-vous d'ici.
44:27Merci, bravo à nos deux de la vérité.
44:31Et justement,
44:33si vous voulez prolonger la discussion et la réflexion,
44:35Laurence de Villers-Bédicasse,
44:37tout de suite, son ouvrage,
44:39il y a enjeu de conscience, passe là-bas.
44:41La pause méridienne, on se retrouve à 14h,
44:43pour une grande leçon Clément Fraise,
44:45appuyée autre esprit critique,
44:47vous lui a laissé un mentaliste.
44:49C'est un décoif, à tout à l'heure.
45:11Sous-titrage Société Radio-Canada
45:15...
45:19...
45:21...
45:23...
45:25...
Recommandations
29:53
|
À suivre
1:50
2:45
42:46
18:44
1:48
1:13
0:24
Écris le tout premier commentaire