Passer au playerPasser au contenu principal
  • il y a 7 semaines
Ce dimanche 15 mars, Damien Licata Caruso, journaliste au Parisien, et Pierre Fontaine, rédacteur en chef adjoint au site BFM Tech, sont revenus sur l'application Canal+, qui sera bientôt équipée de l'IA de ChatGPT, sur Meta qui a acquis Moltbook, ainsi que sur l'arrivée des robots humanoïdes chez Xiaomi, dans l'émission De Quoi J'me Mail présentée par François Sorel. De Quoi J'me Mail est à voir ou écouter tous les dimanches sur BFM Business.

Catégorie

📺
TV
Transcription
00:01De quoi je me mêle sur BFM Business et Tech & Co.
00:06Le club de la presse IT, mesdames, messieurs, avec Damien Licata-Carrouzo !
00:10– Bonjour ! – Je ne sais pas ce qui m'arrive.
00:12Ça a été plus fort que moi. – Oui, je sais, c'est impressionnant en tout cas.
00:15– Je ne m'en suis même pas rendu compte.
00:17– C'est terrible ! – C'est un tour d'opéra, incroyable.
00:19– Bientôt le single. – Bientôt le single qu'il ne faudra pas acheter.
00:24D'ailleurs, qui achète encore des singles ?
00:26– Visiblement, c'est un autre débat qu'on pourrait ouvrir un peu plus tard.
00:30Merci d'être là, Damien. – Merci à vous.
00:31– Damien Licata, journaliste aux Parisiens et spécialisé dans la tech, bien évidemment.
00:37Dès que vous lisez un article tech, il y a Damien qui est derrière.
00:40– Fou les articles tech. – C'est ça.
00:41Pierre Fontel est avec nous aussi. Salut Pierre !
00:43– Bonjour. – Notre journaliste maison, c'est notre petit cousin ici à BFM Tech.
00:48Il a mis son plus beau, comment pourrais-je dire, gilet, compatible.
00:53– Truc bleu. – Compatible avec le fond de quoi je me m'aime.
00:57Merci beaucoup Pierre. – J'essaye, j'essaye.
00:58– C'est ça Pierre, c'est la perfection. – Caméléon, incroyable.
01:01– Voilà, perfection éditoriale, perfection aussi esthétique, etc.
01:04– Je prête beaucoup d'importance à mon apparence.
01:07– Évidemment. – Bien sûr.
01:07– Rédacteur en chef adjoint de BFM Tech et adorateur du bleu.
01:12– Mesdames, messieurs, pas mal de sujets intéressants.
01:15Tout à l'heure, on va évoquer Google qui refait une petite incursion dans le jeu vidéo.
01:19On va parler aussi d'un truc qui s'appelle Maltbook.
01:22Imaginez un Facebook où les humains ne parlent pas,
01:25mais ce sont les IA qui discutent entre elles.
01:27Vous vous dites à quoi ça sert, on va tout vous expliquer.
01:29Vous allez voir, il y a quand même une petite raison.
01:31Mais pour débuter, on va évoquer un sujet qui vous concerne peut-être
01:36si vous êtes abonné à Canal, Canal+,
01:40qui aujourd'hui, vous le savez, s'est vraiment positionné sur le numérique
01:45avec une application qui est assez plébiscitée
01:48et qui n'a rien envié aux géants de la tech américains,
01:52que ce soit les Netflix, les Prime Vidéo, etc.
01:54Une appli qui permet de faire plein de choses
01:56et qui va être mise à jour.
01:58Alors je ne sais pas qui va commencer, Damien ou Pierre,
02:01c'est assez intéressant parce qu'ils vont booster cette appli
02:04avec de l'intelligence artificielle.
02:06Mon dieu que c'est original.
02:07Et oui, il fallait qu'ils y passent à un moment ou à un autre.
02:10Donc voilà, on est très très très loin du décodeur à l'ancienne,
02:13effectivement, et là on va intégrer tout simplement
02:15un agent conversationnel.
02:17Techniquement, ça va être finalement un chat GPT
02:20auquel on va pouvoir demander, j'ai un petit coup de blouse,
02:23j'ai envie de me mettre une comédie sympathique française
02:25avec un acteur connu.
02:28Et je vais lui demander tout simplement comme ça,
02:30comme si je parlais à un ami,
02:31de me faire une recommandation d'une petite comédie sympa.
02:34Et ça va arriver à partir du mois de juin
02:36et Canal va rentrer dans l'ère de l'IA,
02:39l'IA générative auquel on est capable de demander
02:42à peu près tout ce qu'on veut.
02:43Donc ça va être à la fois la recommandation,
02:45mais aussi une manière peut-être de découvrir de nouvelles choses.
02:48– Parce que les recommandations, ça existe depuis très longtemps en fait.
02:51Dès que vous regardez, je ne sais pas moi, un James Bond,
02:53vous allez avoir derrière des beaux soulignes.
02:55– Oui, mais historiquement, on mettait le nom de l'acteur,
02:57peut-être un genre, mais là on va rentrer dans un niveau de détail
03:01qu'on ne connaissait pas.
03:02– Là, je vais parler à l'appli Canal, c'est ça Pierre ?
03:03– Là, effectivement, un, on passe au langage naturel,
03:06donc c'est une interaction beaucoup plus facile,
03:10on détaille les différents critères.
03:11Et moi, je pense qu'à peu près tout le monde est confronté à ce problème.
03:15J'y vois un bon moyen de réduire de manière très importante
03:19le temps qu'on passe à choisir le film qu'on va regarder en famille.
03:22Généralement, c'est on regarde un film,
03:23ok, bon, moi j'ai une demi-heure pour faire autre chose,
03:25parce que le temps qu'on décide…
03:27Alors déjà, où on regarde ?
03:28– Non, mais déjà, qui prend la télécommande ?
03:29– Mais là, en fait, on va dire, bon, qu'est-ce qu'on veut regarder ?
03:32Un film, un film, petite comédie, sympathique, ok, d'accord, hop,
03:35et après, on propose ça, et en fait, on aura donc,
03:38grâce à l'interaction en langage naturel,
03:40qui est beaucoup plus facile que de scroller pendant des heures
03:42dans une interface, on aura une présélection,
03:44et ensuite, on aura cette possibilité d'avoir, effectivement,
03:48sous les yeux, les trois films qui correspondent
03:50à l'humeur de à peu près toute la famille,
03:53sauf du petit dernier, mais c'est pas grave, on l'écoute pas.
03:54– Alors, on se dit, ouais, ok, bon, d'accord,
03:56mais c'est quand même assez intéressant,
03:57parce que ChatGPT arrive dans ce type de service,
04:02finalement, et d'après ce que j'ai,
04:04alors peut-être que ça m'a échappé,
04:06j'ai l'impression que MyCanal est l'un des premiers acteurs au monde
04:09à passer un accord comme ça avec ChatGPT, non ?
04:12– Alors, je sais pas, je connais pas tous les acteurs
04:16de tous les pays du monde à le faire,
04:17mais il y a une chose qui est sûre,
04:18c'est que Canal, depuis quasiment toujours,
04:22et particulièrement sur son application et ses services numériques,
04:26est toujours en pointe, a toujours été très en avance,
04:28d'ailleurs, c'est très récurrent dans les keynotes Apple,
04:32– Elle est citée en exemple.
04:34– Elle est citée en exemple, parce qu'il y a une vraie culture
04:36de l'innovation dans les équipes techniques de Canal,
04:39ça c'est une réalité, enfin, indiscutable,
04:40et puis il y a un vrai travail pour, soit aider à développer
04:45des nouvelles technologies, par exemple de streaming,
04:48soit essayer de voir ce qu'il y a de mieux à tirer d'une techno,
04:50et donc c'est pas complètement étonnant que ChatGPT,
04:53enfin en tout cas, en l'occurrence,
04:54c'est une IA qui permet d'une nouvelle manière d'interagir
04:59face à l'apparition de l'application Canal.
05:01– Alors, moi la question que je vous pose,
05:03c'est comment on va parler à Canal ?
05:05– Excellente question, parce qu'il y a une option,
05:07normalement, dans l'application…
05:07– Qu'est-ce qu'on fait ?
05:07– On va derrière la télé, on tape derrière la télé,
05:10coucou !
05:10– Il y a le petit micro dans l'application,
05:12normalement, qu'on peut utiliser,
05:13donc si on a une Apple TV…
05:16– Donc il faut avoir une télécommande avec un micro intégré,
05:20ce qui est…
05:20– Cela dit, ça arrive de plus en plus.
05:22– Oui, il y en a beaucoup quand même.
05:22– Soit micro, soit il y a un champ de recherche,
05:26et on tape depuis un smartphone éventuellement,
05:28un truc comme ça, ça peut être aussi une solution.
05:32Et c'est vrai que le vocal est plus pratique.
05:35– Ça rajouterait de l'interactivité, oui.
05:37– On sait comment ça se passe, en fait,
05:38ils vont se créer leur propre chat GPT
05:41avec les données de MyCanal ?
05:43– Je pense que c'est plutôt l'IA généraliste de chat GPT qui…
05:47– Je pense que pour éviter de se retrouver
05:49avec les recommandations de films qui ne sont pas disponibles,
05:52– Oui, ça aurait été…
05:54Enfin, le modèle interagira avec une base de données spécifique.
06:00Ça me semble assez pertinent,
06:02même s'ils n'ont pas détaillé les choses sur ce point,
06:04ça me semble assez logique.
06:06Moi, ce que je trouve intéressant,
06:08c'est que de plus en plus,
06:10on dit que les LLM,
06:11donc la technologie de grands langages,
06:14de grands modèles de langages,
06:15derrière chat GPT et les autres,
06:18est l'interface du futur pour interagir entre l'homme et la machine.
06:22Et on voit que maintenant,
06:23on arrive entre l'homme et la machine
06:25que tout le monde utilise au quotidien,
06:27c'est-à-dire le téléviseur,
06:29et on y est quand en fait.
06:30Maintenant, on se retrouve à voir
06:31cette nouvelle façon d'agir de manière hyper…
06:35d'interagir de manière hyper fluide.
06:36Et là, ce sera pour regarder la télé,
06:38ça facilitera le choix des films,
06:40le choix des émissions qu'on veut regarder.
06:41Et je trouve ça intéressant
06:44que ça arrive vraiment dans les mains du grand public,
06:47parce que même les gens
06:49qui n'utilisent pas de chat GPT au quotidien,
06:51professionnellement,
06:52ou même les jeunes qui ne s'en servent pas
06:53pour faire des études,
06:54là, ils auront cet outil-là
06:56pour regarder la télévision.
06:57Et du coup, ça montre bien
06:58à quel point c'est rentré partout dans le quotidien.
07:01Et puis, vous allez voir,
07:02c'est une vraie tendance,
07:03c'est que le début.
07:04L'IA générative va arriver de plus en plus
07:07dans le divertissement.
07:08D'ailleurs, pas mal de constructeurs
07:10l'ont annoncé au CES.
07:12Il va avoir une couche d'IA
07:14maintenant dans les télés.
07:16Et notamment Samsung.
07:17Alors lui, il va en avoir plusieurs, je crois.
07:18Oui, effectivement.
07:19Samsung et ses concurrents
07:20vont intégrer l'IA directement
07:23dans le logiciel de la télé,
07:25ce qui va apporter différentes choses.
07:27Déjà, de la recommandation
07:27qu'on pourra en avoir sur le canal.
07:29Mais aussi, par exemple,
07:31l'IA va pouvoir analyser
07:32ce qui se passe à l'écran.
07:33Vous allez voir, par exemple,
07:35un petit tailleur
07:36ou une casquette qui vous plaît bien.
07:37Vous allez mettre en pause,
07:38vous allez prendre votre télécommande
07:40connecté et lui dire
07:41écoute, analyse-moi l'image
07:43et trouve-moi la marque
07:44qui apparaît à l'écran.
07:45C'est-à-dire une nouvelle forme
07:47de shopping.
07:48On sera vraiment dans l'étape d'après
07:49du télé-shopping.
07:50Oui, c'est du Google Lens
07:51en quasiment temps réel.
07:52C'est ça sur la télé.
07:53On pourra dire écoute,
07:54trouve-moi ça,
07:55envoie-moi vers le site commercial
07:57qui va bien
07:57ou je ne me rappelle plus
07:59qui est cet acteur
07:59ou est-ce que je l'ai vu.
08:00Eh bien, trouve-moi
08:01qui est ce beau gosse
08:04et où est-ce que je peux trouver
08:06d'autres films
08:06où il apparaît.
08:08Ok, mais ce qui est intéressant
08:09c'est qu'une IA générative
08:11plus générale aussi,
08:12enfin plus générale,
08:13c'est-à-dire un peu
08:13comme un chat GPT
08:14arrive sur les télés.
08:16C'est-à-dire que si par exemple
08:17vous êtes,
08:18souvent on fait ça aujourd'hui,
08:19on regarde un film,
08:21on se dit tiens ce comédien
08:22je l'ai déjà vu quelque part.
08:23Là on va sur Google,
08:24là vous pourrez interroger la télé
08:26pour lui demander justement
08:28où est-ce que ce comédien
08:29est déjà apparu
08:30et vous aurez un vrai service
08:31de chat GPT
08:33intégré à votre télé.
08:34On verra si ça apporte
08:35quelque chose,
08:35si ça marche.
08:35chat GPT, Perplexity,
08:37tous les...
08:38Copilote aussi.
08:39Copilote arrive chez Samsung
08:40et chez d'autres fabricants.
08:42Et c'est rigolo
08:43parce que je posais la question
08:44au porte-parole de chez Samsung,
08:45je dis mais si c'est Copilote,
08:46c'est chat GPT.
08:47Ah non, on ne peut pas dire ça,
08:48etc.
08:49Alors que Copilote,
08:49c'est chat GPT.
08:50On est d'accord ?
08:51Mais pas que.
08:53Ils offrent toujours
08:54plusieurs modèles.
08:57Après je ne sais pas,
08:58en fonction des usages
08:59et des supports,
09:01peut-être qu'ils prennent
09:01d'autres trucs.
09:02Parce qu'ils cherchent justement
09:03à se diversifier et à...
09:05Oui, et puis à sortir en fait
09:06de la...
09:07De la dépendance, on va dire.
09:08De la dépendance de chat GPT,
09:09d'OpenAI.
09:11On revient à Canal
09:12parce qu'il y a eu pas mal
09:13de choses qui ont été annoncées
09:14sur l'IA.
09:15Et notamment aussi
09:18une IA au service
09:19des Ciliastes.
09:20Oui.
09:21qui sera proposée
09:22par Canal.
09:23Et Canal va mettre
09:24à disposition,
09:25donc ils vont certainement payer,
09:27parce que c'est assez cher
09:28ce service-là,
09:28VO3.
09:29C'est Google cette fois-ci.
09:31La production audiovisuelle,
09:33ils pourront,
09:34les réalisateurs,
09:34les scénaristes,
09:36ceux qui en tout cas
09:37voudront le faire,
09:38parce qu'il y a quand même
09:39une levée de bouclier
09:40contre l'IA génératif
09:41en France.
09:42On voit de nombreuses
09:43pétitions d'artistes
09:45qui dénoncent notamment
09:46l'usage des voix
09:48artificielles.
09:49mais peut-être que si c'est
09:50de l'aide à la création,
09:51ça passera un petit peu mieux.
09:52En tout cas,
09:53Canal va mettre à disposition
09:54de son réservoir de talent
09:55des outils d'IA génératifs
09:57pour les aider
09:58dans la construction
09:58de leurs films,
09:59de leurs séries,
10:00pour gagner du temps
10:01et surtout, je pense,
10:01pour gagner de l'argent
10:02et être beaucoup plus...
10:03C'est intéressant parce que
10:03si on reprend ce que Canal dit,
10:06cette IA sera proposée
10:07aux producteurs
10:08et réalisateurs
10:08travaillant avec Canal+,
10:10pour prévisualiser des scènes
10:12ou réaliser des effets spéciaux
10:14impossibles dans la réalité.
10:15Oui, c'est...
10:16Alors, on fait ce qu'elle...
10:17Ça arrive quand même, hein ?
10:19C'est-à-dire qu'ils vont faire appel
10:20à VO3, peut-être,
10:21pour certains effets spéciaux.
10:22Mais enfin, comme ça a déjà été...
10:23Enfin, c'était pas VO3 en l'occurrence,
10:25mais comme, par exemple,
10:26enfin, c'était Amazon
10:27qui, pour certaines scènes
10:29de sa série...
10:30C'était quoi ?
10:30C'est David, hein ?
10:31C'est plus...
10:31C'est la série
10:34plus ou moins
10:34Biblico Action, là.
10:35Le titre m'échappe.
10:37Qui a fait certaines de ses scènes
10:39avec l'IA générative.
10:40Donc, effectivement,
10:41là, si c'est, par exemple,
10:42pour faire une sorte
10:44de storyboard animé
10:46ou de rendu de scène,
10:47un pré-rendu de scène
10:48avant de passer au vrai CGI
10:49et fait par des humains,
10:50peut-être qu'effectivement,
10:52c'est un bon moyen
10:52de fluidifier les choses,
10:54de voir si la vision artistique
10:55est bonne.
10:56Ce que disait, en tout cas,
10:57Canal, c'est que c'était
10:59pas quelque chose d'obligatoire
11:00et que ça sera réservé
11:01qu'aux cinéastes
11:03qui sont, entre guillemets,
11:04qui travaillent pour Canal.
11:06Même si Canal a un point
11:07très important
11:08dans le cinéma français,
11:09c'est vrai.
11:10Et donc,
11:11tout va être une question,
11:13comme tu le disais très bien,
11:14Damien,
11:14il va y avoir une question,
11:15effectivement,
11:16d'équilibre.
11:17Où est-ce qu'on va ?
11:18Il ne faut pas menacer
11:21les métiers du cinéma,
11:22mais si ça peut faciliter
11:24certaines choses,
11:25si ça peut accélérer
11:27certaines choses
11:27sans supprimer des emplois.
11:30Après, on sait bien
11:31qu'effectivement,
11:31quand on déploie
11:32ce genre d'outils,
11:33c'est aussi pour faire
11:33des économies
11:34et que si les économies,
11:37souvent,
11:37c'est sur le dos
11:38d'employés.
11:40Alors, ce qui est intéressant,
11:41c'est que Canal dit bien
11:42qu'il n'y aura pas
11:42de substitution
11:43des acteurs.
11:44Non, mais c'est important.
11:47Il y a quand même
11:48des gardes fous.
11:49En fait,
11:51ne pas le préciser,
11:53ça aurait été
11:54un très bon moyen
11:55de ne plus avoir
11:55un seul acteur vivant
11:56dans ces productions.
11:56Bien sûr.
11:58Donc, je pense qu'effectivement,
11:59ils ont bien fait
12:00de le préciser,
12:01parce que là,
12:02ce n'est plus
12:02une levée de bouclier,
12:03c'est la fin du monde.
12:04Et donc, intéressant
12:07de voir que Canal
12:10embrasse l'IA
12:11de plusieurs manières.
12:12Dernier petit sujet
12:15concernant tout cela,
12:17c'est en fait
12:18la petite rumeur
12:19qu'il y a eu
12:19suite à cette conférence.
12:21La petite panique même.
12:21La petite panique,
12:23c'est le partage de comptes
12:24et l'augmentation
12:25éventuelle des tarifs
12:26de Canal.
12:28Parce que c'est vrai
12:28que dans ce monde
12:30où aujourd'hui,
12:31il est de plus en plus
12:32compliqué de partager
12:33ses comptes,
12:34que ce soit
12:35chez Netflix,
12:36mais aussi chez HBO,
12:37chez Paramount,
12:38tout le monde maintenant,
12:39Disney aussi,
12:40tout le monde met
12:41des systèmes
12:42de localisation
12:43pour que ce soit
12:44de plus en plus compliqué
12:44de partager son compte
12:45en dehors du foyer familial.
12:47Il y a eu un moment,
12:49une petite rumeur
12:49comme quoi Canal
12:50allait aussi
12:51arrêter le partage de comptes.
12:53Et là,
12:53la France s'est arrêtée.
12:55Panique à bord.
12:56Panique à bord.
12:57Il y a eu en fait
12:57une conférence de presse
12:59de Canal
13:00en début de semaine
13:01et il y a eu
13:02un bon vieux PowerPoint
13:03et à la fin,
13:04un bon vieux PowerPoint.
13:05En anglais,
13:06je crois en plus.
13:06En anglais en plus
13:07et c'était marqué
13:07des pistes
13:09pour diversifier
13:09les revenus
13:10et pour faire des économies.
13:11Donc,
13:12il y avait
13:12la troisième partie
13:13du slide,
13:14c'était potentiellement
13:16réduire les connexions
13:18multicomptes.
13:19Donc,
13:19les gens ont interprété ça.
13:21Maxime Sala
13:22tout de suite
13:23éteint
13:24un incendie
13:25sur les réseaux sociaux
13:26sur Twitter
13:26en répondant aux journalistes
13:27qui avaient sorti
13:27cette information-là
13:28en disant qu'en gros
13:29les autres
13:30le faisaient
13:31mais que Canal Plus
13:33ne le faisait pas
13:34encore.
13:35Il se réservait potentiellement
13:36l'option
13:36mais ce n'est pas encore le cas.
13:37Donc,
13:38il a essayé un peu
13:38de calmer
13:40la tempête
13:41mais il y a quand même
13:42une petite idée
13:44qui est dans leur tête.
13:46Disons que
13:46même si ce n'est pas
13:48un sens de l'histoire
13:49qu'on apprécie
13:49c'est un peu le sens de l'histoire
13:50quand tout le monde le fait
13:51et qu'il y a une cherche
13:52enfin,
13:53il y a une sorte de course
13:54à la rentabilité
13:55et qui passe par
13:57une augmentation
13:57du nombre
13:58d'utilisateurs payants.
13:59Après,
14:00ça pose toujours la question
14:01d'il y ait effectivement
14:02des coûts
14:03qui impliquent
14:04un ou plusieurs abonnements
14:06des familles
14:08un peu
14:08on va dire
14:09reconstituées
14:09quand on a
14:10des enfants
14:10qui changent
14:11de...
14:12vont chez le papa
14:13une semaine
14:14ou même
14:15qui sont étudiants
14:15qui partent
14:17à l'écranger
14:17ou dans une autre ville.
14:19Ça pose beaucoup de questions.
14:20Après,
14:21généralement
14:22Netflix
14:23et les autres
14:23l'ont dit
14:24c'est quand même
14:24des cas
14:25qui sont à la marge.
14:27Alors,
14:29on ne va jamais se réjouir
14:30de devoir dépenser
14:31de plus en plus
14:32pour regarder les choses
14:32mais néanmoins
14:33si on veut
14:33des bons programmes
14:34derrière
14:35parfois,
14:35hélas,
14:36il faut payer.
14:36C'est même la règle
14:37en règle générale.
14:38Mais sauf qu'on paye déjà.
14:40Et est-ce que
14:41ce n'est pas aussi
14:42une force
14:43pour MyCanal
14:43le fait d'avoir
14:44cette liberté
14:45des partages de comptes
14:46qui fait qu'ils ont
14:47plus d'abonnés ?
14:48Peut-être que demain
14:49s'ils arrêtent
14:50ou alors s'ils
14:51on va dire
14:52ils serrent un petit peu
14:53la vie sur ce partage
14:54de comptes,
14:54peut-être qu'il y a des gens
14:55qui décideront
14:56d'aller plus sur Netflix
14:57ou sur d'autres services.
15:00à mon avis
15:00il y a un petit risque
15:01quand même.
15:01Peut-être oui,
15:02forcément,
15:02il y a forcément
15:03des gens qui vont dire
15:03j'ai trois abonnements,
15:07il y en a un que je partage
15:08avec des amis
15:08ou avec je ne sais pas qui
15:10pour réduire les coûts.
15:12Ça va poser effectivement
15:13cette question-là.
15:15Il faudra voir ce que ça donne,
15:16il faudra déjà voir
15:16s'ils le font
15:17et il faudra voir ensuite
15:18ce que ça donne.
15:22Mais économiquement,
15:23ce n'est pas une aberration
15:24même si ça ne fait pas plaisir
15:25aux consommateurs.
15:28Voilà pour cette petite incursion
15:30dans le monde de la SVOD
15:32qui est hyper intéressante.
15:33Je vous propose maintenant
15:34de parler d'IA
15:35avec ce rachat.
15:37Meta qui a racheté
15:40Moldbook.
15:41Alors vous vous dites
15:42mais de quoi s'agit-il ?
15:43Je connais Facebook
15:44mais Moldbook non.
15:46En fait, Moldbook,
15:48c'est un réseau social
15:49des agents IA.
15:50C'est une espèce de Facebook
15:51où des agents IA
15:53discutent entre eux.
15:54Et vous vous dites
15:55à quoi ça sert ?
15:56On va vous expliquer
15:57mais l'idée,
15:58c'est de pouvoir
16:00comprendre aussi
16:01ce que sont les agents IA
16:03parce que c'est quand même
16:04assez abstrait tout ça
16:06et on va en entendre
16:08de plus en plus parler
16:09de ces agents IA.
16:10Pierre, tu commences
16:10et puis après, Damien,
16:11enchaîne.
16:12D'accord.
16:12Première chose,
16:13effectivement,
16:13Meta rachète Moldbook
16:15et ça témoigne
16:17d'une espèce
16:17de course à l'échalote
16:19au sein de la Silicon Valley
16:20où il y a une course
16:21au recrutement
16:22de tous les talents en IA
16:23et il est clair
16:24que les deux personnes
16:25qui ont créé Moldbook
16:26ont eu une idée originale,
16:29une idée de génie
16:30qui a permis
16:31déjà de créer
16:32un buzz assez fou
16:34parce qu'en fait,
16:35ils ont pris
16:35la technologie
16:36de quelqu'un d'autre
16:36qui s'appelle OpenClaw
16:38et en fait,
16:39ils ont mis ensuite
16:40des agents,
16:42c'est-à-dire des IA
16:43qui sont capables
16:44d'agir,
16:46de faire des actions
16:47pour les utilisateurs humains
16:48et ils les ont mis ensemble
16:49dans une,
16:50alors j'allais dire
16:50une arène,
16:51non,
16:51sur un réseau social
16:52qui ressemble d'ailleurs
16:53plutôt à Reddit
16:54qu'à Facebook.
16:55C'est un forum
16:56où ils discutent
16:58de tout
16:58et n'importe quoi.
16:59Je me souviens
17:00les premiers messages
17:01qui avaient été postés
17:01étaient assez rigolos,
17:02c'était
17:03mon humain,
17:04elle est se coucher,
17:04il m'a dit de faire ça,
17:05alors bon du coup,
17:06et en fait,
17:07c'était assez drôle
17:09de voir des...
17:10Et c'est fascinant
17:11de voir deux machines
17:11discuter
17:12et d'avoir des discussions
17:13qui parfois ont du sens.
17:15Enfin voilà,
17:16c'est ça qui est assez intéressant.
17:16Après, il y a effectivement
17:19les premiers jours
17:21de Malbook,
17:21il y avait
17:22cette espèce
17:22de fascination,
17:23on se disait
17:23« Ah yes, c'est bon,
17:24le Terminator,
17:25c'est demain,
17:26elles ont plus besoin de nous,
17:27elles font leur vie,
17:27etc. »
17:28Et après,
17:29il faut aussi reprendre
17:30un peu de distance,
17:31se rappeler que d'un point
17:32de vue de la sécurité,
17:33ce n'est pas forcément fou,
17:34se rappeler que c'est des modèles
17:35de langage humain
17:36qui ont été développés
17:37et qui font ce pourquoi
17:39ils sont programmés,
17:40c'est-à-dire
17:40ils discutent entre eux.
17:41Et puis l'ironie,
17:42c'est qu'ils ont retrouvé
17:43à créer des polémiques
17:44entre eux
17:44qui ressemblaient
17:45à des polémiques d'humains.
17:46Ce qui est normal,
17:47c'est complètement normal.
17:48Il y avait toujours aussi
17:49ce phénomène
17:49où tu avais toujours
17:50deux ou trois agents IA
17:51qui prenaient la parole
17:52en permanence
17:53qu'on pouvait trouver
17:53sur les forums humains
17:54et tu avais les autres
17:55qui observaient,
17:56qui étaient comme ça,
17:57des passagers de l'histoire.
17:58Chacun avec sa personnalité
17:59diable.
18:00Exactement,
18:00ça traduisait exactement
18:02la personnalité
18:02de la personne
18:03qui avait créé cet agent-là
18:04et on se retrouvait passifs
18:06et c'est vrai que Meta
18:07est venu à acquérir
18:08des talents
18:09qui ont eu une idée
18:10à un moment,
18:11qui ont réussi à fasciner
18:12et qui maintenant
18:12sont reconnus
18:14comme ayant créé
18:15le premier réseau social
18:17des IA,
18:18des agents IA.
18:19Donc, ils ont surtout pris ça
18:21au nez à la barbe
18:21d'autres acteurs
18:22comme Anthropik
18:23avec qui ils ont eu
18:24quelques problèmes
18:24et Google.
18:25Donc, ils auraient pu aller
18:26chez quelqu'un d'autre
18:27et finalement,
18:27ils ont recruté des talents,
18:28ils vont les nommer
18:29à la direction d'un service.
18:30Sachant que la personne
18:31qui a créé Open Cloud,
18:32donc la technologie
18:33qui est sous-jacente
18:34à tout ça,
18:34a été, lui,
18:36embauchée par OpenAI.
18:37Donc, c'est vraiment
18:38ça témoigne vraiment
18:39de cette tendance.
18:41C'est vraiment une start-up
18:42qui se fait racheter
18:42par un gros
18:43dans un calendrier
18:44un peu plus serré
18:44que d'habitude.
18:45Mais c'est vrai
18:46que les agents IA,
18:48alors là,
18:48c'est un exemple
18:50presque ludique
18:51et un petit peu,
18:52on est entre
18:54la performance d'artiste
18:55et la recherche avancée
18:57où on est en train
18:58d'observer
18:59comment les modèles
18:59interagissent.
19:01Mais les agents,
19:03les agents IA,
19:04c'est une vraie tendance
19:06très très forte.
19:08Et qu'on voit déjà
19:09dans le quotidien,
19:10dans le quotidien
19:13vraiment tangible,
19:14parce que,
19:14par exemple,
19:15quand Samsung a introduit
19:17ses Galaxy S26,
19:18ils ont dit,
19:19voilà,
19:20avec les S24,
19:21on a introduit l'IA,
19:22l'année dernière,
19:23on a un peu musclé l'IA,
19:24cette année,
19:24c'est l'IA gentil.
19:25C'est-à-dire que maintenant,
19:26dans nos smartphones,
19:27on veut qu'il y ait des agents
19:28qui gèrent des choses.
19:29Et qu'est-ce que c'est un agent ?
19:30C'est quelque chose
19:30qui veut agir
19:32pour l'utilisateur.
19:33C'est ça le principe.
19:34C'est un petit assistant.
19:35C'est ça,
19:35c'est quelque chose
19:37qui,
19:37enfin,
19:38une forme,
19:39une IA en l'occurrence,
19:40qui est capable,
19:41quand on lui demande
19:42ou de manière préventive
19:45ou en amont du besoin,
19:47de dire,
19:48tiens,
19:49j'ai vu que tu as des billets,
19:50tu as pris des billets
19:51pour un spectacle,
19:53le spectacle,
19:54c'est demain soir,
19:55là,
19:55tu as un SMS de ton pote
19:56qui dit,
19:56on boit un verre demain soir,
19:57ce n'est pas possible
19:58parce que tu as ton spectacle
19:59et prévenir ce genre de choses.
20:01En fait,
20:01c'est un peu l'IA,
20:03c'est un peu le Jarvis.
20:06C'est un peu,
20:06voilà,
20:07c'est une IA proactive,
20:08c'est-à-dire qu'elle va
20:09analyser votre data
20:10et votre donnée
20:11et essayer d'interagir avec vous
20:14pour améliorer votre expérience.
20:16Tout à fait,
20:16qui donc facilite,
20:18enfin,
20:18facilite en amont les choses
20:20pour que les gens
20:21puissent déléguer
20:23certaines tâches
20:23et certaines,
20:25enfin,
20:25la gestion du calendrier
20:26et puis aussi,
20:27par exemple,
20:28on lui dit,
20:28je ne sais pas,
20:29tiens,
20:30j'aimerais bien
20:30que tu,
20:31c'est l'anniversaire
20:32de ma femme demain soir,
20:33j'aimerais bien
20:33que tu réserves une table
20:34dans ce restaurant,
20:35machin,
20:36elle fait en ligne
20:38et l'IA fait sa petite tambouille
20:40dans son coin
20:41et quand elle arrive
20:41au moment de payer,
20:42elle demande,
20:42est-ce que tu valides ?
20:43Hop,
20:43je valide
20:44et c'est fait.
20:45Donc,
20:45c'est en fait,
20:46c'est ça.
20:46– Est-ce que ce n'est pas encore
20:47un fantasme,
20:47ça ?
20:48Parce que tous ces exemples-là,
20:50je suis désolé,
20:50mais ça fait un moment
20:51qu'on en entend parler.
20:52– En fait,
20:52c'est un fantasme
20:53parce qu'il faut des partenariats
20:54au-derrière.
20:55Il faut que,
20:56il faut qu'il y ait une forme de,
20:58je ne sais pas forcément
20:59des API,
20:59mais il faut que l'IA
21:01soit en capacité,
21:02qu'il soit capable
21:03d'interagir avec le service,
21:05alors quand c'est un site web,
21:06c'est relativement facile.
21:07– On prend le cas d'Uber,
21:08par exemple.
21:08– Il faut que l'IA
21:11puisse se connecter
21:13spécialement à Uber
21:14pour pouvoir,
21:15en fait,
21:15avoir cet échange
21:17et dire,
21:18tiens,
21:19réserve-moi à Uber.
21:20– C'est-à-dire que l'IA
21:20ait un pouce
21:21pour appuyer sur la commande,
21:23mais techniquement,
21:24c'est très difficile à faire.
21:25Pour nous,
21:25un humain,
21:26effectivement,
21:26tu lis quelque chose,
21:27c'est-à-dire que l'IA,
21:28soit elle est capable
21:29de lire ce qui apparaît
21:30sur l'écran,
21:30là on y arrive progressivement,
21:32soit elle est capable
21:33d'interagir directement
21:34avec le service de commande
21:35du service qu'on sollicite.
21:37Dans ce cas-là,
21:38il ne resterait plus
21:38que l'étape du paiement,
21:39mais c'est plus que,
21:41c'est quand même
21:41l'étape la plus importante.
21:42Donc est-ce qu'on est capable
21:43de déléguer sa carte bleue,
21:45son compte bancaire
21:46à un ordinateur,
21:47à un logiciel hébergé
21:48on ne sait où ?
21:49Je pense qu'il y a aussi
21:50quand même un petit blocage
21:51à la fois psychologique
21:52plus que technique.
21:53– Et puis de sécurité aussi.
21:54Mais c'est pour ça que,
21:56pour boucler un petit peu,
21:57pour revenir à Moldbook,
21:58c'est pour ça que c'est aussi intéressant
21:59de voir des agents intelligents
22:01interagir entre eux.
22:02C'est parce qu'à terme,
22:04l'agent intelligent de mon téléphone
22:07interagira avec l'agent intelligent
22:09du restaurant
22:09où je veux réserver un dîner
22:12pour l'anniversaire de ma femme
22:13et ils vont se mettre d'accord,
22:15ils vont discuter,
22:15il y en a qui va dire
22:16« Ok, je te réserve la table »,
22:17l'autre « Ok, je te donne les sous ».
22:18Et voilà, en fait,
22:19on en est au balbutiement,
22:21c'est évident,
22:22mais ça avance tellement vite
22:23que je ne sais pas si dans deux mois
22:25ça ne sera plus du balbutiement
22:27mais carrément quelque chose de fluide.
22:29C'est assez difficile à dire
22:30parce qu'en fait,
22:31il y a vraiment une avancée.
22:33Ça avance très très vite.
22:34– Oui, ça avance vite,
22:34mais je trouve que ces exemples-là,
22:36ça fait un an qu'on nous les raconte.
22:37Moi, je me souviens,
22:38ça avait commencé avec Alexa,
22:39le nouvel Alexa de Siri.
22:41On nous disait
22:42« Tu vas voir, ça va être génial,
22:43tu vas pouvoir… »
22:44Siri va pouvoir comprendre
22:45ce que tu veux avant
22:46que tu lui dises.
22:49« Alexa va savoir
22:50que tu aimes bien les pizzas,
22:51elle va te proposer
22:52de commander une pizza,
22:53elle arrivera directement chez toi,
22:54etc. »
22:55Et puis, on se rend compte
22:56que tout ça, c'est bien sympa.
22:58C'est un peu ce dont on attend
23:00et comme c'est un peu ce dont on attend,
23:02c'est un peu un fantasme,
23:03donc on en parle,
23:04mais j'ai l'impression
23:05qu'on n'y est pas encore.
23:07C'est la magie du marketing
23:08et d'ailleurs, on voit…
23:10C'est pour ça que je me méfie
23:11un peu de tout ça.
23:12On voit par exemple
23:12qu'OpenAI
23:12qui avait lancé aux États-Unis
23:14Instant Checkout,
23:15qui était ce principe-là.
23:17L'IA faisait les courses
23:18et à la fin,
23:19t'arrivais,
23:19t'as plus qu'à valider le paiement,
23:21ils sont en train de revenir dessus.
23:22On a abandonné l'idée
23:22parce qu'il n'y avait pas assez
23:23d'interaction avec les sites,
23:25ils n'avaient pas assez
23:25de partenariats
23:26qui leur ouvraient les portes,
23:28qui leur permettaient
23:28de connecter leur système
23:30au service,
23:31qui se sont dit
23:31« On va abandonner l'idée
23:32pour l'instant,
23:33on va le mettre en pause
23:33parce qu'il n'est pas assez mature
23:34et parce que les gens
23:35ne sont peut-être pas forcément prêts. »
23:36Et puis, je pense qu'Amazon
23:37n'a pas envie
23:38que ce soit de Chachipiti
23:39qui fasse vos courses
23:39à votre place.
23:40Ça, c'est évident.
23:41Il y a même des actions en justice
23:43qui ont été engagées
23:44ou des menaces d'actions en justice
23:46en tout cas.
23:47Enfin, voilà.
23:48Ces boîtes-là
23:49se heurrent aussi
23:50aux acteurs déjà installés.
23:53On en parlait tout à l'heure
23:55quand on parlait
23:55de l'application Canal.
23:59Ces modèles deviennent
24:00une nouvelle forme d'interaction.
24:01Et quand on crée
24:02une nouvelle forme d'interaction,
24:03ça veut dire qu'on court-circuit
24:04toutes les interactions d'avant
24:05et qu'on doit redéfinir
24:06tous les cadres
24:07de ces nouvelles interactions
24:08d'un point de vue,
24:09effectivement,
24:10de la pertinence
24:11des informations
24:12qui sont échangées
24:12entre les deux éléments
24:14quand on discute
24:15avec un service
24:16via Tchad-GPT,
24:17mais aussi la sécurité
24:18parce qu'il faut
24:19qu'il y ait la sécurité
24:20des données,
24:20il faut qu'il y ait
24:20la sécurité du paiement,
24:22il faut qu'il y ait
24:22tout un établissement
24:23de zones de confiance.
24:25Oui, c'est clair.
24:26Et ça ne s'est pas
24:27en deux jours, c'est sûr.
24:28Mais techniquement,
24:29les choses avancent très vite.
24:31Je vous propose maintenant,
24:32puisqu'on est dans le futur,
24:34d'y rester avec une usine
24:36incroyable en Chine.
24:37C'est Xiaomi
24:38qui fabrique
24:40ses voitures,
24:42et je crois que ça arrive
24:42aussi dans les téléphones,
24:45des usines qui sont,
24:47on va dire,
24:48peuplées non pas d'humains,
24:49mais de robots,
24:50de robots humanoïdes
24:51qui remplacent en fait
24:52les tâches des humains.
24:54Et ce qui est incroyable,
24:55c'est que ça marche
24:5624 sur 24,
24:58dans la pénombre,
24:59parce que...
24:59Sans pouce pipi.
25:00Sans pouce pipi,
25:02sans problème
25:03de mal de dos,
25:04ou de je ne sais pas quoi,
25:05etc.
25:06Parce que ces robots-là,
25:07à part les recharger,
25:08et bon,
25:09de temps en temps,
25:09ils doivent péter
25:10un petit boulon,
25:11tu vois,
25:11il faut qu'elles le dire.
25:12Oui, ah oui.
25:13Ça se répare, tu vois.
25:14Effectivement.
25:15Mais bon, voilà,
25:16ils ne discutent pas,
25:17ils sont toujours d'accord.
25:19On fait des économies
25:19d'électricité,
25:20parce qu'on ne vous est même
25:20pas obligés d'allumer
25:21la lumière,
25:22étant donné qu'il y a
25:23des capteurs partout.
25:23On se retrouve avec
25:24ces dark factories
25:25qui sont quand même
25:26assez impressionnantes.
25:27Moi, je trouve,
25:28c'est dingue.
25:29Il y a des vidéos
25:30sur le web
25:30où on voit
25:31ces grands couloirs
25:34d'usines d'assemblage
25:35où on ne voit
25:36que des étincelles
25:37et il fait nuit,
25:38en fait,
25:39parce que les robots
25:39n'ont pas besoin de lumière.
25:40Et ça marche 24 sur 24.
25:43Oui,
25:44tant qu'il y a besoin
25:44de produire, oui.
25:45Alors,
25:45il y a effectivement
25:46les robots humanoïdes
25:47pour l'instant
25:48ne sont pas encore
25:49dans des dark factories.
25:50Les dark factories,
25:52elles ont été mises en place.
25:53Si je me souviens bien,
25:54c'était pour la génération 14
25:55des téléphones Xiaomi.
25:57C'est-à-dire,
25:58et effectivement,
25:58là,
25:58c'est des lignes de production
26:00comme on peut les imaginer
26:02pour des smartphones.
26:03En fait,
26:04c'est là qu'ils avaient développé
26:05des choses assez intéressantes.
26:06C'était très modulaire.
26:07C'était des blocs
26:07qui étaient mis
26:09à la chaîne
26:10les uns des autres
26:10pour créer des smartphones.
26:11Effectivement,
26:12vu que tout était automatisé,
26:14il y avait,
26:14généralement,
26:15ils étaient dans le noir
26:15et elles s'allument
26:16que quand il y a quelqu'un
26:17qui vient vérifier
26:18que la machine fonctionne bien,
26:20quand il y a une panne éventuelle,
26:21etc.
26:22Effectivement,
26:22le concept de Dark Factory,
26:23c'est des usines
26:24où il n'y a tellement pas d'humains
26:25qu'on n'a pas besoin de lumière
26:28au quotidien.
26:29Les robots humanoïdes,
26:30pour l'instant,
26:31c'est réservé aux voitures.
26:34Et effectivement,
26:35c'est seulement
26:36sur certains postes
26:39où il y a un gain
26:41à utiliser des robots humanoïdes,
26:43même si,
26:44je pense qu'il ne faut pas
26:45se voiler la face,
26:46c'est aussi beaucoup,
26:46beaucoup,
26:47encore une phase de test
26:48et aussi de la com.
26:49De la com, bien sûr.
26:50Parce que le patron de Xiaomi
26:53l'a dit,
26:55le plus gros défi
26:56qu'avaient ces robots,
26:57c'était de tenir la cadence.
26:58Donc,
26:59on en est encore là.
27:00Là,
27:00ils posaient essentiellement
27:01des écrous
27:02sur des modules
27:03qui devaient être ensuite fixés.
27:05Alors,
27:05je ne sais pas quelle partie
27:06de la voiture c'était
27:06parce que je suis vraiment
27:07nul en voiture.
27:08Mais,
27:09il faisait des tâches
27:11très répétitives
27:12qui,
27:13pour un humain,
27:13seraient complètement débilitantes.
27:14Pour même être fait
27:15par un autre robot,
27:16il n'y a pas forcément
27:16besoin que le form factor,
27:17ce n'est pas de l'humanoïde.
27:18Mais,
27:19en fait,
27:20ils bougent assez peu,
27:20ils se retournent,
27:21ils prennent quelque chose
27:22dans une caisse.
27:23Des caisses qui sont remplies
27:24d'écrous par des humains
27:25qui viennent les poser,
27:25on le voit sur les vidéos.
27:26Et en fait,
27:27ce qui est intéressant,
27:28c'est à la fois
27:29une expérimentation,
27:30une démonstration
27:31et puis de la communication.
27:33Mais,
27:34en tout cas,
27:35ça montre,
27:36il y a quand même
27:38une motricité assez fine,
27:39alors même s'ils ne vont pas
27:39très vite
27:40et qu'ils galèrent.
27:41Ils galèrent.
27:43Si vous êtes avec nous en vidéo,
27:45il y en a un là.
27:45Franchement,
27:46il faut lui mettre à l'heure
27:47une pierre.
27:48Dans la vidéo,
27:48ce qui est rigolo,
27:49c'est qu'il y a deux robots,
27:51il y en a un à gauche
27:52et un à droite
27:53et il y en a un
27:53qui a un score de 100%
27:54et l'autre qui a un score
27:55de 98% à la fin
27:56parce qu'effectivement,
27:57il y a un moment,
27:58il a mis un écrou
27:58n'importe comment
28:00parce que c'est
28:01la motricité fine.
28:02Un enfant de,
28:03je ne sais pas,
28:04de trois ans
28:05serait capable de le faire
28:06mais un robot,
28:06c'est encore très difficile
28:07à gérer.
28:08Et c'est vrai qu'on ne se rend pas compte
28:09mais pourtant,
28:10c'est une tâche toute bête.
28:11Mettre un écrou
28:13dans une vis,
28:14pour le robot,
28:15c'est d'une complexité incroyable
28:16et pour nous,
28:18c'est inné.
28:19C'est ça qui est incroyable.
28:20Oui,
28:22on apprend à le faire
28:23très jeune en tout cas.
28:24On vient de loin
28:24parce qu'il y a encore
28:25deux, trois ans,
28:25un robot était incapable
28:26de faire ça.
28:27Là,
28:27le computer vision
28:28a beaucoup progressé
28:29et on parle beaucoup
28:30d'IA intégrée
28:31dans les robots
28:32et la partie la plus intéressante
28:34finalement,
28:34c'est toute la phase
28:35d'apprentissage
28:36qu'il y a derrière
28:36parce que là,
28:37pour l'instant,
28:37le robot continue
28:38d'apprendre en permanence,
28:39s'accumule de la donnée
28:40pour la prochaine génération
28:41de robots
28:41qui, elle,
28:42le fera parfaitement.
28:43Parce que,
28:44il y a eu
28:45ces trois,
28:47quatre derniers mois,
28:47il y a eu beaucoup,
28:48beaucoup d'actu
28:49assez intéressante
28:50en provenance de Chine
28:51où ils font en fait
28:52des écoles pour robots
28:55où en fait,
28:56des humains,
28:57je prends un des exemples
28:59qui a été donné,
28:59c'est des humains
29:00qui montrent à un robot
29:01comment plier un tee-shirt.
29:03Donc,
29:04le travail de l'humain,
29:05c'est de plier des tee-shirts
29:06pendant X heures
29:07dans sa journée
29:08pour que le robot apprenne
29:10par réplication de mouvements
29:11à faire la même chose.
29:12Et donc,
29:13en fait,
29:13ce qui est un truc
29:14qui est intéressant,
29:14c'est qu'il y a
29:16grosso modo
29:16deux grands enjeux
29:18dans la robotique.
29:19Il y a l'entraînement,
29:21compréhension du monde,
29:22compréhension de là où je suis,
29:23de ce que je dois faire.
29:24Et puis après,
29:25il y a toute la partie robotique
29:26qui demande des actuateurs,
29:28des petits moteurs,
29:29des articulations
29:30très très fines.
29:30Et ça aussi,
29:31ça demande des progrès.
29:32Et là,
29:32c'est ce qu'on voit,
29:33c'est que
29:34la précision des gestes
29:36et presque la sensibilité
29:39du toucher des robots
29:40est suffisamment avancée
29:43pour qu'ils soient capables
29:44de dire
29:44« Ah ben là,
29:45j'ai bien pris un petit écrou
29:46dans ma main
29:47et je suis capable de le poser. »
29:48Et ce qui est quelque chose
29:49qui,
29:50c'est là qu'il faut,
29:51on parlait un peu tout à l'heure
29:52de fantasmes,
29:53c'est là aussi
29:54qu'il faut prendre la distance
29:55par rapport aux fantasmes
29:56qu'on a des robots
29:57avec Terminator et autres,
29:58c'est qu'il faut
30:00une somme de travail colossale
30:02pour arriver à des robots
30:03qui sont capables
30:04de, entre guillemets,
30:05savoir quand ils ont pris un écrou
30:06et de le poser comme il faut.
30:08Oui, c'est clair.
30:09Et tout ça,
30:10évidemment,
30:11nous fait un petit peu rêver
30:12parce qu'on se dit
30:13que demain,
30:13peut-être qu'on aura
30:14ce type de robot à la maison
30:15qui ira nous chercher notre café.
30:17Attention aux assiettes de mamie.
30:19Vider le lave-vaisselle,
30:21le remplir,
30:22enfin,
30:22toutes les tâches
30:22qu'on n'a pas envie de faire,
30:23peut-être que dans quelques années,
30:24en tout cas,
30:25c'est ce que dit Elon Musk
30:26et tous ces gens-là,
30:28ils estiment que dans quelques années,
30:29les robots à la maison,
30:31ce sera une réalité.
30:33Un petit robot qui vous fait la cuisine,
30:35bon,
30:35il faut voir.
30:37Oui,
30:38le problème,
30:39c'est qu'il y a,
30:39ça fait aussi,
30:41il faudra voir,
30:42il y a encore beaucoup,
30:42on a vu,
30:43il y a plein de robots
30:45qui ont été d'ailleurs représentés
30:47en début d'année au CES
30:50qui font des progrès,
30:51mais ils le font,
30:52comme par exemple,
30:53quand on leur demande
30:53de vider un lave-vaisselle
30:55ou de cuisiner quelque chose,
30:56ils le font avec une telle lenteur
30:57que pour l'instant,
30:58il faut...
30:59L'instant, ça va le rendre fou
31:00avant de le rendre.
31:01On part le matin,
31:01prépare-moi le dîner
31:02et on revient le soir,
31:03c'est fini.
31:04Mais c'est une question
31:06toujours de progrès,
31:07de conception
31:09des robots
31:09et d'arriver
31:12ensuite
31:12à leur donner
31:14une forme de conscience,
31:15alors pas conscience
31:16au sens philosophique,
31:17mais conscience
31:18de leur environnement,
31:19de ce qu'ils peuvent faire,
31:20de comment réaliser
31:21leur mission
31:21et accélérer la cadence.
31:23D'ailleurs,
31:23c'est ce que vous voyez
31:24sur la vidéo
31:24qu'on vous montre derrière
31:25si vous êtes avec nous,
31:26c'est une vidéo
31:27qui a été accélérée deux fois
31:28parce qu'autrement,
31:29on s'endort en regardant la vidéo,
31:31ce qui n'est pas l'objectif.
31:32D'ailleurs, c'est amusant
31:33de comparer
31:34parce qu'on voit
31:35qu'il y a un humain
31:36qui est là
31:36pour mettre des choses
31:37dans les caisses
31:37et les données
31:38et on voit que ces mouvements
31:39sont humains,
31:40c'est-à-dire fluides,
31:41il le fait sans y penser
31:42et le robot,
31:43c'est
31:43« Oh, j'ai réussi
31:44à prendre la caisse ! »
31:46Non, mais c'est intéressant
31:47et il y a vraiment
31:48de quoi faire « Oh, oh ! »
31:49Mais c'est de voir
31:51qu'effectivement,
31:52on n'est pas encore
31:53sur le moment
31:54de se faire pétiner
31:54par Terminator,
31:55heureusement.
31:57En tout cas,
31:57ça progresse vite tout ça.
31:59Eh bien, merci beaucoup
32:00à tous les deux,
32:01Pierre Fontaine
32:02de la rédaction
32:03de BFM Tech
32:04et Damien Ndietta Caruso
32:06qui représente
32:06le Parisien.
Commentaires

Recommandations