- il y a 12 heures
Ce mardi 5 mai, François Sorel a reçu Frédéric Krebs, président de Krebs & Partners, Clément David, président de Theodo Cloud, et Lucas Perraudin, président de AI to market. Ils se sont penché sur Cerebras, le challenger de Nvidia, le déploiement des robots policiers pour réguler la circulation en Chine, ainsi que sur le projet de Meta de devenir l'Android des robots, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.
Catégorie
📺
TVTranscription
00:01Tech & Co, la quotidienne, le débrief de la tech.
00:05Le retour de Tech & Co, la quotidienne, un grand merci d'être là chaque soir, 19h30, 21h.
00:11On débriefe l'actu avec Frédéric Krebs ce soir, président de Krebs & Partners,
00:16Lucas Perrodin, président de AI to Market, et Clément David, président de Théodaux Cloud.
00:21J'ai que des présidents ce soir.
00:23Moi à côté je suis vraiment tout petit, petit.
00:26Il a un cahier, ça fait longtemps que je n'ai pas vu ça.
00:28Mais Clément a un cahier.
00:31J'ai changé, c'est un Moleskine, je fais la pub.
00:34C'est bien, il prend ses petites notes, etc. C'est cool.
00:37Après on a la technologie, l'iPad avec Fred, et toi tout est dans la tête.
00:44Tout est dans l'impro.
00:46On va voir si tu veux être bon sur l'improvisation du sujet qui suit.
00:50Mais tu nous en parlais pendant la pub, donc je pense que tu as bien révisé quand même.
00:53On va parler de Cérébrasse.
00:54Alors peut-être ne connaissez-vous pas Cérébrasse, qui est une boîte au niveau européen inconnue, en fait.
01:00Mais qui a sa grosse notoriété dans la Silicon Valley, parce que Cérébrasse pourrait être non pas le tueur de
01:08Nvidia.
01:08Je pense qu'on exagère.
01:09Il y en a beaucoup qui disent que ça serait le Nvidia Killer.
01:11Peut-être un peu trop.
01:12Mais en tout cas, un potentiel concurrent sérieux à Nvidia, qui se prépare à une introduction en bourse assez importante,
01:20de 3,5 milliards de dollars.
01:24On va dire que c'est plutôt un anti-Nvidia.
01:26C'est-à-dire qu'ils ont une manière de fabriquer les processeurs qui est totalement différente.
01:32Nvidia fabrique ses processeurs un par un.
01:34Et d'après ce que j'ai compris, vous me coupez si je dis une bêtise, mais en révisant, j
01:38'ai compris ça.
01:39C'est-à-dire que sur les waffers, en fait, sur les plaques où il y a tous les processeurs,
01:45eh bien Cérébrasse vend ces plaques entièrement qui sont déjà fonctionnelles, en fait.
01:51Parce que les processeurs qu'il y a sur toutes ces plaques discutent entre eux.
01:54Et c'est une manière de penser très intéressante.
01:57et qui fait que, ben voilà, ça peut réduire le coût de l'inférence.
02:01Parce que rappelons que c'est l'inférence qui coûte cher aujourd'hui en matière de création d'IA, pour
02:06faire simple.
02:07Et donc, voilà, est-ce que Cérébrasse peut véritablement chatouiller Nvidia ?
02:13J'avais envie d'avoir votre avis là-dessus.
02:14Peut-être commencer par toi, Clément.
02:16Allez, écoute, ce qu'il faut voir, c'est que quand on parle d'Nvidia, il faut voir deux choses.
02:22Il faut voir la partie entraînement du modèle et la partie inférence,
02:25qui est la partie où, quand tu fais une requête, le modèle réfléchit et te donne une réponse.
02:30L'énorme bombe sur laquelle on est assis, c'est qu'aujourd'hui, le coût de l'inférence,
02:35quand tu utilises ChatGPT, quand tu utilises Clos, etc., il n'est pas vraiment facturé.
02:39C'est un marché ultra subventionné, ce qui devrait te coûter, mettons, 200, en fait,
02:43on te facture via un abonnement, c'est 20, parce qu'on veut de l'adoption.
02:47Mais ça coûte de l'argent, tout ça.
02:49Et ça coûte de l'argent.
02:49Et c'est une raison, entre autres, pour laquelle Anthropic, OpenAI, etc.,
02:55perdre de l'argent, c'est parce qu'aujourd'hui, ils ne facturent pas le vrai prix du truc.
02:59Le jour où tout le monde aura dégagé les équipes tech, les machins,
03:02le jour où les consultants seront biberonnés à l'IA et qu'ils ne pourront plus bouger
03:06sans demander un truc à Claude ou à ChatGPT,
03:08qu'est-ce que tu fais quand on viendra te dire
03:10« Ouais, en fait, en revanche, maintenant, il faut payer le vrai prix, c'est multiplié par 10 ? »
03:13Tu as des boîtes qui vont vraiment en crever.
03:16Donc, il y a deux solutions.
03:18Soit tu te prépares à ça et tout explose,
03:20soit, logique, tu essaies de trouver des alternatives aussi qui font que ça va coûter moins cher.
03:23Et sur l'inférence, justement, cette couche de silicium unique
03:26qui fait que ça va beaucoup plus vite, que tu évites la latence interpuce, etc.,
03:30fait que ça va être aussi normalement moins cher.
03:32Et donc, ce n'est pas juste qu'ils veulent concurrencer Nvidia
03:34parce qu'après tout, Nvidia, position dominante, etc.
03:37Certes, c'est aussi qu'on va chercher des alternatives
03:40et qu'on va faire que l'IA et l'utilisation à l'échelle qu'on veut en faire
03:44est viable sur le long terme, notamment en termes de prix pour les entreprises.
03:47Et c'est là que Cerebras m'intéresse.
03:49Alors, il faut savoir qu'ils ont déjà des clients, Cerebras.
03:52Ils ont OpenAI, ils ont aussi AWS avec Bedrock.
03:57Donc, voilà.
03:58C'est 86% de leur chiffre d'affaires.
04:00Donc, une énorme dépendance.
04:02C'est vrai.
04:03On peut essayer Cerebras.
04:06C'est Grock, le Pâle, celui de Musk, l'autre.
04:09Oui.
04:10Qui utilise Cerebras hyper rapide aussi.
04:12Alors, effectivement, c'est un truc d'architecture.
04:15C'est des substrates qui sont...
04:17Enfin, il n'y a pas de pont.
04:20Un petit point sur la partie training par rapport à inférence.
04:23En fait, l'économie de l'inférence, elle arrive cette année, depuis quelques mois,
04:26parce qu'on a beaucoup fait de training, on a beaucoup fait de release de modèles.
04:30Après, dans les trainings et dans l'inférence, il y a eu beaucoup d'optimisation.
04:33Ce qu'a fait DeepSeek, ce qui s'appelle Sparsa Tension.
04:37Tu parlais, excuse-moi, je te coupe, tu parlais de Grock.
04:38Grock a été racheté par Nvidia 20 milliards il y a quelques semaines de cela.
04:41Oui, exactement.
04:43Et tester, si les auditeurs ou les spectateurs veulent tester,
04:48on peut voir la vitesse d'inférence de Cerebras quand on teste.
04:51Ça va extrêmement vite.
04:52À cause de l'architecture où, en fait, il n'y a pas de pont, il n'y a pas
04:55de bridge entre les GPU.
04:58Elles sont toutes sur une plaque et puis...
04:59Donc, dès que tu poses une question, tu as la réponse, en fait.
05:02C'est très rapide en inférence, oui.
05:05Mais donc, tout ça pour dire que Nvidia aussi est en train d'optimiser ses produits pour l'inférence.
05:10C'est-à-dire qu'avant, ils étaient des produits plutôt pour le training des modèles.
05:13Et maintenant, ils font plutôt des produits pour servir l'inférence depuis CES, là, tout ce qu'ils ont.
05:16Et si Blackwall était en retard, c'est qu'il y a un problème d'architecture.
05:19C'est qu'à un moment, on met tellement de chips et c'est tellement petit, du 10-15,
05:26que Blackwall a été en retard parce que c'est difficile à souder.
05:29Tous ces trucs-là, il faut les souder sur une plaque.
05:31Et entre chaque chip et la mémoire, il faut mettre des petits ponts, des petits sous-jambres.
05:36Et pour des disputes, en fait.
05:36Oui.
05:37Et en fait, il faut faire de l'assemblage.
05:39Industriellement, c'est très compliqué.
05:40Donc, c'est pour ça qu'ils ont eu beaucoup de mal à sortir le produit de manière ferme
05:43parce qu'il y avait beaucoup de bus qui ne marchaient pas.
05:46En fait, ça n'avait pas le bon rendement.
05:49La façon dont Cerebra se travaille, c'est qu'en fait, elles ne sont pas soudées entre elles.
05:52Elles sont lithographiées.
05:53Elles sont découpées d'une seule plaque.
05:56D'une seule plaque.
05:57Les corps, ils sont plus petits.
05:58Et la mémoire et la GPU habitent dans le même corps.
06:01Justement, voilà.
06:02C'est ça.
06:03Et ça fait qu'en fait, ça va beaucoup plus vite entre les deux.
06:05Et que s'il y a des défauts sur la plaque, le logiciel, il sait quand même optimiser tout ce
06:10qu'il y a sur la plaque.
06:11Donc, ça va beaucoup plus vite.
06:12Et ça, c'est vraiment innovant.
06:15Les gens qui font ça sont sérieux.
06:17Donc, pour moi, on est sur, en tout cas, pour la première fois, un concurrent sérieux.
06:24En tout cas, une architecture qui a une chance d'être l'architecture du futur pour l'économie de l
06:29'inférence.
06:30Donc, ça, c'est quand même breakthrough.
06:32Et ça fait depuis 2016.
06:33Alors, le sujet, je ne l'ai pas fait que le réviser.
06:35C'est moi qui l'ai proposé.
06:36Parce que ça fait longtemps que je le suis, en fait.
06:39Et comme je disais, je passais beaucoup de temps aux US.
06:41Et il y a beaucoup de panneaux dans la Silicon Valley qui font la pub de Cérébrasse avant l'IPO.
06:45Sur les highway, comme ça.
06:46Et ça, c'est très cher.
06:47Et ça veut dire que, traditionnellement, quand on voit ça, ça veut dire qu'il y a des gros investisseurs
06:51derrière qui sont capables de se payer ce type de visibilité.
06:54Et ça veut dire qu'il y a eu beaucoup de ce qu'on appelle de due diligence, de vérification
06:57que la technologie est compétitive.
07:00Donc, c'est la première fois, moi, que je trouve que quelque chose d'intéressant se passe dans le monde
07:05des chips.
07:06Bon, après, il y a eu Google avec les TPU, c'était intéressant aussi.
07:09Mais là, on est vraiment, on parlait d'Intel tout à l'heure, on est potentiellement sur un nouveau fournisseur
07:15majeur.
07:16Mais Nvidia ne pourrait pas s'offrir aujourd'hui à Cérébrasse ?
07:21Il y a une préemption quasiment de fait d'OpenAI.
07:25Puisque, quand je regarde, si tu regardes d'un point de vue financier, qui est au capital, OpenAI a déjà
07:32fait un prêt de 1 milliard de dollars à la société.
07:35Il y a des commandes de 10 milliards de dollars qui sont déjà préemptées, en tout cas, sur ce qui
07:40va être sorti des chaînes de fabrication.
07:4120 milliards sur 3 ans.
07:43Comment ?
07:43Je crois que c'est un truc genre 20 milliards sur 3 ans.
07:45Oui, après, après, c'est...
07:46Après, s'ils IPO, ça voudra tout de suite 200 milliards, donc ça sera dilué.
07:51Et il ne faut pas oublier aussi que parmi les business angels autour de table, il y a Sam Atman.
07:57Il y a en fait quasiment tout le COMEX de OpenAI.
08:00Oui, toute la famille de l'IA.
08:02Donc, c'est un peu consanguin.
08:03Mais le COMEX de OpenAI, ils ont tendance à se sent trop tuer.
08:06Oui, mais c'est le COMEX, ils se parlent encore.
08:08L'IA, c'est un peu consanguin.
08:10Non.
08:10Non.
08:10Non, je ne peux pas dire ça.
08:11Je vous apprends un truc ce soir.
08:14Mais en fait, moi, ce qui m'intéressait dans cette histoire, c'est surtout le...
08:18C'est un peu comme une sorte d'avant-saison, l'avant-saison des grosses IPO qui vont débarquer.
08:24Ils vont un peu tester un peu la température du marché.
08:26Le marché, il réagit très, très bien parce que cette IPO est sur-souscrite.
08:32C'est-à-dire qu'il y a plus de gens qui veulent acheter l'action qu'il y a
08:36d'action disponible.
08:37Donc, ça veut dire que ça sent quand même plutôt bon pour ce qui va arriver derrière, à savoir l
08:41'IPO probable d'OpenAI, d'Enthropic, SpaceX et tout.
08:48Enfin, c'est vraiment ouvrir la saison des grosses IPO comme on n'a pas vu depuis des années.
08:53C'est tout ce qu'il nous fallait, une boîte qui perd de l'argent, parce que c'est l
08:57'IA qui perd de l'argent.
08:58Je crois qu'ils ont perdu 145 millions l'année dernière, ce qui est quasiment rien.
09:02145 millions, c'est que dalle.
09:03Tu vois, une boîte qui ne gagne pas d'argent, qui va faire une API au canon, qui va mettre
09:07la bulle IA sous maxi-stéroïde, extraordinaire.
09:10Qui est déjà bien, ça va être parfait.
09:11Oui, mais tout n'est pas égal par ailleurs.
09:12Donc, la liste que tu viens de faire, il y a des situations financières, des niveaux de funding et des
09:18attentes de retour sur investissement qui sont de 1 à 100 000.
09:22Enfin, on a des variances.
09:24Et les investisseurs, ils ne sont pas fous, les institutionnels.
09:26D'ailleurs, on dit qu'OponeAI, personne d'autre que les investisseurs privés vont mettre de l'argent dedans à
09:31un moment.
09:31Les investisseurs ne sont pas fous.
09:33Je pense que la caractéristique d'une bulle, si tu reprends Internet, c'est que tu regardes si les investisseurs
09:37sont complètement fous.
09:38C'est le principe d'une survalorisation.
09:40En fait, toute la question, c'est des profits qui n'ont pas encore eu lieu sur un marché potentiel,
09:44à quel point on les valorise.
09:45Oui, les fundings ne sont pas les mêmes, etc.
09:47Mais la réalité, c'est que la tendance, quand elle va être définie, elle va être la même pour tout
09:50le monde.
09:51Tu as raison.
09:52Mais quand je dis qu'ils ne sont pas fous, c'est qu'ils savent sortir à temps.
09:56La question, c'est est-ce que la bulle éclate ?
09:58Oui.
09:58Est-ce qu'il y a une bulle ?
09:59Qui sera le dindon de la farde ?
10:00Qui va payer ?
10:01Est-ce que c'est les retail investors, les tech investors ou les grandes banques ?
10:05Moi, je pense que les tech investors ne vont pas trop payer.
10:08Ils savent qu'en sortir au bon moment.
10:09Donc, c'est plutôt ça que je voulais dire.
10:11Mais tu as raison, parce que, je ne sais pas si vous avez vu là récemment, OpenAI a manqué ses
10:16objectifs du premier trimestre.
10:17Ça, c'est quand même très nouveau.
10:20C'est très nouveau.
10:21Et ça, ça peut...
10:22On explique par le coût du Pentagone, là, parce qu'en fait, Anthropite s'était retiré sur un marché,
10:27et OpenAI y est allé, et visiblement, ça a été très impopulaire au sein des utilisateurs,
10:33de certains utilisateurs d'OpenAI qui ont en fait enlevé leur abonnement.
10:37Enfin, moi, c'est ce que j'ai lu.
10:38Ils ont raison, mais c'est probablement ce qu'ils ont dit.
10:40C'est probablement ce qu'ils ont dit dans la press release, mais...
10:42Oui, enfin, c'est vrai.
10:43Tu ne crois pas ?
10:44Tu ne crois pas à ça ?
10:45Non, mais il commence à...
10:46Enfin, il y a toute la communauté business à beaucoup switcher sur cloud.
10:50Beaucoup, beaucoup.
10:51Oui, et puis après, bien évidemment, peut-être...
10:53Il y a de la concurrence.
10:54Et Gemini commence à bien marcher aussi, donc je pense qu'il y a ça aussi.
10:57Je pense que chez OpenAI, il y a des sueurs froides en ce moment.
11:01Je ne serais pas complètement à l'aise chez eux.
11:03Non, c'est clair, c'est clair.
11:05On a parlé de Cerebras, on a parlé de NVIDIA.
11:07Est-ce qu'il y a un autre outsider en termes de puces aujourd'hui ?
11:10Il n'y a pas beaucoup de place.
11:12Le monde du chipset, c'est une barrière d'entrée monumentale en termes de funding
11:17et de talent pour designer des puces.
11:20Donc, ce n'est pas un truc qu'on peut faire dans son garage, a priori.
11:24Enfin, je dis ça, mais après, il y a des gars qui ont fait avec un dixième des moyens
11:29un GPT-4 en Chine, donc on ne sait pas.
11:32Mais a priori, la barrière d'entrée dans le hardware est très haute
11:35et dans le chipset, elle est extrêmement haute, donc ça va être compliqué.
11:37Non, c'est plus Google continue avec ses TPU, Answer Processing Unit.
11:41Amazon aussi.
11:42Et Amazon aussi, oui.
11:44C'est plutôt Google qui fait du bon travail.
11:47Après, Google, ils font des chipsets pour se servir eux-mêmes.
11:51Est-ce que ça va devenir un business à l'avenir, peut-être ?
11:53Justement, c'est ça qui est intéressant, c'est que toutes les grandes maisons,
11:57ce qu'on appelle les hyperscalers,
12:00les Google font leurs propres puces, vont commencer à faire leurs propres puces.
12:04Ils ne veulent plus être dépendants de NMEA ou de qui que ce soit.
12:07Donc, ils vont tout intégrer verticalement.
12:10Voilà pour ce sujet.
12:12Allez, on part en Chine maintenant avec, à la fois, j'ai envie de dire,
12:16vous allez voir un thème assez léger, mais assez effrayant quand même aussi.
12:21Parce qu'imaginez votre prochaine amende qui ne viendra peut-être pas d'un agent de police,
12:25mais d'un robot.
12:26Imaginez quand même la scène, ça va nous faire tout drôle.
12:29En Chine, en fait, c'est déjà une réalité.
12:31On n'est pas encore dans Robocop, mais on s'en rapproche doucement.
12:35Mille robots policiers vont encadrer la circulation et contrôler le stationnement des véhicules.
12:40Les explications d'Anthony Morel.
12:42Et après, bien sûr, on va imaginer où le meilleur ou le pire avec ce sujet.
12:48Ce qu'ils ont mis en place, les Chinois, c'est le pays évidemment où toutes les expérimentations les plus
12:52folles en matière de technologie ont lieu,
12:55ce sont des robots policiers.
12:56Mais quand je dis robots policiers, ce sont des humanoïdes qui vont réellement verbaliser les êtres humains.
13:02C'est testé, et j'allais dire, c'est même pas testé, c'est vraiment mis en place depuis quelques
13:06jours dans certaines villes chinoises.
13:08Donc humanoïdes, deux bras, deux jambes, un visage même en silicone, une petite casquette, un uniforme, le gilet jaune réfléchissant,
13:16le petit badge.
13:17La seule différence avec un être humain, c'est qu'ils sont montés sur des roulettes.
13:20Donc ils ont des jambes, mais au bout, ils ont un petit skateboard qui leur permet de se déplacer plus
13:23facilement.
13:23Mais franchement, à l'œil nu, à 10 mètres, c'est pas facile.
13:25C'est pas facile de faire la différence, effectivement.
13:27Surtout sur les grandes intersections chinoises, parce que c'est là qu'on va les mettre.
13:30En fait, pour faire la circulation notamment, donc ils bougent les bras.
13:33Ils peuvent s'adresser aux passants quand il y a des contrevenants ou quand il y en a un qui
13:36traverse hors des clous.
13:37Parce qu'en fait, c'est tout l'intérêt de ces robots, c'est qu'ils sont équipés de caméras
13:41intelligentes.
13:41Ils en ont six qui vont être capables de détecter tout manquement à la loi.
13:46C'est-à-dire un conducteur de scooter qui n'a pas son casque, quelqu'un qui traverse hors du
13:50passage piéton ou une voiture qui circule un petit peu de travers.
13:54Et à partir de ça, on va pouvoir verbaliser tout simplement.
13:57On est capable aussi de reconnaître les plaques d'immatriculation et d'envoyer l'amende directement au domicile de la
14:03personne qui ne respecte pas la loi.
14:05Alors encore une fois, là on parle d'une entreprise chinoise qui a fourni 1000 robots aujourd'hui à l
14:12'État chinois.
14:13Et donc ces robots commencent à être déployés dans les grandes villes.
14:16Sachant que l'idée, ce n'est pas forcément de remplacer les policiers, c'est plutôt d'intégrer ces humanoïdes
14:22dans des endroits
14:23où on n'a pas forcément envie de mettre des humains, là où il y a énormément de bruit, à
14:27des intersections qui sont extrêmement polluées.
14:29Et bien là, on va plutôt envoyer ces petits robots en mission.
14:33Étonnant comme sujet. Alors pour l'instant, c'est 1000 robots. Si vous êtes avec nous à la télé, on
14:38l'a vu, ils sont assez statiques.
14:41Finalement, ils ne bougent pas, sauf quand ils se déplacent sur des espèces de plateformes à roulettes comme ça.
14:47Oui, on dirait presque des mannequins avec des caméras finalement.
14:50Gadget.
14:50Oui, enfin, gadget pour toi ?
14:53C'est-à-dire que c'est la même technologie aujourd'hui. Il y a des voitures qui se promènent.
14:56C'est du Vision Machine Learning. C'est de la reconnaissance d'images en fait.
15:00Oui, c'est des caméras dévisées en robots.
15:02Oui, parce qu'ils ne prennent pas d'action ces gens-là. Mais aujourd'hui, il y a déjà des
15:04voitures de stationnement qui circulent dans les villes et qui utilisent ces mêmes technologies pour mettre des amendes.
15:10Si vous êtes garés sur un passage piéton, ça reconnaît, ça vous l'envoie, ça reconnaît la plaque s'il
15:13y a des matriculations.
15:14Donc c'est un peu... Après, c'est peut-être une façon d'habituer le public.
15:17Je pense.
15:19Alors, il y a une petite nuance quand même, parce qu'effectivement, on a l'habitude de voir dans Paris,
15:23dans toutes les villes de France, ces fameuses voitures bardées de capteurs qui te mettent une amende comme ça quand
15:29tu n'as pas payé.
15:31C'est bien, on n'aime pas beaucoup ces voitures.
15:32Voilà, on n'aime pas ces voitures.
15:34En général, on les déteste.
15:35La grosse nuance là que je vois, c'est que, et je crois qu'on n'a pas complètement dit
15:39dans le reportage, c'est que les robots peuvent parler.
15:44Les robots peuvent dire, attention, toi, t'es mal garé.
15:49Ils peuvent s'adresser à quelqu'un.
15:51Ils peuvent s'adresser à quelqu'un.
15:52En fait, et c'est ça qui est un peu plus flippant, quelque part, c'est que pour la première
15:56fois, il y a une interaction.
15:58Mais donc, c'est quoi ? C'est quelqu'un, c'est un opérateur qui va à distance, va parler.
16:01Non, non, non, c'est le robot.
16:02C'est le robot qui parle.
16:03C'est le robot qui parle.
16:03Waouh.
16:04D'accord ?
16:04Et c'est lui qui va...
16:05Mais qu'est-ce qu'il va dire ?
16:06Il va lui dire, t'es mal garé, tu vas trop vite, tu tournes à droite, etc.
16:10C'est un GPT robot.
16:13Et c'est ça, pour moi, la grosse nouveauté, parce que c'est ça qui va complètement changer, en fait,
16:18la façon dont les gens vont accepter ou pas, en fait, ce genre d'interaction avec...
16:23Moi, ça me rappelle, en fait, un film, je ne sais pas si vous avez vu ce film, il s
16:25'appelle Elysium, avec Matt Damon.
16:29Donc, on est dans le futur.
16:30Et au début du film, Matt Damon fait partie d'une caste pauvre.
16:34Et il fait quelque chose qu'il n'aurait pas dû faire.
16:37Et il y a un robot tout de suite qui arrive et qui le verbalise.
16:40ou veut l'emmener, en tout cas, en prison, etc.
16:43Et il n'y a pas moyen de transiger.
16:46Il est obligé, et sous peine, de mourir, sinon.
16:50Donc, c'est ça.
16:51Quelle souplesse, ça.
16:52On a tous eu, parfois, des discussions avec des gendarmes ou des policiers.
16:55On arrivait toujours un petit peu à négocier.
16:56Oui, après, il y a l'humain, c'est vrai, qui peut...
16:58Un sourire, une explication...
17:01Exactement.
17:01Là, il n'y aura pas d'explication.
17:02Non, là, ça ne marchera pas.
17:04Tu rentres, tu files droit, ou je ne sais pas ce qu'il va se passer.
17:08Donc, ça sera intéressant.
17:10C'est intéressant qu'on vous dit qu'il faut habituer les gens.
17:12Il faut aussi avoir en tête que la résistance et la méfiance
17:15vis-à-vis de la technologie culturellement
17:16n'est pas du tout la même en Chine qu'en Europe.
17:18C'est-à-dire que l'adoption est beaucoup plus facile.
17:21Les gens ont moins cette réticence.
17:23Tu vois, par exemple, le système à point avec reconnaissance faciale, etc.
17:27Tiens, les gens, ils l'ont accepté assez vite.
17:29De toute façon, tu me dis, ils n'ont pas trop le choix.
17:31Mais la culture de la tech n'est pas la même.
17:33Tu vois, eux, ils l'ont, la super app, WeChat.
17:34Tu vois, tu vois une personne dans la rue,
17:37les mendiants ont leur code WeChat, par exemple.
17:40Oui, pour leur donner de l'argent.
17:42Oui, ce n'est pas du tout la même.
17:43Ce qui est très smart, vu que quand tu n'as plus de liquide,
17:45aujourd'hui, c'est plus simple.
17:47Mais bon, le lien à la technologie
17:49et les craintes liées à la technologie ne sont pas les mêmes.
17:51Après, moi, je le vois plutôt comme une expérience.
17:53C'est-à-dire que, pour moi, c'est juste un moyen un peu détourné
17:56et qui fait un peu de pub de subventionner la robotique.
17:58C'est-à-dire que ce qui est intéressant, ce que tu disais,
18:00c'est qu'une voiture qui se balade dans les rues de Paris,
18:02ce n'est pas tout à fait la même infrastructure derrière.
18:04C'est-à-dire que là, il faut être capable d'analyser l'environnement en temps réel.
18:07C'est couplé aux bases de données, d'après ce qu'on a compris,
18:09de la police pour être capable de prendre des décisions,
18:12d'analyser des situations, etc.
18:14La prouesse technologique, elle est moins dans la robotique
18:16que dans l'infrastructure.
18:17Mais le truc, c'est que si derrière, on arrive à faire avancer,
18:20entre guillemets, on, les Chinois, le marché du robot,
18:22en disant, OK, on a une perception,
18:24on a une décision, on a une intervention,
18:27tu commences à avoir une accélération,
18:29c'est un bac à sabre géant,
18:30sur qu'est-ce que je peux faire faire à des robots,
18:32pas seulement policiers, dans la vie,
18:34pour nous permettre, nous, la Chine,
18:35qui, contrairement aux années 2015,
18:36où Boston Robotics était devant,
18:38manifestement, on devient le marché numéro un
18:41du développement de robots,
18:42ça fait de la R&D à grande échelle,
18:44qui va nous permettre de prendre des années d'avance
18:46sur ce marché en général.
18:48Ils sont déjà en avance.
18:49Au CIS, toutes les entreprises de robotique,
18:52c'était du Chinois.
18:52C'est ce que je dis, c'est que Boston Dynamics,
18:54ce n'est plus du tout les leaders,
18:55et que là, ils ont des expérimentations,
18:57c'est le côté un peu world model de Yann Lequin,
18:59tu vois, des expérimentations,
19:00avec des prises de décisions et d'interventions
19:03en direct pour des robots dans la vraie vie,
19:05qui sont un bac à sabre,
19:06qu'on ne peut absolument pas se permettre en Europe,
19:08notamment tout ce qui est éthique.
19:10Et avant nous d'avoir ça,
19:11ça va être compliqué, quoi.
19:12Oui, je me posais juste une question,
19:14en regardant les vidéos qui sont dans le studio,
19:17où on voit, justement,
19:18pour tous ceux qui sont avec nous à la radio,
19:20ces robots évolués, sifflés,
19:24indiqués les directions, etc.
19:26Est-ce qu'on est prêt à avoir une autorité sur ces robots ?
19:31Ou en tout cas, est-ce qu'on va respecter
19:33l'autorité d'un robot ?
19:35Autant on peut, et on se rend compte,
19:37c'est de plus en plus compliqué
19:37de respecter l'autorité d'un policier,
19:40aujourd'hui.
19:41Non, mais c'est vrai,
19:41c'est la société qui est comme ça.
19:43Mais est-ce qu'un robot va être autoritaire ?
19:47Est-ce qu'on va respecter la décision d'un robot
19:50qui sera déguisé en policier ?
19:51Tout dépend s'il y a une...
19:52Tu vois ce que je veux dire ?
19:54Une contrainte,
19:55si tu commences à le renverser,
19:56parce qu'il t'a dit d'aller à droite
19:58et t'as pas envie,
19:59et si tu le fonces...
19:59Non, mais c'est une question un peu philosophique,
20:01mais est-ce qu'on est prêt à se plier
20:03à l'injonction d'une machine ?
20:05C'est un peu ce qu'ils sont en train de tester.
20:08Ils testent ça, bien sûr.
20:09Le bémol que je mettrais,
20:10c'est qu'en fait, ces robots,
20:11ils sont...
20:12Voilà, il y a des cinématiques.
20:15Je n'ai pas l'impression
20:16qu'ils prennent des mesures
20:17ou qu'ils fassent progresser
20:18des modèles d'action.
20:19C'est-à-dire qu'ils ne portent pas des choses,
20:20ils transportent...
20:20Ils n'arrêtent pas des gens,
20:22ils ne passent pas les menottes.
20:23Ils font vraiment quelques gestes
20:25qui sont prédéterminés.
20:26Donc, ils sont vraiment sur
20:31Vision ML, Machine Learning,
20:32j'essaie de parler en français,
20:33et les modèles de langage.
20:35Oui, reconnaissance visuelle.
20:36C'est des technologies
20:37qu'on connaît déjà,
20:38qui sont packagées dans un robot
20:39au lieu d'être dans une voiture
20:41et dans un smartphone
20:42et dans une caméra.
20:44Donc, c'est plus une expérience sociale,
20:47a priori,
20:47qu'une expérience technologique
20:48parce qu'on sait
20:49qu'il y a déjà en Chine
20:50des robots,
20:51quand on les voit bouger
20:52pour ceux qui ont les images,
20:53qui sont infiniment plus agiles
20:56et autonomes
20:57dans leur utilisation de l'espace.
21:00Et ça, en fait,
21:01c'est un autre sport,
21:03c'est une autre ligue,
21:04en fait, ce truc-là.
21:05C'est pour ça que je pense
21:06que c'est beaucoup
21:06un terrain d'entraînement
21:08pour la robotique.
21:08Après, il y a un terme
21:09qui est important,
21:10ça me rappelle mes anciennes
21:11années de juriste.
21:12La police, c'est quoi ?
21:13C'est le monopole
21:14de la violence légitime.
21:15Bon, tu respecteras les robots
21:17le jour où, comme la police,
21:18ils ont le monopole
21:18de la violence légitime.
21:19Mais l'acceptation sociale
21:20de la tech,
21:21c'est un sujet,
21:22ce dont tu parlais,
21:23qui, par exemple,
21:24on parlait de la VR tout à l'heure
21:25et de l'AR,
21:26c'est un sujet
21:27au cœur
21:30des préoccupations,
21:31en fait,
21:32par exemple,
21:32chez Meta,
21:33de l'acceptation.
21:34Est-ce que j'accepte,
21:35est-ce que si j'ai des lunettes
21:36de réalité augmentée,
21:37que j'ai une caméra
21:38qui filme,
21:39qui va aller chercher
21:41ton background,
21:42des informations sur toi
21:43pendant que je te parle
21:44et si on est en train
21:44de débattre,
21:45qui va me donner
21:45un avantage,
21:46un super pouvoir,
21:47est-ce que c'est acceptable ?
21:49Et comment est-ce
21:49qu'on le signale à l'autre ?
21:50Donc, cette problématique-là,
21:52elle est vraiment
21:52au cœur de l'adoption.
21:53Et chez nous,
21:54l'adoption,
21:55pour l'instant,
21:56et j'espère pour longtemps,
21:57elle est...
21:58Il faut convaincre l'individu.
21:59Elle n'est pas forcée.
22:01Et donc, eux,
22:02ils sont en train
22:02d'essayer de tester.
22:03Ils ont une coercition différente,
22:06une approche différente.
22:07Mais c'est intéressant
22:07ce que tu dis,
22:08le rapport de l'humain
22:09et de la technologie.
22:10Rappelons ce qui s'est passé
22:11au tout début des OEMO.
22:12À San Francisco,
22:14il y avait des gens
22:14qui leur jetaient des pierres,
22:16enfin,
22:16qui essayaient de perturber
22:18le fonctionnement
22:18de ces machines-là
22:19parce qu'il y a eu
22:20une résistance.
22:21Le grand trauma,
22:21c'était les Google Glass.
22:22Et les Google Glass.
22:24Où ils appelaient les gens
22:24les Glass Holds.
22:25Oui, oui.
22:27Et ça,
22:28c'était vraiment
22:30ce dont tout le monde
22:30avait peur,
22:31nous,
22:31quand on travaille là-bas.
22:32Il nous reste quelques minutes.
22:33J'aimerais qu'on évoque
22:34le dernier sujet
22:34de ce débrief
22:36sur Tech & Co.
22:37C'est Meta
22:38qui,
22:38eh bien,
22:39fait une nouvelle acquisition
22:41d'une boîte
22:42qui s'appelle
22:42Assured Robo Intelligence
22:44qui est,
22:45en fait,
22:46une startup dédiée
22:47à l'IA embarquée
22:48pour la robotique.
22:49D'après ce que j'ai compris,
22:51Mark Zuckerberg
22:52n'a pas forcément
22:53envie de créer
22:54de nouveaux robots
22:54au niveau du hardware
22:56mais peut-être
22:57de mettre au point
22:58un OS
22:58de la robotique
23:00qui pourrait
23:00après se dupliquer
23:03sur des robots
23:04qui pourraient être
23:05chinois,
23:06européens,
23:06etc.
23:07Un peu un androïde
23:08du robot,
23:10finalement.
23:11Alors,
23:11c'est vrai qu'il n'a pas eu
23:12son OS
23:12et je pense qu'il a
23:13du mal à digérer
23:14sur les smartphones.
23:15Il aimerait bien
23:16peut-être ne pas rater
23:19le tournant
23:19de la robotique,
23:20non ?
23:21Il travaille
23:21sur l'OS
23:22des lunettes.
23:23Si les lunettes
23:23remplacent les smartphones
23:24et qu'elles ont
23:25des écrans,
23:26des caméras,
23:26etc.,
23:27l'idée,
23:27c'est d'avoir
23:27l'operating system,
23:29l'écosystème,
23:29ça c'est la guerre
23:30de l'écosystème.
23:31Et pour les robots,
23:31c'est le coup d'après,
23:33effectivement.
23:34Et il faut
23:36acquérir des robots
23:36parce que
23:38ce n'est pas du tout
23:38la même chose
23:39que les modèles de langage,
23:40les modèles de vision
23:41dont on parlait à l'instant.
23:42Le déplacement,
23:43on en a parlé
23:44juste à l'instant
23:45sur les robots chinois,
23:45le truc,
23:46c'est que s'il faut
23:46que le robot
23:47prenne une action
23:47dans l'espace,
23:48il faut qu'il comprenne
23:48l'espace,
23:49le réel.
23:50Et ça,
23:51ça n'est pas du tout
23:51le cas des modèles
23:53transformeurs
23:53qu'on a aujourd'hui,
23:54des modèles de vision,
23:55des modèles de langage.
23:56Donc il faut
23:56une armée de robots,
23:57une armée de capteurs,
23:59capter de la donnée
24:00et trouver
24:00des architectures
24:02de modèles
24:03qui sont capables
24:03d'exploiter cette donnée.
24:05On va revenir
24:05sur le boucler
24:06en training
24:07et en inférence.
24:08Et là,
24:08pour l'instant,
24:09on est au tout début
24:10de l'histoire.
24:11Fred et après Lucas
24:12pour terminer.
24:12Je pense que Zuckerberg,
24:15en tout cas l'équipe dirigeante,
24:17tu me corrigeras
24:18si c'est faux,
24:19je pense qu'ils sont
24:21un peu en panique.
24:23Ils sont un peu en panique
24:24dans le sens
24:24où tout ce qu'ils ont fait
24:26depuis cinq ans
24:27n'a pas complètement
24:28donné leurs fruits.
24:29On parle du métavers,
24:30il y a quand même
24:3160 milliards d'investissements
24:32dans le métavers
24:32qui n'ont pas donné grand-chose.
24:35Il y a tous les investissements
24:37sur l'EI,
24:38sur les LLM,
24:40enfin,
24:40il y a Man notamment
24:42qui s'est fait rattraper
24:43alors qu'ils avaient pourtant
24:44des bonnes équipes
24:45et tout,
24:46mais ils se sont fait rattraper
24:47par Anthropik.
24:47Il y a Man
24:47qui n'a jamais été au niveau.
24:49Il s'appelle Mus Spark maintenant.
24:51Oui, c'est ça.
24:52Mais il n'y a pas
24:52que c'est une autre...
24:53Ça marche bien.
24:54Ça marche mieux.
24:56Là,
24:56l'acquisition ratée
24:58de Manus
25:00donc en Chine,
25:01donc là aussi,
25:02ça sent un peu
25:04quand même la panique
25:05dans mon esprit.
25:06Ça sent un peu la panique
25:07Si je peux juste donner
25:08un point de vue...
25:09Et après,
25:09on terminera avec les mains.
25:10Ce n'est pas du tout une panique.
25:11C'est un modus operandi.
25:15Zouk,
25:16il veut toujours jouer
25:18sur le coup d'après.
25:18Il a des moyens phénoménaux
25:20et il va mettre,
25:21pour parler de poker,
25:22all-in sur tous les coups.
25:23Et il sait que parfois
25:24il va gagner,
25:24parfois il va perdre.
25:25Et on sait,
25:26nous,
25:26on sait que c'est des big bets.
25:27C'est des paris
25:28qui ont peu de chances
25:29d'aboutir,
25:30qui coûtent très cher.
25:32Mais il nous disait toujours ça.
25:33Il disait,
25:34si tu gagnes,
25:34tu gagnes.
25:35Il disait,
25:35les gens qui ont commencé
25:36à faire Android,
25:37si on t'avait dit
25:38combien ça coûte,
25:40tu n'aurais pas...
25:40Quelle valeur ça a Android
25:41aujourd'hui ou iOS ?
25:42Ça a une valeur infinie.
25:44Donc,
25:44il faut parier sur...
25:45Si je peux,
25:45je parie sur tout,
25:46je développe tout,
25:47j'absorbe tout.
25:48Et je vais perdre 99 paris sur 100,
25:50mais celui que je vais gagner,
25:51c'est moi qui vais dominer.
25:52Donc,
25:53ce n'est pas du tout une panique.
25:53C'est vraiment
25:54un mode opératoire standard.
25:56Oui,
25:56en fait,
25:56ce que vous avez dit,
25:57c'est le mot intéressant,
25:58c'est plateforme.
25:58C'est-à-dire qu'en fait,
25:59on dit souvent sur ce plateau,
26:01pour l'instant,
26:01tu vois,
26:01côté LLM,
26:03tu as OpenAI qui se bat,
26:04par exemple,
26:04pour être la plateforme
26:05sur laquelle les gens...
26:07On ne veut pas juste
26:07être le modèle dessous,
26:08on veut être la plateforme
26:09où les gens vont naturellement.
26:10La distribution.
26:11Tu vois,
26:11on veut qu'ils prennent des décisions,
26:13c'est là qu'ils réfléchissent,
26:14c'est là que tu peux les influencer,
26:15c'est ça qui vaut de l'argent.
26:16Ça,
26:17c'est le même move,
26:17mais sur l'aéromatique,
26:18c'est juste le même problème,
26:19quel que soit le support,
26:20on en revient aux mêmes enjeux.
26:21Après,
26:21il y a un avantage énorme
26:22qu'a Meta
26:23et c'est ce que tu évoquais aussi
26:24quand tu parlais des Ray-Ban.
26:25Je prends une citation
26:26du cofondateur
26:27de cette entreprise,
26:28AERI,
26:29qui disait
26:29le scaling viendra
26:30de l'apprentissage
26:31à partir de l'utilisation
26:33de données liées
26:34à l'expérience humaine.
26:35Qui sur Terre
26:36a plus de données
26:37liées à l'expérience humaine
26:39que Meta
26:39avec ses réseaux sociaux
26:40et maintenant ses Ray-Ban ?
26:41Personne.
26:42La synergie,
26:42elle est folle.
26:43Oui.
26:44Ben voilà,
26:44ça sera le bout de la fin.
26:46Top.
26:46Merci beaucoup
26:47à tous les trois.
26:49Merci pour ce débrief.
26:50Frédéric Krebs,
26:51président de Krebs & Partners,
26:54Lucas Pérodin,
26:55président de AI2Market
26:57et Clément David,
26:58président de TheodoCloud.
27:00Pour terminer ce débrief,
27:01merci beaucoup messieurs.
27:02Avec plaisir.
27:03C'était encore une fois
27:04hyper intéressant.
Commentaires