00:01Tech & Co, la quotidienne, l'invité.
00:04Voilà le retour de Tech & Co, la quotidienne.
00:06Nous sommes toujours au World AI Cannes Festival.
00:11Je vous rappelle que ce rendez-vous s'est terminé en fin de semaine dernière.
00:15Mais comme on avait beaucoup de choses à vous raconter,
00:18on vous a enregistré cette émission que vous êtes en train de regarder en ce lundi soir.
00:22Jusqu'à 21h, bien évidemment.
00:24On va parler maintenant de frugalité dans le monde de l'intelligence artificielle.
00:29Notamment pour la robotique, mais aussi pour tout objet embarqué
00:34qui n'a pas une énergie infinie.
00:37C'est ce que va nous présenter Edgar Le Maire avec Durance AI.
00:42Bonsoir Edgar.
00:43Bonsoir.
00:43Vous êtes fondateur et président de cette société.
00:46Et c'est vrai qu'aujourd'hui, on se rend compte que l'intelligence artificielle,
00:49et quand on voit les annonces qui sont faites par les géants de la tech,
00:53c'est des gigawatts de puissance.
00:55C'est énormément de consommation d'électricité.
00:59Ça veut dire aussi du refroidissement.
01:01Ça intègre énormément de choses.
01:03Vous, vous partez du principe qu'on peut faire de l'IA tout en étant économe en énergie.
01:09Oui, c'est tout à fait ça.
01:11Effectivement, on se rend compte aujourd'hui que l'intelligence artificielle,
01:13ça consomme énormément d'énergie.
01:15Il y en a certains qui construisent des centrales nucléaires pour alimenter les data centers.
01:18C'est un débat d'ailleurs qui est ouvert.
01:19Oui, tout à fait.
01:20Et nous, notre parti pris, c'est qu'on peut faire de l'IA pour moins d'énergie.
01:24Alors, pas pour les data centers comme ChatGPT, mais pour les systèmes robotiques, pour les drones, pour les satellites.
01:30En fait, effectivement, tous les systèmes fonctionnent sur batterie ou pas branchés au secteur, en tout cas.
01:35Parce que c'est vrai que l'IA, souvent, elle est dans le cloud.
01:37Donc, on se dit, finalement, s'il y a est déporté, je n'ai pas besoin de trop de puissance
01:41de calcul sur le robot.
01:43Parce qu'on va prendre cet exemple de robot.
01:45Mais malgré tout, il faut un minimum d'intelligence, on va dire, sur l'appareil.
01:52C'est ça ?
01:53Oui, tout à fait.
01:54Il y a plein de raisons à ça.
01:56Déjà, pour des questions de privacy, pour des questions de sécurité des données,
02:00on n'a pas forcément envie qu'un robot qui se déplace chez nous téléverse la donnée qu'il est
02:05en train de capter sur des serveurs distants.
02:07On veut qu'elle reste chez nous, en question de sécurité et de confidentialité.
02:12Puis, il y a aussi des questions de réactivité.
02:14Si un robot doit éviter un obstacle, on ne veut pas envoyer la donnée sur le cloud, attendre qu'elle
02:19revienne.
02:19On veut que ça puisse se passer de façon instantanée.
02:22Aujourd'hui, l'IA, dans les robots, on voit qu'on est au tout début.
02:28Jeudi dernier, on recevait Unitree et ces robots incroyables qui ont une dextérité en électromobilité qui est folle.
02:38Mais ils sont bêtes.
02:40Il faut implémenter cette IA.
02:42Vous avez votre mot à dire là-dedans ?
02:45Vous pourriez apporter de l'intelligence sur ce type de robot ?
02:48C'est exactement notre mission.
02:50Vous avez tout à fait compris ce qu'on essaye de faire.
02:52Effectivement, les robots se déplacent de façon bluffante.
02:56Leurs gestes sont très proches de ceux des humains.
02:58C'est dingue.
02:59Mais par contre, ils sont effectivement un peu bêtes.
03:01Ils savent danser, à la limite plier du linge.
03:04Mais ça reste très gadget.
03:06Nous, ce qu'on veut, c'est qu'ils deviennent vraiment autonomes, vraiment intelligents quelque part pour qu'ils puissent
03:11nous remplacer dans les tâches du quotidien afin de nous concentrer sur des choses plus intéressantes.
03:17Et pour ça, ils n'ont pas seulement besoin d'un corps performant, ils ont besoin d'un cerveau performant
03:22qui va permettre d'exécuter des algorithmes d'intelligence artificielle en leur sein.
03:26Et alors, vous, votre mission, c'est quoi ?
03:28C'est de développer du soft, du hardware aussi, compatible avec cette frugalité, c'est ça ?
03:34Oui, c'est tout à fait ça.
03:35Notre cœur de métier, c'est le développement de la puce, du hardware qui va supporter l'exécution des algorithmes.
03:41Mais on propose une solution intégrée dans laquelle on va livrer un usage plutôt qu'un composant.
03:47Donc le software, les modèles de machine learning, le hardware et en fait tout mis ensemble pour permettre de répondre
03:54à un besoin qui est pour nous, en tout cas, celui de la vision par ordinateur.
03:58Donc ça va être la navigation autonome, la reconnaissance des objets dans le but de conférer des capacités de perception
04:04de l'environnement au robot.
04:07Vous en êtes où aujourd'hui, en fait, chez Durance ?
04:10Alors, ça fait un petit moment. Nous, on découle d'un projet de recherche académique.
04:14Donc c'est un projet qui a cours depuis 2015.
04:16Eco Technology, c'est ça ?
04:17Oui, alors Eco Technology, c'était le premier nom de la startup qu'on vient de renommer Durance.
04:22C'était un projet dans un labo qui a mené à ma thèse de doctorat et puis à la création
04:27de cette startup en juin 2025.
04:29Et aujourd'hui, on a commencé la commercialisation.
04:32Donc on a déjà fait pas mal de chiffres d'affaires.
04:33C'est exceptionnel pour une startup de semi-conducteurs de ce niveau.
04:37Et on a culturé notre première levée de fonds là en janvier 2026 qui nous permet de voir plus grand
04:41et d'aller vers notre premier produit.
04:43Ça m'intéresse de savoir ce que vous avez déjà commercialisé en fait.
04:46Alors, on a commercialisé plusieurs choses qui sont d'ailleurs déjà démontrées sur ce salon.
04:49Donc notamment dans les robots Unitree dont vous parliez tout à l'heure.
04:53Alors, ce n'est pas avec Unitree directement, mais on a un partenaire qui utilise des robots Unitree.
04:57On leur a conféré un système de vision extrêmement économe en énergie qui leur permet de détecter des personnes dans
05:03le champ de vision du robot afin de les éviter.
05:05Alors, c'est un cas d'usage démonstratif, pas forcément en production.
05:10Mais voilà.
05:11On a aussi des systèmes de tracking qui permettent le suivi d'objets, la compensation des mouvements de la caméra.
05:17Le tout, encore une fois, appliqué à des robots pour leur permettre de mieux comprendre et de mieux percevoir leur
05:22environnement.
05:23Alors, c'est passionnant tout ça et on voit que ça progresse vite.
05:26Mais on est encore très, très loin d'un robot qui pourrait nous apporter un café ici sur ce plateau
05:32en fait, qui pourrait comprendre qu'il y a des obstacles, tenir comme il faut un verre, l'apporter, le
05:39poser sans renverser de liquide, etc.
05:43Est-ce que c'est quelque chose qui est envisageable ?
05:45Vous qui êtes vraiment dans le dur là, c'est votre job ?
05:49C'est beaucoup plus qu'envisageable.
05:50Effectivement, c'est notre job et on va le faire.
05:52On va vraiment le faire.
05:53On va conférer ces capacités-là aux robots et leur permettre de se comporter de façon autonome,
05:58exactement comme un serveur pourrait se comporter de façon autonome dans un restaurant, une infirmière dans un hôpital.
06:03Notre but, c'est vraiment de suppléer les humains dans les tâches compliquées, demandeuses d'énergie et pour leur permettre
06:11de remplacer les humains dans ces tâches-là.
06:13D'accord.
06:13Mais aujourd'hui, un robot Unit3, il est commercialisé avec du hardware finalement et des processeurs aussi.
06:21Comment faites-vous justement pour vous associer avec ce type de mécanisme ?
06:27Alors nous, on a développé une plateforme qui est considérée comme un périphérique de l'ordinateur central du robot.
06:33On vient un peu se brancher comme on brancherait une carte graphique sur un ordinateur pour lui conférer des capacités
06:38de visualisation.
06:39Donc vous rajoutez du hardware sur Unit3, c'est ça ?
06:40Oui, c'est ça.
06:41En fait, on vient se brancher comme un composant, ce qu'on appelle aftermarket, pour améliorer les performances.
06:47D'accord.
06:47On ne va rien remplacer à l'intérieur, mais on va améliorer.
06:50C'est un peu un add-on, un additif qu'on vient rajouter dans le robot.
06:53D'accord.
06:53Mais demain, l'idée, c'est de se substituer au hardware qu'il y a déjà pour que vous soyez
06:58intégralement présent.
07:00C'est ça l'idée ?
07:01Alors, à terme, oui.
07:02Nous, on se concentre pour l'instant sur le cœur de notre valeur, qui est vraiment l'accélération et l
07:07'amélioration de l'exécution d'intelligence artificielle pour la vision.
07:10Mais à terme, évidemment, on voudrait remplacer, pas seulement par analogie, le cortex visuel, mais l'intégralité du cerveau du
07:16robot.
07:17Mais justement, est-ce qu'on peut avoir une vraie intelligence sans consommation énorme d'énergie ?
07:23Je pense que c'est quand même assez paradoxal.
07:26On voit aujourd'hui, les LLM, les Chagipiti, les Gemini sont très consommateurs d'énergie dès qu'on fait une
07:32requête.
07:33Et malgré tout, sur un robot, il va falloir de l'intelligence.
07:36Et une intelligence peut être encore plus puissante pour qu'elle comprenne son environnement, etc.
07:41Ce n'est pas paradoxal ?
07:44C'est exactement notre job.
07:45Et en fait, nous, on fait ça en regardant la biologie.
07:49Dans la tête, dans le crâne, on a le processeur d'intelligence artificielle le plus performant du monde.
07:54Il consomme 20 watts pour des milliards de milliards de neurones.
07:58Ça, c'est des milliards de fois plus efficaces que de chez GPT.
08:00Ah oui, l'efficience, elle est impressionnante.
08:02C'est inégalable.
08:04On ne pense pas à l'égaler, mais en tout cas, en s'en inspirant, on va pouvoir baisser drastiquement
08:09la consommation.
08:09Donc nous, ce qu'on fait, c'est qu'on regarde comment ça fonctionne dans le cerveau.
08:13Et on reproduit ce fonctionnement dans les algorithmes et dans les processeurs qui sous-tendent leur exécution.
08:18Et aujourd'hui, ça nous permet déjà d'être 100 fois plus efficaces en énergie qu'un processeur NVIDIA, par
08:22exemple.
08:23Alors nous, on ne fait pas de LLM, mais pour faire de la vision, par exemple, on est 100 fois
08:26meilleur.
08:26Demain, on ira peut-être vers les LLM aussi.
08:28C'est la suite des événements, oui.
08:29D'accord. Donc c'est quoi ? Il y a une espèce de compréhension neuronale de votre programmation et de
08:37votre hardware, c'est ça ?
08:39C'est un rapport avec les neurones ou comment vous analysez la manière dont le cerveau réagit ?
08:45Alors nous, on s'est inspiré de ce que faisaient les neurosciences.
08:48Les neurosciences, à l'origine, ils ont produit des algorithmes dans le but de modéliser le cerveau, de comprendre comment
08:53le cerveau fonctionne.
08:54Ils imaginaient que ça fonctionnait d'une certaine manière.
08:56Ils ont développé ces modèles pour comparer à la réalité.
08:59Et c'est comme ça que ça se passait.
09:00Et des chercheurs en machine learning, en intelligence artificielle, ont vu ces modèles-là, ont vu leur capacité de raisonnement
09:06et leur promesse en termes de consommation énergétique,
09:09de par le fait qu'ils soient inspirés du fonctionnement du cerveau.
09:11Et nous, on récupère ces modèles et on les applique à des tâches d'intelligence artificielle.
09:15A votre avis, le robot intelligent qui sera ou dans les usines ou à la maison, c'est pour quand
09:21?
09:22Moi, je pense que ça commence déjà aujourd'hui.
09:24On le voit qu'il commence à arriver dans les foyers.
09:27Je pense que d'ici 10 ans, une grande partie des foyers, des usines, des bureaux, des hôpitaux seront équipés
09:32de robots intelligents.
09:33C'est amusant parce que souvent, je pose cette question et il y a une espèce de consensus sur 10
09:38ans, finalement.
09:40C'est suffisamment loin pour ne pas trop se mouiller.
09:43C'est ça.
09:44Oui, mais bon, 10 ans, ça va vite.
09:46Bon, on prend date.
09:48On se retrouvera en 2036.
09:49Avec grand plaisir.
09:50Merci beaucoup, Edgar Le Maire, fondateur et président de Durand-Seaille.
09:54Merci beaucoup.
Commentaires