00:00Tech & Co, la quotidienne, l'invité.
00:03Voilà le retour de Tech & Co, la quotidienne sur BFM Business, toujours ici à Marseille, à l'AIM.
00:08Et j'accueille sur le plateau Athénaïs Oslati. Bonsoir Athénaïs.
00:11Bonsoir.
00:12Vous êtes fondatrice et PDG de Hontebeau.
00:14Comment rendre en fait tous ces LLM qu'on utilise au quotidien, un peu plus humains, un peu plus intelligents en tout cas, pour qu'ils nous ressemblent le plus ?
00:23C'est un petit peu votre job, Athénaïs.
00:26Vous allez nous présenter Hontebeau dans un instant, mais on tenez à vous féliciter toute l'émission de Tech & Co et toute la rédaction,
00:32puisque vous êtes fraîchement lauréate du prix Tilder de la femme ingénieure en IA. Bravo.
00:37Merci.
00:38J'imagine que c'est une reconnaissance qui fait plaisir.
00:40Absolument. Je suis très honorée de recevoir ce prix-là, surtout aujourd'hui et dans sa très belle enceinte.
00:46Voilà. Vous l'avez eu vendredi dernier à l'occasion de l'AIM.
00:50C'est le cabinet Tilder qui vous l'a remis en partenariat avec la Tribune dimanche Athénaïs.
00:55Alors présentez-nous, Hontebeau, s'il vous plaît. On vous écoute.
00:57Alors, Hontebeau, c'est quoi ? C'est une IA qu'on appelle dite cognitive.
01:01Et avant toute chose, il faut rappeler qu'aujourd'hui, l'IA fait face à deux enjeux.
01:06Le premier, c'est un enjeu technologique et le deuxième, on en a entendu parler ces derniers temps, économique et écologique.
01:13Et sur l'aspect technologique, les gens veulent des IA plus fiables, des IA qui sont beaucoup plus précises,
01:19qui mémorisent, donc avoir la bonne information au bon moment.
01:22Je vais vous donner un exemple pour être plus concret.
01:25Imaginons Paul. On prend Paul, il habitait à Paris.
01:28Maintenant, il a déménagé pour Tokyo.
01:31L'être humain, il arrive à faire ce sens chronologique de Paris à Tokyo.
01:35Là où le LLM aujourd'hui se garde en mémoire active, juste ces deux informations, Paris et Tokyo.
01:41Et c'est là où on a des confusions.
01:44Et c'est là la vraie limite de l'IA aujourd'hui, c'est que malheureusement,
01:47elle ne fait que mémoriser sans comprendre, sans intégrer l'information.
01:50Il y a des progrès qui sont faits quand même.
01:52Pour utiliser de temps en temps le chat GPT, je suis parfois surpris de la manière dont il comprend le contexte
01:59et comment il arrive à se rendre compte que ma situation a évolué, etc.
02:04Est-ce que ce n'est pas un peu peine perdue tout ça ?
02:06Est-ce que finalement, ces grands modèles ne vont pas s'y mettre un jour ou l'autre ?
02:10Avec toutes les dizaines de milliards qu'ils investissent.
02:13C'est exactement le problème et c'est le second enjeu.
02:15C'est qu'aujourd'hui, il y a un enjeu économico-écologique.
02:19C'est-à-dire qu'il y a eu des investissements massifs qui sont faits dans l'infrastructure,
02:22dans les data centers, dans ce qu'on appelle les coûts de compute,
02:25le coût d'analyse et d'utilisation de ces LLM.
02:28Et le problème qui se pose, c'est qu'on ne pourra pas atteindre une mémoire,
02:31ni un contexte comme on l'entend aujourd'hui pour un être humain.
02:36Pourquoi ? Parce que ces modèles consomment tellement d'énergie versus ce qu'ils peuvent vous rapporter
02:40qu'on ne pourra pas atteindre cet objectif-là.
02:45Alors, quelle est votre recette chez Hondebo ? Comment arrivez-vous ?
02:47Alors déjà, est-ce que vous vous pluguez à n'importe quel IA ?
02:50Ou est-ce que c'est ancré en votre propre LLM que vous le rendez plus humain ?
02:56Alors, nous, on s'insère justement, on travaille avec des LLM, on travaille avec des AI agents.
03:00Donc, on vient s'intégrer directement pour les rendre plus cognitifs, plus cohérents,
03:04avec une couche de mémoire en plus.
03:07Et ça, ça permet de réduire jusqu'à 95 les coûts de compute, ces coûts de calcul.
03:12Donc, c'est un gain énergétique, c'est un gain également sur la facture des LLM qui est non négligeable.
03:17Ça, c'est un premier point.
03:18Et le deuxième point, surtout, c'est qu'on est capable de ressortir des informations avec cohérence,
03:24avec transparence et avec cette notion d'explicabilité aussi des résultats.
03:27Ce qui n'est pas le cas pour les LLM aujourd'hui.
03:29Est-ce que, alors, vous nous avez donné un exemple de ce fameux Paul qui part de Marseille,
03:34c'était Marseille, Tokyo ou Paris ou Tokyo ?
03:37Est-ce que vous avez d'autres exemples que vous pouvez nous donner, justement, de ce que peut faire Hondebo ?
03:42Absolument.
03:43Par exemple, on a beaucoup de demandes dans le service, tout ce qui touche à l'industrie.
03:48À l'industrie, ils ont énormément de données, énormément de data.
03:52Et, par exemple, pour lire une procédure complète, pour analyser pourquoi est-ce qu'on a eu une panne,
03:58prévenir cette panne, c'est là où on va utiliser.
04:01Ils ont des LLM en interne, ils ont déjà de l'IA générative,
04:04mais ils n'ont pas cette couche connective qui permet à ces données de ressortir la bonne information
04:09au bon moment, avec cohérence.
04:11Et c'est là où, nous, on vient s'insérer.
04:13Très bien.
04:13Est-ce qu'il y a des vélités à arriver sur des sujets qui seraient plus bitoussis ?
04:19Par exemple, je ne sais pas, moi, l'enseignement ou des choses comme ça.
04:22Est-ce que ça peut avoir du sens ?
04:23Ou est-ce que, vraiment, vous êtes plutôt réservé sur l'industrie et le B2B ?
04:27Alors, on est B2B, exclusivement, aujourd'hui, puisque c'est là où on a le plus de demandes.
04:34Et c'est là où on va pouvoir toucher, surtout, un maximum de personnes.
04:37C'est vrai qu'il y a énormément de demandes sur l'aspect B2C.
04:40On le voit, beaucoup utilisent leur LLM, ChatGPT, comme étant un substitut émotionnel.
04:45Et l'objectif, c'est de recadrer, de proposer Ombo.
04:48Donc, ça, c'est quand on arrivera sur des partenariats avec certains types de LLM
04:52pour pouvoir cadrer et proposer une expérience qui soit la plus réelle possible.
05:00C'est-à-dire que là, en fait, qu'on puisse avoir la sensation de discuter avec un humain en face de nous, c'est ça ?
05:08Alors, on a déjà la sensation de discuter un peu avec un humain.
05:10Même si on arrive, on voit très bien quand on lit un LLM, on se rend compte que ça a été rédigé par une machine plutôt qu'un être humain.
05:18Sauf que le sujet qui se pose aujourd'hui, c'est qu'on échange, on utilise un LLM comme étant un substitut.
05:24Et ça, c'est un problème qui est soulevé aujourd'hui et qui est en train d'être cadré.
05:29Vous avez sans doute un rôle à jouer aussi.
05:32On le voit avec toutes ces intelligences artificielles conversationnelles.
05:36On voit qu'il y a de plus en plus de gens.
05:38Alors, on ne va pas les critiquer, mais qui discutent à longueur de journée avec des IA.
05:44Parfois pour essayer de combler une solitude.
05:48Parfois aussi pour travailler, pour se divertir, pour que ce soit un confident.
05:53On va jusque-là avec aussi des dérapages.
05:56On l'a vu récemment dans l'actualité.
05:57Il y a parfois des gens qui se suicident parce que l'IA ne les a pas véritablement bien accompagnés
06:05ou ne leur a pas dit qu'il ne fallait pas qu'ils se suicident.
06:08Est-ce que vous pensez que ça peut être un sujet aussi que vous pourriez embrasser ?
06:12Alors, nous, on est exclusivement B2B.
06:15Effectivement, si on a des demandes de LLM, on pourra partir sur ces sujets.
06:20Il faut que ça soit cadré.
06:22Il faut qu'il y ait, et je reviens sur cette notion de contexte de mémoire,
06:25prendre en considération l'intégralité du contexte de l'utilisateur, de chaque individu.
06:30C'est important pour fournir la bonne information et de ne pas rester sur de la prédiction.
06:34Vous avez des partenariats, je crois, avec Microsoft, Google, Nvidia, aux Etats-Unis.
06:39Est-ce que vous pouvez nous en dire un petit peu plus ?
06:41Alors là, on vient d'avancer avec AWS également.
06:44Donc, on est présent sur la Marketplace et dans le cloud.
06:47Un petit acteur du cloud.
06:48Un petit acteur, exactement.
06:49Exactement, et l'objectif, en fait, c'est d'avancer avec ces intégrateurs
06:53pour pouvoir déployer notre solution beaucoup plus rapidement chez nos clients
06:56puisque nos clients utilisent déjà ces clouds, ces grands noms.
07:01Eh bien, on souhaite bonne chance à Rondebo et encore bravo pour ce prix.
07:05Rappelons que vous êtes l'oréate de ce prix Tildor de la femme ingénieure en IA,
07:08Athénaïs Oslati.
07:09Vous en êtes la fondatrice.
07:10Merci beaucoup.
07:11Merci.
07:15Merci.