Passer au playerPasser au contenu principal
  • il y a 2 jours
Athénaïs Oslati, fondatrice et PDG de Ontbo, était l'invitée de François Sorel dans Tech & Co, la quotidienne, ce lundi 17 novembre. Il s'est penché sur la manière pour rendre les intelligences artificielles plus humaines, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:00Tech & Co, la quotidienne, l'invité.
00:03Voilà le retour de Tech & Co, la quotidienne sur BFM Business, toujours ici à Marseille, à l'AIM.
00:08Et j'accueille sur le plateau Athénaïs Oslati. Bonsoir Athénaïs.
00:11Bonsoir.
00:12Vous êtes fondatrice et PDG de Hontebeau.
00:14Comment rendre en fait tous ces LLM qu'on utilise au quotidien, un peu plus humains, un peu plus intelligents en tout cas, pour qu'ils nous ressemblent le plus ?
00:23C'est un petit peu votre job, Athénaïs.
00:26Vous allez nous présenter Hontebeau dans un instant, mais on tenez à vous féliciter toute l'émission de Tech & Co et toute la rédaction,
00:32puisque vous êtes fraîchement lauréate du prix Tilder de la femme ingénieure en IA. Bravo.
00:37Merci.
00:38J'imagine que c'est une reconnaissance qui fait plaisir.
00:40Absolument. Je suis très honorée de recevoir ce prix-là, surtout aujourd'hui et dans sa très belle enceinte.
00:46Voilà. Vous l'avez eu vendredi dernier à l'occasion de l'AIM.
00:50C'est le cabinet Tilder qui vous l'a remis en partenariat avec la Tribune dimanche Athénaïs.
00:55Alors présentez-nous, Hontebeau, s'il vous plaît. On vous écoute.
00:57Alors, Hontebeau, c'est quoi ? C'est une IA qu'on appelle dite cognitive.
01:01Et avant toute chose, il faut rappeler qu'aujourd'hui, l'IA fait face à deux enjeux.
01:06Le premier, c'est un enjeu technologique et le deuxième, on en a entendu parler ces derniers temps, économique et écologique.
01:13Et sur l'aspect technologique, les gens veulent des IA plus fiables, des IA qui sont beaucoup plus précises,
01:19qui mémorisent, donc avoir la bonne information au bon moment.
01:22Je vais vous donner un exemple pour être plus concret.
01:25Imaginons Paul. On prend Paul, il habitait à Paris.
01:28Maintenant, il a déménagé pour Tokyo.
01:31L'être humain, il arrive à faire ce sens chronologique de Paris à Tokyo.
01:35Là où le LLM aujourd'hui se garde en mémoire active, juste ces deux informations, Paris et Tokyo.
01:41Et c'est là où on a des confusions.
01:44Et c'est là la vraie limite de l'IA aujourd'hui, c'est que malheureusement,
01:47elle ne fait que mémoriser sans comprendre, sans intégrer l'information.
01:50Il y a des progrès qui sont faits quand même.
01:52Pour utiliser de temps en temps le chat GPT, je suis parfois surpris de la manière dont il comprend le contexte
01:59et comment il arrive à se rendre compte que ma situation a évolué, etc.
02:04Est-ce que ce n'est pas un peu peine perdue tout ça ?
02:06Est-ce que finalement, ces grands modèles ne vont pas s'y mettre un jour ou l'autre ?
02:10Avec toutes les dizaines de milliards qu'ils investissent.
02:13C'est exactement le problème et c'est le second enjeu.
02:15C'est qu'aujourd'hui, il y a un enjeu économico-écologique.
02:19C'est-à-dire qu'il y a eu des investissements massifs qui sont faits dans l'infrastructure,
02:22dans les data centers, dans ce qu'on appelle les coûts de compute,
02:25le coût d'analyse et d'utilisation de ces LLM.
02:28Et le problème qui se pose, c'est qu'on ne pourra pas atteindre une mémoire,
02:31ni un contexte comme on l'entend aujourd'hui pour un être humain.
02:36Pourquoi ? Parce que ces modèles consomment tellement d'énergie versus ce qu'ils peuvent vous rapporter
02:40qu'on ne pourra pas atteindre cet objectif-là.
02:45Alors, quelle est votre recette chez Hondebo ? Comment arrivez-vous ?
02:47Alors déjà, est-ce que vous vous pluguez à n'importe quel IA ?
02:50Ou est-ce que c'est ancré en votre propre LLM que vous le rendez plus humain ?
02:56Alors, nous, on s'insère justement, on travaille avec des LLM, on travaille avec des AI agents.
03:00Donc, on vient s'intégrer directement pour les rendre plus cognitifs, plus cohérents,
03:04avec une couche de mémoire en plus.
03:07Et ça, ça permet de réduire jusqu'à 95 les coûts de compute, ces coûts de calcul.
03:12Donc, c'est un gain énergétique, c'est un gain également sur la facture des LLM qui est non négligeable.
03:17Ça, c'est un premier point.
03:18Et le deuxième point, surtout, c'est qu'on est capable de ressortir des informations avec cohérence,
03:24avec transparence et avec cette notion d'explicabilité aussi des résultats.
03:27Ce qui n'est pas le cas pour les LLM aujourd'hui.
03:29Est-ce que, alors, vous nous avez donné un exemple de ce fameux Paul qui part de Marseille,
03:34c'était Marseille, Tokyo ou Paris ou Tokyo ?
03:37Est-ce que vous avez d'autres exemples que vous pouvez nous donner, justement, de ce que peut faire Hondebo ?
03:42Absolument.
03:43Par exemple, on a beaucoup de demandes dans le service, tout ce qui touche à l'industrie.
03:48À l'industrie, ils ont énormément de données, énormément de data.
03:52Et, par exemple, pour lire une procédure complète, pour analyser pourquoi est-ce qu'on a eu une panne,
03:58prévenir cette panne, c'est là où on va utiliser.
04:01Ils ont des LLM en interne, ils ont déjà de l'IA générative,
04:04mais ils n'ont pas cette couche connective qui permet à ces données de ressortir la bonne information
04:09au bon moment, avec cohérence.
04:11Et c'est là où, nous, on vient s'insérer.
04:13Très bien.
04:13Est-ce qu'il y a des vélités à arriver sur des sujets qui seraient plus bitoussis ?
04:19Par exemple, je ne sais pas, moi, l'enseignement ou des choses comme ça.
04:22Est-ce que ça peut avoir du sens ?
04:23Ou est-ce que, vraiment, vous êtes plutôt réservé sur l'industrie et le B2B ?
04:27Alors, on est B2B, exclusivement, aujourd'hui, puisque c'est là où on a le plus de demandes.
04:34Et c'est là où on va pouvoir toucher, surtout, un maximum de personnes.
04:37C'est vrai qu'il y a énormément de demandes sur l'aspect B2C.
04:40On le voit, beaucoup utilisent leur LLM, ChatGPT, comme étant un substitut émotionnel.
04:45Et l'objectif, c'est de recadrer, de proposer Ombo.
04:48Donc, ça, c'est quand on arrivera sur des partenariats avec certains types de LLM
04:52pour pouvoir cadrer et proposer une expérience qui soit la plus réelle possible.
05:00C'est-à-dire que là, en fait, qu'on puisse avoir la sensation de discuter avec un humain en face de nous, c'est ça ?
05:08Alors, on a déjà la sensation de discuter un peu avec un humain.
05:10Même si on arrive, on voit très bien quand on lit un LLM, on se rend compte que ça a été rédigé par une machine plutôt qu'un être humain.
05:18Sauf que le sujet qui se pose aujourd'hui, c'est qu'on échange, on utilise un LLM comme étant un substitut.
05:24Et ça, c'est un problème qui est soulevé aujourd'hui et qui est en train d'être cadré.
05:29Vous avez sans doute un rôle à jouer aussi.
05:32On le voit avec toutes ces intelligences artificielles conversationnelles.
05:36On voit qu'il y a de plus en plus de gens.
05:38Alors, on ne va pas les critiquer, mais qui discutent à longueur de journée avec des IA.
05:44Parfois pour essayer de combler une solitude.
05:48Parfois aussi pour travailler, pour se divertir, pour que ce soit un confident.
05:53On va jusque-là avec aussi des dérapages.
05:56On l'a vu récemment dans l'actualité.
05:57Il y a parfois des gens qui se suicident parce que l'IA ne les a pas véritablement bien accompagnés
06:05ou ne leur a pas dit qu'il ne fallait pas qu'ils se suicident.
06:08Est-ce que vous pensez que ça peut être un sujet aussi que vous pourriez embrasser ?
06:12Alors, nous, on est exclusivement B2B.
06:15Effectivement, si on a des demandes de LLM, on pourra partir sur ces sujets.
06:20Il faut que ça soit cadré.
06:22Il faut qu'il y ait, et je reviens sur cette notion de contexte de mémoire,
06:25prendre en considération l'intégralité du contexte de l'utilisateur, de chaque individu.
06:30C'est important pour fournir la bonne information et de ne pas rester sur de la prédiction.
06:34Vous avez des partenariats, je crois, avec Microsoft, Google, Nvidia, aux Etats-Unis.
06:39Est-ce que vous pouvez nous en dire un petit peu plus ?
06:41Alors là, on vient d'avancer avec AWS également.
06:44Donc, on est présent sur la Marketplace et dans le cloud.
06:47Un petit acteur du cloud.
06:48Un petit acteur, exactement.
06:49Exactement, et l'objectif, en fait, c'est d'avancer avec ces intégrateurs
06:53pour pouvoir déployer notre solution beaucoup plus rapidement chez nos clients
06:56puisque nos clients utilisent déjà ces clouds, ces grands noms.
07:01Eh bien, on souhaite bonne chance à Rondebo et encore bravo pour ce prix.
07:05Rappelons que vous êtes l'oréate de ce prix Tildor de la femme ingénieure en IA,
07:08Athénaïs Oslati.
07:09Vous en êtes la fondatrice.
07:10Merci beaucoup.
07:11Merci.
07:15Merci.

Recommandations