Passer au playerPasser au contenu principal
  • il y a 2 jours
Ce mardi 9 décembre, Alexandre Pasquiou, cofondateur de Neuralk-AI, s'est penché sur l'ambition française en intelligence artificielle avec Neuralk-AI, dans l'émission Tech&Co Business présentée par Frédéric Simottel. Tech&Co Business est à voir ou écouter le mardi sur BFM Business.

Catégorie

📺
TV
Transcription
00:00Tech & Co Business, Startup Booster.
00:05Allez, notre deuxième invité depuis le sommet AI Pulse, sommet organisé par Scaleway à Station F.
00:11Et avec nous, Alexandre Passiou, bonjour.
00:13Bonjour Frédéric.
00:14Alexandre, merci d'être avec nous, cofondateur de Neuralc AI.
00:16Alors, ceux qui suivent l'émission, on avait reçu notre autre cofondateur, Antoine,
00:21donc spécialiste dans l'IA des données structurées.
00:23Alors, c'est vrai qu'aujourd'hui, lorsqu'on vous parle des grands modèles d'IA, les chats de GPT, etc.,
00:26on est dans le traitement de texte, l'image, maintenant la vidéo.
00:29Et puis, ça devient plus compliqué quand on est dans des données, ce qu'on appelle de tabulation,
00:33des données tabulées dans les systèmes d'information.
00:36Et c'est là qu'intervient Neuralc, c'est cela ?
00:38Exactement. Neuralc se base sur le constat que 70% de la valeur qui va être générée par une entreprise
00:43va dériver de la façon dont elle utilise ses données et qui sont généralement structurées.
00:48Donc, on entend beaucoup de bruit sur la Gen AI.
00:50Oui.
00:51Et donc, sur toute l'AI qui va se baser sur du texte, du code, des images,
00:55donc ce sont de la donnée non structurée.
00:56On oublie que la donnée qui est critique pour les entreprises et qui va...
01:01Oui, elle est déjà classée dans leur pichier.
01:03Exactement. Elle est déjà structurée sous forme de tableau.
01:05Et c'est cette donnée qui va vraiment driver toute la stratégie de ces entreprises,
01:09qu'elles soient en finance, en santé, en retail, ou même en énergie ou dans les télécommunications.
01:13Mais comment ça se fait que ces grands modèles n'arrivent pas ou alors ils ont d'autres priorités aujourd'hui ?
01:19C'est ça que d'aller chercher cette donnée tabulaire, c'est ça ?
01:23Le texte, les images ou encore les tableaux sont des données qui vont être très différentes.
01:28Dans les tableaux qui ont des lignes, des colonnes, on va retrouver de l'information structurelle,
01:34c'est-à-dire sur la façon dont les lignes et dont les colonnes interagissent les unes avec les autres.
01:38Les nombres également, c'est la base de tous les tableaux de données.
01:42Donc on pense à un dataset, par exemple, de transactions dans des banques
01:45ou à un cours de bourse avec un hedge fund.
01:48Il n'y a que des nombres.
01:50Et les nombres sont très mal représentés par les modèles de langage
01:56qui sont entraînés sur des quantités phénoménales de textes qui ont été récupérées sur Internet.
02:02Et donc vous, vous êtes focalisé sur ça.
02:03On appelle ça un tabular foundation modèle.
02:06Et alors, spécifiquement pour le commerce, vous vous êtes dit au départ,
02:10on va démarrer dans le retail, ce qui n'est pas bête, évidemment,
02:14de se focaliser sur un secteur.
02:16Alors pourquoi eux en premier ?
02:19On n'a pas voulu prendre le même chemin qu'avaient pris les OpenAI, Anthropik, Misral,
02:23et dire on va faire un modèle, on va faire une tech très horizontale
02:27et après on va essayer de se poser la question sur quel cas d'usage on va l'appliquer.
02:31Il faut verticaliser un peu plus, oui.
02:32On est parti vraiment du client.
02:34Les clients, il y a différentes industries, ils ont tous leur cas d'usage.
02:38Et on s'est dit, pour essayer de passer en production le plus vite possible chez un client,
02:42il faut comprendre ces pain points, où est-ce qu'il souffre, qu'est-ce qu'il n'arrive pas à faire
02:48et où est-ce qu'on pourrait l'aider.
02:50Et donc on s'est dit, on va essayer d'avoir un discours relativement cohérent
02:55et à dresser une verticale, en l'occurrence le retail.
02:58Pourquoi ? Parce que c'est la donnée qui est beaucoup moins sensible que la donnée financière,
03:02la donnée d'assurance ou de santé.
03:04Oui, c'est des catalogues produits, des catalogues de tarifs, juste comme ça.
03:07Exactement.
03:07Et donc ça permettait d'itérer beaucoup plus vite sur la donnée.
03:11Ça permettait même d'en récupérer de la donnée externe.
03:13Ça permettait d'adresser toute une pléthore de cas d'usage qui vont être sur la catégorisation de produits,
03:17sur du mapping de produits, sur la prédiction d'attributs.
03:21Et donc de se confronter à des cas d'usage tout en montant en compétence sur le modèle.
03:25Et ça, les outils, leurs outils décisionnels aujourd'hui ne pouvaient pas avoir ce niveau d'intelligence, c'est ça ?
03:31À la différence du GenEI où il n'y avait absolument rien en amont,
03:37les entreprises n'ont pas attendu les Tabular Foundation Models pour aller adresser ces cas d'usage tabulaires.
03:42Et donc il y avait une barrière supplémentaire qui était de battre l'état de l'art.
03:46C'est-à-dire de battre les modèles qui sont implémentés chez ces entreprises.
03:51Et c'était tout l'objectif de se concentrer sur une verticale.
03:54C'est ce qu'on a montré avec les différents design partners avec qui on travaille.
03:58Et une fois cette validation réalisée, on a commencé à s'étendre à d'autres industries, d'autres cas d'usage.
04:06Donc là, on va travailler avec des entreprises dans les télécommunications, dans l'énergie et des hedge funds,
04:11par exemple, pour prédire les cours de bourse.
04:12Et on a montré que notre techno avait un énorme potentiel pour aller améliorer toutes les baselines qui ont pu être construites par ces entreprises.
04:20Et ça en quelques mois, parce que je me reçois justement à votre cofondateur, c'est Antoine Moissonné.
04:25Voilà, que je n'écorche pas son nom.
04:26C'est bien ça, hein ?
04:27Moissno.
04:28Pour que je n'écorche pas son nom.
04:30Il n'était que dans le retail, c'est il y a quelques mois.
04:32Donc en quelques mois, ça y est, vous avez réussi à vous étendre vers d'autres secteurs d'activité.
04:36Oui, on a signé une dizaine de design partnerships sur les six derniers mois.
04:41Plutôt des grands comptes, comme dans le retail ?
04:43Que des grands comptes.
04:43Donc c'est que des enterprises avec plus de 2 milliards de CA par année.
04:47Et une fois qu'on a validé ça, sur les trois derniers mois, on a réussi à aller très vite
04:52et à signer d'autres design partnerships avec des grands comptes d'autres verticales.
04:57Et l'idée, là, c'est d'accélérer fortement sur les prochains mois, de faire le launch
05:02de notre API public en 2026 et d'aller chercher des fonds également sur Q1, Q2.
05:09C'est ça, on y reviendra.
05:10Vous avez levé 4 millions en février et vous êtes en quête de...
05:14J'avais lu 15 quelque part, mais je crois que ce sera plus dans les six mois à venir.
05:17Voilà, donc l'appel est lancé.
05:20Je reviens un peu sur votre techno.
05:21Ça veut dire qu'aujourd'hui, qu'est-ce qu'elle fait ?
05:23Vous allez... Je suis un grand du retail, j'ai toutes mes données de catalogue, etc.
05:29Vous allez nettoyer mes fichiers ?
05:30Vous allez... Comment vous faites pour en tirer le meilleur parti
05:34et que moi, je puisse prendre des décisions par rapport à ça ?
05:37Le modèle, il va être capable de réaliser n'importe quelle tâche de classification,
05:42de régression ou de time series.
05:44C'est-à-dire qu'à partir d'un tableau de données,
05:47il va être capable d'utiliser les informations, les propriétés de chaque échantillon
05:51pour prédire soit une valeur discrète, un label, une catégorie.
05:55Donc ça, c'est la classification.
05:57Soit une valeur continue, donc une valeur numérique.
06:00Et ça, c'est la régression.
06:01D'accord.
06:02Avec les retailers, on a travaillé majoritairement sur un premier cas d'usage
06:05qui est de la catégorisation de produits.
06:07C'est-à-dire qu'aujourd'hui, les suppliers, donc les fournisseurs,
06:09ils vont envoyer la donnée produit aux différents retailers.
06:12Donc il faut penser Carrefour, Leclerc, Saint-Gobain ou autres.
06:16Et ils ne vont pas faire l'effort pour chaque produit
06:19de trouver la bonne catégorie dans la taxonomie du retailer.
06:22Sachant que ces taxonomies, il peut y avoir parfois 10 000 catégories.
06:25J'imagine dans le bricolage, c'est Lévis.
06:27Je crois que Leroy Merlin, c'est 14 000 références.
06:30Donc c'est démentiel et c'est humainement pas faisable.
06:33Et donc le problème, c'est qu'aujourd'hui, c'est fait à la main.
06:36Et il y a des milliers de produits qui arrivent tous les jours.
06:39On ne peut pas les annoter, les catégoriser à la main.
06:42Donc il y a un backlog, il y a une accumulation de ces produits
06:44et un gros délai entre le moment où le produit est reçu
06:47et le moment où il est mis en ligne.
06:48Et puis c'est important, j'imagine, pour les clients
06:51d'avoir la bonne taille de vis, la bonne norme électrique,
06:54les bonnes caractéristiques du produit.
06:56Si on n'a pas la catégorie, on ne sait pas déjà
06:58où mettre le produit sur le site.
07:01Donc il ne sera pas visible.
07:02Si on a notre ordinateur dans les chaussettes,
07:05il faut être sûr qu'il n'y a aucun client qui va le trouver.
07:07On ne sait pas où le mettre en magasin,
07:08on ne sait pas gérer la supply chain.
07:10Donc ça, c'est la base pour pouvoir vendre le produit.
07:13Ensuite, à partir de cette bonne catégorisation,
07:16on va être capable de prédire les attributs manquants,
07:19donc d'enrichir les fiches produits.
07:21Et après, on va faire tout un ensemble de tâches
07:23autour de la prédiction des ventes,
07:24prédiction de réachat, prédiction de churn,
07:27prédiction de CA.
07:29Aujourd'hui, on l'entend beaucoup
07:30sur les modèles plus généraux,
07:33la partie entraînement, la partie inférence.
07:36Vous, comment vous entraînez vos modèles aussi avec Neuralc ?
07:39C'est un des gros développements technologiques
07:45qu'on a dû réaliser.
07:47C'est que c'est impossible, contrairement à LLM,
07:49d'aller acheter des milliards de tableaux
07:51pour entraîner ce genre d'architecture,
07:53ce genre de modèle.
07:54Donc, il a fallu contourner ce besoin en données.
07:58Et la solution, c'est de générer ces données.
08:00C'est-à-dire qu'on va générer de la donnée tabulaire.
08:03Alors, bien sûr, il ne faut pas juste...
08:04C'est de la donnée synthétique, carrément ?
08:06Exactement.
08:06Ah oui, d'accord.
08:07On génère de la donnée de synthèse.
08:08Et donc, il y a beaucoup de recherches,
08:10des années de recherches,
08:11sur comment générer un tableau
08:13de manière intelligente
08:15pour générer des distributions de données
08:18qui pourraient être similaires
08:19à celles qu'on pourrait rencontrer
08:20en production avec nos clients.
08:22Alors, aujourd'hui, je reviens sur la levée de fonds,
08:24donc levée de fonds 4 millions en février,
08:26la enquête de levée de fonds.
08:28Là, aujourd'hui, vous êtes combien de personnes
08:29aujourd'hui chez Neuralc ?
08:30On est environ 13.
08:31On va faire quelques recrutements
08:33sur la fin d'année.
08:35Et l'objectif, c'est d'accélérer très fortement
08:37sur 2026.
08:38Et donc, c'est du recrutement
08:39pour aller adresser justement ces secteurs.
08:42Et ensuite, quelque part,
08:43parce que vous n'êtes pas capable
08:44d'être chez tous vos clients,
08:46c'est de leur mettre le pied à l'étrier.
08:47Une fois qu'ils ont accès à l'outil,
08:49maintenant, voilà, vous avez les données,
08:50vous avez l'outil.
08:51Et puis, nous, on vous apportera
08:52les nouvelles versions au fil du temps.
08:54C'est ça, l'idée ?
08:54Jusqu'à présent, on a travaillé
08:56de manière très proche avec nos clients.
08:58L'objectif pour gagner en scalabilité,
09:01c'est de rendre public notre API
09:03début 2026,
09:05de permettre aux data scientists
09:07de tous ces clients
09:08de pouvoir jouer avec le modèle,
09:09d'itérer, de comprendre la valeur.
09:12Puis après, d'essayer de les on-border
09:13le plus facilement,
09:14une fois qu'ils ont déjà pris en main l'outil,
09:16et d'aller adresser
09:18toutes les verticales et tous les cas d'usage.
09:20Et là, vous pensez que c'est là
09:21où votre avance,
09:22vous êtes un modèle vertical,
09:24dans plusieurs domaines,
09:26mais c'est là où vous avez vraiment de l'avance
09:27par rapport à ces grands modèles génératifs
09:29qui, le jour où ils iront forcément
09:32un jour vers ces secteurs,
09:33mais vous aurez cette avance assez importante,
09:35déjà avec les clients,
09:36contacts clients,
09:37et puis en plus,
09:37avec votre technologie,
09:38vous aurez beaucoup appris.
09:39Il y a un edge,
09:40une barrière technologique
09:42qu'on est en train de consolider,
09:43qu'on va continuer de consolider.
09:44Il y a beaucoup de recherches
09:45et l'objectif de ce prochain tour,
09:47ce sera notamment de recruter
09:48beaucoup plus de research scientists
09:50et d'avoir plus de compute
09:51pour développer des plus gros modèles
09:54et des plus puissants.
09:55Oui, mais c'est également
09:57d'aller développer
09:57toute la force de frappe commerciale
10:02pour aller chercher les clients,
10:04vraiment mapper tout l'écosystème
10:05et déployer notre solution chez eux.
10:07Eh bien, on espère
10:08que vous viendrez de nous en parler
10:09dans Tech&Co.
10:10Merci Alexandre Basquieu,
10:12cofondateur de Neuralc.
10:13Voilà, c'est une partie
10:13de nos belles pépites,
10:15une ambitieuse pépites dans l'IA.
10:18Voilà, il y a Mistral
10:19qui est un peu le porte-drapeau,
10:20mais derrière,
10:20il y a beaucoup, beaucoup,
10:21enfin, sur les côtés d'ailleurs,
10:22il y a beaucoup d'entreprises
10:23comme Neuralc.
10:24Merci Alexandre d'être venu.
10:25Nous en parler.
10:26Merci.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations