Passer au playerPasser au contenu principal
  • il y a 11 heures
Qui crée les entreprises tech en France, et qui en est exclu ? Diversidays s'attaque depuis plusieurs années à ces angles morts de l'écosystème entrepreneurial, en accompagnant celles et ceux que les circuits classiques laissent sur le bord du chemin. Chiffres, programmes et ambitions 2026 : un état des lieux de la diversité dans la tech, au-delà des discours.

Catégorie

🗞
News
Transcription
00:05C'est parti pour les interviews de l'IA, votre rendez-vous avec les acteurs qui font l'actualité
00:10dans le domaine de l'intelligence artificielle. On a aujourd'hui autour de la table François-Emerick
00:15Chaban qui est le cofondateur et le CTO d'Eliott, application de soutien scolaire, et avec nous
00:22également Stan Massueras d'Eleven Labs. Bonjour, bienvenue à tous les deux. On va commencer
00:27ensemble Stan. Vous dirigez la stratégie commerciale de l'entreprise au niveau européen, notamment
00:33sur son développement auprès des grands comptes. Eleven Labs, entreprise de recherche, une des
00:41pionnières dans le domaine de l'IA générative audio. Création de voix qui ressemblent à
00:47des voix humaines. Oui, des voix humaines. Des voix humaines, mais qui ensuite sont passées
00:52dans un moteur et qui permettent donc de faire des interactions avec ces IA de manière vocale
00:59qui est l'interface, j'imagine selon vous, la plus prometteuse, la plus naturelle pour
01:03demain ? Oui. L'interface homme-machine ?
01:05Tout d'abord, oui, donc des vraies voix humaines, des voix qui sont avec qui nous travaillons
01:10avec ce qu'on appelle les voice talent, donc des acteurs, des actrices qui vont sur notre
01:15plateforme et qui déposent des heures d'enregistrement qu'après nous allons exploiter pour pouvoir former
01:20une version, une empreinte digitale de leur propre voix. Et donc, bien sûr, une économie
01:25également pour eux, de manière à pouvoir générer des compléments additionnels. Et
01:30donc ces voix, après, vont être utilisées dans les modèles que nous développons pour
01:33à la fois équiper un centre d'appel au lieu d'avoir une voix pure robotique ou également
01:37pour tout ce qui va être doublage dans tout ce qui va être série télé et film.
01:41Donc vous êtes quand même en plein dans cette tourmente aujourd'hui sur les droits des
01:47acteurs. Par exemple, on a huit personnalités françaises qui sont les voix françaises d'acteurs
01:55américains qui disent « Mais attention, aujourd'hui, on nous vole nos voix sans nous demander
01:59notre accord ». Comment est-ce que vous gérez cette tension sur le droit biométrique
02:06presque de chacun ?
02:07Oui, tout à fait. Nous voyons vraiment la partie éthique comme étant le différenciateur
02:12de Eleven Labs. Nous travaillons aujourd'hui avec des milliers de voice talents qui sont
02:18rémunérés par Eleven Labs. Et également, pour tout ce qui va être voix d'artistes,
02:22notamment la collaboration avec Mathieu McConaughey, l'acteur qui a décidé de travailler
02:28avec Eleven Labs, justement, démontre que nous sommes aujourd'hui la plateforme la plus
02:32fiable. Donc avec des critères et des cadres de sécurité qui sont les meilleurs aujourd'hui
02:36pour éviter tout ce qui va être justement d'aller utiliser la voix d'une personne connue
02:42également, utiliser ma propre voix ou de faire le doublage. La partie sécurité qui est
02:47vraiment une partie sur laquelle on a beaucoup, beaucoup, beaucoup travaillé. Et notamment
02:52hier, nous avons annoncé que sur notre plateforme d'agents conversationnels, justement, ça va
02:57être la seule plateforme au monde où vous allez pouvoir créer des agents vocaux qui vont
03:00être assurés. C'est-à-dire pour tout ce qui va être cyberattaque et essayer d'attaquer
03:04votre centre d'appel, essayer de soutirer des informations.
03:08Vous serez l'assureur de ma voix ?
03:10Non, à savoir la voix. Admettons, si une personne essaie de doubler votre voix sur
03:16Eleven Labs, cela ne pourra pas être fait. C'est-à-dire qu'il y a des critères de sécurité.
03:20Ah, protégé, pas assuré au sens assurantiel.
03:23L'agent va être assuré. C'est-à-dire qu'il y a un agent conversationnel qui va utiliser
03:27votre voix. Cet agent va être assuré de manière à ce que, si vous êtes l'agent conversationnel
03:33de Dodge Telecom, qui est le plus gros telco opérateur européen. Aujourd'hui, lorsqu'il
03:38déploie des agents conversationnels sur notre plateforme, ces agents vont être assurés
03:42par la suite.
03:43Oui, mais quand vous dites « assuré », ça veut dire plusieurs choses. Au sens assurantiel ?
03:47Oui, au sens assurantiel.
03:48D'accord. Quels sont les derniers progrès aujourd'hui en matière d'IA générative audio ?
03:55On en est où de l'état de l'art ?
03:57La dernière innovation de E-Level Labs, à savoir, si vous pensez à la partie language
04:02model, vous allez avoir tout ce qui est texte, qui va être géré par l'OpenAI, via ChatGPT,
04:08pour tout ce qui va être images et vidéos, vous allez avoir tout ce qui va être fait
04:12par Jiminy, notamment Nano Banana, etc.
04:14Pour la partie audio, aujourd'hui, E-Level Labs est de loin le leader incontesté de cette
04:19partie-là, notamment via un dernier modèle que nous avons sorti la semaine dernière,
04:23qui s'appelle V3 Conversational, qui est un modèle qui va permettre à un agent d'être
04:30complètement humain, c'est-à-dire d'avoir de l'émotion, de comprendre l'empathie
04:34derrière la voix, si la personne, à l'autre bout du fil, va être irritée ou énervée,
04:38de manière à adapter la tonalité de l'émotion autour de l'éveil.
04:42Donc c'est ça, les derniers progrès, c'est l'adaptation, l'émotion ?
04:46Exactement.
04:47En fonction des interactions avec l'agent ?
04:49Précédemment, lorsque vous étiez en train d'engager avec un agent conversationnel,
04:54c'était ce qu'on appelle du string texte, c'est-à-dire un bout de texte qui allait
04:59être rattaché les uns à l'autre.
05:00Aujourd'hui, les agents conversationnels vont parler, mais également écouter en même
05:03temps pour pouvoir être interrompus, de manière à avoir cet échange qu'on peut
05:07avoir entre deux vrais êtres humains.
05:09Et la troisième partie, ça va être justement de comprendre l'empathie, l'émotion
05:12derrière votre voix.
05:13C'est-à-dire aussi d'adapter mon ton, qu'est-ce que l'agent puisse s'adapter
05:17en temps réel, avec la latence la plus faible du marché, qui est aux alentours
05:21de 250 millisecondes.
05:23Après, vous êtes challengé par le laboratoire français Qtai et son Moshi, et d'ailleurs
05:29maintenant sa spin-off Gradium.
05:31Oui, c'est très bien de voir d'autres acteurs se lancer, et on leur souhaite...
05:36Et l'Event Lab, c'est européen ?
05:37C'est européen, oui.
05:39Et en Pologne ?
05:40En Pologne ?
05:41Pologne, oui, deux fondateurs polonais.
05:43Donc à savoir, après, on souhaite bonne chance à tous les autres acteurs, parce qu'il
05:47y a beaucoup de place, comme vous l'avez pu le dire au départ, on pense que la voix
05:51va remplacer le clavier, on passe tous beaucoup trop de temps sur notre téléphone, ou également
05:56lorsqu'on discute entre deux êtres humains, ça va se faire par la voix, ça ne va pas
06:00se faire via un clavier, donc on voit vraiment cette partie qui va être complètement démocratisée.
06:05Et donc, si vous regardez sur tous les comparateurs externes, vous pourrez voir que
06:10l'Event Lab est de loin, et de très très loin, le leader pour tout ce qui va toucher
06:14à l'audio générative, à ViaLia.
06:18François, François-Emerick, pardon, ça vous intéresse, ça, comme type d'interface ?
06:22Parce que, monsieur est dans le soutien scolaire, donc les interactions avec les EF, c'est
06:26super important.
06:28Aujourd'hui, ça ne passe pas par l'audio, j'imagine.
06:31Non, encore.
06:31Voilà, est-ce que vous dites, c'est intéressant, ou quand même, j'hésiterais avant de proposer
06:36ce type de fonctionnalités ?
06:37Non, non, c'est extrêmement intéressant.
06:39Nous, on est en train de travailler dessus, chez Liottes, notamment pour intégrer des
06:42fonctionnalités qui utilisent la voix, notamment pour, comme ferait un professeur particulier
06:46par exemple, interroger un élève sur une leçon, la faire réciter, ou même faire des
06:49dictées par exemple, c'est hyper important qu'il y ait une voix derrière qui soit citée.
06:52Donc là, c'est des usages que nous, on regarde de très près.
06:55Et c'est clairement ce sur quoi vont évoluer nos solutions de soutien scolaire, intégrer
06:59la voix à certains endroits, pour vraiment parfaire l'expérience de l'utilisateur.
07:03D'accord, intéressant.
07:05Question, justement, parce qu'en termes d'usage, vous avez parlé des centres d'appel.
07:09Bon, j'ai envie de dire, c'est assez classique, le chatbot vocal, ça fait longtemps qu'on
07:12connaît, il est peut-être, il est largement perfectif, mais on connaît cet usage.
07:16Qu'est-ce qu'on a d'autre comme usage ? Là, on a un exemple, par exemple, dans le
07:19soutien
07:19scolaire, qu'est-ce que vous imaginez d'autre ?
07:21L'éducation, qui est une partie assez importante.
07:25Notamment, il y a de très belles choses qui sont faites par des entreprises comme
07:28Mackey People, qui va justement créer des agents conversationnels via notre plateforme
07:32pour pouvoir aller former des entreprises françaises, lorsque elles embauchent des
07:36nouveaux employés, pour les former, pour s'assurer qu'elles soient certifiées.
07:40Et surtout, près des nouvelles générations, qui ont plus l'habitude de formats très
07:43très courts et conversationnels, plutôt que d'être en classe et en format d'examen
07:50à l'écrit, d'avoir justement cet échange avec une vraie personne au téléphone
07:54ou via une application mobile.
07:56Donc, la partie...
07:57Une vraie personne.
07:59Pardon ?
07:59Une voix, vous voulez dire.
08:00Une voix, mais qui va être interactive et qui va comprendre les questions
08:04et qui va savoir passer d'un sujet à un autre d'une manière très, très fluide.
08:10Il y a également toute la partie, tout ce qui va être entertainment, également,
08:14qui est assez importante, notamment à développer des personnages du jeu vidéo.
08:17C'est-à-dire, au lieu d'avoir un personnage dans un jeu vidéo qui va être statique et qui
08:23va avoir le même script, de pouvoir interagir avec lui ou elle.
08:26Notamment, ce que nous avons pu faire dans Fortnite récemment, où le personnage de
08:31Darth Vader, notamment, est développé sur notre plateforme.
08:34Également, avec l'accord de l'acteur qui a fourni la voix pour Darth Vader, on a
08:40travaillé avec son estate pour pouvoir cloner la voix et puis pouvoir l'intégrer dans
08:42le jeu vidéo, avec les éditeurs du jeu vidéo.
08:45Et après, il va y avoir tout ce qui va graviter autour de la partie interne d'une entreprise.
08:51C'est-à-dire qu'aujourd'hui, si vous avez une question auprès des ressources humaines,
08:55au lieu d'envoyer un ticket, au lieu d'envoyer un e-mail, j'appuie sur un bouton,
08:59je pose ma question et j'ai la réponse en temps réel.
09:01Donc, il y a énormément de cas pratiques qui peuvent être déployés au sein d'une entreprise.
09:05Et vous, vous travaillez quand même en particulier sur la partie audio, sur la partie voix
09:09de ces IAs génératives, ça n'enlève pas toute la complexité pour fournir des bonnes
09:14réponses et pour que ces IAs génératives soient pertinentes.
09:17Donc, vous utilisez vos propres modèles ou des modèles déjà existants ?
09:21Oui.
09:21Donc, pour la partie vraiment, la génération de la voix, ce qu'on appelle le text-to-speech
09:25et le speech-to-texte, donc comprendre la question.
09:28Donc là, on va utiliser nos propres modèles.
09:30Après, pour ce qu'on appelle le cerveau de l'agent, on va se connecter sur le LLM qui
09:35va être choisi par l'entreprise.
09:38Par l'entreprise.
09:38Là-dessus, on va être agnostique.
09:40Donc, s'ils décident d'utiliser un modèle de chez Mistral, comme un modèle de chez
09:44Anthropique, comme un modèle de chez Open AI, ça va être grave.
09:47Donc, ça vient en surcouche, en fait, dans la partie audio, se grève sur n'importe
09:51quel type de LLM.
09:54Intéressant.
09:54Vous avez des questions là-dessus, peut-être, puisque ça vous intéresse de développer
09:58cette partie ?
09:59Non, c'est bon, pas pour l'instant.
10:01Il est très clair ?
10:02Très, très clair.
10:03Alors, on passe à vous, François-Emerick Chaban, cofondateur et CTO d'Eliot, une application
10:08de soutien scolaire propulsée par l'intelligence artificielle.
10:12Donc, vous accompagnez les élèves dans leur révision pour faire leurs devoirs.
10:17L'idée, c'est quoi ? C'est de permettre de rendre cet accompagnement plus personnalisé ?
10:22Oui.
10:23Alors, l'idée, au départ, c'était vraiment de s'adapter à l'élève, à son niveau ?
10:26C'est de reproduire l'accompagnement d'un professeur particulier traditionnel.
10:30Aujourd'hui, une heure de cours particulier, c'est extrêmement cher.
10:32Il y a énormément de familles qui ne peuvent pas se le permettre, pour une seule matière.
10:34C'est en moyenne entre 30 et 40 euros pour une heure.
10:37Et généralement, pour aider un élève, ce n'est pas une heure qu'il faut, c'est 10,
10:4020, 30 heures.
10:41Donc, ça fait des budgets trop importants pour la majorité des familles françaises.
10:44Donc, nous, quand on avait l'y arrivée, on s'est dit, ça va être un outil extraordinaire
10:48pour lutter contre ces inégalités et donner à chaque élève une solution de soutien scolaire
10:53qui ne sera pas aussi parfaite, pour l'instant, qu'une heure de cours traditionnelle.
10:58Mais le but, c'est qu'elle s'en rapproche le plus possible et que, au moins, tous les élèves
11:01peuvent y accéder.
11:03Donc, d'abord, le premier objectif, c'était vraiment de démocratiser le soutien scolaire.
11:06Exactement.
11:06Que chaque élève puisse avoir, chez lui, une solution pour l'aider à, en effet, réviser ses contrôles,
11:11comprendre ses cours, faire ses devoirs.
11:14Tout en leur fournissant une IA qui est pédagogique, c'est-à-dire qui ne fait pas leur place,
11:18qui est cadrée et centrée sur le programme scolaire français, ce qui est bien important,
11:22et qui soit là pour aider à comprendre, bienveillante, encourageante, qui ne perd pas la science.
11:26Et alors, ma question sur la personnalisation, parce que moi, j'entends quand même beaucoup ça.
11:30L'IA, ça permet quand même d'avoir une approche plus personnalisée auprès des élèves.
11:34Oui, en effet. Déjà, l'IA va être au courant de, en premier lieu, qui est l'élève, en quelle
11:41classe il est, dans quelle école il est,
11:43ce qu'il aime faire, ses centres d'intérêt, par exemple.
11:46Mais après, c'est surtout au fur et à mesure des interactions avec cet élève-là qu'il va comprendre
11:49quelles sont ses faiblesses en mathématiques,
11:51quelles sont ses forces, comment est-ce qu'il travaille, comment est-ce qu'il aime travailler,
11:54quelles sont les méthodes d'enseignement et d'apprentissage qui permettent à l'élève d'avoir les meilleurs résultats.
11:58Du coup, il va pouvoir s'adapter en temps réel et après construire des programmes de révision en tenant compte
12:03de tout ce qu'il a pu récolter sur l'élève
12:05pour avoir, en effet, l'accompagnement qui sera le plus parfait.
12:06Et quand vous dites, par exemple, dans quel établissement scolaire il est, en quoi c'est intéressant, ça ?
12:11C'est intéressant pour des raisons de niveau. Il y a des établissements scolaires qui n'ont pas le même
12:14niveau,
12:14il y a des établissements scolaires qui n'ont pas les mêmes attentes.
12:18Donc, vous servez de classement, c'est ça ?
12:20Oui, par exemple, on serve de classement.
12:22Mais vous ne chargez pas le programme scolaire du professeur en question ?
12:28Pas jusque-là, quand même.
12:29Nous, on a construit avec des professeurs un programme scolaire français que nous pouvons donner à Elliot.
12:34Et autre fonctionnalité dans l'application, c'est que maintenant, l'élève peut directement intégrer et envoyer son cours à
12:39Elliot,
12:40que ce soit son cours manuscrit, soit sa prise de notes, son cours de son professeur.
12:43Et l'élève va venir lui générer des programmes de révision avec des fiches de révision, des flashcards, des quiz,
12:48des intérêts, des exercices
12:49pour que l'élève soit le mieux préparé possible à son contrôle avec tout un ensemble de fonctionnalités.
12:55Quand vous parlez justement de rendre plus accessible financièrement l'accès à l'aide aux devoirs,
13:01ça veut dire que c'est une appli gratuite, pas trop chère ?
13:04Alors, on a une version gratuite.
13:05Quel est votre business model, finalement ?
13:07Nous, en fait, on a une version gratuite, ce qui était hyper importante pour nous dès le début,
13:10qui permet à l'élève d'avoir toutes les fonctionnalités d'application, mais avec des limites d'utilisation quotidiennes.
13:14Par exemple, ça va être une fiche de révision par jour, une aide de devoir par jour, 20 messages envoyés
13:18à Elliot par jour.
13:19C'est un modèle freemium, en fait.
13:21Exactement. Et à côté de ça, on a un abonnement qui est en moyenne à 10 euros par mois,
13:27donc beaucoup moins cher qu'une heure de ce qu'un score traditionnel,
13:30et qui, en fait, il n'y a pas de différence de fonctionnalité, c'est juste que les usages sont
13:34illimités.
13:35Moi, j'avais reçu Naël Hamamed, co-dirigeante du cours Le Gendre,
13:39qui nous a parlé de son tuteur Le Gendre.
13:43Il travaille avec vous, c'est ça, avec votre technologie.
13:46Il le présentait comme un accompagnement aussi du professeur qui vient faire le soutien scolaire.
13:53Pas uniquement, pas en remplaçant, en fait.
13:57Non, c'est un très bon cas d'usage.
13:58Je pense aussi qu'on s'est rapprochés d'eux et qu'on a construit leur solution avec eux,
14:03en se basant sur nous, notre technologie Elliot.
14:06Eux ont identifié, en effet, cette partie d'application de soutien scolaire IA
14:11comme accompagnant, après une session ou en amont, une session de travail
14:15avec un professeur particulier.
14:18Et c'est encore qu'au tout début, il y a encore plein d'autres cas d'usage
14:21qui peuvent être utilisés ou inventés.
14:23Alors, même question, qu'est-ce que vous imaginez comme type d'usage, comme nouvel usage ?
14:28Par exemple, en cas de support d'un professeur particulier traditionnel,
14:32il y a toute la partie où, après une session, par exemple,
14:35on peut enregistrer la session de l'heure de travail de soutien scolaire
14:39et après, en fonction d'avoir une IA qui va venir analyser
14:41et ressortir des exercices, par exemple, de remédiation
14:44ou des points du cours qui ont été moins bien compris
14:46pour qu'en fait, l'élève ait, à la fin de son cours,
14:48des quiz, des flashcards, une fiche de révision
14:51sur tous les points qu'il aborde avec un professeur particulier.
14:53Vous travaillez de plus en plus, tous ces élèves-là ?
14:55C'est sûr.
14:57Ce que je trouve très bien dans ce que vous faites aussi,
14:59c'est également le support additionnel
15:01pour les personnes qui peuvent être neurodivergents
15:03avec la dyslexie, notamment,
15:05de manière à aller un petit peu plus en profondeur,
15:07des parcours d'éducation qui vont être complètement adaptés.
15:10Également, la partie sonore
15:11qui peut être dans l'éducation
15:13pour les personnes qui ont du mal à lire.
15:16Et également aussi pour les personnes
15:17qui peuvent avoir, ce qu'on appelle en anglais,
15:20des speech impediments,
15:21personnes qui peuvent bégayer,
15:22aussi également pour augmenter leur compréhension
15:24également via l'IA lorsqu'ils vont réciter
15:28un poème.
15:29Donc, je pense que l'IA va vraiment bouleverser l'éducation
15:32en allant vraiment au tout début.
15:33C'est pour ça que la voix est hyper importante,
15:35donc une solution comme Ineven Labs,
15:36pour notamment avoir cette partie encore plus adaptée
15:39si l'élève a des troubles dys
15:41ou des problèmes pour s'exprimer à l'oral.
15:43Pour avoir vraiment une IA qui va être hyper bienveillante,
15:45encourageante,
15:45et qui va pouvoir quand même l'aider
15:47malgré ses problèmes.
15:48Oui, parce que quand on parle d'accessibilité numérique,
15:50d'ailleurs, on parle d'offrir différents types d'interfaces.
15:54Il faut pouvoir offrir du texte,
15:55mais aussi de la voix, des images.
15:58Donc, oui, je pense que ça pourra faire partie
16:01assez naturellement de votre panoplie.
16:03Mais là, quand on commence à développer
16:05toutes les possibilités,
16:08quand on est une startup,
16:09j'imagine que ça devient vite vertigineux.
16:10Parce que sur quoi on se concentre ?
16:12Comment on se développe ?
16:12Le passage à l'échelle,
16:13c'est compliqué, non ?
16:14La croissance rapide.
16:15Oui, c'est très dur.
16:17Mais nous, vraiment,
16:17notre focus chez Elliot,
16:18c'est les élèves.
16:20On est vraiment beaucoup en contact avec eux.
16:24C'est eux qui nous demandent la plupart
16:25de toutes nos fonctionnalités.
16:26Elles viennent d'eux, quasiment.
16:28Notamment, je parlais de la dictée avec la voix.
16:29C'est beaucoup d'élèves au collège
16:30qui nous demandent,
16:31ce serait génial qu'Elliot puisse m'interroger
16:32ou puisse me faire faire une dictée
16:34et me corriger après.
16:36Donc, les élèves sont très créatifs,
16:37ont beaucoup d'usages
16:38et ont beaucoup d'idées
16:39pour améliorer la solution.
16:41Donc, oui, c'est vertigineux.
16:42Et après, vous,
16:42comment vous financez ces développements ?
16:45À partir simplement des abonnements premium ?
16:46Oui, exactement, c'est ça.
16:48Donc, c'est aussi le business model
16:50qu'on a choisi
16:50qui nous permet de financer
16:52le développement de nouvelles fonctionnalités.
16:53On fait tout en interne chez Elliot.
16:54Et vous, technologiquement,
16:56je posais la question justement
16:57des deux sous-technologiques,
16:59je vous la pose également.
17:01Vous travaillez à partir de quels moteurs ?
17:03Est-ce que vous utilisez des LLM déjà existants ?
17:06Oui, bien sûr.
17:07C'est beaucoup trop cher
17:08de développer ces propres LLM.
17:10Donc, on utilise en effet des modèles existants.
17:12En termes d'acteurs qui nous les fournissent,
17:14ça va différencier en fonction des usages.
17:16Il y a certains modèles
17:17qui vont être plus performants
17:18sur, par exemple,
17:19la génération de fiches de révision.
17:20D'autres qui vont être plus performants
17:21sur juste la partie de chat.
17:22D'accord.
17:23Et puis, en fait,
17:24les modèles changent tous les deux semaines
17:25ou tous les mois.
17:26Il y a des nouveaux modèles qui sortent.
17:27Donc, chaque fois, on reteste,
17:28on voit le meilleur
17:28et on re-switch
17:29pour avoir toujours le meilleur modèle
17:31pour les élèves.
17:32Mais vous, ensuite,
17:33comment vous le personnalisez ?
17:35Comment vous l'adaptez
17:37à votre solution ?
17:38Alors, on vient, bien sûr, déjà,
17:39un, le cadrer.
17:39Donc, avec nous,
17:40nos documents du programme scolaire français
17:42qu'on a co-conseillé avec les professeurs,
17:43on vient fournir ça à ce modèle-là
17:45et le re-entraîner
17:46en moindre mesure dessus.
17:47D'accord.
17:48Et puis, il y a tout un tas de règles
17:50qu'on lui impose
17:52pour qu'il reste pédagogique,
17:53pour qu'il se comporte
17:54comme un vrai tuteur
17:56et pour pas que l'élève puisse,
17:57par exemple, utiliser Elliot
17:58pour demander une recette de cuisine,
18:00pour demander un résultat
18:01du match de foot.
18:02Le but, c'est que dès que l'élève
18:03veut sortir du contexte scolaire,
18:05Elliot lui dit,
18:05on est là pour réviser les mathématiques,
18:07on est là pour réviser l'histoire,
18:08on se concentre.
18:09Ça, c'est important, en vrai,
18:09de pouvoir avoir le contrôle.
18:11Et les parents, ils en pensent quoi ?
18:13Les parents sont fans aussi.
18:14Nous, en fait, dans l'application,
18:15il y a à la fois la partie pour les enfants,
18:17mais les parents peuvent aussi
18:18créer leur compte,
18:19créer leur famille
18:19et en fait suivre
18:20toutes les activités des enfants.
18:22Donc, nous, après chaque activité,
18:23Elliot fait un résumé à l'enfant
18:25et un résumé aux parents
18:26avec ce qui a été fait,
18:27ce qui a été bien fait,
18:28les points à améliorer,
18:30les points qui ont été
18:31très bien maîtrisés.
18:32Et donc, ça, le parent a un accès
18:33directement à toutes ces informations-là.
18:35Ça permet aux parents
18:36qui veulent suivre de près,
18:38on va dire,
18:38l'évolution scolaire de leurs enfants,
18:40de voir toujours la bonne information.
18:42Bon, et bien,
18:43peut-être que vous travaillerez ensemble,
18:44qui sait ?
18:45J'espère.
18:46On fait des rendez-vous d'affaires
18:48maintenant dans Smartech.
18:49Merci beaucoup, François-Emerick Chaban
18:51d'être venu nous parler
18:52donc d'Eliott,
18:54dont vous êtes le cofondateur
18:55et le CTO,
18:56et Stan Massueras
18:57de Eleven Labs.
18:59Vous êtes, vous,
19:00le responsable
19:01du GoToMarket Europe.
19:03Merci à tous
19:04de nous suivre.
19:05C'était Smartech
19:06que j'ai le plaisir
19:07de vous présenter,
19:08de vous proposer,
19:09qui est préparé avec
19:10Émilie Roche
19:11et tourné avec les équipes
19:12de Bsmart.
19:13Je vous donne rendez-vous
19:14jeudi prochain
19:15à 10h45.
19:16On sera en direct
19:17pour le Grand Durif
19:18de la Tech.
Commentaires

Recommandations