- il y a 5 jours
Comment utiliser l’intelligence artificielle pour sécuriser le maintien à domicile sans être intrusive ? Sonaid propose une nouvelle approche de la téléassistance, fondée sur la détection intelligente des situations de détresse et le respect de l’autonomie des personnes fragiles.
Catégorie
🗞
NewsTranscription
00:00On commence cette édition avec les interviews de l'IA, avec trois acteurs qui font l'actualité dans le domaine de l'IA.
00:10Autour de la table, donc Régis Jossot. Bonjour Régis.
00:14Bonjour.
00:14Vous êtes président du groupe DRI et vous nous rappelez même, j'ai envie de dire, qu'en matière d'hébergement de données d'IA,
00:20il existe des alternatives aux géants pour garder le contrôle sur nos données.
00:27Nicolas Turpot est également avec nous, fondateur de Soned, si je deviens.
00:32C'est ça.
00:32Parfait. Vous développez un nouveau standard pour les objets connectés afin qu'ils comprennent les sons.
00:39Vous allez nous expliquer cela, il y a des applications très concrètes dans le domaine de la téléassistance.
00:44Mais on commence avec vous, Pierre Gibert, bonjour.
00:46Bonjour.
00:47Vous êtes cofondateur de Sator, qui est une start-up française créée il y a trois ans,
00:51qui produit des masterclass avec des vidéos très longues, de 9 à 10 heures,
00:55qui sont structurés en épisodes de 30 minutes, avec à chaque fois des experts de premier plan
01:00qui vont adresser des grands enjeux de société.
01:03Alors, votre actualité, je voulais qu'on en montre un extrait,
01:06c'est le lancement d'Anima Mundi avec Carl Gustav Jung en guest star, j'ai envie de dire ressuscité.
01:14Première masterclass au monde où un grand penseur est comme ça rappelé à la vie, à l'écran,
01:21grâce au comédien François Morel et puis surtout à l'intelligence artificielle, je précise.
01:26Regardez.
01:27Avec les prouesses technologiques, me voici portant les traits de ce cher Carl Jung.
01:33Parfois, j'apparaîtrai pour vous livrer des références contemporaines
01:36et vous partager comment sa pensée prend vie aujourd'hui.
01:39Ces mots, traversant le temps, trouvent des coups dans notre époque.
01:43Si je vous parle aujourd'hui, c'est parce que votre monde vacille par perte de sens.
01:49Votre époque appelle à une réconciliation avec l'âme.
01:52Alors Pierre, parlez-nous de ce projet.
01:55C'est un projet qui est effectivement une première mondiale,
01:58dans le sens où on n'a jamais combiné une ambition éditoriale aussi importante,
02:03un cours de 10 heures avec Carl Jung, et une ambition technologique aussi importante.
02:08Ceux qui ont essayé, c'est la BBC.
02:10Ils ont fait revivre Agatha Christie pour deux heures et demie seulement, entre guillemets.
02:14Donc là, l'idée, c'est qu'on aille beaucoup plus loin avec notre savoir-faire éditorial.
02:18Sator, nous, on s'est surtout préparé et faire des contenus pédagogiques longs, etc.
02:25Donc là, pour vous, là, sur ce projet, le gros défi, c'était vraiment le travail sur l'intelligence artificielle ?
02:31Alors, on avait deux gros défis.
02:32Déjà, condenser l'œuvre de Jung, qui est un continent en 10 heures, très pédago, etc.
02:38et en faire quelque chose de très incarnable par François Morel, qui, bon, un talent fou,
02:45donc ça n'a pas été le principal challenge, il est vrai.
02:47Et ensuite, une fois qu'on a François Morel, qu'on capte en fond vert, etc.,
02:51on vient le rhabiller avec une IA pour lui mettre, lui coller les traits et la voix de Carl Jung.
02:58Effectivement, ça, c'est un gros défi, parce que les IA, aujourd'hui,
03:01elles savent bien produire des choses assez courtes.
03:04Mais quand on passe sur du temps long, là, ça mouline.
03:08Donc, on est en phase exploratoire de tout ça.
03:10Enfin, on a trouvé nos systèmes.
03:12Donc là aussi, effectivement, c'est assez inédit.
03:16Et qu'est-ce qu'il a dû faire, François Morel, de spécifique pour se prêter à ce jeu-là ?
03:21Alors, rien de spécifique pour lui, parce que quand on a son talent et sa carrière,
03:26tout est assez facile, nous, on a rédigé des scripts intégrals avec une équipe d'experts,
03:31de la pensée de Jung, relue par des thérapies, etc.
03:32Oui, il a fallu numériser son visage.
03:35Oui, alors lui n'avait, entre guillemets, qu'à incarner ce texte sur prompteur, sur fond vert.
03:40Et nous, sans forcément lui mettre de capteur ou quoi que ce soit,
03:44avec un certain type d'IA, on y détecte les traits, les mouvements, etc.
03:49et reproduit ça fidèlement, ce qu'on voulait le meilleur du jeu de l'acteur,
03:53reproduit ça fidèlement avec une interface numérique.
03:57On a un avatar, on a créé...
03:59Il y a eu une captation tout à fait classique, en fait, pour François Morel.
04:03C'est ça.
04:04Son dispositif particulier.
04:05C'est vraiment un traitement logiciel qui a été appliqué par la suite.
04:09C'est ça.
04:10C'est ça, c'est ce qui permet aussi de produire efficacement à moindre coût,
04:14puisqu'on n'a pas des budgets du cinéma,
04:16mais c'est aussi ce que permet les nouvelles technologies.
04:18Et quand vous dites que ça demande énormément de puissance de calcul,
04:22j'imagine, vous avez utilisé une infrastructure spécifique ?
04:26Non, pas spécialement.
04:28En fait, ça ne demande pas tant de puissance de calcul que ça,
04:31dans le sens où ça n'est pas connecté au cloud, au web.
04:35Ce n'est pas une IA générative qui va piocher sur des data centers, etc.
04:38Là, c'est plutôt un logiciel qui a été entraîné par IA
04:44et qui mouline en local, entre guillemets.
04:46Donc, ce n'est pas ça le...
04:47Mais c'est quoi comme type de logiciel ?
04:49Pouvez-vous nous expliquer un peu plus précisément ?
04:51Oui, alors on passe par une technologie qui a été produite par Renway,
04:56une nouvelle feature.
04:57Mais on n'est pas sûr de garder celle-là jusqu'au bout,
05:00parce que ça évolue très très vite dans le domaine.
05:02Donc, c'est pour ça que je ne voulais pas forcément en parler.
05:04D'accord.
05:05Et puis, il y a des nouveaux outils qui sortent assez régulièrement.
05:07Donc, nous, l'enjeu, c'est d'être aussi toujours en pointe de cette veille-là.
05:10Parce que, bon, c'est un logiciel...
05:12Et comment intervient l'intelligence artificielle ?
05:13Juste pour comprendre sur le principe, comment ça fonctionne ?
05:16C'est une IA générative ? Elle reconstitue le visage de Jung ?
05:26Disons que nous, on fait digérer à l'IA différentes images de Jung qu'on a reconstituées.
05:33On entraîne jusqu'à avoir un avatar réaliste, etc.
05:37Et on applique cet avatar sur la captation vidéo, sur le comédien.
05:42Donc, l'IA détecte ce qui tient du visage, etc.
05:46Les mouvements, en fait, c'est ça ?
05:46Voilà.
05:47Les mouvements, mais ce qui n'est pas solidaire du personnage, le fond, etc.
05:52On a aussi reproduit le fond, le bureau de Jung, etc.
05:54Donc, voilà comment fonctionne cet outil-là.
05:58Ça fait la différence, vous pensez, pour les spectateurs ?
06:02Pour avoir une masterclass incarnée à la fois par un acteur et par une personnalité avatarisée ?
06:09Ça fait, nous, c'était évidemment un challenge.
06:14Je veux dire, on aurait pu faire un cours sur Jung, avec un expert de Jung,
06:17mais ça n'aurait pas eu cette puissance.
06:20Vous auriez pu déguiser François Morel, il fait ça très très bien aussi.
06:23Oui, oui. Alors après, c'est vrai qu'il y a des petites différences physiques aussi.
06:27Mais non, puis on était curieux d'entreprendre ça.
06:31Parce qu'en fait, si on réussit avec Jung derrière, il y a beaucoup d'autres personnages historiques
06:35qu'on aimerait ramener à la vie, parce qu'ils ont des trucs à nous dire
06:37pour nous sortir de la panade actuelle.
06:39Donc, c'est une logique de collection.
06:42Cette collection, Anima Mundi, Jung, c'est le premier.
06:46Mais ensuite, on va lancer d'autres personnages historiques.
06:49On a déjà les noms.
06:50Il y aura Hildegard de Bingen, il y aura Nikola Tesla, Anna Arendt, Marc Aurel,
06:54parce que ces gens-là sont très importants.
06:56Nous, notre métier chez Sator, c'est de faire parler les gens très importants,
06:59qu'ils soient vivants ou passés, du coup.
07:02Vous avez des questions sur ce projet ?
07:04Vous en aviez entendu parler déjà un petit peu, peut-être ?
07:07Moi, je n'ai jamais entendu parler.
07:09Je viens d'un labo de recherche qui travaille justement pour faire les avatars.
07:12À l'INRIA, à Nancy, il y a des gens qui travaillent là-dessus.
07:14Donc, je vois très bien la technologie qu'il y a derrière.
07:16Et c'est assez bluffant.
07:18En réalité, c'est cool de voir des applications qui soient aussi utiles pour la société.
07:22Parce que là, au final, on est vraiment en train d'évangéliser des connaissances,
07:27la culture sur des prochaines générations.
07:29Donc, c'est cool de pouvoir utiliser la tête des personnes qui ont vraiment fait les choses
07:33et pas juste paraphraser.
07:35Donc, franchement, bravo.
07:36Ça devient beaucoup plus grand public, beaucoup plus accessible, en fait, jouer comme ça.
07:40Je précise un petit truc au passage.
07:42C'est que nous, il y a des enjeux éthiques.
07:45Quand vous avez un projet comme ça, nous, on assume de réincarner Jung, entre guillemets.
07:53Mais dans l'épisode de 30 minutes avec François Morel, il y a des moments où on voit François Morel apparaître en tant que François Morel pour mettre Jung en perspective avec les derniers travaux de recherche publiés en sciences comportementales, etc.
08:07Et quand Jung sort de son temps, de son espace temps, c'est François Morel.
08:13On ne veut pas prêter à Jung des propos qui n'étaient pas de lui.
08:17C'est-à-dire que le script de Jung, c'est essentiellement du travail sur la base de ses bouquins qu'on a isolés, etc., reformulés.
08:23Mais on essaye d'être vraiment fidèles à la pensée du personnage.
08:27On ne se serait pas permis de deepfaker.
08:30Ce n'est pas du tout notre logique.
08:32De fantasmer ce qu'il aurait pu penser de la société d'aujourd'hui.
08:37Vous ne vous autorisez pas à ce genre de mise en perspective ?
08:40On se l'autorise, mais pas avec son visage.
08:43Avec François Morel.
08:44Oui, d'accord.
08:46Régis Jossot, vous êtes le président du groupe DRI, je le disais, hébergeur, infogéreur web français.
08:52Convaincu qu'on a des alternatives à mettre en avant, à valoriser.
08:56Et on est bien content que vous soyez là pour le rappeler, pour le répéter.
09:00DRI, c'est l'acronyme de Digital Rural Informatique, j'ai vu.
09:03Tout à fait.
09:04Ça veut dire beaucoup, ça, en votre commission ?
09:05Ça veut dire beaucoup.
09:06Parce qu'on était un petit peu précurseurs par rapport à toute cette période green.
09:09C'est-à-dire qu'en 2001, avec l'émergence des réseaux sur le territoire,
09:14on a voulu éviter de prendre la voiture et de commencer le télétravail, déjà pour nos équipes.
09:21Et de pouvoir avoir un confort de vie beaucoup plus agréable.
09:24Donc là, on est en amont aussi sur la partie RSE.
09:26de donner, on va dire, du travail à des personnes qui ont peu de mobilité, par exemple,
09:31ou pas de mobilité pour des raisons familiales, pour des raisons de santé.
09:35Et déjà, de pouvoir avoir une activité rémunérante.
09:38Ok.
09:40L'entreprise a été créée au Mans.
09:41Aujourd'hui, le siège est à Nantes.
09:43Donc, vous êtes vraiment inscrit dans la localité.
09:46Oui, c'est important.
09:47Pourquoi ?
09:48Parce qu'on pense, comme je viens de l'entendre, justement, qu'on a beaucoup d'acteurs, on va dire, français, innovants,
09:53qui ont plein de choses à dire, sans pour autant aller chercher à l'étranger.
09:57Oui.
09:58Même s'il y a des choses intéressantes à l'étranger.
09:59Mais le fait de ne pas être aussi en Ile-de-France, d'être dans une collectivité, une agglomération.
10:05Alors Nantes, c'est une grosse agglomération quand même.
10:06C'est une belle agglomération, oui.
10:07Parce que ça fait partie de vos premiers clients, ceux que vous adressez ?
10:11On a un historique qui a commencé avec DRI autour de l'hébergement associatif et autour des commerçants de la région.
10:21Donc, on n'a fait que grandir.
10:23Et on a commencé à répondre aux appels d'offres publics.
10:26Donc là, cette fois-ci, sur le territoire national.
10:28Et adresser des clients comme la CNIL, la région des Pays de la Loire, compagnie des transports strasbourgeois.
10:35Ça se fait des gros clients, ça ?
10:36Des gros clients, une ONF aussi, par exemple.
10:38Et comment on y arrive quand on est, au départ, une petite boîte, au Mans ?
10:43Comment on arrive à s'imposer justement dans des carnets de commandes publics ?
10:47Avec une belle équipe et un bel investissement collectif.
10:52Mais plus précisément, parce que ça, j'ai l'impression que tout le monde me le dit, vous savez.
10:56Mais plus précisément, qu'est-ce qui fait la différence ?
10:58Pourquoi on vient vous chercher vous plutôt qu'un autre ?
11:01On a deux facteurs différents.
11:02Le premier, ça va être l'éco-responsabilité.
11:05Dès 2010, on a mis en place un centre de données sans climatisation.
11:10Donc on était vraiment précurseur.
11:12OK.
11:12Avec un PUE de 1 à 13.
11:15Qu'est-ce que c'est ça, un PUE ?
11:16Le PUE, en fait, c'est la consommation qui va être nécessaire pour maintenir en condition opérationnelle les serveurs dans un centre de données.
11:25OK.
11:25Voilà, c'est un ratio. Plus ratio se rapproche de 1, plus effectivement, on est efficace.
11:32Ce qu'il faut savoir, dans les années 2010, on était plutôt à 2 ou à 3.
11:36Aujourd'hui, bien évidemment, l'émergence de l'éco-responsabilité, même s'il est relégué au second plan, comme on le disait, pour la souveraineté, veut des PUE à beaucoup plus bas.
11:46Mais nous, depuis 2010, on était le premier data center de France avec ce PUE.
11:51Donc c'est inscrit, non pas dans une opportunité, mais dans une conviction collective.
11:55D'accord.
11:56Oui, c'est important, ça.
11:57Et le deuxième facteur différenciant, c'est l'open source, c'est-à-dire l'utilisation de logiciels libres et de ne pas reverser des licences à des géants de la tech américaine, par exemple.
12:06Et donc, ça, ça résonne auprès de certains clients ? Ce sont des arguments qui comptent ?
12:11Ça résonne de plus en plus. Aujourd'hui, on voit les économies. On l'a vu dernièrement, par exemple, avec le logiciel VMware d'Hyperviseur, qui a été racheté par Broadcom, pardon.
12:22C'est un véritable ultimatum qui a été donné aujourd'hui aux entreprises françaises, avec des hausses de prix de plus de 30%.
12:28Or qu'il y avait vraiment déjà des alternatives, parce que l'hébergement en open source et les hyperviseurs open source sont déjà disponibles depuis les années 2000.
12:37Vous lancez une plateforme IA Souveraine.
12:40Tout à fait.
12:41Qu'est-ce que ça veut dire ?
12:41IA Souveraine.fr
12:42Alors, IA Souveraine, c'est quoi ? C'est un portail, une offre de services en mode SaaS, où vous allez pouvoir organiser l'entreprise et ses services autour de plus de 80 modèles de langage.
12:58En mode hybride, ça veut dire quoi ? Vous allez accéder à des modèles propriétaires, comme ChatGPT, Gemini, DeepSeek, etc., mais aussi et surtout à des modèles open source, libres de droit,
13:09qui vont être 100% utilisés et hébergés dans nos data centers, justement, éco-conçus.
13:15Donc, tout n'est pas souverain, quand même, là, sur la plateforme ?
13:17On laisse l'opportunité, parce qu'on peut avoir, effectivement, des usagers ou des services d'une entreprise qui ont besoin de modèles de langage propriétaires.
13:29On n'a pas les bridés.
13:30Mais d'un autre côté, vous allez pouvoir créer des unités d'organisation avec des utilisateurs qui n'auront que des droits restreints sur des modèles open source,
13:39pour des données, par exemple, patrimoniales, à valeur probante ou R&D.
13:43Et alors, vous pourriez servir, par exemple, Sator à monter son oeuvre de masterclass avec une IA souveraine ?
13:50On est très fiers, en tout cas, d'entendre des innovations, on en parlait juste avant, assurément.
13:55Et on a, si besoin, toute la puissance de calculs nécessaires, parce que ce sont nos propres infrastructures,
14:01du data center à nos lignes, à nos réseaux et à nos infrastructures sécurité jusqu'aux applications qu'on héberge.
14:07C'est la même équipe, 100% souveraine.
14:11Moi, je suis très sensible à ça.
14:12Puis, en plus, j'entends beaucoup de politiques gesticulées parce qu'on a besoin de cloud souverain, d'IA souveraine, etc.
14:18Je suis content de voir qu'il y en a qui font sur le terrain, parce que...
14:22Oui, c'est vrai qu'on ne les connaît pas assez.
14:24Et voilà, on est content si on peut participer à mettre en avant.
14:28Nicolas Turpeau, vous êtes, je le disais, fondateur de Soned,
14:31donc vous développez un nouveau standard des objets connectés pour la compréhension des sons
14:36avec des applications dans la téléassistance.
14:39Vous avez fait une thèse à l'INRIA sur l'analyse des sons ambiants.
14:44Et aujourd'hui, la détection sonore dans un environnement réel,
14:48c'est vraiment votre domaine de spécialité, votre expertise.
14:52Votre actualité, c'est le lancement commercial en Europe en 2026
14:56d'un premier cas d'usage, donc de téléassistance, assistance à la personne, avec cette technologie.
15:03Expliquez-nous ce que ça veut dire d'utiliser le son dans un objet connecté
15:07et en quoi c'est compliqué cette détection sonore.
15:11Il y a pas mal de choses, donc déjà la temps.
15:13Merci beaucoup pour l'invitation.
15:15La détection sonore, je vais la mettre en concurrence avec d'autres choses.
15:19C'est-à-dire que vous avez beaucoup maintenant l'habitude de détecter la parole.
15:23Vous allez parler à votre téléphone, il va transcrire.
15:26Donc ça, c'est un des cas d'usage.
15:27Ça pourrait faire partie du son, mais nous, on laisse complètement la parole de côté.
15:30On ne reconnaît pas la parole.
15:32Vous connaissez sûrement quelques applications,
15:34je ne sais pas forcément citer les noms pour reconnaître une musique,
15:36directement sur votre téléphone.
15:37Donc ça, c'est un autre champ d'application.
15:40Et après, vous avez tous les autres sons de la vie quotidienne.
15:42Celui-là.
15:43Voilà, celui-là.
15:44Je frappe sur la table.
15:46C'est ça, la sonnette de porte, le bébé qui pleure,
15:49une voiture qui passe, un avion, des oiseaux qui chantent.
15:52Vraiment, tout et n'importe quoi, votre voiture.
15:55Et donc nous, le but, c'est comment on fait pour comprendre ces sons-là
15:58et en faire des vraies applications derrière,
16:01puisque comprendre les sons, c'est une chose, mais en fait, ça sert à quoi derrière ?
16:04Alors, la partie comprendre les sons, ça veut dire entraîner des intelligences artificielles
16:08sur un volume exceptionnel de sons, c'est ça ?
16:12Non.
16:12On peut collecter plein de sons et apprendre aux IA à reconnaître tous ces sons ?
16:16Sur le papier, oui.
16:17Donc en fait, sur le papier, oui, un géant comme Google va faire ça
16:20et il va y avoir un modèle open source qui va reconnaître 200 sons
16:23de façon pas forcément très fiable et même souvent pas très fiable
16:26sur des cas d'usages concrets.
16:28Nous, notre approche et mon expertise de thèse,
16:31c'était de montrer qu'avec quelques centaines de sons,
16:33donc si par exemple, vous voulez qu'on reconnaisse des douches,
16:35vous me donnez 100 douches différentes chez 100 personnes différentes,
16:38et bien après, on va être capable de reconnaître toutes les douches.
16:39Toutes les douches.
16:40Et donc grâce à ça, on va permettre de dire,
16:43cette IA qu'on a entraînée,
16:45on est très malin dans la façon de poser le problème,
16:48et grâce à ça, on a des IA qui sont petites,
16:50qu'on est capable de compresser,
16:51qu'on est capable d'embarquer dans les objets connectés.
16:54Donc en fait, on se focalise, nous, sur les cas d'usage.
16:56Donc on prend des cas d'usage, on va dire,
16:58il faut détecter trois types de sons.
17:00On va détecter ces trois types de sons pour un autre cas d'usage,
17:02pas besoin.
17:03Donc je vais en citer deux.
17:04Par exemple, la téléassistance,
17:06ça va être détecter quelqu'un qui appelle à l'aide,
17:08quelqu'un qui gémit de douleur,
17:09un cri de panique, une chute.
17:11Donc là, nous, comme je dis, on ne détecte pas la parole,
17:12c'est l'intonation dans la voix,
17:14et l'autre qui va être...
17:16Et la chute, ça peut être plein de sons très différents ?
17:19Ça peut être plein de sons très différents,
17:20ça va être un bruit percussif, par exemple, assez lourd.
17:23On le fait dans le cadre des EHPAD.
17:25À domicile, on ne le fait pas encore,
17:27parce que ça va permettre de couvrir une trop faible distance.
17:30Donc on se focalise d'abord sur, toujours pareil,
17:32comment on fait pour résoudre 95% du problème ?
17:35Une personne qui est au sol, il faut l'aider,
17:37elle va être capable d'appeler à l'aide.
17:39Et un autre cas d'usage qui n'a rien à voir,
17:40ça serait, par exemple, pour des machines industrielles,
17:43faire de la qualité, par exemple, un bruit suspect,
17:46dire, ah, cette...
17:48Pour de la maintenance sur les machines ?
17:49Pour de la maintenance sur les machines,
17:50maintenance prédictive.
17:52Le cas grand public, c'est votre voiture,
17:53elle a un bruit de roulement, vous l'entendez.
17:55Et bien, en fait, on pourrait très bien avoir une IA
17:57qui détecte ce bruit de roulement pour vous dire
17:58qu'il serait temps d'aller chez le mécano.
18:01Ça peut servir dans la sécurité, j'imagine aussi,
18:04en cas d'intrusion, je ne sais pas.
18:06Ça peut servir dans la sécurité,
18:08ça peut servir dans la défense.
18:09C'est justement les cas d'usage qui vont venir,
18:11normalement, d'ici 2021.
18:13Et ça peut s'implémenter dans n'importe quel objet
18:15connecté, cette technologie ?
18:16À partir du moment où il y a un microphone, oui.
18:18Et ça peut se mettre dans n'importe quel type
18:20d'objet connecté.
18:21Et ça, c'est une grosse partie.
18:22Et ça ne demande pas d'aller appeler
18:23des grands volumes de données dans le cloud ?
18:26C'est là où toute notre grosse différence,
18:28c'est que tout est sur l'objet, rien sur le cloud.
18:31Donc, tout tourne directement dans votre...
18:33Si on prend votre téléphone, par exemple,
18:35votre téléphone pourrait être en mode avion,
18:36que ça comprend les sons.
18:38Après, on a besoin d'une connectivité
18:39pour envoyer l'alerte, dans le cas de la téléassistance.
18:42Mais ça, cette alerte peut être envoyée.
18:44Et vous, pour bien comprendre,
18:45si on est, vous fournissez l'algorithme, c'est ça ?
18:48Nous, on fournit l'algorithme.
18:49Et après, on charge au fabricant de l'objet de l'intégrer.
18:53Oui, nous, on fournit le logiciel.
18:55Vous trouvez le service derrière.
18:56C'est ça, nous, on fournit le logiciel
18:57et on fait une librairie.
18:59On appelle ça, on le package,
19:00pour qu'il puisse le mettre très facilement
19:02et qu'il puisse être lié avec ses cas d'usage.
19:05Donc, s'il veut appeler un numéro de téléphone
19:07en cas d'alerte,
19:08s'il veut déclencher un autre device,
19:11parce que, par exemple, pour la maintenance prédictive,
19:14tout ça, on va l'aider.
19:15Enfin, ça fait partie du package.
19:16Mais nous, ce qu'on vend, c'est l'algorithme.
19:18Et donc, première application concrète,
19:20on va voir ça au CES de Las Vegas.
19:21C'est exactement ça.
19:22On va voir ça au CES de Las Vegas.
19:23Pas mal comme lancement.
19:25Vous avez des questions là-dessus ?
19:27C'est étonnant.
19:28Oui, oui, non.
19:29Moi, je trouve ça très cool que des Frenchies aïe.
19:32Bientôt une masterclass sur la détection du sang.
19:35Mais tout à l'heure, on parlait, avant l'émission,
19:37du cas d'usage des drones
19:38que j'ai trouvé hyper intéressant.
19:40Peut-être que tu peux nous en dire un petit mot.
19:41Oui, par exemple, ça, c'est un des cas d'usage.
19:44Pour surveiller des sites.
19:46C'est ça.
19:46En fait, aujourd'hui, les drones sont très furtifs,
19:48donc très difficiles avec du visuel
19:50ou avec des capteurs radars de les détecter.
19:53Et donc, sur le terrain,
19:54beaucoup de gens entendent des drones arriver.
19:56Donc, on pourrait faire la même chose
19:57avec la détection sonore.
19:59Donc, ça, c'est un des multiples cas d'usage.
20:01Et c'est aussi ça que nous, on vend l'algorithme.
20:03Parce que notre but, c'est de faire pas mal de cas d'usage
20:05et de vraiment utiliser notre expertise.
20:07Et quand on est une startup, je peux dire une startup ?
20:10Oui, c'est complètement une startup.
20:11Quand on est une startup, la difficulté,
20:13c'est effectivement, j'imagine, de ne pas trop s'éparpiller,
20:16de bien choisir ce marché, je ne sais pas.
20:18Une startup française comme ça,
20:19qui a une super technologie.
20:20Je dois faire attention à la diversification, effectivement, oui.
20:22Oui.
20:23Bien choisir ses chemins et ses voies de bataille aussi, également.
20:27C'est ça.
20:27Et peut-être pas dire oui à tout, je ne sais pas.
20:29C'est ce qu'on est changé.
20:31Et je pense que tu en as bien conscience, en tout cas.
20:36Oui, ça, c'est les uns après les autres.
20:38C'est pour ça qu'on fait d'abord la téléassistance.
20:39Et nous, c'est très clair, on peut faire la même brique
20:42pour le travailleur isolé.
20:43Appel à l'aide, gémissement de douleur, cri de panique.
20:46Dans les entreprises, il y a des travailleurs isolés.
20:47Des agents de sécurité peuvent avoir la même brique.
20:49Donc ça, c'était bien parce qu'elle était assez duplicable.
20:52Et après, il y a d'autres types de sons.
20:53Vous voyez, on a cité d'autres cas d'usage.
20:55C'est une stratégie d'aller là-dessus.
20:57Donc, on va justement lever des fonds pour faire ça.
21:00Quel marché y a-t-il ?
21:01On va passer par une levée de fonds, justement,
21:03pour aussi, on est en train de mettre en place cette stratégie
21:05de comment on arrive à ces différents cas d'usage.
21:08Super de découvrir vos projets à tous les trois.
21:12C'était vraiment très intéressant.
21:13Merci encore, Pierre Gilbert, cofondateur de Sator,
21:16d'avoir été avec nous dans les interviews de l'IA.
21:18Régis Jossot, président du groupe DRI.
21:22Merci aussi.
21:22Merci.
21:23Et Nicolas Turpeau, fondateur de Soned.
21:25Merci encore.
21:26Vous restez avec nous.
21:27On va parler d'égalité des chances dans la tech.
21:33Merci.
Écris le tout premier commentaire