Passer au playerPasser au contenu principal
  • il y a 2 jours
Salim Ejnaïni, consultant pour SeeHaptic et Rémi du Chalard, fondateur de SeeHaptic (ex Artha France), étaient les invités de François Sorel dans Tech & Co, la quotidienne, ce jeudi 8 janvier. Ils se sont penchés sur les innovations de SeeHaptic qui a mis au point un nouveau dispositif pour guider les aveugles à l'aide de l'IA et de sensations tactiles, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.

Catégorie

📺
TV
Transcription
00:00Tech & Co, la quotidienne depuis le CES de Las Vegas sur BFM Business.
00:05Nous sommes toujours au CES de Las Vegas, bien évidemment, pour cette édition 2026.
00:11Tech & Co, la quotidienne qui vous accompagne tous les soirs de 19h30 à 21h.
00:15On attaque nos dernières 30 minutes avec tout de suite une innovation bluffante qui s'appelle Syaptic.
00:23On va en parler avec nos invités sur le plateau de Tech & Co.
00:27J'ai avec moi Rémi Duchalard. Bonsoir Rémi.
00:29Bonsoir.
00:30Fondateur de Syaptic, donc, et nous a rejoint sur le plateau de Tech & Co.
00:35Je vais retrouver son nom tout de suite, si ça marche.
00:38Oui, c'est Salim Ejnaïni.
00:40Salut Salim.
00:40Bonsoir François.
00:41Alors Salim, pour tous ceux qui sont avec nous à la télé, on a bien remarqué que tu étais équipé d'un système étonnant.
00:49Mais là, je m'adresse à tous ceux qui sont avec nous à la radio.
00:51Présente-toi ou présentez-vous, parce qu'on va se vouvoyer, aux auditeurs de BFM Business.
00:57Alors tout à fait, pour ceux qui nous écoutent, je porte sur moi le dispositif de Syaptic,
01:03qui est composé à la fois d'une caméra qui est clipsée sur mes lunettes directement,
01:08et qui est reliée à une ceinture lombaire que je porte sur le dos, qui est assez épaisse,
01:12et qui est en réalité un écran haptique.
01:14Alors on va en parler un peu plus précisément, je pense, avec Rémi.
01:16Une chose importante, c'est que vous ne voyez pas.
01:19Je suis non-voyant.
01:21Totalement ?
01:21Oui, absolument.
01:22D'accord.
01:23Et alors, on va rentrer dans les détails dans un instant,
01:28ce que ça a changé dans votre vie, ce système-là.
01:31Voilà, pour tous ceux qui sont à la radio, une paire de lunettes et des petits capteurs qui sont sur le côté.
01:35Ok. Rémi, qu'est-ce que porte en fait Salim sur son visage ?
01:44Sur son visage, c'est un clip de lunettes, donc ça se monte sur n'importe quel type de lunettes,
01:48qui vont aller capturer l'environnement en 3D qui est en face de l'utilisateur.
01:52En fait, le relief, c'est ce qui est le plus important dans la perception.
01:55Nous, on voit avec des couleurs, des lumières, mais en fait, notre cerveau va se transformer en image de profondeur,
01:59ce qui permet de savoir que vous êtes plus proche que la foule qui se déplace derrière.
02:02C'est ça qui est nécessaire.
02:03Mais comment ça marche en fait ? Quel type de capteur y a-t-il dans ces lunettes ?
02:09On a pas mal de capteurs. Donc on a un capteur de photos standards de smartphone, RGB,
02:14et après on a un capteur avec un flash infrarouge, un infrared time of light,
02:19qui va envoyer des photons, récupérer la phase des photons, on obtient la profondeur.
02:22Plus, une sorte d'accéléromètre et gyroscope, un IMU, qui va récupérer l'orientation de la tête de l'utilisateur.
02:28Avec ça, on reconstruit la scène en 3D qu'on pourrait situer à l'utilisateur grâce à notre réseau de neurones.
02:32Salim, qu'est-ce qui se passe en fait quand vous chaussez ces lunettes et que vous activez le process ?
02:38Tout à l'heure, quand vous êtes arrivé sur le plateau, vous m'avez fait une petite démo.
02:43C'est-à-dire que sans ça, évidemment, vous ne voyez rien.
02:46Exactement.
02:47Vous allumez, qu'est-ce qui se passe ?
02:48Si je l'allume, je vais compléter mes sens habituels qui sont à distance louis et à proximité le toucher
02:53par les indications que me donne le tapis haptique qui me tapote le dos.
02:59Il y a 256 petits actuateurs qui vont me tapoter le bas du dos au niveau des lombaires
03:03et me refaire un dessin, une silhouette en direct de ce que perçoit la caméra, le capteur RGB très classique.
03:10Et alors pour être précis, ce n'est pas les lunettes qui sont équipées, c'est vraiment le capteur qui s'accroche sur des lunettes.
03:16Et en fait, ça fait comme un petit tapotement, ce n'est pas douloureux.
03:19Alors c'est un peu impressionnant parce qu'on entend un clic-clic quand je les utilise,
03:23mais il n'y a rien d'électrique, il n'y a pas des impulsions.
03:26C'est vraiment comme si on me tapotait le bas du dos du bout du doigt.
03:30Il y a 256 petits doigts qui sont là pour me tapoter, me faire des dessins sur le bas du dos
03:35et me donner les silhouettes de ce que je croise dans la rue en déplacement ou où que je sois en utilisant ces lunettes.
03:40Si je comprends bien, c'est comme si vous aviez quelqu'un qui regarde ce que vous avez devant vous
03:46et qui va tapoter, qui va dessiner avec son doigt ce qu'il y a devant vous.
03:51On a tous joué à ça quand on était enfant, ferme les yeux, je te fais un dessin dans le dos ou dans la main.
03:55Oui, ou écrire à quelque chose.
03:58Et c'est un peu l'idée.
03:59Alors on n'en est pas à écrire des lettres à moins qu'elles soient gigantesques,
04:02mais en tout cas on en est à avoir des silhouettes, savoir ce par quoi on passe dans la rue
04:06et être impliqué dans son environnement au quotidien.
04:09C'est assez fou de se dire que quand on ne voit pas, on ne sait pas nécessairement la taille d'un pylône,
04:14la hauteur d'un drapeau ou ce par quoi on passe quand c'est au-dessus de nous
04:18parce que la canne ou le chien guide ne vont pas nous dire qu'il y a un pont au-dessus ou qu'il y a des choses comme ça.
04:22Donc ça c'est vraiment une info descendante et que le cerveau va traiter ensuite
04:26exactement comme un sens supplémentaire, tiens par hasard le sens de la vision.
04:31C'est quelque chose, une sensation nouvelle non, ça pour vous ?
04:34Parce qu'il faut que votre cerveau comprenne que finalement,
04:38enfin il faut arriver à imager du tactile.
04:42C'est peut-être pas évident non ?
04:43On est tous plus ou moins faits pour interpréter ça.
04:45On s'est rendu compte par des études cliniques menées en France notamment avec le 15-20
04:49que le signal est traité par le cerveau comme un signal visuel grâce à ce qu'on appelle la plasticité cérébrale.
04:56C'est un phénomène neuronal qui fait que le cerveau récupère l'info pour se réadapter
05:02et c'est vraiment traité comme de la vision, d'où le nom si haptique.
05:05On voit à travers l'haptique, c'est assez incroyable.
05:08Alors Rémi, vous avez été lauréat du prix Lépine 2024.
05:12Comment vous est venue l'idée de créer ce type d'appareil ?
05:16La société, on l'a créée il y a maintenant 8 ans, donc ça fait quand même quelques années.
05:20L'objectif au début, c'était de faire percevoir les aveugles comme nous on perçoit le monde.
05:26C'était un peu bête et en comprenant mieux la vision,
05:29on a réalisé qu'il fallait afficher une image telle que le cerveau perçoit le monde.
05:32On n'a pas donné de la haute qualité, on s'en rend compte avec les vieux jeux vidéo, etc.
05:35où les capacités étaient très limitées, on arrivait à développer l'imaginaire,
05:39à faire percevoir des choses incroyables.
05:40Là, c'est la même chose, une capacité d'affichage qui transmet l'image du monde,
05:44qui permet de redécouvrir le monde, surtout pour les non-voyants de naissance,
05:48parce que c'est la première fois qu'ils découvrent des objets.
05:50Je me rappellerai toujours d'un non-voyant de naissance qui était face à une fontaine,
05:54au bruit, il savait que c'était une fontaine, et il me dit « c'est creux ».
05:57Il me dit « oui, sinon l'eau coulerait partout ».
05:58Il me dit « je ne savais pas, maintenant que je le perçois, c'est évident ».
06:02Et il était trop content de découvrir ça.
06:03C'est comme il y en a un qui passait son temps à lever la tête.
06:06Nous, quand on développe un dispositif, on dit « mince, il y a un problème,
06:08la personne passe son temps la tête en l'air ».
06:10En fait, c'est lever la tête pour savoir si les lampadaires étaient plus grands
06:12que les feux de circulation.
06:14Ce genre de choses que nous, on découvre quand on est petit,
06:16et que lui, il peut découvrir grâce au dispositif,
06:18et ça développe la curiosité.
06:20En fait, la curiosité, ça va se passer énormément par la vue.
06:22On voit un truc qui nous intrigue, on va le voir, on va se renseigner.
06:24Et là, du coup, ça développe aussi toute cette capacité-là.
06:27On parle beaucoup de lunettes connectées, avec de l'intelligence artificielle,
06:32des capteurs pour les voyants.
06:34Mais on voit que les lunettes, pour les non-voyants, c'est un potentiel incroyable.
06:40Non, Salim ?
06:40Il y a une vraie utilisation qui est faite.
06:42Je suis moi-même utilisateur, je n'en fais pas un secret,
06:44de lunettes connectées.
06:46On s'est rendu compte que…
06:47Lesquelles ?
06:47Les métas, par exemple ?
06:48Les métas, oui, qui n'ont pas d'écran.
06:49Et qui, par définition, quand il n'y a pas d'écran,
06:52c'est utilisable par nous.
06:53Parce que le moyen d'utiliser passe par le son, par d'autres moyens qu'on a forcément.
06:57Et comment vous les utilisez, les métas, par exemple ?
06:58Alors, à la base, comme créateur de contenu, parce que c'est mon activité.
07:01Mais ensuite, quand l'IA est arrivé,
07:03on s'est amusé à demander des descriptions,
07:06pas seulement comme les touristes,
07:07pour avoir une idée du monument qu'on regarde,
07:09de la traduction d'un menu au restaurant,
07:12mais pour vraiment, ça décrit-moi ce que tu vois devant toi.
07:14Et Méta a entendu ça, comme d'autres grosses sociétés,
07:18et ils se sont mis à pénétrer le secteur aussi de l'accessibilité.
07:22Donc, il y a même des fonctions dédiées
07:23aux personnes non-voyantes aujourd'hui sur ce marché.
07:26Et on ambitionne, peut-être un jour, avec Siaptic, justement,
07:30de fusionner, de créer du lien,
07:32et d'aller récupérer les images, les flux de ces lunettes,
07:36de ces caméras, pour plus de flexibilité dans l'usage,
07:38et les relier directement à la ceinture, pourquoi pas ?
07:41L'idée, Rémi, c'est quoi ?
07:43C'est de miniaturiser tout ça, d'intégrer ça dans des lunettes.
07:47C'est quoi, les next steps ?
07:49Alors là, les next steps, c'est de sortir le produit.
07:50On a les certifications dispositifs médicales dans quelques mois.
07:53Donc, le dispositif va être sur le marché.
07:55Et après, les prochaines générations,
07:56en fait, on développait le clip de lunettes
07:58parce que, quand on a lancé il y a deux ans,
08:00ça n'existait pas sur le marché.
08:01Méta a commencé à ouvrir leur plateforme
08:03il y a à peine trois semaines,
08:04et c'est encore très fermé.
08:06Donc, nous, notre objectif, c'est que,
08:07nous, notre savoir-faire, c'est dans l'aptique
08:08et les réseaux de neurones.
08:10Donc, c'est faire sauter la partie clip de lunettes
08:12pour que les personnes déficientes visuelles
08:14puissent le connecter à leur lunette habituelle.
08:16C'est incroyable.
08:18Pardon, je reviens sur une fonction,
08:20justement, toujours sur les lunettes connectées,
08:21mais cette fonction d'invoquer une IA
08:24pour décrire de façon vocale,
08:26on l'a intégré également dans ce clip de lunettes
08:28puisque, si je veux avoir de la précision sur les couleurs,
08:31savoir, François Sorel, ce que vous portez
08:33et à quel point vous êtes beau gosse,
08:34comme vous me le demandiez avant le départ du plateau,
08:36je clique ici, j'invoque Gemini
08:38et je lui demande de me décrire visuellement
08:41ce qui est écrit devant moi,
08:42ce que vous portez, à quoi vous ressemblez, etc.
08:44Donc, on a vraiment un usage un peu complet
08:47de cette caméra
08:48qui ne passe pas seulement par le capteur haptique, vraiment.
08:51Ça révolutionne, en fait, votre quotidien, Tlatek.
08:54Déjà, le smartphone a complètement bouleversé tout ça.
08:56On est d'accord.
08:57On en avait parlé il y a très longtemps de ça
08:58à l'époque sur RMC.
09:00Et on ne se rend pas compte
09:03parce que nous, on a le confort et le bonheur
09:06de pouvoir voir et entendre.
09:09Mais ce qu'apporte la Tatek
09:12pour des profits comme le vôtre, c'est incroyable.
09:14C'est l'exploitation, là, pour le coup, d'un sens
09:16qu'on va dévier, le toucher.
09:19On va dévier son usage
09:20pour avoir une information à distance
09:22que vous avez par le visuel.
09:25Donc, ça, c'est assez fou.
09:26Mais c'est vrai que la technologie,
09:27pour la petite histoire,
09:28mais quand le smartphone est arrivé
09:29avec un écran tout lisse
09:31et rien pour nous le lire,
09:32on s'est dit, on est mort.
09:33On est foutu.
09:33On n'a plus nos boutons
09:34avec le petit point sur le 5.
09:36On est foutu.
09:36On s'accrochait à nos vieux Nokia 3310.
09:39Et puis, c'est arrivé sur les iPhones,
09:41sur les Androïdes.
09:41Et en fait, les lecteurs d'écran
09:43nous ont changé la vie.
09:44Oui, c'est vrai que la technologie,
09:45aujourd'hui, est très présente sur le CES
09:47au bénéfice du handicap
09:49avec le Handilab, notamment,
09:51auquel appartient Sihaptic.
09:53Mais on est très friands
09:54et très preneurs de ces innovations
09:57et des liens avec les créateurs étrangers aussi.
09:59à travers le monde
10:00que ça peut créer d'être sur le CES.
10:02Eh bien, merci à tous les deux.
10:04Voilà, bon salon.
10:05Merci, Rémi Duchalard,
10:07fondateur de Sihaptic.
10:08Et bravo pour ce produit étonnant.
10:10Et Salim, Ejnaini,
10:12merci d'être venu nous expliquer
10:13véritablement ce que vous ressentez
10:15quand vous utilisez ce produit.
10:16C'est étonnant.
10:17Merci pour votre invitation.
10:18Je mets de rien avec plaisir.
10:19Merci.
10:19Merci à nous.
10:19Merci à nous.
10:19Merci à nous.
10:19Merci à nous.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations