Passer au playerPasser au contenu principal
  • il y a 10 heures
Stéphanie Robieux, co-fondatrice et CEO d'OOrion, était l'invitée de François Sorel dans Tech & Co, la quotidienne, ce jeudi 30 avril. Elle s'est penchée sur les nouvelles fonctionnalités d’Oorion sur les Ray-ban Meta afin d'aider les malvoyants, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:05Stéphanie Robieux, bonsoir. Vous êtes cofondatrice et CEO d'Orion,
00:09comment on prononce ? Orion, avec deux o comme les deux yeux.
00:13Avec deux o exactement. Vous êtes une startup lyonnaise qui a été lancée en septembre 2022,
00:19vous avez une appli qui est gratuite sur mobile, sur l'App Store, qui utilise des algorithmes
00:24d'intelligence artificielle et la caméra du smartphone pour proposer des fonctionnalités
00:28qui permettent aux personnes malvoyantes d'identifier, trouver ou localiser des objets, leur environnement.
00:35C'est un truc génial quand on est en situation de handicap. Ça, c'est ce que vous avez fait.
00:42Oui. Et vous avez lancé une nouvelle fonctionnalité, c'est ça ?
00:46Même plus précisément, l'application qu'on a développée, qui est utilisée aujourd'hui par 30 000 déficients visuels
00:51dans leur quotidien pour identifier et localiser les objets qui les entourent, a été choisie parmi les quatre
00:57premières applications au monde pour intégrer les lunettes connectées de Meta, les lunettes Ray-Ban Meta,
01:04comme vous en avez peut-être entendu parler, qui intègrent en fait une caméra et qui aujourd'hui permet de
01:10prendre des photos,
01:11prendre des vidéos, aussi interagir pour tout le monde, interagir avec l'IA de Meta.
01:16Ils ont ouvert leurs lunettes à certains développeurs et aujourd'hui, Orion fait partie d'une des applications
01:22qui fonctionnent sur les lunettes. De ce fait, nos utilisateurs et des millions de déficients visuels
01:27dans le monde peuvent, depuis juste les lunettes Ray-Ban Meta, utiliser notre app pour repérer ce qui les entoure
01:33et des cas d'usage très précis.
01:34Déjà, j'imagine que vous êtes hyper fière d'avoir été choisie par Meta, par votre solution, parce que vous
01:40disiez
01:40qu'à quatre applis simplement, ont eu accès en fait à l'intérieur des Ray-Ban Meta pour installer votre
01:48système.
01:49En décembre dernier, fin 2025, Meta a voulu ouvrir ses lunettes pour que les développeurs puissent tester
01:56un certain nombre de choses à bord des lunettes. Toutefois, ils ne pouvaient pas ouvrir globalement
02:00les lunettes à tout le monde. Donc, ils ont dû faire des choix pour faire un peu un bêta test
02:04de comment ça se passerait peut-être dans le futur d'ouvrir leurs lunettes à tous les développeurs.
02:08Et ils en ont choisi quelques-uns, en l'occurrence quatre, qui avaient des cas d'usage
02:13en fait bien identifiés et entre guillemets qui valorisent aussi l'usage des lunettes Meta.
02:19Les déficients visuels qui utilisent les Ray-Ban Meta, comme on le voit dans la vidéo
02:23d'un utilisateur déficient visuel, ça paraît évident. C'est un des cas d'usage qui est le plus logique
02:29de leurs lunettes, donc ils s'en sont aussi servis pour ça. Mais au moins, voilà, ils montrent à tout
02:34le monde
02:34qu'ils peuvent ouvrir leurs lunettes et que peut-être demain, beaucoup d'applications
02:38pour fonctionner dessus.
02:39Alors, racontez-nous, une personne qui est déficiente visuelle chausse les Ray-Ban Meta.
02:43Que se passe-t-il ? Avec, évidemment, votre application.
02:46Alors, au départ, Aurion, vraiment, c'est... On prend le smartphone, on demande à Aurion
02:50de retrouver le banc, de retrouver son trousseau de clé tombé par terre
02:53ou la chaise libre dans une salle d'attente.
02:55Et ça, si on n'a pas de Ray-Ban, on peut le faire avec son téléphone ?
02:57Sans Ray-Ban, juste avec l'application mobile qui est embarquée sur le smartphone.
03:01C'est des algorithmes de reconnaissance d'images. Donc, ce n'est pas juste du chat GPT branché.
03:05C'est vraiment des algorithmes de computer vision entraînés et en local.
03:10C'est ce qui fait que Meta nous a choisis, notamment.
03:12Et en temps réel, quasiment.
03:14En temps réel, quasiment, parce que c'est des algorithmes qui fonctionnent en local.
03:17Sur les lunettes, c'est encore plus puissant, puisque même à l'extérieur, quel que soit l'environnement,
03:23en interagissant avec les lunettes, puisque dans les lunettes, il y a des micros et des haut-parleurs,
03:28l'utilisateur peut dire « et une caméra ».
03:31Orion trouve le banc. Et donc, Orion se lance.
03:35Les mêmes algorithmes sont utilisés, le même fonctionnement.
03:38Toutefois, cette fois, il n'y a pas besoin de balayer avec la caméra.
03:41Simplement, depuis les lunettes, ça fonctionne.
03:43Et là, on a déjà vu nos chiffres exploser, que ce soit en termes de nombre d'utilisateurs,
03:47bien sûr, à l'échelle mondiale, mais aussi en termes de nombre de sessions,
03:50puisque ça multiplie les cas d'usage, et en termes de longueur de sessions aussi.
03:54J'aimerais qu'on soit très précis, Stéphanie.
03:55Je n'ai pas véritablement bien compris.
03:58Je chausse mes lunettes avec l'application Orion.
04:01Je vais dialoguer avec mes lunettes et lui demander de me trouver, par exemple,
04:06de me dire où se situe tel objet, tel obstacle, etc.
04:10Ça peut être de la description basique.
04:12Ça peut être « dis-moi ce qu'il y a autour de moi ».
04:14Et donc là, je vais avoir une description orale.
04:17Qui va être instantanée, depuis la caméra du smartphone,
04:19en utilisant nos algorithmes pour le déficientiel.
04:22Par exemple, là, avec mes rêves de méta, on dira « je suis devant… »
04:26Une décine, un passage piéton, un appui plus, une personne, etc.
04:31Il n'y a pas de reconnaissance de la personne véritablement.
04:33Alors ça, c'est un sujet, nos utilisateurs nous demandent un peu ça,
04:36mais il y a beaucoup de notions RGPD derrière,
04:39et nous, on est une boîte française.
04:40Et de vie privée.
04:41Et de vie privée.
04:42On fait très attention à ça.
04:43Mais c'est vrai que ça serait formidable pour les personnes malvoyantes,
04:45le fait de savoir si c'est leur proche qui est en face.
04:47Bien sûr, mais déjà, localiser, et ça, c'est vraiment la fonctionnalité
04:51pour laquelle Meta nous a choisis à l'échelle mondiale,
04:54même malgré des concurrents américains et autres reliés à Microsoft, par exemple,
04:59c'est cette notion de « Orion peut localiser précisément et en continu ».
05:03Donc, trouver un banc et guider avec des bips et des vibrations l'utilisateur
05:07pour en continu.
05:08Et ça, ça repose forcément sur des technologies de computer vision
05:11qui peuvent être en continu, qui peuvent être embarquées,
05:14qui n'ont pas besoin d'Internet pour fonctionner,
05:15et qui, du coup, peuvent être très respectueuses aussi
05:18de la vie privée des utilisateurs.
05:19Donc, c'est-à-dire qu'après les lunettes,
05:21à partir du moment où je lui dis « dis-moi où est le banc »,
05:24elle va m'emmener vers ce banc-là,
05:27simplement avec comme une espèce de GPS audio.
05:30Exactement, c'est comme un détecteur de métaux presque audio.
05:33C'est-à-dire que plus on va se rapprocher,
05:34les bruits vont changer, en fait, c'est ça ?
05:36Il y a des bips émis par le haut-parleur de la direction,
05:40et puis il y a des vibrations sur le smartphone
05:41qui donnent aussi une notion de distance.
05:43Ça, ça part tout simplement de l'application au départ,
05:45quand on localisait un objet,
05:47l'application bipait et vibrait en fonction
05:49d'où est-ce qu'on a localisé l'objet.
05:50Maintenant, c'est pareil, mais sur les lunettes.
05:52Donc, les lunettes permettent vraiment
05:54d'avoir un balisage virtuel de l'environnement,
05:56de trouver et d'être guidés simplement basés
05:59sur cette caméra-là, et avec des bips,
06:01et aussi avec des indications de distance,
06:02comme on le voit sur la vidéo.
06:04Orion dit « l'objet est à 7 mètres, l'objet est à 5 mètres »,
06:07et puis quand l'objet est à portée de main,
06:08Orion dit « objet trouvé, est-ce que vous voulez quelque chose d'autre ?
06:11Est-ce que vous voulez en savoir plus ? »
06:13Donc, c'est vraiment un assistant virtuel
06:16qui ne nécessite pas beaucoup de données,
06:18pas de connexion Internet
06:21et pas d'informations personnelles,
06:23simplement qui va repérer
06:24les éléments importants de l'environnement
06:25et fonctionner en instantané.
06:27Et c'est pour ça que Meta nous a choisis,
06:28c'est le côté instantané.
06:30Voilà.
06:30Et ce qui est intéressant,
06:31c'est qu'on se rend compte de la puissance,
06:32en fait, des lunettes connectées
06:33pour les personnes en situation de handicap.
06:35Parce qu'au-delà de votre application,
06:36les Ray-Ban Meta permettent justement
06:38d'indiquer, d'expliquer ce qu'on a en face de nous,
06:41des informations sur tel monument,
06:43sur tel objet.
06:44Et couplé à votre géolocalisation,
06:48on va dire audio, c'est formidable.
06:49Merci beaucoup Stéphanie.
06:50Merci à vous.
06:51Stéphanie Robieux, cofondatrice et CEO d'Orion.
06:55On vous souhaite plein de bonnes choses pour la suite.
06:56Merci à vous.
06:57Avec cette appli,
06:58qui est déjà disponible pour les personnes malvoyantes.
07:00Ils peuvent la télécharger.
07:02On a 30 000 utilisateurs,
07:03et c'est en 32 ans.
07:04Et même sur les Ray-Ban Meta.
07:05Et les lunettes Meta se connectent en Bluetooth.
07:07Donc en fait,
07:08ça ne change absolument rien à l'application.
07:09Ok, c'est transparent.
07:10Il suffit d'avoir l'application sur son téléphone
07:11et ça fonctionnera.
07:12Génial.
07:13Merci beaucoup.
07:13Merci à vous.
07:14Le Kenko est terminé.
07:15Belle soirée.
07:16Merci de nous avoir suivis.
Commentaires

Recommandations