00:00Il faut en parler, décryptage des ondes du cerveau humain.
00:02On est avec Olivier Locufier, bonjour.
00:04Vous êtes le président de APS.
00:06APS, ça veut dire Human Augmented Brain System.
00:09Vous détectez les ondes, notamment parce que ça sert à comprendre les degrés de douleur.
00:13Vous êtes venu ce matin avec une sorte de petit ordinateur portable.
00:16C'est grand comme une pièce de monnaie.
00:18On le met où ? Ça sert à quoi ?
00:19Alors, celui-ci, c'est l'un de nos périphériques.
00:21En fait, c'est un disque dur.
00:22En fait, globalement, si je le positionne sur mon front,
00:24le disque dur est authentifié et chiffré par les ondes cérébrales de mon cerveau.
00:28Donc, l'avantage, c'est qu'en fait, simplement en le positionnant,
00:32mais surtout, tout le monde ne va pas se promener avec un petit disque dur comme ça.
00:34C'est encore des prototypes actuellement.
00:36Mais l'objectif, c'est d'embarquer notre technologie dans des lunettes connectées
00:39ou des AirPods, ce genre de choses.
00:41Mais en fait, globalement, l'avantage, c'est qu'avec ce genre de système,
00:45vous êtes sur de l'authentification multifacteur.
00:47En fait, il y a d'un côté l'unicité cérébrale de l'utilisateur,
00:51plus l'image à laquelle il va être associé dans sa pensée pour s'authentifier.
00:55Donc, ça veut dire que ça va remplacer mes mots de passe ?
00:56C'est-à-dire que plutôt que de taper un mot de passe, je vais penser à un truc
00:59et avec votre petit mini-badge ordinateur, ça va analyser les ondes cérébrales,
01:05savoir que j'ai bien pensé à la bonne chose et déverrouiller le site internet, par exemple.
01:08Exactement.
01:09Incroyable.
01:09Et donc, ça remplace les systèmes de chiffrement
01:11et ça remplace également les systèmes d'authentification.
01:13Au départ, vous avez commencé à travailler sur la douleur,
01:16notamment auprès des enfants, parce que s'exprimer, c'est compliqué.
01:19Là, vous arrivez à mesurer une échelle de douleur ?
01:22Oui. Alors, on travaille beaucoup dans le domaine de la santé grâce à nos algorithmes
01:26et à notre intelligence artificielle embarquée.
01:28On travaille notamment sur la douleur, aussi sur des recherches de pathologie
01:31et à adapter la douleur de chaque personne qui est totalement propre à chaque individu
01:37et détectée par le système.
01:40Mais il vous dit quoi ?
01:41Il vous donne un niveau de douleur ressenti.
01:42En fait, tout simplement, on travaille beaucoup avec certains hôpitaux
01:46qui nous aident à monitorer les enfants ou à monitorer des adultes
01:50qui ressentent des douleurs et dont ils ont une énorme difficulté
01:54à s'exprimer sur le niveau de douleur ressenti.
01:57Et en enregistrant toutes ces données, avec nos algorithmes de décryptage
02:00et avec l'intelligence artificielle qui est embarquée dans le système,
02:04on arrive à mesurer très finement le niveau de douleur ressenti.
02:07C'est dingue.
02:08Alors, ça fait penser aussi, même si la technologie est un peu différente,
02:11au projet Neuralink d'Elon Musk, dont on parle régulièrement,
02:13alors qu'ils sont des implants cérébraux.
02:15Pour le coup, votre technologie est beaucoup moins invasive
02:17puisqu'on n'a rien besoin de mettre dans le cerveau.
02:19Mais est-ce que sur les usages, vous pensez aller aussi loin
02:22que ce qu'imagine Elon Musk ?
02:23C'est-à-dire, en gros, analyser les signaux électriques envoyés par le cerveau
02:26pour permettre, par exemple, d'envoyer un SMS par la vitesse de la pensée,
02:30d'activer un exosquelette,
02:33de commander les machines par la force du cerveau.
02:35C'est ça l'idée ou pas du tout ?
02:37Alors, il y a une partie de l'idée.
02:39C'est-à-dire que, globalement, avec notre technologie aujourd'hui,
02:41on arrive à décrypter énormément d'éléments dans le cerveau.
02:44On décrypte toutes les émotions humaines,
02:45qu'elles soient positives ou négatives.
02:47On décrypte également certains éléments dans le monde de la santé.
02:51Donc, détecter un peu, ce soit des détections de migraines en amont,
02:54détecter ce genre de choses, ou comme la douleur.
02:58On travaille aussi en cybersécurité, sur l'authentification et le chiffrement.
03:02On travaille aussi dans l'axe de la sécurité routière,
03:04pour détecter l'alcool et la drogue par le système,
03:06par les ondes cérébrales,
03:07et détecter ensuite la concentration et la fatigue de l'utilisateur.
03:11Et donc, faire en sorte de le prévenir d'un risque.
03:14On arrive avec les ondes cérébrales à détecter un niveau de fatigue 1h30,
03:17avant même d'avoir les propres signes de fatigue.
03:20Ce qui permet, par exemple, si vous êtes au volant,
03:21d'être prévenu largement en avance,
03:24que vous êtes dans un état de fatigue proche,
03:26et que de ce fait, vous devez vous reposer.
03:28Mais si je pense à un mot ou à une phrase,
03:30est-ce que le dispositif est capable de décrypter,
03:32de comprendre le mot auquel je pense, par exemple ?
03:35Le mot, c'est extrêmement compliqué.
03:37Des images, oui.
03:38En fait, certaines images, on entraîne notre IA,
03:41nous sommes une société d'intelligence artificielle et de neurosciences,
03:44on entraîne notre IA sur énormément d'images,
03:46pour pouvoir décrypter certains éléments.
03:48Les mots, c'est beaucoup plus compliqué.
03:50Il nous faudrait énormément, énormément de données,
03:52pour arriver à partir là-dessus,
03:54en sachant que les ondes cérébrales sont tout de même
03:56des données relativement variables en permanence,
04:00et donc ce n'est pas si évident que ça.
04:01Mais sur des images, on y arrive très bien.
04:03Vous venez de rentrer dans le classement annuel
04:04des 40 meilleures startups de Station F.
04:07Félicitations, j'imagine que ça va vous ouvrir des investisseurs,
04:10ça change beaucoup de choses.
04:11Aujourd'hui, vous en êtes où en termes de développement ?
04:14Vous êtes au développement commercial, juste avant ?
04:17Alors, on a démarré la phase commerciale,
04:18notamment sur les émotions.
04:20Sur le monde de la santé, nous travaillons avec certains hôpitaux,
04:23notamment la PHP, sur certains sujets,
04:25donc plus en mode recherche.
04:27Par contre, sur toute la compréhension des émotions,
04:30que ce soit pour le monde du luxe, ou l'agroalimentaire,
04:32ou l'industrie automobile,
04:33où les gens cherchent à comprendre
04:35les émotions ressenties par leurs consommateurs,
04:38tous ces éléments sont commercialisés aujourd'hui.
04:40Ah oui, ça va loin.
04:42Vous allez savoir ce que j'aime,
04:43ou ce que je n'aime pas en tant que consommateur.
04:45Exactement.
04:45Avec un panel de clients qui vont mettre le...
04:48Comme un panel quali, quoi ?
04:49Exactement.
04:50C'est-à-dire qu'en fait, l'avantage, c'est de pouvoir démontrer les émotions
04:53et même pouvoir expliciter ce que l'on est incapable d'expliquer.
04:58C'est-à-dire qu'on va au-delà.
04:59C'est-à-dire que comme on capte toutes les émotions,
05:01qu'elles soient positives ou négatives,
05:03et les intentions,
05:04on est capable de remonter très loin.
05:06De vérifier, par exemple, sur un parfum,
05:08l'odeur du parfum, les émotions ressenties,
05:10est-ce qu'on les retrouve dans le packaging ?
05:12Est-ce qu'on les retrouve dans les égéries ?
05:14Est-ce qu'on les retrouve dans la publicité papier ?
05:17Est-ce que tout est cohérent par rapport à la cible commerciale ?
05:20Mais là, on est quasiment dans Black Mirror.
05:22C'est mieux qu'un détecteur de mensonge.
05:24Oui, c'est ça.
05:24Parce qu'en plus, vous imaginez intégrer ça.
05:26Parce que là, aujourd'hui, on est dans ce qu'on appelle le neuromarketing.
05:28Donc, j'imagine que vous faites, comme le disait Laure, des études quali.
05:30Mais demain, ça veut dire que si on intègre ça dans des lunettes,
05:33je peux être en train de regarder la télé
05:34et on va voir mes lunettes vont analyser en temps réel
05:36quand je suis en train de regarder une pub
05:37ou quand je suis en train de regarder Good Morning Business.
05:40Ah ben là, j'ai bien aimé l'émission.
05:41Non, mais ça va quand même très très loin.
05:43Ça va très loin, mais ça a aussi des éléments extrêmement intéressants.
05:46Aujourd'hui, par exemple, on utilise tous des LLM
05:49ou bientôt dans le futur, on utilisera des robots.
05:52Il faut pouvoir dialoguer avec les LLM.
05:55On fournit, nous, en fait, un kit de développement
05:57qui permet aux LLM d'être connectés au cerveau humain
06:00et donc de comprendre les émotions de la personne
06:02et de comprendre également sa charge mentale
06:04et éventuellement des pathologies.
06:06On a entendu dans la presse dernièrement
06:08des cas relativement graves d'utilisation de Tchad GPT
06:11par certains utilisateurs.
06:13On peut imaginer que si Tchad GPT a accès
06:15à vos informations cérébrales,
06:17il pourrait détecter globalement
06:19que vous êtes dans un état de suicide
06:21ou que vous êtes dans un état de dépression extrêmement avancé.
06:23Et s'adapter.
06:23Et s'adapter.
06:24Et donc anticiper, en fait, et éviter les erreurs.
06:27Passionnant.
06:28On pourrait rester toute la matinée avec vous,
06:29Olivier Locufier, président de Habs.
Commentaires