Passer au playerPasser au contenu principal
  • il y a 21 heures
Olivier Oullier, président et cofondateur d'Inclusive Brains, était l'invité de François Sorel dans Tech & Co, la quotidienne, ce lundi 17 novembre. Il s'est penché sur Inclusive Brains, la start-up qui développe une interface homme-machine non invasive, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:01Tech & Co, la quotidienne, l'invité.
00:04Pour terminer ce Tech & Co, exceptionnel depuis l'AIM ici à Marseille, à l'Orange Vélodrome,
00:10j'accueille Olivier Houllier. Bonsoir Olivier.
00:14Bonsoir François, comment ça va ?
00:15Ça va très bien, merci d'être là.
00:17Inclusive Brain, vous en êtes le cofondateur.
00:20Deep Tech marseillaise, Olivier, avec Inclusive Brain,
00:24qui développe une interface homme-machine non invasive.
00:27Alors, on pourrait dire que vous êtes un peu le Neuralink light,
00:34en tout cas, parce que Neuralink, c'est véritablement, on va dire,
00:39des capteurs qui sont intégrés dans le cerveau.
00:41C'est le projet, rappelons-le, d'Elon Musk, etc.
00:44Vous êtes un peu dans le même sujet, mais c'est non invasive.
00:47Est-ce que vous pouvez nous présenter Inclusive Brain, s'il vous plaît Olivier ?
00:50Oui, l'idée aujourd'hui, c'est que pour pas mal de monde,
00:53l'intelligence artificielle, c'est du texte, ce sont des images et c'est de l'audio.
00:57qui sont générés.
00:59Nous, on entraîne nos modèles avec des ondes cérébrales,
01:02des expressions faciales, des mouvements des yeux,
01:04l'intonation de la voix, le toucher, la respiration, les pulsations cardiaques.
01:09L'idée, c'est d'entraîner les modèles d'intelligence artificielle
01:12avec ces données que notre cerveau traite au quotidien.
01:16L'idée est simple, on veut que les machines s'adaptent à leurs utilisateurs
01:19et que ça ne soit pas l'inverse.
01:20quand vous achetez une voiture, quand vous avez une nouvelle station de travail
01:24ou un nouvel ordinateur, c'est à vous de vous adapter à la machine.
01:27Aujourd'hui, nous, ce qu'on essaie de donner aux machines
01:30et donc au système d'intelligence artificielle,
01:32c'est cette capacité d'avoir une vision du monde,
01:35de s'adapter à ce qui se passe et donc de permettre en quelque sorte
01:39que la collaboration humain-intelligence artificielle soit optimale.
01:43Soit optimale et soit bénéfique, en fait, même pour les personnes en situation de handicap.
01:48C'est ça qui est intéressant.
01:50Quelques exemples, une F1 pilotée par la pensée d'un tétraplégique.
01:54Incroyable.
01:552017, en 2017.
01:57Alors, racontez-nous cette histoire.
01:58Qu'est-ce qui s'est passé en 2017 ?
02:00Avec un système que vous pouvez acheter sur l'Internet,
02:03c'était Emotive, la société que je dirigeais en Californie,
02:07qui est numéro un mondial des neurotechnologies.
02:09On a permis à Rodrigo Ubner-Mendez,
02:10une personne en situation de handicap qui est tétraplégique,
02:13de contrôler une véritable voiture de Formule 1 par la pensée sur un circuit.
02:18Donc, uniquement grâce...
02:20C'était même pas un jeu vidéo.
02:21Ah non, non, c'est une vraie.
02:23Et ensuite, on a défié Lewis Hamilton.
02:25Affaire à suivre.
02:26Mais c'est-à-dire que cette personne,
02:28qui évidemment est paralysée, je dirais du coup jusqu'au pied,
02:32arrivait en pensant...
02:36Avec des capteurs qui sont non-invasifs,
02:38c'est-à-dire qu'il n'y a pas d'implant.
02:39L'intelligence artificielle permet de transformer ces ondes cérébrales en commande.
02:44Vous captez les ondes cérébrales malgré tout,
02:46qui traversent la boîte crânienne, d'accord ?
02:50Vous arrivez, grâce à l'IA, à interpréter ces ondes cérébrales.
02:53Et c'est la même technologie, mais bien plus avancée,
02:56qui nous a permis de faire trois premières mondiales non-invasives,
02:58encore une fois, en 12 mois.
03:01À Marseille, ici, une personne a contrôlé un exosquelette de bras
03:05par la pensée pour porter la flamme olympique.
03:07Ensuite, on a écrit un tweet par la pensée au président Macron,
03:12qui nous a répondu depuis la scène des Nations Unies.
03:15Et puis, la dernière fois qu'on s'est vus, c'était au Grand Palais,
03:17donc dans le cadre du sommet pour l'action de l'IA,
03:19où on a finalisé le premier amendement parlementaire
03:22qui a été soumis uniquement par la PASSE.
03:23Encore une fois, qu'est-ce que ça veut dire ?
03:24Ça veut dire qu'on ne touche pas un clavier,
03:27on ne touche pas un écran,
03:28on ne parle pas,
03:29il n'y a aucun contact, aucun mouvement,
03:31et c'est uniquement l'intelligence artificielle
03:33qui permet de transformer les ondes cérébrales
03:37et les signaux du corps humain
03:39en un signal qui vous permet de contrôler les machines.
03:43Je parlais tout à l'heure de Neuralink,
03:45on est d'accord que vous êtes sur la même voie, finalement ?
03:48Alors, le fait est que Neuralink s'intéresse particulièrement
03:52à la médecine.
03:53Nous, c'est plus large dans la mesure
03:54où on n'a pas besoin de faire d'implant,
03:56il n'y a pas de chirurgie.
03:57Oui, mais les actes aujourd'hui sont les mêmes,
03:58c'est-à-dire que Neuralink, aujourd'hui,
04:00permet à une personne qui est hétraplégique
04:01de jouer à des jeux vidéo,
04:03de pouvoir s'exprimer,
04:04de pouvoir taper des messages, etc.
04:06Ce que vous faites, vous, finalement ?
04:07Oui, ça, c'est une partie de ce qu'on fait.
04:09L'autre partie, c'est le fait que
04:10ce que l'on a appris en faisant ces Premières Mondiales
04:13pour des personnes en situation de handicap
04:14nous a permis de créer des détections en temps réel
04:18de stress, d'attention, de charge mentale et de fatigue
04:20qui sont aujourd'hui utilisées
04:22chez Biotech Dental,
04:24dans le cadre des chirurgies
04:26dentaires
04:28pour mesurer ce qui se passe
04:30dans la tête et dans le corps
04:32des praticiens,
04:33mais aussi des patients.
04:37Savoir, c'est super important
04:38de pouvoir mesurer le stress des patients
04:39parce que si vous arrivez à calmer vos patients,
04:43vos interventions chirurgicales,
04:44quelles qu'elles soient,
04:45ont de meilleurs résultats.
04:47Et cette technologie,
04:47on l'a exportée à Abu Dhabi.
04:50Aujourd'hui, notre technologie est utilisée
04:52dans des salles de chirurgie
04:53à Abu Dhabi,
04:55là où des chirurgiens
04:56enchaînent des chirurgieux
04:58toute la journée,
05:00il y a de la fatigue,
05:01il y a de la distraction
05:01et ça leur permet d'avoir un retour
05:04et donc d'améliorer la qualité des soins,
05:05leur performance et leur santé.
05:07Tout ça émane du travail
05:09qu'on a pu faire pour les personnes
05:10en situation de handicap.
05:11C'est-à-dire que là,
05:12si je comprends bien,
05:13vous arrivez à détecter
05:14l'état de stress de la personne.
05:16L'état de distraction aussi.
05:18Vous ne le soignez pas,
05:18mais vous indiquez
05:20soit aux soignants,
05:22soit aux soignés
05:23qu'il est stressé.
05:25C'est ça ?
05:25Aujourd'hui,
05:26il n'y a pas une société au monde
05:27qui ne bénéficierait pas
05:29de comprendre ce qui distrait
05:30et ce qui stresse ses employés.
05:34De pouvoir le faire
05:34de manière rigoureuse,
05:36scientifique et en temps réel
05:37grâce à l'intelligence artificielle
05:38et grâce à nos modèles,
05:39c'est une révolution qui sauve des vies
05:41sur un chantier,
05:42dans un avion,
05:43dans une salle de chirurgie.
05:45Et au-delà de ça,
05:47le fait est que
05:47les technologies d'intelligence artificielle
05:49qu'on développe,
05:50j'ai la chance de diriger
05:52l'Institut d'intelligence artificielle
05:53du groupe Biotech Dental,
05:56ces modèles,
05:56ils sont utilisés
05:57tout au long de la chaîne de soins.
05:59On scanne,
06:00on vient de lancer
06:01une caméra intra-orale,
06:03c'est-à-dire qu'ils utilisent
06:03l'intelligence artificielle
06:05pour reconstruire intégralement
06:06en temps réel,
06:07en trois dimensions,
06:08ce qui se passe dans la bouche
06:09donc on scanne,
06:10ensuite on peut planifier le traitement,
06:12on crée des prothèses
06:14et on peut traiter.
06:17Et c'est toute la chaîne aujourd'hui
06:18qui bénéficie de ces modèles-là.
06:22L'importance au final.
06:24Et c'est pour ça qu'une personne comme moi
06:25qui a un background en neurosciences
06:27se retrouve à la tête
06:28d'un institut d'intelligence artificielle
06:30du plus gros groupe dentaire européen
06:33basé à Salon-Provence
06:34parce que Philippe Véran,
06:37son fondateur et président,
06:39voulait avant tout quelqu'un
06:40qui connaisse la façon
06:41dont les gens interagissent
06:43avec l'intelligence artificielle
06:44parce qu'aujourd'hui
06:45c'est ce dont il s'agit.
06:46Et c'est aussi pour cette raison-là
06:47que j'ai été recruté
06:48à la Mohamed Ben Zayed
06:49d'Université d'Abu Dhabi
06:51qui est une université
06:52qui est totalement dédiée
06:53à l'intelligence artificielle
06:55et où je travaille au département
06:56des interactions
06:57entre les humains et l'IA.
07:00Que va devenir Inclusive Brain ?
07:02Est-ce que vous allez continuer
07:03justement sur cette voie des capteurs ?
07:05Alors, nous,
07:06on ne développe pas la partie physique.
07:09On travaille avec les capteurs
07:10qu'aujourd'hui,
07:12les Apple, Meta, etc.,
07:14que l'on retrouve dans les lunettes,
07:16dans les casques,
07:17dans les écouteurs.
07:18On s'adapte.
07:19On est agnostique à l'appareillage.
07:22Donc ça peut être votre téléphone,
07:23ça peut être votre ordinateur.
07:25À partir du moment
07:26où il y a un capteur,
07:27on peut utiliser l'information
07:28puisque si les modèles
07:31sont entraînés
07:31avec de l'intelligence artificielle,
07:33donc les modèles
07:34d'intelligence artificielle
07:35sont entraînés
07:35avec des ondes cérébrales,
07:37il n'y a pas besoin
07:37de mesurer les ondes cérébrales
07:39pour pouvoir les utiliser
07:40sur le terrain.
07:40C'est ça qui est important.
07:41Mais sur les Ray-Ban Meta,
07:42par exemple,
07:42il y a des capteurs
07:43que vous pourriez utiliser ?
07:44Aujourd'hui, oui.
07:45On est en train de travailler
07:46à leur intégration
07:47sur nos modèles.
07:48Bien évidemment,
07:49les nouvelles,
07:50surtout les nouvelles
07:50qui captent l'activité électrique
07:53des muscles
07:53pour pouvoir contrôler.
07:55Pour pouvoir justement
07:55interagir avec l'écran.
07:56Au final,
07:57ce qui est super important,
07:58c'est d'essayer d'étendre
08:00les limites
08:01des modèles de langage,
08:03des modèles de génération d'images,
08:05ce qu'on appelle
08:05les modèles du monde,
08:06les world models.
08:07Notre université
08:08en a publié un hier
08:11qui s'appelle Pan,
08:12P-A-N.
08:13La différence entre ces modèles
08:15qui donnent la capacité
08:18à vos machines
08:20d'imaginer le monde,
08:22c'est la différence
08:22entre nous
08:23et les machines aujourd'hui.
08:24François,
08:25quand vous vivez au quotidien,
08:28vous avez une image du monde,
08:30vous avez de la mémoire.
08:32Et la mémoire n'est pas
08:33qu'un instrument
08:33qui nous permet
08:34de nous souvenir,
08:35c'est aussi quelque chose
08:35qui nous permet
08:36de créer notre futur,
08:38d'y participer.
08:40Et c'est exactement
08:40ce que font
08:41les modèles de monde,
08:42donc world models.
08:44Ils permettent
08:45non seulement d'utiliser
08:47de manière statistique
08:49si on simplifie
08:50à outrance
08:51le texte,
08:54les images,
08:55mais ils intègrent
08:55aussi les propriétés,
08:56les propriétés
08:57d'une balle qui rebondit,
08:57les propriétés biologiques
08:59de notre corps
08:59et donc peuvent anticiper,
09:02peuvent créer.
09:03Et là,
09:04tout d'un coup,
09:04on donne la capacité
09:05aux machines
09:06de contextualiser
09:07leurs actions.
09:08Et c'est toute la différence
09:10entre l'intelligence
09:11artificielle générative
09:12d'avant-hier
09:13et celle de demain.
09:14Et j'imagine qu'en robotique,
09:16puisqu'on parle énormément
09:16de robotique,
09:17aujourd'hui,
09:18il y a des débouchés
09:18incroyables.
09:20Quand on voit
09:20tous ces robots humanoïdes,
09:22que ce soit les projets
09:23de Tesla
09:23ou alors même chinois,
09:25où il y a énormément
09:25de choses passionnantes,
09:27il y a des débouchés
09:28incroyables.
09:29Pour nous,
09:29c'est vraiment
09:30un des secteurs
09:30d'application pour
09:31Inclusive Brain,
09:32c'est de donner
09:32la capacité aux robots
09:33de ressentir les personnes
09:34avec lesquelles
09:35ils interagissent.
09:36C'est ce qu'on appelle
09:36les cobots,
09:37la collaboration
09:38entre les humains
09:38et les robots.
09:39Et en ce qui me concerne,
09:40à Abu Dhabi,
09:41on est en train
09:42de développer
09:42au sein de l'université
09:43avec des hôpitaux,
09:45les robots chirurgiens
09:47qui ne sont pas là
09:47pour remplacer
09:48les chirurgiens,
09:50mais qui sont là
09:50pour les assister.
09:51Ça existe déjà.
09:53Mais aujourd'hui,
09:54les robots qui existent
09:55et qui assistent
09:55n'ont pas la capacité
09:56de ressentir
09:57l'état de fatigue,
09:58l'état de stress,
09:59l'état de distraction.
10:00Et c'est ce qui va faire
10:01la micro-différence
10:02entre une vie sauvée
10:04et une vie perdue
10:05dans une salle d'opération.
10:07Passionnant tout ça.
10:08Merci beaucoup Olivier
10:09et d'être passé par le plateau
10:10de Takenko ici à l'AIM.
10:11Merci.
10:12Et on se voit toujours
10:12dans des lieux extraordinaires.
10:14Le Grand Palais,
10:14c'est bien,
10:14mais le stade Vélodrome,
10:15moi je suis rentré
10:16d'Abu Dhabi
10:16pour être à la maison.
10:17J'ai joué à domicile.
10:19C'est les lieux
10:19que vous méritez.
10:20Merci beaucoup.
10:21Merci en tout cas Olivier,
10:22co-fondateur d'Inclusive Brain.
10:24Merci.
10:25Merci.
10:26Merci.
10:27Merci.

Recommandations