- il y a 5 minutes
Xavier Perret, directeur de l'entité Azure chez Microsoft, et Olivier Locufier, fondateur de HABS, étaient les invités de Frédéric Simottel dans Tech & Co, la quotidienne, ce jeudi 16 avril. Ils se sont penchés sur le décryptage des neurones par l'IA et l'analyse cérébrale avec HABS sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.
Catégorie
📺
TVTranscription
00:01Tech & Co, la quotidienne Tech & Ciné.
00:05Impressionnant, bonsoir Xavier Perret.
00:08Impressionnant ce que l'on vient d'entendre à Bollywood.
00:10Xavier Perret, directeur des plateformes DataIA chez Microsoft Europe,
00:13merci d'être avec nous, qui ce soir va être là avec une double casquette.
00:16Première casquette, on va revenir sur parler tech et ciné,
00:19avec un sujet assez particulier et justement qui va nous faire basculer dans la deuxième partie
00:24où là on sera sur l'accord entre Microsoft et une startup qui s'appelle Apps,
00:29Human Augmented Brain System, avec Olivier Locufier.
00:33Bonsoir Olivier, fondateur, merci d'être avec nous.
00:36On revient avec vous dans un instant, mais tout de suite, on démarre avec Xavier
00:39sur justement cette...
00:44Tu viens là ce soir de nous raconter comment Hollywood décrypte la tech
00:48avec des films des années 70-80 jusqu'aux toutes dernières séries TV.
00:52Et ce mois-ci, tu viens nous parler d'un sujet d'innovation IA,
00:55c'est le décryptage des ondes cérébrales avec des interfaces neuronales.
01:00Et puis on va en reparler juste après là, avec des exemples très concrets.
01:03Exactement, on va séparer les cerveaux justement.
01:05Alors déjà, c'est quoi l'interface neuronale ?
01:07Donc ça s'appelle le BCI, Brain Computer Interface en anglais,
01:10l'interface neuronale directe, c'est quoi en fait ?
01:12C'est une interface de communication directe, en gros,
01:14entre le cerveau et directement l'action,
01:16c'est-à-dire vers un device externe par exemple, un PC, tout simplement.
01:20C'est-à-dire que ça, on va s'affranchir finalement de le cerveau
01:22qui va agir vis-à-vis des neurones, qui va agir vis-à-vis du muscle,
01:26qui va me faire l'usage de la souris, qui va aller sur le PC derrière.
01:28Donc voilà, c'est le décryptage du cerveau par les ondes cérébrales derrière.
01:32Donc à quoi ça sert finalement ?
01:34Ça sert soit à comprendre déjà comment pense le cerveau,
01:36c'est-à-dire comment il réagit.
01:37C'est-à-dire que je suis face à un événement,
01:39et finalement si j'arrive à décrypter ces ondes cérébrales,
01:41finalement je sais si j'ai de la douleur ou pas, par exemple à l'hôpital.
01:44Donc on voit bien les intérêts derrière.
01:46Je pense qu'on verra avec cap certains usquets c'est intéressant.
01:49Ou alors c'est aussi pour éventuellement commander une interface,
01:53mais pour aller très rapidement.
01:54Par exemple dans un avion de chasse, on le verra dans un film.
01:56Mais donc j'ai pas besoin de mes mains et de mes pieds, on va dire.
01:59Et mes yeux, même derrière, c'est juste le cerveau
02:01qui va directement commander l'avion de chasse directement.
02:04Donc ce temps de latence est extrêmement réduit.
02:05Et ces technologies, elles peuvent être invasives ?
02:08Voilà, donc on va séparer l'invasive et le non-invasive.
02:11L'invasive c'est des électrodes directement,
02:13il y a des projets comme ça, donc directement dans le cerveau.
02:15Ce qui fait un peu peur, mais on va voir que ça nourrit Hollywood
02:18fortement, évidemment, derrière.
02:19Ou des casques, ce qu'on va voir plus nettement là.
02:22C'est-à-dire non-invasives qui vont être capables finalement
02:24d'amplifier les ondes cérébrales.
02:26Et puis aussi, on va distinguer ce qui est de l'ordre du lien
02:29finalement cerveau qui commande,
02:30donc un peu unidirectionnel derrière.
02:32C'est-à-dire, on va analyser finalement ce que le cerveau pense
02:34ou ce qu'il veut faire.
02:35Et puis aussi le retour, le bidirectionnel,
02:37qui fait un peu plus peur, c'est
02:38« Ah, je vais agir sur le cerveau directement
02:41pour t'implanter une mémoire, un souvenir, une action. »
02:45Il y a le récolte avec Arnold Schwarzenegger.
02:46Il y en a plein, des films.
02:48Il y en a plein, tout ça.
02:50Justement.
02:50Donc, on a des considérations éthiques, technologiques, etc.
02:54Alors, comme toujours, ça fait bien longtemps
02:55que Hollywood s'est reparlé du sujet.
02:56On en a évidemment, tu l'as dit, plein de sujets.
02:59Ça démarre même dans les années 60.
03:01Parce que, oui, c'était ça.
03:03L'électro-encéphalographie.
03:04Oui, parce que si, comme tu te souviens,
03:07dans tes premiers Tech & Co au 19e siècle,
03:10voilà, c'est ça.
03:11Si on avait fait un Tech & Co à cette époque-là,
03:14on n'aurait pas l'EEG, c'est-à-dire l'électro-encéphalographie.
03:17Tout le monde connaît l'électro-cardiogramme pour le cerveau.
03:19C'est l'équivalent, finalement.
03:20C'est l'analyse.
03:21Et puis, on va faire des courbes.
03:22Ça date, pour être très clair, de 1875.
03:25Ça a été inventé.
03:261920, ça a été amplifié.
03:28C'est un britannique, non, c'est un neurologue allemand
03:30qui a réussi à l'amplifier, Hans Berger.
03:32Et ça a été vraiment développé de manière scientifique
03:33dans les années 50.
03:34Ça tombe bien.
03:35C'est là qu'on va recommencer à voir pas mal de films autour de ça.
03:37Et puis, on va voir différentes phases, en fait.
03:39Années 50, c'est les premiers films.
03:40Le premier film qui parle vraiment de ça,
03:42c'est un film qui s'appelle The Brain Machine.
03:44Voilà, un film britannique.
03:45En gros, c'est quoi ?
03:46C'est un physicien qui va analyser le cerveau
03:48et qui va découvrir si c'est le cerveau d'un serial killer.
03:50En gros, voilà, basique.
03:51Mais pour ceux qui aiment ce film,
03:53qui s'appelle Forbidden Planet,
03:55il y a aussi un device qui s'appelle le Krill.
03:57Le Krill, exactement.
03:58Je crois que dans Wikipédia, on peut les retrouver.
04:00Voilà, il y en a plus de 70.
04:02Mais voilà, c'est les phases.
04:03Donc, années 50, c'est le début.
04:04C'est l'électro-on-séphogramme.
04:05Années 70-80, c'est le développement de la cybernétique.
04:08C'est là où il y a un film qui s'appelle Firefox.
04:10Ça n'est pas le navigateur.
04:11Oui, non, c'est Clint Eastwood.
04:14Il vole un avion russe.
04:15Exactement.
04:15Il vole un avion russe.
04:16Il va le piloter par la pensée.
04:18Il faut qu'il le pilote en russe.
04:19Donc, il faut qu'il pense en russe.
04:20Je vous ai un peu spécédé derrière.
04:22Voilà.
04:23C'est déjà...
04:23On voit déjà le type d'usage.
04:25Mais on va trouver plein de films,
04:25déjà, de cette époque-là.
04:27Années 90, on va trouver Cyberpunk,
04:29Réalité Virtuelle.
04:35Stranger, dont on va reparler.
04:362000, c'est Avatar.
04:37Je vais commander à distance quelque chose.
04:39Donc, évidemment, Avatar.
04:41Mais c'est aussi Minority Report.
04:42C'est un film qui s'appelle Surrogate.
04:43Donc, il n'y a pas l'enquête de films.
04:45Et 2020, il y a un shift un peu plus sombre.
04:48Là, on passe de les années 70,
04:50j'ai peur de perdre mon humanité en faisant ça,
04:52à transhumanisme.
04:53Je vais dépasser mes limites.
04:55Donc, c'est Inception.
04:56Généralement, c'est ça.
04:56Je vais upgrade, transcendance, réminiscence.
04:59Alors, c'est plein de films en hans.
05:01Réminiscence, pour une petite histoire.
05:02C'est Hugh Jackman.
05:03C'est une de tes séries préférées.
05:05Voilà, c'est un bon film.
05:06Mais surtout, il utilise un vrai casque.
05:08Voilà, c'est un vrai casque de l'époque, en tout cas,
05:10qui était le casque EEG, motif époque, derrière.
05:13Et puis, on en a parlé un petit peu ici.
05:15Jusqu'à maintenant, c'est Black Mirror,
05:16dans un des épisodes très récents.
05:18Il y avait un divers qui s'appelle Le Neubin,
05:20qui était accroché là.
05:21Les gens ont tellement cru,
05:22tellement voulaient la voir, on va dire,
05:24qu'on a trouvé des gens qui s'amusaient
05:25à la voir dans le métro, les ragards,
05:27comme s'ils étaient projetés dans leurs souvenirs.
05:29Donc, on voit bien que la passerelle science-fiction,
05:30réalité, elle alimente nos angoisses aussi,
05:34nos peurs et nos fantasmes.
05:36Et donc, à partir des années 2010,
05:38on parle de nanotechnologie.
05:39Oui, on voit bien que les années 70-80,
05:41on va avoir des casques, des gros casques,
05:44connectés à des fils.
05:45On va avoir un film comme ça des années 80,
05:46alors qu'on va avoir plus des puces.
05:48Donc, ça va résonner avec des projets un peu actuels.
05:50Et du coup, ça nous fait penser,
05:51ça nous fait évoluer,
05:52parce qu'on va faire ce lien avec cinéma
05:53et la réalité, entre guillemets,
05:56c'est Neuralink, le projet.
05:57Voilà, finalement, dans ceux qui sont très médiatisés
05:59dans ces projets et qui, finalement, aboutissent.
06:01On voit bien que c'est, quelque part,
06:02l'état de recherche des années 80.
06:03C'est pour ça qu'on va trouver des films intéressants
06:04dans les années 80.
06:05Neuralink, c'est évidemment le développement
06:06de la puce et des électrodes
06:08du projet dans lequel Elon Musk a investi.
06:11Il y a eu un projet avec Microsoft aussi.
06:13Il s'arrête avec Bill Gates.
06:13Bill Gates qui avait soutenu un des projets.
06:16Je retrouve...
06:16Je ne suis pas totalement sûr.
06:18Neuralink avance,
06:19puisqu'il y a un premier patient
06:20qui s'est implanté pour activer
06:23des éléments, déplacer un curseur d'ordinateur
06:24par la pensée.
06:25Il y a 21 patients aujourd'hui.
06:27L'FDA qui commence à normaliser...
06:29L'FDA qui est l'autorité de régulation américaine
06:32exactement pour la santé.
06:33Donc, vraiment, on a des choses très...
06:35Voilà, il y a des concurrents.
06:36Il y en a un qui s'appelle Synchron,
06:38qui est une espèce d'électrode,
06:39un cathéter dans les vaisseaux sanguins.
06:40Neuralink, on est invasif.
06:41Neuralink, on est complètement invasif.
06:43C'est une dizaine d'électrodes.
06:44Stentrod, on est plutôt sur les vaisseaux sanguins.
06:46Et puis, il y a le projet de Sam Altman aussi.
06:47Il a investi dans un projet
06:48qui s'appelle Merge Lab,
06:50qui paraît aussi de manière non-invasive,
06:51mais avec aussi des thérapies géniques.
06:53Tout ça, c'est pour décrypter le cerveau,
06:55les ondes cérébrales derrière,
06:56indirectement ou directement.
06:57Et si on veut vraiment regarder
06:58tout ce qui est ondes cérébrales,
07:00et on parlera aussi dans un instant
07:01d'IA émotionnelle avec notre invité,
07:04quels films on doit aller voir ?
07:05En fait, il y a deux films
07:06que moi je retiens pour conclure.
07:08Il y a un film qui s'appelle Strange Days,
07:091995, derrière,
07:11qui exprime assez bien.
07:12C'est Catherine Bigelow.
07:12Catherine Bigelow, c'était la compagne,
07:14l'ex-compagne en fait,
07:15du réalisateur de Terminator,
07:16puisque c'est Terminator qui est James Cameron,
07:18derrière.
07:18Des mineurs aussi, je crois.
07:19Et donc, voilà,
07:20qui a fait des super films
07:21comme des mineurs après,
07:23exactement, derrière.
07:24Et le film a inventé
07:24une espèce de cas
07:25qui s'appelle le Squid,
07:26qui est le Super Conducting
07:27Quantum Interference Device,
07:29qui va être un device
07:31qui va analyser le cerveau
07:32et puis aussi me remémorer
07:33des souvenirs
07:33avec une espèce d'addiction
07:34et des drogués là-dedans.
07:35Ce qui est intéressant,
07:36c'est que le Squid existait déjà à l'époque,
07:38de manière magnétique.
07:39Et puis en fait,
07:40ce film s'est inspiré
07:40d'un autre film que je préfère,
07:42complètement inconnu,
07:43donc là je vais perdre tout le monde,
07:44mais c'est pas grave.
07:451983,
07:45un film qui s'appelle Brainstorm,
07:47rien à voir avec Brainstorm,
07:48voilà,
07:49la période de Brainstorming,
07:50derrière.
07:51C'est en fait Douglas Trumbull
07:52que personne ne connaît,
07:53en fait c'est celui
07:53qui a fait tous les effets spéciaux
07:56de Dominant Odyssée de l'espace,
07:57de Blade Runner,
07:58les villes Blade Runner.
07:58C'est lui,
08:00il a fait rencontre
08:01du troisième type,
08:02voilà.
08:02Le pitch,
08:03il est assez simple,
08:04c'est des scientifiques
08:05qui inventent un casque,
08:06qui enregistrent
08:07sur support technique VHS,
08:09on est quand même
08:09dans les années 80,
08:10donc c'est même
08:10de la bêta cam,
08:11je pense,
08:11et qui va rejouer
08:12des expériences sensorielles,
08:14voilà,
08:14avec même jusqu'à rejouer
08:16une expérience
08:16de quelqu'un
08:16qui est en train de mourir.
08:17Et évidemment,
08:18l'armée,
08:19les entreprises
08:19vont vouloir s'emparer de ça
08:20pour en faire un mauvais usage
08:21et la chercheuse femme
08:22va évidemment
08:23se rebeller contre ça.
08:24Ce qui est intéressant
08:25dans ce film,
08:26c'est qu'il reflète
08:26exactement ce qu'on peut
08:28penser,
08:29imaginer,
08:30avoir peur
08:30sur ces technologies.
08:32Finalement,
08:32c'est quoi ?
08:32On est toujours
08:33un peu fasciné
08:34par la lecture
08:34et l'écriture du cerveau,
08:35en fait,
08:35on va voir qu'avec l'IA,
08:36c'est un peu différent
08:39aujourd'hui.
08:40C'est le sujet
08:41d'interface utilisateur,
08:41c'est-à-dire,
08:42à un moment,
08:42on déclenche par le cerveau,
08:44c'est plus l'interface,
08:45c'est plus la voix,
08:46c'est plus l'image,
08:46c'est autre chose.
08:47Donc,
08:47comment on le représente
08:48au cinéma ?
08:49Voilà.
08:50Évidemment,
08:50il y a aussi ce sujet
08:51d'addiction.
08:51Finalement,
08:52on va voir que des personnages
08:53qui ont envie d'être addictifs,
08:54ça ressemble aux réseaux sociaux,
08:56aux doomscrolling,
08:56c'était déjà un peu tentant.
08:58Et puis,
08:59on a envie de se faire peur.
09:00Et on a envie de se faire peur.
09:01Et le quatrième élément
09:02qui est intéressant,
09:02c'est un sujet d'éthique
09:03et de responsabilité,
09:04c'est finalement,
09:05si ces technologies
09:06tombaient dans des mauvaises mains,
09:08que se passerait-il ?
09:08Donc,
09:08ça reflète ces angoisses-là,
09:10là où aujourd'hui,
09:11des technologies
09:12et des vrais use cases,
09:13ce qu'on va voir
09:15juste après.
09:16Bon,
09:16justement,
09:17on va reprendre un instant.
09:17Justine,
09:18j'ai retrouvé Jeff Bezos,
09:19soutenu par Bill Gates
09:20et d'autres investisseurs.
09:21Le projet s'appelle Synchron,
09:23une startup qui développe
09:24un implant cérébral.
09:25C'est celui dont je parlais,
09:26donc c'est Synchron,
09:27c'est Saint-Otron,
09:28exactement.
09:28C'est celui dont je parlais
09:29qui vient cathéter au sanguin,
09:30exactement,
09:30c'est celui-là.
09:31Merci Xavier.
09:32Tu restes avec nous
09:32parce qu'on va passer
09:33du cinéma
09:35à la réalité,
09:36quelque part,
09:37tout de suite
09:37avec notre invité suivant.
09:45Voilà,
09:46toujours avec nous,
09:46Xavier Perret,
09:47directeur des plateformes
09:47DataIA
09:48chez Microsoft Europe
09:49et qui là reprend
09:50sa casquette Microsoft.
09:52On a parlé ciné
09:53il y a un instant
09:53avec tous ses films,
09:54encore une fois.
09:55Si vous n'avez pas eu le temps
09:56de tout noter,
09:56réécoutez-nous
09:57en podcast,
09:57en replay
09:58pour noter
09:59parce qu'il y a plusieurs
09:59des films,
10:00ça donne envie
10:00de les revoir
10:01tout d'un coup.
10:02Et avec nous,
10:02Olivier Locufier.
10:03Bonsoir Olivier.
10:05Bonsoir.
10:05Fondateur de Apps
10:06avec un H
10:07parce que c'est
10:08Human Augmented Brain System.
10:09Voilà,
10:10vous faites 2 millions d'euros
10:10de chiffre d'affaires
10:11en 2025,
10:12projection à 12 millions d'euros
10:13en 2026,
10:14ça veut dire que
10:15c'est important.
10:16Donc on comprend
10:16pourquoi Microsoft
10:17s'est un peu intéressé à vous
10:18en se disant
10:18tiens,
10:19il y a peut-être
10:19quelque chose à faire.
10:21Levé de fonds
10:21prévus en 2026,
10:23racontez-nous
10:23ce que vous faites
10:24autour de l'IA,
10:26une technologie dite,
10:27alors on ne l'a pas cité
10:28dans la chronique de Gavé,
10:29de Neuro-IA,
10:30c'est ça ?
10:31Oui,
10:32en fait,
10:32on développe
10:32une intelligence artificielle
10:33qui nous permet
10:35à la base,
10:36on décrypte
10:37les ondes cérébrales,
10:38donc on a plusieurs algorithmes
10:39qui nous permettent
10:40de décrypter les ondes.
10:41On a fait quelques découvertes
10:42scientifiques qui nous permettent
10:43On est que c'est
10:43la partie logicielle,
10:44vous appuyez sur des capteurs
10:45mais qui ne sont pas
10:46forcément faits par vous,
10:47c'est ça ?
10:47en fait,
10:47nous on est vraiment
10:48éditeurs de logiciels
10:53lutter les ondes
10:54avec des algorithmes,
10:55on décrypte notamment
10:56où ça peut être la douleur,
10:57ça peut être faire
10:59de l'authentification forte
11:00par les ondes cérébrales
11:01ou générer des clés de chiffrement,
11:02aussi comprendre
11:03les émotions humaines,
11:04comprendre les intentions,
11:05en fait,
11:06avec nos systèmes,
11:07on est capable
11:07de décrypter énormément
11:08d'éléments.
11:09Juste pour comprendre
11:10l'entraînement,
11:11vous avez demandé à quelqu'un
11:12d'avoir des pensées tristes
11:13et vous allez enregistrer
11:14les ondes cérébrales,
11:15c'est un peu comme ça ?
11:16Oui, c'est un peu ça.
11:17Aussi basique.
11:18On a des protocoles
11:19qui sont brevetés
11:21sur lesquels en fait
11:21les personnes passent chez nous,
11:23ça dure à peu près
11:24une heure,
11:24une heure et demie,
11:25dans laquelle elles vont être
11:26soumises à énormément
11:27d'éléments
11:29pour calibrer l'intégralité
11:30de leurs émotions.
11:31Donc,
11:31les émotions tristes,
11:32les émotions joyeuses,
11:33mais aussi toutes les interactions
11:35cognitives et les interactions
11:37liées à leur niveau d'attention.
11:38Et en fait,
11:39tous ces éléments-là
11:39sont ensuite clusterisés
11:41et soumis à des stimuli.
11:42En fait,
11:43après on va comparer
11:44lorsque la personne
11:45est soumise à ce stimuli,
11:46comment son clone virtuel
11:47va réagir face à elle
11:49pour vérifier que le cluster cérébral
11:51réagit correctement
11:52et ensuite le cluster cérébral
11:54est incorporé
11:55dans notre intelligence artificielle
11:56pour être exploité
11:57et utilisé.
11:58Alors après,
11:59comment ça se passe ?
12:00C'est-à-dire que justement
12:01avec les...
12:02Est-ce que vous avez un exemple ?
12:03Parce que je crois
12:03que vous travaillez déjà
12:04puisque vous faites
12:04des chiffres d'affaires,
12:05vous travaillez déjà
12:06dans le luxe,
12:07avec un leader de l'optique,
12:09un spécialiste de l'audition.
12:11Bon,
12:11on comprend que c'est une IA
12:12qui doit un peu réagir
12:13comme un humain,
12:14mais donnez-nous un exemple
12:15très concret d'application.
12:16Alors dans les exemples,
12:17si on parle par exemple
12:18des émotions,
12:19ça peut être...
12:19Vous pouvez directement
12:21poster une publicité
12:22dans le système
12:22et avoir l'avis
12:23de tous les clusters cérébraux
12:25qui ont été enregistrés.
12:26Donc si vous postez par exemple
12:27un livre,
12:28vous postez une publicité
12:29ou un film
12:29ou une émission de télé
12:30ou un teaser,
12:31automatiquement vous aurez
12:32le résultat,
12:33savoir est-ce que l'attention
12:35était bonne,
12:35est-ce que c'était...
12:37Les gens ont été vraiment
12:38émus par telle scène,
12:39à quel moment
12:40il y a une perte d'attention.
12:41L'IA aura enregistré
12:42avec des vrais humains,
12:43voilà,
12:43ce sera entraîné là-dessus.
12:45On va montrer ça à cette IA
12:46et à travers tout ce qu'elle a eu
12:49comme entraînement,
12:49elle va réussir à dire
12:51voilà, tiens je suis émue
12:51tristement, joyeusement.
12:53Exactement.
12:53Et en fait, jouer,
12:54donc ça peut être aussi bien
12:55pour l'envoi d'un film,
12:57l'envoi d'un livre
12:58et donc les IA peuvent lire
12:59en fait directement le livre
13:00et donner leur niveau
13:01de compréhension,
13:02leur niveau d'attention
13:03et de réception.
13:04Ça marche aussi bien
13:05sur les musiques,
13:06ça marche un petit peu sur tout.
13:07Donc cette IA-là permet
13:08en fait de pouvoir gérer
13:09énormément de cas d'usage,
13:11forcément dans l'industrie du luxe,
13:12ça les intéresse énormément
13:13de pouvoir faire
13:14des tests consommateurs
13:15mais en permanence.
13:16Donc de pouvoir tester
13:17que ce soit sur l'odorat
13:18de la parfum
13:18ou sur le visuel
13:20de choix du légérie
13:21ou n'importe quoi,
13:22d'avoir immédiatement
13:23un feedback.
13:25On enregistre,
13:25nous à peu près,
13:26on vise 300 000 personnes
13:27enregistrées mondialement
13:28dans notre système
13:29à fin 2028.
13:30Donc mondialement.
13:31Là c'est des gens,
13:32c'est des volontaires
13:33qui viennent s'entraîner.
13:34C'est des volontaires
13:34qui viennent passer
13:35les enregistrements
13:36qui sont directement clusterisés
13:38et en fait,
13:39notre objectif ensuite,
13:40c'est de pouvoir avoir
13:41un avis mondial
13:42en fait sur des éléments,
13:43sur si je veux sortir
13:44un produit,
13:45que ce soit un site internet
13:46ou une interface
13:47ou une publicité,
13:49avoir un avis immédiat
13:50de l'intégralité
13:51des clusters.
13:52Juste pour vous dire,
13:53sur quel type de capteur
13:54vous vous appuyez ?
13:55Donc j'imagine
13:55les capteurs cérébraux ?
13:57Oui, on fait de l'IA
13:59multimodale,
13:59multibiométrique,
14:00donc on capte
14:01les données cérébrales
14:02mais aussi
14:02ice tracking,
14:03pupillométrie,
14:04battement cardiaque.
14:05Et là c'est des partenaires,
14:06on précise bien
14:06que vous êtes vraiment
14:07d'un parti logiciel.
14:09On est éditeur de logiciel.
14:11Pour essayer de comprendre
14:12dans cet univers de l'IA,
14:13vous vous situez un peu
14:14entre le monde du...
14:16Parce que je le disais,
14:17le but c'est d'une IA
14:18qui réagira comme un humain
14:19parce qu'elle voit,
14:20parce qu'elle ressent.
14:22Comment on se situe
14:23par rapport au modèle LM
14:24et au mode...
14:26Oui, les world models
14:27comme la start-up Amilabs
14:29que...
14:29Exactement.
14:30En fait,
14:31HBS est un peu
14:32un stack
14:33de l'intelligence artificielle.
14:34En fait, pour nous,
14:35aujourd'hui,
14:35on a développé un système,
14:36d'ailleurs justement,
14:37on travaille là-dessus
14:38avec Microsoft
14:38pour pouvoir directement
14:40permettre au LLM
14:41de se connecter à l'humain
14:42et donc de pouvoir
14:44avoir ces informations
14:45supplémentaires.
14:45Aujourd'hui,
14:46c'est ce qui manque
14:46un peu à un LLM,
14:47c'est-à-dire qu'il se base
14:48sur les réflexions
14:50sémantiques des éléments
14:51alors que nous,
14:52on lui apporte justement
14:52la cognition,
14:53l'attention
14:53et les émotions humaines
14:55afin de pouvoir
14:56jouer d'empathie.
14:57Si on prend par exemple
14:58dans le futur
14:58des robots
14:59qui viendraient
14:59à discuter avec vous,
15:01si le robot peut avoir
15:02accès en fait
15:02en instantané
15:03à l'intégralité
15:04de vos émotions,
15:05de votre compréhension
15:06et de votre cognition,
15:07il pourra avoir
15:08un l'air un peu plus humain
15:10en faisant preuve d'empathie.
15:11On travaille notamment
15:12dans certains CHU
15:14où là,
15:14l'objectif pour nous,
15:15c'est sur des robots
15:16donc justement
15:16qui parleraient
15:17avec des enfants,
15:18permettre au robot
15:19d'être connecté directement
15:21aux informations cérébrales
15:22de l'enfant
15:23afin d'échanger avec lui
15:24de manière...
15:25Il faut mieux comprendre
15:25dans quel état d'esprit
15:26il est.
15:27On comprend là,
15:29sur tout cet aspect
15:30IA,
15:30IA émotionnel,
15:32l'intérêt d'un Microsoft
15:33à travers
15:35toutes les briques logicielles
15:36que présente Microsoft.
15:38Moi,
15:38il y a un truc,
15:38je trouve tout ça,
15:40ça va être intégré
15:41dans Copilot
15:41ce genre de choses ?
15:42On verra,
15:43effectivement.
15:45Quand on regarde
15:46la posture...
15:47Comment on fait ce lien
15:47entre ce que fait Microsoft
15:49et là,
15:49ce que fait...
15:49En fait,
15:50il y a trois éléments
15:50qu'il faut comprendre.
15:51La première,
15:51c'est évidemment,
15:52on utilise les technologies
15:53de jeu Microsoft
15:54pour développer
15:55un certain nombre
15:56de nouveaux use cases.
15:57Là,
15:57c'est le cas.
15:58La deuxième,
15:58c'est qu'on est dans notre rôle
16:00d'accompagner les startups
16:01et des développés,
16:02en partie les françaises.
16:03On a un gros écosystème.
16:04On est assez fiers
16:05pour pouvoir développer
16:06sur un champ
16:06qui est celui-là en plus
16:07qui est,
16:07on l'a vu,
16:08assez intéressant.
16:10Puis,
16:10trois éléments
16:10pour répondre à ta question.
16:12Évidemment,
16:13on a une posture multimodèle
16:15si on regarde bien
16:15ce qui s'est passé.
16:16Évidemment,
16:16on avait des partenaires
16:17privilégiés toujours,
16:18on peut néaille,
16:19on en a d'autres.
16:19On travaille aussi
16:20avec Mistral,
16:20avec tous les modèles
16:21et on voit plein de modèles
16:22spécialisés
16:23qui viennent apporter
16:23de la valeur.
16:24On pourrait voir
16:24des modèles tabulaires,
16:25par exemple,
16:26c'est encore un autre champ
16:26pour la prédiction.
16:28Et là,
16:29c'est un des modèles
16:30pour le mettre
16:30soit à la disposition
16:31effectivement de nos clients
16:33et c'est ça aussi
16:34qu'on travaille
16:34dans le côté
16:35comment on va aider
16:35à développer apps
16:37sur le marché
16:37puisque les marques de luxe
16:39sont aussi nos clients
16:40donc intégrés
16:40dans l'univers d'Azure.
16:42Finalement,
16:43c'est un univers de sécurité
16:44qui correspond
16:44à travers les technologies.
16:45Évidemment,
16:46complètement,
16:46dans la marketplace
16:50éventuellement,
16:50selon l'intérêt
16:51dans nos propres services
16:52et nos propres produits services.
16:53Je parlais de co-pilot
16:54parce que du coup,
16:55je le vois bien
16:56devant mon écran
16:58avec la compréhension
17:00un peu de mes émotions
17:00et de dire
17:01tiens,
17:01il y a besoin de calculer,
17:02on va l'envoyer tout de suite
17:03sur Excel.
17:04Je vulgarise un peu
17:05mais c'est un peu ça.
17:07C'est un peu l'idée.
17:08C'est même,
17:08par exemple,
17:08vous êtes en train
17:09de faire une présentation
17:10en PowerPoint
17:10et vous pouvez questionner
17:12l'intégralité
17:12des clusters cérébraux
17:13pour savoir
17:14s'ils comprennent
17:15la présentation
17:15ou s'il y a des choses
17:17à changer.
17:17Oui,
17:17donc tous les outils
17:18de développement
17:19du coup,
17:19parce qu'on voit
17:20l'intérêt aussi
17:20sur le code.
17:21Il y a tout un champ
17:22encore à imaginer
17:23j'allais dire
17:23en termes de cas.
17:24Ce qui est intéressant
17:25c'est qu'il y a déjà
17:25des cas d'école
17:26qui expliquaient Olivier
17:27et qui existent déjà
17:28donc ça permet
17:28de développer la société.
17:29Je pense qu'avec
17:30le périmètre mondial
17:31de Microsoft
17:32on peut aider aussi
17:33évidemment à développer
17:34la start-up
17:34et l'accompagner
17:35encore une fois
17:35pour la porter
17:36dans un univers de sécurité
17:37on voit bien qu'il y a
17:37des données aussi
17:38un peu sensibles
17:38potentiellement
17:39et puis le troisième
17:47qu'est-ce qu'on peut
17:48expliquer derrière ça ?
17:49Alors notre objectif
17:50c'est de fournir
17:51une solution d'authentification
17:52alors à la différence
17:53moi je viens un peu
17:54du monde de la cybersécurité
17:55j'ai travaillé
17:56notamment beaucoup
17:57en emprunt
17:58tiris
17:58reconnaissance faciale
17:59on ne voulait pas
18:00faire de l'authentification
18:01en se basant
18:01sur un template
18:02c'est-à-dire que pour nous
18:03prendre les ondes cérébrales
18:04et en faire un template
18:05biométrique
18:06nous semblait extrêmement
18:07dangereux
18:07au point de vue de l'éthique
18:08donc on fonctionne
18:09plutôt sur un système
18:10on a un brevet là-dessus
18:11sur un challenge response
18:13lié au pensée
18:13c'est-à-dire qu'en fait
18:14on va vous faire penser
18:15à un élément
18:16et ensuite
18:16deux trois secondes après
18:17on vous fait penser
18:17à un autre élément
18:18et c'est l'unicité
18:19qui est derrière
18:20votre niveau de pensée
18:22qui est décrypté
18:22et qui fait l'authentification
18:24En amont pour faire
18:26parce que j'ai bien compris
18:26la partie logicielle
18:27les capteurs
18:28avec les capteurs
18:29mais ça veut dire
18:30qu'en amont
18:30pour justement
18:31interroger
18:33décrypter un peu
18:34les émotions
18:35des gens qui viennent
18:36entraîner cette IA
18:37j'imagine
18:38c'est tout un process
18:39qui a été travaillé
18:39avec des spécialistes
18:41de la neurosciences
18:41bien sûr
18:42on a neuf
18:43docteurs chez nous
18:44qui sont spécialisés
18:45en neurosciences
18:45et en intelligence artificielle
18:46et toute une équipe
18:48on a un gros partenariat
18:49avec l'université
18:50de Paris-Saclay
18:50et qui nous permet
18:51justement de bien avancer
18:52sur tous ces sujets
18:53et bien merci
18:54d'être venu
18:55nous parler de tout ça
18:55merci Xavier
18:56de nous avoir présenté
18:57Habs
18:58avec un H
18:59Human Augmented
19:00Brain System
19:00Olivier Lecuffier
19:01qui est le fondateur
19:02de Habs
19:03donc cette
19:04on parle d'IA
19:05émotionnelle
19:06et tout ça
19:06c'est vraiment passionnant
19:07vers où on va
19:07et merci encore
19:08Xavier Perret
19:09directeur des plateformes
19:10DataIA
19:11Microsoft Europe
19:11avec sa casquette Microsoft
19:12et sa casquette
19:13de tech et ciné
19:14parce qu'on a envie
19:14de revoir beaucoup de films
19:16dont tu nous as parlé ce soir
19:17et qu'on a envie de faire
Commentaires