Passer au playerPasser au contenu principal
  • il y a 1 semaine
Un outil capable de découpler votre conversation avec une IA de son cerveau, tout en stockant vos données localement et en vous permettant de choisir librement votre modèle d’intelligence artificielle. C’est ce que propose OpenClaw, un agent open source développé par l’Autrichien Peter Steinberger, qui promet de réinventer notre rapport à l’IA en combinant souveraineté numérique, automatisation des tâches quotidiennes et respect de la vie privée. Une innovation majeure, saluée jusqu’en Chine, qui pourrait bien changer la donne face aux géants américains.

Catégorie

🗞
News
Transcription
00:06Comme promis, on termine cette édition avec notre rendez-vous avec le monde du libre et en invité
00:10Jean-Paul Smets, PDG de Rapid Space. Bonjour Jean-Paul. Bonjour. On va s'intéresser aux agents
00:15IA, en particulier à OpenCloud, mais peut-être démarrer par qu'est-ce qu'un agent IA ? En fait,
00:19c'est le découplage entre le moteur conversationnel, en gros le moteur du chat,
00:23et le grand modèle de langage. Donc, en temps normal, ce qu'on connaît quand on va par exemple
00:30sur un site web chez, par exemple, Gemini de Google et qu'on tape une question où se trouve la
00:36place du
00:36colonel Fabien. En fait, la question va aller dans un moteur de chat qui est hébergé chez Google,
00:41qui va ensuite envoyer la question à un grand modèle de langage hébergé chez Google. Retour,
00:48la place du colonel Fabien est à Paris et là, ça s'affiche sur le navigateur web. Et ça,
00:53c'est le mode classique. Et donc, ce que changent les agents, c'est que le moteur de chat, au
01:00lieu
01:00de le mettre chez Google, on va le mettre chez soi, dans son laptop, dans son PC. Et donc,
01:06ça tourne en local. Donc, on va reposer la même question où se trouve la place du colonel Fabien.
01:12Et grâce à un logiciel qui s'appelle OpenCloud, qui a été fait par Peter Steinberger, qui avant a fait
01:18PSPDFTK, donc non imprononçable, mais ça se trouve dans tous les moteurs de PDF, DocuSign,
01:22Louvetansa partout. Il avait déjà vendu son entreprise plusieurs centaines de millions d'euros. Là,
01:28il a créé OpenCloud. On pose la question. Elle reste en mémoire dans votre portable. On envoie la
01:34question au grand modèle de langage de Google qui répond où est la place du colonel Fabien à Paris.
01:39Sur l'image, on ne voit pas que le grand modèle de langage de Google. On voit Gemini, on voit
01:42DeepSync.
01:42C'est ce cas qui est bien aussi. C'est-à-dire, on peut décider, ah bah tiens là, je
01:45ne vais pas l'envoyer à Google, mais à DeepSync ou à
01:48n'importe qui. Et la réponse arrive et elle est stockée localement dans l'ordinateur portable. Ce qui fait qu
01:53'en fait, tout l'historique de l'IA est stocké en local. Et dans les modèles en fait récents d
02:00'IA,
02:00le fait d'avoir gardé tout l'historique et de connaître qui est l'utilisateur devient au moins aussi important
02:07que le modèle lui-même. Et c'est une grande évolution aujourd'hui de l'IA.
02:11Mais quand on parle d'agent IA, en fait, ça laisse surtout entendre une automatisation des tâches.
02:18Oui. Et en fait, c'est pour ça qu'on a une notion qui s'appelle les compétences, skills, que
02:25l'on met justement dans son open-clos localement.
02:28Alors, pour comprendre ce que c'est, si par exemple, on demande à DeepSync tout seul, enfermé dans son coin,
02:33quelle heure est-il ?
02:34Il va répondre, je n'ai pas de moyens d'accéder à l'heure. Donc, on va créer une compétence
02:39pour accéder à l'heure.
02:40Tu tapes la commande date dans le shell. Donc, c'est une commande Unix ou qu'il y a sur
02:47les Mac. Et cette compétence ne va pas être mise chez DeepSync ou chez Gemini,
02:51mais dans open-clos. Et la fois suivante, quand on pose la question, quelle heure est-il ? On va
02:55dire, quelle heure est-il ? Et d'ailleurs, si jamais tu as besoin de connaître l'heure,
02:57j'ai une compétence, moi, j'ai trouvé l'heure. Là, DeepSync dit, tu pourrais utiliser, s'il te plaît,
03:03ta compétence pour me dire l'heure ?
03:04OK, ça revient dans open-clos. Open-clos repose la question, quelle heure est-il ? D'ailleurs, j'ai
03:09utilisé ma compétence, quelle heure est-il ?
03:11Il est 0h48. Et là, le modèle de langage est capable de produire une phrase, il est 0h48.
03:18Donc, en fait, le modèle de langage produit la phrase, mais la compétence qui tourne localement produit l'information
03:25qui aide le modèle de langage à répondre aux questions.
03:28Heureusement que ce n'est pas aussi long dans le processus.
03:31Oui, mais là, au moins, on comprend comment ça marche. Et donc, ce qui est bien, c'est qu'on
03:36peut rajouter des compétences.
03:37Si on rajoute, par exemple, la compétence connaître l'agenda de celui qui pose des questions,
03:41« Quel est mon prochain rendez-vous ? » Ma chronique sur le monde du libre.
03:45Ou si on met une compétence pour connecter open-clos à l'ERP de l'entreprise,
03:50« Quelles sont les dernières ventes et combien j'ai gagné d'argent ? »
03:53La réponse, tes dernières ventes sont avec Orange, Thalès, n'importe qui,
03:58et tu as fait 25 millions d'euros en deux semaines.
04:01Ou encore, on peut faire faire des choses.
04:04Est-ce que tu ne voudrais pas acheter des ordinateurs portables pour nos stagiaires
04:06et leur envoyer un mail quand ils l'ont reçu ?
04:09Et là, à chaque fois, c'est comme si on programmait en langage naturel,
04:12autour d'open-clos, un certain nombre de choses
04:15qui vont être exécutées grâce à la compétence, en termes de langage,
04:19du grand modèle de langage.
04:20Au moins, on comprend comment ça marche et à quoi ça sert.
04:23Oui.
04:23Est-ce que open-clos est bien positionné sur le marché des agents ?
04:27C'est le numéro un, maintenant.
04:29Il a été en quelque sorte acheté, d'une certaine manière, par OpenAI.
04:33C'est le nouveau logiciel libre de référence européen.
04:36Ça reste libre ?
04:37Oui, toujours.
04:39Ça reste un agent.
04:39Et il faut savoir aussi qu'on peut demander à OpenCloud,
04:42à Claude ou aux autres, de vous écrire un agent.
04:44Parce qu'en fait, c'est très facile d'écrire un agent.
04:46On en a nous-mêmes écrit, ça prend quelques semaines.
04:49Et les agents permettent d'écrire des agents qui permettent d'écrire des agents.
04:52Là, tu rentres de la conférence sur l'IA à Berlin.
04:56Ça faisait partie des sujets ?
04:57Ah, c'était le sujet majeur.
04:59Donc, il y en avait un qui était dire, utilisez Mistral.
05:02En tout cas, arrêtez d'utiliser Claude, Anthropic, OpenAI.
05:06Utilisez plutôt les modèles chinois, parce qu'au moins, vous les faites tourner en local.
05:09Ça ne va pas renseigner les Américains ou personne, parce que ça tourne en local.
05:13Mais ce qu'il disait aussi, c'est que c'est très important d'avoir des environnements interopérables d'exécution
05:18d'agents
05:18et de s'intéresser aux algorithmes qu'il y a derrière les agents.
05:21Et donc, on avait peut-être les trois quarts des acteurs qui allaient dans ce sens-là.
05:27Merci beaucoup, Jean-Paul Smesse, de venir nous éclairer régulièrement sur ce qui se passe dans le monde du libre
05:32et de nous avoir plus précisément expliqué à quoi sert cette OpenClo.
05:37Allez, merci à tous de nous avoir suivis.
05:38C'est la fin de Smartech.
05:40C'était la grande interview de l'IA.
05:43Aujourd'hui, beaucoup de sujets autour de l'éthique.
05:44Et on se retrouve pas plus tard que jeudi prochain.
05:47On sera en direct à 10h45 sur la chaîne Bismarck pour le grand débrief de l'actu.

Recommandations