00:06Comme promis, on termine cette édition avec notre rendez-vous avec le monde du libre et en invité
00:10Jean-Paul Smets, PDG de Rapid Space. Bonjour Jean-Paul. Bonjour. On va s'intéresser aux agents
00:15IA, en particulier à OpenCloud, mais peut-être démarrer par qu'est-ce qu'un agent IA ? En fait,
00:19c'est le découplage entre le moteur conversationnel, en gros le moteur du chat,
00:23et le grand modèle de langage. Donc, en temps normal, ce qu'on connaît quand on va par exemple
00:30sur un site web chez, par exemple, Gemini de Google et qu'on tape une question où se trouve la
00:36place du
00:36colonel Fabien. En fait, la question va aller dans un moteur de chat qui est hébergé chez Google,
00:41qui va ensuite envoyer la question à un grand modèle de langage hébergé chez Google. Retour,
00:48la place du colonel Fabien est à Paris et là, ça s'affiche sur le navigateur web. Et ça,
00:53c'est le mode classique. Et donc, ce que changent les agents, c'est que le moteur de chat, au
01:00lieu
01:00de le mettre chez Google, on va le mettre chez soi, dans son laptop, dans son PC. Et donc,
01:06ça tourne en local. Donc, on va reposer la même question où se trouve la place du colonel Fabien.
01:12Et grâce à un logiciel qui s'appelle OpenCloud, qui a été fait par Peter Steinberger, qui avant a fait
01:18PSPDFTK, donc non imprononçable, mais ça se trouve dans tous les moteurs de PDF, DocuSign,
01:22Louvetansa partout. Il avait déjà vendu son entreprise plusieurs centaines de millions d'euros. Là,
01:28il a créé OpenCloud. On pose la question. Elle reste en mémoire dans votre portable. On envoie la
01:34question au grand modèle de langage de Google qui répond où est la place du colonel Fabien à Paris.
01:39Sur l'image, on ne voit pas que le grand modèle de langage de Google. On voit Gemini, on voit
01:42DeepSync.
01:42C'est ce cas qui est bien aussi. C'est-à-dire, on peut décider, ah bah tiens là, je
01:45ne vais pas l'envoyer à Google, mais à DeepSync ou à
01:48n'importe qui. Et la réponse arrive et elle est stockée localement dans l'ordinateur portable. Ce qui fait qu
01:53'en fait, tout l'historique de l'IA est stocké en local. Et dans les modèles en fait récents d
02:00'IA,
02:00le fait d'avoir gardé tout l'historique et de connaître qui est l'utilisateur devient au moins aussi important
02:07que le modèle lui-même. Et c'est une grande évolution aujourd'hui de l'IA.
02:11Mais quand on parle d'agent IA, en fait, ça laisse surtout entendre une automatisation des tâches.
02:18Oui. Et en fait, c'est pour ça qu'on a une notion qui s'appelle les compétences, skills, que
02:25l'on met justement dans son open-clos localement.
02:28Alors, pour comprendre ce que c'est, si par exemple, on demande à DeepSync tout seul, enfermé dans son coin,
02:33quelle heure est-il ?
02:34Il va répondre, je n'ai pas de moyens d'accéder à l'heure. Donc, on va créer une compétence
02:39pour accéder à l'heure.
02:40Tu tapes la commande date dans le shell. Donc, c'est une commande Unix ou qu'il y a sur
02:47les Mac. Et cette compétence ne va pas être mise chez DeepSync ou chez Gemini,
02:51mais dans open-clos. Et la fois suivante, quand on pose la question, quelle heure est-il ? On va
02:55dire, quelle heure est-il ? Et d'ailleurs, si jamais tu as besoin de connaître l'heure,
02:57j'ai une compétence, moi, j'ai trouvé l'heure. Là, DeepSync dit, tu pourrais utiliser, s'il te plaît,
03:03ta compétence pour me dire l'heure ?
03:04OK, ça revient dans open-clos. Open-clos repose la question, quelle heure est-il ? D'ailleurs, j'ai
03:09utilisé ma compétence, quelle heure est-il ?
03:11Il est 0h48. Et là, le modèle de langage est capable de produire une phrase, il est 0h48.
03:18Donc, en fait, le modèle de langage produit la phrase, mais la compétence qui tourne localement produit l'information
03:25qui aide le modèle de langage à répondre aux questions.
03:28Heureusement que ce n'est pas aussi long dans le processus.
03:31Oui, mais là, au moins, on comprend comment ça marche. Et donc, ce qui est bien, c'est qu'on
03:36peut rajouter des compétences.
03:37Si on rajoute, par exemple, la compétence connaître l'agenda de celui qui pose des questions,
03:41« Quel est mon prochain rendez-vous ? » Ma chronique sur le monde du libre.
03:45Ou si on met une compétence pour connecter open-clos à l'ERP de l'entreprise,
03:50« Quelles sont les dernières ventes et combien j'ai gagné d'argent ? »
03:53La réponse, tes dernières ventes sont avec Orange, Thalès, n'importe qui,
03:58et tu as fait 25 millions d'euros en deux semaines.
04:01Ou encore, on peut faire faire des choses.
04:04Est-ce que tu ne voudrais pas acheter des ordinateurs portables pour nos stagiaires
04:06et leur envoyer un mail quand ils l'ont reçu ?
04:09Et là, à chaque fois, c'est comme si on programmait en langage naturel,
04:12autour d'open-clos, un certain nombre de choses
04:15qui vont être exécutées grâce à la compétence, en termes de langage,
04:19du grand modèle de langage.
04:20Au moins, on comprend comment ça marche et à quoi ça sert.
04:23Oui.
04:23Est-ce que open-clos est bien positionné sur le marché des agents ?
04:27C'est le numéro un, maintenant.
04:29Il a été en quelque sorte acheté, d'une certaine manière, par OpenAI.
04:33C'est le nouveau logiciel libre de référence européen.
04:36Ça reste libre ?
04:37Oui, toujours.
04:39Ça reste un agent.
04:39Et il faut savoir aussi qu'on peut demander à OpenCloud,
04:42à Claude ou aux autres, de vous écrire un agent.
04:44Parce qu'en fait, c'est très facile d'écrire un agent.
04:46On en a nous-mêmes écrit, ça prend quelques semaines.
04:49Et les agents permettent d'écrire des agents qui permettent d'écrire des agents.
04:52Là, tu rentres de la conférence sur l'IA à Berlin.
04:56Ça faisait partie des sujets ?
04:57Ah, c'était le sujet majeur.
04:59Donc, il y en avait un qui était dire, utilisez Mistral.
05:02En tout cas, arrêtez d'utiliser Claude, Anthropic, OpenAI.
05:06Utilisez plutôt les modèles chinois, parce qu'au moins, vous les faites tourner en local.
05:09Ça ne va pas renseigner les Américains ou personne, parce que ça tourne en local.
05:13Mais ce qu'il disait aussi, c'est que c'est très important d'avoir des environnements interopérables d'exécution
05:18d'agents
05:18et de s'intéresser aux algorithmes qu'il y a derrière les agents.
05:21Et donc, on avait peut-être les trois quarts des acteurs qui allaient dans ce sens-là.
05:27Merci beaucoup, Jean-Paul Smesse, de venir nous éclairer régulièrement sur ce qui se passe dans le monde du libre
05:32et de nous avoir plus précisément expliqué à quoi sert cette OpenClo.
05:37Allez, merci à tous de nous avoir suivis.
05:38C'est la fin de Smartech.
05:40C'était la grande interview de l'IA.
05:43Aujourd'hui, beaucoup de sujets autour de l'éthique.
05:44Et on se retrouve pas plus tard que jeudi prochain.
05:47On sera en direct à 10h45 sur la chaîne Bismarck pour le grand débrief de l'actu.