Passer au playerPasser au contenu principal
  • il y a 3 heures
Avec Thierry Berthier et Adrien Merveille, Smart Cyber analyse comment l’essor de la robotique humanoïde et des IA embarquées expose les robots civils et militaires à de nouvelles attaques, pourquoi ces vulnérabilités deviennent stratégiques pour la souveraineté technologique européenne, et comment les approches Zero Trust, la consolidation des outils et la résilience permettent d’y répondre.

Catégorie

🗞
News
Transcription
00:00On parle de ces nouveaux risques cyber que posent les robots.
00:08On en parle avec Thierry Berthier qui est connecté avec nous,
00:11maître de conférences en mathématiques,
00:13il enseigne le machine learning à l'université,
00:15dans un département informatique,
00:17également conseil scientifique dans plusieurs start-up de robotique terrestre et aérienne.
00:21Bonjour Thierry, on a parlé ensemble de l'imminence de l'arrivée de ces humanoïdes,
00:26et du fait qu'il faut vraiment qu'on accélère dans ce domaine, nous, au niveau européen.
00:31On va ensemble s'intéresser quand même aux défis cyber que ça pose.
00:35Et on va en parler avec Adrien Merveille.
00:37Merci beaucoup Adrien d'être en studio avec moi.
00:40Directeur technique France chez Checkpoint,
00:42c'est à la tête d'une vingtaine d'experts dédiés à l'accélération des projets cyber de plusieurs organisations.
00:49Alors, je voulais déjà poser une question peut-être à Thierry,
00:51mais Adrien aussi, vous pouvez réagir.
00:53On en est où aujourd'hui de l'état de l'art en matière de robotique autonome,
00:59dans le domaine civil mais aussi militaire ?
01:04Alors, c'est un domaine qui est très dynamique,
01:07avec une double attractivité à la fois civile et militaire.
01:13La guerre aux portes de l'Europe, évidemment, entraîne le domaine,
01:19que ce soit sur les drones aériens, les robots terrestres.
01:22Il y a beaucoup de développement en boucle très courte.
01:25Et donc, c'est un domaine qui va très vite,
01:28avec de l'innovation toutes les semaines, quasiment.
01:30L'unité d'innovation, c'est la semaine aujourd'hui.
01:33Ah oui.
01:34Et donc, les choses évoluent très vite.
01:36Et avec l'emploi des robots,
01:38toutes les questions et les défis collatéraux qui interviennent.
01:43Peut-être un exemple, puisque c'est une nouveauté toutes les semaines,
01:45la dernière semaine.
01:47Qu'est-ce qui s'est passé ?
01:48Qu'est-ce que vous avez vu ?
01:49Alors, ce sont des choses, si on veut parler des choses françaises,
01:55il y a une société française qui a présenté son drone,
01:57pas plus tard qu'il y a 48 heures,
02:00un drone intercepteur qui va être utilisé dans la lutte anti-drone,
02:04notamment en Ukraine,
02:05pour intercepter les drones chalides russes.
02:09Et donc, il s'agit d'un drone français, 100%,
02:12qui va très vite, qui vole à 700 km heure,
02:15qui est un drone intercepteur,
02:16et qui est muni d'un micro-réacteur.
02:20C'est comme un réacteur de rafale, mais en miniaturisé.
02:23Et donc, ça, c'est une vraie innovation.
02:25Il n'y en a que deux dans le monde qui existent.
02:27Un aux États-Unis, développé par Enduril Industrie,
02:30et puis un en France, développé par deux sociétés françaises.
02:34Bon, ça veut dire qu'on peut être fier, quand même,
02:35de notre niveau technologique.
02:37Exactement.
02:38Exactement.
02:39En tout cas, sur ce point-là.
02:40Il est complètement autonome ?
02:43Alors, il est à 700 km heure.
02:45Dans vitesse max, il vaut mieux qu'il ait de l'autonomie,
02:47parce qu'un opérateur humain ne peut pas le piloter à 700.
02:50Il peut le piloter jusqu'à 300-400 km heure.
02:54Mais dès que les vitesses dépassent ce seuil-là,
02:57il faut avoir un autopilote pour pouvoir le guider,
03:00par exemple, jusqu'au drone hostile qui va aller intercepter.
03:04D'accord.
03:04Donc, il y a de l'humain au lancement et à l'atterrissage.
03:09C'est ça.
03:10Et après, sur le guidage terminal, il faut du logiciel,
03:12il faut du computer vision, il faut de l'optique,
03:16il faut des capteurs, des senseurs.
03:18C'est un système complet, en fait.
03:21Adrien, qu'est-ce que vous voyez aujourd'hui
03:23en matière de robotique dans l'industrie ?
03:27Est-ce qu'il y a vraiment une utilisation,
03:29qu'on peut dire aujourd'hui massive,
03:32des robots de plus en plus autonomes ?
03:34Alors, c'est un sujet pour lequel je ne travaille pas spécialement.
03:37Nous, ce qu'on voit, c'est principalement les sujets
03:39autour de l'intelligence artificielle.
03:41Et j'imagine que quand on a un drone qui va à cette vitesse-là,
03:44mécaniquement, il va y avoir, si ce n'est pas déjà le cas,
03:48il va y avoir des moteurs d'intelligence artificielle
03:50qui viennent optimiser peut-être le pilotage
03:54ou le succès dans ce cas-là, l'interception de certains drones.
04:01Et donc, si on vient à connecter certains systèmes à des outils d'IA
04:06et qui viennent se connecter à des réseaux,
04:08eh bien, pour nous, ça représente un vecteur d'attaque.
04:11C'est, je pense, une révolution qu'on est en train de vivre,
04:13mais ce n'est pas la première,
04:15et c'est loin d'être catastrophique, si je puis dire.
04:17On l'a vécu avec l'IoT, l'usine 4.0.
04:21Là aussi, on a des équipements d'usines
04:23qui, historiquement, ont été pilotés localement et indépendants
04:27qui viennent se connecter à un réseau
04:29et donc qui viennent, pour un hacker,
04:32être une nouvelle cible
04:33et, du coup, une nouvelle surface d'attaque de l'entreprise.
04:36C'est le cas avec les usines,
04:37c'est le cas avec la domotique chez nous.
04:38Je pense qu'on est tous concernés par des outils.
04:42On parle de robots ici.
04:44Nos équipes de chercheurs ont découvert, il y a quelques années,
04:46une vulnérabilité sur un aspirateur domestique autonome
04:50qui permettait, en fait, simplement d'accéder à la caméra
04:52et de piloter l'aspirateur pour observer avec la caméra ce qui se passe.
04:57Donc, dans un milieu domestique,
05:00ça apporte un certain niveau de risque qui est peut-être modéré,
05:04mais à l'échelle d'un individu,
05:06ça permet de, peut-être, fiabiliser des campagnes de phishing
05:09en maximisant le nombre d'informations
05:11qu'on peut récupérer sur la personne.
05:12Mais à l'échelle d'une entreprise,
05:14il y a peut-être des brevets en danger,
05:16des projets industriels qui vont être copiés avant leur sortie officielle.
05:21Voilà.
05:21Donc, il y a d'autres enjeux qui viennent.
05:23Mais encore une fois, c'est un vecteur d'attaque.
05:25Chaque innovation vient avec son vecteur d'attaque.
05:28Oui, mais peut-être plus ou moins,
05:29parce que vous faites référence à l'IoT,
05:32à l'Internet des objets connectés.
05:34Il a fallu attendre longtemps avant de prendre la décision,
05:39notamment au niveau européen,
05:41de sécuriser tous ces objets par défaut.
05:44On en est où avec l'intelligence artificielle ?
05:46Est-ce qu'on est en train de faire la même erreur ?
05:49C'est-à-dire se dire, finalement, on lance, on utilise,
05:51et puis on verra après pour la sécurité ?
05:53Alors, quand on parle de sécurité et de l'intelligence artificielle,
05:56il y a vraiment deux aspects.
05:57Il y a, un, maîtriser un petit peu ce que nos employés font
06:01avec l'intelligence artificielle.
06:03Donc, c'est monsieur et madame Tout-le-Monde
06:04qui utilisent ChatGPT dans le cadre de son métier.
06:08Et parfois, quand on fait ça,
06:10on va mettre dans ces outils-là
06:11des données qui sont propriétaires à l'entreprise
06:13et qui peuvent amener à une fuite de données.
06:15Donc là, on est vraiment à l'échelle individuelle
06:17avec des outils grand public.
06:18L'autre aspect, c'est que je suis une entreprise
06:21et je vais mettre à disposition un service d'IA,
06:23soit pour mes clients, soit pour mes employés, peu importe.
06:26Et là, il y a du développement,
06:28en général basé sur certains outils grand public
06:30qui viennent avec leur lot de sécurité.
06:33Mais c'est comme quand vous achetez une messagerie chez Microsoft.
06:37Est-ce que vous rajoutez un outil de sécurité
06:38en plus de la sécurité qu'il fournit à Microsoft ?
06:40On imagine que c'est sécurisé, en fait.
06:42On imagine que c'est sécurisé.
06:44On peut toujours faire mieux.
06:45Mais aujourd'hui, en fait, la petite subtilité,
06:51c'est que l'IA, en quelques mois,
06:53s'est transformée d'un buzzword
06:55à une réalité pour les entreprises.
06:57Donc il y en a qui l'ont, comme dans toute innovation,
07:00il y en a qui l'anticipent
07:01et qui intègrent la sécurité dans le cycle de vie.
07:05Et puis il y en a qui vont être plus en mode réactif
07:07en se disant, ça y est, c'est déjà chez moi.
07:09Comment je réagis ?
07:10Alors Thierry, cette robotique humanoïde
07:13que vous appelez vos voeux,
07:16elle engage quand même à prendre au sérieux
07:18la question de la sécurité,
07:19à la fois la sécurité physique,
07:21mais aussi la cybersécurité.
07:22Quelles sont les nouvelles menaces
07:24que vous avez identifiées
07:26et sur lesquelles il faut être vraiment en alerte ?
07:29Ce sont un peu les mêmes
07:30qui ont été évoqués tout à l'heure par Adrien
07:31pour l'aspirateur.
07:33Si vous remplacez l'aspirateur
07:34par le robot humanoïde,
07:36vous avez l'équivalent.
07:37Les robots humanoïdes ne sont pas encore arrivés
07:40dans chaque maison française ou européenne,
07:43mais ils arrivent très vite, très rapidement.
07:46On aura chacun entre un et deux robots par foyer.
07:49Et donc...
07:50D'ici à 2030,
07:52selon les prévisions les plus optimistes.
07:55C'est ça.
07:56Après, nous, on n'est pas constructeurs.
07:58On n'a pas de constructeurs en Europe,
08:01mais cette révolution-là,
08:03cette pénétration-là des robots
08:05se fait très rapidement en Asie
08:07va se faire aussi rapidement
08:08sur le continent africain
08:09pour plein de raisons.
08:11Et donc,
08:13quand ces robots seront déployés partout,
08:14au même titre que les aspirateurs,
08:16ils vont offrir des surfaces d'attaque,
08:18parfois simples,
08:20parfois compliquées.
08:21Il y a une course au prix aussi.
08:23Donc, les constructeurs vont être tenus
08:25de faire baisser les prix de revient
08:27et surtout...
08:28Enfin, prix de développement.
08:29Et surtout, souvent,
08:30ça se fait au détriment de la sécurité.
08:32Parce qu'ajouter de la...
08:33Sécuriser un système robotique,
08:35ça coûte de l'argent en plus.
08:37Et donc, vous augmentez
08:38le prix de vente fatalement.
08:40Et ce n'est pas du tout
08:41dans l'ordre des choses
08:43où on a une course
08:44à la décroissance du prix de vente.
08:46Donc, on peut supposer
08:48que la partie cybersécurité,
08:49ce sera celle sur laquelle
08:50on fera...
08:50Les constructeurs feront des économies.
08:54Moi, je trouve ça dingue
08:55d'entendre ça aujourd'hui
08:57parce qu'on sait à quel point
08:59c'est un enjeu crucial,
09:00justement, de redonner de la confiance
09:02dans le numérique,
09:04dans les outils connectés.
09:06Mais quelle est la menace
09:07qui vous préoccupe le plus,
09:10Thierry, avec les robots ?
09:12Alors, sur les robots,
09:13si on parle des robots humanoïdes,
09:15ça dépend si on parle
09:15des robots humanoïdes
09:16ou alors des robots aéroterrestres
09:18qui sont déjà sur le champ de bataille,
09:19par exemple, aujourd'hui.
09:20Là, on peut imaginer
09:21que l'adversaire prenne le contrôle
09:24et retourne ces robots-là
09:26contre leur voyeur.
09:28Donc, ça, c'est déjà ce que,
09:29par exemple, les Russes
09:31ou les Ukrainiens
09:31essaient de faire,
09:32chacun avec les drones
09:33qui sont en train de capter
09:34de l'adversaire.
09:36Donc, ça, c'est la réalité.
09:37Ce n'est pas la science-fiction
09:38qui se passe tous les jours.
09:40Sur le brouillage, pareil.
09:41Sur la récupération,
09:42sur la rétro-ingénierie
09:43des robots, évidemment.
09:44Après, sur un domaine civil,
09:46c'est l'arrivée
09:46de tous ces robots
09:47dans les foyers
09:49et la menace,
09:50c'est que quand vous piratez
09:52un système informatique,
09:54évidemment, vous faites des dommages
09:56de niveau informationnel,
09:58de niveau cyber.
09:59Quand vous piratez un robot
10:00et puis vous en prenez le contrôle,
10:03si le robot fait 1m80
10:04et pèse, je ne sais pas, 70 kg,
10:08ce robot-là,
10:09ça peut devenir une arme
10:10par destination,
10:11c'est-à-dire exactement
10:12comme avec un marteau.
10:14Il utilisait un marteau,
10:15le charpentier utilisait un marteau,
10:16mais si c'est quelqu'un
10:17de malveillant
10:18qui est au bout du marteau,
10:19il peut s'en servir
10:19pour attaquer,
10:20pour faire quoi que ce soit.
10:22Tout ce qu'on peut imaginer
10:23d'action négative
10:27ou violente avec.
10:28C'est ça, le vrai risque.
10:29Que le robot se mette
10:31à déclencher des choses,
10:34à ouvrir le gaz,
10:35à faire...
10:36On peut faire plein de choses
10:37avec un robot aujourd'hui.
10:39Alors, au-delà de juste
10:40choisir un robot
10:41qui pèse moins lourd
10:42que soi-même,
10:43pour se dire que s'il nous attaque,
10:45ça ne se passera pas trop mal
10:46pour nous,
10:47il y a d'autres solutions
10:48qu'on peut mettre en place,
10:49j'imagine,
10:50pour sécuriser ces systèmes
10:51robotisés, Adrien.
10:53Qu'est-ce qu'on a comme arme,
10:54nous aussi, pour s'envéger ?
10:55Je vais essayer d'être
10:56un peu plus optimiste,
10:57mais effectivement,
10:58j'ai réfléchi avant de venir
11:00à quels seraient
11:00les pires scénarios envisageables
11:02et ça m'a fait penser
11:03à un film
11:04qu'il y a une vingtaine d'années
11:06maintenant
11:06qui s'appelait
11:06iRobot avec Will Smith
11:08où il y avait une armée
11:09de robots
11:09ou des robots
11:11qui prenaient un petit peu
11:12leurs indépendances
11:13et c'est vrai que le pire
11:14scénario auquel j'ai pu penser,
11:16c'est...
11:16On a une image de botnet
11:18aujourd'hui en informatique
11:19qui sont des machines
11:20qui vont être prises,
11:22le contrôle va être pris
11:23par des hackers
11:23et qui vont attaquer
11:24en même temps.
11:25Donc, si on fait le parallèle...
11:26Au coin de la planète ?
11:27Exactement.
11:28Mais si on fait le parallèle
11:29avec des robots physiques,
11:30on pourrait voir se profiler
11:33un gang...
11:33Une sorte d'armée de robots.
11:36Il se trouve que...
11:36C'est ça que vous appelez
11:37être optimiste ?
11:38Non, alors, ça c'est le pire.
11:40Mais effectivement,
11:42si on fait un parallèle
11:43avec la masse physique près,
11:46on pourrait faire exactement
11:47la même chose
11:48avec des smartphones
11:49sans les contrôler physiquement,
11:51mais on pourrait contrôler
11:52des armées de bottes
11:53de smartphones
11:53et aujourd'hui,
11:54on n'en voit pas spécialement
11:56de ce type-là.
11:58Donc, il existe effectivement
11:59des protections,
12:01des mécanismes de sécurité.
12:02On parle de zéro trust
12:03beaucoup en cybersécurité.
12:04Alors, c'est une question
12:04que je voulais vous poser.
12:05Est-ce que le zéro trust
12:06est applicable
12:07à la robotique autonome ?
12:09Alors, bien sûr,
12:10parce que...
12:11Alors, il y a l'IA
12:13dans la robotique plutôt.
12:14Quand vous avez un moteur d'IA,
12:15vous allez lui donner
12:16des accès.
12:17En entreprise,
12:18quand on développe de l'IA,
12:19on le voit
12:19comme un collaborateur numérique.
12:21On parle d'agent IA,
12:23c'est exactement ça.
12:24Donc, cet agent
12:24va avoir des droits,
12:26des responsabilités.
12:27Dans un robot,
12:28alors, je ne suis pas expert
12:28sur le développement de robots,
12:29mais j'imagine que l'entité
12:32qui va faire parler le robot
12:33va être complètement différente
12:35de l'entité
12:35qui va peut-être piloter le muscle.
12:38Forcément,
12:38il va y avoir des liens
12:39entre les deux.
12:40Mais, en tout cas,
12:41certaines commandes
12:42vont être actionnables
12:43en fonction de certaines instructions.
12:45Et je pense qu'il faut
12:46vraiment segmenter
12:47qu'elles sont...
12:48Un peu comme dans la voiture
12:49autonome, finalement.
12:50Exactement.
12:51Mais on parlait du risque
12:52des robots.
12:53La voiture autonome,
12:54c'est exactement le même sujet.
12:55On pourrait avoir
12:56une voiture bélier
12:57prise par quelqu'un
12:59qui n'est pas dans la voiture.
13:01On va aussi vers des avions,
13:02je pense,
13:03qui seront pilotés
13:03sans pilote.
13:04Alors, pas dans les années
13:05qui viennent immédiatement.
13:06Mais aujourd'hui,
13:07on sait très bien
13:07le faire avec des drones.
13:08On le fait avec des métros
13:09dans Paris.
13:11Pourquoi on ne le ferait pas
13:11avec des avions de ligne ?
13:13Donc, la question
13:15se pose généralement.
13:16Le Zero Trust,
13:17l'idée,
13:17c'est vraiment d'isoler
13:18les différents systèmes
13:20qui pilotent
13:22cette machine autonome.
13:23Et pour vous donner
13:23un petit parallèle
13:25avec l'IA générative,
13:26aujourd'hui,
13:26quand on sécurise un LLM,
13:29lorsqu'on fournit ce LLM,
13:30il y a des données
13:31qui sont spécifiques
13:32à l'entraînement.
13:33Il y a des données
13:33qui vont être alimentées
13:35par des utilisateurs,
13:36qui vont être des données
13:37qui peuvent ou pas
13:38influencer les données
13:39d'entraînement.
13:41Mais en tout cas,
13:42jamais un acteur,
13:44un utilisateur externe
13:45ne doit pouvoir changer
13:48ou altérer
13:49la donnée
13:49qui sert à l'entraînement
13:50de l'IA
13:50parce que c'est
13:51la richesse du moteur.
13:53Et donc là,
13:54typiquement,
13:54on parle d'accès,
13:55de droits
13:55et de responsabilités.
13:57Il doit y avoir
13:57une barrière franche.
13:58J'imagine qu'en robotique,
14:00quand on interagit
14:01avec le robot,
14:02quand le fournisseur
14:03envoie des commandes,
14:05il doit y avoir
14:05des garde-fous
14:06et on peut faire
14:07un parallèle
14:08avec le modèle Zero Trust.
14:09D'accord.
14:10Thierry,
14:10une réaction là-dessus ?
14:12Oui, oui,
14:13je peux...
14:14Je suis tout à fait d'accord.
14:15C'est ce qui vient de l'être dit.
14:16Oui, oui.
14:18C'est le même principe.
14:18Ce que je peux ajouter,
14:19voilà,
14:20ce que je peux ajouter,
14:20c'est qu'on va devoir,
14:22on commence maintenant,
14:23les constructeurs commencent
14:23à penser à développer
14:25des SIEM embarqués.
14:26Donc le SIEM,
14:27c'est un système
14:27qui va gérer,
14:29qui va superviser,
14:30par exemple,
14:31un système d'information,
14:32le système informatique
14:32d'une entreprise.
14:34Donc là,
14:34on a des SIEM
14:34qui sont depuis longtemps
14:35qu'on sait faire
14:36pour les systèmes
14:37qui sont fixes,
14:38qui sont statiques.
14:39Pour les robots
14:40ou pour les satellites
14:41ou pour les avions,
14:42on va vers du SIEM embarqué,
14:44c'est-à-dire,
14:45et dopé par l'IA,
14:46évidemment,
14:47donc ce sont des systèmes
14:48informatiques
14:50qui sont par-dessus
14:51l'autopilote du robot
14:53et qui surveillent
14:54que tout se passe bien.
14:55C'est un peu
14:56comme un superviseur,
14:57comme un ange gardien
14:58qui est dans le logiciel
15:00du robot
15:00et qui vérifie
15:01qu'il n'y a pas
15:02de déviation
15:03par rapport
15:04à la normalité
15:04d'usage du robot.
15:06C'est-à-dire,
15:06si c'est un robot agricole,
15:07il doit être dans le champ,
15:08il doit faire quelque chose
15:09comme ça,
15:10et on ne doit pas
15:11le retrouver
15:11dans un appartement,
15:12par exemple.
15:13Donc là,
15:13il y aurait une déviation
15:14statistique
15:15par rapport
15:15à la fonction
15:16initiale du robot agricole.
15:17Est-ce qu'il y a
15:18des obligations légales
15:20en matière de sécurité ?
15:21Je ne sais pas,
15:21dans l'IA Act,
15:22par exemple,
15:22puisqu'on retrouve
15:23des choses
15:23qu'on peut appliquer
15:26à la cybersécurité ?
15:29Oui,
15:30dans l'IA Act,
15:31il y a des choses
15:32sur l'IA,
15:33bien sûr,
15:33et sur la robotique,
15:34c'est en train d'arriver
15:34parce qu'évidemment,
15:35en Europe,
15:36on est un petit peu
15:36en retard là-dessus,
15:37on n'a pas encore
15:39réglementé l'usage
15:42des robots,
15:42mais ça ne saurait tarder.
15:43Là,
15:44on peut être tout à fait confiant,
15:45l'Europe ne sera pas
15:46en retard sur la réglementation.
15:48Je vous vois sourire
15:49d'un sourire coquin,
15:50Thierry.
15:51Oui,
15:52il y a déjà des obligations
15:53aujourd'hui
15:53sur les systèmes automatisés,
15:56des obligations
15:56de cybersécurité ?
15:58Pour moi,
15:59les limitations
15:59mentionnées dans l'IA Act
16:01sont des cas d'usage
16:02de l'IA,
16:03pas spécialement...
16:04C'est plus sur des cas d'usage,
16:05finalement.
16:05Tout à fait,
16:06c'est ça.
16:06On va élaborer
16:08un niveau de dangerosité
16:10de la mission
16:12qu'on va donner
16:12à l'IA.
16:14Et effectivement,
16:15vous parlez de la robotique...
16:15Mais on n'a pas la même chose
16:16que dans l'IoT
16:17où on a vraiment
16:17créé une réglementation
16:20sur la sécurité
16:21de ces objets connectés.
16:22On n'a pas l'équivalent
16:23aujourd'hui
16:23sur les systèmes intelligents.
16:26Au-delà de l'IA Act,
16:27non, je ne sais pas.
16:27Oui.
16:28Et bien voilà,
16:29working progresse,
16:30il y a des choses à faire encore.
16:31Oui, Thierry,
16:32vous vouliez dire un mot ?
16:33Non, non, juste le chantier
16:35est ouvert pour se rendre
16:36dans la robotique.
16:36Oui, c'est ça.
16:37Mais il est en marche
16:38là aujourd'hui.
16:40Il sera collatéral
16:42de l'arrivée des robots chinois,
16:43notamment en Europe.
16:45Voilà.
16:45On attend que les robots chinois
16:46arrivent, quoi,
16:47si j'ai bien compris.
16:48C'est ça.
16:49Merci beaucoup,
16:50Thierry Berthier,
16:51d'avoir été connecté
16:52avec nous.
16:53Je rappelle que vous êtes
16:53enseignant-chercheur
16:54en IA et robotique
16:55et consultant.
16:57Et merci également
16:58à Adrien Merveille
16:59de chez Checkpoint
17:00d'avoir été avec nous.
17:02On continue à parler
17:03de sécurité
17:04et d'intelligence artificielle.
17:05On va voir comment
17:06justement sécuriser
17:07toutes ces IA.
17:07Merci.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations