- il y a 3 heures
Vendredi 21 novembre 2025, retrouvez Gérôme Billois, (Associé en cybersécurité et confiance numérique, Wavestone), Thierry Berthier (enseignant chercheur en IA et robotique, consultant expert en robotique civile et militaire), Adrien Merveille (Directeur technique, Checkpoint), Abdel Regragui (Directeur des Technologies GenAI, Cloud et Cyber pour la région EMEA, Dell Technologies), Myriam Quéméner (Magistrat judiciaire honoraire, docteur en droit) et Stéfane Fermigier (Coprésident, CNLL) dans SMART CYBER, une émission présentée par Delphine Sabattier.
Catégorie
🗞
NewsTranscription
00:00Bonjour à tous, bienvenue dans SmartCyber, la première émission entièrement dédiée à la confiance numérique.
00:14Elle est tournée vers les décideurs pour les aider à prendre les bonnes décisions en matière de cyber-résilience
00:19et puis aussi pour faire leur veille technologique.
00:21C'est une émission que je suis très heureuse de vous proposer et de vous présenter, qui est diffusée sur la chaîne Bsmart.
00:26Alors, à la une de ce SmartCyber du mois de novembre, on va avoir un grand talk sur les nouveaux défis que posent les robots.
00:33On va aussi s'intéresser à l'intelligence artificielle avec les nouvelles questions qu'elle pose, des questions de confiance.
00:39Ce sera un format interview cette fois, qui donne la parole à ceux qui créent les conditions de cette confiance.
00:45On aura aussi un rendez-vous au sommet, au sommet parce qu'on va parler de souveraineté numérique européenne,
00:50décryptage de ce qui s'est passé à Berlin.
00:52Et puis, on terminera cette édition avec la culture cyber.
00:56On va s'intéresser à l'Ossint.
00:58Et en général, ce rendez-vous vous permet d'avoir des petites notes sur les événements importants à noter,
01:03les sorties de livres.
01:04Et là, je vous recommanderais notamment une tribune.
01:07Mais d'abord, chaque émission démarre avec le décryptage d'une cyberattaque.
01:12Et le conseil du pro, c'est tout de suite le point cyber.
01:15Et donc, on démarre ce smart cyber avec le point cyber.
01:22Et Jérôme Billois, bonjour Jérôme.
01:24Bonjour.
01:25Associé en cybersécurité et confiance numérique au sein du cabinet Wavestone.
01:28Alors, de quoi va-t-on parler ?
01:29On va parler d'une attaque menée par des Chinois pour expliquer un peu comment ça se passe aujourd'hui,
01:36ces attaques automatisées par intelligence artificielle.
01:38Est-ce que vous pouvez déjà nous redonner un peu de contexte ?
01:40Que s'est-il passé ?
01:41Tout à fait. Donc, on est sur une attaque qui a été révélée par Anthropik,
01:44qui est donc une société bien connue qui crée le modèle d'intelligence artificielle Claude.
01:49Ils ont eu des alertes qui sont remontées en septembre 2025
01:52d'un comportement anormal dans leur moteur d'intelligence artificielle.
01:56Et ils ont regardé ce qui se passait.
01:57Et ils ont découvert quoi ?
01:59Ils ont découvert une campagne d'attaques automatisées
02:01qui est conduite, d'après leurs analyses, par un acteur étatique chinois
02:06qui a donc utilisé l'intelligence artificielle pour réaliser la totalité de l'attaque,
02:12c'est-à-dire à la fois être en mesure de découvrir la cible qui veut l'attaquer
02:17et puis ensuite de piloter un certain nombre d'éléments de l'attaque.
02:20Mais ça restait théorique ou il y a véritablement eu des attaques ?
02:24Il y a véritablement eu des attaques.
02:26Ce qu'on ne sait pas, c'est ce qui s'est passé après.
02:29Parce qu'en fait, ce qu'Anthropik a pu voir,
02:31ils n'ont pas donné aussi tous les détails techniques.
02:33Ils veulent garder un peu de flou peut-être là-dessus
02:36pour ne pas donner non plus trop d'idées aux attaquants.
02:39Ce qu'ils ont pu voir, c'est que les attaquants ont déjà réalisé un certain nombre de promptes
02:43pour pouvoir scanner la victime,
02:46essayer de trouver le maximum d'informations
02:48en renseignant simplement les victimes
02:50et en disant ensuite à l'IA, utilise tel et tel outil pour aller scanner.
02:54Ils ont récupéré toutes ces informations-là.
02:57Ensuite, ils ont lancé l'IA sur des tests d'un certain nombre de comptes,
03:01de mots de passe, de vulnérabilités qui avaient été trouvés.
03:04Et de la même manière, c'est l'IA qui l'a fait seul
03:06et qui ensuite a ramené l'ensemble de ces informations.
03:09Et donc, on sait qu'il y a eu des vrais attaques.
03:11Il y a des interventions humaines à chaque fois, entre chaque étape,
03:14où vraiment tout est automatisé de A à Z de ce que l'on sait aujourd'hui ?
03:18Alors aujourd'hui, il y a eu des interventions humaines
03:20parce que clairement, les IA, même dans le domaine métier,
03:24mais aussi dans le domaine de la cyberattaque,
03:26à un moment ou à un autre, elle dérive,
03:27à un moment ou à un autre, elle fonctionne moins bien.
03:29Et puis, comme on dit, il faut toujours qu'il y ait un human
03:31à minima over the loop pour regarder ce qui se passe
03:34et revalider chacune des étapes.
03:36Et même Anthropique, d'ailleurs, le signale dans son rapport d'analyse,
03:39ils disent, voilà, l'IA a fait des erreurs,
03:41l'IA a donné des mauvais mots de passe,
03:43a donné des mauvais comptes à l'attaquant
03:44qui est obligé de le tester et de voir que ça ne marchait pas.
03:47Et donc, ce qui est bien, c'est que ce n'est pas tout parfait,
03:50heureusement, aujourd'hui.
03:52Oui, donc ça peut faire perdre du temps même aux cyberattaquants,
03:55mais ça donne quand même une idée de ce qui pourrait arriver demain
03:57comme menace de manière beaucoup plus importante.
04:01Oui, on voit...
04:02Est-ce que c'est uniquement sur les utilisateurs d'Anthropique
04:05ou pas du tout ?
04:06Non, alors là, Anthropique était vraiment l'outil utilisé.
04:09Les victimes peuvent être partout, peuvent être n'importe quelle entreprise.
04:11Même si on n'utilise pas une IA ?
04:12Voilà, et d'autres IA, type ChatGPT ou d'autres IA,
04:19auraient pu être utilisées.
04:20D'ailleurs, c'est intéressant à noter que l'attaquant a déjà été obligé
04:23d'attaquer l'IA pour la déverrouiller,
04:26pour qu'elle puisse finalement réaliser ses actions malveillantes.
04:29Ils expliquent qu'ils ont utilisé des promptes,
04:31ils se sont fait passer pour des experts en cybersécurité,
04:34disant, je fais une campagne de tests défensifs,
04:38est-ce que tu peux m'aider à la réaliser ?
04:40Et en fait, c'était offensif.
04:41Ils ont menti à l'IA, mais l'IA ne le sait pas.
04:43Et donc, l'IA a laissé passer ses actions malveillantes.
04:46Et alors, le conseil du pro, Jérôme,
04:48quel est votre conseil pour se préparer à ce type de menace ?
04:51C'est qu'on voit bien qu'aujourd'hui,
04:52l'IA est de plus en plus utilisée par les cybercriminels.
04:55Il y a quelques années maintenant,
04:57c'était pour faire des meilleurs mails de phishing, très basiques.
04:59Ensuite, on a eu les deepfakes.
05:01Et là, maintenant, on a des attaques pointues
05:02qui commencent à être automatisées.
05:04Mais en réponse, qu'est-ce qu'il faut faire ?
05:06C'est aussi utiliser l'IA dans la défense.
05:10Qu'il y a des solutions qui arrivent
05:12pour faire de la sécurité applicative,
05:15plus simplement,
05:16pour automatiser la recherche de failles,
05:18automatiser l'écriture de codes
05:19pour corriger ces failles.
05:22Il y a un concours que je conseille de regarder
05:24à tous les auditeurs,
05:25qui a été fait par l'entité de recherche
05:26du ministère de la Défense aux États-Unis,
05:28qui s'appelle la DARPA.
05:30Le concours s'appelle AIXCC,
05:32vous pourrez regarder sur Internet,
05:34qui ont montré qu'ils ont entraîné des IA
05:35pour corriger automatiquement des failles.
05:38Et en fait, ils ont réussi à...
05:40Donc, les gagnants de ce concours
05:41ont réussi à créer une IA
05:42qui, en moyenne,
05:44a corrigé des failles dans des logiciels
05:45en 45 minutes.
05:47Mais de l'identification de la faille,
05:49l'écriture du code source,
05:51le test...
05:51Et la correction.
05:52Et le test de l'efficacité du correctif,
05:54et également les tests fonctionnels.
05:56Donc, le logiciel marche à la fin.
05:58Tout ça, en moyenne, pour 45 minutes
05:59et en moyenne, pour un peu plus de 400 dollars.
06:02Ce qui est sans commune mesure
06:04avec, aujourd'hui, ce que ça coûte
06:06et le temps que ça prend dans les entreprises
06:08pour corriger ce type de failles.
06:10On voit vraiment...
06:10Ça veut dire que ça va complètement
06:11disrupter le marché aussi de la cybersécurité.
06:13Ça va peut-être enfin nous permettre
06:15d'être à la vitesse des attaquants,
06:16comme je disais,
06:17parce que depuis des années,
06:18on est là, on est en difficulté,
06:19on manque de bras,
06:21beaucoup,
06:21on manque de moyens aussi.
06:23Et donc là, l'IA,
06:24je ne pense pas que l'IA
06:25va faire des licenciements en cybersécurité.
06:27Honnêtement, je pense que l'IA
06:28va nous permettre de faire le métier
06:30qu'on devrait faire
06:31et de pouvoir passer à l'échelle
06:32sur des sujets comme la gestion des tiers,
06:35la classification des documents,
06:36la couverture des feuilles applicatives.
06:38Ça, c'est des choses
06:39qu'on n'arrivait pas à faire
06:40par manque de bras,
06:41par manque de temps,
06:42par manque de moyens.
06:43Et là, l'IA peut être
06:44un vrai accélérateur.
06:45C'est ce qu'on teste, nous,
06:46sur le terrain à l'heure où on se parle.
06:48Et on voit des premiers gains
06:49qui sont vraiment frappants.
06:51Donc, l'IA, accélérateur,
06:53plutôt de la résilience.
06:54C'est ça que vous nous dites aujourd'hui.
06:55En tout cas, il faut commencer
06:56à s'en emparer très, très sérieusement
06:58et ne pas traîner.
06:59Merci beaucoup, Jérôme Billois,
07:01du cabinet Wavestone,
07:02pour votre éclairage
07:03sur ce point cyber.
07:04À suivre, on va s'intéresser
07:06aux nouveaux défis
07:07que posent les robots,
07:08les robots qui arrivent en masse.
07:09Nous dit-on,
07:10quels sont ces nouveaux défis cyber ?
07:12On parle de ces nouveaux risques cyber
07:18que posent les robots.
07:20On en parle avec Thierry Berthier,
07:22qui est connecté avec nous,
07:23maître de conférences en mathématiques,
07:24qu'il enseigne le machine learning
07:27à l'université,
07:28dans un département informatique,
07:29également conseil scientifique
07:31dans plusieurs start-up
07:32de robotique terrestre et aérienne.
07:33Bonjour Thierry.
07:34On a parlé ensemble
07:35de l'imminence
07:36de l'arrivée
07:36de ces humanoïdes,
07:39et du fait qu'il faut vraiment
07:40qu'on accélère
07:41dans ce domaine,
07:42nous, au niveau européen.
07:44On va ensemble
07:45s'intéresser quand même
07:45aux défis cyber
07:46que ça pose.
07:47Et on va en parler
07:48avec Adrien Merveille.
07:49Merci beaucoup, Adrien,
07:50d'être en studio avec moi.
07:52directeur technique France
07:54chez Checkpoint.
07:55C'est à la tête
07:55d'une vingtaine d'experts
07:56dédiés à l'accélération
07:57des projets cyber
07:57de plusieurs organisations.
08:01Alors, je voulais déjà
08:02poser une question
08:02peut-être à Thierry,
08:03mais Adrien aussi,
08:05vous pouvez réagir,
08:05sur on en est où aujourd'hui
08:07de l'état de l'art
08:09en matière de robotique autonome
08:11dans le domaine civil,
08:13mais aussi militaire ?
08:15Alors, c'est un domaine
08:18qui est très dynamique
08:19avec une double attractivité
08:23à la fois civile et militaire.
08:26La guerre aux portes
08:27de l'Europe, évidemment,
08:29empêne le domaine,
08:31que ce soit sur les drones aériens,
08:33les robots terrestres.
08:34Il y a beaucoup de développement
08:36en boucle très courte.
08:38Et donc, c'est un domaine
08:39qui va très vite
08:40avec de l'innovation
08:41toutes les semaines, quasiment.
08:42L'unité d'innovation,
08:44c'est la semaine aujourd'hui.
08:45Ah oui.
08:46Et donc, les choses évoluent très vite
08:49et avec l'emploi des robots,
08:51toutes les questions
08:52et les défis collatéraux
08:54qui interviennent.
08:55Peut-être un exemple,
08:56puisque c'est une nouveauté
08:57toutes les semaines,
08:58la dernière semaine.
08:59Qu'est-ce qui s'est passé ?
09:00Qu'est-ce que vous avez vu ?
09:01Intéressant.
09:02Alors, ce sont des choses,
09:04si on veut parler
09:05des choses françaises,
09:07il y a une société française
09:08qui a présenté son drone
09:09pas plus tard qu'il y a 48 heures.
09:13Un drone intercepteur
09:14qui va être utilisé
09:15dans la lutte anti-drone,
09:16notamment en Ukraine,
09:18pour intercepter
09:19les drones chahides russes.
09:21Et donc,
09:22il s'agit d'un drone français,
09:23100%,
09:24qui va très vite,
09:25qui vole à 700 km heure,
09:27qui est un drone intercepteur
09:28et qui est muni
09:29d'un micro réacteur.
09:32C'est comme un réacteur
09:33de rafale,
09:33mais en miniaturisé.
09:34Et donc,
09:36ça, c'est une vraie innovation.
09:37Il n'y en a que deux
09:38dans le monde qui existent.
09:39Un aux États-Unis,
09:41développé par Enduril Industrie,
09:42et puis un en France,
09:44développé par deux sociétés françaises.
09:46Bon, ça veut dire
09:47qu'on peut être fier
09:47quand même
09:47de notre niveau technologique.
09:49Exactement.
09:50Exactement.
09:51En tout cas,
09:51sur ce point-là.
09:52Il est complètement autonome ?
09:55Alors,
09:56il est à 700 km heure.
09:57Dans vitesse max,
09:58il vaut mieux
09:58qu'il ait de l'autonomie
10:00parce qu'un opérateur humain
10:01ne peut pas le piloter à 700.
10:03Il peut le piloter
10:03jusqu'à 300-400 km heure.
10:07Mais dès que les vitesses
10:08dépassent ce seuil-là,
10:09il faut avoir un autopilote
10:10pour pouvoir le guider
10:12jusqu'au drone hostile
10:15qui va aller intercepter.
10:16D'accord.
10:17Donc, il y a de l'humain
10:18au lancement
10:19et à l'atterrissage.
10:21C'est ça.
10:22Et après,
10:22sur le guidage terminal,
10:23il faut du logiciel,
10:24il faut du computer vision,
10:26il faut de l'optique,
10:28il faut des capteurs,
10:29des senseurs.
10:30C'est un système complet,
10:32en fait.
10:33Adrien,
10:34qu'est-ce que vous voyez
10:34aujourd'hui
10:35en matière de robotique
10:37dans l'industrie ?
10:39Est-ce qu'il y a vraiment
10:40une utilisation
10:41qu'on peut dire aujourd'hui
10:43massive
10:44des robots
10:44de plus en plus autonomes ?
10:46Alors,
10:47c'est un sujet
10:48pour lequel je ne travaille
10:49pas spécialement.
10:49Nous,
10:50ce qu'on voit,
10:50c'est principalement
10:51les sujets autour
10:52de l'intelligence artificielle.
10:53Et j'imagine que
10:54quand on a un drone
10:54qui va à cette vitesse-là,
10:56mécaniquement,
10:57il va y avoir,
10:58si ce n'est pas déjà le cas,
11:00il va y avoir
11:01des moteurs
11:01d'intelligence artificielle
11:02qui viennent
11:03optimiser peut-être
11:05le pilotage
11:06ou le succès
11:08dans ce cas-là,
11:10l'interception
11:12de certains drones.
11:13et donc,
11:14si on vient
11:15à connecter
11:16certains systèmes
11:17à des outils d'IA
11:18et qui viennent
11:19se connecter
11:19à des réseaux,
11:20eh bien,
11:21pour nous,
11:21ça représente
11:21un vecteur d'attaque.
11:23C'est, je pense,
11:24une révolution
11:25qu'on est en train
11:25de vivre,
11:26mais ce n'est pas
11:26la première
11:26et c'est loin
11:27d'être catastrophique,
11:29si je puis dire.
11:30On l'a vécu
11:30avec l'IoT,
11:32l'usine 4.0.
11:33Là aussi,
11:33on a des équipements
11:34d'usines
11:35qui, historiquement,
11:36étaient pilotés
11:37localement
11:38et indépendants
11:39qui viennent
11:40se connecter
11:41à un réseau
11:41et donc,
11:42qui viennent,
11:43pour un hacker,
11:44être une nouvelle cible
11:45et, du coup,
11:46une nouvelle surface
11:47d'attaque
11:47de l'entreprise.
11:48C'est le cas
11:48avec les usines,
11:49c'est le cas
11:49avec la domotique
11:50chez nous.
11:51Je pense qu'on est
11:51tous concernés
11:52par des outils.
11:55On parle de robots
11:55ici.
11:57Nos équipes de chercheurs
11:58ont découvert
11:58il y a quelques années
11:59une vulnérabilité
12:00sur un aspirateur
12:01domestique autonome
12:02qui permettait,
12:03en fait,
12:04simplement d'accéder
12:04à la caméra
12:05et de piloter
12:07l'aspirateur
12:07pour observer
12:08avec la caméra
12:09ce qui se passe.
12:09Dans un milieu
12:10domestique,
12:13ça apporte
12:13un certain niveau
12:14de risque
12:14qui est peut-être
12:15modéré,
12:16mais à l'échelle
12:17d'un individu,
12:18ça permet de
12:19peut-être fiabiliser
12:20des campagnes
12:20de phishing
12:21en maximisant
12:22le nombre
12:22d'informations
12:23qu'on peut récupérer
12:24sur la personne.
12:25Mais à l'échelle
12:25d'une entreprise,
12:26il y a peut-être
12:27des brevets en danger,
12:29des projets industriels
12:30qui vont être copiés
12:32avant leur sortie officielle.
12:33Il y a d'autres enjeux
12:35qui viennent,
12:35mais encore une fois,
12:36c'est un vecteur d'attaque.
12:37Chaque innovation
12:38vient avec son vecteur
12:40d'attaque.
12:40Peut-être plus ou moins
12:41parce que vous faites
12:43référence à l'IoT,
12:45à l'Internet des objets
12:46connectés.
12:47Il a fallu attendre
12:48longtemps
12:49avant de prendre
12:50la décision,
12:51notamment au niveau
12:52européen,
12:53de sécuriser
12:54tous ces objets
12:54par défaut.
12:56On en est où
12:57avec l'intelligence
12:58artificielle ?
12:59Est-ce qu'on est
12:59en train de faire
13:00la même erreur ?
13:01C'est-à-dire se dire
13:01finalement,
13:02on lance,
13:03on utilise,
13:03et puis on verra
13:04après pour la sécurité ?
13:05Quand on parle de sécurité
13:07et de l'intelligence artificielle,
13:08il y a vraiment deux aspects.
13:09Il y a un,
13:12maîtriser un petit peu
13:13ce que nos employés font
13:14avec l'intelligence artificielle.
13:15C'est monsieur et madame
13:16Tout-le-Monde
13:17qui utilisent
13:17ChatGPT
13:18dans le cadre
13:19de son métier.
13:20Et parfois,
13:21quand on fait ça,
13:22on va mettre
13:23dans ces outils-là
13:23des données
13:24qui sont propriétaires
13:25à l'entreprise
13:25et qui peuvent
13:26amener à une fuite
13:27de données.
13:28Là, on est vraiment
13:28à l'échelle individuelle
13:29avec des outils
13:30grand public.
13:31L'autre aspect,
13:32c'est je suis une entreprise
13:33et je vais mettre
13:34à disposition
13:34un service d'IA
13:36soit pour mes clients,
13:36soit pour mes employés,
13:37peu importe.
13:38Et là,
13:39il y a du développement
13:40en général basé
13:41sur certains outils
13:42grand public
13:42qui viennent
13:43avec leur lot de sécurité.
13:45Mais c'est comme
13:46quand vous achetez
13:47une messagerie
13:48chez Microsoft.
13:49Est-ce que vous rajoutez
13:50un outil de sécurité
13:51en plus de la sécurité
13:52que fournit Microsoft ?
13:52On imagine
13:53que c'est sécurisé en fait.
13:54On imagine
13:55que c'est sécurisé.
13:56On peut toujours faire mieux.
13:57mais aujourd'hui,
14:00en fait,
14:01la petite subtilité,
14:03c'est que l'IA,
14:05en quelques mois,
14:05s'est transformée
14:06d'un buzzword
14:07à une réalité
14:08pour les entreprises.
14:09Donc, il y en a
14:10qui l'ont,
14:10comme dans toute innovation,
14:13il y en a qui l'anticipent
14:14et qui intègrent
14:15la sécurité
14:16dans le cycle de vie.
14:17Et puis, il y en a
14:17qui vont être plus
14:18en mode réactif
14:19en se disant
14:20ça y est,
14:20c'est déjà chez moi,
14:21comment je réagis ?
14:22Oui.
14:23Alors, Thierry,
14:24cette robotique humanoïde
14:26que vous appelez
14:27de vos voeux,
14:28elle engage quand même
14:29à prendre au sérieux
14:31la question de la sécurité,
14:32à la fois la sécurité physique
14:33mais aussi la cybersécurité.
14:35Quelles sont les nouvelles menaces
14:36que vous avez identifiées
14:38et sur lesquelles
14:38il faut être vraiment en alerte ?
14:41Ce sont un peu les mêmes
14:42qui ont été évoqués
14:43tout à l'heure
14:43par Adrien
14:44pour l'aspirateur.
14:45Si vous remplacez
14:46l'aspirateur
14:46par le robot humanoïde,
14:48vous avez l'équivalent.
14:51Les robots humanoïdes
14:52ne sont pas encore arrivés
14:53dans chaque maison
14:53française ou européenne,
14:54mais ils arrivent très vite,
14:57très rapidement.
14:58On aura chacun
14:59entre un et deux robots
15:00par foyer.
15:01Et donc,
15:02vous avez le passe-t-il.
15:03D'ici à 2030,
15:05selon les prévisions
15:05les plus optimistes.
15:07C'est ça.
15:08C'est ça.
15:09Après,
15:10nous,
15:10on n'est pas constructeurs.
15:11On n'a pas de constructeurs
15:12en Europe.
15:13Mais cette révolution-là,
15:15cette pénétration-là
15:16des robots
15:17se fait très rapidement
15:18en Asie.
15:19Il va se faire aussi
15:20rapidement
15:21sur le continent africain
15:22pour plein de raisons.
15:24Et donc,
15:25quand ces robots
15:26seront déployés partout,
15:27au même titre
15:27que les aspirateurs,
15:28ils vont offrir
15:29des surfaces d'attaque.
15:31Alors,
15:32parfois simples,
15:32parfois compliquées.
15:34Il y a une course
15:34au prix aussi.
15:35Donc,
15:35les constructeurs
15:36vont être tenus
15:37de faire baisser
15:38les prix de revient
15:40et surtout,
15:40enfin,
15:40prix de développement.
15:42Et surtout,
15:42souvent,
15:43ça se fait
15:43au détriment
15:43de la sécurité.
15:44Parce qu'ajouter
15:45de la sécuriser
15:46à un système robotique,
15:47ça coûte de l'argent
15:48en plus.
15:48et donc,
15:49vous augmentez
15:50le prix de vente
15:51fatalement.
15:53Et ce n'est pas du tout
15:54dans l'ordre des choses
15:55où on a une course
15:56à la décroissance
15:57du prix de vente.
15:59Donc,
15:59on peut supposer
16:00que la partie
16:01cybersécurité,
16:02ce sera celle
16:02sur laquelle
16:03les constructeurs
16:04feront des économies.
16:06Moi,
16:06je trouve ça dingue
16:07d'entendre ça
16:08aujourd'hui
16:09parce qu'on sait
16:10à quel point
16:11c'est un enjeu crucial
16:12justement
16:13de redonner
16:14de la confiance
16:15dans le numérique,
16:16dans les outils
16:17connectés.
16:18mais quelle est
16:19la menace
16:20qui vous préoccupe
16:21le plus,
16:23Thierry,
16:23avec les robots ?
16:25Alors,
16:25si on parle
16:26des robots humanoïdes,
16:27ça dépend si on parle
16:28des robots humanoïdes
16:29ou alors des robots
16:29aéroterrestres
16:30qui sont déjà
16:31sur le champ de bataille
16:31par exemple aujourd'hui.
16:32Là,
16:33on peut imaginer
16:33que l'adversaire
16:36prenne le contrôle
16:36et retourne
16:37ces robots-là
16:38contre l'envoyeur.
16:40Donc,
16:40ça,
16:40c'est déjà
16:41ce que,
16:42par exemple,
16:43les Russes
16:43ou les Ukrainiens
16:44essaient de faire
16:44chacun avec les drones
16:45qui sont en train
16:46de capter
16:46de l'adversaire.
16:48Donc,
16:49ça,
16:49c'est la réalité.
16:49Ce n'est pas la science-fiction
16:50qui se passe tous les jours.
16:52Sur le brouillage,
16:53pareil,
16:53sur la récupération,
16:54sur la rétro-ingénierie
16:55des robots,
16:56évidemment.
16:56Après,
16:57sur un domaine civil,
16:58c'est l'arrivée
16:59de tous ces robots
17:00dans les foyers.
17:02La menace,
17:02c'est que
17:03quand vous piratez
17:04un système informatique,
17:06évidemment,
17:07vous faites des dommages
17:08de niveau informationnel,
17:10de niveau cyber.
17:11quand vous piratez
17:12un robot
17:12et puis vous en prenez
17:13le contrôle,
17:15si le robot fait 1m80
17:16et pèse,
17:18je ne sais pas,
17:1970 kg,
17:20ce robot-là,
17:21ça peut devenir
17:22une arme par destination.
17:23C'est-à-dire,
17:24exactement comme
17:25avec un marteau,
17:26utiliser un marteau,
17:27le charpentier
17:27utilise un marteau,
17:28mais si c'est quelqu'un
17:29de malveillant
17:30qui est au bout du marteau,
17:31il peut s'en servir
17:32pour attaquer,
17:33pour faire quoi que ce soit.
17:34Tout ce qu'on peut imaginer
17:35d'actions négatives
17:39ou violentes avec.
17:40C'est ça le vrai risque.
17:42Que le robot se mette
17:43à déclencher des choses,
17:46à ouvrir le gaz,
17:47à faire...
17:48On peut faire plein de choses
17:49avec un robot aujourd'hui.
17:51Alors,
17:52au-delà de juste choisir
17:53un robot qui pèse
17:54moins lourd que soi-même,
17:55pour se dire
17:56que s'il nous attaque,
17:57ça ne se passera pas
17:58trop mal pour nous,
17:59il y a d'autres solutions
18:00qu'on peut mettre en place,
18:01j'imagine,
18:02pour sécuriser
18:03ces systèmes robotisés.
18:04Adrien,
18:05qu'est-ce qu'on a
18:06comme arme,
18:06nous aussi,
18:07pour se protéger ?
18:07Je vais essayer
18:08d'être un peu plus optimiste,
18:10mais effectivement,
18:11j'ai réfléchi avant de venir
18:12à quels seraient
18:12les pires scénarios envisageables,
18:14et ça m'a fait penser
18:15à un film
18:16qui a une vingtaine d'années
18:18maintenant,
18:18qui s'appelait
18:19iRobot avec Will Smith,
18:20où il y avait
18:21une armée de robots
18:22ou des robots
18:23qui prenaient
18:24un petit peu
18:25leurs indépendances.
18:26Et c'est vrai
18:26que le pire scénario
18:27auquel j'ai pu penser,
18:28c'est...
18:29On a une image
18:29de botnet aujourd'hui
18:30en informatique,
18:31qui sont des machines
18:33qui vont être prises,
18:34le contrôle va être pris
18:35par des hackers
18:36et qui vont attaquer
18:36en même temps.
18:38Alors ça peut être
18:38aux quatre coins
18:39de la planète ?
18:39Exactement.
18:40Mais si on fait
18:40le parallèle
18:41avec des robots physiques,
18:42on pourrait voir
18:44se profiler
18:45un gang...
18:46C'est ça que vous appelez
18:49être optimiste ?
18:50Non, ça c'est le pire.
18:52Mais effectivement,
18:54si on fait un parallèle
18:55avec la masse physique près,
18:59on pourrait faire
18:59exactement la même chose
19:00avec des smartphones,
19:01sans les contrôler
19:02physiquement,
19:03mais on pourrait
19:04contrôler des armées
19:05de bottes de smartphones
19:06et aujourd'hui,
19:06on n'en voit pas spécialement
19:08de ce type-là.
19:10Donc, il existe effectivement
19:11des protections,
19:13des mécanismes de sécurité.
19:14On parle de zéro trust,
19:15beaucoup en cybersécurité.
19:16Alors, c'est une question
19:17que je vais vous poser.
19:18Est-ce que le zéro trust
19:19est applicable
19:20à la robotique autonome ?
19:22Alors, bien sûr,
19:23parce que...
19:24Alors, il y a l'IA
19:25dans la robotique, plutôt.
19:26Quand vous avez
19:27un moteur d'IA,
19:28vous allez lui donner
19:28des accès.
19:29En entreprise,
19:30quand on développe de l'IA,
19:31on le voit comme
19:32un collaborateur numérique.
19:34On parle d'agent IA,
19:35c'est exactement ça.
19:36Donc, cet agent
19:37va avoir des droits,
19:38des responsabilités.
19:39Dans un robot,
19:40alors je ne suis pas expert
19:41sur le développement
19:41de robots,
19:42mais j'imagine que
19:43l'entité
19:44qui va faire parler
19:45robot va être
19:46complètement différente
19:47de l'entité
19:48qui va peut-être
19:48piloter le muscle.
19:50Forcément,
19:50il va y avoir des liens
19:51entre les deux.
19:52Mais, en tout cas,
19:54certaines commandes
19:54vont être actionnables
19:56en fonction
19:56de certaines instructions.
19:58Et je pense
19:58qu'il faut vraiment
19:59segmenter qu'elles sont...
20:00Un peu comme
20:00dans la voiture autonome,
20:02finalement.
20:02Exactement.
20:03Ou la voiture connectée.
20:04Pour parler du risque
20:04des robots,
20:05la voiture autonome,
20:06c'est exactement
20:07le même sujet.
20:08On pourrait avoir
20:08une voiture bélier
20:09prise par quelqu'un
20:12qui n'est pas dans la voiture.
20:13On va aussi
20:14vers des avions,
20:14je pense,
20:15qui seront pilotées
20:15sans pilote.
20:16Pas dans les années
20:17qui viennent immédiatement.
20:19Mais aujourd'hui,
20:19on sait très bien
20:19le faire avec des drones.
20:21On le fait avec des métros
20:22dans Paris.
20:23Pourquoi on ne le ferait pas
20:24avec des avions de ligne ?
20:26Donc,
20:27la question se pose
20:27généralement.
20:28Le Zero Trust,
20:29l'idée,
20:29c'est vraiment
20:30d'isoler
20:31les différents systèmes
20:32qui pilotent
20:34ces machines autonomes.
20:35Et pour vous donner
20:36un petit parallèle
20:37avec l'IA générative,
20:38aujourd'hui,
20:39quand on sécurise
20:39un LLM,
20:41lorsqu'on fournit
20:42ce LLM,
20:42il y a des données
20:43qui sont spécifiques
20:44à l'entraînement.
20:45Il y a des données
20:45qui vont être alimentées
20:47par des utilisateurs
20:48qui vont être des données
20:49qui peuvent ou pas
20:50influencer les données
20:52d'entraînement.
20:53Mais en tout cas,
20:54jamais un acteur,
20:56un utilisateur externe
20:58ne doit pouvoir
20:59changer ou altérer
21:01la donnée
21:02qui sert à l'entraînement
21:02de l'IA
21:03parce que c'est la richesse
21:04du moteur.
21:05Et donc là,
21:06typiquement,
21:06on parle d'accès,
21:07de droits
21:08et de responsabilités.
21:09Il doit y avoir
21:09une barrière franche.
21:10J'imagine qu'en robotique,
21:12quand on interagit
21:14avec le robot,
21:15quand le fournisseur
21:16envoie des commandes,
21:17il doit y avoir
21:18des gardes fous
21:18et on peut faire un parallèle
21:20avec le modèle Zero Trust.
21:21D'accord.
21:22Thierry,
21:22une réaction là-dessus ?
21:25Oui, oui.
21:25Je suis tout à fait d'accord
21:27avec ce qui vient de l'être dit.
21:29Oui, oui.
21:30C'est le même principe ?
21:31Ce que je peux ajouter,
21:32voilà,
21:32ce que je peux ajouter,
21:32c'est qu'on va devoir,
21:34on commence maintenant,
21:35les constructeurs commencent
21:36à penser à développer
21:37des CIEM embarqués.
21:39Donc le CIEM,
21:39c'est un système
21:40qui va gérer,
21:42qui va superviser,
21:43par exemple,
21:43un système d'information,
21:44le système informatique
21:45d'une entreprise.
21:46Donc là,
21:46on a des CIEM
21:47qui sont depuis longtemps
21:48qu'on sait faire
21:48pour les systèmes
21:49qui sont fixes,
21:50qui sont statiques.
21:52Pour les robots
21:52ou pour les satellites
21:53ou pour les avions,
21:54on va vers du CIEM embarqué,
21:57c'est-à-dire,
21:57et dopé par l'IA,
21:58évidemment.
21:59Donc ce sont des systèmes
22:00informatiques
22:01qui sont par-dessus
22:04l'autopilote du robot
22:05et qui surveillent
22:06que tout se passe bien.
22:08C'est un peu
22:08comme un superviseur,
22:10comme un ange gardien
22:10qui est dans le logiciel
22:12du robot
22:12et qui vérifie
22:13qu'il n'y a pas
22:14de déviation
22:15par rapport
22:16à la normalité
22:17d'usage du robot.
22:18C'est-à-dire,
22:18si c'est un robot agricole,
22:19il doit être dans le champ,
22:21il doit faire quelque chose
22:21comme ça
22:22et on ne doit pas
22:23le retrouver
22:23dans un appartement,
22:24par exemple.
22:25Donc là,
22:25il y aurait une déviation
22:26statistique
22:27par rapport
22:27à la fonction initiale
22:28du robot agricole.
22:29Est-ce qu'il y a des obligations
22:32légales en matière
22:33de sécurité ?
22:33Je ne sais pas,
22:34dans l'EA Act par exemple,
22:35est-ce qu'on retrouve
22:35des choses
22:35qu'on peut
22:36appliquer
22:38à la cybersécurité ?
22:41Oui,
22:42dans l'EA Act,
22:43il y a des choses
22:44sur l'EA bien sûr.
22:45Sur la robotique,
22:46c'est en train d'arriver
22:47parce qu'évidemment,
22:48en Europe,
22:48on est un petit peu
22:49en retard là-dessus.
22:50On n'a pas encore
22:50cybersécurisé,
22:51on n'a pas encore
22:52réglementé
22:53l'usage des robots
22:54mais ça ne saurait tarder.
22:56Là,
22:56on peut être
22:56tout à fait confiant.
22:57l'Europe ne sera pas
22:58en retard
22:59sur la réglementation.
23:00Je vous vois sourire
23:01d'un sourire coquin,
23:02Thierry.
23:04Oui,
23:04il y a déjà
23:05des obligations
23:05aujourd'hui
23:06sur les systèmes
23:06automatisés ?
23:08Des obligations
23:09de cybersécurité ?
23:10Pour moi,
23:11les limitations
23:11mentionnées dans l'EA
23:13sont des cas d'usage
23:14de l'IA.
23:15Oui,
23:15c'est plus sur des cas
23:16d'usage finalement.
23:17Tout à fait,
23:18c'est ça.
23:18On va élaborer
23:21un niveau
23:21de dangerosité
23:22de la mission
23:24qu'on va donner
23:25à l'IA
23:25et effectivement,
23:27vous parlez
23:27de la robotique.
23:27Mais on n'a pas
23:28la même chose
23:28que dans l'IoT
23:29où on a vraiment
23:30créé une réglementation
23:32sur la sécurité
23:33de ces objets connectés.
23:34On n'a pas
23:35l'équivalent
23:35aujourd'hui
23:35sur les systèmes
23:37intelligents ?
23:38Au-delà de l'IAG,
23:39non.
23:40Oui.
23:40Et bien voilà,
23:41working progresse.
23:42Il y a des choses
23:42à faire encore.
23:44Oui,
23:44Thierry,
23:44vous vouliez dire un mot ?
23:46Non,
23:46juste,
23:47le chantier est ouvert
23:48pour se faire
23:48dans la robotique.
23:49C'est ça.
23:49Mais il est en marche
23:51là aujourd'hui.
23:51et il sera collatéral
23:54de l'arrivée
23:55des robots chinois,
23:56notamment en Europe.
23:57On attend que les robots
23:58chinois arrivent,
23:59si j'ai bien compris.
24:00C'est ça.
24:02Merci beaucoup,
24:02Thierry Berthier,
24:03d'avoir été connecté
24:04avec nous.
24:05Je rappelle que vous êtes
24:06enseignant-chercheur
24:06en IA et robotique
24:07et consultant.
24:09Et merci également
24:10à Adrien Merveille
24:11de chez Checkpoint
24:13d'avoir été avec nous.
24:14Merci.
24:14On continue à parler
24:15de sécurité
24:16et d'intelligence artificielle.
24:18On va voir comment
24:18justement sécuriser
24:19toutes ces IA.
24:20Sécuriser l'intelligence artificielle,
24:27ce n'est pas une mince affaire.
24:28Alors, on le fait comment ?
24:29Eh bien, pour répondre
24:30à cette question,
24:31j'ai invité Abdel Régraghi.
24:32Vous êtes directeur
24:33des technologies
24:34de Gen AI,
24:35Cloud, Cyber
24:35pour la région IA
24:37chez Dell Technologies.
24:38Merci beaucoup
24:39d'être avec nous.
24:39Merci de l'invitation.
24:41Alors, j'ai pensé
24:41à un petit jeu
24:42qu'on pourrait faire ensemble.
24:43Je vais vous poser
24:44des questions vraies ou faux.
24:46Et puis, je vous demanderai
24:47d'argumenter évidemment.
24:48C'est des questions
24:49vraies ou faux
24:49sur la sécurité de l'IA.
24:51Alors, les systèmes
24:52d'intelligence artificielle
24:53sont trop complexes
24:54pour être sécurisés.
24:55C'est vrai ou c'est faux ?
24:56Faux.
24:57Pourquoi ?
24:58Parce que tout simplement,
24:59aujourd'hui,
25:00les infrastructures IA
25:01s'appuient quand même
25:02sur des infrastructures
25:03existantes.
25:04On a développé des modèles,
25:05on a développé
25:06de nouveaux flux.
25:08Beaucoup de modèles
25:09vont venir s'appuyer,
25:10mais l'infrastructure,
25:11ce n'est pas quelque chose
25:11de nouveau.
25:11on le protège depuis
25:13de nombreuses années.
25:14Le cas de l'IA
25:15apporte quelques challenges
25:16qui consistent
25:18à la volumétrie,
25:19à la manière
25:19d'intégrer
25:21et d'aller chercher
25:22les connecteurs
25:22et les différents
25:23environnements.
25:24Là, oui,
25:24il y a un travail
25:25d'innovation
25:26et de déploiement,
25:28mais en ça,
25:30la sécurité
25:31des systèmes IA
25:32réside sur la même
25:33démarche que ce qu'on fait
25:34depuis de nombreux
25:35années,
25:35c'est la technologie.
25:36OK.
25:37Alors, vrai ou faux ?
25:38On a déjà tout ce qu'il faut
25:40aujourd'hui pour sécuriser
25:41l'IA, justement.
25:44Alors, oui et non.
25:46Difficile de répondre
25:47d'une manière très simple
25:48à cette question.
25:49Alors, on a pas mal de choses.
25:51Comme je l'ai dit,
25:51globalement,
25:52on a la possibilité
25:52d'aller protéger la donnée.
25:54On va avoir la capacité
25:55de protéger les accès
25:56à différents systèmes,
25:58que ce soit sur la phase
25:59d'entraînement,
25:59que ce soit l'ajustement
26:00ou de déploiement
26:01en production.
26:02Pour autant,
26:03il y a énormément
26:04d'acteurs qui viennent
26:05alimenter ces différents
26:07modèles,
26:07qui vont apporter
26:08de la valeur
26:09sur ces systèmes-là.
26:10Et là,
26:10il y a un travail
26:11d'engineering
26:11que nous on fait
26:12avec nos partenaires
26:13ou au sein
26:14de nos développements
26:14pour pouvoir
26:15les prendre en charge.
26:16Mais globalement,
26:17sur la capacité
26:18d'aller chercher
26:18la donnée
26:19et surtout de pouvoir
26:20la restaurer,
26:22la reconstruire
26:23dans certains cas,
26:24parce qu'on parlera
26:24dans certains moments
26:26parce que l'IA
26:26est une cible,
26:28on va parler à cœur.
26:29Il y a une cible
26:30parce qu'ils utilisent
26:31aussi l'IA
26:31pour attaquer l'IA,
26:32donc l'exfiltration,
26:33la manipulation,
26:34l'empoisonnement
26:35c'est comment sécuriser
26:37ces flux-là
26:38pour qu'on ait
26:38des résultats
26:39qui soient toujours cohérents
26:40et qui soient
26:41conformes
26:42à ce qu'on attend.
26:44Et c'est là
26:44qu'il y a un travail
26:45de fond.
26:46Oui, c'est pour ça
26:47que c'est vrai et faux.
26:48J'entends,
26:48je prends tout à fait
26:49votre réponse.
26:50Vrai ou faux,
26:51sécuriser l'IA
26:51se limite à la protection
26:53des données ?
26:54Vous avez quand même
26:54un petit peu répondu là.
26:56J'ai déjà répondu non.
26:58Non,
26:58parce qu'on pourrait
26:59y penser spontanément en fait.
27:02Spontanément, oui,
27:03parce qu'on dit
27:03je vais générer
27:05je vais consommer
27:06de la donnée
27:07et je vais générer
27:08de la nouvelle donnée.
27:09Donc globalement,
27:10je vais me focaliser
27:10sur la donnée.
27:11Je regarde les données
27:12entrantes,
27:12les données sortantes
27:13et je suis bien.
27:14Ça paraît si simple
27:15mais la réalité,
27:16c'est bien au-delà de ça
27:17parce qu'aujourd'hui,
27:18la donnée,
27:19elle va passer
27:20sur pas mal de flux.
27:21Il y a pas mal
27:22de systèmes
27:23qui vont venir
27:23alimenter,
27:24enrichir les filtres
27:26par exemple
27:26qu'on va avoir
27:27en entrée et en sortie.
27:28il va y avoir
27:29plusieurs IA
27:31qui s'enchaînent
27:32parce que c'est pas
27:33une seule IA.
27:34On ne parle pas
27:34de monolithique
27:35mais de plusieurs systèmes
27:36qui vont apporter
27:37et enrichir la donnée
27:39pour obtenir
27:39un résultat final.
27:40Et cette complexité
27:41fait qu'on aura besoin
27:43d'aller chercher
27:44les données
27:45et aussi
27:46les configurations
27:47et aussi
27:48certains paramétrages
27:49qui sont des fois
27:51dans le périmètre
27:52que l'on gère
27:53mais aussi souvent
27:54avec des partenaires
27:56qui eux vont avoir
27:57des systèmes
27:58sur lesquels
27:58on n'a pas accès.
28:00Et donc la configuration,
28:01la sécurisation
28:01de ces systèmes-là
28:02requiert une stratégie
28:03autre que celle
28:05qu'on a dans un modèle
28:06défini par une centrale
28:07et sur tous les flux.
28:08Exactement.
28:10Allez,
28:10un petit dernier.
28:11Vrai ou faux,
28:12l'IA agentique
28:13ne rendra jamais
28:14la supervision humaine
28:15inutile ?
28:17Jamais.
28:19Non.
28:19Je confirme cette raison.
28:21Je la confirme.
28:22Elle ne rendra jamais
28:22inutile
28:23l'humain
28:25parce qu'aujourd'hui
28:26il y a une...
28:27Donc vrai,
28:27vous êtes d'accord.
28:28Oui, tout à fait.
28:29Donc sur ce point-là,
28:30il y a besoin.
28:31Vous êtes sûr ?
28:31Parce que pourtant
28:31quand on dit agentique,
28:32on parle automatisation
28:34et donc il n'y a plus d'humains.
28:36C'est ce qu'on pense.
28:37Il y a certaines tâches.
28:38On va pouvoir
28:39dans la chaîne
28:39de création
28:40des différentes fonctionnalités
28:42que l'humain
28:42est capable de faire,
28:43on va pouvoir réduire
28:44selon les métiers,
28:46selon les cas d'usage
28:47entre 10%
28:48jusqu'à 80%
28:49l'intervention humaine
28:51mais il y aura toujours besoin
28:52d'une intelligence humaine
28:54parce que l'intelligence
28:55elle va pouvoir
28:56accélérer
28:57c'est de l'analytique
28:59mais avoir
29:00cette capacité
29:01de trouver
29:02des chemins
29:03d'intelligence courts
29:04de s'adapter
29:06à des environs
29:06plus complexes
29:07l'humain a toujours
29:07un avantage
29:08et cette capacité
29:09de contrôle
29:09et s'assurer
29:10que ce qu'on attend
29:11est conforme
29:11à ce que l'on veut
29:12dans le contexte
29:13qui a été demandé
29:14l'humain
29:14jouera toujours un rôle.
29:16Parce qu'on entend
29:16aussi beaucoup parler
29:17maintenant d'IA
29:18qui sont capables
29:18de surveiller les IA
29:20de faire finalement
29:22cette supervision.
29:23Alors supervision
29:24encore une fois
29:25je la trouve
29:26elle va être utile
29:27sur la partie
29:28analytique
29:29informatique
29:30technique
29:30ces éléments
29:31de s'assurer
29:32qu'il n'y a pas
29:32des biais
29:33qui sont trop importants
29:34que corriger le paramètre
29:36parce qu'aujourd'hui
29:36on utilise des data scientists
29:38qui vont définir le modèle
29:39et qui vont avoir
29:40à faire du fine tuning
29:41en permanence.
29:42Ce travail-là
29:43de définition
29:44je pense que l'humain
29:45sera toujours
29:45le précurseur
29:46mais après tous les travails
29:47de maintenance
29:48de monitoring
29:49d'ajustement
29:50oui là on pourra
29:51réduire de manière
29:53assez forte
29:53tout en ayant toujours
29:55un petit contrôle
29:55pour s'assurer
29:57qu'il n'y a pas
29:58un biais
29:59dans le biais
29:59de la correction
30:00donc ça c'est quelque chose
30:01sur lequel on aura toujours
30:02besoin d'avoir une vue
30:03humaine
30:04à mon sens.
30:05Donc là
30:06je n'avais pas prévu
30:07un vrai ou faux
30:08c'était ma dernière question
30:08mais j'en rajoute une petite
30:10donc ça veut dire
30:10que l'intelligence artificielle
30:11ne remet pas en question
30:13les stratégies
30:14de cyber résilience
30:16elles sont toujours possibles
30:17si j'ai bien compris
30:18on peut être cyber résilient
30:20en utilisant de l'IA
30:21mais ça demande quand même
30:22des transformations
30:22ça demande des transformations
30:24il faut prendre en considération
30:26que la cyber résilience
30:27reste un domaine
30:27un peu plus large
30:28qui est aujourd'hui
30:29pour moi
30:30un risque
30:31important économiquement
30:33dans toutes les organisations
30:34avec lesquelles je travaille
30:35c'est un élément
30:37qui devient critique
30:38et l'IA
30:39en fait partie
30:39mais n'est pas
30:40le cœur
30:41qui va résoudre le problème
30:42la résilience
30:43c'est une posture
30:43c'est un entraînement
30:46comme le dit Lancie
30:47et fortement je recommande
30:48avec toutes les solutions
30:50qu'on pourrait avoir
30:50si on n'est pas prêt
30:51à les utiliser
30:51être prêt à l'éventualité
30:53on ne pourra pas réagir correctement
30:55donc l'entraînement
30:56avoir les bonnes pratiques
30:57et être capable
30:58de pouvoir
30:59partir du principe
31:00que
31:00si le système tombe
31:02comment on fait
31:03donc avoir
31:04cette notion
31:05de résilience
31:06de continuer à servir
31:07d'activité
31:09et ça c'est quelque chose
31:10qui m'inquiète
31:11parce qu'on pense
31:12qu'avec l'IA
31:13on va résoudre
31:15ces problèmes-là
31:15mais en réalité
31:16on se crée
31:17un nouveau challenge
31:18parce que
31:19qu'est-ce qui se passe
31:19si on n'a plus d'IA
31:20comment on va pouvoir réagir
31:23quelles sont nos capacités
31:25donc ce qu'on fait
31:26chez Dell Technologies
31:27on va apporter
31:27quelques solutions
31:28qui vont garantir
31:29et là je suis assez content
31:31on intègre des solutions
31:32très rapidement
31:33et des technologies françaises
31:35Fleuron
31:36CECLAB
31:37qui va nous permettre
31:37de faire de l'isolement
31:38de ruptures protocolaires
31:40technologiques
31:41qui viennent du nucléaire
31:42pour isoler les données
31:43et les systèmes
31:44de manière à être
31:44encore plus résilient
31:45sur ces systèmes-là
31:46Bon, donc on a des stratégies
31:48de résilience
31:48à mettre en oeuvre
31:49ce sera l'objet
31:49d'un autre sujet
31:50peut-être qu'on se mettra ensemble
31:51Merci beaucoup
31:52Abdel Régraghi
31:53je rappelle
31:54que vous êtes directeur
31:55des technologies
31:55de Genaya iCloud
31:56et Cyber
31:56chez Dell Technologies
31:59Allez, on enchaîne
32:00on va parler
32:00du sommet
32:02sur la souveraineté numérique
32:03européenne
32:03avec un décryptage
32:05On parle de souveraineté
32:11numérique européenne
32:12enfin on en parle
32:13c'est au niveau européen
32:14qu'on en a parlé
32:14le 18 novembre 2025
32:16les Etats membres
32:19ont signé une déclaration
32:20pour la souveraineté
32:21numérique européenne
32:23on est avec
32:24Stéphane Fermigier
32:25qui est coprésident
32:26du CNLL
32:26le Conseil national
32:28du logiciel libre
32:29Bonjour Stéphane
32:30merci beaucoup
32:30d'être avec nous
32:31vous revenez de Berlin
32:32qu'est-ce que vous retenez
32:33vous du sommet ?
32:35Alors je reviens
32:37de Berlin
32:37effectivement
32:38de deux jours
32:39de réunion
32:40donc une première journée
32:41qui était consacrée
32:42à des événements off
32:43donc notamment
32:44un événement
32:45qu'on a organisé
32:46avec Eurostak
32:46on va peut-être en reparler
32:47et puis la journée
32:49principale en plénière
32:50avec les deux chefs d'Etat
32:52et donc l'impression
32:54c'est qu'effectivement
32:55on a passé
32:56à une vitesse supérieure
32:57qu'on a assisté
32:58à un tournant
32:59avec ce qui est très important
33:00c'est un alignement
33:01entre la France
33:02et l'Allemagne
33:03sur cette volonté
33:05de prendre des mesures concrètes
33:09sur le sujet
33:10de la souveraineté numérique
33:11donc les constats
33:13ont été largement partagés
33:15et dans leur déclaration finale
33:18le chancelier Merz
33:19et le président Macron
33:20ont eu des positions
33:22assez convergentes
33:24sur les différentes mesures
33:27à mettre en œuvre
33:28et en particulier
33:29celle qui nous intéresse le plus
33:31la question de
33:31« buy European »
33:32la priorité
33:34à l'achat européen
33:35aux technologies européennes
33:37dans l'achat public
33:39c'est une déclaration
33:41est-ce que derrière
33:42ça veut dire
33:43que c'est vraiment suivi
33:44d'engagement
33:45parce que
33:46pour l'instant
33:47dans le texte
33:48on n'a pas vu de chiffrage
33:49par exemple
33:49alors pour nous
33:51avec Eurostack
33:52c'est vraiment
33:53une première victoire
33:55on va dire
33:55d'ailleurs
33:55le chancelier Merz
33:57a explicitement
33:59mentionné
34:00l'initiative industrielle
34:02Eurostack
34:02que nous représentons
34:04et dans les trois piliers
34:05de l'initiative Eurostack
34:07il y a
34:08« buy European »
34:09« build European »
34:10et « fund European »
34:12donc acheter européen
34:13construire des solutions européennes
34:15et financer
34:16ces solutions européennes
34:17donc
34:18on comprend
34:19qu'il y a encore
34:20des négociations
34:21qui vont avoir lieu
34:22notamment entre la France
34:23et l'Allemagne
34:23sur le sujet
34:25des critères exacts
34:26à appliquer
34:27dans le cadre
34:28des marchés publics
34:28alors en parallèle
34:29il y a quelques semaines
34:30il y a la Commission européenne
34:31dans le cadre
34:32d'un appel d'offres interne
34:33à la Commission
34:34un appel sur le cloud
34:35a déjà publié
34:37son propre framework
34:39son « European Sovereignty Framework »
34:43nous avec Eurostack
34:44on en avait publié un
34:45il y en a également
34:47d'autres organisations
34:48qui travaillent
34:49sur ces sujets
34:49on voit que
34:51le risque
34:52c'est ce qu'on appelle
34:53le « sovereignty washing »
34:55donc « sovereignty washing »
34:55c'est quand des solutions
34:57principalement américaines
34:58se présentent
35:00sur le marché européen
35:01avec un label
35:02un faux label
35:03de souveraineté
35:04donc nous espérons
35:05bien sûr
35:06que toutes les décisions
35:07qui seront prises
35:08au niveau franco-allemand
35:09comme au niveau européen
35:11permettront d'éviter
35:13ce « sovereignty washing »
35:15alors pour donner
35:16toujours dans
35:18la position française
35:21justement sur
35:23jusqu'où elle va
35:23cette souveraineté numérique
35:24elle vous semble claire ?
35:27Il n'y a pas encore
35:28tous les détails
35:29ça c'est clair
35:30mais c'est clair
35:31que le président Macron
35:33a été quand même
35:33assez ferme
35:35sur cette notion
35:35de priorité
35:36de bail européenne
35:38le chancelier
35:39maire
35:40et le ministre
35:41allemand
35:42de la transformation
35:43numérique
35:43a un tout petit peu moins
35:44donc il y a encore
35:45des négociations
35:46qui ont d'ailleurs
35:47été annoncées
35:48il y a des groupes
35:48de travail
35:49franco-allemands
35:51qui vont continuer
35:54pour harmoniser
35:55les positions
35:56après ce que je voulais dire
35:58c'est que la commission
35:59européenne
35:59enfin au niveau
36:00de l'Union européenne
36:01il y a aussi
36:02une directive
36:03qui est en cours
36:04d'élaboration
36:05le Cloud and AI Act
36:07la directive
36:08sur le cloud
36:09et l'intelligence artificielle
36:10donc avec deux volets
36:12alors on a parlé
36:12beaucoup d'intelligence artificielle
36:14lors du sommet
36:14mais ça
36:15ce n'est pas non plus
36:16notre sujet principal
36:18et sur le cloud
36:19et donc sur cette notion
36:21de préférence européenne
36:22pour tous les technologies
36:24ou cloud
36:24on voit que
36:26aussi bien
36:27les fonctionnaires
36:27de la commission
36:28que les états membres
36:30sont en attente
36:31enfin en tout cas
36:32sont en train
36:33de travailler
36:34sur ce sujet
36:35et demandent
36:35l'avis de l'industrie
36:37donc avec Eurostack
36:38on a donné notre avis
36:39avec d'autres organisations
36:41il va aussi y avoir
36:41des avis
36:42qui sont similaires
36:43il me semble
36:44et donc au final
36:45on constate
36:46que l'industrie européenne
36:47effectivement
36:48demande
36:48pour sa plus grande majorité
36:51à ce que
36:52des critères
36:53assez stricts
36:54et qui excluent
36:55les solutions
36:56de type sovereignty washing
36:57soient adoptées
36:59par la commission
37:00aussi bien
37:00dans un cadre
37:01législatif
37:02et réglementaire
37:03que dans le cadre
37:04de critères
37:05plus concrets
37:06et plus immédiats
37:07de tel ou tel appel d'offres
37:09Mais on n'a pas l'impression
37:11que ça avance très vite
37:12alors je suis bien consciente
37:13qu'on se dit
37:13quand on voit ce genre
37:14de déclaration
37:14c'est positif
37:16ça veut dire que
37:17ça se construit
37:18ok
37:19l'industrie est écoutée
37:20l'Eurostack
37:21ça fait partie des sujets
37:23qui sont discutés
37:23tout ça
37:24ce sont des victoires
37:24mais très concrètement
37:26pour l'instant
37:26on attend quand même
37:27toujours qu'il se passe
37:27quelque chose
37:28Alors nous
37:30avec le CNLL
37:31on est là depuis 15 ans
37:32à alerter sur ces sujets
37:33je sais
37:34sur la notion
37:35de maîtrise
37:36indépendance
37:37pérennité
37:37des systèmes d'information
37:38notamment via le logiciel libre
37:41on a eu l'impression
37:43on a eu l'impression
37:43de prêcher un peu
37:44dans le désert
37:45notamment en France
37:46vis-à-vis des différents
37:47ministres du numérique
37:49ou secrétaires d'État
37:51au numérique
37:52à part peut-être
37:54Jean-Noël Barraud
37:55et puis
37:55avec l'arrivée
37:56de Clara Chappaz
37:58mais aussi
37:59du fait
38:00de la situation
38:02géopolitique internationale
38:04concrètement
38:05de Trump
38:06la donne
38:08a été changée
38:09les politiques
38:11français et européens
38:12se sont quand même
38:13rendues compte
38:13qu'il y avait
38:13un vrai sujet
38:14donc au mois
38:15de mars-avril
38:17Clara Chappaz
38:18a fait effectivement
38:18des déclarations
38:20qui allaient
38:20complètement
38:21à l'encontre
38:22de ce que
38:22certains de ses
38:23prédécesseurs
38:24comme Cédrico
38:24avait pu dire
38:26et la nouvelle
38:28la nouvelle ministre
38:29Anne Le Hénan
38:31qui était d'ailleurs
38:32également au sommet
38:34a réaffirmé
38:35cette notion
38:35de commande publique
38:37les détails
38:38bien sûr
38:39nous espérons
38:40que les détails
38:40seront suffisamment
38:42précis
38:43pour empêcher
38:45comme je le disais
38:46le sovereignty washing
38:48sachant que
38:49tout n'est pas clair
38:51par exemple
38:51il y a eu
38:52une intervention
38:53du ministre
38:55de l'Industrie
38:55qui était
38:57tout simplement
38:58de dire
38:58que Secnum Cloud
39:00c'était par exemple
39:01la solution
39:01à pas mal de problèmes
39:03et que d'ailleurs
39:04Google
39:05ou Amazon
39:06ou Microsoft
39:07allaient bientôt
39:08pouvoir devenir
39:08labelliser Secnum Cloud
39:10ce qui est complètement
39:11aberrant
39:12quand on parle
39:12de souveraineté numérique
39:13donc il y a encore
39:15peut-être
39:15auprès de certains ministres
39:17encore un peu
39:18de chemin à accomplir
39:19Merci beaucoup
39:20Stéphane Fermigier
39:21d'avoir commenté
39:21avec nous
39:22ce qui s'est passé
39:23donc le 18 novembre
39:24à Berlin
39:25je rappelle que
39:26vous êtes le coprésident
39:27du CNLL
39:28merci encore
39:30on termine nous
39:31cette édition
39:32avec notre rendez-vous
39:33culture cyber
39:33On termine avec
39:39notre cyberculture
39:41voilà
39:41on va faire un point
39:42sur l'OCINT
39:43d'abord
39:43pour cela
39:44j'ai invité
39:45une experte
39:46sur toutes ces questions
39:47juridiques
39:48autour du cyber
39:49et du numérique
39:50très heureuse
39:50de vous recevoir
39:51Myriam Kemener
39:52quelle définition
39:54vous donneriez-vous
39:55à l'OCINT ?
39:56en fait c'est
39:57de la recherche
39:58en source ouverte
39:59donc ça peut permettre
40:01de caractériser
40:03des indices numériques
40:04qui vont contribuer
40:06à trouver des preuves
40:08par exemple
40:09en matière de
40:10concurrence déloyale
40:12quand il y a une fuite
40:13de données
40:14certains prestataires
40:16justement
40:17font de l'OCINT
40:18pour détecter
40:19ou retrouver
40:20des données
40:22qui seraient dans la nature
40:23ça fait partie
40:24des outils
40:24que vous avez utilisés
40:25quand vous étiez avocate
40:25aujourd'hui vous êtes
40:26magistrat judiciaire
40:27honoraire
40:27docteur en droit
40:28est-ce que l'OSIN
40:29ça fait partie
40:29des outils de travail ?
40:30oui ça fait partie
40:31des outils
40:32et d'ailleurs
40:32souvent dans le cadre
40:34d'enquête
40:34souvent au départ
40:35c'était dans le cadre
40:36d'affaires de terrorisme
40:37mais en matière
40:39de criminalité organisée
40:40de plus en plus
40:41c'est utilisé
40:42et alors quels sont
40:43les risques
40:43à utiliser ces sources
40:45ouvertes ?
40:46est-ce qu'il y en a
40:46des risques juridiques ?
40:47alors il peut y en avoir
40:48c'est-à-dire qu'en fait
40:49le principe
40:49c'est libre
40:51c'est autorisé
40:52il n'y a pas de
40:53comme le scrapping
40:54il n'y a pas de difficulté
40:55on récupère
40:56ce qui est à disposition
40:57sur internet
40:58on récupère
40:59mais effectivement
41:00il faut respecter
41:03il faut qu'il y ait
41:04un motif légitime
41:05par exemple
41:05les praticiens
41:06en matière de cybersécurité
41:08vont faire de l'OSIN
41:09et là
41:09ils ont le droit
41:11de le faire
41:11par contre
41:12il peut y avoir
41:13des détournements
41:14c'est-à-dire des personnes
41:15qui vont récupérer
41:16des bases de données
41:17à des fins illicites
41:18et là
41:18ils peuvent tomber
41:19sous le coup
41:19justement
41:20de la loi Godefrain
41:21qui réprime
41:22par exemple
41:22le piratage
41:23il faut respecter
41:24aussi la propriété
41:25intellectuelle
41:26la protection des données
41:27il faut que ce soit
41:28proportionné
41:28et le critère
41:30c'est aussi
41:31justement
41:32d'ailleurs
41:33ça peut être sanctionné
41:34s'il n'y a pas
41:34de motif légitime
41:36à des fins de recherche
41:37ou des fins
41:39de cybersécurité
41:40fin de sécurité
41:41là
41:42à ce moment-là
41:43il peut y avoir
41:43une infraction pénale
41:45et c'est pas forcément
41:46toujours facile à prouver
41:47j'imagine
41:48alors en fait
41:49effectivement
41:50c'est du cas par cas
41:51il y a eu une jurisprudence
41:52récemment
41:52c'était en fait
41:53un détective privé
41:54employé par une entreprise
41:56pour justement
41:57pister un salarié
41:59en fait
41:59ça s'est
42:01assez mal terminé
42:02il a été considéré
42:03que la preuve
42:04était déloyale
42:05parce que
42:06le détective privé
42:08a fait du profilage
42:10et porter atteinte
42:12et porter atteinte
42:12à la vie privée
42:13du salarié
42:14est-ce qu'aujourd'hui
42:15vous diriez
42:16que les lanceurs d'alerte
42:17en matière de cybersécurité
42:18sont bien protégés ?
42:21alors effectivement
42:21les lanceurs d'alerte
42:22il y a plusieurs
42:23termes
42:24ça peut être aussi
42:25des hackers éthiques
42:27donc il y a une réglementation
42:28on travaille beaucoup
42:29sur le signe justement
42:30oui exactement
42:31donc il y a une réglementation
42:33c'est-à-dire que
42:33c'est
42:34le signalant
42:35de vulnérabilité
42:36c'est le terme
42:37employé par l'ANSI
42:38signale
42:40justement
42:41l'ANSI
42:41qui apprécie
42:42justement
42:43le bien fondé
42:44de ce signalement
42:45et c'est
42:45un article
42:47du code de la défense
42:48qui prévoit
42:49cette procédure
42:50donc il y a
42:51à peu près
42:51plus de 200
42:52signalements par an
42:54auprès de l'ANSI
42:55mais sinon
42:55après c'est vrai
42:56que faire du hacking éthique
42:58ça peut être aussi
43:00maintenant
43:00un peu un business
43:01donc il y a d'autres voies
43:03que celle du signalement
43:05à l'ANSI
43:05parce que
43:06tout ça se monnaie
43:08tout est une question
43:09finalement d'exploitation
43:10aussi
43:10voilà
43:11exactement
43:12merci beaucoup
43:13alors on va signaler
43:14que vous publiez
43:14une tribune sur ce sujet
43:16en décembre
43:17avec l'avocate
43:18Garance Mathias
43:19et puis vous pouvez nous
43:19donner un rendez-vous
43:20il y a une conférence
43:21sur ce thème
43:21oui alors
43:22il y a un rendez-vous
43:23très intéressant
43:24le 18 décembre
43:25c'est la fédération française
43:26de cybersécurité
43:28qui organise justement
43:30une soirée
43:30c'est la soirée
43:31annuelle
43:32de cette fédération
43:33et le thème principal
43:35ce sera
43:36l'OSINT
43:36justement
43:37de quoi renforcer
43:38sa culture cyber
43:39merci beaucoup
43:40Myriam Kemenin
43:40je rappelle que vous êtes
43:41magistrat judiciaire
43:42honoraire
43:43merci à tous
43:44de nous avoir suivis
43:44c'était Smart Cyber
43:45votre nouvelle émission
43:46sur la confiance numérique
43:48première émission
43:49sur la confiance numérique
43:50ça se passe sur la chaîne
43:50Bismarck
43:51à très bientôt
43:51à très bientôt
43:51Sous-titrage Société Radio-Canada
43:53Sous-titrage Société Radio-Canada
44:01Sous-titrage Société Radio-Canada
44:01Merci à tous
Recommandations
11:13
|
À suivre
12:17
28:59
28:29
42:44
29:05
29:00
28:09
28:28
3:38
28:32
28:18
27:33
27:29
28:18
28:47
24:41
28:24
28:46
Écris le tout premier commentaire