Passer au playerPasser au contenu principal
  • il y a 2 mois
Vendredi 21 novembre 2025, retrouvez Gérôme Billois, (Associé en cybersécurité et confiance numérique, Wavestone) dans SMART CYBER, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Et donc on démarre ce SmartCyber avec le PointCyber et Jérôme Billois. Bonjour Jérôme.
00:08Bonjour.
00:09Associé en cybersécurité et confiance numérique au sein du cabinet Wavestone.
00:13Alors de quoi va-t-on parler ? On va parler d'une attaque menée par des Chinois
00:17pour expliquer un peu comment ça se passe aujourd'hui, ces attaques automatisées par intelligence artificielle.
00:22Est-ce que vous pouvez déjà nous redonner un peu de contexte ? Que s'est-il passé ?
00:25Tout à fait. Donc on est sur une attaque qui a été révélée par Anthropik,
00:29qui est donc une société bien connue qui crée le modèle d'intelligence artificielle Cloud.
00:34Ils ont eu des alertes qui sont remontées en septembre 2025 d'un comportement anormal
00:38dans leur moteur d'intelligence artificielle et ils ont regardé ce qui se passait.
00:42Et ils ont découvert quoi ? Ils ont découvert une campagne d'attaque automatisée
00:45qui est conduite d'après leurs analyses par un acteur étatique chinois
00:50qui a donc utilisé l'intelligence artificielle pour réaliser la totalité de l'attaque,
00:56c'est-à-dire à la fois être en mesure de découvrir la cible qu'ils veulent attaquer
01:01et puis ensuite de piloter un certain nombre d'éléments de l'attaque.
01:05Mais ça restait théorique ou il y a véritablement eu des attaques ?
01:09Il y a véritablement eu des attaques.
01:11Ce qu'on ne sait pas, c'est ce qui s'est passé après.
01:13Parce qu'en fait, ce qu'Anthropik a pu voir,
01:16ils n'ont pas donné aussi tous les détails techniques.
01:18Ils veulent garder un peu de flou peut-être là-dessus
01:20pour ne pas donner non plus trop d'idées aux attaquants.
01:23Ce qu'ils ont pu voir, c'est que les attaquants ont déjà réalisé un certain nombre de promptes
01:27pour pouvoir scanner la victime,
01:31essayer de trouver le maximum d'informations,
01:33en renseignant simplement les victimes
01:34et en disant ensuite à l'IA, utilise tel et tel outil pour aller scanner.
01:38Donc ils ont récupéré toutes ces informations-là.
01:41Ensuite, ils ont lancé l'IA sur des tests d'un certain nombre
01:44de comptes, de mots de passe, de vulnérabilité qui avaient été trouvés.
01:48Et de la même manière, c'est l'IA qui l'a fait seul
01:50et qui ensuite a ramené l'ensemble de ces informations.
01:54Et donc on sait qu'il y a eu des vraies attaques.
01:56Il y a des interventions humaines à chaque fois, entre chaque étape,
01:58où vraiment tout est automatisé de A à Z, de ce que l'on sait aujourd'hui.
02:03Alors aujourd'hui, il y a eu des interventions humaines
02:05parce que clairement les IA, même dans le domaine métier,
02:08mais aussi dans le domaine de la cyberattaque,
02:10à un moment ou à un autre, elles dérivent,
02:11à un moment ou à un autre, elles fonctionnent moins bien.
02:13Et puis, comme on dit, il faut toujours qu'il y ait un human
02:15à minima over the loop, pour regarder ce qui se passe
02:18et revalider chacune des étapes.
02:20Et même Anthropique, d'ailleurs, le signale dans son rapport d'analyse,
02:23ils disent, voilà, l'IA a fait des erreurs,
02:25l'IA a donné des mauvais mots de passe,
02:27a donné des mauvais comptes à l'attaquant,
02:28qui est obligé de le tester et de voir que ça ne marchait pas.
02:32Et donc, ce qui est bien, c'est que ce n'est pas tout parfait,
02:35heureusement, aujourd'hui.
02:36Oui, donc ça peut faire perdre du temps même aux cyberattaquants,
02:39mais ça donne quand même une idée de ce qui pourrait arriver demain
02:42comme menace de manière beaucoup plus importante.
02:45Est-ce que c'est uniquement sur les utilisateurs d'Anthropique ou pas du tout ?
02:50Non, alors là, Anthropique était vraiment l'outil utilisé,
02:53les victimes peuvent être partout, peuvent être n'importe quelle entreprise.
02:55Même si on n'utilise pas une IA ?
02:57Voilà, et d'autres IA, type ChatGPT ou d'autres IA auraient pu être utilisées.
03:04D'ailleurs, c'est intéressant à noter que l'attaquant a déjà été obligé d'attaquer l'IA
03:08pour la déverrouiller, pour qu'elle puisse finalement réaliser ses actions malveillantes.
03:14Ils expliquent qu'ils ont utilisé des promptes,
03:15ils se sont fait passer pour des experts en cybersécurité,
03:18disant « je fais une campagne de test défensif, est-ce que tu peux m'aider à la réaliser ? »
03:24Et en fait, c'était offensif, ils ont menti à l'IA, mais l'IA ne le sait pas,
03:27et donc l'IA a laissé passer ses actions malveillantes.
03:30Et alors le conseil du pro, Jérôme, quel est votre conseil pour se préparer à ce type de menace ?
03:35Le conseil du pro, c'est qu'on voit bien qu'aujourd'hui l'IA est de plus en plus utilisée
03:38par les cybercriminels.
03:39Il y a quelques années maintenant, c'était pour faire des meilleurs mails de phishing,
03:43très basiques, ensuite on a eu les deepfakes,
03:45et là maintenant on a des attaques pointues qui commencent à être automatisées.
03:49En réponse, qu'est-ce qu'il faut faire ?
03:50C'est aussi utiliser l'IA dans la défense.
03:52On voit aujourd'hui très clairement qu'il y a des solutions qui arrivent
03:56pour faire de la sécurité applicative, plus simplement,
04:01pour automatiser la recherche de failles,
04:02automatiser l'écriture de codes pour corriger ces failles.
04:06Il y a un concours que je conseille de regarder à tous les auditeurs
04:09qui a été fait par l'entité de recherche du ministère de la Défense aux États-Unis,
04:13qui s'appelle la DARPA, le concours s'appelle AIXCC,
04:16vous pourrez regarder sur Internet,
04:18qui ont montré qu'ils ont entraîné des IA pour corriger automatiquement des failles.
04:22Et en fait, les gagnants de ce concours ont réussi à créer une IA
04:27qui, en moyenne, a corrigé des failles dans des logiciels en 45 minutes,
04:32mais de l'identification de la faille, l'écriture du code source,
04:35le test de l'efficacité du correctif,
04:39et également les tests fonctionnels,
04:40donc le logiciel marche à la fin,
04:42tout ça en moyenne pour 45 minutes et en moyenne pour un peu plus de 400 dollars,
04:47ce qui est sans commune mesure avec aujourd'hui ce que ça coûte
04:50et le temps que ça prend dans les entreprises pour corriger ce type de failles.
04:54Ça veut dire que ça va complètement disrupter le marché aussi de la cybersécurité ?
04:58Ça va peut-être enfin nous permettre d'être à la vitesse des attaquants, comme je disais,
05:01parce que depuis des années, on est là, on est en difficulté,
05:04on manque de bras beaucoup, on manque de moyens aussi.
05:08Et donc là, je ne pense pas que l'IA va faire des licenciements en cybersécurité.
05:11Honnêtement, je pense que l'IA va nous permettre de faire le métier qu'on devrait faire
05:15et de pouvoir passer à l'échelle sur des sujets comme la gestion des tiers,
05:19la classification des documents, la couverture des failles applicatives.
05:22Ça, c'est des choses qu'on n'arrivait pas à faire par manque de bras,
05:25par manque de temps, par manque de moyens.
05:27Et là, l'IA peut être un vrai accélérateur.
05:29C'est ce qu'on teste, nous, sur le terrain à l'heure où on se parle.
05:32Et on voit des premiers gains qui sont vraiment frappants.
05:35Donc, l'IA accélérateur, plutôt de la résilience.
05:38C'est ça que vous nous dites aujourd'hui.
05:40En tout cas, il faut commencer à s'en emparer très, très sérieusement et ne pas traîner.
05:44Merci beaucoup, Jérôme Billois, du cabinet Wavestone,
05:46pour votre éclairage sur ce point cyber.
05:49À suivre, on va s'intéresser aux nouveaux défis que posent les robots.
05:52Les robots qui arrivent en masse, nous dit-on.
05:54Quels sont ces nouveaux défis cyber ?
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations