Avec Abdel Regragui (Dell Technologies), nous expliquons comment les organisations peuvent sécuriser les systèmes d’IA en s’appuyant sur leurs pratiques actuelles, pourquoi les cyberattaques amplifiées par l’IA imposent une hygiène Zero Trust, une protection globale des modèles et des données, et comment les solutions PowerProtect renforcent la résilience des infrastructures, des PME aux grands groupes.
00:00Sécuriser l'intelligence artificielle, ce n'est pas une mince affaire.
00:08Alors on fait comment ?
00:09Pour répondre à cette question, j'ai invité Abdel Régraghi.
00:12Vous êtes directeur des technologies de Gen AI, Cloud, Cyber pour la région IMEA chez Dell Technologies.
00:18Merci beaucoup d'être avec nous.
00:19Merci de l'invitation.
00:20Alors j'ai pensé à un petit jeu qu'on pourrait faire ensemble.
00:23Je vais vous poser des questions vraies ou faux.
00:25Et puis je vous demanderai d'argumenter évidemment.
00:27C'est une question vraie ou faux sur la sécurité de l'IA.
00:31Alors les systèmes d'intelligence artificielle sont trop complexes pour être sécurisés.
00:35C'est vrai ou c'est faux ?
00:36Faux.
00:37Pourquoi ?
00:37Parce que tout simplement aujourd'hui, les infrastructures IA s'appuient quand même sur des infrastructures existantes.
00:44On a développé des modèles, on a développé de nouveaux flux.
00:47Beaucoup de modèles vont venir s'appuyer, mais l'infrastructure n'est pas quelque chose de nouveau.
00:51On le protège depuis de nombreuses années.
00:53Le cadre de l'IA apporte quelques challenges qui consistent à la volumétrie, à la manière d'intégrer et d'aller chercher les connecteurs et les différents environnements.
01:03Là, oui, il y a un travail d'innovation et de déploiement.
01:08Mais en ça, la sécurité des systèmes IA réside sur la même démarche que ce qu'on fait depuis de nombreux années chez Dell Technologies.
01:16Ok.
01:16Alors vrai ou faux ?
01:18On a déjà tout ce qu'il faut aujourd'hui pour sécuriser l'IA, justement ?
01:23Alors, oui et non.
01:25Il est difficile de répondre d'une manière très simple à cette question.
01:29Alors, on a pas mal de choses.
01:30Comme je l'ai dit, globalement, on a la possibilité d'aller protéger la donnée.
01:34On va avoir la capacité de protéger les accès à différents systèmes, que ce soit sur la phase d'entraînement, que ce soit l'ajustement ou de déploiement en production.
01:41Pour autant, il y a énormément d'acteurs qui viennent alimenter ces différents modèles, qui vont apporter de la valeur sur ces systèmes-là.
01:49Et là, il y a un travail d'engineering que nous on fait avec nos partenaires ou au sein de nos développements pour pouvoir les prendre en charge.
01:55Mais globalement, sur la capacité d'aller chercher la donnée et surtout de pouvoir la restaurer, la reconstruire dans certains cas.
02:03Parce qu'on parlera dans certains moments, parce que l'IA est une cible.
02:07Oui.
02:08Parlez à cœur.
02:08Il y a une cible, parce qu'ils utilisent aussi l'IA pour attaquer l'IA.
02:12Donc l'exfiltration, la manipulation, l'empoisonnement des données.
02:16C'est comment sécuriser ces flux-là pour qu'on ait des résultats qui soient toujours cohérents et qui soient conformes à ce qu'on attend.
02:24Et c'est là qu'il y a un travail de fond sur le développement.
02:26Oui, c'est pour ça que c'est vrai et faux.
02:27J'entends, je prends tout à fait votre réponse.
02:30Vrai ou faux, sécuriser l'IA se limite à la protection des données ?
02:33Vous avez quand même un petit peu répondu, là.
02:35J'ai déjà répondu non.
02:37Non.
02:38Non, parce qu'on pourrait y penser spontanément, en fait.
02:42Spontanément, oui.
02:43Parce qu'on dit, je vais consommer de la donnée et je vais générer de la nouvelle donnée.
02:48Donc globalement, je vais me focaliser sur la donnée.
02:51Je regarde les données entrantes, les données sortantes et je suis bien.
02:53Ça paraît si simple.
02:54Mais la réalité, c'est bien au-delà de ça.
02:57Parce qu'aujourd'hui, la donnée, elle va passer sur pas mal de flux.
03:01Il y a pas mal de systèmes qui vont venir alimenter, enrichir les filtres, par exemple, qu'on va avoir en entrée, en sortie.
03:08Il va y avoir plusieurs IA qui s'enchaînent.
03:12Parce que c'est pas une seule IA.
03:13On ne parle pas de monolithique, mais de plusieurs systèmes qui vont apporter, elle, et enrichir la donnée pour obtenir un résultat final.
03:20Et cette complexité fait qu'on aura besoin d'aller chercher les données et aussi les configurations et aussi certains paramétrages qui sont des fois dans le périmètre que l'on gère, mais aussi souvent avec des partenaires qui, eux, vont avoir des systèmes sur lesquels on n'a pas accès.
03:38Et donc, la configuration, la sécurisation de ces systèmes-là requiert une stratégie autre que celle qu'on a dans un modèle défini par le neutral et sur tous les flux, exactement.
03:49Allez, un petit dernier.
03:51Vrai ou faux, l'IA agentique ne rendra jamais la supervision humaine inutile ?
03:57Jamais, hein ?
03:58Non. Je confirme cette raison. Je la confirme. Elle ne rendra jamais inutile l'humain parce qu'aujourd'hui, il y a une...
04:06Donc, vrai. Vous êtes d'accord.
04:07Oui, tout à fait.
04:08Donc, sur ce point-là, il y a besoin.
04:10Vous êtes sûre ? Parce que pourtant, quand on dit agentique, on parle automatisation et donc, il n'y a plus d'humains.
04:16C'est ce qu'on pense. Il y a certaines tâches. On va pouvoir, dans la chaîne de création des différentes fonctionnalités que l'humain est capable de faire, on va pouvoir réduire, selon les métiers, selon les cas d'usage,
04:27entre 10% jusqu'à 80% l'intervention humaine. Mais il y aura toujours besoin d'une intelligence humaine parce que l'intelligence, elle, va pouvoir accélérer. C'est de l'analytique.
04:39Mais avoir cette capacité de trouver des chemins d'intelligence courts, de s'adapter à des environs plus complexes, l'humain a toujours un avantage.
04:48Et cette capacité de contrôle et s'assurer que ce qu'on attend est conforme à ce que l'on veut dans le contexte qui a été demandé, l'humain jouera toujours un rôle.
04:55Parce qu'on entend aussi beaucoup parler maintenant d'IA qui sont capables de surveiller les IA, de faire finalement cette supervision.
05:03Alors, supervision, encore une fois, je la trouve, elle va être utile sur la partie analytique, informatique, technique.
05:10Ces éléments de s'assurer qu'il n'y a pas des biais qui sont trop importants, que corriger le paramètre.
05:15Parce qu'aujourd'hui, on utilise des data scientists qui vont définir le modèle et qui vont avoir à faire du fine tuning en permanence.
05:21Ce travail-là, de définition, je pense que l'humain sera toujours le précurseur.
05:26Mais après tout le travail de maintenance, de monitoring, d'ajustement, oui, là on pourra réduire de manière assez forte.
05:33Tout en ayant toujours un petit contrôle pour s'assurer qu'il n'y a pas un biais dans le biais de la correction.
05:40Donc ça, c'est quelque chose sur lequel on aura toujours besoin d'avoir une vue humaine, à mon sens.
05:45Donc, voilà, je n'avais pas prévu un vrai ou faux, c'était ma dernière question, mais j'en rajoute une petite.
05:49Donc, ça veut dire que l'intelligence artificielle ne remet pas en question les stratégies de cyber-résilience.
05:56Elles sont toujours possibles, si j'ai bien compris.
05:58Oui, on peut être cyber-résilient en utilisant de l'IA, mais ça demande quand même des transformations.
06:03Ça demande des transformations.
06:04Il faut prendre en considération que la cyber-résilience reste un domaine un peu plus large,
06:08qui est aujourd'hui, pour moi, un risque important économiquement dans toutes les organisations avec lesquelles je travaille.
06:15C'est un élément qui devient critique.
06:18Et l'IA en fait partie, mais n'est pas le cœur qui va résoudre le problème.
06:22La résilience, c'est une posture, c'est un entraînement, comme le dit Lancie, et fortement, je recommande,
06:28avec toutes les solutions qu'on pourrait avoir, si on n'est pas prêt à les utiliser, être prêt à l'éventualité,
06:33on ne pourra pas réagir correctement.
06:35Donc, l'entraînement, avoir les bonnes pratiques et être capable de pouvoir partir du principe que si le système tombe, comment on fait ?
06:43Donc, avoir toute cette notion de résilience, de continuer à servir.
06:47Continuité d'activité.
06:48D'activité. Et ça, c'est quelque chose qui m'inquiète, parce qu'on pense qu'avec l'IA, on va résoudre ces problèmes-là.
06:55Mais en réalité, on se crée un nouveau challenge, parce que qu'est-ce qui se passe si on n'a plus d'IA ?
07:00Comment on va pouvoir réagir ? Quelles sont nos capacités ?
07:05Donc, ce qu'on fait chez Dell Technologies, on va apporter quelques solutions qui vont garantir,
07:09et là, je suis assez content, on intègre des solutions très rapidement,
07:13et des technologies françaises, Fleuron, CECLAB, qui va nous permettre de faire de l'isolement,
07:19de ruptures protocolaires, technologies qui viennent du nucléaire,
07:21pour isoler les données et les systèmes, de manière à être encore plus résilient sur ces systèmes-là.
07:26Bon, donc on a des stratégies de résilience à mettre en œuvre, ce sera l'objet d'un autre sujet.
07:30Avec grand plaisir.
07:30Merci beaucoup, Abdel Régragui, pardon, je rappelle, vous êtes directeur des technologies de Gen.I.I. Cloud et Cyber chez Dell Technologies.
07:39Allez, on enchaîne, on va parler du sommet sur la souveraineté numérique européenne, avec un décryptage.
Écris le tout premier commentaire