Passer au playerPasser au contenu principal
  • il y a 3 mois
Aurélien Francillon, professeur à EURECOM, se mobilise avec d’autres chercheurs face à la proposition européenne Chat Control. Ils souhaitent attirer l’attention des politiques et de la société sur les enjeux liés à cette mesure.

Catégorie

🗞
News
Transcription
00:00Surveillance de masse, destruction de la confidentialité des échanges numériques, de la sécurité, de toute raison d'être même, on peut dire, des messageries protégées par chiffrement,
00:16les Européens ne seraient pas passés loin du cauchemar Tchad Control, dispositif qui a échappé au vote prévu en octobre.
00:23Mais les discussions au sein des institutions européennes continuent. Dans une lettre ouverte envoyée aux membres du Conseil de l'Union Européenne et du Parlement européen,
00:30800 chercheurs et scientifiques expliquent pourquoi ils disent non à l'instauration de ce dispositif qui mettrait en œuvre une détection massive automatisée des contenus que l'on s'échange via les messageries.
00:42Cette mesure est la plus controversée du projet de règlement sur le contenu relatif à des abus sexuels sur enfants, C-S-A-M pour Child Sexual Abuse Materials.
00:54Mon grand invité Aurélien Francillon est le porte-parole en France des scientifiques qui ont signé cette lettre ouverte contre Tchad Control.
01:02Il est aussi professeur au sein du département sécurité numérique de Récom, une école d'ingénieurs en sciences du numérique à Sofia Antipolis dans les Alpes-Maritimes.
01:10Il enseigne la sécurité des systèmes et réseaux.
01:15Alors Aurélien, merci beaucoup d'être connecté avec nous pour apporter vos commentaires et éclairages sur ce dispositif.
01:21Mais j'ai déjà lu dans une de vos présentations officielles que vous vous intéressez naturellement à la protection de la vie privée car la sécurité doit servir les utilisateurs et non être utilisée contre eux.
01:34C'est un peu une phrase en forme de rappel ça parce que tout le monde ne partage pas cette vision ?
01:40Bonjour, merci pour l'invitation déjà.
01:43Et oui, je pense que c'est un problème assez récurrent.
01:46On a toujours une tension en fait entre la sécurité des utilisateurs, la sécurité d'un État, des services de renseignement, etc.
01:54Et je pense que c'est important d'avoir un équilibre et on ne peut pas tout faire d'un côté, on va dire.
02:01Voilà, c'est légitime d'avoir des services de renseignement par exemple ou des services de police.
02:07Mais si on leur donne accès à tout, on retombe un peu dans le cliché 1984, la surveillance de masse de Orwell.
02:16Et ça, ce n'est pas quelque chose qui nous intéresse.
02:17Donc là, j'ai comme le sentiment que Chat Control, ce n'est pas du tout la sécurité au service des utilisateurs, selon vous.
02:25Il y a eu un retournement avec un retrait inextrémiste de l'ordre du jour du texte qui devait mettre en place, qui devait instaurer cette surveillance des messageries.
02:37Dans la déclaration commune que vous avez signée avec plus de 800 autres chercheurs et scientifiques, vous exprimez votre opposition, mais aussi vos inquiétudes.
02:48Mais alors, ce qui m'a frappé, c'est que vous commencez par expliquer pourquoi finalement ce n'est pas faisable d'appliquer ce Chat Control.
02:55Oui, c'est ça. En fait, il y a beaucoup de raisons pour lesquelles on pourrait être contre Chat Control.
03:01Nous, en tant que scientifiques, on regarde les choses assez factuellement.
03:04Il y a des raisons démocratiques, etc. auxquelles on s'oppose aussi.
03:08Mais d'un point de vue technique, en fait, aujourd'hui, il y a un problème qui vient pour la police du fait qu'on commence à avoir vraiment des systèmes sécurisés aujourd'hui.
03:20Donc, on ne peut plus être écouté aussi facilement qu'avant par le téléphone.
03:26On peut faire des écoutes téléphoniques, etc. ou ouvrir des courriers à la poste.
03:29Aujourd'hui, on va dire depuis une dizaine d'années, les téléphones deviennent de plus en plus sécurisés.
03:35Et on a des applications comme WhatsApp, Signal ou Telegram dans certains contextes qui ont un vrai bon niveau de sécurité.
03:43Et en fait, les forces de police ne peuvent plus accéder à ça, à ces informations.
03:48Et en fait, aujourd'hui, si vous envoyez un message par Gmail, par exemple, ou une image sur Google Drive,
04:00les forces de police peuvent demander à Google d'accéder au contenu.
04:03Il peut y avoir un juge qui donne une autorisation et une force de police va pouvoir faire une recadilberne.
04:09Et aujourd'hui, ce qui se passe, c'est que depuis une dizaine d'années, on a ces applications qui font ce qu'on appelle un-to-un encryption.
04:14C'est du chiffrement de bout en bout, c'est-à-dire que c'est chiffré d'une application à l'autre et que vos images, vos textes,
04:21ne sont pas disponibles pour Google ou pour Facebook, quand on parle de WhatsApp, ou pour les serveurs Signal, par exemple.
04:28Il n'y a aucune information, Signal n'a aucune information, Signal ou WhatsApp n'a aucune information à donner à une requête judiciaire.
04:36Et du coup, en fait, c'est une bonne chose pour la vie privée.
04:40Donc, les informations sont vraiment protégées. On peut échanger des fichiers sans qu'il y ait le risque que,
04:46même si, par exemple, Facebook ou WhatsApp se fait compromettre, ou si Google perd des données ou se fait attaquer,
04:52les données ne sont pas présentes. D'accord ? Donc, elles sont protégées.
04:55Le problème, c'est que finalement, la police dit « Mais nous, on veut accéder aux données. »
05:00Et en fait, le seul moyen d'accéder aux données, c'est soit, un, de mettre des backdoors,
05:04soit, deux, d'accéder aux données sur le téléphone avant qu'elles soient chiffrées.
05:07D'accord ? Mais ça nécessite, du coup, accéder aux données de tout le monde,
05:11même d'une manière automatique, pour en revenir dessus.
05:14Voilà. Donc, ça, c'est le premier problème.
05:15C'est que, du coup, les forces de police voudraient accéder au contenu du téléphone directement.
05:20Et le deuxième problème, c'est que les techniques,
05:23on ne peut pas accéder à tout le contenu et tout télécharger automatiquement sur les serres de la police,
05:26ça ne serait pas envisageable.
05:28Et en fait, les techniques qui permettraient de vérifier que le contenu est légitime ou illégal,
05:37aujourd'hui, on n'a pas de technique qui marche.
05:39C'est-à-dire que, peut-être on reviendra en détail,
05:41De manière automatisée.
05:43C'est ça. De manière automatisée, on n'a pas de technique qui marche.
05:46Et, par exemple, aujourd'hui, si on fait un petit calcul,
05:51il y a des collisions.
05:52Il y a des cas où on ratera des contenus,
05:55mais il y a des cas où des contenus vont être identifiés comme potentiellement illégaux.
05:59Et, du coup, ils devront être envoyés à la police pour vérification.
06:03Et on parle de centaines de millions d'images par an,
06:07si on met ça au niveau de l'Europe.
06:08Donc, c'est des quantités colossales de données
06:10qui devront être envoyées à la police pour vérification.
06:13Et donc, ces anorythmes,
06:16qu'on appelle des âges perceptuels,
06:18qui sont un peu la meilleure technologie
06:20qui est en partie déployée déjà par Apple et par d'autres,
06:24en fait, ils fonctionnent très mal.
06:25Et on n'a pas vraiment de solution technique à ça.
06:28Alors, ce texte, il ne date pas d'aujourd'hui.
06:32Il y a eu vraiment beaucoup de discussions.
06:34Ça fait des années, en fait, qu'on voit
06:36Tchad Control arriver comme une menace.
06:38Il a été remanié dans sa dernière version.
06:43Il y a des choses qui ont été prises en compte,
06:45notamment sur les techniques utilisées
06:49pour pouvoir accéder au contenu.
06:52On ne parle plus de casser le chiffrement des messageries.
06:55On décide, effectivement, d'utiliser, en fait,
06:58le device, l'appareil des utilisateurs,
07:01comme d'un support pour scanner les contenus,
07:03donc avant qu'ils ne soient envoyés sur des messageries privées.
07:06Ça, c'est une première chose qui a été changée.
07:08Et une deuxième, c'est que le texte ne dit plus
07:11qu'il veut accéder à l'ensemble des contenus des messageries.
07:14Ils ont retiré toute la partie textuelle et vocale
07:16pour, finalement, ne s'intéresser plus qu'aux images et aux URL.
07:23Alors, avec un système potentiellement automatisé
07:26par intelligence artificielle et une vérification à postériori
07:29par les forces de police, comme vous l'avez très, très bien expliqué.
07:31Mais là aussi, est-ce qu'il n'y a pas déjà une limite technique ?
07:35Les smartphones sont-ils capables, aujourd'hui,
07:39d'appliquer tout ce traitement de scan des images
07:42et des URL que l'on envoie sur des messageries ?
07:46Il n'y a pas tellement une limite au niveau de la capacité
07:50des téléphones de le faire.
07:51La limite est plutôt vraiment fondamentale, en fait,
07:53sur la capacité des algorithmes qu'on a de bien fonctionner.
07:57Donc, en fait, les algorithmes qu'on a, on va dire,
08:00on peut regarder assez simplement.
08:02En fait, le principe, c'est qu'il y a des grandes bases de données
08:05de contenus pédopriques criminels qui sont connues
08:07et une entreprise qui manage ça.
08:10Donc, on a une liste de contenus illégaux qui sont connus.
08:14On pourrait faire une empreinte exacte de chacun de ces contenus
08:18et demander une vérification que ce contenu n'est pas présent
08:20sur le téléphone.
08:21Ça, c'est une technique, ce qu'on appelle un hash classique,
08:25quelque chose qu'on connaît très bien en photographie.
08:26Mais ça voudrait dire qu'on reconnaît exactement le même fichier.
08:30Si on fait un petit changement, on rajoute, on redimensionne,
08:34on réduit un peu la qualité de l'image, ça ne correspond plus du tout.
08:37Et donc, ça ferait vraiment d'images qui ne seraient pas détectées, en fait.
08:42Donc, ça ne marcherait pas très, très mal.
08:44On peut le faire quand même, mais il y a des gros trous dans la récarte, on va dire.
08:47Alors, qu'est-ce qu'il existerait comme autres options ?
08:51Parce que, de toute façon, la députée européenne Stéphane Nillon-Courtin a dit que,
08:56sur Twitter, hier, elle disait que les discussions allaient continuer.
09:01On n'a pas enterré de chaque contrôle, visiblement.
09:03Donc, il va falloir trouver d'autres options.
09:05Qu'est-ce que vous proposez ?
09:06L'option technique, alors, ce n'est pas vraiment ce que moi je propose,
09:09mais c'est l'option technique la plus commune,
09:11c'est d'utiliser ce qu'on appelle les H-perceptuels.
09:13C'est-à-dire qu'on va faire une sorte de signature d'un fichier,
09:16et on va essayer de reconnaître cette signature sur les téléphones, d'accord ?
09:19Donc, on va reconnaître un fichier existant.
09:22Et en fait, ces signatures, ce qu'on appelle les H-perceptuels,
09:24vont reconnaître une similitude entre deux images.
09:27Mais ils ont énormément de faux positifs.
09:28C'est-à-dire qu'on va pouvoir faire une vérification de cette image,
09:34et en fait, cette image, on va avoir une correspondance.
09:39Sauf que, peut-être assez souvent, si on teste 100 images,
09:42on va peut-être avoir une image qui va avoir une correspondance
09:44sur un fichier pédopé criminel, alors que ce n'est pas du tout le cas.
09:48Et donc, ça veut dire qu'on va appeler, par exemple,
09:49une image sur le centre que vous avez sur votre téléphone,
09:51elle va être envoyée à la police pour vérification.
09:53Et ça, ça ne marche du coup pas bien.
09:56Et en fait, si on passe à une très grande échelle,
09:58ce phénomène s'amplifie, et on peut calculer,
10:02c'est des centaines de millions d'images qui seraient envoyées à la police,
10:04illégitimement, puisqu'on ne peut pas leur reprocher.
10:09Et c'est assez symptomatique de ça,
10:14que le texte prévoit d'exclure les hommes politiques,
10:18les forces de police et les renseignements de ce système.
10:22C'est-à-dire qu'eux sont protégés,
10:23parce que, visiblement, ce n'est pas acceptable pour eux d'être surveillés.
10:27Et il y a aussi, par exemple, une lettre des avocats du barreau européen
10:32qui se plaignent de ça.
10:33Ils disent, nous, dans notre métier, il faut qu'on puisse avoir la confidentialité.
10:38Et là, il n'y aura pas.
10:38Il y aura des fichiers qui seront un peu aléatoirement envoyés vers la police.
10:42Il y a encore d'autres problèmes.
10:43On peut revenir sur un peu d'autres catégories de problèmes
10:45qu'il y a avec ces H-perceptuels, si vous voulez.
10:47Oui, allez-y, je vous écoute.
10:49En fait, en les H-perceptuels, il y a un autre problème,
10:52c'est que des chercheurs en Belgique ont montré que c'était tout à fait possible
10:57pour une image qui était effectivement un contenu pédocriminel
11:01de la modifier légèrement pour qu'elle ne soit plus reconnue par ces algorithmes.
11:05Il y a deux algorithmes qui existent, une photo de DNA, par exemple.
11:09Et en fait, ils ont pu tester ces algorithmes
11:12et ils ont pu montrer qu'en fait des petites modifications
11:13sur une image connue et illégale, qu'elle ne soit plus détectée par ces algorithmes.
11:19Et encore pire, on peut aussi prendre une photo complètement anodine,
11:24la modifier pour qu'elle soit reconnue comme un contenu pédopornographique.
11:29Donc, à la fois, naturellement, ces algorithmes ne marchent pas très bien.
11:32Il y aura beaucoup d'images qui seront envoyées en fait à la police pour vérification.
11:36Mais en plus, si quelqu'un va les manipuler volontairement,
11:39il pourra échapper au système.
11:40Et ensuite, il pourra aussi incriminer quelqu'un
11:44ou forcer des images que quelqu'un soit reporté.
11:47Donc ça, c'est des problèmes un peu fondamentaux.
11:49Et aujourd'hui, technologiquement, on n'a pas de solution.
11:51Oui, ça veut dire que non seulement c'est quand même une surveillance généralisée
11:58pour tous les utilisateurs de smartphones,
12:01mais en plus, ça peut être facilement contourné par les vrais pédocriminels.
12:05Il y a quand même aussi cette question d'accepter de faire tourner ces algorithmes
12:10qui vont sans doute s'améliorer,
12:12faire tourner ces algorithmes sur les smartphones de tout le monde aussi.
12:15Dans la lettre, je ne sais plus si c'est dans la lettre,
12:17mais en tout cas, je sais que vous regrettez,
12:20et vous n'êtes pas le seul,
12:21il y a vraiment la large communauté qui regrette
12:24que les experts n'aient pas été entendus
12:26par tous ceux qui vont décider finalement de ce qu'il y aura dans ce texte,
12:30donc les décideurs publics européens.
12:32Comment est-ce que vous expliquez ça ?
12:34Ils doivent bien avoir des conseils.
12:35Qui est-ce qui leur mûre à leur oreille ?
12:38Tout à fait.
12:39Alors, il y a des lobbyistes,
12:40il y a eu des cadres lobbyistes un peu…
12:43De protection de l'enfance.
12:45Un peu excessif, voilà.
12:46Il y a eu beaucoup de lobbying.
12:48Il y a aussi eu un groupe de travail,
12:50une catégorie de groupe de travail à la Commission européenne
12:53qui s'appelle les high-level groupes,
12:54donc des groupes de haut niveau,
12:55donc c'est des groupes d'experts qui sont formés.
12:57Et il y en a eu un qui a été formé
12:59et qui a fait des conclusions publiques,
13:01qui ont été rondes publiques il y a quelques mois.
13:05Et ce high-level groupe, en fait,
13:06il a été fait uniquement par la direction des Gégo,
13:10donc c'est en gros la direction des ministères de l'Intérieur et de la Justice.
13:15Et donc, elle a été formée uniquement avec des policiers
13:17et avec des gens du renseignement, etc.
13:19Et donc, c'était assez déséquilibré.
13:21Et il y a eu un appel à candidature
13:26pour un nouveau high-level groupe
13:28qui est à la fois avec des Gégo et des Géconnects.
13:31Et donc, des Géconnects, c'est plus le côté technologie,
13:33puis juridique et sécurité informatique.
13:36Et donc, on attend un peu de savoir
13:39quand est-ce que ce groupe de travail va être effectivement mis en place.
13:42On espère que c'est bientôt.
13:43Ça devrait arriver de quelque temps.
13:45Et là, le groupe de travail serait à moitié des forces de police
13:47et à moitié des forces des académiques
13:52ou de la société civile ou des entreprises, etc.
13:55Aurélien, je voulais qu'on fasse ensemble l'exercice de mes questions binaires.
13:59Donc, mes questions sont binaires,
14:00vos réponses, pas forcément,
14:03mais en tout cas rapides, s'il vous plaît.
14:05Oui ou non, la confidentialité des messageries chiffrées
14:09pose problème pour lutter contre les réseaux
14:11et la circulation des contenus pédocriminels ?
14:14Je dirais oui, mais ce n'est pas une raison pour les supprimer comptamment.
14:21Dangereuses ou inefficaces,
14:23les techniques qui sont envisagées dans la dernière version du texte
14:26pour détecter ces contenus pédopornographiques ?
14:30Les deux.
14:33Dangereuses et inefficaces.
14:34J'y crois ou j'y crois pas qu'il existe des experts
14:37qui peuvent défendre ce texte ?
14:40Eh bien, je n'en ai pas trouvé.
14:43Dans le monde académique, moi, je ne connais personne qui soutient ce texte.
14:47Peut-être qu'il y en a, mais je ne les ai pas rencontrés.
14:49Rêve ou cauchemar, un taux de 1% de faux positifs
14:53sur la détection de contenus illégals ?
14:56C'est un cauchemar.
14:57Imaginez une image sur 100 qui est envoyée à la police
15:01pour vérification aléatoirement.
15:03Depuis votre téléphone, de 450 millions d'habitants en Europe.
15:06C'est 500 selfies par an, par personne.
15:09C'est des millions, peut-être des milliards de photos envoyées pour vérification.
15:12C'est un cauchemar.
15:14Pour ou contre une nouvelle version du texte
15:16qui pourrait être remaniée sur la détection des contenus ?
15:21Je pense qu'il y a définitivement un besoin de protéger les enfants.
15:26Et ça, tout le monde est d'accord.
15:27Je pense que la question, c'est quels sont les moyens.
15:29Et voilà, on n'en a pas trop parlé,
15:32mais un pédocrinien, il ne va pas accuser une application
15:34qui a ce mécanisme-là.
15:36Il va prendre quelque chose où il n'y a pas de mécanisme de détection.
15:39Donc ça, c'est complètement inefficace.
15:40Mais je pense qu'il y a des choses à faire, sûrement.
15:43J'aime ou j'aime pas ce long tweet de Pavel Dureuve,
15:46donc le patron de Telegram,
15:47qui a écrit qu'avec son projet de règlement CSAM
15:50sur les abus sexuels sur enfants,
15:51l'UE, l'Union Européenne, a failli interdire la vie privée,
15:54la confidentialité.
15:55Je pense qu'il a pris le bâton qu'on lui a tendu.
16:02Si l'Europe se met à faire étudier des techniques
16:05dignes de pays non démocratiques,
16:08il faut s'attendre à ce qu'il y ait des retours de bâton.
16:10Allez, très vite.
16:11Est-ce vrai ou faux, la France est la plus fervente promotrice de chat-contrôle ?
16:16Je ne sais pas.
16:18Merci beaucoup Aurélien Francillon.
16:19Je rappelle que vous êtes professeur à Euricom,
16:21signataire et porte-parole pour la France de la lettre ouverte
16:24des scientifiques contre ce dispositif.
16:26Merci beaucoup d'avoir témoigné de ce qu'on fait.
16:28Merci.
Commentaires

Recommandations