Passer au playerPasser au contenu principal
Attendez-vous à des débats brûlants : la vidéosurveillance algorithmique est de retour. Autorisée de manière exceptionnelle du 19 mai 2023 au 31 mars 2025 dans le cadre de la loi Jeux olympiques, elle pourrait, si les politiques parviennent à faire voter une nouvelle loi, devenir courante pour sécuriser les lieux publics comme les transports en commun. C’est en tout cas la volonté de la région Île-de-France, de sa présidente Valérie Pécresse, d’Île-de-France Mobilités et de la SNCF, qui ont présenté une version évoluée de la technologie, basée sur un modèle de langage vidéo (VLM), à l’occasion de la journée de mobilisation contre les violences faites aux femmes dans les transports le 9 décembre 2025.

Pour accélérer le débat, la région Île-de-France dévoile les résultats d’un sondage IPSOS réalisé sur une partie de la population francilienne. Les chiffres sont clairs : 89 % des femmes seraient favorables à l’installation d’une IA capable d’analyser les flux des caméras en temps réel, 88 % de la population générale aussi. Seuls 3 % des gens se qualifieraient comme opposés, ce qui incite la région à vouloir accélérer.

⏰ Sommaire
00:00 - La vidéosurveillance algorithmique, une technologie expérimentale
01:02 - Vers un usage étendu de la VSA ?
02:20 - Une technologie encore approximative
03:08 - Quid de la vie privée ?
04:30 - Interview de Valérie Pécresse
04:50 - Quelle part de Français favorables ?
05:13 - La question de la souveraineté ?
05:41 - Des obstacles politiques
06:56 - La VSA, bientôt au cœur des débats ?

📝 L'article par ici ► https://www.numerama.com/tech/2138333-je-ne-vois-pas-quelle-liberte-ca-peut-enfreindre-a-part-celle-du-predateur-la-videosurveillance-algorithmique-bientot-autorisee-en-france.html

---

🔔 Abonnez-vous à notre chaîne ► https://youtube.com/c/numerama

🚩 Retrouvez toutes nos playlists ► https://www.youtube.com/c/numerama/playlists

---

Rejoignez-nous :
💻 Notre site ► http://www.numerama.com/
🐦 Twitter ► https://twitter.com/numerama
📸 Instagram ► https://www.instagram.com/numerama
📱TikTok ► https://www.tiktok.com/@numerama
🔷 Facebook ► https://www.facebook.com/Numerama/
🎙️ Twitch ► https://www.twitch.tv/numerama

🟡 + rapide, + pratique, + exclusif : découvrir numerama+ ► https://www.numerama.com/numeramaplus/
---

Réalisation : Théotim Raguet
Avec : Nicolas Lellouche

---

#vsa #tech #sécurité #numerama

Catégorie

🤖
Technologie
Transcription
00:00En 2024, pendant les Jeux Olympiques, la France avait autorisé de manière exceptionnelle
00:04la vidéosurveillance algorithmique, ou VSA.
00:07L'idée à l'époque était de détecter 8 problématiques avec des caméras de surveillance.
00:11Parmi elles, la détection des objets abandonnés, des mouvements de foule,
00:15de la densité excessive ou le port d'armes.
00:18Bref, des choses qui peuvent s'avérer problématiques quand on écoeille des millions de visiteurs.
00:21A l'époque, on nous promettait que tout ça était expérimental,
00:25que le but n'était pas de changer la loi,
00:27mais juste de proposer un dispositif adapté aux JO.
00:30Et évidemment, ce n'est pas tout à fait vrai.
00:32Alors actuellement, au moment où je vous parle, la VSA est interdite en France.
00:35Fin mars 2025, l'expérimentation s'est terminée.
00:39Et donc les caméras de surveillance dans les transports,
00:41il y en a plus de 80 000 entre la SNCF de France Mobilité aujourd'hui,
00:45eh bien ces caméras de vidéos de surveillance,
00:47elles ne servent qu'à enregistrer des vidéos et il n'y a aucune analyse automatisée.
00:51Maintenant, vous vous en doutez, les pouvoirs publics, ils veulent changer ça.
00:54Et quelque chose me dit qu'entre 2026 et l'élection de 2027,
00:57le sujet de la reconnaissance algorithmique nous va beaucoup faire parler.
01:01Sans surprise, les politiques étudient la possibilité d'étendre la vidéosurveillance algorithmique.
01:07Et quand je dis étendre, ce n'est même pas vrai, c'est aller encore plus loin.
01:10Aller encore plus loin parce que je vous ai cité des usages au début de cette vidéo.
01:13Eh bien là, avec l'évolution de la technologie en deux ans,
01:16on peut aller beaucoup plus loin avec les VLM,
01:20des modèles entraînés pour analyser des flux vidéo.
01:22L'idée par exemple, c'est d'avoir un logiciel
01:24avec les flux de toutes les caméras de surveillance d'une gare
01:27et de pouvoir lui poser des questions.
01:29Par exemple, on dit,
01:30quelqu'un me dit qu'elle s'est faite agresser à 14h à telle gare,
01:33l'agresseur avait un pull rouge,
01:34et automatiquement, ça va retrouver la vidéo de cette agression.
01:37Autre exemple, quelqu'un est en train de courir,
01:39quelqu'un est parti avec une voiture,
01:41quelqu'un a poussé quelqu'un d'autre,
01:44quelqu'un a eu un comportement suspicieux.
01:46Eh bien, grâce à l'intelligence artificielle générative,
01:49il suffit à un agent de poser une question avec des mots
01:52pour avoir une réponse avec les images de la caméra de surveillance.
01:55Le gain de temps, il est tout simplement phénoménal.
01:57Avant, il fallait remonter les images manuellement,
01:59croiser les informations, etc.
02:01Eh bien là, les politiques aimeraient aller plus loin
02:03et autoriser la possibilité de fouiller dans les images
02:05avec une intelligence artificielle.
02:07Le concept, en gros, c'est de donner un cerveau
02:09aux milliers de caméras déjà installées
02:11pour que les agents sur place n'aient pas à regarder les flux
02:14où il ne se passe rien,
02:15mais soient avertis quand il se passe quelque chose
02:17pour donner la consigne d'intervenir ou non.
02:19Est-ce que c'est efficace tout ça ?
02:21Le plus étonnant, c'est que les premières conclusions
02:23de ce qu'il s'est passé pendant les Jeux Olympiques
02:25sont assez partagées.
02:27En fait, ce qu'on voit, c'est que l'intelligence artificielle
02:29est très bonne pour reconnaître des mouvements de foule,
02:31pour reconnaître des endroits où des gens vont
02:33alors qu'ils n'ont pas le droit d'y aller.
02:35Par exemple, un passage sans interdit,
02:37quelqu'un rentre à l'intérieur,
02:38eh bien l'IA le détecte
02:39et permet à un agent de se rendre sur place.
02:41Mais par contre, elle a plein d'erreurs
02:42sur les objets abandonnés,
02:44sur les armes qui vont être questionnues
02:45avec des téléphones,
02:47et donc qu'il est difficile aujourd'hui
02:48de considérer que ce cerveau automatisé
02:51peut remplacer des agents de sécurité.
02:53Ce qu'on nous dit, c'est que la technologie évolue
02:54tellement vite que ça ne fait que s'améliorer
02:56et qu'aux Jeux Olympiques,
02:57il y avait tellement d'agents humains sur place
02:59qu'on n'en avait pas autant besoin qu'aujourd'hui.
03:02Bref, l'idée est de dire
03:03que la technologie est intéressante,
03:05mais qu'on n'est pas allé assez loin
03:06et qu'il faut aller plus loin
03:07pour que ça marche mieux.
03:08Le principal enjeu, ça va être celui de la vie privée,
03:10alors qu'en France, on a une loi très stricte
03:13sur la reconnaissance faciale.
03:14Elle est purement interdite.
03:16C'est pour ça qu'on parle ici
03:17de reconnaissance algorithmique.
03:19L'idée, c'est qu'aucun visage ne va être reconnu.
03:21Je laisse le fondateur de la technologie
03:23utilisée par la France vous expliquer ça.
03:25Nous, on fait de l'intelligence artificielle
03:26pour détecter des situations ou des objets
03:29de manière complètement anonyme.
03:31Concrètement, sur des sujets de sécurité,
03:32on va remonter une alerte.
03:33Par exemple, s'il y a une personne
03:34qui descend dans les voies,
03:35si on constate une agression, etc.
03:37Cette alerte, elle va être anonyme.
03:38Elle va juste alerter un opérateur vidéo
03:40pour lui dire « Sur cette caméra,
03:42j'ai constaté tel événement ».
03:43Et c'est ensuite à l'opérateur vidéo
03:44de comprendre ce qu'il se passe
03:46et de décider ce qu'il vaut faire.
03:47Mais à aucun moment,
03:48on est sur de la reconnaissance faciale
03:50ou de l'identification de personnes.
03:51On n'utilise pas notre technologie
03:53pour rechercher des gens
03:54sur la base de leur couleur de peau
03:55et de manière générale,
03:57sur la base de n'importe quelle donnée biométrique.
03:58Le problème, c'est que même
03:59avec de la reconnaissance algorithmique,
04:02techniquement parlant,
04:03il y a de la reconnaissance de ce que vous faites.
04:05Il est plus facile de tracer des gens,
04:08de retrouver des gens
04:09par rapport à leurs vêtements,
04:11par rapport à plein d'éléments
04:12qui peuvent être discriminants.
04:14Et tout ça, ça pose plein de problèmes.
04:16On peut imaginer que le débat
04:18risque d'être très polarisé l'année prochaine.
04:21Et on a aussi posé la question
04:22à Valérie Pécresse de son avis
04:24sur les questions de vie privée.
04:25Vous allez voir qu'aujourd'hui,
04:26on oppose très clairement
04:28les enjeux de sécurité
04:29à ces questions-là.
04:30Je ne vois pas quelle liberté
04:32ça peut enfreindre,
04:34à part celle du prédateur.
04:36Mais celle-là, je vais vous dire,
04:38je m'en manque.
04:40La vidéo algorithmique,
04:41où ça marche,
04:41où ça ne marche pas.
04:42Si ça marche,
04:43alors on doit l'utiliser
04:44dans les transports du quotidien
04:46pour les 10 millions de voyageurs
04:47que Ile-de-France Mobilité
04:49transporte chaque jour.
04:50En Ile-de-France,
04:51à l'occasion de la journée de mobilisation
04:53contre les violences faites aux femmes,
04:54un sondage a été réalisé
04:56et indique que 88% des franciliens
04:59sont pour la reconnaissance algorithmique.
05:01Ça monte même à 89% pour les femmes.
05:03En gros,
05:04quand on pose la question aux gens
05:05« Qu'est-ce que vous préférez
05:07entre une liberté absolue
05:09de vos mouvements
05:09ou plus de sécurité ? »
05:11Les Français partent
05:12de plus en plus vers la sécurité.
05:14Autre élément intéressant
05:14mis en avant par les pouvoirs publics
05:16et c'est difficile de leur donner tort,
05:18la souveraineté.
05:19La technologie qui a été utilisée
05:20pendant les JO
05:21est développée par un Français,
05:22l'entreprise Wintix.
05:24Et ce que nous disent aujourd'hui
05:25les pouvoirs publics,
05:26c'est qu'à vouloir interdire
05:27pour interdire
05:28et à vouloir prendre du retard
05:29sur les autres pays,
05:31le risque est que le jour
05:32où la reconnaissance algorithmique
05:34deviendra la norme
05:35dans tous les pays du monde,
05:36on n'aura pas d'autre choix
05:37que d'acheter un logiciel
05:38américain ou chinois
05:39et donc eux veulent pousser
05:40pour avoir des solutions françaises.
05:41Quand faut-il s'attendre
05:42à avoir de la reconnaissance algorithmique
05:44dans les transports en France ?
05:46Une seule chose est sûre,
05:47il faudra une loi
05:48et vu l'état actuel du Parlement,
05:51on peut imaginer
05:51que ça sera un petit peu compliqué.
05:53Alors nous avons déposé
05:54deux propositions de loi
05:55et nous,
05:55première proposition de loi
05:56à l'Assemblée,
05:57c'est Jean-Grethier Berger,
05:58il a déjà 30 faux signataires,
06:00une proposition de loi au Sénat
06:02par Isabelle Florende,
06:04vous voyez LR, Modem,
06:05on a essayé de chercher
06:06un consensus
06:07le plus large possible.
06:09Le ministre des Transports
06:11a dit qu'il était d'accord,
06:12il l'avait mis dans sa loi,
06:13ça n'a pas été voté.
06:15Le ministre de l'Intérieur,
06:16M. Laurent Nunez,
06:18qui a fait une vidéo aujourd'hui,
06:19a dit qu'il était d'accord.
06:21Mme Aureur Berger,
06:22qui est venue ce matin,
06:22a dit qu'elle était d'accord.
06:24Il y a une unanimité gouvernementale
06:26sur le sujet,
06:28donc qu'est-ce qu'on attend
06:29pour trouver une majorité
06:30au Parlement ?
06:31La chose intéressante
06:32est que la plupart des partis politiques
06:34sont plutôt en faveur
06:35de l'utilisation
06:36de ce genre de technologie.
06:37Ça peut aller vite,
06:38ça peut arriver dès 2026,
06:39mais en l'État,
06:40c'est un petit peu bloqué,
06:41d'autant plus que la CNIL,
06:43par exemple,
06:43est contre ce genre de technologie,
06:45ils sont contre
06:46la reconnaissance faciale particulièrement,
06:48mais qu'il y aura forcément
06:49des contraintes
06:50qui sont ajoutées
06:51pour éviter l'analyse
06:52des émotions,
06:53etc.,
06:54et tout ce qui pourrait sortir
06:55du cadre juridique.
06:56Vous l'avez compris,
06:57le débat sur la reconnaissance algorithmique
06:59avec les caméras de surveillance
07:00risque d'être très important
07:03dans les prochains mois.
07:04On pensait ne plus en entendre parler
07:05après les Jeux Olympiques,
07:06et la réalité,
07:08c'est que les pouvoirs publics
07:10s'intéressent de nouveau à la question.
07:11Il est aussi vrai
07:12que de plus en plus de pays
07:13utilisent ces technologies
07:14pour sécuriser les lieux publics,
07:16et qu'il est extrêmement probable
07:18que ce soit un des gros enjeux
07:19des prochains mois
07:20avec, pourquoi pas bientôt,
07:22des caméras de surveillance
07:23qui seront capables
07:24de trouver des personnes
07:25quand elles font des choses pas bien.
07:26Bon, sur le papier,
07:27on est d'accord,
07:27le problème avec ce genre de technologies,
07:29c'est qu'une fois qu'elles sont déployées,
07:30on ne sait jamais
07:31qui peut les utiliser
07:32et que ce logiciel, un jour,
07:34pourrait tomber dans de mauvaises mains,
07:35mais ça, personne n'en parle.
07:50Sous-titrage Société Radio-Canada
Commentaires

Recommandations