00:00En 2024, pendant les Jeux Olympiques, la France avait autorisé de manière exceptionnelle
00:04la vidéosurveillance algorithmique, ou VSA.
00:07L'idée à l'époque était de détecter 8 problématiques avec des caméras de surveillance.
00:11Parmi elles, la détection des objets abandonnés, des mouvements de foule,
00:15de la densité excessive ou le port d'armes.
00:18Bref, des choses qui peuvent s'avérer problématiques quand on écoeille des millions de visiteurs.
00:21A l'époque, on nous promettait que tout ça était expérimental,
00:25que le but n'était pas de changer la loi,
00:27mais juste de proposer un dispositif adapté aux JO.
00:30Et évidemment, ce n'est pas tout à fait vrai.
00:32Alors actuellement, au moment où je vous parle, la VSA est interdite en France.
00:35Fin mars 2025, l'expérimentation s'est terminée.
00:39Et donc les caméras de surveillance dans les transports,
00:41il y en a plus de 80 000 entre la SNCF de France Mobilité aujourd'hui,
00:45eh bien ces caméras de vidéos de surveillance,
00:47elles ne servent qu'à enregistrer des vidéos et il n'y a aucune analyse automatisée.
00:51Maintenant, vous vous en doutez, les pouvoirs publics, ils veulent changer ça.
00:54Et quelque chose me dit qu'entre 2026 et l'élection de 2027,
00:57le sujet de la reconnaissance algorithmique nous va beaucoup faire parler.
01:01Sans surprise, les politiques étudient la possibilité d'étendre la vidéosurveillance algorithmique.
01:07Et quand je dis étendre, ce n'est même pas vrai, c'est aller encore plus loin.
01:10Aller encore plus loin parce que je vous ai cité des usages au début de cette vidéo.
01:13Eh bien là, avec l'évolution de la technologie en deux ans,
01:16on peut aller beaucoup plus loin avec les VLM,
01:20des modèles entraînés pour analyser des flux vidéo.
01:22L'idée par exemple, c'est d'avoir un logiciel
01:24avec les flux de toutes les caméras de surveillance d'une gare
01:27et de pouvoir lui poser des questions.
01:29Par exemple, on dit,
01:30quelqu'un me dit qu'elle s'est faite agresser à 14h à telle gare,
01:33l'agresseur avait un pull rouge,
01:34et automatiquement, ça va retrouver la vidéo de cette agression.
01:37Autre exemple, quelqu'un est en train de courir,
01:39quelqu'un est parti avec une voiture,
01:41quelqu'un a poussé quelqu'un d'autre,
01:44quelqu'un a eu un comportement suspicieux.
01:46Eh bien, grâce à l'intelligence artificielle générative,
01:49il suffit à un agent de poser une question avec des mots
01:52pour avoir une réponse avec les images de la caméra de surveillance.
01:55Le gain de temps, il est tout simplement phénoménal.
01:57Avant, il fallait remonter les images manuellement,
01:59croiser les informations, etc.
02:01Eh bien là, les politiques aimeraient aller plus loin
02:03et autoriser la possibilité de fouiller dans les images
02:05avec une intelligence artificielle.
02:07Le concept, en gros, c'est de donner un cerveau
02:09aux milliers de caméras déjà installées
02:11pour que les agents sur place n'aient pas à regarder les flux
02:14où il ne se passe rien,
02:15mais soient avertis quand il se passe quelque chose
02:17pour donner la consigne d'intervenir ou non.
02:19Est-ce que c'est efficace tout ça ?
02:21Le plus étonnant, c'est que les premières conclusions
02:23de ce qu'il s'est passé pendant les Jeux Olympiques
02:25sont assez partagées.
02:27En fait, ce qu'on voit, c'est que l'intelligence artificielle
02:29est très bonne pour reconnaître des mouvements de foule,
02:31pour reconnaître des endroits où des gens vont
02:33alors qu'ils n'ont pas le droit d'y aller.
02:35Par exemple, un passage sans interdit,
02:37quelqu'un rentre à l'intérieur,
02:38eh bien l'IA le détecte
02:39et permet à un agent de se rendre sur place.
02:41Mais par contre, elle a plein d'erreurs
02:42sur les objets abandonnés,
02:44sur les armes qui vont être questionnues
02:45avec des téléphones,
02:47et donc qu'il est difficile aujourd'hui
02:48de considérer que ce cerveau automatisé
02:51peut remplacer des agents de sécurité.
02:53Ce qu'on nous dit, c'est que la technologie évolue
02:54tellement vite que ça ne fait que s'améliorer
02:56et qu'aux Jeux Olympiques,
02:57il y avait tellement d'agents humains sur place
02:59qu'on n'en avait pas autant besoin qu'aujourd'hui.
03:02Bref, l'idée est de dire
03:03que la technologie est intéressante,
03:05mais qu'on n'est pas allé assez loin
03:06et qu'il faut aller plus loin
03:07pour que ça marche mieux.
03:08Le principal enjeu, ça va être celui de la vie privée,
03:10alors qu'en France, on a une loi très stricte
03:13sur la reconnaissance faciale.
03:14Elle est purement interdite.
03:16C'est pour ça qu'on parle ici
03:17de reconnaissance algorithmique.
03:19L'idée, c'est qu'aucun visage ne va être reconnu.
03:21Je laisse le fondateur de la technologie
03:23utilisée par la France vous expliquer ça.
03:25Nous, on fait de l'intelligence artificielle
03:26pour détecter des situations ou des objets
03:29de manière complètement anonyme.
03:31Concrètement, sur des sujets de sécurité,
03:32on va remonter une alerte.
03:33Par exemple, s'il y a une personne
03:34qui descend dans les voies,
03:35si on constate une agression, etc.
03:37Cette alerte, elle va être anonyme.
03:38Elle va juste alerter un opérateur vidéo
03:40pour lui dire « Sur cette caméra,
03:42j'ai constaté tel événement ».
03:43Et c'est ensuite à l'opérateur vidéo
03:44de comprendre ce qu'il se passe
03:46et de décider ce qu'il vaut faire.
03:47Mais à aucun moment,
03:48on est sur de la reconnaissance faciale
03:50ou de l'identification de personnes.
03:51On n'utilise pas notre technologie
03:53pour rechercher des gens
03:54sur la base de leur couleur de peau
03:55et de manière générale,
03:57sur la base de n'importe quelle donnée biométrique.
03:58Le problème, c'est que même
03:59avec de la reconnaissance algorithmique,
04:02techniquement parlant,
04:03il y a de la reconnaissance de ce que vous faites.
04:05Il est plus facile de tracer des gens,
04:08de retrouver des gens
04:09par rapport à leurs vêtements,
04:11par rapport à plein d'éléments
04:12qui peuvent être discriminants.
04:14Et tout ça, ça pose plein de problèmes.
04:16On peut imaginer que le débat
04:18risque d'être très polarisé l'année prochaine.
04:21Et on a aussi posé la question
04:22à Valérie Pécresse de son avis
04:24sur les questions de vie privée.
04:25Vous allez voir qu'aujourd'hui,
04:26on oppose très clairement
04:28les enjeux de sécurité
04:29à ces questions-là.
04:30Je ne vois pas quelle liberté
04:32ça peut enfreindre,
04:34à part celle du prédateur.
04:36Mais celle-là, je vais vous dire,
04:38je m'en manque.
04:40La vidéo algorithmique,
04:41où ça marche,
04:41où ça ne marche pas.
04:42Si ça marche,
04:43alors on doit l'utiliser
04:44dans les transports du quotidien
04:46pour les 10 millions de voyageurs
04:47que Ile-de-France Mobilité
04:49transporte chaque jour.
04:50En Ile-de-France,
04:51à l'occasion de la journée de mobilisation
04:53contre les violences faites aux femmes,
04:54un sondage a été réalisé
04:56et indique que 88% des franciliens
04:59sont pour la reconnaissance algorithmique.
05:01Ça monte même à 89% pour les femmes.
05:03En gros,
05:04quand on pose la question aux gens
05:05« Qu'est-ce que vous préférez
05:07entre une liberté absolue
05:09de vos mouvements
05:09ou plus de sécurité ? »
05:11Les Français partent
05:12de plus en plus vers la sécurité.
05:14Autre élément intéressant
05:14mis en avant par les pouvoirs publics
05:16et c'est difficile de leur donner tort,
05:18la souveraineté.
05:19La technologie qui a été utilisée
05:20pendant les JO
05:21est développée par un Français,
05:22l'entreprise Wintix.
05:24Et ce que nous disent aujourd'hui
05:25les pouvoirs publics,
05:26c'est qu'à vouloir interdire
05:27pour interdire
05:28et à vouloir prendre du retard
05:29sur les autres pays,
05:31le risque est que le jour
05:32où la reconnaissance algorithmique
05:34deviendra la norme
05:35dans tous les pays du monde,
05:36on n'aura pas d'autre choix
05:37que d'acheter un logiciel
05:38américain ou chinois
05:39et donc eux veulent pousser
05:40pour avoir des solutions françaises.
05:41Quand faut-il s'attendre
05:42à avoir de la reconnaissance algorithmique
05:44dans les transports en France ?
05:46Une seule chose est sûre,
05:47il faudra une loi
05:48et vu l'état actuel du Parlement,
05:51on peut imaginer
05:51que ça sera un petit peu compliqué.
05:53Alors nous avons déposé
05:54deux propositions de loi
05:55et nous,
05:55première proposition de loi
05:56à l'Assemblée,
05:57c'est Jean-Grethier Berger,
05:58il a déjà 30 faux signataires,
06:00une proposition de loi au Sénat
06:02par Isabelle Florende,
06:04vous voyez LR, Modem,
06:05on a essayé de chercher
06:06un consensus
06:07le plus large possible.
06:09Le ministre des Transports
06:11a dit qu'il était d'accord,
06:12il l'avait mis dans sa loi,
06:13ça n'a pas été voté.
06:15Le ministre de l'Intérieur,
06:16M. Laurent Nunez,
06:18qui a fait une vidéo aujourd'hui,
06:19a dit qu'il était d'accord.
06:21Mme Aureur Berger,
06:22qui est venue ce matin,
06:22a dit qu'elle était d'accord.
06:24Il y a une unanimité gouvernementale
06:26sur le sujet,
06:28donc qu'est-ce qu'on attend
06:29pour trouver une majorité
06:30au Parlement ?
06:31La chose intéressante
06:32est que la plupart des partis politiques
06:34sont plutôt en faveur
06:35de l'utilisation
06:36de ce genre de technologie.
06:37Ça peut aller vite,
06:38ça peut arriver dès 2026,
06:39mais en l'État,
06:40c'est un petit peu bloqué,
06:41d'autant plus que la CNIL,
06:43par exemple,
06:43est contre ce genre de technologie,
06:45ils sont contre
06:46la reconnaissance faciale particulièrement,
06:48mais qu'il y aura forcément
06:49des contraintes
06:50qui sont ajoutées
06:51pour éviter l'analyse
06:52des émotions,
06:53etc.,
06:54et tout ce qui pourrait sortir
06:55du cadre juridique.
06:56Vous l'avez compris,
06:57le débat sur la reconnaissance algorithmique
06:59avec les caméras de surveillance
07:00risque d'être très important
07:03dans les prochains mois.
07:04On pensait ne plus en entendre parler
07:05après les Jeux Olympiques,
07:06et la réalité,
07:08c'est que les pouvoirs publics
07:10s'intéressent de nouveau à la question.
07:11Il est aussi vrai
07:12que de plus en plus de pays
07:13utilisent ces technologies
07:14pour sécuriser les lieux publics,
07:16et qu'il est extrêmement probable
07:18que ce soit un des gros enjeux
07:19des prochains mois
07:20avec, pourquoi pas bientôt,
07:22des caméras de surveillance
07:23qui seront capables
07:24de trouver des personnes
07:25quand elles font des choses pas bien.
07:26Bon, sur le papier,
07:27on est d'accord,
07:27le problème avec ce genre de technologies,
07:29c'est qu'une fois qu'elles sont déployées,
07:30on ne sait jamais
07:31qui peut les utiliser
07:32et que ce logiciel, un jour,
07:34pourrait tomber dans de mauvaises mains,
07:35mais ça, personne n'en parle.
07:50Sous-titrage Société Radio-Canada
Commentaires