00:00 (Générique)
00:04 -Quels sont les enjeux éthiques des technologies
00:06 de reconnaissance faciale, posturale, comportementale ?
00:09 Un avis a été rendu par le Comité national pilote d'éthique du numérique.
00:14 Je suis en compagnie de Claude Kirchner,
00:16 le directeur de recherche et mérites d'INRIA
00:18 et directeur du CNPEN.
00:20 Bonjour, merci beaucoup d'être avec nous.
00:23 Cet avis que vous avez rendu, on va en parler, bien évidemment,
00:27 mais je voulais déjà qu'on parle du Comité national pilote d'éthique
00:31 du numérique, qui a été créé en décembre 2019
00:34 à l'initiative du Premier ministre, à l'époque, c'était Edouard...
00:37 -Philippe. -Philippe.
00:39 Et il est placé sous l'égide du Comité consultatif national d'éthique.
00:43 Première question que je me suis posée,
00:46 c'est est-ce que le numérique méritait absolument
00:48 d'être traité comme un sujet à part entière avec son comité ad hoc ?
00:53 Vous n'allez pas me dire le contraire, mais pourquoi ?
00:55 D'abord, parce que le numérique, aujourd'hui,
00:58 et vous êtes bien placé à Bismarck pour le savoir,
01:02 le numérique, il y en a absolument partout,
01:05 que ce soit dans nos vies personnelles,
01:06 dans nos vies professionnelles,
01:07 que ce soit dans la gestion de la société,
01:10 que ce soit dans la gestion de l'environnement aujourd'hui.
01:12 Le numérique, il est partout, dans nos relations,
01:14 il est omniprésent.
01:17 Et en fait, on a jusqu'à maintenant peu réfléchi
01:22 aux conséquences sur tout ce qui concerne l'humain,
01:28 notre façon de nous comporter par rapport au numérique, par exemple,
01:32 qui a appris à se servir de son smartphone en tant que tel, d'accord ?
01:36 Si ce n'est le prendre dans la main et l'essayer sur la table.
01:40 -Et consommer, finalement, les services.
01:42 -Et être sujet à ne pas prendre suffisamment de recul,
01:46 de réflexion pour arriver sur ces conduites humaines
01:52 qui sont en train d'émerger
01:53 et qui sont conséquences de cette émergence du numérique,
01:56 de cette conversion qui nous convertit profondément
02:00 dans nos relations, dans notre façon de penser,
02:03 dans notre façon d'imaginer, de prévoir.
02:07 Eh bien, dans ce contexte-là,
02:09 il est important de pouvoir, justement,
02:11 réfléchir aux conduites humaines et aux valeurs qui les fondent,
02:14 c'est-à-dire, en fait, à l'éthique du numérique.
02:17 -Alors, mon autre question,
02:18 donc portée sur le sujet sur lequel vous avez rendu un avis,
02:22 c'est la reconnaissance faciale.
02:23 C'est un sujet qui fait peur, qui fait peur aux citoyens,
02:27 mais qui fait peur aussi aux politiques,
02:29 qui trouvent que c'est un sujet un peu trop brûlant
02:32 pour l'adresser directement.
02:34 Quelles sont vos recommandations ?
02:36 Est-ce qu'il faut regarder le sujet en face,
02:38 si je puis me permettre ?
02:40 -Alors, oui, c'est l'une de nos recommandations,
02:43 c'est justement de se donner la capacité
02:45 à regarder les choses en face.
02:46 Et ça veut dire quoi ?
02:47 Typiquement, ça veut dire déjà avoir le bon vocabulaire
02:51 pour pouvoir nommer les choses de façon appropriée.
02:54 Je vais prendre un mauvais exemple,
02:56 une caméra intelligente.
02:58 Qu'est-ce que ça peut bien vouloir dire ?
03:01 Justement, l'idée, c'est d'avoir du vocabulaire
03:04 qui nous permette de comprendre qu'on va avoir des capteurs,
03:07 qu'on va avoir du numérique
03:09 pour traiter le signal qui sort de ces capteurs,
03:12 et qu'on va avoir des humains
03:14 qui vont être, d'une part, devant les caméras,
03:18 mais aussi derrière les écrans
03:20 pour pouvoir prendre des décisions.
03:22 Et comment l'ensemble de ce système-là va s'organiser ?
03:25 Quelles sont les valeurs qu'il faut arriver à défendre,
03:29 comme par exemple la sécurité ou la liberté,
03:32 ou les libertés ?
03:33 La transparence, typiquement.
03:36 Est-ce qu'on est observé ou pas ?
03:38 Et dans ce contexte-là,
03:40 comment fait-on pour s'organiser, réfléchir ?
03:42 Et donc, notre avis fournit un certain nombre de...
03:46 Justement, d'abord, de contextes,
03:49 d'illustrations de différentes situations,
03:51 de vocabulaire,
03:53 et puis de recommandations qui permettent ensuite
03:55 à tout un chacun, à un individu,
03:58 à une entreprise,
04:00 à la société, typiquement les politiques,
04:03 à pouvoir se positionner.
04:04 On a vu un certain nombre d'utilisations
04:07 qui étaient... qui sont positives.
04:09 Un certain nombre d'utilisations qui questionnent.
04:12 -Donc ne pas fuir le sujet, pas dire...
04:14 "Non, vous inquiétez pas, de toute façon, on fera pas,
04:17 on n'ira pas."
04:18 Il faut regarder vraiment ce sujet très sérieusement,
04:21 parce que demain, ces applications vont arriver.
04:24 -Elles sont déjà là. -Il y en a déjà.
04:26 -Elles sont déjà là.
04:27 Je vais prendre un 1er exemple.
04:30 Typiquement, vous pouvez vous identifier
04:32 sur votre smartphone,
04:34 à partir de la reconnaissance visuelle de votre visage.
04:37 Vous pouvez passer les frontières avec le système Paraf,
04:40 qui peut permettre d'aller plus vite quand il fonctionne.
04:43 C'est pas toujours complètement le cas.
04:45 Mais donc, il y a des situations très positives aussi,
04:48 relativement à la médecine,
04:50 où on est capable de reconnaître des émotions comme la douleur
04:55 et d'arriver à catégoriser la profondeur de la douleur
05:00 et comment, en fait, permettre de mieux gérer,
05:04 par des médicaments, par le dialogue, etc.,
05:07 ce type de situation.
05:09 Mais il y a aussi un certain nombre de situations
05:13 dans lesquelles il y a des problèmes.
05:15 Typiquement, parce qu'on va rentrer davantage
05:19 dans l'intimité des gens.
05:20 Ce qui est une caractéristique de la reconnaissance faciale,
05:25 posturale ou comportementale, en fait,
05:27 c'est que les caméras, on les voit pas.
05:30 Et elles rentrent très facilement dans notre intimité.
05:34 L'une des premières qu'on a, par exemple,
05:36 ce sont nos smartphones.
05:38 Mais il y en a bien d'autres, à la fois dans un ascenseur,
05:42 dans un centre commercial ou ailleurs.
05:45 Et donc, comprendre comment on va permettre
05:48 l'utilisation, éventuellement,
05:50 de la reconnaissance faciale automatisée
05:53 et comment ça va être utilisé par les humains derrière,
05:56 c'est vraiment l'ensemble du sujet qu'il faut analyser.
05:59 -Est-ce que, juste très rapidement,
06:01 comment on fait pour savoir qu'est-ce qui est éthique,
06:04 qu'est-ce qui n'est pas éthique ?
06:06 Est-ce que vous avez décrété,
06:07 voilà, cette utilisation n'est pas éthique ?
06:10 -Alors, encore une fois, l'éthique,
06:13 c'est bien cette réflexion, d'accord ?
06:15 Et donc, l'idée, c'est qu'on réfléchit.
06:18 On va pas statuer, on va pas prescrire.
06:20 Mais on va réfléchir sur les conduites humaines
06:23 et puis les valeurs qui les font.
06:25 Donc, quelles sont les valeurs qui vont être sous-jacentes ?
06:27 Typiquement, on s'identifie sur notre smartphone
06:31 pour avoir accès à son compte bancaire.
06:34 Eh bien, ça veut dire que votre photo,
06:35 il faut qu'elle soit reconnue par le système derrière le téléphone.
06:41 Et donc, il faut avoir accepté de donner son visage, d'accord ?
06:45 Est-ce qu'on est d'accord ou pas d'accord ?
06:47 Donc, c'est une certaine sécurité,
06:49 mais peut-être aussi une liberté qu'on va laisser partir,
06:53 parce qu'effectivement, le jour où on a du bouson,
06:57 on risque de ne plus être reconnu, d'une part.
07:00 Et puis, de l'autre part, on a donné,
07:03 on a fourni ces informations sur son visage
07:08 à une entité qu'on ne maîtrise pas nécessairement complètement.
07:12 Donc, cette dualité entre liberté et sécurité.
07:18 -Bon, c'est un travail de réflexion.
07:20 -Et c'est un travail de réflexion. -Que vous menez.
07:21 -Absolument. -Merci beaucoup pour ça.
07:23 Merci, Claude Kirchner, directeur du comité national
07:26 pilote d'éthique du numérique.
07:27 Vous reviendrez, parce que ces sujets,
07:28 on les traite régulièrement. -Avec plaisir.
07:29 -Dans Smartech.
07:31 Allez, c'est le moment de recevoir notre grande invitée aujourd'hui.
07:33 Elle s'appelle Stéphanie Scher.
07:34 Elle va nous parler de la direction interministérielle du numérique.
Commentaires