- il y a 3 ans
Lundi 12 juin 2023, SMART TECH reçoit David Lacombled (Président, La villa Numeris) , Henri d'Agrain (Délégué général, Cigref) , François Lecouturier (gérant, Itinere Conseil) et Bertrand Pailhes (directeur de l’innovation et des technologies, CNIL)
Catégorie
🗞
NewsTranscription
00:00 [Musique]
00:08 Bonjour à tous. Le projet de régulation des systèmes d'intelligence artificielle inquiète une partie de l'écosystème,
00:13 mais également jusqu'au ministre français du numérique qui l'a qualifié de excessif.
00:19 Alors on verra quels sont ses points de vigilance vis-à-vis du texte. Il doit nous alerter.
00:23 Et ce sera notre grand sujet à la une aujourd'hui dans Smartech.
00:27 Deuxième partie, David Lacomblette sera mon invité. David Lacomblette, le président du think tank La Villa Numéris
00:32 qui a remis un rapport sur les cinq ans du RGPD avec un bilan côté coulisses.
00:37 Et puis on ira regarder du côté de où va le web. Mais d'abord je vous propose comme sujet l'inclusion numérique.
00:43 On verra que les problèmes ne sont pas réglés et comment cette dématérialisation galopante
00:49 risque de mettre en péril la mission de service public. C'est tout de suite l'interview dans Smartech.
00:55 (Générique)
01:01 Dans Smartech aujourd'hui, on va parler politique publique, on va parler de réglementation européenne.
01:05 Attention c'est du lourd, on va parler aussi de l'acné, les cinq ans du RGPD.
01:09 Tout cela avec, pour démarrer, Henri Dagrin, délégué général du CIGREF,
01:14 Association représentative des grandes entreprises, des plus grandes organisations françaises utilisatrices des solutions et services numériques.
01:21 Avec vous Bertrand Payès, directeur de l'innovation et des technologies à l'acné, l'expert des politiques numériques également,
01:28 puisque vous avez travaillé au sein du cabinet de Fleur Pellerin.
01:30 Et vous étiez directeur du cabinet également d'Axel Lemaire, qui était secrétaire d'état au numérique, je le rappelle.
01:37 Ensemble, tous les deux, vous allez nous aider à mieux comprendre ce qui se prépare à Bruxelles autour de la première réglementation
01:44 qui va permettre d'apporter plus de transparence, peut-être de poser les bases d'une éthique autour des systèmes d'intelligence artificielle.
01:53 Mais aussi vous allez nous aider à comprendre quels sont ces points de vigilance aujourd'hui qu'il faut marquer,
01:57 puisque cet haït acte est jugé excessif par une partie des observateurs.
02:02 Mais d'abord, je propose donc cette interview sur les politiques publiques en matière d'inclusion, d'inclusion numérique, avec François Le Couturier.
02:10 Bonjour François. Bonjour. Vous êtes le gérant d'itinérés Conseil, qui est un cabinet d'études et de conseils basés à Lyon,
02:18 qui conduit des missions d'appui, d'évaluation de l'action publique.
02:23 Vous avez récemment dévoilé vos travaux sur ce sujet de l'inclusion numérique et vous démontrez que la fracture numérique est loin d'être résorbée.
02:33 Je voulais savoir s'il était excessif de parler d'électronisme en France.
02:38 Non, pas du tout, effectivement. Bonjour à tous, tout d'abord.
02:43 Mais effectivement, la question de l'électronisme est maintenant tout à fait malheureusement établie et bien documentée.
02:50 Différents travaux, notamment de l'INSEE et autres, permettent d'estimer environ 16% la part de la population qui est en situation d'électronisme,
03:01 c'est-à-dire qui, de manière régulière, est en difficulté dans l'usage des outils numériques, des applications, dans l'accès à différents services,
03:11 notamment des services publics. Ces différents travaux montrent également que, sans parler forcément d'électronisme à cette hauteur-là,
03:19 mais environ 30 à 40% des personnes qui déclarent, dans l'année précédente, avoir eu des difficultés concrètes dans l'accès à des services numériques.
03:29 Et donc, dans un certain nombre de cas, avoir dû renoncer à faire des démarches en ligne, bien entendu avec, comme conséquence,
03:36 ce qu'on appelle un non-recours au droit pour des personnes qui, par ailleurs, sont déjà souvent en situation de fragilité sociale.
03:44 Alors, ce sont des choses qu'on pressent, dont on parle comme ça, mais parfois de manière un petit peu vaporeuse.
03:50 Quels sont vraiment les points révélateurs, les exemples peut-être concrets, que vous pouvez mettre en avant à travers vos travaux ?
03:58 En fait, la difficulté qu'on observe, c'est qu'on pourrait avoir le sentiment que, comme le taux d'équipement des Français avec des smartphones est extrêmement important,
04:12 et que la plupart des gens ont une relative aisance avec ces outils-là, on pourrait penser que le problème est derrière nous et que c'est une question de génération
04:22 et que ce problème d'accès au numérique va s'éteindre avec les générations.
04:27 En fait, la difficulté est autre, puisqu'en fait, posséder un smartphone et en avoir l'usage pour certaines applications, comme les réseaux sociaux,
04:39 comme la messagerie, comme le téléchargement de films, la consultation de contenus, ne veut pas dire qu'on soit à l'aise devant un ordinateur avec un clavier et une souris
04:50 pour faire une démarche en ligne, que ce soit déclaration de revenus, mise à jour de situation pour les allocations familiales ou pour l'emploi,
05:00 ou que ce soit achat en ligne, pour lesquels les gens sont assez, encore, méfiants de ce côté-là.
05:07 Donc c'est vrai que cette question, je l'ai dit, ce n'est pas une question de génération.
05:12 Alors bien entendu, on trouve parmi les personnes les plus en difficulté, certaines qui sont, je dirais, relativement âgées,
05:19 mais c'est loin d'être le seul critère, puisque les personnes qui sont en difficulté avec l'accès aux services publics, notamment,
05:27 on les trouve aussi en grande partie chez des jeunes adultes.
05:31 Et là, on se rend compte que c'est directement corrélé, en fait, au niveau d'études, au niveau de qualification et pas nécessairement à l'âge.
05:40 Mais là, de quel type d'action a-t-on besoin ? Parce que j'imagine que face à ces problèmes devant la dématérialisation des services publics,
05:49 on trouve effectivement une partie de la population qui ne comprend pas l'usage du numérique, qui n'arrive pas à s'en sortir,
05:56 et une partie aussi qui se retrouve dans des impasses, parce que le service public n'est pas forcément bien pensé dans sa version dématérialisée.
06:03 Donc quelles sont les actions qui sont nécessaires à mettre en place ?
06:07 Alors il y a différentes actions. La première, et c'est l'action pour laquelle l'État a mis en place maintenant depuis 2 ans,
06:14 dans le cadre du plan de relance, le financement de 4 000 postes de conseillers numériques France Service.
06:20 Cette première action, elle vise à aider toutes les personnes qui le souhaitent à se familiariser, s'acculturer, donc gagner en autonomie dans l'usage du numérique.
06:31 Mais en même temps, les personnes qui sont en difficulté sont confrontées à des problématiques administratives qui souvent sont dans une situation d'urgence.
06:41 Donc en fait, vous êtes en difficulté avec telle ou telle démarche administrative, vous allez aller voir un conseiller numérique,
06:49 et en fait, le temps que le conseiller numérique va pouvoir passer avec vous, il va être mobilisé sur récupérer les codes,
06:57 comprendre l'accès à la plateforme, vérifier que les informations ont été correctement renseignées sur les formulaires.
07:07 Et c'est là où, une fois que ces aspects-là ont pu être le cachet en traité, parfois avec beaucoup de difficulté,
07:15 les personnes et les conseillers aussi d'ailleurs se heurtent parfois à la complexité des démarches administratives en elles-mêmes.
07:23 Et cette complexité, elle existait déjà avant la dématérialisation, mais là, du coup, la dématérialisation vient ajouter une couche de difficulté,
07:32 si je puis dire, à cette difficulté. Donc il y a un enjeu, je dirais, d'autonomisation des personnes par, je dirais, un soutien.
07:42 Alors c'est des choses qui vont plutôt être plus efficaces dans un cadre collectif, de type atelier, comme peuvent le faire certaines associations,
07:51 comme Emmaüs Conecht, comme les réseaux des centres sociaux, etc. Et puis il y a la demande urgente d'accès ou de déblocage de situations administratives complexes,
08:00 qui, si elles ne sont pas traitées rapidement, peuvent entraîner des effets cumulatifs pour les personnes, avec des pertes de droits, etc.
08:09 Et on sait par ailleurs que plus on est en situation de fragilité sociale, plus on a recours, en théorie, aux services publics, qui eux-mêmes offrent une certaine complexité.
08:20 Et donc c'est une sorte de cercle vicieux si on ne trouve pas les moyens d'y mettre fin.
08:27 Oui, donc vous nous dites en fait que les conseillers numériques aujourd'hui, finalement, sont un peu déviés de leur rôle.
08:33 Ils ne peuvent pas totalement accomplir leur mission d'acculturation et d'éducation au numérique parce qu'ils font face simplement aux besoins les plus urgents.
08:42 Le titre de votre étude, c'est « Qui doit payer le coût social de la dématérialisation des services publics ? ». Quelle est la réponse ?
08:50 Et comment est réceptionnée votre étude au sein de l'État, qui est en charge, qui est en responsabilité ? D'où viennent les budgets pour répondre à cet enjeu ?
09:02 La difficulté aujourd'hui sur cette question de l'inclusion numérique, en fait, c'est comme ça qu'on appelle, je dirais, l'action publique qui vise à résorber cette fracture numérique.
09:15 La difficulté vient du fait que c'est un sujet relativement émergeant qui va de paire avec l'accélération de la dématérialisation.
09:25 Les projets de l'État en la matière sont tout à fait explicites. Et cette difficulté, c'est que le législateur, en définitive, n'a pas défini aujourd'hui
09:36 qui était responsable de cette politique publique, s'il en est une, d'inclusion numérique. Et donc on voit se manifester des initiatives très diverses,
09:47 tout à fait généralement pertinentes et intéressantes, mais qui peuvent émaner des réseaux associatifs, qui peuvent émaner des collectivités, des villes,
09:56 des établissements intercommunaux, etc., et aussi, bien sûr, de l'État à travers le financement de ses postes de conseiller numérique.
10:04 Mais en définitive, jusqu'à présent, ça n'est pas clair, en fait, de savoir qui doit être chef de file sur cette question de l'inclusion numérique.
10:14 Donc toutes les collectivités, institutions, associations qui jugent pertinent dans cette optique, je dirais, d'accès au droit, tout simplement,
10:26 d'intervenir dans ce domaine le font, qui en finançant un poste de médiateur, qui en recrutant un conseiller numérique, qui en mettant en œuvre tel ou tel moyen.
10:36 Je ne sais pas, un médiateur numérique dans une médiathèque, dans une association, etc. Mais jusqu'à présent, c'est un peu, si je puis dire, dans le désordre.
10:47 Et la question de savoir qui doit financer durablement cet effort d'inclusion numérique n'est pas traitée, puisqu'on voit par exemple que les postes de conseiller numérique
10:59 France Service, qui ont été déployés à hauteur de 4 000, les conventions sont renouvelées, mais avec des financements dégressifs de l'État sur les 3 ans à venir.
11:10 Ce qui veut dire que le message qui est adressé aux structures qui embauchent des médiateurs numériques, enfin des conseillers numériques, que ce soit des collectivités,
11:17 des CCAS ou des associations, c'est de leur dire « D'ici 3 ans, progressivement, vous devez trouver les moyens de financer autrement ou d'autofinancer ses fonctions ».
11:27 François Lecouturier, vous nous dites qu'aujourd'hui, il y a une réelle mise en péril de la mission de service public, parce que les objectifs de dématérialisation sont toujours là,
11:39 toujours très présents, mais il faut pouvoir les accompagner. Henri Dagrin, une réaction ?
11:43 Peut-être 2 ou 3 petites réactions. L'une des raisons de la difficulté, de la fragilité de beaucoup de nos concitoyens face à la dématérialisation,
11:53 c'est un manque de travail sur les interfaces, sur le design des services. Et lorsqu'ils sont bien faits, bien designés, que l'on a pensé qu'effectivement c'était des gens qui pouvaient être en fragilité,
12:06 en général, ça s'améliore. Après, il faut qu'il y ait un humain quand même derrière. La deuxième chose, c'est qu'il va falloir traiter ce sujet dans le fond,
12:17 même si c'est de long terme, mais en développant de manière considérable l'éducation aux humanités numériques sur tout le parcours scolaire, sur tout le parcours éducatif,
12:30 pour que l'on puisse, que l'éducation nationale puisse générer des citoyens éclairés dans leurs usages du numérique. Et puis la troisième chose, c'est qu'effectivement,
12:39 le financement de la cohésion numérique et territoriale aujourd'hui est très insuffisant.
12:44 Il faut lire pour cela les travaux de François Lecouturier, plus précisément d'Itinéré Conseil. Merci beaucoup pour votre éclairage dans cette émission.
12:53 Je vous laisse repartir sur vos travaux. Nous, on va parler de l'AI Act dans Smartech tout de suite.
12:58 Le projet de réglementation des systèmes d'intelligence artificielle est-il excessif, comme a pu le dire le ministre délégué au numérique ?
13:11 Que dit d'ailleurs ce texte ? Quels sont les points de vigilance ? Attention à ne pas pénaliser notre écosystème français, on peut l'entendre,
13:18 mais aussi les usagers français de ces intelligences artificielles, puisqu'on a vu des GAFAM prendre des décisions à ce sujet.
13:25 Pour en parler, Henri Dagrain, délégué général du CIGREF, Association représentative des grandes entreprises, administrations publiques françaises,
13:32 utilisatrices des solutions et des services numériques. C'est un réseau justement qui accompagne ces organisations dans la transformation numérique
13:40 pour un numérique durable, plus éthique, mais quand même au service de la performance et de la compétitivité.
13:46 Bien sûr. Bonjour.
13:48 Alors, vous vous êtes exprimé, Henri, sur cette AI Act à l'occasion d'un débrief dans Smartech.
13:54 Vous avez dit des choses très tranchées, donc ça m'intéressait de développer avec vous votre point de vue.
14:00 Bertrand Paillès est également avec nous sur ce débat. Vous étiez précédemment coordonnateur national pour la stratégie d'intelligence artificielle
14:08 de la direction interministérielle du numérique et du SI de l'État. Aujourd'hui, vous êtes le directeur de l'innovation et des technologies
14:15 à la Commission nationale informatique et liberté, la CNIL, qui a d'ailleurs lancé, ouvert, un nouveau service entièrement dédié à l'intelligence artificielle.
14:24 Et ce service est rattaché à votre direction. Alors, je voulais démarrer avec Henri Dagrain, puisque c'est lui qui a lancé un petit peu, finalement,
14:32 le débat en mettant de l'huile sur le feu, peut-être, je ne sais pas. En tout cas, vous nous avez dit plutôt pas de texte comme celui de l'AI Act tel qu'il est aujourd'hui.
14:42 Pourquoi une position très tranchée, plutôt pas de texte que ce texte ? En fait, la question, c'est de savoir si le modèle de régulation qui est en train de se mettre en place
14:52 est le bon pour s'adapter aux évolutions technologiques extrêmement dynamiques que l'on peut constater. Un texte de cette nature, ça fige ou ça tend à figer la vision
15:09 que l'on porte sur ce domaine technologique qui est très lié, par ailleurs, à des enjeux très sociétaux. Et donc, notre réflexion aujourd'hui, après une tempête
15:22 plutôt médiatique, d'ailleurs, et marketing de l'arrivée de Chad J.P.T., c'est de se dire, est-ce que le modèle de régulation par la hard law, par une loi assez rigide,
15:33 est le bon pour, dans 5 ans, dans 10 ans, être adapté au phénomène auquel nous serons confrontés ? Et ça, le problème d'une régulation européenne de cette nature,
15:44 c'est que même si le texte intègre des mécanismes d'adaptation, risque de rigidifier considérablement la façon dont, en Europe, nous regardons l'intelligence artificielle.
15:55 Et nous pensons qu'il y a des mécanismes de régulation qui sont plus souples, qui donnent, par exemple, à des autorités indépendantes le soin d'adapter la régulation
16:06 avec, bien entendu, des grandes directives, qui sont celles que, démocratiquement, l'Europe peut avoir adaptées, mais qui adaptent en permanence cette régulation
16:18 aux enjeux technologiques, à ce que l'on peut constater.
16:21 - Simplement sortir un texte anti-ChatGPT, en fait, d'Audit. - Voilà.
16:25 - Bertrand Payas, ce nouveau service au sein de l'ACNIL dédié à l'intelligence artificielle, est-ce que ça fait partie de son rôle, justement, de regarder les textes en préparation,
16:34 d'éclairer les politiques français, et peut-être aussi de participer aux débats européens ?
16:39 - Alors, évidemment, on le regarde, c'est important, et je pense que la création de ce service, c'est aussi de se préparer pour des nouvelles dispositions qui pourraient entrer en vigueur.
16:47 Alors, plutôt fin 2025. On ne participe pas directement aux négociations européennes, c'est vraiment le gouvernement, dans le cadre d'un dialogue interministériel,
16:56 qui pilote la position française au Conseil des Etats-membres, qui lui-même négocie avec le Parlement et la Commission.
17:05 Mais on peut faire valoir notre expertise, et notamment sur l'articulation avec le RGPD, puisque c'était un des points sur lesquels...
17:11 - Et à ce stade, quel est le regard de l'ACNIL sur ce sujet, sur l'AI-Act ?
17:16 - Alors, moi, je serais moins sévère qu'Henri. Je pense qu'il y a eu un gros travail de réflexion qui a été mené, là, à partir de 2017-2018.
17:24 Il y avait le groupe d'experts de haut niveau de la Commission qui a vraiment fait mûrir le sujet, et une approche que je trouve en tout cas adaptée,
17:33 qui est cette approche à la fois par les risques, c'est-à-dire de dire qu'on va réguler uniquement les usages à haut risque.
17:37 Donc l'IA qui sert dans un jeu vidéo, ce n'est pas un usage à haut risque, a priori. Et cette liste de usage à haut risque, elle va être susceptible d'être modifiée.
17:49 Donc c'est peut-être là où il y a une marge d'adaptation.
17:51 - En exemple, on peut donner l'IA utilisée dans le domaine de la justice ?
17:55 - Voilà, dans l'administration de la justice, par exemple. Ce n'était pas dans le texte initial, et puis ça a été ajouté.
18:00 Donc effectivement, dans le domaine judiciaire, on voit bien que c'est très sensible, il faut y réfléchir.
18:07 C'est vrai que ça va sans doute un peu compliquer les règles pour les gens qui fournissent des IA pour ces usages à haut risque,
18:13 que ce soit la santé, des usages sur la police ou la justice, des usages aussi sur le recrutement RH,
18:20 qui est effectivement un des domaines où aujourd'hui il n'y a peut-être pas beaucoup de régulation, mais où il peut y avoir beaucoup de discrimination avec des systèmes automatisés.
18:26 Donc c'est des nouvelles règles. Pour les gens qui fournissent des solutions dans ces domaines-là, ça va être des nouvelles contraintes, on ne peut pas dire le contraire.
18:33 On pense que ce n'est pas inadapté. Je pense que le débat cette année prouve qu'il y a aussi une demande de régulation, y compris d'une partie des industriels.
18:41 Et on pense par ailleurs que c'est relativement bien complémentaire du RGPD, puisque là, la régulation va porter sur les fournisseurs de solutions plutôt que sur les utilisateurs,
18:50 alors que le RGPD s'applique vraiment aux utilisateurs, aux entreprises qui mettent en place des systèmes, qui les achètent. On leur demande de respecter un certain nombre de règles.
18:57 Là, la Commission a fait le choix de se porter sur les gens qui développent finalement les IA, qui sont nombreuses, innovantes.
19:03 Je pense que c'est à ces entreprises-là que le ministre pense quand il craint l'effet de la régulation.
19:08 Oui, parce que l'objectif n'est pas non plus de stopper l'innovation. Quels sont justement les risques qui pèsent sur ces entreprises innovantes,
19:15 qui travaillent sur ces systèmes intelligents, avec l'arrivée de ce règlement selon vous, Henri ?
19:21 Sur ce sujet de l'innovation, nous avons une position qui est peut-être un peu décalée par rapport à celle de beaucoup de monde dans l'environnement de la tech.
19:35 Ce que l'on constate, c'est que la notion d'innovation, de manière indiscriminée, a remplacé la notion de progrès.
19:42 En soi, l'innovation, ce n'est peut-être pas le bon prisme pour regarder ces sujets d'intelligence artificielle.
19:51 Qu'est-ce qui sert le progrès ? Le progrès économique, le progrès social, le progrès environnemental.
19:57 Oui, l'innovation en soi, ce n'est peut-être pas le sujet.
20:01 Mais il y a d'autres sujets sur lesquels nous sommes assez attentifs quand on regarde ce texte.
20:06 D'abord, il y a plusieurs textes qui sont actuellement en cours d'étude de manière parallèle.
20:14 Il y a d'abord au niveau du Conseil de l'Europe, un texte qui est actuellement en cours de réflexion et qui sera un texte contraignant pour 46 États.
20:27 Vous faites référence à quel texte ?
20:30 C'est un texte sur l'intelligence artificielle, sur des régulations de haut niveau de l'intelligence artificielle portées par le Conseil de l'Europe.
20:37 Or, les définitions, déjà, ne sont pas tout à fait les mêmes entre le texte du Conseil de l'Europe et le texte de la Commission européenne.
20:46 Or, les deux sont contraignants. Il va falloir à un moment qu'on fasse converger ces définitions.
20:51 Par ailleurs, aujourd'hui, nous pensons que ces définitions ne sont pas suffisamment précises.
20:58 Est-ce qu'on sera capable de porter des définitions précises sur l'intelligence artificielle ?
21:03 Définir qu'est-ce qu'un système d'intelligence artificielle ?
21:06 Enfin, Thierry Breton a annoncé il y a quelques jours qu'il allait établir un pacte pour l'intelligence artificielle,
21:15 dont le contenu, pour l'instant, n'est pas tellement connu. Comment va-t-il s'appliquer ?
21:21 Est-ce que ça sera d'application volontaire ? Il y a des choses. C'était après un entretien avec un patron de Google, je crois, qui l'a annoncé, ce pacte.
21:30 Donc, on reste un peu dubitatif. Et puis, il y a d'autres sujets en termes de difficultés.
21:37 C'est notamment sa porte sur ce qu'on appelle les IA d'usage général, où, là, les projets de règlement n'ont pas tranché.
21:48 Et nous craignons que l'essentiel de la responsabilité porte, in fine, sur l'utilisateur final, à partir d'outils dont il ne maîtrise pas les algorithmes,
22:03 il ne maîtrise pas s'il y a eu des datas pour l'entraîner, les données.
22:07 C'est-à-dire quelle responsabilité aurait-il, l'utilisateur final ?
22:10 La responsabilité sur les résultats produits éventuellement par ce type d'intelligence artificielle, ces IA d'usage général.
22:19 Donc, là, il y a toute une réflexion qui doit être menée. C'est pour ça que nous avons tendance à penser, en tous les cas, sur ce type d'outils,
22:25 une régulation beaucoup plus souple qui serait donnée à une autorité indépendante nous paraîtrait tout à fait judicieuse, un peu comme on le fait aujourd'hui au niveau de l'UE
22:37 en matière de droit de la concurrence, où on a la DG Comp, la compétitivité, qui a une partie de la responsabilité et qui la partage avec les autorités administratives indépendantes dans les États.
22:50 C'est un sujet compliqué parce qu'à la fois il y a effectivement un appel sur la régulation, on a besoin de transparence, on a besoin de sécurité du côté de l'utilisateur,
22:59 mais même du côté de l'écosystème, c'est vrai qu'ils le réclament.
23:03 On nous dit "ah oui, mais alors c'est facile pour OpenAI de réclamer une régulation parce qu'eux ont tellement déjà avancé que finalement ça va leur donner un coup d'avance".
23:11 Est-ce qu'il y a un risque que ce texte favorise finalement davantage les GAFAM, enfin en tout cas les grandes plateformes numériques actuelles, et pénalise l'écosystème européen ?
23:24 Alors, moi je suis assez convaincu que la régulation ça favorise les gros acteurs. C'est quelque chose qui de manière générale les gros acteurs savent payer les troupes, la réflexion, même les investissements pour répondre à la régulation.
23:42 Voir les avocats !
23:44 Et contrairement à il y a 30 ans ou il y a 20 ans, même des gens comme Google ou Facebook étaient des entreprises qui étaient assez jeunes et qui elles-mêmes souhaitaient se concentrer sur la régulation,
23:54 typiquement aux Etats-Unis, je pense que ça a vraiment changé, on l'a vu avec la réaction d'OpenAI à la décision de notre homologue italien qui a dit "c'est interdit".
24:03 En 15 jours, OpenAI a proposé des mesures de régulation alors qu'il avait fallu 4 ans à Google pour accepter le droit à l'oubli suite à un arrêt de la Cour de justice.
24:14 Donc on voit bien un changement de posture et c'est vraiment le danger, je pense que c'est à ça que pense aussi Jean-Noël Barrault quand il dit "il y a un risque".
24:21 Parce que évidemment les petites entreprises françaises qui essayent de se positionner sur le même sujet, ils n'ont pas les moyens de payer une campagne de com' des dizaines de personnes pour répondre aux exigences de régulation.
24:32 Donc il faut trouver un moyen de construire cette régulation avec ces entreprises-là et pour ces entreprises-là et pas uniquement pour réguler l'entrée sur le marché européen des acteurs internationaux.
24:45 Et puis jusqu'où on peut aller poser des exigences ? Parce que quand on appelle à la transparence algorithmique, on sait que dans la pratique c'est pas aussi simple que ça.
24:56 Qu'est-ce qu'on peut exiger ? Où est-ce qu'il faut s'arrêter dans cette exigence de transparence ?
25:03 Alors nous on a, je pense que le texte il fixe une obligation de transparence qui n'est pas absolue.
25:10 On a pu étudier à la CNIL le texte sur les Jeux Olympiques qui s'occupe des caméras augmentées et qui pré-transpose entre guillemets une partie des exigences de l'AI Act
25:20 et qui nous permet de voir effectivement qu'est-ce qu'on demanderait à des entreprises.
25:24 Donc par exemple, il y a des fortes exigences de documentation, d'expliquer comment j'ai construit mon IA, quelles sont les données que j'ai utilisées,
25:31 quels sont les paramètres que j'ai faits, quels sont les mécanismes de sécurité que j'ai mis en place.
25:35 Par contre, on ne demande pas, il y a eu le débat sur la loi Jeux Olympiques, de mettre à disposition l'ensemble des données d'entraînement
25:41 qui est quelque chose qui serait à la fois coûteux, pas forcément très opérationnel et porterait de nouveaux risques
25:47 parce que ça veut dire qu'on va garder pendant des années toutes les données qui, d'un autre point de vue que CNIL, peuvent contenir des données personnelles
25:53 et donc pas des données qu'on veut forcément garder très longtemps. Donc on est en train de définir ces règles de transparence.
25:58 Je pense que la vraie difficulté avec les briques à usage général, comme le mentionnait Henri, c'est que ces briques-là, elles n'ont pas d'usage.
26:05 On ne sait pas s'elles vont servir pour la police, pour la santé, pour l'éducation, pour les RH.
26:10 Et en même temps, tous ces usages à risque, à haut risque qu'on veut réguler, eux-mêmes vont partir de ces briques à usage général.
26:19 Et donc vraiment la question, c'est qu'est-ce que ces briques doivent être capables de démontrer pour que l'entreprise spécialisée dans le domaine de la santé
26:29 qui va utiliser CHGPT pour rédiger des comptes rendus automatisés, par exemple, puisse dire, certes, j'ai entraîné mon IA,
26:37 mais je sais un peu comment fonctionne l'IA de base que j'ai utilisé. Et aujourd'hui, c'est vrai que c'est encore très obscur,
26:43 notamment pour les systèmes qui ne sont pas open source.
26:45 Alors je vais faire un petit peu de provocation peut-être, mais enfin, certains demandent des moratoires sur les déploiements d'intelligence sociale.
26:51 Est-ce qu'il nous faudrait, nous, un petit moratoire sur la régulation ? Parce que peut-être on a besoin d'un peu plus de temps pour apporter une réponse adéquate.
26:59 Non, bon, un moratoire, je ne sais pas, parce qu'actuellement, le texte qui avait été proposé par la Commission européenne arrive a priori à partir du 14 juin dans le Trilogue,
27:16 c'est-à-dire la structure institutionnelle de négociation du texte final entre la Commission d'une part, le Parlement européen et le Conseil européen.
27:25 Et donc on devrait connaître le même jour, le 14 juin, en tous les cas à partir du 14 juin, le mandat de négociation du Parlement européen.
27:35 Donc à partir de là, les choses sont encore largement ouvertes.
27:38 Et d'ailleurs, la France elle-même se mobilise pour faire le tour des acteurs entre le CIF pour comprendre quelles sont les attentes, les remarques, les craintes,
27:49 et puis les prendre en compte pour alimenter la négociation au sein de ce fameux Trilogue qui a l'ambition de terminer ses travaux, en tous les cas,
27:59 avant les élections européennes de l'année prochaine, juin 2024.
28:03 Donc vous nous dites quand même qu'on a encore le temps d'affiner la position européenne.
28:09 Oui, et puis il y a du travail à faire.
28:13 Mais un des problèmes principaux, n'empêche, c'est celui des compétences et des instances de régulation aujourd'hui,
28:22 qui est le niveau de compétence nécessaire pour réguler.
28:25 Vaut mieux, si on fait un texte et qu'on ne sait pas contrôler sa mise en œuvre, ça ne sert à rien.
28:30 Ça ne fonctionnera pas.
28:31 Et donc l'ACNIL s'est équipée d'un service dédié pour monter en compétence sur ce sujet de l'intelligence artificielle.
28:36 Et on salue l'initiative.
28:38 Merci beaucoup à tous les deux sur ce sujet.
28:40 Jean-Henri Dagrin, délégué général du SIGREF, Bertrand Paillès, directeur de l'innovation et des technologies à l'ACNIL.
28:44 Petite pause et puis on va parler du RGPD.
28:46 Ça fait cinq ans qu'il existe, qu'il est en vigueur en France.
28:49 Vous regardez Smartech, votre quotidienne sur l'innovation et le numérique.
28:58 On est sur Bismarck à 11h, première diffusion.
29:02 Et maintenant, c'est le moment de notre grand rendez-vous avec David Lacombelade, le président du Think Tank, la villa numériste.
29:07 Bonjour David.
29:08 Bonjour.
29:09 Vous avez publié un rapport dont on a déjà parlé sur le règlement général de la protection des données, le célèbre RGPD.
29:16 Après cinq années d'application, on va s'intéresser à la France en particulier.
29:20 Et vous posez la question, est-ce que ça se fait ?
29:23 Au moment où on avait évoqué la sortie du rapport, moi j'avais dit dans l'émission que vous mettiez quand même les pieds dans le plat avec ce rapport.
29:31 Donc ça ne se fait pas vraiment ces cinq ans finalement.
29:34 Je suis d'accord que la réponse est déjà un peu dans la question.
29:37 Il faut bien avouer que nous on se fait le porte-voix des entreprises que nous avons interviewé et avec un bilan somme toute contrasté.
29:46 L'accueil a été très favorable des organisations, des citoyens, des entreprises.
29:53 Et il faut bien voir que cette affaire n'est pas encore stabilisée, ne serait-ce que parce qu'il y a une jurisprudence abondante en la matière et que les choses évoluent également.
30:03 Si on parle du recueil des consentements, puisqu'on est bien en cela, je donne mon accord pour qu'on utilise mes cookies quand je vais sur un site.
30:11 D'ailleurs je le fais de manière de plus en plus automatique tant j'en ai pris l'habitude et je sais parfaitement où le bouton se trouve.
30:17 Mais néanmoins certaines entreprises l'ont détourné parce qu'elles vous forcent au consentement, ne serait-ce que pour continuer vos visites.
30:24 Et ça ne contribue pas à installer un climat de confiance.
30:27 D'ailleurs un français sur deux dit ne pas avoir confiance dans le numérique et selon un sondage publié en novembre dernier de l'Accel.
30:37 Et c'est bien le but de ce texte et de son application aujourd'hui que de créer des liens de la confiance.
30:44 Pour les entreprises, effectivement on peut s'enorgueillir que ce texte soit mondialement connu, soit même approprié par certains états.
30:53 Ce qui n'empêche pas malheureusement d'être parfois encore dans des flous juridiques, ne serait-ce qu'entre l'Europe et les Etats-Unis, avec l'absence d'un privacy shield par exemple.
31:05 Et donc effectivement on a une instabilité qui fait que vous faites moins d'investissement quand vous êtes une entreprise.
31:14 Ensuite il y a une obligation de rendre des comptes dans le RGPD, la "countability", avec là aussi on le publie dans notre rapport, un dossier de conformité très conséquent à remplir.
31:28 Alors quand vous êtes une grande entreprise avec un service juridique pléthorique, ça va.
31:32 Quand vous êtes une plus petite entreprise, c'est là où ça commence à être difficile.
31:36 Ensuite il y a eu la mise en place de DPO, des délégués à la protection des données, qui sont perçus en entreprise comme les représentants de l'ACNIL,
31:46 mais qui sont une porte d'entrée intéressante, mais qui là aussi, même s'ils n'ont pas le pouvoir décisionnel, puisque ce n'est pas leur fonction, peuvent mettre en garde.
31:56 On se retrouve parfois avec des entreprises qui vont être dans l'auto-censure, l'auto-contrôle, et ne pas oser aller jusqu'au bout des projets.
32:05 Et c'est pour ça qu'elles ont le sentiment aujourd'hui d'être un peu au milieu du guet.
32:10 Alors, je n'ai pas précisé, mais restez avec nous en plateau, et je vous en remercie Bertrand Paillès, directeur de l'innovation et des technologies à l'ACNIL.
32:17 Donc vous allez bien évidemment réagir à ce sujet.
32:20 Il semble quand même, David, que les entreprises aient pris le pli de ce RGPD, même si 5 ans ce n'est pas beaucoup, c'est encore très jeune.
32:28 Il y a assez peu de salariés qui n'ont pas été formés, et d'entreprises qui ne le connaissent pas, c'est indéniable.
32:34 Et effectivement, les DPO ont rempli leur office au sein des entreprises, ne serait-ce que par le rappel du droit qu'ils peuvent faire en permanence.
32:45 Malheureusement, l'ACNIL aujourd'hui est plus perçu comme un gendarme qui manie le bâton que la carotte.
32:52 Oui, mais c'est difficile d'aimer la police, je sais.
32:56 Alors, dans ce rapport, vous êtes d'ailleurs assez sévère, je trouve, avec ces relations entre l'ACNIL et les entreprises.
33:05 Les entreprises ont été relativement sévères, et d'ailleurs, pour la plupart, n'ont pas voulu s'exprimer à visage découvert.
33:13 On est face à une autorité indépendante et une des plus anciennes en France, 1978, après la CADA, si mes souvenirs sont bons.
33:23 La qualité des membres est indéniable, et celle de ceux qui la font vivre au quotidien également, c'est indiscutable.
33:31 Mais effectivement, l'approche un peu radicale, centrée autour de la sanction, fait qu'on a des entreprises qui vivent dans la crainte.
33:44 Ensuite, c'est vrai que la protection des données a été érigée comme un quasi-droit absolu.
33:49 Oubliant parfois, nous semble-t-il, un principe de conciliation, ne serait-ce que sur la préservation de la santé ou le développement économique.
34:00 Et donc effectivement, in fine, on se retrouve avec des entreprises qui ont le sentiment de ne pas pouvoir toujours être entendues,
34:07 même s'il y a beaucoup de choses qui sont faites en termes de formation, de colloques, conférences, de numéros de téléphone.
34:14 Mais c'est vrai qu'on a d'autres autorités de régulation, sectorielles, il est vrai, qui ont tiré leur légitimité du fait d'un dialogue très en amont avec le secteur qu'ils régulent.
34:25 Je pense à l'ARCEP, par exemple, pour les télécommunications, la poste et la distribution de la presse, ou l'ARCOM pour la télévision, et de plus en plus pour Internet.
34:35 C'est vrai qu'ils sont aussi critiqués, vous savez.
34:38 Avec une crainte de la sanction pour les entreprises.
34:41 Et vous allez même un peu plus loin, puisque vous dites qu'il faudrait même repenser la composition de l'ACNIL.
34:47 2024 sera une année de renouvellement.
34:51 Et effectivement, certainement, faut-il changer de cap.
34:56 Mais être un peu plus d'entrepreneurs, de représentants de l'innovation serait aussi un bon moyen de se faire entendre, tout simplement.
35:04 De jouer aussi un peu plus l'inter-régulation, dans ces principes-même, mais à cette tournée vers une autorité de contrôle.
35:12 On en a parfois oublié le fait de devoir dialoguer aussi avec les autres autorités.
35:17 Et c'est un impératif, il faut vous parler à l'instant de l'IA Act qui va arriver.
35:22 On voit bien qu'on a une accumulation de textes.
35:25 Le DSA, Digital Service Act, va arriver en discussion au printemps, dans quelques jours, au Parlement.
35:32 On voit bien qu'on est dans de la distribution entre différentes autorités des copies.
35:37 On est sur l'encadrement des plateformes.
35:40 On risque malgré tout l'enchevêtrement et l'accumulation des textes.
35:45 – Bertrand Paillès, vous avez entendu, vous avez lu, évidemment, vous connaissez très bien ce rapport.
35:49 Vous avez entendu ces critiques. Je les titrerai "côté-coulisses".
35:53 Là, on est vraiment dans les coulisses, c'est-à-dire dans les relations entre les entreprises et le gendarme,
35:59 mais qui protège les données personnelles.
36:01 – Oui, alors nous, on ne fait pas le même constat, évidemment.
36:04 Et je pense qu'on n'a peut-être pas eu assez l'occasion de discuter sur les pistes de ce rapport
36:10 et de faire valoir un dialogue qu'on a maintenant.
36:14 Deux choses.
36:16 D'une part, on a une très importante mission de conseiller à la CNIL.
36:21 On répond à 1 500 demandes d'entreprises par an, de gens qui viennent nous dire "comment je fais ci, comment je fais ça"
36:26 et on le fait avec une logique qui n'est justement pas celle de la sanction.
36:29 Pratiquement, ce n'est pas connu, c'est peut-être moins connu.
36:32 C'est vrai qu'à côté, on reçoit 15 000 plaintes,
36:34 donc on doit aussi traiter 15 000 plaintes de personnes qui ont des problèmes avec des entreprises.
36:38 Et peut-être le deuxième point, c'est que je pense que c'est une partie des constats, je peux les percevoir.
36:43 Je pense qu'il ne faut pas généraliser ce qui arrive dans certains secteurs.
36:49 Nous, on ne traite pas pareil.
36:51 Il y a des secteurs sur lesquels il y avait des non-conformités majeures au RGPD
36:56 et du coup, il a fallu faire changer les pratiques.
36:59 C'est sans doute quelque chose d'un peu brutal.
37:01 Oui, mais on a essayé de le faire de manière aussi prédictive que possible.
37:07 C'était notamment le cas du marketing digital sur les cookies.
37:10 C'est un sujet où on sait que le secteur est très vigilant.
37:14 Ils ont construit une économie qui est basée sur la publicité personnalisée et ciblée.
37:19 Et le RGPD, il faut qu'il ait un effet.
37:22 Ce n'est pas du tout le cas si vous êtes une entreprise de mécanique.
37:25 Votre sujet RGPD, c'est vos RH et votre vidéosurveillance.
37:29 C'est important, il faut le faire, mais ça ne demande pas du tout le même niveau d'expertise juridique pour comprendre.
37:34 On est des choses très balisées.
37:36 On publie beaucoup de choses qui permettent de se mettre en conformité,
37:39 même si on doit toujours faire plus l'effort d'être compris par des non-spécialistes.
37:44 Mais en tout cas, ce que je veux dire, c'est que nous, on a bien conscience qu'on doit répondre aux besoins des entreprises.
37:50 On constate que peut-être toutes les entreprises n'ont pas si peur que ça
37:53 parce qu'il y a des fois des gens qui ont fait découvrir le RGPD.
37:57 Et par contre, c'est sûr qu'une régulation, elle est là pour changer des choses.
38:01 Donc l'objectif de 5 ans après, c'est aussi que des gens qui pensaient que ce qu'ils faisaient, c'était bel et bon,
38:07 en fait, ils comprennent que ce n'était pas bel et bon et qu'il faut changer.
38:11 C'est sûr que les entreprises n'aiment pas trop ça.
38:13 Bon, et aussi du côté LACNI, il y a peut-être des choses aussi à changer.
38:17 En tout cas, si le dialogue s'installe encore davantage entre les représentants des grandes organisations et des plus petites aussi,
38:25 qui souffrent parfois des nouveaux règlements et l'autorité de régulation, c'est parfait.
38:31 Moi, je suis ravie que vous soyez en face que tous les deux.
38:34 C'est vrai que la communication par la sanction, et on ne retient que ça parce qu'il y a un effet à chaque fois de blast.
38:41 Quand Facebook est condamné à 1,2 milliard, comme c'était le cas la semaine dernière en Irlande,
38:48 même si entre les lignes, on voit bien qu'elles ont été aidées par d'autres autorités.
38:53 On retient cela en priorité.
38:55 Alors c'est vrai que LACNI fait que la France est dans le top 3 des sanctions européennes et qu'on a tendance à s'attacher à ça.
39:02 Et donc, je pense qu'il faudrait aussi communiquer, effectivement, sur le nombre de formations d'entreprises reçues en particulier.
39:09 Tout à fait. Je pense que le cas de META qui est à 1,2 milliard, il ne faut pas que toutes les entreprises se disent que je risque d'avoir 1,2 milliard.
39:18 C'est quand même une activité qui est très particulière, avec des conformités majeures et répétées qui le justifient.
39:23 Des non-conformités majeures et répétées.
39:25 Je prendrais un exemple récent qu'on a lancé il y a quelques semaines.
39:28 C'est ce qu'on a appelé l'accompagnement renforcé.
39:30 On prend trois entreprises, donc Hugging Face qui fait des modèles et des data sets d'IA qui rend ça disponible.
39:35 Life Fund qui fait de l'exploitation de données pour la santé et Content Square qui fait de l'optimisation de sites web.
39:42 Donc, ce sont trois sujets très sensibles en termes de protection des données sur lesquels on s'engage à les accompagner pendant plusieurs mois
39:49 pour s'assurer que leur conformité est faite et ne pas se mettre dans une position de sanction, mais bien une position d'accompagnement très renforcée
39:57 où on met beaucoup d'équipe.
39:59 Merci beaucoup. Merci Bertrand Paillès de LACNIL et David Lacombled de la Villa Numéris.
40:04 Petite jingle et puis on va regarder Oval Web.
40:07 Ça y est, on ne sera plus obligé de se filmer pendant nos réunions en visioconférence.
40:16 On pourra faire travailler notre avatar peut-être demain.
40:19 Meta n'a pas dit son dernier mot concernant le métavers.
40:24 Dernière sortie en date du géant, son potentiel économique pour la France serait colossal.
40:29 Il a confié au cabinet de l'OIT le soin de le prouver dans sa nouvelle étude.
40:33 Résultat, le métavers pourrait rapporter entre 55 et 105 milliards d'euros supplémentaires au PIB français d'ici 2035.
40:43 Pas négligeable donc.
40:45 Selon ses auteurs, la France a bel et bien une carte à jouer.
40:48 C'est une économie innovante.
40:50 Les fondamentaux sont plutôt solides et les pouvoirs publics semblent vouloir soutenir l'économie du métavers.
40:56 Mais Meta ne s'est pas arrêté là.
40:58 Il a demandé plusieurs études sur l'impact économique du métavers et dans plusieurs pays.
41:02 Dans l'UE, par exemple, le métavers pourrait générer entre 259 et 489 milliards d'euros par an d'ici 2035.
41:11 Aux Etats-Unis, berceau des géants du web, le métavers devrait rapporter 760 milliards de dollars au PIB annuel.
41:19 Alors qu'on l'avait enterré, ou au mieux considéré comme un super fiasco,
41:24 le métavers pourrait finalement contribuer de manière significative aux différentes économies.
41:29 Métamise, vous l'aurez compris, sur le long terme.
41:33 Merci à tous de nous suivre.
41:35 Merci à mes invités, Bertrand Paillès, directeur de l'innovation et des technologies de l'ACNIL,
41:39 qui est avec nous sur toutes les missions, David Lacombelec, président de la Villa Numéris,
41:43 qui nous a fait un moment de pédagogie autour du RGPD.
41:46 C'était Smartech. On se retrouve évidemment dès demain pour de nouvelles discussions sur la tech et le numérique.
41:50 [Musique]
Commentaires