• il y a 11 mois

Category

Personnes
Transcription
00:00:00 [Silence]
00:00:06 Bien, bonjour à tous, bonjour à toutes.
00:00:09 Je suis ravi de vous accueillir pour ce lundi de la cybersécurité du 23 octobre.
00:00:16 Nous allons passer, je pense, un excellent moment avec nos intervenants.
00:00:24 Nous avons le plaisir d'accueillir aujourd'hui notre professeur Solange Guernauti,
00:00:35 qui est une habituée, qui nous fait encore une nouvelle fois l'honneur de partager sa vision
00:00:42 de l'intelligence artificielle et la cybersécurité des perspectives pluridisciplinaires et sociétales.
00:00:50 Nous allons lui passer la parole pour une heure et nous allons ensuite écouter,
00:00:57 pour les 15, pour le quart d'heure, des associations, Cédric Carteau.
00:01:03 Oui, bonjour Michel. Merci. Oui, s'il vous plaît, tout simplement.
00:01:12 Voilà, je vous demanderai de couper vos micros s'il vous plaît pendant les prochaines minutes.
00:01:18 Nous aurons une période de questions-réponses, mais entre l'intervention de Solange,
00:01:25 nous écouterons Cédric Carteau qui sera là pour nous présenter les activités du Club 27001.
00:01:36 Cédric est un RSSI et DPO du CHI de Nantes,
00:01:42 et également du groupe hospitalier Territoire Loire-Atlantique 44.
00:01:49 Merci à tous les deux d'avoir accepté d'animer avec nous ce lundi.
00:01:55 Nous avons eu beaucoup d'inscriptions, on a plus de 300 inscriptions.
00:02:00 Ça ne m'étonne pas, au vu de la qualité des intervenants et des sujets qui vont être partagés.
00:02:08 Nous sommes dans le cadre de l'Université de Paris.
00:02:16 Cet événement est organisé... Je vais faire un petit partage écran.
00:02:20 Je vais parler maintenant de mes étudiants avant de passer la parole à Gérard.
00:02:27 Rappelez les règles pour que cet événement se déroule dans les meilleures conditions.
00:02:35 Veuillez déconnecter vos caméras et vos microphones.
00:02:41 Nous allons enregistrer l'événement, nous allons lire vos questions sur le chat,
00:02:48 mais également on vous passera la parole pour que cet événement soit interactif.
00:02:52 Nous avons des étudiants qui prennent...
00:03:12 Je suis assisté aujourd'hui pour excuser Béatrice qui n'a pas pu se joindre à nous aujourd'hui,
00:03:20 mais qui est toujours notre fidèle coordinatrice et coadmatrice de l'événement.
00:03:27 Aujourd'hui, on a Clarisse Véron qui est une étudiante du Master Cyber Sécurité
00:03:34 qui va faire office d'assesseur, qui va prendre quelques notes et nous communiquer les minutes.
00:03:41 Clarisse est étudiante du Master Cyber Sécurité,
00:03:46 elle est étudiante en formation en alternance,
00:03:49 elle et ses camarades suivent une formation sur deux ans.
00:03:54 Les étudiants devraient se connecter dans quelques minutes également,
00:03:58 puisque l'événement est co-organisé avec le Master Cyber Sécurité, l'ARCSI.
00:04:04 Je salue également le monsieur Desvigne qui prendra la parole dans quelques minutes
00:04:10 avec Gérard et puis également le centre de recherche CNRS Borelli
00:04:14 qui aborde les mêmes thèmes, Cyber Sécurité et Intelligence Artificielle,
00:04:18 deux domaines complémentaires qui vont s'enrichir l'un et l'autre.
00:04:26 Ceux qui parmi vous en ligne souhaiteraient accueillir des étudiants en Cyber Sécurité,
00:04:34 n'hésitez pas à me contacter par e-mail.
00:04:40 A partir du mois de février, nous avons des stagiaires disponibles,
00:04:46 et des alternants qui sont aujourd'hui disponibles.
00:04:52 Gérard, si tu veux bien modérer les micros.
00:05:00 Je vais essayer de faire les deux en même temps.
00:05:05 N'hésite pas à couper les micros.
00:05:11 Je disais qu'il y a des étudiants qui sont en recherche d'entreprise,
00:05:17 qui peuvent vous intéresser, nous pouvons partager avec vous leur CV.
00:05:23 Ils suivent une formation de Master très opérationnelle,
00:05:27 d'analyste SOC, d'analyste risque/sécurité,
00:05:33 et vous pouvez utiliser mon adresse mail.
00:05:37 L'alternance se déroule deux jours à l'université, trois jours en entreprise.
00:05:43 Les étudiants ont démarré en octobre.
00:05:48 Je fais un peu de promotion pour ces étudiants,
00:05:51 je mérite d'être accompagné dans leur cursus.
00:05:56 N'hésitez pas, notre partenaire c'est le CFA FIA,
00:05:59 vous avez également la possibilité de contacter madame du Calwick.
00:06:03 Je mettrai les emails sur le chat.
00:06:06 Les étudiants de première et deuxième année
00:06:10 assureront certainement des missions de très haut niveau.
00:06:16 Je vous souhaite tous une excellente conférence.
00:06:21 Je passe sans tarder la parole à Gérard.
00:06:26 Et donc, vas-y.
00:06:30 Merci Ahmed.
00:06:32 Je commence par excuser Béatrice.
00:06:35 Elle aurait été, si ce lundi de la 6 mai/1 octobre avait eu lieu la semaine dernière,
00:06:41 mais là, elle est en train d'atterrir à la Guadeloupe pour un mariage
00:06:48 qui aura lieu samedi, donc évidemment, elle ne sera pas avec nous
00:06:52 pour la première fois depuis une dizaine d'années,
00:06:54 une centaine de lundis de la Ciber que nous avons déjà fait.
00:06:58 Bon, elle sera là en novembre.
00:07:01 Quelques, alors juste quelques secondes,
00:07:04 quelques petits aperçus sur qui est notre Solange Gernahouti.
00:07:09 Elle est franco-suisse.
00:07:11 Côté Suisse, elle est membre de l'Académie Suisse des sciences.
00:07:16 Elle est professeure à l'Université de Lausanne.
00:07:19 Et elle a la médaille d'or du progrès.
00:07:22 Côté France, elle a la Légion d'honneur.
00:07:26 Elle est lieutenant-colonel de la réserve citoyenne de cyberdéfense
00:07:29 de la Gendarmerie nationale.
00:07:31 Et elle est à l'Arxis, où nous sommes très fiers de la compter parmi nous.
00:07:37 Voilà, donc, quelques mots pour le prochain lundi de la Ciber.
00:07:43 Il aura lieu le 20 novembre avec le professeur Jean-Jacques Kiskater,
00:07:49 un Belge, qui est professeur à l'Université de Louvain.
00:07:53 C'est aussi un ponte comme Solange.
00:07:56 C'est lui, par exemple, qui a installé le chiffrement dans les cartes à puces.
00:08:03 Quand il était chez Philips, Jean-Jacques Kiskater fait des conférences au MIT,
00:08:08 il fait des conférences à Normale Sup.
00:08:10 Bref, ce n'est pas la première fois qu'il va intervenir chez nous.
00:08:14 Et il va nous séduire.
00:08:16 Il va nous séduire autour des technologies quantiques appliquées à la crypto.
00:08:25 Alors, il va parler sans doute de la génération de vrais aléas par la mécanique quantique,
00:08:31 le transport de clés symétriques secrètes par les mécanismes d'intrication.
00:08:39 Bref, les inscriptions sont ouvertes à partir de demain.
00:08:49 Maintenant, il va y avoir quelque chose d'extraordinaire le 5 décembre.
00:08:56 Le 5 décembre auront lieu les 15e rencontres de l'Arxis,
00:09:04 qui auront lieu à la Bibliothèque Nationale de France, dans le 13e arrondissement à Paris,
00:09:09 en présentiel seulement.
00:09:11 Le général Devine vous en parlera dans quelques secondes.
00:09:15 Et vous verrez défiler devant vous quelques divas qu'on vous a présentés déjà,
00:09:21 comme le professeur Jean-Jacques Kiskater, Solange Guernauti, Cédric Cartaud, par exemple.
00:09:30 Et aussi Jean-Paul Delahaye, le vice-admiral, le contre-admiral Sébastien.
00:09:43 Bref, qu'est-ce qu'il vous faudrait de plus pour que vous soyez tous bien plus nombreux encore
00:09:50 que 400 personnes à nos lundis de la Ciber et aux événements annexes que propose l'Arxis ?
00:09:58 Qu'est-ce qu'il vous faut ? Un prix Nobel ?
00:10:01 Eh bien, ça nous l'aurons aussi, figurez-vous.
00:10:04 Le 5 décembre, il y aura Alain Aspé, prix Nobel de physique 2022,
00:10:15 sur les mécanismes d'intrication quantique, qui interviendra.
00:10:19 Mais sans plus attendre, je donne la parole à Jean-Louis Devine,
00:10:23 qui nous parlera de ces 15e rencontres de l'Arxis.
00:10:28 Jean-Louis, mon général.
00:10:31 Oui, merci Gérard.
00:10:36 Comme tu as tout dit, je vais être bref.
00:10:39 L'Arxis est heureuse de vous annoncer la tenue de nos prochaines rencontres,
00:10:44 les 15e comme tu as dit,
00:10:46 et celles-ci se dérouleront le mardi 5 décembre prochain à Paris,
00:10:50 à la Bibliothèque nationale de France,
00:10:52 comme c'est l'habitude depuis quelques années,
00:10:54 car nous y sommes très bien reçus,
00:10:58 et ce lieu a été plébiscité par tous ceux qui nous y ont accompagnés.
00:11:03 Le thème cette année nous a été dicté
00:11:06 à la fois par l'actualité scientifique et numérique,
00:11:09 mais aussi par les événements cyber récents,
00:11:14 présents ou auxquels nous pouvons nous attendre.
00:11:18 Alors, l'emballement des progrès technologiques en matière de numérique
00:11:22 ne met-il pas en péril la sécurité de l'information ?
00:11:25 Tel est ce thème.
00:11:27 Quand je l'ai soumis à l'un de nos intervenants récentis,
00:11:31 le professeur Pellegrini, pour ne rien vous cacher,
00:11:34 celui-ci m'a dit s'il ne mettait en péril que cela,
00:11:38 point de suspension,
00:11:40 j'ai bien entendu acquiescer,
00:11:42 mais je lui ai dit que nous devions nous limiter
00:11:44 et nous concentrer sur l'objet de notre association,
00:11:47 qui embrasse déjà beaucoup de choses,
00:11:49 la sécurité de l'information.
00:11:51 Alors, un petit mot du programme de cette journée.
00:11:54 Après l'accueil par le directeur général de la BNF,
00:11:59 nos rencontres seront ouvertes par une haute autorité de la cyber défense
00:12:03 dont j'attends la confirmation
00:12:05 et dont Gérard vous a donné le nom,
00:12:08 mais il n'est pas encore sûr de pouvoir être disponible.
00:12:11 La matinée sera consacrée à un examen des événements cyber
00:12:16 qui ont déjà mis en péril certaines de nos infrastructures,
00:12:19 parmi les plus sensibles,
00:12:21 et des menaces qui peuvent encore s'y exercer.
00:12:24 Nous pourrons y retrouver certaines des voix
00:12:27 qui se sont déjà faites entendre
00:12:29 lors des lundis de la cyber sécurité.
00:12:31 Gérard a cité Cédric Arthaud, Solange bien sûr.
00:12:36 Alors après cette matinée clairement orientée
00:12:39 vers le volet sombre de la situation actuelle,
00:12:42 un déjeuner convivial vous permettra de reprendre
00:12:45 votre souffle avant un après-midi plutôt orienté vers les solutions
00:12:50 qui devraient nous permettre de reprendre espoir
00:12:53 et de retrouver une certaine confiance dans l'avenir.
00:12:58 Il y aura de nouveau des stars que vous connaissez bien,
00:13:02 mais aussi de nouvelles personnalités de haut vol
00:13:04 parmi lesquelles le prix Nobel de physique dont Gérard vous a parlé.
00:13:09 Je ne vous en dis pas plus aujourd'hui,
00:13:11 le programme définitif sera bientôt en ligne sur le site de l'Arxis.
00:13:14 Vous connaissez ce site que vous fréquentez souvent.
00:13:18 C'est celui sur lequel vous savez de tout sur les lundis de la cyber sécurité
00:13:24 et sur lequel vous pouvez vous connecter
00:13:26 pour y retrouver l'enregistrement de nos soirées.
00:13:30 Alors un point important, ces rencontres sont ouvertes à tous.
00:13:35 Pour assister, il est indispensable de s'inscrire,
00:13:40 mais aussi de respecter son engagement.
00:13:44 Il y a quelqu'un qui parle en même temps là, je ne sais pas qui c'est.
00:13:49 Je répète, il est indispensable de s'inscrire,
00:13:57 mais aussi de respecter son engagement.
00:14:03 Donc je répète qu'il est indispensable de s'inscrire,
00:14:08 mais aussi de respecter son engagement d'inscription,
00:14:13 en particulier si vous souhaitez bénéficier du déjeuner de qualité qui vous sera offert.
00:14:19 C'est une question à la fois de bonne éducation et de lutte anti-gaspille.
00:14:24 Il existe une publicité actuellement pour faire la chasse
00:14:27 au désistement sauvage des rendez-vous médicaux.
00:14:30 Les rendez-vous avec l'Arxis sont aussi précieux.
00:14:34 Alors merci d'adopter un comportement responsable.
00:14:37 Notez tout de suite ce rendez-vous dans vos agendas, vous ne le regretterez pas.
00:14:42 Je vous dis à bientôt et vous souhaite une très bonne séance à l'écoute
00:14:46 de notre cher Solange que je salue très affectueusement.
00:14:50 Nous nous connaissons depuis longtemps à présent et je vois avec bonheur au fil des années
00:14:54 sa notoriété croître à l'international de manière phénoménale.
00:14:59 Bonne soirée.
00:15:01 [Toussotement]
00:15:09 Gérard, à toi.
00:15:11 [Silence]
00:15:16 Oui, très bien.
00:15:18 Merci Jean-Louis Devin pour son intervention.
00:15:23 Gérard, on va sans tarder.
00:15:25 Si on n'a pas d'autres points d'éléments complémentaires,
00:15:27 passez la parole à Solange.
00:15:29 Solange, tu peux prendre la main.
00:15:34 Jean-Marie Ferrière, je ne sais pas ce que vous faites au milieu de l'écran.
00:15:39 On peut partager l'écran.
00:15:46 Seule Solange affiche un écran, bien sûr.
00:15:52 Seule Solange a la parole.
00:15:56 Merci, bonjour à tous.
00:15:59 Ravie d'être avec vous ce soir.
00:16:01 Je suis désolée, je suis un petit peu malade et j'espère que ma voix va pouvoir tenir
00:16:05 toute à cette présentation.
00:16:06 Je serai ravie de vous retrouver le 5 décembre et surtout merci pour les gentils mots
00:16:10 qui m'ont été adressés.
00:16:12 Alors aujourd'hui, en toute simplicité et en toute humilité surtout,
00:16:16 je vais essayer de partager une perception que j'ai de l'évolution de la cybersécurité
00:16:19 au regard des problématiques d'intelligence artificielle telles que nous les connaissons
00:16:24 et de leurs conséquences sur notre façon de faire société et de vivre aujourd'hui et demain.
00:16:29 Alors tout d'abord, il y a deux thèmes, cybersécurité et intelligence artificielle.
00:16:35 Je vais d'abord faire quelques constats sur la cybersécurité.
00:16:39 Et la question que je me pose et qui me préoccupe, c'est en fait,
00:16:42 comment penser la cybersécurité à l'ère de la finitude des ressources ?
00:16:46 Nous avons quelques problèmes liés à l'écologie du numérique et à la préservation
00:16:51 de l'environnement, à l'ère de l'influence et de la cyberinfluence,
00:16:54 qui ne peut être un dit social maintenant, de l'intelligence artificielle,
00:16:58 la capacité de celle-ci à créer des contenus et à influencer.
00:17:02 Alors, nous sommes, et je crois que nous le vivons tous dans nos chaires
00:17:07 et dans nos pratiques, nous sommes devenus dépendants des services du numérique,
00:17:12 mais cette dépendance aux services du numérique a en lui une dépendance
00:17:15 aux fournisseurs de ce numérique.
00:17:17 D'où la question qui est sous-jacente à ça, c'est qui maîtrise effectivement
00:17:21 ces dépendances et qui renvoie à des questions de souveraineté.
00:17:25 Et là, vous voyez, déjà d'emblée, on a pensé à la cybersécurité jusqu'à présent
00:17:29 dans un environnement purement technique, mais on dépasse les questions techniques
00:17:33 pour s'ouvrir sur des questions politiques, économiques et sociales.
00:17:37 Donc, dans ce réseau de dépendance, nous sommes tous aussi, comment dire,
00:17:44 à même de constater les différentes formes de conflits qui existent
00:17:49 et qui se matérialisent dans le cyberspace et qui nous impactent,
00:17:53 que ce soit au niveau individuel, au niveau des organisations et des États.
00:17:57 Et c'est effectivement des nouvelles formes de conflictualité qui s'expriment
00:18:02 à travers le cyberspace.
00:18:04 Et la question de savoir est-ce que la cybersécurité peut répondre
00:18:07 à ces différentes formes de conflictualité ?
00:18:09 Nous aborderons quelques éléments de réponse.
00:18:12 Et comment passer de la cybersécurité à la cyberdéfense et quels sont les liens ?
00:18:16 Mais là, déjà, rien qu'avec cette façon de penser à la cybersécurité,
00:18:19 on se dit bon, il y a des problèmes liés aux applications civiles,
00:18:22 aux individus, aux organisations, mais aussi aux militaires.
00:18:25 Et là, y compris même au niveau de l'enseignement et des pratiques
00:18:29 que nous avons, la façon de faire des recherches, je pose la question
00:18:32 de cette ouverture à ces différents champs disciplinaires,
00:18:36 alors que l'université, en tous les cas en Suisse,
00:18:39 je vais parler effectivement de ce que je connais en Suisse,
00:18:42 mais peut-être aussi un peu partout ailleurs,
00:18:45 nous sommes dans des philos d'enseignement, dans des facultés,
00:18:48 et on n'a pas d'équaisonné les disciplines,
00:18:51 nous ne sommes pas allés vers de la transversalité.
00:18:53 Et c'est très difficile de former des personnes,
00:18:57 à même d'appréhender ces questions, parce que les questions de cybersécurité
00:19:00 sont avant tout des questions de gestion des risques.
00:19:04 Et la gestion des risques, c'est du management.
00:19:06 Donc, on voit ces champs disciplinaires qui s'ouvrent
00:19:09 et qui deviennent de plus en plus compliqués à aborder,
00:19:12 y compris pour faire de la recherche dans les publications,
00:19:15 c'est assez difficile de cibler des publications ou des endroits
00:19:18 pour publier ou des conférences qui abordent ces sujets
00:19:20 d'une manière transdisciplinaire.
00:19:22 Nous avons évoqué ce problème de dépendance,
00:19:25 je pense qu'il faut mentionner les problèmes juridiques.
00:19:30 Et quand on est dépendant d'un fournisseur de solutions étrangers,
00:19:35 on peut penser que nous, organisation,
00:19:40 ne maîtrisons pas le cadre juridique dans lequel ces données sont traitées.
00:19:44 On pense bien sûr aux problématiques liées au cloud
00:19:47 et à ces infrastructures hégémoniques sur lesquelles nous sommes devenus dépendants.
00:19:54 Il me semble aussi qu'un des facteurs de risque
00:19:57 sur lesquels nous n'avons pas beaucoup d'emprise,
00:20:00 c'est non seulement cette dépendance qui veut dire effectivement soumission,
00:20:04 et nous y reviendrons dans la conférence,
00:20:06 mais c'est aussi tout ce réseau d'interdépendance,
00:20:08 c'est tout ce qu'on ne voit pas à partir d'un fournisseur.
00:20:12 Et la complexité, la non-maîtrise des risques,
00:20:15 vient de la non-maîtrise de la chaîne de sécurité,
00:20:18 de bout en bout, de la non-maîtrise du cycle de vie de la cybersécurité.
00:20:22 Il se pose des problèmes de sous-traitance,
00:20:24 et on voit dans beaucoup de cas de fuite de données,
00:20:27 ces fuites de données ou des cyberattaques ont pu affecter des sous-traitants.
00:20:32 Et nous, consommateurs, nous ne voyons pas cette chaîne de sous-traitance
00:20:36 et nous n'avons pas d'emprise sur eux.
00:20:38 Donc on est en train de faire de la cybersécurité
00:20:43 dans un monde qui nous est complètement opaque et qui nous est étranger,
00:20:46 pour lequel nous avons un moyen d'action qui est relativement limité.
00:20:50 Donc ce n'est pas parce que c'est limité qu'on n'arrive pas à maîtriser,
00:20:54 mais seulement il faut penser la maîtrise peut-être autrement.
00:20:57 Donc nous sommes dans un environnement hyper complexe,
00:21:00 non maîtrisé, avec une fuite en avant quand même,
00:21:04 ce processus qui sera, je pense, largement abordé dans la conférence du 5 décembre,
00:21:08 où quand on ne maîtrise pas, on va se dire on a besoin de plus de technologies,
00:21:13 on va rajouter de la technologie à la technologie,
00:21:15 et ce phénomène de fuite en avant pose aussi problème.
00:21:19 Donc l'approche technologique est insuffisante,
00:21:22 et nous ne pouvons pas faire l'économie d'une approche des risques,
00:21:25 de gestion de risque, mais dans une approche holistique.
00:21:27 Alors maintenant, nous allons nous intéresser à ce qui a changé avec le numérisme,
00:21:32 parce que les plus anciens, dont je fais partie maintenant,
00:21:34 et ça me fait tout drôle de le dire,
00:21:36 avons connu un monde informatique qui n'était pas celui de la plateformatisation du monde.
00:21:41 Donc là, depuis une vingtaine d'années, le réseau nous a été confisqué,
00:21:46 et tout ce qui était de distribution,
00:21:48 qui était le pouvoir et la force du réseau,
00:21:50 qui était la distribution et qui faisait aussi de la sécurité dans le réseau,
00:21:53 s'est inversé,
00:21:54 et nous sommes dans un monde complètement centralisé,
00:21:57 avec une concentration du pouvoir dans les mains de quelques acteurs hégémoniques,
00:22:02 et qui sont bien sûr des acteurs, en tous les cas, étrangers.
00:22:05 Donc on a eu affaire à des comportements de convergence et de concentration,
00:22:09 y compris pour tout ce qui est trait de décontenu,
00:22:12 de la transmission, du traitement, de la sauvegarde,
00:22:15 et de tout, de toute cette chose.
00:22:17 Et donc c'est ce que j'appelle le joug des plateformes.
00:22:20 Et si on considère ce que veut dire,
00:22:22 on ne va peut-être pas trop détailler aujourd'hui ce que veut dire le joug des plateformes,
00:22:25 mais en tous les cas, il faut peut-être prendre conscience
00:22:28 que de cette plateformatisation, on perd la maîtrise des données,
00:22:32 y compris des traitements, y compris de la sécurité.
00:22:36 Et peut-être le plus grand changement qui est encore un facteur de risque supérieur
00:22:40 à ce que nous venons d'évoquer,
00:22:42 c'est que ce sont des entités ou des environnements
00:22:45 qui favorisent le renseignement, c'est-à-dire l'espionnage,
00:22:48 et surtout qui imposent des comportements et des façons de faire
00:22:52 qui nous échappent complètement.
00:22:54 Et c'est dans ce sens-là qu'on est dans un monde de soumission,
00:22:56 où on peut faire l'analogie avec le colonialisme,
00:23:00 puisque le colonialisme numérique existe,
00:23:02 et nous ne sommes pas ceux qui maîtrisons ce colonialisme.
00:23:06 Donc ça nous oblige à penser,
00:23:08 à se dire, mais quelle est notre marge de manœuvre en matière de cybersécurité ?
00:23:12 Nous nous sommes rentrés dans cette logique de soumission et de dépendance,
00:23:15 avec plus ou moins de bonheur,
00:23:18 et plus ou moins de compréhension des risques.
00:23:20 Ce qu'il faut savoir, c'est que les entités commerciales
00:23:23 qui nous proposent leurs services, bien sûr, vont défendre leurs intérêts,
00:23:27 d'une façon loyale ou déloyale, ça, ça leur appartient,
00:23:30 mais on peut se poser la question,
00:23:32 est-ce que la défense de leurs intérêts économiques est compatible
00:23:35 avec la défense de nos intérêts particuliers et notamment nationaux ?
00:23:39 Je ne pense pas que de faire du business,
00:23:42 et qui est équivalent à faire de l'altruisme,
00:23:44 et souvent dans les discours liés à l'humanitaire de la cybersécurité,
00:23:47 c'est une autre façon de vendre de la cybersécurité et de faire du business.
00:23:52 Donc là aussi, il faut réapproprier ces fondamentaux
00:23:55 en termes de modèles économiques et de sources de profit.
00:23:58 Et là, nous avons introduit, avec ce modèle,
00:24:01 du cloud, de data center, de plateformatisation du monde,
00:24:06 nous avons introduit une logique de rente.
00:24:08 Plus rien ne nous appartient, et on est là à payer des rentes,
00:24:11 c'est-à-dire des loyers pour accéder à nos données,
00:24:14 avec des prix qui peuvent varier en fonction des conditions et de leurs bons ou noirs.
00:24:18 Donc cette dépendance, qui est la dépendance au réseau,
00:24:21 est une dépendance à ses acteurs qui posent problème.
00:24:24 Donc dans ce contexte, en fait, que fait la cybersécurité,
00:24:29 ou que peut faire la cybersécurité ?
00:24:31 Jusqu'à présent, on a envisagé que la cybersécurité
00:24:34 devait répondre aux critères ou aux contraintes,
00:24:37 aux exigences de disponibilité, d'intégrité et de confidentialité,
00:24:41 qui peuvent se traduire par des notions d'accessibilité,
00:24:46 de corruption et puis de secret.
00:24:49 Donc là, nous n'allons pas nous intéresser forcément à ces trois dimensions
00:24:53 que nous connaissons et que vous connaissez pour la plupart d'entre vous.
00:24:57 Avec des techniques bien particulières,
00:24:59 on peut mettre en œuvre des fonctions qui permettent d'atteindre ces objectifs.
00:25:03 Mais répondre à ces objectifs, là, n'est pas suffisant.
00:25:06 On voit bien qu'on a maintenant construit une infrastructure
00:25:09 qu'on pourrait schématiquement structurer en trois niveaux.
00:25:12 L'infrastructure matérielle, tout l'environnement matériel en nous dépendant.
00:25:16 Et là, pour moi, le plus grand problème, c'est celui de qui maîtrise la chaîne de fabrication
00:25:22 et tout le cycle de vie de ces infrastructures matérielles, à qui elles appartiennent.
00:25:26 Nous allons aussi y revenir un peu plus tard.
00:25:28 Un problème qui n'est pas adressé par la cybersécurité, c'est celui des backdoors,
00:25:32 donc la prise de contrôle, la distance de ces entités.
00:25:35 Ce qui peut se faire au niveau matériel, mais aussi logiciel.
00:25:38 Donc, c'est une notion aussi d'infrastructure logicielle et de service,
00:25:41 qui est aussi complètement vulnérable.
00:25:43 Et on voit bien que ces deux niveaux d'infrastructure possèdent des vulnérabilités.
00:25:49 On pourrait questionner le fait que nous utilisons des infrastructures vulnérables.
00:25:55 Ce n'est peut-être pas une fatalité, mais c'est une façon de commercialiser
00:25:59 et de mettre en œuvre du numérique qui n'est pas compatible, me semble-t-il,
00:26:03 avec des besoins ou des exigences de sécurité.
00:26:06 En revanche, si on s'intéresse à l'infrastructure informationnelle,
00:26:10 c'est-à-dire nous, utilisateurs, qui utilisons des informations
00:26:13 qui sont traitées par des données avec des infrastructures logicielles et matérielles,
00:26:17 cette infrastructure informationnelle, on a vu cette profusion d'informations,
00:26:22 cette capacité de créer des contenus et de collecter des informations, va poser problème.
00:26:29 Donc je retiendrai aussi dans cette approche-là de parler de surface d'attaque.
00:26:34 On voit bien que plus on est connecté, plus on sera piraté.
00:26:37 Pourquoi ? Parce qu'en plus, on n'a pas de sécurité by design.
00:26:40 Nous n'allons pas parler des problèmes de protection des données tout de suite,
00:26:43 mais il n'y a pas de protection d'intimité numérique by design,
00:26:46 parce que c'est contraire au modèle de développement de l'économie du numérique.
00:26:51 Donc cette surface d'attaque, plus on se connecte, plus on sera piraté,
00:26:54 plus on aura des objets connectés, plus on étend la surface d'attaque.
00:26:57 Et là, le courant est vers toujours plus, et c'est ça cette fuite en avant,
00:27:01 toujours plus de connectivité.
00:27:03 Et ce n'est pas parce qu'on connecte un terminal, un périphérique, un objet.
00:27:07 Non, ce que nous connectons, c'est nos vies, c'est nos informations et c'est des flux.
00:27:11 Donc on a ce problème de l'espace, de la surface d'attaque, qui le contrôle.
00:27:15 Pour l'instant, peut-être beaucoup des acteurs malveillants qui sont en possibilité
00:27:19 ont capacité de faire des cyberattaques, qui contrôlent l'espace informationnel,
00:27:25 à mon avis, ça c'est encore des questions, mais nous allons y revenir.
00:27:28 Et puis qu'on contrôle les vulnérabilités.
00:27:30 Donc sur ces trois points, je ne suis pas sûre que la façon de faire
00:27:33 de la cybersécurité à l'heure actuelle va répondre à ces trois niveaux
00:27:37 de complexité, de maîtrise des environnements, de la maîtrise des risques.
00:27:41 Alors, et la question en fait qui peut se poser, c'est qui maîtrise réellement
00:27:49 la cybersécurité ? Qui maîtrise le chiffrement de bout en bout ?
00:27:53 Qui maîtrise en fait, au-delà du… enfin le chiffrement c'est peut-être
00:27:58 le seul espace encore où on peut avoir, espérer avoir encore une maîtrise.
00:28:03 Ça dépend des conditions, pour l'instant ce n'est pas forcément le cas.
00:28:07 C'est allé un peu trop vite.
00:28:09 Donc la sécurité du code, pour l'instant on a très peu de sécurité du code.
00:28:15 Pourquoi ? Parce que les codes sont pour la plupart propriétaires et non transparents.
00:28:19 Et c'est cette opacité qui pose aussi problème.
00:28:22 Donc la transparence des traitements du code et de ce que fait un processeur
00:28:25 quand il exécute une instruction, c'est quasiment impossible à avoir.
00:28:29 Donc qui maîtrise la force de frappe du calcul ?
00:28:32 Et là on pourrait prendre en considération toute la façon de fabriquer
00:28:37 ces infrastructures matérielles et logicielles.
00:28:40 L'autre question qui va aussi de pair, c'est qui maîtrise la collecte
00:28:44 et des données ? Parce que là on voit bien que depuis le début du 21e siècle,
00:28:47 les données, les informations sont les nouvelles hors du 21e siècle.
00:28:51 Et donc ces acteurs hégémoniques qui ont déjà un temps d'avance
00:28:54 sur cette collecte de données ont développé une économie
00:28:57 qui va dans le sens d'exploitation des données massives,
00:29:00 c'est le phénomène de Big Data.
00:29:02 Mais au-delà de ces données, c'est la capacité de développer des intelligences artificielles.
00:29:06 Et dans cette façon d'imposer une économie numérique,
00:29:09 on a renversé le paradigme informatique, qui était au départ celui de la rareté,
00:29:13 de celui du code, quand on voulait coder, réaliser un programme informatique,
00:29:18 offrir un service, il fallait connaître la façon de le faire.
00:29:21 Et ce que là, avec cette captation de données et l'application des mathématiques
00:29:29 et des statistiques, on arrive à pouvoir obtenir des résultats
00:29:34 alors qu'on ne connaît pas les données en entrée et qu'on ne sait pas résoudre le problème.
00:29:38 Et là aussi, ça c'est un changement de paradigme qui est important.
00:29:41 Alors, dans la question de la maîtrise, vous voyez bien,
00:29:47 tout à l'heure j'ai introduit la notion de dépendance et de soumission.
00:29:50 Donc l'idée c'est de reprendre du pouvoir, et donc le pouvoir c'est être moins dépendant,
00:29:56 mais c'est surtout de se poser la question de la maîtrise des environnements,
00:29:59 des services et des données.
00:30:01 C'est reprendre la maîtrise qui nous a été confisquée.
00:30:04 Alors, un autre point qui me semble important et qui a marqué un tournage au XXIe siècle,
00:30:11 c'est tous les systèmes de géolocalisation qui sont utilisés.
00:30:15 Donc, on a vu cette balkanisation du ciel avec les systèmes différents de géolocalisation,
00:30:21 mais quand même une avance considérable prise par les acteurs américains
00:30:25 qui ont déployé leurs systèmes.
00:30:27 Donc, cette question de mobilité des objets matériels et immatériels,
00:30:31 c'est-à-dire des flous et des données,
00:30:34 intéresse aussi, nous individus, en tant que personnes, cette mobilité des personnes.
00:30:42 Qui maîtrise la mobilité, la géolocalisation ?
00:30:46 Maîtrise le mouvement et qui maîtrise le mouvement ? Maîtrise la vie.
00:30:50 Donc là aussi, on peut sortir purement des questions techniques de la géolocalisation,
00:30:55 du business qu'on peut en faire de cette géolocalisation,
00:30:58 pour s'interroger sur la finalité d'être non seulement identifiable
00:31:04 et surtout repérable géographiquement.
00:31:08 Et si on connaît tout des personnes par rapport aux habitudes et pratiques numériques,
00:31:13 si on connaît tout de leur géolocalisation,
00:31:15 on peut effectivement prédire, à partir d'un endroit,
00:31:19 l'endroit suivant où elle peut se déplacer,
00:31:22 puis faire toute une chaîne de déduction
00:31:24 qui peut aussi alimenter tous ces systèmes d'intelligence artificielle.
00:31:28 Et donc, dans ce qui est de prédiction, y compris dans les actes d'achat,
00:31:32 là on voit cette convergence aussi des intérêts business,
00:31:35 de la prédiction en termes de commerce,
00:31:37 et toutes ces techniques de prédiction peuvent être aussi détournées pour d'autres usages.
00:31:42 La géolocalisation, donc une question stratégique de plus haut point,
00:31:46 dont va dépendre la suprématie d'un pays, voire d'un continent.
00:31:49 Autre fait nouveau dans cette infrastructure satellitaire,
00:31:53 c'est la présence d'acteurs privés,
00:31:56 qui n'existaient pas jusqu'à pas très très longtemps,
00:31:59 alors que c'était que des acteurs publics.
00:32:02 Donc cette conquête de l'espace,
00:32:05 on a vu se développer au niveau de la guerre froide,
00:32:08 mais qui continue son développement avec aussi des intérêts
00:32:11 par rapport à la collecte, à la surveillance,
00:32:14 et c'est un enjeu géostratégique.
00:32:16 Donc comment la cybersécurité,
00:32:18 comment nous, individus, organisations ou États,
00:32:20 pouvons faire de la cybersécurité,
00:32:22 ou devons faire de la cybersécurité,
00:32:24 pour préserver nos intérêts stratégiques,
00:32:26 y compris dans l'espace.
00:32:28 Donc là aussi, un nouveau champ disciplinaire
00:32:31 lié à la maîtrise des satellites de communication,
00:32:34 qui servent également de structure,
00:32:37 d'ossature pour l'Internet,
00:32:39 mais surtout pour du renseignement.
00:32:41 Et vous voyez, j'ai pas mal déjà introduit
00:32:43 ce terme de renseignement, d'espionnage,
00:32:45 mais peut-être que c'est l'ère de la guerre,
00:32:47 et que cette guerre de l'information,
00:32:49 par l'information, pour l'information,
00:32:51 nous n'en avons pas peut-être pris assez conscience,
00:32:53 et c'est peut-être pas notre façon
00:32:55 de faire de la cybersécurité qui peut résoudre
00:32:57 ces problèmes-là, ou y répondre d'une façon optimale.
00:33:00 Mais il y a des pistes, bien sûr,
00:33:02 pour traiter ces sujets.
00:33:04 Alors, ce que j'essaie aussi de montrer,
00:33:08 c'est qu'avec cette captation des données,
00:33:10 on parle de Data-Driven Society,
00:33:12 de société pilotée par les données,
00:33:14 ça veut bien dire ce que ça veut dire,
00:33:16 et le pilotage vient des techniques
00:33:18 d'intelligence artificielle.
00:33:20 Et c'est peut-être là la véritable rupture
00:33:22 civilisationnelle en laquelle nous assistons,
00:33:25 d'une façon plus ou moins passive, je dirais,
00:33:27 parce qu'on est en train de construire
00:33:29 un nouveau modèle de société
00:33:31 sur le fait que nous sommes pilotés
00:33:33 par des données, mais si nous sommes
00:33:35 pilotés par des données, ça veut dire
00:33:37 que nous sommes pilotés par des fournisseurs
00:33:39 de solutions informatiques qui conçoivent
00:33:41 le monde, la société, et qui nous disent
00:33:43 comment faire société.
00:33:45 Et je crois, et j'en suis de plus en plus
00:33:47 persuadée, qu'on a bâti un monde
00:33:49 du collinealisme numérique,
00:33:51 où nous, les humains, sommes des systèmes
00:33:53 d'information, c'est-à-dire des systèmes
00:33:55 d'extraction de données, et inversement,
00:33:57 que nous sommes pilotables
00:33:59 par des algorithmes, par des programmes,
00:34:01 par des entités informatiques,
00:34:03 donc pilotés à distance, nous sommes
00:34:05 aussi des systèmes qui peuvent être
00:34:07 vus comme étant des systèmes à être
00:34:09 améliorés, d'être upgradés par des
00:34:11 données. Et c'est peut-être dans ce sens-là
00:34:13 qu'on peut parler de personnes augmentées
00:34:15 par des techniques
00:34:17 d'intelligence artificielle.
00:34:19 Mais cette
00:34:21 façon d'être pilotée
00:34:23 contribue quand même à toujours perdre
00:34:25 de plus en plus d'indépendance
00:34:27 et de liberté.
00:34:29 Et je crois que ce colonialisme numérique
00:34:31 n'est pas à dissocier de
00:34:33 l'esclavage numérique, au regard
00:34:35 du nombre d'injonctions que nous
00:34:37 avons, du fait que nous soyons connectés
00:34:39 en permanence
00:34:41 avec des environnements numériques.
00:34:43 Donc tout est lié, on pourrait développer un petit peu,
00:34:45 mais il faut... Vous voyez, j'ai utilisé
00:34:47 des termes de colonialisme, d'esclavage,
00:34:49 et de féodalisme. Pourquoi ? Parce que nous sommes
00:34:51 inféodés à ces plateformes.
00:34:53 Donc là, ça pose aussi des questions plus
00:34:55 globales de sécurité qui dépassent
00:34:57 le champ technique.
00:34:59 Ce que j'ai voulu montrer
00:35:01 aussi dans cette évolution très succincte,
00:35:03 c'est que depuis une vingtaine d'années,
00:35:05 nous sommes passés dans un monde
00:35:07 complètement dématérialisé,
00:35:09 puisque nous faisons tout à travers des écrans.
00:35:11 Cette dématérialisation qui donne le pouvoir
00:35:13 de l'informatique, qui est la force de l'informatique,
00:35:15 nous est
00:35:17 difficile à appréhender puisque c'est intangible.
00:35:19 Nous avons vu apparaître
00:35:21 aussi la convergence
00:35:23 du monde cyber, du cyber-monde
00:35:25 et du monde physique. On pourrait
00:35:27 en reparler en parlant des méta-univers,
00:35:29 mais ce n'est pas le choix que j'ai fait ce soir.
00:35:31 Mais dans cette convergence cyber-physique,
00:35:33 dans cette capacité que nous avons
00:35:35 de collecter des données, de les croiser,
00:35:37 on a introduit un pouvoir sans précédent
00:35:39 de traçabilité
00:35:41 des individus. Donc nous avons
00:35:43 construit des écosystèmes. Certains sont
00:35:45 licites, beaucoup sont aussi illicites.
00:35:47 On pourrait évoquer tout ce
00:35:49 qui a trait à la cybercriminalité,
00:35:51 au marché noir de la cybercriminalité,
00:35:53 etc., au
00:35:55 dark web. Nous n'allons pas en parler
00:35:57 non plus, mais on est des écosystèmes
00:35:59 qui deviennent aussi invisibles
00:36:01 et donc non maîtrisables pour
00:36:03 entrer dans ce monde de cette convergence.
00:36:05 Et là, la convergence, il faut s'y arrêter
00:36:07 un petit peu parce que la convergence est à
00:36:09 plusieurs niveaux. On a une convergence
00:36:11 des techniques avec
00:36:13 les nanos, les bio,
00:36:15 technologie, l'informatique et l'essence cognitive,
00:36:17 mais aussi on a une convergence
00:36:19 au niveau des cadres
00:36:21 juridiques
00:36:23 et des cadres
00:36:25 économiques et politiques. Donc on a cette convergence
00:36:27 cyberphysique avec le croisement des données.
00:36:29 On a une convergence techno-économique
00:36:31 et une convergence juridico-politique.
00:36:33 Donc on est en train
00:36:35 d'avoir un monde d'une grande complexité
00:36:37 dont nous ne nourrissons pas forcément
00:36:39 tous les tenants et l'absencent. Mais cette convergence
00:36:41 est un facteur
00:36:43 de complexité et d'invisibilité.
00:36:45 Et dès lors, comment
00:36:47 s'opposer à quelque chose qui est
00:36:49 intangible, qui est invisible et qui est
00:36:51 très complexe ? Et comment le maîtriser ?
00:36:53 Et donc là aussi, on pourrait développer le discours
00:36:55 de l'IA qui pourrait répondre,
00:36:57 on le dit régulièrement, le nombre de compétences.
00:36:59 Heureusement qu'il y a des professeurs comme
00:37:01 le professeur Mehawaz
00:37:03 ce soir en ligne qui propose
00:37:05 des cours, des cursus. On est
00:37:07 beaucoup à proposer, à faire ce nombre de
00:37:09 à proposer plus de compétences
00:37:11 dans cet environnement-là, mais ça
00:37:13 n'empêche que la pénurie
00:37:15 des compétences, des visions et des
00:37:17 actes d'action est toujours une réalité.
00:37:19 Et pour opposer à cette pénurie, ce
00:37:21 manque de compétences, on va rajouter
00:37:23 plus d'IA. Et là, on revient encore toujours
00:37:25 à cette fuite en avant. Et plus il y aura
00:37:27 de fuite en avant, plus il y aura plus de dépossession.
00:37:29 Donc, en une vingtaine d'années,
00:37:31 je pense qu'on a été tous plus ou moins conscients,
00:37:33 nous devenons complètement transparents.
00:37:35 La transparence des verbes,
00:37:37 de ce que nous sommes, de ce que nous faisons, de nos
00:37:39 comportements, de ce que nous aimons. Et c'est même nos
00:37:41 émotions qui sont enregistrées,
00:37:43 qui fait opposition
00:37:45 à l'opacité des algorithmes qui sont de plus
00:37:47 en plus empaques. Pourquoi ? Parce que ça ressort
00:37:49 des secrets des affaires.
00:37:51 Donc, on est rentré dans un monde de l'intangible,
00:37:53 de l'invisible, de la traçabilité,
00:37:55 et donc aussi de la surveillance de masse
00:37:57 et du contrôle généralisé.
00:37:59 Alors, ce que je vois dans ce panorama
00:38:01 que nous venons de dresser, c'est ces niveaux
00:38:03 de divergence.
00:38:05 Remarquez, on ne parle plus
00:38:07 tellement de sûreté de fonctionnement, on parle
00:38:09 très peu de qualité des données,
00:38:11 de fiabilité. Ça reste des paramètres
00:38:13 qui sont souvent négligés au profit
00:38:15 d'un discours plus important
00:38:17 sur la cybersécurité, mais qui se déplacent
00:38:19 de la cybersécurité,
00:38:21 de la sécurité sur la confiance,
00:38:23 et le marché de la confiance se porte bien.
00:38:25 Mais est-ce que nous sommes vraiment dans un
00:38:27 état de confiance ? Je ne suis pas sûr que
00:38:29 nous avons les moyens de valider cette confiance.
00:38:31 Nous parlerons très peu aussi,
00:38:33 ou un peu, des dérives, mais on voit bien
00:38:35 que dans cette complexité, dans ces divergences
00:38:37 des objectifs, des besoins et des
00:38:39 façons de faire, la solution
00:38:41 la plus facile, c'est
00:38:43 pour justement porter cette économie
00:38:45 du numérique et aller vers plus de croissance,
00:38:47 de déplacer la problématique de
00:38:49 sécurité qui fait un peu peur, avec
00:38:51 la confiance qui rassure.
00:38:53 Alors, cette confiance, peut-être
00:38:55 pourrons-nous parler de confiance artificielle,
00:38:57 qui devient peut-être une nouvelle
00:38:59 croyance,
00:39:01 puisqu'on a cette injonction à la confiance,
00:39:03 qui est une manière de détourner
00:39:05 l'attention pour développer un secteur économique
00:39:07 et imposer des usages numériques
00:39:09 à un rythme qui empêche leur sécurisation.
00:39:11 Sans oublier
00:39:13 que le marché des vulnérabilités se porte
00:39:15 bien, et des 0D aussi.
00:39:17 Je me suis permise de mettre le petit logo du
00:39:19 Pegasus, donc cette affaire
00:39:21 de logiciels et espions, mais le marché des
00:39:23 logiciels et espions et d'EspionageWare se porte
00:39:25 aussi très bien. Donc là, comment faire
00:39:27 confiance alors qu'on sait qu'on commercialise
00:39:29 avec la bénédiction de plusieurs acteurs
00:39:31 des
00:39:33 espions logiciels, comment faire confiance alors qu'on
00:39:35 sait qu'il y a des bacs d'or, et que
00:39:37 l'un des nouveaux slogans de la NSA, c'est
00:39:39 « Espionner le monde avec dignité ». Donc là aussi,
00:39:41 je voudrais qu'on m'explique ce que ça veut dire.
00:39:43 Donc,
00:39:45 pour résumer, je crois
00:39:47 que nous utilisons des solutions numériques qui
00:39:49 sont des véritables boîtes noires. J'ai mis un point
00:39:51 d'interrogation, mais peut-être que je pourrais en enlever.
00:39:53 Et donc, dès lors qu'on a
00:39:55 affaire à des boîtes noires, la maîtrise de la sécurité
00:39:57 va être difficile. Et donc,
00:39:59 qui les maîtrise, ces solutions,
00:40:01 également de bout en bout ? Et là, je rajoute
00:40:03 tout le long de leur cycle de vie.
00:40:05 Et avec cette phrase, ça me permet
00:40:07 aussi d'introduire le sujet
00:40:09 suivant,
00:40:11 quoi qu'il va être lié
00:40:13 au fait de comment
00:40:15 penser ces outils numériques, qui sont
00:40:17 complètement duals, qui deviennent
00:40:19 comme on l'a vu, le code
00:40:21 pour réaliser des cyberattaques,
00:40:23 une arme de destruction et l'information
00:40:25 aussi. Et peut-être qu'on peut rajouter
00:40:27 avec le big data, des armes
00:40:29 de destruction massive. Donc là aussi, il faut
00:40:31 comprendre cette instabilité que nous
00:40:33 avons créée, cet environnement
00:40:35 qui est une évolution non pas naturelle,
00:40:37 mais fortuite et faite par l'humain
00:40:39 pour servir certains intérêts.
00:40:41 Donc, comment maintenant
00:40:43 appréhender cette cybersécurité
00:40:45 dans cet environnement-là ? Puisqu'on
00:40:47 parle d'information,
00:40:49 nous sommes obligés de revenir, de nous arrêter un petit
00:40:51 peu sur cette ère de l'influence, de la cyberinfluence.
00:40:53 On en parle beaucoup à l'heure actuelle,
00:40:55 puisque ça accompagne effectivement tous les conflits,
00:40:57 mais ça nous accompagne
00:40:59 tout le long de notre vie numérique,
00:41:01 de notre vie connectée. J'en veux
00:41:03 pour preuve que les nouveaux métiers
00:41:05 sont des métiers qu'on qualifie d'influenceurs.
00:41:07 Et si vous demandez à un jeune ce qu'il veut faire plus tard,
00:41:09 vous avez une chance sur deux qu'il veut répondre
00:41:11 influenceur, parce que c'est associé à un certain
00:41:13 bénéfice et un profit.
00:41:15 Donc,
00:41:17 cette ère de l'influence, on l'a créée.
00:41:19 Qu'est-ce que ça veut dire
00:41:21 du point de vue de la cybersécurité ?
00:41:23 Ce qu'on a créé, notamment
00:41:25 avec les réseaux sociaux, leur modèle
00:41:27 économique et la façon
00:41:29 dont ils sont conçus, la façon dont ils
00:41:31 rapportent, c'est une
00:41:33 ère de l'opinion où la
00:41:35 perception est plus importante que les
00:41:37 faits, où l'affirmation est plus importante
00:41:39 que la réalité des faits.
00:41:41 Donc,
00:41:43 cet environnement numérique que nous avons créé
00:41:45 va favoriser une déstabilisation
00:41:47 par l'information,
00:41:49 dont on pourrait parler de guerre informationnelle.
00:41:51 Dans le lundi précédent,
00:41:53 nous avons eu une personne qui nous a parlé de la lutte
00:41:55 informationnelle, effectivement,
00:41:57 mais lutter contre un phénomène.
00:41:59 En tous les cas, au niveau militaire,
00:42:01 je pense que la France a pris conscience, comme d'autres pays,
00:42:03 de l'importance stratégique
00:42:05 et incontournable de se doter
00:42:07 d'une doctrine et de moyens pour le
00:42:09 faire, et c'est une réalité
00:42:11 pour la survie des opérations
00:42:13 et des applications des plans stratégiques.
00:42:15 Donc, cette ère de l'influence
00:42:17 touche tout le monde, et peut-être
00:42:19 aussi sur l'influence, on pourrait parler
00:42:21 de ce qui va nous toucher, nous, mais aussi organisation
00:42:23 et humanité, c'est ce qui touche à vie,
00:42:25 réputation, qui peut faire un champ d'enseignement
00:42:27 particulier
00:42:29 pour protéger, valoriser l'information.
00:42:31 On ne peut pas parler
00:42:33 de cette guerre d'influence sans parler
00:42:35 des outils liés à
00:42:37 des outils de
00:42:39 recherche d'information en source
00:42:41 ouverte, qui prend de plus en plus
00:42:43 d'importance, et on pourrait faire le lien avec
00:42:45 les problématiques d'intelligence économique.
00:42:47 Nous le ferons sans doute une autre fois.
00:42:49 Alors,
00:42:51 vous avez vu, on a dressé un panorama
00:42:53 de la cybersécurité qui est le champ
00:42:55 habituel de la cybersécurité et qui introduit un grand
00:42:57 niveau de complexité, un autre niveau
00:42:59 de complexité qui existe et qui est
00:43:01 lié à la sécurité, puisque le premier
00:43:03 critère de sécurité, c'est la disponibilité.
00:43:05 Donc, je crois qu'on ne peut pas faire l'économie
00:43:07 de s'interroger sur ce que
00:43:09 veut dire la disponibilité des
00:43:11 infrastructures numériques au regard
00:43:13 des ressources que ça nécessite
00:43:15 au niveau des ressources naturelles
00:43:17 et de l'énergie.
00:43:19 Donc, peut-être aussi, il serait temps
00:43:21 de considérer que cette croissance
00:43:23 infinie dans un monde fini
00:43:25 n'est pas compatible avec
00:43:27 un numérique
00:43:29 qu'on pourrait qualifier de durable, mais disponible.
00:43:31 Alors, je vais rappeler quelques
00:43:33 événements.
00:43:35 On a déjà parlé de ce roman
00:43:37 que M. Philippe Menin et moi-même
00:43:39 avons écrit à quatre mains
00:43:41 pour s'interroger
00:43:43 sur cette réalité que nous vivons
00:43:45 et pour essayer de communiquer autrement
00:43:47 que par des textes peut-être un peu
00:43:49 trop pardus à lire, pour
00:43:51 aller vers plus de monde.
00:43:53 On s'est intéressés à cette réalité
00:43:55 pour en faire une fiction,
00:43:57 mais cette fiction devient aussi
00:43:59 de plus en plus réalité. Je ne m'attarderai
00:44:01 pas sur le livre, mais
00:44:03 le fil conducteur de ce livre,
00:44:05 c'était de choisir de faire comme principal
00:44:07 personnage la catastrophe
00:44:09 et l'effondrement de la société
00:44:11 du fait des risques
00:44:13 technologiques qui ont une origine humaine
00:44:15 et qui sont aussi des risques environnementaux.
00:44:17 Donc, ce qu'on dit, c'est que les risques
00:44:19 technologiques et les crises
00:44:21 qu'ils engendrent, puisque c'est l'effondrement de la société,
00:44:23 c'est une crise de grande ampleur et de grande
00:44:25 intensité, ne sont pas la faute à pas de chance.
00:44:27 Et c'est pour sortir de cette situation de délit
00:44:29 et pour comprendre l'origine
00:44:31 des maux, pour peut-être
00:44:33 instaurer un peu plus de sécurité.
00:44:35 Donc, ce livre était pour moi
00:44:37 un, comment dire,
00:44:39 un outil de transmission
00:44:41 de ma façon
00:44:43 de voir la cybersécurité.
00:44:45 Donc, le point de départ, c'est pas d'électricité,
00:44:47 pas de numérique, pas de numérique, pas d'électricité.
00:44:49 Et là, on en revient aussi sur
00:44:51 cette notion d'interdépendance, y compris
00:44:53 des infrastructures critiques ou
00:44:55 vitales pour un pays, en fonction de la
00:44:57 terminologie utilisée. En Suisse, on n'utilise
00:44:59 pas tellement le terme "infrastructure vitale".
00:45:01 Mais regardez, dans le dernier rapport
00:45:03 de la Confédération sur
00:45:05 les catastrophes,
00:45:07 les situations d'urgence en Suisse,
00:45:09 le premier des risques,
00:45:11 c'est la pénurie d'électricité.
00:45:13 Le troisième, la panne du réseau mobile,
00:45:15 la panne d'électricité, la panne
00:45:17 informatique. Là, on voit toujours,
00:45:19 dans l'étendue des nommages, pénurie d'électricité,
00:45:21 panne de réseau mobile,
00:45:23 panne informatique dans la probérité d'occurrence.
00:45:25 Donc, panne de réseau mobile,
00:45:27 panne d'électricité, pénurie d'électricité.
00:45:29 Donc, des risques prégnants et
00:45:31 majeurs. Et on ne peut plus penser le numérique
00:45:33 sans s'intéresser à ces questions environnementales.
00:45:35 D'où l'intérêt aussi de
00:45:37 rebondir sur ces questions de cyber-sécurité
00:45:39 dans le secteur de l'énergie
00:45:41 et de s'intéresser aux chaînes d'approvisionnement,
00:45:43 mais de toutes les chaînes
00:45:45 d'approvisionnement, pas uniquement des chaînes
00:45:47 d'approvisionnement de la cyber-sécurité qui ont
00:45:49 toutes été cyber-attaquées ou pératées ces dernières
00:45:51 années, mais tout ce qui permet
00:45:53 d'avoir des infrastructures vitales, y compris
00:45:55 en distribution d'eau et des hôpitaux.
00:45:57 Donc, la réalité des cyber-attaques,
00:45:59 vous la connaissez, je ne vais pas m'y attarder.
00:46:01 Peut-être aussi
00:46:03 insister sur le fait que le numérique
00:46:05 est un grand consommateur énergétique.
00:46:07 Il faut saluer les travaux de
00:46:09 l'Agence de la Transition écologique,
00:46:11 qui ont des rapports et des kits pédagogiques
00:46:13 qui sont prêts à l'emploi pour l'enseignement aussi,
00:46:15 pour mettre la lumière sur ce
00:46:17 problème de consommation énergétique
00:46:19 de numérique, des problèmes
00:46:21 des émissions de gaz à effet de serre,
00:46:23 mais qui ne sont pas les seuls problèmes
00:46:25 que pose le numérique. Et ces émissions
00:46:27 de gaz à effet de serre ont
00:46:29 largement dépassé, au niveau
00:46:31 mondial, les gaz
00:46:33 à effet de serre de toute la flotte de camions.
00:46:35 Donc, on a bien cette croissance exponentielle
00:46:37 du numérique, avec un besoin
00:46:39 de plus en plus accru d'électricité.
00:46:41 Nous, on a eu
00:46:43 cet été, dans plusieurs data centers,
00:46:45 des problèmes liés à la
00:46:47 climatisation, qui posaient
00:46:49 des problèmes de disponibilité des infrastructures.
00:46:51 L'ADME
00:46:53 présente le concept de sobriété
00:46:55 numérique, et je regrette
00:46:57 qu'il ne soit pas largement plus diffusé
00:46:59 ou mis en avant. Donc, la sobriété numérique
00:47:01 est une des pistes pour
00:47:03 maîtriser ces risques d'indisponibilité
00:47:05 des infrastructures.
00:47:07 Alors, ces
00:47:09 questions géopolitiques, qui sont des questions
00:47:11 de souveraineté, et des questions aussi
00:47:13 de responsabilité, c'est toute l'exploitation
00:47:15 des ressources
00:47:17 naturelles pour l'extraction, la
00:47:19 transformation.
00:47:21 Et puis, ce qu'il faut voir, c'est
00:47:23 qu'à chaque fois, ça demande aussi beaucoup d'eau.
00:47:25 Ça inflige
00:47:27 un stress hydrique sur les régions
00:47:29 où sont extraits ces matériaux.
00:47:31 Et là,
00:47:33 je fais le lien entre la source
00:47:35 de l'extraction des terres rares, de tout ce dont
00:47:37 on a besoin, en termes de métaux
00:47:39 et de ressources naturelles
00:47:41 qui sont en homogénie, qui sont utilisées
00:47:43 pour fabriquer ordinateurs,
00:47:45 PC et serveurs,
00:47:47 avec ce
00:47:49 problème qui est lié dans des pays
00:47:51 qui ne sont pas les consommateurs
00:47:53 préférentiels,
00:47:55 des gros consommateurs du numérique.
00:47:57 Et ce lien, on peut le faire avec les
00:47:59 déchets électroniques dont très
00:48:01 peu sont recyclés, mais donc ceux
00:48:03 qui subissent notre consommation
00:48:05 du numérique, c'est ceux qui n'en profitent pas.
00:48:07 Donc là aussi, penser cette
00:48:09 équité, répartition
00:48:11 des ressources qui pose ce problème. Donc,
00:48:13 on devrait, me semble-t-il, associer
00:48:15 la problématique de cybersécurité
00:48:17 à celle de l'écologie numérique,
00:48:19 et je pense qu'il y a un grand champ d'études et
00:48:21 d'investigations à faire
00:48:23 dans ce domaine-là, puisque nous ne sommes qu'au début de ces
00:48:25 réflexions.
00:48:27 Alors, on ne peut pas parler d'écologie sans
00:48:29 parler du jour des dépassements de la Terre, qui
00:48:31 cet été était le
00:48:33 2 août 2023.
00:48:35 C'est-à-dire que si on voulait, là on vit
00:48:37 à crédit, tout ce qu'on fait aujourd'hui,
00:48:39 c'est quelque chose qu'on ne fait pas à nouveau,
00:48:41 1,7 Terre
00:48:43 pour vivre en montagne.
00:48:45 C'est insoutenable pour vivre en terre,
00:48:47 et le plan B, je ne suis pas sûr
00:48:49 qu'on l'ait, parce qu'au moins, aller vivre sur Mars,
00:48:51 pour moi, ce n'est peut-être pas une option.
00:48:53 Alors,
00:48:55 un facteur aggravant
00:48:57 avec ces problèmes de sécurité,
00:48:59 mais ces problèmes environnementaux,
00:49:01 c'est l'obsolescence programmée
00:49:03 des matériels, des logiciels,
00:49:05 et on voit bien, c'est toujours plus
00:49:07 de capacités, toujours plus de pratiques numériques.
00:49:09 Et donc, cette obsolescence programmée
00:49:11 des matériels, moi j'associe
00:49:13 à l'obsolescence programmée des humains
00:49:15 pas des techniques d'intelligence artificielle.
00:49:17 Donc là,
00:49:19 je veux dire, peut-être un espace
00:49:21 de discussion et de débat
00:49:23 sur la façon dont nous percevons
00:49:25 ces évolutions de l'intelligence artificielle.
00:49:27 Alors, le premier cours tiens que je peux faire,
00:49:31 pour moi, c'est la transformation du numérique,
00:49:33 une transformation numérique de la réalité,
00:49:35 puisque notre réalité
00:49:37 est toujours médiée par du code informatique,
00:49:39 par la mire en demain du monde,
00:49:41 par une quantification, c'est-à-dire
00:49:43 tout ce qui n'est pas quantifiable n'existe pas,
00:49:45 tout ce qui n'est pas traité ou traitable
00:49:47 par des équations mathématiques
00:49:49 n'existe pas non plus.
00:49:51 Donc ça se pose la question de ce biais fondamental,
00:49:53 le modèle utilisé
00:49:55 pour faire cette économie
00:49:57 du numérique et notre environnement
00:49:59 numérique, sur lequel sont basées toutes nos pratiques.
00:50:01 Donc on a une transformation numérique
00:50:05 de la réalité qui se fait à notre insu
00:50:07 et de la même façon se fait
00:50:09 cette transformation numérique de la vérité,
00:50:11 puisque tout ce qui est
00:50:13 réel ou vérité peut-être
00:50:15 traité par l'informatique,
00:50:17 dont la dématérialisation
00:50:19 permet de créer
00:50:21 toutes les vérités que l'on souhaite.
00:50:23 Et je pense qu'on a eu quand même
00:50:25 avec le président Trump
00:50:27 une démonstration de ces termes
00:50:29 de post-vérité, c'est quand même lui
00:50:31 qui l'a introduit ou qui l'a fait connaître.
00:50:33 Il me semble que c'est entré au dictionnaire d'Oxford
00:50:35 en 2017, le terme post-vérité.
00:50:37 Et donc si on est
00:50:39 au-delà de la vérité, c'est qu'on est
00:50:41 au-delà des faits réels et de la réalité
00:50:43 des faits, et on a aussi
00:50:45 ces faits alternatifs.
00:50:47 Vous voyez, la façon dont on construit les lieux
00:50:49 nous permet de faire évoluer
00:50:51 notre pensée vers ce dont
00:50:53 on veut nous amener,
00:50:55 c'est-à-dire cette médiatisation,
00:50:57 médiation par les technologies
00:50:59 numériques de chaque instant de notre vie.
00:51:01 Et avec les techniques d'intelligence
00:51:03 artificielle, c'est la fin du hasard
00:51:05 parce qu'on est dans l'ère du prédictif.
00:51:07 J'en avais déjà parlé, me semble-t-il,
00:51:09 l'année dernière à la conférence, peut-être il y a deux ans,
00:51:11 sur la fin du hasard. Nous n'allons pas
00:51:13 nous y attarder.
00:51:15 Mais ce que je veux dire, c'est que l'accès au vrai
00:51:17 se fait maintenant par des données numériques.
00:51:19 Et donc, on est
00:51:21 rentré dans l'ère de l'artificialisation
00:51:23 du réel. Cet artificiel,
00:51:25 c'est un artefact informatique,
00:51:27 un équipement informatique et mathématique.
00:51:29 Et là, cet artefact,
00:51:31 cette artificialisation
00:51:33 de la vie, on peut le percevoir
00:51:35 quand on utilise nos enceintes connectées,
00:51:37 les assistants domestiques
00:51:39 ou des IA génératifs.
00:51:41 Alors, pourquoi ça peut poser
00:51:43 un problème ? Parce que ces systèmes
00:51:45 d'IA sont posés sur des modèles
00:51:47 et sur des simulations de la réalité.
00:51:49 Donc, on peut se poser la question, c'est qui fait ces modèles ?
00:51:51 Qui les simule ? Sur quelles données ?
00:51:53 Comment la qualité des données
00:51:55 est vérifiée ? Et comment la sécurité
00:51:57 des codes qui utilisent ces données
00:51:59 est assurée ? Donc là, plein d'interrogations
00:52:01 puisqu'on travaille avec des boîtes noires.
00:52:03 Le problème, c'est que ça concerne
00:52:05 toutes les affaires humaines.
00:52:07 En fait, ça ne correspond qu'à une source
00:52:09 de données et de ceux qui les traite.
00:52:11 On travaille dans le temps réel, c'est-à-dire qu'il n'y a pas
00:52:13 de recul possible et c'est
00:52:15 des injonctions à faire. Et on a un
00:52:17 statut d'autorité
00:52:19 du fait
00:52:21 de ces systèmes technologiques
00:52:23 où on voit qu'on a tendance à faire
00:52:25 plus confiance à l'informatique
00:52:27 qu'aux personnes.
00:52:29 Donc, on a ce renversement
00:52:31 de paradigme alors
00:52:33 que la vérité peut être modifiée
00:52:35 notamment par des
00:52:37 systèmes de simulation.
00:52:39 Et comment se construit
00:52:41 ce numérique et ces IA ? On pourrait y passer
00:52:43 plus de temps aussi.
00:52:45 C'est dans un esprit utilitariste, c'est-à-dire
00:52:47 pour faire de la performance, pour optimiser
00:52:49 mais qui optimise au détriment de qui ?
00:52:51 Donc, se poser la question de cette
00:52:53 finalité de ces systèmes d'IA,
00:52:55 de cette performance, qui est souvent
00:52:57 synonyme de performance
00:52:59 économique, et je pense que les humains
00:53:01 auront du boulot tant
00:53:03 que les systèmes d'IA
00:53:05 sont plus chers que les humains. Mais on voyait bien,
00:53:07 et j'en reviens avec cette idée d'obsolescence
00:53:09 programmée de l'humain qui est renforcée
00:53:11 par la façon dont nous concevons
00:53:13 ces systèmes. Donc, ça pose des problèmes
00:53:15 de société.
00:53:17 Alors,
00:53:19 avec cette modification des mots
00:53:21 et cette affluence sur
00:53:23 les mots,
00:53:25 moi j'aime bien cette image, effectivement,
00:53:27 de "Ceci n'est pas une pipe",
00:53:29 de Magritte, de ce tableau.
00:53:31 On est dans la représentation. Et ce que j'essaie
00:53:33 de montrer, c'est que cette représentation
00:53:35 du réel est maintenant faite par des traitements
00:53:37 informatiques et mathématiques, et par du
00:53:39 codage.
00:53:41 Et cette dissociation et cette dématérialisation,
00:53:43 on peut faire dire n'importe quoi à n'importe
00:53:45 qui, et en plus, on peut dire qu'on s'en
00:53:47 voit vrai, et on le voit
00:53:49 avec des IA génératifs.
00:53:51 Donc, une carne n'est pas le territoire qu'elle
00:53:53 représente, et les données que nous manipulons via
00:53:55 des systèmes d'IA, ne sont pas
00:53:57 non plus toute la réalité.
00:53:59 C'est une modélisation de la complexité de la réalité
00:54:01 qui est fournie par des fournisseurs
00:54:03 dans une logique de production
00:54:05 qui leur sont propres, et ce sont des acteurs
00:54:07 effectivement hégémoniques qui possèdent les données,
00:54:09 qui possèdent la capacité à faire
00:54:11 ces systèmes d'IA.
00:54:13 Alors,
00:54:15 avec le numérique
00:54:17 et la dématérialisation,
00:54:19 on avait déjà du mal à distinguer l'original
00:54:21 des copies, on avait du mal
00:54:23 aussi à comprendre ce qu'était le vol
00:54:25 de données, puisque voler une donnée, c'était la copier,
00:54:27 donc c'est aussi un changement de
00:54:29 paradigme, mais là, avec toutes
00:54:31 ces capacités de l'IA,
00:54:33 c'est comme
00:54:35 nous sommes dans l'impossibilité de plus
00:54:37 en plus de distinguer le vrai du faux.
00:54:39 Et ça pose effectivement des problèmes
00:54:41 de décision, et si on ne sait pas distinguer le vrai
00:54:43 du faux, si on ne sait pas distinguer
00:54:45 les sous, nous n'avons pas parlé des
00:54:47 réseaux sociaux, des trolls, de tout ce qui est
00:54:49 facteur aggravant,
00:54:51 mais on est dans un
00:54:53 environnement
00:54:55 qui est complètement déstabilisant.
00:54:57 Donc comment reprendre le contrôle
00:54:59 alors qu'on ne sait plus
00:55:01 si on a dit le vrai ou si on a dit le faux.
00:55:03 Et surtout, cette culture du faux et des
00:55:05 deepfakes est aussi valorisée.
00:55:07 Et valoriser,
00:55:09 c'est l'opinion à la place des faits,
00:55:11 et si on en revient au modèle de construction
00:55:13 des réseaux sociaux qui demande l'engagement
00:55:15 des personnes, c'est-à-dire l'implication
00:55:17 de ces personnes, ça produit aussi
00:55:19 donc des opinions à la place des faits,
00:55:21 et on introduit, non pas du débat,
00:55:23 mais
00:55:25 des oppositions.
00:55:27 Et c'est cette pensée computationnelle, et on en revient
00:55:29 sur
00:55:31 l'obsolescence programmée de l'humain,
00:55:33 et le fait que l'humain rende de plus en plus,
00:55:35 doit se comporter de plus en plus
00:55:37 comme une machine, c'est ce qu'on appelle aussi
00:55:39 la pensée computationnelle, les ordinateurs,
00:55:41 les computers ne pensent pas,
00:55:43 mais en revanche, on est en train d'instaurer
00:55:45 un nouveau monde
00:55:47 où les humains doivent se comporter
00:55:49 et doivent penser dans la logique
00:55:51 binaire des ordinateurs. Et cette logique
00:55:53 binaire, on le voit surtout
00:55:55 sur des réseaux sociaux avec des...
00:55:57 - J'aurais dû le dire.
00:55:59 - Oui, donc ces réseaux sociaux
00:56:01 où soit on est pour,
00:56:03 soit on est contre quelqu'un,
00:56:05 on est l'ennemi à abattre, et cette dualité
00:56:07 du vrai et du faux,
00:56:09 il n'y a plus de zone de griffe,
00:56:11 c'est pour, c'est contre, il n'y a plus de place
00:56:13 du débat, et le débat nous est
00:56:15 confisqué, y compris
00:56:17 par les acteurs qui gèrent ces réseaux sociaux.
00:56:21 - Alors,
00:56:23 nous sommes en train d'instaurer
00:56:25 un nouveau régime de vérité,
00:56:27 c'est une question
00:56:29 que je pose,
00:56:31 l'instauration d'un nouveau régime de vérité
00:56:33 par des solutions basées sur l'intelligence artificielle,
00:56:35 est-ce que c'est ça que nous voulons ?
00:56:37 Et est-ce que, parce que ce que ça veut dire,
00:56:39 pour moi je l'interprète comme ça, c'est que nous,
00:56:41 humains, nous devenons
00:56:43 des robots de chair et de sang
00:56:45 de ces systèmes. Donc c'est une
00:56:47 dépossession de ce que nous sommes.
00:56:49 Et
00:56:51 c'est dans ce sens-là que je pose cette question,
00:56:53 est-ce que l'intelligence artificielle
00:56:55 ne correspond pas à un grand processus
00:56:57 de confiscation qui nous entraîne
00:56:59 une atrophie de la puissance d'être, de notre libre-arbitre ?
00:57:01 Pourquoi ? Parce que notre parole est
00:57:03 confisquée, et nos capacités à créer,
00:57:05 à dessiner, à agir,
00:57:07 ont été substituées par des logiciels.
00:57:09 Alors bien sûr, on pourra me poser
00:57:11 le discours sur les avantages, je ne le dis pas,
00:57:13 mais ce que je dis, c'est que pour profiter
00:57:15 des avantages proposés par des solutions
00:57:17 d'intelligence artificielle,
00:57:19 des solutions du numérique,
00:57:21 parce que tout est relativement
00:57:23 maintenant IA, c'est de maîtriser
00:57:25 les risques, et donc de savoir à quel niveau
00:57:27 on s'intéresse, et pour quel type de risque.
00:57:29 Et là, vous voyez, je suis passé d'un problème
00:57:31 technique à un problème de société,
00:57:33 de vision même philosophique, existentielle,
00:57:35 et politique.
00:57:37 De la façon
00:57:39 dont nous allons faire société avec ces techniques.
00:57:41 Alors,
00:57:43 pour
00:57:45 aller un peu vers des pages
00:57:47 de conclusion, on voit que
00:57:49 on a des savoir-faire
00:57:51 qui sont de plus en plus embarqués
00:57:53 dans des logiciels et dans des systèmes, c'est-à-dire
00:57:55 que si ce savoir-faire n'est pas entraîné,
00:57:57 on va le perdre.
00:57:59 On a des ressources premières
00:58:01 et des ressources naturelles qui sont, peut-être
00:58:03 qui peuvent faire défaut. Se poser
00:58:05 la question, et j'en reviens à cette réflexion
00:58:07 du Blackout, qu'est-ce qu'on fait si tout
00:58:09 s'arrêtait ? Est-ce qu'on est prêt ?
00:58:11 Parce que finalement,
00:58:13 le coup d'âte qu'on m'avait donné il y a peut-être
00:58:15 trente ans de ça, en parlant du numérique,
00:58:17 et je ne sais plus d'ailleurs qui m'avait proposé
00:58:19 cette analogie,
00:58:21 la meilleure façon de maîtriser l'informatique,
00:58:23 c'était de s'en passer. Et je pense
00:58:25 que c'est assez vrai. Donc maintenant
00:58:27 qu'on a développé ces infrastructures,
00:58:29 ces dépendances, ces interdependances,
00:58:31 on a créé des risques systémiques et de grande
00:58:33 complexité, qu'est-ce qu'on fait ?
00:58:35 Qu'est-ce qu'on peut faire si cette notion du Blackout
00:58:37 qui n'est pas non plus
00:58:39 impossible
00:58:41 arrive ? Donc peut-être
00:58:43 qu'il faudrait, peut-être
00:58:45 qu'il faut penser non pas à la sobriété
00:58:47 numérique, parce que pour moi la sobriété
00:58:49 est trop liée à l'abstinence, mais de faire un numérique
00:58:51 qui va dans le sens
00:58:53 de nos intérêts, mais pour ça il faut connaître
00:58:55 nos intérêts et avoir des valeurs
00:58:57 partagées, et de penser la
00:58:59 retenue numérique comme un élément du progrès
00:59:01 et non pas la fuite en avant vers toujours
00:59:03 plus de technologies, comme un élément de
00:59:05 progrès. Et je pense qu'il faut
00:59:07 se réapproprier des fondamentaux comme ceux
00:59:09 d'un des paysans philosophes
00:59:11 de grande sagesse qui était
00:59:13 Pierre Rabhi qui nous a quittés malheureusement il y a deux ans.
00:59:15 Il n'y aura pas de changement
00:59:17 de société sans changement d'humain,
00:59:19 et pas de changement humain, sans changement de chacun.
00:59:21 Donc ça veut dire
00:59:23 aussi qu'il ne faut pas attendre que les autres
00:59:25 changent pour que nous changions
00:59:27 ou que la société change, mais
00:59:29 qu'il faut que dans nos pratiques du numérique
00:59:31 on se réapproprie un certain
00:59:33 libre-arbitre, une certaine autonomie, et peut-être
00:59:35 qu'il est grand temps d'oser une autonomie numérique.
00:59:37 Alors,
00:59:39 le techno-optimisme
00:59:43 serait à opposer au déni
00:59:47 des risques
00:59:49 engendrés par la technologie.
00:59:51 Donc mettons la lumière et soyons en pleine
00:59:53 conscience de ces risques.
00:59:55 Parmi les grands risques qui ont un trait,
00:59:57 qui ont un impact sur la sécurité et sur notre façon
00:59:59 de vivre, c'est la finitude des ressources
01:00:01 planétaires et aussi des ressources cyber,
01:00:03 parce que ce n'est pas immatériel.
01:00:05 Est-ce qu'il faut se poser la question
01:00:07 de la recherche, de la croissance
01:00:09 et de la performance économique à toutes lignes ?
01:00:11 Peut-être que c'est ces modèles-là qu'il faut questionner.
01:00:13 Vous voyez ce que ça veut dire au niveau national
01:00:15 et international. Et puis, est-ce qu'on
01:00:17 peut encore se consoler avec le mythe d'une
01:00:19 consommation responsable ? Je ne suis
01:00:21 pas sûre. Et les questions s'intègrent
01:00:23 aussi dans un cadre plus large.
01:00:25 Donc, quel est l'héritage que nous allons
01:00:27 laisser aux générations futures ? Mais
01:00:29 en fait, j'ai envie de renverser la question.
01:00:31 C'est surtout quelles générations futures nous sommes en train
01:00:33 de fabriquer que nous allons laisser en héritage
01:00:35 à la planète et au monde ?
01:00:37 Donc, ces questions sont
01:00:39 d'une grande complexité.
01:00:41 Bien sûr que je n'ai pas toutes les réponses,
01:00:43 mais en tous les cas, de pouvoir
01:00:45 dresser, identifier et peut-être
01:00:47 éventuellement penser, mesurer toutes ces
01:00:49 interdépendances et ces impacts,
01:00:51 nous permettrait de penser
01:00:53 au moment le mieux.
01:00:55 Et je vous remercie de votre attention
01:00:57 et je vous présente mes deux derniers
01:00:59 ouvrages, mis à part le roman,
01:01:01 "Cybersécurité, analyse et mérite de mettre
01:01:03 en œuvre les solutions", chez Dunau et toujours
01:01:05 en livre de cours, avec 200 exercices
01:01:07 corrigés, "Cybercriminalité, comprendre,
01:01:09 prévenir et réagir". Et là, c'est peut-être
01:01:11 l'exercice d'équilibris que j'ai pu
01:01:13 faire entre les ouvrages techniques de
01:01:15 management de la cybersécurité et les
01:01:17 ouvrages de réduc' pour comprendre
01:01:19 la transdisciplinarité
01:01:21 nécessaire pour représenter
01:01:23 ce genre de problème complexe.
01:01:25 Merci.
01:01:27 Super. Merci Solange.
01:01:29 Merci.
01:01:31 Vas-y.
01:01:33 Oh, vas-y, vas-y, donc je te le suggérerai.
01:01:35 Les questions à Solange
01:01:37 seront posées après
01:01:39 l'intervention de Cédric
01:01:41 Carteau sur le
01:01:43 club ISO 27001
01:01:45 qu'il a créé, co-créé
01:01:47 dans la région de Nantes.
01:01:49 Salut Cédric, je te vois.
01:01:51 Et donc ça permettra à Solange
01:01:53 de lire les questions par chatte, mais il n'y en a pas.
01:01:55 Enfin, vous pouvez toujours
01:01:57 parler, mais ensuite,
01:01:59 après Cédric, vous posez des questions
01:02:01 à Solange et à Cédric
01:02:03 en levant la main.
01:02:05 Si vous avez lu la charte
01:02:07 des questions réponses,
01:02:09 vous savez tout, comment ça se passe
01:02:11 pour donner au maximum de personnes
01:02:13 la possibilité
01:02:15 de poser des questions.
01:02:17 Donc, Cédric Carteau,
01:02:19 RSSI
01:02:21 et DPO du CHU de Nantes,
01:02:23 va nous parler
01:02:25 de l'ISO du club ISO 27001.
01:02:27 Bonjour à tous. Bonjour Gérard.
01:02:31 Tout le monde m'entend bien ?
01:02:33 Très bien, Cédric. Bonsoir à toi.
01:02:35 Bienvenue. Donc, tu as
01:02:37 la parole pendant un petit quart d'heure.
01:02:39 Ouais, mais mon propos
01:02:41 va être... 10 minutes et un quart d'heure.
01:02:43 Oui, mais mon propos va être beaucoup plus léger
01:02:45 que le propos précédent.
01:02:47 En fait, Gérard m'a
01:02:49 demandé de venir
01:02:51 informer
01:02:53 les membres de la création
01:02:55 récente. C'est très récent, ça a quelques mois à peine.
01:02:57 Pour être plus précis,
01:02:59 c'est l'antenne nantaise du club
01:03:01 27001 national, parce qu'on n'a pas
01:03:03 prétention à créer
01:03:05 un club de 270001 à ce niveau.
01:03:07 Donc,
01:03:09 juste pour vous dire que
01:03:11 Miquel Ferton de la société
01:03:13 Digitemis et moi-même,
01:03:15 donc Cédric Carteau, comme l'a dit Gérard,
01:03:17 RSSI et DPO du CHU de Nantes et du GHC44,
01:03:19 on a pris
01:03:21 l'initiative d'instancier
01:03:23 une antenne nantaise du club
01:03:25 27001. Donc,
01:03:27 évidemment, en lien avec
01:03:29 le club ISO 27001 national,
01:03:31 bien sûr, on a fait ça dans les règles
01:03:33 de l'art. L'objectif,
01:03:35 alors le club 27001, pour ceux qui le connaissent,
01:03:37 l'objectif, c'est de promouvoir
01:03:39 la démarche, la norme
01:03:41 en région, et
01:03:43 surtout d'avoir
01:03:45 des conférences à thème,
01:03:47 surtout des conférences de contenu.
01:03:49 On ne cherche
01:03:51 absolument pas à faire de la promotion commerciale.
01:03:53 Les différents
01:03:55 profils sont tout à fait les bienvenus,
01:03:57 c'est-à-dire à la fois des entreprises
01:03:59 utilisatrices, des entreprises prestataires,
01:04:01 mais avec un seul objectif majeur,
01:04:03 c'est d'apporter du contenu, puisque
01:04:05 l'expérience montre que c'est ce qui amène
01:04:07 le business, quelque part le contenu. C'est le modèle
01:04:09 économique, d'ailleurs, du club,
01:04:11 de l'APSIS à laquelle je fais
01:04:13 partie. Et donc, on est
01:04:15 partis sur environ trois
01:04:17 à quatre
01:04:19 réunions par an.
01:04:21 Alors, on tâtonne encore un petit peu
01:04:23 en ce moment sur des
01:04:25 questions pratico-pratiques,
01:04:27 c'est quel est le
01:04:29 périmètre géographique des gens que l'on accepte ?
01:04:31 Alors, pour l'instant, on accepte évidemment tout le monde,
01:04:33 et on a même eu des gens de Toulouse
01:04:35 qui ont assisté en distanciel
01:04:37 à notre intervention
01:04:39 il y a deux mois.
01:04:41 On a des questions sur
01:04:43 est-ce que l'on exige
01:04:45 des participants le fait
01:04:47 qu'ils mettent en place eux-mêmes des conférences,
01:04:49 parce qu'on ne voudrait pas tomber dans le phénomène
01:04:51 qui a eu lieu à d'autres endroits,
01:04:53 de gens qui viennent uniquement pour écouter et qui n'apportent rien.
01:04:55 Mais bon, c'est un club
01:04:57 qui est capable de visée commerciale,
01:04:59 qui a vraiment pour objectif de promouvoir
01:05:01 la norme, l'usage de la norme, l'esprit de la norme,
01:05:03 et donc vraiment d'apporter du contenu,
01:05:05 de la réflexion.
01:05:07 Alors, les Américains appellent ça un think-tank,
01:05:09 nous, on n'appelle pas ça comme ça, évidemment,
01:05:11 on appelle ça tout simplement le Club 27 000 ans.
01:05:13 Donc tout le monde est bienvenu, bien sûr.
01:05:15 Ceux qui sont dans le département de 44
01:05:19 ou dans les départements de mixte,
01:05:21 s'ils ont la possibilité de se déplacer
01:05:23 en présentiel pour les conférences,
01:05:25 c'est évidemment beaucoup plus sympa et c'est beaucoup plus convivial,
01:05:27 mais la dernière conférence
01:05:29 qui a eu lieu, elle a été faite
01:05:31 en mode mixte, à la fois présentiel
01:05:33 et distanciel.
01:05:35 A priori, ce mode-là
01:05:37 convient à pas mal de gens,
01:05:39 donc on va certainement le garder.
01:05:41 Et puis, après, c'est la 27 000 ans
01:05:43 sous toutes ses formes, avec
01:05:45 des réflexions, des conférences,
01:05:47 des cas d'usage,
01:05:49 des retours clients,
01:05:51 des gens qui viennent parler des problèmes qu'ils ont
01:05:53 à la mise en œuvre, donc voilà, c'est complètement
01:05:55 ouvert. Plus on a
01:05:57 de gens qui apportent leur expérience
01:05:59 et leur vision de terrain, leur vision
01:06:01 de consultant, d'auditeur,
01:06:03 de tous les profils possibles, imaginables,
01:06:05 et plus ça enrichira tout le monde.
01:06:09 C'était tout ce que j'avais à dire. Donc, ceux qui sont
01:06:11 pas loin, surtout n'hésitez pas à prendre
01:06:13 contact avec moi
01:06:15 ou Michael Ferton de Digitémis pour
01:06:17 s'inscrire. Et puis, ceux qui veulent
01:06:19 avoir juste plus de renseignements, évidemment,
01:06:21 vous pouvez me contacter en direct
01:06:23 ou Gérard transmettra mes coordonnées.
01:06:25 Donc, vous voyez que mon
01:06:27 propos était beaucoup plus léger que l'intervention précédente.
01:06:29 Il y a une question, Cédric.
01:06:33 Est-ce qu'il y a une cotisation
01:06:35 pour adhérer au club de 27 000 ans ?
01:06:37 Alors oui, il y a une cotisation
01:06:39 pour adhérer au club de 27 000 ans et le
01:06:41 club national n'a pas fait
01:06:43 compliqué pour retenir
01:06:45 le montant. 27 000 ans,
01:06:47 la cotisation est donc de 27 euros
01:06:49 par personne et par an. Vous voyez, on n'a pas fait
01:06:51 très compliqué.
01:06:53 Merci pour ces précisions.
01:06:55 Cédric, donc, tu as
01:06:57 d'autres éléments que tu souhaites compléter
01:06:59 ou on peut passer aux questions ?
01:07:01 Non, je pense qu'on peut passer aux questions parce que c'était vraiment
01:07:03 une annonce de création de club
01:07:05 et en gros, tout le monde est bienvenu.
01:07:07 Est-ce que tu peux nous dire quel est le
01:07:09 nombre de membres de ce club ?
01:07:11 Il y a combien de membres
01:07:13 actuellement ? Pour l'instant, à la première réunion,
01:07:15 il n'y avait qu'une cinquantaine de personnes
01:07:17 mais c'est normal, c'était le lancement.
01:07:19 Et là, la deuxième réunion
01:07:21 qui a eu lieu en septembre, je ne me souviens plus
01:07:23 de la date exacte, il y avait
01:07:25 une vingtaine de personnes
01:07:27 en présentiel et une dizaine en distanciel.
01:07:29 Donc, on était quand même sur une trentaine
01:07:31 de personnes qui ont assisté
01:07:33 à la série des trois conférences.
01:07:35 Donc, on est un club
01:07:37 régional, on n'a pas prétention
01:07:39 à réserver le Zénith.
01:07:41 Donc, pour l'instant, ça marche bien,
01:07:43 on est content.
01:07:45 Voilà, j'ai mis sur le chat
01:07:47 le mail de Cédric
01:07:49 Cartaud.
01:07:51 Dans les lundis de la Cyber, nous avons
01:07:53 voulu souligner qu'il n'y a pas
01:07:55 qu'à Paris que ça se passe, évidemment.
01:07:57 C'est pour ça qu'on est allé
01:07:59 voir un club
01:08:01 ISO 27001
01:08:03 en région et à Nantes.
01:08:05 Sachant d'ailleurs, pour la petite
01:08:07 histoire, que le président du
01:08:09 club ISO 27001 de la région
01:08:11 parisienne, il est parmi
01:08:13 nous, connecté en ce moment,
01:08:15 avec nous.
01:08:17 À toi, Armed.
01:08:19 Très bien, donc là, on
01:08:21 dépasse aux questions. Quelques-unes ont été postées
01:08:23 sur le chat, d'autres
01:08:25 vont peut-être être posées
01:08:27 en direct,
01:08:29 en levant la main.
01:08:31 Une question
01:08:33 concerne Solange, je vais te la lire
01:08:35 si tu l'as peut-être vue, peut-être, sur le
01:08:37 chat, c'est Solange.
01:08:39 Elle émane de Nicolas Defey,
01:08:41 qui pose
01:08:43 la question, "Pour garantir la protection et la confidentialité
01:08:45 des données en utilisant l'IA générative,
01:08:47 quel est votre regard sur la solution
01:08:49 souveraine proposée par
01:08:51 DocaPost ?"
01:08:53 Effectivement, je pense qu'une des façons de s'approprier
01:08:55 ces techniques et d'en tirer parti, c'est
01:08:57 d'avoir dans son propre environnement
01:08:59 la possibilité de développer ses propres IAs.
01:09:01 Et donc aussi avoir des modèles d'IA
01:09:03 générative en open source
01:09:05 pour se réapproprier et garder les données
01:09:07 en local. Mais il faut effectivement que les données
01:09:09 restent en local et qu'il y ait une réappropriation
01:09:11 des logiciels
01:09:13 et des datas.
01:09:15 C'est vrai que la solution pour
01:09:17 servir un environnement particulier
01:09:19 à condition d'avoir les compétences
01:09:21 de le développer n'est pas
01:09:23 plutôt une bonne idée.
01:09:25 On voit aussi que les data centers
01:09:27 et les gros fournisseurs développent leurs propres
01:09:29 mini centrales nucléaires
01:09:31 pour pouvoir avoir l'énergie nécessaire.
01:09:33 Donc se réapproprier la maîtrise
01:09:35 de ce dont on a besoin pour
01:09:37 être performant.
01:09:39 Donc c'est une
01:09:41 possibilité, mais qui à mon avis sera laissée
01:09:43 qu'à une poignée d'acteurs,
01:09:45 à condition qu'il y ait les données, soit avec les savoir-faire,
01:09:47 soient disponibles et maîtrisées.
01:09:49 Très bien. Deuxième question qui émane
01:09:53 de Jean-Jacques Urbain-Gallandeur.
01:09:55 Faut-il engager une opération sévère
01:09:57 et vigoureuse de hiérarchisation
01:09:59 des fonctions supportées par le numérique ?
01:10:01 On pourrait commencer
01:10:03 par les applications utilisant les câbles
01:10:05 atlantiques. Je pense
01:10:07 que prioritiser les usages du numérique
01:10:09 me semble important parce que
01:10:11 en cas de crise,
01:10:13 il y aura pas de distinction, donc peut-être
01:10:15 réserver le numérique pour les choses
01:10:17 dont on a strictement besoin qu'elle se fasse
01:10:19 par le numérique. Et c'est dans ce sens-là
01:10:21 qu'il faut récupérer
01:10:23 un peu de pouvoir sur les environnements
01:10:25 numériques et sur
01:10:27 l'application écologique qui se pose au numérique.
01:10:29 Et ça s'impose
01:10:31 effectivement de reconsidérer toutes ces
01:10:33 applications qui ressortent plus du diversissement
01:10:35 que de la nécessité. Mais on a créé
01:10:37 le diversissement comme une nécessité.
01:10:39 Maintenant, aller enlever un téléphone à quelqu'un,
01:10:41 ça va être compliqué.
01:10:43 Pourquoi ? Parce qu'on est dans ces dépendances,
01:10:45 ces phénomènes de dépendance qui relèvent
01:10:47 plus de l'addiction. Et moi, je suis toujours
01:10:49 aussi interpellée de voir des gens
01:10:51 dans la rue qui ont le nez sur l'écran,
01:10:53 des gens qui sont au resto, qui ne se parlent pas
01:10:55 mais qui parlent à leur écran.
01:10:57 Donc là aussi, ce modèle de société
01:10:59 est à questionner.
01:11:01 Et si on veut maîtriser
01:11:03 la finitude des ressources, y compris
01:11:05 dans le numérique, il me semble qu'on ne peut pas
01:11:07 faire l'économie de la priorisation des
01:11:09 usages, qui est en fait
01:11:11 proposée dans la
01:11:13 question posée. Et c'est vrai que
01:11:15 ça risque d'être douloureux.
01:11:17 Et ça demande une vision,
01:11:19 une stratégie, un plan d'action et puis
01:11:21 beaucoup de courage politique.
01:11:23 Suite en avant, toujours plus
01:11:25 que tout le monde, vu qu'on ne s'est pas sécurisé.
01:11:27 Et d'après toi, quelles sont les instances
01:11:31 existantes ou
01:11:33 à créer qui pourraient
01:11:35 s'approprier
01:11:37 cette problématique que tu as
01:11:39 soulevée ?
01:11:41 C'est une question complexe.
01:11:43 Comment dire ? Parce qu'on est
01:11:45 quand même dans une espèce d'économie,
01:11:47 en France mais comme en Suisse, on parle
01:11:49 de la start-up nation,
01:11:51 on valorise tout ça vers cette
01:11:53 innovation numérique, donc on a
01:11:55 une espèce de croyance et de ce foi
01:11:57 en numérique salvateur.
01:11:59 Donc tant qu'on est dans toujours plus de
01:12:01 numérique, je vois ici chez nous, on ne peut plus
01:12:03 prendre un billet de bus et on n'a pas un téléphone.
01:12:05 Donc il y a
01:12:07 des injonctions complètement contradictoires.
01:12:09 Comment on fait ce retour arrière ?
01:12:11 Qui va décider de
01:12:13 cet usage raisonné
01:12:15 et raisonnable du numérique ?
01:12:17 En tous les cas, ce ne sont pas les fournisseurs de solutions,
01:12:19 ce ne sont pas les grands acteurs du numérique
01:12:21 ni
01:12:23 certains politiques
01:12:25 engagés en politique
01:12:27 qui ne comprennent pas,
01:12:29 qui voient le problème différemment.
01:12:31 La question,
01:12:33 elle est ouverte et il faudrait pouvoir y réfléchir.
01:12:35 Mais à mon avis,
01:12:37 cette perception du besoin
01:12:39 se fera quand on aura atteint
01:12:41 un seuil de douleur
01:12:43 supérieur à ce qu'on peut supporter.
01:12:45 Pour l'instant, on n'a pas encore atteint
01:12:47 ce seuil de douleur.
01:12:49 D'accord.
01:12:51 Vous levez la main
01:12:53 lorsque vous posez une question.
01:12:55 Oui, là on peut passer.
01:12:57 Il y a des questions, je pense qu'il n'y a pas d'autres
01:12:59 questions sur le chat.
01:13:01 On peut
01:13:03 donner la parole.
01:13:05 Là, il y a une gride.
01:13:07 Ah, il y a une gride qui vient d'en poser une.
01:13:09 Une gride
01:13:11 en ligne, sur le chat.
01:13:13 Oui.
01:13:15 Bonjour,
01:13:17 beaucoup de logiciels métiers d'EPO
01:13:19 sont étrangers.
01:13:21 N'est-ce pas un risque ?
01:13:23 Un risque pour la souveraineté, oui.
01:13:25 C'est ce que je disais en introduction. On ne maîtrise pas
01:13:27 le cadre juridique des solutions
01:13:29 que nous utilisons. Donc le risque, il est là.
01:13:31 Et c'est un risque juridique énorme
01:13:33 qui, du fait
01:13:35 de ces lois extraterritoriales,
01:13:37 c'est un risque juridique, c'est un risque juridique
01:13:39 qui est un risque juridique.
01:13:41 Donc, on ne maîtrise pas les technologies,
01:13:43 on ne maîtrise pas le cadre juridique
01:13:45 dans lequel elles sont décrites.
01:13:47 Je ne suis pas sûre qu'on ait une grande maîtrise
01:13:49 de quoi que ce soit dans ces conditions.
01:13:51 Alors, je vois aussi la question
01:13:55 « Faudrait-il plus de pouvoir
01:13:57 aux associations de consommateurs ? »
01:13:59 Moi, je pense qu'il y a effectivement des consommateurs
01:14:01 qui sont de plus en plus conscients des risques et des problèmes,
01:14:03 qui s'opposent au discours de cette fausse facilité
01:14:05 des coûts qui sont reportés sur l'utilisateur final
01:14:07 et des risques qui sont reportés sur l'utilisateur final.
01:14:09 Alors peut-être que cette prise de conscience
01:14:11 qui viendra par le BAPE
01:14:13 va aider à la prise
01:14:15 de conscience au niveau supérieur
01:14:17 des problèmes à venir.
01:14:19 Mais on ne va pas
01:14:21 pouvoir s'opposer
01:14:23 à se laisser faire vers le tout numérique.
01:14:25 Peut-être est en train d'émerger,
01:14:27 comme on le voit, avec certaines
01:14:29 zones de résistance pour certaines actions
01:14:31 qui se trouvent, et je pense que ça va être
01:14:33 les mêmes types de populations qui vont
01:14:35 se retrouver sur du cyber
01:14:37 et sur du chimique, parce que les enjeux sont les mêmes.
01:14:39 Oui, alors tu as beaucoup
01:14:45 évoqué la problématique
01:14:47 de la qualité des données,
01:14:49 et tu indiquais qu'elle n'était pas suffisamment prise en compte,
01:14:51 donc dans
01:14:53 la confiance qu'on pouvait
01:14:55 donner aux algorithmes
01:14:57 et aux IA.
01:14:59 Donc, comment
01:15:01 la cybersécurité peut-elle apporter ?
01:15:03 Justement,
01:15:05 le problème, c'est que ça dépasse le cadre de la
01:15:07 cybersécurité, parce qu'on peut avoir des données qui sont
01:15:09 confidentielles par des mécanismes de cybersécurité
01:15:11 qui sont très bien, mais si
01:15:13 l'équité des données n'est pas
01:15:15 à la base, ça ne servira à rien.
01:15:17 L'intégrité des données, ça ne servira
01:15:19 à rien si les données ne sont pas les bonnes.
01:15:21 Et ça, cette vérification
01:15:23 sur la qualité
01:15:25 des données,
01:15:27 c'est un autre processus, mais
01:15:29 toutes les normes de qualité qui ont existé
01:15:31 de façon préférentielle et en amont
01:15:33 des normes de sécurité de l'information,
01:15:35 je pense qu'on les a un petit peu oubliées.
01:15:37 Et la qualité de la donnée
01:15:39 vient aussi de ce qu'on capte dans
01:15:41 les données qui captent, et qu'est-ce qu'on garde
01:15:43 ou pas de ces données.
01:15:45 Si on ne rentre pas dans la case, la donnée ne va pas être
01:15:47 gardée, et c'est une partie du problème.
01:15:49 C'est un peu comme pour les médicaments
01:15:51 qui sont conçus pour
01:15:53 un type de population et pas pour tous.
01:15:57 J'ai une question
01:15:59 sur les ressources
01:16:01 scientifiques. Oui, il y a des ressources pour
01:16:03 les données.
01:16:05 Il y a des liens, bien sûr, il y a des ressources.
01:16:07 Je ne suis pas la seule à penser
01:16:09 cette façon d'appréhender le numérique.
01:16:11 Je ne suis pas isolée, je ne suis pas seule.
01:16:13 Mais ceci dit, comme ça va en contre-courant
01:16:15 de la pensée dominante, c'est
01:16:17 relativement difficile de pouvoir
01:16:19 l'exprimer ou de pouvoir la diffuser.
01:16:21 Regardez ce qui se passe dans l'enseignement
01:16:23 et dans la recherche. Les fonds viennent de qui ?
01:16:25 Ils viennent des acteurs hégémoniques,
01:16:27 donc ils ne vont pas faire une place
01:16:29 suffisante à ce contre-discours,
01:16:31 à cette contre-pensée, ou à cette façon
01:16:33 de voir autrement le numérique.
01:16:35 Donc c'est assez difficile d'obtenir
01:16:37 des fonds pour effectuer de la recherche dans ces domaines-là
01:16:39 quand on voit que les lignes directrices
01:16:41 de recherche sont imposées par le
01:16:43 World Economic Forum, par exemple.
01:16:45 Et quand toutes ces grosses
01:16:47 boîtes proposent aux universités,
01:16:49 aux écoles, des fournitures
01:16:51 gratuites de
01:16:53 matériel,
01:16:55 on habitue les plus jeunes
01:16:57 à un type de service, à un type de
01:16:59 comportement, donc c'est
01:17:01 difficile.
01:17:03 Quel sera pour vous l'impact du DSA ?
01:17:07 Ça je ne sais pas,
01:17:09 je ne peux pas y répondre aujourd'hui à la question.
01:17:11 Moi il me semble que
01:17:15 toute l'approche...
01:17:17 L'Europe c'est peut-être le dernier
01:17:21 îlot où on peut avoir
01:17:23 une alternative à ce qui se passe, mais c'est
01:17:25 une alternative qui s'adapte à ce
01:17:27 qui se passe et qui ne questionne pas ce qui se passe.
01:17:29 Moi ce qui me choque, c'est tous ces discours
01:17:31 y compris dans les agences musulmanes, comme l'UNESCO,
01:17:33 comme l'Union internationale des télécommunications
01:17:35 qui mettent en œuvre des programmes.
01:17:37 À l'ITU, je citerai deux initiatives,
01:17:39 c'est
01:17:41 IA for Good, Intelligence artificielle
01:17:43 for Good, et puis Cyber for Good.
01:17:45 Mais si on regarde cette dernière initiative Cyber for Good,
01:17:47 quand on voit la mission, on se dit "Ah ouais, c'est génial".
01:17:49 Quand on voit comment c'est porté,
01:17:51 par qui c'est porté, et bien le
01:17:53 Knowledge Partner, il fallait l'inventer,
01:17:55 le partenaire qui
01:17:57 chapeaute
01:17:59 l'initiative sous l'égide de la secrétaire
01:18:01 générale de l'ITU, qui est une personne d'origine
01:18:03 américaine, c'est le Boston Consulting Group.
01:18:05 Et on voit une infiltration
01:18:07 dans les agences musulmanes qui sont censées
01:18:09 réfléchir à cette
01:18:11 pluralité des acteurs et des visions
01:18:13 avec la mise des grands cabinets
01:18:15 de conseils, ça de plus en plus.
01:18:17 Donc c'est aussi un frein à une
01:18:19 élaboration d'une pensée qui est haute.
01:18:21 Et donc si on en revient à l'Europe avec
01:18:23 des directives européennes,
01:18:25 on voit que ça peut avoir
01:18:27 une certaine pensée, une certaine portée,
01:18:29 mais ça ne va pas
01:18:31 résoudre le problème, et ça ne va
01:18:33 pas même le minimaliser
01:18:35 aussi.
01:18:37 C'est bien, mais ça ne sera sans doute pas
01:18:39 suffisant. Pourquoi ?
01:18:41 Parce qu'on est quand même toujours, pendant ce
01:18:43 temps-là, on va quand même toujours donner nos données
01:18:45 à, entre guillemets, pour en citer quelques-uns,
01:18:47 ben j'ai envie de les citer, j'ai même pas besoin de les citer.
01:18:49 On le sait, on les connaît.
01:18:51 Et y compris pour le
01:18:53 santé des données publiques.
01:18:55 Donc après, il faudra être en cohérence
01:18:57 avec ce qu'on souhaite, là où on
01:18:59 veut aller, comment on veut y aller, et après
01:19:01 en soutenant des initiatives
01:19:03 locales, du développement local, et pas forcément
01:19:05 en donnant la maîtrise
01:19:07 et les budgets et les
01:19:09 financements à des acteurs régionaux
01:19:11 qui ont déjà les pleins pouvoirs.
01:19:13 Il y a une certaine Sofiane
01:19:15 Benmanson qui demande
01:19:17 pourquoi on ignore ma question ?
01:19:19 Vous pouvez reposer votre question, Sofiane ?
01:19:21 Non, c'est bon, c'est une question qui est
01:19:23 stigène. Ah oui, ah bon. D'accord,
01:19:25 donc je lui ai répondu.
01:19:27 La question de Thierry
01:19:29 Sponger et de Philippe Vainquier
01:19:31 qui sont à peu près corrélés, c'est est-ce que
01:19:33 sachant que nous utilisons de plus en plus
01:19:35 d'outils numériques, d'ailleurs pour cet
01:19:37 événement, pour ce webinaire, et
01:19:39 avec le développement
01:19:41 du travail en distance
01:19:43 distanciel, hybride,
01:19:45 comment on peut
01:19:47 préconiser une retenue
01:19:49 numérique ou une sobriété numérique ?
01:19:51 Ça, c'est
01:19:53 une vraie question. Donc ça nous
01:19:55 oblige à repenser nos relations, notre façon
01:19:57 de faire. Moi, je n'ai pas la réponse
01:19:59 comment dire...
01:20:01 Je n'ai pas de réponse absolue,
01:20:03 ça va dépendre des contextes et des façons de faire.
01:20:05 Mais si on revient par exemple, là, on utilise
01:20:07 du Zoom. On n'était peut-être pas obligé de faire du Zoom, c'est vrai que
01:20:09 c'est du pratique, tout le monde l'a, et on a fait du Zoom parce qu'il y avait du Zoom,
01:20:11 mais peut-être qu'il y a des solutions
01:20:13 franco-européennes,
01:20:15 européennes,
01:20:17 qui n'ont pas tous ces problèmes-là.
01:20:19 C'est comme regarder ce qui s'est passé avec
01:20:21 le piratage de la société
01:20:23 23andMe, qui fait
01:20:25 du profilage génétique
01:20:27 pour les personnes, ils ont quand même été
01:20:29 piratés, les données sont dans la nature,
01:20:31 et les données ont surtout été revendues.
01:20:33 Donc ça serait approprier du savoir-faire
01:20:35 local, avec peut-être moins de fonctionnalités,
01:20:37 mais quand on a le choix, c'est utiliser
01:20:39 des solutions locales.
01:20:41 En Suisse, nous avons des solutions de
01:20:43 vidéoconférence, notamment produites
01:20:45 par la société Informaniac. Je ne
01:20:47 comprends pas pourquoi on ne les utilise pas plus, y compris
01:20:49 en Suisse, pour des applications d'enseignement
01:20:51 ou autre.
01:20:53 Donc c'est favoriser,
01:20:55 mais avec une cohérence aussi,
01:20:57 ce n'est pas que financer des startups qui va être important,
01:20:59 c'est garder les bonnes idées, garder
01:21:01 en fait que les startups ne soient pas rachetées par des groupes
01:21:03 étrangers, et favoriser l'adoption de
01:21:05 logiciels de solutions
01:21:07 numériques développées en France,
01:21:09 et peut-être en partenariat avec plusieurs
01:21:11 acteurs en France ou en Europe, si on
01:21:13 n'a pas la maîtrise de toute la solution.
01:21:15 Oui, Hervé, aucun politique,
01:21:19 aucun n'a un intérêt à la souveraineté
01:21:21 européenne, c'est une vraie question.
01:21:23 Mais par rapport
01:21:25 à la souveraineté numérique,
01:21:27 est-ce que ça vaut le...
01:21:29 Enfin, c'est vrai qu'il y a
01:21:31 un vrai problème, est-ce qu'il vaut mieux
01:21:33 acter, est-ce qu'il ne serait pas préférable
01:21:35 d'acter le fait qu'on n'a pas cette souveraineté numérique
01:21:37 que de faire semblant d'en avoir ?
01:21:39 C'est des
01:21:41 choix politiques, c'est des visions,
01:21:43 c'est des visions de voir le monde,
01:21:45 mais c'est des vraies questions. Et moi,
01:21:47 je m'étonne toujours, même en Suisse,
01:21:49 d'avoir ces discours sur la souveraineté, cyber-souveraineté,
01:21:51 blablabla, mais on n'en a
01:21:53 aucune. Donc pourquoi on n'en parle ?
01:21:55 On n'a qu'à acter le fait qu'on n'en a pas
01:21:57 et avoir des attitudes au regard
01:21:59 de ce fait que la souveraineté
01:22:01 n'est pas
01:22:03 effective, en tous les cas. Parce que si
01:22:05 on voudrait qu'elle soit effective, on s'y prend très mal.
01:22:07 S'il y a toute une chaîne d'action qu'on pourrait
01:22:09 avoir ou faire, qu'on ne fait pas.
01:22:11 Après,
01:22:13 pourquoi on ne le fait pas ?
01:22:15 C'est un autre sujet,
01:22:19 mais c'est vraiment, vous voyez, c'est un sujet
01:22:21 qui dépasse largement
01:22:23 la maîtrise que nous avons de la cyber-sécurité.
01:22:25 Très bien,
01:22:29 merci pour tes éclaircissements.
01:22:31 Je vais partager
01:22:33 une question émanant
01:22:35 de monsieur ou madame Gallamane
01:22:37 qui indique que l'homme ne pourra pas
01:22:39 tout contrôler, vu la complexité
01:22:41 et les échelles aujourd'hui
01:22:43 des systèmes
01:22:45 et de l'information, pour vérifier la qualité
01:22:47 des données. Pourra-t-on faire confiance
01:22:49 à l'IA ?
01:22:51 Alors ça, c'est intéressant, mais ça rejoint
01:22:53 le discours sur la fuite en avant. C'est-à-dire,
01:22:55 moins on maîtrise, plus on va rajouter des systèmes
01:22:57 d'IA. Plus on aura des boîtes noires
01:22:59 et plus on aura tendance, qu'on ne maîtrise pas,
01:23:01 à reporter notre confiance
01:23:03 pour une entité qui, a priori, n'est pas
01:23:05 de confiance. Et regardez quand même ce qui est important en cyber-sécurité,
01:23:07 ce que ce conseil de Zero Trust.
01:23:09 Et si on comprend ce que ça veut dire, il faut aller
01:23:11 jusqu'au bout de la compréhension de ce Zero Trust.
01:23:13 Alors peut-être que la confiance qu'on pourra
01:23:15 avoir dans des solutions numériques ou dans des solutions
01:23:17 d'IA aura trait à la responsabilité
01:23:19 des acteurs qui nous les fournissent.
01:23:21 Si ces acteurs
01:23:23 s'engagent sur leur responsabilité,
01:23:25 sur les dysfonctionnements, sur les impacts
01:23:27 potentiellement négatifs, peut-être
01:23:29 qu'on pourra avoir confiance. Mais là, il n'y a personne
01:23:31 qui s'engage sur la responsabilité.
01:23:33 C'est toujours les risques, toujours du côté
01:23:35 de l'utilisateur. Et c'est peut-être
01:23:37 ce paradigme-là qu'il faudrait changer
01:23:39 pour forcer ces fournisseurs
01:23:41 à introduire de la qualité, de la fiabilité,
01:23:43 de la robustesse, de la résilience,
01:23:45 de la résistance, plutôt que nous demander
01:23:47 nous, utilisateurs, nous, entreprises,
01:23:49 à être cyber-résilients. Parce qu'on n'a pas les moyens
01:23:51 de la résilience. Puisque les vulnérabilités
01:23:53 sont by design.
01:23:55 On n'a pas de sécurité by design, mais des vulnérabilités
01:23:57 by design. Donc comment faire confiance à l'IA,
01:23:59 ça va dépendre de qui l'a produit,
01:24:01 qui s'engage sur la qualité de l'IA.
01:24:03 Et là, je ne suis pas sûr
01:24:05 qu'il y en ait qui veulent s'engager sur
01:24:07 cette responsabilité-là.
01:24:09 Alors, une question qui concerne
01:24:11 la centralisation ou la décentralisation
01:24:13 des systèmes d'information
01:24:15 et de l'information elle-même. Est-ce qu'il est
01:24:17 plus risqué d'être hébergé chez un fournisseur
01:24:19 cloud pour nos données, ou faire un petit
01:24:21 serveur, donc fait maison ?
01:24:23 Jusqu'à quand peut-on dire que la
01:24:25 souveraineté de nos données
01:24:27 est en danger ?
01:24:29 Donc, voilà, centrale,
01:24:31 décentrale. Donc, c'est un mouvement qu'on
01:24:33 connaît depuis l'émergence
01:24:35 de l'informatique, les grands systèmes,
01:24:37 les mini-systèmes,
01:24:39 etc. Donc là, avec les clouds,
01:24:41 est-ce que...
01:24:43 Moi, la façon dont je comprends le problème,
01:24:45 ce n'est pas tant le problème de centralisation,
01:24:47 décentralisation, distribution. Je pense
01:24:49 qu'on devrait se réapproprier
01:24:51 la caractéristique de distribution
01:24:53 pour distribuer les risques et pas les
01:24:55 concentrer. Donc, c'est repenser l'architecture
01:24:57 fondamentale de l'interconnexion
01:24:59 totale, mais c'est surtout de se poser la
01:25:01 question, les logiciels qui manipulent
01:25:03 nos données, à qui ils appartiennent ?
01:25:05 Et c'est pour ça qu'il faudrait
01:25:07 introduire, ce qu'on ne fait pas non plus à l'université,
01:25:09 c'est l'enseignement de
01:25:11 l'open source, c'est avoir des logiciels
01:25:13 transparents d'open source.
01:25:15 Tandis que là, regardez, quand vous signez
01:25:17 des conditions d'utilisation, vous acceptez
01:25:19 des conditions d'utilisation ou des licences d'utilisation,
01:25:21 vous comprenez, vous n'avez aucune maîtrise,
01:25:23 aucune sécurité. Donc, que ça soit local
01:25:25 ou centralisé, ça ne vient au même.
01:25:27 C'est la nature du logiciel que vous utilisez
01:25:29 pour accéder à vos données et les traiter.
01:25:31 Et on peut faire la même chose sur l'infrastructure
01:25:33 matérielle.
01:25:35 Et après,
01:25:37 je vois aussi qu'il y a une confiance sur...
01:25:39 la confiance sur les acteurs privés...
01:25:41 Et publics, oui, publics versus privés.
01:25:43 À dépend des pays et des acteurs, quoi.
01:25:45 La balkanisation de l'Internet,
01:25:47 on l'a vu, les champions de l'Internet
01:25:49 contrôlés par l'État, on sait quel est
01:25:51 le pays qui fait ça. Est-ce qu'on
01:25:53 peut avoir plus confiance ?
01:25:55 Je ne me prononcerai pas sur le sujet.
01:25:57 Et ça va dépendre du contexte dans
01:25:59 lequel nous vivons et du pays.
01:26:01 C'est encore des questions géopolitiques.
01:26:03 Une question de Philippe Vainquier,
01:26:07 qui prend un petit peu
01:26:09 de recul, et d'un peu
01:26:11 de prospective. L'aperçu futur,
01:26:13 quelles sont les tendances
01:26:15 informatiques qui devraient
01:26:17 dominer 2024 ?
01:26:19 Je ne sais pas.
01:26:21 Je n'ai pas réfléchi
01:26:23 à cette question-là.
01:26:25 Je pense que 2024
01:26:27 ne sera pas tellement différent de 2023,
01:26:29 avec peut-être plus d'objets connectés,
01:26:31 plus de problèmes liés aux informations
01:26:33 de santé, une prise de conscience
01:26:35 de ce que veut dire
01:26:37 la criticité des informations de santé.
01:26:39 Sur les chaînes d'approvisionnement,
01:26:41 on aura toujours des problèmes,
01:26:43 et là aussi, on va commencer
01:26:45 à souffrir.
01:26:47 Donc, je ne sais pas.
01:26:49 Franchement, je ne sais pas.
01:26:51 Il faudrait que je repasse un peu de temps à réfléchir
01:26:53 pour avoir une réponse un peu plus
01:26:55 construite.
01:26:57 Là, je réponds à Ingrid,
01:26:59 qui se pose la question sur
01:27:01 la sécurisation des données, la protection
01:27:03 des données, avec l'émergence des ordinateurs
01:27:05 quantiques. Je pense que ça va être le prochain lundi,
01:27:07 de la cyber.
01:27:09 Je pense que notre
01:27:11 îlot... Enfin, la question que je me suis
01:27:13 posée, y compris pour la Suisse, c'est-à-dire,
01:27:15 vu le contexte, on n'est pas des géants de l'Internet.
01:27:17 On ne le sera jamais en Suisse. On n'est pas des super
01:27:19 puissances cyber.
01:27:21 En revanche, est-ce qu'on ne pourrait pas
01:27:23 développer une industrie, une économie
01:27:25 basée sur le contrôle,
01:27:27 sur la fiabilité ?
01:27:29 Et sur...
01:27:31 Et j'en reviens. Et pourquoi je
01:27:33 reparle de ça ? Parce que c'est la seule
01:27:35 façon, à mon avis, de maîtriser
01:27:37 la sécurité des flux de données
01:27:39 et des données. C'est le chiffrement.
01:27:41 Et d'avoir... d'investir fortement dans
01:27:43 le chiffrement, y compris dans le chiffrement
01:27:45 quantique. Mais Jean-Jacques nous en parlera encore mieux
01:27:47 que moi. Quoique moi, j'ai fait partie d'un
01:27:49 projet européen, le premier projet européen
01:27:51 de cryptographie quantique pour la distribution
01:27:53 quantique de clés.
01:27:55 CECOC. CECOC, effectivement,
01:27:57 avec une première mondiale à Vienne en
01:27:59 2008 de faisabilité, de routage
01:28:01 de clés générées d'une façon quantique.
01:28:03 Donc oui, il y a des vrais enjeux du chiffrement,
01:28:05 mais là aussi, il faut investir
01:28:07 dans cette maîtrise du chiffrement et dans
01:28:09 la mise en œuvre du chiffrement.
01:28:11 Parce que c'est pas le tout
01:28:13 de développer les procédures,
01:28:15 les procédés de chiffrement.
01:28:17 C'est comment ces procédés sont
01:28:19 informatisés. Et souvent,
01:28:21 les vulnérabilités viennent du passage
01:28:23 à la numérisation au monde informatique.
01:28:25 Ahmed,
01:28:27 apparemment, tout le monde
01:28:29 a son son déconnecté.
01:28:31 Tu peux
01:28:33 permettre de reconnecter.
01:28:35 Il y a Hervé Schoer, par exemple, qui demande
01:28:37 sans doute à parler.
01:28:39 Hervé peut prendre le contrôle,
01:28:41 donc activer son micro, il me semble.
01:28:43 Moi, je peux.
01:28:45 Non, non, mais il n'y a rien à dire.
01:28:47 De toute façon, à quoi je critique,
01:28:49 je dirais d'avoir dit.
01:28:51 Je voudrais dire à la charmante
01:28:53 dame qui a posé une question dans le
01:28:55 chat qu'on ne dit pas "crypté",
01:28:57 on dit "chiffré".
01:28:59 Alors, là, une question,
01:29:01 une remarque de Jean-Jacques Urban.
01:29:03 "Pourrait-on rendre les éditeurs de logiciels
01:29:05 responsables des conséquences des failles
01:29:07 de sécurité congénitales?" Mais oui.
01:29:09 Moi, j'en suis persuadé
01:29:11 qu'il faut responsabiliser. Et quand ils seront
01:29:13 plus responsables avec des implications
01:29:15 financières très fortes, ils ne compteront plus
01:29:17 dans leur qualité. Et c'est la responsabilité
01:29:19 des fournisseurs. Je pense que là aussi,
01:29:21 c'est un vrai sujet juridique.
01:29:23 Et je ne suis pas sûre qu'on la gagne,
01:29:25 cette bataille du juridique pour ça.
01:29:27 Mais ça peut être un élément de solution.
01:29:29 Jean-Jacques a levé la main.
01:29:31 Oui, Jean-Jacques, tu veux donc
01:29:33 prendre la parole?
01:29:35 J'avais effectivement la question
01:29:37 que Solange vient de relever là.
01:29:39 J'en avais une autre.
01:29:41 J'ai l'impression
01:29:43 qu'il y a pas mal d'infiltrations
01:29:45 de diverses officines,
01:29:47 soit directement,
01:29:49 soit via des systèmes
01:29:51 de financement,
01:29:53 dans plusieurs organisations
01:29:55 françaises,
01:29:57 qui touchent
01:29:59 la cybersécurité.
01:30:01 Est-ce que c'est une vue
01:30:03 pessimiste de ma part,
01:30:05 ou est-ce que vous partagez cette
01:30:07 appréciation?
01:30:09 Moi, je pense que c'est un certain reflet
01:30:11 de la réalité. C'est pas d'être pessimiste
01:30:13 que d'être, je veux dire,
01:30:15 de comprendre ce qui est en jeu.
01:30:17 Les enjeux sont tels qu'effectivement
01:30:19 des collisions d'intérêts et des
01:30:21 infiltrations. Et là aussi,
01:30:23 peut-être j'aimerais rebondir sur une question,
01:30:25 un commentaire. Ne pensez-vous pas que le
01:30:27 retour en arrière que vous préconisez
01:30:29 n'entraîne un retour en arrière sur les progrès scientifiques
01:30:31 et notamment médicaux? C'est pas un retour en arrière
01:30:33 que je préconise. C'est un numérique
01:30:35 raisonné et raisonnable.
01:30:37 Et ce que je questionne, c'est la façon de faire
01:30:39 numérique. Et donc là,
01:30:41 on pourrait préserver les avancées
01:30:43 et les progrès scientifiques,
01:30:45 mais d'une façon,
01:30:47 je veux dire, qui va autre que
01:30:49 d'exploiter toutes les données des personnes.
01:30:51 Nous, en Suisse, en ce moment, on a la nouvelle loi sur la protection
01:30:53 des données qui vient d'être faite.
01:30:55 Et quand vous allez dans un
01:30:57 cabinet médical, on dit "signez-la,
01:30:59 c'est pour la protection des données".
01:31:01 Vous lisez ce que vous devez signer,
01:31:03 c'est pas de la protection des données, c'est le droit à l'exploitation
01:31:05 de vos données. C'est pas tout à fait la même
01:31:07 chose. Mais moi, je pense qu'on pourrait
01:31:09 bâtir des systèmes
01:31:11 qui soient respectueux
01:31:13 du droit des personnes, la protection des données,
01:31:15 pour avoir ces avancées,
01:31:17 garder justement ces avancées.
01:31:19 Et notamment,
01:31:21 c'est dans la priorisation des actions.
01:31:23 Les prix faits
01:31:25 et légers, des applications
01:31:27 dont la survie des personnes
01:31:29 dépend peut-être au détriment
01:31:31 de certains divertissements.
01:31:33 Ils sont très consommateurs
01:31:35 de numérique. C'est d'après le chiffre de projet.
01:31:37 Si vous regardez sur leur site, il y a
01:31:39 beaucoup de documents aussi qui sont intéressants
01:31:41 et qui présentent les taux de consommation
01:31:43 par type d'application.
01:31:45 Et le fideo, c'est très consommateur
01:31:47 de ressources, par exemple.
01:31:49 Je porte
01:31:51 à ta connaissance Solange une question
01:31:53 de Léa Avran qui
01:31:55 pose la question "Que pensez-vous du règlement
01:31:57 IA en cours de discussion ?"
01:31:59 Est-ce que Léa peut préciser
01:32:01 de quel règlement IA,
01:32:03 à quelle échelle ?
01:32:05 Moi, je ne peux pas répondre à cette
01:32:09 question comme ça dans les deux.
01:32:11 Très bien.
01:32:15 Est-ce qu'il y a
01:32:17 peut-être d'autres questions ?
01:32:19 L'Europe est toujours à côté de la plaque
01:32:25 sur la technologie et la protection. Comment
01:32:27 vont-ils faire avec une arrivée des IA
01:32:29 sur l'ensemble du marché de l'informatique ?
01:32:31 À votre café ?
01:32:33 C'est une question pour moi.
01:32:37 Mais ce sont des vraies questions. Ce sont des questions
01:32:39 qu'on devrait appréhender, dont on devrait débattre.
01:32:41 Moi, ce que je trouve dommage, c'est qu'il n'y a jamais eu de débat
01:32:43 de société.
01:32:45 Ce n'est pas remettre en question,
01:32:47 mais c'est discuter des tenants et des abdicés.
01:32:49 C'est de faire la balance des intérêts
01:32:51 et de dessiner une stratégie
01:32:53 et un plan d'action cohérents
01:32:55 en fonction de là où on veut aller,
01:32:57 pour avoir une feuille de route. Pour l'instant, on n'a pas. On est toujours en réaction.
01:32:59 C'est une partie du problème.
01:33:01 Parfait.
01:33:07 Est-ce qu'il y a d'autres questions ?
01:33:09 Également pour Cédric,
01:33:13 parce qu'il ne faut pas l'oublier.
01:33:15 Il est toujours connecté.
01:33:17 Solange, tu m'envoies tes slides.
01:33:21 J'en fais profiter l'élève
01:33:25 qui va faire le compte-rendu.
01:33:27 Volontiers.
01:33:29 Et Ahmed, tu m'envoies la retranscription.
01:33:31 Oui, on partagera.
01:33:35 Comme d'habitude.
01:33:37 Absolument. Pour revisionner ou visionner
01:33:41 l'événement,
01:33:43 sur le site de l'Arxiv.
01:33:45 Avec le professeur Jean-Jacques Kiskater
01:33:51 de l'Université
01:33:53 de Louvain-la-Neuve,
01:33:55 sur le quantique du quantique,
01:33:59 les inscriptions seront ouvertes
01:34:03 dès demain.
01:34:05 OK. Très bien.
01:34:07 Merci à tous.
01:34:09 On se retrouve pour les 15e rencontres
01:34:11 de l'Arxiv, le 5 décembre.
01:34:13 Pour Jean-Jacques Kiskater, c'est le 20 novembre.
01:34:15 Le 5 décembre,
01:34:17 les rencontres de l'Arxiv
01:34:19 à la BNF,
01:34:21 la Bibliothèque Nationale de France.
01:34:23 Toute la journée, en présentiel.
01:34:25 Restez à l'écoute
01:34:29 et allez sur le site www.arxiv.fr
01:34:37 et sur le site www.associationsdesreservicesduchiffre.fr
01:34:39 Il y a beaucoup de choses intéressantes
01:34:45 à apprendre par ailleurs.
01:34:47 Sur ce site.
01:34:49 Merci Gérard.
01:34:51 Merci à nos deux intervenants.
01:34:53 Merci Solange, malgré
01:34:55 ton état de santé.
01:34:57 Je suis un peu malade.
01:34:59 Pour tes efforts,
01:35:01 qui ont été appréciés.
01:35:03 Je pense que le sujet
01:35:05 va nous laisser réfléchir
01:35:07 sur ces questions
01:35:09 sociétales, philosophiques aussi.
01:35:11 Merci à tous les participants.
01:35:15 A tous nos fidèles
01:35:17 inscrits.
01:35:19 Dès demain,
01:35:21 nous aurons l'ouverture
01:35:23 des inscriptions pour le prochain
01:35:25 lundi de l'Arxiv.
01:35:27 Sur un sujet
01:35:29 qui va susciter
01:35:31 beaucoup d'intérêt.
01:35:33 Je pense qu'on a fait le
01:35:35 vérifié sur le chat.
01:35:37 Il y a encore
01:35:39 toutes les excuses de Béatrice Laurent
01:35:41 qui est à la Guadeloupe.
01:35:43 Enfin, qui atterrit à la Guadeloupe
01:35:45 en ce moment.
01:35:47 Elle ne pouvait pas être connectée.
01:35:49 Bonne soirée à tous.
01:35:51 Au revoir.
01:35:53 Au revoir Solange.
01:35:55 Au revoir Cédric.
01:35:57 La prochaine conférence aura lieu
01:35:59 en distanciel.
01:36:01 Exactement.
01:36:03 Au revoir.
01:36:05 Bonne soirée.
01:36:07 A très bientôt.
01:36:09 L'enregistrement sera sur le site
01:36:19 de l'Arxiv.
01:36:21 www.arxiv.fr
01:36:29 Merci à Clarisse,
01:36:31 notre étudiante-assesseur,
01:36:33 qui va nous faire cette synthèse
01:36:35 sur ce sujet
01:36:37 très intéressant.
01:36:39 Je ne sais pas si vous entendez bien.
01:36:41 Je ne sais pas si vous entendez bien.
01:36:43 Je ne sais pas si vous entendez bien.
01:36:45 Je ne sais pas si vous entendez bien.
01:36:47 Je ne sais pas si vous entendez bien.
01:36:49 Je ne sais pas si vous entendez bien.
01:36:51 Je ne sais pas si vous entendez bien.
01:36:53 Je ne sais pas si vous entendez bien.
01:36:55 Je ne sais pas si vous entendez bien.
01:36:57 Je ne sais pas si vous entendez bien.
01:36:59 Je ne sais pas si vous entendez bien.
01:37:01 Je ne sais pas si vous entendez bien.
01:37:03 Je ne sais pas si vous entendez bien.
01:37:05 Je ne sais pas si vous entendez bien.
01:37:07 Je ne sais pas si vous entendez bien.
01:37:09 Je ne sais pas si vous entendez bien.
01:37:11 Je ne sais pas si vous entendez bien.
01:37:13 Je ne sais pas si vous entendez bien.
01:37:15 Je ne sais pas si vous entendez bien.
01:37:17 Je ne sais pas si vous entendez bien.
01:37:19 Je ne sais pas si vous entendez bien.
01:37:21 Je ne sais pas si vous entendez bien.
01:37:23 Je ne sais pas si vous entendez bien.
01:37:25 Je ne sais pas si vous entendez bien.
01:37:27 Je ne sais pas si vous entendez bien.
01:37:29 Je ne sais pas si vous entendez bien.
01:37:31 Je ne sais pas si vous entendez bien.
01:37:33 Je ne sais pas si vous entendez bien.
01:37:35 Je ne sais pas si vous entendez bien.
01:37:37 Je ne sais pas si vous entendez bien.
01:37:39 Je ne sais pas si vous entendez bien.
01:37:41 Je ne sais pas si vous entendez bien.
01:37:43 Je ne sais pas si vous entendez bien.
01:37:45 Je ne sais pas si vous entendez bien.
01:37:47 Je ne sais pas si vous entendez bien.
01:37:49 Je ne sais pas si vous entendez bien.
01:37:51 Je ne sais pas si vous entendez bien.
01:37:53 Je ne sais pas si vous entendez bien.
01:37:55 Je ne sais pas si vous entendez bien.
01:37:57 Je ne sais pas si vous entendez bien.
01:37:59 Je ne sais pas si vous entendez bien.
01:38:01 Je ne sais pas si vous entendez bien.
01:38:03 Je ne sais pas si vous entendez bien.
01:38:05 Je ne sais pas si vous entendez bien.
01:38:07 Je ne sais pas si vous entendez bien.
01:38:09 Je ne sais pas si vous entendez bien.
01:38:11 Je ne sais pas si vous entendez bien.
01:38:13 Je ne sais pas si vous entendez bien.
01:38:15 Je ne sais pas si vous entendez bien.
01:38:17 Je ne sais pas si vous entendez bien.
01:38:19 Je ne sais pas si vous entendez bien.
01:38:21 Je ne sais pas si vous entendez bien.
01:38:23 Je ne sais pas si vous entendez bien.
01:38:25 Je ne sais pas si vous entendez bien.
01:38:27 Je ne sais pas si vous entendez bien.

Recommandations