- il y a 13 minutes
Eric Salobir, président du comité exécutif de la Human Technology Foundation, analyse les bouleversements de l’IA en entreprise et dans la société. Entre adoption, résistances et shadow AI, il plaide pour une gouvernance responsable. Un éclairage stratégique sur l’IA agentique et l’autonomie technologique européenne dans Smart Tech.
Catégorie
🗞
NewsTranscription
00:05C'est le moment de la grande interview et je suis très heureuse de recevoir Éric Salobier.
00:09Bonjour, bienvenue dans Smartech, bienvenue pour une deuxième fois dans Smartech.
00:14Je vous ai reçu il y a quelques temps, c'était en 2020 pour la sortie de votre livre «
00:19Dieu et la Silicon Valley ».
00:21D'ailleurs je m'étais dit que j'allais le reprendre et j'ai oublié de l'apporter avec moi,
00:24qui m'avait absolument passionné.
00:25Vous êtes expert en éthique du numérique, vous êtes un prêtre dominicain, on avait beaucoup parlé de ce sujet ensemble
00:31à ce moment-là,
00:32du lien aussi entre la tech, la religion, la Silicon Valley, le Vatican.
00:38Vous êtes aussi entrepreneur et aujourd'hui vous êtes le président du comité exécutif de la Human Technology Foundation.
00:44Je voulais qu'on dise quelques mots sur cette fondation et tout de suite vous poser et mettre les pieds
00:50dans le plat.
00:51Est-ce que ça a un lien avec votre engagement personnel religieux ?
00:54Alors pas du tout. Je pense que ce qui est important quand on parle d'éthique, c'est de parler
00:58d'éthique,
00:59quand on essaie d'accompagner les gens, c'est d'accompagner les gens.
01:01Et ce que fait la Human Technology Foundation, c'est à la fois un think tank qui rassemble les grandes
01:05entreprises,
01:06des décideurs politiques, des experts universitaires, pour essayer de craquer les problématiques autour par exemple de la gouvernance de l
01:12'IA,
01:12de la gouvernance de la donnée, etc.
01:14Tout ce qui empêche un peu les dirigeants de dormir.
01:16Et par ailleurs, on a monté un peu un doux tank.
01:18Enfin j'espère que ça les empêche de dormir.
01:19Moi je peux vous dire que ça tracasse beaucoup de gens, c'est-à-dire être sûr, il faut faire
01:24beaucoup d'investissements rapidement,
01:25il faut prendre des décisions un peu dans l'urgence et on voit bien qu'elles auront un impact sur
01:29l'entreprise dans les mois, dans les années à venir.
01:33Et ça c'est quand même un peu structurant.
01:34Et puis il y a la question de l'humain, il y a la question des syndicats aussi,
01:37il y a beaucoup de choses qui en ce moment sont en train d'émerger.
01:40Donc ça bouillonne et effectivement ça questionne.
01:43Et donc la partie d'outanque nous permet d'accompagner précisément certaines entreprises dans la gouvernance spécifique d'une technologie,
01:51par exemple mettre en place une charte de l'IA éthique.
01:54D'accord.
01:55Donc rien à voir avec vos engagements personnels,
01:59mais je voulais quand même, parce que c'est quand même toujours un sujet que j'adore,
02:02d'essayer de comprendre un peu ce qui se passe dans la tête des big tech.
02:06Je voulais savoir si vous continuez à les visiter.
02:09Est-ce que vous aviez des informations un peu plus fraîches sur leurs relations aujourd'hui avec le Vatican,
02:14avec le nouveau pape par exemple ?
02:16Alors moi je continue d'être en interaction directe avec eux.
02:20Ce qui est sûr c'est qu'en ce moment les questions qui se posent sont beaucoup plus autour des
02:24questions d'autonomie stratégique,
02:26des questions géopolitiques.
02:27Et par ailleurs on continue à travailler ensemble sur des choses plus anthropologiques.
02:32C'est-à-dire, en gros, qu'est-ce que ça fait quand un humain parle avec une machine ?
02:35Et ça c'est une question anthropologique, c'est une question philosophique,
02:40mais dont les impacts dans l'entreprise sont immédiats.
02:43Donc ce genre de choses, on les continue à les travailler, on va dire, à bas bruit régulièrement.
02:48Mais en Silicon Valley ils font plus référents j'ai l'impression à la science-fiction finalement que...
02:51Pas seulement, regardez Peter Thiel récemment...
02:54C'est vrai, seulement pétriste.
02:56Justement, je pense que, moi ça fait longtemps que je dis que la pensée magique, la pensée spirituelle,
03:02enfin tout ce qui va autour, quasiment le chamanisme, enfin tout ça, ce grand ensemble qui dépasse le matérialisme,
03:09c'est présent dans notre société, c'est dans l'air, mais ça se cristallise plus tellement autour de certaines
03:15religions.
03:16Et du coup, les gens le cristallisent un peu comme ils peuvent.
03:19Mais ils ont bien conscience qu'il y a une espèce d'arrière-monde, il y a quelque chose.
03:22Et donc effectivement, certains vont avoir une référence religieuse, d'autres vont avoir d'autres types de références.
03:27À un moment, si on l'évacue, le danger c'est d'utiliser la technologie, notamment l'intelligence artificielle, comme
03:33un totem.
03:33Parce que quand on parlait à Alexa ou à Google, je ne sais pas quoi, ils répétaient, ils répondaient, enfin
03:38c'était relativement basique.
03:40C'était utilitaire, disons.
03:41C'était utilitaire.
03:43Maintenant, il y a quand même un certain nombre de gens qui dialoguent avec une IA comme ChatGPT, quasiment en
03:48mode copain, en mode coach.
03:50Il y a des gens qui font des copiers-collés des SMS qu'ils reçoivent de leurs petits copains à
03:53leurs petites copines,
03:54notamment chez les 10 de 25 ans, en disant « mais qu'est-ce que tu en penses, tu ne
03:57trouves pas qu'elle abuse ? »
03:58Et là, ça pose des questions tout à fait différentes.
04:01Parce que par définition, si vous dites ça à votre meilleure amie, elle va contextualiser, elle va vous aider vraiment.
04:06Évidemment, l'IA, il y a ce qu'on appelle « psychofancy », c'est-à-dire l'idée que
04:10l'IA est faite pour aller plutôt dans votre sens.
04:12Donc si vous dites « vous ne trouvez pas qu'il abuse ? », on va dire « oui, quand
04:15même, il abuse ».
04:16Et donc le danger, c'est quelque part un renforcement de vos propres croyances et un peu un détachement du
04:22réel,
04:23là où par définition, on se construit en interaction avec les autres.
04:27Donc ça ne veut pas dire que la technologie est mauvaise, ça veut dire, et ça je pense que les
04:30jeunes,
04:31une étude du BCG le montrait récemment, les jeunes sont assez attentifs au fait de ne pas se trouver désocialisés,
04:37de ne pas prendre de mauvaises décisions à cause de l'IA,
04:40et ça c'est des choses peut-être pour lesquelles les aînés devraient un peu les écouter, je pense que
04:44c'est très intéressant.
04:45Oui, et puis ça montre l'importance de l'éducation au numérique,
04:48d'expliquer comment fonctionne ce chatbot d'IA, d'où viennent ses réponses, comment il est programmé.
04:54Alors, il y a quelque temps, j'ai reçu à votre place Gabrielle Halpern,
04:59je ne sais pas si vous avez déjà discuté avec elle, elle est docteure en philosophie,
05:02et elle, elle a publié « Intelligence artificielle et l'homme créa Dieu »,
05:06donc paru chez Herman Latour récemment.
05:09Selon elle, en fait, l'IA c'est un peu le Dieu dont on aurait rêvé,
05:14toujours disponible, auquel on peut adresser toutes ses prières finalement.
05:18Quel est-vous votre regard sur le lien que les humains tissent avec les IA de manière générale,
05:23les IA génératives bien sûr ?
05:25Je pense que c'est un invariant anthropologique, on le voit quand on regarde des peintures rupestres, etc.
05:30On a toujours essayé de projeter notre humanité, on anthropomorphise tout.
05:34Les enfants anthropomorphisent leur ours en peluche.
05:39Donc c'est un peu la même chose, et en fait on va projeter notre humanité.
05:41Mais là c'est carrément, on projette Dieu plus qu'un autre humain, c'est ce que nous dit en
05:46tout cas l'éphilosophe.
05:49Regardez les mythologies antiques, regardez les dieux grecs et les dieux romains.
05:54En fait, ils sont jaloux, ils sont colériques, ils sont méchants.
05:57En fait, ils ont tous les travers de l'humanité.
05:59Et en fait, quelque part, ils se disputent entre eux, ils sont en couple, ils sont infidèles.
06:03En fait, c'est une saga, c'est les feux de l'amour.
06:06Et en fait, je pense que l'humain projette ça.
06:10De même qu'on va projeter sur un totem, par exemple, dans des religions premières,
06:15le fait de pouvoir protéger la tribu, protéger le village.
06:18Donc on va peut-être lui faire des sacrifices en échange de quoi, on attend quelque chose.
06:22Ça, c'est quelque chose qui est profondément enracinant à l'humain.
06:24Alors après, ce qui arrive avec les religions dites du livre, le judaïsme, le christianisme notamment,
06:30c'est un peu un détachement de ça en disant, mais ça ne fonctionne pas comme ça.
06:34C'est-à-dire, Dieu n'est pas un espèce de super pouvoir.
06:37Dieu, ce n'est pas Iron Man.
06:38Donc il ne va pas débarquer quand on a besoin pour faire ce qu'on lui demande, etc.
06:42C'est autre chose.
06:43Et peut-être que justement, la réalité spirituelle qui, pour moi, existe vraiment
06:48et que beaucoup de gens sentent, comme je disais tout à l'heure,
06:51elle vient se superposer sur une réalité concrète.
06:54Donc en fait, pour moi, il ne faut pas du tout considérer ces technologies comme Dieu.
06:57Il faut les considérer comme ce qu'elles sont, c'est-à-dire des technologies
07:00et petit à petit, une forme d'interlocuteur qui est en train d'entrer dans notre conversation humaine.
07:06Qui sont les membres de Human Technology Foundation ?
07:09Alors ce sont des grandes entreprises européennes, canadiennes, états-uniennes
07:13et qui soit produisent de la technologie, soit sont de grands utilisateurs,
07:18des grandes banques, des compagnies d'assurance.
07:20Et en fait, elles ont en commun de toutes se poser ces mêmes questions
07:23de comment utiliser cette technologie, à la fois au bénéfice de l'humain,
07:28c'est-à-dire au bénéfice des clients, mais aussi des collaborateurs,
07:32parce que c'est ça qui va quand même booster un peu à la fois, comment dire,
07:37l'atmosphère dans l'entreprise, l'efficacité, etc.
07:40Et en même temps, il faut créer de la valeur avec ça.
07:42Donc en fait, il faut créer de la valeur en s'appuyant sur des valeurs.
07:46Et les entreprises qui font ça, qui ont une saine gouvernance,
07:49et nous, on en accompagne, je ne vous dirai pas trop de noms,
07:51mais on en accompagne un certain nombre qui font ça.
07:54Donc on les aide à rédiger leur charte de l'IA éthique,
07:57des guides d'utilisation, de la formation, etc.
08:00Ce sont des entreprises qui, par exemple, verront leurs collaborateurs
08:06utiliser l'IA sans crainte de faire une bêtise,
08:09utiliser l'IA en addition de leurs compétences métiers
08:12et pas en remplacement.
08:13Parce que là, il y a un gros problème.
08:14Parce qu'on entend quand même beaucoup de vagues de licenciements
08:17sous le prétexte de l'arrivée de l'intelligence artificielle.
08:21Je dis sous le prétexte parce que ce n'est pas forcément véritablement
08:24justifié, et ce n'est pas forcément la vraie raison.
08:27Mais en tout cas, cette idée qu'on va avoir des entreprises
08:31plus rentables, plus opérationnelles, avec moins d'humains,
08:35c'est quand même une idée très partagée.
08:37Ou avec des humains qui font autre chose.
08:39C'est pour moi, la vraie question, elle est là.
08:41Donc effectivement, le problème, c'est que ce ne sera pas forcément
08:44les mêmes, pas forcément au même endroit.
08:46Et la question, c'est celle de la transition.
08:48Et on a eu une transition lors de la révolution industrielle
08:51qui a pris une génération.
08:52Donc les gens ont eu le temps de s'organiser.
08:54Là, ça prend juste quelques années.
08:56Et c'est pour ça qu'il faut vraiment accompagner les populations.
08:59Dans les entreprises, en ce moment, ce qu'ils viennent nous voir le plus,
09:02ce n'est pas les SIS, ce n'est pas l'informatique.
09:04C'est les H.
09:05Parce qu'en fait, ils voient la nécessité de changer les parcours de carrière,
09:10d'accompagner les collaborateurs, de les rassurer,
09:12de les évaluer aussi.
09:13Comment est-ce que vous évaluez un collaborateur qui utilise
09:15la moitié du temps de charge du petit ?
09:17Est-ce que ce qu'il produit, c'est lui ?
09:19Ou est-ce que c'est l'IA qui le produit ?
09:21Et en fait...
09:22Alors, vous avez remis une étude IA et avenir du travail
09:25à Clara Chappaz au moment du sommet sur l'intelligence artificielle
09:28qui s'est tenue à Paris, le sommet mondial, l'Action Summit.
09:32Quels sont les enseignements ?
09:33Peut-être quelles sont les pistes que vous avez eu envie de pousser
09:37auprès des décideurs publics ?
09:38Et qu'est-ce que vous avez vu arriver depuis un an ?
09:41Alors, auprès des décideurs publics, je dirais que là,
09:44autant sur certains sujets comme la souveraineté,
09:46les décideurs publics sont en première ligne.
09:48Parce qu'il y a toute une partie réglementaire,
09:50et ça, on ne peut pas le faire à leur place.
09:54Pour l'IA et le travail, il y a beaucoup de choses qui se passent
09:56dans l'entreprise.
09:57Alors, on a travaillé avec l'OIT, on a travaillé avec le ministère du Travail,
09:59mais à la fin, ce sont quand même les comex des entreprises
10:01qui doivent décider.
10:02Et effectivement, pour nous, et ça, on le voit se mettre en œuvre,
10:05il s'agit, vous savez, l'IA permet de faire la même chose plus vite.
10:10Donc, quelque part, un espèce d'emballement
10:12avec le danger d'être poussé à l'hyper-productivité,
10:15ou la même chose différemment, ou éventuellement de faire autre chose,
10:18c'est-à-dire de bâtir des nouveaux business models.
10:20Et nous, ce qu'on pousse pour les entreprises,
10:23c'est une stratégie qui va consister à faire les trois à la fois.
10:25D'accord, on accélère, on augmente la productivité,
10:28mais aussi, on réorganise,
10:30parce que si on a moins besoin de certaines personnes,
10:32on va fonctionner différemment.
10:33Je pense, par exemple, à une grande entreprise de télécommunication
10:36qui a décidé de changer le fonctionnement de ce centre d'appel,
10:39parce que soit on pouvait avoir plus de monsieur ou madame untel
10:43qui appellent pour dire que la box ne fonctionne pas,
10:45mais au bout d'un moment, pour les opérateurs,
10:47c'est quand même dangereux pour la santé mentale
10:48d'avoir constamment des gens qui se plaignent,
10:50et puis en avoir plus, plus dans la journée, c'est insupportable.
10:52Et en fait, ils ont dit, non, non, une fois que tout le monde aura appelé,
10:54on va travailler par poule de clientèle,
10:56vous allez peut-être les rappeler pour vérifier que tout s'est bien passé,
10:59et là, ça fidélise la clientèle et ça a beaucoup de valeur.
11:03Vous allez les rappeler pour leur proposer des services complémentaires,
11:06vous allez les rappeler pour d'autres choses,
11:07et en fait, on se rend compte qu'on augmente les chiffres d'affaires moyens,
11:10on fidélise le client, en fait, on change complètement la stratégie,
11:14mais ça demande d'être inventif plutôt que de dire,
11:16non, ce que vous faites, faites-le juste plus vite et moins cher.
11:20Ça, c'est le no-brainer, mais c'est un peu limité.
11:22Mais le fait de remettre quand même cette étude à Clara Chappas,
11:25c'est que vous attendiez quelque chose,
11:27une petite étincelle chez le politique quand même.
11:29Alors, ce qu'on a vu, effectivement, et ça, c'était le cas de Clara,
11:32mais c'est aussi le cas d'Anne Hénanf,
11:34qui s'est vraiment saisie de ces sujets-là actuellement,
11:36c'est d'aller dans les entreprises pour porter aussi ce message d'une intégration,
11:42et je pense que c'est ça qu'ils font de leur côté,
11:45et je pense qu'ils le font bien.
11:47C'est-à-dire que petit à petit, comme ils ont accès aux comex entreprises,
11:50nous aussi, on est invités assez régulièrement à les rencontrer,
11:52mais je pense qu'avec une forme d'autorité,
11:55ils peuvent faire passer des messages,
11:56et puis ils ont continué à travailler en lien avec l'OIT,
11:59il y a un groupe de travail.
12:00À terme, j'espère que des normes,
12:02un peu comme on a des normes environnementales,
12:04des normes IA vont émerger, mais ça, ça prend du temps.
12:07Donc je dirais...
12:08Il n'y a pas forcément encore la maturité nécessaire sur cette transformation.
12:11Voilà, voilà.
12:12Mais ce qu'ils font déjà à court terme,
12:14c'est accompagner le secteur, toute la filière,
12:17dans une transformation,
12:18qui est une transformation créatrice de valeur et respectueuse de l'humain.
12:22Vous avez aussi mené une étude sur l'autonomie stratégique de l'Union Européenne,
12:26vous en avez parlé, des sujets de la souveraineté.
12:29Pourquoi est-ce que c'est un sujet porté par la Fondation ?
12:32En fait, l'autonomie stratégique, ça peut paraître un peu éloigné
12:36de Human Technology Foundation.
12:36Puisque vous avez des grandes entreprises internationales,
12:39si j'ai bien compris, parmi vos membres.
12:41Alors, en fait, il y a deux choses.
12:42La première chose, c'est qu'on ne peut pas, comment dire,
12:46mettre en œuvre ces valeurs si on n'est pas autonome.
12:49Si on n'est pas autonome, c'est wishful thinking,
12:51c'est-à-dire, en fait, je brandis des valeurs,
12:53mais derrière, je n'ai pas les moyens de les mettre en œuvre.
12:57En fait, on ne peut les mettre en œuvre que si on maîtrise de bout en bout,
13:00par exemple, la façon dont une IA va fonctionner,
13:03la façon dont on gère nos données, la sécurité, la confidentialité, etc.
13:07Donc ça, ça explique pourquoi on s'est saisi de ça.
13:11Alors après, l'autonomie stratégique,
13:13et nous, c'est un peu ce qu'on défend,
13:15c'est que ce n'est pas une autarcie.
13:16Et là aussi, on est quand même plutôt aligné avec le gouvernement.
13:19Ce n'est pas une autarcie.
13:20Ce qu'il faut chercher, c'est plutôt de redevenir,
13:24comme disait Henrique Coletta,
13:26redevenir des partenaires et ne plus être seulement un marché.
13:29C'est-à-dire, travailler avec, par exemple, des entreprises américaines,
13:31en soi, ce n'est pas un problème.
13:34À partir du moment où on est certain
13:36qu'on est aussi, dans l'autre sens,
13:38capable de fournir des services,
13:40par exemple, aux États-Unis ou à d'autres,
13:42des pays comme Israël le font très bien.
13:44Ils sont très dépendants de sociétés américaines.
13:46Et en même temps, toute une partie des technologies
13:48de défense, de renseignements et autres
13:51développées en Israël sont nécessaires pour les États-Unis.
13:54C'est le cas d'ASML, par exemple,
13:55avec la lithographie, donc le design des puces.
13:58C'est le seul exemple, pratiquement.
13:59Et alors, effectivement, il y a aussi d'assosystèmes
14:02qui est nécessaire pour l'aéronautique aux États-Unis.
14:05Mais justement, des exemples comme ASML,
14:07qui ont une forme de monopole, je dirais,
14:09et une compétence spécifique,
14:11il nous en faudrait une vingtaine dans des domaines différents.
14:14Ça peut être dans le quantique,
14:15mais il faut trouver les niches dans lesquelles on est bon
14:19et quelque part, il faut qu'on ait des cartes à échanger.
14:22Et dans ces cas-là, on joue.
14:23Effectivement, on a des atouts.
14:24Les autres ont des atouts, mais ce sont des partenaires.
14:27Ce ne sont plus ni des adversaires, ni des gens qui,
14:30d'une façon ou d'une autre, d'un point de vue géopolitique,
14:32pourraient nous dominer.
14:33Mais où est-ce que ça se joue au sein de la fondation ?
14:37Vous échangez des cartes ?
14:39Comment vous traitez, vous abordez ce sujet ensemble ?
14:42Alors, en fait, ce qu'on a fait d'abord,
14:43c'est qu'on a travaillé avec des avocats d'un grand nombre de pays
14:46pour identifier toutes les vulnérabilités liées à la réglementation,
14:51à l'extraterritorialité du droit de certains pays, par exemple,
14:54des vulnérabilités technologiques aussi.
14:56Et on est en train de voir en ce moment
14:58comment les différentes entreprises européennes,
15:01mais pour certaines aussi en consortium avec les Américains,
15:03mettent en œuvre des solutions pour leurs clients
15:06permettant de limiter ces risques.
15:09Ça ne résout pas tout, mais à court terme,
15:12ça permet déjà de contingenter les risques.
15:14Et puis après, il faut se dire que certaines données,
15:16finalement, ne sont pas si importantes que ça,
15:18donc ne peuvent être pas forcément sécurisées,
15:20là où d'autres doivent être mises dans des clouds extrêmement protégés.
15:24Et c'est là qu'il y a toute une réflexion à mener.
15:26Donc ça, c'est la première chose,
15:27c'est effectivement à court terme, contingenter le risque.
15:30Et à moyen terme, on travaille en ce moment
15:32avec un certain nombre d'acteurs, je ne peux pas tout dire,
15:35mais notamment des acteurs publics,
15:37un certain nombre de sommets internationaux
15:39vont avoir lieu dans les prochains mois.
15:41Parlez du sommet en Inde sur l'intelligence artificielle.
15:44Par exemple, et puis on va avoir des sommets bilatéraux
15:46avec différents pays, dont l'Italie.
15:48Et puis effectivement, il y a le G7.
15:49Voilà, il y a un certain nombre d'échéances qui arrivent,
15:51qui seront l'occasion de poser un certain nombre de pierres
15:55pour faire avancer cette stratégie.
15:57Et autour de quelques axes,
15:59le premier, c'est la rétention des talents.
16:02Il faut faire revenir, il faut attirer les cerveaux
16:04qui, pour certains, sont européens
16:06où ont été formés en Europe.
16:08Donc ça, ça veut dire réorganiser la recherche,
16:11mutualiser la recherche entre pays,
16:12faire en sorte qu'on ne soit pas en compétition intra-européenne,
16:15ce qui est stupide.
16:16Il vaut mieux fédérer qu'être en compétition.
16:19Le deuxième point, c'est financer.
16:20On n'a pas de fonds de pension.
16:22Et donc effectivement, il nous manque
16:25un élément clé, notamment pour ce qu'on appelle
16:27le late stage, c'est-à-dire les entreprises
16:28qui ont grandi et qui vont chercher
16:30100, 200, 300 millions.
16:31Et là, ils vont aller sur des marchés un peu plus profonds
16:34qui peuvent être Etats-Unis,
16:35qui peuvent être les Émirats, etc.
16:37Et là, il faut pouvoir leur apporter cet élément-là.
16:40Donc le financement peut-être conjoint
16:42de projets européens.
16:43En ce moment, il y a l'alliance Bromo
16:44qui s'est mise en place dans le spatial.
16:46Donc c'est Thales, Leonardo et Airbus
16:49qui se mettent en consortium
16:51pour être beaucoup plus forts.
16:52Des alliances comme ça,
16:53il faudrait qu'on en ait une quinzaine au niveau européen
16:56dans l'espace, dans les semi-conducteurs,
16:58dans le cloud, dans l'IA.
17:00Ça, ça nous donne de la résilience,
17:02ça nous donne de la force.
17:03Ça veut dire qu'il faut avoir des grands projets,
17:04il faut avoir une vision,
17:06il faut identifier aussi les...
17:07Vous parliez des axes prioritaires,
17:09il faut les identifier.
17:10Est-ce qu'on les a identifiés ?
17:11En fait, on commence à les voir émerger.
17:13Le problème, c'est qu'on voit bien
17:15avec l'IA Générative,
17:17le nouveau champion,
17:18il change quasiment tous les six mois.
17:20Et on dit, le meilleur pour ça,
17:22c'est tel modèle,
17:22puis six mois après, on vous dira, c'est un autre.
17:24Et effectivement, ça va très vite.
17:25Donc il faut essayer d'identifier,
17:26comment dire, des axes,
17:28tout en restant suffisamment ouverts
17:30pour capter la petite innovation dans le quantique
17:34qui va permettre, par exemple,
17:36de lier quantique et IA
17:38au sein de même data center.
17:40Des choses comme ça.
17:41Mais effectivement, ce travail-là,
17:43on est en train de le faire
17:44et la fondation, modestement,
17:46joue son rôle de catalyseur
17:48en rassemblant des acteurs privés,
17:51des acteurs étatiques
17:53et des universitaires.
17:54Et donc vous serez en Inde,
17:55là, pour le sommet de l'intelligence ?
17:56Alors là, ce n'est pas moi qui vais y aller,
17:58cette fois-ci.
17:59J'étais très présent à Paris
18:01et je serai sur d'autres sommets,
18:04notamment autour du G7.
18:05Mais je pense qu'il faut essayer
18:07de se répartir un peu.
18:08En fait, on est tout un réseau
18:09et on essaie de fonctionner,
18:11de faire fonctionner à plein ce réseau.
18:13Et qu'est-ce que vous prévoyez pour le G7 ?
18:14C'est un peu plus proche de nous ?
18:16Alors, ça, c'est encore un peu confidentiel.
18:18Ah, c'est le mois de juin, ça arrive très vite !
18:20Alors, le G7, ce n'est pas seulement le mois de juin.
18:24Le mois de juin, c'est Evian,
18:26ce sera politique, ce sera les chefs d'État.
18:28Mais après, il y a un Tech7,
18:30qui sera notamment porté par Numéum,
18:32donc avec toute la filière.
18:34Il y a un B7 avec le MEDEF.
18:37Et puis, il y aura d'autres rendez-vous sectoriels.
18:39Et donc, en fait, tout ça va s'étendre
18:40jusqu'au Paris Space Forum en novembre.
18:43Et donc, en fait, là, il y a toute une série
18:44de rendez-vous sur lesquels on est en train de travailler.
18:47Donc, je ne peux pas encore vous les dévoiler
18:48tant qu'il soit signé.
18:49Mais sachez que beaucoup de choses vont se passer
18:51et que, sur ce sujet-là,
18:53de l'autonomie stratégique...
18:54Dans le domaine de la souveraineté,
18:55enfin, l'autonomie.
18:56Dans le domaine de la souveraineté
18:57ou de l'autonomie stratégique,
18:59je pense qu'un certain nombre d'annonces seront faites,
19:01d'alliances vont se mettre en œuvre.
19:02Voilà, les choses devraient beaucoup bouger
19:04d'ici la fin de l'année.
19:06Voilà, moi, je suis très confiant là-dessus.
19:09Voilà, reparlons-nous bientôt.
19:11Ah, vous êtes fort pour le teaser.
19:13Merci beaucoup, Éric Salubierre,
19:15d'avoir été avec nous
19:16dans la grande interview de Smartech.
19:17Et merci à tous de nous avoir suivis
19:19sur la chaîne de Bsmart.
19:20On se retrouve dès demain
19:21pour de nouvelles discussions sur la tech.
19:23Merci à vous.
19:23Sous-titrage Société Radio-Canada
19:31Sous-titrage Société Radio-Canada
19:32Sous-titrage Société Radio-Canada
Commentaires