- il y a 3 heures
Pour réduire sa dépendance aux technologies étrangères, l’État accélère sa stratégie de souveraineté numérique. Linux pourrait progressivement remplacer Windows dans l’administration et plusieurs outils souverains sont en cours de déploiement. Objectif : reprendre le contrôle des infrastructures numériques publiques.
Catégorie
🗞
NewsTranscription
00:03C'est parti pour le grand débrief de l'ActuTech, il est 10h45, vous nous regardez en direct sur la
00:08chaîne Bismarck.
00:09Aujourd'hui autour de la table pour commenter cette actualité effervescente, j'ai le grand plaisir de recevoir Miquim Chicli.
00:15Bonjour Miquim.
00:16Bonjour Daphine.
00:16Conseillère de dirigeant, vous êtes une experte en stratégie tech et data.
00:20Et puis en face de vous, Julien Pillot. Bonjour Julien.
00:22Bonjour Daphine.
00:23Très heureuse aussi, enseignant-chercheur en économie à l'INSEC.
00:26Et Georgie Courtois, bonjour Georgie.
00:27Bonjour Daphine.
00:28Très heureuse également de vous accueillir, il n'y aura aucune exception aujourd'hui.
00:32Je vous aime tous.
00:34Et Georgie, vous êtes avocat.
00:37Voilà, alors on va confronter nos points de vue sur ce petit village gaulois, la direction interministérielle du numérique,
00:43qui adore visiblement la BD d'Astérix, puisqu'elle a décidé de lancer Securix et Burotix comme des solutions pour
00:50remplacer Windows.
00:52On va parler aussi de Mark Zuckerberg, qui a envie d'avoir son avatar CEO.
00:57Voilà, un patron IA qui l'aiderait à prendre ses décisions, mais aussi à communiquer avec ses équipes.
01:02On en pense quoi ? Un peu mégalo ? Un peu dangereux ? Alors on va aussi s'interroger sur
01:06la dangerosité,
01:07puisque Anthropique, lui, a décidé de reporter son nouveau modèle de langage mythos, en nous disant que c'était trop
01:14dangereux.
01:15Alors mythos, mythos, bon bref, vous avez compris mythos ou pas mythos.
01:19On va aussi parler du gouvernement britannique, qui resserre la vis autour des plateformes,
01:24puisque désormais, les big tech seront menacés de peine de prison pour la diffusion d'images intimes non consenties.
01:32Mais on commence avec un contre-modèle, justement, de réseau social.
01:35Il est français, il s'appelle Bulle.
01:38Il se veut une réponse au TikTok et Instagram.
01:41Et pour lancer cette discussion, nous sommes connectés avec Clément Ettore.
01:44Bonjour Clément.
01:46Bonjour, bonjour à tous. Merci de nous recevoir.
01:48Avec grand plaisir. Vous êtes le fondateur et président de Bulle, dont la maison mère est Chabon, si j'ai
01:54bien noté.
01:55Oui, Chabon, ça veut dire Bulle de Savon en japonais.
01:58Ah, très bien.
02:00C'est pas un peu présomptueux de lancer un réseau social français pour s'attaquer à des TikTok et Instagram
02:05?
02:06Oui, tout à fait. Alors justement, c'est pour ça que c'est pas un réseau social, tout à fait.
02:10C'est vraiment différent.
02:12On aborde la chose de manière totalement différente.
02:15C'est un média plutôt qu'un réseau social.
02:17C'est à mi-chemin entre un réseau social et la télévision.
02:19Donc c'est pour renouer avec un socle informationnel un peu sain.
02:23Donc non, on s'attaque pas aux réseaux sociaux, on propose autre chose.
02:27L'idée, parce que c'est comme ça que vous le vendez quand même sur votre site,
02:31l'idée c'est quand même de proposer une autre façon d'être connecté avec ses pairs, ses camarades,
02:36et puis même son réseau, pourquoi pas professionnel.
02:38Mais alors, comment est-ce que vous vous y prenez pour être différent ?
02:42Alors justement, pas tellement.
02:44C'est-à-dire qu'il ne faut pas le voir comme les réseaux sociaux d'il y a 20
02:47ans.
02:47Il faut le voir comme ce que sont devenus les réseaux sociaux aujourd'hui.
02:50Par exemple, TikTok, Instagram, aujourd'hui, 70% des jeunes ne s'en servent pas pour poster des choses.
02:55En fait, ils s'en servent pour consommer de l'information.
02:58Donc par exemple, regarder des médias ou des créateurs de contenu qui leur font apprendre des choses.
03:03Et nous, on a pris ce positionnement-là de dire, vous n'allez pas sur bulle pour discuter avec vos
03:08amis,
03:08pour poster des choses, vous ne pouvez pas poster des choses.
03:11Les seules personnes qui peuvent poster des choses, ce sont des créateurs de contenu et des journalistes
03:16qui respectent une chaire de déontologie stricte.
03:18Et donc c'est comme ça qu'on met fin finalement au cyberharcèlement, à la désinformation, etc.
03:22Par contre, sur la forme, ça ressemble exactement à TikTok, Instagram.
03:25Donc ça permet d'assainir ces modèles-là, mais ce n'est pas un réseau social communautaire
03:29comme on a pu le voir il y a 20 ans pour un média social.
03:33Alors c'est plutôt quoi ? Un YouTube qui aurait la forme d'un TikTok ?
03:39Oui, on peut le voir comme ça, effectivement.
03:42Effectivement, c'est ça.
03:44Moi, je le vois comme un TikTok sur lequel il n'y a pas de contenu dangereux pour les enfants,
03:49sur lequel il n'y a pas de pseudo-médecin qui vous explique qu'il faut mettre fin à votre
03:53traitement
03:54sans avoir fait les études pour.
03:56Voilà, donc c'est plutôt un TikTok assaini, c'est comme ça que je le vois.
04:00D'accord.
04:01Vous dites que c'est pour protéger contre la désinformation,
04:04qu'il y aura des créateurs de contenu habilités à poster.
04:08Mais alors comment vous allez faire pour les sélectionner ?
04:10Comment vous garantissez que l'information sera fiable ?
04:13Et qu'on pourra vraiment être dans un espace de confiance ?
04:16Alors l'objectif, ce n'est pas de faire un ministère de la vérité
04:19qui sélectionnerait simplement les personnes qui nous arrangent.
04:22L'idée, c'est de pouvoir laisser rentrer tout le monde tant que ça reste dans notre charte de déontologie.
04:27Et cette charte de déontologie, elle est publique.
04:29Elle se base sur la charte de Munich, qui est celle des journalistes, justement,
04:33qui fixe un cadre clair sur, par exemple, justement, la désinformation,
04:38ne pas faire d'appel à la haine, ne pas faire de cyberharcèlement.
04:41Et donc, tout créateur doit se soumettre à cette charte de déontologie.
04:46Et c'est comme ça qu'on garantit qu'on a un espace sain.
04:48Donc, il doit d'abord postuler pour rentrer.
04:52Nous, on fait une sélection en amont sur le créateur.
04:53Après, on ne vérifie pas tous les contenus.
04:55Il y aura une modération a posteriori.
04:57Mais ça nous permet, comme ça, de pouvoir réagir
04:59si jamais il y a un contenu qui sort de cette charte de déontologie.
05:02Oui.
05:03Alors, ça, c'est pour la partie confiance.
05:05Il y a la partie modèle économique.
05:07Parce que si vous faites référence aux médias,
05:09aujourd'hui, c'est quand même un sacré défi de trouver le bon modèle économique.
05:11Vous n'êtes pas sur le modèle de l'attention, j'imagine ?
05:15Alors, on est sur le modèle de l'attention.
05:17Ce qu'il faut bien comprendre, c'est que…
05:18Attention, attention, avec le modèle de l'attention, cher ami.
05:22Alors, dans le modèle de l'attention, ce qu'il faut bien comprendre,
05:24c'est que le problème des GAFAM, c'est qu'ils ont poussé à l'extrême ce modèle de l
05:28'attention
05:29pour chercher à maximiser leurs revenus.
05:30Mais il faut bien comprendre qu'il y a des pubs à la télévision,
05:34comme chez vous, il y a des pubs partout.
05:35Donc, nous, on a un modèle de publicité.
05:37Mais ce n'est pas pour autant qu'on est obligé de faire sombrer les gens
05:40dans une addiction profonde et les faire passer 4 heures sur bulle.
05:42On peut très bien avoir un modèle viable sans ça.
05:44Vraiment, il faut faire attention à ne pas croire qu'on est obligé
05:48de rendre un réseau social toxique pour le rendre rentable.
05:51Non, il faut le rendre toxique pour le rendre hyper rentable, entre guillemets,
05:55et faire des super profits.
05:57Mais ce n'est pas l'objectif de bulle.
05:59Et puis, il y a aussi des comptes premium, bien sûr.
06:00Il y a des comptes premium, un modèle économique aussi parallèle.
06:04Sur les médias, en l'occurrence, vous parlez de la publicité.
06:08Oui, c'est un modèle.
06:09Mais il y a aussi le modèle payant, justement,
06:11qui permet d'avoir une certaine indépendance vis-à-vis de cette économie de l'attention.
06:16Donc, vous ferez aussi du premium.
06:18Une première réaction autour de la table, Julien ?
06:20Bonne chance.
06:21Oui.
06:22Non, mais bonne chance, parce qu'il faut réussir là où d'autres ont échoué.
06:26Alors, peut-être avec moins de volonté de rompre réellement avec les algorithmes addictifs.
06:31Mais je pense à Mastodon, je pense à BlueSky, par exemple,
06:34qui n'ont pas réussi à se frayer un chemin face à X ou à un degré moins de Snap,
06:39TikTok et Instagram.
06:42Et puis, le fait d'avoir, effectivement, des comptes d'abonnement payants
06:47n'est pas un obstacle à la mise en place d'algorithmes qui seraient extrêmement addictifs.
06:52On le voit d'ailleurs avec X, le fait d'avoir la petite coche bleue qui est désormais payante
06:56n'empêche pas du tout, du tout, la direction de X d'avoir une gouvernance
07:00qui est complètement propice à la diffusion de ce type d'algorithmes.
07:03Donc, c'est là qu'il faudra que vous soyez vigilant au niveau de votre gouvernance, chez Bull,
07:07de faire attention à ce que vos bonnes intentions de départ ne s'effacent pas
07:12au gré des pressions actionnariales.
07:14Réponse, là-dessus ?
07:16Oui, je tiens à préciser que ça risque d'être assez facile
07:20parce qu'en fait, nos algorithmes sont transparents.
07:22Donc, vous avez la formule mathématique qui est sur le site pour la première fois.
07:25C'est la première fois que des gens découvrent ce que c'est qu'un algorithme.
07:28Il y a même un simulateur sur le site pour les gens qui sont moins à l'aise avec les
07:31maths.
07:32Nous, on fait le pari de dire que nos algos sont complètement transparents.
07:35Si jamais on décide de rompre un jour avec ce modèle pour des raisons business,
07:39je pense qu'on perdra toute crédibilité et toute la confiance des utilisateurs qui sont venus sur Bull.
07:44Je tiens à préciser qu'aujourd'hui, ces algorithmes-là,
07:46qui ne sont pas du tout conçus pour être addictifs,
07:48qui sont conçus pour lutter contre la désinformation et contre les clivages surtout,
07:52fonctionnent très bien.
07:53On voit très bien que les centaines et milliers d'utilisateurs qui sont sur Bull
07:56passent du temps dessus, passent un bon moment, apprennent des choses et sont contents de y être.
08:01Mais il fait quoi cet algorithme ?
08:02C'est quand même de la recommandation en fonction de ce que j'ai déjà regardé ?
08:06Non, pas du tout.
08:07Quelle est la règle que vous avez décidé d'imposer ?
08:10C'est très important.
08:12L'objectif de Bull, Bull au singulier,
08:14pas comme les bulles au pluriel qui nous enferment dans nos modes de pensée.
08:18L'objectif de Bull, c'est d'avoir un socle commun d'information.
08:21Si aujourd'hui, on est capable de faire société,
08:23moi, je suis convaincu que ce n'est pas à cause des réseaux sociaux, malheureusement.
08:26C'est surtout parce que pendant longtemps, on a eu et on a toujours le même journal de 20 heures.
08:30Donc, c'est très important d'avoir un socle informationnel commun pour faire société.
08:34Donc, les algorithmes, en fait, ils vous recommandent exactement la même chose à tout le monde.
08:38Le seul moyen de personnaliser son algorithme, c'est de le faire soi-même en déclarant des centres d'intérêt.
08:42Par exemple, si vous aimez le bricolage, vous pouvez dire j'aime le bricolage
08:44et vous aurez un filtre possible sur le bricolage, par exemple.
08:48Vous pouvez aussi vous abonner à des créateurs, des créatrices ou des médias.
08:51Donc, vous pouvez personnaliser votre algorithme vous-même,
08:53mais par contre, ce n'est pas votre usage qui va vous enfermer dans ce que vous pensez.
08:57Il y a un seul algorithme qui est centré sur l'utilisateur comme ça et qui dépend de l'usage.
09:03C'est l'algorithme contradictoire que vous pouvez sélectionner
09:07pour avoir accès à la contradiction, finalement.
09:10C'est-à-dire voir l'inverse de ce que vous avez l'habitude de penser ou de voir.
09:13C'est de l'anti-TikTok ou de l'anti-Instagram, si vous voulez.
09:17Et ça fonctionne très bien.
09:18C'est comme ça que j'ai commencé, vous m'avez dit « Ah non, non, pas du tout. »
09:20Alors, bon, mais d'accord, merci d'être d'accord avec moi à la fin.
09:24Alors, bravo et merci.
09:25Je trouve que c'est une très jolie initiative.
09:28De ce que j'entends et de ce que je comprends,
09:31en fait, Clément, j'ai l'impression que vous avez pris le meilleur de tous les tests
09:35qu'ont fait ces grands de ce monde dans la tech,
09:38avec la privacy sandbox de Google sur le cookie list,
09:44avec toutes ces initiatives-là.
09:46Oui, pas de collègue de données personnelles.
09:47Non, tout à fait.
09:48Limité.
09:49Mais en fait, toutes ces initiatives pour essayer de faire quelque chose
09:53de beaucoup plus vertueux.
09:55C'est vrai.
09:57Sans chercher à être parfait,
09:59parce qu'à ce moment-là, vous allez certainement être confronté
10:02à la problématique de taille, la scalability,
10:07pour que votre business soit rentable.
10:10Donc, vraiment, bravo et merci de cette initiative.
10:15Je trouve ça très intéressant parce que c'est dans la mouvance de...
10:20Vous savez, aux États-Unis, Meta a été condamnée
10:22en raison de l'addiction que son modèle a créée sur une utilisatrice.
10:28Donc, c'est vraiment dans la mouvance du contrôle serein des médias
10:33et dans une ligne éditoriale.
10:35Donc, c'est plutôt intéressant.
10:37Après, il faut voir, TikTok en Chine n'est pas du tout le TikTok qu'on a en Europe.
10:40Et TikTok en Chine pousse du contenu plutôt qu'il vient,
10:44qui est censé apprendre des choses intéressantes aux utilisateurs.
10:48C'est peut-être finalement un TikTok chinois à la française.
10:52On aura vraiment fait le tour de toutes les similarités.
10:56On peut savoir où sont stockées les données ?
10:57Ah, voilà. Elles sont stockées où, les données ?
11:00Les données sont stockées chez nous, sur nos serveurs à Paris.
11:04Donc, voilà.
11:04Alors, actuellement, on essaie de travailler avec...
11:07On a une partie sur OVH, on a une partie sur AWS, on ne s'en cache pas.
11:09On essaie de travailler avec Scaleway aujourd'hui pour migrer nos données à Scaleway.
11:13Donc, je leur passe un appel. J'en profite pour leur passer un appel.
11:15Ils nous écoutent en plus.
11:16Scaleway, ils nous aiment bien. Il n'y a pas de problème.
11:18Eh bien, je serais ravi de travailler avec eux.
11:20Je tiens à préciser une chose.
11:22On a une protection des mineurs par défaut.
11:24Peu importe l'âge que vous déclarez, vous aurez une limite d'usage à 1h30 par jour
11:27et un couvre-feu la nuit, en fait, finalement.
11:29Donc, on renverse un peu les choses pour recoller avec le DSA directement.
11:34C'est très important pour nous.
11:35Le seul moyen de faire tomber le couvre-feu et la limite d'usage, c'est de vérifier son identité.
11:40Mais on peut rester parfaitement anonyme sur Bulle en rentrant sur le réseau
11:43parce que, par défaut, tout le monde est considéré comme mineur pour les protéger.
11:47C'est très important pour nous.
11:48Bon, écoutez, attestez.
11:50Voilà, attestez.
11:51Et c'est vrai, bonne chance.
11:52On a envie de vous souhaiter bonne chance, je suis d'accord.
11:53Merci.
11:54Parce qu'il va falloir convaincre.
11:56Il va falloir convaincre.
11:57Et puis, faire migrer des gens d'une plateforme à une autre.
11:59C'est très dur.
12:00C'est très dur.
12:01Merci beaucoup, Clément Ettore.
12:03Je rappelle que vous êtes le fondateur et président de Bulle.
12:06On s'intéresse maintenant à la DINUM, la direction interministérielle du numérique,
12:10qui lance Securix, Burotix pour remplacer Windows.
12:14Visuellement, ce sont des grands fans de la BD Astérix.
12:17Donc, ils ont choisi, en fait, pour être tout à fait précis, de lancer leur propre distribution Linux
12:23pour remplacer le système d'exploitation de Microsoft sur les postes de ses agents.
12:29On n'est pas en train de parler d'une migration de l'ensemble de l'État ou de l
12:32'administration.
12:33Donc, c'est 234 postes qui sont concernés.
12:36Securix, c'est pour la partie OS sécurisée.
12:39Et Burotix, c'est pour les postes de travail.
12:42Alors, qu'est-ce que vous dites à cette initiative ?
12:45Déjà, vous sortez un carton rouge ou un carton vert à cette initiative.
12:50Oh là là, super, génial !
12:52On s'en susse.
12:54On s'en susse presque.
12:55Presque.
12:56Alors, qui commence ?
12:57Ce qui est intéressant dans cette démarche, c'est qu'on voit, encore une fois,
13:02que l'impact de la détention avec les États-Unis a un impact aussi sur l'informatique
13:08et sur la souveraineté, avec une prise de conscience, notamment de l'État français,
13:11de ne pas rester potentiellement soumis à des acteurs américains.
13:16Donc, on est dans cette bouvance-là.
13:17C'est très intéressant.
13:19Après, voyons comment ça va être appliqué dans les faits.
13:22Et si jamais, après, c'est déployé sur l'ensemble des postes,
13:26parce qu'actuellement, effectivement, c'est juste à la DINUM.
13:28Mais l'objectif, à terme, ce serait éventuellement de déployer dans toute l'administration française.
13:32Il y a des groupes de travail qui ont été lancés en ce sens.
13:35Oui, voilà, ça a été, normalement, il devrait y avoir une grande réunion
13:37pour que ça puisse élargir, cette initiative puisse élargir aux autres administrations.
13:42Ça dit, il y en a qui ont déjà fait le pas.
13:44Je veux dire, la DINUM n'est pas forcément toute seule aujourd'hui
13:47à avoir chassé Windows de ces places de travail.
13:49C'est encore très loin de couvrir les millions d'agents de l'État
13:53dans les différentes administrations.
13:55Vous avez mis des cartons verts, donc vous êtes tous d'accord.
13:57Mais peut-être des choses à rajouter pour Ascatine et Georgie ?
14:01Effectivement, c'est plutôt intéressant.
14:02Et puis, effectivement, on voit comment les tensions géopolitiques internationales
14:05amènent à des réactions qui sont conformes à la préservation de nos intérêts.
14:10Encore faut-il que les solutions en question soient opérantes,
14:14qu'elles soient performantes, qu'elles soient interopérables
14:16avec d'autres types de systèmes d'exploitation
14:18ou d'autres types de fichiers parfaitement interopérables.
14:20Ce qui posera aussi des questions de toute façon de sécurité des données.
14:25Et puis, effectivement, il ne faudrait pas qu'on se retrouve bloqués
14:28comme le village gaulois, pour filmer la métaphore avec Asterix,
14:31dans un monde qui évoluerait en partageant des interfaces,
14:35des logiciels, etc.,
14:36qui ne soient pas parfaitement compatibles avec les notes
14:39parce qu'on se retrouverait effectivement avec des problématiques d'économie d'échelle
14:42où on se retrouverait avec des solutions plus coûteuses,
14:44pas forcément plus performantes.
14:45Et ça nous enfermerait dans un modèle qui, je pense,
14:47ne serait pas souhaitable sur le long terme.
14:49Donc, j'ai mis un carton vert pour la démarche.
14:52Maintenant, je reste vigilant sur la question économique.
14:54Un peu comme moi quand même, il y a un petit rouge.
14:56Oui, il y a la problématique de la taille à nouveau.
14:59Comment on va pouvoir diffuser plus largement cette pratique ?
15:04Et ce que je trouve assez intéressant,
15:06c'est que c'est vraiment en concordance avec le AI Act
15:11sur le no-go, sur les données ultra-sensibles
15:14où il faut vraiment protéger au maximum ces informations.
15:19Et l'État possède la majorité de nos informations en tant que citoyens.
15:23Absolument.
15:24Moi, j'ai mis un petit rouge quand même
15:25parce que cette tendance à tout faire soi-même
15:27de l'adénume en énerve certains,
15:30et je le comprends,
15:30au sein de l'écosystème tech et des PME en particulier.
15:34Et puis, surtout, sur la question de l'interopérabilité
15:36parce qu'il y a d'autres administrations,
15:38par exemple la Gendarmerie Nationale
15:39qui a fait ce switch,
15:41mais à partir d'une autre,
15:43qui a créé une autre distribution,
15:45et qui n'a pas utilisé non plus le même noyau.
15:47Enfin, là, ça rentre un petit peu dans la technique.
15:49Mais je voulais reprendre, en fait,
15:51une question de Loïc Duval,
15:53qui est un confrère que j'apprécie beaucoup
15:55depuis de longues années,
15:55avec qui j'ai même travaillé.
15:57Il a écrit dans Informatic News
15:58« Est-ce qu'il n'aurait pas été préférable, finalement,
16:00de commencer par officialiser un vrai Linux européen ? »
16:04Parce qu'on sait qu'il y a une attente aujourd'hui
16:06pour avoir une direction commune
16:08au niveau européen pour les États et les administrations.
16:11Et là, on risque, oui,
16:12de se retrouver avec une mosaïque, en fait,
16:13de distributions qui ne vont pas être compatibles entre elles,
16:16au sein même de l'État français
16:18et entre les États membres.
16:19Et le code est sur GitHub,
16:21qui appartient à Microsoft.
16:23C'est un peu...
16:24That's life, yes.
16:25Allez, on enchaîne avec notre revue de presse.
16:28Je voulais citer les échos, cette fois,
16:29avec un robot CEO.
16:31CEO, Mark Zuckerberg veut son clone IA
16:33pour parler aux salariés de méta.
16:35C'est le titre des échos.
16:37Alors, c'est quand même en cours de construction,
16:40de développement, nous dit le Financial Times.
16:43Vous mettez un carton rouge ou un carton vert
16:45à cette nouvelle idée de Mark Zuckerberg ?
16:50Ah, Mickey, mais...
16:51Ah non ?
16:52Alors, attends, je commence par le vert, quand même.
16:54Julien ?
16:54Non, mais en fait, c'est la résurrection du métavers
16:57sous une autre forme,
16:58qui est, de toute façon, un concept qui est très évolutif.
17:01Et c'est un concept que, moi, personnellement,
17:02je regarde plutôt avec des yeux assez bienveillants
17:04par rapport à l'économie que ça peut créer derrière.
17:06Non, moi, je mets un carton vert,
17:07parce que si ça apporte la démonstration
17:09qu'on peut se passer de certains CEOs
17:11aussi toxiques que Mark Zuckerberg,
17:12allons-y à fond.
17:14Mais non, mais il sera élevé,
17:16son apprentissage va reposer sur qui est Mark Zuckerberg.
17:19Il va surtout potentiellement apporter
17:21la démonstration qu'on peut se passer de lui.
17:23Donc, allons-y.
17:26Très confiant dans l'IA, Julien.
17:29Alors, une réaction plus mitigée chez Mickey ?
17:31Gros carton rouge sur l'approche
17:33et la mégalomanie de l'individu.
17:37Ça, je...
17:39Bon, bref, il n'y a pas besoin de commenter.
17:41En revanche...
17:42J'avais une équipe à ma disposition
17:44pour créer mon avataria qui m'aide à mes côtés.
17:46Je serais de plus d'accord, hein ?
17:48Oui, mais alors, d'où mon vert ?
17:49Oui, c'est ça, le point.
17:51Alors, bien sûr, je finis juste sur le rouge,
17:53parce que ce qui fait que nous sommes des humains
17:56et que nous allons cohabiter avec cet IA,
17:58c'est le lien, c'est la proximité,
18:01c'est ressentir les émotions.
18:02Bref, vous avez compris,
18:04je ne vais pas les développer sur ce terrain-là.
18:05En revanche, vert,
18:07parce qu'on ne va pas pouvoir lutter contre.
18:09Et qu'ils donnent le ton,
18:12ils donnent le là,
18:13ils tracent un sillon.
18:14Aujourd'hui, je travaille avec pas mal de boîtes
18:16qui sont en train de développer des assistants IA,
18:20CEO,
18:20où les CEO donnent l'ensemble,
18:22accès à l'ensemble de leurs données.
18:24D'accord.
18:25Et l'assistant gère au mieux l'ensemble des informations.
18:31Donc, ça va de prise de rendez-vous avec la banque
18:33parce que les données bancaires sont accessibles.
18:35Alors, ça se passe bien sûr aux Etats-Unis,
18:37où il n'y a pas forcément RGPD
18:38et toutes ces contraintes qu'on peut avoir.
18:41Mais pourquoi se priver de se faciliter la vie ?
18:44Je retourne quelques années en arrière,
18:46on ne va pas laver notre linge sale à la main.
18:48On est content d'avoir une machine à laver et un sèche-linge.
18:51Donc, après, la question, c'est comment,
18:54autour de ce progrès,
18:56cette innovation, cette révolution,
18:58on s'organise dans ce structure
19:00parce qu'on ne peut pas lutter contre.
19:01Donc, rouge contre Zuckerberg,
19:02mais vert parce que c'est le sens de l'histoire,
19:05il faut s'adapter.
19:06Ok, très bien.
19:07Georgie, on est rouge tous les deux ?
19:08Alors, moi, je suis rouge pour le côté mégalomaniaque
19:10de Zuckerberg.
19:12Le problème, c'est pas tant,
19:14et là, je suis d'accord avec Mickey,
19:16c'est pas tant l'utilisation des agents IA
19:17qui va devenir, en fait,
19:19quelque chose d'obligatoire dans la gestion,
19:21dans la productivité, ça, c'est super.
19:23En revanche, il va jusqu'à créer un avatar vidéoréaliste
19:28avec sa voix, ses intonations, etc.
19:30Donc, il se crée un vrai jumeau numérique.
19:33Et en fait, ça fait un peu,
19:35ça fait un peu, je ne sais pas,
19:37un complexe divin, je ne sais pas,
19:39qui va donner sa bonne parole à ses utilisateurs.
19:44Et puis, du coup, on est présent, toujours disponible.
19:46Du coup, c'est plutôt ça, moi, qui me gêne.
19:48Après, je suis, en revanche, totalement favorable
19:50à l'utilisation des agents IA,
19:52c'est nécessaire.
19:53Mais bon, c'est plutôt le côté mégalomaniaque
19:56qui me pose problème.
19:57Comme les 79 000 employés de Facebook
19:59attendaient la parole divine de Marc Zuckerberg
20:01pour prendre des décisions au jour le jour,
20:02en sonni entrepessant.
20:02Oui, parce qu'ils sont tous là,
20:03frappés à sa porte,
20:04mais tu ne peux pas nous répondre, maman.
20:06Moi, j'ai mis un rouge,
20:07parce que, oui, je suis d'accord avec Mickey,
20:09on a un risque de déshumanisation, quand même,
20:12aujourd'hui dans nos entreprises.
20:12J'ai un confrère qui me racontait
20:13qu'il appartient à un groupe américain.
20:15Ces entretiens annuels, ce sont des cases à cocher.
20:20D'accord ?
20:20C'est un formulaire.
20:21Il ne rencontre personne.
20:22Il n'a aucun retour sur cet entretien.
20:26Enfin, c'est quand même lunaire.
20:28Donc ça, premier carton rouge.
20:29Et puis ensuite, sur l'aide à la décision.
20:32C'est vrai qu'on nous dit,
20:33en fait, ce sont des aides, des IA,
20:34et tout ça, on va prendre des décisions.
20:35Mais quand on est Marc Zuckerberg,
20:37c'est-à-dire que c'est hyper incarné,
20:39aujourd'hui, les boîtes de la tech.
20:40Ça vaut pour Elon Musk,
20:43ça vaut pour Apple, pour Google.
20:45C'est très incarné par des patrons.
20:46Qui peut croire que Marc Zuckerberg
20:48va suivre une décision d'IA ?
20:49Marc Zuckerberg va être
20:50Marc Zuckerberg à la tête de MetaBasta.
20:54Voilà.
20:54Allez, autre info.
20:55On passe à France Info qui titre.
20:58La start-up Anthropik reporte la sortie
21:00de sa nouvelle IA Claude Mythos,
21:02jugée trop dangereuse
21:04pour la cybersécurité actuelle.
21:06En fait, c'est une IA qui apporte une nouveauté
21:10dans la cybersécurité.
21:11Elle va chercher elle-même les failles
21:13dans les logiciels.
21:13Et alors, elle en aurait trouvé tellement
21:14que ce serait tellement dangereux
21:16qu'il ne faudrait pas le mettre
21:17entre toutes les mains.
21:18Qu'est-ce que vous en pensez ?
21:19Carton jaune, euh, vert, rouge.
21:22Comme vous voulez.
21:24Pour ce report, qu'en dites-vous ?
21:28Oui.
21:29Voilà.
21:29Très partagé.
21:31Encore, pardon, désexcusez-moi.
21:32Tout le monde est d'accord, sauf moi.
21:33Tu fais qu'à veiller seul.
21:34Oui.
21:34Merci de votre soutien.
21:37Pourquoi vous êtes tous d'accord ?
21:38En fait, il y a aussi du storytelling.
21:40C'est hyper important
21:41parce que quand ils ont eu le report,
21:43ils ont expliqué qu'elle était extrêmement dangereuse,
21:46Claude Mythos,
21:47parce qu'elle avait réussi à s'échapper
21:48elle-même d'un environnement sécurisé, etc.
21:51Donc, il y a ce storytelling
21:52qui est un peu particulier.
21:54Oui, c'est énorme ce storytelling.
21:55Après, il y a quand même une initiative
21:57Glasswing
21:59qui réunit tous les acteurs de la tech
22:01pour contrôler l'utilisation de ces IA
22:03qui permettent notamment
22:05de détecter des failles d'héros.
22:06C'est important dans le sens où
22:07si jamais on met ça sur le marché
22:09sans contrôle
22:10et qu'on découvre tout un tas de failles
22:12qu'on n'est pas capable de combler,
22:14on a un risque systémique
22:18dans l'IT.
22:19Donc, vert pour cette prise de conscience.
22:21Et je pense d'ailleurs,
22:22c'est une position,
22:23c'est un positionnement d'anthropique
22:25peut-être versus OpenAI,
22:27d'être vraiment dans l'éthique,
22:29dans une approche humaniste.
22:31Oui, totalement.
22:32C'est de la com',
22:34mais si jamais la com',
22:35parfois,
22:35peut amener quelque chose de bien...
22:36S'agir sur les actes,
22:38OK.
22:38La com', ça marche.
22:42Ils ont une posture,
22:44et c'est pour ça que je mets ce verre.
22:48Ils ont lancé leur constitution
22:50avec cette fameuse philosophe écossaise.
22:54Je trouve que c'est bien,
22:55c'est vraiment conscientiser
22:57un tout petit peu ce qu'il y a derrière.
22:59Alors, peut-être que je pourrais te rejoindre
23:00un chouïa sur le rouge,
23:02c'est-à-dire qu'on est déjà
23:03dans un, on va dire,
23:05état d'esprit anxiogène,
23:06de façon générale,
23:08contre l'IA.
23:09Donc, ça n'arrange pas.
23:10Mais en même temps,
23:11l'idée, c'est plus
23:12de la prévention des risques
23:14et de montrer
23:15qu'on peut être responsable
23:16et que donc,
23:16on peut faire confiance
23:17à certaines IA.
23:19OK.
23:20Julien ?
23:22En deux mots,
23:24si c'est un coup marketing,
23:25il est réussi,
23:26parce qu'effectivement,
23:26tout le monde en parle.
23:28Mais si ça ne l'est pas,
23:30il y a quand même
23:30deux, trois éléments
23:31qui laissent à penser
23:31que tout n'est pas
23:32complètement bullshit marketing
23:34dans tout ça.
23:35C'est plutôt
23:37très intéressant
23:37comme démarche
23:38de mettre le principe
23:39de précaution
23:40au service de la communication,
23:40peut-être,
23:41mais aussi au service
23:41d'autres choses.
23:42Parce que si Mythos
23:44est capable de faire
23:44ce qu'on lui prête,
23:47ça créerait
23:49un énorme déséquilibre,
23:50en fait,
23:50tel qu'on ne peut pas
23:51l'imaginer
23:52entre des personnes
23:53qui auraient des intentions
23:54malveillantes
23:55et qui aura accès
23:56à des armes nucléaires
23:57qui leur permettraient
23:58de faire des attaques
23:58zéro-day un peu partout
23:59de façon systémique,
24:00comme le disait...
24:01Attaques zéro-day,
24:01c'est-à-dire de trouver
24:03des failles qu'on n'avait
24:03jamais identifiées auparavant.
24:05Exactement,
24:05et de mettre en défaut
24:07l'ensemble de nos systèmes,
24:08en fait,
24:08électroniques,
24:09de communication,
24:10de défense,
24:11etc.,
24:11versus des personnes
24:13qui jouent en défense
24:14et qui sont complètement
24:15désarmées
24:15vis-à-vis de ce type
24:17d'outils.
24:18Donc oui,
24:18effectivement,
24:19si effectivement,
24:20Mythos est capable
24:20de faire ce qu'ils prétendent
24:21pouvoir faire,
24:23le mettre en quarantaine
24:24sous surveillance actuellement,
24:26je pense que c'est vraiment
24:27la seule bonne décision
24:28à prendre.
24:29Moi,
24:29je trouve que vous êtes
24:30vraiment tous des victimes
24:31de la communication,
24:32parce que Mythos,
24:33ce n'est pas sous surveillance,
24:34en fait.
24:35C'est un outil nouveau
24:37qui permet de trouver
24:38des failles,
24:38chercher des failles
24:39en toute autonomie.
24:41Ça,
24:41OK,
24:41c'est intéressant pour
24:43augmenter la cybersécurité,
24:44je suis tout à fait d'accord
24:45avec vous,
24:46mais aujourd'hui,
24:46c'est entre les mains
24:47de gens responsables
24:48qui travaillent sur ces sujets.
24:50C'est juste ça.
24:51Et donc,
24:51c'est de la com.
24:52Pourquoi ?
24:53Parce que ça fait des années
24:54que ça marche comme ça
24:55dans la cybersécurité.
24:56On a des outils,
24:57on a des experts,
24:58on a des équipes de recherche
24:59aujourd'hui
25:00qui vont travailler
25:01sur la recherche
25:02de zéro-day,
25:03de failles
25:04dans les logiciels.
25:05Elles les gardent pour elles,
25:07ces informations,
25:08elles se les communiquent
25:09entre elles
25:09entre des groupes importants.
25:12On va dire à Microsoft,
25:13attention,
25:13il y a une faille zéro-day
25:14dans ton Windows,
25:15Microsoft va le corriger
25:16et ensuite,
25:17c'est en du public.
25:17C'est juste normal,
25:18en fait.
25:19parce que ça se passe
25:20comme ça aujourd'hui
25:21dans la cybersécurité.
25:22Il n'y a pas de mise
25:23sous surveillance,
25:24c'est simplement,
25:25il respecte les règles
25:26et c'est le minimum
25:27qu'on puisse attendre.
25:30Mais il n'a même pas besoin
25:31de le dire.
25:32C'est comme ça
25:33que ça fonctionne.
25:33Si, pour le grand public,
25:35il serait le premier
25:38à se tirer une balle
25:38dans le pied
25:39à sortir un truc
25:40qui communique
25:41des failles zéro-day
25:41sur ses propres logiciels.
25:43En plus,
25:44sur le nombre de failles
25:45soi-disant
25:46que Mythos aurait trouvé,
25:47on ne sait pas
25:48combien il y a
25:48de faux positifs,
25:49personne n'a regardé
25:50exactement ce qu'il y avait
25:50à l'intérieur.
25:51Bon.
25:52Et puis moi,
25:53en fait,
25:54ce qui me contrarie,
25:55c'est ce discours
25:55permanent d'anthropique
25:57à chaque fois sur
25:58on a un truc super dangereux,
26:00donc c'est super puissant,
26:01mais nous,
26:02avec nous,
26:02avec nos IA,
26:03ce sera tranquille,
26:05vous pouvez venir chez nous,
26:06il n'y a aucun souci.
26:07Bon, voilà.
26:08Le principe de précaution
26:09au service de la com'.
26:10Oui, c'est très bien,
26:11tant mieux.
26:12On a le temps
26:13de parler de libération,
26:14très vite fait,
26:15qui titre
26:16sur les deepfakes sexuels
26:17au Royaume-Uni,
26:18le gouvernement
26:19veut des peines de prison
26:20pour les patrons
26:21de la tech.
26:22Voilà,
26:23c'est un amendement
26:23qui a été déposé
26:24par l'exécutif.
26:25Vous dites bravo
26:26ou alors ça va trop loin ?
26:30Ah !
26:30Ah,
26:31ah bah alors !
26:32Pourquoi ça va trop loin ?
26:34Enfin,
26:34Georgy,
26:34l'avocat.
26:35Non,
26:35pourquoi ça va trop loin ?
26:36Parce que ça vient à l'origine,
26:38vous savez,
26:39de l'utilisation de deepfakes
26:40par Grock,
26:42donc c'est par Elon Musk,
26:45qui a permis,
26:46effectivement,
26:46la diffusion
26:46de contenus pornographiques,
26:48enfin,
26:49en tout cas,
26:49dénudés
26:50de personnes.
26:51Mais là-dessus,
26:52il y a déjà des contrôles,
26:53il y a déjà des lois,
26:53il y a déjà
26:54une réglementation
26:55qui encadre ça,
26:56en tout cas en France,
26:58en Angleterre,
26:58ils font ça,
26:59c'est très bien,
26:59mais encore une fois,
27:00là pour le coup,
27:00c'est un peu un effet d'annonce,
27:01vous n'allez pas mettre
27:03Elon Musk en prison,
27:04enfin,
27:04au bout d'un moment,
27:05il y a ça aussi.
27:07Ah,
27:07c'est moi qui suis tombé
27:08dans le plage de la courbe.
27:08Oui,
27:08c'est ça,
27:09c'est qu'on contrôle
27:11et qu'on sanctionne,
27:12évidemment,
27:12mais ça,
27:13il faut une lutte totale
27:15contre...
27:15Mais est-ce que ça peut
27:16être dissuasif quand même
27:17de mettre en responsabilité,
27:18en fait,
27:19les hauts dirigeants
27:20des entreprises ?
27:21Ça peut,
27:22mais encore une fois,
27:23je doute de l'applicabilité
27:25de ce type de mesures.
27:26Oui.
27:27Julien ?
27:27Non,
27:27il y a des modèles
27:28en économie du droit,
27:29notamment les modèles dérivés
27:30des travaux de Guybreaker,
27:31etc.,
27:31qui mettent justement
27:33en parallèle
27:34la mise en place
27:35de mesures extrêmement dures,
27:37parfois même au pénal,
27:38et c'est notre somme
27:39dont on est en train de parler,
27:40sur les incitations
27:41et les comportements
27:41des entreprises.
27:42On voit que ça marche,
27:43mais jusqu'à un certain point.
27:45se pose derrière
27:46la question du contrôle,
27:48se pose aussi la question
27:49derrière de la bonne foi
27:51des plaignants,
27:51parce qu'on peut imaginer
27:52aussi des jeux
27:53à plusieurs bandes
27:54où on utiliserait
27:54ce type de texte
27:55pour pouvoir nuire
27:56à quelqu'un en particulier.
27:57Et puis, en fait,
27:58on va s'arrêter où ?
27:59On commence par ce genre de choses.
28:01Effectivement,
28:01on peut être d'accord
28:01avec la cause,
28:02mais après,
28:02c'est quoi ?
28:03C'est les messages politiques
28:04qui ne vont pas dans le sens
28:04de la doctrine ?
28:05Eh bien, nous,
28:06on va s'arrêter là,
28:06parce que c'est la fin
28:07du débrief.
28:08Et donc, nous,
28:09on avait dit bravo,
28:10Miquim.
28:10Merci beaucoup
28:11à vous tous
28:12d'avoir été avec moi
28:13pour ce grand débrief
28:14de la tech.
28:15On se donne rendez-vous
28:16jeudi prochain à 10h45
28:17en direct,
28:18et puis lundi
28:18pour de nouvelles discussions
28:19sur la tech
28:20sur la chaîne Bsmart.
28:21Sous-titrage Société Radio-Canada
Commentaires