- il y a 3 heures
Jeudi 16 avril 2026, retrouvez My-Kim Chikli (Conseillère de dirigeants, experte en stratégie Tech et Data), Clément Etoré (Fondateur et CEO, Bulle), Georgie Courtois (Avocat) et Julien Pillot (Consultant, Enseignant-chercheur en économie, Inseec - Groupe Omnes Education) dans SMART TECH, une émission présentée par Delphine Sabattier.
Catégorie
🗞
NewsTranscription
00:08Bonjour à tous, bienvenue dans Smartech, on est en direct, il est 10h45, c'est l'heure du grand débrief
00:13de l'actu tech sur la chaîne Bsmart.
00:19C'est parti pour le grand débrief de l'actu tech, il est 10h45, vous nous regardez en direct sur
00:24la chaîne Bsmart.
00:25Aujourd'hui autour de la table pour commenter cette actualité effervescente, j'ai le grand plaisir de recevoir Miquim Chicli,
00:31bonjour Miquim, conseillère de dirigeant, vous êtes une experte en stratégie tech et data.
00:35Et puis en face de vous, Julien Pillot, bonjour Julien, très heureuse aussi, enseignant-chercheur en économie à l'INSEC
00:41et Georgie Courtois, bonjour Georgie, très heureuse également de vous accueillir, il n'y aura aucune exception aujourd'hui, je
00:48vous aime tous.
00:50Et Georgie, vous êtes avocat, voilà, alors on va confronter nos points de vue sur ce petit village gaulois, la
00:56direction interministérielle du numérique, qui adore visiblement la BD d'Astérix,
01:01puisqu'elle a décidé de lancer Securix et Burotix comme des solutions pour remplacer Windows.
01:08On va parler aussi de Mark Zuckerberg, qui a envie d'avoir son avatar CEO, voilà, un patron IA qui
01:14l'aiderait à prendre ses décisions, mais aussi à communiquer avec ses équipes.
01:17On en pense quoi ? Un peu mégalo, un peu dangereux ? Alors on va aussi s'interroger sur la
01:22dangerosité, puisque Anthropique, lui, a décidé de reporter son nouveau modèle de langage, mythos, en nous disant que c'était
01:30trop dangereux.
01:31Alors, mythos, mythos, bon, bref, vous avez compris, mythos ou pas mythos.
01:35On va aussi parler du gouvernement britannique, qui resserre la vis autour des plateformes, puisque désormais, les big tech seront
01:42menacés de peine de prison pour la diffusion d'images intimes non consenties.
01:48Mais on commence avec un contre-modèle, justement, de réseau social, il est français, il s'appelle Bulle, il se
01:54veut une réponse au TikTok et Instagram.
01:56Mais pour lancer cette discussion, nous sommes connectés avec Clément Ettore. Bonjour Clément.
02:02Bonjour, bonjour à tous, merci de nous recevoir.
02:04Avec grand plaisir, vous êtes le fondateur et président de Bulle, dont la maison mère est Chabon, si j'ai
02:10bien noté.
02:11Oui, Chabon, ça veut dire Bulle de Savon en japonais.
02:14Ah, très bien.
02:15Dis-moi, c'est pas un peu présomptueux de lancer un réseau social français pour s'attaquer à des TikTok
02:20et Instagram ?
02:22Oui, tout à fait. Alors justement, c'est pour ça que c'est pas un réseau social, tout à fait.
02:26C'est vraiment différent. On aborde la chose de manière totalement différente.
02:30C'est un média plutôt qu'un réseau social.
02:33C'est à mi-chemin entre un réseau social et la télévision, donc c'est pour renouer avec un socle
02:37informationnel un peu sain.
02:39Donc non, on s'attaque pas aux réseaux sociaux, on propose autre chose.
02:43L'idée, parce que c'est comme ça que vous le vendez quand même sur votre site, l'idée c
02:47'est quand même de proposer une autre façon d'être connecté avec ses pairs, ses camarades, et puis même son
02:52réseau, pourquoi pas professionnel.
02:54Mais alors, comment est-ce que vous vous y prenez pour être différent ?
02:58Alors justement, pas tellement, c'est-à-dire qu'il ne faut pas le voir comme les réseaux sociaux d
03:02'il y a 20 ans.
03:03Il faut le voir comme ce que sont devenus les réseaux sociaux aujourd'hui.
03:05Par exemple, petit coq Instagram, aujourd'hui, 70% des jeunes ne s'en servent pas pour poster des choses.
03:11En fait, ils s'en servent pour consommer de l'information.
03:14Donc par exemple, regardez des médias ou des créateurs de contenu qui leur font apprendre des choses.
03:19Et nous, on a pris ce positionnement-là de dire, vous n'allez pas sur bulle pour discuter avec vos
03:24amis, pour poster des choses.
03:25Vous ne pouvez pas poster des choses.
03:26Les seules personnes qui peuvent poster des choses, ce sont des créateurs de contenu et des journalistes qui respectent une
03:32charte de déontologie stricte.
03:33Et donc, c'est comme ça qu'on met fin finalement au cyberharcèlement, à la désinformation, etc.
03:38Par contre, sur la forme, ça ressemble exactement à TikTok Instagram.
03:41Donc ça permet d'assainir ces modèles-là.
03:43Mais ce n'est pas un réseau social communautaire comme on a pu le voir il y a 20 ans
03:48pour un média social.
03:49Alors c'est plutôt quoi ? Un YouTube qui aurait la forme d'un TikTok ?
03:55Oui, on peut le voir comme ça, effectivement.
03:58Effectivement, c'est ça.
04:00Moi, je le vois comme un TikTok sur lequel il n'y a pas de contenu dangereux pour les enfants,
04:04sur lequel il n'y a pas de pseudo-médecin qui vous explique qu'il faut mettre fin à votre
04:09traitement sans avoir fait les études pour.
04:12Voilà, donc c'est plutôt un TikTok assaini, c'est comme ça que je le vois.
04:15D'accord.
04:17Vous dites que c'est pour protéger contre la désinformation qu'il y aura des créateurs de contenu habilités à
04:23poster.
04:23Mais alors comment vous allez faire pour les sélectionner ?
04:25Comment vous garantissez que l'information sera fiable et qu'on pourra vraiment être dans un espace de confiance ?
04:31Alors l'objectif, ce n'est pas de faire un ministère de la vérité qui sélectionnerait simplement les personnes qui
04:37nous arrangent.
04:38L'idée, c'est de pouvoir laisser rentrer tout le monde tant que ça reste dans notre charte de déontologie.
04:42Et cette charte de déontologie, elle est publique.
04:44Elle se base sur les chartes de Munich.
04:46La charte de Munich qui est celle des journalistes, justement, qui fixe un cadre clair sur, par exemple, justement, la
04:53désinformation,
04:54ne pas faire d'appel à la haine, ne pas faire de cyberharcèlement.
04:57Et donc, tout créateur doit se soumettre à cette charte de déontologie.
05:02Et c'est comme ça qu'on garantit qu'on a un espace sain.
05:04Donc, il doit d'abord postuler pour rentrer.
05:07Nous, on fait une sélection en amont sur le créateur.
05:09Après, on ne vérifie pas tous les contenus.
05:11Il y aura une modération a posteriori.
05:13Mais ça nous permet, comme ça, de pouvoir réagir si jamais il y a un contenu qui sort de cette
05:16charte de déontologie.
05:18Oui.
05:18Alors, ça, c'est pour la partie confiance.
05:21Il y a la partie modèle économique.
05:22Parce que si vous faites référence aux médias, aujourd'hui, c'est quand même un sacré défi de trouver le
05:26bon modèle économique.
05:27Vous n'êtes pas sur le modèle de l'attention, j'imagine ?
05:31Alors, on est sur le modèle de l'attention.
05:33Ce qu'il faut bien comprendre, c'est que...
05:34Attention, attention avec le modèle de l'attention, cher ami.
05:38Alors, dans le modèle de l'attention, ce qu'il faut bien comprendre, c'est que le problème des GAFAM,
05:42c'est qu'ils ont poussé à l'extrême ce modèle de l'attention pour chercher à maximiser leurs revenus.
05:46Il faut bien comprendre qu'il y a des pubs à la télévision, comme chez vous, il y a des
05:50pubs partout.
05:51Donc, nous, on a un modèle de publicité.
05:53Mais ce n'est pas pour autant qu'on est obligé de faire sombrer les gens dans une addiction profonde
05:56et les faire passer 4 heures sur bulle.
05:58On peut très bien avoir un modèle viable sans ça.
06:00Vraiment, il faut faire attention à ne pas croire qu'on est obligé de rendre un réseau social toxique pour
06:05le rendre rentable.
06:06Non, il faut le rendre toxique pour le rendre hyper rentable, entre guillemets, et faire des super profits.
06:12Mais ce n'est pas l'objectif de bulle.
06:14Et puis, il y a aussi des comptes premium, bien sûr.
06:16Il y a des comptes premium, on a un modèle économique aussi parallèle.
06:20Sur les médias, en l'occurrence, vous parlez de la publicité.
06:23Oui, c'est un modèle, mais il y a aussi le modèle payant, justement, qui permet d'avoir une certaine
06:29indépendance vis-à-vis de cette économie de l'attention.
06:31Donc, vous ferez aussi du premium.
06:33Une première réaction autour de la table, Julien ?
06:36Bonne chance.
06:37Oui ?
06:37Non, mais bonne chance, parce qu'il faut réussir là où d'autres ont échoué.
06:41Alors, peut-être avec moins de volonté de rompre réellement avec les algorithmes addictifs.
06:47Mais je pense à Mastodon, je pense à BlueSky, par exemple, qui n'ont pas réussi à se frayer un
06:52chemin face à X, ou à un degré moins de Snap, TikTok et Instagram.
06:58Et puis, le fait d'avoir, effectivement, des comptes d'abonnement payants n'est pas un obstacle à la mise
07:05en place d'algorithmes qui seraient extrêmement addictifs.
07:08On le voit d'ailleurs avec X, le fait d'avoir la petite coche bleue qui est désormais payante n
07:12'empêche pas du tout, du tout, la direction de X d'avoir une gouvernance qui est complètement propice à la
07:17diffusion de ce type d'algorithmes.
07:18Donc, c'est là qu'il faudra que vous soyez vigilants au niveau de votre gouvernance, chez Bull, de faire
07:24attention à ce que vos bonnes intentions de départ ne s'effacent pas au gré des pressions actionnariales.
07:30Réponse là-dessus ?
07:32Oui, je tiens à préciser que ça risque d'être assez facile, parce qu'en fait, nos algorithmes sont transparents.
07:38Donc, vous avez la formule mathématique qui est sur le site pour la première fois.
07:41C'est la première fois que des gens découvrent ce que c'est qu'un algorithme.
07:43Il y a même un simulateur sur le site pour les gens qui sont moins à l'aise avec les
07:47maths.
07:48Nous, on fait le pari de dire que nos algos sont complètement transparents.
07:51Si jamais on décide de rompre un jour avec ce modèle pour des raisons business, on va dire,
07:55je pense qu'on perdra toute crédibilité et toute la confiance des utilisateurs qui sont venus sur Bull.
07:59Je tiens à préciser qu'aujourd'hui, ces algorithmes-là, qui ne sont pas du tout conçus pour être addictifs,
08:04qui sont conçus pour lutter contre la désinformation et contre les clivages, surtout, fonctionnent très bien.
08:09On voit très bien que les centaines et milliers d'utilisateurs qui sont sur Bull passent du temps dessus,
08:13passent un bon moment, apprennent des choses et sont contents d'y être.
08:17Il fait quoi cet algorithme ? C'est quand même de la recommandation en fonction de ce que j'ai
08:20déjà regardé ?
08:22Quelle est la règle, en fait, que vous avez décidé d'imposer ?
08:26Alors, c'est très important.
08:28L'objectif de Bull, Bull au singulier, pas comme les bulles au pluriel qui nous enferment dans nos modes de
08:33pensée.
08:33L'objectif de Bull, c'est d'avoir un socle commun d'information.
08:37Si aujourd'hui, on est capable de faire société, moi, je suis convaincu que ce n'est pas à cause
08:40des réseaux sociaux, malheureusement.
08:42C'est surtout parce que pendant longtemps, on a eu et on a toujours le même journal de 20 heures.
08:46Donc, c'est très important d'avoir un socle informationnel commun pour faire société.
08:50Donc, les algorithmes, en fait, ils vous recommandent exactement la même chose à tout le monde.
08:53Le seul moyen de personnaliser son algorithme, c'est de le faire soi-même en déclarant des centres d'intérêt.
08:57Par exemple, si vous aimez le bricolage, vous pouvez dire « j'aime le bricolage » et vous aurez un
09:01filtre possible sur le bricolage, par exemple.
09:04Vous pouvez aussi vous abonner à des créateurs, des créatrices ou des médias.
09:07Donc, vous pouvez personnaliser votre algorithme vous-même, mais par contre, ce n'est pas votre usage qui va vous
09:12enfermer dans ce que vous pensez.
09:13Il y a un seul algorithme qui est centré sur l'utilisateur comme ça et qui dépend de l'usage.
09:18C'est l'algorithme contradictoire que vous pouvez sélectionner pour avoir accès à la contradiction, finalement.
09:25C'est-à-dire voir l'inverse de ce que vous avez de l'habitude de penser ou de voir.
09:29C'est l'anti-TikTok ou l'anti-Instagram, si vous voulez.
09:32Et ça fonctionne très bien.
09:33C'est comme ça que j'ai commencé, vous m'avez dit « ah non, non, pas du tout. »
09:36Alors, bon, mais d'accord, merci d'être d'accord avec moi à la fin.
09:39Alors, bravo et merci.
09:41Je trouve que c'est une très jolie initiative.
09:44De ce que j'entends et de ce que je comprends, en fait, Clément, j'ai l'impression que vous
09:48avez pris le meilleur de tous les tests
09:51qu'ont fait ces grands de ce monde dans la tech,
09:54avec la Privacy Sandbox de Google sur le cookie-less, avec toutes ces initiatives-là.
10:01Oui, pas de collecte de données personnelles.
10:03Non, tout à fait.
10:04Limité, oui.
10:05Mais, en fait, toutes ces initiatives pour essayer de faire quelque chose de beaucoup plus vertueux.
10:11C'est vrai.
10:13Sans chercher à être parfait, parce qu'à ce moment-là, vous allez certainement être confronté à la problématique de
10:20taille,
10:21la scalability, pour que votre business soit rentable.
10:25Donc, vraiment, bravo et merci de cette initiative.
10:30Je trouve ça très intéressant, parce que c'est dans la mouvance de, vous savez, aux États-Unis,
10:37Meta a été condamné en raison de l'addiction que son modèle a créée sur une utilisatrice.
10:43Donc, c'est vraiment dans la mouvance du contrôle serein des médias dans une ligne éditoriale.
10:51Donc, c'est plutôt intéressant.
10:52Après, il faut voir, TikTok en Chine n'est pas du tout le TikTok qu'on a en Europe.
10:56Et TikTok en Chine pousse du contenu, plutôt, qui vient, qui est censé apprendre des choses intéressantes aux utilisateurs.
11:03C'est peut-être, finalement, un TikTok chinois à la française.
11:08On aura vraiment fait le tour de toutes les similarités.
11:11On peut savoir où sont stockées les données ?
11:13Ah, voilà. Elles sont stockées où, les données ?
11:16Les données sont stockées chez nous, sur nos serveurs à Paris.
11:19Donc, voilà. Alors, actuellement, on essaie de travailler avec...
11:22On a une partie sur OVH, on a une partie sur AWS, on ne s'en cache pas.
11:25On essaie de travailler avec Scaleway, aujourd'hui, pour migrer nos données à Scaleway.
11:29Donc, je leur passe un appel. J'en profite pour leur passer un appel.
11:31Ah, ils nous écoutent. En plus, Scaleway, ils nous aiment bien. Il n'y a pas de problème.
11:34Eh bien, je serais ravi de travailler avec eux.
11:36Je tiens à préciser une chose. On a une protection des mineurs par défaut.
11:39Peu importe l'âge que vous déclarez, vous aurez une limite d'usage à 1h30 par jour.
11:43Et un couvre-feu la nuit, en fait, finalement.
11:45Donc, on renverse un peu les choses pour recoller avec le DSA directement.
11:50C'est très important pour nous.
11:51Le seul moyen de faire tomber le couvre-feu et la limite d'usage, c'est de vérifier son identité.
11:56Mais on peut rester parfaitement anonyme sur Bulle en rentrant sur le réseau.
11:59Parce que, par défaut, tout le monde est considéré comme mineur pour les protéger.
12:03Voilà, c'est très important.
12:03Bon, écoutez, à tester. Voilà, à tester.
12:06Et c'est vrai, bonne chance. On a envie de vous souhaiter bonne chance, je suis d'accord.
12:09Merci.
12:15C'est très dur.
12:16C'est très dur. Merci beaucoup, Clément Ettore.
12:18Je rappelle que vous êtes le fondateur et président de Bulle.
12:21On s'intéresse maintenant à la DINUM, la direction interministérielle du numérique,
12:26qui lance Securix, Burotix pour remplacer Windows.
12:29Visiblement, ce sont des grands fans de la BD Asterix.
12:33Donc, ils ont choisi, en fait, pour être tout à fait précis, de lancer leur propre distribution Linux
12:39pour remplacer le système d'exploitation de Microsoft sur les postes de ses agents.
12:44On n'est pas en train de parler d'une migration de l'ensemble de l'État ou de l
12:48'administration.
12:48Donc, c'est 234 postes qui sont concernés.
12:51Securix, c'est pour la partie OS sécurisée.
12:55Et Burotix, c'est pour les postes de travail.
12:58Alors, qu'est-ce que vous dites à cette initiative ?
13:00Déjà, vous sortez un carton rouge ou un carton vert à cette initiative.
13:06Oh là là, super, génial !
13:08On s'en susse.
13:09On s'en susse presque.
13:11Presque.
13:12Alors, qui commence ?
13:13Ce qui est intéressant dans cette démarche, c'est qu'on voit, encore une fois,
13:17que l'impact de la détention avec les États-Unis a un impact aussi sur l'informatique
13:23et sur la souveraineté, avec une prise de conscience, notamment de l'État français,
13:27de ne pas rester potentiellement soumis.
13:30à des acteurs américains.
13:32Donc, on est dans cette bouvance-là.
13:33C'est très intéressant.
13:34Après, voyons comment ça va être appliqué dans les faits.
13:37Et si jamais, après, c'est déployé sur l'ensemble des postes.
13:42Actuellement, effectivement, c'est juste à la DINUM.
13:44Mais l'objectif, à terme, ce serait éventuellement de déployer dans toute l'administration française.
13:47Il y a des groupes de travail qui ont été lancés en ce sens.
13:50Oui, voilà.
13:51C'était, normalement.
13:52Il devrait y avoir une grande réunion pour que ça puisse élargir, cette initiative puisse
13:55élargir aux autres administrations.
13:58Cela dit, il y en a qui ont déjà fait le pas.
14:00Je veux dire, la DINUM n'est pas forcément toute seule aujourd'hui à avoir chassé Windows
14:04de ces postes de travail.
14:06pour couvrir les millions d'agents de l'État, dans les différentes administrations.
14:11Vous avez mis des cartons verts, donc vous êtes tous d'accord.
14:13Mais peut-être des choses à rajouter par rapport à ce qu'il y a de Jean-J.
14:16C'est plutôt intéressant.
14:17Et puis, effectivement, on voit comment les tensions géopolitiques internationales amènent
14:21à des réactions qui sont conformes à la préservation de nos intérêts.
14:25Encore faut-il que les solutions en question soient opérantes, qu'elles soient performantes,
14:30qu'elles soient interopérables avec d'autres types de systèmes d'exploitation
14:34ou d'autres types de fichiers, parfaitement interopérables.
14:36Ce qui posera aussi des questions de toute façon de sécurité des données.
14:41Et puis, effectivement, il ne faudrait pas qu'on se retrouve bloqué,
14:43comme le village gaulois, pour filmer la métaphore avec Asterix,
14:46dans un monde qui évoluerait en partageant des interfaces, des logiciels, etc.,
14:52qui ne soit pas parfaitement compatible avec les notes,
14:55parce qu'on se retrouverait effectivement avec des problématiques d'économie d'échelle,
14:58où on se retrouverait avec des solutions plus coûteuses, pas forcément plus performantes.
15:01Et ça nous enfermerait dans un modèle qui, je pense,
15:03ne serait pas souhaitable sur le long terme.
15:05Donc, j'ai mis un carton vert pour la démarche.
15:08Maintenant, je reste vigilant sur la question économique.
15:10Un peu comme moi, quand même. Il y a un petit rouge.
15:11Oui, il y a la problématique de la taille, à nouveau.
15:15Comment on va pouvoir diffuser plus largement cette pratique ?
15:20Et ce que je trouve assez intéressant, c'est que c'est vraiment en concordance avec le AI Act
15:27sur le no-go, sur les données ultra-sensibles,
15:30où il faut vraiment protéger au maximum ces informations.
15:35Et l'État possède la majorité de nos informations en tant que citoyens.
15:39Absolument.
15:39Moi, j'ai mis un petit rouge quand même,
15:41parce que cette tendance à tout faire soi-même de la DINUM en énerve certains,
15:45et je le comprends, au sein de l'écosystème tech et des PME en particulier.
15:49Et puis, surtout, sur la question de l'interopérabilité,
15:52parce qu'il y a d'autres administrations,
15:53par exemple la Gendarmerie nationale,
15:55qui a fait ce switch,
15:56mais à partir d'une autre,
15:59qui a créé une autre distribution,
16:00et qui n'a pas utilisé non plus le même noyau.
16:03Enfin, là, ça rentre un petit peu dans la technique,
16:04mais je voulais reprendre une question de Loïc Duval,
16:08qui est un confrère que j'apprécie beaucoup depuis de longues années,
16:11avec qui j'ai même travaillé.
16:12Il a écrit dans Informatic News,
16:14est-ce qu'il n'aurait pas été préférable, finalement,
16:16de commencer par officialiser un vrai Linux européen ?
16:19Parce qu'on sait qu'il y a une attente, aujourd'hui,
16:21pour avoir une direction commune au niveau européen
16:24pour les États et les administrations,
16:26et là, on risque, oui, de se retrouver avec une mosaïque,
16:29en fait, de distributions,
16:30qui ne vont pas être compatibles entre elles,
16:32au sein même de l'État français,
16:33et entre les États membres.
16:35Et le code est sur GitHub,
16:37qui appartient à Microsoft.
16:38Oui, c'est un peu...
16:39That's life, yes.
16:41Allez, on enchaîne avec notre revue de presse.
16:43Je voulais citer les échos, cette fois,
16:45avec un robot CEO,
16:46Mark Zuckerberg veut son clone IA
16:49pour parler aux salariés de méta,
16:50c'est le titre des échos.
16:52Alors, c'est quand même en cours de construction,
16:55de développement, nous dit le Financial Times.
16:58Vous mettez un carton rouge ou un carton vert
17:00à cette nouvelle idée de Mark Zuckerberg ?
17:06Ah, Mickey, mais...
17:07Ah non, alors attends, je commence par le vert, quand même.
17:09Julien.
17:10Non, mais en fait, c'est la résurrection du métavers
17:13sous une autre forme,
17:14qui est, de toute façon, un concept qui est très évolutif,
17:16et c'est un concept que, moi, personnellement,
17:18je regarde plutôt avec des yeux assez bienveillants
17:19par rapport à l'économie que ça peut créer derrière.
17:22Non, moi, je mets un carton vert,
17:23parce que si ça apporte la démonstration
17:24qu'on peut se passer de certains CEOs
17:26aussi toxiques que Mark Zuckerberg,
17:28allons-y à fond.
17:30Non, mais il sera élevé,
17:31enfin, son apprentissage va reposer
17:33sur qui est Mark Zuckerberg.
17:35Il va surtout potentiellement apporter
17:37la démonstration qu'on peut se passer de lui.
17:39Donc, allons-y.
17:40C'est ça, ok.
17:42Très confiant dans l'IA, Julien.
17:44Alors, une réaction plus mitigée chez Mickey ?
17:46Gros carton rouge sur l'approche
17:49et la mégalomanie de l'individu.
17:53Ça, je...
17:54Bon, bref, il n'y a pas besoin de commenter.
17:57En revanche...
17:57En même temps, moi, si j'avais une équipe,
17:59à ma disposition pour créer mon avataria
18:01qui m'aide à mes côtés,
18:02je serais le plus d'accord, hein ?
18:03Oui, mais alors, d'où mon vert.
18:05Oui, c'est ça, le point.
18:07Alors, bien sûr, je finis juste sur le rouge,
18:09parce que ce qui fait que nous sommes des humains
18:11et que nous allons cohabiter avec cet IA,
18:14c'est le lien,
18:16c'est la proximité,
18:17c'est ressentir les émotions.
18:18Bref, vous avez compris,
18:19je ne vais pas les développer sur ce terrain-là.
18:21En revanche, vert,
18:23parce qu'on ne va pas pouvoir lutter contre.
18:25Et qu'ils donnent le ton,
18:28ils donnent le là,
18:29ils tracent un sillon.
18:30Aujourd'hui, je travaille avec pas mal de boîtes
18:32qui sont en train de développer des assistants IA,
18:35CEO,
18:36où les CEO donnent l'ensemble,
18:38accès à l'ensemble de leurs données.
18:40D'accord.
18:40Et l'assistant gère au mieux l'ensemble des informations.
18:47Donc, ça va de prise de rendez-vous avec la banque
18:49parce que les données bancaires sont accessibles.
18:51Alors, ça se passe bien sûr aux États-Unis,
18:52où il n'y a pas forcément RGPD
18:54et toutes ces contraintes qu'on peut avoir.
18:57Mais pourquoi se priver de se faciliter la vie ?
19:00Je retourne quelques années en arrière,
19:02on ne va pas laver notre linge sale à la main.
19:04On est content d'avoir une machine à laver,
19:05un sèche-linge.
19:07Donc, après, la question, c'est comment,
19:10autour de ce progrès,
19:12cette innovation, cette révolution,
19:14on s'organise dans ce structure
19:15parce qu'on ne peut pas lutter contre.
19:17Donc, rouge contre Zuckerberg,
19:18mais vert parce que c'est le sens de l'histoire,
19:20il faut s'adapter.
19:21Ok, très bien.
19:22Georgie, on est rouge tous les deux ?
19:24Alors, moi, je suis rouge pour le côté mégalomaniaque
19:26de Zuckerberg.
19:28Le problème, c'est pas tant,
19:30et là, je suis d'accord avec Mickey,
19:32c'est pas tant l'utilisation des agents IA
19:33qui va devenir, en fait,
19:35quelque chose d'obligatoire dans la gestion,
19:37dans la productivité,
19:38ça, c'est super.
19:39En revanche,
19:40il va jusqu'à créer un avatar vidéoréaliste
19:44avec sa voix, ses intonations, etc.
19:46Donc, il se crée un vrai jumeau numérique.
19:49Et en fait, ça fait un peu,
19:51ça fait un peu,
19:52je ne sais pas,
19:53complexe divin, je ne sais pas,
19:55qui va donner sa bonne parole
19:57à ses utilisateurs.
20:00Et puis du coup, on est présent,
20:00toujours disponible.
20:02Voilà, du coup,
20:02c'est plutôt ça, moi, qui me gêne.
20:04Après, je suis, en revanche,
20:05totalement favorable à l'utilisation
20:07des agents IA,
20:08c'est nécessaire.
20:09Mais bon, c'est plutôt le côté
20:11mégalomaniaque
20:12qui me pose problème.
20:12Comme les 79 000 employés de Facebook
20:15attendaient la parole divine
20:16de Marc Jukerberg
20:16pour prendre des décisions
20:17au jour le jour,
20:17en ce qui est en passant.
20:18Oui, parce qu'ils sont tous là,
20:19frappés à sa porte,
20:20mais tu ne peux pas nous répondre maintenant.
20:22Moi, j'ai mis un rouge
20:23parce que, oui,
20:23je suis d'accord avec Mickey,
20:25on a un risque de déshumanisation
20:27quand même aujourd'hui
20:27dans nos entreprises.
20:28J'ai un confrère qui me racontait
20:29qu'il appartient
20:29à un groupe américain.
20:31Ces entretiens annuels,
20:33ce sont des cases à cocher.
20:35D'accord ?
20:36C'est un formulaire.
20:37Il ne rencontre personne.
20:38Il n'a aucun retour
20:40sur cet entretien.
20:41Enfin, c'est quand même lunaire.
20:43Donc ça, premier carton rouge.
20:45Et puis ensuite,
20:46sur l'aide à la décision.
20:47C'est vrai qu'on nous dit,
20:48en fait, ce sont des aides,
20:49des IA et tout ça,
20:50on va prendre des décisions.
20:51Mais quand on est Marc Zuckerberg,
20:53c'est-à-dire que c'est hyper incarné
20:55aujourd'hui les boîtes de la tech.
20:57Ça vaut pour Elon Musk,
20:58ça vaut pour Apple, pour Google.
21:00C'est très incarné par des patrons.
21:02Qui peut croire que Marc Zuckerberg
21:04va suivre une décision d'IA ?
21:05Marc Zuckerberg va être
21:06Max Zuckerberg à la tête de Meta.
21:09Basta.
21:09Voilà.
21:10Allez, autre info.
21:11On passe à France Info qui titre.
21:13La start-up Anthropic reporte
21:15la sortie de sa nouvelle IA
21:16Claude Mythos,
21:18jugée trop dangereuse
21:20pour la cybersécurité actuelle.
21:22En fait, c'est une IA
21:24qui apporte une nouveauté
21:26dans la cybersécurité.
21:27Elle va chercher elle-même
21:28les failles dans les logiciels.
21:29Et alors, elle en aurait trouvé tellement
21:30que ce serait tellement dangereux
21:32qu'il ne faudrait pas le mettre
21:33entre toutes les mains.
21:34Qu'est-ce que vous en pensez ?
21:35Carton jaune,
21:36euh, vert, rouge.
21:38Comme vous voulez.
21:40Pour ce report,
21:41qu'en dites-vous ?
21:44Euh...
21:44Ouais.
21:45Voilà.
21:45Très partagé.
21:46Encore, pardon,
21:47désexcusez-moi.
21:48Tout le monde est d'accord,
21:49sauf moi.
21:49Tu fais qu'à veiller seul.
21:50Ouais.
21:50Merci de votre soutien.
21:52Pourquoi vous êtes tous d'accord ?
21:54En fait, il y a aussi du storytelling.
21:56C'est hyper important
21:57parce que quand ils ont eu le report,
21:59ils ont expliqué qu'elle était
22:01extrêmement dangereuse,
22:02Claude Mythos,
22:03parce qu'elle avait réussi
22:04à s'échapper elle-même
22:05d'un environnement sécurisé,
22:06etc.
22:06Donc, il y a ce storytelling
22:07qui est un peu particulier.
22:10Après, il y a quand même
22:12une initiative Glasswing
22:14qui réunit
22:15tous les acteurs de la tech
22:16pour contrôler
22:18l'utilisation de ces IA
22:19qui permettent notamment
22:20de détecter des failles
22:21des 0.
22:22C'est important dans le sens
22:23où si on met ça
22:24sur le marché
22:25sans contrôle
22:26et qu'on découvre
22:27tout un tas de failles
22:28qu'on n'est pas capable
22:28de combler,
22:30on a un risque systémique
22:33dans l'IT.
22:35Donc, vert
22:35pour cette prise de conscience
22:37et je pense d'ailleurs
22:38que c'est une position
22:39ou c'est un positionnement
22:40d'anthropique
22:42versus OpenAI
22:42d'être vraiment
22:43dans l'éthique,
22:44dans une approche
22:46humaniste.
22:47Totalement.
22:48C'est de la com'
22:49mais si jamais la com'
22:50parfois peut amener
22:51quelque chose de bien...
22:52Sur les actes, ok.
22:54La com' ça marche.
22:58Ils ont une posture
23:00et c'est pour ça
23:01que je mets ce verre.
23:03Ils ont lancé
23:05leur constitution
23:05avec cette fameuse
23:08philosophe écossaise.
23:10Je trouve que c'est bien.
23:11C'est vraiment conscientiser
23:12un tout petit peu
23:13ce qu'il y a derrière.
23:15Alors, peut-être que
23:15je pourrais te rejoindre
23:16un chouïa sur le rouge.
23:17C'est-à-dire qu'on est déjà
23:19dans un, on va dire,
23:21état d'esprit anxiogène
23:22de façon générale
23:23contre l'IA.
23:24Donc, ça n'arrange pas.
23:26Mais en même temps,
23:27l'idée, c'est plus
23:28de la prévention des risques
23:30et de montrer
23:30qu'on peut être responsable
23:32et que donc on peut
23:32faire confiance
23:33à certaines IA.
23:35Ok.
23:36Julien ?
23:37En deux mots,
23:39si c'est un coup marketing,
23:41il est réussi
23:41parce qu'effectivement
23:42tout le monde en parle.
23:44Mais si ça ne l'est pas,
23:45il y a quand même
23:46deux, trois éléments
23:47qui laissent à penser
23:47que tout n'est pas
23:48complètement bullshit marketing
23:49dans tout ça.
23:51C'est plutôt
23:52très intéressant
23:53comme démarche
23:54de mettre le principe
23:55de précaution
23:55au service de la communication
23:56peut-être,
23:56mais aussi au service
23:57d'autres choses.
23:58Parce que si Mythos
23:59est capable de faire
24:00ce qu'on lui prête,
24:02ça créerait
24:04un énorme déséquilibre
24:05tel qu'on ne peut
24:07pas l'imaginer
24:07entre des personnes
24:09qui auraient des intentions
24:10malveillantes
24:11et qui auraient accès
24:11à des armes nucléaires
24:13qui leur permettraient
24:13de faire des attaques
24:14zéro d'ail un peu partout
24:15de façon systémique
24:16comme le disait.
24:16C'est-à-dire de trouver
24:18des failles
24:19qu'on n'avait jamais
24:19identifiées auparavant.
24:21Exactement,
24:21et de mettre en défaut
24:22l'ensemble de nos systèmes
24:24électroniques,
24:25de communication,
24:25de défense, etc.
24:28Versus des personnes
24:29qui jouent en défense
24:30et qui sont complètement
24:30désarmées vis-à-vis
24:32de ce type d'outils.
24:34Donc oui,
24:34effectivement,
24:35si Mythos
24:36est capable de faire
24:36ce qu'il prétend pouvoir faire,
24:39le mettre en quarantaine
24:40sous surveillance actuellement,
24:42je pense que c'est vraiment
24:43la seule bonne décision
24:44à prendre.
24:44Moi, je trouve que vous êtes
24:45vraiment tous des victimes
24:47de la communication.
24:48Parce que Mythos,
24:49ce n'est pas sous surveillance,
24:50en fait.
24:50C'est un outil nouveau
24:52qui permet de trouver
24:53des failles,
24:54chercher des failles
24:55en toute autonomie.
24:56Ça, ok,
24:57c'est intéressant pour
24:58augmenter la cybersécurité,
25:00je suis tout à fait
25:00d'accord avec vous,
25:01mais aujourd'hui,
25:02c'est entre les mains
25:03de gens responsables
25:04qui travaillent sur ces sujets.
25:06C'est juste ça.
25:07Et donc, c'est de la com.
25:08Pourquoi ?
25:08Parce que ça fait des années
25:09que ça marche comme ça
25:10dans la cybersécurité.
25:12On a des outils,
25:13on a des experts,
25:14on a des équipes
25:14de recherche.
25:15aujourd'hui,
25:16qui vont travailler
25:17sur la recherche
25:18de zéro-day,
25:19de failles dans les logiciels.
25:21Elles les gardent pour elles,
25:22ces informations.
25:23Elles se les communiquent
25:24entre elles,
25:25entre des groupes importants.
25:27On va dire à Microsoft,
25:28attention,
25:29il y a une faille zéro-day
25:29dans ton Windows.
25:31Microsoft va le corriger
25:32et ensuite,
25:33c'est en du public.
25:33C'est juste normal,
25:34en fait.
25:35Parce que ça se passe
25:36comme ça aujourd'hui
25:36dans la cybersécurité.
25:38Il n'y a pas de mise
25:39sous surveillance.
25:40C'est simplement,
25:41ils respectent les règles
25:42et c'est le minimum
25:43qu'on puisse attendre.
25:46Mais il n'a même pas
25:47besoin de le dire.
25:48C'est comme ça
25:48que ça fonctionne.
25:49Pour le grand public,
25:50il a besoin de le dire.
25:53Il serait le premier
25:54à se tirer une balle
25:54dans le pied,
25:55à sortir un truc
25:56qui communique
25:56des failles zéro-day
25:57sur ses propres logiciels.
25:58en plus sur le nombre
26:00de failles,
26:01soi-disant,
26:01que Mythos aurait trouvé.
26:03On ne sait pas
26:04combien il y a
26:04de faux positifs.
26:05Personne n'a regardé
26:06exactement ce qu'il y avait
26:06à l'intérieur.
26:07Bon.
26:08Et puis moi,
26:09en fait,
26:09ce qui me contrarie,
26:10c'est ce discours
26:11permanent d'anthropique
26:12à chaque fois sur
26:13on a un truc super dangereux,
26:15donc c'est super puissant.
26:17Mais nous,
26:18avec nous,
26:18avec nos IA,
26:19ce sera tranquille.
26:21Vous pouvez venir chez nous,
26:21il n'y a aucun souci.
26:22Bon, voilà.
26:23Le principe de précaution
26:24au service de la com.
26:26Oui,
26:26c'est très bien,
26:27tant mieux.
26:28On a le temps
26:29de parler de libération,
26:29très vite fait,
26:31qui titre
26:31sur les deepfakes sexuels
26:33au Royaume-Uni,
26:34le gouvernement veut
26:35des peines de prison
26:36pour les patrons
26:37de la tech.
26:38Voilà,
26:38c'est un amendement
26:39qui a été déposé
26:40par l'exécutif.
26:41Vous dites bravo
26:42ou alors ça va trop loin ?
26:45Ah !
26:46Ah,
26:46ah bah alors !
26:48Pourquoi ça va trop loin ?
26:49Enfin,
26:50Georgy,
26:50l'avocat.
26:50Non,
26:51pourquoi ça va trop loin ?
26:51Parce que ça vient
26:53à l'origine,
26:54vous savez,
26:55de l'utilisation
26:55de deepfakes
26:56par Grock
26:59par Elon Musk
27:00qui a permis
27:01effectivement la diffusion
27:02de contenus pornographiques,
27:04enfin en tout cas
27:05dénudés de personnes.
27:07Mais là-dessus,
27:07il y a déjà des contrôles,
27:08il y a déjà des lois,
27:09il y a déjà
27:10une réglementation
27:11qui encadre ça.
27:12En tout cas en France,
27:13en Angleterre,
27:14ils font ça,
27:14c'est très bien.
27:15Mais encore une fois,
27:15là pour le coup,
27:16c'est un peu un effet d'annonce.
27:17Vous n'allez pas mettre
27:19Elon Musk en prison.
27:20Enfin,
27:20au bout d'un moment,
27:21il y a ça aussi.
27:23Ah,
27:23c'est moi qui suis tombé
27:23dans le piège de la com.
27:24Oui, c'est ça.
27:25C'est qu'on contrôle
27:26et qu'on sanctionne,
27:27évidemment,
27:28mais il faut une lutte totale
27:31contre...
27:31Mais est-ce que ça peut
27:32être situatif quand même
27:32de mettre en responsabilité
27:34les hauts dirigeants
27:35des entreprises ?
27:36Ça peut,
27:38mais encore une fois,
27:38je doute de l'applicabilité
27:40de ce type de mesures.
27:42Oui.
27:42Julien ?
27:43Il y a des modèles
27:43en économie du droit,
27:44notamment les modèles dérivés
27:45des travaux de Guy Breaker,
27:46etc.,
27:47qui mettent justement
27:49en parallèle
27:49la mise en place
27:51de mesures extrêmement dures,
27:53parfois même au pénal.
27:54Et c'est ça dont on est
27:55en train de parler
27:55sur les incitations
27:56et les comportements
27:57des entreprises.
27:58On voit que ça marche,
27:59mais jusqu'à un certain point.
28:01Ça se pose derrière
28:02la question du contrôle.
28:03Ça se pose aussi
28:04la question derrière
28:05de la bonne foi
28:06des plaignants,
28:07parce qu'on peut imaginer
28:08aussi des jeux
28:08à plusieurs bandes
28:09où on utiliserait
28:10ce type de texte
28:11pour pouvoir nuire
28:12à quelqu'un en particulier.
28:13Et puis, en fait,
28:13on va s'arrêter où ?
28:15On commence par ce genre
28:16de choses.
28:16Effectivement,
28:17on peut être d'accord
28:17avec la cause,
28:18mais après,
28:18c'est quoi ?
28:18C'est les messages politiques
28:19qui ne vont pas
28:20dans le sens de la doctrine ?
28:21Eh bien, nous,
28:21on va s'arrêter là,
28:22parce que c'est la fin
28:23du débrief.
28:24Et donc, nous,
28:24on avait dit bravo,
28:25Miki.
28:26Merci beaucoup à vous tous
28:28d'avoir été avec moi
28:29pour ce grand débrief
28:35Nouvelles discussions
28:35sur la tech
28:35sur la chaîne Bsmart.
Commentaires