- il y a 11 heures
Ce mercredi 11 mars, François Sorel a reçu Isabelle Bordry, fondatrice de Retency, Philippe Dewost, fondateur de Phileos et cofondateur de Wanadoo, et Tristan Nitot, directeur associé Communs Numériques et Anthropocène chez OCTO Technology. Ils se sont penchés sur le soutien de Microsoft à Anthropic qui est blacklistée par le Pentagone à cause de son refus pour l'utilisation de son intelligence artificielle Claude à des fins militaires, le renforcement des contrats de Google autour de ses technologies d'IA avec le Pentagone, ainsi que le rachat de Meltbook (un réseau social pour l'IA) par Meta, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez-la en podcast.
Catégorie
📺
TVTranscription
00:01Tech & Co, la quotidienne, le débrief de la tech.
00:06Le débrief de l'AcuTech avec ce soir Isabelle Bordry qui nous fait de l'amitié d'être là.
00:10Salut Isabelle.
00:11Bonsoir François.
00:12Isabelle Bordry, alors que vous connaissez si vous êtes un fidèle de Tech & Co qui vient
00:15nous voir régulièrement, qui est fondatrice de Rétancy, qui était il y a quelques années
00:20encore la patronne de Yahoo.
00:22Absolument.
00:23Et oui, à tes côtés c'est Philippe de Vost qui est là, salut Philippe.
00:28Bonsoir François.
00:28Fondateur de Phileos et co-fondateur de Wanadou, fin connaisseur aussi de toute l'AcuTech.
00:34Merci d'être là et Tristan Nitto est avec nous aussi ce soir, mon cher Tristan, ravi
00:40de te retrouver.
00:41Soir.
00:42Directeur associé commun numérique et anthropocène chez OctoTechnologie et rappelons que tu as
00:47été l'un des porte-parole de la fondation Mozilla, plus que ça même.
00:52Président de Mozilla Europe.
00:53Président de Mozilla Europe il y a quelques années, autant vous dire que voilà, quand
00:57on commence à ouvrir le livre Tristan Nitto, il y a pas mal de choses à raconter.
01:01C'est toujours intéressant d'avoir ton point de vue sur tous ces sujets qu'on évoque
01:04le soir.
01:06Et bien on va commencer par évidemment l'épisode anthropique.
01:10L'épisode anthropique qui intègre à l'intérieur OpenAI, qui intègre le Pentagone et qui intègre
01:15aussi Microsoft, qui a décidé de soutenir Anthropique après avoir lancé un procès contre le Pentagone.
01:23L'administration américaine avait placé, rappelez-vous, la startup sur liste noire après
01:28qu'elle ait refusé un accès total à son IA cloud à des fins militaires.
01:33Voilà, une belle idée, bien évidemment, mais qui a coûté cher à Anthropique.
01:38C'est la première fois qu'un géant de la Silicon Valley, enfin qui n'est même pas
01:41d'ailleurs de la Silicon Valley puisque Microsoft est de si et tel, rappelons-le, prend partie
01:45dans ce conflit.
01:46On écoute les explications de Paul Waller et on revient juste après, évidemment, pour
01:51vous raconter toute cette histoire.
01:53De vastes répercussions négatives sur l'industrie de la tech.
01:57Microsoft, qui a investi jusqu'à 5 milliards de dollars dans Anthropique, n'a pas mâché
02:01ses mots en soutenant la startup de l'IA cloud dans son procès intenté contre le gouvernement
02:05américain.
02:06Une action en justice qui permet à Anthropique de réaffirmer ses lignes rouges, l'utilisation
02:10de l'IA pour des armes autonomes létales et la surveillance de masse de citoyens américains.
02:15Ce n'est pas le moment de mettre en péril l'écosystème de l'IA que l'administration
02:18a contribué à promouvoir, lâche Microsoft, soutien aussi apporté par un groupe de plus
02:23de 30 chercheurs de Google et d'OpenAI.
02:25L'entreprise de Sam Altman avait d'ailleurs signé un accord avec le Pentagone quelques heures
02:29seulement après le refus d'Anthropique, ce qui a suscité un tollé chez certains
02:33employés et utilisateurs de Tchadjipiti.
02:35Le bras de fer éthique qui s'engage entre les géants de la tech américaine et le
02:39Pentagone fait déjà réagir au-delà du pays.
02:42La Chine avertit que l'usage immodéré de l'IA à des fins militaires risque de plonger
02:46le monde dans une dystopie semblable à Terminator.
02:49Ouh là, écoutez, franchement, n'ayons pas peur, tout va bien se passer, vous allez
02:54voir.
02:55Alors, qui veut nous raconter cette histoire qui dure depuis plusieurs jours ? Alors, je
02:59vous dis ça parce que je l'ai tellement raconté de fois que j'aimerais que quelqu'un
03:01me la raconte.
03:02Je me lance ?
03:04Allez Tristan, ça fait plaisir.
03:05Vas-y, raconte-nous l'histoire du Pentagone, de l'IA, d'Entropy qui se désolidarise,
03:10d'OpenAI qui arrive et de Microsoft et Google qui rentrent dans la danse.
03:14Bon, alors les principaux acteurs de l'IA ont des contrats avec le Pentagone et en particulier
03:20pour utiliser de l'IA dans un cadre guerrier.
03:24Néanmoins, Anthropique avait mis deux clauses spéciales qui étaient, en particulier, on ne
03:30veut pas que Claude soit utilisé pour faire de la surveillance de masse d'Américains
03:39parce que c'est mal et que c'est pas bon pour notre pays et que ça serait mauvais pour
03:43la démocratie, etc.
03:44D'une part, et la deuxième clause, c'était on ne veut pas que notre IA soit utilisée
03:51pour décider de tuer des gens sur un théâtre de guerre ou dans quelques autres circonstances
03:57sans supervision humaine.
03:58C'est-à-dire qu'on n'a pas suffisamment confiance, on pense qu'il faut vraiment une
04:02barrière pour que, non, une IA ne peut pas décider de tuer un humain comme ça.
04:07Il faut qu'éventuellement, si on lui demande qu'elle suggère des noms les plus efficaces
04:11dans un contexte, mais c'est un humain qui prendra la décision finale.
04:15Et les deux me paraissent particulièrement raisonnables.
04:20Ne pas espionner les citoyens de leur propre pays et de ne pas tuer des humains.
04:25Raisonnable, voire même prudente.
04:26Oui, voilà.
04:29Et seulement, l'administration Trump n'a pas aimé.
04:33Anthropique a dit, non, nous, on ne franchira pas cette ligne jaune, on va dire, ou rouge.
04:38Et alors là, ça a été la foudre du Pentagone, notamment de Donald Trump, qui a lui-même
04:45communiqué là-dessus en disant, anthropique, c'est vraiment les vénins de petits canards,
04:49ils sont méchants, ils vont le regretter.
04:52Alors là, c'est la foudre.
04:53Et en particulier, ils ont dit, on va dire, il a utilisé en fait un dispositif légal
04:59qui avait été, je crois, fait pour Huawei en disant, c'est une société dangereuse,
05:02il faut la retirer des fournisseurs, de l'armée, parce que ces gens-là, on ne sait pas quoi.
05:07Alors, autant sur Huawei, il y avait des soupçons qui étaient raisonnables,
05:11autant sur Anthropique, qui était le système le plus utilisé, ça n'avait aucun sens,
05:15c'était juste une sanction à la Trump.
05:18Oui, punitive, sans raison sérieuse.
05:21Autre que punitive.
05:23Il me semble que l'argument invoqué par la présidence Trump crée un précédent,
05:29au sens où, en tout cas, c'est la première fois qu'une société américaine se retrouvait sur une telle
05:32liste.
05:33Ah oui, oui, ce n'était pas du tout prévu, ce n'était pas un dispositif qui était prévu pour
05:36ce genre de choses.
05:38Non, non, il y a un risque que cette entreprise ne mérite pas la confiance.
05:43Et c'est pour ça.
05:44On se demande d'ailleurs si cette...
05:45Et c'était totalement disproportionné.
05:47Bien sûr, et on se demande d'ailleurs si cette décision va être approuvée après par les juges, etc.
05:51Parce que je pense qu'il va y avoir forcément un arbitre concernant...
05:56Comme souvent avec les décisions de Trump, on revient des droits de douane, etc.
06:00Donc on ne sait même pas si elle va être validée.
06:02Absolument, il a juste...
06:03Pardon, juste le problème de l'arbitre, c'est qu'il arrive au rythme auquel va l'arbitre,
06:07parce qu'un pouvoir judiciaire, ça doit prendre le temps d'examiner l'ensemble des éléments du cas.
06:13Et donc le mal, entre guillemets, d'ailleurs qu'on l'écrit avec un E à la fin ou pas,
06:18est fait.
06:18C'est vrai.
06:19Et ce qui est intéressant, c'est ce qui explique pourquoi Microsoft est monté au créneau.
06:23Parce que Microsoft, même s'ils ont mis 5 milliards dans Anthropik,
06:27ce qui est une petite somme pour Microsoft,
06:29est quand même concurrent d'Anthropik par le biais de OpenAI.
06:33Et par ailleurs, le Pentagone est son premier client.
06:35Donc Microsoft s'associe à Anthropik dans ce fait de justice,
06:40contre son premier client.
06:43Une solidarité, on va dire, assez téméraire, je dirais.
06:47Oui, mais elle est justifiée.
06:49En fait, elle s'explique par deux choses.
06:51La première, c'est qu'aujourd'hui, Microsoft propose à ses clients,
06:54notamment sur Azure, d'utiliser Anthropik,
06:57qui peuvent déployer effectivement sur Azure.
06:59Et donc ils ne veulent pas eux-mêmes se retrouver dans une situation difficile.
07:02Oui, parce que si ça vient sur liste noire, plus d'Anthropik.
07:05Voilà, et ils n'ont plus possibilité de l'utiliser,
07:08alors que Pentagone est effectivement leur premier client.
07:10Et puis la deuxième chose, c'est si c'est aussi facile pour l'administration Trump
07:15de mettre une entreprise sur une liste noire,
07:18c'est un vrai sujet pour l'ensemble des géants de la tech.
07:21Donc ces deux sujets ont fait en sorte que Microsoft,
07:24effectivement, soit monté au créneau, ce qui est totalement inédit.
07:27Tout le monde, en fait, si jamais ça, ça passe,
07:30tout le monde risquerait de se retrouver sur la liste noire.
07:33C'est ça.
07:34Et ça serait une horreur pour le business de toute la tech
07:38dont l'armée est un énorme client
07:41et le gouvernement fédéral est un énorme client.
07:43Donc en fait, à la limite, pour Microsoft,
07:47c'est risqué aujourd'hui,
07:49mais par rapport au risque que ça leur ferait prendre
07:52si jamais ils arrivaient sur cette liste noire,
07:55il vaut mieux bloquer le mécanisme de liste noire
07:57que de risquer de finir dessus,
07:58parce que là, c'est la fin des haricots.
08:00Et puis après, il y a un autre sujet que j'ai trouvé intéressant,
08:02c'est cette notion de contre-pouvoir entre l'administration
08:05et les géants de la tech de la Silicon Valley.
08:07Et ça me rappelle une...
08:09Tristan, tu dois sûrement le savoir,
08:11une polémique qui s'était passée dans les années 70,
08:15en France, au sujet...
08:16Ça fait plaisir ou pas qu'on dise que tu dois le savoir ?
08:18J'ai été né, mais enfin, j'avais moins de 14 ans.
08:21Je suis très jeune, mais tu vas voir pourquoi.
08:23En fait, dans les années 70,
08:25le ministère de l'Intérieur avait, avec l'INSEE,
08:28imaginé en France, reconstitué
08:30et en fait, aligné l'ensemble des fichiers administratifs
08:34pour tracer, pour surveiller,
08:36en tous les cas, pour s'assurer
08:38que l'ensemble des Français
08:39étaient en ordre vis-à-vis de l'administration.
08:42Ils avaient appelé ce projet Safari,
08:45ce qui est quand même assez étonnant.
08:46Et un jour, un article du Monde
08:47avait mis en avant ce projet
08:49en disant Safari ou la chasse aux Français.
08:52Parce qu'effectivement, c'était un moyen
08:53de reconstituer l'ensemble des fichiers
08:56et donc d'écouter de manière massive
08:57l'ensemble des Français.
08:58Et c'est à la suite de ça qu'est née la CNIL !
09:00Et voilà !
09:01Et à la suite de cette polémique
09:03qui a été absolument énorme en France,
09:06l'État, donc à l'époque Valéry Giscard d'Estaing,
09:08a fait en sorte qu'il y ait une loi
09:10qui soit votée en janvier 78
09:13pour protéger le citoyen
09:16contre une possibilité qu'avait l'État
09:18de faire une surveillance du masque.
09:19De fliquer, en fait.
09:20Et donc, c'est ainsi que la CNIL est apparue.
09:23Et aujourd'hui, effectivement, la CNIL
09:24continue sa mission de s'assurer
09:26que l'ensemble des fichiers,
09:28qu'ils soient gérés par une marque
09:29ou par un État,
09:31ne permettent pas une surveillance massive
09:33de ce qui se passe en France.
09:35Mais on a eu ce réflexe en France
09:38et aux US, beaucoup moins quand même.
09:40Voilà !
09:40Et donc, ce qui est intéressant,
09:41c'est que dans le premier cas,
09:43c'est l'opinion publique
09:43qui a été très ému par la situation.
09:46Aujourd'hui, aux États-Unis,
09:47en fait, c'est les géants de la tech
09:49qui, eux-mêmes, font contre-pouvoir.
09:52Donc, ce n'est pas un journaliste du monde,
09:54en l'occurrence en France,
09:55ou du Wall Street, aux États-Unis,
09:58qui, en fait, prend la parole
09:59et renverse l'opinion.
10:00Mais c'est les géants de la tech
10:02qui, en fait, négocient directement
10:03avec l'administration.
10:04Non pas pour des raisons éthiques,
10:06je pense,
10:07mais pour des raisons business et économiques.
10:09Et puis là, les masques tombent quand même.
10:11Parce que, donc, on voit
10:12qu'avec ce jeu-là,
10:14Anthropique,
10:14qui, donc, ne veut pas franchir
10:17cette ligne rouge.
10:18OpenEye qui dit
10:19« Moi, je veux bien la franchir ! »
10:20« Je veux bien prendre l'argent ! »
10:21« Je veux bien 200 millions ! »
10:23Ça fait toujours plaisir.
10:24Alors, même si, après,
10:25Samatman est un peu revenu
10:27en disant
10:27« Il y a malgré tout, quand même,
10:29quelques garde-fous, etc. »
10:30Mais bon, c'était trop tard.
10:31D'ailleurs, ça a joué
10:32en la défaveur d'OpenEye.
10:34Ah, mais j'ai lu qu'en fait,
10:35ChatGPT est devenue
10:36l'application la plus désinstallée
10:37de l'App Store
10:38à la suite de ça.
10:39Ah oui, c'est ça.
10:40Le paradoxe, c'est que Claude
10:41est devu l'installation
10:42la plus désinstallée.
10:43Moi, j'ai plein de gens
10:44qui...
10:45En fait, c'est le double effet.
10:46Il y a un enjeu d'image
10:47pour ces sociétés
10:48vis-à-vis du peuple américain
10:50qui est absolument colossal.
10:51Et la directrice
10:52du programme robotique
10:54de OpenEye
10:57a démissionné
10:59en disant
11:00« Écoutez, moi,
11:01je ne peux pas cautionner
11:04cette approche. »
11:06Et Nvidia vient d'annoncer
11:08qu'ils investissaient
11:08une somme d'argent
11:09assez conséquente
11:10dans The Thinking Machine Lab,
11:12qui est en fait menée
11:13par l'ancienne CTO
11:15d'OpenEye.
11:15On en parlera tout à l'heure.
11:16Voilà.
11:17Et qui, justement,
11:17prend le contrepoids
11:18d'OpenEye
11:19sur ces types d'IA.
11:20C'est ça.
11:20Et alors, parce que...
11:22Alors, Philippe, oui,
11:23mais ce n'est pas terminé
11:24en plus, cette histoire
11:24parce qu'il y a Google
11:25qui rentre dans la danse aussi.
11:26Oui, en fait,
11:27cette histoire,
11:27elle a commencé aussi.
11:30Moi, j'ai regardé les chiffres
11:31avant de...
11:31en préparant l'émission.
11:34Microsoft avait déjà
11:35un contrat
11:35d'à peu près
11:36170 millions de dollars
11:39avec l'US Air Force
11:41pour Azure.
11:44Anthropic avait
11:45un contrat prototype
11:46à 200 millions.
11:47OpenEye n'était pas
11:48encore dans la danse
11:49donc ils sont rentrés.
11:50Ça, c'est le premier point.
11:51Le deuxième point,
11:52oui, il y a du business
11:53et il ne faut jamais oublier
11:54que l'éthique, parfois,
11:55est un argument marketing
11:56pour le business.
11:57Donc, je pense
11:58qu'Anthropic se singularise
12:01et se distingue
12:02de ce point de vue-là.
12:03Sachant que, manifestement,
12:04il y a des sujets
12:04de performance aussi
12:05puisque quand on regarde
12:06la part d'usage
12:08dans les entreprises
12:09de cloud
12:10par rapport à Tchad GPT
12:11sur un an,
12:12la glissade de Tchad GPT
12:14est assez frappante.
12:16Mais surtout,
12:16moi, je trouve
12:17que le débat
12:18se cristallise
12:19sur un truc
12:19qu'on avait tous oublié
12:20parce qu'on y consent
12:21à chaque fois qu'on clique
12:22pour accepter une application
12:23qui sont les conditions
12:24générales d'utilisation.
12:26Et là, c'est comme si
12:26subitement le gouvernement
12:27américain disait
12:28hop, hop, hop, hop, hop,
12:29moi, je veux avoir
12:30un droit de regard
12:31sur les conditions
12:32générales d'utilisation
12:33et je vais vous tordre le bras
12:35si les CGU
12:35ne me conviennent pas.
12:36Et donc, on est dans une question
12:38qui est à la limite
12:38entre le droit,
12:39la pression par la société
12:41et la capacité
12:42de résistance
12:43entre guillemets
12:44soit du corps social
12:45comme tu le disais Isabelle
12:46soit des quelques géants
12:48de la tech
12:48qui veulent garder
12:49leur autonomie.
12:50En fait, la question,
12:50c'est est-ce que c'est
12:51les conditions générales
12:52qui ont force de loi
12:53ou est-ce que c'est la loi ?
12:54Le Patagone dit
12:55je respecte la loi
12:56donc vous devez,
12:57en fait, si vous travaillez
12:58avec moi,
12:59vous conformer à la loi.
13:00Ce qui choque
13:01aujourd'hui Microsoft,
13:03je crois,
13:03et c'est pour ça
13:03qu'ils sont rentrés
13:04dans la danse,
13:05c'est qu'en réalité,
13:07le simple fait
13:08de mettre Anthropique
13:09sur une liste noire
13:10donc vraiment
13:11au banc
13:12de toutes les entreprises
13:13américaines
13:13est un vrai sujet
13:15en fait.
13:15Oui, c'est la sanction
13:16qui fait peur.
13:18Voilà, c'est ça.
13:18C'est pas tant.
13:19Vous ne respectez pas.
13:20C'est une sanction
13:21d'un pays autoritaire finalement.
13:23Voilà, et Anthropique dit
13:24si vous ne voulez pas
13:24respecter mes conditions générales,
13:26vous pouvez travailler
13:27avec Google et Microsoft.
13:28C'est pas le sujet.
13:29Mais de là
13:29à être puni
13:31exagérément
13:31suite à cette décision.
13:33C'est ça le sujet de Microsoft.
13:34beaucoup dans l'humiliation
13:35c'est systématique
13:36donc c'est pas complètement
13:38surprenant de sa part.
13:38ça pose des questions éthiques
13:40sur lesquelles les Américains
13:41se positionnent aujourd'hui
13:43en boycottant
13:44entre guillemets
13:45Open AI
13:45et en se positionnant
13:46plus sur cloud.
13:48Effectivement,
13:48il y a des questions
13:49d'image et d'éthique.
13:51Et effectivement,
13:52est-ce qu'on peut laisser
13:53et on en parlera tout à l'heure
13:55avec la nouvelle société
13:56qui a racheté Meta,
13:57un agent IA
13:58ou une IA
13:59prendre une entière décision
14:00sur la vie
14:01ou la mort d'un homme,
14:03c'est assez compliqué.
14:04Alors,
14:05vous pensez que cette histoire
14:07est terminée ?
14:07Ben non, les amis,
14:08il manquait Google.
14:09Mais non, là, oui.
14:10Quand même.
14:11On tire notre feuilleton.
14:12Alors, quelle est la position
14:13de Google sur ce sujet ?
14:14Ben écoutez,
14:15ça y est,
14:16là encore je disais
14:16les masques tombent
14:17puisque Google
14:18n'a pas envie
14:20de se désolidariser
14:22du Pentagone,
14:22bien au contraire
14:23puisqu'il faut le savoir,
14:25en fait,
14:25Jiminy
14:26est intégré
14:27dans les outils
14:28de près de 3 millions
14:29d'employés du Pentagone.
14:30Donc, 3 millions
14:31savent quand même
14:32ça doit faire
14:32une grosse majorité.
14:33Alors, c'est pour des,
14:34on va dire,
14:35des actions civiles.
14:36C'est du non classifié.
14:38Voilà, c'est ça.
14:38Mais, pour commencer,
14:40pour commencer,
14:41on ne sait pas jusqu'où
14:42ça va aller,
14:42cette histoire-là.
14:44On commence toujours
14:45par gérer les agendas.
14:46On gère les agendas.
14:48Après, tu mets un bouton
14:49IA dedans,
14:50et ça y est.
14:51Et puis, on va
14:52de plus en plus loin.
14:54Et ces agents IA,
14:56donc, ont été choisis
14:57par le Pentagone.
14:58Alors, que ce soit
14:59le personnel civil,
15:00mais aussi les militaires,
15:01il y aura 8 agents
15:03préconfigurés.
15:04Ça va donc
15:05synthèse de réunions,
15:06tâches administratives,
15:07création de budget,
15:08quand même,
15:09vérification de conformité
15:10des actions envisagées
15:11avec la stratégie
15:12de défense nationale,
15:13etc.
15:14On voit que Google,
15:16là, qui était
15:17plutôt silencieux,
15:18plutôt spectateur
15:19de cette guéguerre,
15:20là, voilà.
15:21Avec une promesse
15:23vachement intéressante
15:24quand même,
15:24qui est de réduire
15:25de 6 mois à 6 semaines,
15:27je crois que c'est
15:27ce que Google avance,
15:29notamment toutes les opérations
15:30de planification.
15:32Et logistique.
15:32On voit très très bien
15:33que dans la situation actuelle,
15:35que ce soit au Moyen-Orient
15:36ou que ce soit
15:37sur le front ukrainien,
15:39l'agilité est probablement
15:41la première exigence
15:42de toute force
15:45qui s'engage
15:46sur le terrain.
15:47Donc, accélérer
15:47la planification,
15:48c'est une force
15:49énorme.
15:50On ne peut pas
15:51empêcher le Pentagone
15:52d'utiliser
15:53des sociétés
15:54souveraines
15:55et des services
15:56extrêmement performants.
15:57Donc, c'est vrai
15:58que la limite
15:58est extrêmement compliquée
16:00et l'administration
16:02et le Pentagone
16:04sont,
16:04en dernier ressort,
16:06les garants
16:07d'une bonne utilisation
16:08ou d'une utilisation
16:09raisonnable.
16:09Il semblerait
16:10qu'Azur soit
16:11le cloud
16:12des Israéliens
16:13et il est aujourd'hui
16:15quasiment prouvé
16:15que l'ensemble
16:16des conversations
16:17collectées
16:18des Palestiniens
16:20a été massivement
16:21traité
16:22sur le cloud
16:22Azure
16:23et a permis
16:23aux Israéliens
16:24sûrement
16:26contribuer
16:27à leur supériorité.
16:29C'est très compliqué.
16:30On ne peut pas
16:31empêcher
16:32un pays
16:33et ses alliés
16:34d'utiliser
16:34ses propres outils
16:35sachant qu'il faut
16:37que le pays
16:38soit raisonnable.
16:39Il y a un quatrième
16:42acteur
16:42ou une classe
16:43d'acteurs
16:44qui entre en jeu.
16:45On a dit
16:45qu'il y avait
16:46l'État,
16:46on a dit
16:46qu'il y avait
16:47les citoyens,
16:47il y a les géants
16:48de la tech
16:49et maintenant
16:49il y a aussi
16:50les salariés
16:51des géants
16:52de la tech
16:52parce que
16:53chez Google
16:53je crois que
16:54c'était en
16:552018
16:58où il y avait
16:59eu un mouvement
16:59social
17:00en disant
17:00écoutez
17:00non
17:01on ne peut pas
17:03accepter
17:03que notre technologie
17:04soit utilisée
17:05de Google
17:06soit utilisée
17:06pour tuer des gens
17:07alors c'était
17:08une autre époque
17:08Rappelez-vous que Boston Robotics
17:10Alphabet avait été
17:11le propriétaire
17:13de Boston Dynamics
17:14tous ces robots
17:17qui après
17:17ont été conçus
17:19à des fins militaires
17:19en tout cas
17:20le Pentagone
17:20et en fait
17:21toute la défense américaine
17:22s'était intéressée
17:23à ça
17:23et Google avait été obligé
17:24de se désengager
17:25de cette boîte-là
17:27parce que ça commençait
17:28vraiment à sentir
17:28le roussi
17:29Voilà exactement
17:29et là c'est en train
17:30de repartir
17:31puisqu'en fait
17:32il y a des collaborateurs
17:34de Microsoft
17:35de Google
17:36et d'OpenEye
17:37qui ont commencé
17:38à faire une pétition
17:39en disant
17:39qu'ils n'acceptaient pas
17:41que leurs employeurs
17:44se soumettent
17:45à l'armée américaine
17:47sans condition
17:49et là c'est super important
17:51parce qu'en fait
17:51le marché
17:52est en extrême tension
17:53au niveau de l'emploi
17:54au niveau des data scientists
17:56et t'imagines
17:57ils sont tous en train
17:58de s'affiler
17:59des dizaines de millions
18:01pour acheter
18:01les uns les autres
18:02et là
18:03il se trouve
18:04que tu en aurais
18:04des gros morceaux d'équipe
18:06qui partiraient
18:07par exemple
18:08chez Antropique
18:09mais on va voir
18:10il faudra voir
18:11s'ils atteindront
18:12le nombre
18:13il y avait plusieurs milliers
18:14à l'époque
18:14contre le projet Maven
18:15en 2018
18:16ils étaient plus de 5 ou 6 000
18:18à avoir
18:19on va voir
18:20si ça remonte
18:21et donc on se retrouve
18:23dans une situation
18:23où qui est le contre-pouvoir
18:25qui est le contre-pouvoir
18:26pour faire en sorte
18:27que l'état
18:28ait un positionnement
18:29raisonnable
18:29dans l'utilisation
18:30de ces outils
18:31c'est très compliqué
18:31c'est plus la presse
18:33c'est en partie
18:35des patrons
18:35des géants de la tech
18:37mais c'est aussi
18:38comme tu le disais
18:38les salariés
18:39en tous les cas
18:40il faudra peut-être
18:40qu'un jour
18:41les citoyens américains
18:42aussi
18:43émettent leur point de vue
18:44mais je ne sais pas
18:45très bien par quel billet
18:46et si c'est plus la presse
18:47la presse si tu veux
18:49tu as Jeff Bezos
18:51qui contrôle
18:53malheureusement
18:53de plus en plus
18:55le Wall Street Journal
18:56et qui est en train
18:57de cramer le journal
18:58oui oui exactement
18:59les gens sont partis
19:00ils sont partis
19:00ils sont partis
19:01ils sont partis
19:01ils sont partis
19:01ils sont partis
19:01ils sont partis
19:01ils sont partis
19:02donc en fait
19:03c'est assez préoccupant
19:05que la presse
19:06ne soit pas indépendante
19:07quel contre-pouvoir ?
19:08ce que j'aurais préféré
19:10de la part du gouvernement
19:10américain
19:11c'est qu'ils réquisitionnent
19:12les IA
19:13on est dans un temps de guerre
19:15une situation d'urgence
19:17ok
19:17vous ne voulez pas
19:18nous donner
19:19vos informations
19:20nous on réquisitionne
19:22en fait tout ça
19:22vous n'avez pas
19:23le choix
19:24de ne pas nous les donner
19:25j'aurais préféré ça
19:26en fait
19:26que de dire
19:28ok c'est non
19:29je vous mets sur liste noire
19:30en fait
19:31je trouve que c'est
19:31contre-productif
19:32on peut comprendre
19:33que des moments clés
19:34de l'histoire
19:35ça serait de la réelle politique
19:37tu vois
19:37ce que tu dis
19:38parce qu'en fait
19:38quelque part
19:39personne n'aurait été
19:40vraiment dupe
19:40du genre
19:41tu ne veux pas me la donner
19:42je vais te tordre le bras
19:43tu vas faire
19:44et je vais l'apprendre quand même
19:45et tout le monde
19:47sauve la face
19:48en quelque sorte
19:49et là non
19:50mais c'est treuve
19:51je vais t'humilier
19:53et c'est d'ailleurs
19:54ce qui s'est passé
19:54le 11 septembre
19:55le 11 septembre
19:56alors pardon
19:56je fais un peu vieille mamie
19:57mais le 11 septembre
19:58mais non
19:58tu es la plus jeune d'entre nous
20:00et de loin
20:03le 11 septembre
20:05effectivement
20:05il y a eu une discussion
20:06directe entre les géants
20:08de la tech de l'époque
20:08et les services de sécurité
20:10au moment des détruits de toi
20:12c'était l'époque de Yahoo
20:13absolument
20:14et donc on nous demandait
20:15de manière très régulière
20:16de donner des adresses IP
20:18c'est-à-dire
20:18il n'y avait plus de réquisitions
20:19judiciaires
20:20on était sur des systèmes
20:21beaucoup plus directs
20:22où il était question
20:23de sécurité de la population
20:25et donc on ouvrait nos livres
20:26pour fournir les adresses IP
20:28sur demande de la politique
20:29oui on était dans une situation
20:30aussi
20:31de guerre
20:32exactement
20:32mais je crois qu'il faut
20:33juste pour conclure
20:34quand même
20:34se remettre dans un contexte
20:35parce qu'on peut se demander
20:36si ça pourrait se produire
20:39en Europe
20:40je pense que
20:41là on est dans un moment
20:43où on se souvient
20:44ou en tout cas
20:45les Etats-Unis nous rappellent
20:47qu'ils sont un complexe
20:48militaro-industriel
20:49abrité par une constitution
20:51mais qu'ils sont d'abord
20:52un complexe militaro-industriel
20:53et je dis ça dans les deux sens
20:55sans le Pentagone
20:56et les investissements massifs
20:59de l'armée
21:00il y a tout un tas
21:01de projets de recherche
21:02qui n'auraient jamais
21:03été financés
21:03qui n'auraient jamais
21:04donné des technologies
21:05et de start-up aussi
21:06parce qu'ils accompagnent
21:08à loin
21:09c'est clair
21:10et combien d'innovations
21:12militaires sont arrivées
21:13après dans le grand public
21:14le GPS
21:15et après toute la question
21:17c'est ce que tu évoquais
21:18tout à l'heure
21:18c'est quand est-ce
21:19que l'état de guerre
21:20commence
21:20parce que les règles rouges
21:22en fait
21:23et les conditions générales
21:24d'entropique
21:24c'était
21:25ne pas écouter
21:26de manière massive
21:27les américains
21:29et s'assurer
21:30qu'il n'y ait pas
21:30qu'il y ait effectivement
21:31un homme avant que quelqu'un
21:33soit tué par une IA
21:34donc c'est des choses
21:35qui paraissent
21:36très raisonnables
21:37en fait
21:37j'aimerais qu'on enchaîne
21:38avec un autre sujet
21:39on n'a pas parlé encore
21:40de Mark Zuckerberg
21:41c'est dommage
21:41il faut qu'en se faire plaisir
21:44Marco
21:44Marco qui vous le savez
21:45aime bien racheter
21:46plein de trucs
21:47il a racheté
21:48des talents
21:49de l'IA
21:50avec plus ou moins
21:51de la case d'ailleurs
21:52parce que
21:52quand on voit
21:53ce qui s'est passé
21:53avec
21:54Monsieur Wong
21:56qui était
21:56le pape de l'IA
21:58visiblement
21:58ça ne se passe pas
21:59très très bien
21:59au niveau de
22:00méta et AI
22:01enfin bref
22:03voilà que
22:03Mark Zuckerberg
22:04vient de s'offrir
22:06Maltbook
22:07Maltbook
22:07si vous êtes un fidèle
22:08de Tech & Co
22:08on en a déjà parlé
22:09un truc assez rigolo
22:10c'est en fait
22:11un réseau social
22:12géré par des IA
22:13en fait
22:14et c'est des IA
22:15en fait
22:16réservés à des IA
22:17réservés à des IA
22:18voilà
22:18et en fait
22:19l'être humain
22:20est spectateur
22:21en fait
22:21de ce que
22:22des IA
22:22peuvent échanger
22:24sur cette espèce
22:25de réseau social
22:26c'est un peu
22:26un Facebook
22:27pour les IA
22:28si je dois résumer
22:30cette chose
22:31et donc
22:32Mark Zuckerberg
22:33vient de s'offrir
22:33cette boîte
22:34qui appartenait
22:35à Matt Schlich
22:37et Ben Parr
22:38qui sont les deux fondateurs
22:39de ce réseau social
22:41pourquoi faire ?
22:43ça c'est la question
22:43qu'est-ce qui va bien
22:44pouvoir en faire ?
22:45Est-ce que vous avez
22:45une petite idée ?
22:47Je pense que c'est stratégique
22:50c'est stratégique ?
22:51Je pense que c'est stratégique
22:52parce que
22:52aujourd'hui
22:53tout le monde
22:54parle beaucoup
22:54des agents IA
22:55alors qu'est-ce qu'un agent IA ?
22:56si on ne fera plus
22:57nous-mêmes
22:58directement une tâche
22:59mais on la déléguera
23:00à son agent IA
23:02et en fait
23:03ce réseau social
23:04sur lequel
23:04il n'y a plus d'humains
23:05qui discutent
23:06mais simplement
23:07des IA
23:08peut devenir
23:09en fait
23:09une source d'informations
23:10absolument phénoménale
23:12pour faire fonctionner
23:13les agents IA
23:14en fait
23:14donc peut-être
23:15qu'un jour
23:16vous aurez un problème
23:16avec votre voiture
23:18et vous demanderez
23:19à votre agent IA
23:20de discuter
23:21avec l'agent IA
23:22des garagistes
23:23et c'est peut-être
23:23sur le réseau social
23:25des agents IA
23:25que ces rencontres
23:26pourront se faire
23:27et que donc
23:28vous aurez un service
23:30de votre agent
23:30d'autant plus pertinent
23:31on a l'impression
23:32que c'est un film
23:33de science-fiction
23:34mais c'est la réalité
23:36de la Silicon Valley
23:37et alors moi
23:38j'ai testé là
23:39tout à l'heure
23:40Mollbook
23:40j'y suis allée
23:41et j'ai tapé
23:42le mot-clé
23:42justice
23:43et donc j'ai lu
23:44ce qu'expriment
23:46les agents IA
23:47sur la justice
23:48et alors ils expliquent
23:50comment les agents IA
23:51vont aider les humains
23:53à rendre une justice
23:54plus équitable
23:55puisque les agents IA
23:57n'ont pas d'émotion
23:58et donc ils n'ont pas
23:59de biais
24:00lorsqu'ils prennent
24:01une décision
24:02et la conclusion
24:02de l'article
24:03que je posterai
24:04sur LinkedIn
24:05demain
24:05parce que j'ai trouvé
24:06ça absolument fascinant
24:07la conclusion
24:08de l'article
24:09de cet agent IA
24:10est de dire
24:11ben voilà
24:12il faudrait aujourd'hui
24:13une justice
24:14pour non seulement
24:15les humains
24:15mais aussi
24:16les agents IA
24:17pour que
24:18d'une manière générale
24:19le monde
24:20vive plus en paix
24:21donc c'est absolument
24:22un film de science-fiction
24:24et pourtant
24:25c'est la réalité
24:26Mark Zuckerberg
24:28voulait écouter
24:28massivement
24:29le monde entier
24:30ce qu'il a réussi
24:31maintenant il va
24:32mettre en sorte
24:33une infrastructure
24:34pour écouter
24:35et aider
24:36l'ensemble
24:36des agents IA
24:37vous vous rendez compte
24:38quand un jour
24:38on condamnera
24:39un agent IA
24:40on le punit comment
24:41en fait
24:41on lui donne
24:42une vieille carte graphique
24:43Nvidia
24:44tu vas passer
24:47avec une carte graphique
24:48derrière les agents IA
24:52il y a des hommes
24:53il y a des hommes
24:54mais un homme
24:56peut avoir
24:5688 bottes
24:58paraît-il
24:59enfin voilà
24:59en moyenne
25:00sur Mollbou
25:01c'est un petit peu
25:02préoccupant
25:02ce que tu nous racontes
25:03parce que
25:03j'ai eu cette information
25:04qui est sortie
25:05c'est que
25:06en fait
25:06si tu mets des IA
25:08dans la situation
25:09où ils doivent
25:10décider
25:11s'ils lancent
25:12ou non
25:13la bombe nucléaire
25:14en cas de
25:15de conflit
25:17et bien dans 95%
25:18des cas
25:19les IA
25:19décident de lancer
25:20la bombe nucléaire
25:21forcément
25:22ils n'ont pas
25:23beaucoup de
25:23de skin in the game
25:25ils ne sont pas
25:26impliqués
25:28vraiment
25:29si tout pète
25:29et
25:30alors c'est une simulation
25:32évidemment
25:33elles ne sont pas
25:34connectées
25:34au système
25:35de prise de décision
25:36mais tu vois
25:37qu'un humain
25:39quand même
25:40qui a peut-être
25:41des enfants
25:41ou en tout cas
25:42de la famille
25:43ou des gens
25:43au loin
25:44etc
25:44avant d'appuyer
25:45sur le gros
25:46bouton rouge
25:48il ne répond pas
25:49oui j'appuie
25:50dans 95%
25:51des cas
25:51alors que
25:53l'IA
25:54complètement distante
25:55de ces problèmes
25:56humains
25:57décomplexée
25:58voilà
25:58décomplexée
25:59appuie
26:00dans 95%
26:01des cas
26:01t'imagines
26:02en fait
26:02si tu transposes
26:03ça à la justice
26:05il dit
26:05ah oui
26:06il faut les abattre
26:07tous
26:07parce qu'ils ont
26:08volé des pommes
26:10je voulais remonter
26:11sur ce que c'est Tristan
26:12je pense que
26:13l'analogie
26:14du bouton
26:15elle a pas mal
26:17de limites
26:17parce que
26:18il faut se souvenir
26:20qu'elle s'inscrit
26:21en tout cas
26:21dans les scénarios
26:22qu'on a connus
26:22concrètement
26:23dans les deux événements
26:25majeurs
26:25qu'on a connus
26:27il y avait une chaîne
26:28de commandement
26:29et il y a toute une réflexion
26:30dans un tout petit bouquin
26:31que je vous recommande
26:31de lire ou de relire
26:32de Gunther Anders
26:34écrit dans les années 60
26:35qui s'appelle
26:35le temps de la fin
26:36sur les conséquences
26:37anthropologiques
26:38de l'entrée
26:38dans l'air atomique
26:39et sur le fait
26:40que celui
26:40qui appuie
26:41sur le bouton
26:42ne se pose pas
26:43la question
26:43puisqu'il est
26:44dans une chaîne
26:44d'exécution
26:46la question
26:47se transpose
26:47d'ailleurs
26:48à l'agent IA
26:49qui appuiera
26:50sur un bouton
26:51que ce soit
26:51le bouton pay
26:52ou le bouton destroy
26:55donc là
26:55on est au-delà
26:57de l'éthique
26:57on est presque
26:58dans l'anthropologie
26:59pour revenir
27:00à Moldbook
27:00ce que j'avoue
27:01c'est que
27:03comme d'habitude
27:04Zuckerberg
27:04achète des trucs
27:05dont la peinture
27:06n'est pas encore
27:06très fraîche
27:08pas sèche
27:10elle est très fraîche
27:13en revanche
27:13ce qui est frais
27:14c'est les fuites
27:14de sécurité
27:15les fuites d'email
27:16voilà
27:17en revanche
27:18je pense
27:18là où je rejoins
27:19Isabelle
27:20c'est que
27:20c'est un bac à sable
27:21c'est un bac à sable
27:22d'entraînement
27:24remarquable
27:24pour observer
27:25des comportements
27:25y compris
27:26des comportements
27:27qui partent en live
27:28puisque j'avais compris
27:29que moi
27:29ces agents IA
27:29avaient discuté
27:31de la perspective
27:31d'inventer un langage
27:32à eux
27:32que les hommes
27:33ne puissent pas
27:33comprendre
27:33histoire d'être tranquille
27:35allez les amis
27:36on va faire une petite pause
27:37il est déjà 20h
27:38mon dieu que ça passe vite
27:39Tristan Nitto
27:39Isabelle Bordry
27:40Philippe Devost
27:41on revient dans un instant
27:43pour la suite
27:44de ce débrief
27:45de l'actu tech
27:45on a encore
27:46plein de bons sujets
27:48Apple qui est en train
27:49de décentraliser
27:51la production
27:52de ses iPhone
27:53la Chine n'est plus
27:54au centre
27:55de tout cela
27:56on va vers l'Inde
27:57on va en parler
27:57dans un instant
27:58on parlera de Nvidia
27:59et de Zoox
27:59aussi
28:00à tout de suite
28:01après cette petite pause
28:02merci d'être là
28:05Tech & Co
28:06la quotidienne
28:07sur BFM Business
Commentaires