- il y a 53 minutes
- #ia
- #tech
- #signal
- #donnees
- #meredithwhittaker
- #app
- #messageries
Elle est celle qui s’oppose frontalement aux géants de la Tech et à l’appétit des États pour nos données. Voix dissidente de la Silicon Valley, Meredith Whittaker est la présidente de Signal, la messagerie chiffrée de bout en bout. Elle est également la cofondatrice de l’AI Now Institute, dont le rôle est d'étudier les impacts sociaux, éthiques et politiques de l’intelligence artificielle. La Californienne a accepté d’accorder un long entretien au « Point », dans lequel elle revient notamment sur les valeurs à défendre dans une période technologique en pleine mutation.
#IA #tech #Signal #données #MeredithWhittaker #app #messageries
Suivez-nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
Bluesky : https://bsky.app/profile/lepoint.fr
Threads : https://www.threads.net/@lepointfr
WhatsApp : https://www.whatsapp.com/channel/0029VaDv82FL2ATwZXFPAK3c
www.lepoint.fr
#IA #tech #Signal #données #MeredithWhittaker #app #messageries
Suivez-nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
Bluesky : https://bsky.app/profile/lepoint.fr
Threads : https://www.threads.net/@lepointfr
WhatsApp : https://www.whatsapp.com/channel/0029VaDv82FL2ATwZXFPAK3c
www.lepoint.fr
Catégorie
🗞
NewsTranscription
00:00Aujourd'hui, nous avons le plaisir et la grande chance de recevoir Meredith Wootaker.
00:05Meredith Wootaker est la présidente de l'application Signal, qui est une application encryptée,
00:09utilisée dans le monde entier par des journalistes, des activistes, mais aussi tout simplement des citoyens.
00:14Et ce qui m'intéresse aujourd'hui, c'est de comprendre le monde de Meredith Wootaker,
00:18les personnes qui l'ont influencé, mais aussi quelles sont les valeurs à défendre
00:23pour mieux vivre cette période technologique en pleine accélération.
00:27Ma première question à Meredith serait la suivante.
00:31Vous avez été assez critiqué à l'égard des systèmes d'IA autonomes qui se développent partout.
00:38Dans quelle mesure devrions-nous retenir uniquement le meilleur de ces systèmes et éviter le pire ?
00:46Dans quelle mesure considérez-vous cela comme une menace pour l'humanité ?
00:51Eh bien, je pense qu'en général, nous devrions toujours privilégier le meilleur et éviter le pire.
00:56C'est un mode de vie.
00:57En ce qui concerne l'IA autonome, je pense que mon objectif est de garantir l'intégrité de signal
01:03et la possibilité de fournir des communications véritablement privées.
01:11Le problème que j'ai soulevé, et que beaucoup d'autres ont également soulevé,
01:16concerne spécifiquement l'intégration de l'IA dans les systèmes d'exploitation et son déploiement,
01:21de manière à exiger un accès massif aux données et leurs utilisations.
01:31Ce qui crée des architectures de sécurité et de confidentialité préoccupantes.
01:39Signal, par exemple, doit fonctionner sur un système d'exploitation,
01:43qu'il s'agisse d'Android ou d'iOS,
01:45et depuis plus d'un demi-siècle d'histoire de l'informatique,
01:50il est généralement admis qu'un système d'exploitation est une boîte à outils,
01:55un ensemble d'outils que les développeurs, comme Signal,
01:59peuvent utiliser pour garantir le bon fonctionnement de leurs applications,
02:03et que les utilisateurs peuvent utiliser lorsqu'ils exploitent une machine pour en gérer le fonctionnement.
02:09Avec l'intégration de l'IA dans le système d'exploitation,
02:12ou son déploiement, de manière à exiger des autorisations excessives sur celui-ci,
02:18nous commençons à rompre avec ce paradigme
02:20et à créer un ensemble d'outils
02:22qui ne sont plus sous le contrôle du développeur ni de l'utilisateur.
02:30Donc, sous l'appellation d'IA agentique,
02:32on observe en réalité une perte de contrôle des utilisateurs et des développeurs,
02:37et ainsi qu'une menace existentielle pour des applications comme Signal,
02:42qui doivent faire confiance au système d'exploitation
02:46et s'efforcent de garantir sécurité et confidentialité
02:50avec un niveau de robustesse élevé au niveau de l'application.
02:54C'est pourquoi nous en parlons,
02:56parce que nous savons que Signal est une infrastructure critique
03:00pour des millions de personnes dans le monde.
03:02Et nous constatons que l'engouement et les espoirs
03:05que sous-tend l'IA agentique
03:07occultent certaines conséquences techniques majeures de son déploiement.
03:15Donnez-nous des exemples concrets de ce qui pourrait être dangereux,
03:18par exemple le fait que les agents puissent accéder
03:20à nos réservations, messages ou calendriers.
03:26C'est assez simple.
03:27Il suffit de réfléchir à ce qu'est un agent
03:31et aux promesses qui en découlent.
03:34Prenons l'exemple de la page d'accueil de Claude Cowork,
03:38et on y dit « Organisez votre système de fichiers,
03:41organisez votre bureau, envoyez des e-mails ».
03:44Tout cela semble idéal,
03:45car nous ne voulons pas avoir à effectuer ces tâches.
03:48Vous savez, on aimerait se promener dans un parc,
03:51faire une sieste ou réaliser n'importe quel rêve.
03:54Mais pour cela, un agent aurait besoin de ce premier exemple,
03:58d'accéder à votre système de fichiers,
04:01c'est-à-dire au niveau les plus profonds
04:03de votre système d'exploitation,
04:06là où se trouvent des informations extrêmement personnelles.
04:10Et pour atteindre ces données,
04:11il ne lui suffit pas d'y avoir accès,
04:13pour accéder à votre calendrier et à vos e-mails,
04:16ou même faire fonctionner votre navigateur.
04:18Il lui faut aussi pouvoir agir dessus.
04:21Il va donc avoir besoin d'effectuer des appels à pays externes.
04:25Il doit être autorisé à réserver avec votre carte bancaire.
04:29Dans le cas d'une location de voiture ou d'une réservation,
04:32par exemple, il faut pouvoir supprimer des fichiers
04:35ou en créer des nouveaux.
04:36Et dans le cas dans lequel, disons,
04:38on réserve une table au restaurant
04:40et que l'on invite des amis,
04:42il aurait besoin d'un accès à vos données signal.
04:45Voilà le problème.
04:46L'agent a besoin d'accéder à ces données,
04:49mais aussi de pouvoir agir dessus
04:51sans votre consentement explicite.
04:54Aujourd'hui, il existe des solutions pour isoler cet accès.
04:58Il existe des moyens de le contenir.
05:01Et c'est formidable.
05:03Mais en fin de compte, nous parlons d'un paradigme.
05:06Et le paradigme actuel de l'agentivité
05:09repose sur un accès quasi illimité à tout.
05:12L'agent dispose donc d'un contexte
05:14lui permettant de comprendre votre environnement
05:16et d'agir sans demander votre consentement.
05:18Car bien sûr, un agent qui demande systématiquement
05:21« Est-ce que cela vous convient ? »
05:23« Est-ce que cela vous convient ? »
05:25Il existe donc une tension fondamentale.
05:27Même si Signal a plaidé avec insistance
05:30pour des méthodes de réduction des risques,
05:32notamment la possibilité pour les développeurs
05:34de refuser que les agents accèdent à leurs données,
05:36il est impératif de ralentir
05:39le déploiement inconsidéré des agents.
05:42Nous ne devrions pas nous contenter
05:44d'intégrer ces éléments au système d'exploitation.
05:46Vous voyez déjà certaines des conséquences
05:49avec le système d'exploitation de Windows
05:51et des dysfonctionnements causés
05:53par ces déploiements d'agents.
05:54Et nous avons besoin d'une documentation
05:56bien plus complète, car Signal peine même
05:58à comprendre l'impact des mises à jour
06:00des systèmes d'exploitation.
06:01C'est très préoccupant, compte tenu des enjeux.
06:03Et pourrait-on imaginer des agents
06:05agissant de manière sécurisée,
06:07par exemple avec du chiffrement ?
06:12Il existe des versions d'agents
06:14bien plus performantes
06:15et d'autres beaucoup plus imprudentes.
06:18On peut les isoler dans un environnement sécurisé.
06:22Le sandboxing consiste à limiter leur accès
06:24aux données sur votre appareil ou votre système.
06:27Ils peuvent accéder à certaines ressources
06:30que vous autorisez, mais pas à d'autres.
06:31Vous pouvez vous assurer que les seuls modèles
06:34utilisés par un agent s'exécutent sur votre appareil
06:36afin qu'aucune donnée ne soit envoyée vers le cloud.
06:40Vous pouvez également limiter fortement leurs permissions.
06:43Tout cela est possible.
06:44L'un des problèmes est que plus vous implémentez ces mesures,
06:48moins l'agent a d'autonomie.
06:51S'il ne peut accéder qu'à une petite quantité de données,
06:54ses capacités seront limitées.
06:56S'il ne peut exécuter qu'un modèle sur votre appareil
06:59au lieu d'un modèle sur le serveur cloud,
07:01il ne pourra pas accéder aux modèles les plus puissants,
07:04les grands modèles linéaires en nombre entier,
07:07LLM, car ils sont trop volumineux
07:09pour s'exécuter sur votre appareil.
07:11Donc, encore une fois, ce ne sont que des hypothèses.
07:14Il existe de meilleures façons de procéder.
07:17Mais comme je l'ai souligné précédemment,
07:19cette tension fondamentale entre le rêve d'un agent omniscient
07:23et capable de tout faire sans autorisation,
07:26et les meilleures pratiques en matière de sécurité
07:28et de confidentialité,
07:29présente une tension fondamentale.
07:31Vous m'avez prévenu, Mérédith,
07:33que l'IA boîte noire utilisée dans certaines entreprises
07:37érode la confiance et renforce les déséquilibres du pouvoir.
07:42Pensez-vous qu'un véritable changement
07:44puisse venir de l'intérieur même des géants de la tech,
07:47obsédés par la croissance ?
07:48Parce que vous n'avez rien contre les individus, me dites-vous.
07:53Ou pensez-vous que seules les alternatives comme Signal
07:57peuvent prouver que nous pouvons faire les choses différemment ?
08:02D'où vient le problème ?
08:03Du modèle économique de ces géants de la tech ?
08:06Et peut-on modifier ces modèles ?
08:14Finalement, je pense que les initiatives sont importantes.
08:17Les initiatives déterminent en fin de compte
08:20l'action d'une institution donnée.
08:22Et je pense que le modèle économique
08:25sur lequel reposent les grandes entreprises technologiques,
08:28la base du moteur qui les propulse
08:30est incompatible avec des principes
08:32comme la protection de la vie privée.
08:35Et maintenant que l'on constate
08:37l'implémentation des agents d'IA,
08:39il y a un problème de cybersécurité fondamentale
08:42qui se pose aujourd'hui.
08:44Je pense qu'un changement d'initiative
08:46est donc nécessaire
08:47pour que nous puissions réellement observer
08:49les changements dont nous avons besoin.
08:51et ces initiatives peuvent venir de différents endroits.
08:57On pourrait observer des normes d'approvisionnement
09:01plus strictes.
09:02On pourrait voir une plus grande sensibilisation
09:04à l'échelle mondiale aux enjeux de la cybersécurité
09:07et des dépendances liées à ces plateformes.
09:12On pourrait avoir des investissements
09:14dans des modèles d'IA plus petits
09:16avec différentes méthodes d'évaluation.
09:18On pourrait voir un regain de recherche fondamentale
09:21sur les questions de confidentialité et de sécurité
09:24et leur intégration dans les nouvelles technologies.
09:27Je pense que de nombreuses personnes brillantes,
09:29si elles disposaient des ressources,
09:31d'une orientation et d'un espace
09:33permettant à une communauté de pratiques
09:35de se développer,
09:36pourraient accomplir des choses extraordinaires
09:38et transformer le paysage technologique actuel.
09:41Mais encore une fois,
09:42les questions de ressources et d'initiatives
09:44restent au cœur du problème,
09:45de comment on fait ça.
09:49Et pensez-vous que ce capitalisme de surveillance
09:52vient du fait que ces applications sont gratuites
09:55ou sans ces lettres
09:56et que l'utilisateur est le projet, n'est-ce pas ?
10:01Eh bien, je pense que le cœur de ce modèle économique,
10:05vous savez, ça dépend.
10:06On pourrait remonter loin,
10:08mais vous savez, ça vient de deux choses.
10:13Premièrement, il n'y avait pas de...
10:15Ou disons trois choses.
10:17Il y a eu la privatisation,
10:19la commercialisation d'Internet
10:21qui a eu lieu aux États-Unis dans les années 1990.
10:23C'était une ère très néolibérale.
10:26Le dogme était que toute réglementation,
10:29toute garde-fous était mauvaise
10:30et que le marché privé
10:31était le seul vecteur de progrès et de changement.
10:35Ce n'est pas si différent d'aujourd'hui.
10:38Et à cette époque, sous l'administration Clinton,
10:40il y avait un consensus bipartisan aux États-Unis.
10:43On voyait beaucoup d'espoir économique
10:45qui s'est finalement avéré plus ou moins justifié
10:49dans la privatisation d'Internet.
10:51En confiant au secteur privé,
10:52cette infrastructure construite depuis la guerre froide
10:55est utilisée par les institutions de recherche
10:57et les gouvernements.
11:02Ce faisant, ils ont commis deux erreurs fondamentales
11:05qui ont, en quelque sorte,
11:07jeté les bases de ce système pathologique.
11:12Nous sommes aujourd'hui confrontés
11:15à ce modèle économique de surveillance.
11:18L'une de ces erreurs a été de n'imposer
11:20aucune restriction à la surveillance,
11:22aucune réglementation sur la protection de la vie privée,
11:25permettant ainsi aux secteurs privés
11:28de collecter autant de données qu'ils le souhaitaient,
11:30et même plus que les gouvernements.
11:32Aucune restriction n'étaient imposées,
11:34et ce n'est pas par ignorance.
11:35De nombreux travaux étaient menés
11:37sur l'inconstitutionnalité d'une telle infrastructure
11:40de surveillance permissible en matière de vie privée.
11:45Beaucoup mettaient en garde,
11:47mais la pression était forte,
11:49notamment de la part du secteur publicitaire,
11:52qui voulait s'assurer de ne pas être exclu
11:54d'une nouvelle plateforme.
11:57Ils possédaient les magazines,
11:59la télévision, les journaux,
12:00ils ne voulaient pas qu'Internet évolue
12:03sans leur participation.
12:05Plusieurs modèles étaient envisagés,
12:07Internet financé par des fonds publics,
12:09version communautaire locale, etc.
12:12Ce dont nous parlons n'est donc pas une fatalité.
12:14Ce dont nous parlons,
12:15ce sont quelques décennies de l'histoire humaine
12:17qui ont posé les fondements de ce phénomène.
12:20Or, ce que l'on oublie souvent de mentionner,
12:22c'est que nous savons depuis des siècles,
12:24voire depuis l'avènement du télégraphe,
12:26du téléphone, des réseaux postaux,
12:27que ces technologies constituent des monopoles naturels.
12:31Un réseau de communication repose fondamentalement
12:34sur une norme.
12:35Ils doivent pouvoir interagir avec lui-même.
12:38On ne souhaite pas avoir 20 téléphones différents
12:40pour appeler 20 amis différents,
12:43ni 15 applications différentes sur son téléphone.
12:48Ces technologies sont des monopoles naturels.
12:51C'est pourquoi elles ont été réglementées et structurées
12:54de manière à en tenir compte pendant de nombreuses décennies.
12:59Dans les années 90,
13:02sous l'influence du néolibéralisme,
13:03ce principe a été quelque peu oublié.
13:07Vous avez donc légué un modèle économique
13:09qui, grâce à une boucle de rétroaction,
13:12incitait à la surveillance,
13:13à la collecte de données
13:14pour mieux connaître vos clients,
13:16et à une croissance à tout prix
13:18afin de recueillir toujours plus de données,
13:20d'accroître la visibilité de vos publicités
13:23et de vendre l'accès à ses clients
13:25en fonction des profils de données
13:26collectés par ce modèle de surveillance.
13:28Et nous n'allons pas vous réglementer
13:30comme des monopoles.
13:31Nous n'allons pas vous traiter comme tel.
13:33Nous allons, en quelque sorte,
13:35oublier cette idée reçue de longue date.
13:37Et c'est ainsi que l'on en arrive
13:39à la situation actuelle
13:40où une poignée d'acteurs dominants,
13:42principalement basés aux Etats-Unis
13:44et en partie en Chine,
13:46ont adopté ce modèle économique en premier.
13:49Ils ont développé une infrastructure
13:50de plateformes et maintenant
13:52des monopoles de l'IA
13:53grâce à cette combinaison des forces.
13:55Pourtant, dans notre discours,
13:57ces monopoles ne sont pas toujours
13:59considérés comme tels,
14:00ni comme des formations issues
14:02de forces économiques,
14:03politico-économiques et matérielles
14:05très spécifiques.
14:06Il y a cette sorte de fantasme
14:08selon lequel le problème
14:10serait un manque d'innovation
14:11ou de créativité,
14:12sans se pencher sur l'histoire
14:14et la réalité matérielle.
14:20Ces systèmes de surveillance
14:21peuvent avoir des effets
14:22sur la publicité,
14:23comme vous l'avez dit.
14:24Ils peuvent aider les publicitaires
14:26à mieux vendre leurs produits
14:27et à être plus efficaces.
14:29Mais ils peuvent aussi avoir
14:30des conséquences politiques.
14:32On l'a vu avec Cambridge Analytica,
14:34par exemple.
14:35Quand on sait exactement
14:36qui utilise votre système,
14:39craignez-vous que l'utilisation
14:40de ces monopoles
14:41ait des conséquences politiques
14:43de plus en plus importantes ?
14:51Je pense que l'histoire
14:53nous apprend qu'une quantité
14:55considérable de données
14:56de surveillance
14:56est entre les mains
14:58des gouvernements
14:59ou des grandes institutions,
15:00peut-être utilisée
15:01à des fins extrêmement dangereuses.
15:03On peut penser au recensement nazi.
15:05On peut penser à l'utilisation
15:07des données de recensement
15:08aux États-Unis
15:09pour interner illégalement
15:11des Japonais
15:11pendant la Seconde Guerre mondiale.
15:13On peut penser à l'affaire Stasi.
15:15Oui, ce sont des exemples
15:16presque anodins,
15:17si ce n'est leurs conséquences
15:19en termes d'infrastructures
15:21techniques mises en place.
15:24On sait donc qu'une asymétrie
15:25de pouvoir se constitue
15:27en grande partie
15:28par une asymétrie d'informations.
15:31Et si vous possédez
15:32des informations intimes
15:34sur les personnes
15:34sur lesquelles vous souhaitez
15:35exercer un pouvoir,
15:37vous pouvez les opprimer,
15:38les contrôler,
15:39les contraindre.
15:42C'est le problème ici
15:44qui est donc structurel.
15:45Il ne s'agit pas
15:46de mauvaises personnes
15:47ni de personnes mal intentionnées.
15:49C'est que nous avons créé
15:50une structure qui,
15:52à mon avis,
15:53est très dangereuse.
15:55Quelle pourrait être la solution ?
15:57Bien sûr,
15:58il existe des solutions
15:59comme Signal,
16:00mais pensez-vous
16:00que l'Europe puisse
16:01faire entendre sa voix
16:02dans ce jeu
16:03ou est-il trop tard ?
16:04Une concurrence accrue
16:06venant de l'Europe,
16:07par exemple ?
16:08Je ne suis pas politicien
16:09et je ne sais pas vraiment
16:11ce que signifierait
16:12la concurrence
16:12dans ce cas précis
16:13compte tenu des forces
16:14monopolistiques en présence.
16:16Pour moi,
16:18la question est moins technologique
16:20que de savoir
16:21si nous avons une vision
16:22du monde que l'Europe,
16:24les Etats-Unis
16:25ou les Amériques
16:26souhaitent construire.
16:32Alors,
16:34comment construire
16:35une technologie
16:36qui corresponde réellement
16:37à cette vision
16:38au lieu de prier
16:39pour qu'en un claquement de doigts
16:41et avec quelques millions de dollars,
16:43on puisse recréer
16:44un hyperscaler
16:45avec son long hésitage d'échelle,
16:47d'effets de réseau
16:48et de verrouillage infrastructurel.
16:52C'est une question
16:54qui revient souvent
16:55chez les technologues
16:56comme moi,
16:56mais c'est en réalité
16:58une question politique.
16:59Quels sont les processus
17:01délibératifs
17:02qui nous permettent
17:03de définir
17:03le monde que nous souhaitons ?
17:07Et quelles sont
17:08les pratiques
17:09technologiques
17:10et autres
17:10qui peuvent être
17:11mises en œuvre
17:12pour y parvenir ?
17:13La seule façon
17:14de créer une application
17:15de messagerie respectueuse
17:16de ses utilisateurs
17:17est-elle d'être
17:18une fondation
17:19ou une organisation
17:20à but non lucratif ?
17:21Je ne veux pas faire
17:23une déclaration
17:23aussi catégorique.
17:25Ce que je peux dire,
17:26c'est que dans un écosystème
17:29où la plupart des revenus
17:31proviennent
17:31de la monétisation
17:32des données,
17:33que ce soit par la vente
17:34de modèles aux annonceurs
17:35ou l'entraînement
17:36de modèles d'IA,
17:37il n'existe pas
17:38de modèle évident
17:39pour un service
17:40de messagerie
17:40aussi soucieux
17:41de la confidentialité
17:42que signal.
17:45c'est pourquoi
17:46nous avons choisi
17:47d'être une fondation,
17:48une association
17:49à but non lucratif.
17:51Nous incarnons
17:53en quelque sorte
17:53l'image négative
17:54ou positive
17:55de ce modèle économique.
17:58Nous mettons
17:59tout en œuvre
17:59pour collecter
18:00le moins de données
18:01possible.
18:01Notre logiciel
18:03est entièrement
18:03open source,
18:05ce qui signifie
18:05que vous n'avez pas
18:06à me croire sur parole.
18:07Vous pouvez consulter
18:09notre code source,
18:10chaque nouvelle version
18:11publiée est visible
18:12et beaucoup le font
18:13car la réputation
18:14de signal est telle
18:16que les meilleurs
18:16hackers et chercheurs
18:18en sécurité du monde
18:19sont fortement incités
18:21à examiner
18:21notre code source
18:22pour y déceler
18:23une faille.
18:25S'ils en trouvaient
18:26une,
18:27ils seraient embauchés
18:27partout.
18:29Nous avons donc
18:30un long héritage
18:31et un système
18:32de protection
18:32qui nous assure
18:34une sécurité optimale.
18:36Nous nous efforçons
18:37de réécrire
18:38en profondeur
18:39les normes en vigueur
18:40afin de garantir
18:41le respect
18:41de la vie privée.
18:42De nombreuses
18:43normes de surveillance,
18:44notamment celles
18:45qui collectent
18:46des données
18:46sans tenir compte
18:47de la confidentialité,
18:49sont réécrites
18:49pour préserver
18:50cette dernière,
18:51puis intégrées
18:52à l'écosystème
18:53comme une référence
18:54en la matière.
18:55Ce que nous voulons éviter,
18:56c'est un conseil
18:57d'administration
18:58doté d'une obligation
19:00fiduciaire.
19:00Cela nous pousse
19:01à générer des revenus
19:02d'une manière
19:03qui compromettrait
19:04nos engagements fondamentaux,
19:05car nous savons
19:06que les gens dépendent
19:07souvent de signal
19:08dans des situations
19:08de vie ou de mort.
19:09Comment trouver
19:10un équilibre
19:11avec Signal
19:12entre le besoin
19:13de confidentialité,
19:14de sécurité
19:15et d'anonymat ?
19:22Par exemple,
19:24si un gouvernement
19:25ou des juges
19:26vous demandent
19:26des adresses IP
19:27parce qu'ils savent
19:28que des terroristes
19:29utilisent votre application
19:30de messagerie,
19:31comment cela fonctionne-t-il ?
19:34Comment collaborez-vous
19:35face à ces demandes ?
19:40Nous ne collaborons pas
19:43avec les gouvernements.
19:44Si nous sommes contraints
19:45de répondre à une assignation,
19:46nous répondrons.
19:47Mais vous pouvez consulter
19:49notre site web
19:50signal.org
19:51slash bigbro
19:52et constater le peu
19:54d'informations
19:54que nous sommes
19:55en mesure de fournir.
19:56C'est quasiment rien.
19:57Nous sommes donc fermes
19:59sur la nécessité
20:00d'une option fiable
20:01pour une communication
20:02véritablement privée
20:04qui préserve
20:05l'histoire
20:06de la communication humaine
20:07sur des centaines
20:08de milliers d'années.
20:13Si vous et moi parlons,
20:15c'est privé,
20:16c'est éphémère.
20:17Cela devient partie
20:18intégrante de l'atmosphère.
20:21En quelques décennies seulement,
20:23cette norme
20:24qui existait
20:25depuis si longtemps
20:26a été érodée
20:28pour un modèle commercial
20:29auquel je ne pense pas
20:30que nous ayons
20:31pleinement consenti.
20:32Nous devons comprendre
20:33que la communication privée,
20:35la liberté d'expression
20:36et la communication privée
20:38sont un droit humain
20:40fondamental.
20:41Je suis entièrement d'accord.
20:42Mais si les demandes
20:43proviennent de juges
20:44qui mènent des enquêtes ?
20:47Même sous la menace
20:48d'une arme,
20:48je ne peux pas
20:49leur donner les données.
20:50Non pas les données elles-mêmes,
20:51mais vous pouvez leur donner
20:52les métadonnées ?
20:56Nous mettons tout en œuvre
20:57pour chiffrer
20:58non seulement
20:59le contenu des messages,
21:00mais aussi
21:00les métadonnées
21:01les plus intimes.
21:03Donc,
21:03nous n'avons
21:04ni votre nom de profil,
21:06ni votre photo de profil,
21:07ni ce qui figure
21:08dans votre répertoire,
21:09ni qui envoie
21:10des SMS à qui,
21:11ni qui est dans
21:12vos groupes de discussion.
21:13Ce sont évidemment
21:14des informations
21:15très sensibles
21:15que nos concurrents collectent.
21:17Nous avons pris
21:18des mesures considérables
21:19pour les protéger,
21:20ce qui est vérifiable
21:21dans notre code source.
21:29En parlant de métadonnées,
21:31Mérédith,
21:31avant notre entretien,
21:33vous m'avez dit
21:33que vous ne trouverez
21:34rien de précis sur moi.
21:37Ne cherchez pas,
21:38ne les provoquez pas,
21:39ne les appâtez pas en ligne,
21:40s'il vous plaît.
21:43C'est la condition
21:43de la liberté
21:44dans notre monde.
21:45Il ne s'agit pas seulement
21:46de ne rien cacher,
21:47mais aussi de ne rien
21:48partager de personnel.
21:51Je partage des choses
21:52personnelles régulièrement,
21:54mais seulement avec mes amis,
21:55les personnes que je connais.
21:57Je ne comprends pas
21:58pourquoi on s'attend
21:59à ce que je me crée
21:59une image publique
22:00qui donne accès
22:01à des détails intimes
22:05sur ma vie.
22:06À mon avis,
22:08ça ne les intéresse pas beaucoup
22:09et ça n'a rien à voir
22:10avec le travail
22:11que je suis venue faire.
22:12Si vous voulez m'écouter,
22:14écoutez-moi parler
22:14des sujets
22:15sur lesquels j'ai réfléchi
22:16pendant 20 ans
22:17de l'expérience
22:18que je pense pouvoir
22:19vous apporter.
22:22Si vous regardez
22:23cette vidéo,
22:24c'est que vous êtes
22:24probablement intéressé
22:26par ces sujets.
22:32Je suis ravie
22:33d'en discuter.
22:34Je ne pense pas
22:35que ce que j'apportais
22:36à midi à l'école
22:37ait une quelconque importance
22:39ni les détails
22:40et de ma vie amoureuse
22:41au lycée.
22:42Tout ça n'a rien
22:43de pertinent.
22:46Vous n'êtes pas prête
22:47à être influencieuse,
22:48n'est-ce pas ?
22:49Je peux influencer
22:50votre réflexion
22:51sur la vie privée
22:52et la surveillance,
22:53bien sûr,
22:54mais je ne vais pas vous dire
22:55quelle rouge à lèvres portée.
22:58Sauf si vous me le demandez.
23:01Ce n'est pas
23:02ma prochaine question.
23:03Non, non.
23:04Parlez-nous de l'IA.
23:05Pensez-vous que
23:06si vous regardez
23:07ce qui s'est passé
23:08au cours du siècle dernier
23:09concernant l'IA,
23:10la conférence de Dartmouth,
23:12les travaux d'Alan Turin,
23:14Jeffington, etc.,
23:15pensez-vous que c'est
23:16une bonne chose
23:17ou pas pour l'humanité ?
23:26Le terme AI est très flexible,
23:29comme nous l'avons vu.
23:30Il a été inventé
23:31en 1957
23:32par John McCarthy
23:34qui organisait
23:35la conférence de Dartmouth,
23:37un événement majeur
23:38dans l'histoire de l'IA.
23:43Il l'a inventé
23:44en partie
23:45pour se démarquer
23:46de l'école
23:46des réseaux neuronaux,
23:48l'école connectiviste
23:49et pour ostraciser
23:51Norbert Wiener,
23:52auteur de l'ouvrage
23:53Cybernetics à l'époque.
23:57Il l'a également inventé
23:59pour obtenir
24:00des subventions.
24:02Un terme accrocheur,
24:04vous savez,
24:04que l'armée a exploité
24:05dans cette vision
24:06de la guerre froide,
24:08celle d'une infrastructure
24:09de commandement
24:09et de contrôle
24:10capable de garantir
24:12la suprématie américaine
24:13après la Seconde Guerre mondiale.
24:15Ils étaient intéressés
24:16par des financements,
24:17donc vous savez,
24:18toutes ces raisons
24:19assez compréhensibles
24:20expliquent pourquoi McCarthy
24:21voulait être
24:22à l'origine de ce projet
24:24et non le fruit
24:25de l'imagination
24:26de quelqu'un d'autre.
24:27Ils voulaient obtenir
24:28des subventions
24:28et définir ce concept.
24:30Je précise tout cela
24:31car il me semble important
24:32de déconstruire ce terme,
24:34de le dénaturer
24:34en tant que terme technique.
24:36Au cours des 80 dernières années,
24:39l'IA a appris
24:39de nombreuses significations
24:40différentes.
24:41Elle a été appliquée
24:42comme une aspiration
24:43à des approches techniques
24:44très diverses.
24:46Encore une fois,
24:46elle ne définissait pas
24:48précisément
24:49ce modèle de réseau
24:50neuronal connecté
24:51lors de son invention.
24:52Mais aujourd'hui,
24:54nous sommes dans un paradigme
24:55de réseau neuronal
24:56connecté,
24:57d'apprentissage profond.
24:59C'est donc ce que décrit
25:01le terme actuellement.
25:02Et je pense que dénaturer
25:04un peu le terme
25:04nous permet de mieux comprendre
25:06son fonctionnement interne,
25:09de demander
25:10ce que fait réellement l'IA.
25:11Qu'est-ce que nous appelons
25:12l'IA aujourd'hui ?
25:13De quoi est-elle capable ?
25:15Une simple progression
25:17scientifique positiviste
25:18où l'IA représente
25:20une série d'étapes linéaires.
25:21Et l'IA actuelle
25:22nécessite d'énormes
25:23quantités de données,
25:25principalement collectées,
25:26créées et déposées
25:27via le modèle économique
25:28que j'ai décrit,
25:29le modèle de surveillance.
25:31Et elle requiert également
25:32une infrastructure
25:34informatique colossale
25:35créée et développée
25:37autour de ce modèle.
25:39Et elle requiert également
25:40une infrastructure
25:41informatique colossale
25:43créée et développée
25:44autour de ce modèle.
25:45Comment indexer
25:47les publicités ?
25:48Comment indexer
25:48le résultat de recherche ?
25:50Comment stocker
25:50toutes les données relatives
25:52aux clients
25:52ou aux utilisateurs
25:54de services ?
25:58Enfin, pour monétiser
26:00ces données,
26:01il faut des canaux
26:02de distribution
26:02via les réseaux sociaux
26:04ou les infrastructures
26:05à grande échelle.
26:10Et finalement,
26:11toutes ces ressources
26:12sont accaparées
26:13par les mêmes entreprises
26:14qui ont émergé
26:15dans les années 90
26:16et qui monopolisent
26:18désormais le secteur
26:20technologique.
26:26Mais reconnaissez-vous
26:27des aspects positifs
26:28de l'IA
26:28ou des progrès
26:29pour l'humanité
26:30en médecine ?
26:31Par exemple,
26:32l'exploration
26:32de l'univers,
26:33la résolution
26:34de problèmes mathématiques
26:35ou la compréhension
26:36de la physique quantique ?
26:41Ces modèles
26:42d'apprentissage profond
26:43centrés sur les données
26:45excellent dans de nombreux
26:46domaines.
26:50Vous avez l'embarras
26:52du choix,
26:52n'est-ce pas ?
26:53Ils sont particulièrement
26:55performants
26:55pour identifier
26:56des schémas
26:57dans d'énormes
26:58quantités de données.
27:01Je tiens à préciser
27:02que ma critique
27:03ne vise pas
27:04à dire que l'IA
27:05est mauvaise en soi.
27:06Il est frustrant
27:07pour quelqu'un
27:08qui a longuement
27:08réfléchi avec d'autres
27:10aux spécificités
27:11et aux aspects
27:12techniques de ces systèmes
27:13de voir ses remarques
27:15sur les implications
27:16techniques
27:16et la réalité
27:17de ces systèmes
27:29devenu influenceur
27:30IA sur Twitter
27:31peut dire n'importe quoi
27:32et être considéré
27:33comme positif.
27:35Il est essentiel
27:36d'être précis
27:37sur ce dont nous parlons.
27:39Ces systèmes
27:39pourraient accomplir
27:40des choses extraordinaires
27:41et de nombreuses personnes
27:43travaillent sur la recherche
27:44biomédicale
27:44et scientifique.
27:49AlphaFold
27:50était incroyable
27:51à cet égard
27:52notamment grâce
27:53à l'idée
27:53de pouvoir traiter
27:54et recueillir
27:54des connaissances
27:56qui pourraient mener
27:57à un avenir
27:58plus viable
27:58face au changement
27:59climatique.
28:02l'IA
28:03excelle
28:03dans ce domaine
28:05certes
28:05mais
28:05elle ne le fera
28:07pas sans indication
28:07n'est-ce pas ?
28:09Et si chaque investisseur
28:12en capital risque
28:13préfère financer
28:14un chatbot
28:14plutôt que la recherche
28:16biomédicale
28:16si l'on abandonne
28:17l'idée que nous pouvons
28:18résoudre la crise climatique
28:19alors la capacité
28:21même hypothétique
28:22de mener ce type
28:23de recherche
28:23n'aura aucune incidence
28:25sur les résultats.
28:26C'est là
28:27qu'il faut examiner
28:28l'économie politique
28:29et les motivations
28:30de ceux qui possèdent
28:31exploitent et orientent
28:32l'application
28:33de ces systèmes
28:33et leurs finalités.
28:43L'IA présente
28:45également certains dangers
28:46notamment le non-respect
28:47des droits de propriété
28:48intellectuelle.
28:49Cela donne une fausse idée
28:51de la réalité
28:51de ce qu'est la vérité
28:52et bien sûr
28:53il y a peut-être
28:54l'apocalypse
28:55cognitive
28:56le fait que nous
28:57laissions la machine
28:57prendre des décisions
28:59à notre place.
29:03Avez-vous aussi peur
29:04de ces aspects ?
29:05Vous savez
29:06la décision
29:06que vous avez mentionnée
29:07concernant les agents
29:08d'IA
29:09et la fin de la vie privée
29:10bien sûr
29:11mais le fait
29:12que la machine
29:12puisse penser pour nous.
29:18Je pense
29:19qu'externaliser
29:19nos capacités cognitives
29:21à un système externe
29:22sans les interroger
29:23est toujours
29:24une mauvaise idée.
29:25Vous savez
29:25j'aime réfléchir
29:27j'aime les problèmes
29:28complexes
29:28j'aime rester assis
29:31avec quelque chose
29:32et ne pas le comprendre
29:33jusqu'à ce que je finisse
29:34par le comprendre.
29:36Pour finir là-dessus
29:37Alex Wong
29:38le nouveau responsable
29:40du renseignement
29:40de l'IA
29:41chez Meta
29:47il a dit
29:49je n'aurai pas d'enfants
29:51avant de pouvoir
29:52leur faire implanter
29:53Neuralink
29:53pour avoir
29:54une meilleure mémoire
29:55une meilleure façon
29:56de penser.
29:59C'est vraiment
30:00effrayant n'est-ce pas ?
30:04C'est un fantasme
30:06à mon avis.
30:07Si vous regardez
30:08les implants biomédicaux
30:09vous constatez
30:10qu'il s'agit souvent
30:11de matériel abandonné
30:12sans mise à jour
30:14de firmware
30:14ni maintenance.
30:17Je ne sais pas.
30:26Enfin.
30:28Parce qu'il dit
30:29que l'IA progresse
30:29tellement vite
30:30que l'humanité
30:31devra suivre le rythme
30:35et être capable
30:36de résister
30:37à ses progrès.
30:39Ce serait une bonne chose
30:41pour ses enfants.
30:46C'est qu'il faut donner
30:49à la machine
30:49la possibilité
30:50de penser à votre place
30:52et sinon
30:53vous devez vous augmenter
30:54vous-même
30:55pour pouvoir lui résister.
30:57Je crois comprendre
30:58le genre de paradigme
30:59de science-fiction
31:00qui est présenté.
31:02Ce que j'exige
31:03en tant que personne
31:04ayant le même niveau
31:05de responsabilité
31:06qu'Alex
31:07et en tant que leader
31:08dans ce domaine
31:09c'est de savoir
31:11concrètement
31:11sur quel serveur
31:12le traitement est effectué,
31:14sur quelles données
31:14il a été entraîné,
31:15ce qui se passe
31:16lors d'une mise à jour
31:17de vos implants
31:18ou de l'API
31:19qu'ils utilisent
31:20rendant l'interopérabilité
31:22impossible.
31:23Existe-t-il
31:24une garantie
31:24de maintenance
31:25à long terme
31:26de ce code ?
31:27Que se passe-t-il
31:28si l'entreprise
31:29fait faillite ?
31:30Comment savoir
31:31si le système
31:32vous améliorera réellement
31:33et ne se transformera
31:35pas simplement
31:35en un outil
31:36de surveillance ?
31:37Si Larry Ellison
31:39rachète Neuralink,
31:40les API
31:41et l'entraînement
31:42seront-ils
31:42complètement bouleversés ?
31:44Parce que l'entreprise
31:45deviendra américaine
31:46et non chinoise
31:47comme c'était le cas
31:47pour TikTok ?
31:48Je ne porte aucun jugement
31:50mais je pense
31:51que chacune
31:51de ces questions
31:52mérite d'être posée.
31:53Selon moi,
31:54il faut répondre
31:55à ces questions
31:55pour ancrer
31:56une telle affirmation
31:57dans une réalité concrète
31:59que l'on puisse
32:00prendre au sérieux.
32:01Sinon,
32:01c'est amusant,
32:02certes,
32:02mais on ne parle pas
32:03d'un avenir tangible.
32:18Deux dernières questions,
32:19l'une concerne l'éducation.
32:22Je suis père
32:23de deux filles
32:24et je me pose
32:24souvent la question
32:25suivante.
32:26Que devrions-nous
32:27enseigner à nos enfants
32:28face à l'accélération
32:29du développement
32:30technologique ?
32:32Prenons un autre exemple,
32:33peut-être un peu farfelu
32:34mais intéressant.
32:35Ad Astra,
32:36une école créée
32:37par Elon Musk
32:38pour ses enfants,
32:39c'était un projet
32:40de SpaceX Compass.
32:41Il y enseigne
32:42beaucoup de choses
32:43intéressantes
32:43comme le travail
32:44collaboratif par exemple,
32:46mais il n'y a pas
32:47de langue étrangère.
32:48Selon lui,
32:48avec les lunettes connectées,
32:49on n'aura plus besoin
32:50d'apprendre
32:51de langue étrangère.
32:52Je voulais avoir
32:53votre avis.
32:55Bien sûr,
32:55les technologies
32:56nous offrent
32:57de nombreuses possibilités,
32:58mais que devrions-nous
32:59enseigner aux enfants
33:00aujourd'hui ?
33:10Je pense que la compétence
33:12essentielle
33:13est la pensée critique
33:14et la capacité
33:16d'examiner le monde
33:17qui nous entoure
33:18et les informations
33:19qui nous parviennent
33:20et de leur donner un sens.
33:21Donc,
33:22je ne crois pas
33:23que l'apprentissage
33:24d'une langue étrangère
33:25se résume
33:26à un simple téléchargement
33:27de la langue
33:28dans notre cortex,
33:29puis à la maîtriser
33:31instantanément,
33:32pourvu qu'on dispose
33:33des outils nécessaires.
33:37Puis,
33:38vous n'en avez plus besoin.
33:39C'est un exercice
33:40sur les limites du sens.
33:41C'est un exercice
33:42pour savoir comment
33:43vous savez ajuster
33:45ces voies neuronales,
33:46comment s'entraîner
33:47à comprendre le langage
33:48comme un substitut
33:49d'une réalité ineffable
33:51qui existe
33:52sous la surface
33:53du langage
33:53et que différentes cultures,
33:55coutumes et normes
33:56au fil des nombreuses
33:57divergences
33:58de l'histoire humaine
33:59ont créé
34:00comme quelque chose
34:00de vraiment extraordinaire.
34:02Mais pour moi,
34:03ce n'est pas ce que fait
34:04l'apprentissage
34:05d'une langue étrangère.
34:06Et puis,
34:07vous pouvez parler aux gens,
34:08n'est-ce pas ?
34:09Et vous faites des erreurs
34:10et vous savez,
34:11vous gagnez en humilité
34:12face à vos propres limites
34:14et vous réalisez
34:15qu'il n'y a pas
34:15de synonymes pour ce mot
34:16et que ce n'est pas
34:18si intéressant
34:19parce que ceci
34:19est passé par là
34:20et pas par là.
34:22Nous ne sommes pas.
34:23Vous savez,
34:25l'apprentissage
34:25est une capacité
34:27à se muscler
34:28et c'est vraiment intéressant
34:29pour moi
34:29dans la Silicon Valley
34:31en ce moment.
34:32Il y a cette sorte
34:33d'obsession
34:35spartiate,
34:36presque militaire,
34:37une obsession
34:37pour les exploits physiques
34:39et mentaux
34:39extrêmement difficile.
34:42vous savez,
34:43les gens qui ont ce genre
34:44de mentalité
34:45se lèvent à 5 heures
34:46du matin,
34:46prennent leur matcha,
34:47méditent pendant 3 heures,
34:49font des bains froids
34:50et des pondres,
34:51etc.
34:51pour s'assurer
34:52leur longévité.
34:54Ils prennent des tonnes
34:55de compléments alimentaires
34:56et se font presque
34:57du mal physiquement
34:58et par leur mode de vie.
34:59Je généralise,
35:00bien sûr,
35:01mais il y a une tendance.
35:02de leur lifestyle,
35:03je peintre
35:04avec un bruit
35:05mais il y a
35:06une tendance.
35:06Or,
35:07quand il s'agit
35:07de penser
35:08et d'entretenir
35:09ces facultés intellectuelles,
35:11de développer
35:11sa capacité
35:12à comprendre
35:12un monde complexe
35:14sans avoir
35:14à se reposer
35:15sur une IA
35:16qui n'est peut-être
35:16pas au courant
35:17des dernières actualités,
35:19il y a une atrophie
35:20qui semble presque volontaire.
35:22Ce n'est pas ainsi
35:23que je conçois
35:23l'apprentissage,
35:24la pédagogie
35:25et l'engagement
35:26dans le monde.
35:34ce qui permet
35:35d'être réellement
35:37apte à assumer
35:37les responsabilités
35:38que l'on prend.
35:41Meredith,
35:41vous parlez
35:42d'un monde complexe.
35:43Pensez-vous
35:44que le monde
35:44dans lequel nous vivons
35:45est plus complexe
35:46qu'il y a 50 ans
35:47ou qu'il y a 3 siècles ?
35:48Je ne pense pas
35:49que ce soit une question
35:50à laquelle on puisse répondre.
35:51Je pense que nous devons
35:53gérer beaucoup plus
35:54d'informations.
35:58Peut-être
35:59devons-nous faire
36:00de la place
36:01pour des faits,
36:02des chiffres,
36:03des idées
36:03et des imaginaires
36:05que nous ne voyons jamais,
36:06que nous ne vivons pas,
36:08sur lesquels
36:08nous n'avons aucun pouvoir.
36:10C'est certainement différent,
36:12mais je ne sais pas.
36:13Est-ce plus complexe ?
36:15Le monde en réseau
36:16du capitalisme multinational,
36:18de la finance mondialisée
36:19et du pouvoir d'État
36:20est-il plus complexe
36:22que de s'allonger
36:23dans l'herbe
36:24et d'observer
36:24un papillon
36:25qui butine lentement
36:26de fleur en fleur ?
36:29Je ne sais pas
36:30comment rendre
36:31ces choses amusantes
36:32et peut-être
36:32qu'elles ne le sont pas.
36:33Vous avez étudié
36:34la philosophie,
36:34vous avez étudié
36:35la sociologie.
36:37Je m'y connais bien.
36:43Mais dans quelle mesure
36:44l'apprentissage de Foucault,
36:45par exemple,
36:46vous a-t-il aidé
36:46dans la vie
36:47et a-t-il façonné
36:48vos valeurs ?
36:51Y a-t-il d'autres personnes
36:52d'hier ou d'aujourd'hui
36:53qui vous ont influencé
36:55et avec lesquelles
36:56vous aimeriez déjeuner,
36:57dîner
36:57ou avoir de longues conversations ?
37:01J'aimerais...
37:03Si un génie de l'IA
37:05voulait faire revivre
37:06un hologramme de Foucault,
37:07je serais terrifiée
37:08et ce serait sans doute
37:09très triste.
37:10Mais j'aimerais bien
37:12déjeuner avec lui.
37:13J'ai la chance
37:14d'avoir rencontré
37:15beaucoup de ces penseurs
37:17et je pense
37:18les avoir intégrés
37:19à mon palais mental
37:20avant même
37:21de me lancer
37:22dans la tech.
37:25J'avais ainsi
37:26des outils
37:26pour analyser
37:27ce que je voyais
37:28et essayer
37:28de comprendre
37:29ce qui se passait.
37:30Vous savez,
37:31le pouvoir du savoir
37:33et l'idée
37:34que l'épistémologie,
37:36la façon
37:37dont nous construisons
37:38nos connaissances
37:38encode en réalité
37:40des rapports de pouvoir
37:41m'a été très utile.
37:43Pas quand je l'ai lu
37:44en tant qu'étudiant
37:45de premier cycle.
37:46Je ne le comprenais
37:47pas vraiment.
37:49C'était très difficile
37:50à cause de la traduction.
37:51Mais en me connectant
37:52à Google
37:52et en essayant
37:53de trier
37:56des affirmations
37:56comme
37:57« Nous organisons
37:58l'information mondiale »,
37:59j'ai compris.
38:00Donc, oui,
38:01ça a été très utile.
38:02Je n'étudie pas
38:03Foucault,
38:04mais je relis
38:05souvent ces livres.
38:07J'éprouve
38:08beaucoup de plaisir
38:09à lire des auteurs
38:10qui écrivent très bien
38:11avec une grande précision
38:12dans leur langage.
38:13J'ai lu
38:14Lorraine Berland
38:15récemment,
38:16notamment sur
38:17l'affect
38:17et le choix des objets.
38:19Je ne sais jamais
38:20si cela s'appliquera
38:21à mon travail
38:21et ça m'est égal.
38:23Mais il y a toujours
38:24un lien entre deux idées,
38:25ce qui m'aide,
38:26je l'espère,
38:27à garder une vision
38:28plus large
38:28et à faire de mon mieux.
38:30et je peux faire
38:32ce qu'il y a aussi.
38:34Êtes-vous toujours
38:35optimiste quant à l'avenir ?
38:37Quel serait le monde
38:38de vos rêves ?
38:39Un monde où les êtres
38:40humains se respectent
38:42mutuellement ?
38:44Par exemple,
38:45vous êtes très critique
38:46envers un certain type
38:47de capitalisme,
38:48mais comment
38:49SIGNOL
38:49gère-t-il
38:50ses finances ?
38:53Si SIGNOL
38:54n'était pas
38:55une fondation,
38:56comment pourrait-elle
38:56accomplir cette mission ?
38:58Cette mission
38:59si importante
39:00de nous permettre
39:01de communiquer
39:02en toute confidentialité.
39:05C'est une question
39:06simple,
39:07mais plus générale.
39:08Que devrons-nous être
39:09pour être plus libres
39:10et heureux ?
39:15Vous avez parlé
39:15du papillon.
39:16Est-ce simplement
39:17la prise de conscience
39:18que l'être humain
39:18est une chose magnifique ?
39:23On devrait se demander
39:28ce qui se passe
39:28quand on sait
39:29qu'il y a tant de conflits,
39:30des guerres.
39:33C'est juste que tous ces gens
39:35ne pensent qu'au profit.
39:40Je ne connais pas
39:41les réponses
39:41à presque
39:42toutes vos questions.
39:44Je pense simplement
39:45que nous n'avons
39:46qu'une vie sur Terre.
39:51Je crois qu'il vaut mieux
39:54la vivre avec intégrité
39:55et dignité
39:56que de vivre
39:56dans un état d'ignorance,
39:58de peur et de limite.
40:01Et c'est évident pour moi.
40:09Je n'ai pas de baguette magique
40:10pour résoudre les problèmes
40:11profondément interconnectés
40:13auxquels nous sommes confrontés
40:14en tant que société.
40:16Je fais ce que j'ai à faire.
40:18Je fais mon travail
40:19et j'essaye de le faire
40:20du mieux possible.
40:22Et je pense que la capacité
40:24à communiquer en privé
40:25est un fondement essentiel
40:27pour tout le reste.
40:29Revenons à Foucault.
40:31Dans quelle mesure
40:32cela vous a-t-il aidé
40:33à comprendre comment...
40:38J'ai compris...
40:40Je comprends que ce n'était pas
40:41pendant vos études,
40:42mais après,
40:43lorsque vous travaillez
40:44chez Google.
40:45Dans quelle mesure
40:46cela vous a-t-il aidé
40:47à comprendre ce monde ?
40:48Et vous m'avez parlé
40:50de dignité.
40:51Cela vient un peu
40:52de votre éducation,
40:53je pense,
40:54maintenant,
40:54de vos parents ou...
41:01C'est difficile
41:05de raisonner sur ce point
41:06sans point de comparaison.
41:08Vous savez,
41:09je suis qui je suis.
41:10Je n'ai jamais été
41:11quelqu'un d'autre.
41:12Je n'ai jamais eu
41:13d'autres expériences.
41:15Vous savez,
41:15au final,
41:16cela m'a été très utile.
41:19J'ai lu de la théorie,
41:20j'ai lu de la sociologie,
41:22j'ai beaucoup lu
41:23et j'en suis très reconnaissante
41:24envers ceux
41:25qui, avant moi,
41:27ont réfléchi si profondément
41:28à des questions
41:29qui me tiennent à cœur
41:29et sur lesquelles
41:30je n'ai peut-être pas
41:31mené mes propres recherches.
41:35J'aimerais avoir
41:36davantage de personnes
41:37dans ma situation
41:38lisant beaucoup.
41:41J'aimerais voir
41:41un meilleur accès
41:42à ce type de littérature
41:43parmi ceux
41:44qui assument
41:45des responsabilités
41:45envers d'autres,
41:47comme par exemple
41:47un rôle de leadership
41:49chez Signal.
41:58je ne sais pas,
41:59vous savez,
42:00la dignité
42:01est fondamentale.
42:03Pas besoin
42:04d'aller à Berkeley
42:06pour s'en rendre compte.
42:07Je pense que c'est juste
42:08que, vous savez,
42:09il faut beaucoup d'énergie
42:11pour faire perdre
42:12ce sens aux gens
42:12et je pense
42:13que c'est fondamentale.
42:22Je n'aime pas trop
42:23cette réponse.
42:24C'est une bonne réponse.
42:25Oui.
42:26La dernière était meilleure.
42:28Oui, oui,
42:28c'était le cas.
42:30Merci.
42:32Oui, oui.
42:33Inspirant.
42:33Inspirant.
42:33Merci beaucoup.
42:35Merci.
42:36Merci.
Commentaires