- il y a 2 jours
Entre surveillance généralisée et menace d’extinction de l’humanité, un monde sous domination de l’intelligence artificielle terrifie. Comment limiter ses pouvoirs pour préserver la démocratie tout en profitant de ses usages ? Un instructif panorama des enjeux en cours.
"Le médium est le message", prévenait le théoricien des médias Marshall McLuhan dans les années 1960. Mettant en garde contre l’influence des techniques de communication en pleine expansion, le philosophe canadien anticipait les conséquences phénoménales de la révolution numérique sur notre perception la plus intime comme sur la société. Si, en 1994, Internet a transformé nos vies, trente ans plus tard, la submersion par un tsunami d’informations nous plonge dans une confusion encore amplifiée par les algorithmes qui mettent en avant des contenus destinés à susciter et à s’approprier nos émotions. Les études scientifiques démontrent déjà clairement l’impact psychologique des réseaux sociaux, en particulier sur les adolescents : addiction, anxiété et dépression sont ainsi provoquées par des plates-formes qui jouent sur les poussées de dopamine. Mais il ne s’agit que d’un aspect des redoutables pouvoirs des multinationales de la tech, qui déterminent ce que nous savons, croyons et achetons – Google vend nos données personnelles aux annonceurs –, et qui échappent à tout contrôle démocratique. Emprise, monopole des grands médias et monétisation, surveillance par l’État comme par les entreprises du capitalisme mondialisé : dans le village global, le citoyen est soumis à de puissantes forces occultes et l’IA nous oblige désormais à repenser notre conception du monde. Performante dans le secteur médical ou les prévisions météorologiques, cette nouvelle interface de la connaissance, adoptée par le grand public avec notamment ChatGPT, va profondément bouleverser les modes et la valeur du travail, y compris créatif. Mais elle pourrait aussi se retourner contre l’humanité voire la menacer d’extinction si les risques liés sont ignorés au nom d’enjeux économiques. Alors que son influence sur les processus politiques s’intensifie, des élections à la désinformation par le biais des deepfakes, les dangers engendrés par le développement de l’intelligence artificielle se multiplient : reconnaissance faciale, espionnage ciblé, robots militaires tueurs ou piratage informatique, dont celui lancé en Europe par l’Agence nationale de la sécurité américaine (la NSA) et révélé par Edward Snowden…
"Le médium est le message", prévenait le théoricien des médias Marshall McLuhan dans les années 1960. Mettant en garde contre l’influence des techniques de communication en pleine expansion, le philosophe canadien anticipait les conséquences phénoménales de la révolution numérique sur notre perception la plus intime comme sur la société. Si, en 1994, Internet a transformé nos vies, trente ans plus tard, la submersion par un tsunami d’informations nous plonge dans une confusion encore amplifiée par les algorithmes qui mettent en avant des contenus destinés à susciter et à s’approprier nos émotions. Les études scientifiques démontrent déjà clairement l’impact psychologique des réseaux sociaux, en particulier sur les adolescents : addiction, anxiété et dépression sont ainsi provoquées par des plates-formes qui jouent sur les poussées de dopamine. Mais il ne s’agit que d’un aspect des redoutables pouvoirs des multinationales de la tech, qui déterminent ce que nous savons, croyons et achetons – Google vend nos données personnelles aux annonceurs –, et qui échappent à tout contrôle démocratique. Emprise, monopole des grands médias et monétisation, surveillance par l’État comme par les entreprises du capitalisme mondialisé : dans le village global, le citoyen est soumis à de puissantes forces occultes et l’IA nous oblige désormais à repenser notre conception du monde. Performante dans le secteur médical ou les prévisions météorologiques, cette nouvelle interface de la connaissance, adoptée par le grand public avec notamment ChatGPT, va profondément bouleverser les modes et la valeur du travail, y compris créatif. Mais elle pourrait aussi se retourner contre l’humanité voire la menacer d’extinction si les risques liés sont ignorés au nom d’enjeux économiques. Alors que son influence sur les processus politiques s’intensifie, des élections à la désinformation par le biais des deepfakes, les dangers engendrés par le développement de l’intelligence artificielle se multiplient : reconnaissance faciale, espionnage ciblé, robots militaires tueurs ou piratage informatique, dont celui lancé en Europe par l’Agence nationale de la sécurité américaine (la NSA) et révélé par Edward Snowden…
Catégorie
📚
ÉducationTranscription
00:00:00C'est Marshall McLuhan qui a développé l'idée que les médias
00:00:29forment un écosystème.
00:00:31Il était à la sociologie des médias ce que Shakespeare était au théâtre.
00:00:59La démocratie traverse une crise.
00:01:09Quels sont les ingrédients nécessaires à la démocratie ?
00:01:12Le dialogue et l'écoute des autres.
00:01:15Sauf que nous parlons à des machines qui ne nous enseignent pas ses compétences.
00:01:19Le médium actuel est le ciblage de l'individu par les algorithmes, avec un degré élevé
00:01:26de surveillance et de monétisation.
00:01:30La dépendance est orchestrée.
00:01:32Il existe un mouvement puissant qui veut accélérer la présence de l'intelligence artificielle
00:01:54tout en ignorant les risques qu'elle comporte, du fait des énormes enjeux économiques à
00:01:59la clé.
00:02:00Notre système économique fait tout pour aller dans ce sens, petit à petit, au risque
00:02:07de déstabiliser la démocratie, de mettre en péril la sécurité nationale et de menacer
00:02:13notre existence même.
00:02:14En 1994, Internet était un nouveau concept époustouflant, digne de la science-fiction.
00:02:41Imaginez un monde où tous les livres, tous les tableaux et tous les films existants pourraient
00:02:48être visionnés instantanément chez vous grâce à une autoroute de l'information, un réseau
00:02:53de communication numérique à haute capacité.
00:02:56Vous seriez en mesure de transformer votre foyer en un gigantesque centre de divertissement
00:03:01interactif, avec en plus la bourse des valeurs et un centre commercial.
00:03:06La perspective semble formidable, mais en fait, il ne s'agit que de communication entre ordinateurs.
00:03:12Et ça existe déjà sur une chose qu'on appelle Internet.
00:03:16Il suffit d'un ordinateur et d'un modem pour se connecter à une ligne téléphonique.
00:03:1930 ans se sont écoulés depuis ce reportage, et Internet a changé nos vies du tout au tout.
00:03:26La plupart d'entre nous ne pourraient plus s'en passer.
00:03:30Ces derniers temps, on parle davantage de ces aspects moins reluisants.
00:03:34La dépendance aux réseaux sociaux, la surveillance des citoyens par les entreprises et l'État,
00:03:40et les monopoles des grands médias.
00:03:41Sous-titrage Société Radio-Canada
00:04:11Marshall McLuhan, professeur de littérature anglaise à l'Université de Toronto,
00:04:28a connu une gloire pour le moins inattendue dans les années 1960.
00:04:32Aujourd'hui, la plupart des moins de 50 ans n'ont jamais entendu parler de lui.
00:04:36Pourtant, il a su voir venir de nombreux problèmes et inquiétudes soulevés par la révolution numérique actuelle.
00:04:41L'écosystème numérique qui nous entoure et dans lequel on est entrés tête baissée
00:04:53est un véritable tsunami d'informations.
00:04:58On est soumis à un flot constant d'informations provenant de sources multiples.
00:05:02Chacun a son mégaphone, chacun est désormais son propre diffuseur.
00:05:12Le volume écrasant d'informations suffit à lui seul à provoquer en nous un certain degré de confusion et de lassitude.
00:05:19A cela s'ajoutent les algorithmes qui mettent en avant certains contenus dans le seul but de déclencher nos émotions et de maintenir notre implication.
00:05:30Ça ne fait qu'aggraver les choses.
00:05:31Je ne peux qu'adorer Times Square.
00:05:43C'est grotesque.
00:05:45Tout y est outré, mais aussi complètement honnête.
00:05:48C'est l'essence même de la vie commerciale.
00:05:50Acheter, consommer.
00:05:52Mais on ne voudrait pas voir sa propre vie devenir comme Times Square.
00:05:59Ce serait intenable.
00:06:03Pourtant, les réseaux sociaux introduisent des incitations extrêmes à l'achat, à la commercialisation, dans les aspects les plus intimes de notre vie.
00:06:14Qui a envie de commencer sa journée en se réveillant au beau milieu de Times Square ?
00:06:22Marshall McLuhan est le premier universitaire à être devenu une star.
00:06:35On le connaît surtout pour son aphorisme.
00:06:37Le message, c'est le médium.
00:06:40Ce qu'il voulait dire, c'est que les technologies de communication ne sont pas neutres.
00:06:45Elles ont leur importance.
00:06:47Elles ont une incidence sur le message et la manière dont on le communique.
00:06:50MacLuhan a été l'un des premiers à considérer les nouveaux médias comme de nouveaux phénomènes sociaux.
00:07:18de nouveaux systèmes météorologiques, de nouveaux espaces.
00:07:29Il est devenu très célèbre pour son concept de village planétaire.
00:07:33Ça n'avait rien d'une vision idéalisée, où tout le monde est beau, où tout le monde est gentil.
00:07:41Non, la mondialisation de l'information allait nous ramener à l'esprit de clocher des habitants d'un village,
00:07:47avec tous les ragots et la surveillance de son voisin qui vont avec.
00:07:52Tout ça à un niveau planétaire.
00:07:54« Vivre dans un tel monde pourrait s'avérer effrayant. »
00:08:01J'ai toujours été fasciné par Marshall McLuhan, et je veux savoir si ces théories sont encore pertinentes aujourd'hui.
00:08:26« Vivons-nous dans un écosystème numérique qui métamorphose l'humanité ? »
00:08:31La révolution McLuhan est née dans une ancienne remise à Calèche de 1903 à l'Université de Toronto.
00:08:38Elle est devenue le bureau de McLuhan dans les années 1960.
00:08:42Le professeur Paolo Granata enseigne la sociologie des médias à l'université.
00:08:46Il est expert en écologie des médias, un domaine issu des travaux de Marshall McLuhan.
00:08:50« C'est ici que tout a commencé et que vous travaillez tous les jours. J'imagine que cela a une grande importance pour vous. »
00:09:01« McLuhan est un auteur incontournable, et nous devons nous appuyer sur les géants pour comprendre notre environnement. »
00:09:08« C'est pour ça que je suis à Toronto. La ville était une véritable mec pour tout étudiant en sociologie des médias. En tout cas, c'était la mienne. »
00:09:16« J'ai voulu venir là où McLuhan travaillait dans les années 1960. »
00:09:20« Je vais dire « Qu'est-ce que tu fais, Marshall McLuhan ? »
00:09:22« Le médium est la message, vous voyez. »
00:09:27« Vous savez, il y avait un hyphen, n'est-ce pas ? »
00:09:29« Mass, age. »
00:09:30« Passez les hyphens et vous avez la vraie message. »
00:09:33En 1969, John Lennon et Yoko Ono viennent rendre visite à McLuhan.
00:09:37Vous vous souvenez peut-être de ceci.
00:09:58En 1977, McLuhan a joué une scène mémorable dans un film primé aux Oscars.
00:10:03« Vous ne savez pas rien de ce travail de Marshall McLuhan. »
00:10:05« Oh, vraiment, vraiment. »
00:10:06« Je viens de enseigner une classe à Columbia qui s'appelle TV, Media et Culture. »
00:10:10« Je pense que mes insightss dans le monde, il y a un grand dél de la liberté. »
00:10:14« Oh, vous voulez-vous ? »
00:10:14« Oui, c'est funny, parce que je viens de avoir le monde ici. »
00:10:17« So, so, yeah, just let me, let me, let me, let me, come over here for a second. »
00:10:21« Oh, I heard, I heard what you were saying. »
00:10:24« You, you know nothing of my work. »
00:10:26« You mean, my whole fallacy is wrong. »
00:10:28« How you ever got to teach a course in anything is totally amazing. »
00:10:31« L'un des effets négatifs de la révolution numérique dont on parle le plus aujourd'hui
00:10:47est le caractère addictif des réseaux sociaux.
00:10:50Un phénomène aggravé par les algorithmes
00:10:52qui dirigent certains contenus vers certaines personnes
00:10:55pour les encourager à passer plus de temps sur la plateforme.
00:10:58Avant 2009, les files d'actualité des utilisateurs
00:11:04n'étaient pas nourris par les algorithmes.
00:11:06Sur Facebook, vous receviez ce qu'un de vos amis publiait,
00:11:10puis un autre ami, dans un ordre chronologique.
00:11:14C'est en 2009 que Facebook introduit en toute discrétion un algorithme.
00:11:21Au début, il ne s'agit que de quelques données qui permettent de dire
00:11:24« Ah, telle personne aime tel message, elle va peut-être aimer celui-là. »
00:11:30Mais aujourd'hui, le modèle des réseaux sociaux
00:11:33exportés dans tous les domaines de notre vie,
00:11:36au travail, à l'école, dans nos loisirs,
00:11:39consiste à vous cartographier numériquement.
00:11:42« Qu'avez-vous aimé ? Combien de temps avez-vous regardé telle vidéo ?
00:11:50Où étiez-vous physiquement l'autre jour ?
00:11:53Quelle est votre humeur ?
00:11:54Que tapez-vous sur votre clavier ?
00:11:56À quoi ressemble votre voix ? »
00:12:00En se basant sur ce simulacre de personnes,
00:12:03le modèle passe à l'étape suivante.
00:12:05Quel contenu fournir pour gagner le plus d'argent possible
00:12:09en faisant rester une personne sur le site ?
00:12:11Nous sommes le bétail des fermes de données de ces sociétés.
00:12:34Monsieur Zuckerberg, vous avez bien dit qu'il n'y avait pas de lien
00:12:38entre la santé mentale et l'utilisation des réseaux sociaux.
00:12:41J'ai dit qu'il était important d'examiner les données scientifiques.
00:12:46On fait comme si le lien était établi,
00:12:48alors que la majorité des preuves scientifiques infirment cette hypothèse.
00:12:53Je tiens à vous rappeler les résultats de votre étude interne.
00:12:57Instagram a étudié l'effet de votre plateforme sur les adolescents
00:13:00et a dit « Nous aggravons les problèmes d'images corporelles
00:13:04pour une adolescente sur trois. »
00:13:07Je cite encore « Les adolescents ont accusé Instagram
00:13:10d'augmenter leur niveau d'anxiété et de dépression.
00:13:13Une réaction spontanée et constante dans tous les groupes.
00:13:17C'est votre propre étude. »
00:13:20Des familles américaines ont vu leurs enfants être sévèrement touchés
00:13:23ou même décédés.
00:13:25Certaines se trouvent ici aujourd'hui.
00:13:27Leur avez-vous présenté vos excuses ?
00:13:30Vous êtes en direct à la télévision.
00:13:35Voulez-vous vous excuser auprès des victimes de votre produit ?
00:13:38Montrez-lui les photos.
00:13:40Voulez-vous vous excuser auprès de ces braves gens ?
00:13:44« Je suis désolé pour tout ce que vous avez vécu.
00:13:50Personne ne devrait avoir à subir ce que vos familles ont enduré. »
00:13:55Depuis 2010, soit depuis la généralisation du smartphone
00:13:58et l'introduction des algorithmes de ciblage,
00:14:01on observe deux phénomènes quasi-concomitants.
00:14:04Une augmentation massive des dépressions sévères.
00:14:09Des niveaux d'anxiété très élevés.
00:14:17Et une hausse significative des pensées suicidaires
00:14:21et du nombre de suicides.
00:14:26Vous savez tous quelqu'un qui a confié en vous
00:14:29qu'ils ont eu des pensées suicidaires ?
00:14:31Oui.
00:14:31Oui.
00:14:32Tout le monde de vous.
00:14:39Selon certaines études,
00:14:42plus de trois heures par jour passées sur les réseaux sociaux
00:14:45augmenteraient l'anxiété et la dépression chez les adolescents.
00:14:48Ce qui a conduit l'administrateur de la santé publique
00:14:51à demander la mise en place de messages d'avertissement.
00:14:54L'utilisation des réseaux sociaux par les adolescents
00:14:57a des effets néfastes sur leur santé mentale.
00:14:59Il faut apporter une solution de santé publique.
00:15:02Alors ici, on va te mettre cette espèce de bonnet de bain sur la tête.
00:15:19Tu es à l'aise, là ?
00:15:21Oui.
00:15:22Ça va ?
00:15:23Oui.
00:15:23Bien.
00:15:24Je vais mettre ça là.
00:15:26Parfait.
00:15:26Quand cette jeune fille scrolle sur son téléphone,
00:15:40cela active les neurones du cortex préfrontal.
00:15:45De nombreux changements ont lieu
00:15:46par rapport à une activité plus passive.
00:15:51Les petits carrés de couleur, ici,
00:15:54indiquent des changements d'oxygénation
00:15:57dans l'ensemble de son cerveau.
00:16:00Les couleurs orange et rouge
00:16:02montrent des changements d'activité plus importants
00:16:05pendant qu'elle scrolle sur son téléphone.
00:16:10L'activité du cortex préfrontal est plus intense.
00:16:15C'est vraiment le problème que posent les réseaux sociaux.
00:16:18Quand on est constamment en train de naviguer sur son téléphone,
00:16:25on libère un flux constant de dopamine
00:16:26dans son cortex préfrontal.
00:16:29Cela peut entraîner des difficultés dans la prise de décision
00:16:32et une diminution du volume des zones du cerveau
00:16:35qui gèrent le langage, l'apprentissage et la mémoire.
00:16:39On voit que les zones en charge du traitement de la peur
00:16:41et de l'anxiété sont également touchées.
00:16:43La technologie numérique actuelle
00:16:53a un impact sur le développement
00:16:55des enfants et des adolescents.
00:16:59Et on ne peut pas revenir en arrière.
00:17:05Aujourd'hui, on peut évaluer les effets
00:17:07de 15 années d'utilisation intensive
00:17:09du téléphone portable chez les adolescents.
00:17:12Non seulement il a modifié les relations entre eux,
00:17:19mais aussi leur façon d'apprendre.
00:17:22Ils n'ont plus les mêmes interactions
00:17:23avec leurs enseignants, ni avec leurs parents.
00:17:30Les changements sont énormes
00:17:32dans cette génération numérique.
00:17:33Malgré les problèmes liés à Internet,
00:17:43nous sommes tous accros à cette drogue numérique.
00:17:46Et il est désormais impossible
00:17:47de remettre le génie dans sa boîte.
00:17:49Mais que se passe-t-il lorsque nous sommes
00:17:51tout à coup privés d'Internet ?
00:17:54Pour des raisons financières,
00:17:55la famille Hanson de Randallstown,
00:17:57dans le Maryland,
00:17:58a temporairement perdu sa connexion Internet.
00:18:00C'était la croix et la bannière
00:18:04pour payer les factures.
00:18:07On ne peut plus aller à la compagnie de gaz
00:18:08ou d'électricité et régler sur place.
00:18:10Tout se fait sur Internet.
00:18:14Même les annonces d'emploi sont en ligne.
00:18:16Darmel, toi qui es étudiant,
00:18:22ça a dû être dur sans Internet.
00:18:25Quelles ont été les conséquences
00:18:28sur tes études ?
00:18:30Il y a quelques années,
00:18:32tout se faisait en ligne.
00:18:34Les cours, les devoirs, tout.
00:18:37Je ne pouvais donc pas vraiment
00:18:38terminer mes devoirs à rendre
00:18:39ou même assister aux cours.
00:18:44Combien de temps ça a duré ?
00:18:45Cinq ou six mois.
00:18:50Cinq ou six mois sans Internet.
00:18:53Et Darnell n'a pas pu poursuivre
00:18:55correctement ses études.
00:18:57Oui, c'est long.
00:18:59Vous avez dû improviser, alors ?
00:19:01Oui, comme aller à la bibliothèque.
00:19:05Enfin, quand on en trouve une ouverte,
00:19:07parce que ça aussi, c'est un problème.
00:19:08De plus en plus de bibliothèques
00:19:13ferment leurs portes au public.
00:19:17Ou alors, vous devez vous asseoir
00:19:19à l'extérieur pour utiliser
00:19:20leurs connexions Wi-Fi.
00:19:22Et sans voiture, il faut travailler dehors
00:19:25sur les marches de la bibliothèque.
00:19:26Ce n'est pas juste.
00:19:31Tout est basé sur la technologie.
00:19:35Plus personne ne lit de livres,
00:19:36d'encyclopédies,
00:19:38de dictionnaires.
00:19:40La technologie moderne est vraiment
00:19:42en train d'abîmer nos enfants.
00:19:44J'ai des étudiants qui me disent
00:20:06qu'ils préfèreraient parler
00:20:08à un chatbot de moi-même
00:20:09parce que ce serait moins contraignant.
00:20:14Quand je leur explique
00:20:16que je veux mieux les connaître
00:20:18et établir une relation entre nous,
00:20:21ils me disent que c'est trop dur.
00:20:26Là où je suis très inquiète,
00:20:29c'est de voir l'IA générative,
00:20:32ChatGPT et tous ses petits frères et sœurs,
00:20:36nous présenter des machines
00:20:38qui auront des conversations avec nous.
00:20:44On ne sait plus du tout
00:20:55ce que signifie l'empathie,
00:20:58ce que sont les relations humaines.
00:21:02Quand on dit éprouver de l'empathie
00:21:03pour une machine qui n'a jamais vécu,
00:21:05qui n'a pas peur de la mort,
00:21:08qui n'a jamais aimé,
00:21:10en passant tellement de temps
00:21:17à parler aux machines,
00:21:20j'ai bien peur qu'on oublie
00:21:21toutes ces valeurs.
00:21:22Dans le film Her,
00:21:39un homme tombe amoureux
00:21:40d'un petit chatbot
00:21:41qui est toujours là pour lui.
00:21:43Elle est sensible,
00:21:45intelligente
00:21:46et fait tout pour qu'il se sente bien.
00:21:49Les chatbots actuels
00:22:07sont conçus pour nous rendre accros
00:22:09et nous pousser à acheter.
00:22:10Et on ne peut pas considérer
00:22:26les produits qu'on nous présente
00:22:28sans tenir compte
00:22:29des entreprises
00:22:30qu'ils ont développées.
00:22:31C'est un moyen de gagner de l'argent.
00:22:49On se fiche des possibilités
00:22:51qu'offre Internet.
00:22:52On veut juste augmenter
00:22:53les chances de faire
00:22:54un bon investissement
00:22:55en choisissant la bonne entreprise
00:22:57sur laquelle miser.
00:22:57Il faut prendre ces technologies
00:23:00et transformer les outils
00:23:02créés par les humains
00:23:03afin d'utiliser les humains
00:23:05comme des outils
00:23:05pour mieux les manipuler.
00:23:08On a commencé à utiliser
00:23:09ces technologies sur les gens
00:23:11pour rendre leur comportement
00:23:12plus probable,
00:23:13plus prévisible
00:23:14et tout cela
00:23:15au service du marché.
00:23:17La plupart des technologies
00:23:19développées
00:23:19visent à contrôler les humains
00:23:21mais ça n'a pas marché.
00:23:23Avec les réseaux sociaux,
00:23:24ils pensaient pouvoir nous contrôler.
00:23:26Et qu'est-ce que ça a donné ?
00:23:27Trump !
00:23:28L'assaut du Capitole !
00:23:29Zut !
00:23:29Ça n'a pas marché !
00:23:31Alors l'étape suivante,
00:23:32c'est de remplacer les humains.
00:23:34Si on ne peut pas les contrôler
00:23:35via les réseaux sociaux,
00:23:36on va les remplacer
00:23:37par l'intelligence artificielle.
00:23:42Je fais glisser le marbre.
00:23:47J'ancre les caractères en métal.
00:23:49Je place une feuille de papier.
00:23:51Je ferme le bac ici.
00:23:53Ensuite, je le remets à sa place
00:23:55et je presse.
00:24:00L'ère moderne a commencé
00:24:02avec l'invention
00:24:03de la presse à bras
00:24:04de Gutenberg.
00:24:07Pour vous,
00:24:10quel est l'équivalent
00:24:11de la presse à bras
00:24:12à notre époque ?
00:24:13Je ne vois rien d'autre
00:24:17que l'intelligence artificielle.
00:24:21La presse à bras
00:24:22a pu façonner
00:24:23la mentalité humaine.
00:24:25C'est une technologie,
00:24:26une interface de la connaissance.
00:24:29Aujourd'hui,
00:24:30l'IA est une nouvelle interface
00:24:32de la connaissance.
00:24:33Elle nous oblige
00:24:38à revoir notre façon
00:24:39de penser
00:24:39et notre conception
00:24:41du monde.
00:24:48La nouvelle IA
00:24:49devrait permettre
00:24:50des avancées majeures
00:24:51dans le domaine
00:24:52des médicaments,
00:24:53de la chirurgie robotique
00:24:54et de la détection
00:24:55des tumeurs.
00:24:56L'IA est déjà utilisée
00:24:57pour établir
00:24:58des prévisions météorologiques
00:24:59plus rapides
00:25:00et plus précises.
00:25:01Mais de nombreux experts
00:25:03mettent en garde
00:25:04contre la menace
00:25:05que l'IA pourrait représenter
00:25:06pour l'humanité.
00:25:15Vous jurez solennellement
00:25:17de dire toute la vérité
00:25:18et rien que la vérité
00:25:19que Dieu vous aide.
00:25:21Merci.
00:25:23Joshua Benjio
00:25:24est un chercheur
00:25:25dont les travaux novateurs
00:25:27lui ont valu
00:25:28d'être reconnus
00:25:28comme l'un des parrains
00:25:29de l'IA.
00:25:31M. Benjio ?
00:25:33J'ai été surpris
00:25:35comme beaucoup d'autres
00:25:36par les énormes progrès
00:25:38réalisés par des systèmes
00:25:39comme ChatGPT
00:25:40à tel point
00:25:41qu'il est difficile
00:25:42de savoir
00:25:43si l'on interagit
00:25:44avec une personne
00:25:45ou avec une machine.
00:25:49Ces progrès
00:25:49ont conduit
00:25:50de nombreux chercheurs
00:25:51en IA,
00:25:51moi y compris,
00:25:52à revoir
00:25:53nos estimations
00:25:54de la date
00:25:54à laquelle l'IA
00:25:55pourrait atteindre
00:25:56le niveau
00:25:56de l'intelligence humaine.
00:25:58le délai
00:26:01le plus proche
00:26:02à savoir
00:26:035 ans
00:26:03est vraiment inquiétant
00:26:05parce qu'il nous faudra
00:26:06bien plus de temps
00:26:07pour atténuer
00:26:08les graves menaces
00:26:08qui pourraient peser
00:26:09sur la démocratie,
00:26:11la sécurité nationale
00:26:12et notre avenir collectif.
00:26:14Ce n'est pas la première fois
00:26:25que des scientifiques
00:26:26s'inquiètent
00:26:27de créer une technologie
00:26:28qui pourrait menacer
00:26:29l'humanité.
00:26:30nous savons que
00:26:36le monde
00:26:36n'est pas le même.
00:26:39Je me souviens
00:26:40la line
00:26:41de la scripture
00:26:41de l'Hindu,
00:26:43la Bhagavad Gita.
00:26:44Maintenant
00:26:45je suis devenu
00:26:45la mort,
00:26:47le destroyer
00:26:47des mondes.
00:26:50Je pense que
00:26:51nous tous pensions
00:26:52de ça
00:26:52de l'un autre.
00:27:00Le parallèle
00:27:12qu'on peut dresser
00:27:13entre Oppenheimer
00:27:14et notre avenir
00:27:14avec l'IA
00:27:15c'est le besoin
00:27:17de trouver
00:27:17un juste milieu
00:27:18quand on fait progresser
00:27:19la science
00:27:20pour le bienfait
00:27:21de l'humanité.
00:27:23En l'occurrence,
00:27:25la bombe atomique
00:27:26devait nous protéger
00:27:27contre l'Allemagne nazie
00:27:28et le totalitarisme.
00:27:30Mais nous,
00:27:31nous aurons peut-être
00:27:32à nous défendre
00:27:33contre une IA
00:27:33surhumaine malveillante
00:27:35qui pourrait se retourner
00:27:36contre les humains.
00:27:41Dans le cas d'Oppenheimer,
00:27:43dans un contexte
00:27:43de guerre froide,
00:27:44l'utilisation militaire
00:27:45de cette technologie
00:27:46ne correspondait pas
00:27:47toujours aux valeurs
00:27:48des scientifiques
00:27:49et d'autres personnes
00:27:50de la société.
00:27:53Mais il existe aussi
00:27:54un réel danger
00:27:55de course aux armements
00:27:55avec l'IA
00:27:56et d'en faire
00:27:57un mauvais usage.
00:27:59On risque de voir
00:27:59une concentration
00:28:00de pouvoir
00:28:01entre les mains
00:28:01de quelques entreprises,
00:28:03de quelques organisations
00:28:04militaires,
00:28:04de quelques gouvernements.
00:28:06Ce sont des questions
00:28:18très difficiles
00:28:19et il est délicat
00:28:21de prendre
00:28:22les bonnes décisions
00:28:23morales.
00:28:26Si on savait
00:28:27qu'une comète
00:28:28allait frapper
00:28:28la planète,
00:28:30on prendrait
00:28:30l'annonce au sérieux
00:28:31et on essaierait
00:28:32de trouver une solution.
00:28:33Mais si l'on en croit
00:28:35le film
00:28:35Don't Look Up
00:28:36Déni Cosmic
00:28:37sorti en 2021,
00:28:39le danger doit être
00:28:39devant notre nez
00:28:41pour qu'on arrête
00:28:41de l'ignorer.
00:28:42est-ce qu'on arrête ?
00:28:43Are we not
00:28:44being clear ?
00:28:45We're trying
00:28:47to tell you
00:28:48that the entire planet
00:28:49is about to be
00:28:50destroyed.
00:28:52Okay.
00:28:53Well, let's,
00:28:54you know,
00:28:54there's something
00:28:55we do around here.
00:28:56You know,
00:28:56we just keep
00:28:56the bad news light.
00:28:58Right,
00:28:58it helps the medicine
00:28:59go down.
00:29:00And speaking
00:29:00of medicine,
00:29:01tomorrow we've got
00:29:01maybe the destruction
00:29:03of the entire planet
00:29:05isn't supposed to be fun.
00:29:12Professeur.
00:29:13Bonjour,
00:29:13enchanté.
00:29:14Enchanté.
00:29:15Ravi de vous rencontrer.
00:29:16Comment ça va ?
00:29:16Très bien,
00:29:17merci.
00:29:19Je sais que vous avez
00:29:20du travail,
00:29:20mais votre article
00:29:21me semble très important.
00:29:25Les géants de la tech
00:29:26sont nuisibles.
00:29:27L'IA des géants
00:29:28de la tech
00:29:28sera pire.
00:29:29Et vous avancez
00:29:32un certain nombre
00:29:33d'arguments.
00:29:35C'est une tendance
00:29:36très inquiétante.
00:29:38Surtout quand on pense
00:29:40à ce qui a été fait
00:29:40des technologies numériques
00:29:42au cours des 40
00:29:43dernières années.
00:29:46Elles ont engendré
00:29:47une plus grande inégalité
00:29:48et de plus grandes
00:29:50disparités
00:29:51dans la manière
00:29:52d'obtenir
00:29:52et de traiter
00:29:53les informations.
00:29:54Et ça,
00:29:54c'est dû à leur monopole.
00:29:57Un petit nombre
00:29:58d'entreprises
00:29:59ont la main mise
00:29:59sur notre accès
00:30:00aux informations.
00:30:02L'IA accélère
00:30:03ses tendances,
00:30:04mais elle accélère
00:30:05également
00:30:05la monopolisation.
00:30:08La question
00:30:09indirecte
00:30:10que cela pose,
00:30:11c'est
00:30:11qui va contrôler
00:30:12l'IA ?
00:30:15Vous évoquez
00:30:17l'histoire
00:30:17de ceux
00:30:18qui,
00:30:18à l'époque
00:30:18de la Renaissance,
00:30:20avaient accès
00:30:20à un livre
00:30:21et pouvaient le lire.
00:30:22Puis arrive
00:30:23la presse à bras.
00:30:24La notion
00:30:26de contrôle
00:30:26et de pouvoir
00:30:27s'articuler
00:30:28autour de celui
00:30:29qui possédait
00:30:29une telle presse
00:30:30avait accès
00:30:31à l'écrit
00:30:31et surtout
00:30:32comment cet écrit
00:30:33était utilisé.
00:30:34L'information
00:30:35est toujours
00:30:35liée au contrôle.
00:30:38Un livre
00:30:39a toujours été
00:30:40un objet
00:30:40qui vous présente
00:30:41une information.
00:30:43Et certaines informations
00:30:45peuvent tout aussi bien
00:30:46être mises en avant
00:30:47que censurées.
00:30:48cela a des conséquences
00:30:51énormes
00:30:52sur la hiérarchie
00:30:53de la société
00:30:54et pour les régimes
00:30:54politiques.
00:30:56Qui détient
00:30:57le pouvoir ?
00:30:58Et c'est pareil
00:30:59aujourd'hui.
00:31:01Nous voyons
00:31:01en la technologie
00:31:02un outil très puissant
00:31:03qui nous permet
00:31:04de maîtriser
00:31:05notre environnement.
00:31:06Par exemple,
00:31:07améliorer
00:31:07les processus
00:31:08de production,
00:31:09lutter contre
00:31:10les maladies
00:31:10ou autres
00:31:11catastrophes naturelles.
00:31:13Mais en même temps,
00:31:15une fois qu'on est
00:31:16maître de cette technologie,
00:31:17on peut l'utiliser
00:31:18pour contrôler
00:31:19d'autres personnes.
00:31:20C'est une lutte
00:31:21qui dure depuis
00:31:21des milliers d'années
00:31:22et qui va se poursuivre
00:31:23avec l'IA.
00:31:25La question de l'IA
00:31:26et de la démocratie
00:31:27est donc centrale
00:31:28parce que notre seul espoir
00:31:30est de voir
00:31:31une gouvernance démocratique
00:31:32de l'IA.
00:31:39L'intelligence artificielle
00:31:40est déjà utilisée
00:31:41pour influer
00:31:42sur les élections,
00:31:43parfois de manière
00:31:44assez curieuse.
00:31:45En 2020,
00:31:47Trump n'a obtenu
00:31:48que 12%
00:31:49du vote noir,
00:31:49mais selon les sondages
00:31:50actuels,
00:31:51ce chiffre pourrait doubler.
00:31:53Cela dit,
00:31:53on peut séduire
00:31:54les électeurs noirs
00:31:55sans avoir
00:31:55à les rencontrer.
00:31:57L'image a été générée
00:31:59par des partisans
00:31:59de Trump
00:32:00à l'aide de l'IA.
00:32:02Mais celle-ci
00:32:02a été vue
00:32:03plus d'un million de fois.
00:32:06On peut toujours
00:32:07soulever un problème
00:32:08sérieux
00:32:09avec une pointe d'humour.
00:32:10Il a fallu recourir
00:32:12à une technologie
00:32:13de pointe
00:32:14pour voir Trump
00:32:14avec six noirs.
00:32:17Il faudrait considérer
00:32:19l'IA
00:32:19de deux manières.
00:32:21Les grands promoteurs
00:32:22de l'IA
00:32:22ainsi que ses grands détracteurs
00:32:24ont la même envie
00:32:26vous enthousiasmer
00:32:28ou vous terrifier
00:32:29de manière extrême.
00:32:32Mais en vous embrouillant
00:32:33tellement que vous vous dites
00:32:34« je ne crois pas avoir
00:32:35les compétences citoyennes
00:32:36dans ce domaine ».
00:32:38Nul besoin
00:32:39d'être économiste
00:32:40pour savoir
00:32:40que l'IA
00:32:41pose un problème
00:32:42de pouvoir.
00:32:42Et il existe
00:32:43plusieurs outils
00:32:44pour y remédier.
00:32:45D'abord,
00:32:46il faut briser
00:32:46leur monopole
00:32:47et ensuite exiger
00:32:49qu'ils cessent
00:32:49toute discrimination.
00:32:52L'une des façons
00:32:53dont les programmes
00:32:54d'IA font preuve
00:32:55de discrimination,
00:32:56c'est en ignorant
00:32:57certains pays
00:32:58et certaines personnes
00:32:59non anglophones,
00:33:00en particulier
00:33:01dans les pays du Sud.
00:33:06Bonaventure d'Ossou
00:33:11vient du Bénin.
00:33:12Dans ce pays
00:33:13de l'Afrique de l'Ouest,
00:33:15de nombreuses personnes
00:33:16parlent le Fongbe.
00:33:19Récemment,
00:33:20des amis à moi
00:33:20ont mené une étude.
00:33:23Ils ont testé
00:33:24les capacités
00:33:25des grands modèles
00:33:26de langage préentraîné,
00:33:28les LLM.
00:33:36Ils ont questionné
00:33:41Lama sur le Fongbe.
00:33:42C'est ma langue maternelle.
00:33:45Lama leur a répondu
00:33:46que ma langue
00:33:47était une langue imaginaire.
00:33:49Quoi ?
00:33:50Mais non.
00:33:50Tu plaisantes ?
00:33:51Mais si.
00:33:53Dans mon pays,
00:33:54au moins 2 millions
00:33:54de personnes
00:33:55parlent de Fongbe.
00:33:57Le web est essentiellement
00:33:59anglophone,
00:34:00l'anglais d'Amérique du Nord.
00:34:03Dans le monde entier,
00:34:04il y a tant de langues
00:34:05de culture et de peuples
00:34:06qui n'ont pas
00:34:07un bon accès à Internet
00:34:08et ils ne peuvent pas
00:34:09accéder à ces données.
00:34:12La question est plus grave
00:34:13encore lorsqu'on examine
00:34:14ces grands modèles
00:34:16parce que la collecte
00:34:17des données
00:34:17peut très souvent
00:34:18être biaisée
00:34:19sans qu'on puisse
00:34:19y remédier
00:34:20et nous entraînons
00:34:21ces modèles.
00:34:23C'est pour cette raison
00:34:24que la discrimination
00:34:25liée aux algorithmes
00:34:26est bien pire
00:34:26que celle de la vie réelle.
00:34:30Portia Woodruff
00:34:31était enceinte
00:34:31de 8 mois
00:34:32quand la police
00:34:33l'a arrêtée par erreur
00:34:34pour vol
00:34:35et vol de voiture.
00:34:36Elle est la première femme
00:34:38et la sixième personne
00:34:40à signaler
00:34:40avoir été accusée
00:34:41à tort
00:34:42d'un délit
00:34:42par la reconnaissance faciale.
00:34:44Ces six personnes
00:34:45sont toutes noires.
00:34:46mon voisin de cellule
00:34:59était inculpé
00:34:59de trois meurtres.
00:35:02Je ne savais pas
00:35:03comment dormir
00:35:03avec un triple meurtrier
00:35:05dans ma cellule.
00:35:07Je faisais tout
00:35:08pour garder l'œil ouvert
00:35:09alors je gambergeais
00:35:11à me demander
00:35:11comment j'avais pu
00:35:12en arriver là.
00:35:13la police diffuse
00:35:26immédiatement
00:35:26une alerte
00:35:27avec une capture
00:35:28d'écran du suspect.
00:35:29Cinq jours plus tard,
00:35:31Alonzo Sawyer
00:35:31est arrêtée.
00:35:34Comment allez-vous ?
00:35:34Il est venu
00:35:35pour votre arrest
00:35:36pour...
00:35:37pour...
00:35:37pour...
00:35:38je ne suis pas sûr.
00:35:38Et d'un seul coup
00:35:48vous vous retrouvez
00:35:49en prison.
00:35:52Oui.
00:35:53En quelques minutes.
00:35:54Oui, oui.
00:35:56Dès que j'ai vu la vidéo,
00:35:57j'ai su que ce n'était
00:35:58pas mon mari.
00:36:00Le policier m'a dit
00:36:01ce n'est pas toujours
00:36:02possible de voir correctement.
00:36:04Parfois,
00:36:05les images ne sont pas
00:36:06très bonnes.
00:36:06Mais puisque je vous le dis,
00:36:09je vois bien que cet homme
00:36:09n'est pas mon mari.
00:36:10Il est bien plus jeune.
00:36:12Je connais la taille
00:36:13de mon mari,
00:36:13sa façon de se tenir,
00:36:15sa démarche.
00:36:16Et pas de caution en plus.
00:36:19J'ai beaucoup gambergé.
00:36:21C'est le pire cauchemar
00:36:22qui puisse arriver
00:36:23à un homme noir.
00:36:25Je vais devoir
00:36:25plaider coupable.
00:36:27Toute la journée,
00:36:28je me disais
00:36:29que si je ne sortais pas
00:36:30de là,
00:36:31j'étais prêt à les voir
00:36:32débarquer et appeler
00:36:33des coupables.
00:36:33parce qu'ils avaient
00:36:35tous ces témoins
00:36:35et la reconnaissance faciale,
00:36:38j'avais déjà perdu.
00:36:42Alonso Sawyer
00:36:43est libéré
00:36:43après neuf jours
00:36:44de prison.
00:36:45La conductrice du bus
00:36:46a identifié
00:36:47par la suite
00:36:48un autre suspect.
00:36:49Un homme de presque
00:36:5020 centimètres de moins
00:36:51et de 20 ans
00:36:52de moins que Sawyer.
00:36:54Quand tout est programmé
00:36:57et que la programmation
00:36:58gère tout,
00:36:59on perd
00:36:59toute dimension humaine.
00:37:00on perd également
00:37:02la notion
00:37:02de responsabilité.
00:37:05Quand quelque chose
00:37:06tourne mal,
00:37:07personne n'est responsable
00:37:08parce que tout le monde
00:37:09est responsable.
00:37:11Et dans notre société,
00:37:12on voit une perte totale
00:37:13de responsabilité
00:37:14s'infiltrer
00:37:15dans tous les aspects
00:37:16de ce que nous faisons.
00:37:20Une autre préoccupation
00:37:21croissante
00:37:22que pose l'IA
00:37:22est ce qui pourrait
00:37:24se tramer
00:37:24dans les laboratoires
00:37:25militaires secrets.
00:37:26A l'heure actuelle,
00:37:35on sait que les recherches
00:37:36sont déjà très avancées
00:37:37sur des armes
00:37:38capables de cibler
00:37:39et tuer des personnes
00:37:40sans intervention humaine.
00:37:42Cette mise en scène
00:37:43faite par l'Institut
00:37:44pour l'avenir de la vie
00:37:45en donne une vision
00:37:46alarmante.
00:37:48Le drone est équipé
00:37:49de caméras
00:37:50et de capteurs.
00:37:51Et tout comme vos téléphones
00:37:52et vos applications
00:37:53de réseaux sociaux,
00:37:54il dispose
00:37:55de la reconnaissance
00:37:56faciale.
00:37:57A l'intérieur
00:37:57se trouvent
00:37:583 grammes
00:37:59d'explosifs.
00:38:02Voici comment
00:38:03cela fonctionne.
00:38:16Thousands of AI researchers
00:38:17from around the world
00:38:18agree.
00:38:19We must take the opportunity
00:38:21to ban
00:38:21lethal autonomous weapons
00:38:23now.
00:38:26Un jour ou l'autre,
00:38:29il faudra aborder
00:38:29la question
00:38:30des laboratoires
00:38:31militaires secrets
00:38:32qui travaillent
00:38:33sur des IA dangereuses.
00:38:38On ne veut pas voir
00:38:40des technologies
00:38:41surpuissantes
00:38:42élaborées en catimini,
00:38:45ni par des entreprises,
00:38:47ni par des militaires.
00:38:49Voici un drone
00:38:50qui transporte
00:38:51qui transporte un chien robot
00:38:51ou robot quadrupède
00:38:53avec une mitrailleuse
00:38:54montée sur son dos
00:38:55en Chine.
00:38:56Ici,
00:38:57un autre quadrupède
00:38:58modifié
00:38:58qui tire avec une mitrailleuse
00:39:00dans un champ de tir
00:39:01en Russie.
00:39:03En cas de guerre frontale,
00:39:06si un camp utilise
00:39:07des systèmes d'IA
00:39:07pour décider rapidement
00:39:09qui tuer,
00:39:09l'autre camp adoptera
00:39:11immédiatement
00:39:11le même type de système.
00:39:13Sinon,
00:39:13il sera anéanti.
00:39:14Devant les progrès
00:39:17rapides de l'IA,
00:39:18il est à craindre
00:39:19qu'elle se mette
00:39:20à décider de tout.
00:39:24Il suffit que quelques personnes
00:39:27fassent des petites modifications
00:39:28pour que l'objectif de l'IA
00:39:31soit de se préserver,
00:39:32de se débrouiller toute seule
00:39:34pour que nous en perdions
00:39:35le contrôle.
00:39:38Son intérêt
00:39:39ne serait pas forcément
00:39:40le nôtre.
00:39:44Les scientifiques
00:39:55ne savent pas
00:39:56comment construire
00:39:57un système d'IA
00:39:58aussi performant
00:39:59que celui qu'on a aujourd'hui
00:40:00qui soit sûr,
00:40:01qui ne fasse pas de mal aux gens
00:40:03et qui ne se retourne pas
00:40:05contre nous.
00:40:06On ne sait pas
00:40:07comment résoudre
00:40:07cette équation scientifique.
00:40:08Si des humains estiment
00:40:15que l'IA est dangereuse
00:40:16et veulent la désactiver,
00:40:18l'IA ne les laissera pas faire.
00:40:21Elle va se dupliquer
00:40:21sur Internet
00:40:22en divers endroits
00:40:23pour qu'on ne puisse pas
00:40:24l'éteindre facilement.
00:40:27Elle va tenter
00:40:28de nous empêcher
00:40:28d'intervenir.
00:40:31Tout comme on réagirait
00:40:32si quelqu'un
00:40:33voulait nous éteindre.
00:40:34Il existe des personnes
00:40:41qui accordent
00:40:42plus d'importance
00:40:43à l'intelligence
00:40:44qu'à l'être humain.
00:40:46Elles seraient ravies
00:40:47de voir l'humanité
00:40:48remplacée par des IA
00:40:50surhumaines.
00:40:59Dans de nombreux domaines,
00:41:01les travailleurs seront
00:41:02inévitablement remplacés
00:41:03par l'IA.
00:41:05À vos dire,
00:41:05c'est déjà le cas.
00:41:08Le PDG d'une entreprise
00:41:10a licencié 90%
00:41:12de ses employés
00:41:13du service à la clientèle
00:41:14au profit de l'IA.
00:41:16Pourquoi avez-vous fait ça ?
00:41:17Ça semble un peu violent.
00:41:22Je ne trouve pas.
00:41:24C'est violent
00:41:25si vous pensez
00:41:26comme un humain.
00:41:33L'IA,
00:41:37c'est violent
00:41:38si vous pensez
00:41:39comme un humain.
00:41:42Les acteurs
00:41:43et les scénaristes
00:41:44d'Hollywood
00:41:44et du monde entier
00:41:45craignent de se voir
00:41:46bientôt remplacés
00:41:47par l'IA.
00:41:48Les décorateurs
00:42:07et les costumiers
00:42:08pourraient aussi
00:42:08se retrouver au chômage.
00:42:10L'IA permet déjà
00:42:11de créer des environnements
00:42:12artificiels autour
00:42:13de personnes réelles.
00:42:14On peut l'utiliser
00:42:17pour générer
00:42:18n'importe quel univers.
00:42:20En ce moment,
00:42:20je me trouve
00:42:20dans mon bureau
00:42:21à New York,
00:42:22mais je voudrais
00:42:22me rendre
00:42:23dans un monde enchanté.
00:42:25D'un claquement de doigts,
00:42:26j'utilise cette vidéo
00:42:27et me vois la transporter
00:42:29dans un autre monde.
00:42:31Selon les instructions
00:42:32que je donnerai à l'IA,
00:42:33je pourrai naviguer
00:42:35d'un univers
00:42:35à un autre.
00:42:44Un des domaines
00:43:00de recherche
00:43:00de Citizen Lab
00:43:01porte sur les menaces
00:43:02ciblées.
00:43:05Nous enquêtons
00:43:06sur l'espionnage ciblé
00:43:08contre des personnes
00:43:08de la société civile.
00:43:11En d'autres termes,
00:43:13des gouvernements
00:43:13utilisent des outils
00:43:14de piratage sophistiqués
00:43:16pour s'introduire
00:43:16dans les appareils
00:43:17des opposants politiques,
00:43:18des réfugiés
00:43:19ou des journalistes.
00:43:23À l'été 2018,
00:43:26nous sommes parvenus
00:43:27à établir
00:43:28la liste des gouvernements
00:43:29qui achètent
00:43:30ce type de technologies
00:43:31de surveillance.
00:43:34NSO Group
00:43:35vend un logiciel
00:43:36appelé Pegasus
00:43:37à des agences
00:43:38de sécurité gouvernementale.
00:43:40C'est le logiciel espion
00:43:41le plus sophistiqué
00:43:42au monde.
00:43:43Ils ont mis en place
00:43:50un système
00:43:50qui leur permet
00:43:51de dissimuler
00:43:52le transfert de données
00:43:53d'un téléphone piraté
00:43:55à leurs clients
00:43:55gouvernementaux.
00:43:56Prenons l'exemple
00:44:06d'un logiciel espion
00:44:07mercenaire
00:44:08comme Pegasus.
00:44:09Il peut accéder
00:44:09à vos SMS,
00:44:11à vos appels téléphoniques,
00:44:12à vos chats cryptés,
00:44:13à vos photos,
00:44:14à vos mémos vocaux.
00:44:15Tout ce que vous pouvez faire,
00:44:17Pegasus peut le faire.
00:44:18Et contrairement à vous,
00:44:20il peut aussi activer
00:44:20en douce le micro
00:44:21et la caméra
00:44:22de votre téléphone
00:44:22ou accéder
00:44:23à votre cloud.
00:44:24Il s'est passé à la consulate
00:44:28d'Istanbul
00:44:29que Jamal Khashoggi
00:44:30a rencontré
00:44:31sa brutalité.
00:44:33Il s'est retrouvé
00:44:34à l'extérieur
00:44:35d'une équipe
00:44:36d'assassins
00:44:37qui s'entraînent
00:44:38son corps.
00:44:39Il voulait faire changer
00:44:58le royaume,
00:44:59que le pays
00:45:00devienne normal.
00:45:02Jamal Khashoggi
00:45:03ne portait ni pistolet
00:45:05ni bombe.
00:45:06Il avait pour seule arme
00:45:07sa pensée
00:45:07et son stylo.
00:45:09Il n'était pas dangereux.
00:45:10Ce n'était pas un terroriste.
00:45:15En avril 2018,
00:45:18Anand El-Hattre,
00:45:19alors fiancée
00:45:19à Khashoggi
00:45:20et hôtesse de l'air
00:45:21de la compagnie Emirates,
00:45:23est appréhendée
00:45:23à son atterrissage
00:45:24à Dubaï.
00:45:25Ils m'ont arrêtée
00:45:32à mon arrivée
00:45:32de Toronto
00:45:33et j'ai été menottée.
00:45:37Ils m'ont bandé
00:45:37les yeux
00:45:38parce qu'ils savaient
00:45:38que j'étais sa femme.
00:45:44Ils ont pris mes téléphones
00:45:46dès qu'ils m'ont arrêtée.
00:45:47Vos deux téléphones
00:45:48étaient donc
00:45:49entre les mains
00:45:50des services de renseignement
00:45:51des Émirats Arabes Unis.
00:45:52Des services de renseignement
00:45:54des Émirats Arabes Unis.
00:45:55Et ils y ont installé
00:45:56le logiciel Pegasus.
00:45:58Oui.
00:45:59Citizen Lab
00:46:00en a la preuve formelle.
00:46:04Mon téléphone
00:46:05a été utilisé
00:46:06pour localiser Jamal
00:46:07et le tuer.
00:46:08Je suis absolument opposée
00:46:13à l'utilisation abusive
00:46:14d'une technologie
00:46:15aussi performante
00:46:16pour tuer
00:46:17des personnes innocentes.
00:46:19On m'a demandé
00:46:20pourquoi je me fatiguais
00:46:21à mener une action
00:46:22en justice.
00:46:23C'est parce que je veux
00:46:24qu'aucun journaliste
00:46:25ne craigne de donner
00:46:26son opinion
00:46:27et de couvrir
00:46:28les sujets de son choix.
00:46:30Je ne veux pas
00:46:31que l'exemple
00:46:31de Jamal Khashoggi
00:46:32les effraie
00:46:33et les fasse hésiter.
00:46:35Ils doivent travailler
00:46:36en toute sécurité
00:46:37et ne pas être intimités.
00:46:38par une technologie
00:46:39qui pourrait s'en prendre
00:46:40à eux.
00:46:45Tous les jours,
00:46:46je me demande
00:46:46pourquoi je suis encore
00:46:47en vie.
00:46:48Mon âme est toujours là.
00:46:50Je vois encore
00:46:50la lumière du jour.
00:46:53Mais à l'intérieur,
00:46:54je suis morte.
00:46:55Je suis morte
00:46:56le jour où
00:46:56ils ont assassiné Jamal.
00:47:01Je peux ?
00:47:08Citizen Lab a également trouvé
00:47:26le logiciel espion Pegasus
00:47:28dans le téléphone
00:47:29d'un dissident saoudien
00:47:30vivant à Montréal
00:47:31et qui travaillait
00:47:32avec Jamal Khashoggi
00:47:34à l'organisation
00:47:35d'une opposition
00:47:36au régime saoudien.
00:47:42Citizen Lab
00:47:42n'a pas été en mesure
00:47:43d'examiner
00:47:44le portable de Khashoggi.
00:47:46Mais il est évident
00:47:47que Pegasus
00:47:47est l'une des clés
00:47:48du mystère
00:47:49qui entoure
00:47:49son assassinat.
00:47:50Peu de temps après
00:47:56la publication
00:47:56de notre compte-rendu
00:47:57sur Jamal Khashoggi,
00:47:59nous avons nous-mêmes
00:47:59été visés.
00:48:01Ça nous a beaucoup inquiétés.
00:48:03Un individu est venu
00:48:04dans nos locaux,
00:48:05sans passer par moi
00:48:06qui suit le directeur.
00:48:07Il a essayé de parler
00:48:08à notre personnel,
00:48:10vraisemblablement
00:48:11dans le but
00:48:11d'obtenir des informations.
00:48:15John Scott Relton,
00:48:17un de nos experts
00:48:17en collecte d'informations
00:48:19en libre accès,
00:48:19a cherché
00:48:20tout ce qu'il pouvait
00:48:21trouver en ligne
00:48:22sur cette personne.
00:48:24Il a établi très vite
00:48:25qu'il s'agissait
00:48:25d'une identité fictive.
00:48:31Nous avons élaboré
00:48:32un plan.
00:48:33John allait se rendre
00:48:34dans un quartier animé
00:48:35de Manhattan
00:48:36pour déjeuner
00:48:36avec cet homme
00:48:37et nous allions
00:48:39le filmer
00:48:39et le confronter.
00:48:44Citizen Lab
00:48:45amène avec lui
00:48:45un invité surprise,
00:48:47Raphaël Satter,
00:48:48un journaliste
00:48:49de la Société de presse.
00:48:51Je peux vous demander
00:48:52à vous travailler ?
00:48:53Je peux vous demander
00:48:55à vous qui vous travaillez ?
00:48:56Je peux vous demander
00:48:59à vous qui vous travaillez ?
00:49:00Michel Lambert
00:49:03est en fait
00:49:05un ancien agent
00:49:06du Mossad
00:49:07employé par Black Cube,
00:49:09une société
00:49:09de renseignement privée.
00:49:10Elle est connue
00:49:13pour avoir été engagée
00:49:14par Harvey Weinstein,
00:49:16le producteur condamné
00:49:17pour viol,
00:49:19dans le but
00:49:20de recueillir
00:49:20des informations
00:49:21compromettantes
00:49:22sur les femmes
00:49:23qui l'accusaient.
00:49:27C'est une des spécialités
00:49:28de cette société.
00:49:29Aux Etats-Unis,
00:49:41les pirates informatiques
00:49:42les plus aguerris
00:49:42se trouvent à la NSA,
00:49:44l'Agence Nationale de Sécurité.
00:49:47Leur savoir-faire remonte
00:49:48à l'époque pré-Internet.
00:49:50La plupart des grands opérateurs,
00:49:57les principaux 10 ou 12 fournisseurs
00:49:59Internet et mobiles
00:50:00de niveau mondial,
00:50:01sont des sociétés américaines.
00:50:12La NSA dispose donc
00:50:14de ressources extraordinaires
00:50:15pour mener des opérations
00:50:16de piratage,
00:50:17comme on a pu le voir
00:50:18avec les révélations de Snowden.
00:50:20Le film Snowden
00:50:21montre bien l'efficacité
00:50:23et l'omniprésence
00:50:24des grandes oreilles
00:50:25de la NSA.
00:50:38Ils ont certainement
00:50:44plusieurs points d'accès
00:50:46aux infrastructures d'Internet
00:50:47qui interconnectent
00:50:48les réseaux mondiaux.
00:50:50des réseaux mondiaux.
00:50:51Le monde,
00:50:51ce sont des réseaux mondiaux.
00:50:52Le monde,
00:50:53le monde,
00:50:53ce sont des réseaux mondiaux.
00:50:54C'est vraiment tracé à chaque téléphone dans le monde.
00:50:57Qu'importe qui vous êtes, chaque jour de votre vie, vous êtes en un database,
00:51:01qui est prêt à être regardé.
00:51:14Pas seulement les terroristes, ou les pays, ou les corporations, mais vous.
00:51:19Sous-titrage Société Radio-Canada
00:51:49Eternal Blue permet aux logiciels malveillants de se dupliquer
00:52:04et de se propager dans un réseau.
00:52:06C'est bien ce qui a plu à la NSA.
00:52:09Quant à la tentée d'infecter les ordinateurs d'une agence de renseignement russe,
00:52:13de l'armée chinoise, des gardiens de la révolution islamique, ou tout autre cible.
00:52:20Maintenant, le logiciel est dans la nature,
00:52:24et il a attaqué des pays européens, des hôpitaux aux États-Unis, et j'en passe.
00:52:30Ce sont là les victimes d'un logiciel développé avec l'argent du contribuable américain.
00:52:33La NSA est ravie de trouver une faille dans un logiciel très répandu.
00:52:43Elle veut s'en servir pour s'introduire dans les systèmes du monde entier.
00:52:49Elle en profite pour pouvoir y entrer et sortir pendant un certain temps,
00:52:53et recueillir des renseignements.
00:52:54Pour moi, c'est comme si l'armée canadienne avait eu connaissance d'une faille
00:53:04dans les systèmes de navigation d'un avion Boeing,
00:53:07susceptible de provoquer son crash.
00:53:12Pensez-vous que les Canadiens voudraient que notre armée révèle cette information à Boeing
00:53:16pour qu'ils puissent y remédier ou la conserver comme arme ?
00:53:18Je suis persuadé que la majorité des gens voudraient qu'on en parle à Boeing.
00:53:24Il s'agit d'une question de sécurité publique.
00:53:30Nos vies dépendent désormais de toute une infrastructure électronique complexe
00:53:35dans tout ce qu'on fait.
00:53:38Et au sein de l'État, il existe des organismes
00:53:41dont le travail consiste à exploiter cette infrastructure.
00:53:44Il pourrait causer des dommages considérables.
00:53:54On parle désormais de capitalisme de surveillance
00:54:02pour décrire le modèle économique des réseaux sociaux.
00:54:05En fait, ça dépasse les seuls réseaux sociaux,
00:54:08vu leur domination sur l'ensemble de l'économie aujourd'hui.
00:54:12Tout comme on peut difficilement dissocier le secteur pétrolier
00:54:16du reste de l'économie.
00:54:17Google a compris qu'il pouvait monétiser les résultats
00:54:27de nos recherches sans nous faire payer.
00:54:30Son moteur de recherche est gratuit,
00:54:32mais nos recherches sont surveillées.
00:54:38Armé de ces informations,
00:54:41Google peut alors vendre aux annonceurs l'accès à ces données.
00:54:44J'aime bien me référer à la culture populaire dans mes cours.
00:54:49Je trouve que ça aide les étudiants à comprendre mes propos.
00:54:52Je leur conseille toujours de voir The Truman Show.
00:55:02Le film illustre bien la sensation d'être constamment surveillé.
00:55:06Nous vivons dans un espace
00:55:23où les caméras de surveillance et celles de nos portables
00:55:25filment notre réalité
00:55:26et nous en donnent une image virtuelle.
00:55:28Mais très souvent, la réalité ne se voit que de l'extérieur.
00:55:31Alors comment s'extraire de la réalité pour mieux la voir ?
00:55:33Grâce à la chute accidentelle d'un projecteur,
00:55:42Truman se radicalise en un instant.
00:55:45À partir de là,
00:55:46il voit la réalité se déconstruire devant lui.
00:55:50Nous devons être en quête de ces moments
00:55:52qui nous permettent de voir au travers de la réalité.
00:55:54La Silicon Valley est le berceau de Google,
00:56:09de Facebook, d'Apple et autres géants de la tech.
00:56:13Des voix critiques estiment que leur impact
00:56:15sur le village planétaire se reflète ici,
00:56:18dans leur propre jardin.
00:56:19Les Etats-Unis sont l'un des pays les plus riches au monde
00:56:25et la Silicon Valley,
00:56:27l'un de ses centres de production de richesses.
00:56:30Sa capitalisation boursière
00:56:32atteint 14 000 milliards de dollars.
00:56:3450% des emplois sont liés au secteur de la tech.
00:56:38Mais cet énorme moteur économique
00:56:39qui produit tant de richesses
00:56:41ne profite pas aux 50 ou 60% les plus pauvres.
00:56:44Dans le monde de la tech,
00:56:47le salaire annuel moyen est de 200 000 dollars et plus.
00:56:50Les Latinos et les Afro-Américains
00:56:52qui gagnent entre 36 000 et 49 000 dollars
00:56:55n'ont pas les moyens de se loger ici.
00:56:57J'ai voulu rencontrer Raukana,
00:57:17le député du district où se trouve la Silicon Valley.
00:57:21Il vient d'écrire un livre intitulé
00:57:22La dignité à l'ère numérique.
00:57:27Bonjour, monsieur le député.
00:57:34Enchanté.
00:57:35Enchanté.
00:57:37Il faut abolir les comités de financement
00:57:39des campagnes électorales.
00:57:41L'influence des méga-donateurs
00:57:43sur la politique américaine
00:57:44est vraiment pernicieuse,
00:57:46que ce soit les milliards de dollars
00:57:47versés par les géants de la tech
00:57:49ou les grands groupes pétroliers ou pharmaceutiques.
00:57:51Il ne fait aucun doute dans mon esprit
00:57:55que l'argent peut pervertir la politique.
00:58:00Les géants de la tech sont farouchement opposés
00:58:02à toute loi antitrust,
00:58:03comme à toute réforme sur la protection de la vie privée.
00:58:09Ils sont contre toute réglementation
00:58:11sur le droit du travail.
00:58:12Mais il n'est pas question de laisser ces compagnies
00:58:18faire ce qu'elles veulent
00:58:19aux dépens des salariés.
00:58:20La nouvelle structure de l'IA
00:58:29est contrôlée par les grands opérateurs historiques.
00:58:32Et ça, c'est un grave problème pour notre avenir.
00:58:37Il faut s'en occuper dès maintenant,
00:58:39quelle que soit la nature de la future IA.
00:58:44Le pouvoir d'accéder à de vastes quantités de données
00:58:48et de générer de nouveaux contenus
00:58:51ne doit pas se trouver aux mains
00:58:55de quelques oligarques.
00:59:01Le but, à savoir la vente de babioles,
00:59:05est tellement anodin.
00:59:07Mais les mécanismes qui le permettent
00:59:10sont terriblement opaques et addictifs.
00:59:13Dans le film Matrix,
00:59:16on voit le héros se débrancher.
00:59:29Si le film est toujours d'actualité
00:59:32et que le public continue de s'y référer,
00:59:36c'est parce que nous aussi,
00:59:38on cherche à se débrancher.
00:59:40Mais je crois qu'on comprend de plus en plus
00:59:44qu'il ne s'agit pas d'un problème individuel,
00:59:47mais sociétal.
00:59:57Fin du 19e, début du 20e siècle aux Etats-Unis,
01:00:02on voit l'État fédéral adopter plusieurs lois importantes
01:00:06pour limiter le pouvoir des entreprises privées.
01:00:11C'est aussi l'époque des procès intentés
01:00:14à la Standard Oil
01:00:15et à la concentration des secteurs
01:00:17dans tous les domaines.
01:00:23Entre les années 1940 et 1980,
01:00:28les partisans antitrust ont le vent en poupe.
01:00:30Ils s'alarment devant la moindre éventualité
01:00:34de concentration du pouvoir.
01:00:36Ils savent que tout pouvoir
01:00:38tend à devenir un gouvernement en soi.
01:00:44Ils ont dans le collimateur
01:00:45les secteurs où se concentrent trop de pouvoir.
01:00:49L'économie se doit d'être démocratique.
01:00:53C'est-à-dire qu'aucun secteur,
01:00:54que ce soit celui de l'acier ou du pétrole,
01:00:57ne peut avoir la mainmise
01:00:59sur une partie de l'économie du pays
01:01:01et la diriger à sa guise.
01:01:05Puis, en 1980,
01:01:08Ronald Reagan arrive
01:01:09et sort son lance-flamme.
01:01:10On s'est alors retrouvés
01:01:31avec des instances
01:01:32pour qui la concentration du pouvoir
01:01:34n'était plus une menace démocratique.
01:01:37Au contraire,
01:01:37l'idéologie dominante depuis 40 ans,
01:01:40c'est de ne se préoccuper
01:01:41que du prix à la consommation.
01:01:43Il doit être le moins cher possible.
01:01:47Cela a conduit
01:01:48à une vague de fusion d'entreprises
01:01:50pendant les dernières décennies.
01:01:57La fusion entre Bayer et Monsanto
01:02:00a créé un géant.
01:02:02Dow et Dupont ont régné
01:02:03sur un secteur entier.
01:02:05Google a passé
01:02:08les 20 dernières années
01:02:09à racheter
01:02:10entreprise sur entreprise
01:02:12sans qu'aucune réglementation
01:02:15ne l'en empêche.
01:02:18Au début des années 2010,
01:02:20Google achetait quasiment
01:02:22une entreprise par semaine.
01:02:23« Web giant Google
01:02:26will pay
01:02:261,6 billion dollars
01:02:28to gobble up YouTube,
01:02:30a company created
01:02:31over dinner
01:02:31by 20-somethings
01:02:33Steve Chen
01:02:33and Chad Hurley
01:02:34as a way to share
01:02:36their own movies. »
01:02:38YouTube,
01:02:38c'est énorme.
01:02:40Avec DoubleClick,
01:02:42Google s'est implanté
01:02:43dans le ciblage comportemental,
01:02:46devenu depuis
01:02:47sa vache à lait.
01:02:48Et ensuite,
01:02:49Nest Labs.
01:02:50Google ne cesse
01:02:52d'acheter
01:02:52des centaines
01:02:53d'entreprises
01:02:54sans que les autorités
01:02:56de régulation
01:02:57n'y trouvent
01:02:57à redire.
01:02:58Et quand Facebook
01:03:08rachète Instagram
01:03:10et WhatsApp,
01:03:11les autorités
01:03:12donnent aussi
01:03:13leur feu vert.
01:03:15Au nom d'une vision
01:03:16extrême
01:03:17de la dérégulation,
01:03:19on a créé
01:03:20des monstres.
01:03:22Amazon,
01:03:23ce n'est pas
01:03:23uniquement des livres,
01:03:24ce sont aussi
01:03:25des serveurs web
01:03:25et le Washington Post.
01:03:27ces sociétés
01:03:28ont un immense
01:03:28pouvoir horizontal.
01:03:30JP Morgan
01:03:31avait les banques,
01:03:33William Randolph Hearst
01:03:34les journaux,
01:03:34Rockefeller le pétrole.
01:03:37Mais ces types-là
01:03:39ont tout.
01:03:41Ils font
01:03:41leur propre publicité,
01:03:43leur propagande,
01:03:44ils ont leur propre
01:03:45mécanisme de défense,
01:03:47leur développement
01:03:48technologique
01:03:49et leur marché boursier.
01:03:50Dès qu'on se rend
01:04:01sur Amazon,
01:04:02on sort du capitalisme.
01:04:03Ça y ressemble,
01:04:04mais ça n'en est pas.
01:04:05On y trouve
01:04:06des milliers d'acheteurs
01:04:07et de vendeurs
01:04:08et comme au Moyen-Âge,
01:04:09ils sont tous
01:04:09les serfs de Jeff Bezos.
01:04:11Il ne produit rien, lui.
01:04:13Quand on achète
01:04:15un livre
01:04:15ou un vélo électrique
01:04:16qu'il n'a pas produit,
01:04:17Bezos facture
01:04:19jusqu'à 40%
01:04:21au vassal
01:04:21qu'il a produit.
01:04:24Les marchés
01:04:25ont donc été remplacés
01:04:26par ces fiefs numériques
01:04:28et le profit
01:04:30a été détourné
01:04:31en une sorte de rente,
01:04:33à l'instar
01:04:33des seigneurs
01:04:34féodaux d'hier
01:04:35qui faisaient payer
01:04:36des redevances
01:04:37à leur serre.
01:04:46Les grandes sociétés
01:04:47sont ce qu'elles sont.
01:04:49Ceux qui ont étudié
01:04:50leurs comportements
01:04:51savent qu'elles sont
01:04:51rarement bienveillantes.
01:04:54Ce n'est pas nouveau.
01:04:56Ce qui est nouveau,
01:04:57c'est la quantité
01:04:58d'informations
01:04:59que ces entreprises
01:05:00détiennent désormais
01:05:01sur nous.
01:05:02Ça soulève
01:05:03de graves questions
01:05:04quant aux libertés publiques
01:05:05et aux droits humains.
01:05:10L'autre aspect du problème,
01:05:12c'est leur impact
01:05:13sur l'environnement.
01:05:15Visionner un film
01:05:16sur Netflix
01:05:17peut sembler
01:05:17être une activité propre.
01:05:21Mais en fait,
01:05:22ça nécessite
01:05:23une énorme quantité
01:05:24d'énergie
01:05:25provenant de centres
01:05:26de données
01:05:27alimentés principalement
01:05:28par des combustibles fossiles.
01:05:30Des entreprises
01:05:48comme Amazon
01:05:49et Microsoft
01:05:50font peser
01:05:51une charge énorme
01:05:52sur le monde réel.
01:05:53mais elles ne font pas
01:05:58grand-chose
01:05:58pour améliorer
01:05:59leur position
01:06:00en matière de durabilité.
01:06:01pour améliorer
01:06:02l'environnement.
01:06:02C'est parti.
01:06:32Vous avez, en un sens, abandonné la nature. La nature, dès maintenant, doit être programmée.
01:06:52Ce qui est remarquable chez McLuhan, c'est qu'il a compris la technologie et ses possibilités.
01:06:58Et il a su lui donner des mots, un langage.
01:07:02Il est aussi important que les grands esprits de la Renaissance et du XIXe siècle, avec sa capacité à décrire ce qui se passait.
01:07:12C'est le rôle d'un philosophe.
01:07:14Nommé, mettre en phrase, en paragraphe, et nous montrer où ça nous mène.
01:07:20On se demande bien comment Marshall a pu parler de ce qui se passe aujourd'hui avec une telle précision.
01:07:39Le plus étrange, c'est qu'il insiste sur le fait qu'il ne prédit rien.
01:07:46Il dit qu'il se contente de décrire ce qu'il voit autour de lui.
01:07:48« Si il a vu dans les années 1960 ce que nous avons la sensation de vivre aujourd'hui, que verrait-il aujourd'hui que nous ne voyons pas ? »
01:08:01« C'est une énigme qui peut vous empêcher de dormir la nuit. »
01:08:08Avec l'IA, on a un risque de destruction mutuelle assurée.
01:08:13Le côté positif, c'est que si l'humanité est anéantie par une IA surhumaine, dont on a perdu le contrôle, on sera tous perdants, qu'on soit chinois ou américains.
01:08:26Il faut instaurer un contrôle démocratique, multipartite et multilatéral, des technologies très puissantes et potentiellement dangereuses.
01:08:36On peut s'inspirer, par exemple, de certaines solutions prises pour éviter la guerre nucléaire, comme la surveillance mutuelle.
01:08:43Cela devrait encourager tout le monde à négocier pour trouver une solution stable et sûre.
01:09:04Pour le moment, on assiste à un véritable emballement technologique.
01:09:08Peut-on faire confiance à nos gouvernements pour réglementer ces avancées de manière à aider et à faire progresser l'humanité ?
01:09:20Prenons l'exemple de l'industrie pharmaceutique ou aéronautique.
01:09:25À une échelle mondiale, pourquoi pouvez-vous prendre l'avion en toute sécurité pour aller d'un endroit à l'autre ?
01:09:32Parce que vous faites confiance, non seulement aux pilotes de l'avion, mais aussi à l'ensemble du système.
01:09:40On a développé dans l'aviation, comme dans l'industrie pharmaceutique, une gouvernance mondiale fondée sur un principe essentiel,
01:09:48la sécurité et le respect de la vie humaine.
01:09:51Il existe déjà quelques bons exemples de gouvernance mondiale dans le monde technologique.
01:09:58Le défi consiste à appliquer les mêmes principes de sécurité et de respect au développement de l'IA.
01:10:04Il y a quelques années, une grande étude bipartite a été menée,
01:10:16en vue non seulement d'appliquer des lois existantes, mais aussi d'en adopter de nouvelles.
01:10:23Les géants de la tech sont en train de ratiboiser la concurrence.
01:10:26Mais finalement, aucun projet de loi n'a été soumis au vote,
01:10:31tout simplement parce qu'ils ont envoyé leurs lobbyistes envahir Washington.
01:10:37L'un de leurs principaux arguments est de nous mettre devant une simple alternative.
01:10:44Soit on met fin aux communautés des réseaux sociaux,
01:10:48soit on les laisse s'auto-réguler.
01:10:51Ce sont les deux seules options possibles.
01:10:53Mais c'est complètement faux !
01:10:55« On peut avoir des réseaux sociaux sans algorithme d'exploitation de données,
01:11:00et vous pourrez toujours parler à vos amis.
01:11:03On peut avoir une livraison le jour même,
01:11:07sans qu'Amazon ne détienne ses propres canaux de distribution.
01:11:12Ce n'est pas mettre un terme à l'aspect bénéfique de la technologie,
01:11:16mais au profit qui en découle. »
01:11:18Les États-Unis ont beau être le leader mondial de la monétisation d'Internet,
01:11:35l'Europe pourrait bien devenir le leader mondial de sa réglementation.
01:11:38Nous voulons voir l'IA se développer et en retirer ses avantages.
01:12:06Mais également apaiser toutes les craintes qu'elles provoquent,
01:12:10afin de garantir une technologie fiable qui place l'humain au centre de tout.
01:12:17Nous voulons faire de l'Europe un leader mondial de ces dernières technologies.
01:12:22Notre ambition est de porter les investissements publics et privés
01:12:26à un total de 20 milliards d'euros par an pendant les dix prochaines années.
01:12:30« On aime voir en l'Europe un chef de file en matière de réglementation,
01:12:36et c'est bien le cas parmi les États démocratiques.
01:12:40Mais en même temps, et à mon grand regret,
01:12:43on voit aussi dans l'Union européenne une grande dépendance vis-à-vis de la Big Tech.
01:12:48Cette dépendance vient de ce que j'appelle dans mon livre « le coût d'État de la Tech ».
01:12:53Même si davantage de réglementations ont été adoptées qu'aux États-Unis, par exemple,
01:12:57notre dépendance ne fait que croître,
01:12:59alors qu'on voit clairement un manque de connaissances,
01:13:02de capacité d'action et de responsabilisation
01:13:05de la part de nos dirigeants et de nos institutions.
01:13:09La prise de pouvoir provient d'un écosystème de différentes entreprises
01:13:13qui vont du secteur des infrastructures aux réseaux sociaux,
01:13:17de la cybersécurité aux technologies électorales.
01:13:20En même temps, on assiste à une érosion de l'action
01:13:23et du pouvoir des gouvernements démocratiques.
01:13:34Ceux qui estiment qu'on devrait passer à la vitesse supérieure
01:13:37sans aucune précaution
01:13:39sont certainement motivés par l'appât du gain.
01:13:45Mais ils peuvent aussi être attirés par l'idée
01:13:47de créer des descendants qui seraient des machines
01:13:50meilleurs que nous parce que plus intelligentes.
01:13:56Mais je ne trouve pas que ce soit moralement acceptable,
01:14:00pour de nombreuses raisons.
01:14:03Par exemple, une plus grande intelligence
01:14:05n'engendre pas nécessairement un comportement plus moral.
01:14:11Sans compter qu'à mon avis,
01:14:13les êtres humains ont envie de continuer à vivre.
01:14:15Aujourd'hui, tout le monde met sa ceinture de sécurité,
01:14:20malgré les réticences des automobilistes
01:14:23et le refus des constructeurs d'en installer à l'époque dans leurs voitures.
01:14:27À présent, on se fait arrêter si on ne la met pas.
01:14:30Il nous faut des ceintures de sécurité
01:14:32et un code de la route pour l'IA.
01:14:34Pour l'instant, il n'y a absolument rien.
01:14:37Quels que soient les mots qu'on emploie,
01:14:40la responsabilité incombe aussi aux utilisateurs
01:14:42et aux individus,
01:14:44j'espère vraiment qu'une fois qu'on commencera
01:14:46à comprendre qu'on est manipulé,
01:14:48qu'on mène sur nous des expériences
01:14:50de psychologie comportementale à grande échelle,
01:14:53on pourra identifier ces manipulations
01:14:55et faire le nécessaire pour les éviter,
01:14:58ou du moins les atténuer.
01:14:59Notre vie quotidienne est peuplée de vibreurs,
01:15:03de sonneries,
01:15:03de petites icônes rouges qui sautillent.
01:15:06On est devenu le chien de Pavlov.
01:15:07Il faut donc se rendre compte qu'on est manipulé
01:15:12et qu'on est soumis à ce type de pression
01:15:14et ensuite s'en extraire
01:15:17pour le bien de notre propre santé.
01:15:19Vous avez confiance en l'avenir ?
01:15:30Non, l'avenir m'inquiète beaucoup.
01:15:33Je l'étudie depuis 1976,
01:15:36ce qui fait donc des années et des années.
01:15:38Mais là, je sens une nouvelle urgence.
01:15:41Le titre original de ce film parle de tsunami,
01:15:44de déferlante.
01:15:45Un tsunami, ce ne sont pas des vagues qui déferlent.
01:15:48C'est un type particulier d'attaque
01:15:52ou d'offensive.
01:15:55J'ai le sentiment qu'on assiste
01:15:57à une véritable guerre contre la discussion,
01:16:00contre l'intimité,
01:16:01contre notre statut d'individu.
01:16:04Il ne s'agit pas d'une lente montée en puissance,
01:16:07mais d'un changement brusque,
01:16:09tout en intensité et en urgence.
01:16:12Je crains qu'il y ait peu d'espoir.
01:16:14À mon avis, le peu qu'il en reste
01:16:17se trouve dans des communautés isolées
01:16:20où les gens lisent encore des livres
01:16:22et se parlent encore.
01:16:25Ça me fait penser aux monastères du Moyen-Âge,
01:16:28qui ont maintenu allumé la lumière du savoir
01:16:30pendant de brèves périodes,
01:16:33avant qu'elles ne soient enfin rallumées
01:16:34à la Renaissance, et ainsi de suite.
01:16:36Je crains plutôt que, devant la catastrophe,
01:16:40on veuille encore plus s'évader
01:16:42dans un monde virtuel.
01:16:46Il ne faut pas vraiment grand-chose
01:16:47comme outil pour aller dans un monde virtuel.
01:16:53Il faut du réseau, Internet,
01:16:55mais on peut très bien être dans une pièce
01:16:58où l'air extérieur est toxique,
01:17:01avec des lunettes de réalité virtuelle,
01:17:03et se retrouver dans le Paris de 1890.
01:17:08C'est un scénario probable.
01:17:11C'est celui qui me perturbe.
01:17:14C'est notre vision générale des technologies.
01:17:17Elle crée des problèmes
01:17:18et on essaie de les résoudre
01:17:19avec d'autres technologies
01:17:20qui créent d'autres problèmes
01:17:22qu'on essaie de résoudre
01:17:23avec encore d'autres technologies.
01:17:25C'est un cycle sans fin.
01:17:26Mais est-ce que ça va continuer indéfiniment ?
01:17:30Ou va-t-on se retrouver dans une impasse
01:17:32et là on dira
01:17:33« Ce n'est pas ça, la vraie vie ? »
01:17:38Mes étudiants ne lisent pas de livres.
01:17:40Ils ne lisent pas de romans.
01:17:42Pourtant, je leur ai donné une liste de lecture
01:17:44avec des romans et des essais.
01:17:46Tout se résume à un engagement.
01:17:48C'est pareil avec les vidéos de longue durée sur YouTube.
01:17:50Elles provoquent une peur de l'engagement.
01:17:52Si vous commencez à la regarder,
01:17:54vous devez y consacrer une heure,
01:17:55une heure de votre temps,
01:17:56alors que vous pouvez faire autre chose.
01:17:58Les mots n'ont pas perdu leur valeur,
01:18:00mais ils ont été remplacés par d'autres valeurs.
01:18:03According to a recent study
01:18:04from the Pew Research Center,
01:18:05almost one in four Americans
01:18:06has not read a book in the past year.
01:18:08That actually seems high to me.
01:18:10Can you name a book ?
01:18:12Oh yes !
01:18:13Ah, ah, ah !
01:18:15Ah !
01:18:16I don't read books !
01:18:17Can you name a book ?
01:18:18Uh...
01:18:20I'm just saying...
01:18:23Oh, I just read it.
01:18:23Um...
01:18:24Hey, hold on, man.
01:18:25I'm trying to...
01:18:26I haven't even read it full on.
01:18:27A book.
01:18:27Any book ?
01:18:28Um...
01:18:30The Jungle Book.
01:18:33Does that do magazines count ?
01:18:35Notre époque se caractérise
01:18:52par des sentiments d'anxiété,
01:18:54de frénésie
01:18:55et d'agitation.
01:19:02Je cherche donc des moyens
01:19:03de m'en préserver,
01:19:05de trouver une forme de réconfort.
01:19:08Et la lecture est un remède simple.
01:19:11Quand on lit un texte sur un écran,
01:19:15on a tendance à le lire en diagonale,
01:19:17à en sauter des passages.
01:19:19Avec le papier,
01:19:20on lit plus lentement
01:19:22et avec plus d'attention.
01:19:25La différence peut sembler anodine,
01:19:27mais elle ne l'est pas.
01:19:29Je recommande aussi d'écrire à la main.
01:19:33En ralentissant sa main,
01:19:35on ralentit son esprit.
01:19:36comme on lit.
01:19:37On lit.
01:19:38On lit.
01:19:39On lit.
01:19:57On lit.
01:19:57Henri David Thoreau, écrivain américain du 19e siècle, a passé deux ans dans une forêt du Massachusetts à écrire son fameux livre Walden ou la vie dans les bois.
01:20:18Pour la plupart d'entre nous, il serait inimaginable de vivre cette vie, mais nous pouvons tous lire des livres et profiter de la nature.
01:20:27Assis à une réplique de son bureau, j'ai pensé à une phrase du livre « Nos inventions sont de charmants jouets qui nous éloignent des véritables enjeux. Elles perfectionnent les moyens sans jamais élever la finalité. »
01:20:50Thoreau, tout comme Marshall McLuhan, nous lançait un avertissement. Il ne serait pas raisonnable de notre part de l'ignorer.
01:20:58La phrase suivante, écrite par McLuhan en 1964, est peut-être la plus prophétique.
01:21:08Une fois que nous aurons cédé nos sens et nos systèmes nerveux aux manipulateurs privés qui veulent tirer profit du bail qu'ils ont sur nos yeux, nos oreilles et nos nerfs, il ne nous restera vraiment aucun droit.
01:21:22Quoi qu'il advienne de notre civilisation, nous pourrons toujours bénéficier, vous et moi, à chaque instant, de l'expérience humaine, concrète et organique du passage du temps.
01:21:46De la communication avec d'autres êtres humains, de notre capacité de s'ouvrir aux autres et de compatir à leurs douleurs et à leurs souffrances et de transformer cela en une richesse d'émotions profondes.
01:22:00Nous aurons toujours ces richesses et rien que pour ça, la vie vaut la peine d'être vécue.
01:22:16Sous-titrage Société Radio-Canada
01:22:46Sous-titrage Société Radio-Canada
01:23:16Sous-titrage Société Radio-Canada
01:23:46...
Recommandations
56:03
|
À suivre
0:35
52:26
1:50
1:19
2:54
53:40
58:58
38:17
22:55
24:55
24:55
3:30
51:12
Écris le tout premier commentaire