Nous utilisons Internet tous les jours, nous naviguons sur des sites marchands ou des réseaux sociaux… et sans le vouloir, sans le savoir parfois, nous y mettons des informations personnelles, sur nos vies, nos habitudes, nos goûts… mais aussi nos coordonnées bancaires ou notre santé ! Alors, sommes-nous bien conscients des risques que nous prenons en donnant autant de nous sur Internet ? Jusqu’où les publicitaires sont-ils prêts à aller pour capter notre attention ? Revenir en arrière étant illusoire, que peut-on faire pour limiter les dérives ? Rebecca Fitoussi et ses invités ouvrent le débat. Année de Production :
Catégorie
📺
TVTranscription
00:00changer les idées.
00:01Le piège du clic écrit
00:03est réalisé par Peter Porta,
00:05un film pas très rassurant sur le marché
00:07mondial des données personnelles, des données
00:09que nous mettons en ligne avec
00:11beaucoup d'inconscience ou de naïveté
00:14ou par confort, sans trop se poser de questions.
00:16Est-ce qu'on devrait s'en poser
00:17des questions, justement ? Faut-il craindre
00:19ce commerce qui serve sur nos identités,
00:22sur nos habitudes, nos goûts
00:24et nos opinions politiques ? C'est tout
00:25l'enjeu de ce débat avec nos
00:27invités que je vous présente. Michael Vallet, bienvenue.
00:30Vous êtes sénateur socialiste de la
00:32Charente-Maritime, secrétaire du Sénat,
00:34membre de la Commission des Affaires étrangères,
00:36vous faites partie du groupe numérique au
00:38Sénat et c'est vous qui avez présidé la
00:39commission d'enquête sur l'utilisation du réseau
00:41social TikTok, son exploitation des données,
00:44sa stratégie d'influence.
00:46Gilles Babinet, bienvenue à vous également,
00:47entrepreneur dans le numérique, co-président du
00:49Conseil national du numérique, membre du
00:51comité de l'intelligence artificielle générative
00:54créé par l'ancienne première ministre, Elisabeth
00:56Born, auteur de plusieurs ouvrages
00:58dont celui-ci, Green IA,
01:00l'intelligence artificielle au service du
01:02climat chez Odile Jacob.
01:04Olivier Tesquet, bienvenue à vous également,
01:06vous êtes journaliste à la cellule enquête
01:08de Télérama, en charge des questions
01:10numériques et des libertés publiques, cela fait
01:12plus de 15 ans que vous vous intéressez à la
01:14façon dont la technologie bouleverse nos
01:15sociétés. Vous avez produit et animé
01:18l'émission Tout est numérique sur
01:19France Inter et vous êtes l'auteur de
01:21À la trace, ainsi que de cet autre livre
01:23État d'urgence technologique, tous les deux
01:25paru chez Premier Parallèle.
01:28Delphine Sabatier, bienvenue, vous êtes
01:30journaliste et présentatrice de
01:32Smart Tech, émission quotidienne de
01:34découvertes et de débats sur l'innovation
01:36diffusée sur la chaîne économique et financière
01:38Bismarck, productrice du podcast
01:40Politique Numérique, vous êtes vous-même
01:42spécialiste des enjeux du numérique et vous
01:44avez longtemps dirigé des médias
01:46d'information dédiés aux nouvelles
01:48technologies. Vous êtes enfin l'autrice
01:50d'articles comme Méta vers l'au-delà
01:52et l'âge bête de Wikipédia. Merci à
01:55tous les quatre d'être ici. On a beau
01:57savoir qu'il faut être prudent avec
01:59Internet, on a beau savoir que nos
02:01données personnelles sont l'objet de
02:02marchés juteux depuis quelques années,
02:04que les publicitaires s'en servent pour
02:06nous cibler, pour nous profiler, on n'en
02:08est pas moins effrayé, je pense, par la
02:10démonstration de ce documentaire. Avons-nous
02:13pactisé avec le diable ? Avons-nous
02:15créé un monstre, Olivier Tesquet ?
02:17Le documentaire a une immense vertu et on a
02:20beau le répéter, je pense qu'il faudra le
02:22répéter encore longtemps, c'est que ça
02:23rappelle que les grandes plateformes,
02:24ce qu'on appelle les grandes plateformes,
02:26les GAFAM, etc., en fait ce sont des
02:27régies publicitaires, fonctionnent comme
02:30des régies publicitaires, ont des modèles
02:31économiques de régies publicitaires et
02:33qu'il faut les observer et les regarder
02:35comme tels, déjà parce que ça permet quand
02:36même de les ramener un peu à leur
02:38nudité, c'est-à-dire que tout à coup
02:39c'est plus ces espèces de mastodontes
02:42comme ça un peu difficiles à saisir dans
02:44le temps et l'espace, voilà, ce sont des
02:45régies publicitaires et il faut les
02:48appréhender de cette façon-là. Après, sur
02:51le fait de pactiser avec le diable, ça aussi
02:53on le sait malheureusement depuis assez
02:55longtemps, il y a, voilà, cette petite
02:58musique, si c'est gratuit, c'est toi le
03:00produit, on l'a dit, on l'a répété, on
03:02continue à le faire. Là, ce qui est très
03:04intéressant, c'est qu'il y a certains
03:05exemples, je pense, qui permettent quand
03:07même d'inscrire ça dans une
03:09matérialité et une urgence qu'il n'y avait
03:12peut-être pas jusqu'à présent, c'est-à-dire
03:13que quand on reçoit des publicités non
03:15sollicitées pour des aspirateurs, ça peut
03:17être un peu effrayant, il y a cette
03:19expérience qui est évoquée dans le film
03:21sur le fait de savoir est-ce que nos
03:23téléphones nous écoutent ou pas, il y a
03:25ce sentiment parfois un peu incongru, on
03:26se dit on a parlé de quelque chose avec
03:28quelqu'un et tout à coup on a la
03:29publicité qui vient derrière, quand vous
03:31êtes une femme qui va réaliser un
03:32avortement, que vous vous rendez dans
03:33une clinique spécialisée et qu'en fait
03:35derrière vous avez des groupes anti-choix
03:38qui vous matraquent de publicité ou
03:40viennent faire le siège devant chez vous
03:42parce qu'ils ont récupéré des
03:42désolocalisations, tout de suite c'est
03:45plus la même musique, donc je pense que
03:47ces exemples-là, il est important de les
03:49montrer, il est important de les répéter
03:50et alors particulièrement en ce moment
03:52puisqu'on aura relevé quand même qu'un
03:54bon nombre de ces sociétés sont des
03:55sociétés américaines et que les
03:57États-Unis étant ce qu'ils sont
03:58aujourd'hui, il faut peut-être le
04:00regarder avec encore plus de vigilance.
04:02On y viendra à cette question de l'idéologie
04:03qui peut passer derrière.
04:04Gilles Babinet, le ton du film est
04:06quand même assez alarmant, est-ce qu'il
04:07vous semble alarmiste ?
04:08Pas du tout, en fait je suis, je veux
04:11dire, à titre personnel, j'ai beaucoup
04:12évolué dans ma perception de ces
04:14entreprises, j'ai toujours eu une
04:15certaine méfiance sur ces modèles
04:17basés sur la publicité, mais je crois
04:21qu'on est face à un enjeu de déstabilisation
04:24de la démocratie. Il faut le dire comme
04:26tel parce que c'est ce qui est en train
04:27de se passer. Pour des raisons assez
04:29simples de maximisation de leurs revenus
04:32publicitaires, les plateformes ont tout
04:34intérêt à mettre en avant des contenus
04:38qui sont spectaculaires et qui vont
04:40nous antagoniser au sens large. On le
04:43sait depuis un certain temps, mais pour
04:46autant les pratiques n'ont pas changé.
04:49Et ce que l'on voit, c'est que ce phénomène
04:51de polarisation, il est très corrélé aux
04:53écrans et plus particulièrement encore
04:55aux réseaux sociaux et que si on n'a pas
04:59une action politique forte, la démocratie
05:03ne tiendra pas. Elle tient déjà à
05:04assez peu, je pense. Ce qu'on observe aux
05:06Etats-Unis, au Myanmar, en France, sous
05:10différentes formes, c'est la même chose.
05:13C'est une absence de gouvernance des
05:15contenus, une absence d'éthique dans la
05:16gouvernance des contenus. Finalement, un
05:19souci absolument secondaire du vivre
05:22ensemble et de ce qui constitue la base
05:25de la démocratie.
05:25On y viendra peut-être à cette
05:27démocratie ou nos démocraties qui seraient
05:29en péril. Delphine Sabatier, on a quand
05:31même le sentiment que les annonceurs
05:32savent tout de nous et que c'est un marché
05:35extrêmement opaque. On entend un spécialiste
05:38nous dire dans le film, même nous, on ne sait pas
05:39exactement où vont ces pubs, où va
05:42cet argent. Elle est réelle, cette opacité ?
05:44Comment est-il possible de ne pas savoir
05:46exactement où va cet argent et où vont
05:48ces pubs ?
05:48Elle est réelle, mais je trouve qu'une vertu
05:50justement de ce documentaire, c'est de nous
05:53sensibiliser à des risques vraiment
05:55systémiques, comme le disait Gilles
05:57Babinet. On est face vraiment à des campagnes
05:59de manipulation, de déstabilisation. On a
06:02beaucoup parlé, c'est vrai, pendant des
06:04années du problème des données personnelles,
06:06du ciblage politique, mais aussi publicitaire,
06:11commercial, en disant c'est votre vie privée
06:13finalement que vous exposez sur Internet. Et ça n'a pas
06:16eu tellement d'écho. On a quand même bien constaté
06:18qu'on a plein d'outils qui sont disponibles,
06:20qui permettent aujourd'hui de brouiller
06:22les pistes, à minima, en tout cas de limiter
06:25la collecte de ces données. On ne s'en empare pas.
06:27Je dis on, c'est pour dire globalement,
06:29les citoyens ne se sont pas emparés de ces outils.
06:32Pourquoi ? Parce qu'ils se sont dit, finalement,
06:33moi, je n'ai rien à cacher. Moi, j'entendais
06:35ça systématiquement. On ne peut pas dire non plus,
06:38vous dites, l'opacité de ces algorithmes,
06:40elle est tout à fait réelle. En revanche,
06:42l'intention des plateformes, elle est claire,
06:45elle est limpide depuis
06:46très longtemps. Moi, je me souviens
06:48du patron de Google en 2009
06:51qui disait, si vous pensez
06:53que certaines choses que vous faites
06:55ne doivent pas être sues,
06:57le mieux, c'est de ne pas les faire.
06:59Vous voyez l'ironie. C'est-à-dire que
07:00c'était clair que la vie privée
07:02leur appartenait. Ce n'était plus un sujet,
07:05c'était une notion même obsolète,
07:07la vie numérique dans
07:08la tête de ces GAFA,
07:11mais c'était clair pour tout le monde. Là, ce qui est nouveau,
07:13c'est qu'on s'aperçoit finalement,
07:14OK, je n'ai rien à cacher,
07:15mais je n'ai peut-être pas envie d'être manipulée.
07:18Et on est aujourd'hui en train de découvrir
07:20quelles sont véritablement
07:21ces externalités négatives
07:24pour la société, pour les citoyens.
07:26Et là, je pense qu'on a moyen
07:27de mobiliser davantage,
07:29de manière collective,
07:31autour de ce qu'on veut protéger.
07:32Nos enfants, la santé mentale,
07:34l'addiction aux écrans,
07:36tous ces sujets,
07:37les ingérences,
07:38la démocratie,
07:40le partage de notions communes.
07:41Je trouve que ce documentaire
07:43a cette vertus
07:44qui répète les choses,
07:44mais différemment.
07:46On comprend mieux
07:46l'impact sur la vie réelle.
07:48Et c'est vrai que c'est intéressant
07:49que vous parliez de notre pouvoir à nous,
07:52Michael Vallée,
07:53pouvoir à nous,
07:53internautes,
07:54consommateurs de contenu
07:55sur les réseaux sociaux.
07:56Est-ce que finalement,
07:57on a un petit pouvoir,
07:58celui de résister,
08:00de dire non aux cookies ?
08:01Est-ce qu'il y a des choses
08:02que nous pouvons faire
08:03pour éviter cette manipulation
08:04ou le fait de donner
08:06autant d'informations sur nous ?
08:08Alors, c'est très paradoxal
08:09parce qu'à la fois,
08:10le reportage permet
08:11de comprendre concrètement
08:12les choses
08:12et il y a une frustration
08:14quand même derrière.
08:15C'est-à-dire que c'est un peu
08:15comme la question
08:16d'une fameuse parabole
08:17un peu fatigante d'ailleurs
08:19du Colibri
08:20qui fait que
08:21si vous triez correctement
08:24à la maison
08:24dans votre sac jaune,
08:25le risque,
08:26c'est qu'aussi,
08:26vous pouvez avoir le sentiment
08:27que vous avez fait ce qu'il faut
08:29et que par ailleurs,
08:30le reste ne vous appartient plus.
08:32Est-ce qu'à partir du moment
08:33où on met un VPN,
08:35on fait en sorte
08:36de ne pas cliquer toujours
08:37« j'accepte »
08:38et où, par exemple,
08:39on n'a pas Google
08:39comme moteur de recherche ?
08:41Il y a des alternatives.
08:43Plein !
08:44qu'on peut d'ailleurs enseigner
08:45parce que la question
08:46de l'enseignement
08:46et de l'éducation
08:47est un sujet fondamental
08:49sur ce qui nous occupe là.
08:50Mais à partir du moment
08:51où chacun met à peu près
08:52en place ce qu'il doit mettre,
08:53est-ce que ça règle
08:54la question systémique
08:56de ce qu'on a vu
08:57et quand vous dites
08:58« est-ce qu'on a pactisé
08:59avec le diable ? »
08:59Très franchement,
09:00quand la question est posée
09:02dans le documentaire
09:04à Zuckerberg
09:05sur son modèle économique,
09:06vous avez vu le sourire
09:07qu'il ne peut pas retenir
09:08à la fin
09:09sur la question
09:10de la publicité
09:11et donc, écoutez,
09:12si on a pactisé
09:13avec le diable,
09:14il reste à écrire encore
09:15quelques tables de la loi
09:16et quelques règles
09:17pour faire en sorte
09:18qu'on conserve
09:19son libre arbitre
09:21et la maîtrise
09:22de son destin
09:22et pas seulement
09:23de son destin individuel
09:24parce que son instinct individuel
09:25se résume presque
09:26au micro-ciblage
09:28qui est bien expliqué
09:30mais surtout
09:31au destin commun.
09:32On appartient
09:33à une communauté,
09:34à diverses communautés
09:35qui veulent garder
09:36la maîtrise
09:37de leur destin
09:37et ne pas laisser ça
09:38au marché
09:39et à la publicité
09:40et ne pas être essentialisés.
09:41Est-ce qu'on a été naïf
09:43ou est-ce qu'on a été trahi ?
09:44Je repense
09:45à ces années 2007-2008
09:46où on s'est tous
09:47un peu créé
09:48un compte Facebook,
09:48content de retrouver
09:49nos copains,
09:50content de partager
09:50des photos.
09:51À l'époque,
09:52on n'avait pas signé
09:53pour ce qui se passe
09:53aujourd'hui.
09:54Est-ce qu'on a été trahi
09:55ou est-ce qu'on a été
09:55profondément naïf ?
09:57Olivier Tesquais ?
09:58Je pense qu'on a tous
09:59été un peu naïfs
10:00mais tous à tous les niveaux,
10:01c'est-à-dire que ce soit
10:02les utilisateurs,
10:03les citoyens,
10:04les responsables politiques.
10:06On a peut-être mal envisagé
10:08ce qu'étaient ces entreprises,
10:11ce qu'était la Silicon Valley.
10:13Vous savez,
10:13on pense encore aujourd'hui
10:15quand on a vu,
10:15quand Trump a été réélu,
10:17on a vu les grands patrons
10:19de la Silicon Valley,
10:20ceux qu'on voit d'ailleurs
10:20dans le film,
10:21les Mark Zuckerberg,
10:22alors il y en a d'autres
10:22qu'on ne voit pas,
10:23les Jeff Bezos, etc.,
10:24se sont tous précipités
10:25à la Maison-Blanche
10:26pour prêter allégeance
10:27au nouveau président.
10:28Et là, on s'est dit
10:29mais on ne comprend pas,
10:30la Silicon Valley,
10:30on pensait que c'était démocrate.
10:32Quand on se penche
10:33sur une histoire
10:33un peu plus longue
10:34de ce qu'est la Californie,
10:36de ce qu'est la Silicon Valley,
10:37en fait,
10:37ce n'est pas ça.
10:38Ça n'a jamais été
10:39ce grand paradis démocrate,
10:42progressiste,
10:44ami de la liberté.
10:46En fait,
10:46ils n'ont pas
10:46de colonne vertébrale idéologique.
10:47Ils n'ont pas de colonne.
10:48Alors,
10:48je pense qu'au départ,
10:50il y avait une colonne
10:51vertébrale idéologique,
10:53il y avait ce sentiment
10:54d'ouvrir la connaissance,
10:57le savoir au monde.
10:57Je pense que ça a toujours été assez...
10:59Moi, je suis assez dubitatif
11:01sur cette promesse initiale,
11:03effectivement,
11:03de connecter le monde.
11:05Faire de nous une grande...
11:06Mettre un peu d'huile
11:08dans les rouages
11:09des relations humaines,
11:09etc.
11:10Parce que c'est quand même
11:11des individus,
11:12tous ces grands patrons,
11:13qui détestent la société,
11:15qui détestent
11:16l'organisation collective,
11:18que ce soit d'ailleurs
11:19à l'intérieur
11:19de leurs entreprises
11:20ou l'organisation collective
11:22des citoyens.
11:23Ce qui les arrange,
11:24c'est de nous segmenter.
11:24Ils veulent qu'on soit
11:25atomisés, atomisables,
11:27réductibles comme ça
11:28à un certain nombre
11:29de fonctions mathématiques
11:30qu'on peut prédire,
11:32etc.
11:33Mais enfin,
11:34ils sont dans une vision
11:35de la société...
11:37Cynique, pragmatique.
11:38Qui est très cynique.
11:39On disait
11:40que c'est des libertariens.
11:41L'historienne Sylvie Laurent
11:42dit que ce libertarianisme,
11:44c'est une impunité réactionnaire.
11:46Et c'est-à-dire
11:46que ce qu'on n'a peut-être
11:47pas perçu,
11:48et ce qu'on est en train
11:48de se prendre un peu...
11:49En pleine figure.
11:50En pleine figure aujourd'hui,
11:51c'est que nous avons face à nous
11:53des forces contre-révolutionnaires.
11:56Je mets un peu d'emphase
11:57en disant ça.
11:58Des guillemets.
11:58Je pense qu'on a quelque chose
12:00de cet ordre-là.
12:02Et quand on regarde ça
12:03avec ces lunettes-là,
12:04le modèle économique
12:05de ces sociétés,
12:07la manière dont elles fonctionnent,
12:08la prédation systématique
12:09de nos vies,
12:10que ce soit nos vies privées...
12:12Nos choix, nos goûts.
12:14La manière dont on mène
12:15nos existences
12:15et la manière dont on fait
12:16société ensemble,
12:18on regarde les choses
12:19un peu différemment.
12:20Gilles Babinet ?
12:21En fait,
12:22c'est vraiment un sujet
12:23qui est passionnant,
12:24effectivement,
12:25l'évolution idéologique,
12:26parce que c'est de ça
12:27dont tout part
12:28de la Silicon Valley.
12:31La Silicon Valley,
12:32dans les années 70,
12:34elle était plutôt communautariste.
12:37Il y avait 15 millions d'Américains
12:39qui vivaient dans des communautés
12:41à cette époque.
12:43Et puis aujourd'hui,
12:44elle est devenue réactionnaire,
12:46en réalité.
12:47Et cette évolution,
12:49elle a une explication.
12:50et je crois qu'elle est
12:51assez intéressante.
12:52Pour moi,
12:53le moment pivot,
12:54c'est l'élection de Reagan
12:55en 1980.
12:56Vous avez un certain nombre
12:57de personnages
12:58qui vont passer
12:59de cette culture communautariste,
13:01comme par exemple
13:02Steve Jobs,
13:04à être l'inventeur
13:07du smartphone,
13:08qui est vraiment
13:08l'emblème
13:11de cette fracture,
13:14la pixelisation de la société
13:16de façon assez forte.
13:19Et en fait,
13:20cette idée,
13:22il va y avoir d'abord
13:22l'idée de dire
13:23qu'on veut s'affranchir
13:25de l'État fédéral.
13:26C'est très fort
13:27dans la Californie
13:27qui, pendant des décennies,
13:29voulait littéralement
13:30quitter les États-Unis,
13:31avec une histoire
13:32qui est celle
13:33que serait trop longue
13:34de raconter ici,
13:35là-dessus,
13:36et qui va se transformer
13:37dans la logique communautariste.
13:41on veut s'affranchir
13:42de toute structure
13:43de contrôle vertical.
13:45Vous avez, finalement,
13:46une culture politique
13:47qui reste assez faible,
13:49mais qui est structurée
13:50autour de quelques éléments
13:52qui sont quand même
13:53extrêmement identifiants,
13:55avec beaucoup d'argent en erreur
13:57pour financer ça.
13:58Quand vous regardez
13:58ce que pense
13:59Mark Zuckerberg,
14:00je pense qu'il a été
14:01assez constant
14:02depuis 20 ans
14:03dans sa...
14:05Ce qu'il exprime
14:05en matière de culture politique,
14:06c'est nous,
14:07on veut connecter les gens,
14:09c'est ce qu'il fait,
14:09et on considère
14:11que les États
14:12sont nos ennemis.
14:14En ce moment,
14:14il y a un certain nombre
14:16d'auditions
14:16qui ont lieu
14:17au Sénat américain
14:18sur cette thématique-là.
14:19Ces gens-là
14:20sont des dangers
14:21pour la démocratie.
14:21Je ne peux pas
14:22le dire autrement.
14:22Je pense qu'on a été naïfs,
14:24effectivement,
14:25sur l'idéologie
14:26de cet Internet
14:27qui allait tous
14:28nous connecter
14:29et nous rassembler,
14:29mais on a été aussi naïfs
14:30sur l'impact du numérique,
14:33sur la puissance
14:34que représente le numérique
14:35aujourd'hui
14:35dans la société.
14:36Je pense qu'au niveau politique,
14:37en tout cas,
14:39ici, en Europe,
14:39on ne l'a pas vu venir, ça.
14:40Pour nous faire acheter
14:41toujours plus,
14:42pour nous cibler
14:43toujours mieux,
14:43les annonceurs ont compris
14:44qu'il fallait capter
14:45notre attention,
14:47et ça,
14:47c'est une des thèses
14:47fortes du film,
14:48et pour cela,
14:49quoi de mieux
14:49que des sites
14:50qui proposent
14:51des contenus
14:51sensationnalistes,
14:53haineux ou complotistes,
14:54quoi de mieux
14:54que l'émotion
14:55engendrée par la peur,
14:57le danger,
14:57le mensonge,
14:58c'est la dérive
14:59observée ces dernières années
15:00et qui, cette fois,
15:01met en danger
15:01nos démocraties,
15:03en croire en tout cas
15:03ce militant britannique.
15:04Écoutez.
15:05La concurrence de Facebook,
15:08ce n'est pas Twitter.
15:09La concurrence de Facebook,
15:11c'est passer du temps
15:12avec vos enfants,
15:12passer du temps
15:13avec votre femme,
15:14lire un livre.
15:16Ils ont besoin
15:17de garder vos yeux captifs
15:18pour pouvoir vous envoyer
15:19des publicités.
15:20Et l'une des choses
15:21qui fait que nos yeux
15:22restent accrochés
15:23au contenu d'un site,
15:24c'est la désinformation
15:26et la haine.
15:27des états hyper émotionnels.
15:32Michael Vallée,
15:33ce modèle économique
15:34pousse à la désinformation,
15:35à la diffusion de fake news
15:36et met en danger
15:37nos démocraties.
15:38Je veux dire
15:39à quoi ça m'a fait penser
15:39quand je l'ai vu.
15:41Un homme d'État
15:42de haut niveau,
15:44il y a deux ans de ça,
15:46m'a expliqué,
15:47comme ça en en discutant,
15:48quelqu'un qui n'est pas
15:49de mon bord,
15:50m'a expliqué.
15:50Moi, Bolloré,
15:51je le connais depuis très longtemps
15:52et il y a une chose
15:53qu'on ne voit pas,
15:54c'est qu'on pense
15:54qu'il a un projet idéologique
15:56par rapport
15:58à sa frénésie médiatique.
16:01Mais en fait,
16:01ce qu'il ne faut pas oublier,
16:02c'est que d'abord,
16:03il s'est d'abord rendu compte
16:04que la violence,
16:06le clash,
16:07le discours haineux
16:07faisaient gagner de l'argent.
16:09C'est la première fois
16:10où j'avais entendu quelqu'un
16:11le théoriser comme ça
16:12avec le cas concret.
16:14Bolloré,
16:14il y a eu une commission
16:15d'enquête sénatoriale
16:16sur le sujet,
16:17etc.
16:18Et ce qu'on constate là,
16:20ce qui montre bien
16:20le documentaire
16:21et ce qui doit vraiment
16:22nous alerter,
16:23c'est la conjonction
16:24d'intérêts
16:24entre le capital,
16:28ce qui rapporte de l'argent,
16:29et la volonté autoritariste.
16:33Et c'est ce rapprochement
16:35entre le marché
16:35et ceux qui ont
16:36des tentations autoritaires
16:38qu'on ne doit pas laisser faire,
16:40c'est cette jonction
16:40qu'on ne doit pas laisser faire.
16:41Mais est-ce que c'est pas parti
16:41d'un intérêt financier
16:43pour dériver lentement,
16:44mais sûrement,
16:44vers un intérêt politique
16:46et géologique ?
16:46Non, il y a une conjonction
16:47d'intérêts
16:47et on est passé,
16:48si vous voulez,
16:49de ce qu'on a connu
16:49et c'est là où on a peut-être
16:51été un peu naïf
16:51parce qu'on pensait
16:52que les régimes autoritaires
16:54c'était la propagande de masse
16:55et qui maintenant
16:56est celle du micro-ciblage
16:57hyper spécialisé.
17:00Et le danger,
17:01c'est qu'on ne voit plus
17:02le mécanisme
17:02parce qu'avant,
17:03une propagande de masse,
17:04au moins on pouvait essayer
17:04de la décrypter
17:05avec un regard
17:05un petit peu distancié,
17:07mais ce qui s'est passé
17:07par exemple sur l'élection
17:08au Brésil,
17:09la première élection
17:10de Bolsonaro,
17:11c'est qu'il y a eu
17:12un temps de retard
17:13sur l'analyse de l'élection
17:14quand on s'est rendu compte
17:15un peu après coup
17:16que les choses se passaient
17:17de manière micro-ciblée
17:18dans la poche des gens
17:19sur des groupes WhatsApp
17:20qui n'étaient pas publics,
17:22on ne voyait pas
17:22cette information
17:23être donnée publiquement,
17:25mais il y avait
17:26un nombre impressionnant
17:27de gens
17:27qui la recevaient.
17:29Et donc ça,
17:29ça pose quelle question
17:30quand on sait,
17:31je crois qu'ils le disent
17:32dans le reportage,
17:33qu'une information fausse
17:36ou un peu
17:36qui donne du clash
17:37est, je crois,
17:39deux fois et demie
17:39plus...
17:40Six fois.
17:40Non, c'est six fois
17:41et c'est deux fois et demie
17:43plus vite
17:44et c'est six fois
17:45plus reposté,
17:47si je peux dire.
17:48Ça fait appel
17:48au cerveau,
17:49à la partie répliquienne
17:50de notre cerveau.
17:50Ça fait appel à ça
17:51et donc ça fait appel
17:52au fait qu'il faut
17:53retourner vers la confiance
17:54qu'on doit avoir
17:55dans la science
17:56pour décortiquer tout ça
17:58et nous expliquer
17:58comment faire en sorte,
18:00comme disent
18:00les neuroscientifiques,
18:01d'inhiber.
18:02Mais inhiber pour se dire
18:03c'est pas parce que
18:04j'ai vu l'info
18:04deux fois, quatre fois,
18:05dix fois qu'elle est
18:06plus vraisemblable
18:07qu'une autre,
18:08inhiber, ça s'apprend
18:09et donc on retombe
18:10sur les questions
18:11d'éducation et l'éducation.
18:13C'est l'État,
18:14c'est le commun,
18:15c'est le public
18:15et le public et le marché.
18:17S'il n'y a pas
18:17un peu de contraintes,
18:18eh bien il n'y en a pas
18:19un qui prend le pas
18:20sur l'autre très aisément.
18:21Delphine Sabatier,
18:23on a changé de danger,
18:24on est passé d'abord
18:25des questions économiques
18:27et financières,
18:28on a essayé de nous attirer
18:29pour nous vendre aujourd'hui,
18:30on essaye de nous attirer
18:31pour nous convaincre.
18:32C'est le même mécanisme
18:33en fait parce qu'en publicité,
18:34ce qui compte,
18:35c'est le taux de transformation.
18:38Quand on utilise des outils
18:39de ciblage,
18:40on récupère de la donnée personnelle
18:42mais en fait elle ne vaut rien
18:43si elle ne permet pas
18:44de changer un comportement.
18:45Donc là,
18:46on est juste passé
18:46à un changement de comportement,
18:48pas juste d'achat
18:49mais d'opinion.
18:51Mais donc on a changé
18:53de niveau de danger peut-être ?
18:54Oui, ce sont les mêmes mécanismes
18:56et on n'a pas vu arriver
18:57encore une fois.
18:58L'importance du numérique
18:59qui n'est pas juste un moyen
19:00de s'informer,
19:02de partager le savoir
19:04ou d'acheter,
19:05qui est vraiment aujourd'hui
19:06un outil qui nerve
19:08toute la société
19:09et toute la politique.
19:11Sur un point peut-être
19:12qui n'est pas soulevé
19:13quand même aujourd'hui
19:14dans le documentaire,
19:16c'est l'intelligence artificielle.
19:17Parce que là,
19:18quand vous dites
19:18que ça change de dimension,
19:19oui, mais on est déjà
19:20en train de passer
19:21encore à une dimension
19:22supérieure.
19:24On sait que ces IA génératives,
19:25la manière dont elles sont
19:26construites,
19:27elles ont une capacité
19:28de tromperie
19:29qui est très importante.
19:31Ça a été démontré
19:31dans plusieurs études.
19:34Et on autorise
19:35aujourd'hui
19:36ces systèmes
19:37à collecter
19:39nos discussions,
19:40nos informations,
19:41nos données
19:41quand on utilise
19:42ces IA génératives
19:43pour les entraîner
19:44à encore mieux
19:45simuler,
19:46copier notre langage.
19:47et pour l'instant,
19:48on laisse faire.
19:49Pour l'instant,
19:50on laisse faire.
19:50Il y a cet intérêt légitime
19:52qui est une sorte
19:53de trou dans la raquette
19:54du règlement européen
19:55sur la protection
19:56des données personnelles.
19:57On laisse faire
19:57parce qu'on est peut-être
19:58désarmé,
19:58parce qu'on ne sait pas
19:59du tout quoi faire.
20:00Non.
20:01Je ne crois pas.
20:02Face à l'intelligence
20:03artificielle ?
20:03Je voudrais simplement
20:04préciser que je crois
20:05qu'on ne change pas
20:06de degré,
20:08on change de nature.
20:09Quand vous passez
20:10d'un système
20:11qui s'adresse
20:11aux consommateurs
20:12et qu'ensuite
20:13vous rippez
20:14vers la question
20:14du citoyen,
20:15c'est d'une autre nature.
20:17C'est-à-dire que
20:17vendre de la lessive,
20:18la manière la plus ciblée
20:19possible,
20:20ou vendre tel produit,
20:22c'est une chose.
20:24Manipuler le citoyen,
20:25là, vous changez
20:25le projet de nature.
20:28Gilles Babinet ?
20:29Je pense qu'on sait
20:30quoi faire.
20:32Maintenant,
20:33la traduction politique
20:34n'est pas toujours là.
20:36Et lorsque la traduction
20:37politique est là,
20:38après,
20:39je crois qu'on a
20:41un problème
20:41de courage politique.
20:43Je prends un exemple
20:43DSA.
20:44DSA,
20:45Digital Services Act,
20:47a été voté
20:48maintenant il y a plus
20:49de deux ans,
20:49enfin mis en oeuvre,
20:50pardon,
20:50il y a plus de deux ans.
20:52C'est un texte
20:52qui est assez contraignant
20:54pour les plateformes
20:55et qui peut les enjoindre
20:57à des amendes
20:57qui vont jusqu'à 6%
20:58de leur chiffre d'affaires.
21:00Ça n'a pas été fait.
21:01Pour l'instant,
21:01il y a des instructions
21:02qui sont en cours
21:03et je trouve
21:05assez surprenant
21:06d'entendre
21:07dans les murs
21:08de la commission
21:09qu'en réalité,
21:12on hésite à le faire.
21:13D'abord,
21:14normalement,
21:14ce n'est pas
21:15à la commission
21:15de décider de ça.
21:16C'est le pouvoir judiciaire
21:17qui est saisi,
21:19notamment par les citoyens
21:20d'abus potentiels
21:21de ce genre de choses.
21:23Mais d'après
21:23ce que je comprends,
21:25la commission
21:25essaie de retenir
21:26le pouvoir judiciaire.
21:28ça ne marche pas comme ça.
21:30Si on a peur de son nombre,
21:31on ne va nulle part
21:32en réalité.
21:33Je crois que je le dis
21:34assez souvent en ce moment,
21:35c'est que c'est à nous,
21:37Européens,
21:38d'avoir la force
21:39d'énoncer un projet,
21:41un projet politique.
21:41Ce n'est pas uniquement
21:42en réaction,
21:43c'est aussi en action.
21:44Qu'est-ce qu'on veut ?
21:45Qu'est-ce qu'on veut
21:45collectivement ?
21:46Et pourquoi on pense
21:47que ces plateformes
21:48sont problématiques ?
21:49Si on est toujours
21:50en fond de cours,
21:52ça va être compliqué.
21:53Et on a l'AI Act
21:56qui prévient quand même
21:57beaucoup de ces dérives possibles
21:58à l'égard des modèles
22:00d'intelligence artificielle.
22:01Sur les usages à haut risque,
22:01mais sur les usages du quotidien,
22:03finalement,
22:04aujourd'hui,
22:04on attend de voir
22:05comment ça va s'arbitrer
22:07avec le RGPD.
22:08Il y a aussi
22:09des biais potentiels
22:10des modèles
22:11à cet égard.
22:13Mais la vraie question,
22:15c'est,
22:15après,
22:16c'est vraiment d'avoir
22:17une culture collective
22:18qui fait qu'il y a
22:20une sorte de pression politique
22:21pour qu'il y ait
22:22un passage à l'action.
22:23Et ça,
22:24je crois qu'on n'y est pas
22:24encore tout à fait.
22:25C'est ça.
22:26Parce qu'on voit,
22:26il y avait des amendes
22:28qui devaient être prononcées
22:29dans le cadre du DSA,
22:30les premières amendes.
22:31Et on voit
22:32qu'il y a des délibérations
22:33à la Commission
22:34sur le timing,
22:35le montant des amendes,
22:36parce qu'il ne faut pas
22:37s'aliéner à l'administration
22:37américaine.
22:39On essaie,
22:40comme ça,
22:40de s'adapter,
22:42de danser avec le diable
22:44un peu.
22:45Je pense qu'il ne peut
22:46rien en sortir.
22:46Et c'est une stratégie
22:47qui, ces dernières années,
22:48a quand même peu payé.
22:49Donc, le souci,
22:51c'est que j'ai l'impression
22:52qu'on voudrait conserver
22:54un modèle
22:55de libéralisme
22:56très débridé
22:57où la compétition est reine,
22:59où d'ailleurs,
22:59nous, il faudrait pouvoir
23:00stimuler une innovation
23:01des acteurs européens,
23:02et je peux l'entendre
23:03dans une certaine mesure,
23:04mais on voudrait
23:05juste se débarrasser
23:06des effets toxiques
23:09et indésirables
23:10de ce modèle-là.
23:12Je ne suis pas certain
23:13qu'on y arrive
23:14sans changement
23:15plus radical que ça.
23:16Parce qu'encore une fois,
23:16on est face à des acteurs.
23:17Quand vous avez
23:18un Peter Thiel,
23:19qui vous dit
23:19que la démocratie
23:21est incompatible
23:22avec la liberté,
23:24en fait,
23:24il dit la même chose
23:25que, Gilles parlait
23:26tout à l'heure
23:27de Reagan,
23:28l'un des grands économistes
23:29totem
23:30de tous ces gens-là,
23:31c'est Friedrich Hayek.
23:32Friedrich Hayek,
23:33quand il va visiter
23:33le Chili de Pinochet,
23:35il n'a aucun problème
23:36parce qu'entre une dictature
23:38et un système libéral,
23:41le plus important,
23:42c'est que le système libéral
23:43soit préservé.
23:44Si ça doit se faire
23:44par le biais
23:45d'une dictature
23:45ou d'un régime autoritaire,
23:46ce n'est pas un problème.
23:47Je pense que tant
23:48qu'on n'aura pas
23:49envisagé les choses
23:50comme ça,
23:51on continuera
23:52de se fracasser
23:53sur les mêmes écueils.
23:53Avant de poursuivre,
23:54je voudrais qu'on regarde
23:54un dernier extrait,
23:55effectivement,
23:55parce qu'il porte précisément
23:56sur le sujet
23:57que vous avez abordé.
23:58Ce texte est entièrement
23:59applicable depuis
23:59le 17 février 2024
24:01et l'idée,
24:02je la reprécise
24:03pour vous qui nous regardez,
24:04est de responsabiliser
24:05les plateformes numériques
24:06et de lutter
24:07contre la diffusion
24:07de contenus illicites.
24:09On va écouter
24:09celle qui a porté le texte,
24:11c'est l'ancienne
24:11commissaire européenne
24:12à la concurrence.
24:14Que ce soit dans la rue
24:16ou sur nos écrans,
24:17nous devrions pouvoir
24:17faire nos achats
24:18en toute sécurité.
24:20Que nous tournions des pages
24:21ou que nous fassions
24:22défiler des pages,
24:23nous devrions pouvoir
24:24choisir et faire confiance
24:25aux informations
24:26que nous lisons.
24:29Beaucoup de choses
24:30sont illégales
24:31dans notre société.
24:33Vous ne pouvez pas
24:34vous tenir devant
24:35l'hôtel de ville
24:35et distribuer
24:36de la pornographie
24:37enfantine.
24:38Mais ce n'est pas
24:38la même chose en ligne.
24:41Qui est chargé
24:42de surveiller
24:43la place publique
24:44lorsque vous êtes en ligne ?
24:45L'objectif du règlement
24:47sur les services numériques
24:48est donc de s'assurer
24:49que ce qui est illégal
24:51hors ligne
24:51l'est aussi en ligne
24:53et soit traité
24:54comme tel.
24:56J'ai l'impression
24:57que tout le monde
24:57a compris le problème,
24:58que l'Europe a posé
24:59le bon diagnostic
25:00et pourtant,
25:01le politique
25:01semble impuissant.
25:03Alors, moi qui ne suis pas
25:04un européiste
25:05de première bourg,
25:06vraiment pas,
25:08au moment où on a fait
25:10la commission d'enquête
25:10sur TikTok,
25:12j'ai constaté
25:12que de toute façon,
25:13ce sujet-là,
25:14si on veut être sérieux,
25:15il faut le traiter
25:16d'un point de vue continental.
25:18D'autant que là,
25:19l'Union européenne
25:19a l'occasion d'être
25:20sur un point
25:21qui correspond vraiment
25:22à l'ADN
25:23s'il existe
25:24de la culture européenne,
25:25c'est-à-dire
25:26le libre arbitre,
25:27le fait de pouvoir
25:28penser ce que l'on souhaite
25:29mais pas forcément
25:30l'exprimer
25:31comme on le veut
25:32parce qu'il y a
25:32la question du commun,
25:34c'est la question du roman,
25:34c'est la question de Don Pichotte,
25:35c'est la question de ce qui fait
25:36vraiment le fond
25:37de la culture européenne
25:39et les Trump
25:41et les Twitter,
25:42etc.
25:43sont contre cet état d'esprit.
25:44Madame Vestager
25:45a le mérite
25:45d'avoir posé le diagnostic,
25:47le texte n'est pas
25:48si ancien que ça
25:48mais à un moment,
25:50il faut avoir aussi une vision,
25:51enfin je vais avoir
25:51un propos très politique,
25:53vous pouvez faire confiance
25:53à Ursula von der Leyen
25:55pour appuyer sur le frein
25:56en même temps
25:57que d'autres appuient
25:57sur l'accélérateur.
25:58Parce qu'elle a d'autres intérêts ?
25:59Parce qu'elle a d'autres intérêts,
26:00parce que c'est une américanophile
26:03qui ne s'exprime qu'en anglais
26:04et jamais dans sa langue natale,
26:05parce qu'elle fait un discours
26:06sur l'état de l'Union
26:07tous les ans
26:07et qu'on sent
26:08qu'elle est dans une autre approche,
26:10parce qu'elle essaie
26:11de ménager l'administration américaine
26:12parce que ces gens-là
26:13ont peur de leur ombre
26:14et ne sentent pas souffler
26:15le vent de l'histoire
26:16et puis parce qu'il faut
26:17que chacun prenne
26:17ses responsabilités
26:18jusqu'à preuve du contraire,
26:20c'est elle qui a eu
26:21la peau de Thierry Breton
26:22très bien aidée en cela
26:24par le président Macron.
26:25Enfin, je veux dire,
26:26à un moment,
26:27il faut aussi se demander
26:27ce que les politiques nationaux
26:29posent comme acte
26:31pour essayer de pousser
26:32sur ces sujets-là.
26:34Donc non,
26:34je ne fais pas confiance,
26:35moi, à Wanderleyen
26:36pour se dire
26:37qu'elle va se mettre à dos
26:38l'administration américaine
26:39avec tout ce qu'on a vu
26:40tout à l'heure
26:41sur la question de l'allégeance
26:42faite par les GAFAM à Trump.
26:43Donc ce que j'entends,
26:44c'est qu'il y a plus
26:45qu'un problème d'efficacité,
26:46il y a un problème
26:46de volonté politique.
26:47Si vous prenez le RGPD,
26:49ça a quand même été,
26:50comment dire,
26:51une initiative venue de l'Europe
26:53qui, dans d'autres parties du monde,
26:55a été vue comme quelque chose
26:56de très normatif et de souhaitable.
26:58Il faudrait qu'on arrive
26:58à faire la même chose
26:59dans l'application du DSA
27:01et du règlement
27:02sur les services numériques,
27:03de la directive
27:03sur les services numériques.
27:04Mais ça demande,
27:05je rejoins monsieur,
27:06le fait qu'il y a
27:07un combat culturel
27:08où il faut d'abord que les...
27:09Enfin, d'abord,
27:09il faut aussi que les opinions publiques,
27:12que les gens,
27:13que les fondations,
27:14que ceux qui travaillent
27:15sur le sujet,
27:16aident à cette prise de conscience.
27:17Et il y a une question
27:18de prise de conscience
27:19et d'avoir...
27:20Non, si pas une conscience
27:21de classe,
27:22mais on n'est pas loin
27:22du même mécanisme,
27:23une conscience de ces sujets
27:25dans l'opinion publique.
27:26Delphine Sabatier ?
27:26Alors, sans rentrer
27:27dans la politique politicienne
27:28qui décide
27:29des volontés politiques,
27:31on a un problème
27:31de dépendance, en fait,
27:33à ces technologies américaines.
27:36C'est ça qui...
27:36Et ça va avec.
27:37C'est ça qui fausse aujourd'hui
27:38toutes les décisions.
27:40Le règlement européen
27:41sur la protection de données,
27:43le RGPD,
27:43il est aujourd'hui
27:44très faible
27:45avec l'effort.
27:47Il a, en revanche,
27:48pas mal cassé
27:49un écosystème
27:50du marketing de la pub
27:51qu'on peut ne pas apprécier,
27:53mais en tout cas
27:53européen, français,
27:55qui, lui,
27:56l'a subi
27:57vraiment très,
27:57très violemment.
27:59Ces règlements,
28:00aujourd'hui,
28:01peinent, en fait,
28:02à nous convaincre,
28:03parce que...
28:04Est-ce que le marché
28:05a été assaini
28:05sur la collecte
28:06des données personnelles ?
28:07Non.
28:08Est-ce que les big tech
28:09ont été affaiblis ?
28:10Non.
28:11Donc, on voit bien
28:12que ce n'est pas efficace.
28:13Pourquoi ?
28:14Parce qu'on ne fait pas
28:15de mise en application.
28:16On n'est pas assez fort
28:17face aux forts aujourd'hui
28:18parce qu'on a un problème
28:19de dépendance.
28:21Et la question, c'est
28:22pourquoi on n'a pas
28:22nos géants,
28:23nos numériques ?
28:24Et ça fait des années
28:25qu'on l'entend.
28:25Qu'est-ce qu'on a attendu
28:26pour les créer ?
28:27Le problème,
28:27la situation dans laquelle
28:28on est aujourd'hui,
28:28c'est que vous avez
28:29une administration américaine.
28:30Trump l'a dit très clairement.
28:31Il a dit
28:31je protégerai,
28:32je serai une sorte
28:33de bouclier
28:33pour les entreprises américaines
28:35si l'Europe
28:35essaie de s'en prendre à elle.
28:36Ce qui est une menace.
28:38Je peux faire
28:39un petit exercice
28:40de politique fiction
28:40mais il n'y a pas besoin
28:41de se projeter très loin.
28:42On imagine que
28:43si l'Union européenne
28:45essaie d'infliger
28:47des amendes
28:48sur des montants
28:49un peu importants
28:51ou peut-être même
28:51d'aller plus loin
28:52dans des stratégies
28:53assez offensives
28:54vis-à-vis de ces plateformes,
28:55aujourd'hui,
28:56vous avez combien
28:56de données de l'administration
28:58en France ou en Europe
28:59qui sont hébergées
28:59sur des services américains
29:00et vous avez face à vous
29:02le président qui pratique
29:03l'art du deal
29:04depuis sa tendre enfance.
29:05Qu'est-ce qu'il va faire,
29:06Trump ?
29:07Il va nous forcer le bras
29:09et donc je pense
29:10que c'est aussi
29:10un élément d'explication
29:11sur les raisons
29:13pour lesquelles
29:13on est un peu comme ça
29:14tétanisé, paralysé.
29:16On arrive très tranquillement
29:17à la conclusion de ce débat
29:18et je vais vous demander
29:18à tous de conclure
29:19sur cette simple question.
29:21Qu'est-ce qu'il faut faire ?
29:22Est-ce que c'est entre les mains
29:22du politique,
29:23du citoyen ?
29:25On n'en a pas parlé
29:27mais il y a un aspect
29:28qui est important,
29:29c'est effectivement le citoyen,
29:30c'est-à-dire que
29:30le politique, finalement,
29:33quoi qu'on en dise,
29:33on est quand même en démocratie
29:34et sans avoir
29:38un support fort du citoyen,
29:40c'est très difficile
29:40pour le politique d'agir.
29:42C'est-à-dire que
29:43dès que vous commencez
29:44à vouloir vous en prendre
29:45à ces plateformes
29:46et ça a été démontré
29:47à maintes reprises,
29:49elles ont des capacités
29:50de rétorsion,
29:51notamment en faisant en sorte
29:52que certains politiques
29:53ne soient pas réélus.
29:55La grande chose,
29:56dans un livre qui vient de sortir,
29:58qui est l'ancienne patronne
29:58des affaires publiques
30:00de Meta
30:01qui s'appelle
30:01Careless People
30:02dans lequel elle montre
30:03que les chefs d'État
30:03ont peur de Facebook.
30:05Ils ont peur de Facebook
30:06parce qu'ils savent
30:07que c'est Facebook
30:07qui peut décider
30:08leur réélection ou pas.
30:10Voilà.
30:10Donc vous avez une altération
30:11forte de la démocratie
30:12et puis vous avez
30:12un autre problème,
30:13c'est qu'il n'y a pas
30:14de compréhension
30:15de ces sujets.
30:17Vous avez des débats
30:18sur les chaînes de télévision
30:19toute la journée,
30:21je suis très heureux
30:22et on est très heureux
30:22d'en débattre,
30:23on ne peut pas dire
30:23que ça fait le 20h.
30:24et si vous voulez vraiment
30:27qu'il se passe quelque chose,
30:29il faut que vous ayez
30:29une culture collective de ça,
30:30qu'on se dise
30:31ok, je dois faire attention
30:32à mes données,
30:33je dois utiliser
30:34comme vous le disiez
30:34à l'instant.
30:35De l'éducation.
30:36Voilà.
30:36On est quand même
30:37assez loin de ça
30:38et pourtant,
30:39c'est déterminant
30:40pour le futur de l'Europe.
30:42Donc je crois que ce sujet
30:43reste un sujet
30:45qui est important à mon avis.
30:46C'est pour ça d'ailleurs
30:46que moi j'ai monté
30:47Café IA.
30:48Café IA,
30:49c'est un mouvement citoyen
30:50d'acculturation
30:51à l'intelligence artificielle
30:52et à tous ces enjeux
30:54d'algorithmes.
30:55Il faut aller plus loin,
30:56il faut démanteler
30:57ces dispositifs,
30:58il faut faire en sorte
30:59que notamment
30:59on se réapproprie
31:00les algorithmes.
31:02C'est-à-dire qu'un algorithme
31:03qui vous pousse
31:03vers des contenus à nœud,
31:05vous n'en savez absolument rien
31:06parce que ce truc
31:07est totalement opaque.
31:08Vous avez des plateformes
31:09moins connues
31:10comme par exemple
31:10Blue Sky
31:11qui vous permettent
31:12de choisir l'algorithme
31:13qui va vous exposer
31:15à des contenus
31:16que vous choisissez.
31:18Ça peut paraître
31:18de la science-fiction
31:19mais il n'y a pas
31:20d'alternative
31:20ou alors il faut fermer
31:21ces trucs.
31:22Delphine Sabatier ?
31:24Je pense que
31:24pour la sensibilisation,
31:26l'idée de dire
31:27ok, vous n'avez peut-être
31:28rien à cacher
31:28mais vous n'avez pas
31:29envie d'être manipulé,
31:31ça peut être un discours
31:32qui fonctionne.
31:33La mésinformation,
31:34le fait d'être mal informé,
31:36c'est le premier risque
31:37aujourd'hui,
31:39en tout cas selon le rapport
31:40du Forum économique mondial,
31:41c'est le premier risque mondial
31:42à court terme.
31:44Donc il faut qu'on ait
31:44conscience absolument de ça.
31:46On peut vacciner aussi
31:47contre la désinformation.
31:48Il y a eu des tests
31:49qui ont été faits
31:50par des scientifiques anglais
31:52qui nous disent
31:53que finalement
31:54en exposant
31:55à petite dose
31:55le citoyen
31:56à de la désinformation
31:57pour lui montrer
31:58les mécanismes,
31:59eh bien il est plus
32:00en éveil,
32:01donc ça c'est toute la partie
32:02évidemment éducation.
32:04Et puis du côté
32:05du politique,
32:07l'Europe,
32:07elle n'a pas voulu
32:08véritablement
32:08se créer de géants.
32:10aujourd'hui,
32:10on est prisonnier
32:11de cette dépendance
32:12donc il faut commencer
32:13à se faire confiance.
32:15On a des géants
32:15par exemple
32:15dans le jeu vidéo,
32:17on a des exemples
32:18aussi intéressants
32:19dans les télécoms.
32:21Autorisons-nous
32:22à avoir
32:22ces puissances numériques
32:24aujourd'hui
32:24en Europe.
32:25Olivier Tesquet.
32:27En faisant le petit tour
32:28de job,
32:29j'ai essayé de rassembler
32:30les éléments
32:30qui poussent à l'optimisme.
32:31Ce n'est pas simple.
32:32Alors après,
32:33je rejoins Gilles
32:34sur le constat
32:36des personnalités politiques,
32:39des responsables politiques
32:39qui sont un peu
32:40paralysés,
32:41tétanisés
32:41parce qu'ils ont peur
32:42de puissance
32:43qui sont plus fortes
32:44qu'elles finalement,
32:45plus influentes.
32:47Mais il y a quand même
32:48un vrai pouvoir
32:49de mobilisation
32:50des citoyens.
32:51Je pense que c'est
32:51un exemple
32:52qui peut sembler
32:52un peu lointain
32:53sans l'être
32:53quand on voit
32:55qu'à force de tirer
32:56sur la corde
32:57Elon Musk
32:59est en train
32:59de dissuader
33:00des centaines
33:03de milliers
33:04de personnes
33:04d'acheter des Tesla.
33:06Quand on voit
33:07toute cette espèce
33:07de mobilisation,
33:08parfois très symbolique,
33:09parfois très pratico-pratique
33:12de vandalisation,
33:13etc.,
33:13je ne dis pas
33:14que c'est ce qu'il faut faire
33:14mais en tout cas
33:15on voit qu'il y a
33:15une mobilisation
33:16et qu'à un moment,
33:17à force de tirer
33:18sur la corde,
33:18les gens disent stop.
33:20Ne sous-estimons pas
33:21notre capacité collective
33:22à être parfaitement révoltés
33:25par ce qui est en train
33:26de se passer.
33:28Intéressant.
33:28C'est exactement ça.
33:30Il faut réactiver
33:31ou donner la possibilité
33:33d'avoir une capacité
33:34d'indignation.
33:35C'est-à-dire que
33:35ce qui s'est passé,
33:36par exemple,
33:37ce qui a été décrit
33:38dans Cambridge Analytica,
33:40aurait dû indigner
33:41les États-Unis
33:42et le monde entier
33:43sur cette manipulation
33:44qui permet de faire basculer
33:45des comtés
33:45et qui font basculer
33:46des États
33:47et faire honte
33:49à ceux qui ont fait ça
33:50et réintroduire
33:51la capacité d'indignation,
33:53faire en sorte,
33:54on n'a jamais trouvé mieux
33:55pour transformer
33:56l'individu en citoyen,
33:58en l'occurrence,
33:58le consommateur
33:59en citoyen,
34:01que l'éducation.
34:02Donc,
34:02l'éducation nationale,
34:03comme on dit en France,
34:05a raison,
34:05l'éducation populaire,
34:07c'est-à-dire
34:07ce qui permet
34:08de créer du collectif.
34:09Tout ne procède pas
34:10de la politique
34:10au sens des décisions
34:12gouvernementales
34:13ou législatives.
34:14Il faut avoir
34:14cette humilité-là.
34:15C'est un tout
34:16et je ne vois pas,
34:18vis-à-vis de l'IA,
34:18vis-à-vis des dangers
34:20qu'il peut y avoir
34:20à côté des effets positifs,
34:23c'est sur l'éducation
34:25qu'il faut miser
34:26et 10 ans, 15 ans,
34:27ça passe très vite
34:28et quand vous avez formé
34:29des gens
34:29qui sont capables
34:30à avoir une forme
34:31de subversion
34:32par rapport
34:32à ces nouvelles autorités
34:34privées
34:35qui essayent d'imposer
34:36leur modèle,
34:37je crois qu'on est sûr
34:38de ne pas se tromper
34:39si on met des moyens
34:40là-dessus.
34:40Mais il faut avoir
34:41le courage de le faire
34:42et quand on voit
34:42que déjà,
34:43sur le contenu
34:44des programmes
34:45et sur les durées,
34:46sur la façon
34:47de mettre l'enfant
34:48au centre de tout,
34:49ce n'est pas évident,
34:51donc il y a du chemin
34:51à faire.
34:52Mais il faut avoir
34:52l'espoir qu'on y arrive
34:53de ce point de vue-là.
34:54Et on espère
34:55que cette émission
34:55participera à ce début
34:57d'éducation et de chemin.
34:58Merci, merci beaucoup
34:59à tous les quatre.
35:00Merci à vous de nous avoir suivis
35:02comme chaque semaine.
35:03Émissions et documentaires
35:04à retrouver en replay
35:05sur notre plateforme
35:06publicsénat.fr.
35:07À très vite, merci.
35:08Sous-titrage Société Radio-Canada
35:13Sous-titrage Société Radio-Canada
35:19Sous-titrage Société Radio-Canada
35:23Sous-titrage Société Radio-Canada