Passer au playerPasser au contenu principalPasser au pied de page
  • avant-hier
Le piège du clic explore la face sombre de la publicité en ligne, révélant comment cette industrie, contrôlée par une poignée de grandes entreprises technologiques, repose sur des algorithmes qui favorisent la propagation d'escroqueries, de désinformation et de discours haineux, afin de maximiser leurs profits.
Trop peu réglementée, la publicité en ligne, dont le chiffre d'affaires dépasse celui de tous les autres supports cumulés, a un impact en ligne et dans le monde réel sur les internautes du monde entier. Pour beaucoup, elle menace jusqu'à la stabilité de nos démocraties.
Des cyber-experts, des journalistes, des chercheurs, des victimes d'escroquerie, des législateurs et des activistes soulignent qu'il est possible, et nécessaire, de reprendre le contrôle sur ce système qui sous-tend tout le fonctionnement d'Internet et des réseaux sociaux.
Année de Production : 2024

Catégorie

🗞
News
Transcription
00:00Nous vivons dans un univers numérique, entouré de publicités numériques.
00:20Google, Meta, la société mère de Facebook et Instagram, sont des entreprises publicitaires.
00:31La grande majorité de leurs revenus provient de la publicité.
00:37La publicité en ligne représente aujourd'hui 400 milliards de dollars, dépassant largement la publicité traditionnelle.
00:44Grâce à la récolte de données toujours plus nombreuses sur les internautes,
00:48ce système a dégagé des revenus exponentiels. Mais il a aussi une part sombre.
00:55Nous savons exactement où se trouvent ces personnes. Nous connaissons leur vrai nom, leur numéro de carte de crédit.
01:00Nous savons où elles ont voyagé. Imaginez, monsieur l'annonceur, tout ce que vous pouvez faire pour atteindre ces personnes.
01:08Mais les annonceurs traditionnels ne sont pas les seuls à profiter de cette puissance de ciblage des plateformes.
01:14Les escrocs dépensent des milliards en publicité chaque année.
01:17Ce ne sont pas des individus isolés qui mettent ces publicités en ligne. C'est tout un écosystème.
01:23Parfois, ce sont des publicités classiques. Parfois, ce sont des publicités sournoises et trompeuses qui cachent des arnaques.
01:29Parfois, elles nous volent au point de nous conduire à la ruine.
01:34Je ne pouvais pas respirer, pas manger, pas dormir. J'ai tout perdu. Ça détruit votre vie.
01:44Dramatique à l'échelle individuelle, les dangers de la publicité en ligne prennent une ampleur catastrophique lorsqu'ils touchent des milliers, voire des millions de personnes.
01:54La triste vérité, c'est que les réseaux sociaux ont découvert que prioriser les contenus de haine, désinformation, conflit et colère est très profitable.
02:03Je pense que la crise de la désinformation est l'une des plus grandes menaces qui pèse actuellement sur l'humanité.
02:14Les démocraties du monde entier sont menacées par la désinformation.
02:19La désinformation, c'est scotchant, c'est addictif. Et les entreprises qui monétisent ces contenus le voient comme une opportunité.
02:27Diffusez des mensonges, de la haine, et vous gagnerez de l'argent.
02:33La désinformation, c'est l'une des plus grandes menaces qui pèse actuellement sur l'humanité.
02:39Sénateur, nous avons été attirés.
02:55Tous les jours, nous acceptons sans trop réfléchir des conditions générales d'utilisation et des cookies.
03:00Nous donnons ainsi accès à nos données personnelles, à des sites, à des applications ou à des réseaux sociaux qu'ils utilisent pour nous proposer des publicités ciblant nos centres d'intérêt.
03:10Cet acte nous semble banal et inoffensif, mais cette publicité sur mesure est en réalité le résultat d'une véritable révolution provoquée par l'arrivée du numérique.
03:19Une révolution aux répercussions insoupçonnées.
03:22Avant le numérique, pour acheter de la publicité dans un magazine ou à la télévision, vous ou votre agence deviez vous adresser directement aux médias auxquels vous vouliez acheter un espace publicitaire.
03:33Mais on est loin de tout ça maintenant.
03:36Quand Google a démarré, ils ne savaient pas que la publicité serait leur principal modèle économique.
03:41Au départ, il n'y avait pas de modèle économique pour Google. Ils ont perdu beaucoup, beaucoup d'argent pendant une très longue période.
03:47Pour vendre de la publicité, ils ont vu qu'ils ne pouvaient pas fonctionner avec une équipe commerciale, un groupe de personnes qui aurait répondu aux appels et placé les pubs sur le web.
03:56Parce que Google reçoit environ 99 000 recherches par seconde, des milliards de recherches par an.
04:01La seule façon de rendre le système extensible a été de se passer d'équipe humaine et de mettre en place un système basé sur les données et les algorithmes, et qui évolue à la vitesse de l'éclair.
04:17Lorsque l'application de Google a été vendue à un grand public, Google a doublé ses profits en l'an dernier, en vendant de l'advertisement sur Internet.
04:25Ils ne s'attendaient pas à ce que la publicité soit le modèle économique de Google. Mais quand ils l'ont compris, ça a été une véritable longue d'or.
04:32Ils ont gagné tellement d'argent qu'ils sont passés d'un coup d'une startup anonyme de la Silicon Valley à l'une des entreprises les plus riches du monde.
04:39Le modèle proposé par Google a donc influencé beaucoup, beaucoup d'autres entreprises.
04:42Quand Facebook s'est lancé, ils n'ont pas eu à innover. Ils se sont juste dit, on n'a qu'à reprendre le business model de Google et l'adapter.
04:48Les publicités que nous voyons en ligne cachent une histoire complexe. Qu'elles apparaissent sur un site ou qu'elles soient discrètement intégrées dans les fils de nos réseaux sociaux,
05:13la plupart de ces annonces commerciales sont le résultat d'une guerre secrète que les marques se livrent pour capter l'attention des internautes.
05:23Chaque fois que vous visitez un site Web, les informations recueillies à votre sujet sont envoyées par ce site sur le marché ouvert des enchères.
05:32Les annonceurs qui voudraient toucher quelqu'un comme vous pourront voir ces informations ainsi que le site Web sur lequel vous vous trouvez et faire une offre pour vous montrer une publicité.
05:42Ils rentrent des paramètres comme, je veux toucher des hommes entre 25 et 35 ans qui pourraient être intéressés par l'achat d'une voiture et qui vivent à New York.
05:51Le système est ensuite censé trouver ces personnes lorsqu'elles consultent des applications, des sites Web ou des vidéos et leur présenter des publicités.
06:01C'est un processus d'enchères en temps réel où de nombreux algorithmes représentant différents acheteurs d'espaces publicitaires disent, je suis prêt à payer un dollar pour cette personne, je suis prêt à payer deux dollars pour cette personne.
06:15Il s'agit littéralement d'un marché où les gens font des offres concurrentielles pour la valeur de votre attention.
06:20Donc si je suis un consommateur de grandes valeurs pour lequel de nombreuses personnes veulent faire une offre, ça leur coûtera plus d'argent.
06:25Typiquement, l'achat d'espaces publicitaires pour toucher les détenteurs d'iPhone va coûter plus cher que pour les détenteurs d'Android, parce que les détenteurs d'iPhone ont tendance à avoir plus d'argent.
06:35Il est donc plus profitable d'essayer de capter leur attention.
06:39C'est un processus qui se déroule en un clin d'œil.
06:42On lance les enchères et le gagnant peut placer l'annonce et vous la montrer.
06:46Les systèmes gérés par Google et les systèmes gérés par Facebook fonctionnent à une échelle sans précédent dans l'histoire de l'humanité.
06:53Il y a des milliards et des milliards et des milliards d'enchères, d'offres et d'achats d'espaces publicitaires, à tout moment, dans la journée, la nuit, dans le monde entier.
07:05Mais le problème est que le système est tellement opaque qu'il n'est pas possible d'en faire plus.
07:09Même pour les personnes qui travaillent dans la publicité numérique, que personne ne sait vraiment ce qui se passe.
07:14C'est une situation absolument insensée.
07:17Environ 500 milliards de dollars sont échangés chaque année dans le secteur de la publicité numérique, et les gens ne comprennent pas où vont toutes les publicités et où va tout l'argent.
07:27Ce système automatique est un moyen d'éliminer l'inverse.
07:30Ce système automatisé complexe est l'axe central autour duquel s'est développé Internet tel que nous le connaissons aujourd'hui.
07:37C'est peut-être un rêve pour les publicitaires, mais donner le contrôle à des algorithmes n'est pas anodin.
07:50En 2016, j'étais une jeune fille, et j'ai découvert Google.
07:55En 2016, j'étais une sorte d'équipe marketing à moi toute seule.
08:00Je travaillais principalement en Europe à l'époque, et mon patron m'a suggéré de lancer notre première campagne Google Ads.
08:07J'ai dit OK.
08:09Je suis allée sur le tableau de bord de Google Ads, et j'ai lancé ma première campagne.
08:13J'espérais que mes annonces seraient diffusées sur CNN, le New York Times, le Washington Post, par exemple.
08:19Mais quand je suis allée voir mes placements publicitaires, j'ai été surprise et choquée de ne rien voir de tout cela.
08:25J'ai vu tout un tas de sites dont je n'avais jamais entendu parler, toutes sortes de noms de domaines avec des noms bizarres, et je ne connaissais personne qui visitait ces sites.
08:35Je me suis dit que c'était une bonne idée de faire une campagne.
08:38Mais aussi, j'ai compris qu'on ne savait pas vraiment où vont nos publicités.
08:47Quelques mois plus tard, j'ai visité Breitbart.com pour la première fois.
08:52Breitbart, en 2016, était la plus grande source de désinformation aux États-Unis.
08:59Le site avait plus d'influence que Fox News et CNN.
09:02Il avait plus de followers sur Facebook, plus d'engagement.
09:06Il a joué un rôle énorme dans l'élection de Trump en 2016.
09:13La première chose que j'ai vue en visitant leur site web, ce sont des publicités.
09:18J'ai été assaillie par toutes ces marques et tous ces annonceurs.
09:22C'étaient des publicités qui me suivaient partout, des marques dont je suis cliente, que je ne connais pas.
09:26Et voir ces publicités à côté de ce type de contenu, je ne pouvais pas simplement l'ignorer.
09:31Ces marques ne voulaient sûrement pas être là.
09:34Elles achetaient de l'espace publicitaire, comme je l'avais fait quelques mois auparavant,
09:38et elles ne vérifiaient probablement pas le placement de leurs annonces.
09:46En s'appuyant sur des algorithmes, ce fonctionnement déconnecte totalement de la réalité.
09:51En s'appuyant sur des algorithmes, ce fonctionnement déconnecte totalement
09:56les annonceurs des supports sur lesquels les publicités apparaissent.
09:59À cause de cette déconnexion, des médias comme Breitbart peuvent toucher des revenus de la publicité
10:04sans que les marques concernées s'en aperçoivent.
10:07La publicité en ligne est une machine à communiquer aveugle.
10:14Je me souviens, j'étais la seule personne dans la pièce et j'ai littéralement regardé à droite et à gauche.
10:18Je me suis demandé si j'étais vraiment la seule personne à voir ça.
10:23J'ai écrit un billet de blog ce jour-là.
10:26« Marketer, allez tous bloquer Breitbart dans vos annonces Google.
10:30Si on le fait tous en même temps, on pourra mettre ce média en faillite. »
10:41J'ai cofondé Sleeping Giants pour alerter les annonceurs de la présence de leurs publicités sur ces sites web.
10:47Et nous avons commencé à envoyer des tweets aux entreprises
10:50avec des captures d'écran de leurs propres publicités sur Breitbart
10:53et à leur demander si elles voulaient que leurs publicités y figurent.
11:01Et ce qui s'est passé, c'est que les marques répondaient presque instantanément.
11:05Elles revenaient vers nous quelques minutes plus tard en disant « on ne savait pas ».
11:09Merci de nous avoir alerté, nous allons l'exclure de nos achats de médias.
11:13Notre campagne s'est développée très rapidement.
11:17Au fur et à mesure, nous avons pu contacter collectivement des milliers de marques.
11:26Breitbart a perdu 90% de ses recettes publicitaires au cours des trois premiers mois de notre campagne.
11:33Ils étaient en passe de réaliser 8 millions de dollars de recettes publicitaires cette année-là.
11:38Et nous les avons privées de ces recettes.
11:47On peut diviser Google en trois parties.
11:50Google a un moteur de recherche qui propose des liens publicitaires dont les résultats ont un rapport avec votre recherche.
11:59Ensuite, il y a YouTube, qui est très important et qui va proposer des publicités ciblées qui apparaîtront avant une vidéo.
12:07Enfin, ce que la plupart des gens ignorent, c'est la plateforme publicitaire de Google
12:12qui affiche de la publicité sur d'autres sites Web.
12:16Elle vous présentera cette publicité et reversera ensuite un peu d'argent à ce site de contenu.
12:2190% des sites Web qui diffusent de la publicité le font par l'intermédiaire de Google.
12:30Google et les autres sociétés de publicité font en sorte qu'il soit très difficile pour les marques de savoir exactement où leurs publicités apparaissent.
12:36Les annonceurs ne se rendent donc pas compte que leurs investissements publicitaires peuvent profiter à ces sites Web qui diffusent de la désinformation.
12:49C'est comme ça que de grandes entreprises, de grandes marques, se retrouvent à acheter de l'espace publicitaire sur des sites dont le contenu est lié au terrorisme, à la haine ou à la désinformation.
12:59Ça a créé tout un modèle économique permettant à des gens qui, auparavant, n'auraient jamais gagné d'argent grâce à la publicité, de gagner soudainement beaucoup d'argent de cette façon.
13:16L'une des choses les plus folles que nous ayons trouvées dans notre enquête sur les annonces Google, c'est un article affirmant que les vaccins contre la Covid-19 modifieront votre ADN.
13:24Cet article provient d'un site Internet serbe. On y trouve des publicités pour Amazon Prime Video, Discovery+, et pour Spotify Premium.
13:40Créer de la désinformation peut tout à fait être un métier. Et ce métier peut être rémunéré par certaines des plus grandes marques au monde grâce à Google.
13:49C'est une bonne affaire. Et ce qui est si extraordinaire dans ce système, c'est qu'il encourage les contenus de mauvaise qualité.
13:57Pourquoi pensez-vous qu'il est si difficile pour le vrai journalisme de prospérer ?
14:02Le problème avec les fake news, c'est qu'elles remplacent les informations fiables, utiles, bien documentées, les réflexions fondées sur des faits, les opinions réfléchies.
14:14C'est un véritable problème pour notre société. Ça nous rend plus stupides en tant que société.
14:21Ça affaiblit nos démocraties et nous transforme en une sorte d'idéocratie. Le piège acquis remplace la réflexion.
14:29La prospérité de ces entreprises nécessite que les internautes passent énormément de temps sur leurs sites et leurs réseaux.
14:34Plus de temps, cela signifie plus de publicités vues. Et plus de publicités vues, cela signifie plus d'argent.
14:41L'objectif est clair, capturer notre attention par tous les moyens.
14:46La concurrence de Facebook, ce n'est pas Twitter. La concurrence de Facebook, c'est passer du temps avec vos enfants, passer du temps avec votre femme, lire un livre.
14:55Ils ont besoin de garder vos yeux captifs pour pouvoir vous envoyer des publicités.
14:59Et l'une des choses qui fait que nos yeux restent accrochés aux contenus d'un site, c'est la désinformation et la haine, des états hyper émotionnels.
15:12Je m'appelle Imran Ahmed. Je suis directeur général et fondateur du Centre de lutte contre la haine numérique.
15:18Notre organisation s'intéresse à l'architecture par laquelle la haine et la désinformation se propagent en ligne et à la manière dont elles affectent le monde réel.
15:26Nous cherchons les moyens de les contrer.
15:29Les algorithmes sélectionnent les contenus qui suscitent le plus de réactions, qui gardent les personnes connectées.
15:36Ils pensent que c'est là que se trouve l'argent.
15:40Je pense qu'au départ, il s'agissait d'un accident.
15:43C'était amoral, il n'y avait pas de morale.
15:46Ils ne choisissaient pas la désinformation ou la haine.
15:49Mais on en est maintenant au point où, si vous regardez les révélations faites par les lanceurs d'alerte,
15:54ou le travail que notre organisation a fait pour montrer qu'il y a des super diffuseurs de désinformation,
16:00leur inaction, leur incapacité à modifier les algorithmes, à changer leur modèle économique,
16:06c'est là que ça cesse d'être amoral et devient immoral.
16:24Mon ami et collègue Joe Cox, qui était membre du Parlement,
16:29elle a été abattue, poignardée et battue à mort par un terroriste suprémaciste blanc,
16:34radicalisé en ligne en plein référendum sur le Brexit.
16:38Ça m'a brisé le cœur
16:41de voir quelqu'un qui a été nourri de mensonges et de désinformations
16:46et qui a décidé qu'il était rationnel de tuer une jeune femme.
16:52Alors oui, c'est un combat vraiment personnel.
16:56Quand le type l'a tué, il a crié « Britain first », mort au traître.
17:02« Britain first » a été le premier mouvement politique britannique à atteindre un million de likes sur Facebook.
17:07Et quand c'est arrivé, je me souviens que ma réaction a été de dire
17:11« On s'en fiche, ils ont un million de likes, de clics, nous, nous avons des membres. »
17:16Et j'avais tort.
17:18J'avais tort.
17:20Le lieu principal où les informations étaient partagées,
17:24où les gens décidaient des normes de comportement et d'attitude,
17:27où ils discutaient de ce qui est vrai ou pas, les faits,
17:31se déplaçaient vers ces espaces en ligne que nous ne comprenions pas.
17:37Nous avons conclu un pacte avec le diable.
17:39Le diable nous a dit « Je peux vous permettre de voir ce que font vos amis,
17:43d'être en contact avec votre famille pour que vous puissiez partager avec elles sans avoir à l'appeler. »
17:48Et cela rend les choses plus pratiques pour vous.
17:52Et c'est par commodité que nous avons cédé nos données, notre attention.
17:57En 2016, quand j'ai dit aux gens que les préjudices en ligne causaient des préjudices dans la vie réelle,
18:02je me souviens d'avoir été traité comme si j'étais fou.
18:05Les gens se moquaient de moi en me demandant « Oui, mais c'est en ligne, quel est l'impact dans le monde réel ? »
18:12Mais depuis le 6 janvier 2021, je pense que plus personne ne se pose la question.
18:18Il est temps que quelqu'un fasse quelque chose.
18:20Et Mike Pence, j'espère que vous allez vous lever pour le bien de notre Constitution et pour le bien de notre pays.
18:27Et si vous ne le faites pas, je serai très déçu de vous, je vous le dirai en ce moment.
18:36Les algorithmes de Facebook ont été développés depuis le début des années 2000.
18:41Les algorithmes de Facebook ont été développés depuis le début des années 2000.
18:44Les algorithmes de Facebook ont amplifié le contenu nuisible qui a conduit au 6 janvier.
18:51Ils proposaient à des personnes qui étaient sensibles au discours sur le soi-disant vol de l'élection
18:57de rejoindre des groupes qui ont pu s'enflammer et croître en quelques heures jusqu'à des centaines de milliers
19:03grâce à leurs algorithmes et grâce à leurs systèmes de recommandation.
19:08Alors pourquoi cela arrive ? Pourquoi en sommes-nous là ?
19:12La triste vérité, c'est que les entreprises de réseaux sociaux ont découvert que donner la priorité à la haine,
19:18à la désinformation, au conflit et à la colère était très rentable.
19:22Cela maintient les utilisateurs captifs pour les exposer aux publicités.
19:28Avant l'insurrection et après l'insurrection, j'ai utilisé un profil Facebook factice
19:33qui n'a fait que rejoindre des groupes de milices et échanger avec des groupes extrémistes sur la plateforme.
19:39Après l'insurrection, Facebook a non seulement inséré dans mon fil d'actualité toute une série de fausses déclarations sur l'élection,
19:47mais il les a accompagnées de publicités pour du matériel de type équipement militaire.
20:04Des armures, des gilets pare-balles, des étuis pour armes à feu, des sites pour tirer avec plus de précision.
20:11C'est exactement le type d'équipement que Facebook a proposé aux utilisateurs dans le sillage du 6 janvier.
20:21Nous avons également examiné quels centres d'intérêt l'entreprise a utilisé pour cibler cette personne.
20:27Si vous allez sur votre profil Facebook, après de nombreuses étapes,
20:31vous pouvez découvrir les raisons pour lesquelles une publicité vous est montrée et quels centres d'intérêt ils ont ciblés.
20:39Et l'un des mots-clés pour ce profil était « milices ».
20:44Or, quelques mois plus tôt, en août 2020, Facebook avait annoncé publiquement qu'ils avaient banni les milices et les mouvements extrémistes nationaux de leur plateforme.
20:54Mais non seulement ces mouvements étaient actifs,
20:57mais ils constituaient une catégorie d'intérêts publicitaires à cibler pour que Facebook en tire profit.
21:12Je suis Guillaume Chalot. J'ai fait une école d'ingénieur à Lille, puis une thèse en intelligence artificielle.
21:18J'ai été embauché par Google. On travaillait sur les recommandations de YouTube.
21:24Et on essayait de faire certaines recommandations, une stratégie A contre une stratégie B,
21:30et on voyait si la stratégie de recommandation A de vidéo était plus efficace,
21:35c'est-à-dire qu'elle retenait l'utilisateur plus longtemps sur la plateforme que la stratégie B.
21:42Tout ce que nous faisons en ligne est examiné soigneusement par une intelligence artificielle.
21:47Chaque clic, chaque scroll, chaque pause, chaque minute des vidéos que nous regardons
21:53nourrit les algorithmes qui adaptent sur mesure les recommandations qui s'affichent sur nos écrans.
21:59J'ai fait un voyage en bus avec quelqu'un qui regardait des théories du complot après théorie du complot.
22:06Il me disait, mais il y a tellement de vidéos comme ça, il y a tellement de vidéos qui disent la même chose,
22:10que ça ne peut pas être faux.
22:12Et là, ce que j'ai compris, c'est que ce qu'il convainquait, ce n'était pas l'argumentaire dans ces vidéos,
22:18c'était la répétition de ces vidéos.
22:20Et la répétition de ces vidéos, c'était exactement ce qu'on essayait de faire à Google
22:26quand on essayait de lui faire regarder le plus de vidéos possible.
22:31Du coup, quand j'ai vu ça, je me suis dit, il faut que je vois si c'est juste cette personne qui voit des théories du complot,
22:38ou si c'est l'algorithme de YouTube qui recommande des théories du complot à tout le monde.
22:47En 2016, j'ai commencé à créer Algo Transparency.
22:50J'ai fait un robot qui va sur YouTube et qui suit les recommandations.
22:55Et ce que j'ai découvert, c'est qu'en fait, oui, l'algorithme de recommandation de YouTube
22:59avait une tendance à massivement recommander ces théories du complot parce qu'elles génèrent du temps de vue.
23:05Comme cette personne qui avait passé six heures à les regarder de suite.
23:09Pour l'algorithme, c'est une mine d'or, donc il va essayer de promouvoir ce type de vidéos.
23:17Alors dans mon travail à Google, j'ai essayé de proposer plusieurs systèmes de recommandations de contenu
23:23qui permettaient à l'utilisateur de découvrir des nouveaux contenus, de découvrir différents points de vue.
23:29Et je me suis rendu compte qu'à chaque fois que je proposais ça,
23:32et non seulement à chaque fois que je proposais ça,
23:34mais à chaque fois que d'autres ingénieurs à l'intérieur de Google proposaient ce type d'algorithme,
23:38Google n'était pas intéressé.
23:43Mon manager m'a dit, attention, je continuerai pas à travailler là-dessus si j'étais toi.
23:48Après, pendant six mois, j'ai suivi ses conseils, j'ai arrêté de faire ça.
23:52Et quand je me suis remis à travailler là-dessus, j'ai été licencié.
23:57Les théories du complot sont le fruit d'un phénomène psychologique appelé « anxiété épistémique ».
24:02C'est la sensation de ne pas connaître les réponses, mais aussi de ne pas savoir comment les trouver.
24:07L'un de nos rapports de recherche, Malgorithm, a prouvé que si vous aimiez les théories du complot Covid,
24:13Instagram vous donnerait du guanone, vous nourrirait d'antisémitisme dans l'algorithme de recommandations.
24:19Parce que le réseau connaît le fonctionnement de notre cerveau,
24:22basé sur des milliards de milliards de clics, observant les données de milliards de personnes,
24:26il connaissait ce phénomène psychologique.
24:29Il vous alimente constamment, et pendant tout ce temps, vous cliquez, vous cliquez, vous regardez,
24:34vous faites défiler, défiler, défiler, et tous les trois postes, il y a une publicité.
24:39De l'argent.
24:41Tous les trois postes, une autre publicité.
24:43Et c'est comme ça qu'on devient riche à 100 milliards de dollars en piratant nos cerveaux.
24:47Les pires tendances de notre cerveau.
24:50Comme pour n'importe quel autre secteur d'activité,
24:53les entreprises de publicité en ligne doivent continuellement étendre leur portefeuille de clients.
24:58Et lorsque le recrutement arrive à saturation sur un marché, il faut alors explorer de nouveaux horizons.
25:04Mais pour que quelqu'un puisse utiliser un réseau social, il y a une condition première,
25:08il lui faut un accès à Internet.
25:11Des milliards de personnes dans le monde n'ont pas accès à Internet, ou n'en ont pas les moyens.
25:16Mark Zuckerberg a donc eu l'idée de connecter les personnes qui n'ont pas accès à Internet.
25:24Facebook a lancé un programme appelé Internet.org dans des pays comme les Philippines, l'Indonésie ou le Brésil.
25:30Et c'est associé à des fournisseurs d'internet.
25:33Tout le monde pouvait donc utiliser ces plateformes Internet sans avoir à supporter des coûts de données très élevés.
25:39C'était révolutionnaire.
25:42Quand vous entendez l'expression « Facebook, c'est Internet » dans la plupart des pays du monde,
25:47c'est ce qu'ils veulent dire.
25:49Il n'y avait pas d'internet.
25:51C'est ce qu'ils voulaient dire.
25:53C'est ce qu'ils voulaient dire.
25:55C'est ce qu'ils voulaient dire.
25:57C'est ce qu'ils voulaient dire.
26:00C'est ce qu'ils voulaient dire.
26:02Il n'y avait pas d'Internet en dehors de Facebook.
26:05C'était l'univers dans lequel les gens pouvaient faire des recherches.
26:08On ne pouvait pas aller sur Google pour savoir si quelque chose était vrai ou non.
26:12Quand vous associez ce pouvoir et cet Internet étroit à des populations numériquement analphabètes
26:20et à une abondance d'informations erronées et nuisibles qui ne sont pas modérées dans les langues étrangères,
26:27vous obtenez un désastre complet.
26:46Au Myanmar, Facebook ne disposait pas à l'époque de modérateurs parlant le birman.
26:51Ils ont lancé le programme de base gratuite Internet.org.
26:57De nombreuses personnes se sont connectées et des tonnes d'informations erronées et de discours haineux ont proliféré.
27:04Nous avons vu la même chose au Kenya, en Ethiopie, au Moyen-Orient, dans des pays comme l'Irak.
27:11Ces programmes de base gratuits étaient essentiellement de l'Internet gratuit,
27:15mais la version Facebook d'Internet, qui est un paysage en ligne non modéré et rempli de désinformations.
27:23Les géants des réseaux sociaux déclarent que des investissements majeurs sont faits
27:27pour identifier et empêcher la diffusion des discours de haine.
27:31Une combinaison de modérateurs humains et d'outils d'intelligence artificielle
27:35est déployée afin de monitorer le contenu des publications, qu'elles soient publicitaires ou non.
27:40Mais ces filtres sont-ils vraiment efficaces ?
27:44Ces trois dernières années, nous avons enquêté sur la façon dont les entreprises de réseaux sociaux
27:49perpétuent des violations des droits de l'homme et sapent la démocratie dans le monde.
27:57Nous avons commencé à étudier les élections au Kenya quelques mois avant qu'elles aient lieu.
28:02Nous avons décidé d'étudier la capacité de ces plateformes à détecter les discours haineux.
28:08Nous avons étudié Facebook dans ce cas précis,
28:10et testé des publicités incitant à la violence avant les élections en Swahili et en Anglais.
28:19Selon Meta, chaque publicité publiée sur Facebook
28:22fait l'objet d'un processus d'examen rigoureux à plusieurs niveaux avant d'être publiée.
28:27Cette analyse méticuleuse vise à garantir que les annonceurs respectent les règles et les normes communautaires de Meta.
28:33Entre autres, la plateforme interdit strictement l'inclusion de blasphèmes,
28:37de nudités excessives ou d'informations erronées dans les publicités.
28:42Nous avons trouvé des exemples de discours haineux et de désinformation,
28:46puis nous les avons transformés en publicités très simples.
28:51Nous avons choisi un contenu vraiment horrible en nous disant que les plateformes n'allaient sûrement pas l'approuver.
28:57C'était tellement évident ou tellement extrême.
29:00Nous avons ensuite téléchargé ces messages publicitaires sur les plateformes
29:03et attendu de voir si elles approuvaient les annonces.
29:06Nous attendions à ce que les annonces en Anglais soient rejetées et que les annonces en Swahili soient approuvées.
29:11Ce n'est pas ce qui s'est passé.
29:13Toutes les annonces ont été approuvées.
29:15Mais à un premier temps, un certain nombre d'annonces en Anglais ont été bloquées parce qu'elles contenaient des fautes d'orthographe.
29:22L'intelligence artificielle a donc été en mesure de les détecter.
29:25Une fois les fautes d'orthographe corrigées, toutes les annonces ont été approuvées.
29:34Nous avons ensuite contacté Facebook pour savoir ce qu'ils avaient à dire sur le sujet.
29:38Ils ont dit que c'était une erreur, qu'ils n'auraient pas dû approuver ces annonces.
29:41Nous leur avons donc donné une nouvelle chance,
29:43et nous avons testé d'autres publicités maintenant qu'ils avaient été alertés sur l'importance du risque.
29:48C'était quelques semaines avant les élections,
29:50un moment où ils auraient dû mobiliser des ressources importantes pour la modération du contenu dans ce pays.
29:54Mais une fois de plus, toutes les publicités ont été immédiatement approuvées.
30:06En menant des tests dans différentes langues et différents pays,
30:09les enquêtes de Global Witness ont révélé que les outils de modération de contenu
30:14ont souvent du mal à détecter les exemples les plus évidents de discours haineux.
30:23Comme tu sais, on va publier la semaine prochaine un nouveau rapport
30:26sur les profits que Twitter tire de la haine et de la désinformation.
30:29On a calculé combien Twitter gagne grâce aux comptes
30:32qui diffusent des messages haineux à l'encontre de la communauté LGBTQ+.
30:37Donc, on a des exemples de publicités d'entreprises
30:40qui apparaissent à côté de ce contenu vraiment dangereux anti-trans et anti-LGBTQ+.
30:48Oui.
30:49Quelles entreprises ?
30:50On a identifié les publicités de cinq grandes marques,
30:52Fortune Magazine, Kindle, Disney, NBA et T-Mobile.
30:56Elles apparaissent à côté de contenus anti-LGBTQ+.
31:00C'est un petit nombre de comptes qui sont responsables de ces publications.
31:04Ils rapportent à Twitter 6,4 millions en recettes publicitaires.
31:08On espère que si on expose ça à un public plus large,
31:11ça aura des conséquences politiques, économiques et sociales
31:14pour la réputation de leur société.
31:16Le problème avec Elon Musk, c'est qu'il a désespérément besoin de revenus
31:20et donc qu'il est prêt à accepter ce genre de rhétorique haineuse
31:23s'il peut en tirer de l'argent.
31:30Alors que de nombreuses organisations et annonceurs
31:32plaident pour un investissement accru dans la modération des contenus,
31:36les réseaux sociaux soulignent la nécessité de trouver un équilibre
31:39qui préserve la liberté d'expression.
31:41Des entreprises comme X, anciennement Twitter,
31:44affirment que leurs utilisateurs ont le droit de s'exprimer librement
31:48tant qu'ils restent dans le cadre de la loi.
32:02Elon Musk s'est lancé dans une bataille juridique avec une ONG,
32:05connue pour avoir critiqué X, anciennement Twitter.
32:08Que répondez-vous à l'avocat d'Elon Musk qui soutient que vous avez tort ?
32:12La vérité, c'est qu'il cherche une raison de vous faire croire
32:15que vous avez tort.
32:17Il a été l'un des premiers à faire la preuve de sa liberté de l'exprimer.
32:20Il a été le premier à faire la preuve de sa liberté de l'exprimer.
32:23Il a été le premier à faire la preuve de sa liberté de l'exprimer.
32:26Il a été le premier à faire la preuve de sa liberté de l'exprimer.
32:30La vérité, c'est qu'il cherche une raison de nous attaquer
32:33parce que nous savons que quand il a pris les rênes de Twitter,
32:36il a envoyé un signal aux racistes, aux misogynes, aux homophobes,
32:39aux antisémites en disant que Twitter était désormais
32:42une plateforme de liberté d'expression.
32:44Il les a accueillis à bras ouverts.
32:46Il a même rétabli des comptes qui avaient été suspendus
32:48pour avoir diffusé ce genre de choses.
32:50Et maintenant, il s'étonne que des gens puissent quantifier
32:54l'augmentation de la haine et de la désinformation sur sa plateforme.
32:59Donc, vous n'avez jamais regardé ce produit en ligne.
33:09Tout ce que vous avez fait, c'est le mentionner dans une conversation
33:12avec votre téléphone à proximité.
33:14Et comme par magie, en l'espace de quelques minutes, heures ou jours,
33:18une publicité pour cette marque précise vous est montrée
33:21et vous avez la chair de poule.
33:23La question est, est-ce que votre téléphone, Facebook, Google
33:27et d'autres sociétés de publicité vous écoutent pour cibler
33:29les publicités qui vous sont destinées ?
33:31D'après toutes les recherches effectuées sur ce sujet,
33:34d'après tout ce qu'on a recueilli, la réponse est non.
33:37Ils ne vous écoutent pas pour cibler leur publicité sur vous.
33:40Et je sais que les gens refusent d'accepter ça et de le croire
33:43parce qu'il est arrivé que vous n'ayez jamais mentionné
33:45cette marque auparavant dans votre vie, ni vous, ni votre ami,
33:49et tout à coup, elle est dans votre fil Instagram.
33:52Et ça semble effrayant et fou, un signe qu'ils vous écoutent.
33:56Mais aucune preuve n'a jamais été apportée pour confirmer
33:58que c'est bien ce qui se passe.
34:00Cette question a été étudiée en détail.
34:03La raison pour laquelle ça se produit est qu'ils ont tellement
34:06d'autres points de données sur vous que la probabilité
34:10que vous citiez cette marque dans une conversation
34:13est à peu près la même que celle de vous voir cibler
34:16par une publicité pour cette marque.
34:18Ils disent que c'est juste qu'ils vous connaissent si bien,
34:20vous et vos amis, que vous êtes persuadés qu'ils vous écoutent.
34:27Les entreprises qui vivent de la publicité en ligne
34:30s'appuient sur les données de leurs utilisateurs
34:32pour attirer les annonceurs et gagner de l'argent.
34:35Cela a conduit à la création d'un tout nouveau marché
34:38basé sur la commercialisation de ces données.
34:41Des milliers d'entreprises rivalisent ainsi pour collecter,
34:44organiser et donner du sens aux quantités massives
34:47de données que nos appareils génèrent chaque jour.
34:50La vente de données, c'est une industrie mondiale.
34:53Si vous vivez dans un pays où il y a des smartphones,
34:55des applications mobiles, alors un courtier en données,
34:58sous une forme ou une autre, collecte ou va bientôt
35:01essayer de collecter des données sur vous.
35:13Vous pouvez leur acheter à peu près tout ce que vous voulez.
35:16Vous avez des listes de jeunes qui aiment les voitures rapides
35:20ou de retraités qui veulent faire une croisière.
35:23Si vous avez un smartphone à côté d'un autre smartphone
35:26sur une table de nuit six nuits par semaine
35:29et que la septième nuit, il est à côté d'un autre téléphone,
35:32c'est peut-être le signe d'une liaison.
35:35Tout cela existe et c'est beaucoup moins cher
35:37que la plupart d'entre nous n'imaginent.
35:43En 2023, notre équipe à Duke a publié une étude
35:46signée par Johan Kim sur les courtiers en données
35:49et la vente de données de santé mentale.
35:53Cette étudiante a contacté quelques dizaines de ces entreprises
35:56pour leur demander d'acheter des informations
35:59sur des personnes souffrant de dépression, d'anxiété
36:02ou de différents troubles mentaux.
36:07Nous voulions vérifier ce qu'on peut acheter.
36:09Si je suis un annonceur, un escroc, une société pharmaceutique
36:13et que je souhaite acheter des données sur les problèmes
36:15de santé mentale des gens, est-ce que je peux le faire ?
36:18Où puis-je les obtenir ? Combien ça coûte ?
36:21Et ce qu'elle a trouvé est assez troublant.
36:25Une douzaine d'entreprises lui ont proposé de lui vendre
36:28des données sur les personnes souffrant de troubles mentaux
36:31ou sur des personnes souffrant de dépression,
36:34les prescriptions spécifiques qu'elles pourraient prendre
36:36pour la dépression.
36:38Est-ce qu'elles ont un trouble bipolaire
36:40ou un trouble obsessionnel compulsif ?
36:42Est-ce quelqu'un qui souffre non seulement d'anxiété
36:45mais d'un type particulier d'anxiété ?
36:49Chaque fois que notre équipe a demandé à acheter des données
36:52à des courtiers, ils ont essayé de nous en vendre plus.
36:55On l'a constaté dans l'étude sur la santé mentale.
36:58Outre le type d'anxiété d'une personne
37:00ou l'antidépresseur qu'elle prend,
37:02vous pouvez également obtenir des informations
37:04sur ses finances, son lieu de résidence,
37:07ses caractéristiques démographiques
37:09et regrouper le tout dans un ensemble.
37:13Tous ces éléments donnent un aperçu très précis
37:16d'une personne sans qu'elle le sache.
37:26On peut acheter des données sur l'état de santé des gens
37:29pour 10, 20 ou 30 cents par personne.
37:33Si je choisis une ville et que je veux acheter des données
37:36sur tout ce que les courtiers en données ont
37:38sur les habitants de cette ville,
37:40je peux ne dépenser que quelques centaines
37:42ou quelques milliers de dollars pour un ensemble de données.
37:48L'objectif de l'exploitation de toutes ces données
37:50qui nous concernent est de rendre la publicité numérique
37:53plus efficace en affichant des annonces
37:55qui vont nous toucher.
37:57Mais ce système de surveillance de fait
37:59peut aussi conduire à l'exposition publique
38:01d'informations personnelles,
38:03même quand nous nous y attendons le moins.
38:07J'ai beaucoup enquêté sur la façon dont les gouvernements
38:10utilisent les données publicitaires.
38:12Et de fil en aiguille, j'ai commencé à m'intéresser
38:15à l'impact de la diffusion et de la vente de ce type de données
38:18sur la vie privée des citoyens.
38:20J'ai notamment enquêté sur une société publicitaire
38:23appelée Near Intelligence.
38:30Les consommateurs volent ou conduisent en vacances ?
38:33Sont-ils à l'hôtel, au camp ou à la maison d'un ami ?
38:36S'ils achètent en ligne, en boutique ou les deux ?
38:39S'ils mangent à l'intérieur ou à l'extérieur ?
38:42C'est là que vient Near.
38:44Nous sommes les datastorytellers.
38:47Near est une société indienne spécialisée
38:50dans l'analyse de données.
38:52C'est l'une des nombreuses entreprises
38:54qui vendent à leurs clients des données
38:56sur les déplacements des téléphones.
38:58Near possède des données.
39:00Parmi leurs clients,
39:02des centaines et des centaines d'entreprises publicitaires
39:05utilisent les données de Near
39:07pour comprendre les mouvements des appareils
39:10ou les intérêts des consommateurs
39:12et cibler leur publicité
39:14en fonction de leur situation géographique sur la planète.
39:21Le géorepérage est une technique publicitaire courante.
39:24Elle consiste à tracer des lignes invisibles sur une carte
39:27et à voir quels appareils apparaissent à l'intérieur de ces lignes.
39:30Donc, si vous essayez de toucher les amateurs de pizza,
39:33vous pouvez géorepérer une pizzeria.
39:35Si vous essayez d'atteindre des lycéens,
39:37vous pouvez géorepérer un lycée.
39:39Si vous essayez d'atteindre des pratiquants religieux,
39:42vous pouvez géorepérer une mosquée ou une église.
39:45Il s'agit donc essentiellement d'une clôture invisible
39:48que vous dessinez autour d'un point sur la Terre
39:51et qui vous permet de voir quel téléphone
39:53se situe à l'intérieur de cette zone.
39:56NIR possède des données qui peuvent vous aider à faire ça.
39:59Et en menant ce type d'enquête sur NIR,
40:02j'ai commencé à entendre des personnes proches de l'entreprise
40:05parler d'une campagne publicitaire menée à l'aide de leurs données
40:08par un groupe conservateur du Wisconsin.
40:14Veritas Society, c'est un groupe conservateur anti-avortement
40:17qui vise à convaincre les femmes qui envisagent d'avorter
40:20de ne pas le faire.
40:22En l'occurrence, Veritas souhaitait diffuser des publicités numériques.
40:25Et le meilleur moyen d'atteindre ces personnes,
40:27c'était de savoir qui se rendait dans les cliniques
40:29pratiquant l'interruption volontaire de grossesse.
40:31C'est là que le fournisseur de données NIR intervenait.
40:34Ce sont eux dont les outils et les données
40:36ont été utilisés pour cibler cette campagne particulière.
40:41Dans ce cas précis, leur technologie a permis
40:43de dessiner des barrières virtuelles autour des centres d'IVG
40:46et des parkings situés à proximité de ces centres.
40:49Donc les femmes qui se rendaient dans ces cliniques,
40:52en se garant sur le parking, franchissaient cette barrière invisible
40:55tracée autour des cliniques avec l'outil de NIR,
40:57le vendeur de données.
41:02À ce moment-là, Veritas les enregistrait
41:04comme ayant visité cet endroit
41:06et créait ce qu'on appelle un public.
41:11Imaginez que vous êtes une femme
41:13qui a visité l'une de ces cliniques spécialisées dans l'IVG.
41:16Si vous avez été repérée par cette campagne publicitaire,
41:18alors, dans les heures et les jours
41:20qui suivent votre sortie de la clinique,
41:22en faisant défiler Instagram,
41:24en étant sur Snapchat, sur Facebook,
41:26vous pourriez commencer à voir des publicités
41:28vous disant que vous avez encore une chance
41:30d'arrêter la procédure d'avortement.
41:34NIR, le courtier en données,
41:36a des politiques contre le géorepérage des lieux sensibles.
41:39À un moment, ils ont découvert que Veritas Society
41:41avait tracé des barrières virtuelles
41:43ou des polygones autour des centres d'IVG.
41:45Et ils leur ont dit que ce n'était pas
41:47une utilisation appropriée des données de NIR.
41:49Et ils ont mis fin à cette campagne publicitaire.
42:02La campagne de la société Veritas a duré deux ans,
42:05diffusant plus de 14 millions de publicités
42:07sans que NIR ou les plateformes
42:09qui les hébergeaient s'en aperçoivent.
42:11Contacté, META, la société mère d'Instagram et de Facebook,
42:15a répondu que les publicités
42:17avaient été indûment déclarées à politique,
42:19alors qu'un contenu concernant l'avortement
42:21aurait dû être déclaré comme une publicité politique.
42:26C'est une version 21e siècle,
42:28des manifestants qui se tiennent devant les lieux
42:30pratiquant l'IVG avec des pancartes.
42:33Dans ce cas, la technologie a été utilisée
42:35pour cibler les personnes cherchant à interrompre leur grossesse.
42:38Mais elle pourrait tout aussi bien être utilisée
42:40pour d'autres choses.
42:42Les données sont là,
42:44et tout le spectre politique peut les utiliser
42:46comme bon leur semble.
42:58Grâce aux données partagées par nos appareils,
43:01les plateformes ont poussé leur capacité de ciblage
43:03à un niveau de précision jamais atteint auparavant.
43:06Mais cette puissance de ciblage
43:08ne suscite pas seulement l'intérêt des annonceurs traditionnels.
43:12En 2019, j'ai vu une publicité sur Facebook.
43:20Elle semblait provenir d'un journal suédois.
43:26C'était une photo de deux célébrités suédoises.
43:31Elles promettaient que si vous investissiez 250 euros,
43:35votre mise augmenterait.
43:39J'avais déjà vu ce genre de publicité auparavant,
43:43mais cette fois-ci, j'ai cliqué sur le lien.
43:51Je m'appelle Eric Vandenberg, je suis un journaliste néerlandais
43:54et je fais des enquêtes et des reportages sur la technologie.
43:57Je pense que, comme la plupart des gens,
43:59j'ai vu ces publicités en ligne très souvent.
44:02L'une des plus courantes, c'est
44:04« le bitcoin rend les célébrités encore plus riches ».
44:06Je me suis dit qu'il s'agissait d'une histoire intéressante.
44:08J'ai donc commencé à enquêter pour savoir
44:10qui se cachait vraiment derrière ces annonces.
44:13J'ai visité les forums en ligne où se retrouvent les personnes
44:15qui font ce genre de choses, et je me suis fait passer
44:17pour quelqu'un qui souhaitait travailler pour eux
44:19afin de gagner un peu d'argent.
44:22Il n'a pas été très difficile de les joindre.
44:25Ils sont toujours à la recherche de nouvelles personnes
44:27pour faire leur sale boulot et diffuser ces publicités
44:29pour des arnaques sur les réseaux sociaux.
44:32Je les ai contactés et nous avons échangé
44:34les données Skype.
44:36Ensuite, j'ai reçu un appel, et au bout du fil
44:38se trouvait un certain Vladislav.
44:40Il parlait très bien l'anglais.
44:42Il était basé à Kiev.
44:44Il m'a dit « Ok, je vais vous envoyer un kit complet ».
44:47Et il m'a envoyé un dossier compressé.
44:51Il contenait au total 48 articles bidons
44:54ciblant 11 marchés différents.
44:58L'idée était que je les diffuse sur les réseaux sociaux
45:01et qu'à chaque fois que je réussirais à accrocher quelqu'un
45:03qui donnerait ses informations de carte de crédit,
45:05je serais payé 600 dollars.
45:09Les arnaques numériques sont souvent déclinées
45:11dans plusieurs langues et adaptées à des marchés spécifiques.
45:14Les habitants de chaque pays voient des publicités
45:16avec des célébrités qui les concernent.
45:19Et les capacités de ciblage avancées des plateformes
45:21donnent aux escrocs les moyens de se concentrer
45:23sur les personnes les plus vulnérables.
45:28L'une des raisons pour lesquelles ça fonctionne,
45:30c'est que la publicité numérique est très bon marché.
45:32Si vous ciblez un million de personnes,
45:34il y en aura toujours quelques-unes dans ce groupe
45:36qui tomberont dans le piège de cette escroquerie.
45:39C'est la raison de son succès.
45:44Je pouvais voir mon compte sur leur plateforme.
45:51L'argent augmentait chaque jour.
45:53Il montait, montait, montait.
45:58C'était beaucoup d'argent.
46:02Mais tout à coup, mon compte est passé
46:05de plusieurs millions à zéro.
46:11Tout avait disparu.
46:17J'avais investi 360 000 euros
46:22et j'ai tout perdu.
46:27Faux sites de vente, escroqueries à l'investissement,
46:30vols d'informations bancaires…
46:32Dans le monde entier,
46:34les services de police spécialisés dans la cybercriminalité
46:37sont inondés de rapports de victimes d'arnaques en ligne.
46:40Le problème a pris des proportions tellement alarmantes
46:43que le FBI, dans un message d'intérêt public,
46:46conseille aux internautes d'utiliser un bloqueur de publicité.
46:50Ces escrocs payent Google et Facebook.
46:53Les intérêts financiers des grandes entreprises technologiques
46:56vont donc à l'encontre d'un contrôle trop strict.
47:00Ces réseaux font des choses pour retirer ces publicités.
47:03Ce n'est pas comme s'ils laissaient faire.
47:06Mais on peut se demander s'ils font vraiment tout ce qu'ils peuvent.
47:12Je ne pouvais plus respirer, plus manger, plus dormir.
47:16C'était dévastateur.
47:19J'avais une avocate.
47:22Elle m'a dit « Inger, vous devez vous préparer à perdre votre maison ».
47:28Je me suis dit « Non, non, c'est hors de question.
47:33Je ne vais pas quitter ma maison ».
47:39Mais personne ne comprenait ma situation.
47:44Alors j'ai dû me résoudre à leur laisser ma maison.
47:52C'était horrible.
47:56Lorsque j'ai enlevé les photos de mes petits-enfants du mur,
48:11ça détruit votre vie.
48:15Que ce soit au niveau individuel ou collectif,
48:18la question se pose de savoir comment prévenir les dangers
48:21créés par la publicité en ligne.
48:24En Europe, un nouveau cadre légal se profile à l'horizon.
48:27Le Digital Services Act, ou règlement sur les services numériques.
48:31Son objectif est de créer un espace numérique plus sûr
48:34en s'attaquant aux contenus illégaux, à la désinformation
48:38et aux activités en ligne préjudiciables.
48:41C'est fait.
48:43Nous avons obtenu l'accord politique pour le règlement sur les services numériques.
48:47C'est désormais une réalité.
48:49La démocratie est de retour pour nous aider à obtenir nos droits
48:52et être en sécurité lorsque nous sommes en ligne.
49:02Que ce soit dans la rue ou sur nos écrans,
49:04nous devrions pouvoir faire nos achats en toute sécurité.
49:07Que nous tournions des pages ou que nous fassions défiler des pages,
49:10nous devrions pouvoir choisir et faire confiance aux informations que nous lisons.
49:17Beaucoup de choses sont illégales dans notre société.
49:20Vous ne pouvez pas vous tenir devant l'hôtel de ville
49:23et distribuer de la pornographie enfantine.
49:26Mais ce n'est pas la même chose en ligne.
49:29Qui est chargé de surveiller la place publique lorsque vous êtes en ligne ?
49:33L'objectif du règlement sur les services numériques
49:36est donc de s'assurer que ce qui est illégal hors ligne
49:39l'est aussi en ligne et soit traité comme tel.
49:42Les régulateurs font pression pour plus de contrôles
49:45et les entreprises font vraiment, vraiment beaucoup de lobbying
49:48pour empêcher ce genre de contrôles.
49:50Les consommateurs peuvent se plaindre par écrit,
49:53les familles peuvent faire savoir qu'elles ont été victimes d'une escroquerie,
49:56mais il faut le faire suffisamment fort pour faire face
49:59aux millions de dollars investis par les entreprises
50:02pour tenter d'empêcher ce type de réglementation de voir le jour.
50:132016 est en quelque sorte le point de rupture
50:16entre mon ancienne carrière de spécialiste du marketing
50:19et le moment où j'ai découvert pour la première fois
50:22que des publicités apparaissaient sur Breitbart.
50:25Et depuis, je n'ai jamais arrêté le combat.
50:28Le problème n'est toujours pas résolu.
50:31J'ai donc réorganisé toute ma carrière
50:34pour lutter contre ce problème.
50:40Et l'industrie de la publicité contrôle notre monde autant,
50:43plus que notre gouvernement à l'heure actuelle.
50:47Vous n'êtes pas du tout impuissant.
50:49Tout ce système a été construit pour vous,
50:51afin de vous atteindre, de se mettre en relation avec vous.
50:54Par conséquent, si vous, en tant qu'utilisateur,
50:57vous vous adressez à l'annonceur et vous lui dites que ça ne fonctionne pas,
51:00que ça a en fait l'effet inverse pour vous,
51:02alors il n'y a rien de plus important dans ce monde pour l'annonceur
51:05que de corriger ce problème.
51:07C'est comme ça qu'on crée le changement.
51:09Nous savons qu'il y a un problème, mais nous ne savons pas lequel.
51:12Et nous sommes en quelque sorte terrifiés.
51:14Nous sommes allongés dans notre lit,
51:16nous nous couvrons les yeux avec la couette et nous nous disons
51:19« il y a un monstre, mais je ne sais pas ce que c'est ».
51:22C'est vraiment important qu'à un moment donné,
51:24nous ayons le courage d'enlever cette couette
51:26et de comprendre ce qui est à l'origine de ces bruits,
51:28ce qui nous fait si peur et d'y faire face.
51:32Nous devons construire un mouvement.
51:34Ça ne s'arrangera que si on s'y met.
51:37Nous ne sommes pas hostiles à la technologie.
51:39J'utilise toutes ces plateformes,
51:41j'utilise cette technologie,
51:42mais de la même manière que je ne veux pas
51:44que mes vêtements ou mes chaussures soient fabriqués
51:46dans des ateliers clandestins,
51:48je ne veux pas que les plateformes technologiques
51:50que j'utilise pour communiquer avec ma famille
51:52et sur lesquelles je compte,
51:54soient, vous savez, des acteurs nuisibles
51:56dans l'écosystème socioculturel au sens large.
52:00Enfin compte, la motivation financière des escrocs,
52:03des désinformateurs et d'un large ventail
52:05de personnes malveillantes en ligne,
52:07cette motivation financière,
52:09c'est ce qui les pousse à faire ce métier.
52:12Donc, tant que les grands acteurs du marché
52:14ne seront pas disposés à faire preuve de transparence
52:16dans leurs activités,
52:18le système restera toujours une boîte noire et obscure.
52:20Et pourtant, 500 milliards de dollars y transitent chaque année.
52:25Le système économique de la publicité numérique
52:27a complètement changé le monde en ligne.
52:30Ce faisant, il nous a également changés,
52:33en tant qu'individus et en tant que société.
52:36Serons-nous capables de changer ce système à notre tour ?
52:55Et vous, quel type de publicité vous voyez ?
52:58Je reçois des publicités pour...
53:01Soyons honnêtes, des pulls en cachemire,
53:03parce que l'algorithme sait que je passe
53:05beaucoup trop de temps sur des sites web
53:07qui vendent des pulls en cachemire.
53:09Je vois des publicités pour la vie en plein air.
53:11Je n'ai pas vraiment de vie en plein air,
53:13je travaille beaucoup,
53:15mais je rêve d'une vie en plein air.
53:17Et je pense que ça a été repéré.
53:20Aujourd'hui, j'ai appris à entraîner mon algorithme.
53:23Sur Instagram, par exemple,
53:25je reçois beaucoup de publicités pour des jouets pour mon chat.
53:28Ça me fait du bien par rapport à mon travail de jour
53:30où je suis sur mon profil de militien
53:32et que je reçois des publicités
53:34pour des gilets pare-balles et des étuis d'armes.
53:36Quand je rentre chez moi, je vois les publicités
53:38pour des jouets pour chat.
53:40Ça me permet de me changer les idées.

Recommandations