00:00 Alors, qu'est-ce que c'est que la strutterphine ?
00:02 C'est un concept flou,
00:04 qui est en pleine définition,
00:06 mais grosso modo, c'est l'évolution,
00:08 l'adaptation, la disruption
00:10 d'un vieux concept
00:12 qui est la propagande. La propagande telle qu'elle a été
00:14 formalisée par Edward Bernays au début
00:16 du XXe siècle. Edward Bernays, c'est
00:18 le type qui a fait lire Wilson
00:20 sur un programme pacifiste
00:22 de non interventionnisme,
00:24 et qui, en cours de
00:26 mandat de Wilson, a fait
00:28 basculer l'opinion publique américaine
00:30 pour la convaincre de s'impliquer dans la première guerre mondiale.
00:32 Très fort. Il a aussi fait
00:34 myriade de choses comme
00:36 convaincre les femmes que fumer, c'était cool.
00:38 Et il a doublé
00:40 mathématiquement le marché de la cigarette
00:42 pour les cigarettiers. Il a fait une myriade
00:44 de choses comme ça, et il a mis au point
00:46 ce qu'on appelle pudiquement les relations publiques,
00:48 et ce qu'on peut appeler de façon plus
00:50 cash, la propagande, la version
00:52 occidentale de la propagande.
00:54 Ça a très très bien marché,
00:56 et ça repose essentiellement sur ce qu'on
00:58 appelle le système politico-médiatique,
01:00 c'est-à-dire l'alliance entre des politiques
01:02 qui savent utiliser, avec plus ou
01:04 moins de complicité, un système médiatique
01:06 qui transmet leur message
01:08 auprès d'une population
01:10 qui, par la suite, vote,
01:12 approuve ou rejette.
01:14 Tout ça a merveilleusement bien marché, jusqu'à
01:16 l'arrivée des fameux réseaux sociaux, qui sont
01:18 finalement assez récents, ça fait dix ans
01:20 que c'est
01:22 omniprésent et qu'on les
01:24 utilise tous, et
01:26 c'est là qu'on a vu arriver,
01:28 avec ces réseaux sociaux, une nouvelle façon
01:30 de faire de la propagande, de manipuler
01:32 l'opinion publique,
01:34 qu'on appelle aujourd'hui astroturfing.
01:36 Et ça regroupe une myriade de techniques
01:38 plus ou moins sophistiquées,
01:40 qui consistent là encore
01:42 de la même façon qu'Edouard Bernays
01:44 le faisait, à manipuler l'opinion publique,
01:46 mais cette fois-ci en utilisant non pas
01:48 les médias traditionnels, mais
01:50 les capacités offertes par les réseaux sociaux,
01:52 qui sont des outils beaucoup plus complexes
01:54 que les médias traditionnels,
01:56 parce que non seulement
01:58 ils changent l'interaction
02:00 et la relation
02:02 en matière d'information entre des émetteurs
02:04 et des récepteurs,
02:06 mais également ils transforment tous les récepteurs
02:08 en émetteurs, alors qu'auparavant ils étaient
02:10 sagement assis derrière un poste de télévision
02:12 et ils ingurgitaient de façon assez passive
02:14 l'information qu'on déniait leur donnée.
02:16 Là, c'est devenu beaucoup, beaucoup,
02:18 beaucoup plus complexe, ils régurgitent
02:20 l'information, ils la rediffusent, ils la
02:22 transforment éventuellement, et puis on peut
02:24 manipuler
02:26 les algorithmes, ou tricher avec
02:28 les algorithmes qui font cette
02:30 intermédiation entre les gens, entre
02:32 les médias et les gens, entre les politiques
02:34 et les gens, tout ça est devenu
02:36 incroyablement plus complexe,
02:38 beaucoup plus amusant,
02:40 et a donné naissance à tout
02:42 un tas de technologies, tout un tas de techniques,
02:44 la plus connue étant sans doute Cambridge
02:46 et Anitika, qui ont permis de
02:48 manipuler tout un tas d'opinions publiques
02:50 dans tout un tas de pays.
02:52 Ça fait maintenant
02:54 près de
02:56 13, 14 ans
02:58 que c'est pratiqué à droite à gauche,
03:00 ça a été lourdement inspiré
03:02 par des techniques militaires de
03:04 psyops qui se sont reconverties
03:06 sur les réseaux sociaux, d'abord
03:08 parce que dans un premier temps,
03:10 ce sont ces mêmes psyops qui ont été utilisés,
03:12 la trace la plus ancienne que je connais,
03:14 c'est 2008, des opérations
03:16 de contre-insurrection au Yémen
03:18 qui utilisaient les réseaux sociaux.
03:20 Et là, c'était vraiment de la psyops
03:22 militaire transcrite. Et puis,
03:24 petit à petit, ça a été utilisé pour manipuler
03:26 tout un tas d'élections,
03:28 notamment, dans un premier temps en Afrique,
03:30 qui est devenu vraiment le terrain de jeu
03:32 préféré de l'astro-turfing, et puis
03:34 au bout d'un moment,
03:36 fatalement, c'est arrivé sur
03:38 des terres occidentales,
03:40 notamment avec l'affaire Cambridge et Anitika,
03:42 mais Cambridge et Anitika, avant de
03:44 se mêler des élections et
03:46 d'amener au pouvoir Donald Trump,
03:48 a
03:50 disrupté quelque chose comme 50 élections
03:52 dans
03:54 plusieurs douzaines de pays africains,
03:56 ainsi qu'en Asie du Sud-Est,
03:58 et ils ont fait leur classe
04:00 dans des enjeux
04:02 plus ou moins démocratiques, mais surtout
04:04 des pays beaucoup plus petits que les États-Unis,
04:06 avant de faire ce coup de maître
04:08 qui a été, coup sur coup, le Brexit
04:10 et l'élection de Donald Trump.
04:12 Donc tout ça est
04:14 encore en pleine redéfinition,
04:16 tout ça est
04:18 alimenté par tout un tas
04:20 de technologies qui évoluent au
04:22 fil du temps, par tout un tas de nouveaux
04:24 réseaux sociaux qui apparaissent,
04:26 par tout un tas de règles
04:28 algorithmiques qui changent,
04:30 vous avez peut-être entendu parler du changement d'algorithmie de Facebook
04:32 en 2018, ça a eu un impact
04:34 sur ce business de l'astro-turfing,
04:36 et puis tout ça est supporté par
04:38 des dizaines d'entreprises
04:40 comme Génetica,
04:42 tout un tas d'États qui s'y sont mis,
04:44 les Américains s'y sont mis très très
04:46 tôt, on a des traces
04:48 d'opérations d'astro-turfing en Libye
04:50 en 2010, pour
04:52 accompagner ce qui allait être
04:54 la guerre en Libye en 2011,
04:56 et donc au passage,
04:58 une démonstration assez flagrante
05:00 à travers cette opération qui s'appelle Cyberdon,
05:02 que tout ça avait été préparé
05:04 bien avant le printemps arabe,
05:06 on a des traces
05:08 d'astro-turfing dans, je l'ai dit,
05:10 plusieurs dizaines de pays
05:12 africains,
05:14 et on a des traces
05:16 de plus en plus sophistiquées, le nec
05:18 plus ultra en termes de sophistication algorithmique,
05:20 c'est sans conteste qu'un budget à Ética,
05:22 mais
05:24 on n'est pas à l'abri de choses
05:26 encore plus incroyables
05:28 à venir dans de futures élections.
05:30 L'un des principaux
05:32 intérêts de ce domaine, c'est que c'est
05:34 en constante évolution, on est vraiment
05:36 au tout début, donc on est un peu
05:38 à la même période que
05:40 les années 20 pour la propagande
05:42 et les relations publiques, c'est la naissance
05:44 de ce concept, la mise au point
05:46 de ce concept,
05:48 on voit apparaître quelques
05:50 grandes puissances, on a
05:52 les russes avec la fameuse armée de trolls russes,
05:54 qui est une approche
05:56 pas forcément très subtile,
05:58 mais au final pas con du tout
06:00 étant donné les capacités de l'État russe,
06:02 on a une approche
06:04 américaine évidemment, ils y sont mis dès le départ,
06:06 les israéliens également,
06:08 ils y sont mis dès le départ, les anglais
06:10 s'y sont mis assez tôt,
06:12 les anglais ont développé des outils de type
06:14 comme le budget à Ética dès 2015,
06:16 et puis comme d'habitude, les français sont à la bourre,
06:18 on s'y est mis très très tard,
06:20 en grande partie parce qu'on a longtemps considéré que tout ça
06:22 était des théories conspies et que jusqu'à
06:24 ce que les russes se mêlent à l'élection de Donald Trump,
06:26 c'était officiellement des théories conspies.
06:28 Donc ça nous a fait prendre
06:30 un retard absolument considérable.
06:32 Au final, on doit avoir une douzaine
06:34 de nations dans le monde qui jouent à ce jeu-là,
06:36 et peut-être une centaine
06:38 d'entreprises qui proposent ce type de
06:40 service, et c'est le tout début début début.
06:42 Très rapidement,
06:44 on va trouver des milliers d'entreprises qui
06:46 proposent ce type de service, et tous
06:48 les États auront ce genre
06:50 de capacités sur leur population
06:52 ou sur la population du voisin.
06:54 Dernier détail, l'origine du terme
06:56 astro-turfing, qui fait une excellente conversation,
06:58 ça vient,
07:00 figurez-vous, de Monsanto.
07:02 Monsanto
07:04 s'est confronté à un problème
07:06 qui n'a absolument rien à voir avec l'astro-turfing,
07:08 qui était que
07:10 dans les stades de baseball,
07:12 on avait un énorme problème
07:14 avec le gazon. Le baseball est un sport
07:16 assez violent, et les
07:18 gazons étaient systématiquement détruits
07:20 après chaque match. Et donc,
07:22 un jour,
07:24 le stade de Houston leur a demandé
07:26 de concevoir un gazon synthétique qui pourrait
07:28 à la fois être un bon support
07:30 pour les matchs de baseball, mais également
07:32 supporter la violence des
07:34 matchs de baseball, de façon à ne pas avoir à refaire
07:36 le gazon entre chaque match.
07:38 Et ils ont sorti un gazon
07:40 synthétique, qui aujourd'hui est largement utilisé
07:42 en baseball et dans tout un tas d'autres domaines,
07:44 et on l'a appelé
07:46 astro-turf,
07:48 parce que l'équipe
07:50 de baseball de Houston, ce sont les
07:52 astros, ça donnait ce nom.
07:54 Et
07:56 l'astro-turfing vient de là
07:58 parce que les mouvements
08:00 d'opinion réels
08:02 qui viennent de la base, en anglais, ça se dit
08:04 grassroot. Et donc le faux gazon,
08:06 grass étant gazon,
08:08 est devenu astro-turfing.
08:10 Voilà, ça fait une petite anecdote
08:12 rigolote pour
08:14 commencer une conversation sur l'astro-turfing.
08:16 [Musique]
08:18 [Musique]
08:20 [Musique]
08:22 [Musique]
08:24 [Musique]
08:26 [Musique]
08:28 [Musique]
08:30 [Musique]
Commentaires