- il y a 2 jours
- #franceshaugen
- #fakenews
Le réseau social le plus utilisé au monde est de nouveau mis en cause. Une lanceuse d’alerte accuse ses dirigeants de laisser les fausses informations et les contenus haineux inonder la plateforme pour faire plus de profits. Récit avec Paméla Rougerie, journaliste au Parisien et spécialiste des réseaux sociaux.
Dans ce podcast : Deux milliards et demi d'utilisateurs dans le monde, 26 milliards d'euros de bénéfices nets en 2020, malgré ces bons chiffres Facebook est dans la tourmente. Une ancienne cadre de l'entreprise affirme en résumé que son fondateur Mark
Zuckerberg a fait le choix de privilégier les contenus clivant pour doper l'audience de Facebook au risque d'aggraver les divisions dans la société. Code source revient aujourd'hui sur l’affaire des Facebook papers.
Le 28 octobre Mark Zuckerberg le patron de Facebook prend la parole à l'occasion d'un événement annuel de l'entreprise : la conférence des développeurs et il annonce un grand projet qui s'appelle le Metaverse. C'est la contraction de deux mots meta et univers. On enfile un casque de réalité virtuelle et en fait on arrive dans cet univers virtuel où on peut prendre un verre avec ses amis, on prend l'avatar qu'on veut, on peut changer d'apparence…
Direction de la rédaction : Pierre Chausse - Rédacteur en chef : Jules Lavie - Reporter : Ambre Rosala - Production : Raphaël Pueyo et Thibault Lambert - Réalisation et mixage : Benoît Gillon - Musiques : François Clos, Audio Network, Epidemic Sound - Identité graphique : Upian
Archives : CNN, CNET WATCH, CBS, BBC News.
#facebook #FrancesHaugen #fakenews
Dans ce podcast : Deux milliards et demi d'utilisateurs dans le monde, 26 milliards d'euros de bénéfices nets en 2020, malgré ces bons chiffres Facebook est dans la tourmente. Une ancienne cadre de l'entreprise affirme en résumé que son fondateur Mark
Zuckerberg a fait le choix de privilégier les contenus clivant pour doper l'audience de Facebook au risque d'aggraver les divisions dans la société. Code source revient aujourd'hui sur l’affaire des Facebook papers.
Le 28 octobre Mark Zuckerberg le patron de Facebook prend la parole à l'occasion d'un événement annuel de l'entreprise : la conférence des développeurs et il annonce un grand projet qui s'appelle le Metaverse. C'est la contraction de deux mots meta et univers. On enfile un casque de réalité virtuelle et en fait on arrive dans cet univers virtuel où on peut prendre un verre avec ses amis, on prend l'avatar qu'on veut, on peut changer d'apparence…
Direction de la rédaction : Pierre Chausse - Rédacteur en chef : Jules Lavie - Reporter : Ambre Rosala - Production : Raphaël Pueyo et Thibault Lambert - Réalisation et mixage : Benoît Gillon - Musiques : François Clos, Audio Network, Epidemic Sound - Identité graphique : Upian
Archives : CNN, CNET WATCH, CBS, BBC News.
#facebook #FrancesHaugen #fakenews
Catégorie
🗞
NewsTranscription
00:02Bonjour, c'est Jules Lavi pour CodeSource, le podcast d'actualité du Parisien.
00:112,5 milliards d'utilisateurs dans le monde, 26 milliards d'euros de bénéfices nets en 2020.
00:17Malgré ces bons chiffres, Facebook est dans la tourmente.
00:21Une ancienne cadre de l'entreprise affirme en résumé que son fondateur, Mark Zuckerberg,
00:25a fait le choix de privilégier les contenus clivants pour doper l'audience de Facebook
00:30au risque d'aggraver les divisions dans nos sociétés.
00:34CodeSource revient aujourd'hui sur l'affaire des Facebook Papers avec Pamela Rougerie,
00:39journaliste aux Parisiens, en charge notamment des réseaux sociaux.
00:44Pamela Rougerie, le 28 octobre, Mark Zuckerberg, le patron de Facebook,
00:48prend la parole à l'occasion d'un événement annuel de l'entreprise,
00:51la Conférence des développeurs, et il annonce un grand projet.
01:02Son projet, ça s'appelle le Metaverse.
01:04C'est la contraction de deux mots, meta et univers.
01:07On enfile un casque de réalité virtuelle, et en fait, on arrive dans cet univers virtuel
01:12où on peut prendre un verre avec ses amis, on prend l'avatar qu'on veut, on peut changer d
01:16'apparence.
01:17Ça pourrait prendre dix ans avant qu'on en voit la première forme,
01:19mais pour Mark Zuckerberg, c'est vraiment le nouveau chapitre d'Internet.
01:26Et il annonce aussi que son groupe change de nom.
01:29Pour réfléchir à qui nous sommes et à ce que nous espérons de construire,
01:33je suis fier de l'annoncer que, à partir de ce jour, notre société est maintenant Meta.
01:39Le groupe qui s'appelait Facebook, c'est-à-dire à partir de sa première plateforme sociale, va changer de
01:44nom.
01:45Ça va s'appeler Meta. Et là, on voit que, du coup, le Metaverse est vraiment au cœur de ses
01:49projets.
01:50Dans les heures qui viennent, beaucoup d'internautes détournent des captures d'écran, des photos de cette intervention.
01:55Oui, on se moque de Mark Zuckerberg, déjà parce qu'il a l'air un peu coincé,
01:59alors qu'il a l'air de vouloir la jouer un peu à la cool.
02:02Il a un pull noir assez sobre.
02:04Il fait penser à Steve Jobs, l'ancien patron d'Apple, qui faisait des présentations assez détendues.
02:09Sauf qu'avec Mark Zuckerberg, ça marche un peu moins bien.
02:12On a l'impression qu'il n'est pas très engageant, qu'il n'est pas très à l'aise
02:15avec l'exercice.
02:16Il y a aussi des captures d'écran qui détournent un peu le nouveau nom de Meta, qui se moquent
02:20de ce nom.
02:21Par exemple, il y a un montage qui montre Mark Zuckerberg avec un énorme bout de feta entre les mains
02:26et le nom du groupe est détourné en feta avec le logo.
02:30Le fond du propos dans toutes ces moqueries, c'est de dire que la démarche de Facebook semble un peu
02:36hypocrite
02:37parce que même si le groupe change de nom, ces problèmes, qui sont là depuis des années, restent toujours là.
02:46Ce changement intervient effectivement un mois et demi après le début d'un nouveau scandale
02:51en tâchant Facebook, baptisé les Facebook Files ou Facebook Papers, que vous allez nous raconter.
02:57Pamela Rougerie, mais avant ça un rappel, le précédent gros scandale touchant Facebook, c'était en 2018.
03:03Cambridge Analytica, qu'a-t-on appris à ce moment-là ?
03:06Cambridge Analytica, c'est une société britannique qui se spécialise dans le conseil, surtout en politique.
03:11Son vrai sujet, ce sont ce qu'on appelle les big data.
03:13Ils utilisent des données en ligne pour calculer des choses, notamment dans le domaine politique.
03:19Et cette entreprise a été accusée d'avoir utilisé des données de dizaines de millions d'utilisateurs
03:25et essayé de les influencer dans le contexte d'élections.
03:28L'exemple le plus marquant, c'est en 2016, pendant l'élection présidentielle américaine,
03:33les équipes de Donald Trump ont missionné Cambridge Analytica
03:36pour un peu influencer des électeurs clés sur les réseaux sociaux.
03:40Et pour certains, il y a eu vraiment un effet, puisque Donald Trump a remporté la présidentielle.
03:47Après le scandale Cambridge Analytica, est-ce qu'il y a eu des conséquences pour Facebook ?
03:51Alors, Facebook a présenté ses excuses, a reconnu la faute,
03:54puisque les données qui ont été utilisées par Cambridge Analytica ont été directement siphonnées de Facebook.
03:59Je veux commencer par une question basique, Marc.
04:03Qu'est-ce qui s'est passé ? Qu'est-ce qui s'est passé ?
04:04Donc, c'était une grande breach de confiance, et je suis vraiment désolé que ça s'est passé.
04:10Nous avons une responsabilité basique pour protéger les données des personnes.
04:13Donc, notre responsabilité maintenant est de s'assurer que ça ne se passe pas encore.
04:18Le groupe a été visé par plusieurs enquêtes, aussi bien aux Etats-Unis que dans l'Union européenne.
04:22Et à la fin, il a dû payer plusieurs amendes, notamment au Royaume-Uni, au Brésil.
04:27Et la plus forte amende, c'était aux Etats-Unis, où ils ont dû payer 5 milliards de dollars.
04:31Pamela Rougerie, le lundi 13 septembre, le prestigieux quotidien économique américain Wall Street Journal
04:37publie un premier long papier sur Facebook et il annonce une série d'articles.
04:42Cette série d'articles, elle s'appelle les Facebook Files, donc en français, c'est les dossiers Facebook.
04:47C'est une montagne de milliers de documents.
04:50Il y a des études internes, des discussions chez les employés de Facebook.
04:53Il y a des mémos stratégiques qui ont été aussi partagés en interne.
04:56Il y a aussi des entretiens avec des anciens employés.
04:59Autant de documents fournis par une ancienne salariée de Facebook.
05:02Il y aura 11 longs papiers au total.
05:05Les principaux enseignements, en interne, les ingénieurs de Facebook ont conscience des effets néfastes
05:11de leur réseau social.
05:12Ils savent que le réseau social, qui rassemble plus de 2,7 milliards d'utilisateurs,
05:17est en fait un terreau de discours de haine, de désinformation, de contenus
05:21qui ont des vraies conséquences sur la démocratie et sur la société.
05:24Et il y a eu des études là-dessus, ça a été observé.
05:26Oui, c'est ce qu'ils ont fait pendant des années.
05:28Il y a eu énormément d'études internes, de sondages, d'analyses assez poussées
05:32qui soulignent tous ces problèmes, sauf qu'on a l'impression que Facebook n'a pas vraiment agi
05:36en fonction des conclusions de ces études.
05:38Malgré les annonces de Facebook, des milliers d'embauches pour modérer les contenus,
05:42il y a finalement effectivement très peu de messages qui sont filtrés.
05:46C'est ce qu'on apprend dans ces articles du Wall Street Journal.
05:48Oui, c'est ça le problème fondamental de Facebook.
05:51C'est ce qu'on appelle en fait la modération, c'est-à-dire le contrôle des publications,
05:54des articles, des photos, des vidéos qui circulent tous les jours sur la plateforme.
05:59Normalement, il y a des règles très précises qui interdisent par exemple la nudité,
06:02la violence, les appels à la violence, les fausses informations,
06:06tout ce qui est contenu discriminatoire.
06:08Sauf que dans les faits, ce n'est pas vraiment très bien contrôlé.
06:11On a pu voir par exemple avec des essais aux Etats-Unis
06:13que les contenus complotistes d'extrême droite étaient encore largement exposés.
06:21Et c'est encore pire concernant des pays sensibles, des pays en guerre par exemple,
06:24où Facebook investit très peu de moyens pour modérer les contenus.
06:27Oui, ils ont très peu de modérateurs qui connaissent bien la langue arabe.
06:31Ils n'en ont qu'au Maroc et en Allemagne.
06:33Sauf qu'un Marocain, il ne peut pas forcément comprendre le contexte et le dialecte de contenus
06:37qui sont diffusés en Irak.
06:39Et même quand il y a des outils de modération automatique,
06:42il semble insuffisant.
06:44Et c'est assez dangereux lorsque des plateformes ne sont pas contrôlées
06:46dans les pays dont la situation politique est sensible.
06:50C'est le cas en Afghanistan, c'est le cas au Pakistan, en Éthiopie, en Syrie ou au Yémen.
06:53Et la très grande majorité des moyens consacrés par Facebook à la modération
06:57sont réservés aux Etats-Unis.
06:58Oui, au total, 84% du budget de la modération du groupe est consacré aux Etats-Unis.
07:04Ça veut dire que le reste du monde n'a que 16% du budget de modération.
07:08Et en Birmanie, par exemple, entre 2014 et 2016,
07:11il y a eu des appels aux massacres diffusés sur Facebook.
07:14Oui, cela fait plusieurs années qu'en Birmanie, les Rohingyas,
07:17qui sont une minorité musulmane, sont victimes de persécutions.
07:20Il y a eu de nombreux appels à la violence qui ont été communiqués sur Facebook.
07:24Par exemple, en 2014, une émeute a surgi entre des bouddhistes,
07:27qui sont la majorité dans le pays, et des musulmans, les Rohingyas.
07:30Et tout est né d'une fausse rumeur qui circulait sur Facebook,
07:34qui accusait en fait le patron d'une boutique, un patron musulman,
07:37d'avoir violé une de ses employées qui est bouddhiste.
07:40Et en fait, la rumeur avait été lancée par un militant ultranationaliste sur Facebook.
07:44En 2016, c'est même l'armée qui a utilisé Facebook comme outil de propagande
07:48pour véhiculer des messages, des appels à la haine, à la violence contre la minorité rohingya.
07:55Pamela Rougerie, cette série d'articles du Wall Street Journal,
07:58nous apprend aussi que partout dans le monde,
08:00des personnalités clivantes mais très suivies sont exemptées de modération.
08:05Oui, ces personnalités font partie d'une sorte de liste blanche.
08:09C'est un programme qui s'appelle X-Check.
08:10Ce programme, en fait, il leur permet d'avoir une sorte de traitement de faveur.
08:13C'est-à-dire que vous et moi, des utilisateurs lambda,
08:17on est soumis à des règles strictes de modération.
08:19On ne peut pas forcément publier ce qu'on veut.
08:21Mais certaines personnalités, elles, ça peut être des hommes et des femmes politiques,
08:25des célébrités, peuvent diffuser un peu plus facilement ce qu'elles veulent
08:28parce qu'elles sont très très suivies.
08:29Un exemple marquant, c'est celui du footballeur brésilien Neymar.
08:32En 2019, il avait diffusé des photos d'une femme nue sur Instagram
08:36dans le cadre d'une affaire d'accusation de viol.
08:39Et la publication, elle est restée en ligne près de 24 heures
08:41alors que la nudité est interdite sur l'application.
08:44Facebook est de moins en moins utilisé par les jeunes générations,
08:47dans les pays riches en tout cas,
08:49mais le groupe a racheté WhatsApp en 2014 et deux ans plus tôt Instagram.
08:53Et là encore, le Wall Street Journal nous apprend qu'en interne,
08:56les dangers d'Instagram ont été étudiés.
08:58Instagram, c'est une application et un site qui permet de partager des photographies et des vidéos.
09:04C'est une plateforme qui est très utilisée par les jeunes, par les influenceurs.
09:08On y publie souvent des photos assez soignées,
09:10on met souvent en avant son corps parfait, ce qu'on consomme, ses vêtements.
09:14Il y a une certaine pression sur l'image
09:16et elle affecte beaucoup les jeunes dans leur estime d'eux-mêmes,
09:19notamment les adolescentes.
09:21Dans une étude interne, le groupe Facebook avait trouvé que 13% des adolescentes
09:24estimaient qu'Instagram augmentait le risque de pensée suicidaire
09:27et 17% disaient que l'application augmentait les risques de troubles alimentaires.
09:31Le 26 septembre, Facebook dément dans un long message
09:34les révélations du Wall Street Journal concernant Instagram
09:37et le mal-être de certains de ses utilisateurs.
09:40Oui, Facebook, de son côté, juge que cette étude interne,
09:43en fait, elle a été mal comprise par les médias.
09:46Lui, le groupe, il assure qu'Instagram aide les utilisateurs
09:48lorsqu'ils souffrent de solitude ou d'anxiété ou de troubles alimentaires.
09:51Ce que Facebook tient à souligner, c'est surtout que la majorité des adolescentes
09:55souffrant de problèmes liés à leur image
09:56ont dit dans les sondages que Instagram avait peu ou pas vraiment d'effet
10:00sur leur santé mentale.
10:05Pamela Rougerie, le lundi 4 octobre, la source du Wall Street Journal,
10:08l'ancienne salariée de Facebook, dévoile son identité et son visage
10:13dans la prestigieuse émission télé de CBS, 60 Minutes.
10:17Elle s'appelle Francesa Hogan.
10:28À quoi est-ce qu'elle ressemble physiquement pour qu'on puisse l'imaginer ?
10:31Alors Francesa Hogan, elle a 37 ans.
10:34Dans cette interview, elle apparaît comme très posée, très solennelle.
10:37Elle est blonde aux yeux bleus, elle porte un blazer beige.
10:40Elle explique de façon assez calme et déterminée son parcours
10:43et pourquoi elle a choisi d'être lanceuse d'alerte.
11:02Qui est-elle ? Quel est son profil ?
11:03Alors de formation, c'est une ingénieure en informatique.
11:06Elle est passée par Harvard.
11:07Elle a précédemment travaillé pour Google et Pinterest.
11:10Sa spécialité, c'est le traitement de données, c'est-à-dire qu'elle étudie,
11:13elle met en forme les données qui circulent à grande échelle
11:16sur la plateforme pour laquelle elle travaille.
11:17Chez Facebook, Francesa Hogan avait un poste important.
11:21Elle était chef de produit au sein d'une équipe de personnes chargées de l'intégrité civique.
11:26Leur rôle, c'était de travailler sur des questions liées à la désinformation et à la démocratie.
11:30C'est un rôle éminemment politique.
11:32Dans cette émission, on apprend qu'elle a perdu le contact avec un ou une amie tombée
11:37dans les thèses conspirationnistes, que le sujet de la désinformation la touche particulièrement.
11:42En résumé, ce qu'elle dit à CBS, c'est que Facebook n'a pas réellement intérêt
11:47à freiner les messages de haine et les fausses infos très clivantes.
11:50Non, parce que Facebook, comme d'autres plateformes des réseaux sociaux,
11:54repose sur un modèle économique basé sur l'attention.
11:57C'est-à-dire que plus on reste sur le site, plus on va cliquer sur des publicités
12:01et plus ça va créer du revenu.
12:11Et ce qui permet de garder l'attention, ce sont les publications qui suscitent de fortes émotions
12:16et l'émotion la plus efficace dans ce contexte-là, c'est la colère.
12:22L'équipe dans laquelle elle était, l'équipe Civic Integrity, a été dissoute
12:27juste après la présidentielle américaine remportée par Joe Biden, le démocrate, le 3 novembre 2020.
12:32Oui, ils se sont dit que tout s'était bien passé, qu'il n'y avait pas eu de drame
12:36autour de Facebook.
12:37Donc début décembre, finalement, Facebook a décidé de dissoudre l'équipe
12:40et de remettre ses fonctions un peu partout dans le reste de l'entreprise.
12:54Décision mal vécue par Frances Haugen et peu de temps après, le mercredi 6 janvier 2021,
13:00à Washington, le Capitole, le siège du Parlement américain, est attaqué par des partisans
13:05de Donald Trump.
13:20Il y a au total cinq morts, dont un policier.
13:23Et pour Frances Haugen, Facebook a joué un rôle important dans cet assaut.
13:27Oui, parce qu'avant l'assaut du Capitole, Facebook était en fait peuplé de groupes
13:31réunissant des militants extrémistes qui étaient des soutiens acharnés de Donald Trump.
13:35C'est sur Facebook qu'ils partageaient des fausses informations sur l'élection qu'ils jugeaient truquées.
13:39C'est aussi là qu'ils ont lancé des appels au rassemblement pour le 6 janvier,
13:43avec parfois des menaces et des appels à la violence.
13:46Frances Haugen est très bien organisée, elle a des avocats.
13:49Elle est soutenue indirectement via des ONG par le richissime fondateur du site de commerce en ligne eBay,
13:55Pierre Omidyar, iranien, français et américain.
13:58Elle a elle-même de l'argent, car, dit-elle, elle avait investi au bon moment dans les monnaies virtuelles,
14:03et Pamela Rougerie, elle a fait en sorte de pouvoir obtenir aux Etats-Unis le statut de lanceuse d'alerte.
14:09Elle dépose plainte auprès du régulateur boursier américain, la Security Exchange Commission,
14:13pour obtenir le statut de lanceuse d'alerte, ce qui la protège d'éventuelles poursuites de la part de Facebook.
14:19Car légalement, une entreprise cotée en bourse, comme c'est le cas de Facebook,
14:22ne doit pas dissimuler d'informations auprès de ses investisseurs.
14:25Elle a un devoir de transparence.
14:27Et c'est pour ce devoir de transparence que la Security Exchange Commission a créé ce statut de lanceur d
14:33'alerte.
14:34Frances Haugen témoigne devant le Sénat américain le 5 octobre.
14:38Et comme elle veut que ces informations aient un maximum d'impact à travers le monde,
14:42quelques jours plus tard, elle décide de confier tous ces documents,
14:45ces dizaines de milliers de pages de documents, à d'autres médias.
14:48Oui, plusieurs journalistes aux Etats-Unis et en Europe ont pu avoir accès à ces documents.
14:52En France, il y a notamment le monde.
14:54Ils ont chacun pris le temps d'éplucher les notes, les études.
14:57Ils ont publié à leur rythme des séries d'articles qui soulignent tous les problèmes qu'il y a au
15:01sein de Facebook en interne.
15:03Ils se sont coordonnés pour sortir tout ça, juste avant que Facebook présente ses résultats financiers à la fin du
15:08mois d'octobre.
15:09Par exemple, chez nos confrères du monde, le lundi 25 octobre,
15:13un papier raconte comment les ingénieurs du réseau social ont parfois du mal à comprendre eux-mêmes comment réagissent leurs
15:19algorithmes.
15:20Les algorithmes sont les programmes informatiques qui font Facebook, qui travaillent notamment à la recommandation des contenus.
15:26Ils ont cessé de les modifier en fonction des nouveaux usages, des contraintes liées à certaines polémiques ou de nouveaux
15:33objectifs publicitaires.
15:35Aujourd'hui, les algorithmes sont beaucoup trop complexes, ils sont presque incontrôlables pour ces ingénieurs.
15:39C'est-à-dire que quand ils pensent créer des outils de modération qui vont fonctionner, finalement, les choses ne
15:44se passent pas comme prévu.
15:45Par exemple, quand ils créent un compte témoin en Inde pour voir ce qu'il se passe, ils se rendent
15:49compte qu'au bout de quelques jours,
15:50ce compte est exposé à des contenus qui devraient être interdits et ils ne comprennent pas comment ça peut se
15:55passer.
15:55Toujours le 25 octobre, le soir même, Facebook annonce des résultats financiers excellents.
16:01Malgré ces affaires, Facebook dégage plus de 9 milliards de dollars de bénéfices rien qu'au troisième trimestre 2021.
16:07Ça fait à peu près 8 milliards d'euros. Et en 2020, le groupe avait déjà un bénéfice net de
16:14près de 30 milliards de dollars.
16:15Et sa valorisation boursière est énorme dans les 800 milliards de dollars. Ça représente quoi en fait ?
16:22Alors en euros, c'est à peu près 700 milliards d'euros. C'est le double de la plus grande
16:26valorisation boursière de France et d'Europe,
16:28qui est LVMH, auquel appartient le Parisien.
16:31Est-ce que suite à l'affaire des Facebook Papers et aux révélations de Frances Haugen, il y a eu
16:35des changements annoncés ?
16:37Pas vraiment. Le seul changement qu'on a vraiment pour l'instant, c'est le nom du groupe, Meta.
16:41Facebook s'est surtout borné à dénoncer une campagne de dénigrement qu'il juge injuste.
16:47Il pense que cette campagne dépeint une fausse image de l'entreprise.
16:50Meta estime qu'il n'est pas le responsable des problèmes qui sont soulignés dans ses dossiers.
16:55Il dit aussi qu'il travaille déjà très dur sur les nombreuses questions de modération en interne.
17:02Pamela Rougerie, vous couvrez les réseaux sociaux pour le Parisien.
17:05A votre avis, est-ce que collectivement, nous avons assez pris conscience de l'importance des réseaux sociaux
17:11sur nos propres opinions et sur nos comportements ?
17:14Peut-être pas assez aujourd'hui.
17:17Quand on parle des réseaux sociaux, on pense que c'est cette chose un peu virtuelle,
17:21où on peut faire un peu ce qu'on veut, qu'il n'y a pas vraiment d'impact sur
17:24nos vies,
17:24parce que ça reste sur nos ordinateurs, dans notre téléphone.
17:27Mais l'affaire des Facebook Papers et tous les scandales qui ont précédé
17:32montrent que ce n'est pas vraiment le cas.
17:33On voit que Facebook a un impact sur notre vie, notre quotidien,
17:38la façon dont on pense les choses, la façon dont on voit la politique.
17:41Ça a aussi un impact sur la santé mentale des utilisateurs.
17:45Et ça peut même mener à des actes de violence, des actes de violence de masse.
17:49Ça peut aussi avoir une influence considérable sur des scrutins électoraux majeurs,
17:53y compris dans des démocraties qui sont pourtant bien installées.
17:57Parmi tous les documents divulgués par Frances Hogan,
18:00il y a aussi des retranscriptions d'échanges sur des messageries internes à Facebook,
18:05où on voit des salariés qui se posent vraiment beaucoup de questions
18:08sur l'impact de leur entreprise sur le monde.
18:12Oui, ils débattent beaucoup de l'effet des algorithmes.
18:15Ils ont l'air d'ailleurs assez insatisfaits par les réponses de leur hiérarchie.
18:18En substance, ils se posent des questions sur l'impact qu'à Facebook
18:21et sur l'efficacité de leur travail.
18:23Ils se demandent s'ils ne font pas plus de mal que de bien, des fois.
18:40Merci à Pamela Rougerie.
18:42Cet épisode de Code Source a été produit par Raphaël Pueyo et Thibaut Lambert.
18:47Réalisation, Benoît Gilon.
18:49Code Source, le podcast d'actualité du Parisien, est disponible sur toutes les plateformes.
18:54Nous publions un nouvel épisode chaque soir de la semaine.
18:57Vous pouvez nous suivre sur Twitter,
18:59nous laisser un commentaire sur votre application préférée
19:01ou nous écrire directement code-source-at-le-parisien.fr
19:06Monde et Thibaut Martins'
19:18– Sous-titrage FR 2021
Commentaires