- il y a 5 jours
https://www.arcom.fr/actualites/conference-de-larcom-sur-la-representation-des-femmes-dans-les-medias-et-le-sexisme-en-ligne
Catégorie
🗞
NewsTranscription
00:00J'ai donc maintenant abordé l'étude sexisme sur les plateformes en ligne, avec le petit avertissement d'usage que
00:07certains connaissent bien.
00:08Certains propos que je vais citer sont de nature aheurter la sensibilité des auditeurs.
00:17Alors...
00:20Non.
00:22Non.
00:29J'essaye. Ah non, c'était pas le bon.
00:33Parfait. Merci beaucoup pour votre patience.
00:36Alors pourquoi cette étude sur le sexisme en ligne ?
00:39D'abord, le président l'a rappelé, parce que nous avons désormais cette mission de régulateur des plateformes en ligne
00:46et que par conséquent, nous nous intéressons aux données qui sont en rapport avec les plateformes en ligne.
00:53Et ce sujet nous a particulièrement intéressés parce que nous avions commencé à travailler dans le cadre d'une étude
01:00sur les Jeux olympiques et paralympiques
01:02sur le traitement en ligne des athlètes.
01:08et cette première étude avait donné un certain nombre d'enseignements intéressants
01:14et notamment le fait que lorsque nous avons des messages d'insultes ou du harcèlement qui est fait sur les
01:21athlètes en ligne
01:22et qu'on a un sujet discriminatoire sur ces insultes ou sur ce harcèlement,
01:29dans 50% des cas, c'est lié au fait que la personne est une femme
01:35ou c'est lié aux minorités de genre et notamment un focus particulier sur la transphobie.
01:44Donc nous nous sommes dit que ça pouvait être intéressant d'affiner nos études sur ce qui pouvait se passer
01:51en ligne
01:51et sur le sexisme en ligne avec deux objectifs.
01:57D'abord, essayer d'avoir une méthodologie d'analyse adaptée aux environnements numériques.
02:02C'est très complexe le sexisme en ligne.
02:04Nous avons des problèmes de définition, nous avons des difficultés d'identification tout à fait particulières
02:11et je pense que le HCE qui a fait une étude sur ces questions-là récemment s'est heurté aux
02:16mêmes difficultés que nous.
02:17Et par ailleurs, pour ce qui concerne plus spécifiquement l'ARCOM, il s'agit de documenter un peu ce qui,
02:24sur les plateformes en ligne, peut générer une exacerbation du phénomène
02:29et voir ce qui peut l'amplifier et ce qui peut être du ressort de l'étude des facteurs systémiques
02:36qui sont liés aux plateformes en ligne, c'est-à-dire à ce que nous tentons de réguler.
02:43Alors, sur cette étude, deux choses, les formes dynamiques et quelles sont les limitations à la recherche.
02:51Dans notre méthodologie, nous avons donc pris au départ 70 000 contenus.
02:57Ensuite, nous y avons appliqué par des outils d'IA et en nous référant aux travaux de recherche,
03:02une méthodologie qui permet d'identifier ce qui relève du sexisme en ligne.
03:07Nous avons retenu 20 000 contenus. Nous avons donc travaillé sur août 2025, mi-décembre 2025
03:13et nous avons utilisé un outil de collecte dédié, IA.
03:18Nous avons constaté qu'il y avait deux types de contenus que nous pouvions retenir sur cette définition de sexisme
03:25en ligne.
03:26Il y a ceux qui sont susceptibles d'une qualification pénale, donc qui relèvent de l'illicite,
03:31avec tout ce que ça entraîne dans la capacité de demander le retrait, dans la capacité d'identification.
03:38Et puis, il y a les contenus qui sont ce qu'on appelle un peu une zone grise, c'est
03:43-à-dire qu'ils sont licites,
03:44ils font partie de la liberté d'expression et on a droit de critiquer un certain nombre de choses
03:49et d'avoir un certain nombre de commentaires qui peuvent paraître des obligeants, désagréables, mais qui restent licites.
03:54Mais néanmoins, tout le travail qui était fait, c'est de voir si, par leur accumulation, par le phénomène de
04:02travail de l'algorithme
04:03ou autres données propres aux plateformes en ligne, ça pouvait s'identifier à des risques systémiques,
04:10donc au sens du règlement sur les services numériques, devenir préjudiciable.
04:15Petits exemples, contenu potentiellement illicite, vous avez une citation en noir,
04:22« Laisser une totale liberté aux femmes et elles deviennent des putes sociopathes »
04:26avec le body count d'une ville pleine de certitude de sa célébrité.
04:30Le body count, alors vraiment, ça fait partie des petits termes génériques qu'on retrouve dans tous ces types de
04:35propos.
04:36Ça se réfère donc au nombre de partenaires qu'une femme a eus.
04:39Et ça est inversement proportionnel dans ses commentaires avec la qualité des femmes qui sont concernées.
04:49Qu'elles soient grosses, moches, belles ou stupides, elles trouveront toujours des crèves la faim pour se foutre de ta
04:57gueule.
04:57Les contenus gris, c'est ce que vous avez en blanc, c'est des propos sur la virilité ou sur
05:06les rapports hommes-femmes,
05:08le contrôle émotionnel, le silence magnétique, la puissance intérieure, la dominance subtile.
05:15Si on le prend en tant que tel, après tout, on a le droit d'avoir ce type de propos.
05:20C'est juste que quand ça devient systémique, répétitif et que ça s'inscrit dans un contexte un peu particulier
05:25de mise en avant d'un certain type de virilité, ça peut poser d'autres types de questions.
05:32Répartition du nombre de messages potentiellement sexistes selon de qui ça émane.
05:37Ce qu'on constate, c'est que pour 42%, ces messages émanent de comptes identifiés comme étant des comptes masculins,
05:4732% des comptes revendiqués comme étant des comptes de femmes,
05:51et on a 26% pour lesquels on n'a pas d'identification de sexe à l'origine de ces
05:58propos.
05:59Là, on en arrive au cœur des questions.
06:02La question, c'est à partir des 20 000 contenus que nous avons sortis, nous avons tenté, à l'aide
06:08des chercheurs,
06:10de voir dans quelle catégorie ces messages pouvaient s'inscrire, et nous en avons identifié 6 majoritairement.
06:18D'abord, nous avons les contenus mettant en avant la masculinité, la testostérone, la virilité,
06:25comme étant ce qui était le plus important et ce qu'il fallait mettre en avant dans nos sociétés modernes.
06:33Donc, vous trouverez dans le rapport un certain nombre d'exemples.
06:37Ce qu'on a mis dans cette catégorie, c'est un ensemble de propos sexistes
06:42qui regroupent des messages mobilisant la testostérone comme référentiel symbolique central de la masculinité.
06:50Un petit exemple, quand même, parce que c'est important d'avoir du concret.
06:57Je ne sais pas lequel prendre.
06:59On va prendre « Regardez le chancelier allemand Mertz fondre en larmes à la télévision nationale.
07:06C'est cela la virilité germanique aujourd'hui ».
07:08Donc, nous voyons que dans tous les domaines, nous pouvons trouver ce type de messages mis en avant.
07:15Ensuite, deuxième type, c'est l'antiféminisme et critique des femmes progressistes.
07:19Là, on a quand même un lot assez considérable de l'évolution de la société décrite comme posant problème
07:25parce que les femmes sont devenues ce qu'elles sont.
07:29Le body count, dont on a parlé tout à l'heure, est un exemple typique de ces mises en avant.
07:36Et là, j'ai comme exemple, par exemple, ce que ça s'applique souvent aux personnes,
07:43soit politiques, soit ayant un peu de célébrité.
07:47Donc, prenons par exemple, pour les politiques, plus moches que les gauchias, les arabes et leurs chicots pourris,
07:54vos connasses de gauche à cheveux bleus qui puent la pisse à travers la caméra,
07:58ce qu'on ne nous fait pas dire quand même à l'ARCOM, pour illustrer les propos.
08:04Alors, on a un certain nombre de données qui sont assez fortes sur ce secteur-là.
08:11Ensuite, en troisième lieu, on a la transphobie.
08:14Ça, comme je vous le disais, on l'a vraiment constaté déjà dans l'étude sur les athlètes.
08:18Ça véhicule vraiment un certain nombre de préjugés sexistes, racistes, transphobes.
08:25On retrouve là vraiment un certain nombre de messages très mis en avant dans ces messages sexistes.
08:34Ensuite, on a la pornographie.
08:36Alors, pourquoi on met la pornographie dans notre étude ?
08:39Parce que c'est un type de pornographie, c'est-à-dire c'est la mise en avant d'un
08:44certain nombre de relations entre les hommes et les femmes
08:48avec une mise en valeur du fait que la femme se retrouve dans une position d'infériorité
08:57et que c'est ce qui va générer l'appel à un certain type de pornographie.
09:02C'est souvent des messages qu'on retrouve sur les réseaux sociaux,
09:06mais avec un lien vers d'autres types de réseaux sociaux, style mime ou style olifane,
09:11et qui mettent en avant la catégorie salope, pute, qui sont utilisées pour insulter
09:22et à l'inverse, la soumission comme mise en avant de qualité dans ce type de contenu.
09:31Les insultes sexistes, c'est là un ensemble de propos qui sont identifiés comme des injures dégradantes,
09:39le plus souvent, à caractère sexiste, on retrouve un certain nombre de thèmes.
09:45Celui de pute est très souvent mis en avant, mais sachez que le synonyme dans ce type de propos,
09:53c'est le terme de tana, synonyme de pute élargement utilisée,
09:59qui s'adresse généralement aux femmes considérées comme non-mariables,
10:03en raison de leur libération sexuelle et de ce fait-là,
10:08de la nécessité de les écarter de toute identification en termes de valeurs.
10:14Ensuite, on a la catégorie séduction et rapport homme-femme.
10:19Alors là, vous savez, c'est la catégorie que vous avez peut-être vu,
10:23des propositions de coaching pour apprendre aux hommes à mieux séduire les femmes,
10:27et des propositions qui sont axées sur le fait que pour séduire une femme,
10:32il faut arrêter les méthodes de séduction mises en avant et vouées à l'échec.
10:38Il faut y aller sur la virilité.
10:40Il faut y aller sur le fait que finalement, ce que les femmes apprécient,
10:46c'est des hommes qui les rabaissent,
10:49c'est des hommes qui mettent en avant un certain type de virilité,
10:53des interactions différentes.
10:55Et ces rôles de genre sont largement mis en avant dans cette catégorie
11:03séduction-rapport homme-femme.
11:05Et enfin, stéréotypes genrés en lien avec la nationalité et le racisme,
11:10c'est-à-dire on met en avant le fait que certaines nationalités
11:15sont plus particulièrement sujettes à des termes misogynes particulièrement
11:26employés dans ce domaine.
11:28Ce qui est très intéressant dans le tableau que vous voyez,
11:32c'est qu'on a fait également le rapport entre ces différentes catégories
11:35et le succès qu'il pouvait avoir sur les plateformes en ligne.
11:38Et donc, ce qu'on constate, c'est que pour ce qui concerne la transphobie,
11:43c'est là qu'on a le plus souvent des comptes avec un nombre de followers
11:48particulièrement importants.
11:50Et que c'est sur les stéréotypes genrés en lien avec la nationalité et le racisme
11:55qu'on trouve le plus de commentaires et le plus de mises en avant de ces contenus.
12:01Et ça, c'est très intéressant à deux titres.
12:03Ça nous amène deux enseignements.
12:05Le premier enseignement, c'est qu'en fait, les propos sexistes s'inscrivent très souvent,
12:11en réalité, dans un style de haine en ligne qui est multifactoriel.
12:18C'est-à-dire que le sexisme n'est que le prétexte à mettre en avant une haine,
12:24une détestation qui peut s'inscrire en vis-à-vis de l'homophobie, du racisme,
12:29d'un certain nombre d'autres types de discriminations faisant appel à cette haine.
12:35Et qu'en réalité, on est dans un mouvement d'ensemble et que le sexisme n'est qu'une des
12:41modalités
12:41qui permet de générer cet ensemble de haines multidimensionnelles.
12:47Et la deuxième chose, c'est que ça confirme ce qu'on sait par ailleurs,
12:51c'est que plus forte est le message de haine, plus il est multidimensionnel
12:57et plus il va attirer un taux d'engagement et un taux de reproduction sur les plateformes en ligne
13:03qui fait fonctionner l'algorithme et les met en avant.
13:10Ce qu'on constate également à partir de ces contenus, c'est que les personnes dites célèbres,
13:17politiques ou mises en avant pour leur personnalité, sont particulièrement ciblées par les messages de haine.
13:25Ça, on l'avait constaté déjà dans l'étude sur les Jeux olympiques et paralympiques.
13:29C'est qu'on a un certain nombre d'internautes qui considèrent qu'à partir du moment où on est
13:33célèbre,
13:34on a le droit de vous injurier, on a le droit de vous harceler et on peut se lâcher sur
13:41ces personnalités-là.
13:42Si on prend les personnes politiques, elles sont, alors là, à égalité de genre, la cible de propos de haine.
13:51Mais ce qu'on constate, c'est que ces propos ne seront pas les mêmes si on est une personnalité
13:57politique masculine ou féminine
13:59et que si leur volume est le même, on va avoir des types de messages qui sont complètement différents
14:06et que pour ce qui est des femmes, on va faire appel, pour ce qui est des hommes, commençons par
14:11les hommes,
14:11on va faire appel au fait que leurs messages politiques sont critiqués, que les propos qu'ils portent sont critiqués.
14:20En revanche, pour les femmes, on va vite tomber dans la dimension émotionnelle, leur incompétence,
14:24et on arrivera très rapidement, au bout de trois messages, à une description physique de leur action.
14:35Par ailleurs, on s'est intéressé à qui portait ces messages en termes de genre.
14:40Et là, mais ça n'est pas très étonnant, on a donc une majorité de messages qui sont portés par
14:47les hommes,
14:50sauf sur la pornographie.
14:52Et ça, c'est assez logique par rapport à ce que je vous ai dit,
14:54puisque la plupart des messages pornographiques qui ont été repérés sont des messages à vocation commerciale
15:00et par conséquent qui peuvent être reportés par des femmes pour identifier leur compte.
15:06Et puis, un petit regard quand même sur la transphobie qui presque atteint l'égalité de genre
15:13dans l'origine des messages.
15:15Encore une fois, avec une petite prudence, on a 26% de comptes qui ne sont pas identifiés dans leur
15:21origine.
15:23Donc, c'est par rapport à ce qui a pu être identifié.
15:27Alors, les limites à la recherche, elles sont nombreuses.
15:29Le président vous l'a dit, c'est une première, cette étude.
15:32Nous avons fait avec les moyens du bord, et merci d'ailleurs aux services qui ont beaucoup travaillé.
15:37Mais il faut continuer, parce qu'on voit bien qu'il y a quand même un domaine extrêmement important.
15:42Donc, très rapidement, quelles sont ces limites et ce sur quoi on peut arriver à progresser ?
15:47D'abord, être en capacité d'identifier les contenus potentiellement préjudiciables,
15:52et pas seulement ceux qui sont illicites, parce que c'est ceux-là qui sont porteurs de risques,
15:56c'est ceux-là qui peuvent être amplifiés,
15:58et c'est ceux-là sur lesquels il faut avoir du débat.
16:02Donc, il nous faut l'aide des chercheurs, bien évidemment,
16:05et des ressources en termes de capacité d'entrée dans les réseaux.
16:11Modération des contenus, évidemment, c'est l'occasion de rendre hommage à nos signaleurs de confiance,
16:17dont certains sont présents dans la salle, et grâce à qui on peut, sur les contenus manifestement illicites,
16:23parvenir à progresser, et pour lesquels l'ARCOM se bat,
16:27pour obtenir qu'il puisse y avoir un financement qui soit approprié à l'ampleur de la tâche.
16:32Mais, au-delà de ça, par la détection, la modération humaine,
16:36il y a vraiment un travail, là encore, à faire pour pouvoir détecter.
16:40Il ne suffit pas d'avoir des mots-clés.
16:44Si certains font référence au manifeste des 343 salopes,
16:49bien évidemment, il va falloir être extrêmement attentif à ne pas les identifier comme problématiques.
16:55Donc, c'est un travail qui nécessite à la fois la détection algorithmique et la modération humaine en permanence.
17:02Périmètre d'analyse, nous nous sommes contentes, compte tenu de nos moyens, au contenu textuel.
17:09Il faut bien évidemment, maintenant, arriver au contenu audio et au contenu d'image.
17:15Et pour ça, nous avons besoin, là encore, des chercheurs,
17:18mais aussi d'obtenir la possibilité d'avoir ce qui est interdit actuellement par les CGU,
17:26la possibilité d'avoir des faux comptes, la possibilité de procéder par scrapping.
17:32Donc, tout ça doit nous permettre de monter d'un cran dans nos analyses.
17:37Pareil pour les systèmes de recommandations algorithmiques.
17:40Et un petit mot pour terminer sur un certain nombre de partenariats qui ont déjà été évoqués.
17:46Mais nous ne sommes pas, nous, le régulateur des contenus.
17:51Vous le savez, ceux qui sont présents dans la salle, notre régulation est complètement différente.
17:56Mes collègues qui sont présents ici, et je les en remercie du collège,
18:00nombreux savent combien est difficile cette régulation tout à fait particulière,
18:04régulation systémique qui consiste à vérifier la manière dont les plateformes agissent
18:10et non pas d'intervenir sur les contenus comme nous le faisons sur les médias classiques.
18:14Pour les contenus, nous avons un travail que nous faisons en collaboration
18:18avec le pôle national de lutte contre la haine en ligne,
18:21qui est en capacité, et c'est extrêmement important,
18:24de sortir de contenu individuel pour identifier un ensemble de contenus
18:29qui fait que quand on met un message, ça n'est pas grave,
18:32mais quand on nous met toute une série, ça le devient.
18:34Donc, ça, c'est très important, ce travail que nous faisons avec eux.
18:37Et il y a le travail que nous faisons notamment avec mon collègue Benoît Loutrel
18:41sur la résurgence de l'Observatoire haine en ligne,
18:44qui permet avec un ensemble de partenaires de travailler ensemble pour identifier ces contenus et y remédier.
18:51Et un des groupes de travail de l'Observatoire qui va être lancé cette année
18:57est dédié notamment au rôle des influenceurs,
19:02et plus particulièrement avec une cible sur le sexisme en ligne et le masculinisme.