Passer au playerPasser au contenu principal
  • il y a 4 mois
Jeudi 2 octobre 2025, retrouvez ÉLA BARDA (ASSOCIÉE, SIGNATURE LITIGATION) dans LEX INSIDE, une émission présentée par Arnaud Dumourier.

Catégorie

🗞
News
Transcription
00:00Le Digital Services Act impose de nouvelles obligations aux plateformes.
00:15Quel type de contentieux peuvent émerger ?
00:18Le DSA marque-t-il un tournant dans la régulation du numérique en Europe ?
00:23On en parle tout de suite avec mon invité,
00:24Ella Barda, associée chez Signature Litigation.
00:28Ella Barda, bonjour.
00:30Bonjour Arnaud.
00:31Le Digital Services Act impose de nouvelles obligations aux plateformes numériques.
00:37On va voir ensemble dans le détail ce DSA.
00:40Mais tout d'abord, est-ce que le DSA se distingue des précédentes régulations du numérique ?
00:47Et pourquoi était-il nécessaire ?
00:50Le DSA vient moderniser la directive e-commerce de 2000,
00:55qui était devenu quelque peu obsolète face à l'essor des plateformes numériques et des réseaux sociaux au cours des 20 dernières années.
01:03L'objectif de ce texte, c'est donc d'adapter le cadre juridique aux problématiques actuelles,
01:10en responsabilisant davantage les plateformes sur la gestion des contenus illicites.
01:14En fait, il s'agit d'assurer que ce qui est interdit hors ligne le devienne également en ligne,
01:21tout en préservant la liberté d'expression et l'innovation.
01:24C'est vraiment cette recherche d'équilibre qui a conduit le législateur européen à introduire des obligations graduées
01:30selon la taille et l'influence des acteurs,
01:33avec quand même un accent particulier sur les très grandes plateformes et les très grands moteurs de recherche,
01:39qui sont les acteurs qui comptabilisent plus de 45 millions d'utilisateurs chaque mois au sein de l'Union européenne.
01:46Et donc la nouveauté du texte, c'est qu'il crée de nouvelles obligations à la charge de ces plateformes,
01:51en leur imposant, par exemple, s'agissant des très grandes plateformes en particulier,
01:55de procéder à une analyse des risques systémiques liés à l'utilisation de leurs services.
02:01Ça veut dire quoi ?
02:02Ce sont tous les risques qui découlent, par exemple, la diffusion à grande échelle des fake news
02:06ou des discours haineux, ou alors des risques d'ingérence ou de manipulation dans le cadre des processus électoraux, par exemple.
02:14Donc ces plateformes doivent procéder à cette analyse de risques
02:17et aussi surtout prendre des mesures pour les atténuer.
02:19On peut aussi citer un grand nombre d'obligations visant à plus de transparence imposée pour ces plateformes,
02:27typiquement plus de transparence pour les publicités, par exemple, qu'elles diffusent.
02:31Alors on a vu le cadre juridique du DSA.
02:34On va s'intéresser aux premiers litiges post-DSA.
02:38Quels types de contentieux ont émergé à la suite de ce règlement ?
02:42Alors on observe d'ores et déjà plusieurs types de contentieux,
02:45aussi bien en France qu'au niveau européen.
02:47Alors en France, les toutes premières décisions portent sur des demandes de retrait de contenu publié sur des sites web d'avis
02:54qui sont jugés diffamatoires, dénigrants ou trompeurs, par exemple.
02:58Et alors contrairement aux attentes de certains, il n'y a pas de condamnation à la chaîne pour le moment.
03:04Les juges rappellent, de façon d'ailleurs assez pragmatique,
03:06qu'il appartient aux partis d'identifier précisément les propos litigieux,
03:11de les qualifier juridiquement, c'est-à-dire d'expliquer en quoi est-ce que ces propos sont illicites,
03:16et enfin de démontrer l'existence du préjudice allégué pour pouvoir obtenir la suppression de ces contenus.
03:23À l'échelle européenne, pour le moment,
03:25les recours introduits sont ceux qui sont portés par les plateformes elles-mêmes,
03:28souvent pour contester leur désignation comme très grande plateforme,
03:32puisqu'on a vu que de ça découlait un grand nombre d'obligations assez contraignantes.
03:37Alors jusqu'à maintenant, ces recours n'ont pas vraiment abouti.
03:40On peut citer tout récemment la décision du 3 septembre 2025 du tribunal de l'Union européenne
03:45qui a rejeté le recours de Zalando, qui contestait donc sa désignation,
03:49ce qui emporte donc pour elle des obligations renforcées.
03:52D'autres recours aussi qu'on peut citer, ceux de Meta et de TikTok,
03:55pour contester la décision de la Commission européenne fixant une redevance de surveillance.
04:01Alors pour les très grandes plateformes, de quoi il s'agit ?
04:04En fait, c'est une somme annuelle qui est fixée, qui est due par les plateformes
04:08pour financer les activités de surveillance de la Commission européenne,
04:13qui est en fait l'autorité de supervision pour cette grande plateforme.
04:16D'accord.
04:16Alors c'est un petit peu technique, mais Meta et TikTok ont obtenu une gain de cause,
04:19donc on fait annuler la décision, mais ça a porté sur la méthodologie de calcul de la redevance,
04:25mais le principe même de la redevance n'a pas été remis en cause.
04:29Donc on voit qu'au niveau européen, pour le moment,
04:32le contentieux se concentre sur les grands acteurs du numérique,
04:35ce qui est d'ailleurs logique, puisque ce sont elles qui sont en première ligne.
04:38Bien sûr.
04:39Et on voit que la qualification aussi de grandes plateformes,
04:42de très grandes plateformes, est centrale pour l'application après des obligations renforcées.
04:47On va venir maintenant sur le côté de la responsabilité des plateformes.
04:51On sait qu'elles doivent modérer les contenus illicites.
04:55Comment concrètement se fait cette modération ?
04:58Jusqu'où ça doit aller ?
04:59Et est-ce que le DSA change leur responsabilité ?
05:03Alors, le DSA n'impose pas d'obligation de résultat,
05:07mais plutôt de moyens renforcés.
05:08Ça veut dire que les plateformes doivent mettre en place des mécanismes efficaces,
05:12de signalement et de traitement des contenus illicites.
05:15En revanche, elles ne sont pas tenues à une obligation générale de surveillance,
05:19en fait, plus généralement.
05:21C'est un principe qui existait déjà sous l'empire de la directive,
05:24mais qui est réaffirmé avec force par le DSA,
05:27pas d'obligation générale de surveillance.
05:30Ces plateformes bénéficient par ailleurs d'un principe d'exonération de responsabilité,
05:34dans deux cas, si elles peuvent établir qu'elles n'avaient pas connaissance des contenus illicites,
05:38ou alors qu'elles ont agi rapidement pour retirer l'accès à ces contenus
05:42ou pour les supprimer, dès lors qu'elles en ont eu connaissance.
05:46Sur la suppression, justement, des contenus,
05:48le tribunal judiciaire de Paris a été saisi à l'occasion de plusieurs affaires
05:52et a confirmé que la simple allégation d'illicité ne suffit pas.
05:56C'est ce que j'ai indiqué en début de cette intervention.
05:59Pourquoi ?
05:59Il faut des éléments concrets.
06:01Je peux ici citer la décision du tribunal judiciaire de Paris du 5 septembre 2025,
06:06donc assez récent,
06:07qui a rejeté la demande de retrait d'une vidéo publiée sur TikTok
06:11qui aurait été constitutive, selon la société de demande reste,
06:14d'une pratique commerciale trompeuse par diffusion de faux avis.
06:18La société ici produisait notamment une copie d'une plainte pénale
06:22qu'elle avait déposée auprès du procureur de la République.
06:25Le tribunal a donné raison à TikTok,
06:27à juste titre, en jugeant que le simple dépôt d'une plainte ne suffit pas,
06:32qu'il fallait ici démontrer en quoi précisément les propos tenus dans la vidéo étaient illicites.
06:38On peut citer une autre décision intéressante du tribunal judiciaire de Paris du 24 avril 2024,
06:43rendue à l'encontre de Meta cette fois-ci,
06:45qui portait sur la mise en place de filtres.
06:49On le disait, le DSA oblige les très grandes plateformes
06:52à prendre des mesures proactives pour lutter contre les risques systémiques.
06:56Ici, Meta avait demandé la rétractation d'une ordonnance
06:59qu'il avait enjoint à imposer des filtres pour filtrer les publicités illicites
07:05qui utilisaient le nom d'une enseigne assez célèbre, le groupe Casino Barrière,
07:10pour promouvoir une activité de jeu en ligne contrefait.
07:17Le tribunal a jugé que la qualité d'intermédiaire de Meta,
07:20c'est la qualité d'hébergeur,
07:22n'était pas un obstacle à ce qu'il soit enjoint à mettre en place ces filtres
07:26et que par ailleurs, cette mesure de filtrage ne constituait pas non plus
07:31une obligation générale de surveillance,
07:33dès lors qu'elle était limitée dans sa portée, dans sa durée
07:36et qui a été proportionnée à l'objectif poursuivi.
07:39On voit qu'il y a déjà quelques décisions qui émergent.
07:42Est-ce qu'il y a des tendances qui se dégagent
07:45ou qui vont se dégager à moyen terme, selon vous ?
07:47Oui, je pense qu'on peut s'attendre à une montée en puissance des recours,
07:51notamment ceux engagés par les utilisateurs eux-mêmes.
07:54C'est là une nouveauté du DSA,
07:56c'est qu'il a introduit, ouvert la voie aux utilisateurs,
08:00la voie d'un recours direct pour tous les utilisateurs
08:03qui estimeraient qu'une violation du DSA leur a causé un préjudice.
08:08La Commission européenne joue également un rôle moteur.
08:11Là, je vous renvoie aux nombreuses enquêtes d'ores et déjà ouvertes
08:14par dizaines contre une multitude de plateformes,
08:17notamment TEMU, TikTok, Pornhub, etc.,
08:20au sujet notamment de la protection des mineurs,
08:22la transparence des algorithmes, etc.
08:24Je dirais aussi qu'il faudra être attentif
08:27à l'évolution de la jurisprudence française comme européenne
08:31parce que celle-ci va venir préciser les contours de ses obligations
08:35mises à la charge des plateformes,
08:36mais également va nous donner des clés sur l'interprétation
08:40et l'articulation de ses obligations
08:42vis-à-vis des autres principes posés par le DSA,
08:44mais également plus généralement par rapport aux libertés fondamentales.
08:47Je pense par exemple à l'étendue de l'exigence de filtrage,
08:51de contrôle mis à la charge des grandes plateformes.
08:56Comment est-ce qu'on l'articule par rapport au principe
08:58d'exonération de responsabilité des plateformes
09:02pour la publication de contenus diffamatoires
09:05ou haineux, par exemple, par leurs utilisateurs ?
09:09En résumé, oui, je pense que le DSA ouvre une nouvelle ère
09:13de contentieux et que les plateformes devront s'adapter
09:16à une surveillance accrue.
09:18On va suivre tout ça de près.
09:20Merci, Ella Barda.
09:21Je rappelle que vous êtes associée chez Signature Litigation.
09:24Merci beaucoup.
09:25Tout de suite, l'émission continue.
09:27On va parler de licenciement nul pour cause de preuves illicites.
09:32Sous-titrage Société Radio-Canada
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations