00:00On va parler DSA, comment les plateformes intègrent les nouvelles obligations et comment ça s'interprète avec la liberté d'expression.
00:21On en parle tout de suite avec mon invité, Caroline Nianaz, associée chez Eversheds Sutherland Paris. Caroline, bonjour.
00:30Alors on va voir que le DSA a eu un impact concret sur les obligations des plateformes et on va s'intéresser aux premières décisions post-DSA tout d'abord.
00:40Quelles sont-elles ? Quelles sont les premières tendances de ces décisions ?
00:44Alors les premières tendances, ça s'inscrit plutôt dans une approche de continuité que de rupture à vrai dire.
00:50Le DSA, c'est un règlement de 2022 qui est entré en application en 2024.
00:54Il vient modifier et moderniser la directive commerce électronique qui était la précédente réglementation de 2000.
01:04Mais il en garde les deux grands principes.
01:06Et ces principes, c'est une absence de surveillance générale des contenus.
01:11Donc c'est-à-dire qu'un hébergeur n'est pas censé surveiller ce qui se passe sur sa plateforme.
01:15Il n'en a d'ailleurs pas la capacité technique.
01:17Et le deuxième grand principe, c'est une responsabilité conditionnée à la connaissance d'un contenu illicite.
01:24Donc c'est-à-dire qu'un hébergeur ne va être tenu responsable que s'il a été notifié d'un contenu illicite et qu'il n'a pas retiré dans les temps ce contenu illicite.
01:35Il y a une réserve d'interprétation qui est importante, qui est le contenu manifestement illicite.
01:39Donc c'est-à-dire qu'un hébergeur n'est pas tenu de retirer absolument tous les contenus qui lui sont notifiés et qui sont prétendus comme illicite.
01:47Mais seulement les contenus manifestement illicites.
01:49Donc c'est-à-dire les contenus qui posent vraiment problème, dont l'illicité est manifeste, où il n'y a pas vraiment de doute sur cette illicité.
01:56On n'est pas dans de la diffamation ou de dénigrement, mais on est potentiellement dans des contenus insultants, de l'apologie contre le terrorisme, etc.
02:03Et les premières décisions d'ISA viennent rappeler ça et cette limite entre la liberté d'expression et la censure.
02:12D'accord. Donc il y a une articulation qu'il doit y avoir entre les obligations des plateformes et cette liberté d'expression pour éviter toute censure abusive qu'il pourrait y avoir.
02:24Exactement. L'idée, c'est vraiment que les hébergeurs ne doivent pas être juges du contenu qui transite sur leur plateforme.
02:31C'est-à-dire qu'ils ont des obligations. Ils ont notamment des obligations de retrait. Ils ont des obligations de modération du contenu.
02:36Mais ils ne doivent pas se transformer en censeurs, notamment en censeurs privés, parce que ce qu'on veut éviter, c'est l'auto-censure.
02:42Et on veut vraiment qu'il y ait cette liberté d'expression qui soit préservée et qu'il y ait une balance qui soit faite entre, bien sûr, les contenus manifestement illicites et la liberté d'expression.
02:52Alors, on va revenir sur les premières décisions post-DSA. En quoi elles illustrent la continuité dont vous avez parlé tout à l'heure?
03:01Alors, une des premières décisions qui a été rendue sous l'égide du DSS, c'est une décision qui est rendue contre TikTok.
03:09Donc, c'était une société de soins esthétiques qui avait assigné TikTok en sa qualité d'hébergeur,
03:14en lui demandant le retrait d'une vidéo faite par une influenceuse, une tiktokeuse,
03:19qui critiquait l'institut dans lequel elle était allée faire son soin.
03:25Et la société prétendait que c'était une pratique commerciale trompeuse.
03:29Elle avait d'ailleurs déposé une plainte pénale à cet égard et que c'était constitutif de dénigrement.
03:34Et le juge vient nous dire, non, je ne vais pas ordonner le retrait de la vidéo litigieuse,
03:40étant donné qu'il y a une plainte pénale, certes, mais ça ne présage en rien,
03:44de ce qui va être décidé in fine sur l'initialité du contenu.
03:47Ça, c'est le premier point.
03:49Et le deuxième point, c'est le côté dénigrement, c'est-à-dire que la tiktokeuse critique l'institut de soins,
03:55elle critique les soins qu'elle a reçus là-bas, mais ça reste une critique mesurée, raisonnable,
04:01qui ne dégénère pas en un abus de la liberté d'expression et en un dénigrement.
04:05Donc, on est vraiment dans une évaluation au cas par cas, par le juge, de où est-ce qu'on met le curseur,
04:12est-ce que c'est du dénigrement, est-ce que c'est de la diffamation,
04:15ou est-ce que c'est juste l'expression d'une opinion qui, certes, est une expression négative
04:20et mécontente des soins qu'elle a reçus, mais qui reste dans les limites de la liberté d'expression.
04:25Alors, quel critère le juge, il utilise ?
04:29Alors, le juge, ce qu'il utilise comme critère, c'est le critère du manifestement illicite,
04:32c'est-à-dire que ce qu'on voit depuis la LCEN,
04:35donc la LCEN, c'est la loi pour la confiance dans l'économie numérique,
04:38elle existe dans le paysage législatif français depuis 2004,
04:41elle vient transposer la directive e-commerce dont on a parlé,
04:44donc le prédécesseur du DSC,
04:46et cette LCEN, elle reprenait ce principe de responsabilité limitée au contenu illicite,
04:54et lors de la promulgation de la loi de cette LCEN,
04:59le Conseil constitutionnel avait émis une réserve d'interprétation assez importante,
05:03il avait dit justement que la responsabilité, elle est limitée au contenu manifestement illicite
05:08qui n'aurait pas été retiré après qu'ils aient été signalés.
05:11Et vraiment, ce sujet de manifestement, il est vraiment au cœur de la jurisprudence LCEN,
05:17et maintenant d'ISA, c'est-à-dire qu'on a vraiment une évaluation au cas par cas,
05:23mais le curseur, c'est un petit peu, est-ce que cette illicite est évidente ?
05:28C'est-à-dire que, par exemple, quand vous avez un contenu diffamant ou un contenu dénigrant,
05:32il peut y avoir une discussion sur est-ce que c'est raisonnable, est-ce que c'est excessif ?
05:37Par exemple, en matière de diffamation, c'est une infraction de presse, il y a l'exception de vérité,
05:41il y a l'excuse de bonne foi.
05:43Donc tout ça, c'est des choses dont on peut discuter, que bien sûr, un hébergeur ne peut pas faire,
05:48il ne peut pas faire une analyse légale comme le ferait un juge à chaque fois qu'il reçoit une notification LCEN de demande de retrait.
05:54Donc on se limite au contenu manifestement illicite, où il n'y a pas de doute sur l'illicéité,
06:00comme par exemple des contenus outrageants, typiquement des insultes,
06:04ou des contenus franchement illicites, apologiste du terrorisme, etc.
06:08Donc il faut que ce soit vraiment évident ?
06:10Il faut vraiment que ce soit évident, et ça s'inscrit finalement dans la droite ligne des infractions de presse,
06:17et l'évaluation de la liberté d'expression, qu'est-ce qu'un abus, qu'est-ce qui n'est pas un abus,
06:23et le juge va vraiment faire une appréciation in concreto.
06:28Et ce qui est assez rassurant des premières décisions post-DSA,
06:31c'est qu'on voit que le juge continue à faire cette évaluation.
06:36Le DSA ne reprend pas le critère justement du manifestement illicite dans le corps du texte,
06:41par rapport aux obligations de retrait de l'hébergeur.
06:43Il le reprend dans quelques considérants, mais il ne le détaille pas dans les obligations de l'hébergeur.
06:47Donc la question était un petit peu de savoir si le juge allait finalement un peu s'engouffrer dans la brèche,
06:52s'asseoir un petit peu sur ce critère jurisprudentiel qui avait été dégagé par les juridictions françaises
06:59à la suite de la décision du Conseil constitutionnel.
07:01Et la réponse est non.
07:03Le juge reste dans la droite lignée de sa jurisprudence précédente,
07:08et garde cette évaluation finalement très juridique d'évaluation des contenus qui transitent sur les services en ligne.
07:16Donc ce contrôle de proportionnalité reste central pour vous,
07:20et ça va être une tendance de fonds qui se dégage, enfin qui continue de se dégager ?
07:24A priori, il n'y a pas de raison que ça change,
07:27étant donné qu'on a eu la directive e-commerce, on a eu la LCEN et maintenant on a le DSC.
07:33Il y a quand même cette volonté vraisemblable des juges de rester très juridique dans la rappréciation des contenus,
07:40de tempérer un peu les ardeurs des plaignants qui voudraient faire retirer des contenus qui leur portent préjudice
07:48parce qu'ils ne sont pas très contents de ce qui se transite, de ce qu'ils portent sur eux, sur les plateformes.
07:54Mais ça ne veut pas dire que tout va être retiré.
07:57Pour finir, est-ce qu'on a une clarification du rôle des plateformes avec ces décisions ?
08:02Alors je ne dirais pas une clarification parce que c'est dans la droite lignée,
08:06mais on a certainement une consolidation de la jurisprudence ancienne.
08:10Il y a toute la jurisprudence TikTok, par exemple, dont je vous parlais,
08:14a été rendue par le TJ de Paris et notamment sa troisième chambre
08:16qui est spécialisée sur ses affaires LCEN, article 6.3, procédure accélérée au fond, etc.
08:23Donc c'est vraiment son dada, entre guillemets.
08:26Et donc je pense qu'elle va continuer à insuffler un petit peu cette dynamique
08:31et donc consolider cette jurisprudence ancienne à ce sujet.
08:35Bon, on va observer ça de près.
08:37Merci Caroline Liana, je rappelle que vous êtes associée chez Evershed Sutherland.
08:41Merci beaucoup.
08:42Tout de suite, l'émission continue.
08:44On va parler d'un autre sujet important pour les entreprises.
08:47On va parler congés payés et décompte des heures supplémentaires.
Écris le tout premier commentaire