Pular para o playerIr para o conteúdo principal
No Discutindo Direito, o advogado especialista em Direito Digital Rony Vainzof comenta o futuro do Marco Civil da Internet e o impacto nas redes sociais. O jurista debate as novas propostas de regulação e como o Judiciário brasileiro deve tratar a responsabilidade das plataformas. Acompanhe a visão técnica sobre o equilíbrio entre a inovação tecnológica e o rigor da lei.

Baixe o app Panflix: https://www.panflix.com.br/

Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews

Siga o canal "Jovem Pan News" no WhatsApp:
https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S

Entre no nosso site:
http://jovempan.com.br/

Facebook:
https://www.facebook.com/jovempannews

Siga no Twitter:
https://twitter.com/JovemPanNews

Instagram:
https://www.instagram.com/jovempannews/

TikTok:
https://www.tiktok.com/@jovempannews

Kwai:
https://www.kwai.com/@jovempannews

#JovemPan
#DiscutindoDireito

Categoria

🗞
Notícias
Transcrição
00:00Explica pra nós o que é esse tal de artigo 19 do marco civil da internet que dificulta tanto a
00:09responsabilização das plataformas digitais.
00:12Só com ordem judicial, qual a origem disso? Explica pra nós pra gente entender.
00:16Doutor Capês, primeiro obrigado pelo convite e pela pauta que ela é super relevante cada vez mais.
00:21Pois é, o artigo 19 dificultava, mas não dificulta mais, porque houve uma alteração significativa em razão de uma decisão
00:30recente de 2025 do STF, que eu vou explicar, mas antes eu vou dar alguns passos atrás conforme você perguntou.
00:37Primeiro, o que era esse artigo 19 do marco civil da internet?
00:40O artigo 19 não impedia que os provedores de aplicação, como moderadores de conteúdo, que eles removessem ou não removessem
00:50determinados conteúdos.
00:51Não impedia, ou seja, as plataformas, as redes sociais, elas poderiam remover ou não remover.
00:57Qual que era o grande problema do artigo 19?
01:00Ele previa que a responsabilidade civil desses provedores como intermediários só ocorreria se houvesse uma ordem judicial e essa ordem
01:11judicial fosse descumprida.
01:13Ou seja, isso na prática o que acarretava?
01:16Quando eventualmente você tinha algum tipo de conteúdo que pudesse ser nocivo e você notificasse a plataforma, se a plataforma
01:24não retirasse aquele conteúdo nocivo do ar, ela não poderia ser responsabilizada civilmente, apenas se houvesse uma ordem judicial e
01:32essa ordem judicial fosse descumprida.
01:34Havia só duas exceções para esse tipo de situação, pornografia não autorizada e direitos autorais.
01:42Para essas duas situações, se a plataforma fosse notificada e ela não agisse, ela poderia ser responsabilizada civilmente.
01:48E esse então artigo 19 do marco civil da internet vem de um contexto lá atrás dos Estados Unidos, lá
01:54de 1996, quando a internet começou a ser comercializada praticamente no mundo inteiro.
02:00Havia uma grande preocupação nos Estados Unidos, através do Communication Distance Act, para que aqueles serviços prosperassem.
02:09Porque se houvesse muita responsabilização nos serviços inicialmente em relação à moderação de conteúdo, poderia haver um desestímulo a esse
02:17tipo de serviço.
02:18E o que foi previsto lá atrás, em 1996, nos Estados Unidos?
02:21Olha, esses serviços como intermediários, eles não podem ser responsabilizados, tanto se eles forem informados e não tirarem algo no
02:29ar, como também se eles agirem diligentemente para tirarem algo do ar.
02:34E depois alguém falar para eles, olha, isso aqui era liberdade de expressão, você não poderia ter, também teria uma
02:39isenção por ter agido.
02:42Então isso foi super importante lá no início da internet, para a gente ter esses serviços que nós temos hoje.
02:47Só que a gente sabe que tudo isso mudou, né?
02:50Ao longo dos anos, essas plataformas como um todo, principalmente as redes sociais, viraram chamados net states, né?
02:57Ou seja, são praticamente grandes estados mesmo, na sua concepção, porque tem um território todo que é povoado pelos seus
03:05usuários e seus respectivos termos de uso.
03:07E o que aconteceu e começou a acontecer nesses novos estados digitais?
03:13Começou a prosperar muito, o que? Desinformação, discurso de ódio e vários outros tipos de atos ilícitos.
03:20Então, o que aconteceu a partir dali?
03:23Começou a haver grandes pressões, principalmente decorrentes de casos notórios, como o efeito Snowden, o Cambridge Analytica também foi outro
03:31grande caso notório,
03:33para pressionar cada vez mais o Estado, falando, espera aqui, vocês precisam agora passar a serem diligentes, mais diligentes, em
03:40relação à manutenção de um ambiente saudável.
03:44Enquanto isso, no Brasil, em 2014, a gente seguiu essa linha lá de 1996, contrariando até então as decisões do
03:52STJ.
03:52Antes do Marco Civil da Internet de 2014, o STJ falava o seguinte, provedor, você, a partir do momento que
04:00for notificado extrajudicialmente e não remover o conteúdo em até 24 horas,
04:05você passa a ser responsável solidariamente, porque, sopesando direitos constitucionais de liberdade de expressão e dignidade da pessoa humana,
04:15prevaleceria a dignidade da pessoa humana nesse tipo de situação.
04:17Quer dizer que, até 2014, quando foi aprovado o Marco Civil da Internet, no Brasil havia um sistema um pouco
04:25diferente daquela liberdade absoluta dos Estados Unidos.
04:29Uma notificação já criava responsabilidade para a plataforma.
04:33A possibilidade de criar responsabilidade, ou seja, o dever de diligência da plataforma de analisar aquele caso.
04:38E aí veio o tal do artigo 19, que eu estou te perguntando.
04:41Quer dizer que, a partir desse artigo 19, as plataformas começaram a ter um respiro maior?
04:46Começaram a ter a possibilidade de ter um respiro maior, né?
04:49Essa possibilidade que elas começaram a ter.
04:51E, claro, as plataformas não querem ter um ambiente nocivo, né?
04:55Elas querem agir diligentemente.
04:56Mas, obviamente, que o artigo 19 criou um conforto maior em relação a uma ausência de diligência.
05:03Porque, no caso de uma ausência de diligência, é somente por ordem judicial que elas passariam a ser responsabilizadas, tá?
05:09Tem um pano de fundo importante aí também, uma preocupação muito grande, que eu acho que é importante comentar ainda
05:15nesse contexto.
05:16E ainda antes de falar dessa decisão do STF do ano passado, que foi super importante.
05:20Porque tem diversos estudos que demonstram que, se você não tiver esse tipo de proteção que tem lá nos Estados
05:27Unidos,
05:27e que tinha aqui no Brasil, o que que poderia acontecer?
05:31Em razão das notificações massivas em relação a conteúdos que não necessariamente são ilícitos ou são ofensivos de alguma forma,
05:41com receio das plataformas serem responsabilizadas, elas poderiam acabar deletando conteúdos que poderiam estar dentro dos limites da liberdade de
05:51expressão.
05:52E isso, consequentemente, ser uma censura, né?
05:55E a outra discussão que se tinha em relação a esse tema, é que quem tem que decidir o que
06:01é certo e o que é errado,
06:02não são as plataformas em termos de conteúdo lícito ou ilícito, seria somente o poder judiciário.
06:09Mas esse ponto que é super relevante, né?
06:11Porque as plataformas, elas podem decidir, dentro dos seus termos de uso, nesse conceito de net state,
06:18aquilo que é certo e o que é errado.
06:21A partir do momento que a plataforma decide algo, aquela decisão não é soberana.
06:25Porque, obviamente, que aquela decisão da plataforma, ela pode ser colocada em xeque aonde?
06:30Aí sim no judiciário.
06:32A plataforma acertou ou a plataforma errou a partir do momento que removeu um conteúdo ou que deixou de remover
06:38o conteúdo.
06:39E isso sim, o judiciário ficaria com uma segunda camada pra fazer essa avaliação.
06:44Mas esse modelo todo, o capês que a gente tá conversando aqui, ele ficou já ultrapassado.
06:51E por que ficou ultrapassado?
06:52Porque, em meados do ano passado, houve uma decisão paradigmática do STF,
06:58fazendo com que esse artigo 19 do marco civil da internet fosse completamente reconfigurado.
07:05E o que vale hoje no Brasil?
07:07Isso que é importante.
07:08Como é que tá hoje a situação da legislação da internet?
07:11Hoje mudou completamente, tá?
07:13A regra é o seguinte.
07:15Provedores, enquanto intermediários, se notificados de um conteúdo ilícito,
07:21devem agir diligentemente sob pena de serem responsabilizados.
07:25Ou seja, voltamos praticamente o que era antes, tá?
07:28Isso pra qualquer tipo de crime e pra qualquer tipo de ato ilícito.
07:32Com algumas exceções.
07:34Quais são essas exceções?
07:35Mas crimes contra a honra não entram nesse rol.
07:38Ainda dependem de ordem judicial, por causa de um subjetivismo de crime contra a honra.
07:43E também para conteúdos que sejam trafegados em aplicações de e-mail,
07:48porque obviamente é um conteúdo de comunicação de e-mail,
07:50não é uma rede social que a gente tá falando.
07:53Também pra serviços de mensagem instantânea.
07:55Ou então aqueles serviços como serviços de reunião online também.
07:59Isso não entra nessa regra.
08:02Então, praticamente pra tudo hoje em dia,
08:04tirando esses casos que eu mencionei,
08:06a plataforma, se notificada,
08:08ela tem que agir diligentemente,
08:10se não passa a ser responsável por isso.
08:12E tem mais, Capês.
08:14Essa decisão do STF,
08:16ela foi além.
08:18O que que ela criou?
08:19Ela criou, por exemplo,
08:21a responsabilidade por falha sistêmica.
08:24Pra determinados crimes previstos num rol taxativo,
08:28como, por exemplo, instigação ao suicídio,
08:31crime de racismo,
08:33crime de violência contra a mulher,
08:35se as plataformas não atuarem diligentemente
08:39para que esse tipo de conteúdo nem vá pro ar,
08:43elas vão ser responsabilizadas civilmente.
08:45Mas aí não é caso a caso.
08:48Aí vai ser avaliado uma eventual falha sistêmica.
08:51Se as plataformas, de forma consistente,
08:53estão falhando sistemicamente
08:56em relação a esse tipo de situação.
Comentários

Recomendado