Pular para o playerIr para o conteúdo principal
Discutindo Direito vai receber semanalmente autoridades do Judiciário e grandes nomes do Direito para traduzir, à luz do noticiário, os principais temas ligados ao mundo jurídico. Discussões analíticas e propositivas para fortalecer a democracia e conscientizar a população sobre seus direitos e deveres.

Baixe o app Panflix: https://www.panflix.com.br/

Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews

Siga o canal "Jovem Pan News" no WhatsApp:
https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S

Entre no nosso site:
http://jovempan.com.br/

Facebook:
https://www.facebook.com/jovempannews

Siga no Twitter:
https://twitter.com/JovemPanNews

Instagram:
https://www.instagram.com/jovempannews/

TikTok:
https://www.tiktok.com/@jovempannews

Kwai:
https://www.kwai.com/@jovempannews

#JovemPan
#DiscutindoDireito

Categoria

🗞
Notícias
Transcrição
00:06Olá, eu sou o Fernando Capês e
00:09começa agora o Discutindo
00:11o Direito.
00:18Discutindo o Direito. Nosso
00:21convidado de hoje é advogado,
00:24professor e árbitro especializado
00:27em Direito Digital, Proteção de
00:30Dados e Segurança Cibernética há
00:33mais de vinte anos. Sócio do VLK
00:36Advogados, conselheiro titular do
00:38Conselho Nacional de Proteção de
00:40Dados e Privacidade, conselheiro
00:42titular do Comitê Nacional de
00:44Cibersegurança, diretor titular da
00:48Divisão de Cibersegurança e do e
00:50diretor do Departamento de Defesa e
00:52Segurança da Fiesp. É consultor em
00:55proteção de dados da FEComércio São
00:57Paulo, árbitro da Câmara de
00:59Disputas Relativas a Direito
01:01Digital da BPI, coordenador e
01:03autor dos livros Inteligência
01:05Artificial, Sociedade, Economia e
01:07Estado, Legal Innovation, Data
01:09Protection Officer e comentários ao
01:11EUI Act, professor da FIA e do
01:14IBGC. É com grande prazer que nós
01:17recebemos aqui o advogado
01:18especialista em Direito Digital,
01:20doutor Rony Weinshoff. Muito prazer
01:23estar aqui no nosso programa, doutor
01:24Rony, o senhor é um grande
01:25especialista, um dos maiores
01:27conhecedores de Direito Digital e
01:30tem muita curiosidade a respeito
01:32desse assunto. Então já vou direto
01:34ao ponto. Explica pra nós que que
01:37é esse tal de artigo dezenove do
01:40marco civil da internet que
01:42dificulta tanto a responsabilização
01:45das plataformas digitais, só com
01:47ordem judicial, qual a origem disso?
01:49Explica pra nós pra gente entender.
01:51Doutor Capês, primeiro obrigado
01:53pelo convite e pela pauta que ela é
01:55super relevante, cada vez mais.
01:57Pois é, o artigo dezenove ele
01:59dificultava, mas não dificulta mais
02:01porque houve uma alteração
02:02significativa em razão de uma
02:04decisão recente de dois mil e
02:06vinte e cinco do STF que eu vou
02:08explicar, mas antes eu vou dar
02:09alguns passos atrás conforme você
02:11perguntou. Acho que primeiro o que
02:13que era esse artigo dezenove do
02:14Marcos Filho da internet? O artigo
02:16dezenove, ele não impedia que os
02:19provedores de aplicação como
02:21moderadores de conteúdo que eles
02:23removessem ou não removessem
02:25determinados conteúdos, não
02:26impedia, ou seja, as plataformas,
02:29redes sociais, elas poderiam
02:31remover ou não remover. Qual que era
02:33o grande problema do artigo
02:34dezenove? Ele previa que a
02:36responsabilidade civil desses
02:39provedores como intermediários só
02:41ocorreria se houvesse uma ordem
02:44judicial e essa ordem judicial ela
02:46fosse descumprida. Ou seja, isso
02:49na prática, o que acarretava?
02:51Quando eventualmente você tinha
02:53algum tipo de conteúdo que
02:54pudesse ser nocivo e você
02:56notificasse a plataforma, se a
02:58plataforma não retirasse aquele
03:00conteúdo nocivo do ar, ela não
03:02poderia ser responsabilizada
03:04civilmente, apenas se houvesse
03:06uma ordem judicial e essa ordem
03:08judicial fosse descumprida. Haviam
03:10só duas exceções pra esse tipo
03:12de situação, pornografia não
03:14autorizada e direitos autorais. Pra
03:17essas duas situações, se a
03:18plataforma fosse notificada e ela
03:20não agisse, ela poderia ser
03:21responsabilizada civilmente. E
03:24esse então artigo dezenove do
03:25marco civil da internet vem de um
03:27contexto lá atrás dos Estados
03:28Unidos, lá de mil novecentos e
03:30noventa e seis, quando a internet
03:32começou a ser comercializada
03:34praticamente no mundo inteiro. Havia
03:36uma grande preocupação nos
03:37Estados Unidos, através do
03:39Communication Decence Act, para
03:41que aqueles serviços prosperassem,
03:43porque se houvesse muita
03:45responsabilização nos serviços
03:46inicialmente, em relação a
03:48moderação de conteúdo, poderia
03:50haver um desestímulo a esse tipo
03:52de serviço. E o que que foi
03:54previsto lá atrás, em mil
03:55novecentos e noventa e seis nos
03:56Estados Unidos? Olha, esses
03:57serviços como intermediários, eles
04:00não podem ser responsabilizados,
04:01tanto se eles forem informados e
04:03não tirarem algo no ar, como
04:05também se eles agirem diligentemente
04:07pra tirarem algo do ar e depois
04:09alguém falar pra eles, olha, isso
04:11aqui era liberdade de expressão, você
04:13não poderia ter, também teria uma
04:14isenção por ter agido. Então, isso
04:17foi super importante lá no início
04:19da internet, pra gente ter esses
04:20serviços que nós temos hoje. Só
04:23que a gente sabe que tudo isso
04:24mudou, né? Ao longo dos anos,
04:26essas plataformas como um todo,
04:28principalmente as redes sociais,
04:30viraram chamados net states, né?
04:32Ou seja, são praticamente grandes
04:34estados mesmo, na sua concepção,
04:37porque tem um território todo que é
04:38povoado pelos seus usuários e seus
04:41respectivos termos de uso. E o que
04:43que aconteceu e começou a acontecer
04:44nesses novos estados digitais?
04:48Começou a prosperar muito o que?
04:50Desinformação, discurso de ódio e
04:53vários outros tipos de atos
04:54ilícitos. Então, o que que
04:56aconteceu a partir dali? Começou a
04:58ver grandes pressões, principalmente
05:00decorrentes de casos notórios, como
05:03o efeito Snowden, o Cambridge
05:05Analítica também foi outro grande
05:06caso notório, pra pressionar cada
05:09vez mais o estado, falando, espera
05:11aqui, vocês precisam agora passar a
05:13serem diligentes, mais diligentes, em
05:15relação à manutenção de um ambiente
05:18saudável. Enquanto isso, no Brasil, em
05:20dois mil e quatorze, a gente seguiu
05:22essa linha lá de mil novecentos e
05:23noventa e seis, contrariando até
05:25então as decisões do STJ. Antes do
05:28marco civil da internet de dois mil
05:29e quatorze, o STJ falava o
05:31seguinte, provedor, você, a partir do
05:35momento que for notificado
05:36extrajudicialmente e não remover o
05:38conteúdo em até vinte e quatro
05:39horas, você passa a ser responsável
05:42solidariamente, porque sopesando
05:44direitos constitucionais de
05:46liberdade de expressão e dignidade
05:48da pessoa humana, prevaleceria a
05:50dignidade da pessoa humana nesse
05:52tipo de situação. Quer dizer que até
05:54dois mil e quatorze, quando foi
05:56aprovado o marco civil da internet,
05:58no Brasil havia um sistema um pouco
06:00diferente daquela liberdade absoluta
06:02dos Estados Unidos. Uma notificação
06:05já já criava responsabilidade pra
06:07plataforma. A possibilidade de criar
06:09responsabilidade, ou seja, o dever
06:10de diligência da plataforma de
06:12analisar aquele caso. Então, e aí
06:13veio o tal do artigo dezenove que eu
06:16tô te perguntando, quer dizer que a
06:17partir desse artigo dezenove, as
06:18plataformas começaram a ter um
06:20respiro maior? Começaram a ter a
06:22possibilidade de ter um respiro
06:23maior, né? Essa possibilidade que
06:25elas começaram a ter e claro, as
06:27plataformas não querem ter um
06:28ambiente nocivo, né? Elas querem
06:30agir diligentemente, mas
06:32obviamente que o artigo dezenove
06:33criou um conforto maior em
06:36relação a uma ausência de
06:37diligência. Porque no caso de uma
06:39ausência de diligência, somente
06:41por ordem judicial que elas
06:42passariam a ser responsabilizadas,
06:44tá? Tem um pano de fundo
06:46importante aí também, uma
06:47preocupação muito grande, que eu
06:49acho que é importante comentar
06:50ainda nesse contexto e ainda
06:51antes de falar dessa decisão do
06:53STF do ano passado, que foi
06:54super importante. Porque tem
06:56diversos estudos que demonstram que
06:58se você não tiver esse tipo de
07:00proteção que tem lá nos Estados
07:02Unidos e que tinha aqui no Brasil, o
07:05que que poderia acontecer? Em
07:06razão das notificações massivas em
07:10relação a conteúdos que não
07:12necessariamente são ilícitos ou são
07:15ofensivos de alguma forma, com
07:17receio das plataformas serem
07:18notificadas, serem
07:19responsabilizadas, elas poderiam
07:21acabar deletando conteúdos que
07:24poderiam estar dentro dos limites da
07:26liberdade de expressão. E isso
07:27consequentemente ser uma censura, né? E
07:30a outra discussão que se tinha em
07:32relação a esse tema é que quem tem
07:34que decidir o que é certo e o que é
07:36errado, não são as plataformas em
07:39termos de conteúdo lícito ou ilícito,
07:41seria somente o poder judiciário. Mas
07:44esse ponto que é super relevante, né?
07:46Porque as plataformas, elas podem
07:49decidir dentro dos seus termos de uso,
07:51nesse conceito de net state, aquilo que
07:54é certo e o que é errado. A partir do
07:56momento que a plataforma decide algo,
07:58aquela decisão não é soberana, porque
08:01obviamente que aquela decisão da
08:02plataforma, ela pode ser colocada em
08:04cheque aonde? Aí sim no judiciário. A
08:07plataforma acertou ou a plataforma
08:09errou a partir do momento que removeu
08:11um conteúdo ou que deixou de remover o
08:13conteúdo. E isso sim, o judiciário
08:16ficaria com uma segunda camada pra
08:18fazer essa avaliação. Mas esse modelo
08:21todo, o capês que a gente tá
08:22conversando aqui, ele ficou já
08:25ultrapassado. E por que ficou
08:26ultrapassado? Porque em meados do ano
08:29passado, houve uma decisão paradigmática
08:32do STF fazendo com que esse artigo
08:35dezenove do Marco Civil da internet
08:36fosse completamente reconfigurado. E
08:40que que vale hoje no Brasil? Isso que é
08:43importante. Como é que tá hoje a
08:44situação da legislação da internet? Hoje
08:46mudou completamente, tá? A regra é o
08:49seguinte, provedores enquanto
08:51intermediários, se notificados de um
08:54conteúdo ilícito, devem agir
08:57diligentemente sob pena de serem
08:59responsabilizados. Ou seja, voltamos
09:01praticamente o que era antes, tá? Isso
09:03pra qualquer tipo de crime e pra
09:05qualquer tipo de ato ilícito. Com
09:07algumas exceções. Quais são essas
09:09exceções? Crimes contra honra, não
09:12entram nesse rol, ainda dependem de
09:14ordem judicial, por causa de um
09:16subjetivismo de crime contra honra. E
09:19também para conteúdos que sejam
09:21trafegados em aplicações de e-mail,
09:23porque obviamente é um conteúdo de
09:24comunicação de e-mail, não é uma
09:26rede social que a gente tá falando.
09:28Também pra serviços de mensagem
09:30instantânea, ou então aqueles serviços
09:32como serviços de reunião online
09:34também, isso não entra nessa regra.
09:37Então, praticamente pra tudo hoje em
09:38dia, tirando esses casos que eu
09:41mencionei, a plataforma se notificada,
09:43ela tem que agir diligentemente, se
09:45não passa a ser responsável por isso.
09:47E tem mais, Capês. Essa decisão do
09:50STF, ela foi além. O que que ela
09:53criou? Ela criou, por exemplo, a
09:57responsabilidade por falha sistêmica.
09:59Pra determinados crimes previstos num
10:02rol taxativo, como por exemplo,
10:04instigação ao suicídio, crime de
10:07racismo, crime de violência contra
10:09mulher, se as plataformas não atuarem
10:13diligentemente para que esse tipo de
10:16conteúdo nem vá pro ar, elas vão ser
10:19responsabilizadas civilmente. Mas
10:21aí não é caso a caso. Aí vai ser
10:23avaliado uma eventual falha
10:25sistêmica, se as plataformas de
10:27forma consistente estão falhando
10:30sistemicamente em relação a esse tipo
10:33de situação. Vamos tentar fazer então um
10:34resumo pra o pessoal entender. Como é
10:37que tá a situação hoje? É necessário uma
10:40notificação, basta uma notificação
10:43pra que qualquer conteúdo seja
10:45retirado. No caso das plataformas
10:48incitarem a prática de crime,
10:50discriminação, racismo, homofobia ou
10:53violência contra a mulher, não só as
10:56notificações obrigam a retirar, como se
10:58ela estiver reiteradamente colocando
11:00isso, ela pode ser responsável. Mesmo
11:02sem, no segundo caso, mesmo sem
11:05notificação, ela já tem o dever de
11:07diligência disso nem ir pro ar, mesmo
11:09sem qualquer notificação. Nos demais
11:11casos, notificação. Agora, quando que
11:14precisa de ordem judicial? Crimes
11:16contra a honra é fácil pro nosso
11:18telespectador entender, é uma hipótese.
11:21Agora, você falou outras exceções, eu
11:22queria que você desse exemplos dos
11:24crimes contra a honra, só com ordem
11:26judicial. Agora, serviços de reunião
11:29online, explica direito com exemplos
11:30essas outras exceções. Crimes contra
11:33honra, a responsabilidade civil começa
11:36a partir de ordem judicial, a
11:37plataforma pode retirar, se ela quiser,
11:39mas a responsabilidade civil é só
11:41após a ordem judicial. Agora, qualquer
11:43outro tipo de caso, um caso de
11:44racismo, por exemplo, você notificou,
11:47alguém foi, injúria racial, alguém
11:51praticou algum tipo de ilícito contra
11:53a honra seu, falando que você é
11:56denegrido a sua religião, ou algo do
11:59gênero, nesse tipo de situação.
12:01Antissemitismo, por exemplo. Antissemitismo.
12:04Racismo, discriminação por origem. Direitos
12:05autorais, direitos autorais,
12:07propriedade industrial. Pornografia
12:08infantil. Pornografia infantil. Tudo
12:10isso, notificação extrajudicial.
12:12Extrajudicial já resolve. Crime contra
12:15honra, só ordem judicial. Ordem
12:17judicial. Incitação à violência, ao
12:19racismo, etc. Além de só depois da
12:21responsabilidade, pode ser que se ela
12:24não agiu diligentemente, mesmo sem a
12:26notificação, ela responde. Exatamente.
12:28Agora, você citou umas outras
12:29exceções, não só crime contra honra,
12:31precisa de ordem judicial. O que mais que
12:33precisa de ordem judicial, mas dá exemplo
12:35pra gente entender. Serviço de
12:36mensageirinha instantânea tá excluída
12:38dessa. Serviço. WhatsApp. Tá. Por
12:41exemplo. O WhatsApp não entra dentro
12:43desse tipo de discussão. Por quê?
12:44Porque entra na discussão de
12:46criptografia ponta a ponta. Certo. Se
12:48você tem uma criptografia ponta a
12:49ponta na comunicação, é impossível pra
12:52plataforma avaliar aquele conteúdo que
12:54está trafegando. Perfeito. E por isso
12:55que não entra nesse tipo de situação. Perfeito.
12:57As outras situações são provedor de
12:59conta de e-mail, né? Ou seja, você não
13:01vai ficar monitorando o que que tá
13:02trafegando, assim como não vai
13:04monitorar uma ligação telefônica no
13:06e-mail. Ou então num serviço de
13:08reunião online, da mesma forma. Então
13:10tudo isso tá excepcionado desse tipo
13:12de de da decisão do STF. E acho que
13:15outro ponto importante da decisão do
13:17STF é o dever do devido processo
13:21informacional. O que que é isso? Assim
13:23como existe o devido processo legal,
13:25contraditório, ampla defesa, as
13:27plataformas são obrigadas a estabelecer
13:29o seu devido processo informacional. O
13:31que que é isso? Você tem que ter um
13:32sistema pra receber notificações, pra
13:36esclarecer notificações, pra abrir o
13:38contraditório e pra decidir se aquele
13:41caso vai ser removido, não vai ser
13:43removido, se a conta vai ser suspensa,
13:45se a conta não vai ser suspensa. Então
13:47tudo isso também é relevante nesse
13:50tipo de situação. E mais, a
13:52obrigação também das plataformas em
13:55terem um representante legal no Brasil
13:57pra que você viabilize o cumprimento de
14:00ordem judicial. Essa foi outra questão
14:02colocada na lição do STF. Vamos então
14:03a seguinte questão, S10. Wikipédia. A
14:07Wikipédia não tem um representante
14:10legal no Brasil. Pra você processar a
14:13Wikipédia é preciso expedir uma carta
14:16rogatória, que é um mandado de citação
14:18no exterior, lá pra Califórnia. E depois
14:22eles... Como é que a Wikipédia tá
14:24funcionando sem uma representação aqui
14:26no Brasil? E o Google tem representação
14:28no Brasil? É possível achar um
14:30representante do Google num mandado de
14:32citação normal aqui dentro do país?
14:35É, a maioria... A maioria das legislações
14:38brasileiras, independentemente de onde
14:40esteja situada a empresa, se presta
14:43serviço no Brasil, precisa cumprir as
14:44leis brasileiras. Acho que a novidade
14:46dessa decisão do STF é da obrigação de
14:49você ter um representante legal aqui no
14:51Brasil. A grande maioria das aplicações
14:54de internet, como o Google, tem
14:56representantes legais aqui no Brasil,
14:58entre outros, tá? Isso com a evolução
15:00dos serviços prestados, eles passaram a
15:03ter representantes legais no Brasil.
15:06Outros provedores de aplicação, se
15:08assim considerados, como o Wikipédia, são
15:10provedores de aplicação e que, portanto,
15:12estão dentro dessa nova decisão do STF.
15:15Qual pode ser a consequência, por exemplo,
15:18para o Wikipédia, que continua
15:21funcionando sem ter um representante
15:23no Brasil? Porque você pode ter, a
15:25pretexto de criar a biografia de
15:27alguém, criar um processo de
15:29vandalização dessa biografia. E aí, a
15:32vítima teria que se recorrer a uma
15:34ação contra o Wikipédia e teria o
15:37desconforto de ter que localizá-lo lá
15:38na Califórnia. Como é que seria essa
15:40responsabilização? A gente espera que
15:42nunca precise chegar nesse nível, né?
15:43Porque se resolva através de medidas
15:45extrajudiciais e desse devido processo
15:47informacional. Até a Wikipédia tem os
15:49mecanismos próprios pra você reclamar
15:52uma atualização, os moderadores
15:54próprios, no formato que a Wikipédia
15:55ela funciona, tá? Mas no limite, a gente
15:58espera que isso nunca aconteça, mas a
16:00gente já viu isso aqui acontecendo no
16:01Brasil. Infelizmente, eu digo
16:03infelizmente porque é muito triste a
16:04gente chegar nesse tipo de situação,
16:07tanto com o WhatsApp lá atrás, como com
16:10o X mais recentemente, chegando até o
16:13caso de suspender o serviço aqui no
16:15Brasil. O que seria horrível nesse
16:17contexto em termos de restrição da
16:20liberdade de expressão. Mas a grande
16:21questão é como que você faz valer a
16:24legislação brasileira a partir do
16:26momento em que ela eventualmente está
16:27sendo descumprida, assim como as
16:30ordens judiciais eventualmente
16:32descumpridas. Então, essa decisão do
16:34STF do ano passado visa cobrir também
16:37essa lacuna em relação a... A obrigação de
16:41ter um representante no país hoje é em
16:43virtude de uma decisão do Supremo Tribunal
16:45Federal, não de uma disposição expressa
16:47de lei. Exatamente. É o entendimento do
16:48STF. É o entendimento do STF. E pode
16:50acarretar consequências. Pode acarretar
16:52consequências, mas novamente, né? A gente
16:55não espera que chegue nesse limite. E
16:57mais, né? Acho que os serviços digitais
16:59hoje em dia, quando você cria qualquer
17:01serviço digital, normalmente, claro que
17:03você sabe onde você vai atingir, você
17:05tem um plano de negócio, que mercado você
17:07vai atingir. Mas você cria pro mundo. E
17:09obviamente que se você tivesse em
17:11todas as localidades do mundo a
17:12obrigação de estabelecer um
17:14representante legal em cada uma delas,
17:15você nunca criaria um serviço digital
17:16porque seria impossível. Sim. Mas a
17:18partir do momento em que você começa a
17:21explorar determinado mercado e aquilo
17:23passa a ser relevante, você tem que
17:25ter algum tipo de mecanismo que seja
17:27factível pra cumprir determinadas
17:30ordens judiciais, né? Então, é pra isso
17:33que servem esses mecanismos, pra que
17:35haja enforcement, né? Pra que a lei, ela
17:38seja exercida. Agora, vamos falar um
17:40pouquinho sobre os haters. Eu tenho,
17:43por exemplo, uma conhecida nossa, uma
17:45menina, uma vizinha, que ela é uma
17:47influencer muito famosa, traz
17:51conselhos bons pra juventude e ela
17:53começou a sofrer uma série de ataques
17:55nas redes sociais. E essa menina que
17:58passou a desenvolver problemas
17:59psicológicos tão graves que ela teve
18:02que se ausentar e parar com a atividade
18:04que ela vem a fazer e muito bem. Qual é o
18:07problema hoje? Nós temos antissemitismo
18:11generalizado, racismo generalizado,
18:14crimes contra a honra e
18:15irresponsáveis que atacam a honra
18:17alheia e esses normalmente, eles se
18:19camuflam através de servidores
18:22localizados em outros países e
18:24colocam falsos nomes. Eu digo, eu sou
18:28absolutamente contra qualquer tipo de
18:30censura prévia em redes sociais, mas
18:33a partir do momento que você tem
18:35pessoas que podem se servir de falsos
18:38nomes e servidores que não são
18:40alcançados para praticar crimes, como
18:43é que se faz a repressão posterior a
18:46esse tipo de crime que é grave? Porque
18:49quando você, por exemplo, incita um
18:52ataque contra uma determinada raça,
18:54uma determinada comunidade, uma determinada
18:55minoria, você tá criando uma situação de
18:58grande instabilidade social. Como combater
19:01isso e também os haters e crimes contra
19:03a honra que ficam ali no escurinho
19:05xingando ou enviando mensagens de
19:07pornografia infantil? Acho que é
19:09importante dizer que as plataformas
19:10agem para que esses conteúdos nem vão
19:13para o ar, tá? Mais de noventa por
19:15cento de conteúdos de ódio de uma
19:16forma geral, os algoritmos de
19:19inteligência artificial das
19:21plataformas fazem com que eles nem vão
19:23para o ar, ou seja, tem um filtro
19:25prévio mesmo daquilo que é de mais
19:27grave, tá? E acontece, as plataformas
19:29elas têm relatórios de
19:31transparência, vale a pena acessar os
19:32sites de relatórios de transparência
19:34que demonstram também a luta das
19:36plataformas para que tenha um
19:37ambiente saudável, uma sociedade
19:40saudável. Quando isso eventualmente
19:42acontece, a gente tem esse tipo de
19:44situação, tá? O que que acontece?
19:47Primeiro, essas decisões como essa do
19:49STF ajudam. Então, tem duas formas
19:51das plataformas agirem
19:52preventivamente. Uma é o monitoramento
19:55prévio e a outra é por meio de
19:56notificação. Então, é importante
19:58reportar as plataformas em relação
20:00às notificações, porque isso faz
20:02com que as plataformas fiquem
20:04alertas, inclusive, em relação a
20:06novas modalidades de discurso de
20:08ódio. Acho que esse ponto é super
20:10relevante. Agora, pra descobrir quem
20:12é que tá fazendo algo, é quebra de
20:14sigilo, Capês. Aí não tem jeito.
20:16As plataformas são obrigadas a
20:17guardar por seis meses os registros de
20:20acesso à aplicação. Mas, doutor Rony,
20:23mesmo às vezes com a polícia, o
20:24sujeito, a vítima recorrendo a, por
20:27exemplo, aqui no estado de São Paulo
20:28e na cidade de São Paulo, tem o
20:30DeCyber, que é uma divisão de
20:32combate a crimes eletrônicos. Nem
20:34muitas vezes, nem mesmo os delegados
20:35ultra especializados do DeCyber
20:37conseguem desvendar, porque esses
20:40servidores são inacessíveis e o próprio
20:42Google não consegue ou tem má vontade
20:45de atender essas requisições.
20:47Se você quebra o sigilo, por exemplo,
20:49de um provedor de aplicação, você pode
20:51pegar vários acessos que ele faz
20:53durante seis meses em relação a todos
20:55esses serviços. Ou seja, o criminoso, às
20:57vezes, usa um servidor lá que não dá
21:00para encontrar, mas às vezes ele tem um
21:02descuido e acaba usando o que dá. É nesse
21:04descuido que normalmente você consegue
21:06acessar. Se ele não cometer nenhum
21:09descuido, existe, para casos muito
21:11graves, tem uma rede relacionada a
21:13Interpol e agora o Brasil, ele é
21:15signatário da Convenção de Budapeste,
21:17que é a Convenção de Cybercrime.
21:18Isso viabiliza que o Brasil tenha uma
21:20troca de informações para crimes graves,
21:22por exemplo, atividades terroristas ou
21:25instigação ao suicídio. A Interpol hoje
21:27troca essas informações muito
21:29rapidamente para tentar identificar e
21:31combater esse tipo de situação. Então
21:33existe sim protocolos internacionais de
21:35troca de informação para tentar
21:37investigar e punir esse tipo de crime.
21:40Doutor Rony, o que é Deep Web, com a
21:44diferença de Deep Web e Dark Web e como
21:49combater esse tipo de prática? Se ela
21:51existe, o que que tem lá dentro
21:53normalmente dessas porcarias aí que a
21:55gente ouve falar tanto? Legal. A
21:57internet profunda é tudo aquilo que não
21:59é acessível publicamente, né? Então
22:01tudo que está dentro de servidores. Deep,
22:03então Deep Web. É, de profundidade nesse
22:06sentido. Tudo aquilo que você não consegue
22:08acessar diretamente, que precisa de
22:10alguma senha ou que tem alguma proteção,
22:12é a Deep Web. A Dark Web é, teoricamente, o
22:17termo utilizado para onde se usam
22:20protocolos criptografados de redes de
22:22criminosos que só estão lá para fazer
22:25escambe, para fazer trocas de informações
22:28completamente ilícitas, tá? E aí eles
22:31tentam se proteger por meio de todos
22:33esses protocolos que você disse agora em
22:35relação a não descobrir quais são os
22:37IPs de origem, tá? E como que se
22:39investiga nesse tipo de situação esses
22:42casos? Normalmente através de agentes
22:45infiltrados. Você precisa de alguma
22:47forma estar infiltrado para identificar
22:49esses tipos de crime, ou seja, muitas
22:52vezes você se passa por pelos criminosos
22:55ali para identificar aquilo que que está
22:57ocorrendo. Mas novamente, né? A Polícia
22:59Federal, ela tem um trabalho seríssimo, né?
23:02A Polícia Federal hoje em dia tem uma
23:04diretoria toda voltada para o combate aos
23:08crimes cibernéticos e hoje esses
23:10protocolos daquilo que está sendo
23:12investigado aqui no Brasil e em outros
23:14países, esse intercâmbio de informações,
23:17ele é mais fluido, porque os criminosos
23:19trocam informação entre eles e cada
23:21vez mais as polícias precisam trocar
23:24informação entre elas, isso é super
23:25relevante. Nós estamos caminhando para o
23:28final do programa, passa rápido, né? O senhor
23:29deu muita, o senhor deu tanta informação
23:31aqui, mas eu tenho que fazer mais algumas
23:33perguntas, pelo menos esta. Vou lhe dizer
23:36uma frase que as plataformas costumam usar
23:39bastante. Queria que o senhor comentasse
23:41esta frase e se ela continua se
23:43justificando no contexto atual. A
23:46plataforma é a biblioteca. Eu não tenho
23:51responsabilidade pelos livros que estão
23:53na minha prateleira. Agora, no momento
23:56que você tem que pagar para entrar na
23:58biblioteca, uma analogia. Sim. Você paga
24:01para entrar na biblioteca e consumir os
24:03livros que estão ali. Eu tenho uma
24:04prateleira livros que instigam a prática
24:06de suicídio. Na outra, livros que mostram
24:09pornografia infantil. Outros que
24:11estimulam a prática de outros delitos e
24:13assim por diante. Outros que atentam
24:15contra a honra das pessoas. Não seria
24:18esse argumento de que é só uma
24:20biblioteca que não tem responsabilidade
24:23ainda se justifica? Como o senhor
24:25analisa esta argumentação no contexto
24:27de hoje, jurisprudencial e legal? Veja, nos
24:30Estados Unidos teve essa discussão
24:31recentemente, tá? Tanto o Google quanto
24:34o Twitter atualmente X, eles foram
24:38processados por familiares em razão de
24:41atentados terroristas que motivaram a
24:43morte de pessoas. Falando que os
24:45algoritmos impulsionaram conteúdo
24:47terroristas. Eles foram isentados de
24:50responsabilidade porque, obviamente,
24:52eles não têm uma conduta dolosa em
24:54relação àquele tipo de conteúdo, tá?
24:56Então, acho que a gente precisa ter um
24:58pouco de cautela em relação às
24:59plataformas como grandes intermediárias
25:02em relação ao conteúdo, tá? Porém,
25:05essa decisão do STF que eu comentei do
25:07final do ano passado, ela traz essa
25:10responsabilidade do dever de
25:11diligência por falha sistêmica. Ou seja,
25:14as plataformas, elas têm que ser
25:15vigilantes em relação a conteúdos que
25:17possam ser extremamente nocivos pra
25:19que eles não vão pro ar. Bom, o senhor tem
25:21agora que ser telegráfico. Nós temos uma
25:24plataforma que diz, por exemplo, a
25:26pede que não tem representante no
25:28país. Qual pode ser a consequência? Se
25:30for movida uma ação para que ela
25:32seja responsabilizada por não ter
25:34representante no país? Você vai ter
25:36que citar lá fora do país. Como é que
25:37se define essa contradição em trinta
25:40segundos? É, hoje em dia, ela tem que
25:43ter representante legal no país pra
25:45cumprir a ordem judicial, senão ela
25:47vai ser penalizada pelo descumprimento
25:50de ordem judicial e eu espero que isso
25:52não aconteça, mas pode chegar aos extremos
25:54como já aconteceu, de se pensar em
25:56eventuais ordens de bloqueio, que é o
25:57pior cenário possível. Olha, doutor
25:59Rony, infelizmente acabou nosso tempo,
26:01o programa correu a jato com muita
26:04informação, gostei bastante, agradeço,
26:07nós ficamos por aqui e pra você que
26:09gosta do jeito Jovem Pan, não deixa de
26:13fazer sua assinatura no site jp.com.br.
26:17Lá você acompanha conteúdo exclusivo,
26:20análises, comentários e tem acesso
26:23ilimitado ao Panflix, que é o aplicativo
26:26da Jovem Pan. Muito obrigado pela sua
26:29companhia e até o próximo Discutindo
26:31Direito.
26:39A opinião dos nossos comentaristas não
26:42reflete necessariamente a opinião do
26:44Grupo Jovem Pan de Comunicação.
26:50Realização Jovem Pan
Comentários

Recomendado