- há 6 horas
Categoria
🤖
TecnologiaTranscrição
00:00Como hoje é quinta-feira, vamos repercutir esse assunto agora na nossa coluna
00:06Seu Direito Digital.
00:20E vamos receber ao vivo ele, Leandro Varenga, por favor, juntos a nós.
00:26Muito boa noite, Leandro, seja bem-vindo.
00:28Boa noite, Marisa, boa noite a todos de casa, espero que estejam todos bem.
00:33Leandro Varenga, vamos começar por essa notícia que a gente acabou de dar, né?
00:37Com esse adiamento na aplicação das regras da lei de IA na União Europeia,
00:43isso sinaliza dificuldades para efetivamente regular a tecnologia?
00:48É exatamente isso, Marisa, não é tão simples regular a tecnologia sem que você atinja ela
00:54a ponto de evitar o seu desenvolvimento.
00:58A Europa, ela classificou a IA em níveis de risco.
01:03Então tem um risco que é inaceitável, um risco muito alto, um risco intermediário,
01:08que é o aceitável que tem algumas exigências, e aquela de baixo risco ou quase sem risco.
01:12O que acontece é, quando eles começaram a regular e precisavam das autoridades dos países
01:17para que ajudassem a fazer essa regulação, não tiveram sucesso.
01:22E estão tendo muitas dificuldades para entender, claro, com pressão de mercado também,
01:27para entender que se a regulação for rígida demais, a União Europeia vai perder competitividade
01:33e desenvolvimento tecnológico.
01:35Por quê? Porque o mundo inteiro está buscando uma regulação, mas está tentando equilibrar.
01:40É bom lembrar, Marisa, que o IAACT, que é a norma europeia que cuida de inteligência artificial,
01:46foi a primeira grande norma global.
01:48E ela veio na mesma linha da GDPR, o Regulamento Europeu de Proteção de Dados.
01:53Então ela veio com o enforcement, uma cobrança e uma exigência muito grande,
01:57o que tem feito reclamações do mercado europeu, das empresas,
02:02que estão perdendo competitividade para países como os Estados Unidos, China e Índia,
02:07que não existe uma regulação tão rígida com isso.
02:10Então a Europa está olhando para isso, para tentar fazer uma regulação mais assertiva,
02:18mais equilibrada, que não impeça o desenvolvimento econômico.
02:21Mas é muito difícil, Marisa, por quê?
02:23Porque desde quando se começou a discutir a IA, que ela se popularizou,
02:27porque ela já é muito antiga, a IA, cada vez mais ela está surpreendendo,
02:32cada vez mais são criadas novas IAs, novas utilidades para ela.
02:37Isso tem dificultado muito o combate ao abuso, no período eleitoral, no período de saúde,
02:44em crimes, na proteção da criança e do adolescente.
02:47Então eles estão tentando criar uma regulação que seja efetiva,
02:51que não impeça o desenvolvimento tecnológico e econômico, mas que proteja as pessoas.
02:55E esse equilíbrio, Marisa, é muito difícil quando se fala de tecnologia.
02:59Como é que você regula uma coisa que você não sabe onde vai chegar?
03:02Pois é.
03:03Então eles têm que criar mecanismos principiológicos e criar mecanismos de acompanhamento.
03:09Mas não dá para eles fazerem como eles fizeram, que está travando tudo.
03:12Ou seja, é suspensão para rever e tentar novamente dar continuidade na regulação.
03:17Exatamente. O que eles estão fazendo é dar um passo atrás para dar dois para frente.
03:22Eles estão suspendendo para entender se aquela regulação que foi feita está mesmo inadequada,
03:28talvez parte delas esteja, parte não, e entender a nova realidade, Marisa.
03:33Tá certo. Vamos falar um pouquinho agora de Brasil, Leandro Alvarengo.
03:36O Ministério Público do Trabalho e a Meta firmaram um acordo para combater a exploração
03:43de crianças e adolescentes no ambiente virtual.
03:45O que muda na prática? Conta para a gente, Leandro.
03:48Na verdade, Marisa, isso é uma coisa que já acontece há muito tempo.
03:52A gente tem uma situação dos atores mirins.
03:54Todo mundo lembra das crianças que trabalham em novelas, em programas de auditório.
03:59Para essas crianças trabalharem na televisão, Marisa, elas precisam de uma autorização judicial,
04:04onde o juiz determina os horários que ela pode trabalhar, o conteúdo que ela pode divulgar
04:08e dá uma autorização para os pais.
04:09O que muito acontece, Marisa, é que muitos pais, sobre a desculpa de fazer conteúdos familiares
04:17e disponibilizar na internet, ele acaba usando a criança como um mecanismo de receita mesmo.
04:22E eles não estão indo atrás dos alvarás.
04:25Então, muita criança no Brasil está sendo exposta na internet, seja em plataformas da Meta ou em outras.
04:31Normalmente, o YouTube até tem uma política maior, mais assertiva com relação a isso,
04:37tendo em vista que ele já tomou vários processos por conta disso.
04:41E agora a Meta estava no alvo. Por quê?
04:43Porque estão buscando agora essa nova renda, vamos dizer, através do Facebook e outras plataformas.
04:51Então, o Ministério Público, o que ele fez?
04:53Meta, a partir de agora, você tem que exigir alvará se for conteúdo de criança.
05:00Para quê?
05:01Porque esse alvará, ele permite que a justiça saiba que aquela criança está trabalhando,
05:05porque é bom lembrar que no Brasil é proibido o trabalho infantil, né?
05:09Só mediante casos específicos, jovem aprendiz, por exemplo, ou mediante autorização judicial.
05:15E dependendo da circunstância que essa criança está sendo exposta,
05:19ela pode trazer graves consequências para a vida dela, inclusive adulta, né, Marisa?
05:22Ela não tem uma consciência.
05:24Então, imagina uma pessoa que foi exposta muito pequena, ela pode sofrer bullying,
05:28sofrer perseguições com o adulto.
05:30Isso pode traumatizar a criança.
05:31E é por isso, pro bem-estar da criança, tem que ter um órgão fiscalizador,
05:35que é o Ministério Público, para fiscalizar e acompanhar.
05:38Se aquela situação, ela é real, né, e não é prejudicial às crianças,
05:44que o pai pode ganhar dinheiro, que ele vai fazer qualquer coisa com o filho, né?
05:49Pois é, agora é uma situação complexa essa, né?
05:52Porque os pais, realmente, às vezes, colocam ali o filho para trabalhar, né, para ganhar dinheiro,
05:58mas nem tem esse alvará, essa permissão, não tem essa regulação, né?
06:02Como que fica o papel dos pais nesse caso, Leandro?
06:04Eles podem ser responsabilizados, Marisa.
06:06Esse caso foi enquadrado como um trabalho infantil mesmo, com o objetivo de patrocínio, buscar...
06:11Porque uma coisa é aquela situação, ah, meu filho é bonitinho, vou colocar um vídeo lá, um vídeo aqui,
06:15e acaba atraindo seguidores.
06:17A partir do momento que você começa a atrair seguidores,
06:19começa a criar constância nas publicações,
06:22e muitas vezes vem o quê?
06:23Patrocinadores.
06:24Vou mandar um brinquedo para aquela criança mostrar...
06:27Tem até um caso bem interessante, no Espírito Santo,
06:30que uma empresa, não vou falar o nome dela aqui, tá, Marisa?
06:33Mas se o pessoal quiser dar um Google, uma empresa de brinquedo contratou uma criança para fazer vídeos.
06:38E tanto os pais da criança, quanto a empresa e a plataforma foram processados
06:43pelo Ministério Público da Infância e da Juventude, né?
06:47Então, efetivamente, tem que ter ali um equilíbrio,
06:52senão ele vai ter problema com a justiça e até com o conselho tutelar.
06:55Há casos aí, dependendo da circunstância, eles podem perder até a guarda da criança, Marisa.
07:00Olha, que coisa, assunto bastante sério.
07:02Sim, sim, sim, eu falei.
07:03É um trabalho infantil, tem que se levar a sério,
07:07inclusive, nas universidades, às vezes tem alguns cursos que viram uma aula só
07:12para explicar para as pessoas como faz o trabalho infantil da maneira correta, né?
07:17Que é com os alvarás judiciais, o que pode ser conteúdo e o que não pode ser conteúdo.
07:21Não é porque a criança, que você tem o alvará também,
07:23que você pode colocar ela em qualquer circunstância.
07:26Existe uma série de regras que tem que lembrar.
07:28A criança, ela é protegida pela Constituição, pelo Estatuto da Criança e do Adolescente.
07:33Não só os pais têm a obrigação de cuidar,
07:35mas a sociedade como um todo para o desenvolvimento daquela criança.
07:39Tá certo.
07:40Agora, Leandro, vamos para um caso curioso.
07:42Um morador de São Paulo foi detido quatro vezes por engano
07:48após ser identificado pelas câmeras do Smart Sampa.
07:53Leandro, esse caso pode revelar um problema estrutural do sistema de reconhecimento facial.
07:59Como que fica isso?
08:00Vamos lá, Marisa.
08:01Tem vários casos polêmicos ali de prisões indevidas por reconhecimento facial.
08:06Tem casos, por exemplo, na Bahia, em estádios de futebol, aqui em São Paulo também,
08:11em que pessoas foram identificadas, com falsa identificação pela câmera,
08:17e o agente, ele leva aquilo como uma verdade absoluta.
08:20Então, por exemplo, o caso que teve na Bahia, no estádio,
08:22o torcedor foi agredido até pela polícia quando foi apreendido.
08:26E a pessoa nem era procurada.
08:29Aqui em São Paulo tem essa situação absurda,
08:31da mesma pessoa ser presa quatro vezes.
08:33Foi presa a primeira vez, tem que se identificar o porquê que houve aquele falso positivo.
08:39O sistema é muito importante, Marisa, ele ajuda muito,
08:42mas como toda tecnologia, ela não é livre de falhas.
08:45E a biometria facial, ela tem uma característica por proximidade.
08:51Então, às vezes a pessoa é um homônimo,
08:53a pessoa é muito parecida com a outra,
08:55e leva aí a indução errada.
08:58Então, além do sistema, tem que ser sempre corrigido
09:02para não ter vieses. O viés, para quem não sabe,
09:04é quando ele começa a ter atitudes discriminatórias.
09:07Por exemplo, é muito mais comum você ter viés
09:10em inteligência artificial voltada para a identificação de pessoas negras
09:15pela proximidade da característica de pele,
09:18faz com que a IA tenha mais dificuldade de interpretação
09:22e dá muito mais falso positivo.
09:24Então, o sistema tem que ser sempre filtrado, sempre acompanhado.
09:30E, Marisa, tem que ter uma identificação, uma validação humana.
09:34Você prendeu a pessoa pela segunda vez,
09:37ali tem um problema sério.
09:38Ou o sistema está errado, ou o banco de dados,
09:41que a maior parte das vezes, Marisa,
09:42é o próprio banco de dados que foi inserido para a identificação,
09:46ele está muito desatualizado.
09:48Você imagina num criminoso,
09:50você vai ter foto dele recente.
09:51Então, provavelmente, as fotos são muito antigas,
09:54o que aumenta a chance de você ter um falso positivo.
09:59Então, desde o sistema tem que ter um acompanhamento mais rígido,
10:02como também tem que ter uma preparação dos agentes
10:05para, quando for fazer esse tipo de abordagem,
10:07não levar isso como uma certeza absoluta
10:10e acontecer como aconteceu com o rapaz,
10:12que foi levado quatro vezes à delegacia.
10:14E é bom lembrar, Marisa, que isso gera uma responsabilidade para o Estado.
10:18O Estado tem uma responsabilidade objetiva
10:20que ele pode responder independente de culpa,
10:23pelo simples erro do sistema.
10:26Então, o Estado, se for comprovado um dano
10:29e a ocorrência veio do Estado,
10:32o nexo de causalidade,
10:34o Estado vai ser obrigado a indenizar ali
10:36com danos morais, danos materiais
10:37e quaisquer outros danos.
10:39E aí, dependendo da abordagem,
10:41como aconteceu equivocadamente na Bahia,
10:44do agente, os agentes que foram, inclusive,
10:46violentos na abordagem,
10:47podem levar até a responsabilização dos agentes,
10:51porque eles não podem levar ali,
10:53por mais que ajude a IA,
10:54ela não pode ser tratada como uma verdade absoluta,
10:56porque ela não é 100%.
10:58Ela é 95%, 98%,
11:00até os testes de DNA, né, Marisa?
11:02Quando você faz, hoje em dia,
11:04aparece lá o percentual de 90%, 98%,
11:07e não fala 100%,
11:08porque tudo pode falhar, qualquer tecnologia, Marisa.
11:11Pois é, então, teria que ter realmente
11:13essa segunda validação.
11:15Faz a abordagem,
11:16mas antes de qualquer atitude,
11:18você faz a segunda validação.
11:19E aí, tem que ter uma abordagem ali,
11:21não tem certeza, é IA que está indo,
11:23você vai fazer uma abordagem,
11:24como faz uma abordagem para um cidadão
11:26que está passeando na rua, né?
11:27Nem todo mundo é bandido, né, Marisa?
11:28Sim, aí cadê.
11:30E ainda que for bandido,
11:31ele tem os direitos dele,
11:32tem que respeitar,
11:33não pode chegar dando porrada,
11:34como aconteceu lá na Bahia.
11:35Ah, com certeza.
11:36Que foi um absurdo aquilo lá.
11:37Eu vi o caso,
11:38achei um completo absurdo.
11:39Aqui em São Paulo mesmo,
11:40nos estádios do Brasil,
11:43tem muitas prisões agora,
11:44porque a lei do esporte,
11:46ela determina e obriga
11:48que todas as arenas
11:50acima de 20 mil pessoas,
11:52não importa qual é o esporte,
11:54tem que ter reconhecimento facial.
11:56Então, tem muita gente
11:57sendo presa por pensão,
11:57Marisa.
11:58O pessoal que está levando pensão,
11:59às vezes nem sabe
11:59quem está com o melhor de prisão,
12:01vai assistir o jogo lá do seu time
12:02e sai preso, né?
12:04E aí, tem a chance
12:06de ter os falsos positivos, né, Marisa?
12:07Esse é o problema.
12:08É, esse que é o problema.
12:10Bom,
12:11está aí,
12:11três temas interessantíssimos
12:13com Leandro Varenga,
12:14mais uma vez,
12:15muitíssimo obrigado,
12:16Leandro,
12:16pela participação aqui.
12:17Na próxima semana,
12:19teremos mais.
12:20Teremos mais, Marisa.
12:21Bom,
12:21uma boa noite para você,
12:22uma boa noite todos de casa,
12:24fiquem com Deus,
12:25aguarde suas perguntas
12:26e até semana que vem.
12:28Pois é, pessoal,
12:28não esqueçam,
12:29deixem suas dúvidas
12:30na hashtag
12:31Seu Direito Digital,
12:32nas nossas redes sociais,
12:34e o Leandro Varenga
12:35volta na quinta-feira
12:36para responder
12:37mais algumas delas.
Comentários