Pular para o playerIr para o conteúdo principal
O professor Bruno Bioni, da ESPM e diretor da Data Privacy Brasil, analisou os modelos regulatórios de IA na União Europeia e nos EUA, e como o Brasil está traçando um caminho próprio, equilibrando inovação e segurança. Saiba o que isso significa para empresas brasileiras e o mercado global.

🚨Inscreva-se no canal e ative o sininho para receber todo o nosso conteúdo!

Siga o Times Brasil - Licenciado Exclusivo CNBC nas redes sociais: @otimesbrasil

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:

🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: https://timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

#CNBCNoBrasil
#JornalismoDeNegócios
#TimesBrasil

Categoria

🗞
Notícias
Transcrição
00:00A expansão da inteligência artificial vem levando ao desenvolvimento de regras de
00:04regulação em várias partes do mundo. A União Europeia já começou a aplicar
00:09normas que proíbem práticas como o reconhecimento facial em tempo real e
00:13impõem exigências rígidas para usos de alto risco a partir de 2027.
00:19Nos Estados Unidos, o plano de ação segue outra direção. Flexibiliza a
00:24regulação para acelerar a inovação e permite que os Estados criem normas
00:29próprias. A regulação da inteligência artificial será um dos temas dos eventos
00:35FT Climate and Impact Summit Latin America e Brasil 2030, uma nação de
00:41oportunidades. Eventos esses promovidos na próxima semana pelo Times Brasil, licenciado
00:47exclusivo CNBC, em parceria com o Financial Times. Nesse cenário, empresas brasileiras
00:53que exportam para a Europa precisarão investir mais em compliance, enquanto as que miram
00:59o mercado americano poderão ganhar velocidade, assumindo, no entanto, riscos
01:04éticos e jurídicos. Para discutir como equilibrar esses modelos e construir um
01:09caminho próprio, eu vou conversar ao vivo agora com o Bruno Bione, professor da ESPM e
01:15diretor da Data Privacy Brasil. Bruno, boa tarde para você, obrigado pela sua
01:20participação ao vivo aqui com a gente. Bruno, os Estados Unidos têm por tradição,
01:26desde a Constituição, um modelo de liberdade que é mais elástico, né? Mais
01:31elástico, inclusive, do que o nosso. Será que a nossa tendência na regulação da IA
01:36vai mais para o lado do caminho europeu?
01:39Obrigado, boa tarde. É muito honrado com o convite. Eu acho que o Brasil está procurando
01:47seguir o seu próprio caminho. Recentemente, até assinei um artigo com a professora Laura
01:52Schert e o professor Virgílio, que a gente utiliza uma frase que eu acho que vai direto
01:57ao ponto da sua reflexão. Nem Bruxelas, nem Texas. Então, o Brasil, hoje, na proposta
02:03que hoje consta da análise da Comissão Especial da Câmara dos Deputados sobre Inteligência
02:09Artificial, ele não é um sistema regulatório nem tão rígido, nem tão prescritivo, nem
02:15tão detalhista quanto o europeu, mas ele também não deixa algo para o próprio mercado
02:23se regular. Ele procura fixar direitos, fixar deveres. E uma coisa muito, muito interessante
02:29da proposta regulatória brasileira é que a gente prevê um sistema descentralizado
02:36para fazer a fiscalização e a supervisão dos sistemas de inteligência artificial pelas
02:40agências reguladoras setoriais já existentes no Brasil, de Anatel a Banco Central.
02:46Agora, a gente fala de blocos separados, Estados Unidos, Brasil, União Europeia, mas existe
02:53um agente onipresente, os agentes onipresentes, que são as Big Techs, que estão no mundo
02:59inteiro e estão fazendo seus lobbies também, inclusive aqui no Brasil. Já fizeram isso
03:04quando o Congresso discutia o PR das fake news, por exemplo. E a gente está agora, como
03:09o Brasil, vivendo uma pressão de Donald Trump exatamente pelas ordens judiciais emanadas
03:17do Supremo Tribunal Federal, que desagradaram esse modelo americano de liberdade das redes
03:22sociais, das empresas de tecnologia. Como é que a gente fica tentando formatar, tentando
03:28mudar uma identidade própria a um modelo de regulação da IA, mas sofrendo a pressão
03:33dessas gigantes do mercado de tecnologia?
03:36Essa é a última pergunta, porque essa mesma proposta regulatória, ela procura estabelecer
03:44isso que foi chamado do Sistema Brasileiro de Governança e Regulação de Inteligência
03:48Artificial. Porque hoje, os grandes players do mercado brasileiro, inclusive de empresas
03:54nacionais que estão desenvolvendo inteligência artificial, como no setor financeiro, desde
03:59as Fintechs até os grandes bancos de sistemas de inteligência artificial para detecção
04:04de fraudes, ou até mesmo na área da saúde, eles já são testores hiper regulados pelas
04:10agências reguladoras setoriais, de Bacen, Anvisa, ANS. Então, justamente para fixar essa
04:17soberania do país e evitar a distorção de competição, esse projeto brasileiro, essa
04:25proposta hoje sendo discutida na Câmara dos Deputados, prevê um mandato regulatório
04:32para a Autoridade Nacional de Produção de Dados Pessoais, a NPD, para ela ser a reguladora
04:39desses sistemas de inteligência artificial, em especial das Big Techs, que não são cobertos
04:45hoje por nenhuma agência reguladora setorial. Então, isso faz com que você ganhe, de certa
04:52maneira, uma correção dessa distorção, ou o que a gente chama, do ponto de vista técnico,
04:59assimetria de regulação entre atores econômicos que deveriam ter um mínimo de uniformização
05:06ou harmonização. Bruno, a gente preparou aqui uma tela, uma arte, comparando os modelos
05:14dos Estados Unidos e da Europa. Estamos com as informações aí na tela. Eu queria te pedir
05:19por gentileza para detalhar para a gente um pouco do que caracteriza os modelos de um lado
05:24e de outro.
05:26Eu gosto de, justamente nessa perspectiva, de pensar que é um movimento pendular de extremos
05:33entre a proposta regulatória europeia e a estadunidense, porque a proposta regulatória
05:39europeia talvez até é uma hipertrofia regulatória, então, de novo, ele é muito prescritivo,
05:46ele é muito detalhista. E a proposta estadunidense, sobretudo no governo Trump, é importante
05:53disso ser mencionado, durante a admiração Biden houve uma executive order, que foi um push,
06:00um puxão mais para a perspectiva de regulação. Então, hoje você tem esse cenário de extremos.
06:07Eu acho que a proposta hoje, na mesa do governo Trump, sequer é uma proposta de regulação,
06:15porque sequer ela fixa poder do Estado ou das agências reguladoras setoriais estadunidenses
06:21para que faça essa supervisão e essa fiscalização. E aí, a proposta da União Europeia, o que
06:29ela vai diferir brutalmente da proposta estadunidense é justamente que ela é uma proposta de regulação
06:37por si só. E ela tenta, de certa maneira, trazer algum grau de flexibilidade. Eu acho que ela também
06:43não é algo totalmente engessado, porque aí, como está na tela, ela prevê a regulação
06:48por níveis de risco. O que isso significa dizer, Fábio? Significa dizer que você vai ter peso
06:55da regulação de forma proporcional ao seu contexto de uso. Então, um sistema de inteligência artificial
07:02que filtra o spam no nosso e-mail, ele não causa um risco muito significativo para a sociedade.
07:09Por isso, ele deve seguir uma regulação mais leve, menos pesada. Diferentemente de um sistema
07:15de inteligência artificial que, por exemplo, vai definir se você vai pegar o crédito no banco
07:21ou não. Aí já é um sistema cujo uso, contexto, ele é de mais elevado risco. E aí você tem que saber
07:28por que o algoritmo está decidindo daquele jeito, eventualmente contestar aquela decisão,
07:34eventualmente o banco que utiliza aquilo fazer uma avaliação de impacto algorítmico,
07:39mapeando os riscos e benefícios daquele sistema. Então, a proposta europeia, ela é também, é flexível,
07:48se a gente for considerar dentro dessa perspectiva, porque ela traz camadas, níveis distintos,
07:54aonde que o peso da regulação, ele é ajustado proporcionalmente de acordo com o risco de uso.
08:00E essa é uma inspiração também da lei brasileira, mas, de novo, dentro de um tempero brasileiro. Por quê?
08:08Porque aqui a gente está sendo menos detalhista, menos prescritível e tendo uma lei mais flexível
08:15nesse sentido, porque isso vai permitir que as agências reguladoras setoriais possam fazer as
08:21especificações de acordo justamente com o contexto de uso. É muito diferente um sistema de IA na área da
08:28saúde de um sistema de inteligência artificial na área de telecomunicações. Quem vai poder definir se é
08:34alto, baixo ou médio risco? A Agência Nacional de Telecomunicações para o setor de telecomunicações,
08:41a ANS para o setor de saúde. Então, a proposta brasileira é genuinamente brasileira. Por quê?
08:47Porque ela não dribla o que a gente já tem de infraestrutura regulatória existente no Brasil.
08:53E com modelos diferentes, como é que ficam empresas brasileiras que exportam tecnologia?
09:01Com o modelo brasileiro, tendo um segundo modelo nos Estados Unidos e um terceiro modelo na Europa?
09:08Essa é uma pergunta fundamental, porque a gente tem que entender como o Brasil se posiciona nessa cadeia global,
09:13sobretudo para que as nossas empresas e players interessantes que podem ter uma atuação para além
09:21do Brasil, não tenham que, digamos assim, dar um banho de loja nos seus sistemas de inteligência artificial.
09:30E por isso que é importante que o Brasil avance nessa proposta de regulação. Por quê?
09:35Porque ela é uma proposta de regulação que a gente chama, no sentido mais técnico, de interoperável.
09:42O que isso significa? Ela conversa com os melhores padrões ao redor do mundo,
09:47desde a OCDE, da Organização para a Cooperação e Desenvolvimento Econômico,
09:52passando pelos padrões estabelecidos pelas Organizações das Nações Unidas,
09:57chegando na Unesco e conversando com leis que estão sendo discutidas em Singapura,
10:03no Chile e em outros lugares.
10:05Qual é esse padrão interoperável?
10:09É justamente aquilo que eu mencionei de você ter uma regulação que é maleável
10:13de acordo com o risco do contexto de uso.
10:17Justamente para que você não tenha uma resposta chapada,
10:21bala de prata, para todos os sistemas de ar.
10:24Isso faz com que, se esse sistema é de alto risco aqui no Brasil,
10:30pode ser considerado também de alto risco na União Europeia
10:33ou em outras jurisdições, isso faz com que as próprias medidas de governança
10:39possam ser replicáveis e exportáveis para outros mercados.
10:45Então, a gente tem que firmar o pé e dizer que a regulação não impede inovação.
10:52Pelo contrário, ela pode impulsionar a inovação,
10:55sobretudo dentro dessa perspectiva de uma cadeia global.
10:59Tem até um livro muito interessante dos prêmios nobéis de economia,
11:04a Semoglu e Johnson, que eles falam de poder e progresso
11:08e olham no retrovisor como que foi fundamental a regulação
11:12de velhas tecnologias para que a gente pudesse ter prosperidade.
11:17Foi assim na área de medicamentos, foi assim na área de bioética,
11:22foi assim com a área de telecomunicações
11:24e não deveria ser diferente com sistemas de inteligência artificial.
11:28Bruno, nosso tempo até acabou, mas eu não posso deixar de te perguntar uma coisa
11:32e queria pedir para você ser breve dentro do possível.
11:36A gente está vendo nos últimos dias uma grande repercussão do caso do Felca,
11:41o youtuber famoso que fez um vídeo muito visualizado,
11:45com milhões de visualizações na internet,
11:48denunciando a adultização de crianças,
11:51seja por adultos explorando a imagem dessas crianças,
11:55seja pelo impulsionamento dos próprios algoritmos das redes sociais também.
12:00Como é que essa regulação pode ajudar a inibir esse tipo de barbaridade
12:04que a gente vê nessa denúncia dele?
12:07Dois pontos.
12:08Essa lei traz a ideia de grupos vulneráveis e crianças, adolescentes, idosos também,
12:15são vulneráveis.
12:16Então, esse dever de segurança deveria ser especial tal como são essas pessoas
12:21ou sujeitos a esses sistemas de inteligência artificial na medida da sua vulnerabilidade.
12:26Isso já está previsto nesse projeto de lei.
12:29Mas ele pode ir além.
12:31Durante a tramitação do texto no Senado,
12:34algumas medidas importantes para a segurança de crianças e adolescentes
12:39acabaram sendo desidratadas.
12:41Então, hoje, a Câmara dos Deputados tem uma oportunidade muito interessante
12:45de retomar essas passagens do texto que acabaram sendo suprimidas
12:50e que a gente possa ter um capítulo, por exemplo,
12:53dedicado para a proteção de crianças e adolescentes.
12:57Ainda está em tempo de a sociedade acompanhar e cobrar, né, Bruno?
13:00Bruno Bione, professor da ESPM, diretor da Data Privacy Brasil.
13:05Muito obrigado, Bruno, pela sua análise aqui.
13:07Boa semana para você.
13:08Obrigado, foi um prazer. Boa semana igualmente.
13:11Obrigado.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado

0:26