Pular para o playerIr para o conteúdo principal
A regulação da inteligência artificial será tema central dos eventos FT Climate and Impact Summit Latin America e Brasil 2030. Conversamos com Marcel Nobre, especialista em tecnologia e inovação, sobre os diferentes modelos de regulação adotados na Europa e nos EUA, os impactos para empresas brasileiras que exportam tecnologia e os desafios éticos. Ele também comenta o caso Felca e a necessidade de proteger crianças e adolescentes nas redes sociais.

🚨Inscreva-se no canal e ative o sininho para receber todo o nosso conteúdo!

Siga o Times Brasil - Licenciado Exclusivo CNBC nas redes sociais: @otimesbrasil

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:

🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: https://timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

#CNBCNoBrasil
#JornalismoDeNegócios
#TimesBrasil

Categoria

🗞
Notícias
Transcrição
00:00A regulação da inteligência artificial vai ser um dos temas dos eventos FT Climate and Impact Summit Latinoamérica e Brasil 2030,
00:10uma nação de oportunidades que o Times Brasil, licenciado exclusivo CNBC, em parceria com o Financial Times, promove na próxima semana.
00:19Nesse cenário, empresas brasileiras que vendem para a Europa terão que investir mais em compliance,
00:25enquanto as que miram o mercado americano podem ganhar velocidade, mas assumindo riscos éticos e também jurídicos.
00:33E para falar sobre como equilibrar esses dois mundos e definir um modelo próprio,
00:38a gente conversa agora ao vivo com o Marcel Nobre, que é especialista em tecnologia e inovação.
00:44Oi, Marcel, boa noite para você. Seja bem-vindo à Conexão.
00:49Boa noite, Paulo. Um prazer enorme falar com você aqui hoje.
00:53Prazer é o nosso.
00:54Bom, Marcel, o Brasil deve se espelhar em algum desses modelos? Na sua opinião, qual deles?
01:01Paulo, o Brasil já vem se espelhando no modelo que foi criado na Europa, né?
01:06A Europa sempre acaba sendo um pouco de vanguarda quando a gente fala sobre legislar a favor da sociedade com relação à tecnologia.
01:17Então, a gente tem o EU AI Act, que foi aprovado, na verdade, em agosto do ano passado, faz um ano,
01:24que já começou a regulamentar um pouco mais a inteligência artificial.
01:28A gente vem seguindo mais esse modelo, que é um modelo mais que protege a parte de confidencialidade,
01:33a parte de segurança e tudo mais, ao contrário do modelo americano,
01:36que agora com o Trump começa a virar para um lado muito mais comercial e muito mais pró-negócio.
01:41Eu acho que a gente sempre tem que, quando a gente fala de regulamentação, ela é essencial para qualquer tipo de nova tecnologia,
01:47e tem esse papel, né?
01:48A tecnologia ocupa um espaço onde a legislação ainda não atua,
01:52e aí a gente tenta adaptar as legislações que a gente tem,
01:55ou tenta adaptar a tecnologia para a legislação, e isso não funciona.
01:57Então, essas discussões começaram a acontecer desde 2022, 2023, começou a ficar mais forte,
02:02na Europa entrei em 2024, e aqui a gente está seguindo um pouquinho o modelo europeu,
02:06com algumas coisas diferentes, algumas coisas melhores, outras piores,
02:10mas me parece talvez o modelo mais sensato numa linha que está indo tanto à China quanto à União Europeia,
02:18e o que o Brasil vem seguindo também.
02:20Por outro lado, a gente tem a UK, Inglaterra e Estados Unidos seguindo por um lado mais pró-negócios, né?
02:28O ideal seria como é que a gente equilibra algo que não mata a inovação,
02:32mas também protege a gente de um possível risco que uma IA fora de controle pode causar.
02:38Marcel, empresas brasileiras que exportam tecnologia vão precisar se adaptar a essas regras diferentes,
02:44como você também já mencionou.
02:45Na sua opinião, isso pode frear a inovação ou criar uma vantagem competitiva?
02:53Paula, toda barreira de entrada, seja regulatória, seja tecnológica, seja de investimento,
02:58toda barreira que ela é muito alta, ela de certa forma é um dificultador e, portanto,
03:04também é uma vantagem competitiva se você seguir essa legislação.
03:08No caso de empresas que vão para os Estados Unidos, é até um pouco mais fácil,
03:12porque como a legislação brasileira segue a legislação europeia de IA,
03:16inclusive a equipa tramitando ainda não está em vigor como está na Europa,
03:20se você vai para o mercado que teoricamente está afrouxando essas regulações,
03:25talvez seja até mais fácil você se adaptar.
03:29Agora, para empresas que querem ir, por exemplo, para a Europa, aí a dificuldade é um pouco maior.
03:33E aí provavelmente você vai precisar se regulamentar, uma jurisprudência de um apoio jurídico muito maior
03:41e isso, de certa forma, é uma barreira de entrada para quem está indo, independente de onde está indo,
03:46tanto para empresas chinesas, quanto para empresas americanas, quanto para empresas brasileiras.
03:50E ali eles acabaram de aprovar agora, agora em agosto, julho para agosto,
03:54mais uma nova fase de implementação do AI Act lá, que é a responsabilização por cadeias.
04:01Se você é o operador, se você é o distribuidor, se você...
04:05A responsabilização está por cada fase, por cada um dos operadores dentro dessa cadeia de distribuição da tecnologia,
04:12o que é diferente de todos os outros lugares do mundo.
04:14Então, obviamente, qualquer empresa brasileira que for para a Europa vai ter que se adaptar.
04:18Essa nova legislação que entra em vigor agora, está entrando em vigor agora.
04:24Agora, se a regulação, porventura, vier tarde demais, a gente corre ou correria o risco de importar soluções de inteligência artificial
04:33sem algum tipo de controle ético ou também sem soberania tecnológica?
04:39Com certeza, Paula. A gente já vê isso acontecendo com redes sociais, com WhatsApp, com todas as ferramentas tecnológicas que a gente vê.
04:45A gente fica sempre nessa dualidade entre eu não posso matar a inovação ou empreendedorismo,
04:51eu não posso ofender ou criar um ambiente não propício para que essas empresas venham para cá,
04:56mas, ao mesmo lado, a gente precisa proteger quem está utilizando.
04:59O fato é que essas ferramentas, elas usam técnicas de neurociência para manipular algoritmos,
05:04para viciar a gente em conteúdo ou para manipular a nossa opinião,
05:08como já teve diversos casos aí na história.
05:11Então, a gente precisa criar certos guardrails, como a gente chama na tecnologia,
05:15que são bloqueios para que essa tecnologia não ultrapasse alguns limites e,
05:21tampouco, a soberania nacional ou os limites que a gente entende que é saudável para a população
05:28ou para os negócios aqui no Brasil.
05:30Essas próprias empresas multinacionais, essas big techs, elas têm favorecimento,
05:34inclusive de impostos, pelo modelo de negócio ser digital, eles captam muito dinheiro da economia local
05:41e deixam pouco retribuição em termos de impostos ou de empregos, levando isso para a matriz.
05:46Então, tem alguns riscos, sim, não é um risco de dominação, mas é um risco tanto de dependência tecnológica
05:54quanto risco de dados e isso afeta, de qualquer forma, a nossa soberania a partir do momento
05:59que o controle da manipulação de opinião da população está na mão de pouquíssimas empresas que não são brasileiras.
06:06Marcel, aproveitando que a gente está falando desse tema tão importante,
06:09nesses últimos dias a gente viu a divulgação do caso Felca, a questão da adotização das crianças.
06:16Como que os algoritmos podem trabalhar na proteção de crianças e adolescentes nesses novos modelos?
06:22Excelente pergunta, Paula, e é muito importante a gente ver finalmente influenciadores influenciando para coisas positivas.
06:32Acho que é a primeira vez que eu vejo algo realmente relevante para o fundo verdadeiro
06:35e que vai contra esse sistema de monetização viralizando.
06:39Então, ele foi muito feliz de trazer isso à tona, porque no fim das contas,
06:44essas empresas, é uma máquina, um algoritmo que ela está ali para tentar entender e moldar o seu comportamento
06:52para te prender mais tempo nessas plataformas.
06:55E quando você começa a extrapolar e não ter um controle sobre como as pessoas estão usando para fazer isso,
07:02isso é muito importante dizer, não foi o Instagram, o TikTok que criou esse conteúdo, foi um ser humano,
07:08só que isso, de alguma forma, passou pelo filtro que o algoritmo deveria fazer.
07:14Porque, possivelmente, esses algoritmos não estão privilegiando filtros ou a proteção de crianças,
07:19ele está privilegiando o consumo, o engajamento e a monetização, porque é disso que vivem essas plataformas.
07:25Então, é muito delicado e as empresas podem dar a justificativa que elas quiserem.
07:31Ah, não dá para fazer? Dá para fazer, mesmo que seja manual.
07:34A gente está falando de perfis que tem milhões de seguidores ou milhares de seguidores expondo o conteúdo que não deveria ser exposto.
07:42Eu acho que o momento é muito propício para a gente rediscutir, porque as redes sociais deixaram de ser redes sociais há muito tempo.
07:49Elas só são redes que tornou o usuário num produtor de conteúdo para gerar mais engajamento,
07:54para que as pessoas estejam lá para consumir mais.
07:56Isso deixou de ser rede social há algum tempo.
07:58Quando isso começa aí para manipulação de opinião, para controle populacional, para massa de manobra, para eleição,
08:05ou, pior ainda, num caso como esse, da gente expor crianças ou sexualizando crianças ou adultizando crianças
08:12em prol de engajamento e monetização, isso deveria ser sumariamente proibido.
08:18Isso deveria ser um crime gravíssimo o que a gente está fazendo.
08:21E aí, não tem qualquer tipo de explicação ou justificativa que permita isso.
08:28A gente está deixando evidente, claro e explícito que vale tudo pelo engajamento e que isso não tem limites, o que está bastante errado.
08:36É, eu concordo com você quando você falou que um influenciador que, de fato, está influenciando para o bem,
08:42essa denúncia aí tomou os últimos dias e com certeza esse assunto vai continuar em pauta nos noticiários.
08:48Marcel, muito obrigada pela sua participação, te agradeço muito.
08:52E você aí de casa acompanhou a entrevista com ele, que é especialista em inovação e também tecnologia.
08:58Muito obrigada, boa noite para você.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado

0:26