Pular para o playerIr para o conteúdo principal
André Miceli, CEO da MIT Technology Review Brasil, analisa as reclamações das big techs ao governo Trump sobre taxação, moderação de conteúdo, data centers e inteligência artificial. A conversa aborda os impactos dessas medidas para os usuários, o papel da União Europeia como referência regulatória e os desafios da desinformação e da IA generativa.

🚨Inscreva-se no canal e ative o sininho para receber todo o nosso conteúdo!

Siga o Times Brasil - Licenciado Exclusivo CNBC nas redes sociais: @otimesbrasil

📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:

🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais

🔷 TV SINAL ABERTO: parabólicas canal 562

🔷 ONLINE: https://timesbrasil.com.br | YouTube

🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings

#CNBCNoBrasil
#JornalismoDeNegócios
#TimesBrasilCNBC

Categoria

🗞
Notícias
Transcrição
00:00Além das críticas ao PIX, as empresas norte-americanas levaram ao governo de Donald Trump
00:06reclamações sobre as políticas de moderação de conteúdo nas plataformas digitais,
00:12inteligência artificial, data centers e o governo brasileiro,
00:16que já mostrou a intenção de taxar as Big Techs.
00:20Para me ajudar a destrinchar esse assunto, eu convido André Micelli,
00:25que é CEO da MIT Technology Review Brasil, para a gente debater o que pode estar por trás de tudo isso
00:33e, principalmente, quais as consequências.
00:35Micelli, obrigado mais uma vez por ter aceitado o nosso convite para conversarmos com o nosso público.
00:41As Big Techs aqui no Brasil, assim como na esmagadora maioria do mundo,
00:47estão integralmente associadas à nossa vida cotidiana.
00:52Seria muito pouco provável elas saírem do Brasil, ainda mais com um mercado
00:58que é tão valioso no consumo, na publicidade e muitos outros itens.
01:05O que pode dar esta reclamação das Big Techs ao governo americano?
01:11Tudo bem, entendo, todo mundo acompanha isso, estamos em pé de guerra aí.
01:15Os governos, principalmente a administração de Donald Trump, reclamando de algumas posturas restritivas.
01:21A Casa Branca, na atual administração, fala de censura no Brasil.
01:25Mas, efetivamente, em termos práticos, para usuários como eu, você e as milhares de pessoas que estão nos assistindo,
01:32o que isso pode impactar no uso dos serviços das tais Big Techs?
01:38Boa noite, Micelli, mais uma vez.
01:41Boa noite, obrigado pelo convite, é um prazer estar aqui.
01:43Boa noite também para toda a audiência.
01:45Bom, tem alguns aspectos que precisam ser analisados individualmente.
01:49Primeiro, da taxação.
01:52Naturalmente, o argumento de que uma empresa que ganha dinheiro no Brasil precisa pagar impostos para o Brasil é válido.
02:01No entanto, o risco é transformar uma justiça fiscal em desestímulo ao investimento.
02:08Essas empresas também geram empregos no Brasil, têm seus escritórios, fazem negócios.
02:14E, no final das contas, a estrutura pode fazer com que o consumidor tenha que pagar essa conta.
02:21O consumidor das Big Techs, normalmente, é uma outra empresa anunciando nesses ambientes.
02:27E aí, eventualmente, isso pode tornar esse jogo mais caro.
02:31Quando a gente olha para as questões jurídicas, o STF acabou criando um ambiente com uma certa insegurança.
02:41Porque as plataformas podem ser punidas por conteúdos que elas não controlam.
02:45E esse processo pode se dar através de decisões extrajudiciais.
02:48Então, isso acaba criando esse ambiente, como eu disse, de insegurança,
02:57que, naturalmente, também desestimula a existência dessas próprias empresas no Brasil.
03:04Como você bem colocou, elas não vão embora.
03:06O Brasil é um mercado gigantesco.
03:08Mas isso pode criar ou fomentar, de alguma maneira, essa animosidade que tem acontecido entre os dois governos.
03:15Agora, Miceli, você comanda aí uma publicação, quer dizer, uma empresa que faz um monitoramento de tecnologia no âmbito global.
03:23E nós temos outras partes do mundo que já começaram com movimentos de também exigir a retirada de conteúdos impróprios e tal.
03:32Uma responsabilização das empresas, mesmo por conteúdos de terceiros, em moldes diferentes.
03:40Claro, eu estou fazendo uma comparação meio rasa, só para colocar na mesma prateleira.
03:43Embora as legislações não sejam exatamente iguais.
03:47A Alemanha tem uma legislação de observação do que é publicado e responsabilidade.
03:55A União Europeia discute pegar este modelo alemão e replicar para o resto da União Europeia.
04:03Você vê algum outro país que avançou nesse sentido e que possa ser um modelo Brasil?
04:09Ou que o Brasil possa usar de justificativa, dizendo, ó, Big Techs, lá naquele país, naquele bloco, é assim.
04:17Então, a gente pode fazer o assado aqui também.
04:21Eu entendo que a União Europeia, ela já sirva de exemplo para o Brasil para muitas questões quando a gente trata de tecnologia também.
04:32A LGTB brasileira tem uma inspiração evidente na GDPR, que é a lei análoga da União Europeia.
04:41E esse entendimento que é muito pró-consumidor, a gente tem ali três grandes entendimentos,
04:48um modelo americano mais pró-empresa, um modelo europeu mais pró-consumidor final e um modelo chinês mais pró-estado.
04:55Esse modelo europeu, que tem servido de base para o nosso arcabouço legal, ele pode servir mais uma vez.
05:05O que eu acho que seria mais prudente é que o Brasil não tentasse capitanear esse tipo de acordo.
05:13A União Europeia, naturalmente, vai ter muito mais força de se organizar em bloco para tratar as Big Techs.
05:19E depois o Brasil aproveita uma jurisprudência, ainda que em outro continente, mas que sirva de referência para uma transição mais tênue.
05:30É óbvio que esses conteúdos não podem ficar soltos, é óbvio que a internet não pode ser terra de ninguém.
05:36A gente tem muitas coisas muito sérias acontecendo no que diz respeito a diversos aspectos da nossa sociedade,
05:43mas o Brasil não me parece ter força para capitanear esse processo.
05:48Micelli, obviamente que dentro deste ambiente complicado, nós temos um agravante, ambiente complicado que eu estou falando, fake news.
05:59Só estou pegando um traço, agora entramos aí numa outra discussão, a exploração da figura de menores de idade na internet.
06:06Não, só vou pegar um recorte, que já é um complicador o suficiente, a fake news.
06:13Tem um outro potencializador, a inteligência artificial.
06:17Nós estamos aqui na terceira década do século XXI de um movimento inexorável.
06:23Nós vamos ter que conviver com essa questão da fake news e elas são fabricadas a enorme velocidade pelas inteligências artificiais.
06:35Obviamente que a inteligência artificial se torna cada vez mais um mecanismo da nossa época.
06:40Isso não vai ser apagado.
06:42Por isso que eu usei a expressão inexorável.
06:45Existe uma alternativa, e eu li muitos artigos internacionais, um dos mais recentes é do Francis Fukuyama,
06:51que é um filósofo contemporâneo nosso, fala muito de tecnologia,
06:56dizendo o seguinte, que poderia ser usada essa tecnologia como uma camada de proteção,
07:03uma camada de análise, que as próprias big techs poderiam ter uma ferramenta, talvez, de identificação da fake news.
07:12Ou com aviso, ou com a retirada, tudo bem.
07:16Na sua opinião, só que esta ferramenta ficaria na mão das próprias big techs,
07:22ou para um funcionamento mais equilibrado, haveria um outro componente fora das big techs,
07:28que faria ou fizesse essa triagem.
07:31Porque um mecanismo de controle de mim, para mim mesmo, feito por eu mesmo,
07:39não tende a ser muito eficiente.
07:42Pois é, essa é uma questão importante.
07:45Quando a gente avalia inteligência artificial,
07:48é importante que não haja uma generalização do escopo do que é a inteligência artificial.
07:54A gente já lida com esse tipo de tecnologia há muitos anos,
08:00desde a Amazon sugerindo produtos, a Netflix sugerindo conteúdos,
08:07ou as big techs, de alguma maneira, tratando as postagens que são feitas nas suas respectivas redes.
08:14Então, o fato novo nesse processo é que, nos últimos anos,
08:19a gente tem tratado de inteligência artificial generativa.
08:22E aí, esse processo da inteligência artificial gerar diferentes tipos de conteúdo
08:26criou um ambiente de popularização muito grande.
08:30Quando a gente olha para as big techs regulando o próprio conteúdo,
08:35ou usando algoritmos de inteligência artificial para avaliar esse conteúdo,
08:39inevitavelmente, a gente vai se manter associado ao entendimento do que a própria big tech,
08:47dado que é ela que desenvolve esses algoritmos,
08:49entende do que é certo e do que é errado.
08:51A gente está falando simplesmente de uma evolução do modelo que já existe hoje
08:55e que, evidentemente, não funciona por completo.
08:59Eu não discordo da possibilidade das pessoas participarem desse processo.
09:05Os modelos de inteligência coletiva,
09:07associados à inteligência artificial,
09:09costumam ser mais eficientes do que um ou outro isoladamente.
09:15Eu não acho que só as pessoas podem tratar isso,
09:17porque isso pode sugerir organizações em bloco
09:21para tratar determinado conteúdo conforme o interesse daquele bloco,
09:25mas também não acho que o algoritmo pode trabalhar sozinho.
09:28Quando essa inteligência híbrida aparece,
09:32que é pautada na inteligência coletiva,
09:34na multidão, nas pessoas,
09:37olhando um determinado conteúdo associado a um algoritmo
09:41que ele, sim, é desenvolvido em função dos interesses da big tech,
09:46de uma determinada big tech,
09:47a gente tem ali uma solução um pouco mais robusta
09:53para tratar um problema que é extremamente complexo.
09:56Não existe um problema complexo tratado de maneira simples
10:00que é resolvido.
10:02Lá no MIT, a gente tem uma frase que é
10:04para todo problema complexo,
10:06existe uma solução simples, elegante e errada.
10:09Então, a gente não vai tratar isso de uma maneira trivial.
10:12Obrigado pela conversa,
10:14como bati um papo aqui muito edificante,
10:17elucidador com o André Miceli,
10:20CEO da MIT Technology Review Brasil.
10:23Miceli, muito obrigado mais uma vez.
10:25Até uma próxima.
10:26Obrigado.
10:26Obrigado.
10:26Obrigado.
10:26Obrigado.
10:26Obrigado.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado

0:26