00:00E a Anthropic, a startup de inteligência artificial, rejeitou a oferta final do Pentágono
00:06para remover as salvaguardas de seu modelo de A-Cloud, intensificando um longo impasse
00:11entre a empresa e o Departamento de Defesa dos Estados Unidos sobre como a tecnologia
00:16pode ser usada.
00:17A startup tem mantido negociações tensas com o Pentágono, pois quer garantir que modelos
00:23não sejam usados pelas armas totalmente autônomas ou vigilância doméstica em massa?
00:29A gente vai entender melhor esse embrólio e a conversa é com o Marcel Nobre, especialista em tecnologia e inovação.
00:36Tudo bem, Marcel? Bom dia. Bem-vindo mais uma vez ao Real Time.
00:40Bom dia, Natália. É um prazer estar aqui hoje com você de novo.
00:44Ah, é um prazer o nosso te receber e espero que você consiga trazer de uma forma, como você sempre
00:48faz,
00:49muito didática para todo mundo entender o que está pegando, qual é o pano de fundo, Marcel,
00:54nesse embate do momento entre a Anthropic e o Pentágono.
00:58Que legal, Natália. Só para a gente explicar um pouco, a Anthropic foi fundada em 2021
01:04por ex-pesquisadores da OpenAI e a Anthropic é a desenvolvedora de um modelo chamado Cloud,
01:09que a gente usa como se fosse o chat GPT. Ela tem como investidores Google, Amazon.
01:15E a Anthropic sempre se posicionou muito com o foco de desenvolver capacidades da inteligência artificial
01:21com ênfase em segurança. Eles adotam uma postura muito ética, muito cautelosa,
01:25sempre orientada à segurança no desenvolvimento de modelos, com foco numa implementação bastante responsável.
01:31Então, o Cloud sempre responde aos usuários com base num conjunto de princípios éticos bem reforçados
01:36e que sempre visam reduzir respostas incorretas e evitar problemas de natureza ética.
01:41E por trás da Anthropic está o Dario Amodei, que foi um co-fundador, isso é o Dario Amodei,
01:48que ele trabalhou no Google Brain como cientista sênior de pesquisa.
01:51Ele é um dos co-inventores do aprendizado por reforço a partir do feedback humano.
01:55Então, está super reconhecido nesse mercado e ele liderou o desenvolvimento.
01:59Ele foi VP de pesquisa da OpenAI e ele liderou o desenvolvimento do GPT-2 e GPT-3.
02:05Então, esse é o cenário. A gente tem uma pessoa que ajudou a construir o Q&A hoje,
02:10saiu da OpenAI para abrir a sua própria empresa, possivelmente por questões de que a OpenAI
02:16foi num caminho de deixar muito aberto, muito capitalizado, muito marketing
02:20e talvez algumas salvaguardas eles não tiveram tanta atenção.
02:23E ele cria a Anthropic, então, com essa pegada um pouquinho mais de segurança e tudo mais.
02:27O que acontece é que o Cloud é usado pelo Departamento de Defesa e pelo Pentágono.
02:32Inclusive, ele foi usado na captura do Maduro como uma ferramenta de inteligência.
02:37E o que está acontecendo é que agora o Departamento de Inteligência quer que a Anthropic
02:42tire todos os seus salvaguardos ou os seus guardrails de segurança.
02:46É importante explicar isso para o público.
02:48Esses salvaguardos, esses guardrails de segurança, eles são fundamentais para o uso da inteligência artificial.
02:53Você não pode deixar isso sem nenhum freio, senão as pessoas podem usar para fazer coisas muito ruins.
02:58É uma ferramenta extremamente poderosa.
03:00Então, a Anthropic bota esses guardrails justamente para assegurar que não vão fazer coisas
03:06que ultrapassem limites éticos ou que ofendam a natureza humana.
03:11E o Departamento de Defesa está obrigando, essa é a palavra, tá, Natália?
03:16Está obrigando a Anthropic a tirar esses salvaguardas para ter um uso livre e irrestrito militar
03:23da sua inteligência artificial, inclusive ameaçando como um risco na cadeia de suplementos, né?
03:29No supply chain risk, que é uma medida de amplo boicote do governo norte-americano,
03:34aplicado geralmente a empresas chinesas.
03:36É a primeira vez que existe esse tipo.
03:39E é uma dualidade, porque o governo americano está falando,
03:41ou vocês tiram essas salvaguardas, ou a gente vai encerrar esse contrato que é de 200 milhões de dólares,
03:47ou a gente vai usar o poder da lei para obrigar vocês a tirarem essa salvaguarda,
03:51ou a gente vai colocar vocês como um risco para a segurança nacional.
03:55Então, é uma forma agressiva de você tentar inibir, e é um problema muito sério,
04:01porque a IA deixou de ser uma ferramenta de laboratório, de produtividade,
04:05para se tornar um ativo político num momento tenso no mundo, né, Natália?
04:09Então, e hoje era o prazo para o Amodei dar essa resposta,
04:15e ele falou, olha, em sã consciência eu jamais posso aprovar isso,
04:20principalmente porque tem duas cláusulas que não estão no nosso contrato,
04:24e que são fundamentais e que a gente não abre mão.
04:26O primeiro de vigilância pública em massa,
04:28e o segundo de utilização em armas autônomas, sem supervisão humana.
04:33A gente não abre mão disso, e é exatamente o que o Pentágono quer,
04:36e é por isso que ele está botando essa pressão e está acontecendo todo esse imbróglio.
04:40E essa pressão, esse impasse, tem precedentes?
04:44Já tinha acontecido alguma coisa nesse patamar antes, Marcelo?
04:49Publicamente, não.
04:51O Departamento de Defesa também tem contratos com a Google,
04:55com a XI, né, do Elon Musk,
04:58tem outros contratos com diversas empresas,
05:02e deve estar pressionando, da qual o PNI também diz que, né, com a meta,
05:08diz que essas outras empresas aceitaram esse uso irrestrito,
05:11que é um chopp, que não, não é uma informação publicada.
05:15Mas a gente, há algum tempo, a inteligência artificial se tornou uma arma política,
05:21uma arma militar, uma arma geopolítica e uma arma militar,
05:25e uma corrida desenfreada, né,
05:27e que isso traz essa suspeita de bolha,
05:29porque são trilhões em investimento com poucos bilhões em retorno.
05:33Mas a partir do momento que isso ultrapassou a linha de uso para produtividade,
05:37ou para a criação de novos produtos, né,
05:38talvez a discussão deveria ser como é que a gente usa isso
05:40para resolver problemas da humanidade, ambientais, ou de saúde, ou sociais,
05:46e a discussão é quem vai usar essa ferramenta primeiro
05:49como uma arma inteligente militar.
05:53Então, provavelmente nos bastidores houve essa pressão,
05:56mas não tão publicamente,
05:57ao ponto do subsecretário de defesa ir no Twitter, né, o Emil Michael,
06:04e falar que o Amodei não quer nada mais do que tentar controlar pessoalmente
06:09as forças armadas dos Estados Unidos,
06:10e que não se importa de colocar a segurança da nossa nação em risco,
06:14é uma forma meio esdrúxula,
06:17uma forma meio agressiva, meio desnecessária de fazer isso.
06:21Dessa forma, Natália, eu não tinha visto ainda.
06:24Tá, e aí, né, vai escalando uma guerra de narrativas
06:27que pode ter outras consequências.
06:29Você mencionou aí, então, que o Departamento de Estado
06:32já ameaçou rotular a Antropia como um risco na cadeia de suprimentos, né,
06:35ou invocar a Lei de Produção de Defesa para forçar a empresa
06:39a cumprir essas exigências.
06:40O que pode acontecer com a Antropic?
06:44Pois é, é um caminho meio estranho, né.
06:48A Antropic, ela está numa situação que ela pode,
06:51ela vai perder faturamento no curto prazo,
06:53é um contrato de 200 milhões,
06:55é relevante para qualquer empresa, mas não é crucial.
06:59Mas, por outro lado, ela se posiciona como uma empresa muito ética,
07:04responsável e que preza pela segurança.
07:06O que é muito importante isso dentro de ambientes corporativos,
07:09de saúde, de banco e tudo mais.
07:11Então, se a Antropic aceita isso do governo americano,
07:15ela dá um recado muito claro de que,
07:17tudo bem, os meus salvaguardos, os meus guardrails serem abertos,
07:21e vira praticamente, eu sou uma empresa que estou suscetível
07:24a mudanças de acordo com gostos políticos.
07:27E isso é um recado muito ruim para os seus clientes corporativos.
07:29Você imagina um banco, um hospital, uma financeira, uma seguradora,
07:34entender que o governo ou alguma instituição
07:37pode quebrar esses salvaguardos de um fornecedor,
07:40que foi escolhido justamente por essas premissas de segurança.
07:44Então, se por um lado tem essas ameaças do governo,
07:47que o governo também está em risco,
07:49ele já usa a ferramenta, já é uma ferramenta poderosa.
07:52Agora, existe uma linha pênue que é consensada por cientistas,
07:57por especialistas e por técnicos da IA.
07:59O Amodei fez uma declaração bastante política,
08:02mas bastante enfática, de que quando a segurança nacional
08:06não pode ser uma desculpa para a gente ultrapassar os limites da democracia.
08:10E ele falou, as nossas ferramentas não estão desenvolvidas o suficiente
08:15para entregar autonomia para uma máquina decidir uma morte ou não.
08:19Isso pode trazer risco, inclusive, para os próprios militares.
08:23Então, ela se posiciona firmemente como uma empresa que, olha,
08:26a gente está muito preocupado com a segurança nacional,
08:29a gente ajudou na captura do Maduro,
08:30a gente está super disposto a abrir.
08:33Agora, a gente não pode abrir mão desses dois pontos.
08:36Um é da vigilância.
08:37Imagina, você ter os dados de tudo que todo mundo conversa
08:41com a inteligência artificial e criar mapa de riscos
08:44ou a própria ICE pode atuar em cima.
08:46Então, é uma série de...
08:50É um emaranhado bem denso,
08:52porque, de um lado, você tem um governo forçando
08:54que, se a Antropik não aceitar, perde uma força política.
08:58Se aceitar, fica meio...
09:00As próximas empresas que forem fazer um contrato com o governo americano
09:03vão ficar ressabiadas com isso.
09:05Por outro lado, você tem uma Antropik que tem seus clientes corporativos
09:08que são muito importantes e que prezam e escolhem a cloud,
09:12não só por desempenho, mas também por essa questão de segurança e ética.
09:14E, por outro, você tem um governo que é um cliente importante,
09:19mas está forçando você a ultrapassar não só barreiras de guardrails,
09:22mas barreiras éticas às quais a empresa foi fundamentada.
09:25Então, é difícil dizer os próximos passos.
09:28A gente percebe que o governo americano tem essa retórica muito poderosa,
09:32muito ameaçadora, muito agressiva,
09:35mas, em muitos momentos, também recua quando entende que isso vai viável.
09:39E muitos cientistas, muitos professores, muitos técnicos
09:41estão apoiando e aplaudindo.
09:43Inclusive, eu faço coro a isso que o Amodei está fazendo,
09:47porque o que vai acontecer é, se eles abrem mão desses guardrails,
09:51isso é um precedente muito sério para futuras decisões
09:54e futuras formas como a gente vai usar a inteligência artificial,
09:59assim como se ela mantenha essa posição dura e o governo recua.
10:02Talvez este fique um recado muito claro de que,
10:03peraí, a gente não pode simplesmente liberar uma tecnologia tão poderosa
10:07para que governos ou empresas ou pessoas façam o que elas bem entenderem.
10:11Marcel, inclusive o Amodei, ele ganhou muito apoio, muitos fãs,
10:16muitos torcedores mesmo, por encabeçar esse discurso da responsabilidade,
10:22do limite ético, da preocupação com segurança.
10:26Mas aí, para a gente fechar rapidinho,
10:28o que teve de mudança recente na política de segurança da Antropic?
10:32Porque também teve alguma alteração que gerou bastante conversa por aí, né?
10:38Sim, a Antropic, a gente fala sempre que a tecnologia ocupa um espaço
10:46que a legislação ainda não alcançou.
10:48E aí, a gente fica tentando ajustar as tecnologias à legislação,
10:53ao mesmo tempo que isso é muito difícil.
10:55A legislação tem que acelerar o processo para a adoção das novas tecnologias
10:58e as tecnologias precisam também respeitar os limites da legislação.
11:02Então, não só a Antropic, mas todas as empresas de inteligência artificial,
11:06de certa forma, estão tentando se enquadrar,
11:09ao mesmo tempo que ela tem um produto que ultrapassou as regulações vigentes.
11:13Então, a Antropic também tem esse movimento de tentar se adaptar
11:16e ser competitiva no mercado,
11:17ao mesmo tempo que ela não abre mão de algo que é muito importante.
11:21E talvez ela tenha sido criada,
11:22e o Amodei e os seus cofundadores da Antropic tenham saído da Open Air,
11:25porque a Open Air joga um outro jogo,
11:27um jogo aberto, um jogo capitalista,
11:30um jogo prometado o tempo todo,
11:32que muita gente acha isso irresponsável.
11:37É muito delicado.
11:39Quando a gente encontra tecnologias tão disruptivas
11:42e tão poderosas como a inteligência oficial,
11:44que trazem questões éticas,
11:45quem tem acesso,
11:46será que isso não vai aumentar a disparidade,
11:49será que isso não vai aumentar o desemprego,
11:51e simplesmente a gente deixa ferramentas e governos
11:53fazerem o que querem com isso,
11:55a gente começa a entrar num risco que a gente não viu antes.
11:58Então a Antropic vem tentando se adaptar a isso,
12:00ao mesmo tempo que se mantém firme nos seus guardrails o tempo todo.
12:05E esse é mais um capítulo político que fica forçando e testando
12:09esse propósito, ou esse DNA da empresa,
12:13de priorizar segurança e ética,
12:16e não somente lucro,
12:17porque lucro também, obviamente, que eles precisam priorizar.
12:20É uma empresa, enfim, tem investidores,
12:22mas então é sempre essa guerra,
12:24e eles ficam o tempo todo,
12:26apertam um pouquinho, soltam um pouquinho,
12:27e agora vai ser um teste de ferro
12:29para a Antropic e para esse novo momento
12:32da inteligência artificial.
12:34Estamos acompanhando, então, cada capítulo,
12:36cada resposta, cada reação.
12:38Marcel Nobre, especialista em tecnologia e inovação,
12:40muito obrigada pela participação.
12:42Boa sexta-feira para você.
12:44Obrigado.
12:44Para você também, Natália.
12:45Boa sexta-feira.
Comentários