Pular para o playerIr para o conteúdo principal
  • há 18 horas
Transcrição
00:00Como hoje é terça-feira, vamos aproveitar e repercutir esse assunto na nossa coluna Fala Aí!
00:14Para isso, vamos receber Roberto Pena Spinelli, físico pela USP, especialista em Machine Learning por Stanford
00:21e colunista do Olhar Digital. Vamos lá? Deixa eu ver se eu encontro Pena por aqui.
00:28Olá, Pena! Muitíssimo! Boa noite! Seja muito bem-vindo!
00:34Tudo bem, Marisa? Olha só, como o assunto é guerra, esse problema é tudo, eu já estou no meu bunker
00:38aqui, eu estou protegido
00:41porque nunca se sabe, né?
00:43Eu ia falar exatamente isso, Pena, parece que você está num bunker, está com algum receio de algo.
00:50Bem-vindo!
00:51Estou aqui, estou protegido!
00:54Pena, vamos lá, vamos falar um pouquinho sobre esse assunto que a gente acabou de ver, não é?
00:59Além de firmar esse acordo com a OpenAI para o uso da IA em âmbito militar, o governo dos Estados
01:07Unidos praticamente rompeu relações com o Antropic.
01:10Esse é um sinal de que a Casa Branca pode estar disposta a interferir nessa corrida da IA, Pena?
01:18Marisa, aconteceu algo que, na minha opinião, é bem grave, inclusive é meio inédito, pelo menos nos últimos anos, aí
01:26nas últimas décadas.
01:27O que acontece é que a gente, o governo dos Estados Unidos estava usando o software da Antropic, o CLOD,
01:35inclusive no âmbito militar, então o Pentágono, que é um órgão de defesa americano, estava utilizando ali o CLOD
01:41para fazer diversas coisas no âmbito militar, porém, chegou um momento que esbarrou numa questão que, para os militares americanos,
01:50eles queriam ter, digamos, acesso completo do CLOD para qualquer coisa, seja para fazer, para fazer surveio,
02:00seria, esqueci o termo agora, mas, para avaliar as pessoas, monitoramento, chegou o termo,
02:10o monitoramento de massivo de pessoas, inclusive americanos, e também usar a IA para controlar armas,
02:17inclusive no processo de decisão de atirar em armas autônomas.
02:22E aí a Antropic falou assim, não, espera aí, isso aí não estava no nosso contrato,
02:27esse sistema não estava no contrato.
02:28O governo falou assim, não, mas não importa, uma empresa, e aí foram declarações do presidente dos Estados Unidos,
02:34que usou as redes sociais dele lá, para dizer, olha, não é uma empresa privada que vai dizer como
02:40que os militares americanos vão usar, vão pôr limites nos militares americanos,
02:45ainda ficou dizendo, e não vai ser esse bando de esquerdista, entre aspas,
02:50porque lá nos Estados Unidos tem essa coisa dos liberais versus democratas,
02:54aí que usou lá uma questão dos walks, né, que seria um movimento mais esquerdista,
02:59então não vai, vai, traduzindo livremente aqui nas palavras, seria, mas não vai ser um bando de esquerdistas
03:04que vai dizer como é que eu devo agir, não agir, cortou relações, e não só isso,
03:09colocou também, logo depois, veio a notícia de que a Antropic entrou numa lista de,
03:15de empresas que são consideradas risco de, na cadeia de suprimento,
03:20basicamente são empresas que nem ninguém que faz, presta serviço para o governo americano,
03:24ou para os militares americanos, vai poder usar Antropic, porque é um risco, ou seja, né,
03:31imagina, isso é uma questão muito forte, isso é, para uma empresa interna americana,
03:36isso eu acho que é sem precedentes, né, a gente já teve essas sanções para empresas externas,
03:40como as chinesas, né, a questão do TikTok foi bastante repercutida, que virou esse risco da cadeia de suprimento,
03:46mas uma empresa interna, de repente, do dia para a noite, veja, era uma empresa que estava sendo,
03:52prestando serviço para o governo americano, para os militares americanos já há bastante tempo,
03:56e aí ele simplesmente esbarrou numa questão que me parece bastante ética,
04:00não acho que as IAS deveriam ser colocadas nesse posto, mas enfim, aí não importa a minha opinião,
04:06a questão é que isso estava fora do contrato original,
04:08eles queriam passar por cima do contrato, e a Antropic disse não,
04:12e eles romperam completamente, e aí depois foram colocar a Open AI.
04:16O mais curioso, Marisa, então primeiro, eu acho que essa situação é bem grave,
04:19a gente está vendo aí um tipo de, uma deliberação meio, sei lá, movido aí, né,
04:26não de maneira estratégica, como a gente esperaria, um governo,
04:30questões, de repente, virou quase uma vingancinha,
04:33não é, então você agora é persona não grata, você não pode oferecer serviço para ninguém,
04:37a gente tem que ter o direito de fazer qualquer coisa.
04:40Mas aí a Open AI também disse, olha que curioso, Marisa,
04:43a Open AI foi lá e fechou o acordo com o governo americano,
04:47mas disse que fechou nos mesmos termos que a Antropic tinha colocado,
04:51ou seja, não poderia usar para monitoramento massivo de pessoas,
04:56e nem para armas automáticas.
04:58E aí ficou todo mundo meio confuso.
05:00Ué, se foi, uma empresa foi colocada como risco de cadeia de suprimento,
05:05pela mesma, e aceitando os mesmos acordos, por não aceitar o acordo que uma outra aceitou,
05:12não, deixa eu reformular melhor, pelos mesmos acordos,
05:15uma empresa foi negada e disse que não podia,
05:17e a outra foi aceita e tudo bem.
05:20Então, assim, bem confuso como que foi tudo isso.
05:23Então, Marisa, a gente não sabe exatamente por que houve tudo isso.
05:27Alguns cogitam de que foi algum tipo de vingancinha mesmo,
05:32sei lá, por algum motivo houve esse embrólio interno,
05:36uma desavença interna, talvez uma questão política,
05:40e aí, então vamos usar qualquer desculpa aqui para dar uma vingança,
05:43o que seria horrível, não é assim, não é o que a gente espera
05:46quando a gente está tratando de governos, instituições.
05:49Ou a outra é que a Open AI, ela aceitou coisas a mais,
05:54e ela só está dizendo que não, o que também seria bem grave.
05:57Ou seja, ela está dizendo assim, não, a gente está nas mesmas condições,
06:00mas talvez essas condições não sejam exatamente as mesmas.
06:03Talvez a Open AI esteja disposta a dar um pouco mais, a usar,
06:07e aí fica sempre aquela questão das entrelinhas.
06:10Ah, não, mas veja aqui, os detalhes,
06:13sempre você vai ter ali algum truque,
06:15e conhecendo a Open AI e o histórico do Sam Altman,
06:18de sempre se desdobrar para poder atender as coisas,
06:22e ficar ali falando de uma maneira que sempre agrada a todo mundo,
06:26então eu tenho muito receio, Marisa.
06:28Talvez seja só, eu não sei qual das duas opções,
06:30se existe uma terceira, não dá para conjecturar,
06:33porque eu não li os acordos, ninguém tem acesso aos acordos,
06:36tudo que a gente tem é o que essas pessoas falam.
06:39E o Sam Altman disse que não, que está tudo certo,
06:42o modelo dele, o Chartier-PT, não vai poder ser usado para essa maneira,
06:46mas a gente não sabe exatamente as entrelinhas,
06:48e eu acho que talvez nas entrelinhas tenha alguma coisa mais séria.
06:51Então sim, Marisa, de algum jeito,
06:53agora o governo dos Estados Unidos entrou,
06:56deu lá umas patadas,
06:58e mudou completamente o cenário das empresas de inteligência artificial.
07:03Pois é, esse comportamento assim,
07:06na verdade ele é surpresa, mas nem tanta surpresa assim,
07:09quando a gente acha que já se surpreendeu com tudo,
07:11sempre vem uma novidade,
07:13e como você disse, é um risco não ter claras as regras
07:18em que isso foi feito.
07:19Então realmente é um assunto muito sério
07:20para a gente acompanhar sempre bem de perto
07:23e poder trazer mais detalhes aqui,
07:26porque afinal de contas é muito sensível
07:28essa questão de brechas de utilização de IA
07:31em ações militares.
07:33Mas até falando nisso, Pena,
07:35essa introdução da IA no campo de batalha,
07:39a gente vê que já é ali uma realidade.
07:41O que muda na questão da guerra
07:45com essa nova tecnologia, na sua opinião?
07:49Então, a gente sabe que nesses ataques dos Estados Unidos no Irã
07:54já foi utilizado inteligência artificial,
07:57inclusive modelos de linguagem.
07:59Porque quando a gente fala em inteligência artificial
08:01pode ser um monte de coisa.
08:02Existem já inteligências artificiais
08:04que já eram usadas em campo de batalha,
08:06mas eram ainda modelos muito mais restritos,
08:10muito mais limitados.
08:11O que a gente sabe é que o Cloud, justamente,
08:13que tinha, a Antropic que prestava serviço
08:15até uma semana atrás, sei lá quando que foi isso,
08:18acho que foi menos do que...
08:19O Cloud, o Antropic que prestava serviço
08:22e tinha o Cloud à disposição.
08:25E a gente sabe que esses modelos de linguagem,
08:28eles têm uma capacidade muito grande de lidar,
08:32sejam com dados, tomada de decisão,
08:35avaliação rapidinho.
08:37O modelo desse consegue ler muitos documentos,
08:39muitos dados, sumarizar, extrair o que você quer.
08:44Isso é poderosíssimo no campo de batalha, Marisa,
08:47porque você tem que tomar decisões rápidas.
08:49O que está acontecendo? Onde está?
08:51Os relatórios vão chegando, as informações chegam
08:54e você tem que processar aquilo e tomar alguma decisão.
08:58Então, sabemos, foram...
09:00No caso do ataque dos Estados Unidos,
09:02foram 900 ataques, ações coordenadas,
09:05900 ações, num período muito curto,
09:08num período de um dia.
09:09E isso, sem precedentes também, até onde me cabe,
09:13essa ação coordenada,
09:14ela é algo de uma escala muito maior,
09:19possivelmente por conta do uso
09:21desses modelos de linguagem
09:23que ainda estavam sendo usados,
09:24os da Antropic que estavam sendo usados.
09:26Inclusive, ainda estão,
09:27porque vai ter um período de suspensão
09:29que leva seis meses.
09:30Então, ou seja, mesmo tendo declarado
09:32a Antropic como persona não grata,
09:35ainda assim, estão fazendo uso do Cloud
09:37até daqui seis meses.
09:39Mas então, aí quais são os riscos que eu vejo, Marisa?
09:44É impossível um ser humano
09:45conseguir tomar essas decisões
09:48numa janela tão curta
09:51com o volume de dados que tem numa guerra.
09:53Então, isso levava normalmente dias.
09:56Tem que ir lá, receber relatórios de todo mundo,
09:58do mundo sumarizar, faz uma reunião,
10:00pede que cada um ali dos líderes,
10:05o ministro da Defesa, o general, sei lá,
10:08cada um dá a sua opinião,
10:09monta um novo cenário, monta uma estratégia nova.
10:12Tudo isso, às vezes, leva dias, horas,
10:14no mínimo horas, né?
10:15Para você, de repente, fazer o próximo passo.
10:18O modelo de linguagem consegue processar
10:20isso muito mais rápido.
10:21E o pior, ou melhor, né?
10:23No caso, eu vou colocar pior
10:24do que no meu ponto de vista pior,
10:26porque ele pode também tomar já
10:27uma sugestão de decisão, Marisa.
10:30Ele pode, olha, o relatório é esse,
10:32os dados são esses,
10:33ele sumarizou os dados,
10:34porque o humano vai levar muito tempo,
10:35mas não só isso.
10:36E baseado aqui nas estratégias,
10:39nos guidelines do Pentágono,
10:41ou seja lá de onde for,
10:42a sugestão de alvo é esse,
10:45a sugestão de tática é essa.
10:48sugir usar uma bomba do tipo tal,
10:50atacar um, ele pode fazer isso.
10:53E é justamente isso que a Antrópica
10:54estava dizendo.
10:55A gente não quer que os nossos modelos
10:57possam tomar decisões de uso
10:58de armas automáticas.
11:00Mas nesse caso,
11:01ainda tem um ser humano no final,
11:02ainda não está armas automáticas.
11:05Ele diz, eu sugiro tal coisa,
11:07e ainda tem que ter um ser humano lá
11:08que fala assim, tá bom,
11:09eu vou aprovar, eu vou soltar a bomba.
11:12Que bom, tem que ter um ser humano.
11:13Só que, Marisa, vamos concordar.
11:16A gente está delegando cada vez mais
11:18a tarefa de pensar,
11:19de raciocinar, de criticar,
11:21de avaliar para a máquina.
11:23Porque um ser humano ali recebendo,
11:25que ele não vai conseguir analisar
11:27todos aqueles dados,
11:27de repente chega aquele relatório
11:28bonitinho ali do modelo de linguagem
11:31dizendo qual que é o melhor alvo,
11:32e ele te convence,
11:33porque ele tem uma habilidade enorme.
11:35É muito fácil para essa IA,
11:37no final, estar tomando essas decisões,
11:40porque o humano,
11:41a não ser que ele tenha algum motivo
11:42muito forte para dizer não,
11:43ele vai dizer sim.
11:44e a gente está perdendo essa autonomia.
11:46Eu acho isso super perigoso,
11:48ainda mais agora,
11:48que a gente não tem essa garantia
11:50que esses modelos,
11:51eles são alinhados,
11:53eles são seguros.
11:54Já vimos um monte de vezes
11:56aqui nessa mesma coluna
11:58casos em que os modelos
11:59não agiram da melhor maneira,
12:01não agiram de uma...
12:02Então, e nem a Antropic,
12:04nem ninguém pode garantir
12:05que eles vão agir.
12:06Inclusive, esse é talvez
12:07um dos grandes motivos
12:08que a Antropic não quer isso,
12:09porque o modelo não está pronto
12:11para tomar essa decisão.
12:12Você acha que está,
12:13ele te convence que está,
12:14mas ele não está.
12:15A gente não tem como garantir
12:16que ele vai tomar uma decisão
12:18boa no final,
12:19que seja mais acertada
12:20ou que esteja privilegiando
12:22aí questões morais.
12:24Então, Marisa,
12:25para mim,
12:26perigosíssimo o que está acontecendo.
12:27Eu acho que a gente,
12:27como sociedade,
12:28não deveria nem tolerar
12:30que isso acontecesse.
12:30Isso deveria estar
12:31sendo discutido
12:32em questões de relatórios de guerra,
12:34leis de guerra.
12:36A gente tem que discutir isso
12:37de uma maneira mais ampla,
12:38mas é para ontem,
12:39porque já está sendo usado agora.
12:41Então, coloco aqui novamente,
12:44mais uma vez,
12:44sou eu que trazendo os riscos,
12:46porque a IA não tem nem regulação
12:48no mundo,
12:49praticamente nenhuma,
12:50que dirá, então,
12:51para um uso de guerra,
12:52que dirá, então,
12:53para questões éticas e morais
12:54no uso de guerra.
12:56Com certeza.
12:57É abrir mão
12:57do que a gente tem
12:58de maior diferencial,
13:00que é a consciência humana,
13:01não é, Pena?
13:02É abrir mão
13:02desse pequeno detalhe,
13:04digamos assim,
13:05que faz toda a diferença.
13:06Agora, Pena,
13:07com a questão de poder,
13:10existe o risco
13:11de uma corrida armamentista
13:13de IA
13:15entre as grandes potências,
13:17até por conta disso,
13:19da dominância exclusivamente?
13:21Então, Marisa,
13:22essa é uma outra questão
13:24que meio que surgiu agora,
13:25eu não estava esperando isso.
13:27Então, eu vou trazer esse dado,
13:30que eu acho que é bem relevante.
13:31O Dário Almoday,
13:32que é justamente o CEO da Antropic,
13:34ele falou já em algumas entrevistas,
13:37que ele via a questão da IA
13:38como sendo uma questão
13:40tão poderosa
13:41como uma bomba atômica.
13:42Ele citou isso explicitamente.
13:44Ele disse assim,
13:44a gente deveria ver
13:45a questão da IA
13:46sendo algo tão poderoso,
13:48com uma capacidade
13:49tão poderosa no mundo,
13:50quanto de ter uma bomba atômica.
13:51E ele ficava criticando,
13:53inclusive,
13:53o governo americano
13:54de vender chips para a China,
13:56os chips que vão ser usados
13:59em inteligências artificiais.
14:00E aí, argumentado,
14:01mas é bom que a China
14:03compre os nossos chips,
14:04porque é um dinheiro,
14:06é uma dependência
14:08que ela cria dos americanos,
14:10a NVIDIA que vende
14:12normalmente esses chips,
14:13e também é um jeito
14:14dela estar gastando
14:16esse dinheiro com o Ocidente.
14:18Enfim.
14:19Só que aí,
14:19o Dário Almoday disse o seguinte,
14:20vocês não estão entendendo,
14:22faz sentido,
14:24palavras dele,
14:25não sou eu que falei nada disso,
14:26mas ele disse assim,
14:27se fosse uma ogiva nuclear,
14:29você venderia para a China,
14:30mesmo que ela pagasse
14:31muito caro por isso?
14:33Não, porque na cabeça dele,
14:35a ogiva nuclear
14:36é uma questão de segurança,
14:38você não vende
14:39para os seus adversários,
14:40mesmo ganhando,
14:42tendo vantagens,
14:43porque você está tendo,
14:43no final,
14:44um poder para ele,
14:45um poder BL,
14:47com poder,
14:48uma força muito grande.
14:50Então,
14:50é assim que o Dário Almoday
14:51vê a questão da IA.
14:53Pois bem,
14:54ele disse,
14:54deu essas declarações,
14:55mas agora,
14:58a gente teve uma,
14:59inclusive em Davos,
15:00numa entrevista hoje,
15:02o CEO da Palantir,
15:04que é uma empresa
15:04que fornece serviços
15:06para os militares,
15:09para o departamento de defesa,
15:10para toda a cadeia
15:12militar americana,
15:13ou seja,
15:13é uma empresa que está
15:14muito integrada
15:15na questão americana,
15:16militar americana,
15:18ele deu uma declaração
15:19dizendo,
15:20olha,
15:20se vocês pensam,
15:23que a IA
15:25vai poder,
15:27que vocês vão ter,
15:28que vai ser esse poder,
15:29se vocês acreditam,
15:30e talvez fazendo uma menção
15:32à ideia do Adara Almoday,
15:33se vocês acreditam
15:34que de fato a IA
15:35vai ter esse poder todo
15:35de tomar os empregos,
15:37ser uma arma
15:38como uma bomba atômica,
15:39então,
15:40e vocês acham
15:41que vão fazer isso
15:42sem isso de algum jeito
15:43ser nacionalizado,
15:45vocês estão muito enganados.
15:47Ele até usou palavras
15:48mais fortes do que isso.
15:49Ou seja,
15:50olha o que foi
15:51sugerido,
15:52muito sutilmente
15:54hoje, Marisa,
15:55foi sugerido
15:55de que no momento
15:56que o governo americano
15:58entender que essa,
15:59que a IA
16:00se tornou algo
16:01poderoso de fato,
16:03e dá a entender
16:03que já está se tornando,
16:04visto que eles estão
16:05querendo usar isso
16:06em todos,
16:07eles simplesmente
16:08podem nacionalizar
16:09as empresas,
16:10ou seja,
16:11todas as empresas
16:12que são privadas
16:13e que fazem o que quiserem,
16:14não,
16:14agora é posse
16:15da propriedade
16:16dos Estados Unidos
16:16e a gente domina,
16:18porque é risco militar.
16:19Seria mais ou menos
16:19como se tivesse
16:20uma empresa fazendo
16:21uma bomba atômica
16:21aí um dia o Estado
16:23vai falar,
16:23vocês estão fazendo
16:23uma bomba atômica aí?
16:24Não,
16:25agora não,
16:25vocês não vão mais fazer
16:26porque isso aqui
16:27é perigoso demais,
16:28isso aqui,
16:30eu não posso deixar
16:32ninguém dominando
16:33esse poder todo,
16:34isso tem que ser
16:35nacionalizado.
16:36Então, Marisa,
16:37isso abriu um precedente,
16:39porque esses Estados Unidos,
16:40que é dito,
16:41esse país todo liberal,
16:42todo,
16:43permite tudo,
16:44está cogitando,
16:46veja,
16:46não foi ninguém
16:47do governo,
16:47mas foi a Palantir,
16:49eu estou querendo
16:49deixar bem claro
16:50que não teve
16:50uma declaração
16:51do presidente
16:52nem nada disso,
16:52mas no momento
16:53que essa empresa
16:54que presta serviço
16:55falou abertamente
16:57sobre a possibilidade
16:58de nacionalizar
16:59empresas de IA,
17:00isso está aberto
17:01para o mundo todo,
17:02porque,
17:02por exemplo,
17:03a China,
17:03que tem empresas lá
17:05que fazem
17:06inteligência artificial,
17:07lá o governo chinês
17:08é um governo muito forte
17:09e meio que toda
17:10empresa chinesa
17:11para operar
17:12já tem que ter
17:12o aval do governo,
17:14então claro que lá
17:15é muito mais fácil
17:15inclusive do governo
17:16chinês poder falar assim,
17:17olha,
17:17acabou,
17:18isso aqui é
17:19propriedade do Estado,
17:20lá é muito mais fácil.
17:22Nos Estados Unidos
17:22que em princípio
17:23seria muito difícil
17:24já estar acontecendo,
17:25isso pode servir
17:26de exemplo,
17:27Marisa,
17:27para o mundo todo.
17:28Então a gente
17:29está vendo sim
17:29uma mudança,
17:30uma escalada diferente,
17:31onde antes
17:32ninguém achava
17:33que a IA
17:34era um risco,
17:35era todo mundo
17:35achando que era
17:37não sei o que,
17:38não tem problema nenhum,
17:39não vai tomar emprego
17:39de ninguém,
17:40é um negócio
17:41que é uma ferramenta,
17:42vai aumentar a produtividade,
17:43o futuro é lindo,
17:44todo mundo feliz.
17:45E de repente
17:46uma hora para outra
17:47o que está acontecendo é,
17:48não,
17:49isso aqui é sério mesmo,
17:50acho que a gente está,
17:51isso aqui talvez
17:51seja bem perigoso
17:53e talvez a gente
17:53queira tomar posse disso
17:54porque é uma questão
17:55de poder.
17:56Então o que vai acontecer
17:58nos próximos meses aí
17:59a gente está falando
18:00realmente um aberto,
18:01como que vai desdobrar
18:02essa guerra
18:02e talvez esses movimentos
18:03de quem sabe
18:04nacionalização.
18:06Eu acho que isso
18:06foi mais um blefe agora,
18:08mas eu acho que
18:08não um blefe,
18:09mas eu acho que isso ainda
18:10foi mais uma bravata
18:12do que qualquer coisa,
18:14mas ainda assim
18:15isso está apontando,
18:16isso está sinalizando
18:17a mudança de visão
18:19da IA como apenas
18:20um brinquedinho,
18:21uma coisa do Vale do Silício
18:24para talvez uma coisa
18:25mais séria
18:26e mais poderosa
18:26e arriscada.
18:28Pois é, especialmente
18:29em um momento
18:30sem regulamentação,
18:31como você disse,
18:32nenhuma,
18:33fica mais complicado ainda.
18:35Bom, Pena,
18:36espero que na próxima edição
18:38do Fala Aí
18:39nós tenhamos temas
18:40um pouco mais leves,
18:42menos preocupantes
18:43e que seu bunker
18:44fica aí só reservado
18:45para problemas
18:46que não sejam
18:47realmente uma guerra.
18:48Muitíssimo obrigada,
18:50querido.
18:50Um beijo para você
18:51e uma excelente semana.
18:53Obrigado, Marisa.
18:54Eu realmente espero
18:55que semana que vem
18:55a gente tenha notícias melhores,
18:57que essa guerra toda
18:58já tenha acabado,
18:59as situações estejam
19:01desescaladas.
19:01Mas até lá, então.
19:03Até uma boa semana
19:03para você e para todo mundo.
19:05Até.
19:06Tchau.
19:07Tá aí, pessoal,
19:08mais um Fala Aí
19:09com Roberto Pena Spinelli,
19:11físico pela USP,
19:12especialista em Machine Learning,
19:14aqui participando
19:15da nossa coluna.
19:16Fala Aí,
19:17trazendo todo esse cenário.
19:19Semana que vem
19:20estamos de volta
19:21e esperamos que com temas
19:23mais tranquilos.
Comentários

Recomendado