00:00Como hoje é terça-feira, vamos repercutir esse e outros assuntos agora na nossa coluna Falaia.
00:14E vamos receber Roberto Pena Spinelli, que é físico pela USP, especialista em Machine Learning por Stanford
00:22e colunista aqui do Olhar Digital. Vamos lá, deixa eu ver onde está o Pena.
00:28Olá, Pena, muito boa noite, seja muito bem-vindo novamente.
00:33Tudo bem, Marisa? Olha só, hoje eu estou num lugar diferente.
00:38Eu fui convidado para apresentar uma palestra aqui na Ecos, aqui em São Paulo.
00:42É um espaço super legal, a gente vai debater sobre consciência de inteligência artificial,
00:47sobre segurança, um monte de coisa legal.
00:49Então eu falei, vou fazer direto daqui.
00:51Eu espero que esteja chegando bom aí o áudio, estaria tudo certo.
00:55Está tudo perfeito, olha que bacana.
00:57Então eles vão participar aí do nosso quadro hoje, além depois de todo o conteúdo que você tem para eles.
01:03Bom, vamos lá, Pena.
01:05Eu queria começar o quadro aqui de hoje perguntando para você qual a sua visão sobre esses possíveis cenários para
01:12o futuro, não é?
01:13A distopia da IA é uma previsão realista ou é um exagero na sua opinião, Pena?
01:21Quando a gente fala de distopia da IA tem muita coisa aí, a gente tem que saber, tem muita coisa
01:26que pode estar nesse balaio.
01:27Mas olhando a matéria que você trouxe, falando especificamente desse relatório que coloca, por exemplo, a questão do desemprego aumentando,
01:35eu acho, Marisa, que esse, eu tendo a achar que o mercado e as pessoas, a sociedade, costumava estar bastante
01:43otimista anteriormente
01:45e talvez agora esteja realmente olhando para os impactos possíveis.
01:51É muito incerto, óbvio, a gente está falando de uma tecnologia disruptiva, de vários futuros, eu não quero cravar nada,
01:57né?
01:57A gente está perdendo cada vez mais a habilidade de prever o futuro diante desses cenários como a gente está
02:05vendo essas inteligências artificiais,
02:07esses agentes operando, então está muito difícil.
02:09Mas é algo que eu já falava há bastante tempo, é sobre, sim, existe a possibilidade real de que a
02:17inteligência artificial
02:18possa entregar trabalho útil para as pessoas, né?
02:21Porque a gente viu nesses, digamos, esses três anos, desde que surgiu o Chat APT, né?
02:27Que foi esse marco, as empresas estavam ali meio que, o que eu faço com isso?
02:32Ninguém sabia o que fazer com isso e, de fato, muito pouco foi entregue, assim, muito pouco estava sendo extraído,
02:38porque era uma coisa muito nova, ninguém sabia o que dava para fazer.
02:41Mas eu sinto que esse ano, né? Eu já alertava isso desde o ano passado, que esse ano, 2026, vai
02:47ser um momento que vai sair um pouco do hype, né?
02:49O hype sempre estava muito alto, a gente está saindo um pouco do hype e começando a entender impactos reais.
02:56Será que é possível, numa empresa, você realmente colocar alguma coisa útil da IA? O que ela entrega, de fato?
03:01Na área de código, isso já é um impacto tremendo.
03:04Então, primeiro, isso aí é real, a IA consegue hoje programar, sim, com código decente,
03:10e isso já está impactando diversos layoffs, enfim, várias questões que estão acontecendo.
03:15Mas o que esse relatório, para mim, está trazendo é, olha, a gente está agora olhando de uma maneira mais
03:20realista.
03:21E esse é um cenário possível.
03:22Se a humanidade, se a sociedade não começar a olhar para esse problema de maneira séria,
03:28e sim, isso pode acontecer.
03:30Esse é um caminho, a gente tem que dar seguridade social.
03:33Para mim, o erro é só ficar no wishful thinking, achando que, ah, não, vai dar tudo certo,
03:38o futuro é brilhante, a IA vai salvar todo mundo.
03:40Então, a gente tem que olhar de maneira crítica.
03:42Então, para mim, esse relatório foi o primeiro momento, talvez, mais crítico da gente olhar assim,
03:47ó, tem um relatório aqui dizendo que é possível esse cenário.
03:49Ninguém está dizendo que vai acontecer, que vai ser assim.
03:52Mas antes, Marisa, para mim, era sempre o wishful thinking pleno.
03:55A IA vai salvar todo mundo, fiquem tranquilos, o emprego de ninguém está ameaçado, é isso, sabe?
04:01Então, eu acho que é um pé no chão nesse caso.
04:04É bom você ter os contrapontos para que a gente direcione melhor o futuro.
04:09Com certeza.
04:10Agora, Pena, mudando um pouquinho de assunto, eu queria falar com você sobre a OpenAI,
04:15que retirou a palavra segurança do documento que descreve a missão da empresa,
04:22que parece um detalhe, mas pode ser que não.
04:25Isso pode indicar alguma mudança na prioridade da dona do chat GPT, Pena?
04:32Isso, para mim, parece bem sério, viu, Marisa?
04:34A gente já viu, inclusive, no passado, a Google fazer um movimento parecido, né?
04:39Chamou atenção também, quando eles removeram lá dos valores, da missão,
04:44não sei exatamente uma parte lá do documento deles, o manifesto deles,
04:49a questão de uso para... eles diziam que não usariam a inteligência artificial, né?
04:57Assim, não fariam nenhuma contribuição para questões de guerra, questões de armas, de armamento.
05:02E, em algum momento, isso foi removido lá também, chamou muita atenção.
05:06Agora, a OpenAI está fazendo algo parecido.
05:08Então, a missão dela, desde a fundação, foi trazer a inteligência artificial geral, né?
05:15Essa super inteligência para a humanidade, para toda a humanidade, de maneira segura.
05:20Quando eles removem o segura, eu não acho que é uma bobagem, certo?
05:26Assim, ah, acho que tem uma palavra sobrando aqui, vamos remover?
05:29Claro que a OpenAI está dizendo, não, a gente estava enxugando um pouco.
05:33Enxugando o quê? A missão é tão simples, é uma frase.
05:37Eu, sinceramente, Marisa, para mim, está apontando muito para um cenário atual da OpenAI
05:44que já não mais conversa com a missão de fundação deles.
05:48Eles só estão... a gente já viu vários funcionários da parte de segurança da IA
05:52deixando a empresa, né? Durante esses últimos dois anos, várias vezes,
05:56várias pessoas importantes de segurança deixaram a empresa alegando
06:00que eles não estavam mais priorizando isso.
06:03que essas pessoas que tinham isso como missão
06:06entendiam que já não estavam mais funcionários, não queriam mais contribuir
06:10para isso, sendo que a empresa não está mais alinhada para a segurança.
06:14Então, isso, para mim, o que está acontecendo é só um reflexo desse movimento
06:19que a OpenAI de hoje não é mais a OpenAI de 2015
06:23e ela só está meio que, ok, é isso mesmo, né?
06:27E, para mim, é um problema, porque se uma das empresas líderes
06:31que estão aí, né, trazendo com a missão de levar a inteligência artificial
06:36para todo mundo tirou a segurança,
06:39então, o que nos resta, não é isso?
06:41Eu não acho que é um detalhe bobo, não.
06:43Eu acho que a gente tem que ficar muito atento.
06:45Então, assim, como sociedade, a gente deveria dizer...
06:48Por quê? O seu produto não é seguro, então?
06:50Quer dizer que ser seguro não é mais importante?
06:53Se a gente não causar essa pressão, quem vai causar?
06:55Mas, visto que não há regulação hoje da IA, Marisa, é difícil, né?
06:59Pois é. Inclusive, esse outro assunto, até para encerrar aqui o nosso quadro de hoje,
07:04tem um pouco a ver com isso, sim, de responsabilização.
07:08O governo do Canadá convocou representantes da OpenAI
07:13para prestar esclarecimentos após a revelação de que um atirador
07:17matou oito pessoas e deixou mais 25 feridas nesse mês
07:23com que ele conversava sobre esses crimes com o chat GPT.
07:28Então, Pena, qual deve ser o papel da tecnologia em casos assim?
07:33Marisa, esse é um ponto muito importante.
07:36E como a gente não tem hoje uma regulação da IA,
07:40a gente não... simplesmente é meio que...
07:42Não existe uma boa legislação, uma boa regulamentação, uma governança sobre esse caso.
07:48Então, será, né?
07:50Então, só para dar o contexto inteiro.
07:53Esse atirador, ele já conversava por bastante tempo com o chat GPT dele
07:59e já estava pedindo dicas de como executar esse massacre.
08:05Aí bateu, né?
08:06Teve um aviso interno, porque a OpenAI, ela disse que não monitora as conversas,
08:11mas tem filtros.
08:12Então, né?
08:13Bateu um filtro lá de, olha, tem alguém falando sobre questões aqui de assassinato e tal.
08:19Os funcionários leram isso, as pessoas que filtraram, leram, levaram adiante,
08:24mas houve uma decisão da OpenAI interna, né?
08:29Olha, vamos suspender a conta desse cara, ele está fazendo mau uso,
08:33não é para usar dessa maneira,
08:34mas a gente não vai levar adiante,
08:38a gente não vai informar as autoridades,
08:40porque, enfim, argumentam que não havia ali algo sólido o suficiente para isso.
08:45Podia ser uma pessoa brincando, né?
08:47Enfim, é o que eles argumentam.
08:49Como é que a gente aplica isso em outras circunstâncias?
08:52Por exemplo, na psicologia.
08:54A gente já tem precedentes na psicologia, né?
08:57Então, o psicólogo, ele tem lá uma questão de o sigilo médico, né?
09:02Você não pode revelar...
09:04O que acontece numa sessão de psicologia é uma coisa sigilosa,
09:08você não tem o direito de revelar.
09:11Porém, quando existe uma situação grave de possível crime,
09:17algo que configura, o próprio psicólogo tem o direito,
09:21ele pode escolher se ele quebra o sigilo e avisa as autoridades.
09:27Mas isso é uma prerrogativa dele.
09:30O próprio psicólogo não tem uma lei que diga que ele tem que fazer,
09:33porque é isso.
09:34É muito complicado, depende de uma avaliação pessoal na hora.
09:38Será que essa pessoa realmente está vindo fazer isso?
09:41Aí se denuncia e a pessoa não fez nada?
09:43Será que vira um minority report?
09:45A pessoa é presa antes de fazer o crime?
09:47É complicado.
09:49Não é simples, né?
09:50Por mais que a OpenAI acabou de tirar a questão de segurança da missão dela,
09:53e a gente poderia dizer que isso é horrível,
09:57mas passa por uma questão subjetiva,
09:59uma avaliação interna do próprio psicólogo para decidir
10:02eu acho que é grave sim, eu vou romper o sigilo
10:05e vou avisar a polícia, vou avisar as autoridades.
10:09Nesse caso, Marisa, a gente não tem nem essa prerrogativa,
10:12porque como eu estou falando, não existe uma regulação de ar,
10:15essas empresas sequer estão sendo responsabilizadas pelos maus usos
10:18ou pelos acidentes que já acontecem,
10:20a gente já tem relatado vários problemas.
10:22O que dirá uma situação subjetiva de que, olha, talvez...
10:27Agora, aí a minha sensação, como vazou isso, acabou vazando,
10:33está pegando muito mal para a OpenAI,
10:34e eu acho que é a opinião pública que tem que fazer esse papel.
10:38Não vai ter lei nenhuma que vai obrigar, que vai dizer,
10:42o Sennel Altman não vai ser processado, porque não existe isso,
10:45não tem como você enquadrar em nenhum tipo de lei.
10:47O que existe é a pressão social.
10:49As pessoas, porque é uma questão ética, no final das contas.
10:52Então, nós, como sociedade, a gente tem que se impressionar e dizer,
10:55olha, eu não sei se foi a melhor decisão ética que vocês fizeram.
10:59Veja, pessoas morreram, porque talvez vocês poderiam ter evitado isso.
11:03Então, aí entra mais na questão ética, na questão moral,
11:05e quem tem peso sobre isso é a opinião pública, Marisa.
11:08Então, eu espero que as pessoas, que esses casos sirvam de exemplo
11:14para que a gente possa se manifestar e exigir uma IA mais segura para todo mundo.
11:19Não é aceitável que isso possa acontecer com um produto,
11:24que, em princípio, deveria ser seguro.
11:25Com certeza.
11:27Bom, então vamos aguardar bem de perto o resultado até dessa convocação
11:31que o governo do Canadá fez para a OpenAI e ver aí os próximos capítulos.
11:36Pena, muitíssimo obrigada pela sua participação aqui hoje.
11:39Bom trabalho para você ainda, que eu sei que você continua.
11:43E na semana que vem, nos encontramos.
11:46Até mais, Marisa.
11:47Boa noite para você, boa noite para todo mundo.
11:49Até semana que vem.
11:50Tchau, tchau.
11:51Está aí, pessoal.
11:52Roberto Pena Spinelli, físico pela USP,
11:56especialista em Machine Learning por Stanford,
11:58em mais um Fala Aí, aqui no Olhar Digital News.
12:03Semana que vem, tem mais.
Comentários