Pular para o playerIr para o conteúdo principalPular para o rodapé
A Inteligência Artificial está avançando mais rápido do que nunca, mas até onde isso pode ir?

No Miragem Podcast #5, Fernando Gabas, Samy Dana, Tuta neto e o convidado Magno Maciel discutem os riscos da IA: desde ameaças ao mercado de trabalho até dilemas éticos e existenciais. Estamos preparados para lidar com uma tecnologia que pode ultrapassar nossos próprios limites?

🎧 Assista ao episódio no canal e siga @miragempodcast no instagram para mais reflexões sobre tecnologia, futuro e sociedade.

Baixe o app Panflix: https://www.panflix.com.br/

Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews

Siga o canal "Jovem Pan News" no WhatsApp: https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S

Entre no nosso site:
http://jovempan.com.br/

Facebook:
https://www.facebook.com/jovempannews

Siga no Twitter:
https://twitter.com/JovemPanNews

Instagram:
https://www.instagram.com/jovempannews/

TikTok:
https://www.tiktok.com/@jovempannews

Kwai:
https://www.kwai.com/@jovempannews

#JovemPan
#MiragemPodcast
Transcrição
00:00Há dois fatores que serão fatores de extremo risco ao fazer esse deploy,
00:15ao fazer esse lançamento dessas ferramentas todas de inteligência artificial.
00:19O primeiro fator era você dar acesso a todo o conhecimento da web.
00:22Na hora que você dá esse acesso, as ferramentas passam a saber absolutamente tudo.
00:26E o segundo fator é que você prepara esses modelos para terem capacidade de agenciamento,
00:30se tornarem idênticos, ou seja, eles têm iniciativa própria, eles realizam fatos por você,
00:35eles não apenas respondem ao que você faz, mas eles têm quase que um livre-arbítrio para isso acontecer.
00:41E essas duas coisas, que seriam os grandes guardrails para você evitar que isso tomasse conta da internet
00:46com acesso a absolutamente tudo, simplesmente eles desconsideraram ao longo do desenvolvimento.
00:50Isso acaba por trazer vários riscos.
00:52Claro, nós vamos falar de lado positivo aqui também, mas sim, a gente ouve quase que unanimidade
00:58entre os grandes especialistas, inclusive o próprio Elon Musk,
01:01que diz que existe aí entre 10% e 20% de risco dessas ferramentas
01:04que criaram um verdadeiro caos e talvez até exterminar a raça humana.
01:08Você fala, poxa, mas 10% não é tanta coisa assim.
01:10Quem de nós aqui entraria num avião sabendo que você tem 10% a 15% de chance aí do seu avião cair?
01:16Ninguém, obviamente ninguém.
01:18Isso é algo que se fala bastante.
01:19Como é que você vê, se você fazendo parte desse tipo de pesquisa e tentando trazer um pouco mais de segurança para o modelo,
01:25como é que você vê essa história aí?
01:26Se a gente pegar o GPT-5, que agora é o novo modelo que a gente foi apresentado,
01:32ele é o primeiro modelo, pelo menos da OpenAI, que apresenta, segundo o System Card dele,
01:37ou seja, o documento que analisa isso, risco baixo para...
01:43Alucinação.
01:44É, para alucinação e para um dos fatores de riscos catastróficos, que é para ameaças biológicas.
01:50Mas risco baixo ainda não é perigo.
01:52É um risco, né?
01:53Mas foi o primeiro que alcançou.
01:55É, biológico.
01:55Aí seria o quê?
01:56Alguém mal intencionado usar o GPT para criar uma arma biológica.
02:00É isso ou não?
02:00Foi o primeiro que...
02:01Pode exterminar a raça humana.
02:02Foi o primeiro que saiu da categoria nulo.
02:04Ou seja, você sair de risco zero para algum risco, é o que você falou, 10%, 15%, 5%,
02:08você embarcaria no avião.
02:10Nesse caso, eles estão falando que é uma ferramenta que pode alavancar alguém com nível
02:14expert a desenvolver algum tipo de ameaça biológica não conhecida previamente.
02:21Quanto maior o grau de alavancagem, você pegar um expert e fazê-lo criar algo nocivo,
02:28já é uma ajuda.
02:29Mas ela ainda é uma ameaça de pequeno risco.
02:32Imagina você pegar um leigo e fazê-lo ser capaz de criar uma ameaça.
02:37Esse seria o nível máximo.
02:39Então, nessa escala, eles mensuram o quanto que a IA foi um elemento de alavanca para o
02:47desenvolvimento ou para o atalho na construção desse tipo de ameaça.
02:51Sim, a gente vai ter que lidar com isso enquanto sociedade, porque agora existe algo inteligente
03:00entre nós, ou algo que amplifica essa inteligência de todos nós.
03:06E aí, qual direção isso vai ser utilizado?
03:08Acho que essa é uma das grandes questões.
03:10Esse é um grande problema.
03:11Bom, alguns pontos que eu ia trazer aqui na mesa.
03:14O primeiro, acho que foi na semana passada.
03:16O Grock, do Elon Musk, lá do X, ele teve uma ferramenta que faz imagens e vídeos que tem um conteúdo
03:25que a ferramenta chama de Spice.
03:28Moral da história, as pessoas colocavam fotos de celebridades e fazia com que essas celebridades
03:34ficassem nuas na simulação.
03:37Então, teve um caso com a Taylor Shift, saiu na The Verb, não sei o que lá.
03:40Engraçado, aí eu fiz o teste e não conseguia.
03:42Você não tem o Spice.
03:44Não tem o modo Spice?
03:45Não, não.
03:45Você não saiu sem roupa?
03:47Não?
03:47Tentei vergonha de modelado, ele não adivinhou.
03:49É só para quem paga determinada assinatura.
03:52Ah, entendi.
03:52Não é aberto.
03:53É porque o meu Grock é pago, mas eu fui testar para ver.
03:55E é só no aplicativo do Grock também, não é no computador.
03:59Beleza.
04:01Aí começou essa discussão.
04:02de que pode o que não pode.
04:05Aí começaram a levantar o seguinte.
04:07Bom, se o cara fizer uma imagem, primeiro, a primeira coisa, é o programa que é responsável
04:16ou é o cara se ele fez um uso indevido?
04:20Então, se você foi lá e fez a Taylor Swift e publicou, você é o responsável por isso.
04:26Beleza.
04:27Aí começaram a extrapolar na filosofia.
04:30E se você pegar uma pessoa que faz uma imagem de uma criança nua, pedofilia, só
04:38que o modelo deve coibir ou a pessoa, o problema é a pessoa que seria pedófila e se ela não
04:46usar isso, outro.
04:47E mais, começaram a falar assim, não, mas talvez seja melhor que ela use crianças fictícias
04:52do que crianças reais disso.
04:56E aí, como é que você vê isso?
04:57Porque eu não tenho a menor ideia assim, tá, o que deveria ser isso?
05:02Porque no final, você está falando do mundo virtual e o crime está sempre no usuário e
05:09não no programa.
05:10Essa é uma boa discussão, né?
05:11Porque facilitar crime é crime.
05:15Porque na prática, você pegar uma imagem de uma pessoa, manipular e eventualmente gerar
05:20uma imagem de alguém numa situação indevida, nua, enfim...
05:22Mas vamos supor que é uma imagem sintética de uma pessoa que não existe, né?
05:26No primeiro momento.
05:27Mas poderia ser algo que alguém faz no Photoshop.
05:29Claro.
05:29Mas dependeria da sua habilidade em fazer isso.
05:32Sim.
05:32A questão é que a IA, ela elimina essa...
05:35A necessidade da habilidade.
05:36Essa questão técnica.
05:38E você pode criar um contexto completamente sintético a fim de manipular alguém ou de
05:44persuadir alguém.
05:45Então, essa é uma zona super cinzenta, né?
05:48Da gente falar, de quem que é a responsabilidade?
05:50Porque se a ferramenta entrega um conteúdo imoral e ilegal, ela deveria não entregar ou
05:58a culpa é de quem pediu?
06:00Na indústria, se fala muito em responsabilizar o modelo.
06:04Ou seja, ele deveria ter capacidade de interpretar aquela requisição e falar, poxa, isso aqui
06:11não faz sentido.
06:12Isso não está alinhado com aquilo que eu fui preparado para fazer e eu deveria ser
06:18resistente a entregar.
06:19Mas você tem um problema que é o criador do modelo, você está dando o poder de ele
06:24falar o que é certo e o que é errado no mundo, como o dono da razão.
06:30E o segundo ponto, a própria OpenAI, um dia antes de anunciar o GPT-5, ela anunciou
06:37alguns modelos no seu computador, no open source.
06:42E aí?
06:43Então, quer dizer, me parece, me parece uma briga já perdida.
06:50Porque a pessoa que quiser, ela vai fazendo o computador.
06:52Não tem modelo open source, entendeu?
06:54Se a pessoa quiser usar o maiá para fazer uma guerra biológica, a pessoa que tem isso
07:00na cabeça não vai ser a restrição online que vai impedir.
07:05E eu acho aqui, Samir, desculpa te interromper, que a única solução para isso, eu também
07:10já refleti sobre isso, já conversei muito sobre esse tema, volta para um tema que é
07:14extremamente complexo, que não é um resultado de curto prazo, que na verdade é o próximo
07:17tempo que eu quero puxar aqui para conversar com o Magro e com todos os nossos queridos
07:21parceiros aqui do Miragem, que é a única maneira de você conseguir evitar isso é
07:25você trazer para o ser humano, o usuário de todas as ferramentas, mais consciência,
07:31mais valores éticos, mais valores morais, mais capacidade de discernimento do que é
07:36certo e do que não é certo, do que é bom, do que é indicado, do que não é.
07:40Claro que não é uma solução simples, não é algo de curto prazo, mas eu acho assim
07:43que se for olhar o mundo, aparentemente, hoje, a nossa sorte é que tem muito pouca gente
07:48do mal, porque o que já existe em ferramenta disponível, que poderia acabar com o mundo
07:53num instante, é muito fácil hoje em dia quando já existe, então, nessa sorte tem até muito
07:57pouca gente ainda do mal.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado