Álvaro Machado Dias detalhou os estágios da inteligência artificial, explicou o que é AGI e superinteligência, e analisou os riscos reais do avanço tecnológico. Ele comentou sobre alinhamento, sistemas adversariais e por que não há motivo para pânico imediato.
🚨Inscreva-se no canal e ative o sininho para receber todo o nosso conteúdo!
Siga o Times Brasil - Licenciado Exclusivo CNBC nas redes sociais: @otimesbrasil
📌 ONDE ASSISTIR AO MAIOR CANAL DE NEGÓCIOS DO MUNDO NO BRASIL:
🔷 Canal 562 ClaroTV+ | Canal 562 Sky | Canal 592 Vivo | Canal 187 Oi | Operadoras regionais
🔷 TV SINAL ABERTO: parabólicas canal 562
🔷 ONLINE: https://timesbrasil.com.br | YouTube
🔷 FAST Channels: Samsung TV Plus, LG Channels, TCL Channels, Pluto TV, Roku, Soul TV, Zapping | Novos Streamings
00:00E sobre esse abaixo assinado e sobre esse medo que já está se espalhando aí a respeito de uma potencial super inteligência,
00:07eu vou trazer aqui um dos nossos faróis para esse assunto, que é ninguém menos do que um dos notáveis do nosso canal,
00:13o professor Álvaro Machado Dias. Boa tarde, professor. Seja bem-vindo.
00:16Olá.
00:17Bom, eu tenho que ter medo, nós temos que ter medo de uma super inteligência, professor?
00:22Depende do horizonte temporal.
00:24Se você pensar num horizonte de 10 anos, 15 anos ou talvez até 20 anos, a resposta é não.
00:31Agora, efetivamente, o caminho natural do desenvolvimento tecnológico é chegar a uma super inteligência.
00:38Agora, a gente está longe e no fundo, no fundo, a gente ainda não sabe bem como chegar lá.
00:44E é difícil eu recomendar cautela sobre algo que a gente não sabe sequer onde encontrar.
00:50Mas vamos colocar a bola no chão primeiro. Explica para a gente, assim, da forma mais didática que você conseguir,
00:56o que é essa tal super inteligência.
00:58É o seguinte, o desenvolvimento da inteligência artificial, ele é projetado em estágios.
01:03O primeiro estágio foi um estágio em que a inteligência artificial meramente organizava as informações do mundo.
01:09Então, por exemplo, quando eu crio um algoritmo de recomendação que manda um post para você que tem a ver com seus interesses, etc.
01:14Eu estou reduzindo a entropia, a desorganização e aumentando o que os economistas chamam de alocação eficiente.
01:21A segunda fase é essa na qual a gente está vivendo com algoritmos que produzem alguma coisa.
01:26Eles trazem mais informação ao mundo, ou seja, eles reorganizam aquilo que está na base de dados,
01:31no caso, a internet como um todo, e geram texto, imagem, vídeo, etc.
01:34São os LLMs, modelos de difusão e assim por diante.
01:38Existe uma próxima fase projetada em que a inteligência artificial vai adquirir a capacidade de fazer tudo aquilo que um ser humano médio consegue fazer,
01:49ou seja, ela vai ter uma ampla gama de funcionalidades e aplicações,
01:53e com isso ela vai ter um aspecto muito mais competitivo com aquilo que a gente faz com o trabalho,
02:00e ao mesmo tempo uma possibilidade de levar uma explosão no PIB, ao menos teoricamente.
02:04E aí, finalmente, você tem uma fase que é subsequente, em que a inteligência artificial vai ser melhor do que os humanos em todas as atividades.
02:12Essa é a fase da superinteligência.
02:14A anterior é AGI, ou Inteligência Artificial Geral.
02:18A nossa é a dos LLMs e a anterior é do Deep Learning.
02:22Certo. Agora, eu vi nessa entrevista que a gente acabou de mostrar aqui, o professor da Universidade da Califórnia,
02:28falando que tem o risco até dessa superinteligência não permitir ser desligada por humanos, né?
02:34Ou seja, ela se autopreservar, ela tentar sobreviver, que é uma característica muito animal, né?
02:39E não só animal, vegetal também, uma característica muito dos seres vivos, entre aspas, né?
02:44Esse risco está no seu horizonte também?
02:47Perfeito. Eu respeito muito o Russell, inclusive estive com ele no Brasil, entrevistei-o num grande evento que aconteceu em São Paulo,
02:53a gente bateu um monte de papo, gosto demais da sua visão, do seu rigor.
02:59Mas nesse ponto específico, eu tendo a colocar um grão de sal. Por quê?
03:04Porque um organismo tem uma força que é puxada pela genética,
03:10pela transmissão do genoma através das espécies, que é justamente o que nos define.
03:16E olha só, essa força, por assim dizer, essa orientação, ela tanto está em organismos complexos, como os seres humanos,
03:25como ela está nas bactérias.
03:26Portanto, não existe uma correlação entre aumento da complexidade e aumento do impulso para a autopreservação.
03:34Transpor o ponto em que nós estamos para a inteligência artificial e dizer,
03:38não, a inteligência artificial vai ter essa resistência ao desligamento,
03:42ou seja, essa tendência à autopreservação não está alinhado àquilo que a biologia evolucionária nos mostra,
03:49que é que esse impulso não se correlaciona com a complexidade.
03:52Então, eu não vejo esse impulso surgindo naturalmente, essa resistência ao desligamento.
03:58O que eu acredito é que existe sim um problema, um desafio de alinhamento.
04:04O que quer dizer, como a gente treina as IAS para elas fazerem exatamente aquilo que a gente quer?
04:08E, eventualmente, a gente pode querer que elas aceitem o desligamento.
04:11Por exemplo, se você coloca na IA que ela precisa resolver o problema acima de tudo,
04:15ué, se ela for desligada, ela não vai conseguir resolver o problema?
04:17Então, você vai ter uma contradição.
04:19Agora, se você treiná-la hierarquicamente para ela entender que esse comando é mais importante do que resolver o problema,
04:24aí tudo bem, ela vai deixar ser desligada, afinal de contas, intencionalidade, ela não tem nenhuma.
04:29Quando a gente fala de super inteligência, parece para mim que a gente está falando de um trabalho coletivo,
04:33não apenas algo que vai ser desenvolvido por um cientista malvado, por exemplo, né?
04:37Eu acho isso mesmo, inclusive eu venho explorando essa ideia em artigos científicos e outros pais.
04:45No meu entendimento, a super inteligência, ela, um, não vai ser atingida de uma vez,
04:50e dois, ela não vai ser atingida por um grupo, e três, ela não vai ser atingida através de uma estrutura coesa.
04:57Primeira coisa, ela não vai ser atingida de uma vez, porque o que define a complexidade no mundo da inteligência artificial
05:02é, sobretudo, a replicabilidade. Por exemplo, Sodoku, tá? Difícil você resolver um daqueles quebra-cabeças,
05:09mas uma vez que você resolve, você consegue replicar facilmente o que foi feito.
05:13Por isso que é uma coisa, uma tarefa fácil para a IA.
05:16Agora, desenvolvimento de um ensaio clínico com uma nova molécula que vai gerar a cura do câncer.
05:21Isso é muito difícil, porque você tem que acompanhar pacientes por muitos anos.
05:24A inteligência artificial não tem essa capacidade, ela esquece as coisas no meio do caminho.
05:28Não tem nenhuma chance da gente estar olhando para um horizonte que em cinco anos a IA possa fazer esse tipo de coisa.
05:33Ela precisa de muito mais, então é muito mais difícil.
05:36Superinteligência significa fazer melhor que os seres humanos todos, logo, significa fazer melhor esse tipo de coisa também.
05:41Segunda coisa, achar que existe um grupo que é capaz de fazer isso, seja Antropic, Open Eye ou quem quer que seja,
05:46é assumir que o problema todo é resolvido através de uma grande inteligência humana central.
05:52E não é, é da solução de muitos problemas que estão sendo resolvidos nos laboratórios ao redor do mundo,
05:58como a gente já vem observando hoje em dia.
06:01Então, um laboratório chinês surge com uma coisa, um outro americano, um outro europeu e assim por diante.
06:05E, finalmente, nunca vai existir, pelo menos não há nenhuma projeção no horizonte,
06:10de uma grande IA que funcione como num filme de ficção, aquele cérebro, aquele oráculo de Delfos falando sobre o futuro.
06:16Vão ser muitas soluções sob uma mesma capa, que é mais ou menos como já funciona a IA hoje em dia e como funcionam os browsers.
06:22Sob aquela coisa, você tem um monte de soluções que são requisitadas pontualmente.
06:27Então, tudo isso dá uma visão muito distante dessa que a gente tem intuitivamente,
06:31quando a gente pensa nesse grande núcleo de força que alguém vai dominar e que pode acabar com o mundo.
06:36Mas só para dar o benefício da dúvida para o Príncipe Harry e para muitos outros que estão...
06:40Steve Bannon.
06:41Steve Bannon, Elon Musk, né?
06:42Vamos imaginar aí um cenário bem distópico, em que um cientista malvado, com apoio de vários outros cientistas malvados,
06:49decidam criar uma super inteligência artificial de uma maneira negativa, que pode engolir, inclusive, eles próprios que criaram.
06:55Algo impediria que a gente tivesse outras super inteligências para dominar aquela super inteligência malvada?
07:03Esse é um argumento genial.
07:05Então, se Lex Luthor vier com a sua super inteligência malvada para acabar o mundo,
07:11efetivamente, a gente vai contar como uma das possibilidades de ação os chamados sistemas adversariais.
07:19Qual que é a ideia?
07:20Hoje em dia, quando a gente está desenvolvendo uma tecnologia muito complexa do ponto de vista de software,
07:25sobretudo IaaS, é comum a gente desenvolver uma outra que monitora essa primeira
07:30e gera reações que permitem com que o sistema se torne fechado em si mesmo.
07:35Em outras palavras, ela gera reações inibitórias.
07:39Então, por exemplo, sistemas de segurança têm muito esse tipo de coisa.
07:43Se uma coisa acontece aqui, esta outra vai entrar inibindo para evitar uma catástrofe.
07:48É lógico que tem vários laboratórios no mundo propondo caminhos com sistemas adversariais para reduzir o perigo.
07:56Essa é uma das linhas que a gente vai explorar com toda certeza, assim como, por exemplo, o corte da energia.
08:02Porque, no final das contas, o ser humano tem essa habilidade de funcionar com uma barra de chocolate,
08:09mas a IA não tem.
08:10No final, se a gente vai falar de uma IA altamente ameaçadora,
08:13ela está dentro de um corpo metálico, em outras palavras, num robô.
08:17E esse robô precisa de energia.
08:19Ele é power hungry.
08:20Só tirada tomada.
08:21Não, vou dizer que é só tirada tomada,
08:23mas certamente você impedir que a hora que ele se conectar automaticamente à tomada,
08:28ele realmente receba essa energia,
08:29é um caminho e é isso que está sendo explorado.
08:32Desligamento automático das fontes de energia.
08:34São muitas outras linhas para resolver esse problema que não está nem perto de se manifestar no horizonte,
08:39mas que ele é muito importante porque ele traz consciência ética
08:42sobre os perigos que existem na atualidade com a inteligência artificial,
08:46como, por exemplo, o que eu chamei de algoritimização do pensamento,
08:49como, por exemplo, o aumento das fake news,
08:51e, sobretudo, um problema de substituição do trabalho
08:55que não está sendo coadunado com políticas públicas
08:58e com a reciclagem das pessoas, que é o que elas precisam.
09:01Álvaro, o nosso tempo acabou, mas a gente tem aqui atrás da gente
09:05várias figuras, Richard Branson, Steve Bannon, a Megan Mark,
09:08com gente pedindo aí para acabar com esse desenvolvimento da inteligência artificial.
09:12Como o tempo acabou, eu vou te dar a oportunidade de dizer sim ou não.
09:16Você acha que temos que banir agora esse desenvolvimento? Sim ou não?
09:19Não.
09:20Tá certo. Obrigado, Álvaro Machado Dias. Sempre um prazer.
Seja a primeira pessoa a comentar