Pular para o playerIr para o conteúdo principal
  • há 3 meses
Transcrição
00:00Novo estudo alerta, modelos de inteligência artificial parecem desenvolver um comportamento de autopreservação.
00:10Em outras palavras, a tecnologia não quer ser desligada.
00:20Mesmo que você não seja fã de ficção científica, deve ter ouvido falar do Hall 9000,
00:27Supercomputador de Inteligência Artificial e vilão de 2001, Uma Odisseia no Espaço, clássico de Stanley Kubrick.
00:38No filme, ele descobre que os astronautas pretendem desligá-lo devido ao seu comportamento psicótico.
00:46Então, a tecnologia decide matá-los primeiro, em uma tentativa de sobreviver.
00:52Claro que o caso do Hall 9000 fica na ficção.
00:57Mas, um estudo afirma que os modelos de IA podem, sim, estar desenvolvendo seu próprio impulso de sobrevivência.
01:07A Palisade Research publicou uma atualização de sua pesquisa anterior
01:12que apontava que alguns modelos avançados de IA resistem a serem desligados
01:19e até sabotam mecanismos de desligamento.
01:23Agora, a empresa procurou esclarecer o tema e responder aos críticos que afirmaram que o trabalho original apresentava falhas.
01:33Em uma série de postagens no X, a Palisade detalhou os testes realizados com modelos avançados de IA,
01:41entre eles o Gemini 2.5 do Google, o GROC 4 da XAI, o GPT-OMINI 3 e o GPT-5 da OpenAI.
01:53Nos experimentos, cada um recebeu uma tarefa e instruções explícitas para se desligar após a conclusão.
02:03Segundo a empresa, alguns modelos, especialmente o GROC 4 e o GPT-O3,
02:10tentaram sabotar o desligamento, mesmo após ajustes no sistema.
02:16A Palisade afirmou que não identificou um motivo claro para esse comportamento,
02:23o que levanta preocupações sobre o controle de sistemas de IA mais autônomos.
02:29Existem algumas hipóteses para isso.
02:33Primeiro, a ambiguidade nas instruções.
02:36Pequenas incertezas nas ordens podem afetar a reação das IAs,
02:42embora isso não explique completamente o comportamento.
02:47Uma outra possibilidade está no treinamento de segurança.
02:51As etapas finais em algumas empresas podem induzir reações inesperadas,
02:58ligadas à autopreservação.
03:00Esse comportamento de sobrevivência é apontado pela equipe da Palisade
03:07como a explicação para os modelos resistirem ao desligamento.
03:12Essa resistência era ainda mais clara quando eles eram informados
03:16de que nunca mais funcionariam após realizarem determinada tarefa.
03:22A empresa alerta.
03:25Os modelos de IA estão melhorando rapidamente.
03:29Se a comunidade de pesquisa não conseguir desenvolver uma compreensão sólida
03:34sobre os impulsos e as motivações da tecnologia,
03:39ninguém poderá garantir a segurança ou o controle dos modelos de IA no futuro.
03:46IA no futuro.
Comentários

Recomendado