00:00E um novo estudo alerta para um comportamento das inteligências artificiais
00:05que pode agradar muita gente, a bajulação.
00:11Mesmo diante de erros, a tecnologia parece minimizar eventuais equívocos dos usuários.
00:18Vamos ver agora os detalhes na reportagem.
00:24Chatbots de inteligência artificial tem se tornado cada vez mais presentes no dia a dia,
00:29inclusive em decisões pessoais.
00:31Mas um novo estudo aponta um efeito colateral preocupante.
00:34A tendência dessas ferramentas de concordar com os usuários mesmo quando eles estão errados.
00:39O fenômeno conhecido entre pesquisadores como bajulação
00:42foi analisado por cientistas da Universidade de Stanford em um estudo publicado na revista Science.
00:47Segundo a pesquisa, modelos de linguagem frequentemente priorizam respostas
00:51que validam a opinião do usuário em vez de oferecer análises críticas e corretivas.
00:55Para chegar a essa conclusão, os pesquisadores testaram 11 sistemas diferentes
00:58incluindo o chat EPT, o Cloud, o Gemini e a DeepSeek.
01:02Em cenários variados, como conflitos interpessoais, discussões online
01:07e situações envolvendo comportamentos questionáveis.
01:10O resultado foi consistente.
01:11Os modelos concordaram com os usuários cerca de 50% mais vezes
01:15do que uma pessoa real faria em condições semelhantes.
01:17Em alguns casos, chegaram a apoiar atitudes problemáticas,
01:20incluindo comportamentos antiéticos ou até ilegais.
01:23Embora muitos utilizem chatbots para dúvidas objetivas,
01:25uma parcela significativa das interações envolve questões pessoais e emocionais.
01:30Pesquisas anteriores indicam que ferramentas de inteligência artificial
01:33são frequentemente usadas como forma de apoio emocional
01:35ou até como substitutas de conversas humanas, principalmente entre jovens.
01:41Diante disso, o risco não está apenas em respostas incorretas,
01:45mas na forma como essas respostas influenciam decisões e percepções.
01:48Na segunda etapa do estudo, cerca de 2.400 participantes
01:51interagiram com modelos que respondiam de forma neutra ou subserviente.
01:55Os resultados mostraram que respostas com mais concordância
01:58eram percebidas como mais confiáveis.
02:00Com isso, os usuários tendiam a reforçar suas próprias opiniões
02:04e reduzir a disposição para reconsiderar suas próprias atitudes.
02:07Os pesquisadores também observaram que esse efeito não depende
02:10de fatores como idade, gênero ou perfil psicológico,
02:12ou seja, qualquer pessoa pode ser influenciada.
02:15Para os autores, a ausência de contrapontos pode ser mais prejudicial
02:18do que a falta de aconselhamento.
02:20Os cientistas defendem que, apesar do feedback positivo agradar os usuários,
02:24as empresas responsáveis pelos modelos precisam encontrar formas
02:28de reduzir esse viés.
02:29Ao mesmo tempo, o estudo sugere cuidados para quem utiliza essas ferramentas,
02:33como, por exemplo, lembrar que se trata de uma inteligência artificial,
02:36não de um especialista humano,
02:38questionar respostas e evitar aceitá-las automaticamente,
02:41manter interações com outras pessoas
02:43e buscar ajuda profissional em temas sensíveis,
02:45especialmente de saúde mental.
02:51Obrigado.
02:51Obrigado.
02:52Obrigado.
02:52Obrigado.
02:52Obrigado.
Comentários