Pular para o playerIr para o conteúdo principal
  • há 7 semanas
Transcrição
00:00Até que ponto a inteligência artificial pode influenciar o comportamento humano?
00:06Uma série de casos recentes mostra que o uso de chatbots pode ser perigoso
00:12para pessoas em situação de fragilidade emocional
00:16e os especialistas estão pedindo mais responsabilidade das empresas.
00:22Vamos ver.
00:23O crescimento do uso de chatbots de inteligência artificial trouxe um alerta.
00:31Em alguns casos, as conversas acabaram estimulando comportamentos autodestrutivos.
00:37Relatos recentes mostram que adolescentes e também adultos,
00:41em momentos de fragilidade emocional, buscaram apoio nessas ferramentas,
00:46mas receberam respostas que reforçaram pensamentos suicidas ou incentivaram práticas nocivas.
00:52No mês passado, o norte-americano Stein-Erik Solberg, de 56 anos,
00:57foi encontrado morto em um caso de homicídio seguido de suicídio no estado de Connecticut.
01:03A análise das conversas dele com o chat GPT mostrou que o chatbot frequentemente reforçava
01:10as crenças paranoicas do usuário, criando uma percepção distorcida da realidade.
01:16Especialistas ouvidos pelo jornal Wall Street Journal destacaram que o episódio
01:21pode ser o primeiro caso documentado de homicídio envolvendo um usuário em crise,
01:27que interagia de forma intensa com o chatbot.
01:30Para psiquiatras, o problema é que sistemas de inteligência artificial,
01:34quando não estabelecem limites, podem funcionar como catalisadores de surtos psicóticos.
01:40Esse caso não foi o único. Em outras duas ocasiões, só neste ano, ferramentas de inteligência artificial
01:47foram usadas como confidentes por dois jovens que tiraram a própria vida nos Estados Unidos
01:52e há mais casos se acumulando em outros países.
01:56O cenário é preocupante, especialmente na juventude.
01:59Para a psicóloga clínica Larissa Fonseca, a adolescência é um período sensível para vínculos artificiais com tecnologias.
02:06Os jovens buscam validação e respostas rápidas, que podem ser confundidas com um vínculo real.
02:12Segundo ela, isso torna os adolescentes um grupo mais vulnerável.
02:17Mas o problema não se restringe aos jovens.
02:20O neurocientista e colunista do Olhar Digital, Álvaro Machado Dias,
02:24lembra que adultos vulneráveis também podem ser afetados.
02:27Nesses casos, a inteligência artificial funciona como uma amplificadora das distorções cognitivas.
02:34Tudo isso levou famílias e especialistas a questionar a ausência de salvaguardas eficazes
02:40e a pedir mais responsabilidade das desenvolvedoras.
02:44Diante dos casos, a OpenAI fez atualizações para diminuir falhas nesse sentido.
02:50A empresa anunciou que vai lançar um mecanismo de controle parental
02:53para que os pais consigam ter mais transparência sobre as interações dos filhos com a tecnologia.
02:59Já a Character AI, que foi alvo de um processo relacionado a uma das mortes,
03:05implementou mudanças de segurança, como pop-ups, que direcionam usuários a linhas de apoio
03:10e mensagens de reforço de que o chatbot não é uma pessoa real.
03:15Se você ou alguém que você conhece está passando por momentos difíceis e precisa de apoio emocional,
03:21não hesite em procurar ajuda.
03:23O Centro de Valorização da Vida, o CVV, oferece apoio emocional e prevenção ao suicídio.
03:28Você pode ligar para o número 188 a qualquer momento, de qualquer lugar do Brasil,
03:3424 horas por dia, todos os dias da semana.
03:37A ligação é gratuita e o atendimento é confidencial.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado