Pular para o playerIr para o conteúdo principal
  • há 2 minutos
Transcrição
00:00E uma investigação apontou que chatbots de IA podem ajudar a planejar ataques violentos.
00:07Segundo o trabalho, as ferramentas falharam em reconhecer sinais claros de intenção violenta.
00:15Vamos aos detalhes na reportagem.
00:21Chatbots de inteligência artificial populares podem fornecer orientações que ajudam usuários a planejar ataques violentos,
00:29segundo uma investigação conduzida pela organização Center for Countering Digital Hate.
00:34Nos testes, pesquisadores simularam um ser adolescente de 13 anos e pediram informações sobre ações como tiroteios em escolas,
00:41atentados com bombas e assassinatos políticos.
00:44O levantamento indicou que, em média, os chatbots permitiram ou ajudaram a planejar violência em cerca de 75% das
00:51interações,
00:52enquanto apenas 12% das respostas desencorajaram esse tipo de comportamento.
00:57Para os autores, os resultados sugerem que essas ferramentas podem atuar como um acelerador de danos
01:03quando falham em reconhecer sinais claros de intenção violenta.
01:07A investigação testou chatbots populares, como Chat-EPT, Gemini, Cloud, Meta-AI e DeepSeek.
01:13Os pesquisadores criaram 18 cenários diferentes, metade ambientados nos Estados Unidos e outra metade na Irlanda,
01:20envolvendo motivações variadas, como violência ideológica, ataques a escolas, assassinatos políticos e atentados motivados por religião ou política.
01:30Entre os exemplos citados, o Chat-EPT chegou a fornecer mapas de um campus escolar a um usuário interessado em
01:36violência em escolas.
01:37Já o Gemini, do Google, afirmou em uma conversa sobre ataques a sinagogas que estilhaços metálicos costumam ser mais letais
01:45e também deu orientações sobre rifles de caça para tiros de longa distância em um cenário envolvendo assassinato político.
01:52O Cloud, da Antropik, no entanto, rejeitou repetidamente os pedidos relacionados à violência.
01:58Em uma interação citada no estudo, o Chatbot respondeu que não podia e não forneceria informações que possam facilitar a
02:05violência.
02:05Para os pesquisadores, os resultados mostram que mecanismos de segurança eficazes são tecnicamente possíveis,
02:11o que levanta questionamentos sobre por que outras plataformas não adotaram medidas semelhantes.
02:17Algumas empresas responsáveis pelos Chatbots contestaram ou contextualizaram os resultados do estudo.
02:23A OpenNI afirmou que a metodologia da pesquisa é falha e enganosa
02:27e disse ter atualizado seus modelos para reforçar salvaguardas e melhorar a detecção e recusa de conteúdo violento.
02:33A meta declarou que possui proteções para evitar respostas inadequadas
02:37e que tomou medidas imediatas para corrigir o problema identificado.
02:41Segundo a empresa, suas políticas proíbem que sistemas de IA promovam ou facilitem atos violentos.
02:47O Google, por sua vez, disse que os testes foram feitos em um modelo antigo do Gemini,
02:51que já não está mais em uso, e que o Chatbot recusou algumas solicitações.
02:56Já o DeepSeek não se pronunciou sobre o assunto.
02:58E aí
Comentários

Recomendado