Pular para o playerIr para o conteúdo principal
  • há 2 dias
Transcrição
00:00E a presença de sistemas de inteligência artificial com linguagem cada vez mais próxima da humana
00:07levanta uma questão central para desenvolvedores e usuários.
00:12Ser mais amigável realmente torna a IA mais influente?
00:17Vamos conferir na reportagem.
00:23Um novo estudo do Instituto de Tecnologia da Geórgia indica que,
00:28Embora os agentes de inteligência artificial com tom mais humano sejam mais bem avaliados em termos de simpatia,
00:34usuários tendem a seguir mais as orientações de sistemas que soam robóticos.
00:39Ao longo de quatro experimentos, o trabalho investigou como diferentes estilos de comunicação de agentes artificiais
00:44afetam o comportamento humano.
00:46No primeiro teste, participantes respondiam a perguntas.
00:50Depois, viam a resposta sugerida por uma IA e, então, decidiam se mudariam de escolha.
00:55A expectativa era que agentes mais humanizados influenciassem mais as decisões, mas o resultado foi o oposto.
01:03Quanto mais humano o agente era percebido, menor era a chance de o participante alterar a resposta.
01:08O padrão se repetiu em um segundo experimento, focado em julgamentos morais.
01:12Os participantes precisavam decidir, por exemplo, como agir ao perceber que foram cobrados a menos em um restaurante,
01:18após ouvir a orientação de um agente de voz com características humanas ou robóticas.
01:22Mais uma vez, o agente com tom robótico foi mais seguido, mesmo sendo considerado menos simpático.
01:29Esses dados apontam para o chamado viés de automação, tendência humana de enxergar máquinas como mais objetivas e imparciais do que pessoas.
01:37No terceiro experimento, os participantes jogaram contra um agente de IA e precisavam decidir entre cooperar ou retaliar.
01:44Quando interagiam com agentes mais humanizados, os participantes passaram a cooperar menos ao longo do tempo,
01:50especialmente após falhas de cooperação do sistema.
01:52Já com agentes robóticos, o nível de cooperação se manteve mais estável, indicando maior tolerância e confiança na neutralidade da máquina.
02:00O quarto e último experimento envolveu uma simulação de carro autônomo, considerada a situação mais próxima de um cenário real de risco.
02:07Nesse caso, os participantes não obedeceram de forma consistente a nenhum dos dois tipos de agentes.
02:12Mas, novamente, os sistemas com comunicação mais humana se mostraram menos eficazes em influenciar o comportamento.
02:17O conjunto dos experimentos reforça a ideia de que, em contextos onde segurança e conformidade são fundamentais,
02:24a humanização excessiva da IA pode ser um obstáculo.
02:27O conjunto dos experimentos reforça a ideia de que, em seguida, a humanização excessiva da IA pode ser um obstáculo.
02:33O conjunto dos experimentos reforça a ideia de que, em seguida, a humanização excessiva da IA pode ser um obstáculo.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado