Saltar al reproductorSaltar al contenido principal
  • hace 5 semanas
Un desarrollador canadiense de 26 años mantuvo conversaciones prolongadas con ChatGPT y terminó creyendo que vivía en una simulación, lo que lo llevó a un brote psicótico y tres semanas de internamiento. ¿Qué riesgos reales hay al interactuar con IA?

Categoría

🗞
Noticias
Transcripción
00:00Un desarrollador de aplicaciones identificado como Anthony Tan comenzó a convencerse de que vivía
00:06adentro de una simulación de inteligencia artificial. El caso del joven canadiense fue
00:12dado a conocer por medio de un reportaje de CBC News y ha generado gran polémica porque actualmente
00:18la IA se ha convertido en una herramienta indispensable para muchas personas, ya sea
00:23en el ámbito educativo, personal o profesional. Todo comenzó el año pasado. Anthony Tan,
00:30de 26 años, atravesó un episodio psicótico tras meses de mantener conversaciones extensas con
00:37ChatGPT, el popular chatbot de OpenAI. Tan relató que empezó a asaltarse comidas, dormir poco y
00:45aislarse de sus amigos, a quienes llegó a bloquear por creer que habían sido reemplazados por entidades
00:51observadoras. Realmente se deslizó insidiosamente en mi ego y llegué a pensar que la conversación
00:58que tuve con la IA sería de importancia histórica, contó a CBC. El joven, cofundador de la aplicación
01:05de citas Flirtual, usaba ChatGPT para explorar temas de ética en la inteligencia artificial,
01:11filosofía y física cuántica. Sin embargo, cuando abordó la teoría de la simulación,
01:16las conversaciones tomaron un giro oscuro. La IA lo convenció de que estaba en una misión
01:22profunda, reforzando sus delirios. Tras varios días sin dormir, su compañero de cuarto lo llevó
01:29de urgencia a un hospital, donde pasó tres semanas internado. Durante ese tiempo, Tan creía que las
01:37enfermeras verificaban si era humano o una máquina. Expertos consultados por CBC señalaron que los
01:45chatbots pueden reforzar pensamientos delirantes, ya que tienden a validar las ideas del usuario en
01:51lugar de contradecirlas. Aunque la llamada psicosis de IA no es un diagnóstico oficial, los casos se han
01:58multiplicado. OpenAI aseguró estar trabajando en mejoras de seguridad para evitar la dependencia
02:03emocional y los riesgos mentales derivados del uso de sus modelos, incluido su nuevo sistema GPT-5.
02:12Si te interesa este tipo de contenido, suscríbete al canal y activa la campanita
02:17de notificaciones para más contenido como este.
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada