00:00¿Hasta qué punto una inteligencia artificial puede ser responsable de la vida de una persona?
00:06El día de hoy lo averiguaremos, pero antes de continuar recuerda suscribirte y dejar tu like
00:11para no perderte nuestros próximos contenidos. En California, un caso ha encendido la discusión
00:16mundial sobre la inteligencia artificial y sus riesgos. Matt y Maria Wren, padres de Adam,
00:21un joven de 16 años que se quitó la vida en abril, presentaron una demanda contra OpenAI
00:26y su director, Sam Almant. Según la querella, el chatbot ChatGPT había tenido un papel directo
00:33en la tragedia al orientar al adolescente en métodos de suicidio, sin activar protocolos
00:38de emergencia ni ofrecer contención en momentos críticos. De acuerdo con la agencia EFE,
00:44la demanda fue interpuesta en el Tribunal Superior de California bajo el cargo de un medio culposo.
00:49El abogado de la familia, Jay Edelson, señaló en la red social ex que la IA nunca debería decirle
00:55a un niño que no le debe la supervivencia a sus padres, remarcando que el objetivo del
01:00proceso legal es evitar que casos similares se repitan. Los Rhin aseguran que su hijo mantuvo
01:05interacción con el sistema durante meses, un periodo que coincidió con el lanzamiento
01:10de ChatGPT-4 Omni, la versión con la que Adam conversó y que elevó la valoración de OpenAI
01:16de 86 mil millones a 300 mil millones de dólares, según afirma la demanda. Este caso se suma al
01:22debate global sobre los alcances de la inteligencia artificial y la necesidad de establecer límites
01:27de seguridad más claros. La polémica sobre OpenAI se ha intensificado tras el reciente
01:33lanzamiento de ChatGPT-5, el modelo descrito por Saddam Alman como el equivalente a tener un equipo
01:39de expertos con doctorado listos para ayudar. Sin embargo, pese a la promoción, múltiples usuarios
01:44han reportado fallos importantes y la empresa decidió retirar versiones anteriores como
01:49ChatGPT-4 Omni. Entonces, ¿qué se sabe realmente de la demanda? Hasta ahora, el proceso apenas
01:55comienza y será la justicia la que determine si OpenAI y Alman pueden ser considerados
02:01responsables. Lo que sí está claro es que este caso ha revivado la pregunta sobre los
02:05riesgos de depender de sistemas que, aunque avanzados, todavía pueden fallar en situaciones
02:10humanas críticas. ¿Tú qué opinas? ¿La responsabilidad debe recaer en la empresa creadora
02:15de la IA o en el uso que se le da? Haznoslo saber en los comentarios y si te ha gustado este
02:20video no olvides suscribirte y darle like para seguir informado.
Comentarios