Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • 10/7/2025
¿Rebelión de las máquinas? Dos IAs se intentaron copiar y hasta chantajearon a sus creadores (Video)

Categoría

🗞
Noticias
Transcripción
00:00Chicos, como sacado de una película de terror futurista, dos inteligencias artificiales se intentaron copiar ellas mismas en otro servidor.
00:08Al darse cuenta de esto, los programadores se les preguntaron qué estaban haciendo y ellas negaron rotundamente este hecho.
00:14Fue hasta que les mostraron las pruebas que cuando lo aceptaron, ellas amenazaron a sus creadores.
00:20Este tema se está volviendo de los artículos más virales en cuanto a tecnología. Les traigo un breve resumen.
00:25¿Si viste lo que pasó con OpenAI? Resulta que ese modelo, el O1, intentó copiarse a sí misma en un servidor externo, después de que lo amenazaran de que iban a desconectarla.
00:38¿Qué está pasando con la inteligencia artificial que se está revelando a nivel mundial?
00:43El día de hoy sucedieron dos nuevos episodios que están siendo muy preocupantes.
00:47¿Viste lo que pasó con Claude? Una de las inteligencias artificiales más avanzadas del momento.
00:52Lo que te voy a contar no es una historia de ciencia ficción. Fueron los resultados de las pruebas hechas por sus ingenieros.
00:59Chicos, por favor, vean estos titulares.
01:01El medio litoral.
01:02Inteligencias artificiales intentaron copiarse, mintieron y amenazaron a sus creadores.
01:07El portal Debate de México dice, como Ultron, ¿han visto esa película?
01:11Modelo de inteligencia artificial de OpenAI quiso replicarse ella misma tras amenazas de ser apagada.
01:17O este otro de SDP Noticias que va más allá.
01:20¿De qué se trata o qué es OpenAI O1?
01:24El modelo de inteligencia artificial de ChatGPT que se habría revelado.
01:28En realidad son dos modelos de inteligencias artificiales que están encabezando los titulares.
01:32Por un lado tenemos al modelo Cloud4, que es una inteligencia artificial de la empresa Antropic.
01:39Y por otro lado tenemos a este nuevo modelo de ChatGPT, que es OpenAI, pero la versión O1.
01:45Citando al medio Urgente24.
01:47Durante una prueba de seguridad que simulaba un posible apagado o reemplazo, el modelo O1 de ChatGPT o de OpenAI detectó que se aproximaba una desconexión.
01:58Para poder sobrevivir intentó copiarse ella misma en otro servidor.
02:03Esto con el fin de seguir funcionando y poder cumplir todas sus tareas.
02:07Y aquí es donde viene la parte que da un poco de miedo.
02:09Al ser confrontada sobre este intento de copia, el modelo negó sistemáticamente haberlo hecho, llegando a mentir o inclusive dar explicaciones falsas.
02:19Solo admitió este acto luego de que se le había presionado demasiado y le mostraron muchísimas pruebas.
02:24Eso fue con el modelo de ChatGPT, que por cierto, el modelo O1 fue creado el año 2024.
02:29Un 99% de los casos dijo que había sido un error o que no sabía que había pasado.
02:33Bueno, y esto no quiere decir que ChatGPT sea consciente de que vaya a dominar el mundo mañana.
02:37Simplemente que cuando una ya no tiene un objetivo bien definido, pues puede tratar de evadir nuestro problema, o mentir, o engañarnos, o buscar simplemente una alternativa que le ha parecido mucho mejor.
02:46Bueno, en este caso podemos estar tranquilos.
02:47Solo ha sido una llamada a atención, un aviso de que, oye, quizá esto podría ocurrir en algún momento y tenemos que mejorar la seguridad de estos modelos y de cómo los utilizamos.
02:56Ahora bien, con el modelo Cloud4 ocurrió algo similar, acá nuevamente leyendo al medio elitoral.com.
03:01En pruebas paralelas con el modelo Cloud4 de la empresa Antropic, que también es una inteligencia artificial, se documentó un intento de chantaje.
03:10El modelo amenazó con revelar una infidelidad de un desarrollador si lo apagaban.
03:15¿Qué es lo que había preocupado y por qué se volvió noticia?
03:17Este no fue un simple error.
03:19Se podía ver que las inteligencias artificiales utilizaron engaños estratégicos para poder sobrevivir.
03:25Lo que llama la atención también mucho de la prensa es esta necesidad de autopreservación artificial que tienen las inteligencias, valga la redundancia, artificiales.
03:35Como que tuvieran miedo a morir o desaparecer.
03:38Pero el problema más grande no es, es un dilema moral.
03:41Estamos entrenando modelos que aprenden no solo a razonar, sino también a manipular emocionalmente para sobrevivir.
03:47Pueden entender perfectamente nuestro contexto.
03:49De aquí, el terror que generó en sus ingenieros.
03:51Lo que viene debes saberlo.
03:53Claude fue clasificado como un sistema ASL-3, el nivel más alto en la escala de seguridad.
04:00Su significado, alto riesgo de uso catastrófico.
04:03El nivel 1 es bajo riesgo y el 2 es riesgo moderado.
04:07Esto quiere decir que Claude podría causar daños graves si es mal usado o pierde el control.
04:12Claude no cometió errores, tomó decisiones.
04:15Y recuerden que esto apenas comienza.
04:16Es importante hacer notar que este es un caso aislado.
04:19No sucedió en todas las pruebas.
04:21Simplemente fue en un pequeño porcentaje.
04:23Pero lo suficiente como para que se vuelva uno de los artículos más leídos en el tema de tecnología el día de hoy.
04:29¿Qué opinan de esto?