00:02La compañía Anthropic desarrolló su modelo de inteligencia artificial Cloth. La empresa
00:07asegura que sus productos se fundamentan en una tecnología segura, con garantías y para el bien
00:12de la humanidad. Hasta la semana pasada era la única compañía de inteligencia artificial que
00:17podía operar en el entorno sensible del gobierno estadounidense y Cloth, su modelo de inteligencia
00:22artificial, fue clave tanto en la operación de captura de Nicolás Maduro como en la operación
00:27militar en Irán. Sin embargo, el viernes, un día antes, el presidente Donald Trump ordenó que el
00:35gobierno suspendiera cualquier trabajo con esa compañía a la que tildó de izquierdista radical
00:40y a sus directivos de no tener idea sobre el mundo real. Para analizar el panorama,
00:45conectamos con Gerardo Rodríguez, él es profesor e investigador del Grupo de Investigación en
00:51Inteligencia Artificial Avanzada del Tecnológico de Monterrey. Yo le doy la bienvenida a Franz
00:5524, en principio le pregunto, ¿qué es Anthropic y qué es su sistema de inteligencia artificial
01:01llamado Cloth?
01:03Hola, muchas gracias, buenos días. Bueno, Anthropic es una compañía de inteligencia artificial
01:09que se dedica precisamente a hacer modelos de propósito general. Su sistema Cloth, pues
01:15es un sistema de inteligencia artificial que ayuda, bueno, como estos modelos que se utilizan
01:22hoy día basados en chats, que se utiliza para muchas cosas, ¿no? Y recientemente ha venido
01:28haciendo, tomando momento como uno de los mejores modelos para codificación y para múltiples
01:34tareas, ¿no? Al grado que el gobierno lo ha estado utilizando ampliamente.
01:39Bueno, la empresa afirma que garantiza esa seguridad y ese uso para el bien de sus modelos
01:44de inteligencia artificial, ¿cómo lo hace?
01:47Sí, bueno, básicamente ellos tienen lo que ellos mismos han llamado como la Constitution
01:54AI. Es un conjunto de reglas, más bien es un esquema ético donde ellos agregan guardrails
02:02o restricciones, digamos, a sus modelos, ¿no? Para que los usuarios estén limitados para
02:09ciertas acciones. De tal manera que los modelos no se puedan utilizar para ciertas cosas que
02:15ellos consideran no éticas, digamos.
02:19Bueno, sabemos que hasta la semana pasada Anthropic era la única compañía de inteligencia artificial
02:24que podía operar en ese entorno sensible de Washington y de hecho, como lo reportaron
02:29varios grandes medios, se usó para la captura de Nicolás Maduro y también en Irán.
02:33Puntualmente, ¿cómo se usa o cómo, a quién es ayuda en este tipo de operación militar?
02:41Bueno, esos detalles son un poco conocidos. Más bien es la compañía que está solicitando
02:47al gobierno de información respecto. La cuestión es que se pueden utilizar estas herramientas
02:52para hacer procesamiento de información, para búsqueda de patrones principalmente,
02:56que es lo que se pueden utilizar. Y de ahí se puede obtener información de utilidad para
03:01tomar acciones principalmente o para toma de decisiones basada en un análisis de formación
03:08de grandes volúmenes, ¿no? Es lo que pueden procesar este tipo de herramientas.
03:14Sí, no se van a necesitar.
03:15Bueno, previo a esa orden de Donald Trump, el secretario de Guerra, Pete Hexet, había citado
03:21a Darío Amodei, el CEO de la compañía. Le dio un ultimátum la semana pasada asegurando
03:25que podían declarar Anthropic como un riesgo en la cadena de suministro. ¿Por qué llegar a esa
03:31denominación y qué implica?
03:34Es bastante complejo. La cuestión, como se ha manejado en los statements de las compañías,
03:42es que el gobierno norteamericano le pidió a Anthropic que le ofreciera modelos sin sus
03:48esquemas de seguridad, básicamente sin guardrails, de tal manera que el gobierno norteamericano
03:53pudiera tener la decisión del uso que se le iba a dar a este tipo de herramientas, basado
04:00en los términos legales propiamente del gobierno. Sin embargo, la postura de Anthropic y de Darío
04:08Amodei y todas sus personas, se refieren a que es una tecnología muy novedosa para la
04:16cual los esquemas legales todavía no están completos, digamos, no es un esquema que esté
04:22completamente legislado, no se sabe bien qué uso se le puede dar. Entonces, la compañía
04:31de Anthropic se negó a ofrecer estos modelos sin esquemas de seguridad, sin guardrails al
04:36gobierno estadounidense. Y bueno, la respuesta del gobierno se percibe como un poco exagerada,
04:43digamos, o un poco, digamos, punitiva hacia la compañía, poniéndolo como con esta denominación
04:53de un riesgo a la cadena de suministro, que aparentemente parece no tener precedente para
04:58empresas norteamericanas. Es una etiqueta que se había utilizado anteriormente para empresas
05:03de otros países que eran no afines al gobierno estadounidense. Entonces, se percibe más bien
05:10con una respuesta un poco exagerada de parte del gobierno norteamericano hacia la compañía.
05:15Y puntualmente, ¿qué significaría ser un riesgo en la cadena de suministro para el
05:19gobierno estadounidense?
05:22Vaya, pues, lo que hace es que le limitan a la compañía a tener acceso a contratos con
05:37instancias de gobierno y probablemente hasta algunos otros niveles posteriores, ¿no? Algunas
05:42otras instancias de gobierno que tienen subcontratantes que utilizan esta tecnología les impediría
05:48el uso. La idea es que representa un riesgo a la cadena de suministro del gobierno norteamericano.
05:56Para poner un ejemplo, esta denominación se había utilizado anteriormente para compañías
06:04que tenían riesgo como de espionaje de otros países no afines, compañías de Rusia o compañías
06:11de China, por ejemplo. Entonces, la idea es removerlos completamente de la cadena de suministro
06:16del gobierno norteamericano, que es una cuestión que está en proceso.
06:20Profesor Rodríguez, sabemos que la semana pasada Antropic ya modificó esa constitución
06:27que usted mencionaba en la que basan su modelo de inteligencia artificial para que sea seguro.
06:31¿Tendría de alguna manera que ver con la presión de Washington? ¿También podría significar
06:36que esa presión de Donald Trump siempre consigue lo que quiere?
06:42Híjole, yo... Hay que aclarar, obviamente, que ellos tienen su esquema de ética, de alguna
06:48manera, pero lo que ellos están tratando de hacer es, de alguna manera, flexibilizarse
06:56también. O sea, no están en contra de... O no se muestran completamente en contra de
07:03lo que se ha centrado la discusión, que es el uso de estas herramientas para monitoreo
07:09masivo o para sistemas autónomos militares. La cuestión es que su discusión es que estos
07:17sistemas no están completamente maduros. La compañía ha hecho menciones públicas diciendo
07:24que ellos están dispuestos a seguir trabajando con el gobierno estadounidense, sino están
07:28completamente opuestos. Pero, híjole, en este caso no se dieron, digamos, a pesar de haber
07:37modificado algunos términos, no se dieron completamente a la solicitud del gobierno norteamericano y por
07:43eso es que viene esta respuesta, como mencionaba, que se percibe un poco exagerada de parte del
07:47gobierno hacia la compañía.
07:48Bueno, recordemos que en 2025, Anthropic, OpenAI, XAI y Google fueron las compañías que firmaron
07:55contratos con el gobierno estadounidense por más de 200 millones de dólares. Pero ahora la administración
08:02Trump le dio acceso a este entorno sensible también a OpenAI y a XAI. ¿Cómo se interpreta esta decisión?
08:12Bueno, pues, ha venido discutiéndose en los medios durante los últimos días. No se conocen bien los
08:20detalles de los contratos, pero aparentemente los contratos que obtuvieron estas compañías de parte del
08:30Departamento de Defensa, llamado por esta administración como el Departamento de Guerra. Bueno, a su parecer de
08:39estas nuevas compañías, sí satisface, digamos, su visión, porque es más bien un tema de visión en cuanto a
08:47cuestiones de seguridad. Aquí lo que se puede interpretar, un poco por lo que se ha conocido públicamente,
08:55es que la parte de Anthropic era un poco más limitada en términos de visión ética respecto a la madurez
09:07de los
09:08modelos y las otras compañías han seguido una guía un poco más hacia las cuestiones legales. Entonces, lo que se
09:14puede
09:14interpretar de aquí es que estas nuevas compañías que están ingresando al terreno de contratos del gobierno
09:24a su visión respecto al uso de estas herramientas, pues, sí cabe respecto a las peticiones que está
09:32haciendo el Departamento de Defensa norteamericano.
09:36¿Y qué tipos de productos, por ejemplo, pueden ofrecer OpenAI o XAI que se diferencien de la tecnología que maneja
09:45Anthropic?
09:49Híjole, bueno, sus tecnologías son más o menos similares, son modelos basados en chat, principalmente, y agentes, para hacer, como
09:59mencionaba, automatizar un montón de tareas, análisis de patrones, análisis de grandes volúmenes de datos, ese tipo de cosas.
10:07La diferencia en este caso, en lo que estamos en la discusión, es la cuestión del uso de guardrails.
10:13En el comunicado que publica OpenAI, por ejemplo, ellos dicen que sus modelos que van a entregarle al gobierno son
10:24completamente basados en nube, a diferencia de, probablemente,
10:26algo que se había solicitado distinto para Anthropic, y que van a tener un esquema diferente de manejo de guardrails,
10:33de sistemas de seguridad, van a tener personal dentro del gobierno
10:40que va a estar tratando de verificar que se cumplan lo que ellos consideran como sus esquemas de seguridad.
10:47La diferencia, creo, radica principalmente en que la visión de Anthropic se refiere a este esquema de código de ética
11:02donde el modelo que se le da al gobierno contiene incluidos estos guardrails,
11:08y el modelo de OpenAI, la visión que tiene OpenAI es distinta. Ellos lo que están ofreciendo es trabajar junto
11:16con el gobierno en los términos legales para el uso que el gobierno considere.
11:23Pero aquí el centro de la discusión es que la legislación no necesariamente está completa para estas herramientas de alta
11:31tecnología.
11:33Evolucionan más rápido que la propia legislación, que es la posición de Anthropic.
Comentarios