00:02La compañía Anthropic desarrolló su modelo de inteligencia artificial CLOT. La empresa
00:07asegura que sus productos se fundamentan en una tecnología segura, con garantías y para el bien
00:12de la humanidad. Hasta la semana pasada era la única compañía de inteligencia artificial que
00:17podía operar en el entorno sensible del gobierno estadounidense y CLOT, su modelo de inteligencia
00:22artificial fue clave tanto en la operación de captura de Nicolás Maduro como en la operación
00:27militar en Irán. Sin embargo, el viernes, un día antes, el presidente Donald Trump ordenó que el
00:35gobierno suspendiera cualquier trabajo con esa compañía a la que tildó de izquierdista radical
00:40y a sus directivos de no tener idea sobre el mundo real. Para analizar el panorama,
00:45conectamos con Gerardo Rodríguez, él es profesor e investigador del Grupo de Investigación en
00:51Inteligencia Artificial Avanzada del Tecnológico de Monterrey. Yo le doy la bienvenida a Franz
00:5524, en principio le pregunto, ¿qué es Anthropic y qué es su sistema de inteligencia artificial
01:01llamado CLOT?
01:03Hola, muchas gracias, buenos días. Bueno, Anthropic es una compañía de inteligencia artificial
01:09que se dedica precisamente a hacer modelos de propósito general. Su sistema CLOT es un sistema
01:16de inteligencia artificial que ayuda, bueno, como estos modelos que se utilizan hoy día basados en
01:23chats, que se utiliza para muchas cosas. Recientemente ha venido tomando un momento como uno de los
01:31mejores modelos para codificación y para múltiples tareas, ¿no? Al grado que el gobierno lo ha
01:36estado utilizando ampliamente.
01:38Bueno, la empresa afirma que garantiza esa seguridad y ese uso para el bien de sus modelos
01:44de inteligencia artificial. ¿Cómo lo hace?
01:47Sí, bueno, básicamente ellos tienen lo que ellos mismos han llamado como la Constitution AI.
01:55Es un conjunto de reglas, más bien es un esquema ético, donde ellos agregan guardrails o restricciones,
02:04digamos, a sus modelos, ¿no? Para que los usuarios estén limitados para ciertas acciones.
02:10De tal manera que los modelos no se puedan utilizar para ciertas cosas que ellos consideran no éticas,
02:17digamos.
02:19Bueno, sabemos que hasta la semana pasada Anthropic era la única compañía de inteligencia artificial
02:24que podía operar en ese entorno sensible de Washington y de hecho, como lo reportaron varios
02:29grandes medios, se usó para la captura de Nicolás Maduro y también en Irán.
02:33Puntualmente, ¿cómo se usa o cómo, a quién es ayuda en este tipo de operación militar?
02:41Bueno, esos detalles son un poco conocidos. Más bien es la compañía que está solicitando
02:47al gobierno de información respecto. La cuestión es que se pueden utilizar estas herramientas
02:52para hacer procesamiento masivo de información, para búsqueda de patrones principalmente,
02:56que es lo que se pueden utilizar. Y de ahí se puede obtener información de utilidad
03:01para tomar acciones principalmente o para toma de decisiones basado en un análisis
03:07de formación de grandes volúmenes, que es lo que pueden procesar este tipo de herramientas.
03:14Sí, más o menos.
03:15Bueno, previo a esa orden de Donald Trump, el secretario de Guerra, Pete Hexet, había citado
03:21a Darío Amodei, el CEO de la compañía, le dio un ultimátum la semana pasada asegurando
03:25que podían declarar Anthropic como un riesgo en la cadena de suministro. ¿Por qué llegar
03:30a esa denominación y qué implica?
03:34Es bastante complejo. La cuestión, como se ha manejado en los statements de las compañías,
03:42es que el gobierno norteamericano le pidió a Anthropic que le ofreciera modelos sin sus
03:49esquemas de seguridad, básicamente sin guardrails, de tal manera que el gobierno norteamericano
03:53pudiera tener la decisión del uso que se le iba a dar a este tipo de herramientas,
03:58basado en los términos legales propiamente del gobierno. Sin embargo, la postura de Anthropic
04:07y de Darío Amodei y todas sus personas, se refieren a que es una tecnología muy novedosa
04:15para la cual los esquemas legales todavía no están completos, digamos, no es un esquema
04:22que esté completamente legislado, no se sabe bien qué uso se le puede dar. Entonces,
04:30la compañía Anthropic se negó a ofrecer estos modelos sin esquemas de seguridad, sin guardrails
04:36al gobierno estadounidense. Y bueno, la respuesta del gobierno se percibe como un poco exagerada,
04:43digamos, o un poco, digamos, punitiva hacia la compañía, poniéndolo con esta denominación
04:53de un riesgo a la cadena de suministro, que aparentemente parece no tener precedente
04:57para empresas norteamericanas. Es una etiqueta que se había utilizado anteriormente para empresas
05:04de otros países que eran no afines al gobierno estadounidense. Entonces, se percibe más bien
05:10con una respuesta un poco exagerada de parte del gobierno norteamericano hacia la compañía.
05:15Y puntualmente, ¿qué significaría ser un riesgo en la cadena de suministro para el gobierno estadounidense?
05:22Vaya, pues, lo que hace es que le limitan a la compañía a tener acceso a contratos con instancias
05:37de gobierno y probablemente hasta algunos otros niveles posteriores, ¿no?
05:41Algunas otras instancias de gobierno que tienen subcontratantes que utilizan esta tecnología
05:47les impediría el uso. La idea es que representa un riesgo a la cadena de suministro
05:53del gobierno norteamericano.
05:57Para poner un ejemplo, esta denominación se había utilizado anteriormente para compañías
06:04que tenían riesgo como de espionaje de otros países no afines, compañías de Rusia o compañías
06:11de China, por ejemplo. Entonces, la idea es removerlos completamente de la cadena de suministro
06:16del gobierno norteamericano, que es una cuestión que está en proceso.
06:20Profesor Rodríguez, sabemos que la semana pasada Antropic ya modificó esa constitución
06:27que usted mencionaba en la que basan su modelo de inteligencia artificial para que sea seguro.
06:31¿Tendría de alguna manera que ver con la presión de Washington?
06:35¿También podría significar que esa presión de Donald Trump siempre consigue lo que quiere?
06:42Híjole, yo...
06:43Hay que aclarar, obviamente, que ellos tienen su esquema de ética, de alguna manera,
06:49pero lo que ellos están tratando de hacer es, de alguna manera, flexibilizarse también.
06:56O sea, no están en contra de...
06:59O no se muestran completamente en contra de lo que se ha centrado la discusión,
07:05que es el uso de estas herramientas para monitoreo masivo o para sistemas autónomos militares.
07:15La cuestión es que su discusión es que estos sistemas no están completamente maduros.
07:20La compañía ha hecho menciones públicas diciendo que ellos están dispuestos a seguir trabajando
07:26con el gobierno estadounidense, sino están completamente opuestos.
07:31Pero, híjole, en este caso no se dieron, digamos, a pesar de haber modificado algunos términos,
07:38no se dieron completamente a la solicitud del gobierno norteamericano
07:42y por eso es que viene esta respuesta, como mencionaba,
07:46que se percibe un poco exagerada de parte del gobierno hacia la compañía.
07:49Bueno, recordemos que en 2025, Anthropic, OpenAI, XEA y Google
07:54fueron las compañías que firmaron contratos con el gobierno estadounidense
07:58por más de 200 millones de dólares.
08:00Pero ahora la administración Trump le dio acceso a este entorno sensible
08:04también a OpenAI y a XEA.
08:07¿Cómo se interpreta esta decisión?
08:12Bueno, pues ha venido discutiéndose en los medios durante los últimos días.
08:19No se conocen bien los detalles de los contratos,
08:21pero aparentemente los contratos que obtuvieron
08:28estas compañías de parte del Departamento de Defensa
08:31o llamado por esta administración como el Departamento de Guerra.
08:37Bueno, a su parecer de estas nuevas compañías
08:40sí satisface, digamos, su visión,
08:44porque es más bien un tema de visión
08:46en cuanto a cuestiones de seguridad.
08:50Aquí lo que se puede interpretar,
08:52un poco por lo que se ha conocido públicamente,
08:55es que la parte de Anthropic
09:00era un poco más limitada
09:03en términos de visión ética
09:07respecto a la madurez de los modelos
09:08y las otras compañías han seguido una guía
09:11un poco más hacia las cuestiones legales.
09:13Entonces, lo que se puede interpretar de aquí
09:15es que estas nuevas compañías
09:18que están ingresando al terreno
09:21de contratos del gobierno,
09:25su visión respecto al uso de estas herramientas
09:28pues sí cabe respecto a las peticiones
09:32que está haciendo el Departamento de Defensa norteamericano.
09:36¿Y qué tipos de productos, por ejemplo,
09:39pueden ofrecer OpenAI o XAI
09:42que se diferencien de la tecnología
09:45que maneja Anthropic?
09:49Híjole, bueno,
09:51sus tecnologías son más o menos similares,
09:53son modelos basados en chat principalmente
09:55y agentes para hacer,
09:58como mencionaba,
10:01automatizar un montón de tareas,
10:02análisis de patrones,
10:03análisis de grandes volúmenes de datos,
10:04ese tipo de cosas.
10:06La diferencia en este caso
10:09en lo que estamos en la discusión
10:10es la cuestión del uso de guardrails.
10:13En el comunicado que publica OpenAI,
10:16por ejemplo,
10:17ellos dicen que
10:19sus modelos que van a entregarle al gobierno
10:23son completamente basados en nube,
10:25a diferencia de probablemente
10:26algo que se había solicitado distinto para Anthropic,
10:29y que van a tener un esquema diferente
10:31de manejo de guardrails,
10:33de sistemas de seguridad,
10:35van a tener personal
10:39dentro del gobierno
10:40que va a estar tratando de verificar
10:42que se cumplan
10:43lo que ellos consideran
10:45como sus esquemas de seguridad.
10:47La diferencia creo
10:49radica principalmente
10:51en que
10:55la visión de Anthropic
10:57se refiere a
10:59este esquema
11:00de código de ética
11:02donde el modelo
11:03que se le da al gobierno
11:06contiene incluidos estos guardrails
11:08y el modelo de OpenAI
11:10la visión que tiene OpenAI es distinta.
11:13Ellos lo que están ofreciendo
11:15es trabajar junto con el gobierno
11:17en los términos legales
11:20para el uso que el gobierno considere.
11:23Pero aquí el centro de la discusión es
11:26que la legislación
11:28no necesariamente está completa
11:30para estas herramientas
11:31de alta tecnología.
11:33Evolucionan más rápido
11:34que la propia legislación
11:35que es la posición de Anthropic.
Comments