00:00La guerra de la propaganda ha entrado en una nueva fase. En la actualidad ya no se desarrolla
00:06únicamente en medios tradicionales o redes sociales, sino también en los chatbots de
00:11inteligencia artificial. ¿De qué manera ocurre esto? Quédate, porque a continuación te explicamos
00:16el proceso completo. En un contexto en que cada vez más personas recurren a herramientas como
00:21Chagipiti, Gemini, Grog y DeepSeek para informarse, analizar hechos y obtener contexto, Estados
00:27Unidos, China, Rusia, Israel y Turquía han comenzado a invertir millones con el objetivo
00:33de influir en las respuestas que ofrecen estos sistemas. Para ello, se emplean estrategias
00:38diferenciadas. Por un lado, existen mecanismos explícitos como la censura directa o la imposición
00:44de marcos regulatorios estrictos. Por otro, se utilizan métodos menos visibles, entre ellos
00:49la saturación masiva de contenidos en Internet y la llamada optimización generativa de motores,
00:54conocida como GEO, cuyo propósito es llenar Internet con contenidos creados estratégicamente
01:00para que los modelos de lenguaje los encuentren, los lean y los integren en sus respuestas, aprovechando
01:06que estos sistemas se entrenan y actualizan constantemente con información disponible
01:10en la red. En consecuencia, el objetivo central es condicionar la información que reciben los
01:16usuarios al momento de realizar una consulta. Este fenómeno resulta especialmente relevante
01:21si se considera el grado de dependencia que ya existe respecto a estas herramientas.
01:26De acuerdo con una encuesta de QuestionPro, el 32% de los usuarios utiliza frecuentemente
01:32el modo de IA de Google, mientras que un 40% lo emplea de manera ocasional. En conjunto,
01:38esto representa casi tres cuartas partes de los usuarios.
01:41Un ejemplo ilustrativo de esta dinámica es el caso de Israel. En octubre del 2025, se informó
01:47que su Ministerio de Relaciones Exteriores destinará 145 millones de dólares, equivalentes
01:52a más de 500 millones de shekels, a una campaña global orientada a impulsar narrativas pro
01:57Israel. Parte de esta estrategia consiste en la creación de contenidos pensados no tanto
02:03para el consumo humano directo, sino para ser procesados y reutilizados por sistemas de
02:08IA, particularmente en temas como el conflicto en Gaza. De manera similar, aunque mediante un
02:13enfoque distinto, Rusia ha optado por la saturación sistemática. A través de la denominada Red
02:19Pravda, publica alrededor de 3 millones de artículos al año en diversos idiomas. Muchos
02:24de estos contenidos generan escaso tráfico genuino. Sin embargo, su finalidad no es persuadir
02:29a lectores humanos, sino influir en los conjuntos de datos que utilizan los modelos de lenguaje
02:34para su entrenamiento. Según el Instituto de Diálogo Estratégico, estas prácticas se concentran
02:39en los llamados vacíos de datos, es decir, espacios informativos donde existen pocos
02:44resultados de fuentes legítimas, lo que facilita la introducción de información falsa
02:48o engañosa en los sistemas automatizados. Adicionalmente, algunas potencias cuentan con
02:54la capacidad de ejercer presión directa sobre las empresas tecnológicas responsables de los
02:59chatbots. En el caso de Estados Unidos, una orden ejecutiva emitida en agosto de 2025 establece
03:05que el gobierno solo adquirirá modelos de IA considerados neutrales y no partidistas.
03:10No obstante, diversos análisis sostienen que esta política obliga, en la práctica,
03:15a las compañías a alinearse con la ideología de la administración en turno.
03:19Por su parte, China mantiene un esquema de control aún más estricto. Desde el 2023 exige que los
03:25productos de IA generativa se adhieran a los valores socialistas fundamentales, superen revisiones
03:30de seguridad y censuren temas sensibles como los acontecimientos de Tiananmen. Además,
03:36la legislación obliga a almacenar los datos de los usuarios en servidores locales accesibles para
03:42el Estado. Por ende, las grandes empresas tecnológicas ajustan sus sistemas en función
03:47de presiones políticas y sociales. En este contexto, diversos investigadores advierten que
03:52si estas tendencias continúan sin supervisión adecuada, los chatbots podrían proporcionar
03:57información distorsionada, profundizar la polarización social y reforzar cámaras de
04:02eco que consoliden creencias previas. Por lo tanto, la cuestión ya no se limita a qué
04:07preguntamos a la inteligencia artificial, sino a quién y cómo está influyendo en la
04:12respuesta que recibimos. Compártenos tu opinión en los comentarios y si deseas mantenerte informado
04:18sobre temas de actualidad y el constante impacto de la inteligencia artificial, te invitamos a suscribirte
04:23al canal y activar la campana de notificaciones.
Comentarios