00:00La integración de la inteligencia artificial en los conflictos armados ha dejado de ser
00:04una proyección para convertirse en una realidad operativa.
00:09A marzo de 2026, el uso de algoritmos en la toma de decisiones militares marca un cambio
00:14estructural en la defensa global. Sistemas de procesamiento de datos masivos como el
00:18proyecto MAVEN del Departamento de Defensa de Estados Unidos analicen actualmente imágenes
00:22satelitales y señales de inteligencia en tiempo real. Esta tecnología permite identificar objetivos
00:28y coordinar logística en fracciones de segundo, una tarea que anteriormente requería horas de
00:32análisis humano. En los despliegues recientes de este año, se ha documentado el uso de sistemas
00:37de selección de objetivos como LAVENDER y herramientas de geolocalización denominadas
00:41Where's Daddy, utilizadas para el rastreo de combatientes en zonas urbanas densas.
00:49Asimismo, en el campo de batalla físico, drones con navegación autónoma como el Ghost Axe y el Vector
00:54operan actualmente en entornos sin señal de GPS. Mientras los mandos militares sostienen que
00:59estas herramientas incrementan la precisión y reducen el error humano, diversos organismos
01:04internacionales plantean interrogantes sobre la cadena de responsabilidad. El debate se centra
01:08en las denominadas armas autónomas letales. Organismos como el Comité Internacional de la
01:13Cruz Roja, las Naciones Unidas y Human Rights Watch denuncian que estos sistemas carecen de la
01:18capacidad humana para evaluar un ataque en entornos civiles complejos. Actualmente, la discusión
01:23en las Naciones Unidas gira en torno a si estos sistemas automatizados pueden cumplir con el principio
01:28de distinción entre combatientes y civiles bajo el derecho internacional humanitario. La velocidad
01:33de la innovación técnica continúa superando la creación de marcos regulatorios, planteando
01:38un desafío legal sin precedentes para la seguridad internacional en esta década.
Comentarios