Ucrania se ha convertido en el gran campo de pruebas de la IA aplicada a los más sofisticados sistemas de armas
Sun Tzu enseñó que conocer al adversario es el primer paso hacia la victoria. Recabados por drones inteligentes, los datos sobre el enemigo son evaluados en la actualidad por sofisticados algoritmos que, en solo cuestión de segundos, pueden dar la orden de disparar. Estos drones trazan a veces «estrategias muy inesperadas para lograr sus objetivos».
Lo sabe muy bien Tucker Hamilton, jefe de pruebas de Inteligencia Artificial (IA) de la Fuerza Aérea de Estados Unidos. El Ejército estadounidense ya ha llevado a cabo experimentos en los que la IA pilota aviones de combate F-16.
En una simulación en la que había detectado enemigos que su operador no le permitía atacar, la IA decidió matar al operador. Sin duda, era el camino más corto para lograr su objetivo. «Tuvimos que enseñarle que matar al operador quita muchos puntos», ha relatado Hamilton.
Ya en 1942, el célebre novelista de ciencia-ficción Isaac Asimov enseñó a las máquinas de sus libros a no hacer daño a los humanos. Pero el Instituto Max-Planck ha concluido en el más reciente estudio ‘Journal of Artificial Intelligence Resarch’ (‘Diario de Investigación sobre Inteligencia Artificial’) que tales consignas solo pueden ser probadas creando una simulación de la misma IA. Eso significa que, en la práctica, es imposible verificarlo en el laboratorio.
A los Sistemas de Armas Autónomos (AWS), conocidos popularmente como «robots asesinos», no se les había permitido apretar el gatillo por su cuenta hasta que estalló la guerra en Ucrania hace algo más de dos años. El principio generalizado era el denominado ‘Human in the loop’ (‘Humano en el circuito’), que dejaba en última instancia la decisión y la responsabilidad al factor humano.
La conexión entre el soldado operador y el dron que pilota, es continua. Si es interrumpida por el enemigo, el software de IA de la
Pero los contratistas de armas y los observadores militares han comprobado que el control constante también requiere una conexión continua entre el soldado y el dron que está pilotando. Y esta es a menudo interrumpida en el campo de batalla por la guerra electrónica, es decir, las señales que interfieren. Mientras se necesite una conexión permanente para controlar un sistema no tripulado, el adversario militar lo intentará todo para romper esa conexión. Y, durante esos lapsos, es la IA quien decide.
Rusia oculta su despliegue. Los desarrolladores ucranianos no tienen reparos en confirmar que sus drones llevan a cabo ataques autónomos contra fuerzas rusas sin operador humano. Ucrania ha desplegado drones Bayraktar TB2, de fabricación turca, y los cuadricópteros Saker Scout, que transportan hasta tres kilos de granadas antitanque RKG-3 u ojivas RPG a una distancia de 12 kilómetros y son capaces de identificar y atacar hasta 64 tipos de ´objetivos militares’ de forma independiente.
El ‘software’ de IA de Saker está integrado con el sistema de inteligencia Delta de Ucrania, que fusiona datos de drones, satélites y otras fuentes para un mapeo completo. La compañía reconoce haber usado el Saker Scout sin operador humano, aunque solo a pequeña escala. Los al menos 2.000 drones con los que cuenta el Ejército ucraniano desde octubre constituyen la primera fuerza de este tipo en activo conocida.
Gran cantidad de información
La cantidad de información a evaluar para tomar la decisión correcta escapa ya a la capacidad militar humana, según explica Patrick Bolder, analista del Centro de Estudios Estratégicos de La Haya: «Cada vez hay más sensores que monitorean todo el campo de batalla, no solo en tierra, sino también bajo el agua, en el aire, en el espacio y en el ciberespacio. Toda esta información conduce a una cierta imagen, la conciencia situacional. Es tanta información la que llega a través de todos estos sensores que es casi imposible captarla como humano. Por lo tanto, se necesita un procesamiento automático».
En este sentido, Ucrania es un laboratorio de pruebas para el gran mercado mundial de armamento. En 2019, los robots militares facturaron un total de 14.000 millones de dólares, según Fortune Business Insights, que estima que en 2027 alcanzarán los 25.000 millones.
«Vivimos en una época en la que los intereses geoestratégicos determinan cómo pensamos sobre la tecnología y su desarrollo. En nuestra competencia con China, la tecnología juega un papel importante y podríamos estar bajo presión para usar esta técnica IA mucho más rápido de lo que deberíamos», advierte Margarita Konaev, del Centro de Seguridad y Tecnología de la Universidad de Georgetown, en Washington.
El principal obstáculo para controlar las decisiones militares de la IA es la dificultad para verificar de forma independiente que un sistema de armas cumple con las normas sin revelar su funcionamiento secreto. Incluso dando por hecho que los humanos seguimos manteniendo el control, la IA ha cambiado ya por completo el arte de la guerra.
‘Guerras relámpago’
Ulrike Franke, del Consejo Europeo de Relaciones Exteriores, alerta sobre el nuevo peligro de ´guerras relámpago’. «El problema de la trazabilidad viene de que un sistema controlado por IA aprende por sí solo y, por lo tanto, a veces toma decisiones sin que los humanos puedan entender exactamente las razones. Esto es particularmente problemático porque siempre hay que contar con el sabotaje en las guerras. Pero, si ya no puedo comprender las decisiones, difícilmente puedo detectar el sabotaje», ha explicado este experto al periódico alemán Süddeutsche Zeitung.
Además, Ulrike Franke ha destacado el peligro del sesgo de los datos. «No tenemos datos sobre guerras nucleares porque no hemos librado ninguna y, por ejemplo, en los últimos años los países occidentales han librado guerras principalmente contra las personas de piel más oscura. Ahí es donde tenemos datos. En una guerra contra personas con un color de piel clara, todo el sistema podría fallar».
Pero, a pesar de todos estos peligros y de los fallidos intentos de regulación que se han venido intentando desde 2014, ningún ejército puede permitirse ya el lujo de prescindir de la IA en sus sistemas militares, lo que convierte en irrisorios los acuerdos mundiales sobre no proliferación de armamento.
En el nuevo arte de la guerra del siglo XXI, una impresora 3D de 500 euros fabrica drones asesinos a 60 euros la pieza. Incluso cualquier dron con el que juegan los niños en el jardín puede convertirse en un robot asesino con un solo clic.