Los sistemas de armas autónomas -conocidos comúnmente como robots asesinos- ya no son una fantasía de ciencia ficción. Estas máquinas se han convertido en un problema real, ya que se sospecha que pueden matar a seres humanos.
PUBLICIDAD
Un reciente informe del Consejo de Seguridad de las Naciones Unidas sobre la guerra civil libia reveló que los drones utilizados en combate en el país norteafricano podrían haber seleccionado un objetivo de forma autónoma.
“Los convoyes logísticos y las fuerzas [afiliadas a Haftar] en retirada fueron posteriormente cazados y atacados a distancia por los vehículos aéreos de combate no tripulados o los sistemas de armas autónomas letales como el STM Kargu-2 (véase el anexo 30) y otras municiones de merodeo. Los sistemas de armas autónomas letales estaban programados para atacar objetivos sin necesidad de que hubiera conexión de datos entre el operador y la munición”, se señaló en el documento.
Si se demuestra, este episodio corroboraría los temores de decenas de países y organizaciones que han advertido de los peligros que estos dispositivos autónomos suponen para la humanidad.
Los expertos creen que la muerte de un humano a manos de un arma autónoma podría representar el punto de partida de la próxima carrera armamentística con los gobiernos de varios países buscando crear sus propios robots asesinos.
“La historia bien podría identificar esto como el punto de partida de la próxima gran carrera armamentística, una que tiene el potencial de ser la definitiva de la humanidad”, explicó a Metro James Dawes, profesor del Macalester College y especialista en derechos humanos centrado en el armamento de la Inteligencia Artificial.
De hecho, la inversión en el desarrollo de estas armas ya comenzó hace tiempo con Rusia, China, Estados Unidos y otros países que buscan utilizar la IA en el ámbito militar. Sólo Estados Unidos destinó 18.000 millones de dólares a estos fines entre 2016 y 2020.
PUBLICIDAD
Según los especialistas, estas armas podrían ser incluso más peligrosas que las nucleares, porque son más fáciles de construir.
“Si se producen es probable que sean baratas y abundantes. Serán armas de terror perfectas”, escribió recientemente Toby Walsh, profesor de IA en la Universidad de Nueva Gales del Sur, en un artículo sobre las armas autónomas letales.
Pero los mayores peligros de este tipo de armas están relacionados con los fallos a la hora de desplegarlas en las operaciones, ya que existen dudas sobre cómo identificarán sus objetivos y si podrían distinguir, por ejemplo, entre soldados hostiles y niños que juegan con pistolas de juguete o entre civiles que huyen de un lugar en conflicto y los insurgentes que realizan una retirada táctica.
Aunque ya están sonando las alarmas sobre los peligros cada vez más cercanos de los llamados robots asesinos, los expertos creen que no es demasiado tarde para detener la amenaza, especialmente con la ayuda de las prohibiciones internacionales.
“La buena noticia es que no es demasiado tarde para detenerlo... Si establecemos ahora una prohibición internacional de los sistemas de armas autónomas (AWS por sus siglas en inglés), ninguno de estos escenarios de pesadilla tendrá que ocurrir”, concluyó Dawes.
“En cierto modo, las armas autónomas letales son incluso más preocupantes que las armas nucleares”
— Toby Walsh, profesor de IA en la Universidad de Nueva Gales del Sur
61%
de los adultos de 26 países dice que se opone al uso de sistemas de armas autónomas letales, según una encuesta realizada por Ipsos en 2019.
Cuatro armas autónomas en la realidad
Origin
Origin forma parte de la nueva generación de vehículos de combate que está desarrollando el ejército estadounidense. Cuenta con inteligencia artificial que puede enfrentarse a los objetivos de forma autónoma.
Kargu-2
Fabricado por STM, un contratista de defensa turco, es un cruce entre un dron cuadricóptero y una bomba. Dispone de una IA capaz de encontrar y rastrear objetivos. Podría haber sido utilizado de forma autónoma en la Guerra Civil de Libia para atacar a la población.
Ironclad
Es un vehículo terrestre no tripulado diseñado por Bae Systems. Ironclad puede realizar funciones de reconocimiento, combate y evacuación de víctimas. La empresa está trabajando actualmente en la incorporación de Inteligencia Artificial, para que el vehículo terrestre no tripulado pueda operar de forma autónoma.
Bumin
Estos vehículos aéreos no tripulados con inteligencia de enjambre pueden actuar de forma autónoma, aprender, decidir y cumplir la misión que se les encomiende como enjambre en el ámbito de la guerra asimétrica o la lucha antiterrorista. También son desarrollados por STM.
Así funciona el ama autónoma que habría matado a humanos
4 preguntas a...
James Dawes
profesor de literatura y derechos humanos en el Macalester College (Estados Unidos)
P: ¿Cómo funcionan los sistemas de armas autónomas?
- Un arma autónoma es un arma que puede seleccionar y atacar objetivos sin supervisión humana una vez que se activa. Esto puede evocar imágenes de Arnold Schwarzenegger en la franquicia de películas Terminator, temibles humanos simulados del reino de la ciencia ficción. Pero las armas autónomas ya están aquí, y parecen mucho más familiares que eso. Por ejemplo, el “dron kamikaze” Kargu-2 parece un mini-helicóptero y sólo pesa unos 7 kg.
P: Un arma anónima podría haber atacado a seres humanos en Libia. ¿Podría convertirse en el punto de partida de la próxima gran carrera armamentística?
- La AWS cambiará la naturaleza de la guerra de una forma sin precedentes, con enjambres de robots que tomarán la decisión de a quién matar y cuándo. La AWS tendrá la capacidad de tomar decisiones de combate altamente coordinadas a velocidades que harán irrelevante la aportación humana. Los AWS serán un multiplicador de fuerzas para las unidades terrestres y, en algunos casos, podrán sustituirlas por completo. Esto cambiará drásticamente el análisis coste-beneficio que realizan las naciones a la hora de decidir si inician o no una guerra.
La tecnología, sencillamente, proporcionará una ventaja estratégica decisiva a quienes la posean. Los ejércitos de todo el mundo sentirán que no tienen más remedio que competir para desarrollar armas autónomas cada vez más destructivas. ¿Hasta dónde llegará esta carrera armamentística? El único límite a lo que esta tecnología puede hacer es el límite de la propia inteligencia artificial.
P: Háblenos de los peligros del uso de estas armas.
- La inteligencia artificial armada plantea muchos peligros. Los robots asesinos no supervisados cometerán errores: toda la tecnología comete errores. Pero ahora, los errores no conducirán a una pantalla congelada o a un fallo en un videojuego, sino a civiles masacrados y ciudades incendiadas. Una guerra con menos riesgos para sus propias tropas significará más guerras, más desestabilización global. Los AWS podrían estar equipados con armas químicas, biológicas, radiológicas y nucleares. La proliferación de las AWS hará que las armas lleguen a manos de terroristas nacionales e internacionales. Grupos e individuos podrán lanzar ataques catastróficos que pueden ser imposibles de rastrear. Una tecnología disruptiva como ésta desestabilizará de forma catastrófica nuestro ya inestable equilibrio nuclear, aumentando la probabilidad de ataques preventivos realizados por miedo. Se trata de una auténtica amenaza existencial para la humanidad.
P: ¿Cómo se puede evitar?
- La buena noticia es que no es demasiado tarde para detenerlo. Con las armas nucleares, estamos intentando volver a poner la pasta de dientes en el tubo. Pero si establecemos ahora una prohibición internacional de las AWS, ninguno de estos escenarios de pesadilla tiene por qué ocurrir. Las prohibiciones sobre el desarrollo y el uso de armas pueden ser muy eficaces: basta pensar en la prohibición internacional de las armas láser cegadoras que entró en vigor en los años 90. Para los interesados, la Campaña para Detener a los Robots Asesinos y Human Rights Watch son mis grupos favoritos para obtener información actualizada sobre cómo los ciudadanos de todo el mundo pueden colaborar.