El Tratado para la Prohibición de las Armas Nucleares (TPAN/TPNW) que recientemente entró en vigor es una gran victoria, pero debemos estar atentos a la chistera del desarrollo armamentístico por si salen de ella nuevas amenazas, como es el caso del armamento letal autónomo.
Las armas letales autónomas como desarrollo a evitar
La prohibición es lo único que ha funcionado, tanto en cuanto a las armas de destrucción masiva, como las bombas racimo o las armas químicas y bacteriológicas. Incluso aquellos países que no suscriben los tratados de prohibición y regulación aplicables se han sentido obligados o limitados en su fabricación y uso.
Mientras se prohíben o regulan estas amenazas inaceptables pero conocidas, las multinacionales armamentistas siguen buscando nuevos desarrollos letales que vender y desplegar. Como por ejemplo, el llamado armamento letal autónomo.
Es preciso detenerse en estas tres palabras. Juntas encierran un nuevo salto en la escalada armamentista.
El término informal acuñado para definir este tipo de armas es el de slaughterbots o robots asesinos. Asesinos o carniceros, por ser máquinas altamente autónomas y dotadas de inteligencia artificial (IA) capaces de seleccionar y/o identificar a sus objetivos a abatir. Dicho así, podría ser la descripción de su folleto publicitario en una feria de armamento (que sí existen y se celebran). La palabra inglesa slaughter aquí tiene significados muy claros para posicionarse contra todo esto: asesinato, matanza, carnicería, baño de sangre… Aterroriza oírlo, pero tiene sentido pasar el mal rato de informarse.
Uno de los aspectos más polémicos es que se trataría de una máquina autónoma con capacidad de ser mortal. Tras ser activada y recibir una orden, para ejecutarla toma sus propias decisiones autónomamente sobre la marcha. Pero no en la forma de una sola unidad. Pueden activarse cientos o tantas como puedan fabricase, actuando sin necesidad de intervención humana posterior.
Aun sabiendo que no es un visionado agradable, es recomendable ver la ficción de este vídeo. Sin ánimo de hacer un spoiler, muestra a un exultante ejecutivo de una hipotética empresa armamentista que histriónicamente presentación en vivo las capacidades de su último producto para la muerte: el slaugtherdrone. Un diminuto dron, autodirigido, barato y mortal. Se trata de una distopia con la intención de alertar y remover conciencias contra esta aplicación de la Inteligencia Artificial.
La organización Autonomousewapons.org no se queda en el territorio de la opinión y comenta detenidamente el vídeo, bajo estas líneas, analizando desde diversas consideración, técnicas, legales, sociales, morales o eticas, lo que implica este nuevo arma.
Se trata de una presentación publicitaria simulada e inexistente. ¿Es ficción?, solo relativamente. Cada una de las tecnologías implicadas por separado ya existen. Los sistemas de recomendación o la IA aplicada a la estrategia militar también. Queda integrar todo en un sistema, como el que muestra la animación. El personaje presenta esta arma abominable, con luces y campanillas, como si fuera un nuevo modelo de smartphone forma parte de una ficción plausible. Tampoco son ficción los lobbies interesados en crear el clima de miedo necesario para que los gobiernos, al menos, miren en esta dirección. De hecho, los drones militares ya se usan desde hace tiempo y las bombas inteligentes también y tienen su rudimento de autonomía. Empiezan a verse desarrollos de IA muy especializada alojada en un chip único, de momento para usos pacíficos o civiles. Por tanto, es más que probable que este tipo de armamento ya esté en desarrollo o sea un proyecto gubernamental en manos de algún contratista. Al menos como prueba de concepto.
Lo que las máquinas pueden hacer en positivo no necesita comentario. Algunas ya caminan como lo hacemos nosotros. Aunque andar pueda parecer una tarea trivial, se le resistía a la robótica hasta hace bien poco. Se hizo viral el video de dos robots bailando twist en pareja que (bajo estas líneas). No dan miedo y bailan mejor que el que esto escribe. Pero ciertas mentalidades, ven aquí máquinas que deambulan a dos o cuatro patas por terrenos donde las ruedas no tienen las de perder. Lo siguiente para ellos es que las armas letales autónomas no necesariamente tienen que limitarse a los ingenios voladores. Pueden venir andando.
Los avances en robótica no paran de asombrar al mundo. Este no es un alegato en su contra. Lo que debemos impedir es que una pizca de IA con carga explosiva pueda matar ─por decisón propia o a quien se ha marcado─ gracias al reconocimiento facial, al mapeo 3D dinámico del entorno, etc, como hemos visto hacer al más o menos hipotético dron asesino.
Queda clara la no conveniencia de seguir adelante con estos desarrollos que otorgan autonomía a las armas hasta emanciparlas de la intervención humana, sean como sean.
La banalización de las responsabilidades personales
Qué puede haber en las mentes de quienes idean, materializan y financian algo así. ¿Maldad, oportunismo, cálculo, miedo al otro…? Son las palabras que primero vienen a la mente, pero no es operativo darle vueltas en ese sentido, a menos que seamos su terapeuta.
Si merece una consideración la posición de los científicos, técnicos, publicistas y ejecutivos que colaboran en que estos proyectos puedan ver la luz. Probablemente son gente corriente que banalicen lo que están haciendo. Miran hacia otro lado. O se dicen, –»Si no lo hacemos nosotros lo hará otro y se volverá contra nosotros». Como siempre que surge algo de este tipo hay toda una cadena de desentendimientos en quienes están involucrados. Nadie en ella se contesta honestamente y en profundidad sobre «¿esto a dónde me lleva a mí, como creador o implicado en ello?». En este terreno es donde hay necesidad de un debate abierto y global.
Estos ingenios nacen del mismo modo que se desarrollaron las «minas de rebote antipersona». La intención es causar heridas no letales y desgaste en las filas y población del enemigo… A alguien debió parecerle más razonable que las clásicas. Fue otra mala cosa que salió de la chistera armamentista. La Convención sobre la prohibición de minas antipersonales fue avance y las limita y prohíbe. Hasta el momento 164 países han suscrito este acuerdo que es conocido también como el Tratado de Ottawa. Estados Unidos, en enero 2020 y bajo el mandato Trump, revirtió la decisión de su predecesor, Barack Obama, de cumplir parcialmente con el tratado. Ese retroceso y otros son los que hace que estemos a 100 segundos de lo peor.
Las armas autónomas letales aquí descritas son un refinamiento al que debemos oponernos e incluir en la agenda del desarme, aunque solo sea en calidad de hipótesis prohibida de antemano. La idea de combinar en un ingenio pequeño, barato, prescindible, numeroso, y que personaliza o seleccionar toda una tipología de víctimas no es un avance. Facilita sentir impunidad o «riesgo cero» en la estrategia ejecutora y asesina. Son un paso hacia la masificación e industrialización del ataque selectivo. Con ellas cuesta más conectar con lo que se hace al usarlas, ya que van ellas solas comandadas por algoritmos o dirigidas desde un bunker con un joystick en modo «semiautomático».
Desde el punto de vista legal, esta suerte de balas voladoras autónomas son profundamente ilegítimas, sea en la circunstancia que sea. Ni bajo perspectiva militar o policial. Incluso la guerra tiene límites. Una bala capaz de encontrar ella sola, sin intervención humana, un rostro en concreto en medio de un lugar abarrotado de gente pasa a ser el instrumento de una ejecución sin juicio. No es un acto fortuito. El que ordena activarla es un asesino y son cómplices o responsables todos los demás implicados. Desde el que desarrolla hasta quien acepta leer el manual para usarlas bien…
Por otra parte hay que considerar los riesgo por fallos. Aunque el sistema autónomo fuera perfecto y precisamente indeseable por ello, sus desarrolladores deben mantenerlo operativo y vigilado en un régimen 24/7. En cada una de sus decisiones y acciones estos sistemas han de ser infalibles, para que ningún malfuncionamiento los haga aún más ilegítimos. Pero la guerra es el caos mismo. Conlleva demasiado azar como para considerar seguro algo que remplaza a las decisiones humanas. Además, el supuesto enemigo ya se encargará de saturar los sistemas con contrainformación y confundir a la máquina. Él solo tiene que tener éxito una vez para hackear estos sistemas y comprometerlos.
Hace unos días me preguntaba si las élites mundiales (ese 1% que disfruta o es titular del 80% de la riqueza del planeta) tendrían suficiente policía y ejército para impedir que la miseria planetaria ─de la que son bastante responsables─ no les entre por puertas o ventanas. La covid 19 ya deja claro que eso sucede. Vamos todos juntos en el mismo barco. No hay oasis perfecto para quienes crean un mundo insostenible. Es como pretender dormir tranquilo con un barril de pólvora bajo la cama. El tipo de armamento descrito simplente es un enorme error, lo tenga quien lo tenga. Por otra parte, los ejércitos o los mercenarios a sueldo ya han demostrado que se pueden volver contra el amo y ocupar su lugar o derrocar el statu quo…
De estos peligros nos salvará nuevamente el activismo mundial. El de gente en la base social. Esperemos que también por arriba, en los gobernantes y militares, etc, vaya calando la certeza de que este tipo de armamento conlleva la destrucción mutua asegurada. En cuanto que lo tenga uno, la tendrá el otro y a ambos se la puede robar un tercero a su vez. Nadie estará seguro si un loco inventa un modo de matar que obedece y funciona solo, tras darle «cuerda» y dejarlo marchar.
Habrá que insistir por todos las vías en que se firmen nuevos tratados internacionales para prohíbir las armas letales autónomas. Habrá que pedir a los tecnólogos y expertos que no colaboren en este tipo de desarrollos. Hacer que se pregunten ¿a dónde les lleva un curriculum de excelencia profesional en estas artes. Se lo podemos aclarar aquí: a ser cómplice y responsables en la creación de sistemas como el slaughterbot. No es en la guerra no valga todo. Es que toda ella y lo que hemos visto aquí no vale nada.
Fuentes: Autonomousweapons.org y la Campaña «stop killer robots»