«Las armas autónomas mortales amenazan con convertirse en la tercera revolución de la guerra», advierten los expertos en robótica e inteligencia artificial.
Por Jessica Corbett, escritora del equipo de Common Dreams
Más de 100 expertos en robótica e inteligencia artificial (IA) publicaron el lunes una carta abierta pidiendo con urgencia a las Naciones Unidas prohibir el desarrollo y uso de robots asesinos.
«Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra», afirma la carta (pdf), firmada por 116 expertos en tecnología de 26 países, entre ellos el fundador de SpaceX y Tesla Motors Elon Musk y el experto en Google AI Mustafa Suleyman.
Haciendo hincapié en la necesidad de actuar con urgencia, la carta dice:
Una vez desarrollados, permitirán que el conflicto armado se libere a una escala mayor que nunca, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender. Pueden ser armas de terror, armas que los déspotas y los terroristas usan contra poblaciones inocentes, y armas hackeadas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil cerrarla.
Más de una docena de países -entre ellos Estados Unidos, China, Israel, Corea del Sur, Rusia y el Reino Unido- están desarrollando armas autónomas, según Human Rights Watch. Y según reportó Common Dreams el verano pasado, las preocupaciones sobre las armas autónomas trascienden las zonas de guerra. Los expertos legales levantaron alarmas en julio de 2016 cuando la policía en Dallas, Texas, usó un robot armado para matar a un sospechoso.
«A diferencia de otras posibles manifestaciones de la IA, que aún permanecen en el campo de la ciencia ficción, los sistemas de armas autónomas están en la cúspide del desarrollo en este momento y tienen un potencial muy real para causar daños significativos a las personas inocentes junto con la inestabilidad global», dijo a CNN Ryan Gariepy, fundador de Clearpath Robotics y uno de los signatarios del documento.
En respuesta a la rápida evolución tecnológica, la Conferencia de la Convención de Naciones Unidas sobre Armas Convencionales (UNCCW) organizó discusiones formales sobre armas autónomas -incluyendo drones, tanques y ametralladoras automatizadas- para su Grupo de Expertos Gubernamentales sobre Sistemas de Armas Letales Autónomas. Aunque el grupo estaba programado para reunirse el lunes, la reunión fue cancelada debido a que algunos estados no hicieron sus contribuciones financieras a la U.N. La próxima reunión está programada para noviembre.
Frustrados por la cancelación, los expertos en tecnología imploran a la UNCCW que «se esfuerce por encontrar medios para prevenir una carrera armamentista en esta tecnología bélica, para proteger a los civiles de su mal uso y para evitar los efectos desestabilizadores de estas tecnologías».
La carta fue dada a conocer en la apertura de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) en Melbourne el lunes. Hace dos años, IJCAI también se utilizó como una plataforma para «lanzar una carta abierta firmada por miles de investigadores de IA y robótica, incluyendo Musk y Stephen Hawking pidiendo de manera similar una prohibición, lo que ayudó a empujar a la ONU en conversaciones formales sobre las tecnologías», informa The Guardian.
Se espera que más de 90 países participen en la reunión de noviembre, así como los principales organismos de las Naciones Unidas, el Comité Internacional de la Cruz Roja y la Campaña para Detener a los Robots Asesinos, de acuerdo con la Campaña para Detener a los Robots Asesinos, que también expresó su frustración por la cancelación de la primera reunión, e instó a los estados a «comenzar las negociaciones sobre un nuevo protocolo de la CCW para fines de 2018 que prohíba de manera preventiva armas completamente autónomas».
El mes pasado, los miembros del Senado de los Estados Unidos escucharon sentimientos similares del segundo general de mayor rango en el ejército estadounidense. Según dijo Common Dreams, el General Paul Selva abordó los peligros de los robots asesinos en su audiencia de confirmación ante el Comité de Servicios Armados del Senado, concluyendo: «No creo que sea razonable que pongamos a los robots a cargo de si tomamos o no una vida humana.»