Elaborado por Materia para OpenMind Recomendado por Materia
4
Inicio Drones que matan solos: ¿llegará la Inteligencia Artificial al campo de batalla?
08 mayo 2018

Drones que matan solos: ¿llegará la Inteligencia Artificial al campo de batalla?

Tiempo estimado de lectura Tiempo 4 de lectura

Sobre un escenario y ante un auditorio repleto, un ejecutivo presenta un avance asombroso: un minúsculo dron dotado de Inteligencia Artificial (AI) que cabe en la palma de la mano y que es capaz de seleccionar su objetivo para dispararle al cerebro una carga de tres gramos de explosivo. No es posible abatirlo, sus reacciones son cien veces más rápidas que las de un ser humano, y no es posible escapar ni esconderse de él, cuando vuelan en enjambre pueden superar cualquier obstáculo. “No hay manera de detenerlos”, asegura el conferenciante.

A continuación entran en escena extractos de informativos de televisión que dan cuenta de un ataque letal de estos aparatos en el Senado de EEUU. Una mujer sigue las noticias mientras charla vía internet con su hijo en el extranjero. La conversación acaba bruscamente cuando un enjambre de drones fulmina al joven y a otros estudiantes que han difundido un vídeo en sus redes sociales. Finalmente la imagen nos devuelve a la presentación, donde el ejecutivo alardea de la posibilidad de seleccionar al enemigo incluso por la publicación de un hashtag concreto.

Todo esto es solo ficción, se trata del cortometraje Slaughterbots publicado por la Campaña contra los Robots Asesinos, una iniciativa promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras entidades. Pero según advierte al final del vídeo el profesor de ciencia computacional de la Universidad de Berkeley (EEUU) Stuart Russell, es más que una especulación: la tecnología ya existe y pronto estos drones autónomos letales podrían convertirse en una realidad. De hecho, el pasado noviembre, el Departamento de Defensa de EEUU abría una convocatoria para el desarrollo del “reconocimiento automático de objetivos personales y vehículos desde un sistema aéreo no tripulado utilizando algoritmos de aprendizaje”.

Drones que deciden solos

Los drones armados llevan ya décadas en el campo de batalla, pero hasta hoy son simples aparatos guiados a distancia. Como declaraba recientemente el Secretario de Defensa de EEUU, Jim Mattis, decir de los drones actuales que no son tripulados es un equívoco, ya que están en todo momento bajo el control remoto de un piloto humano. El salto es abismal: hoy se habla de fabricar dispositivos del tamaño de un dron doméstico, capaces de decidir por sí mismos y sin supervisión humana a quién hay que abatir y abatirlo. Y aunque, según precisa a OpenMind el exmilitar de operaciones especiales y antiguo asesor del Pentágono Paul Scharre, autor del nuevo libro Army of None: Autonomous Weapons and the Future of War (W. W. Norton & Company, 2018), “ningún país ha afirmado que pretende construir armas totalmente autónomas”, al mismo tiempo “pocos las han descartado”.

Scharre, que actualmente dirige el Programa de Tecnología y Seguridad Nacional del think-tank Center for a New American Security, advierte de que “muchos países en todo el mundo están desarrollando armas robóticas cada vez más avanzadas, incluyendo a muchos grupos no estatales”. Estos avances pueden incluir diversos grados de autonomía y para el experto, la cuestión clave es si se cruzará la línea hacia la eliminación total del control humano, “delegando en las máquinas las decisiones sobre la vida y la muerte”.

Hasta hoy, los drones militares han sido simples aparatos guiados a distancia. Crédito: U.S. Air Force/ Kemberly Groue

Sin embargo, no hay duda de que esta tecnología es hoy accesible. Y no faltan quienes opinan que, si los estados que respetan la ley se abstienen de desarrollarla, se verán indefensos frente a su uso por parte de naciones agresoras y grupos terroristas. Otra cuestión es si la IA aplicada a la guerra llegará a utilizarse. Ciertos expertos sugieren que podría generar un efecto disuasorio que lleve a un equilibrio de poder, como sucedió con la escalada nuclear durante la Guerra Fría. Pero Scharre duda de la viabilidad de este escenario, ya que los misiles nucleares podían rastrearse vía satélite; por el contrario y dado que es el software lo que confiere autonomía, la vigilancia de las armas basadas en IA es enormemente compleja. “El mayor desafío es la dificultad de verificar cualquier tipo de cooperación”, apunta el experto. “Esto hace muy probable que las naciones inviertan en tecnología autónoma, aunque solo sea por el miedo de que sus adversarios puedan estar haciéndolo”.

Evitar errores humanos y emociones

Quienes apoyan el desarrollo de los drones militares autónomos apelan también a su capacidad de evitar los errores humanos y las emociones, liberando a los pilotos actuales de la responsabilidad moral de las bajas, como ha defendido el ingeniero de robótica del Instituto Tecnológico de Georgia (EEUU) Ronald Arkin. Sin embargo y sumado al peligro de suprimir también cualquier atisbo de humanidad, otros expertos sugieren que el proceso de refinamiento de toda tecnología está sembrado de errores, y que en este caso se traducirán en muertes debidas a bugs del software o reconocimientos fallidos. Todo ello, además de convertir súbitamente en potenciales objetivos militares a compañías y personas civiles que contribuyen a crear las tecnologías básicas necesarias.

Por todo lo anterior, organizaciones como el ICRAC abogan por una “prohibición del desarrollo, despliegue y uso de sistemas autónomos armados no tripulados”. Según explica a OpenMind el profesor del Grupo de Política y Relaciones Internacionales de la Universidad Beckett de Leeds (Reino Unido) Steve Wright, miembro del ICRAC, el objetivo de esta entidad es exigir a Naciones Unidas un veto bajo el amparo del Convenio de Ginebra sobre Ciertas Armas Convencionales (CCW, en inglés). “Las consecuencias negativas legales, políticas y éticas de los drones armados autónomos superan con creces cualquier utilidad militar temporal”, alega Wright. El pasado septiembre, más de un centenar de altos ejecutivos de compañías tecnológicas firmaban una carta abierta instando a la CCW a tomar medidas al respecto, aunque sin pedir explícitamente un veto.

Varias organizaciones abogan por la prohibición de los sistemas autónomos armados no tripulados. Crédito: U.S. Navy/ Daniel J. McLain

“Si las negociaciones actuales fallan, podemos anticipar que estos drones proliferarán rápidamente en manos de estados amenazantes y grupos no estatales, incluyendo terroristas”, alerta Wright. El experto es consciente de que ninguna prohibición alcanzará a suprimir el riesgo, sobre todo porque gran parte de las tecnologías implicadas son de desarrollo civil y están disponibles comercialmente con otros fines, a diferencia del caso de las armas nucleares.

Sin embargo, Wright espera que los estados y la colaboración internacional puedan atajar el desarrollo y contrabando de estos sistemas y sus componentes. En la última reunión de la CCW, celebrada el pasado noviembre en Ginebra (Suiza), se han logrado progresos, como la oposición de China a las armas autónomas. La conciencia del problema ha calado lo suficiente, confía Wright, como para que se firmen acuerdos destinados a prevenir “una nueva era de asesinatos a golpe de botón”. “Las futuras generaciones nos agradecerán que alcancemos el éxito que debemos”, concluye.

Javier Yanes

@yanes68

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada