Lunes. 20.11.2017 |
Instituto de Estrategia S.L.P.

HAY ESCENARIOS FUTUROS EN LOS QUE SE PODRÁ VER A MICRO-DRONES MATANDO Y ROBOTS ASESINOS CAPACES DE RECONOCER CARAS

Nuevos ejércitos de robots asesinos: ¿un conflicto entre humanos iniciado por máquinas de forma involuntaria?

Taranis es el dios celta del trueno, y es el nombre que la empresa de armamento británica BAE Systems le dio a su más moderno avión de combate autónomo.

Nuevos ejércitos de robots asesinos: ¿un conflicto entre humanos iniciado por máquinas de forma involuntaria?

Este miércoles, BAE Systems difundió imágenes de los primeros vuelos de prueba del prototipo, realizados en 2013 (ver video que acompaña a esta nota, más abajo). La aeronave es capaz de realizar misiones intercontinentales, es difícil de detectar, y puede atacar objetivos en el aire y en tierra.

Pero un elemento crucial del Taranis es que, además de poder ser controlado desde cualquier lugar del planeta por un piloto en tierra, también es capaz de funcionar por su cuenta, sin intervención humana.

El Ministerio de Defensa británico, que financió parcialmente su desarrollo, señaló que no se utilizará en su modo autónomo. Esto no deja de preocupar a Mark Gubrud, quien ve en el Taranis un nuevo avance en el desarrollo de robots y máquinas autónomas capaces de matar por cuenta propia, como señala en esta entrevista que concedió a BBC Mundo.

Gubrud es investigador del Programa sobre Ciencia y Seguridad Global de la Universidad de Princeton y miembro de Comité Internacional para el Control de Armas Robóticas (CICAR), un grupo de activistas, académicos e intelectuales de todo el mundo que intenta conseguir que se prohíban los robots capaces de matar.

¿Cuán lejos está CICAR de cumplir su objetivo de que se prohíban las armas autónomas?

Hace 25 años que trabajo en esto, y la gente en general está de acuerdo en que no debemos tener robots autónomos asesinos.

Una encuesta de marzo del año pasado (de la consultora YouGov) muestra que el público estadounidense se opone mayoritariamente a las armas autónomas y apoya los esfuerzos para prohibirlas.

Y lo interesante es que esa es la opinión predominante entre miembros de las fuerzas armadas, exmiembros y familiares.

El año pasado hubo un gran progreso en Naciones Unidas, con el informe de Christof Heyns (observador de Naciones Unidas sobre Ejecuciones Extrajudiciales, Sumarias o Arbitrarias, quien pidió que se detengan los avances en el diseño de robots capaces de matar).

Y el asunto empezó a discutirse más y más. Se discutió en Naciones Unidas el implantar una moratoria al desarrollo de armas autónomas. Lo mismo hizo Heyns.

¿Y quiénes son los principales opositores a una prohibición?

Las principales potencias mundiales resistirán cualquier esfuerzo de prohibir las armas autónomas. Ciertamente Estados Unidos es el más importante; tiene una política declarada a favor de su desarrollo.

China ve una oportunidad también, y ya tienen sistemas que serían preocupantes. Lo mismo con Rusia, Reino Unido.

Las principales potencias se resistirán porque la incertidumbre estratégica, las oportunidades que ven, porque ya han realizado inversiones.

¿Existen hoy robots asesinos?

Absolutamente. Si uno se refiere a armas autónomas, es algo que existe hoy.

El más simple es la mina antipersonal, pero es un tipo de "robot" extremadamente simple, que existe en un mundo con dos estados posibles: activado, lo que la hace explotar; o esperando a ser activada.

Pero a medida que se incorporan tecnologías más sofisticadas en los sistemas, se llega a, por ejemplo, los robots centinela surcoreanos, que son capaces de reconocer intrusos humanos en forma autónoma dentro de un área determinada. Y podrían dispararles también en forma autónoma, o ser instruidos en forma remota a que abran fuego. Tienen la capacidad autónoma de matar gente.

Ese es un ejemplo, otro serían los misiles que existen hoy. Misiles que buscan y dan caza a un objetivo específico fuera del campo visual, misiles tierra-aire o aire-mar, donde el misil se envía en busca de un objetivo de cierto tipo y tiene una tecnología que le permite distinguir el objetivo real de objetivos falsos; por ejemplo un tipo de barco de otro.

¿Si es capaz de detectar el objetivo deseado, en qué se diferencia de una bala, que también se dirige al objetivo determinado por un humano?

Eso no es cierto, porque la bala no decide, no ve nada, no ve dos cosas y decide cuál es la que debe perseguir. El misil toma esa decisión. Y los diseñadores no pueden anticipar acabadamente la situación en que se encontrará la máquina o en qué estado estará al llegar a esa situación.

Cuando uno tiene un programa que continuamente evalúa posibilidades divergentes, como estos misiles, no se sabe de qué datos terminarán dependiendo estas evaluaciones, con qué se encontrará o qué cálculos hará.

Diseñamos estas cosas de acuerdo con principios que creemos que guiarán su comportamiento, pero inevitablemente encontrarán situaciones que no cuadrarán con esos principios de la forma en que fueron pensados originalmente.

¿En el futuro, dentro de 40 años, vamos a ver algo como el Terminator de la película?

Terminator era un robot asesino. Y mira lo que está sucediendo hoy en día: una de las más importantes misiones de las aeronaves controladas en forma remota (drones) es matar.

Hay escenarios futuros en los que se podrá ver a micro-drones matando y robots asesinos capaces de reconocer caras o elementos biométricos.

Las fuerzas armadas están discutiendo estas cosas en forma silenciosa y de forma más abierta en la ciencia ficción y la literatura popular.

Si se automatiza todo, sin intervención humana, las cosas se saldrán de control.

Si piensas en un sistema de confrontación automática, en el que ejércitos de robots se enfrentan unos con otros, ¿puedes imaginar cuán difícil sería de desarrollar para único equipo de ingenieros, y lograr que sea estable en el largo plazo?

Pero ni siquiera será ese el caso. Lo que habrá serán muchas naciones que no confían entre sí, con programas en conflicto, y dentro mismo de cada uno de ellos habrá diferentes equipos que no estarán bien coordinados.

¿Cómo se puede detener el desarrollo de las armas autónomas?

Debemos detenernos ya, antes de llegar más lejos. Dar a conocer lo que está sucediendo es un primer paso. Y crear una serie de reglas y principios.

Y creo que los más fuertes principios en que basar la prohibición de armas autónomas son los de humanidad: que los humanos siempre deben tener el control y responsabilidad en el uso de una fuerza letal.

Es una ofensa a la dignidad humana que haya personas sometidas a violencia por decisión de una máquina o que estén sujetos a la amenaza del uso de la fuerza por parte de una máquina, o que un conflicto entre humanos sea iniciado por una máquina en forma involuntaria.

Es un derecho humano no ser muerto por decisión de una máquina. Ese es un muy fuerte principio moral, con un atractivo casi universal. Y esa debe ser la base para prohibir las armas autónomas.

Luego debemos definir un régimen de control de armas, que implica que los estados acepten estos principios y que los enseñen en las academias militares y que no tengan armas autónomas y que se usen medidas de verificación para demostrar que los sistemas que utilizan están bajo control humano.

¿Eso llevaría a la prohibición de los drones?

La Campaña para Detener Robots Asesinos (organización de la que forma parte el Comité Internacional para el Control de Armas Robóticas) y el llamado a prohibir armas autónomas no excluye el uso de drones.

No dice "prohíban los drones", pero sí dice que si se van a usar deben ser controlados en forma remota por un humano. La decisión de disparar debe ser tomada por un ser humano, que debe ser responsable por ella. Y todo eso debe documentarse.

Pero un humano no puede cansarse o ser movido por sus emociones y cometer errores...

Si la gente se cansa manejando drones, entonces hace falta más gente, tienen que trabajar menos horas.

En este contexto, ¿qué opina del nuevo avión autónomo presentado por BAE Systems, Taranis?

No está claro por qué Reino Unido necesita un avión autónomo de combate furtivo en el siglo XXI. ¿Para qué guerra es necesario? ¿Qué armas tendrá el enemigo?

Los drones Reaper y Predator (utilizados por EE.UU. y Reino Unido) ya son capaces de matar gente indefensa en tierra, pero prototipos como el Taranis, nEUROn (desarrollado por un consorcio europeo), X-47B (EE.UU.) y Lijian (China) apuntan a una más importante fuerza de combate, ya sea aire-aire, aire-tierra, o ataques a buques.

Al ser también un objetivo el que sea difícil de detectar, al igual que una gran capacidad de maniobra, necesitarán tener la capacidad de funcionar de modo totalmente autónomo, lo que implica también autonomía letal si van a ser útiles como armas.

Así que este tipo de sistemas representa un compromiso con la idea de autonomizar la capacidad de matar, aunque no sea algo que se reconoce públicamente.

Fuente: BBC. Leer artículo original en: "El hombre que desafía a los robots asesinos".

Nuevos ejércitos de robots asesinos: ¿un conflicto entre humanos iniciado por máquinas de forma involuntaria?
Comentarios