TIEMPO RE@L

miércoles, 3 de enero de 2018

ROBOTS ASESINOS: Ejércitos sin alma

Enjambres de drones explosivos, tanques autónomos, robots que aprenden a matar... La industria bélica investiga las posibilidades de la inteligencia artificial para hacer la guerra. Busca al soldado perfecto. El que no hace preguntas…. El que es capaz de exterminar a la raza humana sin remordimiento alguno porque no lo posee. Como sabéis, un dron que cabe en la palma de una mano puede comenzar a volar sin que nadie lo guíe a distancia. Gracias a un programa de reconocimiento facial, no tendrá problemas en identificar a su objetivo entre muchas otras personas. Se acercará silenciosamente hasta él y se posará sobre su frente con una carga explosiva de tres gramos en su interior. La explosión destrozará el cerebro de su víctima. ¿Y si en vez de uno son muchos? Una furgoneta aparca cerca del lugar donde se desarrolla un importante acto institucional. De su interior surge un enjambre de drones asesinos, cada uno con el rostro de un dirigente político en su memoria. Una vez sueltos, ya no habrá marcha atrás. Los robots han sido 'entrenados' para esquivar los manotazos de sus objetivos. Son autónomos y no se detendrán hasta posarse en una frente. Al menos oficialmente, estos drones aún no existen, pero la tecnología para fabricarlos hace mucho que está disponible. Además, es barata. La idea de que alguien lance al aire una flotilla de minúsculos y letales robots dispuestos a morir matando es real, como también lo es un futuro cercano en el que la guerra quede en manos de las máquinas. Lo que se dijo un embajador en la ONU los primeros días de diciembre, fue una broma de esas que se sueltan en los discursos para romper el hielo, pero quizá llegue la hora en la que hay que tomarlo en serio. “Damas y caballeros, tengo noticias para ustedes: los robots están tomando el mundo. Los humanos ya no siguen al mando”, reveló el embajador a los miembros del grupo de expertos gubernamentales sobre sistemas de armas autónomas letales que durante una semana se han dio cita en Ginebra para hablar por primera vez sobre los retos e implicaciones éticas, técnicas, militares y legales de los robots asesinos. La reunión fue el fruto de la creciente alarma mostrada por científicos e investigadores de todo el planeta, que han comenzado a lanzar advertencias sobre los riesgos de la aplicación de la inteligencia artificial (IA) a la guerra. Como sabéis, el pasado mes de agosto, 137 especialistas o fundadores de empresas de IA enviaron una carta a la ONU en la que alertaban del peligro potencial de las armas letales autónomas. En la misiva reclamaban una urgente regulación de las máquinas capaces de matar sin control humano. Todavía no existen, pero ideas hay muchas. En 1958 nació en Estados Unidos la Agencia de Proyectos de Investigación Avanzados de Defensa (Darpa), que desde entonces no ha parado de pergeñar nuevas formas de hacer guerras más eficaces. En sus laboratorios se experimentan todo tipo de propuestas, por muy disparatadas que parezcan, y quizá por esa apertura de miras sus logros han sido notables. De la agencia ha surgido Internet, el ratón de ordenador y el GPS, entre otras muchas tecnologías. En Darpa se investigan actualmente prótesis para soldados heridos, implantes cerebrales para acabar con el estrés postraumático de los combatientes, balas capaces de variar de trayectoria, exoesqueletos, propulsores para correr más deprisa, uniformes que curan heridas y barcos que navegan sin tripulación. También diseñan robots como 'Atlas', un humanoide de 1,80 metros de altura capaz de dar una voltereta hacia atrás, o 'WildCat' y 'BigDog', dos robots de cuatro patas ideados para transportar cargas pesadas a través de todo tipo de terreno. En principio, la tarea de 'Atlas' será la de ayudar en servicios de emergencia, pero no se descarta que alguna vez le llegue el momento de su bautismo de fuego. En cuanto a sus hermanos cuadrúpedos, algunos ya han entrado en combate como 'bestias de carga', aunque el excesivo ruido de su motor los hace poco eficientes y el proyecto ha quedado aparcado, a la espera de tecnologías mejores. Mientras en Rusia, la compañía Kalashnikov ha desarrollado un robot de combate dotado de inteligencia artificial, capaz de decidir cuándo atacar y a quién disparar. El aparato, una especie de caja sobre ruedas con ametralladoras, no es una maravilla del diseño pero anticipa lo que tarde o temprano llegará. Todos los gobiernos lo saben y, al menos los que tienen capacidad tecnológica, se han embarcado en una carrera para convertir la guerra en una cuestión de máquinas. Se han construido tanques robotizados, camiones, aviones y buques no tripulados, se teoriza sobre robots soldados y, sobre todo, se desarrolla la inteligencia artificial con el objetivo más o menos confeso de crear armas autónomas capaces de actuar sin intervención humana. Serían ellas las que, en última instancia, decidieran cuándo matar a una persona.“Creo que debemos tomar conciencia de que los sistemas de armas autónomas letales suponen una revolución transformadora que puede situarnos en un riesgo existencial notable”, previene un experto en ética robótica, investigador del centro de ética práctica Uehiro de la Universidad de Oxford. Es una revolución que comienza con una pregunta: ¿se puede delegar en una máquina la capacidad de matar? “Esta posibilidad es indigna pero estamos camino a ella”, responde uno de los 137 firmantes de la carta enviada a la ONU. A su juicio, conceder a un robot autonomía absoluta para decidir cuándo y a quién atacar traería consigo una proliferación de conflictos armados y un incremento de víctimas civiles. Frente a quienes sostienen que las armas autónomas salvarían la vida de muchos soldados, muchos expertos recuerdan que las protestas contra la guerra de Vietnam se desataron cuando empezaron a llegar a Estados Unidos ataúdes de combatientes muertos. Las batallas entre robots evitarían bajas de militares pero, por el contrario, causarían más daños colaterales; morirían más civiles que ahora. “Si fuera verdad que no hay féretros con soldados bajaría la presión social y a los gobernantes les sería más fácil provocar conflictos armados”, argumento. Y les sería mucho más sencillo matar. Las principales potencias militares ya están trabajando en sistemas de armas donde no será necesaria la supervisión humana. Este es un gran problema ético y legal porque realmente sí que puede crear la mentalidad de 'playstation' en los militares. La guerra se banaliza y se convierte así en un juego de ordenador, donde dar un 'click' es lo único que requiere la batalla, perdiendo de vista la tragedia que se crea. También se perdería el concepto de responsabilidad. Porque si un robot provocara por su cuenta una masacre, ¿a quién se le echaría la culpa? A nadie, porque el robot es autónomo. La pregunta que surge entonces es a quién debemos culpar: ¿al robot, a la empresa que lo ensambló, al ingeniero que lo diseñó o al científico que lo programó?. Uno de los escollos de una hipotética guerra con máquinas autónomas es la dificultad con la que se toparían los robots a la hora de distinguir entre un amigo o un enemigo, sobre todo en un contexto como el actual, en el que soldados y civiles están mezclados. Para una máquina es imposible discriminar entre militares y civiles o saber si un combatiente que alza las manos se está rindiendo o no. Para un robot asesino todos deberán morir. Como recordareis, el pasado mes de junio, investigadores de Facebook tuvieron que desconectar dos robots que habían desarrollado entre ellos un lenguaje propio ininteligible para el ser humano, mientras les estaban 'enseñando' a negociar y a mejorar sus habilidades de diálogo. Gracias a la IA, las máquinas pueden experimentar y aprender por su cuenta para ser más eficaces en lo suyo, incluida la guerra. Es por ello que existe la amenaza de que en un futuro no muy lejano el hombre pierda el control de la situación. Una de las posibles consecuencias de esta pérdida es inquietantemente extrema. Puede darse el caso de que las máquinas entrenadas para hacer la guerra por su cuenta sigan combatiendo entre ellas aun cuando el conflicto haya terminado. Este es uno de los escenarios plausibles, sistemas de armas autónomas letales podrían entrar en combate en un bucle continuo que puede conducir a la destrucción total de la humanidad. Si una máquina aprende a ser letal y a mantenerse por su cuenta, la sociedad correrá un riesgo enorme de ser exterminado por quienes nos considerarán sus enemigos: ¿Una nueva era entonces - la de las maquinas - habrá comenzado? :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.