lunes, 15 de junio de 2015

Robots asesinos, la última tentación de las superpotencias


La última película de «RoboCop» comienza en Teherán, en 2028. Un grupo de robots militares estadounidenses que patrullan las calles de la capital iraní analizan a civiles en busca de enemigos. Son capaces de detectar marcadores biológicos -el sudor, el iris, las huellas dactilares, el lenguaje corporal- y escanear sus cuerpos en busca de armas o bombas.Un grupo de terroristas suicidas lanza un ataque, y las máquinas responden con frialdad mecánica.
«No hace mucho tiempo, esos serían hombres o mujeres de EE.UU. arriesgando sus vidas», dice en la película el presentador de TV (Samuel L. Jackson) que retransmite el suceso.
Esa fantasía de Hollywood podría ser realidad en un futuro próximo. Los avances tecnológicos están permitiendo desarrollar robots cada vez más autónomos. En la vida civil, esto está plagado de ventajas: desde los robots que desde hace años aspiran suelos sin despeñarse por las escaleras a los coches que Google dice que nos transportarán sin conductor. Esta misma semana se supo que los primeros camiones con piloto automático -diseñados por Daimler- ya circulan en el Estado de Nevada. En el plano militar, sin embargo, hay muchas dudas.
Los LAWs (Lethal Autonomous Weapon) ya protagonizan un fuerte debateLos robots inteligentes con capacidad de matar de manera autónoma se denominan Armas Autónomas Letales (LAWs, en sus siglas en inglés) y aunque todavía no hay noticia de que se haya desarrollado ninguna, ya protagonizan un fuerte debate en la comunidad internacional.
El profesor de robótica Noel Sharkey explicó a «The Escapist» que «según el Departamento de Defensa de EE.UU., un LAW es un arma militar que, una vez activada, se enfrenta a sus enemigos sin otro tipo de intervención. Eso quiere decir que rastrea y selecciona sus propios objetivos para matarlos o ejercer violencia contra ellos sin un control humano significativo. En esencia, es un robot asesino».
Sharkey es una de las voces más activas de la Campaña para «Parar los Robots Asesinos», en la que toman parte ONG de todo el mundo sobre control de armamento y derechos humanos. La suya es una de las organizaciones que participaron el mes pasado en una reunión en la sede de Naciones Unidas en Ginebra para estudiar el futuro de los robots asesinos.
Las posiciones sobre los robots asesinososcilan entre quienes los consideran una vulneración de las leyes humanitarias y los asimilan a las armas químicas o biológicas -exigiendo su prohibición preventiva-, y quienes los asimilan a las armas de alta precisión y defiendan que solo hay que regularlas.

Menos daños colaterales

Para sus detractores, hay dudas muy inquietantes sobre la capacidad de los robots de asimilar principios de la legislación internacional humanitaria como la proporcionalidad en un ataque, de discriminar las intenciones pacíficas o agresivas de un sujeto o de distinguir a un civil inofensivo de un terrorista camuflado.
Otros consideran que los robots serían mejores soldados, y más «humanos» que los de carne y hueso. Ron Arkin, del Georgia Institute of Technology, cree que las máquinas, desprovistas de reacciones de pánico, inseguridad o venganza, reducirían el número de víctimas en un conflicto. Para Orkin, los robots tendrán más capacidad de determinar cuándo no se debe atacar a un humano. «Defiendo una moratoria hasta que se consiga eso, pero no apoyo que se prohíban», dijo a la BBC.
Para algunos, los robots asesinos serán un caramelo al que los Gobiernos no se podrán resistir: no solo se ahorrarán vidas de sus ciudadanos, sino también mucho dinero. Se estima que cada soldado estadounidense destacado cuesta 850.000 dólares al año a los contribuyentes. Pero Sharkey también ve un lado negativo a esto: «Si no tienes que afrontar el ver féretros de vuelta a tu país, si simplemente puedes mandar robots al frente, entoncesno habrá forma de parar el número de conflictos en los que te puedes embarcar».
Human Right Watch y Harvard advierten de las lagunas jurídicasOtro aspecto muy discutido es la responsabilidad de estos autómatas asesinos. En casos de crímenes cometidos por los robots, ¿a quién se podría culpabilizar? Un informe de Human Rights Watch y de la Universidad de Harvard advierte de las dificultades para asignar responsabilidad personal, tanto criminal como civil, en actos cometidos por armas completamente autónomas. «La ausencia de responsabilidad significa que no habrá disuasión de crímenes futuros, ni compensación a las víctimas, ni condena social», asegura Bonnie Docherty, la directora del estudio. «Los obstáculos para la justicia justifican por qué debemos prohibir por completo las armas autónomas».

Solo cinco países en contra

La reunión de Ginebra acabó sin conclusiones. La mayoría de los países entienden que es necesario un cierto control humano, pero no se ha delimitado. Solo cinco países -Pakistán, Egipto, Cuba, Ecuador y el Vaticano- fueron favorables a una prohibición de los robots asesinos. La mayoría de los países optaron por seguir las conversaciones en otoño para encontrar una regulación de estas máquinas. Mientras tanto, las grandes potencias avanzan en la automatización de sus aparatos militares: Reino Unido desarrolla el «Taranis», un dron semiautónomo capaz de desarrollar misiones de larga distancia; Israel sigue perfeccionando su «cúpula de hierro», un sistema que detecta e intercepta misiles por sí mismo; Corea del Sur utiliza desde hace años un robot de Samsung en la frontera con Corea del Norte que registra movimientos humanos y es capaz de lanzar ataques; el dron supersónico de EE.UU. X47B crea su propia ruta y sabe aterrizar y despegar sin intervención humana. Y Rusia celebró ayer el 70 aniversario de la victoria en la Segunda Guerra Mundial con un desfile en el que el protagonista fue el T-14 Armata, un tanque cuya torreta se cargará y disparará sin intervención humana.
Por el momento, estas innovaciones necesitan de la acción humana para funcionar. Pero se estima que en 2029 -solo un año después del ficticio «RoboCop»- las máquinas serán tanto o más inteligentes que los hombres. No lo dice cualquiera, sino Ray Kurzweil, el director de ingeniería de Google. Si los robots llevan armas letales, «Terminator» está al caer.
ElUniverso.com.co

No hay comentarios:

Publicar un comentario