martes, 9 de junio de 2015

Drones: La ética de los guerreros autónomos

La tercera revolución en el arte de la guerra
La élite de la inteligencia artificial apremia a los científicos a pronunciarse sobre las armas autónomas
JAVIER SAMPEDRO - El País


Un drone en el aeropuerto de Kandahar (Afganistán). / MASSAUD HOSSAINI (AFP)
 Haga clic debajo para ver la nota extendida

El problema es que los componentes científicos ya existen, y solo falta combinarlos para construir un arma autónoma letal. Bastaría acoplar los dispositivos de conducción automática de los coches con un sistema artificial de aprendizaje táctico, como el que ya ha probado Google DeeepMind, para construir un robot que rastree una ciudad y destruya a los enemigos. A los enemigos que él decida, se entiende. La élite de la inteligencia artificial está tan preocupada que ha decidido apremiar a los científicos a tomar una postura crítica ante las armas autónomas. Esto no son drones: son algo mucho peor que eso.

Los ahora populares drones, cuyos aspectos éticos ya discutían los científicos de la computación hace 10 o 15 años, no son armas autónomas: tienen elementos autónomos de bajo nivel, pero dependen del albedrío humano para decidir sus objetivos. Los drones siguen teniendo un piloto, aunque esté situado a mil kilómetros y no tenga gran cosa que perder si comete un error fatal. Las nuevas armas que permiten la inteligencia artificial y la robótica son autónomas en un sentido estricto y perturbador: son ellas quienes seleccionan los objetivos y deciden destruirlos.

Es una pesadilla clásica de la ciencia ficción que sigue siendo una pesadilla clásica, pero no de la ciencia ficción. “Hay mucho en juego”, dice el científico de la computación Stuart Russell, de la Universidad de California en Berkeley. “Las armas autónomas letales (LAWS, por lethal autonomous weapons systems) se han descrito como la tercera revolución del arte de la guerra, tras la pólvora y la bomba atómica”. Russell publica sus advertencias en Nature, junto a seis artículos científicos de revisión y un editorial que revelan el desasosiego de la élite científica ante este asunto.

¿Qué son las LAWS, o armas letales autónomas, que inquietan tanto a los científicos? No son los misiles de crucero, cuyos objetivos son decididos por humanos, ni los drones actuales, que están pilotados por una persona, aunque por control remoto. Ejemplos de LAWS serían los quadcopters (cuadricópteros, o helicópteros de cuatro hélices) y los minitanques armados, capaces de rastrear una ciudad y decidir sus objetivos sin intervención humana. No existen todavía, pero los militares podrían construirlos en unos años, según los científicos.

¿Cuán extendida está entre los científicos de la computación la actitud de reserva que Russell propone sistematizar? “Es cada vez más común”, responde Russell a EL PAÍS. “Creo que los tecnólogos están tomando cada vez más conciencia de sus responsabilidades a medida que crece el riesgo de un impacto en el mundo real; nuestra asociación profesional (la AAAI, Association for the Advancement of Artificial Intelligence, o Asociación para el Avance de la Inteligencia Artificial) ha evolucionado con rapidez desde una actitud de neutralidad calculada, en todos los asuntos sociales y políticos, hacia una posición proactiva que espero que conduzca a una postura política formal; “¡deberíamos haber empezado a trabajar en ello hace 10 años!”.

En cualquier caso, ¿es posible parar esto? “Será difícil progresar a través del proceso CCW (Tratado sobre Ciertas Armas Convencionales de la ONU, en Ginebra), que requiere un cuasi-consenso para sacar cualquier cosa adelante. Probablemente necesitamos gente de todo el mundo que presione a sus gobiernos para que se tomen la cuestión en serio, y quizá el proceso para el tratado pueda ocurrir por otros medios, como fue el caso del Tratado de Minas Antipersona; incluso si eso ocurre, seguirá siendo importante implicar a Estados Unidos y Reino Unido de alguna forma”.

Russell, en cualquier caso, considera inevitable que los sistemas sin control humano se construyan. Solo espera que se puedan establecer limitaciones, porque sabe que esas armas “dejarán a los humanos completamente indefensos, y esto no es un futuro deseable; actualmente, la tecnología se mueve muy rápido y no podemos permitirnos el lujo de esperar”.

No hay comentarios.:

Publicar un comentario