La tercera revolución en el arte de la
guerra
La élite de la inteligencia artificial
apremia a los científicos a pronunciarse sobre las armas autónomas
Javier Sampedro
El País
2 de junio de 2015
Un drone en el aeropuerto de Kandahar (Afganistán). / MASSAUD HOSSAINI (AFP)
|
El problema es que los componentes científicos ya existen, y solo falta combinarlos para construir
un arma autónoma letal. Bastaría acoplar los dispositivos de conducción
automática de los coches con un sistema artificial de aprendizaje táctico, como
el que ya ha probado Google DeeepMind, para construir un robot que rastree una
ciudad y destruya a los enemigos. A los enemigos que él decida, se entiende. La
élite de la inteligencia artificial está tan preocupada que ha decidido
apremiar a los científicos a tomar una postura crítica ante las armas
autónomas. Esto no son drones: son algo mucho peor que eso.
Los ahora populares drones, cuyos aspectos éticos ya discutían los científicos de
la computación hace 10 o 15 años, no son armas autónomas: tienen elementos
autónomos de bajo nivel, pero dependen del albedrío humano para decidir sus
objetivos. Los drones siguen teniendo un piloto, aunque esté situado a mil
kilómetros y no tenga gran cosa que perder si comete un error fatal. Las nuevas
armas que permiten la inteligencia artificial y la robótica son autónomas en un
sentido estricto y perturbador: son ellas quienes seleccionan los objetivos y
deciden destruirlos.
Es una pesadilla clásica de la ciencia ficción que sigue siendo una pesadilla clásica,
pero no de la ciencia ficción. “Hay mucho en juego”, dice el científico de la
computación Stuart Russell, de la Universidad de California en Berkeley. “Las
armas autónomas letales (LAWS, por lethal autonomous weapons systems) se han descrito como la tercera revolución del arte de
la guerra, tras la pólvora y la bomba atómica”. Russell publica sus advertencias en Nature, junto a seis artículos científicos de revisión y un
editorial que revelan el desasosiego de la élite científica ante este asunto.
¿Qué son las LAWS, o armas letales autónomas, que inquietan tanto a los científicos?
No son los misiles de crucero, cuyos objetivos son decididos por humanos, ni
los drones actuales, que están pilotados por una persona, aunque por control
remoto. Ejemplos de LAWS serían los quadcopters (cuadricópteros, o helicópteros de cuatro hélices) y los minitanques
armados, capaces de rastrear una ciudad y decidir sus objetivos sin
intervención humana. No existen todavía, pero los militares podrían
construirlos en unos años, según los científicos.
¿Cuán extendida está entre los científicos de la computación la actitud de reserva
que Russell propone sistematizar? “Es cada vez más común”, responde Russell a
EL PAÍS. “Creo que los tecnólogos están tomando cada vez más conciencia de sus
responsabilidades a medida que crece el riesgo de un impacto en el mundo real;
nuestra asociación profesional (la AAAI, Association for the Advancement of Artificial Intelligence, o Asociación para
el Avance de la Inteligencia Artificial) ha evolucionado con rapidez
desde una actitud de neutralidad calculada, en todos los asuntos sociales y
políticos, hacia una posición proactiva que espero que conduzca a una postura
política formal; “¡deberíamos haber empezado a trabajar en ello hace 10 años!”.
En cualquier caso, ¿es posible parar esto? “Será difícil progresar a través del
proceso CCW (Tratado sobre Ciertas Armas Convencionales de la ONU, en Ginebra),
que requiere un cuasi-consenso para sacar cualquier cosa adelante.
Probablemente necesitamos gente de todo el mundo que presione a sus gobiernos
para que se tomen la cuestión en serio, y quizá el proceso para el tratado
pueda ocurrir por otros medios, como fue el caso del Tratado de Minas
Antipersona; incluso si eso ocurre, seguirá siendo importante implicar a
Estados Unidos y Reino Unido de alguna forma”.
Russell, en cualquier caso, considera inevitable que los sistemas sin control humano se
construyan. Solo espera que se puedan establecer limitaciones, porque sabe que
esas armas “dejarán a los humanos completamente indefensos, y esto no es un
futuro deseable; actualmente, la tecnología se mueve muy rápido y no podemos
permitirnos el lujo de esperar”.
Fuente: http://elpais.com/elpais/2015/05/28/ciencia/1432827187_930472.html
¡Hazte voluntario para traducir al español otros artículos como este! manda un correo electrónico a espagnol@worldcantwait.net y escribe "voluntario para traducción" en la línea de memo.
E-mail:
espagnol@worldcantwait.net
|