“Alexa, ¡lanza nuestras armas nucleares!”
La inteligencia artificial y el futuro de la
guerra.
Por Michael T. Klare
18 de diciembre de 2018
No podría haber una decisión más consecuente que lanzar armas atómicas y
posiblemente desencadenar un holocausto nuclear. El presidente John F. Kennedy
enfrentó un momento así durante la crisis de los misiles cubanos de 1962 y,
después de imaginar el resultado catastrófico de un intercambio nuclear
soviético-estadounidense, llegó a la conclusión de que los poderes atómicos
deberían imponer fuertes barreras al uso precipitado de tales armas. Entre las
medidas que él y otros líderes mundiales adoptaron se encuentran las
directrices que requieren que los altos funcionarios, no solo el personal
militar, Tener un papel en cualquier decisión de lanzamiento nuclear.
Eso fue entonces, por supuesto, y esto es ahora. ¡Y qué ahora es! Con inteligencia
artificial, o AI, que pronto desempeñará un papel cada vez más importante en
los asuntos militares, como en casi todo lo demás en nuestras vidas, el papel
de los humanos, incluso en la toma de decisiones nucleares, Es probable que
disminuya progresivamente. De hecho, en algún futuro mundo saturado de IA,
podría desaparecer por completo, Dejando máquinas para determinar el destino de
la humanidad.
Esta no es una conjetura ociosa basada en películas de ciencia ficción o novelas
distópicas. Es demasiado real, todo aquí y ahora, o al menos aquí y pronto lo
será. Mientras el Pentágono y los comandos militares de las otras grandes
potencias miran hacia el futuro, lo que ven es un campo de batalla altamente
disputado. – Algunos lo han llamado un entorno de “hiper guerra”. – donde
vastos enjambres de armas robóticas guiadas por la IA lucharán entre sí a
velocidades muy superiores a la capacidad de los comandantes humanos para
seguir el curso de una batalla. En tal momento, se piensa, Los comandantes
podrían verse cada vez más obligados a confiar en máquinas cada vez más
inteligentes para tomar decisiones sobre qué armamento emplear, cuándo y dónde.
Primero, esto no puede extenderse a las armas nucleares, pero a medida que
aumenta la velocidad de la batalla y el “cortafuegos” entre ellos y el
armamento convencional se reduce, puede resultar imposible evitar la
automatización progresiva de incluso la toma de decisiones de lanzamiento nuclear.
Tal resultado solo puede ser más probable a medida que los militares de los Estados
Unidos completen una realineación de arriba a abajo con la intención de
transformarlo de una guerra fundamentalmente pequeña. La organización
antiterrorista vuelve a centrarse en el combate de igual a igual con China y
Rusia. Este cambio fue ordenado por el Departamento de Defensa en su Estrategia
de Seguridad Nacional de diciembre de 2017. En lugar de centrarse
principalmente en el armamento y las tácticas dirigidas a combatir a los
insurgentes mal armados en conflictos interminables en pequeña escala, El
ejército estadounidense ahora se está rediseñando para combatir a las fuerzas
rusas y chinas cada vez mejor equipadas en múltiples dimensiones. Compromisos
(aire, mar, tierra, espacio, ciberespacio) que involucran múltiples sistemas de
ataque (tanques, aviones, misiles, cohetes) operando con un mínimo de
supervisión humana.
“El principal efecto / resultado de todas estas capacidades será una guerra de
innovación nunca vista antes: la minimización de la toma de decisiones humanas
en la gran mayoría de los procesos tradicionalmente necesarios para librar la
guerra”. observó al general de marina retirado John Allen y al empresario de AI
Amir Hussain. “En esta próxima era de hiperguerra, veremos que los humanos
proporcionan una amplia entradas de alto nivel mientras que las máquinas hacen
la planificación, ejecución, y adaptarse a la realidad de la misión y asumir la
carga de miles de decisiones individuales sin aportaciones adicionales“.
Esa “minimización de la toma de decisiones humanas” tendrá profundas implicaciones
para el futuro del combate. Por lo general, los líderes nacionales buscan
controlar el ritmo y la dirección de la batalla para garantizar el mejor
resultado posible. incluso si eso significa detener la lucha para evitar
mayores pérdidas o prevenir desastres humanitarios. Es poco probable que las
máquinas, incluso las muy inteligentes, sean capaces de evaluar el contexto social
y político del combate, por lo tanto, activarlos podría llevar a situaciones de
escalada incontrolada.
Pueden pasar años, posiblemente décadas, antes de que las máquinas reemplacen a los
humanos en roles militares críticos de toma de decisiones, pero ese momento
está en el horizonte. Cuando se trata de controlar los sistemas de armas
habilitados para la IA, como el Secretario de Defensa Jim Mattis lo puso en una
entrevista reciente, “En el futuro cercano, habrá un elemento humano
significativo. Tal vez por 10 años, tal vez por 15. Pero no por 100”.
¿Por qué AI?
Incluso hace cinco años, eran pocos los militares que pensaban mucho en el papel de la
inteligencia artificial o la robótica cuando se trataba de operaciones de
combate importantes. Sí, aeronaves pilotadas a distancia (RPA), o drones, han
sido ampliamente utilizados en África y Gran Oriente Medio para cazar
combatientes enemigos, pero esas son operaciones en gran parte auxiliares (y a
veces de la CIA), destinado a aliviar la presión sobre los comandos
estadounidenses y las fuerzas aliadas que enfrentan bandas dispersas de
extremistas violentos. Además, las RPA de hoy todavía están controladas por
operadores humanos, incluso si se encuentran en ubicaciones remotas, y hasta
ahora no hace mucho uso de los sistemas de ataque e identificación de objetivos
impulsados por la IA. En el futuro, sin embargo, se espera que tales sistemas
pueblan gran parte de cualquier espacio de batalla, Reemplazando a los humanos
en muchas o incluso en la mayoría de las funciones de combate.
Para acelerar esta transformación, el Departamento de Defensa ya está gastando
cientos de millones de dólares en investigación relacionada con AI. “No podemos
esperar el éxito combatiendo los conflictos de mañana con el pensamiento de ayer,
“Armas o equipo”, dijo Mattis al Congreso en abril. Para asegurar la supremacía
militar continua, agregó, el Pentágono tendría que concentrarse más en
“invertir en innovación tecnológica para aumentar la letalidad, Incluyendo la
investigación en sistemas autónomos avanzados, Inteligencia artificial, e hipersónicos.
¿Por qué el repentino énfasis en la inteligencia artificial y la robótica? Comienza,
por supuesto, con el asombroso progreso realizado por la comunidad tecnológica.
– Gran parte de ella con sede en Silicon Valley, California – para mejorar la
IA y aplicarla a una multitud de funciones, incluida la identificación de
imágenes y el reconocimiento de voz. Una de esas aplicaciones, Alexa Voice
Services, es el sistema informático detrás del altavoz inteligente de Amazon
que no solo puede usar Internet para hacer su oferta sino también interpretar
sus comandos. (“Alexa, toca la música clásica”.”Alexa, dime el clima de hoy”.
“Alexa, enciende las luces”. Otro es el tipo de tecnología de vehículo de auto-conducción
que se espera revolucione el transporte.
La Inteligencia Artificial es una tecnología de “uso múltiple”, explicar los
analistas en el Servicio de Investigación del Congreso, una agencia de
información no partidista, “Como tiene el potencial de integrarse en
prácticamente todo”. También es una tecnología de “doble uso” en el sentido de
que se puede aplicar tanto a fines militares como civiles. Los autos autónomos,
por ejemplo, dependen de algoritmos especializados para procesar datos desde una
serie de sensores que monitorean las condiciones del tráfico y así decidir qué
rutas tomar, cuándo cambiar de carril, etc. La misma tecnología y las versiones
reconfiguradas de los mismos algoritmos se aplicarán algún día a los tanques
automáticos que se desatarán en los campos de batalla futuros. Del mismo modo,
algún día aviones no tripulados – sin operadores humanos en lugares distantes –
será capaz de recorrer un campo de batalla en busca de objetivos designados
(tanques, sistemas de radar, combatientes), determinar que algo que “ve” está
de hecho en su lista de objetivos, y “decidir” lanzar un misil hacia él.
No hace falta un cerebro especialmente ágil para darse cuenta de por qué los
funcionarios del Pentágono buscarían aprovechar esa tecnología: piensan que les
dará una ventaja significativa en las guerras futuras. Cualquier conflicto a
gran escala entre los Estados Unidos y China o Rusia (o ambos), Por lo menos,
sé extraordinariamente violento. posiblemente con cientos de buques de guerra y
muchos miles de aviones y vehículos blindados, todos enfocados en espacios de
batalla densamente llenos. En tal entorno, la velocidad en la toma de
decisiones, el despliegue, y el compromiso, sin duda, será un activo crítico.
Dado el futuro armamento súper inteligente y guiado de precisión, quien dispare
primero tendrá una mejor oportunidad de éxito, O incluso la supervivencia, que
un adversario de fuego lento. Los seres humanos pueden moverse rápidamente en
tales situaciones cuando se les obliga a hacerlo, pero las máquinas futuras
actuarán mucho más rápidamente, al mismo tiempo que seguirán el registro de más
variables del campo de batalla.
Como el general Paul Selva, vicepresidente del Estado Mayor Conjunto, dijo al
Congreso en 2017:
“Es muy convincente cuando uno mira las capacidades que la inteligencia artificial
puede aportar a la velocidad y precisión del comando y control y las
capacidades que la robótica avanzada puede aportar a un espacio de batalla
complejo”. particularmente la interacción máquina a máquina en el espacio y el
ciberespacio, donde la velocidad es esencial“.
Además de tratar de explotar la IA en el desarrollo de su propio armamento, los
oficiales militares de los Estados Unidos son muy conscientes de que sus
principales adversarios también están avanzando en el armamentismo de la IA y
la robótica, buscando nuevas formas de superar las ventajas de Estados Unidos
en armamento convencional. Según el Servicio de Investigación del Congreso, por
ejemplo, China está invirtiendo fuertemente en el desarrollo de la inteligencia
artificial y su aplicación a fines militares. Aunque carece de la base
tecnológica de China o Estados Unidos, Rusia también está apresurando el
desarrollo de la inteligencia artificial y la robótica. Cualquier líder
chino o ruso significativo en tales tecnologías emergentes que podrían amenazar
la superioridad militar de este país sería intolerable para el Pentágono.
No en vano, a la manera de pasadas carreras de armamentos. (desde el desarrollo de
acorazados antes de la Primera Guerra Mundial hasta el armamento nuclear de la
Guerra Fría), una “carrera de armamentos en la IA” está en marcha, con los
Estados Unidos, China, Rusia y otras naciones (incluidos Gran Bretaña, Israel y
Corea del Sur) que buscan obtener una ventaja crítica en el armamentismo de la
inteligencia artificial y la robótica. Los funcionarios del Pentágono citan
regularmente los avances chinos en IA cuando buscan fondos del Congreso para
sus proyectos, Al igual que los oficiales militares chinos y rusos, sin duda, citan
a los estadounidenses para financiar sus propios proyectos favoritos. En la
verdadera moda armamentista, esta dinámica ya está acelerando el ritmo de
desarrollo y despliegue de los sistemas habilitados para AI y asegurando su
prominencia futura en la guerra.
Comando y control
A medida que se desarrolle esta carrera de armamentos, la inteligencia artificial
se aplicará a todos los aspectos de la guerra, Desde la logística y la
vigilancia hasta la identificación de objetivos y la gestión de batallas.
Los vehículos robóticos acompañarán a las tropas en el campo de batalla,
transportando suministros y disparando en posiciones enemigas; Enjambres de
drones armados atacarán tanques, radares y centros de comando enemigos; Los
vehículos submarinos no tripulados, o UUV, perseguirán tanto a los submarinos
enemigos como a las naves de superficie. Al comienzo del combate, todos estos
instrumentos de guerra, sin duda, serán controlados por los humanos. Sin
embargo, a medida que se intensifican los combates, las comunicaciones entre la
sede y las líneas del frente pueden perderse y tales sistemas se De acuerdo con
los escenarios militares que ya se han escrito, estar solos, facultado para
tomar acción letal sin más intervención humana.
La mayor parte del debate sobre la aplicación de la inteligencia artificial y su
futura autonomía en el campo de batalla se ha centrado en la moralidad de
habilitar armas totalmente autónomas. – a veces llamados “robots asesinos” –
con la capacidad de tomar decisiones de vida o muerte por su cuenta, o sobre si
el uso de tales sistemas violaría las leyes de guerra y el derecho
internacional humanitario. Tales estatutos requieren que los creadores de la
guerra puedan distinguir entre combatientes y civiles en el campo de batalla y
evitar que estos últimos sufran daños en la mayor medida posible. Los
defensores de la nueva tecnología afirman que las máquinas se volverán lo
suficientemente inteligentes como para resolver tales distinciones por sí
mismas, mientras que los oponentes insisten en que nunca serán capaces de
hacer distinciones críticas de ese tipo en el fragor de la batalla y no podrían
mostrar compasión cuando sea apropiado. Varias organizaciones humanitarias y de
derechos humanos incluso han lanzado la Campaña para detener a los robots
asesinos con el objetivo de adoptar una prohibición internacional sobre el
desarrollo y despliegue de sistemas de armas totalmente autónomos.
Mientras tanto, está surgiendo un debate quizás aún más importante en el ámbito militar
sobre la aplicación de la IA a los sistemas de comando y control (C2) – Es
decir, a la manera en que los oficiales superiores comunicarán órdenes clave a
sus tropas. Los generales y los almirantes siempre buscan maximizar la
confiabilidad de los sistemas C2 para garantizar que sus intenciones
estratégicas se cumplan de la manera más completa posible. En la era actual,
tales sistemas dependen en gran medida de sistemas seguros de comunicaciones
por radio y satélite que se extienden desde las oficinas centrales hasta las
líneas del frente. Sin embargo, a los estrategas les preocupa que, en un futuro
entorno de hiper-guerra, tales sistemas podrían ser bloqueados o degradados al
igual que la velocidad de la lucha comienza a exceder la capacidad de los
comandantes para recibir informes del campo de batalla, Procesar los datos, y
despachar los pedidos oportunamente. Considera esta definición funcional de la
infame niebla de la guerra multiplicada por la inteligencia artificial. – Con
la derrota un resultado probable. La respuesta a tal dilema para muchos
oficiales militares: Deje que las máquinas también se hagan cargo de estos
sistemas. Como lo señala un informe del Servicio de Investigación del Congreso,
en el futuro “los algoritmos de inteligencia artificial pueden proporcionar a los
comandantes cursos de acción viables basados en el análisis en tiempo real
del espacio de batalla, lo que permitiría una adaptación más rápida a los
eventos en desarrollo“.
Y algún día, por supuesto, es posible imaginar que las mentes detrás de tal toma
de decisiones dejarán de ser humanas. Los datos entrantes de los sistemas de
información del campo de batalla se canalizarán a procesadores de inteligencia
artificial enfocados en evaluar amenazas inminentes y, Dadas las limitaciones
de tiempo involucradas, ejecutando lo que consideraron las mejores opciones sin
instrucciones humanas.
Los funcionarios del Pentágono niegan que nada de esto sea la intención de su
investigación relacionada con la IA. Sin embargo, reconocen que al menos pueden
imaginar un futuro en el que otros países delegan la toma de decisiones en las
máquinas y los Estados Unidos no tienen más remedio que seguir el ejemplo. Para
que no pierda el terreno estratégico. “No delegaremos autoridad letal para que
una máquina tome una decisión” El entonces subsecretario de Defensa, Robert
Work, le dijo a Paul Scharre, del Center for a New American Security, en una
entrevista de 2016. Pero añadió la advertencia habitual: en el futuro,
“Podríamos enfrentarnos a un competidor que está más dispuesto a delegar
autoridad a las máquinas que nosotros y a medida que se desarrolla esa
competencia, Tendremos que tomar decisiones sobre cómo competir“.
La decisión del día del juicio final
El supuesto en la mayoría de estos escenarios es que los EE. UU. Y sus aliados
participarán en una guerra convencional con China y / o Rusia. Tenga en cuenta,
entonces, que la naturaleza misma de tal hiperguerra futura impulsada por la IA
solo aumentará el riesgo de que los conflictos convencionales puedan cruzar un
umbral que nunca se ha cruzado antes: Una guerra nuclear real entre dos estados
nucleares. Y si eso sucede, esos sistemas C2 empoderados por la IA podrían,
Tarde o temprano, se encuentran en una posición para lanzar armas atómicas.
Tal peligro surge de la convergencia de múltiples avances en la tecnología: no solo
inteligencia artificial y robótica, pero el desarrollo de capacidades de ataque
convencionales como misiles hipersónicos capaces de volar a cinco o más veces
la velocidad del sonido, cañones de rieles electromagnéticos y láseres de alta
energía. Dichas armas, aunque no son nucleares, cuando se combinan con los
sistemas de vigilancia de AI y de identificación de objetivos, Incluso podría
atacar las armas de represalia móviles de un enemigo y amenazar con eliminar su
capacidad para lanzar una respuesta a cualquier ataque nuclear. Dado tal
escenario de “usarlos o perderlos”, cualquier poder podría estar inclinado a no
esperar sino a lanzar sus armas nucleares a la primera señal de un posible
ataque, o incluso, por temor a perder el control en un compromiso incierto y
acelerado, Delegar autoridad de lanzamiento a sus máquinas. Y una vez que esto
ocurrió, podría resultar casi imposible evitar una mayor escalada.
Entonces surge la pregunta: ¿Las máquinas tomarían mejores decisiones que los humanos en
tal situación? Ciertamente, son capaces de procesar grandes cantidades de
información durante breves períodos de tiempo y sopesar los pros y los contras
de las acciones alternativas de una manera totalmente impasible. Pero las
máquinas también cometen errores militares y, sobre todo, carecen de la
capacidad de reflexionar sobre una situación y concluir: Detén esta locura.
Ninguna ventaja de batalla vale la aniquilación humana global.
Como Paul Scharre lo puso en Army of None, un nuevo libro sobre inteligencia
artificial y guerra, “Los seres humanos no son perfectos, pero pueden empatizar
con sus oponentes y ver el panorama general. A diferencia de los humanos, las
armas autónomas no tendrían la capacidad de comprender las consecuencias de sus
acciones, No hay capacidad para alejarse del borde de la guerra“.
Así que tal vez deberíamos pensar dos veces antes de darle a alguna versión
militarizada futura de Alexa el poder de lanzar un Armageddon hecho a máquina.
Michael T. Klare, un miembro habitual de TomDispatch, es el catedrático emérito de
cinco estudios universitarios de paz y seguridad mundial en el Hampshire
College y un miembro visitante de la Asociación de Control de Armas. Su libro
más reciente es La carrera por lo que queda. Su próximo libro, All Hell
Breaking Loose: Climate Change, Global Chaos, and American National Security,
se publicará en 2019.
Copyright 2018 Michael T. Klare
Fuente: https://kenzocaspi.wordpress.com/2018/12/21/tomgram-michael-klare-la-llegada-de-la-hiper-guerra/
¡Hazte voluntario para traducir al español otros artículos como este! manda un correo electrónico a espagnol@worldcantwait.net y escribe "voluntario para traducción" en la línea de memo.
E-mail:
espagnol@worldcantwait.net
|