Nuevo informe revela los peligros de la tecnología militar emergente
"Si bien los medios de comunicación y el Congreso de los EE. UU. han prestado mucha atención a los supuestos beneficios de explotar tecnologías de vanguardia para uso militar, se ha dicho mucho menos sobre los riesgos involucrados".
Las tecnologías emergentes, incluida la inteligencia artificial, los sistemas de armas autónomos letales y los misiles hipersónicos, representan una amenaza potencialmente existencial que subraya el imperativo de las medidas de control de armas para reducir el ritmo de la militarización, según un nuevo informe publicado el martes.
El informe de la Asociación de Control de Armas, titulado Evaluación de los peligros: tecnologías militares emergentes y (in)estabilidad nuclear, desarrolla el concepto de 'tecnologías emergentes' y resume el debate sobre su utilización con fines militares y su impacto en la estabilidad estratégica".
La publicación señala que las potencias militares del mundo "han buscado explotar tecnologías avanzadas (inteligencia artificial, autonomía, cibernética e hipersónica, entre otras) para obtener ventajas en el campo de batalla", pero advierte que se ha dicho muy poco sobre los peligros que representan estas armas.
“Algunos funcionarios y analistas postulan que tales tecnologías emergentes revolucionarán la guerra, haciendo obsoletas las armas y estrategias del pasado”, afirma el informe. "Sin embargo, antes de que las principales potencias avancen rápidamente con el uso de armas de estas tecnologías, existe una gran necesidad de que los legisladores, funcionarios de defensa, diplomáticos, periodistas, educadores y miembros del público comprendan mejor los resultados no deseados y peligrosos de estas tecnologías."
Los sistemas de armas autónomos letales, definidos por la Campaña para detener a los robots asesinos como armamentos que operan independientemente del "control humano significativo", están siendo desarrollados por naciones como China, Israel, Rusia, Corea del Sur, el Reino Unido y los Estados Unidos.
El Sistema de Control Autónomo Skyborg de la Fuerza Aérea de EE. UU. que suena a ciencia ficción, actualmente en desarrollo, está, según el informe, "destinado a controlar múltiples aviones no tripulados simultáneamente y permitirles operar en 'enjambres', coordinando sus acciones entre sí con supervisión mínima por parte de pilotos humanos".
"Aunque el rápido despliegue de tales sistemas parece muy deseable para muchos oficiales militares, su desarrollo ha generado una alarma considerable entre diplomáticos, defensores de los derechos humanos, defensores del control de armas y otros que temen que el despliegue de armas completamente autónomas en la batalla reduciría severamente la supervisión humana de operaciones de combate, lo que posiblemente resulte en violaciones del derecho internacional, y podría debilitar las barreras que restringen la escalada de la guerra convencional a la nuclear”, señala el informe.
La segunda mitad del siglo XX fue testigo de numerosos ataques nucleares, muchas basadas en malas interpretaciones, limitaciones o fallas absolutas de la tecnología. Si bien las tecnologías como la inteligencia artificial (IA) a menudo se promocionan como inmunes a la falibilidad humana, la investigación sugiere que tales afirmaciones y arrogancia podrían tener consecuencias mortales e imprevistas.
"Una mayor dependencia de la IA podría conducir a nuevos tipos de errores catastróficos", advirtió un informe de 2018 de Rand Corporation. "Puede haber presión para usarlo antes de que sea tecnológicamente maduro; puede ser susceptible a la subversión adversaria; o los adversarios pueden creer que la IA es más capaz de lo que es, lo que los lleva a cometer errores catastróficos".
Si bien el Pentágono en 2020 adoptó cinco principios para lo que llama el uso "ético" de la IA, muchos especialistas en ética argumentan que el único curso de acción seguro es una prohibición total de los sistemas de armas autónomas letales.
Los misiles hipersónicos, que pueden viajar a velocidades de Mach 5, cinco veces la velocidad del sonido, o más rápido, ahora son parte de al menos los arsenales de EE. UU., China y Rusia. En los últimos años, China ha probado múltiples variantes de misiles hipersónicos utilizando globos de gran altitud especialmente diseñados. Países como Australia, Francia, India, Japón, Alemania, Irán y Corea del Norte también están desarrollando armas hipersónicas.
El informe también advierte sobre el potencial de escalada de la guerra cibernética y la toma de decisiones automatizada en el campo de batalla.
"Como fue el caso durante la Primera y la Segunda Guerra Mundial, las principales potencias se apresuran a convertir las tecnologías avanzadas en armas antes de haber considerado completamente, y mucho menos intentar mitigar, las consecuencias de hacerlo, incluido el riesgo de importantes bajas civiles" dijo en un comunicado Michael Klare, miembro de la junta de la Asociación de Control de Armas y autor principal del informe.
"Si bien los medios de comunicación y el Congreso de los EE. UU. han prestado mucha atención a los supuestos beneficios de explotar tecnologías de vanguardia para uso militar, se ha dicho mucho menos sobre los riesgos involucrados", agregó.
El informe afirma que los acuerdos bilaterales y multilaterales entre países que "aprecian los crecientes riesgos que plantea la militarización de las tecnologías emergentes" son fundamentales para minimizar esos peligros.
"Como ejemplo de un primer paso útil, los líderes de las principales potencias nucleares podrían comprometerse conjuntamente a evitar los ataques cibernéticos" contra los sistemas de comando, control, comunicaciones e información (C3I) de los demás, afirma el informe. También se recomienda un código de conducta que rija el uso militar de la inteligencia artificial basado en los principios éticos de IA del Pentágono.
“Si las principales potencias están preparadas para discutir restricciones vinculantes sobre el uso militar de tecnologías desestabilizadoras, ciertas prioridades tienen prioridad”, argumenta el documento. "El primero sería un acuerdo o acuerdos que prohíban los ataques a los sistemas nucleares C3I de otro estado por medios del ciberespacio o mediante ataques con misiles, especialmente ataques hipersónicos".
“Otra máxima prioridad serían las medidas destinadas a prevenir ataques de enjambres con armas autónomas en submarinos de misiles, misiles balísticos intercontinentales móviles y otros sistemas de represalia de otro estado”, continúa el informe, refiriéndose a los misiles balísticos intercontinentales. "Se deben imponer limitaciones estrictas al uso de sistemas automatizados de soporte de decisiones con la capacidad de informar o iniciar decisiones importantes en el campo de batalla, incluido el requisito de que los humanos ejerzan el control final sobre dichos dispositivos".
“Sin la adopción de medidas como estas, las tecnologías de punta se convertirán en sistemas militares a un ritmo cada vez mayor y los peligros para la seguridad mundial crecerán a un ritmo acelerado”, concluyó la publicación. "Una comprensión más profunda de las amenazas distintivas a la estabilidad estratégica que plantean estas tecnologías y la imposición de restricciones a su uso militar contribuiría en gran medida a reducir los riesgos de Armagedón".