Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

domingo, 29 de septiembre de 2024

Munición merodeadora basada en drones Elbit Systems LANIUS con IA

Elbit Systems LANIUS drone-based loitering munition





El LANIUS, desarrollado por Elbit Systems, es un dron militar de vanguardia diseñado para revolucionar el combate en entornos urbanos. A simple vista, parece un dron más, pero su capacidad lo convierte en una "munición merodeadora" única: puede volar por un área en busca de su objetivo y atacarlo con precisión letal. Este pequeño pero poderoso dispositivo se desplaza con agilidad por calles estrechas y dentro de edificios, lo que lo hace ideal para operaciones en lugares donde las armas convencionales no pueden llegar.

Lo más impresionante del LANIUS es su inteligencia artificial. Este dron es capaz de tomar decisiones rápidas y, gracias a sus avanzados sistemas, puede identificar y diferenciar entre combatientes y civiles, reduciendo el riesgo de daños colaterales. Aunque tiene autonomía para operar, un operador humano siempre está a cargo del último paso: decidir si atacar o no.

Pero LANIUS no solo actúa en solitario. Puede trabajar en enjambres, es decir, en grupos de drones que coordinan sus movimientos para llevar a cabo misiones complejas, como atacar varios objetivos a la vez o asegurar áreas específicas. Ya sea para realizar ataques precisos, recopilar información vital o apoyar a las tropas en tierra, este dron está diseñado para ser una herramienta versátil y mortal.

En un mundo donde el combate en ciudades se vuelve cada vez más común, LANIUS representa el futuro de la guerra: rápido, preciso y capaz de adaptarse a los desafíos del campo de batalla moderno.


El LANIUS de Elbit Systems es una munición merodeadora basada en drones, desarrollada por la empresa israelí Elbit Systems, que está diseñada para mejorar la capacidad de las fuerzas militares en combate urbano y situaciones de combate a corta distancia. A continuación, se explica en detalle:

1. Munición merodeadora basada en drones

  • El LANIUS es lo que se conoce como una munición merodeadora, un tipo de armamento que puede "merodear" o permanecer en el aire durante un tiempo, mientras busca un objetivo para atacar.
  • Funciona como un dron suicida pequeño, lo que significa que tiene la capacidad de identificar, seguir y atacar un objetivo de manera precisa, y luego se destruye en el proceso.


2. Enfoque en el combate urbano

  • Este dron está diseñado específicamente para ser utilizado en entornos urbanos, donde la precisión y la capacidad de obtener información en tiempo real son extremadamente importantes.
  • Puede navegar por terrenos complejos, como edificios o calles estrechas, que suelen ser difíciles de manejar para drones o armas más grandes.


3. Capacidades impulsadas por inteligencia artificial

  • El LANIUS utiliza inteligencia artificial (IA) para identificar y atacar objetivos.
  • Es capaz de mapear su entorno de manera autónoma, es decir, por sí mismo, identificar amenazas y diferenciar entre combatientes (enemigos) y no combatientes (civiles), lo que ayuda a reducir el daño colateral (daños a personas o cosas no involucradas en el conflicto).


4. Alta maniobrabilidad

  • El dron es muy ágil y liviano, lo que le permite operar en espacios confinados, como dentro de edificios o entre calles estrechas.
  • Puede buscar un área rápidamente, lo que lo hace útil tanto para reconocimiento (recopilación de información) como para ataques tácticos en zonas densamente pobladas o complejas.

5. Cargas útiles modulares

  • El LANIUS está equipado con diferentes tipos de cargas útiles, que son los componentes que lleva el dron para cumplir su misión. Esto incluye desde cargas letales (explosivos para atacar al enemigo) hasta sistemas no letales para recoger información.

6. Control humano en la toma de decisiones

  • Aunque el LANIUS puede funcionar de manera autónoma, siempre hay un operador humano que tiene el control final sobre la decisión de atacar, lo que garantiza que se cumplan las normas de combate y los requisitos legales.

7. Capacidad de operar en enjambre

  • El LANIUS puede funcionar solo o en grupo, en lo que se conoce como formaciones en enjambre, donde varios drones trabajan juntos de manera coordinada para llevar a cabo misiones más complejas, como bloquear áreas o atacar múltiples objetivos al mismo tiempo.

8. Flexibilidad de misión

  • Este dron puede adaptarse a diferentes tipos de misiones, como buscar y destruir objetivos, reconocimiento y vigilancia (recolección de información), o adquisición de objetivos (identificación precisa de un objetivo) en áreas donde los drones más grandes o los aviones serían menos efectivos.

9. Integración con otros sistemas

  • El LANIUS puede integrarse con otros sistemas militares, como fuerzas terrestres o más drones, lo que mejora la capacidad de coordinarse dentro de una red de combate más grande y compleja.

En resumen, el LANIUS de Elbit Systems es un avance significativo en el uso de drones pequeños, impulsados por inteligencia artificial, para las operaciones militares modernas, especialmente en combates en entornos urbanos. Se destaca por su precisión, capacidad autónoma y la habilidad de adaptarse rápidamente a las situaciones dinámicas en estos entornos complejos.





miércoles, 13 de diciembre de 2023

Los problemas del desarrollo y uso de los robots en combate

Problemas del desarrollo y uso de robots de combate en la guerra moderna.

Por Nhan Vu


 

VietnamDefence - ¿Por qué el ejército apoya la creación de robots asesinos?


A finales de agosto de 2018, la próxima reunión del Grupo de Expertos Gubernamentales de la ONU sobre sistemas de combate autónomos (robots de combate) en Ginebra terminó casi sin resultados. Se esperaba que los expertos tuvieran la tarea de determinar el estatus legal de tales sistemas y luego pudieran hablar sobre la regulación o la prohibición total de su uso. La última misión no fue asignada. Inmediatamente después, Estados Unidos anunció una hoja de ruta para el desarrollo de robots de combate, incluidos planes para aumentar su nivel de independencia mediante el uso de tecnología de redes neuronales. Mientras los opositores y partidarios de los sistemas de combate autónomos discuten entre sí, descubriremos por qué los militares consideran que el desarrollo de robots asesinos es una tarea importante y qué papel deberían desempeñar en guerras futuras.

Los peligros de luchar contra robots

Los sistemas de combate autónomos en diversas formas existen desde hace mucho tiempo. Por ejemplo, los barcos estadounidenses y británicos desde la década de 1970 han sido equipados con sistemas de artillería Phalanx capaces de detectar de forma independiente objetivos voladores y de superficie y dispararles. La participación del operador es simplemente establecer los criterios que los tipos de objetivos deben cumplir para que el sistema considere posible disparar. Desde 2007, el ejército ruso ha estado equipado con sistemas de misiles de defensa aérea S-400 Triumf que pueden detectar objetivos voladores en modo totalmente automático, clasificarlos y determinar su prioridad y luego lanzar misiles contra ellos. El sistema de defensa antimisiles Iron Dome, que entró en servicio en 2011, también puede funcionar en modo automático. Además, este sistema es capaz incluso de separar objetivos potencialmente peligrosos de objetivos no peligrosos: si se espera que el misil objetivo caiga sobre un terreno despoblado, el sistema no interceptará ese misil.

Sin embargo, no fue hasta 2013 que la gente empezó a considerar la legalidad del uso de robots de combate en conflictos militares. En ese momento, el Consejo de Derechos Humanos de la ONU planteó la cuestión de las posibles amenazas a la salud y la vida humana en condiciones de guerra mediante el uso de robots asesinos. Lo que aún no está claro es cómo afectará el desarrollo de sistemas autónomos a la seguridad internacional. Al final, 26 países se pronunciaron a favor de una prohibición total de los robots de combate. Según los expertos de estos países, la ausencia de una prohibición podría conducir al surgimiento de una tiranía de la alta tecnología y a un aumento significativo de las pérdidas civiles en los conflictos militares.

Los argumentos que consideran insuperables se pueden exponer brevemente de la siguiente manera.

La existencia de robots de combate viola las disposiciones de los Convenios de Ginebra sobre la protección de los derechos civiles de la población en zonas de conflicto militar, especialmente los principios de distinción y proporcionalidad.
El principio de distinción requiere una distinción obligatoria y clara entre combatientes (aquellos que participan directamente en el combate) y no combatientes (civiles, así como soldados) y contratistas que no participan en el combate y tienen derecho a utilizar armas sólo para sí mismos. -defensa; por ejemplo, personal de servicio).

El principio de proporcionalidad permite pérdidas entre no combatientes, pero sólo si esas pérdidas son menores que las pérdidas entre combatientes. En pocas palabras, el principio de proporcionalidad prohíbe causar daños excesivos a los civiles.

Además, el uso activo de robots asesinos, según muchos expertos, elimina la responsabilidad directa de los comandantes por determinadas acciones. En concreto, no se sabe quién será el responsable en caso de un mal funcionamiento en el software del robot que provoque que éste mate a civiles: ¿el comandante en el campo de batalla o la empresa fabricante, el experto en programación o el ingeniero, profesor concreto? Quienes se oponen a los robots de combate creen que nadie será responsable. Además, el comandante envía a los robots a una misión con una orden deliberada de matar a todos, lo que luego puede confirmar que la matanza masiva se produjo debido a un mal funcionamiento en el software del robot.

En última instancia, se argumenta, el uso generalizado de robots de combate conducirá a la devaluación de la vida humana porque en guerras futuras, los humanos serán poco más que desventajas en una pantalla.
 
Sistema de artillería Phalanx en la cubierta de un barco de la Armada de los EE. UU. (US Navy)

Problemas legales

Las opiniones de quienes se oponen a los sistemas de combate autónomos no están fundamentalmente exentas de defectos (al igual que las opiniones de quienes apoyan dichos sistemas). En concreto, el principio de distinción se puede cumplir añadiendo al software de los robots armados una condición obligatoria: el oponente potencial debe ser el que dispare primero (si una persona dispara a los robots significa que esa persona participa en el combate). . La persona culpable del uso ilegal de robots de combate será determinada mediante registros en la memoria de los propios robots.

Sin embargo, es imposible prohibir o limitar los robots asesinos a nivel internacional, aunque sólo sea porque a día de hoy ni siquiera existe una definición universalmente aceptada de la autonomía de los sistemas de combate. Algunos consideran que un robot capaz de utilizar armas sin la intervención de un operador es autónomo, otros, como el Ministerio de Defensa británico, consideran la capacidad de un robot para tomar decisiones independientes: elegir entre varias opciones (incluido el uso de armas) basándose en muchas factores externos, tanto con supervisión del operador como sin dicha supervisión, es autónomo.

Del 27 al 31 de agosto de 2018, tuvo lugar en Ginebra la próxima reunión del Grupo de Expertos Gubernamentales de la ONU sobre sistemas de combate autónomos (las dos reuniones anteriores tuvieron lugar en diciembre de 2017 y abril de 2018). Se calculaba que, tras esta reunión, el grupo de expertos tendría derecho a elaborar un anteproyecto de normas para el uso de robots de combate en combate, pero para ello era necesario un consenso que no se pudo lograr.


Varios países, incluidos Estados Unidos, Rusia, Australia, Israel y Corea del Sur, han declarado que no debería imponerse una prohibición total del uso de robots de combate autónomos. Además, los diplomáticos rusos afirman que actualmente no existen robots de combate, por lo que imponerles una prohibición preventiva no tiene sentido. Durante la reunión, Rusia, Estados Unidos, Francia y Alemania propusieron una declaración política en la que los países participantes en la reunión darían garantías de que los humanos siempre tendrán control sobre las acciones de los robots asesinos.

Al final de la reunión, las partes sólo acordaron que el desarrollo de sistemas de combate que apliquen inteligencia artificial debe realizarse de acuerdo con el derecho internacional humanitario (una síntesis de reglas, prácticas, estándares y principios que limitan los métodos y medios de hacer la guerra). y proteger a combatientes y civiles), mientras que la responsabilidad por el uso de robots asesinos recae en cualquier caso en las personas que tienen que sufrir.

¿Para qué se necesitan los robots de combate?

Durante muchos años, los círculos militares de muchos países han citado muchas razones para justificar la necesidad de sistemas de combate autónomos en las fuerzas armadas. Entre estas razones se encuentran mejorar la precisión de los ataques en los campos de batalla enemigos, reducir el daño colateral (mayor daño y pérdida de vidas al destruir el objetivo principal) y ahorrar dinero en la política de defensa y muchas otras razones. Sin embargo, cuatro factores principales influyeron decisivamente en el desarrollo de la tecnología robótica militar: el deseo de reducir la pérdida de mano de obra en el bando, la creciente complejidad de los conflictos armados, la carrera armamentista y la reposición del ejército.

Todas las demás razones que justifican el desarrollo de robots asesinos (se mencionan directamente los sistemas armados y autónomos; las cuestiones de desarrollo y los sistemas no armados, incluido el sistema de reconocimiento más amplio) pueden tener sólo una influencia indirecta en el desarrollo de los sistemas de combate autónomos.

Reducir las pérdidas de los propios soldados en los conflictos armados es uno de los objetivos más obvios porque permite mantener el equilibrio numérico con el oponente o crear superioridad numérica sobre el oponente. Menos pérdidas también ayudan a reducir los costos militares, desde pagos de pólizas de seguro hasta pagos por organizar operaciones de rescate, evacuaciones y entierro de restos de soldados muertos. Además, entrenar soldados profesionales es bastante caro y lleva mucho tiempo, por lo que la pérdida de soldados en conflictos armados provoca pérdidas extremadamente grandes.

Los Ministerios de Defensa de algunos países, incluidos EE.UU. y Rusia, creen que el uso de robots de combate permitirá completar misiones de combate complejas más rápido y con un riesgo mínimo para la vida de los soldados, incluido el combate en entornos urbanos densos o intensas actividades de caza y francotiradores.

Se espera que para 2050 más del 80% de la población mundial viva en ciudades, lo que significa que los conflictos armados se producirán precisamente en condiciones urbanas. Practicar combate en áreas urbanas es mucho más complicado que en terreno abierto, por ejemplo, porque las unidades acechan en peligro literalmente desde todas las direcciones, incluso desde el subsuelo (sistemas de alcantarillado o metros) y desde arriba (desde ventanas de gran altura). . En la ciudad, incluso una operación pequeña y aparentemente sencilla podría convertirse fácilmente en una masacre sangrienta.

El uso en condiciones urbanas de diferentes tipos de robots de combate, desde pequeños vehículos aéreos no tripulados (UAV) multirrotor armados hasta sistemas terrestres de gran movilidad, simplifica en gran medida la planificación y ejecución de operaciones militares, en las que se utilizan las mismas máquinas. De hecho, eran a la vez exploradores, saboteadores y fuerzas de asalto.


La carrera armamentista es otra razón citada por los militares para abogar por sistemas de combate autónomos. El problema es que el progreso militar está conduciendo gradualmente a la creación de armas y armas técnicas cada vez mejores. Por ejemplo, los países líderes del mundo están investigando el desarrollo de armas hipersónicas capaces de atravesar los sistemas de defensa antimisiles enemigos. Para interceptar misiles hipersónicos será necesario desarrollar nuevos sistemas autónomos de defensa antimisiles que apliquen inteligencia artificial, capaces de detectar, clasificar y disparar de forma independiente objetivos balísticos y proyectiles lanzados desde el aire y objetivos aerodinámicos. Debido a la altísima velocidad de estos objetivos, las personas que forman parte de las tripulaciones de combate de los sistemas de defensa antimisiles simplemente no tendrán tiempo para analizar la situación aérea, tomar decisiones y dar órdenes.

Finalmente, los ejércitos de algunos países han enfrentado reducciones graduales en el número de tropas debido a razones demográficas o económicas. Por ejemplo, debido a la disminución de la tasa de natalidad, el número de soldados en el ejército coreano también está disminuyendo, por lo que algunas unidades actualmente no cuentan con todo el personal. En la Fuerza Aérea de EE. UU. hay escasez de controladores de vehículos aéreos no tripulados y pilotos de combate.

Se espera que el desarrollo de robots de combate completamente independientes permita resolver las dificultades en el reclutamiento de tropas para el ejército. Por ejemplo, según la evaluación del Ministerio de Defensa de Corea, el uso de torretas autopropulsadas en los cañones autopropulsados ​​K9 Thunder permitirá reemplazar a 2.000 soldados. Estados Unidos cree que la creación de vehículos aéreos no tripulados de ataque ayudará a superar la falta de operadores humanos, ya que gracias al alto nivel de autonomía de los aviones no tripulados, una persona podrá controlar al mismo tiempo algunos vehículos aéreos no tripulados.

Los políticos todavía están discutiendo

Actualmente, las empresas de la industria de defensa rusa están desarrollando las familias de robots de combate Uran, Nerekhta y Soratnik, que se espera que se utilicen para proporcionar potencia de fuego a la infantería, proteger objetivos militares e infraestructura clave y realizar reconocimientos, ataques con potencia de fuego y atravesar las barreras del enemigo. defensa. Estados Unidos está investigando la creación del UAV XQ-58A Valkyrie para que sirva como vehículo de vuelo guiado en escuadrones de cazas. Estos vehículos aéreos no tripulados podrán realizar misiones de reconocimiento, cubrir y proteger a los pilotos de combate, realizar combates aéreos móviles o proporcionar apoyo aéreo de fuego a unidades terrestres.

Corea está investigando la creación de robots de reconocimiento y combate que operen en el aire, en tierra, en el agua y bajo el agua. Permitirán compensar la falta de reclutamiento para el ejército. China también está desarrollando tanques robóticos que reducirán las pérdidas en feroces batallas de tanques. En los próximos años, Israel planea aceptar en servicio robots de combate microscópicos utilizados para destruir a los líderes de Hezbollah y los militantes de HAMAS.


Los medios éticos y legales de tales proyectos de desarrollo requieren una discusión cuidadosa. ¿Es posible darle a los robots el derecho de matar personas? ¿Es aceptable sustituir a los humanos capaces de sentir situaciones por máquinas de ejecución sin emociones? ¿Dónde está la línea divisoria entre los desarrollos de robots autónomos civiles y militares cuando se basan en las mismas tecnologías? ¿Es correcto retirar a los soldados del campo de batalla y colocarlos detrás de consolas en cómodas sillas a miles de kilómetros de las zonas de combate?

Los robots asesinos aún no forman parte de la guerra moderna, pero es necesario preparar la base legal para la aplicación de tales sistemas ahora porque el progreso se está produciendo muy rápidamente. Tanto Estados Unidos como Rusia y algunos otros países afirman que no son hostiles a la creación de sistemas de combate completamente independientes. Sin embargo, Estados Unidos todavía dice que planea convertir los robots asesinos en un modo totalmente autónomo en respuesta al surgimiento de robots de combate autónomos provenientes de regímenes autoritarios.

Fuente: N+1, 5 de septiembre de 2018.

martes, 9 de mayo de 2023

IA: Control de armas por inteligencia artificial

Control de Armas por Inteligencia Artificial

Megan Lamberth and Paul Scharre || Texas National Security Review





A medida que la IA continúa avanzando, algunos han expresado su preocupación por los peligros de los sistemas de armas habilitados para la IA. Esto plantea la cuestión de cuán factible será controlar el uso militar de la IA. Megan Lamberth y Paul Scharre analizan una serie de características que hacen que la IA sea difícil de controlar y presentan algunos pasos concretos que podrían tomarse hoy para aumentar la probabilidad de que los futuros regímenes de control de armas de la IA tengan éxito.




Los militares de todo el mundo están trabajando en la mejor manera de desarrollar, integrar y utilizar la IA en sus sistemas de armas. Si bien muchos de estos sistemas aún no se han realizado, los avances en IA podrían tener un impacto significativo en la forma en que operan los militares con el tiempo. La preocupación por los sistemas militares de IA ha llevado a algunos activistas a pedir prohibiciones o regulaciones sobre algunos sistemas de armas habilitados para IA.

Sin embargo, la IA tiene varias características que la hacen difícil de controlar. Como tecnología habilitadora de propósito general, la IA es como la electricidad o el motor de combustión interna y tiene innumerables aplicaciones no militares o de defensa. Se diferencia de algunas tecnologías militares porque se desarrolla predominantemente en el sector civil por ingenieros en la industria privada o en organizaciones de investigación. Si bien la disponibilidad generalizada de la IA hace que sea poco probable una prohibición total de todas las aplicaciones militares de la IA, puede haber una oportunidad para que la comunidad internacional trabaje en conjunto para regular o prohibir ciertos usos de la IA militar.

A lo largo de la historia, los países han buscado restricciones o prohibiciones para ciertas armas o usos de armas. Las motivaciones para el control de armas pueden variar, al igual que su éxito. La evaluación de casos históricos de control de armas muestra que los pasos concretos que se toman hoy podrían aumentar las posibilidades de éxito en el control de armas de la IA en el futuro. Los formuladores de políticas pueden trabajar para dar forma a cómo los militares emplean la tecnología de IA. Las naciones también pueden establecer un diálogo regular con aliados y competidores sobre cómo se puede usar la IA en la guerra y qué medidas se pueden tomar para reducir los riesgos mutuos.

La naturaleza ubicua y democratizada de la IA hace que el control de armas sea difícil pero no imposible en todas las circunstancias. Si bien una prohibición total del uso militar de la IA es inviable, los estados podrían prohibir algunas aplicaciones de la IA, siempre que hubiera claridad sobre qué usos estaban prohibidos y que los estados tuvieran la capacidad de verificar el cumplimiento de otros estados. La verificación, si bien es un desafío para cualquier capacidad militar basada en software, podría lograrse a través de una variedad de métodos posibles: implementar regímenes de inspección intrusivos; regular las características físicas observables externamente de los sistemas habilitados para IA (por ejemplo, tamaño, peso, carga útil) o comportamientos autónomos; o restringir la infraestructura informática (es decir, el hardware). Cualquier control de armas de IA sería un desafío, pero en las condiciones adecuadas, podría ser factible en algunos casos.

Tipos de control de armas

El control de armas abarca una variedad de acciones y puede ocurrir en cualquier etapa del desarrollo o uso de un arma. En este artículo, definimos el control de armas como “acuerdos que los estados hacen para controlar la investigación, el desarrollo, la producción, el despliegue o el empleo de ciertas armas, características de las armas, aplicaciones de armas o sistemas de lanzamiento de armas”. 3

Los tratados de no proliferación, como el Tratado de No Proliferación Nuclear, se enfocan en la fase de desarrollo tecnológico y tienen como objetivo evitar el acceso a la tecnología subyacente detrás de un arma determinada. Otras medidas de control de armas prohíben el desarrollo, la producción y el almacenamiento de un arma, pero permiten el acceso a la tecnología subyacente. Esto incluye la prohibición de las minas terrestres antipersonal y las municiones en racimo. Los tratados de limitación de armas, como el Nuevo Tratado START, permiten la producción de ciertas armas pero intentan limitar las cantidades que los países pueden poseer. Otras medidas regulan el uso de un arma en la guerra o, en algunos casos, prohíben por completo el uso de un arma.

Si bien algunas medidas de control de armas se ejecutan a través de acuerdos legalmente vinculantes, existen numerosos casos a lo largo de la historia de acuerdos exitosos no legalmente vinculantes o incluso de cooperación tácita sin acuerdos formales. Con el tiempo, las prácticas estatales de larga data también pueden evolucionar hacia el derecho internacional consuetudinario, o “práctica general aceptada como ley”. 

El control de armas es la excepción, más que la regla, cuando las naciones compiten para desarrollar y desplegar armas. El control de armas requiere coordinación y confianza entre los estados, una tarea bastante difícil en tiempos de paz y aún más difícil en tiempos de conflicto. Los estados a menudo son reacios a aceptar medidas de monitoreo y verificación que podrían mejorar la transparencia mutua y permitir que los estados verifiquen el cumplimiento de los demás. Como explican Andrew Coe y Jane Vaynman, un “obstáculo importante para el control de armas es la compensación que implica el monitoreo: se requiere transparencia para asegurar que una parte del otro cumpla con los límites de armas, pero la transparencia también podría revelar vulnerabilidades que podrían ser explotadas por el primer bando en una carrera armamentista o una guerra”. 6A pesar de los muchos obstáculos para el control de armas, los estados, en algunas circunstancias, han podido limitar con éxito el desarrollo y uso de armas, incluso en la guerra. Las lecciones de los éxitos y fracasos históricos pasados ​​brindan información valiosa para los intentos de restringir la búsqueda de IA por parte de los militares.

Por qué el control de armas tiene éxito o fracasa

Que el control de armamentos tenga éxito o fracase depende tanto de la conveniencia del control de armamentos como de su viabilidad. La conveniencia del control de armas se basa en el cálculo de un país del valor militar percibido de un arma frente a su horror percibido, como sus efectos inhumanos en los combatientes, su naturaleza indiscriminada o su efecto desestabilizador en el orden internacional o político. La viabilidad del control de armas depende de varios factores: la capacidad de los países para lograr claridad sobre el nivel de moderación deseado; la capacidad de los países tanto para cumplir con un acuerdo como para verificar el cumplimiento de otros estados; y el número de países necesarios para que un acuerdo funcione. La probabilidad de que un esfuerzo de control de armas tenga éxito aumenta a medida que aumentan la conveniencia y la viabilidad.

Sin embargo, incluso los acuerdos de control de armas parcialmente exitosos pueden ser efectivos para mejorar la estabilidad, minimizar el daño civil y reducir el sufrimiento de los combatientes.

El éxito en el control de armas existe en un espectro. Implica limitar el comportamiento del Estado en la investigación, el desarrollo, la producción, el despliegue o el uso de un arma. Las medidas que no logran restringir o regular un comportamiento se consideran infructuosas. La mayoría de los acuerdos se encuentran en algún punto intermedio. Incluso los acuerdos más efectivos, como la Convención sobre Armas Químicas, tienen excepciones e infractores. Otros acuerdos pueden tener éxito durante un período de tiempo, pero la tecnología o las dinámicas políticas cambiantes hacen que se desmoronen. Tomemos, por ejemplo, el Tratado sobre Misiles Antibalísticos y el Tratado sobre Fuerzas Nucleares de Alcance Intermedio. Sin embargo, incluso los acuerdos de control de armas parcialmente exitosos pueden ser efectivos para mejorar la estabilidad, minimizar el daño civil y reducir el sufrimiento de los combatientes.

Deseabilidad del control de armas

Los estados se resistirán a regular un arma con un alto valor militar, una que sea efectiva, otorgue un acceso único o brinde una ventaja decisiva en el campo de batalla, incluso si el arma tiene la capacidad de causar un daño sustancial. Pesado contra el valor militar de un arma está su horror percibido, es decir, si el arma se percibe como inhumana, indiscriminada, desestabilizadora o perturbadora del orden político o social.

En ocasiones, los Estados han tratado de restringir las armas o los sistemas militares que producen sufrimientos innecesarios o daños superfluos. 7 Por ejemplo, las balas que dejan fragmentos de vidrio en el cuerpo tienen un mayor grado de horror (causan lesiones excesivas y los fragmentos de vidrio no son detectables por rayos X) y no brindan un valor único a los militares. La percepción del horror de un arma también puede verse influida por el mecanismo de lesión. Los láseres permanentemente cegadores, por ejemplo, se perciben como causantes de sufrimiento innecesario, lo que aumenta la conveniencia de controlarlos.

Los Estados han tratado de controlar armas o sistemas militares menos discriminatorios, aquellos que no pueden distinguir entre civiles y combatientes. Esto incluye las primeras restricciones al bombardeo aéreo. Estos tipos de regulaciones tienen más éxito cuando el arma o el comportamiento están prohibidos por completo. Los intentos de regular el uso de armas indiscriminadas limitando su uso a objetivos militares y manteniéndolos alejados de áreas civiles no han tenido buenos resultados en la práctica durante la guerra.

Los estados también pueden desear el control de armas para las armas que se perciben como perturbadoras o desestabilizadoras. Los líderes políticos pueden tratar de prohibir un arma que amenace su control del poder, como las prohibiciones papales de la ballesta o las primeras regulaciones sobre armas de fuego. Las armas que se consideran desestabilizadoras, como los sistemas de misiles antibalísticos o las armas nucleares basadas en el espacio, pueden ser más deseables para el control de armamentos porque podrían provocar una carrera armamentista costosa o podrían crear incentivos perversos para un primer ataque.

La mejor ilustración de la dinámica de la conveniencia del control de armamentos es la respuesta de la comunidad internacional a las armas nucleares frente a las armas químicas.

La reciprocidad, el temor de que otro país pueda tomar represalias con un arma o un comportamiento en especie, es un factor esencial en el deseo de un estado y el cumplimiento del control de armas.  Antes de ratificar el Protocolo de Ginebra sobre Gas de 1925, el Reino Unido, Francia y la Unión Soviética declararon que el acuerdo dejaría de ser vinculante si algún país no lo cumplía. En las etapas iniciales de la Segunda Guerra Mundial, Hitler se abstuvo de ordenar el bombardeo de ciudades británicas, no por las prohibiciones legales internacionales vigentes contra hacerlo, sino por temor a que Gran Bretaña tomara represalias del mismo modo. La restricción mutua se logra ya sea por normas internas de adecuación o por temor a cómo un adversario podría tomar represalias. En un estudio exhaustivo de las violaciones del derecho de guerra en 48 guerras interestatales entre 1900 y 1991, James D. Morrow descubrió que la reciprocidad era clave para el cumplimiento. Los tratados fueron a menudo un mecanismo de coordinación útil para que los estados acordaran si restringir sus operaciones militares y cómo hacerlo, pero las violaciones de un lado casi siempre conducían a violaciones recíprocas. En las democracias, las instituciones nacionales pueden crear cierta “pegajosidad” que aumenta la probabilidad de seguir cumpliendo con los tratados incluso cuando un oponente los ha violado. A pesar de estas presiones, Morrow concluyó: “La restricción unilateral es rara”. 

La mejor ilustración de la dinámica de la conveniencia del control de armamentos es la respuesta de la comunidad internacional a las armas nucleares frente a las armas químicas. La horrorosidad de las armas nucleares supera con creces el sufrimiento que causan las armas químicas, pero el desarme nuclear mundial sigue estando fuera de nuestro alcance. Las armas químicas, por otro lado, han sido ampliamente denunciadas por la comunidad internacional. Su uso ocasional ha sido por estados parias. La diferencia clave radica en el valor militar de cada arma: las armas nucleares tienen una eficacia política única. El resultado de esta dinámica es que el control de armas suele tener éxito en el caso de las armas que no son especialmente valiosas.

Viabilidad del Control de Armas

Si bien la conveniencia del control de armas tiene que ver con los factores que motivan o desalientan a los países a buscar el control de armas, la factibilidad implica si se puede lograr la restricción mutua. Que el control de armas sea factible o no depende de varios factores: la claridad de una regulación; la capacidad de los estados para cumplir con los términos de un acuerdo; la capacidad de los estados para verificar el cumplimiento de otros estados; y el número de países necesarios para que un acuerdo tenga éxito.

Para que los estados logren el control de armas, deben acordar qué armas o usos de armas se regulan y cómo se regularán. La simplicidad es una gran ventaja cuando se elaboran regulaciones. Las prohibiciones completas de armas generalmente se han cumplido mejor en tiempos de guerra que las reglas que permiten su uso en algunas circunstancias. La simplicidad ayuda a los adversarios a coordinar la moderación y ayuda en el valor normativo de estigmatizar un arma. Las prohibiciones absolutas, como las de las minas terrestres antipersonal, las municiones en racimo y las armas químicas y biológicas, han tenido éxito, en parte, porque el arma está prohibida en todas las circunstancias, no solo en ciertos casos. Históricamente, las regulaciones que restringen el uso en algunos casos y no en otros, como las armas lanzadas desde el aire y la guerra submarina, han tenido menos probabilidades de éxito.

Y, sin embargo, no siempre se requiere simplicidad. Los Estados Unidos y la Unión Soviética/Rusia se involucraron en múltiples acuerdos bilaterales de control de armas que tenían reglas complicadas para las armas que cada estado podía construir, incluido el Tratado de Fuerzas Nucleares de Alcance Intermedio, el Tratado de Misiles Antibalísticos, SALT I, SALT II , ORDENAR, INICIO y Nuevo INICIO. Sin embargo, estos tratados tenían otras ventajas, como que solo requerían que dos partes llegaran a un acuerdo y solo limitaban el desarrollo y la producción de armas en tiempos de paz, en lugar del uso en tiempos de guerra.

Cuanto más difusa sea un arma, más difícil será controlarla porque se necesitarán más naciones en la mesa de negociaciones.

Otro factor importante que afecta la viabilidad es la capacidad de un país para cumplir realmente con las condiciones de un acuerdo. Los estados tienen un control imperfecto sobre sus fuerzas armadas, y las regulaciones que los estados podrían violar accidentalmente pueden ser más difíciles de cumplir. Alemania y Gran Bretaña entraron en la Segunda Guerra Mundial buscando moderación en el bombardeo aéreo de ciudades, y la moderación mutua se mantuvo durante un tiempo. Al principio, ambos países solo bombardeaban objetivos militares, no áreas pobladas. La moderación se derrumbó después de que los bombarderos alemanes se desviaran accidentalmente del objetivo en agosto de 1940 y bombardearan el centro de Londres por error. Gran Bretaña tomó represalias bombardeando Berlín, y Hitler respondió lanzando el London Blitz, después de lo cual desaparecieron todos los intentos de moderación. Las normas que pueden violarse fácilmente por casualidad son más difíciles de mantener.

La viabilidad del control de armas también se ve afectada por el número de países necesarios para que un acuerdo tenga éxito. Cuantos menos países sean necesarios, mejor. A lo largo de la Guerra Fría, por ejemplo, la estructura bipolar del sistema internacional facilitó el control de armas porque solo dos superpotencias necesitaban ponerse de acuerdo para que el control de armas tuviera éxito. Incluso para los acuerdos multilaterales, Estados Unidos y la Unión Soviética podrían liderar el desarrollo de un acuerdo, facilitando el seguimiento de otros países. Estados Unidos y la Unión Soviética establecieron múltiples acuerdos de control de armas, algunos bilaterales y otros multilaterales. Estos acuerdos incluyeron el Tratado de los Fondos Marinos, el Tratado del Espacio Exterior, el Tratado de Misiles Antibalísticos y otros. Cuanto más difusa sea un arma, más difícil será controlarla porque se necesitarán más naciones en la mesa de negociaciones.

La capacidad de un estado para verificar si otros estados cumplen con un acuerdo es un factor importante para que el control de armas tenga éxito. En algunos casos se han utilizado regímenes formales de verificación, particularmente para armas que pueden desarrollarse en secreto, como las armas nucleares o químicas. La Convención de Armas Químicas y el Tratado de No Proliferación Nuclear incluyen medidas de inspección para verificar el cumplimiento de los signatarios. El Tratado del Espacio Exterior estipula que los estados deben permitir que otros vean los lanzamientos espaciales y visiten cualquier instalación en la luna. Sin embargo, no todos los tratados exitosos tienen regímenes formales de verificación. Las prohibiciones de las municiones en racimo y las minas antipersonal no requieren inspecciones formales, pero obligan a los estados a ser transparentes con respecto a la eliminación de sus existencias. En algunos casos,

El estatus legal de un acuerdo de control de armas parece tener poco impacto en su éxito final. Los países han violado tratados legalmente vinculantes a lo largo de la historia, particularmente en tiempos de guerra. Este fue el caso del uso de gas venenoso en la Primera Guerra Mundial. Los acuerdos informales, no legalmente vinculantes, han tenido éxito en el pasado. Tomemos, por ejemplo, el Régimen de Control de Tecnología de Misiles, que limita la exportación de ciertas clases de misiles. Incluso hay algunos ejemplos de un entendimiento tácito, en el que no existe un acuerdo formal, que restringe el uso de un arma, como la moderación mostrada por Estados Unidos y la Unión Soviética al desplegar armas antisatélite o bombas de neutrones durante la Guerra Fría o la decisión unilateral de Alemania recuerdo de su bayoneta aserrada en la Primera Guerra Mundial. Más que el estado legal de un tratado, la reciprocidad es el factor impulsor que motiva a los estados a cumplir. Cuando los estados restringen el desarrollo, la producción o el uso de un arma, generalmente es por temor a que los competidores respondan a las violaciones de la misma manera. Sin embargo, los acuerdos formales pueden ser útiles para coordinar el comportamiento del estado y aclarar las expectativas.

El control de armas también depende de la ruta: las regulaciones con frecuencia se basan en éxitos anteriores de regulación de tecnologías relacionadas. Las prohibiciones antiguas sobre el veneno, por ejemplo, ayudaron a conducir a las prohibiciones modernas sobre las armas químicas y biológicas. Los acuerdos de control de armas entre Estados Unidos y la Unión Soviética sobre armas estratégicas fomentaron acuerdos adicionales con el tiempo. El éxito de la campaña humanitaria para prohibir las minas terrestres antipersonal probablemente hizo posible una prohibición humanitaria de las municiones en racimo.

Reglamento sobre tecnologías en evolución

Los estados han intentado con frecuencia regular tecnologías nuevas o en rápida evolución, que presentan desafíos únicos que son especialmente relevantes cuando se trata de IA. Los estados pueden no estar seguros de los beneficios y daños militares de las tecnologías emergentes y pueden equivocarse al preservar la opción de usarlas. Cuando los estados desean moderación, es posible que no puedan predecir correctamente el camino de la evolución de una tecnología, cómo se empleará y las contramedidas que se pueden desarrollar, lo que hace que los estados elaboren regulaciones que no son prácticas o que no limitan completamente los usos dañinos.

Las naciones se embarcaron en una serie de acuerdos de control de armas a fines del siglo XIX y principios del XX en un intento por controlar las armas de la era industrial. Las potencias europeas firmaron acuerdos de control de armas en 1868, 1899, 1907, 1922, 1930 y 1936 que regulan las balas explosivas o en expansión, el gas venenoso, las armas lanzadas desde el aire, los submarinos y los barcos de guerra. Ninguno de estos tratados intentó detener la proliferación de la ciencia y la tecnología subyacentes, como la química o el motor de combustión interna. Más bien, restringieron los tipos de armas que los militares podían construir o, en el caso de aviones y submarinos, cómo se podían usar las armas en la guerra. Aunque los líderes europeos anticiparon correctamente que muchas de estas armas, como los aviones o el gas venenoso, podrían causar un gran sufrimiento en la guerra,

El gas venenoso fue prohibido antes de la Primera Guerra Mundial, pero solo cuando se liberaba de proyectiles. El primer uso de cloro a gran escala en Alemania en la Segunda Batalla de Ypres fue técnicamente permisible porque el gas se liberó de los botes. Lograr la moderación con gas se complicó aún más por el hecho de que sus ventajas y desventajas militares relativas no se conocían antes de la Primera Guerra Mundial. Alemania empleó gas por primera vez en busca de un arma ganadora de la guerra que cambiara el rumbo en el frente, quizás motivado, en parte, por experimentos franceses con granadas de gas lacrimógeno a principios de la guerra.

Un factor que pesa a favor de las regulaciones preventivas es que puede ser más fácil, en algunos casos, prohibir las armas que los militares aún no han integrado en sus arsenales y, por lo tanto, de las que no dependen para su defensa.

Los intentos de regular los submarinos y las aeronaves fracasaron de manera similar debido a suposiciones incorrectas sobre cómo evolucionarían estas tecnologías. La Convención de La Haya de 1907 prohibió el bombardeo aéreo contra ciudades “indefensas”, al no prever la debilidad de las defensas aéreas contra los bombardeos.  Por el contrario, la ley marítima requería que los submarinos salieran a la superficie, dieran aviso y llevaran a la tripulación a bordo antes de hundir los barcos mercantes. El cumplimiento de estas reglas, que Alemania intentó hacer inicialmente en la Primera Guerra Mundial, dejó a los submarinos vulnerables incluso a los barcos mercantes con armas ligeras.

En otros casos, algunas armas resultaron no ser tan problemáticas como los estados lo imaginaron originalmente. Las balas expansivas fueron prohibidas en la Convención de La Haya de 1899, pero hoy en día son ampliamente utilizadas por las fuerzas del orden y para la autodefensa civil. (Es menos probable que las balas en expansión atraviesen a una persona y golpeen a los transeúntes).

Más recientemente, en el caso de la prohibición de los láseres cegadores, los estados han tratado de eludir el problema de predecir cómo evolucionará la tecnología mediante la adopción de una prohibición sobre el uso previsto de la tecnología. El Protocolo IV de la Convención sobre Ciertas Armas Convencionales establece: “Está prohibido emplear armas láser específicamente diseñadas, como su única función de combate o como una de sus funciones de combate, para causar ceguera permanente a la visión no mejorada”. La prohibición, en particular, no prohíbe las características técnicas específicas de un láser, como su potencia, sino que se centra en su uso previsto. Hasta la fecha, la prohibición del láser cegador ha tenido éxito.

Si bien la prohibición preventiva de nuevas tecnologías es un desafío en muchos sentidos, los estados han logrado imponer regulaciones preventivas sobre láseres cegadores, armas biológicas, usar el medio ambiente como arma, colocar armas nucleares en el lecho marino o en el espacio y establecer bases militares en la Antártida o en la luna. Un factor que pesa a favor de las regulaciones preventivas es que puede ser más fácil, en algunos casos, prohibir las armas que los militares aún no han integrado en sus arsenales y, por lo tanto, de las que no dependen para su defensa.

Lecciones de Inteligencia Artificial

La IA será difícil de controlar por tres razones clave: es una tecnología de propósito general; es una tecnología emergente; y verificar el cumplimiento de cualquier acuerdo relacionado con la IA planteará desafíos únicos. Sin embargo, esto no significa que la IA sea incontrolable. Si bien los obstáculos son significativos, el control de armas podría ser posible para algunas aplicaciones militares de IA. Incluso cuando los países buscan ventajas en la IA militar, deben buscar formas de mitigar los riesgos de la competencia de la IA militar, incluso a través del control de armas.

Una tecnología de propósito general

Como tecnología habilitadora de uso general, la IA se parece más a la electricidad que a una tecnología discreta como los submarinos o los láseres cegadores, lo que plantea obstáculos para los esfuerzos de control de armas. La IA es una tecnología de doble uso, con aplicaciones tanto civiles como militares, y es probable que esté ampliamente disponible. La naturaleza difusa de la IA hace que un régimen de no proliferación, uno que proponga "embotellar" la IA y reducir su propagación, sea poco probable que tenga éxito. Además, debido a que la IA está tan extendida, numerosos actores tendrían que estar de acuerdo para que cualquier regulación tenga éxito.

La definición a menudo confusa de "IA" también podría complicar el logro de la claridad en cualquier acuerdo. La definición de lo que constituye “IA” es ambigua y abierta a interpretación. Declarar simplemente "sin IA" carece de la claridad de prohibir por completo todos los usos del gas porque puede no estar claro si una tecnología califica como "IA". Además, debido a que el campo de la IA es tan vasto y sus usos son tan amplios, prohibir toda la IA sería similar a los estados del siglo XIX que declararon "No a la industrialización". Los estados intentaron controlar las tecnologías de la era industrial, incluidos los submarinos, los aviones, los globos, el gas venenoso y las balas explosivas o en expansión. Pero que los países hayan acordado no utilizar ninguna tecnología de la era industrial en la guerra no habría sido práctico. Tampoco está claro, dada la naturaleza de doble uso de la infraestructura industrial civil, si se hubieran trazado líneas divisorias entre la industrialización civil y la militar, incluso si los países las hubieran deseado. Qué usos militares de la IA son aceptables o inaceptables podría ser ambiguo, y los países necesitarán claridad y líneas bien definidas para que cualquier esfuerzo de control de armas tenga éxito.

En última instancia, la conveniencia y viabilidad del control de armas para cualquier aplicación militar específica de IA puede depender de cómo se aplique la tecnología.

Los casos históricos de control de armas durante la revolución industrial sirven como una guía útil porque los estados regularon, con diversos grados de éxito, aplicaciones específicas de tecnologías industriales de propósito general, incluyendo el motor de combustión interna (submarinos y aviones) y la química (balas explosivas y gas venenoso). Estos esfuerzos a veces fallaron, pero esto no se debió a que los estados no pudieran definir qué era un submarino o un avión o porque los estados no pudieran limitar su uso civil. Más bien, estas medidas fallaron debido a cómo esas armas se usaron específicamente en la guerra. Si el equilibrio ofensivo-defensivo entre bombarderos y defensas aéreas, o submarinos y barcos mercantes hubiera evolucionado de manera diferente, esas armas podrían haber sido controladas con mayor eficacia.

Si bien es probable que no se pueda lograr una prohibición total de todas las aplicaciones militares de IA, la historia sugiere que los países podrían estar abiertos a algunas limitaciones en aplicaciones específicas. El desafío es determinar para qué aplicaciones específicas de IA es el control de armas más deseable y factible. ¿Hay ciertos usos que se perciben como especialmente peligrosos, desestabilizadores o dañinos? Los académicos ya han comenzado a considerar el impacto de la IA en la estabilidad nuclear, las armas autónomas y la seguridad cibernética, y seguramente habrá otras áreas que merecen una consideración seria. En última instancia, la conveniencia y viabilidad del control de armas para cualquier aplicación militar específica de IA puede depender de cómo se aplique la tecnología. Un acuerdo de control de armas podría diseñarse estrictamente para apuntar a instancias específicas de tecnología de IA que se consideran particularmente problemáticas, similares a las balas restrictivas de los países que están diseñadas para explotar dentro del cuerpo, en lugar de explotar proyectiles por completo. 

Una tecnología emergente

Un desafío al anticipar qué usos específicos de la IA militar pueden merecer una mayor consideración para el control de armas es que no está claro cómo se utilizará finalmente la IA en el campo de batalla. Este es un problema constante para las tecnologías emergentes, desde ejemplos históricos como aviones y tanques hasta ejemplos contemporáneos como herramientas cibernéticas y armas de energía dirigida. A fines del siglo XIX y principios del XX, los países lucharon por controlar las tecnologías de la era industrial, como el gas venenoso y los submarinos, que progresaban rápidamente.

El hecho de que muchos militares perciban que la IA es una tecnología que "cambia las reglas del juego" podría representar un obstáculo para restringir su uso. Los militares de todo el mundo están invirtiendo en IA y pueden ser reacios a restringir ciertas aplicaciones. La retórica que rodea a la IA, gran parte de la cual puede no coincidir con las inversiones reales que los militares están haciendo en IA, podría en sí misma obstaculizar los posibles esfuerzos de control de armas.

Además, las percepciones de que la tecnología de IA puede generar capacidades, precisión, confiabilidad o eficacia sobrehumanas podrían disminuir la creencia de que algunas aplicaciones de IA tienen el potencial de ser desestabilizadoras o peligrosas. Estas percepciones, incluso si son infundadas, podrían afectar la voluntad de un país de perseguir el control de armas de AI. A medida que los países desarrollen y apliquen aplicaciones militares de inteligencia artificial reales, es probable que las percepciones cambien para alinearse más estrechamente con la realidad. Pero las futuras aplicaciones militares de IA pueden ser más difíciles de regular si ya se han integrado en las fuerzas militares de un país o se han utilizado en el campo de batalla. 

Verificación del cumplimiento

La capacidad de verificar el cumplimiento de cualquier acuerdo de control de armas es esencial para su éxito a largo plazo. Un acuerdo con un lenguaje claro y la aceptación de los estados necesarios podría fallar si los estados carecen de los medios para verificar el cumplimiento de los demás. La IA complica la verificación porque, al igual que otras formas de software, los atributos cognitivos de un sistema de IA no son fácilmente observables externamente. Un arma "inteligente" puede parecerse mucho a un arma "tonta" del mismo tipo. Los sensores de un vehículo autónomo, que utiliza para percibir su entorno, pueden ser visibles, pero el algoritmo particular que utiliza podría no serlo. Esto plantea un desafío para cualquier tipo de control de armas para los sistemas militares de inteligencia artificial porque la restricción mutua se basa en la capacidad de un estado para verificar el cumplimiento de un acuerdo por parte de otro estado. Hay formas en que los países podrían responder a este desafío,

Adopte inspecciones intrusivas

Un régimen de inspección intrusiva podría permitir el acceso de observadores externos a las instalaciones de un estado ya ciertos sistemas militares para verificar que el software del estado se ajuste a las estipulaciones de un régimen de control de armas. Sin embargo, cualquier régimen de inspección potencial enfrentaría los mismos obstáculos de transparencia que enfrentan otras armas: las inspecciones corren el riesgo de exponer vulnerabilidades potenciales en el sistema de armas de un estado a una nación competidora. Este desafío posiblemente podría corregirse en el futuro mediante la verificación de software para preservar la privacidad, que podría verificar el comportamiento de una pieza de software sin revelar información privada. Alternativamente, los países podrían decidir que los beneficios de la verificación superan los riesgos de una mayor transparencia. Los Estados han adoptado regímenes de inspección intrusivos en el pasado, como las inspecciones bajo el régimen de no proliferación nuclear para verificar el uso civil nuclear.

Los regímenes de inspección intrusivos seguirán siendo una opción débil para verificar el cumplimiento, a menos que los estados puedan superar con confianza el desafío de las actualizaciones posteriores a la inspección rápidas y escalables de los sistemas de IA.

Otro obstáculo para las inspecciones es que, si la diferencia entre la capacidad permitida y la prohibida radica en el software, un estado podría simplemente actualizar su software después de que se vayan los inspectores. Actualizar el software es mucho más rápido y fácil que construir otro misil o una instalación de enriquecimiento nuclear. En el futuro, los países podrían superar este problema adoptando enfoques técnicos más avanzados. Las opciones potenciales incluyen el monitoreo continuo del software para detectar cambios o incorporar funcionalidad en el hardware, de modo que la capacidad esté limitada por el hardware, no por el software. El monitoreo continuo implicaría la instalación de dispositivos en los sistemas militares que alertarían a los inspectores sobre cualquier cambio en el software. La adopción de este enfoque requiere más avances tecnológicos, así como el compromiso de los estados con el monitoreo intrusivo continuo, en lugar de inspecciones periódicas. También es posible que tal enfoque, si se implementa, podría tener efectos desestabilizadores imprevistos en ciertos escenarios. Por ejemplo, una actualización de software para mejorar la funcionalidad en vísperas de un conflicto podría desencadenar una alerta que llevaría a otros estados a asumir el incumplimiento del control de armas. Alternativamente, el código compatible con el régimen que no debe modificarse podría integrarse en el hardware físico, por ejemplo, a través de una memoria de solo lectura o circuitos integrados específicos de la aplicación.19 Los regímenes de inspección intrusivos seguirán siendo una opción débil para verificar el cumplimiento a menos que los estados puedan superar con confianza el desafío de las actualizaciones posteriores a la inspección rápidas y escalables de los sistemas de IA.

Restringir las características físicas observables externamente de los sistemas habilitados para IA

En lugar de centrarse en las capacidades cognitivas de un sistema de IA, los estados podrían centrarse en las características físicas generales de un sistema que son fácilmente observables y difíciles de cambiar, como el tamaño, el peso, la potencia, la resistencia, la carga útil, la ojiva, etc. Este enfoque permitiría a los estados adoptar cualquier característica cognitiva (sensores, hardware y software) que elijan para un sistema. Las limitaciones de control de armas se aplicarían solo a las características físicas brutas de un vehículo o munición, incluso si la preocupación real estuviera motivada por las capacidades militares que habilita la IA. Por ejemplo, si los países estuvieran preocupados por los enjambres de pequeños drones antipersonal, en lugar de permitir solo pequeños drones "tontos" (lo que sería difícil de verificar), podrían prohibir todos los pequeños drones armados, independientemente de sus capacidades cognitivas. Los países han utilizado enfoques similares en el pasado: optar por regular las características físicas brutas (que eran observables) en lugar de las cargas útiles reales (que eran la preocupación real de los estados, pero más difíciles de verificar). Varios tratados de la era de la Guerra Fría limitaron o prohibieron ciertas clases de misiles, en lugar de solo prohibir armarlos con armas nucleares. Limitar solo los misiles con armas nucleares habría permitido ciertos misiles convencionales, pero habría sido más difícil de verificar.

Regular el comportamiento observable de los sistemas de IA

Otra opción es que los países centren las regulaciones en el comportamiento observable de un sistema de IA, como la forma en que opera bajo ciertas condiciones. Esto sería análogo al concepto de restricciones de bombardeo de "No ciudades", que no prohibía a los bombarderos sino que regulaba cómo se empleaban. Este enfoque podría usarse cuando se trata de manifestaciones físicas de sistemas de IA en los que otros estados pueden observar el comportamiento externo del sistema. Por ejemplo, los países podrían establecer reglas sobre cómo deben comportarse los buques de superficie navales autónomos en la proximidad de otros barcos, e incluso podrían adoptar reglas sobre cómo los sistemas autónomos armados podrían señalar claramente una escalada de fuerza para evitar una escalada inadvertida en tiempos de paz o crisis. El algoritmo particular utilizado para programar el comportamiento sería irrelevante: los estados podrían utilizar diferentes enfoques. De manera similar a las reglas que rigen el comportamiento de los combatientes humanos, la regulación regiría cómo se comporta el sistema de IA, no su lógica interna. Sin embargo, este enfoque no sería efectivo para aplicaciones militares de IA que no son observables. Por ejemplo, las restricciones sobre el papel de la IA en el comando y control nuclear probablemente no serían observables por un adversario. Este enfoque también está limitado porque el comportamiento de un sistema podría modificarse rápidamente a través de una actualización de software, lo que socavaría la confianza y la verificabilidad.

Restringir la infraestructura informática

Los estados podrían enfocar las regulaciones en elementos del hardware de IA que se pueden observar o controlar. Los sistemas de IA se basan en chips para la computación, por lo que los países podrían potencialmente restringir o controlar chips de IA especializados a través de un régimen de no proliferación (particularmente si estos chips fueran esenciales para la capacidad militar prohibida). 22Los países también podrían posiblemente optar por restringir los recursos informáticos a gran escala, también conocidos como "computación", si son observables o se pueden rastrear. Los grandes modelos de IA como GPT-4 se están volviendo cada vez más de uso general y pueden ejecutar una amplia gama de tareas. Estos sistemas de IA de alta capacidad son intrínsecamente de doble uso. Incrustadas en su funcionalidad de uso más general, de manera predeterminada, se encuentran capacidades relevantes para la seguridad, como la capacidad de empoderar a los actores para lanzar ataques cibernéticos, químicos o biológicos. El gobierno de la computación implica controlar el uso de la computación a lo largo del ciclo de vida de producción de un modelo de IA, desde la fabricación del chip hasta el entrenamiento y el uso del modelo. Las tendencias actuales en IA sugieren que restringir el acceso a la computación a gran escala podría ser un enfoque particularmente efectivo para negar el acceso a las capacidades de IA más avanzadas.

Si bien esto plantea problemas para la salud y la diversidad de la comunidad de investigación de IA, las crecientes barreras de entrada presentan una oportunidad para controlar el acceso a estas capacidades de IA.

Los laboratorios de investigación de Frontier AI han invertido mucho en computación a gran escala para el aprendizaje automático en los últimos años. Los principales modelos de investigación de IA se entrenan en miles de chips de IA especializados, como unidades de procesamiento de gráficos o GPU, que se ejecutan durante semanas a la vez. La cantidad de cómputo utilizada en el entrenamiento de modelos de IA de frontera se multiplicó por diez mil millones entre 2010 y 2022, duplicándose cada seis meses (para los modelos más grandes, se duplicó cada 10 meses). Esta tasa de crecimiento es mucho más rápida que el período de duplicación de 24 meses según la Ley de Moore y es más rápida que la tasa actual de mejoras de hardware, que se ha estado duplicando cada dos años y medio. 26Para lograr este crecimiento informático, los costos de las ejecuciones de capacitación a gran escala se están disparando. Las estimaciones independientes ubican los costos de capacitación de los modelos más grandes en al menos millones de dólares, posiblemente en decenas de millones, para la ejecución final de capacitación. El aumento de los costos está consolidando el progreso en la vanguardia de la investigación de IA en un puñado de empresas tecnológicas con mucho dinero, impidiendo que los investigadores académicos entrenen los modelos más intensivos en cómputo. Si bien esto plantea problemas para la salud y la diversidad de la comunidad de investigación de IA, las crecientes barreras de entrada presentan una oportunidad para controlar el acceso a estas capacidades de IA.

Debido a que los chips son un recurso físico controlable, el acceso a las capacidades de IA con uso intensivo de cómputo se puede restringir controlando el acceso a los chips de IA de gama alta. Restringir el acceso a la computación a gran escala es un enfoque particularmente atractivo porque funcionaría incluso para un régimen un tanto "con fugas", ya que los actores prohibidos deben reunir grandes cantidades de computación para ser efectivos. De hecho, el gobierno de los EE. UU. adoptó precisamente este enfoque en octubre de 2022 cuando emitió amplios controles de exportación de chips de IA destinados a China, incluso cuando estos chips se fabricaron fuera de los Estados Unidos. Si tienen éxito, los controles de exportación de EE. UU. en chips de alta gama bloquearán efectivamente a China fuera de las capacidades de inteligencia artificial más avanzadas.

La viabilidad del control de armas destinado al hardware de IA dependerá en gran medida de la medida en que la infraestructura de fabricación de chips esté democratizada a nivel mundial o se concentre en manos de unos pocos actores. Si bien las cadenas de suministro de semiconductores de hoy en día están altamente globalizadas, también contienen cuellos de botella clave. Estos cuellos de botella dan a algunos países la capacidad de controlar el acceso al hardware de IA. Los controles de exportación de EE. UU. sobre chips de IA avanzados a China son posibles debido al dominio de las empresas estadounidenses en los equipos de fabricación de semiconductores. Los controles estadounidenses prohíben el uso de equipos fabricados en EE. UU. para fabricar chips de inteligencia artificial de alta gama destinados a China, incluso cuando esos chips se fabrican fuera de los Estados Unidos. Los países que dominan los futuros cuellos de botella de la cadena de suministro de chips podrían emplear medidas similares para controlar el acceso al hardware de IA.

Sin embargo, el futuro de las cadenas de suministro de semiconductores es muy incierto. Los impactos en la cadena de suministro y la competencia geopolítica han acelerado la intervención estatal en el mercado global de semiconductores y han causado incertidumbres significativas sobre cómo evolucionará el mercado. Los recientes controles de exportación de EE. UU. son solo la última intervención estatal en los mercados mundiales de semiconductores, y los efectos de segundo y tercer orden de estos controles llevará tiempo. Algunas tendencias actuales parecen apuntar hacia una mayor concentración de cadenas de suministro de hardware, mientras que otras tendencias apuntan hacia una mayor democratización. Un factor que contribuye a una mayor concentración en la industria es el alto costo de las plantas de fabricación de semiconductores, o "fabs". Por otro lado, China y Estados Unidos están trabajando arduamente para aumentar la producción de chips autóctonos por razones de seguridad nacional, en ambos casos presionando contra la consolidación del mercado natural a medida que gastan recursos gubernamentales para subsidiar nuevas fábricas. Los propios controles de exportación de EE. UU. tienen el efecto secundario de crear incentivos financieros para que el sector privado eluda los controles de EE. UU. al rediseñar su equipo de fabricación de chips para que no dependa de la tecnología de EE. UU. con el fin de vender en el mercado de China. China importa más de $ 400 mil millones al año en chips. Si bien los controles de exportación de EE. UU. actualmente afectan solo a aproximadamente el 1 por ciento del mercado chino de chips, es probable que el mercado de chips prohibidos crezca si los controles de EE. UU. se mantienen (como han dicho los funcionarios de EE. UU.) fichas heredadas. Poderosas fuerzas del mercado y ajenas al mercado están impactando la industria global de semiconductores, y los efectos a largo plazo de estas fuerzas en las cadenas de suministro aún no están claros.

Las tendencias en la mejora de la eficiencia algorítmica también podrían socavar la eficacia del control de la computación para controlar las capacidades de la IA. Si bien la cantidad de cómputo utilizada para entrenar modelos de investigación de IA de vanguardia ha crecido con el tiempo, una vez que se logra un gran avance, las mejoras algorítmicas reducen la cantidad de cómputo requerida para lograr el mismo nivel de rendimiento. Por ejemplo, la cantidad de cómputo requerida para lograr el mismo nivel de rendimiento de clasificación de imágenes en ImageNet, una base de datos de reconocimiento de imágenes, se redujo a la mitad cada nueve meses desde 2012 hasta 2021.33 Las mejoras en la eficiencia algorítmica pueden democratizar rápidamente la disponibilidad de modelos de IA al reducir la cantidad de hardware informático necesario para entrenar modelos, haciéndolos más accesibles.

Esto significa que el punto más eficaz en el proceso de desarrollo de IA para controlar el acceso a través de la computación se encuentra en la etapa de capacitación.

Un desafío final de usar la computación para controlar el acceso a las capacidades de IA es la asimetría fundamental en los recursos de cómputo necesarios para entrenar modelos de IA en relación con su uso, un proceso conocido como "inferencia". El entrenamiento de un modelo de IA en datos es muy intensivo en computación, lo que requiere cantidades masivas de datos y computación para los modelos más grandes. Sin embargo, una vez que se entrena un modelo, el proceso de usar el modelo entrenado para realizar una tarea, como generar texto, clasificar una imagen o reconocer una cara, generalmente usa mucho menos cómputo. Esto significa que el punto más eficaz en el proceso de desarrollo de IA para controlar el acceso a través de la computación se encuentra en la etapa de capacitación. Limitar qué actores tienen acceso a grandes cantidades de cómputo, y regular el comportamiento de aquellos que lo tienen, podría ser un método efectivo para restringir el acceso a las capacidades de IA. Sin embargo, una vez que se ha entrenado un modelo, la computación se convierte en un punto de control mucho menos efectivo. Los modelos entrenados pueden proliferar rápidamente y tener barreras de entrada mucho más bajas para su uso en términos de requisitos de datos, cómputo y capital humano en relación con el entrenamiento de nuevos modelos.

Los modelos entrenados pueden proliferar si los actores lanzan intencionalmente versiones de código abierto o si los modelos son robados o filtrados. En la actualidad, los modelos de IA innovadores se replican rápidamente con versiones de código abierto. Los equivalentes de código abierto de los modelos de IA generativa GPT-3 y DALL·E se lanzaron después de 14 y 15 meses, respectivamente. Una vez que los modelos están disponibles públicamente, proliferan rápidamente. Otra forma de que proliferen los modelos entrenados es que el modelo se filtre o sea robado. El modelo de lenguaje de IA de Meta LLaMA se filtró en 4chan, eludiendo los intentos de Meta de limitar el acceso a él. Una vez que se ha publicado públicamente un modelo entrenado, la computación puede dejar de ser un punto de control efectivo, ya que los requisitos de computación para la inferencia en modelos entrenados son relativamente bajos. Los modelos entrenados también se pueden ajustar para usos específicos mediante capacitación adicional, pero sin tener que rehacer la costosa capacitación inicial. Es posible que los controles de exportación en chips deban combinarse con controles de exportación en modelos entrenados por encima de un cierto umbral de cómputo, si se quiere que sean efectivos para restringir el acceso a capacidades de inteligencia artificial de alto nivel.

Mirando hacia el futuro

Los desafíos actuales de controlar las capacidades militares habilitadas por IA se asemejan más a la militarización de la tecnología de la era industrial a principios del siglo XX, cuando los países intentaron controlar una variedad de armas nuevas y peligrosas. Las principales potencias militares se reunieron más de 15 veces para discutir una variedad de iniciativas de control de armas desde 1868 hasta 1938. La escala de esta actividad diplomática transmite el nivel de persistencia y paciencia necesarios para lograr incluso resultados modestos en el control de armas. Los legisladores, académicos y defensores de la sociedad civil pueden tomar una serie de pasos hoy para comenzar a sentar las bases para el futuro control de armas de la IA. Estos incluyen un mayor diálogo sobre los riesgos que plantea la IA y las posibles medidas de control de armas que podrían imponerse, la creación de normas para los usos apropiados de la IA militar, abordar la "fruta madura" para construir patrones de cooperación estatal en IA militar y dar forma a el desarrollo de la propia tecnología de IA para hacerla más controlable en el futuro. Si bien ninguno de estos pasos garantiza que los futuros esfuerzos de control de armas de la IA tengan éxito, pueden aumentar la probabilidad de éxito.

Aumento del diálogo

Aumentar el diálogo en todos los niveles para comprender mejor cómo se podría usar la IA en el campo de batalla podría ayudar a iluminar las medidas de control de armas que pueden ser tanto deseables como factibles. Las conferencias académicas, los intercambios de académico a académico de Track II, las reuniones bilaterales y multilaterales y los debates en foros internacionales son valiosos para ayudar a promover el entendimiento mutuo entre las partes internacionales. Estos diálogos también deben incluir a científicos e ingenieros de IA, para garantizar que las conversaciones se basen en realidades técnicas. Debido a que la tecnología de IA está siendo impulsada por el sector comercial, también deberían incluir a las principales empresas tecnológicas y organizaciones que se han involucrado en el desarrollo de normas sobre IA, como Microsoft, Google, OpenAI, Baidu, Tencent y la Academia de Inteligencia Artificial de Beijing. Es importante que estas discusiones no se involucren en un “lavado de ética”, legitimando usos indebidos de la tecnología de IA, como abusos contra los derechos humanos. Es demasiado fácil para las instituciones publicar principios y declaraciones bien intencionados sobre la IA responsable. Estas declaraciones deben combinarse con acciones que demuestren el seguimiento del uso responsable de la IA. Dar forma a las normas para el uso de la IA a medida que se desarrollan estas normas puede ser una herramienta poderosa para guiar el empleo futuro de la tecnología de la IA. Debido a que la IA es tan ubicua, muchas medidas de control de armas deberán generalizarse con el tiempo para ser efectivas, como lo es hoy el control de armas para las armas químicas y biológicas. Los esfuerzos para entablar un diálogo pueden comenzar de a poco. Si Estados Unidos y China, las principales potencias militares y de inteligencia artificial del mundo, tomaran la iniciativa, sería una forma poderosa de moldear las expectativas de otros países sobre la inteligencia artificial militar. 

Formando Normas

Estados Unidos se ha involucrado de manera proactiva en la elaboración de normas sobre el uso de la IA. El gobierno de EE. UU. ha publicado un flujo constante de documentos sobre IA militar en los últimos años, incluidos los principios éticos de IA del Departamento de Defensa, las Directrices de IA responsable de la Unidad de Innovación de Defensa, la estrategia de IA responsable del Departamento de Defensa, una actualización de la política del Departamento de Defensa sobre autonomía en las armas, una declaración sobre el control humano de las armas nucleares en la Revisión de la Postura Nuclear de 2022 y una declaración política del Departamento de Estado sobre el uso militar de la IA. Estas declaraciones de política unilaterales no limitarán la forma en que otros estados desarrollan la IA, pero pueden ayudar a dar forma a las opiniones estatales sobre cómo los militares podrían usar la IA. Como próximo paso, los legisladores estadounidenses deberían trabajar con otros estados para adoptar estos principios para ayudar a dar forma a las normas emergentes sobre el uso de la IA.

Construyendo Cooperación

Al buscar "frutas al alcance de la mano" (control de armas relativamente inobjetable o medidas de fomento de la confianza), los estados podrían ayudar a construir patrones de cooperación para gestionar los riesgos de la IA. Un área que está especialmente madura para la colaboración internacional es un "acuerdo internacional de incidentes autónomos" para embarcaciones autónomas sin tripulación, inspirado en el Acuerdo de Incidentes en el Mar entre Estados Unidos y la Unión Soviética de 1972. Muchos acuerdos internacionales existentes ya regulan el comportamiento de aeronaves y embarcaciones tripuladas, incluida la Convención sobre las normas internacionales para prevenir colisiones en el mar, el Código para encuentros no planificados en el mar y múltiples acuerdos bilaterales entre Estados Unidos y China. La actualización de los acuerdos existentes o la elaboración de un nuevo acuerdo para cubrir los sistemas autónomos y no tripulados podría ser un paso valioso para generar confianza y cooperación entre los estados para ayudar a gestionar los riesgos de la IA.

Dar forma al desarrollo de la IA

El paso más importante que los legisladores estadounidenses y aliados pueden dar hoy para controlar cómo se usa la IA en futuros conflictos es dar forma al desarrollo de la propia tecnología de IA para que sea más controlable. El hardware informático es un punto de control especialmente valioso debido a las tendencias en la IA intensiva en computación y la capacidad de limitar físicamente el acceso a los chips. Las decisiones de política que se toman hoy podrían hacer que la computación sea más o menos gobernable en el futuro. El gobierno de EE. UU. se ha metido en la política industrial de semiconductores a través de subsidios gubernamentales y controles de exportación, pero a menudo sin un sentido claro de cuáles son los objetivos de la política. Los subsidios y los controles de exportación son herramientas importantes para sentar las bases de la gobernanza informática, pero son incompletos e incluso podrían ser perjudiciales si no se ejecutan correctamente. Los Estados Unidos El gobierno necesita una estrategia integral para garantizar el control continuo sobre el acceso a los recursos informáticos a gran escala. Hay una serie de elementos clave necesarios para una estrategia exitosa de gobierno de computación.

Mantener el dominio de las empresas estadounidenses garantizará que el gobierno de los EE. UU. conserve la capacidad de controlar el acceso a la computación en el futuro.

Primero, una estrategia integral debería limitar la producción de semiconductores avanzados de China. Los controles de exportación de EE. UU. de octubre de 2022 sobre el envío de equipos de fabricación de semiconductores a China asestaron un duro golpe a la industria nacional de fabricación de semiconductores de China. Pero solo tendrá éxito si Japón y los Países Bajos se unen a Estados Unidos en este esfuerzo. En conjunto, Japón, los Países Bajos y los Estados Unidos controlan el 90 por ciento del mercado mundial de equipos de fabricación de semiconductores. A principios de 2023, los informes noticiosos indicaron que Japón y los Países Bajos adoptaron controles similares a los de Estados Unidos, aunque mucho dependerá de las tecnologías específicas a las que se dirijan estos controles.

En segundo lugar, la estrategia de EE. UU. debe garantizar que las empresas estadounidenses sigan dominando los cuellos de botella clave en la cadena de suministro global. En su política industrial de semiconductores, el gobierno de EE. UU. debe priorizar la creación de un ecosistema nacional para la fabricación de vanguardia a fin de garantizar que las empresas estadounidenses sigan siendo dominantes en estos importantes cuellos de botella para la tecnología de fabricación de semiconductores de próxima generación. Mantener el dominio de las empresas estadounidenses garantizará que el gobierno de los EE. UU. conserve la capacidad de controlar el acceso a la computación en el futuro.

En tercer lugar, es importante mejorar el seguimiento informático para evitar el desvío de chips controlados a actores prohibidos. Los controles de exportación de EE. UU. sobre chips de IA solo serán tan efectivos como su aplicación. El gobierno de EE. UU. debe mejorar sus herramientas y recursos para rastrear y monitorear chips controlados para evitar que los actores prohibidos acumulen grandes cantidades de cómputo.

En cuarto lugar, la estrategia de EE. UU. debe hacer que las empresas chinas sigan dependiendo de los recursos informáticos que utilizan tecnología estadounidense. El objetivo de los controles estadounidenses no debería ser negar a las empresas chinas el acceso a cualquier tecnología estadounidense, sino mantenerlas dependientes de la tecnología estadounidense para que el gobierno estadounidense pueda controlar su acceso a grandes cantidades de computación. Los formuladores de políticas deben tener en cuenta las posibles desventajas de los controles de exportación, en particular las restricciones sobre los propios chips de IA. Los controles de exportación podrían acelerar el desarrollo de cadenas de suministro que no dependan de la tecnología estadounidense a medida que los estados que están aislados de fuentes externas redoblen sus esfuerzos para aumentar su capacidad nacional. Los formuladores de políticas deben promover políticas que ayuden a mantener el control centralizado sobre los recursos informáticos y, por lo tanto, la capacidad de restringir estos recursos en el futuro y no acelerar su difusión sin darse cuenta.

Quinto, Washington necesita promulgar controles de exportación y requisitos de seguridad cibernética para modelos capacitados. Los controles de exportación en chips de gama alta no serán efectivos para restringir el acceso a capacidades de IA de gama alta si los modelos entrenados se filtran, roban o liberan. Los controles de exportación de chips de gama alta deben complementarse con controles de exportación de ciertos tipos de modelos entrenados para que la gobernanza informática sea eficaz. Los modelos entrenados podrían tener aplicaciones relevantes para la seguridad por diseño o como una propiedad emergente de modelos grandes de doble uso. Es posible que se requieran controles de exportación para modelos entrenados para ciertas aplicaciones, como seguridad cibernética o generación de nuevos compuestos químicos, debido a su potencial de uso indebido, o para cualquier modelo por encima de un cierto umbral de cómputo, debido a su naturaleza de doble uso. 49Del mismo modo, se debe exigir a las empresas estadounidenses que realizan entrenamientos a gran escala que cumplan con rigurosas medidas de seguridad cibernética para garantizar que sus modelos no sean robados por actores malintencionados.

Finalmente, una estrategia integral debe regular el uso de computación a gran escala. Para garantizar que los controles sobre chips de IA avanzados y modelos entrenados sean efectivos, el gobierno de los EE. UU. deberá promulgar un régimen regulatorio nacional para controlar el uso de grandes cantidades de cómputo. De lo contrario, los actores prohibidos simplemente podrían acceder a la computación a gran escala para entrenar modelos a través de proveedores de la nube. Las regulaciones sobre el uso de la computación deben cubrir las carreras de capacitación a gran escala y el uso de centros de computación en la nube de IA. Las regulaciones deberían, como mínimo, exigir informes a los reguladores de EE. UU. sobre carreras de entrenamiento a gran escala y estándares de seguridad cibernética para carreras de entrenamiento por encima de un cierto umbral de cómputo. También deberían exigir a los proveedores de la nube que se aseguren de que sus servicios no sean utilizados por actores prohibidos. 

La tecnología de IA continuará evolucionando rápidamente, y aquellos que trabajan en iniciativas de control de armas deben permanecer ágiles y dispuestos a ajustar su enfoque a diferentes aspectos de la tecnología de IA o diferentes capacidades militares habilitadas por IA si surge la necesidad. Mantener métricas para rastrear el progreso y la proliferación de la IA será útil para evaluar las posibilidades de control de armas, así como los posibles desafíos futuros. 

En la actualidad, no está claro cómo los militares adoptarán la IA, cómo la tecnología podría afectar la guerra y qué formas de control de armas, si las hay, los estados pueden percibir como deseables y factibles. Sin embargo, hay acciones que los formuladores de políticas pueden tomar hoy para sentar las bases para posibles medidas de control de armas en el futuro, lo que incluye no solo dar forma a la evolución de la tecnología sino también al clima político. Las acciones que se tomen hoy, incluso las más pequeñas, podrían generar grandes resultados en el futuro. Los Estados deben aprovechar estas oportunidades, cuando sea posible, para reducir los riesgos del uso militar de la inteligencia artificial.