Control de Armas por Inteligencia Artificial
Megan Lamberth and Paul Scharre ||
Texas National Security Review
A medida que la IA continúa avanzando, algunos han expresado su preocupación por los peligros de los sistemas de armas habilitados para la IA. Esto plantea la cuestión de cuán factible será controlar el uso militar de la IA. Megan Lamberth y Paul Scharre analizan una serie de características que hacen que la IA sea difícil de controlar y presentan algunos pasos concretos que podrían tomarse hoy para aumentar la probabilidad de que los futuros regímenes de control de armas de la IA tengan éxito.
Los militares de todo el mundo están trabajando en la mejor manera de desarrollar, integrar y utilizar la IA en sus sistemas de armas. Si bien muchos de estos sistemas aún no se han realizado, los avances en IA podrían tener un impacto significativo en la forma en que operan los militares con el tiempo. La preocupación por los sistemas militares de IA ha llevado a algunos activistas a pedir prohibiciones o regulaciones sobre algunos sistemas de armas habilitados para IA.
Sin embargo, la IA tiene varias características que la hacen difícil de controlar. Como
tecnología habilitadora de propósito general, la IA es como la
electricidad o el motor de combustión interna y tiene innumerables
aplicaciones no militares o de defensa.
Se diferencia de algunas tecnologías militares porque se desarrolla
predominantemente en el sector civil por ingenieros en la industria
privada o en organizaciones de investigación. Si
bien la disponibilidad generalizada de la IA hace que sea poco probable
una prohibición total de todas las aplicaciones militares de la IA,
puede haber una oportunidad para que la comunidad internacional trabaje
en conjunto para regular o prohibir ciertos usos de la IA militar.
A lo largo de la historia, los países han buscado restricciones o prohibiciones para ciertas armas o usos de armas. Las motivaciones para el control de armas pueden variar, al igual que su éxito. La
evaluación de casos históricos de control de armas muestra que los
pasos concretos que se toman hoy podrían aumentar las posibilidades de
éxito en el control de armas de la IA en el futuro. Los formuladores de políticas pueden trabajar para dar forma a cómo los militares emplean la tecnología de IA. Las
naciones también pueden establecer un diálogo regular con aliados y
competidores sobre cómo se puede usar la IA en la guerra y qué medidas
se pueden tomar para reducir los riesgos mutuos.
La
naturaleza ubicua y democratizada de la IA hace que el control de armas
sea difícil pero no imposible en todas las circunstancias. Si
bien una prohibición total del uso militar de la IA es inviable, los
estados podrían prohibir algunas aplicaciones de la IA, siempre que
hubiera claridad sobre qué usos estaban prohibidos y que los estados
tuvieran la capacidad de verificar el cumplimiento de otros estados. La
verificación, si bien es un desafío para cualquier capacidad militar
basada en software, podría lograrse a través de una variedad de métodos
posibles: implementar regímenes de inspección intrusivos; regular
las características físicas observables externamente de los sistemas
habilitados para IA (por ejemplo, tamaño, peso, carga útil) o
comportamientos autónomos; o restringir la infraestructura informática (es decir, el hardware). Cualquier control de armas de IA sería un desafío, pero en las condiciones adecuadas, podría ser factible en algunos casos.
Tipos de control de armas
El control de armas abarca una variedad de acciones y puede ocurrir en cualquier etapa del desarrollo o uso de un arma. En
este artículo, definimos el control de armas como “acuerdos que los
estados hacen para controlar la investigación, el desarrollo, la
producción, el despliegue o el empleo de ciertas armas, características
de las armas, aplicaciones de armas o sistemas de lanzamiento de armas”.
3
Los
tratados de no proliferación, como el Tratado de No Proliferación
Nuclear, se enfocan en la fase de desarrollo tecnológico y tienen como
objetivo evitar el acceso a la tecnología subyacente detrás de un arma
determinada. Otras medidas
de control de armas prohíben el desarrollo, la producción y el
almacenamiento de un arma, pero permiten el acceso a la tecnología
subyacente. Esto incluye la prohibición de las minas terrestres antipersonal y las municiones en racimo. Los
tratados de limitación de armas, como el Nuevo Tratado START, permiten
la producción de ciertas armas pero intentan limitar las cantidades que
los países pueden poseer. Otras medidas regulan el uso de un arma en la guerra o, en algunos casos, prohíben por completo el uso de un arma.
Si
bien algunas medidas de control de armas se ejecutan a través de
acuerdos legalmente vinculantes, existen numerosos casos a lo largo de
la historia de acuerdos exitosos no legalmente vinculantes o incluso de
cooperación tácita sin acuerdos formales. Con
el tiempo, las prácticas estatales de larga data también pueden
evolucionar hacia el derecho internacional consuetudinario, o “práctica
general aceptada como ley”.
El control de armas es la excepción, más que la regla, cuando las naciones compiten para desarrollar y desplegar armas. El
control de armas requiere coordinación y confianza entre los estados,
una tarea bastante difícil en tiempos de paz y aún más difícil en
tiempos de conflicto. Los
estados a menudo son reacios a aceptar medidas de monitoreo y
verificación que podrían mejorar la transparencia mutua y permitir que
los estados verifiquen el cumplimiento de los demás. Como
explican Andrew Coe y Jane Vaynman, un “obstáculo importante para el
control de armas es la compensación que implica el monitoreo: se
requiere transparencia para asegurar que una parte del otro cumpla con
los límites de armas, pero la transparencia también podría revelar
vulnerabilidades que podrían ser explotadas por el primer bando en una
carrera armamentista o una guerra”. 6A
pesar de los muchos obstáculos para el control de armas, los estados,
en algunas circunstancias, han podido limitar con éxito el desarrollo y
uso de armas, incluso en la guerra. Las
lecciones de los éxitos y fracasos históricos pasados brindan
información valiosa para los intentos de restringir la búsqueda de IA
por parte de los militares.
Por qué el control de armas tiene éxito o fracasa
Que
el control de armamentos tenga éxito o fracase depende tanto de la
conveniencia del control de armamentos como de su viabilidad. La
conveniencia del control de armas se basa en el cálculo de un país del
valor militar percibido de un arma frente a su horror percibido, como
sus efectos inhumanos en los combatientes, su naturaleza indiscriminada o
su efecto desestabilizador en el orden internacional o político. La
viabilidad del control de armas depende de varios factores: la
capacidad de los países para lograr claridad sobre el nivel de
moderación deseado; la capacidad de los países tanto para cumplir con un acuerdo como para verificar el cumplimiento de otros estados; y el número de países necesarios para que un acuerdo funcione. La
probabilidad de que un esfuerzo de control de armas tenga éxito aumenta
a medida que aumentan la conveniencia y la viabilidad.
Sin
embargo, incluso los acuerdos de control de armas parcialmente exitosos
pueden ser efectivos para mejorar la estabilidad, minimizar el daño
civil y reducir el sufrimiento de los combatientes.
El éxito en el control de armas existe en un espectro. Implica
limitar el comportamiento del Estado en la investigación, el
desarrollo, la producción, el despliegue o el uso de un arma. Las medidas que no logran restringir o regular un comportamiento se consideran infructuosas. La mayoría de los acuerdos se encuentran en algún punto intermedio. Incluso los acuerdos más efectivos, como la Convención sobre Armas Químicas, tienen excepciones e infractores. Otros
acuerdos pueden tener éxito durante un período de tiempo, pero la
tecnología o las dinámicas políticas cambiantes hacen que se desmoronen.
Tomemos, por ejemplo, el Tratado sobre Misiles Antibalísticos y el Tratado sobre Fuerzas Nucleares de Alcance Intermedio. Sin
embargo, incluso los acuerdos de control de armas parcialmente exitosos
pueden ser efectivos para mejorar la estabilidad, minimizar el daño
civil y reducir el sufrimiento de los combatientes.
Deseabilidad del control de armas
Los
estados se resistirán a regular un arma con un alto valor militar, una
que sea efectiva, otorgue un acceso único o brinde una ventaja decisiva
en el campo de batalla, incluso si el arma tiene la capacidad de causar
un daño sustancial. Pesado
contra el valor militar de un arma está su horror percibido, es decir,
si el arma se percibe como inhumana, indiscriminada, desestabilizadora o
perturbadora del orden político o social.
En
ocasiones, los Estados han tratado de restringir las armas o los
sistemas militares que producen sufrimientos innecesarios o daños
superfluos. 7
Por ejemplo, las balas que dejan fragmentos de vidrio en el cuerpo
tienen un mayor grado de horror (causan lesiones excesivas y los
fragmentos de vidrio no son detectables por rayos X) y no brindan un
valor único a los militares. La percepción del horror de un arma también puede verse influida por el mecanismo de lesión. Los
láseres permanentemente cegadores, por ejemplo, se perciben como
causantes de sufrimiento innecesario, lo que aumenta la conveniencia de
controlarlos.
Los
Estados han tratado de controlar armas o sistemas militares menos
discriminatorios, aquellos que no pueden distinguir entre civiles y
combatientes. Esto incluye las primeras restricciones al bombardeo aéreo. Estos tipos de regulaciones tienen más éxito cuando el arma o el comportamiento están prohibidos por completo. Los
intentos de regular el uso de armas indiscriminadas limitando su uso a
objetivos militares y manteniéndolos alejados de áreas civiles no han
tenido buenos resultados en la práctica durante la guerra.
Los estados también pueden desear el control de armas para las armas que se perciben como perturbadoras o desestabilizadoras. Los
líderes políticos pueden tratar de prohibir un arma que amenace su
control del poder, como las prohibiciones papales de la ballesta o las
primeras regulaciones sobre armas de fuego. Las
armas que se consideran desestabilizadoras, como los sistemas de
misiles antibalísticos o las armas nucleares basadas en el espacio,
pueden ser más deseables para el control de armamentos porque podrían
provocar una carrera armamentista costosa o podrían crear incentivos
perversos para un primer ataque.
La
mejor ilustración de la dinámica de la conveniencia del control de
armamentos es la respuesta de la comunidad internacional a las armas
nucleares frente a las armas químicas.
La
reciprocidad, el temor de que otro país pueda tomar represalias con un
arma o un comportamiento en especie, es un factor esencial en el deseo
de un estado y el cumplimiento del control de armas.
Antes de ratificar el Protocolo de Ginebra sobre Gas de 1925, el Reino
Unido, Francia y la Unión Soviética declararon que el acuerdo dejaría de
ser vinculante si algún país no lo cumplía. En las etapas iniciales de la Segunda Guerra Mundial, Hitler se abstuvo
de ordenar el bombardeo de ciudades británicas, no por las
prohibiciones legales internacionales vigentes contra hacerlo, sino por
temor a que Gran Bretaña tomara represalias del mismo modo. La
restricción mutua se logra ya sea por normas internas de adecuación o
por temor a cómo un adversario podría tomar represalias. En
un estudio exhaustivo de las violaciones del derecho de guerra en 48
guerras interestatales entre 1900 y 1991, James D. Morrow descubrió que
la reciprocidad era clave para el cumplimiento.
Los tratados fueron a menudo un mecanismo de coordinación útil para que
los estados acordaran si restringir sus operaciones militares y cómo
hacerlo, pero las violaciones de un lado casi siempre conducían a
violaciones recíprocas. En
las democracias, las instituciones nacionales pueden crear cierta
“pegajosidad” que aumenta la probabilidad de seguir cumpliendo con los
tratados incluso cuando un oponente los ha violado. A pesar de estas presiones, Morrow concluyó: “La restricción unilateral es rara”.
La
mejor ilustración de la dinámica de la conveniencia del control de
armamentos es la respuesta de la comunidad internacional a las armas
nucleares frente a las armas químicas. La
horrorosidad de las armas nucleares supera con creces el sufrimiento
que causan las armas químicas, pero el desarme nuclear mundial sigue
estando fuera de nuestro alcance. Las armas químicas, por otro lado, han sido ampliamente denunciadas por la comunidad internacional. Su uso ocasional ha sido por estados parias. La diferencia clave radica en el valor militar de cada arma: las armas nucleares tienen una eficacia política única. El
resultado de esta dinámica es que el control de armas suele tener éxito
en el caso de las armas que no son especialmente valiosas.
Viabilidad del Control de Armas
Si
bien la conveniencia del control de armas tiene que ver con los
factores que motivan o desalientan a los países a buscar el control de
armas, la factibilidad implica si se puede lograr la restricción mutua. Que el control de armas sea factible o no depende de varios factores: la claridad de una regulación; la capacidad de los estados para cumplir con los términos de un acuerdo; la capacidad de los estados para verificar el cumplimiento de otros estados; y el número de países necesarios para que un acuerdo tenga éxito.
Para que los estados logren el control de armas, deben acordar qué armas o usos de armas se regulan y cómo se regularán. La simplicidad es una gran ventaja cuando se elaboran regulaciones. Las
prohibiciones completas de armas generalmente se han cumplido mejor en
tiempos de guerra que las reglas que permiten su uso en algunas
circunstancias. La simplicidad ayuda a los adversarios a coordinar la moderación y ayuda en el valor normativo de estigmatizar un arma. Las
prohibiciones absolutas, como las de las minas terrestres antipersonal,
las municiones en racimo y las armas químicas y biológicas, han tenido
éxito, en parte, porque el arma está prohibida en todas las
circunstancias, no solo en ciertos casos. Históricamente,
las regulaciones que restringen el uso en algunos casos y no en otros,
como las armas lanzadas desde el aire y la guerra submarina, han tenido
menos probabilidades de éxito.
Y, sin embargo, no siempre se requiere simplicidad. Los
Estados Unidos y la Unión Soviética/Rusia se involucraron en múltiples
acuerdos bilaterales de control de armas que tenían reglas complicadas
para las armas que cada estado podía construir, incluido el Tratado de
Fuerzas Nucleares de Alcance Intermedio, el Tratado de Misiles
Antibalísticos, SALT I, SALT II , ORDENAR, INICIO y Nuevo INICIO. Sin
embargo, estos tratados tenían otras ventajas, como que solo requerían
que dos partes llegaran a un acuerdo y solo limitaban el desarrollo y la
producción de armas en tiempos de paz, en lugar del uso en tiempos de
guerra.
Cuanto más difusa sea un arma, más difícil será controlarla porque se necesitarán más naciones en la mesa de negociaciones.
Otro
factor importante que afecta la viabilidad es la capacidad de un país
para cumplir realmente con las condiciones de un acuerdo. Los
estados tienen un control imperfecto sobre sus fuerzas armadas, y las
regulaciones que los estados podrían violar accidentalmente pueden ser
más difíciles de cumplir. Alemania
y Gran Bretaña entraron en la Segunda Guerra Mundial buscando
moderación en el bombardeo aéreo de ciudades, y la moderación mutua se
mantuvo durante un tiempo. Al principio, ambos países solo bombardeaban objetivos militares, no áreas pobladas. La
moderación se derrumbó después de que los bombarderos alemanes se
desviaran accidentalmente del objetivo en agosto de 1940 y bombardearan
el centro de Londres por error. Gran
Bretaña tomó represalias bombardeando Berlín, y Hitler respondió
lanzando el London Blitz, después de lo cual desaparecieron todos los
intentos de moderación. Las normas que pueden violarse fácilmente por casualidad son más difíciles de mantener.
La viabilidad del control de armas también se ve afectada por el número de países necesarios para que un acuerdo tenga éxito. Cuantos menos países sean necesarios, mejor. A
lo largo de la Guerra Fría, por ejemplo, la estructura bipolar del
sistema internacional facilitó el control de armas porque solo dos
superpotencias necesitaban ponerse de acuerdo para que el control de
armas tuviera éxito. Incluso
para los acuerdos multilaterales, Estados Unidos y la Unión Soviética
podrían liderar el desarrollo de un acuerdo, facilitando el seguimiento
de otros países. Estados
Unidos y la Unión Soviética establecieron múltiples acuerdos de control
de armas, algunos bilaterales y otros multilaterales. Estos
acuerdos incluyeron el Tratado de los Fondos Marinos, el Tratado del
Espacio Exterior, el Tratado de Misiles Antibalísticos y otros. Cuanto más difusa sea un arma, más difícil será controlarla porque se necesitarán más naciones en la mesa de negociaciones.
La
capacidad de un estado para verificar si otros estados cumplen con un
acuerdo es un factor importante para que el control de armas tenga
éxito. En algunos casos se
han utilizado regímenes formales de verificación, particularmente para
armas que pueden desarrollarse en secreto, como las armas nucleares o
químicas. La Convención de
Armas Químicas y el Tratado de No Proliferación Nuclear incluyen
medidas de inspección para verificar el cumplimiento de los signatarios.
El Tratado del Espacio
Exterior estipula que los estados deben permitir que otros vean los
lanzamientos espaciales y visiten cualquier instalación en la luna. Sin embargo, no todos los tratados exitosos tienen regímenes formales de verificación. Las
prohibiciones de las municiones en racimo y las minas antipersonal no
requieren inspecciones formales, pero obligan a los estados a ser
transparentes con respecto a la eliminación de sus existencias. En algunos casos,
El estatus legal de un acuerdo de control de armas parece tener poco impacto en su éxito final. Los países han violado tratados legalmente vinculantes a lo largo de la historia, particularmente en tiempos de guerra. Este
fue el caso del uso de gas venenoso en la Primera Guerra Mundial. Los
acuerdos informales, no legalmente vinculantes, han tenido éxito en el
pasado. Tomemos, por ejemplo, el Régimen de Control de Tecnología de Misiles, que limita la exportación de ciertas clases de misiles. Incluso
hay algunos ejemplos de un entendimiento tácito, en el que no existe un
acuerdo formal, que restringe el uso de un arma, como la moderación
mostrada por Estados Unidos y la Unión Soviética al desplegar armas
antisatélite o bombas de neutrones durante la Guerra Fría o la decisión
unilateral de Alemania recuerdo de su bayoneta aserrada en la Primera
Guerra Mundial. Más que el estado legal de un tratado, la reciprocidad es el factor impulsor que motiva a los estados a cumplir. Cuando
los estados restringen el desarrollo, la producción o el uso de un
arma, generalmente es por temor a que los competidores respondan a las
violaciones de la misma manera. Sin embargo, los acuerdos formales pueden ser útiles para coordinar el comportamiento del estado y aclarar las expectativas.
El
control de armas también depende de la ruta: las regulaciones con
frecuencia se basan en éxitos anteriores de regulación de tecnologías
relacionadas. Las
prohibiciones antiguas sobre el veneno, por ejemplo, ayudaron a conducir
a las prohibiciones modernas sobre las armas químicas y biológicas. Los
acuerdos de control de armas entre Estados Unidos y la Unión Soviética
sobre armas estratégicas fomentaron acuerdos adicionales con el tiempo. El
éxito de la campaña humanitaria para prohibir las minas terrestres
antipersonal probablemente hizo posible una prohibición humanitaria de
las municiones en racimo.
Reglamento sobre tecnologías en evolución
Los
estados han intentado con frecuencia regular tecnologías nuevas o en
rápida evolución, que presentan desafíos únicos que son especialmente
relevantes cuando se trata de IA. Los
estados pueden no estar seguros de los beneficios y daños militares de
las tecnologías emergentes y pueden equivocarse al preservar la opción
de usarlas. Cuando los
estados desean moderación, es posible que no puedan predecir
correctamente el camino de la evolución de una tecnología, cómo se
empleará y las contramedidas que se pueden desarrollar, lo que hace que
los estados elaboren regulaciones que no son prácticas o que no limitan
completamente los usos dañinos.
Las
naciones se embarcaron en una serie de acuerdos de control de armas a
fines del siglo XIX y principios del XX en un intento por controlar las
armas de la era industrial. Las
potencias europeas firmaron acuerdos de control de armas en 1868, 1899,
1907, 1922, 1930 y 1936 que regulan las balas explosivas o en
expansión, el gas venenoso, las armas lanzadas desde el aire, los
submarinos y los barcos de guerra. Ninguno
de estos tratados intentó detener la proliferación de la ciencia y la
tecnología subyacentes, como la química o el motor de combustión
interna. Más bien,
restringieron los tipos de armas que los militares podían construir o,
en el caso de aviones y submarinos, cómo se podían usar las armas en la
guerra. Aunque los líderes
europeos anticiparon correctamente que muchas de estas armas, como los
aviones o el gas venenoso, podrían causar un gran sufrimiento en la
guerra,
El gas venenoso fue prohibido antes de la Primera Guerra Mundial, pero solo cuando se liberaba de proyectiles. El
primer uso de cloro a gran escala en Alemania en la Segunda Batalla de
Ypres fue técnicamente permisible porque el gas se liberó de los botes. Lograr
la moderación con gas se complicó aún más por el hecho de que sus
ventajas y desventajas militares relativas no se conocían antes de la
Primera Guerra Mundial. Alemania empleó gas por primera vez en busca de
un arma ganadora de la guerra que cambiara el rumbo en el frente, quizás
motivado, en parte, por experimentos franceses con granadas de gas
lacrimógeno a principios de la guerra.
Un
factor que pesa a favor de las regulaciones preventivas es que puede
ser más fácil, en algunos casos, prohibir las armas que los militares
aún no han integrado en sus arsenales y, por lo tanto, de las que no
dependen para su defensa.
Los
intentos de regular los submarinos y las aeronaves fracasaron de manera
similar debido a suposiciones incorrectas sobre cómo evolucionarían
estas tecnologías. La
Convención de La Haya de 1907 prohibió el bombardeo aéreo contra
ciudades “indefensas”, al no prever la debilidad de las defensas aéreas
contra los bombardeos.
Por el contrario, la ley marítima requería que los submarinos salieran a
la superficie, dieran aviso y llevaran a la tripulación a bordo antes
de hundir los barcos mercantes. El
cumplimiento de estas reglas, que Alemania intentó hacer inicialmente
en la Primera Guerra Mundial, dejó a los submarinos vulnerables incluso a
los barcos mercantes con armas ligeras.
En otros casos, algunas armas resultaron no ser tan problemáticas como los estados lo imaginaron originalmente. Las
balas expansivas fueron prohibidas en la Convención de La Haya de 1899,
pero hoy en día son ampliamente utilizadas por las fuerzas del orden y
para la autodefensa civil. (Es menos probable que las balas en expansión atraviesen a una persona y golpeen a los transeúntes).
Más
recientemente, en el caso de la prohibición de los láseres cegadores,
los estados han tratado de eludir el problema de predecir cómo
evolucionará la tecnología mediante la adopción de una prohibición sobre
el uso previsto de la tecnología. El
Protocolo IV de la Convención sobre Ciertas Armas Convencionales
establece: “Está prohibido emplear armas láser específicamente
diseñadas, como su única función de combate o como una de sus funciones
de combate, para causar ceguera permanente a la visión no mejorada”.
La prohibición, en particular, no prohíbe las características técnicas
específicas de un láser, como su potencia, sino que se centra en su uso
previsto. Hasta la fecha, la prohibición del láser cegador ha tenido éxito.
Si
bien la prohibición preventiva de nuevas tecnologías es un desafío en
muchos sentidos, los estados han logrado imponer regulaciones
preventivas sobre láseres cegadores, armas biológicas, usar el medio
ambiente como arma, colocar armas nucleares en el lecho marino o en el
espacio y establecer bases militares en la Antártida o en la luna. Un
factor que pesa a favor de las regulaciones preventivas es que puede
ser más fácil, en algunos casos, prohibir las armas que los militares
aún no han integrado en sus arsenales y, por lo tanto, de las que no
dependen para su defensa.
Lecciones de Inteligencia Artificial
La IA será difícil de controlar por tres razones clave: es una tecnología de propósito general; es una tecnología emergente; y verificar el cumplimiento de cualquier acuerdo relacionado con la IA planteará desafíos únicos. Sin embargo, esto no significa que la IA sea incontrolable. Si bien los obstáculos son significativos, el control de armas podría ser posible para algunas aplicaciones militares de IA. Incluso
cuando los países buscan ventajas en la IA militar, deben buscar formas
de mitigar los riesgos de la competencia de la IA militar, incluso a
través del control de armas.
Una tecnología de propósito general
Como
tecnología habilitadora de uso general, la IA se parece más a la
electricidad que a una tecnología discreta como los submarinos o los
láseres cegadores, lo que plantea obstáculos para los esfuerzos de
control de armas. La IA es
una tecnología de doble uso, con aplicaciones tanto civiles como
militares, y es probable que esté ampliamente disponible. La
naturaleza difusa de la IA hace que un régimen de no proliferación, uno
que proponga "embotellar" la IA y reducir su propagación, sea poco
probable que tenga éxito. Además,
debido a que la IA está tan extendida, numerosos actores tendrían que
estar de acuerdo para que cualquier regulación tenga éxito.
La definición a menudo confusa de "IA" también podría complicar el logro de la claridad en cualquier acuerdo. La definición de lo que constituye “IA” es ambigua y abierta a interpretación. Declarar
simplemente "sin IA" carece de la claridad de prohibir por completo
todos los usos del gas porque puede no estar claro si una tecnología
califica como "IA". Además,
debido a que el campo de la IA es tan vasto y sus usos son tan amplios,
prohibir toda la IA sería similar a los estados del siglo XIX que
declararon "No a la industrialización". Los
estados intentaron controlar las tecnologías de la era industrial,
incluidos los submarinos, los aviones, los globos, el gas venenoso y las
balas explosivas o en expansión. Pero que los países hayan acordado no utilizar ninguna tecnología de la era industrial en la guerra no habría sido práctico. Tampoco está claro, dada la naturaleza de doble uso de la infraestructura industrial civil, si
se hubieran trazado líneas divisorias entre la industrialización civil y
la militar, incluso si los países las hubieran deseado. Qué
usos militares de la IA son aceptables o inaceptables podría ser
ambiguo, y los países necesitarán claridad y líneas bien definidas para
que cualquier esfuerzo de control de armas tenga éxito.
En
última instancia, la conveniencia y viabilidad del control de armas
para cualquier aplicación militar específica de IA puede depender de
cómo se aplique la tecnología.
Los
casos históricos de control de armas durante la revolución industrial
sirven como una guía útil porque los estados regularon, con diversos
grados de éxito, aplicaciones específicas de tecnologías industriales de
propósito general, incluyendo el motor de combustión interna
(submarinos y aviones) y la química (balas explosivas y gas venenoso). Estos
esfuerzos a veces fallaron, pero esto no se debió a que los estados no
pudieran definir qué era un submarino o un avión o porque los estados no
pudieran limitar su uso civil. Más bien, estas medidas fallaron debido a cómo esas armas se usaron específicamente en la guerra. Si
el equilibrio ofensivo-defensivo entre bombarderos y defensas aéreas, o
submarinos y barcos mercantes hubiera evolucionado de manera diferente,
esas armas podrían haber sido controladas con mayor eficacia.
Si
bien es probable que no se pueda lograr una prohibición total de todas
las aplicaciones militares de IA, la historia sugiere que los países
podrían estar abiertos a algunas limitaciones en aplicaciones
específicas. El desafío es determinar para qué aplicaciones específicas de IA es el control de armas más deseable y factible. ¿Hay ciertos usos que se perciben como especialmente peligrosos, desestabilizadores o dañinos? Los
académicos ya han comenzado a considerar el impacto de la IA en la
estabilidad nuclear, las armas autónomas y la seguridad cibernética, y
seguramente habrá otras áreas que merecen una consideración seria. En
última instancia, la conveniencia y viabilidad del control de armas
para cualquier aplicación militar específica de IA puede depender de
cómo se aplique la tecnología. Un
acuerdo de control de armas podría diseñarse estrictamente para apuntar
a instancias específicas de tecnología de IA que se consideran
particularmente problemáticas, similares a las balas restrictivas de los
países que están diseñadas para explotar dentro del cuerpo, en lugar de
explotar proyectiles por completo.
Una tecnología emergente
Un
desafío al anticipar qué usos específicos de la IA militar pueden
merecer una mayor consideración para el control de armas es que no está
claro cómo se utilizará finalmente la IA en el campo de batalla. Este
es un problema constante para las tecnologías emergentes, desde
ejemplos históricos como aviones y tanques hasta ejemplos contemporáneos
como herramientas cibernéticas y armas de energía dirigida. A
fines del siglo XIX y principios del XX, los países lucharon por
controlar las tecnologías de la era industrial, como el gas venenoso y
los submarinos, que progresaban rápidamente.
El
hecho de que muchos militares perciban que la IA es una tecnología que
"cambia las reglas del juego" podría representar un obstáculo para
restringir su uso. Los militares de todo el mundo están invirtiendo en IA y pueden ser reacios a restringir ciertas aplicaciones. La
retórica que rodea a la IA, gran parte de la cual puede no coincidir
con las inversiones reales que los militares están haciendo en IA,
podría en sí misma obstaculizar los posibles esfuerzos de control de
armas.
Además,
las percepciones de que la tecnología de IA puede generar capacidades,
precisión, confiabilidad o eficacia sobrehumanas podrían disminuir la
creencia de que algunas aplicaciones de IA tienen el potencial de ser
desestabilizadoras o peligrosas. Estas percepciones, incluso si son infundadas, podrían afectar la voluntad de un país de perseguir el control de armas de AI. A
medida que los países desarrollen y apliquen aplicaciones militares de
inteligencia artificial reales, es probable que las percepciones cambien
para alinearse más estrechamente con la realidad. Pero
las futuras aplicaciones militares de IA pueden ser más difíciles de
regular si ya se han integrado en las fuerzas militares de un país o se
han utilizado en el campo de batalla.
Verificación del cumplimiento
La capacidad de verificar el cumplimiento de cualquier acuerdo de control de armas es esencial para su éxito a largo plazo. Un
acuerdo con un lenguaje claro y la aceptación de los estados necesarios
podría fallar si los estados carecen de los medios para verificar el
cumplimiento de los demás. La
IA complica la verificación porque, al igual que otras formas de
software, los atributos cognitivos de un sistema de IA no son fácilmente
observables externamente. Un arma "inteligente" puede parecerse mucho a un arma "tonta" del mismo tipo. Los
sensores de un vehículo autónomo, que utiliza para percibir su entorno,
pueden ser visibles, pero el algoritmo particular que utiliza podría no
serlo. Esto plantea un
desafío para cualquier tipo de control de armas para los sistemas
militares de inteligencia artificial porque la restricción mutua se basa
en la capacidad de un estado para verificar el cumplimiento de un
acuerdo por parte de otro estado. Hay formas en que los países podrían responder a este desafío,
Adopte inspecciones intrusivas
Un
régimen de inspección intrusiva podría permitir el acceso de
observadores externos a las instalaciones de un estado ya ciertos
sistemas militares para verificar que el software del estado se ajuste a
las estipulaciones de un régimen de control de armas. Sin
embargo, cualquier régimen de inspección potencial enfrentaría los
mismos obstáculos de transparencia que enfrentan otras armas: las
inspecciones corren el riesgo de exponer vulnerabilidades potenciales en
el sistema de armas de un estado a una nación competidora. Este
desafío posiblemente podría corregirse en el futuro mediante la
verificación de software para preservar la privacidad, que podría
verificar el comportamiento de una pieza de software sin revelar
información privada. Alternativamente,
los países podrían decidir que los beneficios de la verificación
superan los riesgos de una mayor transparencia. Los
Estados han adoptado regímenes de inspección intrusivos en el pasado,
como las inspecciones bajo el régimen de no proliferación nuclear para
verificar el uso civil nuclear.
Los
regímenes de inspección intrusivos seguirán siendo una opción débil
para verificar el cumplimiento, a menos que los estados puedan superar
con confianza el desafío de las actualizaciones posteriores a la
inspección rápidas y escalables de los sistemas de IA.
Otro
obstáculo para las inspecciones es que, si la diferencia entre la
capacidad permitida y la prohibida radica en el software, un estado
podría simplemente actualizar su software después de que se vayan los
inspectores. Actualizar el software es mucho más rápido y fácil que construir otro misil o una instalación de enriquecimiento nuclear. En el futuro, los países podrían superar este problema adoptando enfoques técnicos más avanzados. Las
opciones potenciales incluyen el monitoreo continuo del software para
detectar cambios o incorporar funcionalidad en el hardware, de modo que
la capacidad esté limitada por el hardware, no por el software. El
monitoreo continuo implicaría la instalación de dispositivos en los
sistemas militares que alertarían a los inspectores sobre cualquier
cambio en el software. La
adopción de este enfoque requiere más avances tecnológicos, así como el
compromiso de los estados con el monitoreo intrusivo continuo, en lugar de inspecciones periódicas. También
es posible que tal enfoque, si se implementa, podría tener efectos
desestabilizadores imprevistos en ciertos escenarios. Por
ejemplo, una actualización de software para mejorar la funcionalidad en
vísperas de un conflicto podría desencadenar una alerta que llevaría a
otros estados a asumir el incumplimiento del control de armas. Alternativamente,
el código compatible con el régimen que no debe modificarse podría
integrarse en el hardware físico, por ejemplo, a través de una memoria
de solo lectura o circuitos integrados específicos de la aplicación.19
Los regímenes de inspección intrusivos seguirán siendo una opción débil
para verificar el cumplimiento a menos que los estados puedan superar
con confianza el desafío de las actualizaciones posteriores a la
inspección rápidas y escalables de los sistemas de IA.
Restringir las características físicas observables externamente de los sistemas habilitados para IA
En
lugar de centrarse en las capacidades cognitivas de un sistema de IA,
los estados podrían centrarse en las características físicas generales
de un sistema que son fácilmente observables y difíciles de cambiar,
como el tamaño, el peso, la potencia, la resistencia, la carga útil, la
ojiva, etc. Este enfoque
permitiría a los estados adoptar cualquier característica cognitiva
(sensores, hardware y software) que elijan para un sistema. Las
limitaciones de control de armas se aplicarían solo a las
características físicas brutas de un vehículo o munición, incluso si la
preocupación real estuviera motivada por las capacidades militares que
habilita la IA. Por
ejemplo, si los países estuvieran preocupados por los enjambres de
pequeños drones antipersonal, en lugar de permitir solo pequeños drones
"tontos" (lo que sería difícil de verificar), podrían prohibir todos los
pequeños drones armados, independientemente de sus capacidades
cognitivas.
Los países han utilizado enfoques similares en el pasado: optar por
regular las características físicas brutas (que eran observables) en
lugar de las cargas útiles reales (que eran la preocupación real de los
estados, pero más difíciles de verificar). Varios
tratados de la era de la Guerra Fría limitaron o prohibieron ciertas
clases de misiles, en lugar de solo prohibir armarlos con armas
nucleares.
Limitar solo los misiles con armas nucleares habría permitido ciertos
misiles convencionales, pero habría sido más difícil de verificar.
Regular el comportamiento observable de los sistemas de IA
Otra
opción es que los países centren las regulaciones en el comportamiento
observable de un sistema de IA, como la forma en que opera bajo ciertas
condiciones. Esto sería
análogo al concepto de restricciones de bombardeo de "No ciudades", que
no prohibía a los bombarderos sino que regulaba cómo se empleaban. Este
enfoque podría usarse cuando se trata de manifestaciones físicas de
sistemas de IA en los que otros estados pueden observar el
comportamiento externo del sistema. Por
ejemplo, los países podrían establecer reglas sobre cómo deben
comportarse los buques de superficie navales autónomos en la proximidad
de otros barcos, e incluso podrían adoptar reglas sobre cómo los
sistemas autónomos armados podrían señalar claramente una escalada de
fuerza para evitar una escalada inadvertida en tiempos de paz o crisis. El
algoritmo particular utilizado para programar el comportamiento sería
irrelevante: los estados podrían utilizar diferentes enfoques. De
manera similar a las reglas que rigen el comportamiento de los
combatientes humanos, la regulación regiría cómo se comporta el sistema
de IA, no su lógica interna. Sin embargo, este enfoque no sería efectivo para aplicaciones militares de IA que no son observables. Por
ejemplo, las restricciones sobre el papel de la IA en el comando y
control nuclear probablemente no serían observables por un adversario. Este
enfoque también está limitado porque el comportamiento de un sistema
podría modificarse rápidamente a través de una actualización de
software, lo que socavaría la confianza y la verificabilidad.
Restringir la infraestructura informática
Los estados podrían enfocar las regulaciones en elementos del hardware de IA que se pueden observar o controlar. Los
sistemas de IA se basan en chips para la computación, por lo que los
países podrían potencialmente restringir o controlar chips de IA
especializados a través de un régimen de no proliferación
(particularmente si estos chips fueran esenciales para la capacidad
militar prohibida). 22Los
países también podrían posiblemente optar por restringir los recursos
informáticos a gran escala, también conocidos como "computación", si son
observables o se pueden rastrear. Los
grandes modelos de IA como GPT-4 se están volviendo cada vez más de uso
general y pueden ejecutar una amplia gama de tareas. Estos sistemas de IA de alta capacidad son intrínsecamente de doble uso. Incrustadas
en su funcionalidad de uso más general, de manera predeterminada, se
encuentran capacidades relevantes para la seguridad, como la capacidad
de empoderar a los actores para lanzar ataques cibernéticos, químicos o
biológicos. El
gobierno de la computación implica controlar el uso de la computación a
lo largo del ciclo de vida de producción de un modelo de IA, desde la
fabricación del chip hasta el entrenamiento y el uso del modelo. Las
tendencias actuales en IA sugieren que restringir el acceso a la
computación a gran escala podría ser un enfoque particularmente efectivo
para negar el acceso a las capacidades de IA más avanzadas.
Si
bien esto plantea problemas para la salud y la diversidad de la
comunidad de investigación de IA, las crecientes barreras de entrada
presentan una oportunidad para controlar el acceso a estas capacidades
de IA.
Los
laboratorios de investigación de Frontier AI han invertido mucho en
computación a gran escala para el aprendizaje automático en los últimos
años. Los principales
modelos de investigación de IA se entrenan en miles de chips de IA
especializados, como unidades de procesamiento de gráficos o GPU, que se
ejecutan durante semanas a la vez. La cantidad de cómputo utilizada en el entrenamiento de modelos de IA
de frontera se multiplicó por diez mil millones entre 2010 y 2022,
duplicándose cada seis meses (para los modelos más grandes, se duplicó
cada 10 meses).
Esta tasa de crecimiento es mucho más rápida que el período de
duplicación de 24 meses según la Ley de Moore y es más rápida que la
tasa actual de mejoras de hardware, que se ha estado duplicando cada dos
años y medio. 26Para lograr este crecimiento informático, los costos de las ejecuciones de capacitación a gran escala se están disparando. Las
estimaciones independientes ubican los costos de capacitación de los
modelos más grandes en al menos millones de dólares, posiblemente en
decenas de millones, para la ejecución final de capacitación.
El aumento de los costos está consolidando el progreso en la vanguardia
de la investigación de IA en un puñado de empresas tecnológicas con
mucho dinero, impidiendo que los investigadores académicos entrenen los
modelos más intensivos en cómputo.
Si bien esto plantea problemas para la salud y la diversidad de la
comunidad de investigación de IA, las crecientes barreras de entrada
presentan una oportunidad para controlar el acceso a estas capacidades
de IA.
Debido
a que los chips son un recurso físico controlable, el acceso a las
capacidades de IA con uso intensivo de cómputo se puede restringir
controlando el acceso a los chips de IA de gama alta. Restringir
el acceso a la computación a gran escala es un enfoque particularmente
atractivo porque funcionaría incluso para un régimen un tanto "con
fugas", ya que los actores prohibidos deben reunir grandes cantidades de
computación para ser efectivos. De
hecho, el gobierno de los EE. UU. adoptó precisamente este enfoque en
octubre de 2022 cuando emitió amplios controles de exportación de chips
de IA destinados a China, incluso cuando estos chips se fabricaron fuera
de los Estados Unidos.
Si tienen éxito, los controles de exportación de EE. UU. en chips de
alta gama bloquearán efectivamente a China fuera de las capacidades de
inteligencia artificial más avanzadas.
La
viabilidad del control de armas destinado al hardware de IA dependerá
en gran medida de la medida en que la infraestructura de fabricación de
chips esté democratizada a nivel mundial o se concentre en manos de unos
pocos actores. Si bien
las cadenas de suministro de semiconductores de hoy en día están
altamente globalizadas, también contienen cuellos de botella clave. Estos cuellos de botella dan a algunos países la capacidad de controlar el acceso al hardware de IA. Los
controles de exportación de EE. UU. sobre chips de IA avanzados a China
son posibles debido al dominio de las empresas estadounidenses en los
equipos de fabricación de semiconductores. Los
controles estadounidenses prohíben el uso de equipos fabricados en EE.
UU. para fabricar chips de inteligencia artificial de alta gama
destinados a China, incluso cuando esos chips se fabrican fuera de los
Estados Unidos. Los países
que dominan los futuros cuellos de botella de la cadena de suministro
de chips podrían emplear medidas similares para controlar el acceso al
hardware de IA.
Sin embargo, el futuro de las cadenas de suministro de semiconductores es muy incierto. Los
impactos en la cadena de suministro y la competencia geopolítica han
acelerado la intervención estatal en el mercado global de
semiconductores y han causado incertidumbres significativas sobre cómo
evolucionará el mercado. Los
recientes controles de exportación de EE. UU. son solo la última
intervención estatal en los mercados mundiales de semiconductores, y los
efectos de segundo y tercer orden de estos controles llevará tiempo. Algunas
tendencias actuales parecen apuntar hacia una mayor concentración de
cadenas de suministro de hardware, mientras que otras tendencias apuntan
hacia una mayor democratización. Un
factor que contribuye a una mayor concentración en la industria es el
alto costo de las plantas de fabricación de semiconductores, o "fabs". Por otro lado, China
y Estados Unidos están trabajando arduamente para aumentar la
producción de chips autóctonos por razones de seguridad nacional, en
ambos casos presionando contra la consolidación del mercado natural a
medida que gastan recursos gubernamentales para subsidiar nuevas
fábricas. Los propios
controles de exportación de EE. UU. tienen el efecto secundario de crear
incentivos financieros para que el sector privado eluda los controles
de EE. UU. al rediseñar su equipo de fabricación de chips para que no
dependa de la tecnología de EE. UU. con el fin de vender en el mercado
de China. China importa más de $ 400 mil millones al año en chips. Si bien los controles de exportación de EE. UU. actualmente afectan
solo a aproximadamente el 1 por ciento del mercado chino de chips, es
probable que el mercado de chips prohibidos crezca si los controles de
EE. UU. se mantienen (como han dicho los funcionarios de EE. UU.) fichas
heredadas.
Poderosas fuerzas del mercado y ajenas al mercado están impactando la
industria global de semiconductores, y los efectos a largo plazo de
estas fuerzas en las cadenas de suministro aún no están claros.
Las
tendencias en la mejora de la eficiencia algorítmica también podrían
socavar la eficacia del control de la computación para controlar las
capacidades de la IA. Si
bien la cantidad de cómputo utilizada para entrenar modelos de
investigación de IA de vanguardia ha crecido con el tiempo, una vez que
se logra un gran avance, las mejoras algorítmicas reducen la cantidad de
cómputo requerida para lograr el mismo nivel de rendimiento. Por
ejemplo, la cantidad de cómputo requerida para lograr el mismo nivel de
rendimiento de clasificación de imágenes en ImageNet, una base de datos
de reconocimiento de imágenes, se redujo a la mitad cada nueve meses
desde 2012 hasta 2021.33 Las mejoras en la eficiencia algorítmica pueden
democratizar rápidamente la disponibilidad de modelos de IA al reducir la cantidad de hardware informático necesario para entrenar modelos, haciéndolos más accesibles.
Esto
significa que el punto más eficaz en el proceso de desarrollo de IA
para controlar el acceso a través de la computación se encuentra en la
etapa de capacitación.
Un
desafío final de usar la computación para controlar el acceso a las
capacidades de IA es la asimetría fundamental en los recursos de cómputo
necesarios para entrenar modelos de IA en relación con su uso, un
proceso conocido como "inferencia". El
entrenamiento de un modelo de IA en datos es muy intensivo en
computación, lo que requiere cantidades masivas de datos y computación
para los modelos más grandes. Sin
embargo, una vez que se entrena un modelo, el proceso de usar el modelo
entrenado para realizar una tarea, como generar texto, clasificar una
imagen o reconocer una cara, generalmente usa mucho menos cómputo. Esto
significa que el punto más eficaz en el proceso de desarrollo de IA
para controlar el acceso a través de la computación se encuentra en la
etapa de capacitación. Limitar
qué actores tienen acceso a grandes cantidades de cómputo, y regular el
comportamiento de aquellos que lo tienen, podría ser un método efectivo
para restringir el acceso a las capacidades de IA. Sin embargo, una vez que se ha entrenado un modelo, la computación se convierte en un punto de control mucho menos efectivo. Los
modelos entrenados pueden proliferar rápidamente y tener barreras de
entrada mucho más bajas para su uso en términos de requisitos de datos,
cómputo y capital humano en relación con el entrenamiento de nuevos
modelos.
Los
modelos entrenados pueden proliferar si los actores lanzan
intencionalmente versiones de código abierto o si los modelos son
robados o filtrados. En la actualidad, los modelos de IA innovadores se replican rápidamente con versiones de código abierto. Los
equivalentes de código abierto de los modelos de IA generativa GPT-3 y
DALL·E se lanzaron después de 14 y 15 meses, respectivamente. Una vez que los modelos están disponibles públicamente, proliferan rápidamente. Otra forma de que proliferen los modelos entrenados es que el modelo se filtre o sea robado. El modelo de lenguaje de IA de Meta LLaMA se filtró en 4chan, eludiendo los intentos de Meta de limitar el acceso a él. Una
vez que se ha publicado públicamente un modelo entrenado, la
computación puede dejar de ser un punto de control efectivo, ya que los
requisitos de computación para la inferencia en modelos entrenados son
relativamente bajos. Los
modelos entrenados también se pueden ajustar para usos específicos
mediante capacitación adicional, pero sin tener que rehacer la costosa
capacitación inicial. Es
posible que los controles de exportación en chips deban combinarse con
controles de exportación en modelos entrenados por encima de un cierto
umbral de cómputo, si se quiere que sean efectivos para restringir el
acceso a capacidades de inteligencia artificial de alto nivel.
Mirando hacia el futuro
Los
desafíos actuales de controlar las capacidades militares habilitadas
por IA se asemejan más a la militarización de la tecnología de la era
industrial a principios del siglo XX, cuando los países intentaron
controlar una variedad de armas nuevas y peligrosas. Las
principales potencias militares se reunieron más de 15 veces para
discutir una variedad de iniciativas de control de armas desde 1868
hasta 1938. La
escala de esta actividad diplomática transmite el nivel de persistencia
y paciencia necesarios para lograr incluso resultados modestos en el
control de armas. Los
legisladores, académicos y defensores de la sociedad civil pueden tomar
una serie de pasos hoy para comenzar a sentar las bases para el futuro
control de armas de la IA. Estos
incluyen un mayor diálogo sobre los riesgos que plantea la IA y las
posibles medidas de control de armas que podrían imponerse, la creación
de normas para los usos apropiados de la IA militar, abordar la "fruta
madura" para construir patrones de cooperación estatal en IA militar y
dar forma a el desarrollo de la propia tecnología de IA para hacerla más
controlable en el futuro. Si
bien ninguno de estos pasos garantiza que los futuros esfuerzos de
control de armas de la IA tengan éxito, pueden aumentar la probabilidad
de éxito.
Aumento del diálogo
Aumentar
el diálogo en todos los niveles para comprender mejor cómo se podría
usar la IA en el campo de batalla podría ayudar a iluminar las medidas
de control de armas que pueden ser tanto deseables como factibles. Las
conferencias académicas, los intercambios de académico a académico de
Track II, las reuniones bilaterales y multilaterales y los debates en
foros internacionales son valiosos para ayudar a promover el
entendimiento mutuo entre las partes internacionales. Estos
diálogos también deben incluir a científicos e ingenieros de IA, para
garantizar que las conversaciones se basen en realidades técnicas. Debido
a que la tecnología de IA está siendo impulsada por el sector
comercial, también deberían incluir a las principales empresas
tecnológicas y organizaciones que se han involucrado en el desarrollo de
normas sobre IA, como Microsoft, Google, OpenAI, Baidu, Tencent y la
Academia de Inteligencia Artificial de Beijing.
Es importante que estas discusiones no se involucren en un “lavado de
ética”, legitimando usos indebidos de la tecnología de IA, como abusos
contra los derechos humanos. Es demasiado fácil para las instituciones publicar principios y declaraciones bien intencionados sobre la IA responsable. Estas declaraciones deben combinarse con acciones que demuestren el seguimiento del uso responsable de la IA. Dar
forma a las normas para el uso de la IA a medida que se desarrollan
estas normas puede ser una herramienta poderosa para guiar el empleo
futuro de la tecnología de la IA. Debido
a que la IA es tan ubicua, muchas medidas de control de armas deberán
generalizarse con el tiempo para ser efectivas, como lo es hoy el
control de armas para las armas químicas y biológicas. Los esfuerzos para entablar un diálogo pueden comenzar de a poco. Si
Estados Unidos y China, las principales potencias militares y de
inteligencia artificial del mundo, tomaran la iniciativa, sería una
forma poderosa de moldear las expectativas de otros países sobre la
inteligencia artificial militar.
Formando Normas
Estados Unidos se ha involucrado de manera proactiva en la elaboración de normas sobre el uso de la IA. El
gobierno de EE. UU. ha publicado un flujo constante de documentos sobre
IA militar en los últimos años, incluidos los principios éticos de IA
del Departamento de Defensa, las Directrices de IA responsable de la
Unidad de Innovación de Defensa, la estrategia de IA responsable del
Departamento de Defensa, una actualización de la política del
Departamento de Defensa sobre autonomía en las armas, una declaración sobre el control humano de las armas nucleares en la Revisión de la Postura Nuclear de 2022 y una declaración política del Departamento de Estado sobre el uso militar de la IA. Estas
declaraciones de política unilaterales no limitarán la forma en que
otros estados desarrollan la IA, pero pueden ayudar a dar forma a las
opiniones estatales sobre cómo los militares podrían usar la IA. Como
próximo paso, los legisladores estadounidenses deberían trabajar con
otros estados para adoptar estos principios para ayudar a dar forma a
las normas emergentes sobre el uso de la IA.
Construyendo Cooperación
Al
buscar "frutas al alcance de la mano" (control de armas relativamente
inobjetable o medidas de fomento de la confianza), los estados podrían
ayudar a construir patrones de cooperación para gestionar los riesgos de
la IA. Un área que está
especialmente madura para la colaboración internacional es un "acuerdo
internacional de incidentes autónomos" para embarcaciones autónomas sin
tripulación, inspirado en el Acuerdo de Incidentes en el Mar entre
Estados Unidos y la Unión Soviética de 1972.
Muchos acuerdos internacionales existentes ya regulan el comportamiento
de aeronaves y embarcaciones tripuladas, incluida la Convención sobre
las normas internacionales para prevenir colisiones en el mar, el Código
para encuentros no planificados en el mar y múltiples acuerdos
bilaterales entre Estados Unidos y China. La
actualización de los acuerdos existentes o la elaboración de un nuevo
acuerdo para cubrir los sistemas autónomos y no tripulados podría ser un
paso valioso para generar confianza y cooperación entre los estados
para ayudar a gestionar los riesgos de la IA.
Dar forma al desarrollo de la IA
El
paso más importante que los legisladores estadounidenses y aliados
pueden dar hoy para controlar cómo se usa la IA en futuros conflictos es
dar forma al desarrollo de la propia tecnología de IA para que sea más
controlable. El hardware
informático es un punto de control especialmente valioso debido a las
tendencias en la IA intensiva en computación y la capacidad de limitar
físicamente el acceso a los chips. Las decisiones de política que se toman hoy podrían hacer que la computación sea más o menos gobernable en el futuro. El
gobierno de EE. UU. se ha metido en la política industrial de
semiconductores a través de subsidios gubernamentales y controles de
exportación, pero a menudo sin un sentido claro de cuáles son los
objetivos de la política. Los
subsidios y los controles de exportación son herramientas importantes
para sentar las bases de la gobernanza informática, pero son incompletos
e incluso podrían ser perjudiciales si no se ejecutan correctamente. Los Estados Unidos El
gobierno necesita una estrategia integral para garantizar el control
continuo sobre el acceso a los recursos informáticos a gran escala. Hay una serie de elementos clave necesarios para una estrategia exitosa de gobierno de computación.
Mantener
el dominio de las empresas estadounidenses garantizará que el gobierno
de los EE. UU. conserve la capacidad de controlar el acceso a la
computación en el futuro.
Primero, una estrategia integral debería limitar la producción de semiconductores avanzados de China. Los
controles de exportación de EE. UU. de octubre de 2022 sobre el envío
de equipos de fabricación de semiconductores a China asestaron un duro
golpe a la industria nacional de fabricación de semiconductores de
China. Pero solo tendrá éxito si Japón y los Países Bajos se unen a Estados Unidos en este esfuerzo. En
conjunto, Japón, los Países Bajos y los Estados Unidos controlan el 90
por ciento del mercado mundial de equipos de fabricación de
semiconductores.
A principios de 2023, los informes noticiosos indicaron que Japón y los
Países Bajos adoptaron controles similares a los de Estados Unidos,
aunque mucho dependerá de las tecnologías específicas a las que se
dirijan estos controles.
En
segundo lugar, la estrategia de EE. UU. debe garantizar que las
empresas estadounidenses sigan dominando los cuellos de botella clave en
la cadena de suministro global. En
su política industrial de semiconductores, el gobierno de EE. UU. debe
priorizar la creación de un ecosistema nacional para la fabricación de
vanguardia a fin de garantizar que las empresas estadounidenses sigan
siendo dominantes en estos importantes cuellos de botella para la
tecnología de fabricación de semiconductores de próxima generación. Mantener
el dominio de las empresas estadounidenses garantizará que el gobierno
de los EE. UU. conserve la capacidad de controlar el acceso a la
computación en el futuro.
En
tercer lugar, es importante mejorar el seguimiento informático para
evitar el desvío de chips controlados a actores prohibidos. Los controles de exportación de EE. UU. sobre chips de IA solo serán tan efectivos como su aplicación. El
gobierno de EE. UU. debe mejorar sus herramientas y recursos para
rastrear y monitorear chips controlados para evitar que los actores
prohibidos acumulen grandes cantidades de cómputo.
En
cuarto lugar, la estrategia de EE. UU. debe hacer que las empresas
chinas sigan dependiendo de los recursos informáticos que utilizan
tecnología estadounidense. El
objetivo de los controles estadounidenses no debería ser negar a las
empresas chinas el acceso a cualquier tecnología estadounidense, sino
mantenerlas dependientes de la tecnología estadounidense para que el
gobierno estadounidense pueda controlar su acceso a grandes cantidades
de computación.
Los formuladores de políticas deben tener en cuenta las posibles
desventajas de los controles de exportación, en particular las
restricciones sobre los propios chips de IA. Los
controles de exportación podrían acelerar el desarrollo de cadenas de
suministro que no dependan de la tecnología estadounidense a medida que
los estados que están aislados de fuentes externas redoblen sus
esfuerzos para aumentar su capacidad nacional. Los
formuladores de políticas deben promover políticas que ayuden a
mantener el control centralizado sobre los recursos informáticos y, por
lo tanto, la capacidad de restringir estos recursos en el futuro y no
acelerar su difusión sin darse cuenta.
Quinto, Washington necesita promulgar controles de exportación y requisitos de seguridad cibernética para modelos capacitados. Los
controles de exportación en chips de gama alta no serán efectivos para
restringir el acceso a capacidades de IA de gama alta si los modelos
entrenados se filtran, roban o liberan. Los
controles de exportación de chips de gama alta deben complementarse con
controles de exportación de ciertos tipos de modelos entrenados para
que la gobernanza informática sea eficaz. Los
modelos entrenados podrían tener aplicaciones relevantes para la
seguridad por diseño o como una propiedad emergente de modelos grandes
de doble uso. Es posible
que se requieran controles de exportación para modelos entrenados para
ciertas aplicaciones, como seguridad cibernética o generación de nuevos
compuestos químicos, debido a su potencial de uso indebido, o para
cualquier modelo por encima de un cierto umbral de cómputo, debido a su
naturaleza de doble uso. 49Del
mismo modo, se debe exigir a las empresas estadounidenses que realizan
entrenamientos a gran escala que cumplan con rigurosas medidas de
seguridad cibernética para garantizar que sus modelos no sean robados
por actores malintencionados.
Finalmente, una estrategia integral debe regular el uso de computación a gran escala. Para
garantizar que los controles sobre chips de IA avanzados y modelos
entrenados sean efectivos, el gobierno de los EE. UU. deberá promulgar
un régimen regulatorio nacional para controlar el uso de grandes
cantidades de cómputo. De
lo contrario, los actores prohibidos simplemente podrían acceder a la
computación a gran escala para entrenar modelos a través de proveedores
de la nube. Las
regulaciones sobre el uso de la computación deben cubrir las carreras de
capacitación a gran escala y el uso de centros de computación en la
nube de IA. Las
regulaciones deberían, como mínimo, exigir informes a los reguladores de
EE. UU. sobre carreras de entrenamiento a gran escala y estándares de
seguridad cibernética para carreras de entrenamiento por encima de un
cierto umbral de cómputo. También
deberían exigir a los proveedores de la nube que se aseguren de que sus
servicios no sean utilizados por actores prohibidos.
La
tecnología de IA continuará evolucionando rápidamente, y aquellos que
trabajan en iniciativas de control de armas deben permanecer ágiles y
dispuestos a ajustar su enfoque a diferentes aspectos de la tecnología
de IA o diferentes capacidades militares habilitadas por IA si surge la
necesidad. Mantener
métricas para rastrear el progreso y la proliferación de la IA será útil
para evaluar las posibilidades de control de armas, así como los
posibles desafíos futuros.
En
la actualidad, no está claro cómo los militares adoptarán la IA, cómo
la tecnología podría afectar la guerra y qué formas de control de armas,
si las hay, los estados pueden percibir como deseables y factibles. Sin
embargo, hay acciones que los formuladores de políticas pueden tomar
hoy para sentar las bases para posibles medidas de control de armas en
el futuro, lo que incluye no solo dar forma a la evolución de la
tecnología sino también al clima político. Las acciones que se tomen hoy, incluso las más pequeñas, podrían generar grandes resultados en el futuro. Los
Estados deben aprovechar estas oportunidades, cuando sea posible, para
reducir los riesgos del uso militar de la inteligencia artificial.