La "tercera revolución en la guerra" son armas que pueden decidir matar por su cuenta.
Por Justin Rohrlich || QuartzSi hay algo que hemos aprendido en los últimos años, es que los humanos no son buenos para predecir las consecuencias de la tecnología. Después de todo, las plataformas de medios sociales, que comenzaron como una forma para que los amigos se conecten en línea, se están utilizando hoy para radicalizar a los terroristas y, posiblemente, a las elecciones presidenciales.
Imagina, entonces, el caos que podría surgir con las nuevas tecnologías que ni siquiera pretenden ser amigables. El advenimiento de las armas letales autónomas, "robots asesinos" para detractores, tiene muchos analistas alarmados. Equipadas con inteligencia artificial, algunas de estas armas podrían, sin un control humano cercano, seleccionar y eliminar objetivos con una velocidad y eficiencia que los soldados posiblemente no puedan igualar.
Se sabe que siete naciones persiguen tales armas: Estados Unidos, China, Rusia, Gran Bretaña, Francia, Israel y Corea del Sur. Los proyectos incluyen tanques equipados con IA, aviones de combate y ametralladoras.
Existen directrices autoimpuestas, pero los expertos dicen que son insuficientes. La política militar de EE. UU. impone "niveles apropiados" de juicio humano al tomar decisiones de despido, pero no lo define y permite excepciones. Los Estados Unidos también se encuentran entre un puñado de naciones que se oponen a las regulaciones internacionales en este ámbito. China dice que apoya la prohibición del uso, pero no el desarrollo de las armas.
Sin embargo, no se requiere una prohibición completa para prevenir un posible desastre, dice un nuevo informe de Pax, una ONG holandesa contra la guerra que teme que se desate una carrera de armamentos.
El miedo es merecido. Los expertos de AI consideran que las armas son la "tercera revolución en la guerra" (pdf). Al igual que con los dos primeros, la pólvora y las bombas nucleares, tales sistemas podrían rápidamente demostrar su valía, dando a la parte que los posee una ventaja casi insuperable.
Sin una prohibición, las armas de IA podrían establecerse en los militares de todo el mundo. Y al igual que con las redes sociales, tratar de aplicar las regulaciones de manera retroactiva resultaría difícil, con una feroz resistencia de las compañías involucradas, y mientras tanto la tecnología avanzará.
Como dice Pax, "sería profundamente poco ético delegar la decisión sobre la vida y la muerte a una máquina o algoritmos".
La pregunta es, ¿actuaremos a tiempo? La velocidad, como con las armas de IA, es esencial.
Stephen Hawking, que no era ningún tonto, alertó sobre el error de darle independencia de criterio a las máquinas. Una película aparentemente trivial, de ciencia ficción, nos muestra, a manera de moraleja, el peligro mortal para la humanidad de darle a las máquinas la posibilidad de volverse contra sus creadores.
ResponderBorrar