Los reguladores de la IA temen quedar ahogados por la exageración de las guerras

Los reguladores de la IA temen quedar ahogados por la exageración de las guerras

BERLÍN – Un avión de combate se lanza hacia un adversario de frente. Momentos antes de una colisión, se desvía, pero no sin antes asestar un golpe letal a su oponente.

Esta arriesgada maniobra sería imprudente incluso para el piloto más hábil. Pero para la inteligencia artificial, un escenario de simulación de este tipo muestra una de las técnicas de pelea de perros más efectivas, con tasas de mortalidad de casi el 100% contra pilotos humanos.

En una revolución bélica impulsada por el conflicto en ucraniala toma de decisiones autónoma está remodelando rápidamente el combate moderno, dijeron expertos a Defense News en una serie de entrevistas.

Armas que pueden decidir por sí mismas a quién o qué atacar (e incluso cuándo matar) están ingresando a los arsenales militares. A los expertos les preocupa que esté surgiendo una carrera armamentista descontrolada y que la guerra pueda volverse tan rápida que los humanos no puedan seguir el ritmo.

Es la velocidad, en particular, la que puede resultar una “pendiente resbaladiza”, dijo Natasha Bajema, investigadora asociada principal del Centro James Martin de Estudios de No Proliferación, una organización no gubernamental. A medida que la velocidad del conflicto aumenta con una mayor autonomía en el campo de batalla, los incentivos para delegar aún más funciones a las máquinas podrían volverse cada vez más fuertes.

“¿Realmente pensamos que en medio de una batalla entre China y Estados Unidos alguien va a decir: ‘Espera, no podemos dejar que la máquina haga eso’?” Preguntó Bajema, refiriéndose al atractivo de lo que ella describió como una guerra que se mueve a la velocidad de una máquina.

«Es la carrera por la ventaja más competitiva que hemos visto desde la carrera por las armas nucleares», añadió.

El apetito por una mayor autonomía en materia de armas, avivado por los combates en Ucrania y Gaza, ha ahogado los pedidos de larga data de limitar la IA en aplicaciones militares. Pero todavía existen.

El embajador Alexander Kmentt, director del Departamento de Desarme, Control de Armas y No Proliferación del Ministerio de Asuntos Exteriores de Austria, calificó el escenario de robots habilitados para IA que accionan el gatillo como un verdadero «momento oppenheimer”, una referencia al nacimiento de la bomba atómica en la década de 1940.

Austria ha estado liderando un impulso internacional para reunir a gobiernos de todo el mundo a la mesa para redactar las reglas de la guerra para una nueva era.

A finales de abril, el gobierno del país organizó la primera conferencia mundial sobre sistemas de armas autónomos en el gran Palacio Hofburg de Viena. Kmentt dijo que superó sus expectativas.

“A veces, durante los preparativos, me preocupaba la asistencia, que la sala estuviera medio vacía”, recordó el embajador en una entrevista con Defense News. En cambio, en Viena estuvieron presentes más de 1.000 delegados de 144 países.

«Incluso aquellos estados que solían ver el tema como una especie de ciencia ficción ahora lo perciben como increíblemente oportuno», dijo.

Mucho de Sur Global — término utilizado a veces para unir países que Rechazar la jerarquía de la política mundial. – ahora parece interesado en restringir la tecnología, según Kmentt, aunque poco se podría lograr sin la aceptación de las principales potencias mundiales.

Consecuencias no deseadas

A pesar de su atractivo militar, las armas basadas en IA presentan los defectos de una tecnología que aún está en su infancia. La visión artificial, en particular, todavía es demasiado propensa a errores, dijo Zachary Kallenborn, investigador principal de Looking Glass USA, una consultora que se ocupa de cuestiones relacionadas con los sistemas de armas avanzados.

«Un solo píxel es suficiente para confundir a un atacante con un perro, a un civil con un combatiente», afirmó.

En los próximos años, los expertos esperan ver una cantidad cada vez mayor de armas autónomas en el campo de batalla con capacidades cada vez más sofisticadas. Incluso sin contratiempos tecnológicos, esto podría generar un mayor riesgo de malentendidos.

La naturaleza desechable de los drones, por ejemplo, podría dar lugar a comportamientos más agresivos o riesgosos, afirmó Bajema. Interceptar un sistema autónomo probablemente provocaría una reacción diferente entre los adversarios que derribar un avión tripulado, dijo, pero es difícil determinar dónde cae exactamente la línea.

La carrera hacia la IA se rige por lo que ella llamó el “problema terminador” (si un estado la tiene, todos creen que la necesita para sentirse seguro), un entorno que hace que regular la tecnología sea muy difícil.

Además, el clima geopolítico actual no es muy propicio para el control multilateral de armas, añadió.

Dadas esas probabilidades, Kmentt dijo que simplemente busca un compromiso.

«Está claro que no habrá un consenso universal sobre este tema», señaló. “Apenas hay problemas cuando esto existe, y ciertos países parecen no tener interés en desarrollar el derecho internacional. Así que tenemos que aceptarlo y, en cambio, trabajar junto con aquellos países que estén interesados ​​en desarrollar estas reglas”.

Pero admitió ser algo pesimista sobre las posibilidades de éxito.

«Estas armas definirán en gran medida el futuro de los conflictos armados y, como resultado, las voces de los militares de todo el mundo que quieren estas armas se harán cada vez más fuertes», predijo Kmentt.

Por ahora, la fecha prevista de 2026 cobra gran importancia para la comunidad de defensores de la no proliferación de la IA; se refiere al mandato de las Naciones Unidas de establecer “prohibiciones y restricciones claras sobre los sistemas de armas autónomos”, en palabras del Secretario General de la ONU, António Guterres.

«Hasta ahora, no hay suficiente voluntad política para hacer que algo suceda debido a la difícil situación geopolítica», dijo Kmentt.

El objetivo de 2026 no es una fecha arbitraria, añadió. «Si para entonces no hemos logrado nada, la ventana para la acción preventiva se habrá cerrado».

Linus Höller es corresponsal en Europa de Defense News. Cubre la seguridad internacional y los desarrollos militares en todo el continente. Linus tiene una licenciatura en periodismo, ciencias políticas y estudios internacionales, y actualmente está cursando una maestría en estudios de no proliferación y terrorismo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *