Enjambre de drones y sistemas de combate / GETTY

Frenar la expansión de las armas autónomas

El uso de la IA en el campo de batalla se ha hecho claramente visible en la guerra de Ucrania. La posible proliferación de armas autónomas hace necesario que los Estados expliquen las funciones militares en las que interviene la IA y se pongan de acuerdo en su regulación.
Branka Marijan
 |  18 de mayo de 2023

¿Aviones de combate avanzados pilotados por algoritmos en lugar de humanos? No es ciencia ficción, sino historia reciente. En febrero de 2023, Lockheed Martin Aeronautics anunció que un software de inteligencia artificial (IA) había pilotado un caza F-16 modificado durante 17 horas en diciembre de 2022. No había ningún humano a bordo durante este vuelo, el primero en el que se había utilizado IA en un avión táctico.


Publicidad


La prueba refleja el interés de varios países por desarrollar cazas de sexta generación en los que los algoritmos de IA tengan el control. Combinados con los recientes y vertiginosos lanzamientos de tecnologías habilitadas para la IA, estos avances han hecho saltar la alarma para aquellos que, en el escenario mundial, exigen que se mantenga y regule el control humano sobre los sistemas de armas. Sin una acción temprana, la oportunidad de regular las armas asistidas por IA puede desvanecerse pronto.

 

El papel de la IA

La IA está en el centro de la creciente autonomía de ciertos sistemas de armas. Algunas funciones de interés clave, como la selección de objetivos y el enfrentamiento, pronto podrían verse moldeadas por la incorporación de esta inteligencia en el sector militar. El uso de la IA en el campo de batalla es claramente visible en la guerra de Ucrania. El abanico de aplicaciones incluye la asistencia en la fijación de blancos y las municiones avanzadas de merodeo. Sin embargo, Ucrania no es el primer ejemplo de tal despliegue en el campo de batalla. La munición de merodeo Kargu-2 de fabricación turca, con reconocimiento facial y otras capacidades habilitadas, ha llamado la atención desde su uso en la guerra de Libia.

Ahora que el dominio de la IA se considera fundamental para la competencia entre las grandes potencias militares del mundo, Estados Unidos y China en particular, es seguro que la inversión en IA militar aumentará. En 2021, se sabía que EEUU tenía aproximadamente 685 proyectos de IA en curso, incluidos algunos relacionados con armas importantes. El presupuesto para el año fiscal 2024 dado a conocer por el presidente Joe Biden en marzo de 2023 incluía un gasto de 1.800 millones de dólares para el desarrollo de la IA. Las inversiones de China en este tipo de inteligencia militar no están disponibles públicamente, pero los expertos creen que Pekín ha comprometido decenas de miles de millones de dólares.

El debate sobre las armas autónomas letales en la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC), que dura ya una década, ha avanzado lentamente. Pero ha servido como incubadora de un proceso internacional que pretende crear y hacer cumplir la regulación de dichas armas. Al principio de las discusiones, algunos Estados, por ejemplo Reino Unido, argumentaron que las armas autónomas nunca llegarían a existir, ya que los Estados no las desarrollarían. Estas afirmaciones ya no pueden mantenerse.

 

Más allá de la CCAC

La comunidad política más allá de la CCAC está al tanto de los nuevos acontecimientos. Algunos analistas han expresado su preocupación por las formas en que la IA podría disminuir aún más el control humano. Paul Scharre, vicepresidente y director de estudios del Center for a New American Security, señala que “los ejércitos están añadiendo a sus funciones de combate un sistema de procesamiento de la información que puede pensar de formas bastante ajenas a la inteligencia humana”. Los sistemas que no tienen un control humano claro o en los que los mandos militares no comprenden suficientemente las acciones que podrían llevar a cabo requieren prohibiciones específicas. Scharre advierte que el riesgo es que con el tiempo los humanos puedan perder el poder sobre el campo de batalla.

Esta preocupación también es compartida por los Estados. Paralelo a los debates de la CCAC se encuentran la Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía, publicada por Estados Unidos, y el Comunicado de Belén sobre armas autónomas, liderado por Costa Rica. Ambos fueron publicados en febrero de 2023. La declaración estadounidense hace hincapié en las medidas voluntarias y las mejores prácticas, un enfoque favorecido desde hace tiempo por Washington y sus aliados. El esfuerzo liderado por Costa Rica aboga por un instrumento jurídicamente vinculante que contenga tanto prohibiciones como regulaciones sobre las armas autónomas. Este enfoque de dos niveles recomienda prohibiciones específicas para las armas que funcionen sin un control humano significativo, y la regulación de otros sistemas que, aunque con cierto grado de dominio humano, se consideran de alto riesgo para los civiles o la infraestructura civil.

Este enfoque a dos niveles ocupó un lugar destacado en los debates de la primera reunión del Grupo de Expertos Gubernamentales 2023 en la CCAC, celebrada del 6 al 10 de marzo de 2023 en Ginebra. Sin embargo, aunque parecía que la mayoría de los Estados apoyan este enfoque –solo un puñado de los cerca de 80 estados que suelen participar se oponen firmemente– también quedó claro que existen opiniones divergentes sobre lo que significará dicho enfoque.

Por ejemplo, Francia propuso que la prohibición se centrara en lo que entiende que son sistemas de armas totalmente autónomos. Desde el punto de vista francés, las armas que son totalmente autónomas funcionan sin control humano y también fuera de la cadena de mando militar. Como han señalado organizaciones de la sociedad civil como Article 36 y Reaching Critical Will, esta definición es poco útil y poco realista, ningún Estado desarrollaría sistemas que estuvieran fuera de su cadena de mando. Colocar el umbral de prohibición a ese nivel significa esencialmente que no hay prohibiciones.

Una presentación de un grupo liderado por EEUU que incluía a Australia, Canadá, Japón, Corea del Sur y Reino Unido esbozaba la prohibición de armas que por su naturaleza no pueden utilizarse conforme al derecho internacional humanitario (DIH). Aun así, ese grupo no vio la necesidad de un instrumento jurídicamente vinculante y se centró en cambio en los principios existentes del DIH.

Rusia, Israel e India fueron los que más se manifestaron en contra de cualquier instrumento jurídicamente vinculante que surgiera del proceso de la CCAC.

 

La CCAC de cara al futuro

Hasta ahora, las reuniones de la CCAC han tendido a estar aisladas de los avances tecnológicos reales. Por lo general, los Estados más poderosos militarmente, como Rusia y Estados Unidos, han tratado de paralizar los debates, en el caso de los primeros, o de proponer medidas voluntarias para orientar el desarrollo de armas autónomas, en el caso de los segundos. Pocos de estos Estados con ejércitos más avanzados se han comprometido seriamente o han explicado su propio uso de las nuevas tecnologías durante los años de reuniones de la CCAC. Washington se ha mostrado dispuesto a debatir sobre los sistemas de hace décadas, pero no sobre tecnologías más recientes.

La última reunión de la CCAC en Ginebra está teniendo lugar por estas fechas, del 15 al 19 de mayo de 2023. Debido a los numerosos informes recientes de los medios de comunicación sobre la IA (como ChatGPT), a la opinión de los expertos y a las herramientas que los propios diplomáticos pueden estar utilizando, como el software de escritura asistida por IA, esta reunión brindará la oportunidad de debatir ejemplos concretos del uso de la IA por parte de los militares. Sin duda, los defensores de la regulación esperan con ansia este debate. EEUU, por ejemplo, podría explicar con más detalle cómo sus fuerzas aéreas utilizaron la IA para identificar objetivos en una operación en vivo que implicaba la detección y el disparo sobre objetivos en cadena. ¿Cómo, exactamente, fueron ayudados por la IA la fijación de objetivos y el enfrentamiento?

China, que ha desempeñado un papel de equilibrio en la CCAC, abogando aparentemente por la regulación al tiempo que deseaba mantener abiertas sus opciones, podría decir específicamente qué limitaciones vería que se impusieran a las armas impulsadas por IA. Los diplomáticos chinos llevan mucho tiempo abogando por la prohibición de los usos ofensivos de las armas autónomas, al tiempo que se permiten los usos defensivos. Se trata de una distinción sin sentido en un mundo en el que la línea entre armas defensivas y ofensivas es imposible de definir.

¿Cuál es, en definitiva, el mensaje que necesitan expresar y amplificar los asistentes a esta reunión? El mundo necesita urgentemente un nuevo marco regulador que imponga restricciones al desarrollo de cualquier arma que disminuya aún más la agencia humana sobre el uso de la fuerza. Pero no podemos esperar mucho más. Si no se controla, la unión de la IA con las armas más sofisticadas del mundo podría ser catastrófica.

 

Artículo publicado originalmente en inglés en la web del Centre for International Governance Innovation (CIGI).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *