Mantener la paz en el mundo no es una tarea sencilla. Si bien hay naciones que se encuentran en conflicto, las grandes potencias llevan años comprometiéndose a respetar algunos acuerdos y, por ejemplo, no impulsar el desarrollo de armas nucleares. Pero el acelerado desarrollo de la Inteligencia Artificial (IA) está planteando nuevos retos y, personas como Eric Schmidt, ex CEO de Google, piden al gobierno de Estados Unidos que permita el armamento con esta tecnología .
Lo que está sucediendo es que se está buscando que, Estados Unidos, Rusia y China , firmen un acuerdo en el cual se comprometen a prohibir el uso y desarrollo de armas autónomas impulsadas por IA . Sin embargo, de acuerdo con el medio The Next Web, un informe oficial que llegará al presidente Biden y el Congreso insta al gobierno de Estados Unidos a rechazar el compromiso que "probablemente será vacío" por parte de las otras dos naciones.
La recomendación fue hecha por la Comisión de Seguridad Nacional de Estados Unidos para AI, un panel encabezado por el ex director ejecutivo de Google, Eric Schmidt, y el ex subsecretario de Defensa, Robert Work.
La postura de no es nueva, Work ya había dicho anteriormente que Estados Unidos tiene un "imperativo moral" para explorar las armas dirigidas con inteligencia artificial. Y, en el nuevo informe se afirma que el país tiene la capacidad para usar este tipo de armamento de manera segura y legal.
Los especialistas en IA afirman que, siempre que su uso solo pueda estar autorizado por un comandante u operador humano, los sistemas de armas autónomos y habilitados por IA debidamente diseñados y probados se pueden usar de manera compatible con el derecho internacional humanitario.
Sin embargo, los críticos se apresuraron a disputar las afirmaciones. "Los científicos de inteligencia artificial más importantes del planeta les han advertido sobre las consecuencias y, sin embargo, continúan. Esto conducirá a graves violaciones del derecho internacional ", dijo a la BBC el profesor Noel Sharkey, portavoz de la Campaña para detener a los robots asesinos.
El informe también fue criticado por el Comité Internacional para el Control de Armas Robóticas. La ONG tuiteó que la verdadera razón por la cual la comisión estaba impulsando este tipo de desarrollos es que las empresas tecnológicas de Estados Unidos buscan una gran parte del presupuesto de defensa".
A su vez, Human Rights Watch y el secretario general de la ONU, António Guterres, también han pedido prohibiciones de armas totalmente autónomas. Sin embargo, solo alrededor de 30 países apoyan actualmente la prohibición, con China y Estados Unidos entre los muchos ausentes.
Un ejemplo
Cuando se habla de armas autónomas se puede interpretar todo tipo de sistemas que, sin intervención humana, puede ayudar a misiones de reconocimiento y, en su caso, detectar y atacar un blanco. Por supuesto, por tratarse de un tema delicado para las naciones no hay mucha información sobre estos desarrollos pero, como ejemplo, podemos compartirte el caso de un dron de combate.
Diseñado para volar y proteger los aviones de combate tripulados, la compañía Boeing presentó en Australia un dron equipado con inteligencia artificial llamado Loyal Wingman. Es un prototipo de un avión no tripulado de alrededor de 11.5 metros de largo y un alcance de más de 3 mil 200 kilómetros que podrá volar de manera independiente o ser controlado desde otras naves tripuladas.
El objetivo de estas naves será participar en combates, además de formar parte de misiones de reconocimiento y vigilancia en casos, por ejemplo, de desastres naturales. Asimismo, estarán encargados de proteger a los aviones de combate más caros del país, como los cazas sigilosos F-35 y sus pilotos.
Sin embargo, hay que señalar que se trata de un prototipo y, según el gobierno australiano, será hasta la mitad de la década cuando podrían iniciar una producción masiva de la nave.