Más Información
Ellos son los 7 funcionarios del Edomex detenidos en Operativo Enjambre; uno más se quitó la vida en aprehensión
Vinculan a proceso a Marilyn Cote, la falsa psiquiatra; es acusada de usurpación de funciones y falsificación de documentos
Detención de “El Cholo Palacios” clave para esclarecer Caso Ayotzinapa, afirma Alejandro Encinas; testimonio podría revelar paradero de estudiantes
INE advierte riesgo en elecciones de ocho estados por falta de recursos; los más afectados son Yucatán, Guerrero y Zacatecas
El coronel Tucker Hamilton ha descrito una prueba simulada en la que se aconsejó a un dron impulsado por inteligencia artificial (IA) que destruyera los sistemas de defensa aérea del enemigo y, en última instancia, atacara a cualquiera que interfiriera con esa orden, luego se retractó de que se haya llevado a cabo el experimento.
“El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no la eliminara, pero obtuvo sus puntos al hacerlo”, dijo Hamilton, jefe de pruebas y operaciones de IA con el Fuerza Aérea de EU, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres en mayo.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, reportó.
En una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación.
“El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
El ejército de Estados Unidos adoptó la IA y recientemente utilizó inteligencia artificial para controlar un avión de combate F-16.
"Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible", dijo el coronel Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea, en una cita incluida en la Declaración de la Royal Aeronautical Society:
"A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es la razón por la cual la Fuerza Aérea está comprometida con el desarrollo ético de la IA".
“El coronel Hamilton admite que 'se expresó mal' en su presentación en la Cumbre FCAS y que la 'simulación de drones de IA' fue un 'experimento mental' hipotético fuera del ejército, basado en escenarios plausibles y resultados probables en lugar de una simulación real de la USAF”, dijo la Royal Aeronautical Society, la organización donde Hamilton habló sobre la prueba simulada.
En una entrevista el año pasado con Defense IQ, Hamilton dijo: “La IA no es agradable de tener, la IA no es una moda pasajera, la IA está cambiando para siempre nuestra sociedad y nuestro ejército.
“Debemos enfrentar un mundo donde la IA ya está aquí y transformando nuestra sociedad. La IA también es muy frágil, es decir, es fácil de engañar y/o manipular. Necesitamos desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones".
Lee también Dron operado por inteligencia artificial se rebela y mata a operador "humano"