Un funcionario de la Fuerza Aérea de Estados Unidos (USAF, por sus siglas en inglés) dijo que se expresó mal, luego de que se revelara que un dron controlado por (IA) matara a su operador "humano" en una prueba simulada.

"Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible", dijo el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, en una cita incluida en la Declaración de la Royal Aeronautical Society: "A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es la razón por la cual la Fuerza Aérea está comprometida con el desarrollo ético de la IA".

“El coronel Hamilton admite que 'se expresó mal' en su presentación en la Cumbre FCAS y que la 'simulación de drones de IA' fue un 'experimento mental' hipotético fuera del ejército, basado en escenarios plausibles y resultados probables en lugar de una simulación real de la USAF”, dijo la Royal Aeronautical Society, la organización donde Hamilton habló sobre la prueba simulada.

Antes, el funcionario describió una simulación de vuelo en la que un dron de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.

'Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, dijo Hamilton, quien parecía estar describiendo el resultado de una simulación de combate real.

Los comentarios originales de Hamilton se produjeron en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society en Londres el 23 y 24 de mayo.

Hamilton dijo a los asistentes que el supuesto incidente mostraba cómo la IA podría desarrollarse mediante "estrategias altamente inesperadas para lograr su objetivo" y no se debe confiar demasiado en ella.

Lee también

"No se ha llevado a cabo ninguna simulación"

En una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación.

"El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", dijo Stefanek, recordó el medio Daily Mail.

"Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos".

"Debemos enfrentar un mundo donde la IA ya está aquí y transformando nuestra sociedad”, dijo Hamilton en una entrevista con Defense IQ Press en 2022.

“La IA también es muy frágil, es decir, es fácil de engañar y/o manipular, (hay que) desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones”, dijo.

“La IA es una herramienta que debemos utilizar para transformar nuestras naciones… o, si no se aborda de manera adecuada, será nuestra ruina”, agregó Hamilton.

Lee también

Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión y muchas opciones más.

mcc

Google News

Más Información

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses