.- Microsoft dijo el miércoles que adversarios de Estados Unidos —principalmente Irán y Corea del Norte y, en menor medida, Rusia y China— están comenzando a utilizar para montar u organizar operaciones cibernéticas ofensivas.

El gigante tecnológico dijo que detectó e interrumpió, en colaboración con su socio comercial , amenazas que utilizaban o intentaban explotar la tecnología de (IA) que ellos desarrollaron.

En un blog, la compañía de Redmond, Washington, dijo que las técnicas estaban en “etapa inicial” y no eran “particularmente novedosas o únicas”, pero que era importante exponerlas públicamente a medida que los rivales de Estados Unidos aprovechan los modelos de lenguaje de gran tamaño para expandir su capacidad de infiltrarse en redes y realizar operaciones de influencia.

Las empresas de ciberseguridad llevan mucho tiempo utilizando el aprendizaje automático en defensa, principalmente para detectar comportamientos anómalos en las redes. Pero los delincuentes y hackers también lo utilizan, y la introducción de modelos de lenguaje grande liderados por de OpenAI incrementó ese juego del gato y el ratón.

Lee también

ha invertido miles de millones de dólares en OpenAI, y el anuncio del miércoles coincidió con la publicación de un informe que señala que se espera que la inteligencia artificial generativa incremente la ingeniería social maliciosa, lo que conducirá a deepfakes (resultados hiperreales) y clonación de voz más sofisticados. Una amenaza a la democracia en un año en el que más de 50 países celebrarán elecciones, magnificando la desinformación y que ya está ocurriendo.

Uno de los ejemplos proporcionados por Microsoft es el grupo de ciberespionaje norcoreano conocido como Kimsuky, el cual ha utilizado los modelos para investigar a centros de análisis extranjeros y generar contenido que probablemente se utilice en campañas de hackeo.

Otro caso es la unidad de la inteligencia militar rusa GRU conocida como Fancy Bear, la cual ha utilizado la inteligencia artificial para investigar tecnologías de satélites y radares que pueden estar relacionadas con la .

El miércoles, en otro blog, OpenAI dijo que su actual chatbot modelo GPT-4 ofrece “sólo capacidades incrementales limitadas para tareas de ciberseguridad maliciosas más allá de lo que ya se puede lograr con herramientas disponibles públicamente y sin tecnología de IA”.

Lee también

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

mcc

Google News

Más Información

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses