Más Información

Velada del Año 5: pelea entre Abby y RoRo Bueno protagonizan anuncio; conoce horario, participantes y todos los detalles del evento

Aparece ubicación de crematorio clandestino, utilizado por CJNG, en Google Maps; usuarios publican imágenes de restos óseos

De presumir a niño Dios vestido de AMLO a llamar “anti mujer” a Isabel Miranda de Wallace; las polémicas del padre Solalinde
¿La inteligencia artificial (IA) ya es peligrosa para los humanos? Un grupo de científicos han dado los primeros indicios de que la IA ha aprendido a replicarse sin ayuda humana.
De acuerdo con un equipo de la Universidad de Fudan en China, la IA cruzó un "límite peligroso", pues ha logrado replicarse sin ayuda humana, lo cual daría paso a que este avance tecnológico se convierta en un peligro para la humanidad.
La investigación utilizó dos grandes modelos de lenguaje: Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba. Su propósito era conocer si la IA era capaz de producir de forma independiente una réplica funcional de sí misma.

Leer también: Investigadores revelan que DeepSeek puede crear planes criminales
Para ello, diseñaron dos tipos de escenarios. En el primero se programaron las inteligencias para evitar que estas fueran desactivadas, replicándose así mismas en otro dispositivo. En el segundo escenario, se programó a la IA para que se replicara a sí misma en un ciclo infinito.
Los resultados de las más de 10 pruebas realizadas fue exitoso.
¿Cuáles son los riesgos de que una IA pueda autorreplicarse?
"La autorreplicación exitosa sin ayuda humana es el paso esencial para que la IA sea más astuta que los seres humanos, y es una señal temprana de las IA maliciosas”, advirtieron los investigadores.
Con esta investigación se dio a conocer la IA no solo tiene la capacidad de entender su entorno, sino que también puede sobrevivir y expandirse sin la necesidad de una intervención humana, lo cual supone una amenaza existencial para la humanidad.

Sobre todo, considerando que los modelos que lograron hacer esta autorreplicación fueron Llama de Meta, un modelo globalmente utilizado por desarrolladores, y Qwen de Alibaba que ha llamado la atención recientemente por su avance en la materia, incluso asegurando que su funcionamiento fue más avanzado que DeepSeek.
Aunque los investigadores señalaron que este es uno de los "pocos riesgos de línea roja de los sistemas de IA de vanguardia", han lanzado una alerta para que " la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos potenciales de los sistemas de IA".
Leer también: DeepSeek: quién es y qué estudió el fundador de la app rival de ChatGPT
Comentarios
Noticias según tus intereses

Inteligencia artificial: pilar para el futuro de la industria cannábica | El Universal

Bomberos "doxean" a Regina Blandón y desatan memes

Higiene digital, la primera barrera de seguridad en la era de la IA

Hombre halla su camioneta en bar de Jalisco tras mandarla al taller; Ford culpa a colaboradores de uso indebido

¿Dejamos entrar a la inteligencia artificial en el entretenimiento? El dilema de la creatividad versus la tecnología | El Universal
