Techbit

¿ChatGPT estaba embrujado? Sus respuestas sin sentido ya tienen una explicación

Durante varias horas, la inteligencia artificial de OpenAI presentó problemas para responder a los usuarios

Foto: Unsplash
22/02/2024 |12:07
Paloma Vega
Coeditora de Tech BitVer perfil

Durante varias horas, la inteligencia artificial de OpenAI estuvo emitiendo respuestas sin sentido. A través de , usuarios compartieron cómo ChatGPT brindaba respuestas con poca coherencia, además que mezclaba idiomas.

Los usuarios señalaron que este era un comportamiento extraño para la IA y esperaban que OpenAI solucionara el problema pronto.

"Aparentemente ChatGPT se está descarrilando en este momento y nadie puede explicar por qué", contó un usuario a través de la plataforma de X y compartió imágenes en donde se podía apreciar que las respuestas del chatbot eran bastante extrañas.

Newsletter
Recibe en tu correo las noticias más destacadas para viajar, trabajar y vivir en EU

Leer también:

Una vez que las quejas comenzaron, OpenAI dio a conocer que estaban "investigando informes de respuestas inesperadas de ChatGPT", sin embargo, no dio más detalles de por qué ocurrían estos problemas. Hasta ahora.

¿Por qué ChatGPT dio respuestas sin sentido?

A través de un comunicado, OpenAI explicó que los problemas presentados en el chatbot surgieron debido a "una optimización de la experiencia del usuario", la cual introdujo un "error en la forma en la que el modelo procesa el lenguaje".

De acuerdo con la compañía de Sam Altman, ChatGPT "genera respuestas mediante un muestreo aleatorio de palabras basado en probabilidades. Su 'lenguaje' consiste en números que se asignan a tokens"

En el proceso, el modelo comenzó a presentar errores pues elegía números "ligeramente incorrectos", lo cual provocaba que ChatGPT emitiera palabras sin sentido.

Imagen: especial

Una vez que OpenAI detectó el error que presentaba el chatbot resolvieron el asunto, por lo que ahora la compañía confirma que no existen más incidentes en su modelo. Sin embargo, seguirán monitoreando las respuestas del chatbot para evitar otro problema de este tipo.

Todo parece indicar que el problema solo afectaba a usuarios que utilizan ChatGPT en su versión plus (basado en GPT-4).

Un buen ejemplo de los "loros estocásticos"

En 2021, expertos en modelos de inteligencia artificial, designaron el término "loros estocásticos" a IA que imita el lenguaje con base en patrones estadísticos de datos. Este sistema, no le permite al modelo comprender el significado real de sus respuestas, por lo que es obvio que no se dará cuenta por sí solo cuando esta sea incorrecta.

En un estudio titulado "Sobre los peligros de los loros estocásticos: ¿pueden los modelos lingüísticos ser demasiado grandes?", la experta en inteligencia artificial, Timnit Gebru, explica los peligros que podrían causar las respuestas incorrectas de los modelos de IA y el impacto que podría generar en diversos sectores.

Y aunque el problema que presentó ChatGPT no fue "grave", es un claro ejemplo del cuidado que se debe tener con los "loros estocásticos".

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: