Más Información
Liam Porr,
un estudiante de informática en la Universidad de California, Berkeley, utilizó la herramienta de generación de lenguaje GPT-3 creada por OpenAI para producir un blog completamente falso con un nombre falso.
Fue pensado como un experimento divertido. Pero luego una de sus publicaciones encontró su camino hacia el puesto número uno en Hacker News. Pocas personas notaron que su blog estaba completamente generado por IA.
El caso ilustra el potencial de la herramienta. Porr señaló: "Fue muy fácil, en realidad, que fue la parte aterradora".
Leer también:
De acuerdo con el MIT, GPT-3 es el último y más grande modelo de inteligencia artificial de lenguaje de OpenAI , que el laboratorio de investigación con sede en San Francisco comenzó a aplicar por goteo a mediados de julio.
En febrero del año pasado, OpenAI llegó a los titulares con GPT-2 , una versión anterior del algoritmo, que anunció que retendría por temor a que fuera abusada.
La decisión provocó de inmediato una reacción violenta, ya que los investigadores acusaron al laboratorio de hacer un truco. En noviembre, el laboratorio había invertido su posición y había publicado el modelo, diciendo que no había detectado "hasta ahora ninguna evidencia sólida de mal uso".
El laboratorio adoptó un enfoque diferente con GPT-3 ; no lo retuvo ni concedió acceso público. En cambio, le dio el algoritmo a los investigadores seleccionados que solicitaron una versión beta privada, con el objetivo de recopilar sus comentarios y comercializar la tecnología para fin de año.
Leer también:
Porr envió una solicitud. Completó un formulario con un sencillo cuestionario sobre el uso previsto. Después de comunicarse con varios miembros de la comunidad de IA de Berkeley, rápidamente encontró a un estudiante de doctorado que ya tenía acceso. Una vez que el estudiante de posgrado aceptó colaborar, Porr escribió un pequeño guión para que lo ejecutara. Le dio a GPT-3 el título y la introducción para una publicación de blog e hizo que escupiera varias versiones completas. La primera publicación de Porr (la que apareció en Hacker News), y todas las publicaciones posteriores, fue una copia y pegado directo de uno de los resultados.
“Desde el momento en que pensé en la idea y me puse en contacto con el estudiante de doctorado hasta que realmente creé el blog y el primer blog que se volvió viral, tomó quizás un par de horas”, dijo.
El truco para generar contenido sin la necesidad de editarlo fue comprender las fortalezas y debilidades de GPT-3 . “Es bastante bueno para crear un lenguaje bonito y no es muy bueno para ser lógico y racional”, dice Porr. Así que eligió una categoría de blog popular que no requiere una lógica rigurosa: productividad y autoayuda.
A partir de ahí, escribió sus titulares siguiendo una fórmula simple: se desplazaría por Medium y Hacker News para ver qué se estaba desempeñando en esas categorías y armar algo relativamente similar.
“¿Te sientes improductivo? Quizás deberías dejar de pensar demasiado”, escribió para uno. "La audacia y la creatividad triunfan sobre la inteligencia", escribió para otro. En algunas ocasiones, los titulares no funcionaron. Pero mientras se mantuviera en los temas correctos, el proceso fue fácil.
Después de dos semanas de publicaciones casi diarias, retiró el proyecto con un mensaje final, críptico y autoescrito . Titulado "Lo que haría con GPT-3 si no tuviera ética", describió su proceso como hipotético. El mismo día, también publicó una confesión más directa en su blog real.
Porr dice que quería demostrar que GPT-3 podía hacerse pasar por un escritor humano. De hecho, a pesar del patrón de escritura algo extraño del algoritmo y los errores ocasionales, solo tres o cuatro de las docenas de personas que comentaron su publicación principal en Hacker News levantaron sospechas de que podría haber sido generado por un algoritmo. Todos esos comentarios fueron inmediatamente rechazados por otros miembros de la comunidad.
Para los expertos, esta ha sido durante mucho tiempo la preocupación que suscitan estos algoritmos de generación de lenguaje. Desde que OpenAI anunció por primera vez GPT-2 , la gente ha especulado que era vulnerable al abuso. En su propia publicación de blog, el laboratorio se centró en el potencial de la herramienta de inteligencia artificial para convertirse en un arma como un productor masivo de información errónea. Otros se han preguntado si podría usarse para producir publicaciones de spam llenas de palabras clave relevantes para jugar a Google .
Porr dice que su experimento también muestra una alternativa más mundana pero aún preocupante: la gente podría usar la herramienta para generar una gran cantidad de contenido clickbait. “Es posible que haya una avalancha de contenido de blog mediocre porque ahora la barrera de entrada es muy fácil”, dice. "Creo que el valor del contenido en línea se reducirá mucho".
Porr planea hacer más experimentos con GPT-3 . Pero todavía está esperando obtener acceso desde OpenAI . "Es posible que estén molestos porque hice esto", dice. "Quiero decir, es un poco tonto".