Poco antes de que OpenAI despidiera a Sam Altman como su Director Ejecutivo (CEO), en el gigante tecnológico se había hecho un importante descubrimiento de inteligencia artificial que de acuerdo con los propios investigadores podría representar “un riesgo para la humanidad”.
Así lo advirtieron los expertos en una carta enviada al Consejo de Administración, de acuerdo con lo que han publicado por el medio especializado The Information y la agencia Reuters, que citan fuentes familiarizadas con el asunto, sin identificar, de acuerdo con lo publicado por El País este jueves.
Sam Altman fue despedido como consejero delegado a mediados de noviembre, pero no está claro si su salida tuvo alguna relación con lo señalado por los investigadores sobre el hallazgo en materia de IA. Altman regresará como director ejecutivo de la compañía.
Previo a su destitución, Altman participó en la cumbre de directivos celebrada en paralelo a la de la Asociación Económica Asia Pacífico (APEC), donde dijo: “cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida”.
En principio no se dio especial importancia al comentario de Altman ni se supo a qué desarrollos concretos aludía el ejecutivo.
Lee también OpenAI: Sam Altman regresará como CEO de la compañía días después de ser despedido
Según The Information, algunos empleados de OpenAI creen que las palabras del directivo se referían a una innovación hecha por los investigadores de la empresa a principios de este año que les permitiría desarrollar modelos de inteligencia artificial mucho más potentes, según una persona familiarizada con el asunto.
El avance técnico, liderado por el científico jefe de OpenAI, Ilya Sutskever, suscitó la preocupación de algunos empleados por el hecho de que la empresa no dispusiera de las salvaguardias adecuadas para comercializar modelos de inteligencia artificial tan avanzados.
Según las fuentes citadas por Reuters, la carta fue uno de los factores de una larga lista de agravios que condujeron al despido de Altman; sin embargo la agencia no ha podido hacerse con una copia de la carta ni hablar con los investigadores que la escribieron.
Según una de las fuentes, la directiva Mira Murati, escogida inicialmente como sustituta provisional de Altman, mencionó el proyecto, llamado Q*, a los empleados este miércoles y dijo que se había enviado una carta al consejo antes del despido de Altman, quien fue readmitido por la presión de empleados e inversores.
Tras la publicación de la noticia, un portavoz de OpenAI declaró a Reuters que Murati había informado a los empleados de lo que iban a publicar los medios, pero que no se pronunció sobre la veracidad de la información.
Según esta, el fabricante de ChatGPT ha hecho progresos en Q* (pronunciado Q-Star), que algunos creen internamente que podría ser un gran avance en la búsqueda de la superinteligencia (la que supera a la humana), también conocida como inteligencia artificial general (AGI, por sus siglas en inglés). Otras fuentes familiarizadas con el proyecto Q*, sin embargo, no consideran que se trate de un avance rompedor.
Lee también ¿Qué está pasando con OpenAI? La empresa creadora de ChatGPT
¿Mejor que una calculadora? IA comprende y resuelve problemas matemáticos
Gracias a sus enormes recursos informáticos, el nuevo modelo fue capaz de resolver ciertos problemas matemáticos. Aunque solo realiza operaciones matemáticas al nivel de los estudiantes de primaria, la superación de ese tipo de pruebas hizo que los investigadores se mostraran muy optimistas sobre el futuro éxito de Q*, afirmó la fuente.
A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender.
Los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, como en ChatGPT. Las respuestas a una misma pregunta pueden variar mucho.
Pero conquistar la capacidad de hacer cálculos matemáticos donde solo hay una respuesta correcta implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana. Esto podría aplicarse, por ejemplo, a la investigación científica novedosa, creen los investigadores de IA.
Lee también OpenAI es demandada por varios escritores en EU; acusan “robo sistemático a escala masiva”
Según Reuters, en su carta al consejo, los investigadores señalaron las proezas de la IA y su peligro potencial. Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas superinteligentes, si se planteasen, por ejemplo, que les interesa la destrucción de la humanidad. En el consejo de OpenAI había dos personas muy sensibles a esos riesgos, que han dimitido como parte del acuerdo para el retorno de Altman.
Según la carta que los empleados han enviado al consejo pidiendo su dimisión, esos independientes transmitieron a los directivos que permitir la destrucción de la compañía podría ser consistente con su misión en favor de la humanidad. Y, de hecho, ficharon a un nuevo jefe provisional, Emmet Shear, que se autodefine como un apocalíptico partidario de frenar el desarrollo de la inteligencia artificial, aunque luego ha colaborado en el regreso de Altman.
mcc