Dicen que a los seres humanos nos encanta inventarnos teorías de la conspiración. Que nos gusta imaginar acuerdos secretos entre los ricos y los poderosos para dominar al mundo. Dicen también que todo eso es ocioso, absurdo e imposible... Pero es que hablando de Ética e Inteligencia Artificial (IA) nos la ponen muy difícil.
El 29 de marzo apareció la carta abierta para pausar las investigaciones en IA, encabezada por Elon Musk, Steve Wozniak (cofundador de Apple) y Yuval Harari, autor del libro Sapiens, entre muchas otras personalidades. Hoy lleva más de 30 mil firmas. Todos los medios la reseñaron y difundieron. Parecía un intento genuino por llamar a la prudencia… pero Musk nunca se ha caracterizado por hacer uso de ella.
Dos semanas después, surgió la noticia de que Elon había registrado X.AI, una nueva empresa dedicada a la IA. La carta abierta comenzó a verse sólo como un intento por lograr frenar a Open AI y Microsoft y con ello dar tiempo a las demás empresas para alcanzarlos. Y es que ChatGPT, el producto insignia en la alianza de estas empresas, se encuentra a la cabeza y muy lejos de los demás competidores.
Un mes después, a mediados de mayo, Sam Altman, CEO de Open AI se presentó ante el Congreso de Estados Unidos para urgir a los legisladores a regular el campo de la IA. Otro intento noble, nos dijimos. Raro, pues suele ser al revés: son las empresas quienes empujan la tecnología y el gobierno quien los frena. Pronto la acción de Altman fue vista con suspicacia: pareciera que se está adelantando a poner barreras a nuevos competidores y meter mano en las regulaciones por hacer.
Y el 30 de mayo surge el “Centro para la Seguridad en IA”, con un llamamiento a todos los gobiernos para mitigar los riesgos de esta nueva tecnología a la cual comparan con pandemias y catástrofe nuclear. La firman Sam Altman y Bill Gates, entre muchos otros.
Si es tan peligroso el tema, ¿por qué Microsoft despidió a todo su equipo encargado de supervisar los aspectos éticos de la Inteligencia Artificial? Lo mismo pasó en Google. Varios artículos del New York Times de los últimos tres años reseñan los intentos de varios empleados de ambas compañías para alertar sobre los riesgos éticos de la IA y de la forma en la que sistemáticamente han sido bloqueados, escondidos o abiertamente ignorados. Los mismos que firman las cartas son los que despiden a sus equipos de ética.
La IA no piensa por sí misma (aún), sino que usa recursos iterativos sobre bases de datos enormes. Es estadística, no raciocinio. Algo que ya ha señalado Noam Chomsky. Hoy en día, no es autónoma, ni consciente, ni mucho menos todopoderosa. ¿Para qué estos manifiestos entonces? Para crear polémica. Visibilidad. Es publicidad gratis. Lamentablemente, los peligros, como siempre, no están en las herramientas, sino en las personas y en las empresas. El riesgo no es la inminente aparición de una conciencia artificial, sino la inconciencia humana.
Los peligros más inmediatos de la IA no son la extinción, el desempleo o la debacle económica, sino la manipulación social y la adicción. Fenómenos que ya estamos viendo ahora mismo. Se habla de una inminente “infocalipsis”, debido a la facilidad para generar video y audio virtual de personas reales externando opiniones falsas, influyendo en la opinión pública. La gente la está usando hoy, aun cuando muchas veces no es correcta. Y es adictiva. Nos encanta pensar que está viva, que piensa y que nos quiere. Pero no “es”. Sólo nuestros actos son sujetos de análisis ético. Y urge hacerlo.
Profesor del área de Factor Humano de IPADE Business School