¿Las nuevas herramientas de Inteligencia Artificial (IA) representan un sueño hecho realidad para la humanidad o una pesadilla? Quizás un poco de ambos.

El lanzamiento de Chat-GPT3 a finales de 2022, seguido hace unos pocos días por la versión 4, ha representado un gran salto para las aplicaciones concretas de la inteligencia artificial. La IA, según sus iniciales, era hasta hace poco un tema de expertos; pero ahora parte de ella es del dominio público.

El Chat-GPT es una herramienta de IA que se alimenta de una enorme cantidad de textos e información y que puede responder de manera coherente a cualquier tipo de instrucción, incluyendo solucionar exámenes, escribir artículos, discursos, desarrollar recetas de cocina o inventar chistes. Pero también puede generar campañas de desinformación, atractivos mensajes de phishing (para generar estafas en línea), describir el mejor modo de tirar una puerta o violar un sistema informático o incluso elaborar un plan de atentado o de acción terrorista. La Europol ha advertido que el uso malintencionado del Chat-GPT ofrece perspectivas sombrías y que los criminales están listos para usarlo.

Cualquiera que haya utilizado el Chat-GPT tiene claro el potencial que estas herramientas tienen para revolucionar al mundo. Sin embargo, más de 1,000 líderes del sector tecnológico, encabezados por Elon Musk, firmaron una carta abierta la semana pasada en la cual señalan que hay riesgos significativos para la humanidad. Los firmantes expresan una preocupación ya antigua sobre los avances de la inteligencia artificial, que se han vuelto vertiginosos con Chat-GPT, y piden una pausa de seis meses en la carrera frenética hacia la creación de "mentes digitales poderosas sobre las cuales nadie, ni siquiera sus creadores, tiene comprensión, visibilidad y control".

Claro que hay quien considera que el hecho de que Musk haya firmado la carta le resta credibilidad, pues él fue uno de los primeros financiadores de OpenAI, la empresa que desarrolla Chat-GPT, pero se retiró y cedió su lugar a Microsoft, que es el gran beneficiario de este éxito hoy en día. Pero más allá de Musk, el texto plantea preguntas profundas y entre los signatarios se encuentran algunos emprendedores que impulsaron revoluciones tecnológicas y un importante número de reconocidos investigadores en el ámbito de la inteligencia artificial.

Mas aun, Sam Altsman, director general de OpenAI, ha reconocido que la IA conlleva riesgos y que él mismo está un poco asustado con esto. Sin embargo, es poco probable que se haga una pausa en el curso que lleva el desarrollo de esta tecnología, tanto por la competencia feroz entre los gigantes de Silicon Valley, como por el contexto internacional. En medio de una guerra tecnológica entre las dos principales potencias del mundo, China y Estados Unidos, es improbable que alguien quiera detenerse.

No hay duda de que los riesgos asociados a la IA son significativos, entre ellos está el de hacer circular noticias falsas a gran escala, destruir millones de fuentes de empleos de manera acelerada sin que los estados tengan tiempo de desarrollar políticas públicas para hacer frente a ello, multiplicación de sesgos racistas, sexistas u otros, es decir amplificar cierta visión del mundo. O en términos militares, el peligro de las armas autónomas, donde la IA tomaría la decisión de qué objetivos matar. Los estadounidenses dicen que no desarrollarán tales armas, salvo (ojo salvo) que sus adversarios lo hagan.

Otro problema en torno al uso de la IA es la generación de imágenes falsas. En los últimos días, han circulado en redes sociales imágenes impresionantemente realistas que muestran al Papa Francisco con una enorme chamarra blanca, a Donald Trump detenido por policías, a Vladimir Putin arrodillado frente a Xi Jinping o Emmanuel Macron huyendo en medio de manifestantes. Todas estas imágenes fueron elaboradas por IA con la herramienta MidJourney. El potencial para generar noticias falsas es enorme.

Ante esto, el gobierno de Italia ha decidido, por lo pronto, prohibir el uso del Chat-GPT, lo cual solo una solución paliativa, en su lugar se requieren regulaciones sólidas y sostenibles para normar el desarrollo y uso de las herramientas de IA. Los países comienzan a tomar nota de ello y la “AI Act” podría ser votada en el Parlamento Europeo en abril para ser implementada en 2025, lo cual la convertiría en una regulación pionera en el mundo para abordar este tema y establecer un marco para el uso ético y seguro de la IA, ayudando a minimizar los riesgos.

Este es un tema complejo que llevará a la comunidad global a debates prácticamente filosóficos, además de las cuestiones éticas y del impacto colosal que esto tendrá en la economía mundial. Aún hay muchas interrogantes, pero por lo pronto no nos queda más que elevar nuestro nivel de atención a las fuentes de las cuales consumimos información.

@B_Estefan

Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión, y muchas opciones más.