La Inteligencia Artificial (IA) generativa es una rama de la IA que se ocupa de crear nuevos datos, como imágenes, texto y música. Esta tecnología tiene el potencial de revolucionar muchas industrias.

La IA generativa efectivamente puede reportar enormes ventajas. Sin embargo, debemos tener presente que, como ocurre con toda nueva tecnología, el desarrollo de la IA generativa también implica delicados riesgos que tendremos que reconocer y asumir.

Uno de los principales problemas que particularmente preocupan a expertos en temas de información es el posible empleo de la IA generativa en la poderosa industria de la desinformación en Internet.

La IA generativa nos obliga a considerar la posible irrupción de una versión renovada de la llamada “teoría de la aguja hipodérmica”, la cual, en el imaginario de la comunicología estadounidense, durante las primeras décadas en el siglo XX establecía la posibilidad de que los mensajes fueran plenamente aceptados por los destinatarios o receptores.

Las teorías relativas al incuestionable poder de los medios de comunicación de masas, además se alimentaron de la conocida sentencia de Joseph Goebbels -“una mentira mil veces se convierte en una verdad”-. Goebbels se desempeñó como ministro para la Ilustración Pública y Propaganda en el Tercer Reich, de 1933 a 1945.

A finales de la década de 1940 fue decretado el inminente fin de la “teoría de la aguja hipodérmica”. Sin embargo, en años recientes el fantasma de la “teoría de la aguja hipodérmica” ronda entre nosotros.

En el libro La dictadura de los datos (2020), Brittany Kaiser realizó interesantes revelaciones sobre la metodología que utilizó la firma Cambridge Analytica (CA) -donde ella trabajó- para ganar el voto ciudadano y favorecer a los clientes de la referida firma de consultoría en no pocas campañas propagandísticas.

Cambridge Analytica fue una compañía británica que combinaba la minería de datos y el análisis de datos con la comunicación estratégica en procesos electorales. En 2018 fue disuelta debido a las negativas repercusiones del «escándalo Facebook-Cambridge Analytica».

CA jugó un rol protagónico en la campaña que llevó a Donald Trump a la presidencia de Estados Unidos en 2017. Además, CA colaboró a favor del Brexit.

Mediante Big Data, algoritmos y avanzadas técnicas de microfocalización, los científicos de datos que laboraban en CA demostraron ser capaces de elaborar los mensajes pertinentes para persuadir a determinados segmentos del electorado.

Los mensajes que CA desplegaba en las campañas proselitistas que confeccionaba para sus clientes, efectivamente coincidían con los valores, creencias y sentimientos de las audiencias objetivo. Los destinatarios suponían tales mensajes personalizados, razón por la cual difícilmente los rechazaban.

La IA generativa efectivamente puede extender y agudizar la desinformación en Internet a través de deepfakes, noticias falsas, bots y, principalmente, campañas de desinformación sumamente efectivas.

Los deepfakes son videos o audios en los que se ha alterado la imagen o el sonido de una persona para que parezca decir o hacer algo que en realidad nunca dijo o hizo. Los deepfakes pueden utilizarse para difundir noticias falsas, difamar a personas o manipular la opinión pública.

Otra forma en que la IA generativa puede ser utilizada para crear desinformación es mediante la creación de noticias falsas. Las noticias falsas son artículos o publicaciones que son deliberadamente falsos o engañosos. Las noticias falsas pueden utilizarse para manipular la opinión pública, influir en las elecciones o dañar la reputación de personas o empresas.

La IA generativa también puede ser utilizada para crear bots. Los bots son cuentas de redes sociales que son controladas por computadoras. Los bots pueden utilizarse para difundir desinformación, propaganda o spam.

La IA generativa no solo hará más fácil producir desinformación y, por lo tanto, aumentará la desinformación que circula libremente en Internet. Peor aún, la IA es capaz de generar desinformación mucho más creíble y convincente.

Si con la metodología empleada por CA las campañas persuasivas arrojaban notables resultados, con la IA generativa la desinformación se volverá más dirigida, e incluso será capaz de interactuar con las personas para cambiar sus opiniones.

Hemos sido engañados por contenidos baja calidad. Con la IA generativa hemos ingresado a un periodo en el cual recibiremos desinformación y propaganda de mayor calidad, la verdadera aguja hipodérmica.

El Big Data que utilizó CA fundamentalmente dependía de la información acumulada por Facebook. Sin embargo, hoy es mucho más fácil recopilar todos los datos que resultan necesarios para construir una campaña de desinformación, a partir de varias redes sociodigitales y de diversas plataformas.

Mediante las herramientas de IA generativa, quienes llevan a cabo campañas de desinformación -un próspero negocio en la economía real de Internet- podrán alcanzar con notable eficiencia a individuos y grupos meta.

Las indicaciones a la IA generativa pueden ser muy simples: "Aquí hay un gran número de tuits y likes de un determinado usuario. Escribe algo que les resulte interesante”. La exploración naturalmente arroja datos muy reveladores del perfil del usuario.

Ese tipo de peticiones podrían derivar en los algoritmos pertinentes para extender el alcance del proceso de automatización.

La resurrección de la “teoría de la aguja hipodérmica” representa un problema grave que definitivamente se extiende mucho más allá de las limitaciones del imaginario comunicológico.

En una interesante nota publicada en The Economist, el destacado historiador y filósofo Yuval Noah Harari afirma que la Inteligencia Artificial (IA) “ha hackeado el sistema operativo de la civilización humana”.

La IA, sostiene Harari “ha adquirido habilidades notables para manipular y generar lenguaje, ya sea con palabras, sonidos o imágenes. IA ha pirateado el sistema operativo de nuestra civilización.

Google News

TEMAS RELACIONADOS