Poco se piensa en los procesos que llevan a las Inteligencias Artificiales a entender y hablar un idioma, en los lingüistas que trabajan fuera de los reflectores que acaparan ingenieros, diseñadores y programadores; pero están ahí, en grupos multidisciplinarios no sólo de eruditos del lenguaje, sino también de expertos en el comportamiento humano, y que forman lo que se conoce como lingüística computacional, que básicamente va de describir, formalizar y estructurar el lenguaje natural y cotidiano, tanto en voz como en texto, de manera que pueda ser convertido en información ejecutable, y en gran medida “entendible”, por una máquina de tal manera que cualquier instrucción recibida pueda generar una respuesta acorde. Hoy mismo no es extraño encontrar por ejemplo chats automatizados que resuelven al instante las dudas del usuario de alguna compañía de telefonía o banco; sin embargo, esto podríamos considerarlo el nivel más “simple” de desarrollo de comprensión de una Inteligencia Artificial, preguntas comunes (en sus diferentes formas) almacenadas en una base de datos que llevan a una respuesta, algo parecido a un If this, then that; pero hay también niveles mucho más complejos dentro de estos procesos en los que combinan esfuerzos hombres y máquinas, por ejemplo el Instituto Cervantes de la Universidad de Harvard tiene un proyecto en el que a través de algoritmos avanzados se busca detectar neologismos en el español que se usa en las redes sociales; es decir, podemos ser capaces (bueno, las máquinas) de buscar y descifrar palabras que no están todavía clasificadas.
En el más reciente congreso de la ASALE (de la que hablamos en este mismo espacio en noviembre pasado), el director de la Real Academia Española, Santiago Muñoz, ha impulsado, de la mano de las empresas referentes en el mundo de la tecnología: Facebook, Twitter, Google y Microsoft, entre otras, el proyecto LEIA (Lengua española e Inteligencia Artificial), en el que estas empresas seguirán los criterios aprobados por la RAE a la hora de implementar nuestro idioma en sus productos. En la página de la RAE dedicada a este asunto se lee: “Son dos los grandes objetivos que se han fijado: por un lado, velar por el buen uso de la lengua española en las máquinas y, por el otro, aprovechar la Inteligencia Artificial para crear herramientas que fomenten el uso correcto del español en los seres humanos”; a las empresas que cumplan con los lineamientos acordados se les otorgará un certificado de buen uso del español.
Comprometer a las empresas tecnológicas a implementar controles para el buen uso de la lengua española es un acto que difícilmente percibirán sensiblemente los usuarios en su día a día, pocos podrán identificar una mejor sintaxis, una expansión significativa en la cantidad de palabras que se usan, mejoras ortográficas, etc. Y es que el problema principal no está en normar (que hay que hacerlo, por supuesto), o en aumentar el número de expertos lingüistas a los procesos de la lingüística computacional; el problema mayor sigue siendo la falta de contenidos técnicos y científicos en la red, en donde el español, a pesar de ser el segundo idioma más utilizado en redes sociales, está todavía muy por debajo de otros en aquellos temas, idiomas como el ruso o el alemán; hay más entradas en la Wikipedia sueca que en la dedicada a nuestro idioma, y la academia bien podría intervenir también en estas cuestiones de fondos, más que de formas.
herles@escueladeescritoresdemexico.com