Nadie sabe qué hacer con la inteligencia artificial (IA). Llegó sin aviso y, además, abarca prácticamente todas las áreas económicas, sociales y de conocimiento del ser humano. Preguntas hay muchas, y muy pocas respuestas todavía. A nivel jurídico, la primera gran duda es: ¿necesitamos regular ahora la IA? ¿Qué de lo que tenemos como marco jurídico vigente nos ayuda? ¿Cuáles son las preocupaciones que presenta la IA y qué queremos controlar o evitar? Veamos un poco lo que está pasando en el mundo:
En Europa, donde se emite legislación común para todos los países integrantes de la Unión, no terminan de ponerse de acuerdo. Desde abril de 2021, la Comisión Europea propuso el primer texto para regular la IA y, en junio de este año, los eurodiputados adoptaron su posición negociadora sobre dicha ley y han iniciado las discusiones para intentar llegar a un acuerdo que seguramente ya no se alcanzará este año.
En Estados Unidos, la oficina del presidente Joe Biden publicó el 30 de octubre un decreto sobre la seguridad y confiabilidad de la IA. Se trata de un documento bastante ambicioso que es marco y transversal; marco, porque exige la expedición de mayor regulación que lo detalle, y transversal debido a que toca muy variados sectores: desde la discriminación, hasta la salud, el consumo, e incluso temas de armas y ciberseguridad. El decreto tiene las limitaciones propias de una reglamentación que proviene del Ejecutivo; es decir, no tiene la misma fuerza y alcance de una ley, además de que podría ser abrogado por el próximo presidente de ese país. Sin embargo, es posible que el legislador federal, los estados, así como las diferentes agencias gubernamentales, inicien pronto el desarrollo de su contenido.
En China, país que cuenta con mil millones de cámaras de vigilancia, están invirtiendo cantidades importantes en el desarrollo de la IA; sólo este año gastarán 15 billones de dólares y se espera que para 2026 inviertan casi el doble. Es común que China se mantenga un tanto hermética respecto a sus avances tecnológicos -y en todo-; sin embargo, fue uno de los 29 países (México no asistió) que firmaron la declaración de Bletchley el 2 de noviembre pasado, como resultado de la Cumbre sobre la Seguridad de la IA, y que entraña un compromiso de trabajar de manera conjunta a nivel internacional.
Así, la regulación de la IA en otros países se concentra en el tema de la seguridad y la confiabilidad.
¿Y qué sucede en México? Es escalofriante escuchar que ya existen iniciativas en el legislativo para regular la IA. Algo que ha llevado varios años, mucha tinta y saliva en otros países que aún no llegan a definir el marco regulatorio, en México ya tiene número de páginas: kafkiano. Por otro lado, recientemente se creó la ANIA, Alianza Nacional de IA, que se anuncia como un “mecanismo multiactor que tiene como misión reconocer y fortalecer el ecosistema de IA en México”, con un consejo asesor más político que científico y académico, al mando de Alejandra Lagunes, quien fuera coordinadora de la estrategia digital nacional con Peña Nieto, la misma que convirtió en un festín de opacidad los sitios web del gobierno federal, entre otras barbaridades. Debe hacerse un esfuerzo a mayor nivel y con recursos serios; iniciar un centro de documentación, elaborar consultas públicas, diagnósticos y aprovechar lo ya avanzado en México (ver recomendación del Consejo Consultivo del IFT) y en el mundo, antes de que empiecen a votar estupideces en el legislativo, sin entender nada del tema, como ya es costumbre.
Abogada, presidenta de Observatel y comentarista de Radio Educación
X y Threads: @soyirenelevy