El pasado viernes, después de 3 años de negociar y redactar diversos proyectos de ley, el Parlamento Europeo aprobó la primera legislación de la Inteligencia Artificial (IA), regulación que es primogénita en el mundo y que servirá probablemente como referencia para legislaciones futuras sobre la materia.
La ley aún debe superar algunos trámites finales para su aprobación y no verá luz hasta dentro de dos años, pero el acuerdo político significa que se han fijado las pautas fundamentales en cuanto a definiciones, materias y límites a regular con las respectivas sanciones, así como las instancias y los procedimientos a seguir. Todo un éxito ante una tecnología que avanza velozmente y que no debe quedar sin tener la regulación que establezca límites a posibles excesos y abusos en los derechos fundamentales de toda persona, así como los posibles riesgos en otras áreas de la seguridad nacional con efectos sociales, económicos, políticos y legales.
La nueva legislación busca mitigar riesgos potenciales vinculados a la inteligencia artificial, al regular desafíos como la pérdida de empleos por la automatización, la propagación de desinformación en redes, entre otras amenazas. También considera temas relacionados con el acceso a la justicia y la educación en donde lamentablemente se han identificado actos discriminatorios en contra de minorías, creando con ello actos violatorios de derechos humanos. Considera una regla común de transparencia obligatoria para los sistemas de IA más grandes, como el que impulsa el chatbot de OpenAI “ChatGPT”, o el sistema de Google “Bard”; exigiéndoles revelar su alimentación de datos y sus procedimientos de recopilación, generación y uso de información, lo cual ofrecerá mayor certeza y seguridad a los usuarios y consumidores de esta información, y a la vez hace responsables a los proveedores del servicio de IA. Es un buen arreglo que regula posibles excesos.
Desde 2018, la Unión Europea ha demostrado un progreso constante en su enfoque regulatorio de la inteligencia artificial, equiparable a su rigurosa supervisión en sectores como la salud o la banca. La ley adopta un "enfoque basado en el riesgo y la protección de derechos” mientras prohíbe ciertas prácticas como el uso discriminatorio de imágenes para el reconocimiento facial. En especial atención se establecerán mayores limitantes a los sistemas de IA que se desarrollen en diversos sectores vitales como la educación, la atención médica y los servicios gubernamentales.
En perspectiva comparada, los EUA cuentan con una Orden Ejecutiva que también fue autorizada recientemente por el presidente Biden, sobre Seguridad y Protección, que establece estándares pioneros para el desarrollo y uso de la inteligencia artificial (IA). Esta orden establece que los creadores de sistemas de IA compartan los resultados de pruebas de seguridad con el gobierno, enfocándose en proteger a los ciudadanos de amenazas biológicas, combatir el fraude, mejorar la ciberseguridad y salvaguardar la privacidad. Es un enfoque menos invasivo que el modelo Europeo, ya que estimula la autorregulación. Busca equilibrar seguridad nacional, libertad de mercado y avance tecnológico, pero aún no tiene rango de ley.
Otros países, como Japón, han respondido al rápido crecimiento de la inteligencia artificial estableciendo limitantes sobre las protecciones de datos, privacidad y derechos de autor. En China hay regulación diversa con mayor enfoque en la seguridad del Estado y el manejo de los algoritmos. En Londres recientemente se reunieron diversos representantes de países preocupados por crear una regulación global para tener mismas leyes y parámetros para hacer un frente regulatorio común. Como se observa, la regulación es uno de los mayores desafíos y preocupaciones sobre la materia. El dilema es el modelo a seguir, en donde son los derechos de privacidad los más relevantes a considerar o la seguridad nacional. Sea como sea, se deberá de encontrar un equilibrio flexible que integre privacidad, seguridad, avance tecnológico y derechos de propiedad para lograr el mejor escenario posible en favor del desarrollo que puede potenciar la IA.
Durante las discusiones en Bruselas, los estados miembros de la UE compartieron otras preocupaciones sobre el impacto en las startups europeas frente a los gigantes tecnológicos globales; punto que destaca la complejidad en equilibrar la regulación y la innovación.
El desafío para otros legisladores en el mediano plazo radica en crear una regulación ad hoc frente al vertiginoso avance tecnológico. Es una carrera contra el tiempo, ya que las leyes suelen llegar cuando las tecnologías han superado los límites establecidos. Esta brecha entre la evolución tecnológica y la regulación plantea interrogantes sobre cómo abordar de manera efectiva y ágil los retos emergentes, garantizando la seguridad y la protección de derechos como parte de un nuevo contrato social en beneficio de la sociedad y nuestro futuro.
Cónsul General de México en Nueva York.
@Jorge_IslasLo