Más Información
Cae en EU “El Guacho”, yerno de “El Mencho”, líder del CJNG; había fingido su muerte para vivir en California
Comienzan las entrevistas de los aspirantes a la Fiscalía capitalina; Ulrich Richter promete ciudadanizarla y despresurizarla
Noroña habla sobre prórroga del INE para elección judicial; “Veo complicado que se mueva, pero lo resolveremos”, señala
Liberación del empresario Tariácuri Hernández; la intervención de autoridades y la oración de su familia
Sheinbaum: “migrantes no deben ser tratados como criminales”; trabaja en estrategia para enfrentar deportaciones
Morena prevé reasignar entre 12 mil y 15 mil mdp en el PPEF 2025; no contempla recursos extras para la SSPC
Sheinbaum responde a José Narro Robles; "Mucha ignorancia“ calificar Universidades del Bienestar como "fraude educativo"
Colaboradores de EL UNIVERSAL reciben Premio Nacional de Comunicación José Pagés Llergo 2024; dedican ceremonia a trabajadores del poder judicial
La ley de inteligencia artificial de la Unión Europea, pionera en el mundo, entró en vigor este jueves con el fin de regular el uso de esta tecnología en función del riesgo que suponga para las personas e impulsar al mismo tiempo la industria europea frente a gigantes como China o Estados Unidos.
"Dirigirá el desarrollo de una inteligencia artificial (IA) en la que los europeos puedan confiar y proporcionará apoyo a las pymes y 'start-ups' europeas para que traigan al mercado soluciones de IA innovadoras", dijo en la red social X la presidenta de la Comisión Europea, Ursula von der Leyen.
La ley permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si respetan los derechos fundamentales.
Lee también CDMX: Diputado de Morena propone crear comisión especializada en Inteligencia Artificial
En concreto, distingue entre sistemas de IA que presentan un "riesgo inaceptable" por ser una amenaza para los derechos fundamentales y que estarán prohibidos; sistemas de "alto riesgo", que no estarán vetados pero sí sujetos a estrictos requisitos; IA con riesgos de transparencia, como los 'chatbots'; y sistemas de riesgo "mínimo", que son la mayoría y no estarán sujetos a las normas.
Siguiendo esta clasificación, la ley prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por raza y orientación sexual; los que puntúan a las personas en función de su comportamiento y características personales; y la IA capaz de manipular el comportamiento humano.
También estarán vetados los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; y en los centros de trabajo y escuelas estarán prohibidos los sistemas que pueden reconocer emociones.
Ley de inteligencia artificial prohíbe la vigilancia en espacios públicos
En general, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que en ciertos casos las fuerzas del orden puedan emplear las cámaras de identificación biométrica con previa autorización judicial, lo que constituyó uno de los puntos más difíciles de las negociaciones entre Eurocámara y Estados para pactar la ley.
Así, podrán hacer usos de estos sistemas para evitar una amenaza terrorista inminente, para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental, por ejemplo, así como para buscar a las víctimas de estos delitos.
El reglamento identifica además sistemas de alto riesgo que solo podrán comercializarse si sus desarrolladores garantizan que respetan los derechos fundamentales, por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y calificación crediticia de los clientes.
Lee también Brasil prevé invertir más de 4 millones de dolares en plan de inteligencia artificial
Por otro lado, establece una serie de obligaciones para los sistemas de inteligencia artificial de uso general en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.
En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Sanciones por incumplir la ley de IA en Europa
Las empresas que incumplan se enfrentan a multas de hasta el 7% de su facturación global anual cuando sean infracciones ligadas a aplicaciones prohibidas, hasta el 3% cuando estén vinculadas a otras obligaciones; y de hasta el 1.5% de la facturación por proporcionar información incorrecta.
Los Estados de la UE tienen hasta el 2 de agosto de 2025 para designar a la autoridad que se encargará de aplicar la legislación a nivel nacional, mientras que a escala europea la tarea recaerá en una nueva Oficia de IA en la Comisión Europea.
La mayoría de disposiciones de la ley se aplicarán a partir del 2 de agosto de 2026 con excepción de la prohibición de los sistemas de riesgo inaceptable, que será efectiva dentro de seis meses, y las normas para IA de uso general, que lo serán en un año.
sg/mcc