El parlamento de la Unión Europea aprobó el día de hoy el primer conjunto de reglas para el uso de la inteligencia artificial (IA), el cual está basado en cuatro categorías en las que se advierte el nivel de peligro que tiene el uso de esta herramienta.

Con 523 votos a favor y 46 en contra, el Parlamento Europeo voto a favor de adoptar la primera ley de Inteligencia Artificial. Ahora, la UE tendrá que trabajar para obtener la aprobación final y que la implementación de esta ley se realice en los meses de mayo o junio.

Se espera que con esta ley, se generen nuevos sistemas de inteligencia artificial en beneficio de la sociedad, a la vez que se protegen los derechos de los ciudadanos.

 Foto: Pexels
Foto: Pexels

Leer también:

¿Qué busca prohibir la primera Ley de IA?

La primera Ley de IA se ha centrado en algunos para prohibir el uso de esta herramienta en ámbitos que afecten a los ciudadanos, además que las implementaciones de la IA deben respetar los requisitos de transparencia.

Los puntos clave de esta ley son:

Reconocimiento facial

Uno de los principales temas que se retoman en la primera Ley de Inteligencia Artificial, es respecto a la categorización biométrica, la cual es una “amenaza potencial para los derechos de los ciudadanos y la democracia”.

Las prohibiciones que plantea el acuerdo son:

  • Los sistemas de categorización biométrica que utilizan características sensibles como creencias políticas, religiosas, orientación sexual, raza, entre otras.
  • La obtención de imágenes de internet o cámaras CCTV para algún propósito en específico y la creación de puntuación social.
  • Reconocimiento de emociones en el lugar de trabajo e instituciones educativas.
Imagen: especial
Imagen: especial

Vale la pena señalar que en este punto, existen algunas excepciones para el uso de sistemas de identificación biométrica. Cuando el uso de esta se aplique para fines policiales para la búsqueda selectiva de víctimas, prevención de amenaza terroristas o localización / identificación de una persona sospechosa de haber cometido algún delito en específico, ésta podrá usarse.

Sistemas de alto riesgo

Dentro de la ley se ha incluido una "evaluación obligatoria del impacto (de la IA) sobre los derechos fundamentales", la cual también será aplicable en sectores como el bancario o el de seguros.

El acuerdo señala que "los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos". De acuerdo con la Ley, hay cuatro niveles de riesgo: riesgo mínimo, alto riesgo, transparencia específico y riesgo inaceptable

Foto: Especial
Foto: Especial

Transparencia en sistemas de IA

El acuerdo de la Unión Europea también destacó que los sistemas de IA de propósito general, tales como ChatGPT o Gemini, "tendrán que cumplir con los requisitos de transparencia". Es decir, tendrán que someterse a una serie de pruebas para mitigar riesgos . Además, tendrán que dar aviso sobre incidentes graves con el fin de garantizar la ciberseguridad e informar sobre su eficiencia.

Algunos ámbitos en los que se aplicará esta ley son: la elaboración de documentación técnica, cumplimiento de la ley de derechos de autor de la UE, así como la difusión de resúmenes sobre el contenido utilizado para la formación.

Además, los eurodiputados instaron a que "hasta que se publiquen normas armonizadas de la UE, las GPAI con riesgo sistémico pueden depender de códigos de práctica para cumplir con la regulación".

 Fuente: Pixabay
Fuente: Pixabay

Apoyo a la innovación y pymes

La ley no limita el uso de la IA, más bien busca regularla y fomentar su uso para la innovación. Por ello, en uno de los puntos clave de la ley, se destaca que los eurodiputados buscan garantizar a las empresas, especialmente pymes, que puedan "desarrollar soluciones de inteligencia artificial sin presiones indebidas por parte de los gigantes de la industria que controlan la cadena de valor", señala la publicación del Parlamento Europeo.

Con ello buscan promover los entornos de pruebas regulatorios y pruebas en el mundo real para desarrollar y entrenar a la inteligencia artificial antes de su comercialización.

Fuente: Pixabay
Fuente: Pixabay

¿Qué pasará si no cumplen con la Ley de IA?

De acuerdo con la publicación del Parlamente Europeo, "el incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa".

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí:



Google News

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses