Para algunas autoridades policiales del mundo los sistemas de reconocimiento facial representan una gran herramienta para localizar a los delincuentes de una manera simple y así garantizar la seguridad de los ciudadanos. Sin embargo, el hecho de que las personas sean constantemente observadas y sus datos privados, como sus rasgos, formen parte de una enorme base de datos es un riesgo y una violación a la privacidad, denuncia Amnistía Internacional.
A través de una nueva campaña titulada “Prohibir el escaneo ” el organismo está lanzando una demanda para que la ciudad de Nueva York detenga el uso de sistemas de reconocimiento facial por parte de la policía y el gobierno .
Amnistía Internacional sostiene que el reconocimiento facial es incompatible con los derechos básicos de privacidad y exacerbará el racismo estructural en las prácticas policiales. “Los neoyorquinos deberían poder hacer las tareas de su vida diaria sin ser rastreados por el reconocimiento facial. Otras ciudades importantes de Estados Unidos ya han prohibido el reconocimiento facial, y Nueva York debe hacer lo mismo", dijo Matt Mahmoudi, investigador de AI y derechos humanos de organismo global que trabaja para que sean reconocidos y respetados los derechos humanos.
Hay que señalar que no es solo Amnistía Internacional la que se ha mostrado en contra del uso de estos sistemas en Nueva York. Urban Justice Center, la New York Civil Liberties Union y la oficina de Public Advocate también se han pronunciado sobre los riesgos que esta tecnología representa para la privacidad de los ciudadanos.
Y es que el Departamento de Policía de Nueva York (NYPD) se ha enfrentado a los críticos del reconocimiento facial, sobre todo cuando utilizó el sistema para localizar y arrestar a un activista del movimiento Black Lives Matter en agosto de 2020. Sin embargo, la policía ha afirmado que solo usa el reconocimiento facial para generar pistas y no realiza arrestos basándose en la información de esta herramienta.
Para intentar frenar el uso de esta tecnología , Amnistía Internacional lanzó un sitio de internet en el cual invita a los usuarios a dejar sus comentarios sobre las políticas de la policía de Nueva York. Posteriormente planea presentar solicitudes basadas en la Ley de Libertad de Información y, en mayo, lanzará una herramienta para geolocalizar cámaras con capacidad de reconocimiento facial en toda la ciudad.
"Durante años, el NYPD ha utilizado el reconocimiento facial para rastrear a decenas de miles de neoyorquinos, lo que pone a los ciudadanos de color en riesgo de arrestos falsos y violencia policial "Prohibir el reconocimiento facial no solo protegerá los derechos civiles: es una cuestión de vida o muerte", advirtió Albert Fox Cahn, director ejecutivo del Proyecto de Supervisión de Tecnología de Vigilancia en Urban Justice Center en un comunicado.
Además de los riesgos de perder la privacidad, otra de las razones por las cuales los sistemas de identificación facial están siendo cuestionados y, en muchos casos prohibidos, es que tienen sesgos y problemas para trabajar en algunos escenarios.
Si bien la tecnología ha mejorado mucho en la última década gracias a los avances en inteligencia artificial , se ha detectado que este tipo de sistema presentan sesgos en áreas como la edad, la raza y la etnia, lo que puede hacer que las herramientas no sean fiables para la aplicación de la ley y la seguridad y, por el contrario puedan ser utilizadas para infringir los derechos humanos.
Diversos estudios y analistas, en Estados Unidos, han comprobado los riesgos que esta tecnología implica en términos de violaciones a la privacidad pues, por ejemplo, algunos han utilizado las redes sociales para generar, sin el consentimiento de los usuarios, una base de datos que después se utiliza en empresas y por autoridades argumentando la seguridad nacional.
Asimismo especialistas han advertido que los sistemas de reconocimiento facial pueden producir resultados extremadamente inexactos, especialmente para las personas que no son de tez blanca. Un estudio del gobierno de Estados Unidos demostró que los algoritmos mostraron tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.
Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que varios algoritmos asignaron el género incorrecto a las mujeres negra s casi el 35% de las veces.