Más Información
La Inteligencia Artificial (IA) es una tecnología , y concepto, que se comienza a escuchar de manera común en la vida cotidiana. Esto debido a la gran cantidad de usos y aplicaciones que puede tener.
Por lo tanto, es natural que el interés de la gente por aprender sobre ella haya incrementado; tanto sobre su funcionamiento como sobre el papel que desempeña en las sociedades .
Precisamente, una de las aplicaciones más recientes de la IA en la sociedad, han sido los sistemas de reconocimiento facial .
Aunque hay quienes señalan que pueden ser muy efectivos para mantener la seguridad , muchas organizaciones se quejan no sólo de que implican una pérdida de privacidad sino que su efectividad es limitada sobre todo cuando se trata de ciertos perfiles.
Ya se han llevado a cabo investigaciones en que se pone a prueba un sistema de reconocimiento facial para tratar de descifrar ciertos rasgos de las personas. Incluso, ha habido casos en que se asegura que esta tecnología puede reconocer a un delincuente, lo que, por supuesto, provocó muchas críticas.
Recientemente, el psicólogo polaco Michal Kosinski publicó un estudio titulado Facial recognition technology can expose political orientation from naturalistic facial images en la prestigiosa revista académica Nature donde sostiene que el uso generalizado del reconocimiento facial amenaza la privacidad y las libertades civiles .
De acuerdo con el estudio, “la ubicua tecnología de reconocimiento facial puede revelar la orientación política de un individuo, ya que las caras de los liberales y los conservadores difieren entre sí. Un algoritmo de reconocimiento facial se aplicó a las imágenes naturalistas de 1,085,795 individuos para predecir su orientación política al comparar sus semejanzas a las caras de liberales y conservadores”.
El estudio detalla que un sistema de IA fue alimentado con una muestra de un poco más de un millón de caras , gran parte de las cuales fueron tomadas de un “sitio web de citas”, aunque no se especifica cuál, sí se menciona que es utilizado en Estados Unidos , Reino Unido y Canadá .
Asimismo se utilizó parte de la base de datos de la app MyPersonality , un test de personalidad con el que Facebook rompió lazos en 2018 por sus prácticas de recopilación de datos .
La razón por la cual se tomaron los rostros de esos sitios es que, en todos los casos, las personas señalaron si eran “ conservadores ” o “ liberales ”.
Toda esa información se entregó a un algoritmo de reconocimiento facial de código abierto que se encargó de analizar los rasgos para buscar coincidencias y crear una correlación entre la forma de la cara y las inclinaciones políticas.
De acuerdo con Kosinski, “la orientación política fue correctamente clasificada en 72% de los pares liberal-conservador”.
En el estudio se consideraron no solo los rasgos faciales sino otros elementos, por ejemplo, si la persona usaba lentes o la manera en que volteaban a la cámara. Así fue como Kosinski afirma haber descubierto que las personas que se identifican a sí mismas como liberales son más propensas a mirar directamente a la cámara o a expresar “sorpresa” en sus fotografías.
Mientras que los conservadores , además de ser, en general, más blancos, masculinos y viejos, también tienden a expresar más “ disgusto ” en sus fotos.
Estudios polémicos
No es la primera vez que Kosinski asegura que la tecnología de reconocimiento facial puede adivinar rasgos y preferencias de las personas. En 2017 lideró un estudio en el que una IA afirmaba detectar con precisión la orientación sexual de los demás con solo ver su cara.
Su investigación provocó quejas por parte de organismos de derechos humanos y hasta de sus propios colegas académicos que desmintieron la supuesta efectividad de la tecnología de Kosinski a quien calificaron de “ imprudente ” por publicarlos.
Respecto a su nueva investigación sobre las preferencias políticas, especialistas advierten que Kosinski se basa en la idea pseudocientífica de que se pueden saber facetas de la personalidad de alguien simplemente por la forma de su cara .
También señalan que los psicólogos han dicho desde años que los algoritmos que pretenden clasificar si alguien tiene, por ejemplo, más probabilidad de ser un ladrón no funcionan mucho mejor que el azar.
Sin embargo Kosinski insiste en que “muchos estudios han demostrado que las personas pueden determinar las posturas políticas , la personalidad , la orientación sexual , la honestidad y muchos otros rasgos de los demás a partir de sus rostros ”.
gm/sg