La esposa de Michael Williams le rogó que recordara los viajes a pescar con sus nietos, cómo solía trenzar su cabello, cualquier cosa para devolverlo a su mundo fuera de los muros de concreto de la prisión del Condado Cook .
Las tres llamadas diarias que podía hacerle a ella se habían convertido en un salvavidas, pero cuando se redujeron a dos, luego a una, y después a unas pocas a la semana, Williams, de 65 años, sintió que no podía seguir adelante. Planeó quitarse la vida con un alijo de píldoras que había almacenado en su dormitorio.
Williams fue encarcelado en agosto pasado, acusado de matar a un joven de su vecindario que le pidió que lo llevara en su automóvil una de las noches de disturbios por la brutalidad policial en mayo.
Pero la evidencia clave contra Williams no provino de testigos o un informante, sino de un video de seguridad sin sonido que mostraba un automóvil que cruzaba una intersección y de un fuerte ruido explosivo captado por una red de micrófonos de vigilancia.
Los fiscales dijeron que la tecnología , que utilizaba un algoritmo secreto que analizaba ruidos detectados por sensores, indicó que Williams le disparó y mató al hombre.
“Seguí tratando de entender cómo podían salirse con la suya usando tecnología como esa en mi contra”, dijo Williams, en sus primeras declaraciones públicas sobre su calvario: “Eso no es justo”.
Williams permaneció tras las rejas durante casi un año antes de que un juez desestimara el caso en su contra el mes pasado a petición de los fiscales, quienes finalmente dijeron tener evidencia insuficiente .
La experiencia de Williams subraya los impactos en el mundo real de la creciente dependencia de algoritmos para ayudar a tomar decisiones que tienen impactos significativos en la vida pública.
En ninguna parte es esto más evidente que en la aplicación de la ley , que ha recurrido a empresas de tecnología como la compañía de detección de disparos ShotSpotter para combatir el crimen.
Evidencias procedentes de ShotSpotter han sido admitidas cada vez más en casos judiciales alrededor de Estados Unidos , y actualmente suman unos 200. El sitio web de ShotSpotter dice que es “un líder en soluciones de tecnología policial de precisión ” que ayuda a detener la violencia armada mediante el uso de “sensores, algoritmos e inteligencia artificial ” para clasificar 14 millones de sonidos en su base de datos como disparos de armas u otra cosa.
Sin embargo, una investigación de The Associated Press , con base en la revisión de miles de documentos internos, correos electrónicos, presentaciones y contratos confidenciales, junto con entrevistas a docenas de defensores públicos en comunidades donde se ha desplegado ShotSpotter, ha identificado una serie de fallas graves en el uso de ShotSpotter como apoyo probatorio para los fiscales.
La investigación de la AP encontró que el sistema no necesariamente detecta los disparos en vivo justo bajo sus micrófonos, o clasifica erróneamente como disparos de arma los sonidos de los fuegos artificiales o de los escapes de los autos.
Reportes forenses elaborados por empleados de ShotSpotter han sido utilizados en los tribunales para afirmar indebidamente que un acusado disparó a agentes de la policía, o proporcionar detalles inexactos sobre el número de disparos realizados. En varios casos, los jueces han desestimado la evidencia.
Los algoritmos patentados de ShotSpotter son el principal punto de venta de la compañía, y con frecuencia promociona la tecnología como virtualmente infalible en sus materiales de mercadotecnia.
¿Pero cómo funciona exactamente el sistema cerrado de la empresa privada? Eso es algo resguardado como secreto comercial , una caja negra en gran medida inescrutable para el público, los jurados y las juntas de supervisión de la policía.
Los métodos de la empresa para identificar disparos de armas no siempre son guiados únicamente por la tecnología. Los empleados de ShotSpotter pueden cambiar, y con frecuencia lo hacen, la fuente de los sonidos identificados por sus sensores después de escuchar grabaciones de audio, lo que introduce la posibilidad de sesgo humano en el algoritmo de detección de disparos.
Los empleados pueden modificar la ubicación o número de tiros disparados a petición de la policía, según los registros judiciales. Y en el pasado, los mismos despachadores de la ciudad o los policías podían realizar también algunos de estos cambios.
En medio de un debate nacional sobre el sesgo racial en la policía, los defensores de la privacidad y los derechos civiles dicen que el sistema de ShotSpotter y otras tecnologías basadas en algoritmos que son utilizadas para establecer todo, desde las sentencias de prisión hasta las reglas de libertad condicional, carecen de transparencia y supervisión, y muestran por qué el sistema de justicia penal no debería delegar algunas de las decisiones más importantes de la sociedad a códigos informáticos.
Cuando se le cuestionó sobre los errores potenciales del algoritmo de la empresa, Ralph Clark , director ejecutivo de ShotSpotter, declinó discutir los detalles específicos sobre el uso de inteligencia artificial (IA), y dijo que “no es realmente relevante”.
“El punto es que cualquier cosa que finalmente se produzca como un disparo de arma tiene que tener ojos y oídos encima”, dijo Clark en una entrevista. “Ojos y oídos humanos, ¿ok?”.
Lee también: Violencia policial, un mal difícil de erradicar en América