La red social Facebook anunció que en el último trimestre eliminó 8.7 millones de imágenes de desnudos infantiles gracias a la ayuda de un software que detecta automáticamente este tipo de fotos .
Un sistema similar también reveló la detección de usuarios involucrados en intentar hacerse amigos de niños para la explotación sexual .
La jefa de seguridad global de Facebook , Antigone Davis, dijo que la "máquina nos ayuda a priorizar" y "organizar de manera más eficiente" el contenido problemático, y que están analizando usar la misma tecnología en Instagram .
Reconoció también que estos sistemas de seguridad se pueden equivocar, pero que los usuarios pueden apelar.