El Consejo Asesor de Contenido de Facebook (Oversight Board) es un organismo autónomo que se encargará de revisar casos problemáticos de moderación de contenidos en las redes sociales de dicha compañía: Instagram y Facebook.
Esta junta revisará si determinado contenido es adecuado para su circulación en las plataformas con base en las normas comunitarias de las mismas. Sin dejar de lado la importancia de mantener y salvaguardar la libertad de expresión dentro del marco de las normas internacionales de derechos humanos.
En entrevista para Tech Bit de EL UNIVERSAL, Catalina Botero Marino, decana de la Facultad de Derecho de la Universidad de los Andes y co-presidenta de la Junta de Supervisión de Contenidos, explicó cuál será el funcionamiento del organismo así como sus antecedentes y origen.
“La idea de la junta surge porque las plataformas están sometidas a un enorme debate cada vez que deciden dejar un contenido que puede ser polémico o sacar un contenido que puede ser de interés público. Debido a que el contenido es moderado por Inteligencia Artificial, se pueden encontrar casos donde las plataformas bajan una obra de arte porque tiene un desnudo o quitan una foto que denuncia hambruna porque hay una niña desnuda en un campo de refugiados y lo que se denuncia en la foto es una hambruna. Eso no es pornografía infantil.
Lee también: Facebook anuncia Messenger Rooms, plataforma de videollamadas para hasta 50 personas
“Entonces, cuando las plataformas se encuentran en ese dilema, empiezan a surgir voces que dicen que la única manera de resolver ese problema - la ausencia de criterios adecuados de moderación de contenidos por parte de las propias plataformas - es que el Estado tome decisiones y que el Estado regule. Pero esa es una mala decisión. Entregarle a los gobiernos la facultad de definir lo que puede circular o no en las redes, es entregarles una llave tentadora de usar que abre la puerta de la censura. Esa llave no se le puede entregar a los gobiernos así de fácil”, explicó Botero Marino.
Fue en medio de esa polémica frente a la alternativa de regulaciones estatales que Facebook decidió lanzar este “modelo inédito” de un consejo de moderación de contenido para supervisar la manera en la que la plataforma realiza estas actividades.
Las funciones de este consejo serán: conocer casos problemáticos de moderación de contenidos (que primero deben haber sido “resueltos” por Facebook. Si después de eso el usuario no está de acuerdo con la resolución o la misma plataforma tiene dudas acerca del caso, el contenido se someterá a revisión con el Consejo). La segunda función es “consultiva o de recomendación de políticas”. Es decir, “si hay un problema que no se resuelve a través de casos concretos sino que el consejo determina que se requiere de una política determinada de moderación de contenidos, le puede sugerir a Facebook esa reforma”.
Referente a la selección de temáticas y casos a deliberar, Botero Marino explicó que existen áreas donde la moderación de contenidos es problemática. Ejemplo de ello pueden ser temas de “incitación a la violencia, discriminación, o incluso, la diferencia entre desinformación, opinión y sátira”, explicó la co-presidenta de la junta.
Lee también: Facebook te avisará si consumiste información falsa sobre el coronavirus
“Todos esos son campos en los cuales hay mucha discusión sobre la moderación de contenidos. La forma cómo lo resuelva el consejo dependerá de la deliberación que se realice. Se tendrá que analizar cada caso en concreto y en virtud de un proceso profundo de deliberación llegar a una conclusión”.
El Oversight Board tiene como característica ser autónomo e independiente de Facebook. Acorde a lo explicado por Catalina Botero Marino, esto es importante para evitar conflictos de intereses y proteger la libertad de expresión.
“Puede ser que a la plataforma le interese mantener un determinado contenido a pesar de que pueda ser ofensivo. O por el contrario: que le interese bajar contenido porque le genera críticas. Entonces hay conflictos de interés y por eso es tan importante que quien tome las decisiones, no le deba nada a la plataforma. El consejo está estructurado con ciertas garantías institucionales para poder funcionar de forma autónoma e independiente de Facebook”.
Lee también: El nuevo Facebook ya disponible en México
“Si la plataforma toma la decisión de bajar un contenido que está protegido por la libertad de expresión por el derecho internacional de derechos humanos, entonces el consejo tomará la decisión de pedirle a la plataforma que lo vuelva a incorporar. [El Consejo] debe tener en cuenta los contextos locales así como los valores universales y, en particular, la libertad de expresión. Así está descrito en las normas fundacionales del consejo”, finalizó Catalina Botero Marino, decana de la Facultad de Derecho de la Universidad de los Andes y co-presidenta de la Junta de Supervisión de Contenidos de Facebook.
El Oversight Board está compuesto actualmente por 20 personas de distintas nacionalidades (16 integrantes y 4 co-presidentes). Se espera que en próximos meses, el número de miembros alcance los 40.
ACR