A veces un emoticono es solo un emoticono. Pero, a veces, puede ser una amenaza.
Y en solo unos segundos, los moderadores de Facebook tienen que reaccionar y tomar una decisión —incluso si el texto que acompaña a la cara amarilla sonriente está en un idioma que no conocen bien—.
Para ayudarles con esas decisiones, Facebook ha creado una lista de lineamientos sobre lo que sus 2000 millones de usuarios pueden decir. Los moderadores trabajan con esas reglas que son actualizadas frecuentemente.
Para Facebook, el objetivo es la claridad. Sin embargo, para los miles de moderadores en todo el mundo, que enfrentan la tarea de navegar este bizantino laberinto de reglas mientras monitorean a diario miles de millones de publicaciones en más de cien idiomas, la claridad es difícil de lograr.
Facebook intenta que esos lineamientos, y su existencia, se mantengan en secreto. Sin embargo, The New York Times adquirió 1400 páginas de esas reglas, y no solo detectó problemas en la redacción, sino también en la manera en que se realiza el proceso de moderación.
[Si quieres recibir los mejores reportajes de The New York Times en Español en tu correo suscríbete aquí a El Times]
A continuación presentamos cinco puntos clave de nuestra investigación:
Facebook experimenta sobre la marcha
Cada dos martes las reglas se discuten durante un desayuno que se celebra en una sala de conferencias en Menlo Park, California —lejos de la aceleración del descontento social que los críticos suelen achacarle a Facebook—.
Aunque la compañía no consulta a grupos externos, las reglas son determinadas en gran medida por jóvenes abogados e ingenieros, la mayoría de los cuales no tienen experiencia en las regiones del mundo sobre las que están tomando decisiones.
Las reglas que ellos crean parecen estar escritas para anglohablantes que a veces dependen del traductor de Google. Eso indica una falta de moderadores con habilidades idiomáticas locales que podrían entender mejor los contextos locales.
Los empleados de Facebook dicen que no han entendido, del todo, qué tipo de publicaciones pueden crear disturbios violentos o políticos. Los reglamentos son deducciones.
Las reglas contienen sesgos, omisiones y errores
Algunos de los lineamientos usados por los moderadores son imprecisos, están desactualizados o carecen de matices críticos.
Por ejemplo, una presentación se refiere al criminal de guerra bosnio Ratko Mladic como un fugitivo, a pesar de que fue arrestado en 2011.
Otra parece tener errores sobre la ley india porque aconseja a los moderadores que casi cualquier crítica a la religión debe ser marcada como probablemente ilegal. De hecho, según un académico especializado en temas jurídicos, criticar a la religión solo es ilegal cuando tiene la intención de generar violencia.
En Birmania, un error de papeleo permitió que un prominente grupo extremista, acusado de fomentar el genocidio, permaneciera en la plataforma durante meses.
Los moderadores se sienten abrumados
Facebook subcontrata los procesos de moderación con compañías que emplean a miles de trabajadores para hacer cumplir las reglas. En algunas de estas oficinas, los moderadores dicen que se espera que revisen muchas publicaciones en tan solo entre ocho y diez segundos. El trabajo puede ser tan exigente que muchas personas solo duran unos cuantos meses en ese cargo.
Los moderadores dicen que tienen pocos incentivos para contactar a Facebook cuando encuentran fallas en el proceso. Por su parte, Facebook permite en gran medida que las compañías que contratan a los moderadores se supervisen a sí mismas.
Facebook se adentra furtivamente en la política de los países
Cada vez, las políticas de Facebook se vuelven más asertivas para prohibir el acceso a grupos y personas, así como a tipos de discurso, que —según los moderadores— podrían conducir a la violencia.
En países donde la línea entre extremismo y política tradicional es poco clara, el poder de la red social para prohibir el acceso a algunos grupos significa que, en esencia, ayuda a definir ganadores y perdedores políticos.
A veces elimina partidos políticos, como Amanecer Dorado en Grecia, así como movimientos religiosos tradicionales en Asia y Oriente Medio. Esto puede significar que Facebook impide la participación de un sector de la población en los debates nacionales que suceden en su plataforma, argumenta un experto.
Algunas intervenciones son más sutiles. Durante las elecciones en Pakistán, la empresa le pidió a los moderadores que aplicaran un escrutinio extra a un partido, pero calificó al otro de “benigno”.
Y sus decisiones a menudo son modificadas a favor de los gobiernos, los cuales pueden multar o regular Facebook.
Facebook está tomando un enfoque de fondo
Aunque Facebook intenta limitar el contenido peligroso en su plataforma, continúa trabajando para incrementar sus usuarios en más países. A veces, esa tensión se observa en los lineamientos.
Por ejemplo, los moderadores que revisan publicaciones sobre Pakistán reciben advertencias sobre crear un “incendio de relaciones públicas” al hacer cualquier cosa que podría “tener un impacto negativo en la reputación de Facebook o incluso poner a la compañía en riesgo legal”.
Al depender de trabajadores subcontratados para realizar la mayor parte de la moderación, Facebook puede mantener costos bajos incluso mientras fija reglas para más de 2000 millones de usuarios.