“Es principalmente pornografía”, dice Sarah Katz, recordando los ocho meses en los que trabajó como moderadora de Facebook.
BBC NEWS MUNDO
“Pornografía infantil, violencia gráfica… tienes que estar preparado para ver cualquier cosa”: la experiencia de una moderadora de Facebook
Este artículo contiene descripciones de abuso sexual infantil y otros actos que podrían herir la sensibilidad de algunos lectores.
“La agencia fue muy directa sobre qué tipo de contenido veríamos y qué tan gráfico era, así que sabíamos a lo que nos enfrentábamos”, aclara.
Katz se refiere a la agencia de moderadores humanos con sede en California, Estados Unidos, que Facebook y otras empresas subcontrataban. Para ella trabajó en 2016.
- La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento
- “Jódete y muere”: revelan lo que Facebook permite y prohíbe al moderar los comentarios de los usuarios
- El plan de Facebook para permitir a sus usuarios que envíen fotos de desnudos de forma segura
Su tarea consistía en revisar las quejas sobrecontenido inapropiado que llegaban de los usuarios de Facebook.
Y no era fácil, según le cuenta a Emma Barnett, periodista de BBC Radio 5 Live.
“Nos daban alrededor de un minuto por publicación para decidir si era spam y había que eliminarlo”, empieza a explicar.
“A veces también borrábamos la cuenta asociada”, añade.
“A la gerencia le gustaba que no trabajáramos más de ocho horas por día y que revisábamos un promedio de 8.000 publicaciones por día, 1.000 por hora”, prosigue.
Reconoció que aprendió bastante, pero dijo que si tuviera que describir su trabajo con una sola palabra, sería “extenuante”.
Imágenes ilegales
“Definitivamente tienes que estar preparado para ver cualquier cosa con solo un clic. Las imágenes te llegan rápido, sin previo aviso”, dice.
Y la que más le impactó era una fotografía que sugería pornografía infantil.
“Era de un niño y una niña. El niño tenía unos 12 años y la niña unos ocho o nueve, y estaban de pie uno frente al otro”, la describe.
“No llevaban pantalones y se tocaban entre sí. Parecía que un adulto les estaba diciendo qué hacer. Era muy perturbador, sobre todo porque se notaba que era real”.
Publicaciones que se repiten
“Muchas de estas publicaciones explícitas circulaban continuamente. A menudo las veíamos proceder de seis cuentas distintas al día, por lo que era bastante difícil hallar la fuente original”, recuerda.
“Por aquel entonces no había servicios de asesoramiento y ayuda psicológica. Puede que hoy sí existan, no estoy segura”.
La exmoderadora reconoce que, de habérsela ofrecido, hubiera aceptado la ayuda.
“Definitivamente te advierten, pero estar advertido y verlo son dos cosas diferentes”, subraya.
“Algunas piensan que pueden manejarlo y resulta que no pueden, porque la realidad es peor que lo que esperaban”.
Violencia gráfica
Katz reconoce que los moderadores suelen volverse “bastante insensibles” con el tiempo. “No diría que se hace más fácil, pero definitivamente te acostumbras”, matiza.
“Obviamente, había mucha pornografía genérica entre adultos, lo cual no era tan perturbador”, explica.
En alguno de esos contenidos se incluían animales. “Había una imagen con un caballo que circulaba continuamente”, recuerda.
Y también se encontró con mucha violencia gráfica. “Me acuerdo de una publicación en la que a una mujer le reventaban la cabeza”, cuenta.
“La mitad de su cuerpo estaba en el suelo y la otra mitad, el torso, en una silla”, la describe.
“La política era más estricta para eliminar la pornografía que para la violencia gráfica”.
Noticias falsas
“Creo que a Facebook las noticias falsas lo pillaron por sorpresa”, dice Katz. “Durante la campaña para las elecciones de Estados Unidos era algo que estaba fuera del radar, al menos en el tiempo en el que yo trabajé allí”.
“Realmente no recuerdo haber escuchado nunca el término 'noticias falsas'”, asegura.
“Circulaban una gran cantidad de artículos que fueron denunciados por los usuarios, pero no recuerdo que la gerencia nos pidiera que verificáramos que los hechos que recogían aquellos textos eran precisos”, se justifica.
En general, el trabajo resultaba monótono. “Realmente te acostumbras a identificar lo que es spam y lo que no. Simplemente se convierte en un montón de clics”.
Preguntada por si lo recomendaría, es tajante: “Si puedes hacer cualquier otra cosa, te diría que no”.
La respuesta de Facebook
La BBC compartió la historia de Katz con Facebook.
En respuesta, un portavoz de la empresa creada por Mark Zuckerberg dijo: “Nuestros revisores desempeñan un papel crucial para hacer de Facebook un entorno seguro y abierto”.
“Este puede ser un trabajo muy desafiante, y queremos asegurarnos de que se sientan debidamente respaldados”, añadió.
“Es por eso que ofrecemos capacitación regular, asesoramiento y apoyo psicológico a todos nuestros empleados y a todos los que trabajan para nosotros a través de nuestros socios, aseguró.
“Aunque usamos inteligencia artificial cuando podemos, ahora hay más de 7.000 personas que revisan el contenido en Facebook, y cuidar de su bienestar es una verdadera prioridad para nosotros”.
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.