Sexo, violencia y terrorismo en Facebook: éstas son las reglas que determinan si ves o no esos contenidos

Sexo, violencia y terrorismo en Facebook: éstas son las reglas que determinan si ves o no esos contenidos

Sin comentarios Facebook Twitter Flipboard E-mail
Sexo, violencia y terrorismo en Facebook: éstas son las reglas que determinan si ves o no esos contenidos

¿Por qué vemos ciertas cosas en Facebook y no otras? Una legión de moderadores trabajan en la red social, y esa labor se une a la de unos algoritmos que se encargan de determinar qué entra y qué no en nuestro flujo de noticias.

En ambos casos se siguen unos criterios de moderación que conforman la guía de estilo de Facebook. Este conjunto de documentos ha sido descubierto por The Guardian, y en ellos descubrimos una serie de decisiones éticas y morales que seguramente muchos discutan y que determinan si textos, imágenes o vídeos sobre temas como el sexo, el terrorismo o la violencia aparecen en la red social más utilizada en todo el planeta.

Censurar o no censurar, esa es la cuestión

En esos documentos se decide sobre lo que tiene cabida en una red social que como explicaba una de las fuentes que ha filtrado esos documentos "ha crecido demasiado y demasiado rápido". De hecho, añadía, "Facebook ya no puede mantener el control de sus contenidos".

Fb1

Incluso los moderadores ven esas reglas con escepticismo: según fuentes cercanas a la red social, esas reglas son a menudo inconsistentes en diversos temas. Un ejemplo: si un moderador se encuentra con la frase "Que alguien dispare a Trump" debe eliminarla, ya que el presidente de los Estados Unidos está en una categoría "protegida".

Lo que contrasta con el hecho de que en Facebook puedas decir tranquilamente algo como "jódete y muere" o "para romperle el cuello a una zorra, asegúrate de aplicar toda la presión en la mitad de su garganta".

Sexo, terrorismo y violencia a examen en Facebook

En la guía aparecen contemplados todo tipo de escenarios, aunque los criterios más llamativos son los que afectan a contenidos de violencia, terrorismo o sexo. Algunos de esos ejemplos muestran lo delicado de una labor que trata de decidir qué videos de muertes violentas se permiten y cuáles no, porque según los expertos de Facebook hay vídeos que ayudan a concienciar a la población sobre ciertas enfermedades mentales.

Fb2

También se admiten ciertas fotos de abuso físico a niños "a no ser que haya un componente sádico o de celebración", mientras que las fotos de abuso de animales se pueden compartir a no ser que haya imágenes extremadamente perturbadoras. También se permite la publicación de vídeos de abortos mientras que no se muestren cuerpos desnudos —¿perdón?—, y, en otra decisión probablemente polémica, Facebook permite que la gente emita en directo cómo se autoinflinge daños, porque "no quiere censurar o castigar a gente en peligro".

La guía de uso tiene también apartados especiales para gestionar la censura sobre violencia animal, sobre los citados casos de "violencia creíble" que son distintos si se dirigen a ciertas personas (como gobernantes) o no, y que de nuevo dejan claro que mientras que hay imágenes prohibidas (como las de decapitaciones), sí que se admiten por ejemplo expresiones a favor de la pena de muerte o aquellas que expresan que el autor disfruta con la ejecución de la pena capital en Estados Unidos.

¿Cómo censurar contenidos a 2.000 millones de personas?

En los llamados Facebook Files destapados por el diario The Guardian aparecen muchos más ejemplos, pero de hecho en esas presentaciones solo se ofrece parte de los documentos. En ellos se demuestran que una red social con 2.000 millones de usuarios requiere de una labor de moderación desmesurada.

Fb3

Monika Bickert, máxima responsable de la gestión de la política global de Facebook, destacaba al ser entrevistada por The Guardian lo difícil que es llegar a un consenso sobre qué permitir y qué no.

Tenemos una comunidad global realmente diversa y la gente va a tener ideas muy distintas sobre lo que está bien compartir y sobre lo que no lo está. No importa dónde pongas el límite, porque siempre habrá ciertas zonas grises. Por ejemplo, la línea entre sátira y humor y contenido inapropiado es en ocasiones muy delgada. Es muy difícil decidir si algo debe estar en Facebook o no.

Si crees que podrías ayudar a moderar Facebook han preparado incluso un pequeño test visual para comprobar qué imágenes eliminarías y qué no. Eso da una idea de lo complejo que es acertar con unos criterios que seguramente desaten un nuevo debate sobre censura, privacidad y seguridad en internet.

Vía | The Guardian
En Xataka | Un asesinato transmitido en Facebook replantea el debate sobre la censura en internet
Más información | The Facebook Files (The Guardian)

Comentarios cerrados
Inicio