Página principal Noticias, Facebook

Unos documentos filtrados de Facebook (NASDAQ: Facebook [FB]) muestran que la red social modera temas como el discurso de odio, el terrorismo, la pornografía y la automutilación en su plataforma, según informó The Guardian citando unos documentos internos a los que ha tenido acceso.

Una fuente ha dicho que los moderadores no suelen tardar más de 10 segundos en tomar una decisión sobre un determinado contenido:

"Facebook simplemente no puede controlar todo el contenido. Es demasiado y aparece rápidamente".

La inexactitud crea dificultades adicionales para los moderadores. Por ejemplo, la identificación de materiales con contenido pornográfico es considerado el más difícil. Cabe destacar que las obras de arte y las ilustraciones que muestran desnudez y sexualidad en formato no digital (por ejemplo, pinturas) pueden publicarse.

Facebook desarrolla una herramienta de censura para regresar a China
Facebook desarrolla una herramienta de censura para regresar a China

Facebook no ha hecho comentarios sobre el informe, pero ha dicho que la seguridad es su principal preocupación. La jefa de política de productos de Facebook, Monica Bickert, ha dicho:

"Mantener a la gente segura en Facebook es lo más importante para nosotros. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión".

Lea también:
Por favor, describa el error
Cerrar