Página principal Noticias, Facebook

Unos documentos filtrados de Facebook (NASDAQ: FB.NASDAQ) muestran que la red social modera temas como el discurso de odio, el terrorismo, la pornografía y la automutilación en su plataforma, según informó The Guardian citando unos documentos internos a los que ha tenido acceso.

Una fuente ha dicho que los moderadores no suelen tardar más de 10 segundos en tomar una decisión sobre un determinado contenido:

"Facebook simplemente no puede controlar todo el contenido. Es demasiado y aparece rápidamente".

La inexactitud crea dificultades adicionales para los moderadores. Por ejemplo, la identificación de materiales con contenido pornográfico es considerado el más difícil. Cabe destacar que las obras de arte y las ilustraciones que muestran desnudez y sexualidad en formato no digital (por ejemplo, pinturas) pueden publicarse.

Facebook desarrolla una herramienta de censura para regresar a China

Facebook no ha hecho comentarios sobre el informe, pero ha dicho que la seguridad es su principal preocupación. La jefa de política de productos de Facebook, Monica Bickert, ha dicho:

"Mantener a la gente segura en Facebook es lo más importante para nosotros. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión".

Lea también:
Strawberry Cake Media Corp. © 2024 Política de Cookies Equipo editorial Archivo

ihodl.com es una publicación ilustrada sobre criptomonedas y mercados financieros.
Publicamos todos los días los mejores contenidos sobre temas relevantes para personas interesadas en la economía.

Los derechos de los contenidos publicados son propiedad de sus respectivos dueños.
Este sitio web incluye material cuyos derechos de autor pertenencen a 2024 Reuters. Todos los derechos reservados.