Tecnología

Facebook publica su primer reporte sobre remoción de contenido

Facebook publica su primer reporte sobre remoción de contenido”

Los controles se realizan a través de procesos de aprendizaje automático y con supervisión de moderadores que revisan los contenidos que circulan por la red social.

El informe abarca el periodo de octubre de 2017 a marzo de 2018, y está enfocado en las publicaciones de lo que Facebook considera como violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discursos de odio, spam y cuentas falsas.

Este martes la red social Facebook presentó este martes su primer informe de Aplicación de Normas Comunitarias como parte de sus esfuerzos por restaurar la imagen y reputación de la plataforma social, que se encuentra haciendo frente a las noticias falsas así como los escándalos de privacidad.

Entre las cifras más significantes está la de cuentas falsas, porque es una "acción clave para combatir el spam", explicó Schultz. La red social reportó que durante el primer trimestre del 2018 inhabilitó 583 millones de cuentas falsas. "En el primer trimestre de 2018, desactivamos alrededor de 583 millones de cuentas falsas, la mayoría de ellas dentro de los primeros minutos de registro", añadió.

"En general, estimamos que de cada 10,000 piezas de contenido en Facebook, de 7 a 9 tenían contenido que violaba nuestros estándares", indicó la red social en un comunicado.

Pero no todo es tan eficiente como parece, ya que Facebook asegura que en los casos más graves, como violencia gráfica o discursos de odio, la tecnología aún requiere de la participación de equipos de revisión, aclaró Alex Schultz, Vicepresidente de Análisis de Datos.

Otros datos evidencian 3,5 millones de posteos de contenido violento retirados o con un mensaje de advertencia desplegado al usuario (95% marcado por las herramientas de Facebook), 21 millones de posteos con contenido relacionado a desnudez o actividad sexual explícita (86% identificado por las herramientas de Facebook) y 2,5 millones de posteos con discursos de odio (38% marcado por las herramientas de Facebook).

"Eliminamos contenido que muestra apoyo o defensa de estas organizaciones, individuos y sus actos", indicó, y afirmó haber eliminado casi dos millones de contenidos vinculados a "propaganda extremista" en el período analizado.

"Tenemos mucho más trabajo por hacer".

96% del contenido inapropiado fue detectado y marcado antes de que fuera reportado.

Por ejemplo, afirmó, la IA todavía no es buena para determinar si alguien está promoviendo discursos de odio o está describiendo algo que le pasó para difundir el problema.



Сomo este

Más reciente




Recomendado