Facebook publica informe sobre remoción de contenido

Facebook publica su primer reporte sobre remoción de contenido

Facebook ha eliminado 583 millones de cuentas falsas en lo que va de 2018

En él, la red social asegura que ha eliminado en el primer trimestre de este año, 583 millones de cuentas falsas, poco menos que las 694 millones del último trimestre de 2017.

La red social de Mark Zuckerberg tomó en cuenta un periodo relativamente corto, de octubre de 2017 a marzo de 2018, y lo clasificó en seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

El directivo brindó estas declaraciones desde la sede de la red social ubicada en California, donde también estaba Guy Rosen, vicepresidente de Producto de Facebook, durante una videoconferencia en la que Télam fue el único medio representante de Argentina. Según el comunicado de prensa emitido por Facebook, la red social cuenta con 2.000 millones de usuarios activos mensuales en el primer trimestre de este año.

· Eliminaron 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios.

"La clave para combatir el spam es eliminar las cuentas falsas que lo propagan". Este dato se suma a las tareas de prevención que evitan que millones de cuentas falsas sean creadas diariamente.

Respondiendo a cuestionamientos, Rosen destacó que las cuentas falsas fueron desactivadas, en su gran mayoría, sólo minutos después de su creación.

De cada 10.000 publicaciones visualizadas, entre 6 y 9 incluían material que infringía las normas.

Pese a estos avances, Facebook admite que en casos como la violencia gráfica o los discursos de odio, la tecnología de la plataforma aún no es lo suficientemente eficaz y requiere de la participación de equipos humanos de revisión.

Finalmente, puntualizó que se quitaron 3.5 millones de publicaciones con contenido violento y 2.5 millones de artículos con discursos de odio fueron eliminados.

A pesar de las buenas cifras, hay que considerar que aún Facebook depende de personas para detectar todo este contenido, ya que aún la inteligencia artificial que determine cómo un posteo puede ir en contra de los estándares considerados como "sanos" por la red social aún se encuentra en desarrollo, y que al mismo tiempo sea catalogado dentro de características protegidas como raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género, identidad de género y discapacidad o enfermedad grave. "La IA todavía necesita mejorar antes de que podamos usarla para eliminar efectivamente más problemas de matices lingüísticos como el discurso de odio en diferentes idiomas, pero estamos trabajando en ello", indicó Zuckerberg.

Latest News