En el primer trimestre de 2018, Facebook ha moderado más de 1.500 millones de contenidos inadecuados en su plataforma.

Facebook quiere recuperar la iniciativa y subrayar su papel como garante de la información que nutre a su plataforma y protector de los datos de sus usuarios. Si hace dos días la compañía anunciaba que había suspendido más de 200 aplicaciones por uso inadecuado de la información de sus clientes, ayer salían a la luz los datos sobre el control de contenidos que ejerce la red social y la eliminación de 583.000 cuentas falsas en el primer trimestre de 2018.

Entre la información más relevante destaca que en los tres primeros meses de este año Facebook ha intervenido en la moderación de 1.500 millones de publicaciones de usuarios que violaban los estándares de la comunidad, ha cerrado 583.000 cuentas falsas, eliminó 837.000 contenidos de spam y moderó 2,5 millones de mensajes que incitaban al odio, 1,9 millones de contenidos de propaganda terrorista, 3,4 millones de mensajes con imágenes violentas y 21 millones de publicaciones con contenido sexual.

“Este es el comienzo y no el final del viaje y estamos tratando de ser lo más transparentes posible“, dijo Richard Allan, vicepresidente de políticas públicas de Facebook para Europa, Oriente Medio y África, después de los problemas de reputación que ha sufrido la compañía tras el escándalo de Cambridge Analytica.

Imágenes violentas

La cantidad de contenido moderado por Facebook está determinada tanto por la capacidad de la empresa para detectar y actuar sobre el material infractor como por la cantidad de artículos publicados por los usuarios. En este sentido, Alex Schultz, vicepresidente de análisis de datos de la compañía, ha destacado que la cantidad de imágenes violentas que han tenido que ser moderadas casi se triplicaron con respecto al último trimestre.

El informe que ha hecho público Facebook no incluye varias categorías de contenido que infringe las pautas de comportamiento de la comunidad en Facebook, como imágenes de explotación sexual infantil, pornografía por venganza, violencia, mensajes suicidas, intimidación, acoso, y violación de la privacidad o de los derechos de autor.

Facebook también ha logrado incrementar el bloqueo de contenidos inadecuados gracias a las nuevas herramientas basadas en inteligencia artificial que utiliza la plataforma para detectar y moderar el contenido sin necesidad de esperar a que los usuarios los marquen como sospechosos. Estas herramientas funcionan especialmente bien en la detección de cuentas falsas y spam. En este sentido, Facebook ha destacado el papel de esta tecnología en la identificación del 98,5% de las cuentas falsas que ha eliminado, y en “casi el 100%” del spam.

Imagen: Lawrence Jackson

Deja un comentario