Facebook a déjà fermé 583 millions de faux comptes cette année

Facebookdans chaque catégorie.

Facebook a déjà fermé 583 millions de comptes cette année

Dans un nouveau rapport qui sera désormais publié trimestriellement, décompose ses efforts de modération dans 6 domaines principaux :

  1. La violence graphique
  2. La nudité des adultes et l\’activité sexuelle
  3. La propagande terroriste
  4. Le discours de haine
  5. Le spam
  6. Et les faux comptes.

Le rapport précise quelle quantité de ce contenu a été vue par les utilisateurs de Facebook, combien de celle-ci a été supprimée et combien de celle-ci a été rétrogradée dans le fil d’actualité avant que les utilisateurs de Facebook ne les signalent.

Le spam et les faux comptes ont été les plus répandus au cours de ce premier trimestre de cette année.

Facebook a supprimé 837 millions posts spammy et 583 millions faux comptes.

En outre, la société a agi sur :

  • 21 millions de posts de nudité et d\’activité sexuelle,
  • 3,5 millions posts qui affichaient un contenu violent,
  • 2,5 millions d’exemples de discours haineux
  • 1,9 million de contenus terroristes.

Dans certains cas, les systèmes automatisés de Facebook ont fait un bon travail de recherche et de marquage du contenu avant que les utilisateurs puissent le signaler.

Ses systèmes ont repéré près de 100% de spam et de propagande terroriste, près de 99% de faux comptes et environ 96% des posts avec de la nudité d\’adultes et d\’activité sexuelle.

Pour la violence graphique (photos et vidéos), la technologie de Facebook a représenté 86% des signalements.

Cependant, dès lors qu’il s’agit de discours de haine, la technologie de Facebook a seulement marqué environ 38% des posts sur lesquels il a pris des mesures. Et Facebook admet qu\’il a plus de travail à faire là-dessus.

Ce que confirme Guy Rosen, VP de Facebook de la gestion des produits chez Facebook :

Comme Mark Zuckerberg l’a dit à la F8, nous avons beaucoup de travail encore à faire pour prévenir les abus.

C\’est en partie du fait que la technologie comme l\’intelligence artificielle, tout en étant prometteuse, est encore à des années avant d\’être efficace pour la plupart des mauvais contenus parce que le contexte est si important.

Tout au long du rapport, Facebook partage la façon dont les chiffres du trimestre le plus récent se comparent à ceux du trimestre précédent, et où il y a des changements importants et il note aussi pourquoi cela pourrait être le cas.

Par exemple, avec la propagande terroriste, Facebook dit que son taux de suppression élevé est dû à des améliorations dans la technologie de détection des photos qui peuvent repérer à la fois le contenu ancien et le contenu nouvellement publié.

Vous pouvez lire le rapport complet ici.

Facebook a également fourni un guide pour le rapport ainsi qu\’un post des questions difficiles sur la façon dont il mesure l\’impact de son application.

Auteur : Noel NGUESSAN

Je suis Noel Nguessan, fondateur du site Arobasenet.com qui existe depuis 2007 et a aujourd'hui plus de 6.800 articles. Pour ma part, j'ai intégré le monde de l'internet en 1997 en qualité de créateur de site internet, avant de devenir développeur web et multimédia au début de l'année 2000, avant de basculer naturellement vers le SEO en tant que Consultant.