Facebook communique pour la première fois des statistiques sur leurs blocage de contenus
Facebook a publié aujourd’hui, pour la première fois, des statistiques concernant le nombre de publications bloquées sur le réseau social entre octobre 2017 et mars 2018. Les chiffres couvrent six domaines : la violence graphique, la nudité des adultes et l’activité sexuelle, la propagande terroriste, les discours de haine, les pourriel et les faux comptes.
Les chiffres montrent :
- La quantité de contenu que les gens ont vu et qui viole les normes Facebook
- La quantité de contenu retiré
- La quantité de contenu détecté manière proactive – avant que les utilisateurs de Facebook ne le signalent.
Le spam
La plupart des mesures prises pour supprimer les mauvais contenus concernent le spam et les faux comptes utilisés pour les distribuer. Par exemple :
837 millions de pourriels ont été supprimés au premier trimestre de 2018, dont près de 100 % ont été détectés avant que quiconque ne le signale.
La clé de la lutte contre le spam est de supprimer les faux comptes qui le propagent. Au premier trimestre, environ 583 millions de faux comptes ont été désactivés, la plupart quelques minutes après l’enregistrement. Ceci s’ajoute aux millions de tentatives de faux comptes empêchés quotidiennement de s’inscrire sur Facebook. Dans l’ensemble, Facebook estime qu’environ 3 à 4% des comptes Facebook actifs sur le site pendant cette période étaient encore faux.
Les autres types de contenu non conformes
21 millions de morceaux de nudité adulte et d’activité sexuelle ont été supprimés au T1 2018 – dont 96% ont été trouvés et signalés par un algorithme automatique avant que ces publications ne soient signalées. Dans l’ensemble, Facebook estime que sur 10 000 éléments de contenu visionnés sur le réseau social, 7 à 9 vues étaient des contenus qui violaient les normes en matière de nudité adulte et de pornographie.
Concernant la violence graphique, 3,5 millions d’éléments de contenu violent ont été supprimés ou censurés au T1 2018 – dont 86 % ont été détectés par un algorithme automatique avant que ces publications ne soient signalés.
Pour ce qui est du discours haineux, la technologie ne fonctionne toujours pas correctement, de l’aveu même de Facebook, et doit donc être vérifiée manuellement. 2,5 millions d’éléments de discours haineux ont été supprimés au premier trimestre de 2018 – dont 38 % ont été signalés par des algorithmes automatiques.
Source : Facebook newsroom