Réseaux sociaux

Facebook publie une mise à jour sur la détection et l’application du contenu qui enfreint les normes

Ça doit être une période difficile dans les relations publiques Facebook en ce moment.

Alors que le réseau social tient à promouvoir des rapports sur combien d’argent ses collectes de fonds ont collecté et dans quelle mesure il détecte le contenu offensant avant que les gens ne le voient, le récit autour de l’entreprise cette semaine a été dominé par un rapport accablant du New York Times, qui est très critique de ses actions face à l’ingérence et à la manipulation politiques.

En raison de cette discussion plus large, des histoires comme celle-ci seront moins ciblées, mais Facebook a également cherché cette semaine à souligner à quel point ses systèmes d’apprentissage automatique parviennent à détecter et à supprimer le contenu offensant, normalement avant même que quiconque ne le voie.

Et ils deviennent très bons – selon Facebook:

  • Depuis notre dernier rapport, la quantité de discours haineux que nous détectons de manière proactive, avant que quiconque le signale, a plus que doublé, passant de 24% à 52%. La majorité des messages que nous supprimons pour discours de haine sont des messages que nous avons trouvés avant que quiconque ne nous les rapporte. Il s’agit d’un travail extrêmement important et nous continuons à investir massivement là où notre travail en est à ses débuts – et à améliorer nos performances dans des langues moins répandues.
  • Notre taux de détection proactive de la violence et du contenu graphique a augmenté de 25 points de pourcentage, passant de 72% à 97%.
Données Facebook sur la détection et la suppression du discours de chapeau

Ce sont de bons résultats et mènent à une expérience utilisateur bien meilleure et plus sûre. Mais au milieu d’une discussion plus large sur la façon dont Facebook lui-même n’a pas réussi à protéger ses utilisateurs et a cherché à tirer parti de leurs données, il est difficile de voir cela sous un jour positif.

Mais les données montrent que les systèmes de détection de l’IA de Facebook sont de plus en plus efficaces pour éradiquer ce type de matériel – regardez ce graphique sur l’amélioration de leurs performances dans la détection des publications illustrant la violence graphique.

Graphiques Facebook montrant une amélioration de la détection des publications décrivant la violence

Bien sûr, ceux-ci sont autodéclarés – il est difficile de savoir, de manière définitive, comment cela est vraiment mesuré. Mais les statistiques montrent que Facebook fait plus pour protéger les utilisateurs contre les contenus peu recommandables et dérangeants – et s’ils peuvent le faire sans avoir à pousser la même chose sur les modérateurs humains, dont beaucoup sont mentalement marqués par un tel processus, tant mieux.

Quelques autres points clés à noter:

  • « Au troisième trimestre de 2018, nous avons pris des mesures contre 15,4 millions de contenus violents et graphiques. Cela comprenait la suppression du contenu, l’ajout d’un écran d’avertissement, la désactivation du compte incriminé et / ou la remontée du contenu vers les forces de l’ordre. C’est plus de 10 fois le montant sur lequel nous avons agi au quatrième trimestre 2017. « 
  • « Nous avons également supprimé plus de faux comptes au T2 et au T3 qu’au cours des trimestres précédents, respectivement 800 millions et 754 millions. La plupart de ces faux comptes étaient le résultat de spam à motivation commerciale. attaques essayant de créer de faux comptes en masse. Parce que nous sommes en mesure de supprimer la plupart de ces comptes dans les minutes suivant l’enregistrement, la prévalence des faux comptes sur Facebook est restée stable à 3% à 4% des utilisateurs actifs mensuels comme signalé dans nos résultats du troisième trimestre.  »
  • «Au cours du dernier trimestre seulement, nous avons supprimé 8,7 millions de contenus qui enfreignaient nos politiques sur la nudité des enfants ou l’exploitation sexuelle des enfants – 99% ont été identifiés avant que quiconque ne les dénonce.

Ce sont des résultats très solides pour les outils de détection de l’IA de Facebook, et tous travaillent pour améliorer la plate-forme – tandis que les leçons apprises dans leur développement pourraient également aider d’autres plates-formes à fournir une protection similaire.

Une grande partie de cela sera perdue dans la discussion plus large et le scepticisme sur les véritables motivations de Facebook, mais les chiffres montrent des signes positifs pour l’avenir de la détection et de la suppression de contenu. Ce n’est pas pour minimiser la critique des actions de Facebook comme détaillé dans l’histoire du NY Times, mais il y a d’autres aspects sur lesquels le réseau social fait des progrès positifs.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.