Facebook s’efforce toujours d’améliorer ses efforts de détection et d’application afin de supprimer le contenu qui enfreint ses règles et de protéger les utilisateurs contre les abus, la désinformation, les escroqueries, etc.
Et ses systèmes se sont considérablement améliorés à cet égard – comme l’explique Facebook:
« Les services en ligne ont fait de grands progrès en exploitant des modèles appris par machine pour lutter contre les abus à grande échelle. Par exemple, 99,5% des retraits sur de faux comptes Facebook sont détectés de manière proactive avant que les utilisateurs ne les signalent. «
Mais il existe encore des limites importantes dans ses processus, principalement en raison de la capacité limitée des examinateurs humains à évaluer et à porter un jugement sur de tels cas. Les outils d’apprentissage automatique peuvent identifier un nombre croissant de problèmes, mais une intervention humaine est toujours nécessaire pour confirmer si bon nombre de ces cas identifiés sont corrects, car les systèmes informatiques manquent souvent la nuance complexe du langage.
Mais maintenant, Facebook a un nouveau système pour aider à cet égard:
« CLARA (Confidence of Labels and Raters), est un système construit et déployé chez Facebook pour estimer l’incertitude dans les décisions générées par l’homme. […] CLARA est utilisé sur Facebook pour obtenir des décisions plus précises dans l’ensemble tout en réduisant l’utilisation des ressources opérationnelles. »
Le système augmente essentiellement la prise de décision humaine en ajoutant une couche d’apprentissage automatique en plus de celle qui évalue la capacité de chaque évaluateur individuel à faire le bon appel sur le contenu, en fonction de leur précision passée.
L’élément CLARA se trouve dans le secteur « Service de prédiction en temps réel » de cet organigramme, qui évalue le résultat de chaque incident et recoupe la décision humaine par rapport à ce que le modèle de machine aurait prédit, tout en faisant également référence aux résultats antérieurs de chaque examinateur pour chaque type de rapport.
Ce système, qui a maintenant été déployé chez Facebook, a permis une amélioration significative de l’efficacité, garantissant des résultats plus précis en matière d’application.
« Par rapport à une base d’échantillonnage aléatoire, CLARA fournit une meilleure courbe de compromis, permettant une utilisation efficace des ressources d’étiquetage. Dans un déploiement de production, nous avons constaté que CLARA pouvait économiser jusqu’à 20% du nombre total d’avis par rapport au vote majoritaire. «
Ce qui est important pour le moment, car Facebook a été contraint de réduire sa capacité de modération humaine en raison des verrouillages COVID-19 dans différentes régions. En améliorant ses systèmes de détection précise des violations, grâce à des moyens automatisés, Facebook est alors en mesure de concentrer ses ressources sur les principaux domaines de préoccupation, en maximisant la main-d’œuvre dont il dispose.
Bien sûr, il y a encore des problèmes avec les systèmes de Facebook. Cette semaine seulement, des rapports ont révélé que Facebook cherchait une nouvelle façon d’utiliser les signaux de vitesse de partage afin de mieux guider les efforts de modération humaine et d’empêcher la désinformation, en particulier, d’atteindre un public massif sur la plate-forme. Cela vient après qu’une récente vidéo de conspiration COVID-19 a été visionnée quelque 20 millions de fois sur Facebook, malgré la violation des règles de la plate-forme, avant, enfin, les modérateurs de Facebook ont décidé de la retirer.
Une meilleure modération humaine n’aurait pas aidé à cet égard, il y a donc encore d’autres sujets de préoccupation pour Facebook, mais plus il peut utiliser intelligemment les ressources dont il dispose, plus Facebook peut concentrer ses efforts sur les domaines clés. préoccupant, afin de détecter et de supprimer le contenu non conforme avant qu’il ne puisse atteindre un large public.
Vous pouvez en savoir plus sur le nouveau processus de renforcement CLARA de Facebook ici.