Facebook a partagé son dernier rapport sur l’application des normes communautaires, qui décrit ses diverses mesures d’application de la politique en raison des violations des règles de la plate-forme au cours des trois derniers mois de 2020.
En plus de cela, Facebook a également publié un nouvel aperçu de ses efforts de détection de l’intelligence artificielle et de la façon dont ses systèmes s’améliorent pour détecter le contenu offensant avant même que quiconque ne le voie.
Tout d’abord, sur les rapports – Facebook affirme que ses efforts proactifs pour lutter contre les discours de haine et le harcèlement ont conduit à des améliorations significatives dans l’application, la prévalence du discours de haine sur la plate-forme tombant à 7 à 8 vues de discours de haine pour 10 000 vues de contenu. (0,07%).
Ce qui est un bon résultat – mais le problème dans le cas de Facebook est l’échelle. 7 à 8 vues pour 10 000 messages est une excellente statistique, mais avec 2,8 milliards d’utilisateurs, chacun visionnant, par exemple, 100 messages par jour, la portée de l’exposition aux discours de haine est toujours importante. Pourtant, les systèmes de Facebook s’améliorent, ce qui est un signe positif pour ses efforts proactifs.
Facebook a également pris des mesures supplémentaires pour interdire les groupes dangereux, comme QAnon, tout en intensifiant ses efforts de répression des discours de haine dangereux à la suite des émeutes du Capitole le mois dernier.
Dans l’ensemble, Facebook affirme que la prévalence de tous les contenus violants est tombée à 0,04%.
Facebook affirme également que ses systèmes automatisés sont de mieux en mieux pour détecter les incidents d’intimidation et de harcèlement.
« Au cours des trois derniers mois de 2020, nous avons fait mieux que jamais pour détecter de manière proactive le contenu des discours de haine, de l’intimidation et du harcèlement – 97% des discours de haine supprimés de Facebook ont été repérés par nos systèmes automatisés avant qu’un humain ne les signale, contre 94 % au trimestre précédent et 80,5% à la fin de 2019. «
Comment, exactement, cela est mesuré est une considération importante – si une telle violation n’est jamais détectée du tout, elle ne peut pas être incluse dans les statistiques. Mais ce que fait Facebook, c’est qu’il supprime plus de contenu potentiellement offensant en faisant évoluer ses systèmes sur la base de modèles de formation améliorés.
Facebook a pris des mesures pour 6,3 millions d’incidents d’intimidation et de harcèlement potentiels au quatrième trimestre de l’année dernière.
Son graphique suit une trajectoire ascendante similaire pour l’application de l’intimidation et du harcèlement sur Instagram.
A noté, afin de faire progresser ses systèmes de détection automatisés, Facebook a dû faire évoluer la manière dont il forme ses modèles d’IA, en fonction des variations d’utilisation de la langue, en lui permettant de mieux détecter le contexte environnant.
« Un exemple en est la façon dont nos systèmes détectent désormais le contenu non conforme dans les commentaires des articles. Cela a toujours été un défi pour l’intelligence artificielle, car déterminer si un commentaire enfreint nos règles dépend souvent du contexte du message auquel il répond. « C’est une excellente nouvelle » peut signifier des choses complètement différentes quand il est laissé sous des messages annonçant la naissance d’un enfant et la mort d’un être cher. «
Facebook affirme que les progrès de son système se sont concentrés sur l’établissement du contexte environnant de chaque commentaire en s’assurant que ses systèmes peuvent analyser non seulement le texte lui-même, mais également les images, le contexte de la langue et d’autres détails contenus dans un message.
«Les résultats de ces efforts sont visibles dans les chiffres publiés aujourd’hui – au cours des trois premiers mois de 2020, nos systèmes n’ont repéré que 16% du contenu d’intimidation et de harcèlement sur lequel nous avons pris des mesures avant que quiconque ne le dénonce. À la fin de l’année , ce nombre est passé à près de 49%, ce qui signifie que des millions de contenus supplémentaires ont été détectés et supprimés pour violation de nos règles avant que quiconque ne le signale. «
Ce sont d’énormes progrès dans la modélisation des données, qui pourraient conduire à des améliorations majeures de la protection des utilisateurs. De plus, ces systèmes sont désormais également transférables entre les langues, ce qui a vu Facebook accélérer ses efforts dans toutes les régions.
Sur d’autres fronts, Instagram a vu une application accrue des publications contenant des armes à feu, des suicides et des automutilations (un domaine clé de la plate-forme) et du contenu violent et graphique.
Encore une fois, ce sont des avancées significatives pour Facebook, qui cherche de plus en plus à assumer davantage de responsabilités pour le contenu qu’il héberge et comment il facilite la distribution de ce contenu sur son réseau. En plus de cela, Facebook expérimente également maintenant une réduction du contenu politique dans les flux d’utilisateurs, ce qui pourrait également avoir un impact significatif sur son impact sociétal plus large.
En fin de compte, bien qu’il s’agisse du plus grand réseau de personnes connectées de l’histoire, Facebook apprend toujours à gérer au mieux cela et à minimiser les dommages. Il y a beaucoup à débattre sur l’impact de la plate-forme à cet égard, mais ces notes montrent que la plate-forme fait évoluer son approche et voit les résultats de ces efforts.
Vous pouvez lire le rapport complet sur l’application des normes de la communauté au quatrième trimestre de Facebook ici.