La facilitation et l’amplification par Facebook du discours de haine et de la désinformation ont été un sujet clé au cours des quatre dernières années, mais encore plus dans le chaos de 2020. COVID-19, le mouvement #BlackLivesMatter et l’élection présidentielle américaine ont tous, en à leur manière, a souligné le rôle que Facebook peut jouer pour amplifier les récits dangereux et semer la division en conséquence.
En effet, Facebook fait à nouveau face à des questions difficiles sur le rôle qu’il joue dans la diffusion de fausses déclarations sur les résultats des élections, tandis que dans d’autres régions, les campagnes de désinformation sur la plateforme ont conduit à des conflits violents et menacé le processus démocratique.
Il ne fait aucun doute que la portée massive de Facebook joue un rôle important sur les deux fronts – mais Facebook tient à souligner qu’il s’efforce de répondre à de telles allégations et qu’il fait évoluer ses processus pour répondre à ces préoccupations.
C’est le message de la dernière mise à jour de Facebook sur les suppressions de contenu dans le cadre de sa Le rapport sur l’application des normes communautaires, qui, pour la première fois, comprend désormais une mesure de la prévalence du discours de haine sur la plate-forme dans le cadre de son aperçu.
Comme expliqué par Facebook:
« Prevalence estime le pourcentage de fois où les gens voient du contenu violant sur notre plate-forme. Nous calculons la prévalence du discours de haine en sélectionnant un échantillon de contenu vu sur Facebook, puis en étiquetant dans quelle mesure celui-ci enfreint nos politiques en matière de discours de haine. Sur la base de cette méthodologie, nous avons estimé le La prévalence des discours de haine de juillet 2020 à septembre 2020 était de 0,10% à 0,11%. En d’autres termes, sur 10 000 vues de contenu sur Facebook, 10 à 11 d’entre elles incluaient des discours de haine. «
Ce qui n’est pas vraiment vrai? Seulement 0,10% des vues de contenu Facebook incluent une forme de discours de haine. C’est plutôt bien. Droit?
La considération importante ici est l’échelle – comme le note Facebook, 10 sur 10000, ce n’est pas beaucoup. Mais Facebook compte plus de 2,7 milliards d’utilisateurs actifs, et à titre d’exemple, si chaque utilisateur de Facebook ne voyait qu’un seul message par mois, cela signifierait toujours que 2,7 millions de personnes verraient encore du contenu de discours haineux. Et ce n’est pas une indication du nombre total de vues sur Facebook – donc, bien que les données de prévalence ici soient positives, à l’échelle de Facebook, cela signifie toujours que beaucoup de gens sont exposés à des discours de haine sur la plate-forme.
Mais Facebook en détecte et en supprime davantage – selon Facebook, ses outils de détection automatisés détectent désormais beaucoup plus d’instances de discours de haine avant que quiconque ne les voie.
«Lorsque nous avons commencé à rapporter nos statistiques relatives aux discours de haine, au quatrième trimestre de 2017, notre taux de détection proactive était de 23,6%. Cela signifie que sur les discours de haine que nous avons supprimés, 23,6% ont été trouvés avant qu’un utilisateur ne nous le signale. Aujourd’hui nous détectons de manière proactive environ 95% du contenu de discours haineux que nous supprimons. «
Facebook a également accéléré ses suppressions ces derniers mois, ce qui intégrerait sa décision de supprimer le contenu lié à QAnon.
En effet, Facebook note qu’il a intensifié ses mesures coercitives contre davantage de groupes liés à la haine:
« Nous avons pris des mesures pour lutter contre le nationalisme blanc et le séparatisme blanc; introduit de nouvelles règles sur le contenu appelant à la violence contre les migrants; interdit la négation de l’holocauste; et mis à jour nos politiques pour tenir compte de certains types de discours de haine implicites, tels que le contenu représentant un visage noir ou les stéréotypes sur le contrôle du monde par les Juifs.
Ce qui est positif, mais il y a toujours des inquiétudes, en raison de l’échelle de Facebook. Lorsque vous contrôlez une plate-forme qui peut permettre à quiconque d’atteindre potentiellement des milliards de personnes, cela implique une responsabilité, et alors que Facebook cherche à améliorer ses mesures d’application maintenant, dans de nombreux cas, il est encore trop tard.
Dans le cas de QAnon, Facebook a été averti à plusieurs reprises des dangers potentiels posés par les mouvements liés à QAnon, avec des exemples de violence dans le monde réel découlant de discussions sur QAnon remontant à 2016. Malgré cela, Facebook a permis aux groupes QAnon de prospérer sur ses plateforme – une enquête interne menée par Facebook cette année et divulguée par Actualités NBC, a constaté que la plate-forme avait fourni un foyer à des milliers de groupes et de pages QAnon, avec des millions de membres et d’abonnés.
Facebook a commencé à changer son approche de QAnon en août, mais à ce moment-là, le mal était en grande partie fait.
Comme l’a noté l’ancien président Barack Obama dans une récente interview avec The Atlantic:
« Maintenant, vous avez une situation dans laquelle de larges pans du pays croient vraiment que le Parti démocrate est une façade pour un réseau de pédophiles. Ce truc prend racine. Je parlais à un bénévole qui faisait du porte-à-porte à Philadelphie dans des communautés afro-américaines à faible revenu et qui recevait des questions sur les théories du complot de QAnon. Le fait est qu’il reste encore une grande partie du pays qui a été prise par un aboyeur de carnaval. «
Obama a étiqueté ce ‘tLa plus grande menace pour notre démocratie »- et Facebook, encore une fois, en a été un facilitateur clé, pendant longtemps.
Bien sûr, Facebook ne peut pas faire grand-chose à ce sujet rétrospectivement, donc le fait qu’il prenne plus de mesures maintenant est positif, tout comme le lancement de son conseil de surveillance indépendant pour aider à rendre les décisions relatives au contenu. Mais des préoccupations importantes persistent quant à la manière dont Facebook, et les médias sociaux plus largement, permettent la propagation de groupes haineux.
Ce qui conduit alors à la désinformation. Comme indiqué, outre les conspirations anti-vaxxer et les questions concernant l’intégrité des résultats des élections américaines, Facebook facilite également la propagation de fausses informations dangereuses dans d’autres régions du monde, les petits pays étant particulièrement susceptibles de propager des mensonges via le réseau social. .
Tel que rapporté par Vice, un récent, campagne de désinformation à motivation politique orchestrée sur Facebook a conduit à des troubles civils en Éthiopie, des groupes rivaux utilisant la portée de la plate-forme pour diffamer leurs rivaux et semer la division.
L’incident le plus récent a été causé par le meurtre d’un chanteur populaire, qui avait été faussement présenté comme un activiste politique. Sa mort a déclenché de violents affrontements dans le pays.
Selon Vice:
« Cet effusion de sang a été suralimentée par le partage presque instantané et généralisé de discours de haine et d’incitation à la violence sur Facebook, qui a attisé la colère des gens. Des foules ont détruit et brûlé des biens. Ils ont lynché, décapité et démembré leurs victimes. »
Relier l’intégralité des troubles à Facebook n’est peut-être pas juste, car les germes du conflit étaient déjà présents. Mais la plate-forme a contribué à alimenter cela en donnant aux militants une plate-forme pour diffuser de faux messages.
Facebook s’efforce également de lutter contre cela – dans un aperçu séparé, Facebook a détaillé comment il améliore ses systèmes de détection d’IA pour mieux détecter les fausses informations, et en particulier, pour éliminer les versions répétées des mêmes faux rapports afin de ralentir leur propagation.
Comme expliqué par Facebook:
«Nous introduisons maintenant de nouveaux systèmes d’IA pour détecter automatiquement les nouvelles variations de contenu que des vérificateurs de faits indépendants ont déjà démystifiés. Une fois que l’IA a repéré ces nouvelles variantes, nous pouvons les signaler à notre tour à nos partenaires de vérification des faits pour qu’ils les examinent.«
Il ajoute également de nouveaux processus pour détecter les deepfakes – Facebook s’améliore donc, il fait plus pour répondre à ces préoccupations.
Mais là encore, comme un groupe de modérateurs de Facebook l’a noté dans une lettre à l’entreprise, qui a été publiée cette semaine dans les médias, Facebook Les outils de détection de l’IA sont encore « à des années d’atteindre le niveau de sophistication nécessaire pour modérer automatiquement le contenu. »
D’un côté, Facebook dit que ça va beaucoup mieux, mais de l’autre, les gens qui travaillent en première ligne disent qu’ils sont encore loin.
Cela signifie-t-il que nous pouvons être sûrs que Facebook en fait suffisamment pour arrêter la propagation des discours de haine et de la désinformation, ou faut-il faire plus, en dehors de Facebook, pour pousser à une réglementation et à une application accrues de la même chose?
Il semble que, malgré les assurances de Facebook, les problèmes soient toujours importants.