Réseaux sociaux

Facebook renforce sa position contre QAnon, interdisant toutes les pages, groupes et comptes liés au mouvement

Dans un mouvement que beaucoup considèrent comme attendu depuis longtemps, Facebook a annoncé mardi une interdiction totale de QAnon, classant le groupe de théorie du complot comme un ‘mouvement social militarisé », qui est capable de causer de graves dommages dans le monde réel s’il n’est pas traité.

Selon Facebook:

«À partir d’aujourd’hui, nous supprimerons les pages Facebook, les groupes et les comptes Instagram pour représenter QAnon. […] Nous commençons à appliquer cette politique mise à jour aujourd’hui et supprimons le contenu en conséquence, mais ce travail prendra du temps et se poursuivra dans les jours et les semaines à venir. « 

Cette décision est une extension plus large de la répression de Facebook contre les groupes QAnon, annoncée en août, et qui a entraîné la suppression de milliers de groupes.

À ce moment-là, cependant, Facebook n’a pas institué d’interdiction complète des discussions liées à QAnon, expliquant que:

« Bien que nous autorisions les gens à publier du contenu qui soutient ces mouvements et groupes, tant qu’ils ne violent pas autrement nos politiques de contenu, nous limiterons leur capacité à s’organiser sur notre plate-forme. »

Maintenant, Facebook supprime cette réserve et prend des mesures sur tout le contenu lié à QAnon.

Et les impacts de cette nouvelle poussée sont déjà évidents.

Comme indiqué, beaucoup appellent sur Facebook à prendre des mesures contre QAnon depuis des années, la plate-forme étant identifiée comme un facilitateur clé dans la propagation du dangereux mouvement de conspiration.

QAnon est essentiellement une extension de la théorie du «  Pizzagate  », qui suggérait à l’origine qu’une pizzeria à Washington était au centre d’un réseau international de trafic d’enfants lié à Hillary Clinton, à Barack Obama, au satanisme, etc. La théorie a été largement démystifiée, mais même dès 2016, elle avait déjà été liée à des incidents du monde réel, avec un homme entrant dans la pizzeria, armé d’un fusil semi-automatique, afin d’enquêter par lui-même sur ce qui était se passe à l’intérieur.

À l’époque, Facebook avait été averti, beaucoup suggérant même que c’était une publication Facebook qui avait lancé le mouvement. Pourtant, aucune action directe n’a été prise et la théorie a évolué en un mouvement plus organisé, qui s’est ensuite transformé en QAnon. Une enquête interne menée par Facebook cette année, et divulguée par NBC News, a révélé que la plate-forme avait fourni un foyer à des milliers de groupes et de pages QAnon, avec des millions de membres et d’abonnés, et avec d’autres menaces de violence et d’activités dangereuses liées au groupe, Facebook a finalement choisi d’agir.

Cela fait longtemps que Facebook avait au moins une idée des dangers potentiels de QAnon il y a quatre ans, et a attendu jusqu’à maintenant pour agir.

Alors pourquoi si longtemps?

Selon Facebook, le contenu QAnon, jusqu’à présent, n’a pas violé ses politiques.

« Nous supprimons le contenu appelant ou préconisant la violence, et nous interdisons les organisations et les individus qui proclament une mission violente. Cependant, nous avons vu de plus en plus de mouvements qui, bien qu’ils n’organisent pas directement la violence, ont célébré des actes de violence, montré qu’ils ont des armes et suggèrent qu’ils les utiliseront, ou ont des adeptes individuels avec des comportements violents.

Facebook a donc initialement choisi de ne pas agir car la majeure partie de la discussion n’était que du bavardage sur le Web qui ne dépassait pas tout à fait la ligne. Mais comme indiqué, d’autres incidents violents, y compris le meurtre d’un chef de la mafia en 2019, et plusieurs affrontements armés ont été liés au fanatisme de QAnon, et avec ces groupes, comme le note Facebook, célébrant une telle activité, la ligne dans le sable. devenait de plus en plus ténu.

À chaque incident, Facebook a été appelé à prendre davantage de mesures pour arrêter la propagation du contenu QAnon, tandis que le mouvement a également été lié à des anti-vaxxers, à des conspirations COVID-19, etc. En fait, QAnon est considéré par certains analystes comme un amplificateur clé de nombreuses conspirations – ce qui soulève à nouveau la question, pourquoi a-t-il fallu jusqu’à présent pour que Facebook agisse?

Certains ont suggéré que le récent boycott publicitaire sur Facebook, mené à la suite du meurtre de George Floyd, a incité Facebook à examiner de plus près des mouvements comme QAnon, tandis que plusieurs groupes de défense des droits civils et d’activistes politiques ont appelé Facebook à faire plus pour lutter contre les préoccupations. Il semble que la pression continue a poussé Facebook à agir, et bien que l’approche préférée de la plate-forme soit de laisser ses utilisateurs décider de ce qui est acceptable, il est clair que QAnon a trop poussé sa limite.

Maintenant, Facebook cherchera à l’éliminer complètement, avec son équipe «  Opérations des organisations dangereuses  » appliquant ses règles sur tout le contenu associé.

« [The DOO team will] Continuez à appliquer cette politique et détectez de manière proactive le contenu à supprimer au lieu de vous fier aux rapports des utilisateurs. Ce sont des spécialistes qui étudient et répondent aux nouvelles évolutions dans le contenu violant de ce mouvement et leur détection interne a fourni de meilleures pistes pour identifier les nouvelles évolutions dans le contenu violant que de passer au crible les rapports des utilisateurs. « 

Facebook dit qu’il s’attend à ce que les membres de QAnon modifient leur approche en fonction des nouvelles règles, et qu’il surveillera également les nouveaux comportements. Et si Facebook met vraiment la pression sur les groupes QAnon, cela pourrait porter un coup dur au mouvement. Facebook offre la plus large portée, un public en attente de personnes réceptives à de tels messages. Sans cela, QAnon changera probablement de plate-forme, mais beaucoup moins de gens changeront avec lui.

Comment cela affectera-t-il QAnon et comment cela pourrait-il changer les prochaines élections? Déjà, QAnon avait été lié à plusieurs théories circulant autour de la campagne, la plus récente étant que le président Trump n’est pas réellement malade du COVID-19, mais a plutôt effectué des «missions secrètes» en ligne avec le mouvement.

Si Facebook réussit, cela pourrait limiter considérablement la diffusion de diverses théories en ligne, mais en même temps, cela pourrait également soulever davantage de questions sur la capacité de la plate-forme à prendre des mesures contre des mouvements dangereux similaires. Si Facebook peut arrêter QAnon, alors pourquoi ne pas supprimer également toutes les discussions anti-vax (Facebook limite la discussion anti-vax mais ne l’interdit pas), ou le déni du changement climatique – la liste est longue.

En tant que tel, c’est une décision particulièrement intéressante à prendre pour Facebook, et pourrait suggérer un changement plus large dans son approche du discours de haine dangereux à l’avenir.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.