Vous lisez

Une enquête révèle que Facebook a supprimé les marqueurs de vérification des faits sur certains messages de déni du changement climatique

Réseaux sociaux

Une enquête révèle que Facebook a supprimé les marqueurs de vérification des faits sur certains messages de déni du changement climatique

Alors que Facebook continue d’intensifier ses efforts pour supprimer la désinformation COVID-19, divers rapports ces dernières semaines ont suggéré qu’il ne faisait pas autant pour arrêter la propagation d’autres types de désinformation à travers son réseau, soulevant des questions quant au rôle que joue Facebook dans de tels , et quelles sont ses motivations, exactement, pour adopter une approche plus «sans intervention» dans certains contextes.

Le dernier rapport provient de Popular Information, qui a publié aujourd’hui un compte rendu d’un élément spécifique de la littérature sur le déni du changement climatique qui, bien que les partenaires de vérification des faits de Facebook aient trouvé «  en partie faux  », et étiqueté comme tel selon les politiques de Facebook, Finalement, cette balise a été supprimée, apparemment après l’intervention de la direction de Facebook.

Selon les informations populaires:

« L’article, rédigé par Michael Shellenberger et publié sur The Daily Wire, utilise 12 » faits « pour affirmer que l’inquiétude concernant le changement climatique est exagérée. […] Mais ensuite, sans explication, la vérification des faits a été supprimée. Si un utilisateur de Facebook tente de partager l’article aujourd’hui, il n’y a pas d’avertissement ni de lien vers la vérification des faits. L’article de Shellenberger, sur The Daily Wire et ailleurs, a maintenant été partagé plus de 65 000 fois sur Facebook. « 

Dans son enquête, l’équipe PI a constaté que les principaux dirigeants de Facebook – y compris Nick Clegg, son vice-président des affaires mondiales et des communications, Campbell Brown, Facebook VP of Global News Partnerships, et Joel Kaplan, VP of Global Public Policy du réseau social – ont été spécifiquement consultés sur la décision de vérification des faits, qui a finalement conduit à la suppression du marqueur, que la propre recherche de Facebook a montré être un outil efficace. en limitant la propagation de la désinformation en ligne.

Le rapport note en outre que Facebook « a été invité par le bureau du membre du Congrès Mike Johnson (R-LA), un membre puissant de la direction républicaine, à annuler la vérification des faits ».

Ce qui s’est passé dans ce cas n’est pas tout à fait clair, mais il semble que Facebook, à la demande d’un représentant politique, ait peut-être choisi de supprimer un marqueur de vérification des faits sur un message de déni climatique, bien que le message ait été marqué comme faux par un professionnel. partenaires de vérification des faits.

Il s’agit du deuxième incident significatif de ce type, autour de ce sujet précis, pour Facebook ces derniers mois. Le mois dernier, des rapports ont révélé que Facebook permettait à certains contenus de déni du changement climatique de rester sur sa plate-forme en incitant ses employés à rendre une telle discussion n’est pas éligible à la vérification des faits en la jugeant «opinion».

En effet, divers articles, groupes et pages de déni du changement climatique sont actifs et constatent un engagement élevé à travers le réseau social – qui, étant donné que sLes plates-formes de médias sociaux dépassent désormais les journaux imprimés en tant que source d’informations pour les Américains, ce qui semble être une préoccupation majeure.

Groupes sur le changement climatique sur Facebook

Bien sûr, il y a encore un débat sur la gravité du changement climatique et ses impacts, d’où la faille «d’opinion». Mais lorsque les propres vérificateurs de faits de Facebook soulèvent une inquiétude, il semble que le moment soit venu pour Facebook de maintenir une telle action.

Encore une fois, Facebook travaille très dur pour éradiquer la désinformation sur le COVID-19, alors pourquoi pas les mensonges sur le changement climatique, basés sur la science également? Et puis, pourquoi ne pas vérifier les annonces des politiciens, l’éléphant encore plus grand dans la salle?

Il existe diverses théories expliquant pourquoi Facebook peut ne pas vouloir insister aussi fort sur certains problèmes, l’une étant que Facebook, bien évidemment, bénéficie d’une telle discussion.

Comme l’a noté récemment Bill McKibben dans The New Yorker:

« Pourquoi est-il si difficile d’amener Facebook à faire quoi que ce soit contre la haine et la tromperie qui remplissent ses pages, même s’il est clair qu’ils contribuent à détruire la démocratie? Et pourquoi, de toutes choses, l’entreprise a récemment décider exempter un message de déni climatique de son processus de vérification des faits? La réponse est claire: Facebook cœur de métier est d’amener autant de personnes que possible à passer autant d’heures que possible sur son site, afin qu’il puisse attirer l’attention de ces personnes sur les annonceurs. « 

Beaucoup ont partagé le même point de vue, à savoir que Facebook bénéficie en fin de compte d’un tel engagement, avec un contenu controversé et argumentatif comme cette réponse émotionnelle qui suscite la discorde. La réaction émotionnelle est la clé de la dynamique de partage viral, donc à bien des égards, il est en fait dans l’intérêt de Facebook de permettre à un tel contenu de vivre sur sa plate-forme.

Cela pourrait potentiellement être l’une des raisons pour lesquelles Facebook a été si désireux de pousser l’utilisation des groupes ces dernières années. Si les gens partagent un tel contenu sur leurs flux publics, cela incite à un examen minutieux, mais partager le même contenu dans des groupes privés donne à Facebook tous les avantages de l’engagement, sans les critiques associées.

L’algorithme de Facebook est, en fait, construit autour de l’engagement d’incitation, quel que soit cet engagement. Encore une fois, le système de Facebook est conçu pour amplifier le contenu qui suscite le débat et incite les utilisateurs à commenter – et en tant que tel, il est clairement dans l’intérêt de Facebook, à un certain niveau, de permettre à un tel débat d’avoir lieu et d’être hébergé sur ses sites.

Vous pourriez également affirmer que ce même processus a changé la façon dont ces problèmes sont signalés plus généralement – parce que le système de Facebook incite au débat, les éditeurs sont ensuite incités à produire des titres plus partiels et biaisés, afin de glaner des avantages de portée optimale sur le réseau. Cela, dans l’ensemble, pourrait être l’un des principaux facteurs d’amplification de la division au sein de la société moderne. L’avènement des algorithmes de partage en ligne, qui prédicatent une amplification basée sur les commentaires et les partages, a modifié les motivations des éditeurs en ligne, les poussant à pousser leurs lecteurs vers certains côtés d’un débat donné à travers des reportages de plus en plus partisans.

Quoi qu’il en soit, Facebook bénéficie de la division. Alors qu’est ce qui peut être fait? Que devraient faire les régulateurs et les responsables pour limiter les impacts des algorithmes de plate-forme et éliminer les biais – si, en effet, quelque chose peut être fait pour réduire ces effets en ligne?

La question est de plus en plus difficile, alors que Facebook continue de croître (se rapprochant désormais de 3 milliards d’utilisateurs) et que de plus en plus d’utilisateurs comptent sur ses applications pour rester informés. Les fermetures plus récentes de petites publications dans les zones régionales, à la suite des verrouillages COVID-19, ne feront qu’amplifier cela, et si Facebook est en outre motivé par d’autres moyens pour supprimer des mesures telles que les vérifications des faits, il semble que ce soit un réalité à laquelle nous devrons faire face.

Mais de telles décisions sont importantes – si Facebook est simplement capable de choisir quand il applique des étiquettes comme les vérifications des faits, alors il ne devrait pas également être autorisé à détenir une telle influence.

C’est plus une question que les organismes de réglementation doivent aborder, mais si vous cherchez à déterminer pourquoi nous nous sentons plus divisés et pourquoi les mouvements anti-scientifiques gagnent plus de terrain que jamais, c’est peut-être par où commencer.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.