Réseaux sociaux

Malgré tout, Facebook reste un facilitateur de premier plan de la désinformation électorale

Au cours des quatre dernières années, Facebook a mis en œuvre une série de mesures pour éradiquer la désinformation, lutter contre les interférences électorales et veiller à ce que ses utilisateurs soient tenus informés avec précision, malgré divers efforts, de la part de divers groupes, pour utiliser le vaste réseau de l’entreprise afin d’influencer le public. l’opinion et les résultats des élections influent en leur faveur.

La poussée accrue de Facebook est intervenue après la révélation de diverses opérations de désinformation et d’influence de masse lors de la campagne électorale américaine de 2016, qui comprenait le scandale de haut niveau Cambridge Analytica et les révélations de l’Agence russe de recherche Internet diffusant des milliers d’annonces pour susciter la division parmi les électeurs américains. Il est impossible de dire à quel point l’une ou l’autre de ces poussées était efficace, mais les deux se sont produites et vous imaginez qu’elles ont eu au moins un certain effet.

Les diverses mesures de Facebook semblent avoir annulé une grande partie de l’influence étrangère et de la manipulation qui étaient présentes en 2016 – pourtant, malgré cela, plusieurs nouvelles informations montrent que Facebook facilite toujours la propagation de la désinformation, avec les allégations de fraude électorale du président Donald Trump, en particulier. , gagnant une traction accrue via le réseau social.

La semaine dernière, Facebook a publié un article dans lequel il cherchait à réfuter les affirmations selon lesquelles son algorithme amplifie de manière disproportionnée le contenu controversé de droite, ce qui suscite l’engagement et l’interaction, et donc, apparemment, gagne en portée.

Facebook a publié l’article en réponse à ces listes, publié quotidiennement par l’écrivain du New York Times Kevin Roose.

Les listes, qui sont basées sur les données d’engagement accessibles via la plate-forme d’analyse CrowdTangle de Facebook, semblent montrer que le contenu des éditeurs d’extrême droite fonctionne mieux sur Facebook, ce qui signifie souvent que des informations douteuses, voire manifestement fausses, ont une grande portée et engagement à travers le réseau social.

Mais attendez, Facebook a dit, ce n’est pas toute l’histoire:

« La plupart des contenus que les gens voient [on Facebook], même en période électorale, ce n’est pas une question de politique. En fait, d’après notre analyse, le contenu politique représente environ 6% de ce que vous voyez sur Facebook. Cela inclut les publications d’amis ou de Pages (qui sont des profils publics créés par des entreprises, des marques, des célébrités, des médias, des causes, etc.). « 

Ainsi, bien que les chiffres publiés par Roose puissent montrer que le contenu d’actualités de droite suscite beaucoup d’engagement, ce n’est qu’une fraction de ce que les utilisateurs voient dans l’ensemble.

« Le classement des publications de la première page par réactions, commentaires, etc. ne donne pas une image complète de ce que les gens voient réellement sur Facebook.« 

Pour le démontrer, Facebook a partagé cette liste de quel contenu réellement obtient le plus de portée sur Facebook – c’est-à-dire que les publications de ces pages sont apparues dans le fil d’actualité le plus d’utilisateurs pour la semaine en question:

Portée de la page Facebook

J’ai ajouté les descriptions de texte noir pour le contexte. Comme vous pouvez le voir, la plupart du contenu que les gens voient n’est pas politique, ce qui, selon Facebook, montre que les mises à jour politiques ne sont pas aussi répandues que les listes de Roose le suggèrent.

Mais là encore, cette liste prouve en quelque sorte le point de vue de Roose – de toutes les 10 pages principales de la semaine ci-dessus, en fonction de la portée des utilisateurs actifs américains, les deux pages politiques les plus présentes sont:

  • Donald J. Trump
  • Fox News

Ainsi, même si les gens voient beaucoup d’autres contenus, vous pouvez également affirmer que les vidéos de recettes n’influenceront probablement pas la façon dont les gens votent. Ce qui suggérerait que Facebook, même par sa propre explication, contribue à stimuler des opinions politiques plus extrêmes.

Et cela mène alors à la préoccupation suivante.

Cette semaine, BuzzFeed News a rapporté que bien que Facebook ait ajouté des étiquettes d’avertissement aux messages de Trump qui critiquaient les élections américaines et suggéraient une fraude généralisée dans le processus de vote, ces étiquettes ont eu peu d’impact sur le partage social.

Exemple de publication Trump sur Facebook

BuzzFeed a partagé cette citation d’un forum de discussion interne Facebook:

«Nous avons des preuves que l’application de ces [labels] aux messages diminue leurs transferts d’environ 8%. Cependant, étant donné que Trump a tellement d’actions sur un poste donné, la diminution ne va pas changer les actions par ordre de grandeur.

Comme vous pouvez le voir, le post ci-dessus était encore largement partagé et commenté. Mais Facebook peut également y contribuer directement. Comme indiqué, l’algorithme de Facebook cherche à stimuler les publications qui suscitent plus d’engagement, afin de garder les gens actifs et sur la plate-forme plus longtemps. Cela signifie que les publications qui génèrent beaucoup de commentaires et de discussions ont tendance à avoir une plus grande portée.

Le système de Facebook pousse même directement cela – comme le montre cet exemple partagé par le Wall Street Journal’s Deepa Seetharaman:

Exemple de Trump

Ainsi, plutôt que de limiter la propagation de ces revendications, Facebook les promeut activement auprès des utilisateurs, afin de susciter l’engagement. Cela contraste fortement avec Twitter, qui la semaine dernière a rapporté avoir vu une diminution de 29% des Tweets sur devis en raison de ses propres étiquettes d’avertissement.

Les données ici montrent que non seulement Facebook ne voit pas d’impact majeur du fait de ses mesures de dissuasion, mais que ses propres systèmes, intentionnellement ou non, contrecarrent même ces efforts.

Pourquoi? Comme beaucoup l’ont noté, Facebook valorise l’engagement avant tout dans la plupart des cas. Il semble, dans ce cas, que ses mesures internes pour stimuler l’interaction puissent par inadvertance aller à l’encontre de ses autres opérations.

Alors qu’est-ce qui vient ensuite? Facebook devrait-il faire l’objet d’un examen plus minutieux et être contraint de revoir ses processus afin d’arrêter la propagation de la désinformation?

C’est, du moins en partie, le sujet de la dernière série de la dernière audience judiciaire du Sénat sur les réformes possibles des lois de l’article 230. Dans le cadre de cet examen, Facebook et Twitter ont été confrontés à des questions sur l’influence de leurs plateformes et sur la manière dont leurs systèmes encouragent l’engagement.

Ces auditions pourraient éventuellement conduire à une réforme, d’une manière ou d’une autre, et avec l’ancien président Barack Obama cette semaine suggérant que les plates-formes sociales devraient faire face à la réglementation, il pourrait y avoir plus de mouvement à venir sur ce front.

Comme Obama l’a expliqué à The Atlantic:

« Je ne tiens pas les entreprises technologiques entièrement responsables [for the rise of populist politics], parce que cela est antérieur aux médias sociaux. C’était déjà là. Mais les médias sociaux l’ont turbocompressé. Je connais la plupart de ces gens. J’en ai parlé avec eux. La mesure dans laquelle ces entreprises insistent sur le fait qu’elles ressemblent plus à une compagnie de téléphone qu’elles ne le sont L’Atlantique, Je ne pense pas que ce soit tenable. Ils font des choix éditoriaux, qu’ils les aient ou non enfouis dans des algorithmes. Le premier amendement n’oblige pas les entreprises privées à fournir une plate-forme pour toute vue qui existe. « 

L’ancien vice-président d’Obama, Joe Biden, prêt à prendre les rênes en janvier, nous pourrions assister à un changement d’approche significatif dans ce sens, ce qui pourrait limiter la capacité de Facebook à faciliter un tel contenu.

Mais là encore, même si de nouvelles règles sont adoptées, il y aura toujours des cas limites, et comme nous l’avons vu avec la montée soudaine de Parler, il y aura également des plates-formes alternatives qui répondront à des points de vue plus controversés.

Peut-être, alors, est-ce la conséquence d’un paysage médiatique plus ouvert – avec moins de gardiens pour limiter la propagation de la désinformation, il restera de plus en plus difficile à contenir.

Les défenseurs de la liberté d’expression salueront cela comme un avantage, tandis que d’autres peuvent ne pas en être si sûrs. Quoi qu’il en soit, avec la discussion sur les élections de 2020 toujours en cours, nous en verrons probablement plus d’exemples avant que les plates-formes ne soient vraiment poussées à agir.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.