Réseaux sociaux Stratégie digitale

Facebook attribue aux utilisateurs un « score de réputation », aidant à trier les rapports de problèmes

Les critiques de Facebook, et du pouvoir qu’il exerce désormais, feront sans aucun doute craquer leurs doigts alors qu’ils se préparent à répondre à celui-ci.

Cette semaine, le Washington Post a rapporté que Facebook attribue aux utilisateurs un « score de réputation », qui prédit la fiabilité d’un individu sur une échelle de zéro à 1.

Avant de sauter le pas, la « réputation » dont nous parlons ici concerne spécifiquement le reportage de fausses nouvelles, et non la fiabilité générale d’une personne dans la vie de tous les jours.

Dans le cadre des efforts de la plateforme pour ralentir la circulation des fausses nouvelles, Facebook s’appuie sur les rapports des utilisateurs pour détecter ce contenu. Lorsqu’un utilisateur signale quelque chose comme faux, Facebook enquête alors – mais en donnant aux utilisateurs cette capacité, Facebook a également découvert que de nombreuses personnes signalent des actualités qui ne sont pas nécessairement incorrectes.

Comme expliqué par Tessa Lyons de Facebook :

« Il n’est pas rare que les gens nous disent que quelque chose est faux simplement parce qu’ils ne sont pas d’accord avec la prémisse d’une histoire ou qu’ils essaient intentionnellement de cibler un éditeur en particulier.

En effet, alors que les débats politiques se sont de plus en plus entassés dans les fils d’actualités, il en va de même des questions sur les médias grand public et de savoir où se trouve la vérité dans une telle couverture.

Pour contrer cela, Facebook transmet tous les rapports d’informations fausses ou trompeuses à des vérificateurs de faits tiers, et si ces vérificateurs de faits constatent qu’une histoire signalée comme fausse est en fait vraie, cela va à l’encontre du score de fiabilité de l’utilisateur déclarant, plaçant leurs futures plaintes plus bas dans la liste.

« L’un des signaux que nous utilisons est la façon dont les gens interagissent avec les articles. Par exemple, si quelqu’un nous a déjà indiqué qu’un article était faux et que l’article a été confirmé faux par un vérificateur des faits, nous pourrions alors accorder plus d’importance aux futurs commentaires de cette personne que quelqu’un qui fournit sans discernement des commentaires de fausses informations sur de nombreux articles, y compris ceux qui finissent par être considérés comme vrais.

L’impulsion principale ici est susceptible de réduire la charge de travail – étant donné que Facebook compte 2,2 milliards d’utilisateurs actifs, vous pouvez imaginer que le nombre de rapports qu’il voit chaque jour est important. Afin de s’assurer qu’il est en mesure d’agir en premier lieu sur les rapports les plus pertinents et les plus précis, Facebook est désormais en mesure de supprimer la priorité des drapeaux des personnes qui signalent clairement de tels cas à des fins alternatives. Une fois qu’un utilisateur a passé en revue quelques rapports qui sont démystifiés, son score de réputation diminue, plaçant ses futurs rapports en bas de la liste.

Compte tenu de cela, le processus est en fait parfaitement logique. En réalité, il s’agit moins de la « fiabilité » d’une personne en tant que telle, que de ses motivations, de la raison pour laquelle elle rapporte de tels articles. Si un acteur malveillant essaie simplement d’influencer la conversation en signalant une couverture, il perd ce privilège.

Mais alors, bien sûr, la question se poserait de savoir qui décide de ce qui est vrai, qui sont ces vérificateurs de faits tiers qui sont désormais les arbitres de la vérité sur The Social Network ? C’est un autre débat, mais dans cet usage, le processus semble assez logique et ne consiste pas à porter des jugements de valeur individuels.

Et la lutte contre les fausses informations est de plus en plus importante – dans un autre rapport publié par le New York Times, des chercheurs étudiant les attaques contre les réfugiés en Allemagne ont trouvé une corrélation directe entre la violence raciale et l’utilisation de Facebook.

Selon le rapport :

« Les villes où l’utilisation de Facebook était plus élevée que la moyenne, comme Altena, ont connu de manière fiable plus d’attaques contre les réfugiés. Cela était vrai dans pratiquement n’importe quelle sorte de communauté – grande ville ou petite ville; riches ou en difficulté; refuge libéral ou bastion d’extrême droite – suggérant que le lien s’applique universellement.

Selon l’étude, partout où l’utilisation de Facebook était « un écart type au-dessus de la moyenne nationale, les attaques contre les réfugiés ont augmenté d’environ 50 % ».

« La hausse de la violence n’était pas en corrélation avec l’utilisation générale du Web ou d’autres facteurs connexes ; il ne s’agissait pas d’Internet en tant que plate-forme ouverte de mobilisation ou de communication. C’était particulier à Facebook.

Et bien que la théorie du rapport soit que de tels incidents sont en grande partie liés à l’algorithme de Facebook et à sa propension à l’engagement (les publications polarisantes voient plus d’interaction et donc une portée plus élevée), au moins une partie de ce processus pourrait également être liée au partage de de faux reportages, des mises à jour douteuses qui tendent fortement à enflammer les relations raciales, en particulier.

Si Facebook peut en supprimer davantage, cela ne peut être que bénéfique – et s’il existe un système de signalisation pour les aider à trier la fiabilité de ces rapports et à rationaliser le processus, cela devrait être encouragé.

Essentiellement, il est important que le récit du système de notation des utilisateurs de Facebook pour les rapports ne dévie pas dans l’inévitable bourbier de la censure ouverte, car, du moins d’après les descriptions que nous avons, il ne s’agit pas de cela. Cela semble être une option précieuse, et avec plus de liens montrant le lien entre le réseau social et les divisions sociétales, il est important que Facebook fasse tout son possible pour y remédier.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.