En 2016, au plus fort du retour de flamme lié à la façon dont Facebook avait été utilisé pour diffuser de fausses nouvelles avant l’élection présidentielle américaine, Facebook a annoncé une nouvelle mesure qui signalerait les histoires potentiellement trompeuses avec un nouvel avertissement, montrant que le la validité de ce rapport avait été contestée par des vérificateurs de faits tiers.
Facebook s’est associé à un éventail d’organisations pour clarifier les rapports hautement partagés et discutables, et a depuis continué à affiner ses systèmes dans le cadre de son effort plus large pour endiguer le flux de rapports préjudiciables avant qu’ils ne gagnent pleinement en popularité.
Mais ce processus a-t-il fonctionné? Les gens sont-ils désormais moins susceptibles de partager des publications et des mises à jour douteuses sur Facebook, ce qui réduit leur impact?
Selon une nouvelle étude, ces étiquettes sont efficaces, au moins dans une certaine mesure.
L’étude, menée par le L’Université de Californie, a utilisé un échantillon de 500 participants, avec des points de vue différents à travers le spectre politique. Les chercheurs ont cherché à déterminer la réponse des participants à de telles étiquettes et leur impact sur leur comportement.
Selon le rapport:
«Nous constatons que le signalement des fausses nouvelles peut effectivement avoir un effet sur la réduction des intentions de partage de fausses nouvelles en diminuant la crédibilité des informations trompeuses. […] Cette étude montre que le signalement de fausses nouvelles sur des plateformes de médias sociaux comme Facebook peut en effet aider les efforts actuels pour lutter contre le partage d’informations trompeuses sur les médias sociaux. «
L’expérience a vu les participants montrer de faux rapports, basés sur du contenu réel partagé sur Facebook, ainsi que les étiquettes d’avertissement associées.
Les chercheurs ont ensuite mesuré la probabilité des participants de partager un tel contenu, en fonction de paramètres variables, et ont constaté que ces indicateurs avaient un impact.
« … cette étude a révélé que le signalement des fausses nouvelles avait un effet significatif sur la réduction des fausses intentions de partage de nouvelles. L’étude a montré que les répondants qui voyaient une publication Facebook fabriquée avec une étiquette d’avertissement avaient moins l’intention de partager ce contenu que ceux qui l’ont fait. pas voir le drapeau. »
Les auteurs des rapports ont également offert une légère critique de Facebook pour avoir réduit l’utilisation de ces indicateurs comme mesure:
«Au milieu de l’inquiétude du public face à la montée des fausses nouvelles sur Facebook pendant et après l’élection présidentielle américaine de 2016, la plateforme de médias sociaux a commencé à signaler des histoires trompeuses comme contestées par des organisations de vérification des faits. À la fin de 2017, Facebook a remplacé les drapeaux contestés par les articles connexes affichés sous un message trompeur. La société a fait valoir que les articles connexes étaient plus efficaces que les indicateurs contestés pour dissuader les utilisateurs de partager de fausses nouvelles. Cependant, la plateforme n’a pas partagé de données détaillées sur l’efficacité des étiquettes d’avertissement. Au-delà de cela, un 2018 L’enquête Gallup a révélé que plus de 60% des adultes américains ont déclaré qu’ils étaient moins susceptibles de partager des histoires provenant de sites étiquetés comme non fiables. En effet, un nombre croissant d’initiatives dans le monde évaluent la fiabilité des organes d’information en ligne et affichent aux lecteurs des étiquettes susceptibles d’avoir un impact sur la crédibilité. du contenu des actualités. «
De toute évidence, les auteurs du rapport estiment que leurs conclusions soutiennent l’utilisation accrue de ces étiquettes – mais il y a aussi un problème avec ce processus: l’échelle.
Dans un rapport indépendant, L’organisation britannique indépendante de vérification des faits Full Fact a publié un nouvel aperçu de ses expériences de travail avec Facebook en tant que l’une des organisations de vérification des faits.
Full Fact a publié des vérifications de 96 faits au cours des 6 premiers mois du programme et a été payé 171 800 $ par Facebook pour son travail, ce qui équivaut à environ 1790 $ par fact-check. Mais Full Fact note que l’une de ses plus grandes préoccupations avec le programme était l’échelle et la capacité à contrer suffisamment de fausses informations pour avoir un impact significatif.
« L’objectif de Facebook semble être d’augmenter l’échelle en étendant le programme de vérification des faits tiers à plus de langues et de pays (il travaille actuellement avec des vérificateurs de faits dans 42 langues dans le monde). Cependant, il est également nécessaire d’augmenter le volume de contenu et vitesse de réponse. Ceci, encore une fois, est une préoccupation à l’échelle de l’industrie qui concerne également d’autres sociétés Internet. «
C’est, avec plus de 2,4 milliards d’utilisateurs, un problème clé pour Facebook, et sans réponse simple – même si Facebook pouvait contrôler, par exemple, 10% des rapports partagés sur la plate-forme chaque jour, la quantité de travail requise est énorme. , et l’impact, en termes généraux, serait probablement minime.
Facebook cherche toujours des solutions technologiques au problème et travaille sur des sanctions supplémentaires et des mesures d’application pour éradiquer les fausses informations. Ensemble, tous ces efforts ont un impact, mais le problème reste important.
Un programme d’étiquetage plus large pourrait être efficace, si Facebook peut trouver un meilleur moyen de le mettre en œuvre sur une plus grande portée.