Vous lisez

Facebook va sévir contre les fausses nouvelles – Les implications du plan de Zuckerberg

Social Media Updates

Facebook va sévir contre les fausses nouvelles – Les implications du plan de Zuckerberg

Après un flot de rapports à la suite de l’élection présidentielle américaine, et bien qu’il ait initialement minimisé l’impact potentiel, le PDG de Facebook, Mark Zuckerberg, a présenté le plan de la plate-forme pour lutter contre le problème des fausses informations et leur prolifération sur le réseau social.

Dans le message de plus de 500 mots, Zuckerberg réitère que bien que le pourcentage de désinformation sur la plate-forme soit « relativement faible », il s’agit d’un problème qu’ils prennent au sérieux et qu’ils luttent depuis un certain temps.

Zuckerberg a également présenté son plan en sept étapes pour lutter contre la propagation de fausses nouvelles, qui peut également avoir diverses implications.

Voici la stratégie en sept points de Facebook, ainsi que certains des impacts potentiels.

1. Détection plus forte

La première étape, dit Zuckerberg, consiste à améliorer leur capacité à classer la désinformation.

« Cela signifie de meilleurs systèmes techniques pour détecter ce que les gens signaleront comme faux avant de le faire eux-mêmes. »

Cette mesure peut être problématique – vous vous en souvenez peut-être, Facebook a déjà essayé une étiquette de satire pour aider les utilisateurs qui avaient du mal à faire la distinction entre ce qui était une véritable actualité et ce qui était une parodie – vous pouvez le voir dans la liste « Articles connexes » de ce image.

Facebook va sévir contre les fausses nouvelles - Les implications du plan de Zuckerberg |  Les médias sociaux aujourd'hui

(Image via Ars Technica)

Ils ont ensuite étendu cela avec une balise « canular » qui s’appuie sur les rapports des utilisateurs et ajoute une notification aux histoires qui ont été signalées par un certain nombre d’utilisateurs.

Facebook va sévir contre les fausses nouvelles - Les implications du plan de Zuckerberg |  Les médias sociaux aujourd'huiMais cela n’aide pas nécessairement si l’histoire n’est pas une satire (ce qui, selon Facebook, a tendance à ne pas être signalé par les utilisateurs) et les utilisateurs sont incapables de vérifier son exactitude – si peu d’utilisateurs la signalent comme un canular, ce n’est pas le cas. t être signalé. Et même dans le cas d’une histoire signalée, cette petite notification peut facilement être ignorée – de nombreux rapports sur Donald Trump, par exemple, ont été rejetés par ses partisans, vrais ou non, parce que le camp Trump a travaillé pour les présenter comme une tentative des pouvoirs en place de faire taire sa voix.

Afin de contrer cela, Facebook cherchera probablement à identifier les éditeurs réguliers de fausses nouvelles et à restreindre la portée de leur contenu, ce qui est une mauvaise nouvelle pour les colporteurs de spam conçus uniquement pour attirer des clics afin de générer des dollars AdSense.

Une telle pratique est plus répandue que vous ne le pensez – un rapport publié plus tôt cette semaine a décrit comment l’écrivain de fausses nouvelles Paul Horner gagne 10 000 $ par mois en publiant du contenu sur lequel il sait que les gens cliqueront car il soutient leurs croyances préexistantes ou déclenche leurs émotions.

Il a également été signalé que des adolescents macédoniens gagnaient de l’argent pendant la campagne électorale en publiant de faux contenus, principalement pro-Trump, afin de générer des clics.

Facebook va sévir contre les fausses nouvelles - Les implications du plan de Zuckerberg |  Les médias sociaux aujourd'huiComme indiqué par BuzzFeed :

« Les jeunes Macédoniens qui dirigent ces sites disent qu’ils ne se soucient pas de Donald Trump. Ils répondent à des incitations économiques simples : comme Facebook le révèle régulièrement dans rapports de revenus, un utilisateur américain de Facebook vaut environ quatre fois un utilisateur en dehors des États-Unis. La fraction de centime par clic de la publicité display aux États-Unis – un marché en déclin pour les éditeurs américains – va très loin à Veles. Plusieurs adolescents et jeunes hommes qui gèrent ces sites ont déclaré à BuzzFeed News qu’ils avaient appris que la meilleure façon de générer du trafic était de diffuser leurs histoires politiques sur Facebook – et la meilleure façon de générer des partages sur Facebook est de publier du contenu sensationnaliste et souvent faux qui s’adresse aux partisans de Trump. »

Compte tenu de cela, Facebook concentrera probablement ses efforts sur la répression de ces stratagèmes, de la même manière que Google a dû continuellement affiner ses algorithmes pour lutter contre les tactiques de référencement des chapeaux noirs. Comment, exactement, ils vont s’y prendre, c’est difficile à dire, mais Facebook emploie certains des ingénieurs les plus intelligents au monde – maintenant qu’ils ont une cible définitive, ils vont sans aucun doute établir une solution pour réduire la portée et l’impact de tel contenu.

2. Rapports plus faciles

Zuckerberg a également déclaré que Facebook chercherait à simplifier son processus de signalement – similaire à celui décrit pour les histoires de canulars – ce qui leur permettra d’attraper de faux rapports avant qu’ils ne gagnent du terrain.

Comme indiqué ci-dessus, il existe déjà des systèmes à cette fin, il est donc difficile de dire si l’amélioration de ce processus sera efficace.

Mettre davantage l’accent sur les signalements des utilisateurs pourrait également avoir des effets secondaires négatifs – les gens pourraient signaler de vrais fournisseurs dans le cadre d’une tactique politique pour supprimer des histoires, par exemple.

Il est difficile de se fier aux signalements des utilisateurs, en particulier dans le cas de personnes incapables de faire la distinction entre le vrai et le faux. Je ne m’attends pas à ce que cette mesure finisse par avoir un impact significatif.

3. Vérification par un tiers

Comme l’a noté Zuckerberg :

« Il existe de nombreuses organisations de vérification des faits respectées et, bien que nous ayons contacté certaines, nous prévoyons d’apprendre de beaucoup d’autres. »

Cela ressemble à une suggestion proposée par l’écrivain TechCrunch Josh Constine :

Essentiellement, Facebook pourrait ajouter une couche supplémentaire de contrôle de la qualité sur le contenu d’actualités hautement partagé, ou même les fournisseurs, qui pourraient alors réduire leur portée dans le fil d’actualité ou, comme l’a noté Constine, signaler ce contenu pour sensibiliser le lecteur.

Il s’agit d’une initiative positive de Facebook, intégrant les organisations qui se battent activement pour réduire la propagation des fausses nouvelles, car elle élargit le bassin de connaissances de Facebook sur la question et conduira sans aucun doute à de meilleurs systèmes de détection et d’alerte.

4. Avertissements

Zuckerberg dit qu’ils « explorent l’étiquetage des histoires qui ont été signalées comme fausses par des tiers ou notre communauté, et montrent des avertissements lorsque les gens les lisent ou les partagent ».

Encore une fois, cela ressemble à leurs étiquettes de canular – s’appuyer sur les rapports d’audience n’a clairement pas été efficace jusqu’à présent, et j’ai des inquiétudes à l’idée qu’ils mettent davantage l’accent sur de tels rapports pour signaler le contenu. Mais l’incorporation de la vérification par un tiers pourrait être une approche plus efficace.

Par exemple, si quelque chose a été signalé par les utilisateurs, un tiers de confiance pourrait alors être appelé à le vérifier, améliorant ainsi la précision et minimisant l’impact des personnes signalant du vrai contenu d’actualité.

5. Qualité des articles liés

Celui-ci est une grande préoccupation et quelque chose qui doit absolument être abordé.

Comme indiqué par divers rapports, l’un des problèmes clés de Facebook est la chambre d’écho – une fois que Facebook vous a marqué comme soutenant un certain côté de la politique, par exemple, l’algorithme vous fournira de plus en plus de contenu qui a également été apprécié par les personnes qui penchez-vous de cette façon.

Par exemple, ceci :

Vous pouvez voir comment l’algorithme – qu’il soit conçu ou non – peut renforcer les préférences politiques en vous montrant plus de contenu lu ou aimé par des personnes du même point de vue. Dans ce cas, l’article original aurait été partagé par de nombreux partisans de Trump, ce qui peut alors conduire le lecteur dans un terrier de rapports unilatéraux et souvent faux.

Ceci, comme je l’ai déjà noté, est une préoccupation plus importante que les fausses nouvelles elles-mêmes – c’est la façon dont l’algorithme renforce et alimente ces croyances qui crée le vrai problème.

C’est un problème difficile à résoudre pour Facebook, car ils gagnent de l’argent en faisant passer plus de temps sur le site. Ils le font en leur donnant davantage le type de contenu qu’ils veulent lire, il n’est donc pas dans l’intérêt de Facebook de leur montrer un post qui pourrait contrer leur opinion (et sur lequel ils ne cliqueront jamais).

En ce sens, déterminer comment les « articles connexes » sont sélectionnés et distribués pourrait être un petit pas vers la création d’un plus grand équilibre dans le fil d’actualités dans son ensemble. Mais c’est un gros « pourrait ». Il faudra attendre plus d’informations à ce sujet.

6. Perturber l’économie des fake news

Comme indiqué ci-dessus, un autre gros problème est que les fausses nouvelles se vendent – et lorsque les clics sont une devise, il est parfaitement logique que certains opérateurs publient des documents faux et trompeurs uniquement dans le but d’attirer plus d’attention.

Le modèle commercial en ligne encourage les clics (comme le fait l’algorithme de Facebook) et dans ce scénario, quelle importance si ce que vous publiez est vrai ou non ? Les entreprises ont simplement besoin de faire cliquer les gens, et comme nous l’avons vu à maintes reprises, les canulars et les faux rapports génèrent des clics, en particulier ceux qui sont dans le domaine de la crédibilité.

Je veux dire, vraiment, même avant l’avènement de l’espace en ligne, les magazines de potins hollywoodiens ont poussé la monétisation des contrevérités à un tout autre niveau, citant des « sources anonymes » et « un ami proche de la famille » dans des histoires qui proclamaient des ruptures, des accros… hauts et divers autres « scandales » qui n’ont jamais été proches de la réalité. Et comme le montre le nombre de lecteurs pour un tel contenu, la vérité n’a pas vraiment d’importance, tant que l’alternative est suffisamment attrayante, tant qu’elle fournit quelque chose que les gens veulent lire.

Au cours de la semaine dernière, Facebook et Google ont annoncé qu’ils allaient arrêter les sites de distribution de fausses informations connus d’utiliser leurs services publicitaires, une décision qui pourrait avoir un impact significatif sur l’ensemble de l’écosystème en ligne.

Par exemple, qu’est-ce que cela signifie pour des fournisseurs comme Taboola et Outbrain avec lesquels de nombreux éditeurs s’associent pour compléter leurs revenus ?

Facebook va sévir contre les fausses nouvelles - Les implications du plan de Zuckerberg |  Les médias sociaux aujourd'huiLes deux génèrent près d’un demi-milliard de dollars de revenus en fournissant ces liens « recommandés » au bas des publications des sites partenaires, bon nombre de ces histoires provenant de sources douteuses ou non fiables. Google pourrait-il chercher à réduire l’importance des sites utilisant de tels services dans le cadre de leur répression ?

L’engagement de Facebook pourrait-il se réduire si la plate-forme cesse de publier du contenu engageant, mais faux ?

Et qu’advient-il de ces éditeurs qui sont bannis – nous avons vu des rapports dans le même sens cette semaine avec le réseau social Gab qui prend de l’ampleur alors que les utilisateurs de Twitter interdits migrent vers leur plate-forme. Pourrions-nous voir une nouvelle forme de réseau d’information clandestine qui subvertit le courant dominant, mais reste populaire de toute façon ?

Tout dépend de la mesure dans laquelle les plates-formes s’y prennent, mais le potentiel est là pour que les mesures visant à réduire le contenu faux et trompeur alimentent réellement plus de division, plutôt que de permettre une meilleure compréhension.

7. Écouter

Et le dernier point d’intérêt de Zuckerberg est « l’écoute » :

« Nous continuerons à travailler avec des journalistes et d’autres acteurs de l’industrie de l’information pour obtenir leur avis, en particulier, pour mieux comprendre leurs systèmes de vérification des faits et apprendre d’eux. »

C’est à peu près le qualificatif standard, mais Facebook a montré dans le passé qu’ils sont prêts à faire des efforts pour comprendre toutes les perspectives et travailler avec de tels groupes.

Nous avons encore un long chemin à parcourir et les impacts potentiels pourraient être importants. Il est important que les spécialistes du marketing des médias sociaux prêtent attention à ce qui se passe dans l’espace et restent conscients de ce que tout changement de politique ou de distribution de fil d’actualité pourrait signifier pour leurs campagnes et leurs performances sur la plate-forme.

Comme toujours, nous nous efforcerons de vous tenir au courant des dernières nouvelles et informations.