Avez-vous déjà vu des gens partager de fausses nouvelles sur Facebook ou Twitter, tout en croyant que l’information est vraie à 100 % ? Cela arrive souvent, les dernières recherches sur une nouvelle tendance en matière de régime alimentaire, par exemple, ou, en utilisant un exemple récent, la vague de désinformation à la suite des attentats terroristes de Paris. Et tandis que beaucoup de ces rumeurs peuvent facilement être identifiées comme des contrefaçons, il y a des éléments qui sont plus difficiles à sélectionner.
Par exemple, Donald Trump a essuyé une raclée métaphorique sur les réseaux sociaux pour avoir tweeté cela après les attentats de Paris.
N’est-il pas intéressant que la tragédie de Paris ait eu lieu dans l’un des pays de contrôle des armes à feu les plus stricts au monde ?
– Donald J. Trump (@realDonaldTrump) 7 janvier 2015
Forme assez médiocre, non? 129 personnes innocentes tuées – comment quelqu’un, sans parler d’un candidat à la présidence des États-Unis, pourrait-il publier quelque chose d’aussi insensible ?
Le truc, c’est qu’il ne l’a pas fait. Comme vous pouvez le voir à partir de la date sur le tweet, Trump a posté cela en janvier, en réponse à un autre incident, mais d’une manière ou d’une autre, le tweet a refait surface et était lié aux nouvelles attaques. Et le contrecoup s’est propagé comme une traînée de poudre à travers les réseaux sociaux – même l’ambassadeur de France y a répondu, critiquant Trump pour son point de vue controversé.
Ce n’est qu’une des nombreuses contre-vérités qui ont circulé immédiatement après l’incident – d’autres rapports incluaient des allégations selon lesquelles les terroristes infiltraient des pays étrangers en se faisant passer pour des réfugiés, des suggestions selon lesquelles les attaques avaient été organisées via des réseaux informatiques hautement intelligents et cryptés et l’identification de un Canadien innocent en tant que terroriste potentiel en raison d’une image photo-shopée de lui portant un gilet anti-bombe.
Représentation @Veeren_Jubbal comme un terroriste met sa vie en danger, ruine sa réputation. C’est du terrorisme en ligne. pic.twitter.com/U5bJYCnIsC
– Amy (@AmyStephen) 15 novembre 2015
Ces types de contre-vérités ont toujours existé, mais ils circulent plus rapidement que jamais en ligne, où les informations sont aimées, partagées et re-tweetées à la vitesse de l’éclair. La signification de telles rumeurs et désinformation varie considérablement, bien sûr – il y a eu une récente histoire de canular d’un homme en Australie qui avait subi des préjugés pendant une grande partie de sa vie en raison de son nom, en anglais, étant une déclaration très offensante. Il y en a eu une qui a circulé l’année dernière à propos d’un homme bloqué dans un aéroport parce que son fils avait griffonné partout sur son passeport. Mais lorsque vous comparez également ces histoires plus légères aux principales théories du complot – comme la façon dont les fusillades de Sandy Hook ont été truquées, ou les « nouvelles » mentionnées ci-dessus autour d’un événement mondial majeur – vous pouvez voir comment de tels détails peuvent influencer la perception et l’opinion du public. Et étant donné que Facebook est désormais l’une des principales sources d’informations pour un nombre croissant de personnes – près de la moitié de tous les Américains reçoivent des informations politiques de la plate-forme – et le fait que Facebook pousse à jouer un rôle plus important dans la diffusion et la circulation du contenu d’actualités, il est important de reconnaître les dommages potentiels qui peuvent être causés par des rapports inexacts et biaisés, et qu’il est nécessaire de faire quelque chose pour réduire l’impact d’un tel matériel.
Maintenir la vérité
Mais comment lutter contre la propagation de la désinformation ? Les algorithmes de Facebook sont en fait, à certains égards, conçus pour prendre en charge la diffusion de telles histoires – l’algorithme du fil d’actualité est conçu pour vous montrer le contenu qui vous intéresse le plus en fonction du contenu précédent avec lequel vous avez interagi. Cet écosystème se prête au biais de confirmation, un état dans lequel les gens interpréteront les informations d’une manière qui confirme leurs propres idées préconçues – par exemple, si vous aimez et commentez une histoire sur la dernière théorie du complot, vous êtes plus susceptible de afficher davantage le même contenu, tout en vous permettant d’éliminer facilement d’autres points de vue qui remettent en question vos croyances de vos entrées médiatiques en les supprimant simplement de votre fil d’actualité et en ne suivant plus leur source.
Cela rend plus difficile pour Facebook de contrôler la propagation de la désinformation et des contrevérités sur le réseau – et vraiment, ce n’est pas à Facebook de contrôler la diffusion du contenu de toute façon, leur mission est de fournir aux gens la meilleure expérience sur la plate-forme en leur montrant plus du contenu qui les intéresse le plus.
Mais les fausses nouvelles et les canulars sont quelque peu en dehors de cet objectif – les recherches de Facebook ont révélé que de nombreux utilisateurs qui publient de fausses nouvelles supprimeront plus tard ces messages après avoir été informés que l’histoire est incorrecte. Facebook considère cela comme un indicateur d’une mauvaise expérience utilisateur et quelque chose que les gens veulent éviter – en général, les gens n’apprécient pas de passer pour des imbéciles – et en tant que tel, ils ont mis en place un ajustement du fil d’actualité en janvier qui a réduit la distribution d’histoires signalées comme des canulars. , ainsi que d’ajouter une note à ces histoires pour les désigner comme de possibles contrefaçons.
Ils ont également ajouté un nouvel outil pour permettre aux gens de signaler de fausses nouvelles.
Mais compte tenu de leur poussée renouvelée dans les nouvelles et la publication, Facebook est désormais soumis à plus de pression pour réduire la propagation des fausses nouvelles, et en tant que tel, aujourd’hui, The Social Network a publié une mise à jour du fil d’actualité pour réprimer davantage la désinformation et la propagation des canulars. histoires à travers l’écosystème Facebook.
Affiner l’algorithme
Premièrement, Facebook a détaillé l’une des manières dont ils affinent l’expérience du fil d’actualités et comment ils utilisent ces commentaires pour réduire la propagation du contenu de fausses nouvelles.
« Dans le cadre de nos efforts continus pour améliorer le fil d’actualité, nous demandons chaque jour à des milliers de personnes d’évaluer leur expérience et de nous dire comment nous pouvons améliorer ce qu’elles voient lorsqu’elles consultent Facebook. Les gens participent également à des sondages sur les histoires où ils voient deux histoires qui pourraient être dans leur fil d’actualité et répondent à ce qu’ils aimeraient le plus voir. Nous comparons leur réponse à l’ordre dans lequel nous aurions mis ces histoires dans leur fil d’actualité. Si l’histoire choisie est celle que le fil d’actualité aurait montrée plus haut, c’est un bon signe que les choses fonctionnent bien. Si l’histoire choisie est celle que nous aurions placée plus bas, cela met en évidence un domaine à améliorer. »
En utilisant cette mesure, Facebook est en mesure de mieux comprendre comment se déroulent ses efforts pour affiner l’algorithme, et sur la base de ces commentaires, Facebook a déterminé que parfois les histoires qui deviennent virales, qui sont repartagées et republiées sur et encore une fois et inonder les flux des gens, peut en fait ne pas intéresser un grand nombre d’utilisateurs.
Un exemple d’histoire virale qui n’intéresse probablement pas un grand groupe ? Histoires de canulars.
Vous le savez vous-même – les gens publieront encore et encore la même fausse nouvelle, que vous savez être fausse. Vous ne voulez pas voir cela, alors vous vous désabonnez ou notez que vous n’êtes pas intéressé par un tel contenu, et maintenant Facebook prendra en compte ces commentaires afin de déterminer la propagation de ces histoires et de réduire leur portée si elles sont signalé comme quelque chose que beaucoup de gens ne veulent pas voir.
« Avec cette mise à jour, si un nombre important de personnes nous disent qu’elles préféreraient voir d’autres publications plus que cette publication virale particulière, nous en tiendrons compte lors du classement, de sorte que la publication virale puisse apparaître plus bas dans les flux des personnes dans le Dans l’exemple des canulars, si la majorité des personnes répondant à l’enquête disent qu’elles préféreraient voir une autre histoire dans leur flux que l’histoire de canular viral, alors nous déduirons que l’histoire pourrait ne pas être aussi intéressant et montrer l’histoire virale plus bas dans les flux des gens à l’avenir. »
Bien sûr, le tweak pourrait avoir une portée plus large que de simples histoires de canulars – toute histoire virale qui obtient beaucoup de traction pourrait perdre de son élan dans le cadre de ce processus. Si beaucoup de gens en avaient marre de voir des mises à jour sur la robe bleu/or, par exemple, cela pourrait conduire à des histoires comme celle-ci ayant moins de portée, ce qui pourrait avoir un impact sur des éditeurs comme BuzzFeed et autres – bien que Facebook note que « comme les publications virales sont généralement des anomalies, et n’étant pas une partie importante de la distribution des Pages, nous ne pensons pas que ce changement aura un impact sur la distribution de votre Page ».
Dans l’ensemble, l’objectif principal du changement semble être de réduire la propagation de la désinformation, ce qui, compte tenu de l’influence croissante de Facebook sur le cycle de l’actualité, ne peut être qu’une bonne chose, bien qu’il soit probablement impossible pour The Social Network d’éliminer totalement la propagation. d’un tel contenu.
Rumeurs et murmures
En 2012, Facebook a suscité la controverse lorsqu’ils ont publié un rapport sur la façon dont les chercheurs avaient mené une expérience sur les utilisateurs de Facebook pour voir si leurs contributions sur la plate-forme pouvaient être manipulées afin d’influencer leur vote lors des élections du Congrès américain de 2010. Leurs découvertes ? Ils pourraient absolument.
« Les résultats montrent que les messages ont directement influencé l’expression politique, la recherche d’informations et le comportement de vote dans le monde réel de millions de personnes. De plus, les messages ont non seulement influencé les utilisateurs qui les ont reçus, mais aussi les amis des utilisateurs et les amis d’amis . »
Alors que beaucoup de gens considèrent Facebook comme une activité récréative, un endroit pour partager des notes et des blagues au hasard avec des amis, son influence réelle et réelle est indéniable. Les gens consomment plus que jamais des informations sur Facebook – les réseaux sociaux deviennent plus que jamais la principale source d’entrée médiatique pour un nombre croissant de personnes. Avec cela, il est nécessaire de considérer quelles informations sont partagées et comment elles sont partagées sur le réseau. Et bien que nous ne soyons peut-être jamais en mesure d’éliminer les fausses informations et la propagation des rumeurs et des contrefaçons, il est encourageant de voir Facebook prendre des mesures pour réduire l’impact de tels contenus là où ils le peuvent.
Dans le cas d’informations douteuses, il vaut la peine de considérer les sources de ces informations avant de cliquer sur « J’aime » et « Partager ». Cela peut sembler rien – l’importance de partager une histoire aléatoire sur un possible canular peut sembler insignifiante – mais l’impact cumulatif de la propagation de la désinformation peut être dommageable. Dans le nouveau monde, où tout le monde a le potentiel d’être un éditeur, il vaut la peine de prendre note des détails pour s’assurer que vous renforcez le bon message.
Comment empêcher la diffusion de fake news ? Comme suggéré dans cet article par Luke O’Neil pour Vice, posez-vous les questions suivantes avant de passer à l’action :
1. Qui vous raconte l’histoire ? La source est-elle digne de confiance et quelqu’un en qui vous avez confiance ? « Si vous n’avez jamais entendu parler du site Web rapportant une nouvelle que vous aimeriez partager, alors ce n’est probablement pas vrai ».
2. De quoi parle l’histoire ? Comme pour tout, si cela semble trop beau pour être vrai, alors c’est probablement le cas. Si tous les détails sont trop fortuits, s’ils soutiennent trop commodément un côté d’un argument, ce n’est probablement pas vrai.
3. Quand cette histoire s’est-elle produite ? Assurez-vous de vérifier les dates des histoires et des images, ou de confirmer les incidents pour corroborer leur authenticité. Vous ne savez pas quand une image a été publiée ? Faites une recherche rapide sur Google Image pour vérifier.
4. Où l’histoire s’est-elle passée ? Si l’histoire étrange concerne une région éloignée – où il serait très difficile de retrouver les informations de la source – c’est probablement un faux.
5. Pourquoi cette histoire est-elle partagée ? Considérez la motivation derrière la raison pour laquelle l’histoire a été partagée. « Si l’histoire a été clairement écrite juste pour les actions, alors c’est probablement faux ».