Réseaux sociaux

Une nouvelle étude montre que la désinformation suscite beaucoup plus d’engagement que les vraies nouvelles sur Facebook

L’un des changements les plus préoccupants de ces derniers temps a été la façon dont les plateformes sociales sont devenues des outils de distribution de fausses nouvelles et de rapports, amplifiant les mouvements de la vie réelle basés sur le partage et le partage de fausses informations et de mensonges purs et simples.

Un tel contenu a désormais une capacité accrue à s’infiltrer et à avoir un impact sur la vie des gens. Par exemple, Facebook et Twitter ont maintenant pris des mesures contre les groupes anti-vax, alors que ce mois-ci, tous les grands géants de la technologie ont accepté l’appel de Christchurch, qui vise à unifier leurs efforts pour freiner la propagation du terrorisme et des messages extrémistes.

Compte tenu des dangers d’un tel partage, il s’agit à juste titre d’une question clé – et cette semaine, une nouvelle étude menée par l’Université d’Oxford a de nouveau souligné pourquoi c’est une préoccupation si cruciale. Une analyse des données de Facebook a montré que les «  informations indésirables  » – ou le contenu de sources moins réputées – sont partagés 4 fois plus que le contenu de médias réputés et de confiance sur le réseau social.

Le graphique montre le taux de part des fake news par rapport au contenu d'actualité réputé

Bien sûr, beaucoup réside dans la définition exacte de «junk news».

D’après le rapport:

« Ces sources publient délibérément des informations trompeuses, trompeuses ou incorrectes prétendant être de vraies nouvelles sur la politique, l’économie ou la culture. Ce contenu comprend diverses formes de propagande et des informations et informations idéologiquement extrêmes, hyper-partisanes ou conspiratrices. »

Maintenant, certains diront que ce contenu est, en fait, de vraies nouvelles, et que ce sont les grands médias qui publient des mensonges – ce qui en soi est une tendance préoccupante de l’ère moderne.

Pour qualifier cela, l’équipe de recherche d’Oxford a déclaré que les personnes répertoriées dans sa catégorie «  junk news  » devaient remplir au moins trois de ces cinq critères:

  • Professionnalisme – Ces points de vente n’emploient pas les normes et les meilleures pratiques du journalisme professionnel. Ils s’abstiennent de fournir des informations claires sur les vrais auteurs, éditeurs, éditeurs et propriétaires. Ils manquent de transparence et de responsabilité et ne publient pas de corrections d’informations démystifiées.
  • Style – Ces sources utilisent un langage émotionnel qui comprend des expressions émotionnelles, des hyperboles, des attaques ad hominem, des titres trompeurs, une capitalisation excessive, des généralisations dangereuses et des erreurs logiques, des images en mouvement et de nombreuses images et des mèmes mobilisateurs.
  • Crédibilité – Ces points de vente s’appuient sur de fausses informations et des théories du complot, qu’ils utilisent souvent de manière stratégique. Ils signalent sans consulter plusieurs sources et ne vérifient pas les faits. Les sources sont souvent peu fiables et les normes de production manquent de fiabilité.
  • Biais – Les reportages de ces médias sont très biaisés, idéologiquement biaisés ou hyper-partisans, et les reportages d’informations incluent souvent des commentaires fortement avisés.
  • Contrefaire – Ces sources imitent les reportages d’actualité établis. Ils contrefaisent les polices, l’image de marque et les stratégies de contenu stylistique. Les commentaires et le contenu indésirable sont déguisés stylistiquement en informations, avec des références à des agences de presse et à des sources crédibles, et les titres sont écrits dans un ton d’actualité avec des timbres de date, d’heure et d’emplacement

Encore une fois, cela peut ne pas suffire à convaincre ceux qui préféreraient être d’accord avec ce type de reportage sur les points de vente traditionnels – mais cela, en soi, montre pourquoi ce type de contenu est si efficace, en particulier sur Facebook. Parce qu’il s’aligne sur nos préjugés internes établis et renforce les points de vue enracinés – ce qui est en fait un moyen infaillible de stimuler l’engagement.

Des études psychologiques à travers l’histoire ont souligné à plusieurs reprises le pouvoir du biais de confirmation, qui est essentiellement la manière dont notre cerveau recherche des raccourcis pour traiter l’information, en choisissant sélectivement les parties que nous croirons et que nous ignorerons.

Comme expliqué par le psychologue et l’auteur Sia Mohajer:

«Nous recherchons des preuves qui soutiennent nos croyances et nos opinions sur le monde, mais excluent celles qui sont contraires aux nôtres… Dans une tentative de simplifier le monde et de le rendre conforme à nos attentes, nous avons été bénis avec le don de biais cognitifs . « 

Cela, comme indiqué, est particulièrement important sur Facebook, où non seulement les utilisateurs ont accès à des sources d’informations plus alternatives et plus agréables, mais où l’algorithme du fil d’actualité fonctionne pour montrer aux utilisateurs plus ce avec quoi ils sont d’accord – et moins ce qu’ils ne font pas. t. En tant que tel, il n’est pas surprenant que les gens fassent moins d’efforts pour vérifier le contenu qu’ils trouvent, et qui est partagé au sein de leurs réseaux établis de pairs et d’amis partageant les mêmes idées. Si quelqu’un publie systématiquement du contenu avec lequel vous n’êtes pas d’accord, vous pouvez le désactiver, le fermer, ce qui fait de la plate-forme, vraiment, l’outil ultime pour l’amplification de ce type de contenu et le renforcement de notre biais inhérent.

La question est donc de savoir comment y remédier? Facebook est très, très efficace pour travailler avec la nature humaine pour amplifier ce partage, et cela profite à l’entreprise, car plus de partage signifie plus d’engagement et, par conséquent, plus d’argent publicitaire. Si Facebook voit que l’algorithme du fil d’actualité fonctionne pour stimuler l’activité des utilisateurs, quelle motivation aurait-il pour le changer, pour réduire son efficacité?

Comme indiqué, tous les grands géants de la technologie cherchent maintenant à réduire ces impacts, mais cet aspect, en particulier, a été essentiel à la croissance de Facebook – la société arme la psychologie humaine pour manipuler l’action du public, que ce soit en augmentant le temps passé sur la plate-forme. ou des publicités spécifiquement ciblées.

C’est pourquoi Facebook a été un tel succès, et il faudrait probablement une accumulation importante de preuves pour convaincre Zuck and Co. de changer de cap.

Le graphique montre de faux reportages basés sur les actions

Cela pourrait bien être la question urgente de notre époque – cela pourrait sans doute être la raison pour laquelle des questions comme le changement climatique, par exemple, ont du mal à gagner une influence significative auprès de la population, parce que les gens ne font tout simplement pas confiance à ce qu’ils lisent. Ou du moins, ils ne font pas confiance à ce avec quoi ils ne sont pas d’accord, ce qui peut inclure ce qui est gênant ou difficile. La nouvelle ère des médias sociaux est également celle du biais de confirmation, et avec de l’argent à gagner dans les nouvelles «alternatives», une toute nouvelle économie de l’information a maintenant été établie.

Interdire les exemples les plus extrêmes de ce genre est une option, mais cela peut aussi fonctionner pour enhardir les croyants et les voir déplacer leurs mouvements vers de nouveaux débouchés.

Donc, y a-t-il une solution? Votre point de vue, ironiquement, se résumera probablement à ce que vous choisissez de croire.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.