Stratégie digitale

De nouveaux rapports soulignent le rôle de Facebook dans l’exacerbation des divisions politiques – mais Facebook va-t-il agir?

Dans le cadre de l’enquête en cours sur les activités antitrust potentielles parmi les géants de la technologie américains, les PDG de Google, Facebook, Amazon et Apple ont tous récemment comparu devant le US House Judiciary Committee, où on leur a posé une série de questions relatives à diverses préoccupations sur la façon dont leur les entreprises opèrent.

Et l’une de ces questions était particulièrement pertinente à l’approche de la période électorale américaine de 2020 – dans le temps qui lui était imparti, Rep. David Cicilline a posé cette déclaration au PDG de Facebook, Mark Zuckerberg:

« Facebook profite et amplifie la désinformation qui nuit aux autres, car elle est rentable. Ce n’est pas un problème de discours, il s’agit du modèle commercial de Facebook qui donne la priorité à l’engagement afin de garder les gens sur la plate-forme de Facebooks pour leur proposer plus de publicités. « 

Est-ce vrai? Facebook profite-t-il de la division et de l’engagement qu’elle génère?

Dans sa réponse, Zuckerberg, de manière prévisible, a déclaré que c’était incorrect et que Facebook montre aux gens « ce qui va être le plus significatif pour eux », pas seulement ce qui va générer le plus d’engagement. Cicilline a ensuite suivi avec un exemple d’une récente vidéo de conspiration COVID-19 qui a accumulé 20 millions de vues en 5 heures sur Facebook.

«Beaucoup de gens ont partagé cela», a répondu Zuckerberg.

Cela signifie-t-il donc que c’était «significatif» pour eux? Zuckerberg est-il malhonnête en contournant les détails de la requête?

C’est l’un des éléments clés du débat dans l’élargissement de la fracture politique – quel rôle les médias sociaux, et Facebook en particulier, ont-ils pour exacerber la division sociétale existante? Il y a toujours eu un niveau de débat des deux côtés du spectre politique, mais il semble être devenu plus prononcé et plus influent ces derniers temps, et le plus grand changement au cours de cette période est le nombre de personnes qui reçoivent désormais leur contenu d’actualité. plateformes sociales.

Et la logique derrière cette préoccupation a du sens – l’algorithme de Facebook donne la priorité à l’engagement. Si vous publiez quelque chose qui génère beaucoup de partages et de discussions, cela garantira que vos publications ultérieures auront plus de portée, car le système de Facebook cherche à impliquer davantage de personnes dans de tels échanges afin de les garder sur la plate-forme plus longtemps.

Cela a modifié les incitations pour les éditeurs de nouvelles en ce qui concerne la façon dont ils publient. Un article d’opinion intitulé «  COVID-19 est un canular, voici la vraie vérité  » générera plus de réponses qu’un article avec le titre «  Les scientifiques étudient le COVID-19 depuis des années  ». Les deux articles pourraient avoir le même contenu, mais un titre est plus salace et joue sur le désir inhérent des gens de croire qu’ils sont maltraités par le gouvernement.

Encore une fois, cette approche a toujours été efficace – jetez simplement un coup d’œil aux magazines de potins de célébrités et à la façon dont ils enchaînent les lecteurs avec des rumeurs et des histoires sans fondement. Mais Facebook a transformé beaucoup plus d’éditeurs en machines à potins, tout en donnant à ce type de contenu infiniment plus de portée, et donc d’influence.

Facebook le sait. Autant Zuckerberg pourrait essayer de payer et prétendre qu’il ne le sait pas, ou que c’est aux gens de décider ce qu’ils veulent, et que Facebook n’a pas de rôle réel à jouer, à part être la plate-forme pour héberger une telle discussion. Facebook sait que ses algorithmes exacerbent la division – ils l’ont tellement admis.

Plus tôt cette année, le cadre de Facebook, Andrew Bosworth, ancien responsable du département des publicités mobiles de l’entreprise, a publié une note interne dans laquelle il partageait ses réflexions sur diverses controverses concernant le fonctionnement de Facebook, son rôle dans l’influence des élections, le partage de données, etc.

Parmi ses notes, Bosworth a rejeté l’idée de bulles de filtre qui sont facilitées par l’algorithme de Facebook, et voit théoriquement les utilisateurs de Facebook montrer plus de contenu avec lequel ils vont être d’accord, et moins de ce qu’ils ne veulent pas.

Bosworth a déclaré que le système de Facebook garantit en fait que les utilisateurs sont exposés à beaucoup plus de sources de contenu qu’ils n’auraient pu en voir avant Internet.

« Demandez-vous combien de journaux et de programmes d’information les gens lisent / regardent avant Internet. Si vous avez deviné «un et un» en moyenne, vous avez raison, et si vous avez deviné que ceux-ci étaient idéologiquement alignés avec eux, vous avez à nouveau raison. Internet les expose à beaucoup plus de contenu provenant d’autres sources (26% de plus sur Facebook, selon nos recherches). « 

COO de Facebook Sheryl Sandberg a cité cette même recherche en octobre de l’année dernière, notant plus précisément que 26% des nouvelles que les utilisateurs de Facebook voient dans leurs représentent «un autre point de vue».

Alors, c’est mieux non? Facebook garantit en fait que les gens voient plus de points de vue, de sorte qu’il ne peut pas être tenu pour responsable du renforcement de la division politique. Droit?

Pas exactement – encore une fois, de Bosworth:

« L’accent mis sur les bulles de filtre fait que les gens passent à côté du vrai désastre qu’est la polarisation. Que se passe-t-il lorsque vous voyez 26% de contenu en plus de personnes avec lesquelles vous n’êtes pas d’accord? Cela vous aide-t-il à sympathiser avec eux comme tout le monde le suggère? Non. Cela fait que vous ne les aimez pas encore plus. C’est aussi facile à prouver avec une expérience de pensée: quelle que soit votre orientation politique, pensez à une publication de l’autre côté que vous méprisez. Quand vous lisez un article de ce point de vente, peut-être partagé par un oncle ou un neveu, cela vous fait-il repenser vos valeurs? Ou est-ce que cela vous fait reculer davantage dans la conviction de votre propre justesse? Si vous avez répondu à la première, félicitations, vous êtes une meilleure personne que moi. Chaque fois que je lis quelque chose de Breitbart, je suis 10% plus libéral. « 

Ainsi, Bosworth reconnaît effectivement que, oui, l’algorithme de fil d’actualité de Facebook amplifie la division. Pas de la façon dont beaucoup pensent, en rétrécissant leur perspective en leur montrant uniquement le contenu avec lequel ils sont d’accord, mais en fait le contraire – en montrant aux utilisateurs plus de contenu provenant de plus de sources, Facebook les pousse plus loin de chaque côté de la fracture politique.

Encore une fois, c’est un dirigeant de Facebook qui le reconnaît, Facebook en est conscient. Zuckerberg peut le nier, mais il le sait aussi bien que Bosworth, car il s’agit d’une discussion qui a eu lieu entre les dirigeants de Facebook.

Et cela ne fera que s’aggraver à mesure que de plus en plus de gens dépendent de Facebook pour le contenu d’actualités. Des milliers d’éditeurs locaux sont contraints de fermer leurs portes, la pandémie COVID-19 étant le dernier clou dans le cercueil de leurs entreprises. Et lorsque les habitants ne peuvent plus obtenir les nouvelles locales d’un point de vente de confiance, vers quoi pensez-vous qu’ils vont se tourner?

Facebook renforce ensuite cette division en accueillant des extrémistes au sein de groupes privés, où leur discussion est hors de vue du public, et donc au-delà d’un examen approfondi. Cela a été souligné à nouveau cette semaine avec la fuite de documents internes qui montrent que Facebook héberge actuellement des milliers de groupes et de pages, avec des millions de membres et d’adeptes, qui soutiennent la théorie du complot QAnon.

QAnon a gagné un fervent public en ligne pour avoir prétendument partagé des informations secrètes sur la bataille en cours de l’administration Trump contre «  l’État profond  », une collection de gens d’affaires d’élite et de célébrités qui contrôlent secrètement le monde.

Twitter a annoncé une répression des comptes liés à QAnon le mois dernier, et Facebook serait également en train de peser ses options. Mais l’étendue du groupeLa portée de Facebook sur Facebook est stupéfiante et souligne le rôle que Facebook peut jouer dans l’amplification des opinions extrêmes et des théories marginales.

Il n’est pas difficile de voir comment la combinaison de l’amplification du contenu qui divise et de l’hébergement de groupes sympathiques de part et d’autre, à l’échelle de Facebook, pourrait être un problème majeur. Et encore une fois, Facebook le niera, il minimisera son rôle, il affirmera qu’il savait peu de choses sur l’utilisation de ses groupes pour une telle activité. Mais ce ne sont pas des informations nouvelles – divers rapports ont mis en évidence les mêmes préoccupations pendant des années.

Et parmi cela, vous avez des allégations selon lesquelles Facebook supprimait les vérifications des faits afin d’éviter les conflits avec les dirigeants politiques, permettant aux discours de haine de rester sur sa plate-forme parce que c’est «  dans l’intérêt public  », et permettant aux politiciens de régner librement pour mentir. leurs publicités afin que les gens puissent décider.

Dans l’ensemble, lors de l’évaluation des différents facteurs, il est difficile de ne pas conclure que Facebook préférerait laisser ce contenu seul, car il suscite en effet plus d’engagement. Est-ce que Facebook en profite? Oui. Si Facebook était obligé de prendre une position plus dure sur les publications et les opinions controversées, cela coûterait-il de l’argent à Facebook et le verrait-il probablement perdre son engagement? Oui ça le ferait.

En substance, Facebook veut tous les avantages d’être la plate-forme sociale la plus utilisée au monde, mais aucune responsabilité. Mais avec 2,7 milliards d’utilisateurs, son influence est tout simplement trop grande pour qu’il adopte une approche non interventionniste – cette responsabilité est énorme, et il devrait y avoir des conséquences en cas d’échec à cet égard.

Mark Zuckerberg préférerait se concentrer sur le positif, sur la vision idéaliste des médias sociaux comme un outil de connexion qui unit le monde pour de bon. Mais ce n’est pas ce qui se passe, et l’entreprise doit s’aligner sur la façon dont elle est réellement utilisée, afin d’atténuer les tendances dangereuses qui imprègnent ses coins sombres.

Si ce n’est pas le cas, attendez-vous à ce que la division politique s’aggrave avec le temps.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.