Réseaux sociaux

Un nouveau rapport suggère que Facebook a ignoré une recherche indiquant qu’elle a contribué à la division sociétale

Facebook a-t-il fait un usage plus divisé et plus susceptible de «prendre parti» dans le débat politique?

Il semble certainement de cette façon, avec le tribalisme «nous contre eux» qui fait maintenant partie de presque toutes les discussions majeures – même les conseils médicaux sont apparemment devenus un point de discorde politique à l’ère moderne. Bien sûr, une telle division a toujours existé, du moins dans une certaine mesure – mais Facebook, et les médias sociaux plus largement, ont-ils aggravé la situation?

Cela est devenu un point clé de discussion au lendemain de l’élection présidentielle américaine de 2016, avec des suggestions selon lesquelles les fermes de trolls russes et les groupes d’activistes politiques avaient utilisé Facebook pour influencer les opinions des électeurs par le biais de publications et de publicités ciblées et manipulatrices.

Est-ce possible? Notre esprit pourrait-il vraiment être changé par le contenu affiché dans nos fils d’actualité?

Des recherches antérieures ont montré qu’en effet, l’action des électeurs peut être influencée par ce que les gens voient sur Facebook. Et selon un nouveau rapport du Wall Street Journal, Facebook en est bien conscient, le réseau social ayant mené une étude en 2018 qui a révélé que la plate-forme était notoire. les algorithmes «exploitent l’attrait du cerveau humain pour la division».

Alors, qu’a fait Facebook en réponse?

Selon WSJ:

« M. Zuckerberg et d’autres cadres supérieurs ont largement mis de côté la recherche fondamentale […] et les efforts affaiblis ou bloqués pour appliquer ses conclusions aux produits Facebook. Le chef de la politique de Facebook, Joel Kaplan, qui a joué un rôle central dans l’examen des changements proposés, a fait valoir à l’époque que les efforts pour rendre les conversations sur la plate-forme plus civiles étaient «paternalistes», ont déclaré des personnes familières avec ses commentaires. « 

Vraiment, la révélation n’est pas surprenante – pas tant dans le contexte où Facebook pourrait choisir de l’ignorer, mais dans le premier point, que Facebook peut exacerber la division.

En effet, les propres dirigeants de Facebook l’ont indirectement souligné dans leurs divers commentaires sur le sujet – plus tôt cette année, Andrew Bosworth, responsable de la RV et de la RA de Facebook, a publié une longue explication de ses pensées personnelles sur diverses controverses sur Facebook, y compris l’idée que Facebook augmente les divisions sociétales.

Bosworth a réfuté la suggestion selon laquelle Facebook renforce les opinions politiques par un effet de «  bulle de filtre  », une affirmation souvent portée contre la plate-forme, car les utilisateurs de Facebook voient en fait du contenu provenant de plus de sources sur un sujet donné, pas moins.

Mais là encore, ce n’est pas nécessairement bénéfique non plus – comme l’explique Bosworth:

« Que se passe-t-il lorsque vous voyez plus de contenu de personnes avec lesquelles vous n’êtes pas d’accord? Cela vous aide-t-il à avoir de l’empathie pour eux, comme tout le monde l’a suggéré? Non. Cela vous fait encore plus ne pas les aimer. »

Bosworth a noté que, contrairement à l’opinion populaire, Facebook expose en fait les utilisateurs à beaucoup plus de sources de contenu qu’ils n’auraient pu en voir avant Internet.

« Demandez-vous combien de journaux et de programmes d’information les gens lisent / regardent avant Internet. Si vous avez deviné «un et un» en moyenne, vous avez raison, et si vous avez deviné que ceux-ci étaient idéologiquement alignés avec eux, vous avez à nouveau raison. Internet les expose à beaucoup plus de contenu provenant d’autres sources (26% de plus sur Facebook, selon nos recherches). « 

COO de Facebook Sheryl Sandberg a cité cette même recherche en octobre de l’année dernière, notant plus précisément que 26% des nouvelles que les utilisateurs de Facebook voient dans leurs représentent «un autre point de vue».

Mais encore une fois, ce n’est pas nécessairement une bonne chose – en travaillant à défendre l’idée que Facebook ne provoque pas de division à travers un processus (ne vous montrant que le contenu avec lequel vous êtes plus susceptible d’être d’accord), les dirigeants de Facebook ont ​​également souligné par inadvertance comment cela provoque le même type de division par le contraire – vous montrer plus de contenu, provenant de plus de sources, selon les propres dirigeants de Facebook, augmente probablement la polarisation politique.

Encore une fois, il n’est pas surprenant que les chercheurs soient parvenus à la même conclusion en ce qui concerne la façon dont Facebook pourrait, comme le note le WSJ, «exploiter l’attrait du cerveau humain pour la division». Facebook le sait, ils l’ont déjà déclaré. Le problème est qu’il n’y a pas de solution simple pour y remédier.

C’est probablement la raison pour laquelle Facebook a apparemment mis les résultats de côté, car il n’y a aucun moyen de contrôler ces comportements et de changer les comportements inhérents.

Fait intéressant, quelques mois avant que ces résultats ne soient présentés à l’équipe de direction de Facebook, Facebook a publié un article de blog intitulé «  Is Passer du temps sur les réseaux sociaux est-il mauvais pour nous? », dans lequel il explore les diverses conséquences négatives de l’engagement sur les réseaux sociaux.

La conclusion de ce rapport?

« Selon la recherche, cela revient vraiment à comment vous utilisez la technologie. « 

Les résultats dans ce cas suggèrent que la consommation passive de contenu sur les réseaux sociaux – lire mais pas interagir avec les gens – entraîne des effets négatifs sur la santé mentale, mais une interaction active, y compris « partager des messages, des publications et des commentaires avec des amis proches et se souvenir des interactions passées », a eu des avantages positifs.

Dans ce cas, Facebook ne regardait pas l’effet polarisant de ce que les gens partagent sur les plateformes sociales, en particulier, mais le résultat est plus étroitement aligné avec quelque chose que Facebook peut réellement contrôler. La plate-forme a par la suite apporté des modifications d’algorithme «pour offrir plus d’opportunités d’interactions significatives et réduire la consommation passive de contenu de mauvaise qualité», tout en ajoutant davantage d’outils pour aider les gens à lutter contre les comportements d’utilisation négatifs.

Mais Facebook ne peut pas empêcher les gens de partager ce qu’ils choisissent sur la plate-forme (dans des limites raisonnables). Sinon, ce n’est pas un réseau social, cela ne facilite pas la discussion en rapport avec ce dont les gens cherchent à parler. Cette exposition à ce à quoi les gens s’alignent personnellement, en termes de tendances politiques, d’opinions personnelles, etc., c’est un élément que nous n’avons jamais eu dans le passé, et bien qu’il y ait une valeur significative à permettre une connexion autour de tels, c’est aussi probablement la cause d’une division et d’une angoisse accrues.

Dans le passé, par exemple, vous n’auriez pas su que votre oncle Barry était un démocrate de gauche ou un républicain de droite. Mais maintenant vous le faites – et en partageant ses opinions, Barry est en mesure de s’aligner avec plus d’utilisateurs de Facebook qui sont d’accord avec son point de vue, facilitant ainsi une communauté partageant les mêmes idées. C’est ainsi que Facebook alimente une division accrue. Mais comment résolvez-vous cela? Comment empêcher Barry de partager ses opinions, sans changer toute l’approche de la plateforme?

Facebook ne peut essentiellement pas empêcher les utilisateurs de partager ce qui les intéresse, ce qui signifie qu’il ne peut vraiment définir que des paramètres clairs autour de ce qui peut être partagé et de ce qui n’est pas autorisé. Et pour cela, Facebook a mis en place son nouveau Content Oversight Board, qui fournira des conseils sur la manière dont la plateforme peut améliorer ses systèmes et ses processus pour le plus grand bien.

Ainsi, bien que la suggestion soit que Facebook a ignoré les rapports qui soulignent son rôle dans la division, la réalité, semble-t-il, est que Facebook travaille pour améliorer ce problème et pour fournir plus d’outils pour accroître la transparence et donner aux utilisateurs plus d’informations sur la façon dont une telle division se produit, y compris plus de données sur le ciblage publicitaire, les fausses nouvelles, les théories du complot, etc. Facebook semble agir en conséquence – mais si les utilisateurs choisissent de ne pas enquêter, s’ils choisissent de croire ce qu’ils veulent, et de partager ce qui correspond avec leurs croyances établies, et alors?

Alors, cela signifie-t-il que Facebook dans son ensemble est une bonne ou une mauvaise chose pour la société? Compte tenu de sa capacité à alimenter la division, c’est clairement une préoccupation, mais vous devez également mettre cela en balance avec les avantages qu’il offre en termes de facilitation des liens avec la communauté, offrant aux gens plus de moyens que jamais de rester en contact et de se rassembler pour un plus grand bénéfice.

La façon dont vous voyez chacun dépendra de la perspective personnelle – qui est en grande partie la même impulsion qui dicte ce que les gens partagent sur la plate-forme dans son ensemble.

Qui peut dire ce que les gens devraient et ne devraient pas pouvoir partager sur le réseau, au-delà de ce qui est acceptable dans les règles de la plate-forme? Et cela étant un facteur, comment pouvez-vous empêcher Facebook et d’autres plateformes sociales d’amplifier la division?

REMARQUE: Facebook a fourni à SMT cette déclaration sur le rapport du WSJ:

« Nous avons beaucoup appris depuis 2016 et ne sommes plus la même entreprise aujourd’hui. Nous avons constitué une solide équipe d’intégrité, renforcé nos politiques et pratiques pour limiter les contenus préjudiciables et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer. En février dernier, nous avons annoncé un financement de 2 millions de dollars pour soutenir des propositions de recherche indépendantes sur la polarisation.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.