Il y a beaucoup à retenir du dernier rapport du New York Times sur un mémo interne envoyé par le responsable de la réalité virtuelle et de l’AR de Facebook, Andrew Bosworth, concernant l’influence de Facebook sur le comportement des électeurs et les changements sociétaux.
Bosworth est une figure de haut niveau au sein de The Social Network, ayant d’abord travaillé comme ingénieur en 2006, avant de diriger les produits publicitaires mobiles de la plate-forme de 2012 à 2017, à son poste de direction actuel. En tant que tel, « Boz » a eu un siège au premier rang pour voir la montée en puissance de l’entreprise, et en particulier, compte tenu de sa position à l’époque, pour voir comment les publicités Facebook ont influencé (ou pas) l’élection présidentielle américaine de 2016.
Et Boz dit que les publicités Facebook ont effectivement influencé le résultat de 2016, mais pas de la manière la plus suspecte.
En résumé, voici quelques-uns des points clés que Bosworth aborde dans son long article (qu’il a depuis publié sur son profil Facebook), et sa position sur chacun d’eux:
- Ingérence de la Russie dans les élections de 2016 – Bosworth dit que cela s’est produit, mais que les fermes de trolls russes n’ont pas eu d’impact majeur sur le résultat final des élections
- Désinformation politique – Bosworth dit que la plupart des fausses informations dans la campagne de 2016 provenaient de ples personnes «sans aucun intérêt politique» qui cherchaient à générer du trafic vers «des sites Web chargés de publicités en créant de faux titres et qui l’ont fait pour gagner de l’argent». La désinformation des candidats, dit Boz, n’était pas un facteur important
- Cambridge Analytica – Bosworth dit que Cambridge Analytica était un « non-événement » et que la société était essentiellement un groupe de « vendeurs d’huile de serpent » qui n’avait aucune influence réelle, ni aucune capacité pour cela. « Les outils qu’ils utilisaient ne fonctionnaient pas et l’échelle à laquelle ils les utilisaient n’était pas significative. Toutes les affirmations qu’ils ont faites sur eux-mêmes sont des ordures. «
- Filtrer les bulles – Bosworth dit que, le cas échéant, les utilisateurs de Facebook voient le contenu de plus de sources sur un sujet, pas moins. Le problème est, selon Boz, qu’une plus grande exposition à des perspectives différentes pousse les gens à s’éloigner davantage: « Que se passe-t-il lorsque vous voyez plus de contenu de personnes avec lesquelles vous n’êtes pas d’accord? Cela vous aide-t-il à faire preuve d’empathie avec eux comme tout le monde l’a été? suggérant? Non. Cela fait que vous ne les aimez pas encore plus. »
Mais malgré le rejet de tous ces facteurs, Bosworth dit que Facebook est responsable du résultat des élections de 2016:
« Alors Facebook était-il responsable de l’élection de Donald Trump? Je pense que la réponse est oui, mais pas pour les raisons que quiconque pense. Il n’a pas été élu à cause de la Russie, de la désinformation ou de Cambridge Analytica. Il a été élu parce qu’il a dirigé la meilleure campagne publicitaire numérique que j’ai jamais vue de la part d’un annonceur. Période. »
Bosworth dit que l’équipe Trump a simplement mené une meilleure campagne, sur la plate-forme où plus de gens reçoivent maintenant leur contenu d’actualité.
« Ils ne diffusaient pas de désinformation ou de canulars. Ils ne faisaient pas de micro-ciblage ou ne disaient pas des choses différentes à différentes personnes. Ils utilisaient simplement les outils dont nous disposions pour montrer la bonne création à chaque personne. L’utilisation d’audiences personnalisées, de vidéos, de commerce électronique et à mon avis, la nouvelle création reste le filigrane des campagnes publicitaires numériques. «
Le résultat final, dit Bosworth, ne s’est pas produit parce que les gens sont polarisés par l’algorithme du fil d’actualité leur montrant plus de ce avec quoi ils sont d’accord (et moins de ce qu’ils ne font pas), ni par le neuro-ciblage complexe des publicités basées sur les peurs inhérentes aux gens. Toute division sociétale ultérieure que nous constatons actuellement et qui pourrait survenir à cause des algorithmes de Facebook est due au fait que ses systèmes « exposent principalement les désirs de l’humanité elle-même, pour le meilleur ou pour le pire « .
«Dans ces moments-là, les gens aiment suggérer que nos consommateurs n’ont pas vraiment de libre arbitre. Les gens comparent les médias sociaux à la nicotine. […] Pourtant, même si Facebook n’est peut-être pas de la nicotine, je pense que c’est probablement comme le sucre. Le sucre est délicieux et pour la plupart d’entre nous, il y a une place spéciale dans notre vie. Mais comme toutes choses, il bénéficie de la modération. «
La position finale de Boz ici est que les gens devraient être en mesure de décider eux-mêmes de la quantité de «sucre» qu’ils consomment.
« … chacun de nous doit prendre ses responsabilités. Si je veux manger du sucre et mourir prématurément, c’est une position valable. «
Donc, si les utilisateurs de Facebook choisissent de se polariser avec le contenu disponible sur sa plateforme, c’est leur choix.
La position est très similaire à la position du PDG de Facebook, Mark Zuckerberg, sur les publicités politiques, et ne les soumet pas à des vérifications des faits:
« Les gens devraient pouvoir voir par eux-mêmes ce que disent les politiciens. Et si le contenu est digne d’intérêt, nous ne le retirerons pas non plus, même s’il entrerait autrement en conflit avec bon nombre de nos normes. «
Fondamentalement, Facebook dit qu’il n’a aucun intérêt réel dans ce domaine, qu’il s’agit simplement d’une plate-forme de partage d’informations. Et si les gens tirent quelque chose de cette expérience, et qu’ils reviennent plus souvent en conséquence, c’est à eux de réglementer la quantité qu’ils consomment.
Comme indiqué, il y a beaucoup de choses à considérer ici – et il convient de souligner que ce ne sont que les opinions de Bosworth, et qu’elles ne sont pas nécessairement représentatives de la position de l’entreprise Facebook de manière plus générale, bien qu’elles s’alignent sur d’autres divulgations de l’entreprise sur ces questions.
Il est intéressant de noter, en particulier, le rejet par Boz des bulles de filtre, qui sont considérées par la plupart comme un élément clé de l’influence politique ultérieure de Facebook. Bosworth dit que, contrairement à l’opinion populaire, Facebook expose en fait les utilisateurs à beaucoup plus de sources de contenu qu’ils n’en auraient vu avant Internet.
« Demandez-vous combien de journaux et de programmes d’information les gens lisent / regardent avant Internet. Si vous avez deviné «un et un» en moyenne, vous avez raison, et si vous avez deviné que ceux-ci étaient idéologiquement alignés avec eux, vous avez à nouveau raison. Internet les expose à beaucoup plus de contenu provenant d’autres sources (26% de plus sur Facebook, selon nos recherches). «
COO de Facebook Sheryl Sandberg a cité cette même recherche en octobre de l’année dernière, notant plus précisément que 26% des nouvelles que les utilisateurs de Facebook voient dans leurs représentent «un autre point de vue».
Donc, comprendre que Facebook est capable de radicaliser les utilisateurs en alignant leur flux avec leurs vues établies est imparfait, du moins selon cette idée – mais là encore, fournir plus de sources permet sûrement aussi aux utilisateurs de choisir les éditeurs et les pages qu’ils acceptent. avec, et ensuite suivre, qui doit finalement influencer leur opinion à travers un flux constant de contenu à partir d’un plus grand ensemble de pages politiquement alignées, renforçant leur perspective.
En fait, cette conclusion semble largement erronée. Le fil d’actualité de Facebook ne vous montre pas un assortiment aléatoire de contenu provenant de différentes sources, il vous montre les publications des pages que vous suivez, ainsi que le contenu partagé par vos connexions. Si vous êtes connecté à des personnes qui publient des choses que vous n’aimez pas ou avec lesquelles vous n’êtes pas d’accord, que faites-vous? Vous les coupez ou vous les supprimez en tant que connexions. En ce sens, il semble impossible que Facebook puisse exposer à tous ses utilisateurs une vision plus équilibrée de chaque sujet, basée sur une plus grande variété d’entrées.
Mais là encore, vous êtes susceptible de voir le contenu d’un mélange généralement plus large d’autres pages de votre flux, en fonction de ce que vos amis ont aimé et partagé. Si Facebook utilise cela comme proxy, il semble logique que vous voyiez le contenu d’un plus large éventail de pages différentes, mais peu d’entre elles s’aligneront probablement sur les mouvements politiques. Il se peut aussi, comme c’est le cas avec la plupart des plateformes sociales, qu’un petit nombre d’utilisateurs ait une influence démesurée sur de telles tendances – alors que, en moyenne, plus de gens pourraient voir une plus grande variété de contenu dans l’ensemble, les quelques utilisateurs actifs qui partagent certaines perspectives pourraient avoir plus de poids dans l’ensemble.
Il est difficile de tirer des conclusions significatives sans la recherche interne, mais il semble que cela ne peut pas être correct, que les utilisateurs ne peuvent pas être exposés à plus de perspectives sur une plate-forme qui vous permet, si facilement, de bloquer d’autres perspectives, et suivez les pages qui renforcent votre position.
Cela semble toujours être le plus gros problème, que les utilisateurs de Facebook puissent choisir ce qu’ils veulent croire et construire leur propre écosystème autour de cela. Un niveau de responsabilité, bien sûr, revient également aux éditeurs qui partagent des perspectives plus conflictuelles, biaisées et partisanes, mais ils le font sans doute parce qu’ils savent que cela suscitera un débat, car cela suscitera des commentaires et des partages et conduisent à une distribution plus poussée de leurs publications, ce qui leur permet de gagner plus de trafic sur le site. Parce que Facebook, via son algorithme, a fait de cet engagement une mesure clé pour générer une portée maximale à travers son réseau.
Facebook pourrait-il vraiment avoir ce niveau d’influence sur les décisions des éditeurs?
Considérez ceci – en 2018, Facebook a dépassé les journaux imprimés en tant que source de contenu d’actualité aux États-Unis.
Facebook a clairement le pouvoir d’influencer les décisions éditoriales – alors même si Facebook peut dire que ce n’est pas sur eux, qu’ils n’ont aucune influence sur ce que les gens pensent ou les nouvelles qu’ils choisissent de croire, cela pourrait sans doute être blâmé. la polarisation initiale de la couverture médiatique en premier lieu, et cela seul aurait pu conduire à une division sociétale plus importante.
Mais vraiment, ce que dit Boz est probablement juste. L’ingérence russe a peut-être poussé quelques électeurs un peu plus dans une certaine direction, la désinformation des politiciens, en particulier, est probablement moins influente que les mèmes aléatoires de pages partisanes. Les gens ont longtemps remis en question les véritables capacités de Cambridge Analytica et de son profil d’audience psychographique, tandis que les bulles de filtre, comme indiqué, semblent avoir eu un impact, mais peut-être moins que ce que nous pensons.
Mais cela ne signifie pas nécessairement que Facebook n’a aucune responsabilité à assumer. De toute évidence, compte tenu de son influence et de la détérioration de l’état du débat politique, la plateforme joue un rôle en poussant davantage les gens vers la gauche ou la droite respectivement.
Se pourrait-il que les algorithmes de Facebook aient simplement changé la façon dont le contenu politique est couvert par les médias, ou que le fait de donner à chaque personne une voix a conduit plus de gens à exprimer leurs croyances, ce qui a réveillé une division existante dont nous n’étions tout simplement pas conscients auparavant?
Cela pourrait alors sans doute alimenter plus de division de toute façon – si vous voyez que votre frère, par exemple, a pris une position qui s’oppose à la vôtre, vous êtes plus susceptible de reconsidérer votre propre position en fonction de celle de quelqu’un que vous respectez.
Ajoutez à cela la ruée vers la dopamine addictive d’auto-validation qui provient des J’aime et des commentaires, ce qui incite à un partage plus personnel de ces derniers, et peut-être que Boz a raison. Peut-être que Facebook est simplement du «sucre», et nous n’avons que nous-mêmes à blâmer de revenir pour plus.