Vous lisez

Un sondage interne sur Facebook montre un déclin du sentiment du personnel quant à savoir si la plate-forme est «  bonne pour le monde  »

Réseaux sociaux

Un sondage interne sur Facebook montre un déclin du sentiment du personnel quant à savoir si la plate-forme est «  bonne pour le monde  »

Dans ce qui a été une période difficile pour Facebook, au cours de laquelle il a été confronté à divers problèmes liés à la désinformation politique, aux théories du complot, au contenu anti-vax, aux discours de haine, à la gestion de son personnel de modération, aux questions concernant les restrictions régionales des données, les enquêtes antitrust, etc. . Dans ce contexte, et au milieu des restrictions en cours de la pandémie de COVID-19, Facebook a continué à mettre en œuvre de nouvelles mesures et de nouveaux systèmes pour lutter au mieux ses problèmes les plus urgents.

Mais en a-t-il assez fait? Et au fur et à mesure que de plus en plus de ces problèmes sont identifiés, une question clé que beaucoup se posent maintenant est: «Facebook est-il bon pour la société?

La réponse, de plus en plus, semble être non, mais dans ce qui peut être un aperçu plus révélateur, une enquête interne récente du Réseau social a révélé que le personnel de l’entreprise, qui a généralement été positif quant à l’impact de la plate-forme, commence maintenant à augmenter plus de questions sur ses effets plus larges.

Tel que rapporté par BuzzFeed News:

« [Facebook’s] Une «enquête Pulse» semestrielle, menée par plus de 49 000 employés pendant deux semaines en octobre, a montré que les travailleurs se sentaient fatigués par les fermetures de bureaux et continuaient de perdre la foi que l’entreprise améliorait le monde. Seuls 51% des répondants ont déclaré croire que Facebook avait un impact positif sur le monde, en baisse de 23 points de pourcentage par rapport au dernier sondage de la société en mai et de 5,5 points de pourcentage par rapport à la même période l’année dernière. « 

C’est une baisse importante, et bien que, comme indiqué, cela diminue depuis un certain temps, les chiffres montrent que même ceux de Facebook, ayant une connaissance intime non seulement des décisions prises, mais aussi des raisons pour lesquelles elles ont été mises en œuvre, remettent maintenant en question le les vraies motivations de l’entreprise.

Des indices similaires ont lentement fui de la part de l’entreprise au cours de l’année écoulée – en septembre, ingénieur Facebook Ashok Chandwaney a quitté l’entreprise pour ne pas avoir répondu aux préoccupations concernant le racisme, la désinformation et les incitations à la violence sur la plate-forme.

«Facebook choisit d’être du mauvais côté de l’histoire», a noté Chandwaney dans une lettre ouverte annonçant sa décision.

Divers autres membres du personnel de Facebook ont ​​également cessé de citer des préoccupations concernant les décisions politiques de l’entreprise, alors que d’anciens Le directeur de la monétisation de Facebook, Tim Kendall, lors d’un témoignage devant le Congrès, a souligné d’importantes lacunes dans les motivations et l’approche de l’entreprise, notant que:

« Facebook et leurs cohortes adorent à l’autel des fiançailles et écartent toutes les autres préoccupations, élevant les voix de la division, de la colère, de la haine et de la désinformation pour étouffer les voix de la vérité, de la justice, de la moralité et de la paix. « 

Ce qui a été l’une des principales préoccupations soulevées par Facebook, à savoir qu’il n’a aucun intérêt réel à réprimer les discours de haine dangereux et qui divisent parce qu’ils suscitent des débats et des interactions, et cet engagement est ce qui incite les gens à revenir.

Même s’ils sont en colère. Même si de tels débordements se retrouvent dans des incidents du monde réel.

Et il y a des exemples clairs de cela – prenez QAnon, par exemple, un dangereux groupe de conspiration répandant des colporteurs de désinformation, de formes diverses, qui sont depuis des années liés à de nombreux cas de violence dans le monde réel. Une enquête interne menée par Facebook plus tôt cette année et divulguée par Actualités NBC, a constaté que la plate-forme avait fourni un foyer à des milliers de groupes et de pages QAnon, avec des millions de membres et d’abonnés.

Les experts avaient mis Facebook en garde contre QAnon et les risques qu’il posait depuis 2016, mais ce n’est que maintenant, le mois dernier, que Facebook a finalement agi et pris des mesures pour éliminer complètement QAnon de ses réseaux.

Pourquoi a-t-il fallu si longtemps? Les avertissements sont là depuis des années, mais Facebook a refusé d’agir.

Les anti-vaxxers sont également une préoccupation notée sur Facebook depuis longtemps, le réseau social ayant finalement commencé à prendre des mesures plus énergiques contre ces problèmes en mars de l’année dernière. Le discours de haine sur la plate-forme est un autre problème majeur, qui a déclenché le boycott publicitaire de Facebook en juillet, mené par des leaders des droits civiques. Jusqu’à présent, Facebook a refusé de mettre à jour ses politiques à ce sujet.

Compte tenu des diverses considérations, il est difficile de conclure autre chose que Facebook refuse d’agir parce qu’il profite de l’engagement.

En effet, dans ses commentaires supplémentaires au Congrès, Kendall a déclaré que:

« Il n’y a aucune incitation à arrêter [toxic content] et il y a une incitation incroyable à continuer et à aller mieux. Je ne pense tout simplement pas que cela changera à moins que des sanctions financières, civiles ou pénales ne soient associées au préjudice qu’elles créent. Sans application de la loi, ils continueront simplement à être embarrassés par les erreurs, et ils parleront de platitudes vides … mais je ne crois pas que quelque chose de systémique changera … les incitations à maintenir le statu quo sont simplement trop lucrative pour le moment. « 

L’engagement, dit Kendall, guide toutes les décisions chez Facebook, sans tenir compte des dommages potentiels causés. En effet, le PDG de Facebook, Mark Zuckerberg, a déclaré à plusieurs reprises qu’il préférerait que l’entreprise ne prenne pas de décisions de modération, laissant plutôt ses utilisateurs décider de ce qui est acceptable, sous l’égide de la liberté d’expression.

Selon le discours de Zuckerberg à Université de Georgetown en octobre de l’année dernière:

« Je crois qu’il faut donner la parole aux gens parce qu’en fin de compte, je crois aux gens. Et tant que nous sommes assez nombreux à continuer à nous battre pour cela, je crois que la voix de plus de gens nous aidera à résoudre ces problèmes ensemble et écrivez un nouveau chapitre de notre histoire – où, à partir de toutes nos voix et perspectives individuelles, nous pouvons rapprocher le monde. « 

Ce qui met en évidence le défaut de l’approche de Zuckerberg, qu’il se trompe du côté de l’optimisme, plutôt que de regarder la réalité.

Est-ce à cause de la croyance déclarée de Zuckerberg en la liberté d’expression, ou est-ce parce que Facebook, son entreprise, en profite?

De son côté, Facebook a tracé à plusieurs reprises la ligne «nous ne profitons pas de la haine».

Mais est-ce vrai? Et lorsque vous examinez ces divers éléments et préoccupations dans leur ensemble, Facebook devrait-il faire plus pour répondre à ces préoccupations?

Facebook est-il bon pour la société?

Cela semble être une question clé qui sera à nouveau examinée de plus près à la suite des élections américaines. Mais il est clair que même ceux qui sont impliqués dans les décisions de l’entreprise commencent à réfléchir à ses impacts plus larges.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.