Vous lisez

Zuckerberg affirme que les récents changements de politique ne reflètent pas un changement d’approche sur Facebook

Réseaux sociaux

Zuckerberg affirme que les récents changements de politique ne reflètent pas un changement d’approche sur Facebook

Malgré des décisions récentes indiquant potentiellement le contraire, il semble que Facebook n’ait pas changé d’avis en ce qui concerne l’hébergement de contenu dangereux et diviseur sur sa plate-forme.

Au cours des dernières semaines, Facebook a annoncé des changements de politique importants qui semblaient aller dans le sens de répondre aux préoccupations de longue date concernant le rôle de la plate-forme dans la facilitation de la propagation de la désinformation nuisible et des discours de haine.

  • Le 7 octobre, Facebook a annoncé une interdiction totale du contenu lié à QAnon, y compris les groupes Pages et les comptes qui représentaient la théorie controversée du complot.
  • Le 12 octobre, la plate-forme a annoncé une interdiction du contenu de la négation de l’Holocauste, renversant l’une des positions les plus controversées de la société.
  • Le 13 octobre, Facebook a mis en œuvre une nouvelle interdiction des publicités anti-vax, élargissant les mesures précédentes pour supprimer le contenu anti-vax.

En combinaison et en une succession si rapide, il semblait que Zuck and Co.avait peut-être tourné une nouvelle page et que Facebook commençait peut-être à réaliser ce que de nombreux analystes avaient mis en garde – que sa plate-forme pouvait causer des conséquences significatives, réelles. nuire au monde en permettant à ces mouvements de se propager et d’atteindre un public plus large.

Apparemment, cet optimisme n’était pas fondé – comme le rapporte BuzzFeed News, Zuckerberg a récemment informé les employés de Facebook lors d’une réunion à l’échelle de l’entreprise que la logique derrière ses derniers changements de politique était uniquement liée à la possibilité d’une réaction violente à la suite de l’élection présidentielle américaine. Ce n’est pas, dit Zuckerberg, le reflet d’un changement d’approche plus large.

Selon Zuckerberg:

«Une fois que nous aurons passé ces événements et que nous les aurons résolus pacifiquement, je ne m’attendrais pas à ce que nous continuions à adopter beaucoup plus de politiques qui restreignent beaucoup plus de contenu.»

Selon le rapport, Zuckerberg a cherché à réitérer en outre que les changements ne modifieraient pas l’approche de Facebook et ne concernent que la période électorale.

Certains ont également suggéré que les changements sont conformes aux prévisions selon lesquelles Biden pourrait remporter la présidence, Facebook cherchant à anticiper le changement en alignant davantage ses politiques sur une approche plus progressive.

Non, dit Zuck:

« Cela ne reflète pas un changement dans notre philosophie sous-jacente ou un soutien ferme à la liberté d’expression. Ce que cela reflète, à notre avis, c’est un risque accru de violence et de troubles, en particulier autour des élections, et un risque accru de blessures physiques, en particulier autour de le moment où nous prévoyons que les vaccins COVID seront approuvés au cours des prochains mois. »

Donc, pas de changement par rapport à Facebook – il est toujours généralement ouvert à la facilitation de la propagation des complots et de la désinformation, tant que les gens le font dans le respect des règles générales de la plate-forme.

Ceci malgré des rapports suggérant que la plate-forme est un facilitateur clé de la désinformation sur la santé, un hub central permettant la croissance de QAnon et un outil de recrutement et d’organisation de base pour les suprémacistes blancs. Facebook a entendu ces préoccupations pendant des années, et il semblait que, peut-être, finalement, il cherchait à agir.

Selon Zuckerberg, ce n’est pas le cas.

La façon dont vous voyez cette position dépendra de votre point de vue personnel – d’une part, Facebook ne veut pas être «  l’arbitre de la vérité  » et préférerait laisser les gens discuter de ce qu’ils veulent, la foule dictant essentiellement ce qui est acceptable et ce qui n’est pas pour eux-mêmes.

Facebook a longtemps soutenu qu’il ne devrait pas être l’arbitre dans de tels débats – et que vraiment, cela ne peut pas être, c’est pourquoi il est en train de mettre en place un nouveau conseil de surveillance du contenu pour statuer sur des violations et des décisions spécifiques, en tenant compte hors des mains du personnel interne.

Zuckerberg a soutenu qu’il préférerait autoriser autant que possible la liberté d’expression et que Facebook n’interviendra qu’en cas de risque de préjudice imminent. Ce qui, d’un point de vue commercial, a du sens – plus Facebook autorise de discours, plus il peut héberger de discussions, plus il voit d’engagement, plus d’utilisation, etc. Facebook préférerait évidemment que plus de personnes utilisent ses plates-formes plus souvent et plus les limites autour de ce qui est acceptable limiteront cela.

D’un point de vue commercial, Facebook préférerait laisser tout le monde avoir son mot à dire, peu importe ce que cela veut dire. Mais il y a une question autour du qualificatif de préjudice «  imminent  » et de ce que cela signifie réellement dans le contexte de l’autorisation de certaines conversations sur la plate-forme.

QAnon est un bon exemple – Facebook autorise depuis longtemps les discussions liées à QAnon en dépit d’être averti des dangers, car il n’a constaté aucun dommage immédiat lié à de tels dangers. Jusqu’à récemment – mais de nombreux autres ont alerté Facebook du danger potentiel il y a des années. Donc, «imminent» dans ce contexte est relatif. Un autre exemple pourrait être le changement climatique – Facebook autorise toujours le contenu de déni du changement climatique, malgré des preuves scientifiques claires montrant que l’inaction entraînera des dommages importants à long terme, ce que Facebook lui-même a enfin reconnu à travers ses propres initiatives climatiques.

Est-ce un préjudice «imminent»? Selon la plupart des définitions, probablement pas, mais rétrospectivement, quand les choses tournent mal, nous verrons peut-être les choses différemment.

La ligne, alors, se résume à la façon dont vous visualisez chaque élément. QAnon n’a pas posé de risque imminent aux yeux de Facebook, jusqu’à ce que ce soit le cas – mais Facebook a-t-il attendu trop longtemps pour agir, les dommages causés par le groupe, aidé par la plate-forme, étant déjà faits? Les anti-vaxxers ont été autorisés à diffuser leurs messages sur le réseau social depuis des années, au point que les autorités sanitaires craignent désormais que l’efficacité d’un vaccin COVID-19 ne soit entravée par la montée du sentiment anti-vaccination.

Maintenant, ce risque est «  imminent  », mais uniquement parce que Facebook a permis à cette discussion de s’épanouir.

Alors, comment décidez-vous de ce qui est «imminent» ou de ce qui sera un risque «imminent» à l’avenir, en fonction des tendances actuelles? Le Content Oversight Board de Facebook équipera-t-il mieux la plateforme pour faire face à de tels éléments?

Ce qui semble clair maintenant, c’est que Facebook n’a pas l’intention de changer son approche, ce qui signifie qu’il continuera à poser un risque. Mais la décision sur ce qui est et n’est pas un danger imminent n’est pas non plus claire.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.