Réseaux sociaux

Facebook annonce de nouvelles mesures pour réprimer le contenu volé et les fausses informations

Comme Facebook l’a déclaré à plusieurs reprises, ce n’est pas une entreprise de médias, c’est pourquoi elle ne veut vraiment pas se lancer dans la pratique de supprimer les faux reportages et contenus – essentiellement une fonction éditoriale.

Mais Facebook souhaite nettoyer sa plate-forme pour garantir la meilleure expérience utilisateur possible, tout en réduisant le potentiel d’utilisation de sa plate-forme à des fins d’influence politique. Ainsi, bien que The Social Network n’interdise pas (encore) les pages partageant du contenu contesté, il va commencer à mettre en œuvre de nouvelles mesures pour réprimer deux éléments spécifiques de gêne et/ou de préoccupation.

Tout d’abord, Facebook va jouer un rôle plus proactif dans l’arrêt de la propagation de la désinformation politique pour les États-Unis à mi-parcours en ce qui concerne prouvable la manipulation des électeurs en particulier.

Tel que rapporté par Reuters :

« Facebook interdira les fausses informations sur les conditions de vote et vérifiera les faux rapports de violence ou de longues files d’attente dans les bureaux de vote avant les élections de mi-mandat américaines du mois prochain. »

Ce n’est pas exactement une influence éditoriale sur le contenu de sa plate-forme, et Facebook a défini des paramètres très clairs sur le fonctionnement du processus (ce qui réduit également la charge de travail pour Facebook). Mais cela permettra à Facebook d’exercer un certain contrôle sur une telle désinformation – alors qu’il peut y avoir un débat sur qui décide ce qui est une fausse nouvelle et ce qui ne l’est pas, Facebook peut sévir contre les informations vérifiables pour s’assurer qu’elles diminuent leur contribution potentielle aux impacts politiques.

Il sera intéressant de voir quel sera le résultat de tels efforts – il n’y a bien sûr aucun moyen de prouver définitivement l’influence de Facebook ou de tout réseau social sur le comportement des électeurs. Mais avec des rapports de tactiques de suppression d’électeurs déjà en jeu, la diffusion de tels rapports pourrait être importante. Facebook ne veut peut-être pas contrôler ce qui est vrai et ne l’est pas dans un sens plus large, mais il fait quoi pour s’assurer que ses utilisateurs sont informés avec des rapports précis et exploitables.

En plus de cela, Facebook a également annoncé une nouvelle mise à jour de l’algorithme du fil d’actualité qui rétrogradera les liens vers des sites qui republient et redistribuent du contenu sans autorisation, et inonderont ces pages de publicités.

Comme expliqué par Facebook :

« À partir d’aujourd’hui, nous déployons une mise à jour afin que les gens voient moins de publications qui renvoient vers des sites de mauvaise qualité qui copient et republient principalement le contenu d’autres sites sans fournir de valeur unique. »

Selon TechCrunch, Facebook rattrapera les sites qui publient du contenu en double en mettant en œuvre un nouveau système qui comparera le contenu textuel principal d’une page avec tout autre contenu textuel pour trouver des correspondances potentielles. C’est un système similaire, bien que moins technique, au processus de détection de contenu en double de Google, qui rétrograde les pages dans les résultats de recherche où un conflit est détecté.

Comme indiqué, les deux modifications offrent une flexibilité accrue à Facebook pour commencer à supprimer le contenu douteux de son réseau. Ce n’est pas une licence éditoriale, Facebook ne fait aucun appel sur ce qui est et n’est pas vrai en termes généraux. Mais cela donne à Facebook quelques mesures supplémentaires pour choisir ce qu’il autorise sur sa plate-forme.

Est-ce un autre pas vers un contrôle éditorial total par Facebook ? Pas vraiment, mais là encore, les résultats des prochains mandats, et le débat qui a suivi sur le rôle de Facebook, pourraient déterminer si Zuck and Co. doit franchir cette prochaine étape. Si des groupes à motivation politique inondent le réseau en amont, avec des rapports clairement faux et facilement vérifiables, et que l’on pense que cela a influencé les électeurs, Facebook peut être contraint de prendre des mesures.

Mais si ses mesures nouvellement introduites, y compris les outils de transparence des publicités, la vérification des faits par des tiers sur certains rapports, les restrictions sur les « problèmes de publicités », etc. Si ces mesures fonctionnent, et qu’il n’est pas question de l’influence de Facebook dans le vote, cela peut être suffisant.

Ce sera certainement une critique intéressante dans le lavage.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.