Réseaux sociaux Stratégie digitale

Facebook met en œuvre de nouvelles règles et processus pour arrêter la diffusion de contenu préjudiciable

Il n’y a pas moyen de le contourner – Facebook, avec ses 2,3 milliards d’utilisateurs actifs, est devenu la plate-forme la plus influente et la plus influente sur Internet, et peut-être le moteur d’interaction humaine le plus important de tous les temps.

Bien sûr, d’autres plates-formes comme Google et YouTube peuvent voir des chiffres de trafic comparatifs, mais aucune d’elles ne facilite l’intimité de la communication personnelle comme Facebook, ce qui est extrêmement puissant. Les gens font plus confiance aux informations et aux opinions partagées par leurs amis et leur famille que toute autre chose, et le réseau social fournit le cadre pour une telle échelle, ce qui donne à Zuck and Co. un pouvoir et une surveillance immenses – ce qui est inquiétant, beaucoup l’ont fait valoir. Ce pouvoir s’accompagne également d’un énorme niveau de responsabilité, qui, depuis l’élection présidentielle américaine de 2016, a été clairement établi.

Maintenant, même Mark Zuckerberg lui-même demande de l’aide pour gérer cela, mais Facebook sait également que le processus réglementaire prend du temps. Il prend donc ses propres mesures – cette semaine, Facebook a annoncé une série de nouveaux changements de règles et d’outils conçus pour limiter davantage l’utilisation de sa plate-forme pour partager des informations erronées et du contenu potentiellement dangereux.

Ils ne résoudront pas tout – ils n’arrêteront pas complètement le partage de contenu qui divise et offensant sur Facebook – votre oncle mal informé sera toujours en mesure de lancer des théories du complot basées sur des informations largement sélectives. Mais ces étapes sont importantes – peut-être les actions les plus importantes et potentiellement significatives de Facebook à ce jour.

Voici ce qui a été annoncé.

Lutter contre le partage de groupe

Au cours des deux dernières années, Facebook a encouragé une plus grande utilisation des groupes, répondant au nombre croissant de conversations passant du fil d’actualité principal vers des espaces plus privés.

Cette tendance a été particulièrement perceptible dans l’augmentation de l’utilisation de la messagerie – les consommateurs devenant de plus en plus méfiants à l’égard du public, la nature enregistrée en permanence du partage de flux principal et les impacts potentiels que cela peut avoir sur, par exemple, vos futures perspectives de carrière, un nombre croissant de les gens ont cherché des espaces alternatifs et clos pour discuter et partager, sans craindre le même recours potentiel.

Les cyniques ont également suggéré que les groupes de Facebook poussent peut-être à déplacer le contenu de l’œil du public – si Facebook ne peut pas empêcher les gens de partager du contenu offensant et qui divise, au moins le déplacer dans des groupes privés le rend moins visible et réduit l’examen minutieux de la plate-forme. . Cela signifie qu’un tel contenu est toujours partagé, qu’il alimente toujours les mouvements, mais comme nous sommes moins exposés, cela semble moins un problème. Essentiellement, la suggestion est que Facebook a, à certains égards, vu cela comme une opportunité de balayer ces préoccupations sous le tapis et de continuer, comme si de rien n’était.

Mais Facebook prend des mesures – dans le cadre de ses mesures de détection en constante évolution, Facebook dit qu’il peut déjà « détecter de manière proactive de nombreux types de contenu non conforme publiés dans des groupes avant que quiconque ne le signale « qu’il soit publié en public, fermé ou secret groupes.

En plus de cela, la nouvelle réglementation de Facebook le verra appliquer des sanctions pour les groupes qui diffusent de la désinformation, même si un tel contenu ne viole pas nécessairement les normes de Facebook.

Si un groupe partage systématiquement des liens vers des sites douteux, comme déterminé par les partenaires de vérification des faits de Facebook, sa portée sera déclassée, tandis que Facebook tiendra également compte des actions des modérateurs de groupe lors de l’évaluation de la sanction d’un groupe.

Comme expliqué par Facebook:

« Dans le cadre de l’Initiative des communautés sûres, nous tiendrons les administrateurs des groupes Facebook plus responsables des violations des normes communautaires. À partir des semaines à venir, lors de l’examen d’un groupe pour décider de le retirer ou non, nous examinerons les violations de contenu des administrateurs et des modérateurs dans ce groupe, y compris les messages des membres qu’ils ont approuvés, comme un signal plus fort que le groupe enfreint nos normes. . « 

Enfin, sur les groupes, Facebook ajoute également une nouvelle fonctionnalité de «  qualité de groupe  » pour les administrateurs, qui fournira un aperçu de tout contenu supprimé et / ou signalé, ainsi qu’une section pour les fausses nouvelles trouvées au sein du groupe. Facebook espère fournir aux administrateurs une vue plus claire des violations des normes communautaires, afin de les garder sur la bonne voie et hors de la prison de Facebook – et s’assurer qu’ils sont informés des contenus qui ne sont pas acceptables sur sa plate-forme.

Ce sont des changements importants et bienvenus pour les groupes – et comme indiqué, ils semblent répondre directement au problème que Facebook utilise ses groupes pour cacher le contenu douteux, au lieu de le supprimer.

Bien sûr, nous devons voir comment cela fonctionne en action avant de pouvoir commencer à tapoter Facebook dans le dos – cela nécessite encore beaucoup de travail de la part des modérateurs de Facebook, qui en ont déjà un tas entre les mains. Mais les règles sont un bon début, et peuvent aider à réduire la toxicité de certains mouvements provenant des entrailles de The Social Network.

Ajout de «  Click-Gap  » comme signal de classement du fil d’actualité

Il s’agit d’une mise à jour majeure – au milieu des diverses critiques du système de Facebook, il est particulièrement difficile de passer sous silence le fait que l’algorithme de Facebook encourage essentiellement les éditeurs à utiliser des titres et des angles diviseurs et partisans afin de susciter plus de débats, plus de commentaires et plus de réactions sur la plateforme.

Plus de réponse de l’audience équivaut à plus de portée dans l’algorithme de fil d’actualité – une histoire intitulée « L’homme tire sur son voisin après un différend » par exemple n’aura pas autant de portée sur Facebook que « l’homme noir tire sur un voisin blanc après un différend ». Ce dernier suscite un débat prolongé, déclenche une réponse plus émotionnelle. Le mécanisme de partage d’algorithmes soutient non seulement cela, il l’encourage, ce qui a conduit davantage d’éditeurs grand public à prendre des positions plus conflictuelles dans leurs rapports, tout en alimentant également une croissance disproportionnée de publications et de sites Web de théoriciens du complot plus petits et de niche, qui sont devenus leurs propres mouvements concernant.

Le plus grand exemple en est le mouvement anti-vax – et bien que Facebook ne puisse être tenu pour seul responsable de cela, il y a clairement eu une augmentation du contenu anti-vax, provenant en grande partie de sites Web et de sources marginaux.

C’est là que cette nouvelle mesure apportera des avantages significatifs.

Afin de mieux qualifier le contenu partagé sur son réseau, Facebook ajoute un nouveau facteur de fil d’actualité appelé «Click-Gap».

Comme expliqué par Facebook:

« Click-Gap, s’appuie sur le graphique Web, une« carte »conceptuelle d’Internet dans laquelle les domaines avec beaucoup de liens entrants et sortants sont au centre du graphique et les domaines avec moins de liens entrants et sortants sont sur les bords. Click-Gap recherche les domaines avec un nombre disproportionné de clics Facebook sortants par rapport à leur place dans le graphique Web. Cela peut indiquer que le domaine réussit sur le fil d’actualité d’une manière qui ne reflète pas l’autorité qu’il a créée à l’extérieur et produit un contenu de mauvaise qualité. « 

Ceci est similaire à la façon dont Google utilise les backlinks et l’autorité de la page dans son classement pour déterminer la confiance et la réputation du site Web – en utilisant Click Gap, Facebook sera désormais en mesure de pénaliser la portée des liens vers des sites Web qui peuvent être populaires sur Facebook, mais ne voient pas le mêmes votes de confiance numériques sur le Web au sens large.

Comme indiqué par Wired:

« Click-Gap pourrait être une mauvaise nouvelle pour les sites marginaux qui optimisent leur contenu pour devenir viral sur Facebook. Certaines des histoires les plus populaires sur Facebook ne proviennent pas de sites grand public qui reçoivent également beaucoup de trafic de recherche ou directement, mais plutôt de petits domaines spécialement conçus pour faire appel aux algorithmes de Facebook. « 

En effet, en regardant les fausses informations les plus partagées sur Facebook en 2018, vous pouvez voir que la grande majorité d’entre elles ne provenaient pas de sources réputées.

Liste des meilleurs faux reportages sur Facebook en 2018

Click-gap cherchera à résoudre ce problème et pourrait avoir un impact significatif, d’autant plus qu’il est intégré à l’algorithme, de sorte qu’il ne repose pas sur une intervention humaine accrue.

Vérification des faits, vérification de l’audience d’Instagram et de Messenger

Facebook a également décrit une série d’autres mesures plus petites pour améliorer le partage de contenu et la sécurité des utilisateurs.

Répondant à la préoccupation notée d’avoir trop de travail pour trop peu de modérateurs, Facebook lance également un nouveau programme pour trouver de nouvelles méthodes pour mieux implémenter la vérification des faits et les rapports de contenu tiers.

« Nous devons trouver des solutions qui soutiennent les rapports originaux, promeuvent des informations fiables, complètent nos programmes de vérification des faits existants et permettent aux gens de s’exprimer librement – sans que Facebook soit le juge de ce qui est vrai. »

L’une des options suggérées est de faire jouer aux utilisateurs un rôle plus important dans ce type de signalement – bien que cela ouvre Facebook à des problèmes supplémentaires d’utilisation abusive. Le PDG de Facebook, Mark Zuckerberg, a déjà appelé à une réglementation gouvernementale accrue dans ce domaine, de sorte que Facebook n’est pas laissé comme seul arbitre de ce qui est vrai, mais il y a encore du chemin à faire sur ce front.

Sur Instagram, Facebook a également commencé à restreindre la portée du contenu potentiellement offensant en vue de mettre en œuvre davantage de contrôle sur ce qui y est partagé.

« Nous avons commencé à réduire la propagation des messages inappropriés mais qui ne vont pas à l’encontre Directives de la communauté d’Instagram, en limitant la recommandation de ces types de messages sur nos pages Explorer et hashtag. « 

Compte tenu de la croissance d’Instagram – et du fait qu’il est largement resté en dehors de la portée des critiques adressées à Facebook pour la même chose – il est important pour The Social Network de répondre de manière proactive à ces préoccupations afin de limiter les impacts potentiels.

Et Facebook déploie également de nouveaux badges de vérification dans Messenger pour arrêter l’usurpation d’identité.

« Cet outil aidera les gens à éviter les escrocs qui se font passer pour des personnes de premier plan en fournissant un indicateur visible d’un compte vérifié. Messenger continue d’encourager utiliser de l’outil d’emprunt d’identité de rapport, introduit en dernier an, si quelqu’un croit interagir avec quelqu’un faire semblant d’être un ami. « 

Il y a un tas de choses à prendre ici – et bien que la plupart, sinon la totalité, de ces mesures aient peu ou pas d’impact sur les spécialistes du marketing numérique, il est important de comprendre comment ces mises à jour pourraient changer la portée et les performances de votre contenu, même, peut-être, en tant que effet secondaire.

Sur Click-Gap, par exemple, il est possible que de nombreux sites Web voient de meilleures performances sur Facebook que d’autres sources et aient moins de liens intersites – et ils pourraient, potentiellement, voir leur portée affectée en conséquence. Ce n’est pas l’intention de la mise à jour, mais comme elle est automatisée, elle pourrait encore limiter les performances de Facebook.

Cela ne veut pas non plus dire que ce sera le cas, mais il est important de prendre note des changements majeurs de Facebook comme ceux-ci et de considérer leurs divers impacts. Dans l’ensemble, ce sont des mesures positives et bienvenues, qui devraient, espérons-le, aider Facebook à réduire la propagation du courrier indésirable. Mais seul le temps nous dira quels seront les véritables impacts.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.