À l’approche de l’élection présidentielle américaine de 2024 et de divers autres sondages en cours dans le monde, Meta étend son programme de vérification des faits pour couvrir également le contenu de Threads, alors qu’il continue de voir de plus en plus d’utilisation dans son application clone Twitter.

Selon Meta :

« Au début de l’année prochaine, nos partenaires tiers de vérification des faits seront en mesure d’examiner et d’évaluer les faux contenus sur Threads. Actuellement, lorsqu’un vérificateur de faits évalue un élément de contenu comme faux sur Facebook ou Instagram, nous étendons cette évaluation à un contenu presque identique sur Threads, mais les vérificateurs de faits ne peuvent pas évaluer le contenu de Threads par eux-mêmes.

Comme indiqué, compte tenu de l’utilisation croissante de Threads, il s’agit d’une étape nécessaire. L’application compte déjà plus de 100 millions d’utilisateurs, et apparemment beaucoup plus arrivent sur l’application semaine après semaine, à mesure que de nouvelles fonctionnalités sont déployées et que de plus en plus de nouvelles communautés commencent à prendre forme au sein de l’écosystème Threads.

Sur ce front, Meta a fait un grand pas en avant auprès des communautés sportives, ce qui lui a permis de prendre de l’ampleur auprès des fans de la NBA, en particulier avec le récent tournoi In-Season marquant une étape clé pour l’engagement de la NBA via Threads.

Mais plus cette utilisation augmente, plus le risque de désinformation et de préjudice augmente, c’est pourquoi Meta doit étendre son processus de vérification des faits pour couvrir le contenu unique de Threads, ainsi que les publications en double dans ses autres applications.

En plus de cela, les utilisateurs de Threads auront également bientôt plus de contrôle sur la quantité de contenu sensible auquel ils sont exposés dans l’application :

«Nous avons récemment donné Les utilisateurs d’Instagram et de Facebook disposent de davantage de contrôles, leur permettant de décider de la quantité de contenu sensible ou, s’ils sont aux États-Unis, de la quantité de contenu vérifié qu’ils voient sur chaque application. Conformément à cette approche, nous introduisons également ces contrôles dans Threads pour donner aux utilisateurs aux États-Unis la possibilité de choisir s’ils souhaitent augmenter, diminuer ou maintenir le niveau par défaut de rétrogradation sur le contenu vérifié dans leur flux. S’ils choisissent de voir du contenu moins sensible sur Instagram, ce paramètre sera également appliqué sur Threads.

La vérification des faits est devenue un sujet plus controversé cette année, le propriétaire de X, Elon Musk, qualifiant une grande partie de la vérification des faits effectuée par les plateformes de médias sociaux de « censure gouvernementale » et la considérant comme faisant partie d’un complot plus large visant à « contrôler le récit ». et limiter la discussion sur certains sujets.

Ce qui n’est pas vrai, ni correct, et tous les différents rapports commandés par Musk sur l’ingérence présumée du gouvernement sur Twitter 1.0 ne se sont pas réellement révélés refléter une censure à grande échelle, comme cela a été suggéré.

Mais dans le même temps, un certain niveau de vérification des faits est nécessaire pour empêcher la propagation de fausses informations nuisibles. Parce que lorsque vous êtes à la tête d’une plateforme capable d’amplifier ces phénomènes auprès de millions, voire de milliards de personnes, vous avez la responsabilité de mesurer et d’atténuer ces dommages, lorsque cela est possible.

C’est un aspect plus préoccupant de certains des changements apportés par Musk à l’application, notamment la réintégration de divers colporteurs de désinformations nuisibles sur la plateforme, où ils peuvent désormais diffuser à nouveau leurs fausses informations.

En 2016, à la suite de l’élection présidentielle américaine de cette année-là, il semblait y avoir enfin une certaine reconnaissance de l’impact des médias sociaux et de la façon dont les mouvements des médias sociaux peuvent influencer les résultats du vote et peuvent donc être manipulés par des personnes mal intentionnées. groupes.

Il y a eu des campagnes de manipulation russes pour l’un d’entre eux, mais d’autres groupes ont également pu se coordonner et proliférer via des applications sociales, notamment Q Anon, The Proud Boys, Groupes « Boogaloo »et plus.

Nous avons ensuite également assisté à la montée de mouvements anti-scientifiques, comme les partisans de la Terre plate et les anti-vaccins, ces derniers conduisant même à une résurgence de maladies longtemps dormantes dans les pays occidentaux.

Après les élections, des efforts concertés ont été déployés pour lutter contre ces groupes à tous les niveaux et lutter contre la propagation de la désinformation via les applications sociales. Mais aujourd’hui, huit ans plus tard et à l’aube d’une nouvelle période électorale aux États-Unis, Elon Musk tend une fois de plus le micro à nombre d’entre eux, ce qui devrait semer le chaos à l’approche des prochaines élections.

Le résultat final sera que la désinformation jouera à nouveau un rôle important dans le prochain cycle électoral, car ceux qui sont motivés par des agendas personnels et un biais de confirmation utiliseront leurs plateformes renouvelées pour mobiliser leurs partisans et consolider leur soutien grâce à une portée élargie.

Il s’agit d’une situation dangereuse et je ne serais pas surpris si des mesures supplémentaires étaient prises pour y mettre un terme. Apple, par exemple, envisagerait de supprimer X de son App Store après la réintégration par X d’Alex Jones, qui a été banni de toutes les autres plateformes.

Cela semble être une étape logique. Parce que nous connaissons déjà le mal que ces groupes et individus peuvent causer, sur la base de reportages fallacieux et sélectifs et de manipulations délibérées.

Dans cet esprit, il est bon de voir Meta prendre davantage de mesures pour lutter contre ce phénomène, et cela deviendra un problème bien plus important à mesure que nous nous rapprochons de chaque élection dans le monde.

Parce qu’il n’existe pas de « faits alternatifs » et que vous ne pouvez pas simplement « faire vos propres recherches » sur des questions scientifiques plus complexes. C’est pour cela que nous comptons sur nos experts, et même s’il est plus divertissant et engageant de voir tout cela comme une vaste conspiration, pour l’essentiel, il est très, très improbable que ce soit le cas.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.