Suite à son annonce récente selon laquelle sa technologie de reconnaissance d’images est désormais capable de détecter le texte dans les photos, Facebook a annoncé qu’il utilisait également de nouveaux systèmes pour transmettre le contenu suspect dans les images et les vidéos aux vérificateurs des faits, élargissant ainsi son programme de vérification des faits. .
Facebook a mis en œuvre pour la première fois son processus de vérification des faits par un tiers en 2016, mais jusqu’à présent, cette initiative s’est uniquement concentrée sur les articles au contenu trompeur. Le problème avec cela est que la désinformation est également de plus en plus partagée dans les images et les vidéos – et avec de nombreux utilisateurs qui forment des opinions basées sur des titres, et en effet, des images isolées, qui peuvent être tout aussi dommageables.
Soulignant cela, Facebook a fourni ces exemples de types de désinformation partagés via le contenu d’images :
Vous avez sans aucun doute vu d’autres variantes de la même chose – en voici une qui a été partagée sur Reddit récemment (pas sur Facebook mais les mêmes sont souvent partagées sur The Social Network).
Les gens partagent un tel contenu en raison de son attrait émotionnel, souvent sans vérifier les détails. Je veux dire, ça a l’air juste, l’image présente apparemment un cas plausible, mais cette fausse représentation peut être dommageable et peut solidifier les théories du complot et les hypothèses incorrectes qui peuvent aider à alimenter des mouvements dommageables.
Ceci est particulièrement pertinent sur Facebook, car l’algorithme du fil d’actualité récompense l’engagement, et les gens sont plus susceptibles de commenter une publication controversée que de partager une publication positive. Cette tendance à exprimer des opinions fortes est ce qui contribue à alimenter les divisions sociétales – l’exemple ci-dessus, par exemple, semble inoffensif, mais en représentant faussement une image d’une fille et de son père soldat, cela renforcerait sans aucun doute le patriotisme et le soutien aux forces armées. . Si un utilisateur devait voir cela, puis voir par la suite un article sur, disons, Colin Kaepernick refusant de défendre l’hymne national, il ne fait aucun doute que sa réponse serait plus forte.
Même dans les détails apparemment plus petits, l’inexactitude peut fausser une perspective plus large, et bien qu’ils soient facilement démystifiés par une simple recherche d’image inversée (comme souligné dans la vidéo de Facebook en haut de cet article), les gens ne le feront pas. Si cela semble plausible et que cela soutient leur point de vue établi, certains utilisateurs le croiront simplement. Parce que pourquoi ne le feraient-ils pas ? Et les générations plus âgées, en particulier, n’ont pas le même scepticisme à l’égard de ce qu’elles voient en ligne que les jeunes utilisateurs.
Et ce n’est pas un sentiment âgiste – la recherche montre que les utilisateurs plus âgés ne sont tout simplement pas aussi conscients des processus et des pratiques des médias sociaux. Par exemple, comment fonctionne l’algorithme de Facebook pour vous montrer plus de ce que vous aimez et avec quoi vous êtes d’accord, et moins de ce que vous n’aimez pas.
Si vous ne le saviez pas, il est logique que vous pensiez que les informations que vous voyez sur Facebook sont représentatives de la vérité, et avec 68% des Américains recevant au moins une partie de leur couverture médiatique sur la plate-forme, vous pouvez voir comment un tel malentendu pourrait alimenter davantage la division.
Un argument est que les générations plus âgées ont été élevées en faisant confiance à ce que les médias leur montrent – ce qui est présenté dans les nouvelles a, traditionnellement, dû être vrai, devait être basé sur des faits, et c’est ce que nous en sommes venus à croire . L’avènement des plateformes numériques a quelque peu changé cela, mais lorsqu’une telle conviction est ancrée en vous, que vous devriez faire confiance à ce que vous lisez dans des médias apparemment réputés, il peut être difficile de s’en débarrasser.
Encore une fois, cela est encore renforcé par les images et les vidéos – ce ne sont pas seulement les mots, ils ont des visuels pour soutenir leur cas. Cela doit donc être au moins un peu vrai. Droite?
Vous pouvez voir à quel point cette nouvelle initiative de Facebook est importante et à quel point elle est susceptible de devenir d’autant plus importante que les systèmes avancés permettent aux gens de créer, par exemple, de fausses déclarations de célébrités que les gens interpréteront mal.
C’est donc une étape importante pour Facebook.
En travaillant pour détecter un tel contenu, Facebook dit qu’il utiliser des signaux comme retours de la communauté, des commentaires sur chaque publication (qui peuvent inclure des phrases indiquant que les lecteurs ne croient pas que le contenu est vrai) et si les pages partageant un tel contenu ont l’habitude de partager des choses qui ont été jugées fausses par les vérificateurs des faits.
Compte tenu de cela, le processus est encore fortement tributaire des rapports des utilisateurs. Donc, si vous voyez quelque chose de faux, signalez-le et évitez aux autres de tomber dans le piège du contenu.
L’annonce intervient alors que le PDG de Facebook, Mark Zuckerberg, a également exposé ses réflexions sur l’évolution de Facebook en tant que source d’information et sur ce qu’ils font pour la protéger, en particulier dans le cas des élections.
« L’une des leçons importantes que j’ai apprises est que lorsque vous créez des services qui relient des milliards de personnes à travers les pays et les cultures, vous allez voir tout le bien dont l’humanité est capable, et vous allez aussi voir des gens essayer abuser de ces services de toutes les manières possibles. »
Facebook ne peut plus assumer les bonnes intentions des utilisateurs. Il le sait maintenant. Des mesures comme celles-ci aideront, espérons-le, à inverser les dommages causés précédemment et à faciliter la connexion sociétale – par opposition à l’inverse.