Vous lisez

Facebook présente un nouveau système pour détecter les faux comptes et la désinformation basée sur les interactions

Réseaux sociaux

Facebook présente un nouveau système pour détecter les faux comptes et la désinformation basée sur les interactions

Facebook a publié un aperçu d’un nouveau système qu’il a développé qui l’aidera à améliorer sa détection des faux comptes et de la désinformation, en ajoutant à ses approches existantes et en affinant son effort global pour éliminer les mauvais acteurs de ses plates-formes.

Mais c’est assez technique – dans cet article, je vais fournir un aperçu simplifié de la nouvelle recherche de Facebook sur l’intégration de l’interaction temporelle (TIES), qui, selon elle, apportera des améliorations progressives à son processus de détection et pourrait avoir un impact significatif sur ce point au fil du temps.

Traditionnellement, selon Facebook, les approches de détection de faux comptes et d’autres activités malveillantes reposaient sur ce qu’il appelle un comportement «  statique  », qui ne reflète pas nécessairement la façon dont les gens interagissent:

« Les entités de la plate-forme, telles que les comptes, les publications, les pages et les groupes, ne sont pas statiques. Elles interagissent les unes avec les autres au fil du temps, ce qui peut en révéler beaucoup sur leur nature. Par exemple, les faux comptes et les messages de désinformation suscitent différents types de réactions d’autres comptes que les comptes et publications normaux / inoffensifs. « 

Cela pourrait-il être vrai? Existe-t-il une différence distincte dans la manière dont les gens interagissent avec les faux comptes ou la désinformation qui pourraient aider à les identifier, même sans rapports d’utilisateurs?

C’est la base du système TIES de Facebook – en surveillant toutes les différentes activités et interactions avec chaque publication, TIES est en mesure de mettre en évidence les comportements communs liés à des entités non authentiques.

« Les entités sur les réseaux sociaux (comptes, publications, histoires, groupes, pages, etc.) génèrent de nombreuses interactions d’autres entités au fil du temps. Par exemple, les publications obtiennent des likes, des partages, des commentaires, etc. par les utilisateurs, ou les comptes envoient ou refusent un ami demandes, envoyer ou bloquer des messages, etc. à partir d’autres comptes « 

À grande échelle, le nouveau système de Facebook est désormais en mesure de mieux faire correspondre ces comportements pour effacer les signaux, ce qui peut ensuite les signaler pour un examen plus approfondi.

Dans cette image des interactions globales, par exemple, Facebook dit que les points jaunes indiquent une activité malveillante. Comme vous pouvez le voir, les interactions avec ces publications sont très différentes des actions utilisateur normales (violettes).

Exemple TIES

« La manière dont les faux comptes se comportent est différente des comptes normaux. Les messages haineux génèrent des types d’engagements différents par rapport aux messages normaux. Non seulement le type mais aussi la cible de ces engagements peuvent être informatifs. Par exemple, un compte avec un historique de diffusion le partage de haine ou de désinformation ou un engagement positif avec un message peut être le signe d’un contenu douteux. « 

Encore une fois, la documentation est très complexe et je simplifie peut-être à l’extrême la complexité du système, mais la base est que le modèle TIES de Facebook, formé sur 2,5 millions de comptes (avec 80/20 réels / faux), et 130 000 messages (environ 10% des qui sont étiquetés comme de la désinformation), a été en mesure d’identifier avec précision les mauvais acteurs dans le graphique de Facebook en mesurant la pleine échelle des interactions et des engagements fluides avec chaque publication. À petite échelle, vous ne remarquerez aucune différence réelle avec la façon dont les utilisateurs interagissent avec ces entités, mais avec une portée plus large, des modèles définitifs émergent. Et cela permettra à Facebook d’améliorer ses efforts de détection et d’application.

Ce qui est évidemment un gros problème. Facebook a subi une pression importante ces derniers mois pour faire plus pour lutter contre la désinformation, la plate-forme hébergeant une gamme de groupes de théorie du complot COVID-19, ainsi que des extrémistes politiques motivés par des théories infondées sur l’établissement de la société.

Facebook a pris des mesures à ce sujet et continue de travailler pour lutter contre leur propagation, mais avec 2,7 milliards d’utilisateurs, l’ampleur même de la gestion de ces problèmes rend presque impossible de les éradiquer complètement.

Et cela ne fera qu’empirer – au milieu des verrouillages du COVID-19, divers éditeurs locaux ont été contraints de fermer en raison du manque d’options de revenus. Cela verra probablement encore plus de gens se tourner vers Facebook pour des mises à jour de nouvelles – où son algorithme donne la priorité à l’engagement, qui voit souvent les publications salicieuses et conflictuelles gagner plus de popularité que celles fondées sur des faits moins attrayants.

En ce qui concerne les faux comptes, en avril, Facebook a signalé que, bien qu’il ait considérablement amélioré ses efforts de détection de faux comptes, environ 5% de sa base d’utilisateurs est toujours constituée de faux profils. Ce qui ne semble pas si mal – mais à l’échelle de Facebook, 5% équivaut à plus de 135 millions de faux profils actifs sur la plate-forme à l’heure actuelle.

Facebook le note dans sa documentation TIES, expliquant que si TIES ne peut conduire qu’à des améliorations fractionnaires:

« Il convient également de noter qu’à l’échelle de Facebook, même une amélioration de quelques points de pourcentage du rappel pour la même précision se traduit par un nombre important de faux comptes supplémentaires capturés. »

Il est difficile de se faire une idée de la pleine échelle de Facebook et des changements connexes comme celui-ci, dans ce contexte, mais essentiellement, le système TIES entraînera des améliorations progressives sur plusieurs fronts, ce qui aidera Facebook à faire progresser ses systèmes de détection.

Et cela conduira à de nouvelles améliorations qui pourraient avoir des impacts beaucoup plus importants. Facebook a encore du travail à faire, et il va subir une pression croissante pour sa facilitation du discours de haine et des groupes connexes qui contribuent à la division de la société.

En tant que tel, toute amélioration ne peut être que positive, et le système TIES peut être un autre tremplin sur lequel s’appuyer à cet égard.

Vous pouvez lire la documentation TIES complète ici.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.