X a-t-elle désormais beaucoup moins de modérateurs que les autres applications, après avoir supprimé environ 80 % de son personnel total en 2022 ?
Bien que nous n'ayons pas un aperçu complet du personnel de chaque application, X a publiquement approuvé son programme de vérification des faits participatif « Community Notes » comme moyen de compléter son personnel de modération réduit, qu'il considère comme une meilleure solution dans de nombreux cas. façons.
Mais dans quelle mesure cette main-d’œuvre a-t-elle réellement été réduite et comment se compare-t-elle à d’autres applications ?
Les derniers rapports sur la transparence de l’UE fournissent un aperçu.
Sous le Loi européenne sur les services numériques (DSA) toutes les grandes plateformes en ligne sont tenues de déclarer régulièrement le nombre d'utilisateurs et de modérateurs dans l'UE, afin d'assurer plus de transparence dans leurs opérations.
Au cours de la semaine dernière, toutes les principales applications sociales ont partagé leurs derniers rapports, qui fournissent une comparaison entre le nombre total d'utilisateurs et le personnel de modération pour chacune.
Ce qui se présente comme suit :
Sur cette base, X présente le pire ratio personnel de modération/utilisateurs, à 1/60 249, suivi de LinkedIn (1/41 652), suivi de TikTok (1/22 586) et Meta (1/17 600).
Bien qu'il y ait quelques réserves ici.
Meta, par exemple, rapporte qu'il a 15 000 réviseurs de contenu travaillant à la fois sur IG et Facebook, qui comptent chacun 260 millions d'utilisateurs dans l'UE. En ce sens, le ratio personnel/utilisateurs de Meta pourrait sans doute être doublé, même si même dans ce cas, il serait toujours meilleur que X et LinkedIn.
Le nombre total d'utilisateurs de X inclut également les invités déconnectés, ce qui semble ne pas être le cas des autres. Bien que les invités sur Facebook, LinkedIn et IG ne puissent pas voir autant de contenu, ce n'est probablement pas vraiment un facteur majeur dans ce contexte.
On ne sait pas non plus exactement combien de modérateurs sont affectés spécifiquement à l’UE par chaque plateforme.
Dans le rapport de TikTok, par exemple, il est indiqué que :
« TikTok compte 6 287 personnes dédiées à la modération des contenus dans l’Union européenne.
Ce qui montre clairement que TikTok dispose d’autant de personnel au service de sa base d’utilisateurs dans l’UE. Pourtant, les descriptions de Meta et X sont moins claires.
Meta dit que :
« L’équipe travaillant sur la sûreté et la sécurité est composée d’environ 40 000 personnes. Environ 15 000 d’entre eux sont des réviseurs de contenu ; ils comprennent un mélange d'employés à temps plein, de sous-traitants et de support externalisé. Nous travaillons en partenariat avec des entreprises pour nous aider à réviser le contenu, ce qui nous permet d'évoluer à l'échelle mondiale avec une couverture sur plusieurs fuseaux horaires, langues et marchés. Pour les contenus nécessitant une révision linguistique spécifique dans l’UE, il existe des équipes dédiées de réviseurs qui effectuent des activités de modération de contenu spécifiquement pour ce contenu.
Cela correspond à ce que Meta a rapporté ailleurs en tant qu'équipe mondiale de modération, desservant à la fois IG et Facebook (et probablement Threads également ces jours-ci). Ce qui change considérablement le calcul, alors que X note également que les 1.849 modérateurs qu'il a répertoriés « ne sont pas spécifiquement désignés pour travailler uniquement sur les questions européennes ».
Pourtant, même en tenant compte de cela, X reste à la traîne des autres.
X compte 550 millions d'utilisateurs actifs mensuels au total, et si l'ensemble de son effectif de modération ne compte que 1 849 personnes, cela représente un ratio de 1 modérateur humain pour 297 458 utilisateurs. Même si vous comptez les 3 milliards d'utilisateurs de Meta, son ratio modérateur humain/utilisateur est toujours de 1/200 000, et cela ne tient pas compte des 25 000 autres personnes qu'il a affectées à la sûreté et à la sécurité.
Dans l’ensemble, X dispose donc de beaucoup moins de personnel manuel pour modérer le contenu. Ce dont X n’a pas vraiment fait mystère, mais cela aurait probablement également un impact sur sa capacité à détecter et à traiter les contenus violants.
Ce qui concorde avec les rapports de tiers selon lesquels davantage de contenus enfreignant les règles sont désormais visibles sur X, ce qui pourrait indiquer une faiblesse potentielle des notes communautaires dans leur application adéquate. Divers experts en sécurité en ligne ont déclaré que Community Notes n'est pas une solution de sécurité adéquate, en raison de lacunes dans son processus, et même si X aimerait y voir un meilleur processus pour les appels de modération, cela peut ne pas être suffisant, dans certaines circonstances.
Même X l’a reconnu, dans une certaine mesure, en s’engageant à construire un nouveau centre de modération au Texas. Cependant, depuis cette annonce (en janvier), aucune autre nouvelle sur le projet n'est sortie du QG de X.
Essentiellement, si vous craignez que X ne fasse pas autant pour lutter contre les contenus préjudiciables, ces statistiques le soulignent probablement, bien qu'il soit important de noter que les chiffres ici ne sont pas nécessairement indicatifs des mesures plus larges de X, sur la base des notes. au-dessus de.
Mais il semble, sur la base des descriptions, que X soit à la traîne des autres, ce qui pourrait renforcer ces inquiétudes.
Vous pouvez lire le dernier rapport de X sur l'UE ici, les Meta sont ici (Facebook et IG), les LinkedIn sont ici et les TikTok sont ici. Merci à Xavier Degraux pour l'information sur les derniers rapports.