À la taille de Facebook, la modération de contenu posera toujours un défi. Alors que la société continue d’améliorer ses outils d’apprentissage automatique et d’intelligence artificielle pour aider à filtrer les contenus offensants avant que quiconque n’ait à le voir, il existe de nombreux cas où cela n’est tout simplement pas possible et un examen humain est nécessaire.
Le problème avec cela est qu’une exposition continue à de tels matériaux peut avoir des effets importants sur la santé mentale, ce que The Verge’s Casey Newton décrit dans son article déchirant sur l’expérience des modérateurs de Facebook.
D’après le rapport de Newton:
« Collectivement, les employés ont décrit un lieu de travail qui est perpétuellement au bord du chaos. C’est un environnement dans lequel les travailleurs font face en racontant des blagues sombres sur le suicide, puis en fumant de l’herbe pendant les pauses pour engourdir leurs émotions. C’est un endroit où les employés peuvent être licenciés pour avoir commis seulement quelques erreurs par semaine – et où ceux qui restent vivent dans la peur des anciens collègues qui reviennent en quête de vengeance. «
Le plus difficile ici est que quelqu’un doit le faire – afin de garder Facebook aussi civil et sûr que possible pour les milliards d’utilisateurs de la plate-forme, un niveau de modération humaine est nécessaire, Facebook a besoin de ce processus pour éviter une exposition et une inquiétude beaucoup plus larges.
Mais, comme Newton le note dans son article, Facebook pourrait améliorer les conditions des travailleurs qui doivent faire face à de telles horreurs et leurs impacts continus après les heures de travail.
Facebook en a pris note – cette semaine, The Social Network a annoncé une série de nouveaux changements pour mieux prendre soin de son personnel de modération, y compris des augmentations de salaire, une formation et un soutien supplémentaires et de nouvelles réglementations sur la limitation des heures supplémentaires, entre autres mesures.
Comme expliqué par Facebook:
« L’examen du contenu à notre taille peut être difficile et nous savons que nous avons encore du travail à faire. Nous nous engageons à soutenir nos réviseurs de contenu d’une manière qui accorde la priorité à leur bien-être et nous continuerons à partager les avancées sur ce sujet important. «
C’est un domaine difficile pour Facebook, et en fait pour toutes les plateformes de médias sociaux. La solution idéale, sur laquelle Facebook travaille, serait de développer des outils d’intelligence artificielle et d’apprentissage automatique plus avancés pour détecter ce contenu, mais la probabilité que de tels systèmes puissent jamais tout filtrer n’est pas très élevée. Dans ce cas, Facebook doit faire tout ce qui est en son pouvoir pour prendre soin des travailleurs impliqués, et compte tenu des descriptions de l’état actuel de ces effectifs, il y a encore du chemin à parcourir sur ce front.
Et s’il est bon de voir Facebook améliorer ses conditions pour les modérateurs, il y en a une note préoccupante dans l’annonce de Facebook.
« Aujourd’hui, nous nous engageons à payer à tous ceux qui travaillent sous contrat chez Facebook aux États-Unis un salaire qui reflète davantage le coût de la vie local. «
Le problème ici est que Facebook a des modérateurs travaillant partout dans le monde, avec des agents contractuels filtrant les contenus offensants dans différentes régions, qui ne verront pas, sur la base de cette annonce, une augmentation de leur salaire. Ils seront éligibles à certaines des autres améliorations récemment annoncées, y compris des limites sur les heures supplémentaires, mais la majorité des nouvelles mesures concernent spécifiquement les employés américains. Espérons que ces mêmes initiatives sont également menées avec des entrepreneurs dans d’autres régions, qui sont évidemment soumis aux mêmes conditions.
Comme indiqué, c’est un domaine très difficile et il est bon de voir Facebook chercher à agir plus sur ce front. Et même si vous ne le réalisez peut-être pas, vous n’avez peut-être aucune exposition à ce que font ces équipes de modération, vous bénéficiez très certainement de leur travail. Du point de vue général de l’utilisateur, la chose à garder à l’esprit est que lorsque vous signalez une publication que vous n’aimez pas et que vous n’obtenez pas une réponse rapide de Facebook, considérez que les équipes de modération travaillent sur les cas les plus extrêmes. – et à ce titre, vos rapports peuvent ne pas avoir la priorité.
C’est un problème à résoudre pour Facebook, mais avec 2,38 milliards d’utilisateurs, il est raisonnable de s’attendre à ce qu’un niveau de hiérarchisation soit nécessaire, et si vous n’aimez tout simplement pas l’apparence de la publication de quelqu’un, mais que ce n’est pas trop offensant, cela peut ne pas être agi tout de suite.