Vous lisez

Facebook élargit son équipe de modération de contenu dans le but d’éliminer le contenu criminel

Réseaux sociaux

Facebook élargit son équipe de modération de contenu dans le but d’éliminer le contenu criminel

Facebook étend son équipe de modération de contenu pour éliminer le contenu criminel |  Les médias sociaux aujourd'huiLa mission de Facebook de connecter le monde est louable, qui devrait, théoriquement, nous fournir plus de perspective, une meilleure compréhension de nous-mêmes et des autres cultures, plus d’opportunités de nous connecter avec des personnes partageant les mêmes idées.

Mais il y a des effets secondaires à cet objectif, en fournissant aux gens les moyens d’une connexion universelle, de se diffuser eux-mêmes et leurs pensées à tout moment. Alors que pour la plupart, il s’agit d’un outil précieux, pour certains, c’est un moyen de répandre la haine, de partager des images de violence et de crime et d’utiliser la plate-forme pour exploiter les autres de diverses manières.

L’arrivée de Facebook Live n’a fait qu’exacerber cela – ces dernières semaines, nous avons vu des rapports de personnes diffusant en direct leur propre suicide, diffusant un meurtre en temps réel, à la vue de tous. Même tuer leur famille, tous présentés à la caméra, diffusés dans le monde.

Un tel contenu a toujours existé dans les recoins sombres d’Internet, mais la portée de Facebook, et la capacité de Facebook Live en particulier, l’ont mis au premier plan. Le PDG de Facebook, Mark Zuckerberg, a exprimé sa propre horreur face à de tels événements – comme indiqué dans une récente interview avec BuzzFeed :

« Travailler sur ce problème semble personnel pour le PDG de Facebook, qui s’est fâché en discutant d’un incident récent sur la plate-forme. Il y a quelques semaines, une fille s’est suicidée en direct », a-t-il déclaré. , d’accord, eh bien, nous n’avons rien fait parce que personne ne nous l’a signalé. »

Mais Facebook ne peut pas tout contrôler, et la fourniture d’une connexion en temps réel rend impossible l’arrêt complet. Alors, que peut faire Facebook ?

Cette semaine, Zuckerberg a annoncé que Facebook prendrait des mesures pour lutter contre une telle activité, avec une extension de son équipe de modération de contenu de 4 500 à 7 000 personnes au cours de la prochaine année.

Cela s’ajoute à leurs mesures d’intelligence artificielle précédemment annoncées qui sont formées pour détecter les schémas et les comportements préoccupants afin d’intervenir tôt dans les mesures préventives.

C’est une initiative importante pour Facebook – alors que la plate-forme continue de se développer, il en va de même pour les opportunités pour les gens de l’utiliser pour de telles activités.

Mais là encore, il y a aussi une inquiétude quant à la façon dont ces efforts affectent les personnes chargées d’éliminer une telle activité.

En 2013, une ancienne chef d’équipe de modération de Facebook a partagé certaines de ses expériences de travail avec les personnes qui doivent passer au crible toutes les horreurs que Facebook fournit, y compris des images de pornographie enfantine, de violence domestique et divers autres contenus indicibles que personne ne devrait jamais. faut voir. Mais ces gens doivent le voir – pendant huit heures par jour, ils sont chargés de trier tout cela et de le retirer du site.

Comme l’a noté Joy Lynskey :

« Il est juste de dire que certaines des personnes qui travaillent autour de moi ne s’en sortent pas si bien. Souvent, elles finissent par souffrir du barrage sans fin d’horreur dont elles sont témoins. »

Avec Facebook qui cherche à élargir cette équipe, il doit y avoir de sérieuses inquiétudes quant au bien-être de ces personnes. Cela ne veut pas dire qu’il y a nécessairement d’autres options sur la table, ou une solution qui éviterait de tels impacts, mais c’est une préoccupation de penser au contenu dont ces 7 500 seront témoins. Dans ce cas, le développement de l’apprentissage automatique avancé ne peut pas arriver assez vite.

Cela dit, c’est nécessaire, il est crucial que Facebook fasse tout son possible pour éliminer de tels contenus et faire de Facebook un endroit sûr.

Espérons que l’introduction de plus de modérateurs aidera à éliminer l’utilisation abusive de Facebook Live, en particulier à mesure que l’utilisation de l’option augmente.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.