Je remercie pleinement Twitter pour avoir intensifié ses efforts de détection et de suppression du spam et du contenu abusif – comme je l’ai noté précédemment, ils se sont considérablement améliorés dans ce domaine, avec une gamme de nouveaux outils et initiatives en place pour mieux protéger les utilisateurs et améliorer la plateforme.
Mais il y a encore un domaine clé à noter que Twitter doit aborder – celui de l’évaluation des problèmes et de la réponse aux rapports des utilisateurs, avec beaucoup trop de problèmes rejetés comme non-violations, pour être révisés rétrospectivement.
Voici quelques exemples récents:
- Commentatrice de nouvelles Rochelle Richie a signalé des tweets abusifs contre elle par Cesar Sayoc, l’homme qui a ensuite envoyé des bombes artisanales à diverses identités politiques de haut niveau. Twitter, au moment de son reportage, a déclaré à Richie que les tweets en question ne violaient pas ses règles, puis plus tard, après que l’histoire est devenue une grande nouvelle, a révisé sa position et a déclaré qu’en fait, ils étaient contre ses termes.
- Le co-fondateur de Vox, Matthew Yglesias, a récemment partagé ses informations personnelles via tweet. Divers utilisateurs l’ont signalé et Twitter leur a dit à tous que ce n’était pas une violation. Slate s’est enquis de la décision, et Twitter a ensuite révisé sa position, affirmant qu’il s’agissait d’une violation, et a ensuite supprimé le tweet (bien que l’utilisateur n’ait pas été pénalisé).
- Pendant des mois, Twitter a refusé de retirer Alex Jones de sa plate-forme malgré diverses violations manifestes de ses politiques et le fait que toutes les autres plates-formes avaient interdit Jones pour des raisons similaires. Twitter a finalement interdit Jones et a défendu sa gestion de l’affaire, mais beaucoup ont remis en question le processus où diverses plaintes ont été essentiellement rejetées, seulement pour que Jones soit banni pour le même – ou similaire – à un stade ultérieur.
Le problème ici est que ce ne sont que des cas très médiatisés, nous n’entendons pas parler des nombreux autres rapports Twitter qui sont rejetés quotidiennement, bien qu’ils soient potentiellement de véritables violations des règles de la plate-forme.
Je vais vous donner un exemple personnel – plus tôt cette année, notre surveillance de tweet a découvert ce compte (à droite) avec le pseudonyme @SocialMediatday, qui, à l’époque, était un double exact de notre compte, @ socialmedia2day.
Vous pouvez voir que notre compte réel a beaucoup plus d’adeptes, mais ce nouveau nous copiait directement, jusqu’aux images, aux tweets – pouvant potentiellement dérouter notre public et probablement à des fins malveillantes.
Nous l’avons signalé à Twitter, en faisant référence à son politique d’usurpation d’identité:
Devinez quelle a été leur réponse:
« Nous avons enquêté sur le compte signalé et avons déterminé qu’il n’enfreignait pas la politique d’usurpation d’identité de Twitter. »
Cela me semble être un cas assez clair – nous supposons que l’inaction de Twitter est liée à cet élément:
« Pour être une usurpation d’identité, le compte doit également présenter une autre personne de manière trompeuse ou trompeuse. »
Le compte, en théorie, n’avait pas encore été utilisé de manière trompeuse – les tweets étaient des copies directes de nos tweets, avec des liens vers notre contenu. Ce n’était pas comme s’ils avaient utilisé cela pour tromper notre public – du moins, pas encore. Mais c’est probablement l’objectif, ce qui signifie probablement que nous devons surveiller ce compte pour une violation potentielle, que nous pouvons ensuite signaler à Twitter plus tard, et peut-être qu’ensuite ils agiront. Même s’il s’agit d’un exemple clair d’usurpation d’identité directe.
Bien sûr, j’ai posé des questions à Twitter à ce sujet, j’ai demandé plus d’informations sur les raisons pour lesquelles ce n’était pas une violation. J’ai obtenu une réponse « affaire close » générée automatiquement.
Alors, quel est le problème ici – pourquoi les règles de Twitter sont-elles mal interprétées par ses propres employés et qu’est-ce que cela signifie pour la santé globale de la plate-forme?
Le plus gros problème pour Twitter est probablement le coût. Afin d’évaluer et de gérer l’énorme quantité de rapports de problèmes soumis chaque jour, les plateformes sociales externalisent leurs efforts de modération vers des centres à moindre coût dans les pays du tiers-monde – les Philippines, en particulier, sont devenues une plaque tournante clé pour les modérateurs de contenu numérique. Cela signifie que vous pouvez faire plus de travail, mais il y a des lacunes d’interprétation et de langue, ainsi que des attentes en matière de vitesse, qui entraînent des erreurs.
Pour cette raison, les plates-formes doivent rendre leurs règles aussi noires et blanches que possible – c’est une violation, ce n’est pas le cas. Mais cela, en soi, met beaucoup sur l’interprète individuel du rapport. Une personne plus habituée à la nuance de telles violations pourrait déceler une erreur clé, mais ceux qui sont formés aux bases, interprétant souvent une langue qui n’est pas leur langue maternelle, pourraient la rater, car ce n’est pas, à première vue, un problème manifeste.
Twitter lui-même ne partage pas beaucoup d’informations sur son processus de modération de contenu, mais ils ont partagé ces informations avec Anmesty International plus tôt cette année:
« Amnesty International a également demandé à Twitter de partager des détails sur le processus de modération de contenu, tels que les chiffres du nombre de modérateurs employés par région et des détails sur la manière dont les modérateurs de contenu sont formés à la discrimination fondée sur le sexe et l’identité, ainsi que sur les normes internationales relatives aux droits humains de manière plus générale. . Twitter a refusé de partager ces informations et a déclaré: « Nous sommes bien conscients qu’il est essentiel de veiller à ce que nos équipes prennent en compte les nuances de comportement sexospécifiques. Chaque agent traitant des rapports d’abus reçoit des formations approfondies sur les façons nuancées dont les groupes historiquement marginalisés sont harcelés, l’intersectionnalité et l’impact des abus en ligne sur la vie quotidienne des gens, à travers un éventail de questions.. » Cependant, Twitter n’a pas partagé de détails sur le contenu de cette formation ni sur le nombre de modérateurs employés par région et par langue. »
Comme indiqué ici, l’échelle peut être un problème – plus tôt cette année, Facebook a signalé qu’il comptait désormais 7500 modérateurs de contenu à travers le monde, après en avoir ajouté environ 2500 de plus depuis 2017. Cela signifie que Facebook a ajouté plus de modérateurs que l’effectif total de Twitter au sein de la l’année dernière seulement. Facebook, bien sûr, a beaucoup plus d’utilisateurs que Twitter, mais cela met tout de même en évidence le besoin croissant de modération humaine, un domaine dans lequel Twitter peut ne pas être à la hauteur, ce qui peut entraîner des erreurs d’interprétation.
Il ne fait aucun doute que les sous-traitants de Twitter travaillent avec l’entreprise à ce sujet, en définissant de nouveaux points de repère et de nouvelles attentes, mais il est préoccupant d’entendre autant de rapports faisant état de telles erreurs – ce qui, comme indiqué, en fait allusion à bien d’autres.
Twitter peut avoir besoin de reformer son personnel, ils peuvent avoir besoin d’embaucher davantage, mais il est clair que c’est un domaine où les choses ne fonctionnent pas comme ils le devraient et où les progrès technologiques en eux-mêmes (par exemple, la détection de l’IA) ne sauveront pas la situation.