Après que l’option ait été repérée pour la première fois lors des tests le mois dernier, Twitter a maintenant confirmé qu’elle permettra bientôt aux utilisateurs de masquer les réponses aux tweets dans le cadre de ses efforts continus pour améliorer la discussion sur la plate-forme et assurer la sécurité des utilisateurs.
L’option, découverte par un expert en ingénierie inverse Jane Manchun Wong, permettrait aux utilisateurs de cacher toute réponse de leur choix sur leurs tweets, comme vous pouvez le voir dans cet exemple.
Twitter a confirmé que ce sera ‘expérimenter‘avec l’option à partir de juin, mais on ne sait pas si ce sera un déploiement officiel de la fonctionnalité ou un test dans l’application bêta twttr ou autre.
L’annonce a été incluse dans les notes dans un nouvelle mise à jour de Twitter concernant ses efforts continus pour réduire le spam et les abus, et mieux protéger les utilisateurs de ceux-ci.
Et ces efforts produisent des résultats – selon Twitter:
- 38% du contenu abusif qui est appliqué est maintenant présenté de manière proactive à nos équipes pour examen, au lieu de se fier aux rapports de personnes sur Twitter.
- 100000 comptes ont été suspendus pour avoir créé de nouveaux comptes après une suspension en janvier-mars 2019 – une augmentation de 45% par rapport à la même période l’année dernière.
- Nous répondons désormais 60% plus rapidement aux demandes d’appel grâce à notre nouveau processus d’appel intégré.
- 3 fois plus de comptes abusifs sont suspendus dans les 24 heures suivant un signalement par rapport à la même période l’année dernière.
- 2,5 fois plus d’informations privées sont supprimées grâce à un nouveau processus de création de rapports plus simple.
Sur la première statistique, Twitter affirme que ses systèmes de détection automatique sont de mieux en mieux pour alerter ses équipes des violations potentielles des règles avant même que les utilisateurs ne les signalent.
« Les personnes qui ne se sentent pas en sécurité sur Twitter ne devraient pas avoir le fardeau de nous signaler un abus. Auparavant, nous examinions uniquement les Tweets potentiellement abusifs s’ils nous étaient signalés. Nous savons que ce n’est pas acceptable, donc plus tôt cette année, nous en avons fait un priorité à adopter une approche proactive des abus en plus de se fier aux rapports des gens. «
C’est ce qui a conduit à l’augmentation de 38% du contenu potentiellement abusif signalé pour examen sans signalement des utilisateurs – ce qui est génial, et c’est quelque chose qui se fait attendre depuis longtemps sur Twitter. Mais cela signifie aussi plus de travail pour les équipes de modération de Twitter, ce qui n’est pas exactement la vocation la plus agréable ou la plus gratifiante.
La modération humaine est également une ressource limitée, pas quelque chose que Twitter peut facilement mettre à l’échelle sans dépenses importantes. En effet, alors que Facebook compte désormais plus de 30 000 employés au sein de son équipe de sûreté et de sécurité (environ la moitié étant des réviseurs de contenu), Twitter compte moins de 4 000 employés au total. Ce chiffre peut ne pas inclure les sous-traitants externes, mais il est assez sûr de supposer que l’équipe de modération de Twitter ne dépasse pas la taille de son effectif global.
Twitter est, bien sûr, beaucoup plus petit que Facebook, en termes de taille d’audience globale (321 millions MAU de Twitter équivaut à environ 14% du nombre équivalent de Facebook), mais c’est quand même beaucoup de rapports à traiter. Non seulement il est bon que les systèmes de détection automatisés s’améliorent, Twitter Besoins pour s’assurer que ses outils d’apprentissage automatique font beaucoup de travail afin de se rapprocher même de la protection des utilisateurs à un rythme significatif.
Selon votre point de vue, Twitter s’améliore ou n’en fait toujours pas assez à cet égard. Comme vous pouvez l’imaginer, la réponse immédiate à ces chiffres a été que de nombreux utilisateurs ont appelé Twitter à « interdire les nazis », une demande qui est maintenant aussi courante que « activer l’édition de tweet » dans la liste des demandes des utilisateurs. Cette semaine seulement, de nouveaux appels ont été lancés pour interdire au président américain Donald Trump d’accéder à la plate-forme de partage de contenu qui, du moins à première vue, semble enfreindre les lois sur le discours de haine.
Twitter a été à plusieurs reprises contraint de défendre sa position sur Trump et d’autres utilisateurs de premier plan, en ce qui concerne le contenu de leurs tweets et le rôle qu’ils jouent dans le discours public – même s’ils enfreignent les règles de la plateforme. En effet, Twitter envisage maintenant une nouvelle façon d’étiqueter les tweets comme celui-ci, qui enfreignent techniquement ses règles, mais ne sont pas supprimés car ils servent un autre objectif.
C’est une position difficile à adopter. Avoir un ensemble unique de règles pour les personnalités éminentes brouille les lignes de ce qui est acceptable sur la plate-forme, ce qui ouvre la porte à la confusion et à la frustration, lorsque d’autres sont punis pour la même chose.
En tant que tel, s’il est bon de voir Twitter faire plus pour appliquer ses règles et ajouter de nouvelles fonctionnalités pour aider les utilisateurs à mieux contrôler ce qu’ils voient sur la plate-forme, il se sent toujours confus, Twitter ne semble toujours pas clair, en interne, sur sa mission globale. est, et les règles qu’il met en place pour s’aligner sur ces principes.
Autre exemple, le processus de vérification du profil de Twitter, actuellement suspendu en raison d’une confusion interne quant aux critères qu’il applique aux approbations, a en fait approuvé plus de 10000 utilisateurs au cours des derniers mois, bien qu’il soit fermé au public.
Les dernières statistiques sont bonnes pour Twitter, elles considèrent cela comme une bonne nouvelle – ce qui, certainement, aide à débarrasser la plate-forme d’un tel contenu. Mais il a encore un éventail de problèmes à traiter, en particulier en ce qui concerne ses processus internes et son fonctionnement.