Comment testez-vous l’« humanité » dans l’activité des médias sociaux, et existe-t-il réellement un moyen de le faire sans que cela ne soit manipulé par des escrocs ?
Il semble que Twitter pense qu’il peut, avec ce nouveau message découverte dans le code back-end de l’application.
Comme vous pouvez le voir dans cette notification, découverte par un chercheur d’applications Alessandro PaluzziTwitter travaille sur un nouveau processus qui empêcherait apparemment les utilisateurs d’utiliser certains éléments de l’application jusqu’à ce qu’ils soient en mesure de prouver qu’ils sont réellement humains – « en passant du temps à interagir avec votre chronologie et à vous connecter avec les autres ».
Si vous réussissez le test humain, vous verrez alors une meilleure visibilité des tweets, tandis que vous aurez également un accès complet à ses outils DM.
Mais encore une fois, ce que ce test humain pourrait impliquer pourrait être complexe. Quelles actions une personne peut-elle entreprendre qu’un bot ne peut pas, et comment Twitter pourrait-il être en mesure de mesurer cela, vous supposeriez, de manière automatisée ?
Vous supposeriez que Twitter ne sera pas en mesure de le révéler, car cela l’ouvrirait certainement aux escrocs. Mais il n’y a pas grand-chose qu’un utilisateur régulier peut faire qu’un bot ne peut pas faire. Vous pouvez programmer un compte bot pour suivre/ne plus suivre des personnes, re-tweeter d’autres personnes, envoyer des tweets.
Il semble qu’il serait assez difficile d’identifier l’activité des bots – mais le nouveau chef de Twitter, Elon Musk, est déterminé à lutter contre le problème des bots dans l’application, qui est si grave qu’à un moment donné, Musk a cherché à mettre fin entièrement à son accord de rachat de Twitter, en raison la plate-forme étant truffée de comptes de robots.
En août, l’équipe juridique de Musk a déposé une requête affirmant que 27 % du nombre de mDAU de Twitter – soit un peu plus de 64 millions d’utilisateurs – étaient en fait des bots, tandis que seulement 7 % des utilisateurs réels et humains de Twitter voyaient la majorité de ses publicités.
Twitter a longtemps soutenu que les robots/spams ne représentaient que 5 % de son nombre d’utilisateurs, mais l’équipe de Musk avait remis en question la méthodologie de ce processus, qui voyait Twitter mesurer uniquement un échantillon aléatoire de 9 000 comptes au cours de chaque période de rapport.
Depuis sa prise de fonction, cependant, Musk a vanté le nombre d’utilisateurs de Twitter, qui sont maintenant, selon Musk, à des niveaux record. Mais selon l’estimation de sa propre équipe, il semble que les bots constitueraient toujours une proportion importante de ces profils, c’est pourquoi l’équipe Twitter 2.0 tient à mettre en œuvre de nouvelles mesures pour éliminer les bots et fournir plus d’assurance aux partenaires publicitaires, et utilisateurs.
Cela inclut une meilleure détection et suppression des bots (Musk dit que Twitter supprimé un tas de comptes de robots au cours de la semaine dernièreet a depuis réduit ses seuils de détection de robots après avoir également supprimé une série de comptes non-bot), alors qu’il intégrerait également le nouveau système de vérification de 8 $ de Twitter, qui implémente ce que Musk appelle la «vérification des paiements» – c’est-à-dire que les robots et les escrocs ne paieront pas pour enregistrer leurs comptes, donc le programme mettra également efficacement en évidence les humains réels.
Et s’il voit une participation suffisante, cela pourrait être une autre étape clé dans la lutte contre les bots, la majorité des vrais utilisateurs affichant finalement une vérification vérifiée. La probabilité qu’un nombre suffisant de personnes s’inscrive pour en faire une considération viable à cet égard est discutable, mais en théorie, cela pourrait être un autre élément de la compression des bots de Twitter.
La découverte intervient également alors que Twitter confirme qu’il s’appuie désormais davantage sur l’automatisation pour modérer le contenu, après la récente élimination de son personnel, qui comprenait des milliers de ses équipes de modération.
Afin de gérer davantage, avec moins de surveillance humaine, Twitter réduit l’examen manuel des cas, ce qui lui a permis de supprimer encore plus rapidement plus de contenu dans certains domaines, y compris, semble-t-il, du matériel d’exploitation d’enfants.
Une dépendance accrue à l’automatisation conduira inévitablement à plus de rapports et d’actions incorrects, mais Twitter fait maintenant preuve de prudence, l’équipe étant plus habilitée à « agir rapidement et à être aussi agressive que possible » sur ces éléments, selon Vice de la plateforme. Présidente de Confiance et Sécurité Ella Irwin.
Ce qui pourrait être une bonne chose. Il est possible qu’avec les progrès de la détection automatisée, moins d’interventions manuelles soient désormais nécessaires, ce qui pourrait en faire une voie plus viable qu’elle ne l’aurait été par le passé. Mais le temps nous le dira, et nous ne connaîtrons pas tous les impacts de la nouvelle approche de Twitter tant que nous n’aurons pas de données solides sur les cas de matériel offensant. Ce que nous n’obtiendrons peut-être jamais, maintenant que l’entreprise est une propriété privée et n’est pas tenue d’en faire rapport au marché.
Des rapports de tiers ont suggéré que l’incidence des discours de haine a considérablement augmenté depuis que Musk a pris le relais de l’application, tandis que les experts en sécurité des enfants affirment que les changements mis en œuvre par l’équipe de Musk n’ont encore eu que peu d’impact sur la résolution de cet élément.
Pourtant, Musk espère qu’en ajoutant un autre niveau de responsabilité, via la vérification humaine, cela permettra à son équipe de mieux s’y attaquer, mais encore une fois, il reste à voir exactement comment ses systèmes pourraient mesurer «l’humanité» et avec quelle efficacité. cela pourrait être en étouffant l’activité des bots.
En théorie, toutes ces différentes options pourraient fonctionner, mais l’histoire des applications sociales et de la modération de contenu suggère que cela ne va pas être facile, et il n’y a pas de solution unique pour résoudre les problèmes et éléments clés à portée de main.
Ce que la nouvelle équipe Twitter reconnaît, en mettant en œuvre une série de mesures – et il sera intéressant de voir s’il existe réellement un moyen de lutter contre ces préoccupations clés sans recourir à des brigades d’équipes de modération, qui sont chargées de trier les pire de l’humanité chaque jour.
La mise en œuvre d’un test «humain» sera difficile, mais peut-être que, grâce à une combinaison d’informations provenant des différentes sociétés et associés de Musk, quelque chose peut être ajouté au mélange pour faire progresser les systèmes disponibles.