Twitter semble être test d’une nouvelle invite qui demanderait aux utilisateurs s’ils souhaitent masquer les réponses potentiellement offensantes à leurs tweets afin d’éviter les arguments et les interactions négatives dans l’application.
Comme vous pouvez le voir dans cet exemple, publié par un expert en rétro-ingénierie Jane Manchun Wong, une nouvelle fenêtre contextuelle serait ajoutée pour avertir les utilisateurs de remarques potentiellement offensantes, telles que détectées par le système de Twitter. La fenêtre contextuelle sert essentiellement de rappel que vous pouvez masquer les réponses, plutôt que de répondre, ce qui, dans de nombreux cas, pourrait être une meilleure approche, par opposition à engager une discussion négative qui peut conduire à une séquence plus longue et plus argumentative.
Ce serait essentiellement un mécanisme de disjoncteur, conçu pour arrêter les arguments avant qu’ils ne commencent. Si le système de Twitter peut vous amener à repenser les commentaires de représailles avant de les faire, peut-être que cette simple étape pourrait suffire à mettre fin à un tel débat et à améliorer la civilité de l’engagement ultérieur avec Tweet.
L’ajout d’éléments mineurs de friction comme celui-ci semble être la clé de l’approche renouvelée de Twitter pour lutter contre les engagements toxiques. La plate-forme a également ajouté de nouvelles invites qui invitent les utilisateurs à lire les articles avant de les retweeter en juin, tout en faisant de « Quote Tweet » l’option par défaut pour les retweets pendant la campagne électorale aux États-Unis dans le but d’amener les gens à réfléchir plus attentivement. pourquoi ils amplifient certains messages.
Toutes ces mesures sont, comme indiqué, relativement petites, mais elles peuvent être efficaces. Par exemple, Twitter dit que son Les invites « lire avant de retweeter » ont déjà conduit à utilisateurs ouverture articles 40% plus souvent lorsqu’ils leur sont montrés, tandis qu’Instagram a également vu des « résultats positifs » avec ses avertissements sur les commentaires potentiellement offensants sur les publications.
Ce nouveau test utiliserait une mesure de détection similaire à Instagram, pour détecter les termes potentiellement offensants dans les réponses, ce qui pourrait aider à empêcher les utilisateurs de riposter, conduisant à plus d’angoisse.
Il n’y a pas de mot sur un éventuel déploiement, mais cela pourrait être une étape positive.