Hier, TikTok a présenté une défense détaillée de ses efforts pour contrôler la désinformation autour de la guerre Israël-Hamas, au milieu d’accusations de partialité et d’interférence de tendance. Et aujourd’hui, X a adressé la même choseaprès qu’un nouveau rapport suggère que la plateforme appartenant à Elon Musk, dans le cadre de son approche actualisée en matière de modération, ne parvient pas à supprimer la majorité des messages qui incluent antisémitismeislamophobie et haine anti-palestinienne.
Selon X:
« Dès le début du conflit, nous avons activé notre protocole de crise et avons aidé l’entreprise à faire face à la situation en évolution rapide avec le plus haut niveau d’urgence. Cela inclut la formation d’une équipe de direction interfonctionnelle qui a travaillé 24 heures sur 24 pour garantir que notre communauté mondiale ait accès aux informations en temps réel et pour protéger la plateforme pour nos utilisateurs et partenaires.»
X affirme avoir pris des contre-mesures importantes pour protéger le débat public autour du conflit, ce qui a abouti à :
- La suppression de sur 3 000 comptes gérés par des entités violentes de la région, dont le Hamas
- Action directe prise en charge 325 000 éléments de contenu qui viole son Conditions d’utilisation, y compris les suppressions dans les pires cas
- Avertissements et suspensions envoyés à plus de 375 000 comptes à la suite d’« enquêtes proactives visant à protéger les conversations authentiques concernant le conflit »»
X a également continué à faire évoluer sa fonctionnalité Community Notes, qui, espère-t-il, deviendra un moteur clé de la modération communautaire, qui permettra non seulement à ses utilisateurs de dicter ce qui est acceptable ou non dans l’application (par opposition à de telles décisions). effectué par la direction), mais réduira également la charge de modération sur son propre personnel et ses propres systèmes, réduisant ainsi les coûts de main-d’œuvre.
Ce qui semble être une réponse collective raisonnable. Mais lorsque vous le comparez aux actions signalées par TikTok, cela suggère qu’il peut y avoir une certaine marge d’amélioration.
TikTok dit qu’en octobre seulement, il a supprimé plus de 925 000 vidéos dans la région en conflit en raison de violations de ses politiques en matière de violence, de discours de haine, de désinformation et de terrorisme, tandis qu’il a également supprimé 730 000 vidéos sur la plateforme pour avoir enfreint ses règles en matière de comportement haineux.
Soit 1 655 000 suppressions en octobre, contre les « mesures prises » par X sur 325 000 messages au total.
X, bien sûr, compte beaucoup moins d’utilisateurs que TikTok, ce qui est un autre élément à prendre en compte (244 millions contre 1 milliard d’utilisateurs de TikTok). Mais même en gardant cela à l’esprit, X agit toujours beaucoup moins de contenu, ce qui suggère soit que X voit moins de discussions autour du conflit dans son ensemble, soit que X agit moins, conformément à son approche de modération plus axée sur la « liberté d’expression », ou que X n’est tout simplement pas aussi proactif que les autres applications.
Ce qui, comme indiqué, est la suggestion d’un nouveau rapport publié par le Centre de lutte contre la haine numérique (CCDH)une organisation que Musk est en train de poursuivre en justice pour les critiques passées de son application.
Selon Daily Beast :
« Les chercheurs du CCDH ont utilisé le système de signalement interne de X pour signaler 200 messages écrits depuis l’attaque du Hamas contre Israël le 7 octobre. Ils ont identifié les messages contenant de l’antisémitisme, de l’islamophobie et de la haine anti-palestinienne, qui ont été choisis comme « un moyen de tester la modération de X ». systèmes », selon le rapport. Une semaine plus tard, disent-ils, 98 pour cent des messages étaient toujours disponibles.»
C’est un exemple intéressant, car Musk, maintenant qu’il a semé le doute parmi ses partisans sur les conclusions passées du CCDH, l’utilisera sans doute comme exemple pour mettre en évidence les préjugés de l’organisation à son encontre, et X, ce qui invalidera les conclusions à leurs yeux. .
Et 200 publications constituent un échantillon relativement petit, surtout si l’on considère les chiffres ci-dessus sur le total des actions entreprises. Mais les résultats semblent également correspondre à l’écart dans les mesures prises entre X et TikTok, à titre de comparaison directe.
Quoi qu’il en soit, à l’heure actuelle, il ne semble pas que le recours accru de X aux notes communautaires produise les résultats espérés, en termes de réponse à ces éléments clés de préoccupation. D’autres rapports tiers ont conclu la même chose, à savoir que les notes communautaires, bien qu’elles soient un concept intéressant et potentiellement précieux, ne sont tout simplement pas en mesure de fournir le niveau de capacité d’application que X lui demande désormais dans le cadre de cette nouvelle approche.
Mais c’est peut-être là le problème. Peut-être que X fera valoir que d’autres approches sont trop restrictives, ce qui explique pourquoi moins de messages sont supprimés dans le cadre de son système.
Mais il est peu probable que cela plaise aux annonceurs ou aux groupes de réglementation régionaux qui surveillent et surveillent l’approche de X.
Ce qui pourrait entraîner davantage de questions sur la volonté d’Elon de permettre davantage de discussions dans l’application.