Les responsables de l’UE semblent certainement désireux de faire respecter les obligations de leur nouvelle loi sur les services numériques, avec de nouveaux rapports selon lesquels l’UE a lancé une enquête officielle sur X sur la façon dont il a facilité la distribution de « contenu graphique illégal et désinformation » liés à l’attaque du Hamas contre Israël ce week-end.
Divers rapports ont indiqué que la nouvelle approche plus rationalisée et plus tolérante de X en matière de modération du contenu ne parvient pas à arrêter la propagation de contenus préjudiciables. L’UE prend désormais des mesures supplémentaires, qui pourraient éventuellement entraîner des amendes importantes et d’autres sanctions pour l’application. .
Le commissaire européen au marché intérieur, Thierry Breton, a lancé un avertissement au propriétaire de X, Elon Musk, plus tôt dans la semaine, appelant Musk à personnellement garantir que les systèmes de la plateforme sont efficaces pour lutter contre la désinformation et les discours de haine dans l’application.
Musc a répondu en demandant à Breton de fournir des exemples spécifiques de violations, bien que la PDG de X, Linda Yaccarino, ait ensuite donné suite à un aperçu plus détaillé des actions que X a prises pour gérer la montée des discussions connexes.
Aujourd’hui @lindayaX répondu à @ThierryBretonde la lettre détaillant notre travail en réponse à l’attaque terroriste contre Israël. pic.twitter.com/yZtaOVGpHG
– Affaires gouvernementales mondiales (@GlobalAffairs) 12 octobre 2023
Même si cela ne suffit peut-être pas.
Selon les données publiées par le Wall Street Journal :
« X a signalé en moyenne environ 8 900 décisions de modération par jour au cours des trois jours précédant et suivant l’attaque, contre 415 000 par jour pour Facebook »
À première vue, cela semble logique, étant donné la variation comparative du nombre d’utilisateurs pour chaque application (Facebook compte 2,06 milliards d’utilisateurs actifs quotidiens, contre 253 millions pour X). Mais analysés plus spécifiquement, les chiffres montrent que Facebook traite en moyenne près de six fois plus de signalements que X. Ainsi, même en gardant à l’esprit la variation de l’audience, Meta prend beaucoup plus de mesures, notamment en s’attaquant à la désinformation autour d’Israël. Guerre du Hamas.
Alors pourquoi une si grande différence ?
Cela est probablement dû en partie au fait que X s’appuie davantage sur sa fonction de vérification des faits participative de Community Notes, qui permet aux personnes qui utilisent réellement l’application de modérer le contenu affiché pour elles-mêmes.
Yaccarino l’a noté dans sa lettre à Bretonexpliquant que :
« Plus de 700 notes uniques liées aux attaques et aux événements en cours sont affichées sur X. Grâce à notre nouvelle fonctionnalité « notes sur les médias », ces notes s’affichent sur plus de 5 000 publications supplémentaires contenant des images ou des vidéos correspondantes.
Yaccarino a également déclaré que les notes de la communauté liées à l’attaque ont déjà été vues « des dizaines de millions de fois », et en combinaison, X espère clairement que les notes de la communauté compenseront tout manque de ressources de modération en raison de son coût récent. efforts de réduction.
Mais comme beaucoup l’ont expliqué, le processus de notes de la communauté est défectueux, la majorité des notes soumises n’étant jamais réellement affichées aux utilisateurs, en particulier sur des sujets controversés.
Étant donné que les notes communautaires nécessitent le consensus de personnes ayant des points de vue politiques opposés pour être approuvées, les indicateurs contextuels sont souvent laissés en suspens, pour ne jamais voir le jour. Cela signifie que pour les choses qui sont généralement d’accord, comme les images générées par l’IA, les notes de la communauté sont utiles, mais pour les sujets qui suscitent des différends, elles ne sont pas très efficaces.
Dans le cas de la guerre entre Israël et le Hamas, cela pourrait également constituer un obstacle, les chiffres suggérant également que X compte probablement trop sur des modérateurs bénévoles pour des préoccupations clés telles que les contenus liés au terrorisme et la manipulation organisée.
En effet, des analyses tierces ont également indiqué que des groupes coordonnés cherchent déjà à diffuser des informations partisanes sur la guerre, tandis que la nouvelle approche de X « liberté d’expression, pas de portée » a également conduit à laisser des contenus plus offensants et dérangeants actifs dans l’application, bien qu’il promeuve essentiellement l’activité terroriste.
Le point de vue de X est que les utilisateurs peuvent choisir de ne pas voir ce contenu en mettant à jour leurs paramètres personnels. Mais si les affiches ne parviennent pas non plus à les identifier dans leurs téléchargements, alors le système semble également échouer.
Compte tenu de toutes ces considérations, il sera intéressant de voir comment les régulateurs de l’UE procèdent à cette action et s’ils constatent que les nouveaux systèmes de X traitent de manière adéquate ces éléments par le biais de processus de modération et d’atténuation.
Essentiellement, nous ne savons pas quelle est l’importance de ce problème, mais une analyse externe, basée sur les rapports des utilisateurs et les données accessibles depuis X, fournira plus d’informations, ce qui pourrait voir X mettre davantage de pression pour contrôler le contenu enfreignant les règles dans l’application. .