X continue de s’entêter au milieu de nouveaux rapports indiquant que les mesures de sécurité de la marque de la plateforme ne fonctionnent pas comme prévu.
Aujourd’hui, l’organisation de surveillance des publicités NewsGuard a publié un nouveau rapport, qui détaille comment ses chercheurs ont découvert dans l’application plus de 200 publicités sur des publications virales contenant des informations erronées sur la guerre entre Israël et le Hamas.
Comme l’explique NewsGuard :
« Du 13 au 22 novembre 2023, les analystes de NewsGuard ont examiné les publicités programmatiques apparues dans les flux sous 30 tweets viraux contenant des informations fausses ou extrêmement trompeuses sur la guerre (…) Au total, les analystes de NewsGuard ont identifié de manière cumulative 200 annonces de 86 grandes marques, organisations à but non lucratif, établissements d’enseignement et gouvernements apparaissant dans les flux ci-dessous 24 de la 30 tweets contenant des faux ou extrêmement trompeur affirmations sur la guerre Israël-Hamas.»
NewsGuard a également partagé une liste complète des messages en question (NewsGuard les appelle « tweets », mais « messages » est désormais le nom que X les appelle), afin que vous puissiez vérifier par vous-même si des publicités sont diffusées dans les flux de réponses de chaque. Les publicités dans les réponses pourraient permettre aux créateurs de publication de réclamer une part des revenus publicitaires de X suite à un tel contenu, s’ils satisfont aux autres exigences du programme de partage des revenus publicitaires des créateurs de X.
NewsGuard note également que les publications en question ont été affichées à plus de 92 millions de personnes dans l’application, sur la base du nombre de vues de X.
« Les 30 tweets ont avancé certains des faux les plus flagrants. ou trompeur des affirmations sur la guerre, que NewsGuard avait précédemment démystifiées. Il s’agit notamment du fait que l’attaque du Hamas contre Israël le 7 octobre 2023 était un « faux drapeau » et que CNN a mis en scène des images d’une attaque à la roquette d’octobre 2023 contre une équipe de presse en Israël.
Une note positive pour le nouveau processus de modération de X est que 15 des 30 messages identifiés par NewsGuard ont également été marqués d’une vérification des faits via les Notes de la Communauté, sur lesquelles X s’appuie de plus en plus pour modérer le contenu. Selon les directives de X, cela aurait également dû exclure ces publications de la monétisation, mais NewsGuard affirme que de telles restrictions n’ont apparemment pas été appliquées.
« Les publicités pour les grandes marques, comme Pizza Hut, Airbnb, Microsoft, Primordialet Oracle, ont été trouvés par NewsGuard sur des publications avec et sans note de la communauté.
Donc quelques défauts importants ici. Premièrement, le fait que X semble amplifier la désinformation est préoccupant, alors que X affiche également des publicités parallèlement à celles-ci, ce qui signifie qu’il profite techniquement d’affirmations trompeuses. Enfin, le système Community Notes ne semble pas fonctionner comme prévu, en ce qui concerne le blocage de la monétisation des publications « notées ».
En réponse, ou en fait, avant le nouveau rapport, X a pris les devants :
NewsGuard est sur le point de publier un « rapport » sur la désinformation sur X. En tant qu’entreprise à but lucratif, ils ne partageront les données qui étayent leurs prétendues recherches que si vous payez. @NewsGuardRating utilise également ces rapports pour faire pression sur les entreprises afin qu’elles achètent leurs services de « vérification des faits ». C’est…
— Sécurité (@Sécurité) 22 novembre 2023
Comme indiqué, NewsGuard a également partagé des détails et des liens vers les publications en question, afin que les affirmations puissent être vérifiées dans une large mesure. Les publicités réelles présentées à chaque utilisateur varient cependant, donc techniquement, NewsGuard n’a aucun moyen de fournir définitivement toutes les preuves, autrement que via des captures d’écran. Mais le propriétaire de X, Elon Musk, a également accusé d’autres rapports de captures d’écran « fabrication » pour étayer leur hypothèse, donc X la rejetterait probablement également.
Essentiellement, X fait désormais l’objet d’au moins quatre rapports émanant d’importantes organisations de surveillance de l’information, qui ont tous fourni des preuves suggérant que le système de publicité programmatique de X affiche des publicités à côté de publications incluant du racisme manifeste, de l’antisémitisme, de la désinformation et des références à théories du complot dangereuses.
Dans presque tous les cas, X a réfuté les affirmations d’emblée, a fait des remarques diffamatoires en réaction (via Musk) et a menacé de poursuites judiciaires en conséquence :
- En août, X a intenté une action en justice contre le Centre de lutte contre la haine numérique (CCDH)après sa publication recherche qui suggérait que X avait «systématiquement échoué à supprimer les contenus antisémites, anti-palestiniens et anti-musulmans ». Musk a en outre qualifié le CCDH de « vraiment maléfique », tout en qualifiant également le PDG du CCDH, Imran Ahmed, de «rat»
- En septembre, X a menacé de poursuivre en justice la Ligue anti-diffamation (ADL) après que l’ADL ait publié un rapport. qui suggérait que les messages antisémites étaient désormais plus répandus dans l’application. Musk a dit que le AVQ « attaque injustement la majorité de l’Occident»
- Plus tôt cette semaine, X a déposé une plainte contre Media Mattersqui accuse Questions médiatiquesde fabriquer des preuves afin de suggérer que X affiche des publicités de grandes marques à côté de contenus préjudiciables. Musk a qualifié Media Matters de «le mal incarné » et « mal absolu» dans ses différentes réponses dans l’appli
Et maintenant, NewsGuard est la dernière organisation dans la ligne de mire de Musk, pour avoir publié des recherches qui décrivent essentiellement quelque chose de contraire à ce qu’il veut croire.
Et même s’il est possible que certaines des conclusions générales de ces rapports soient erronées et que certaines données ne soient pas exactes à 100 %, le fait qu’un si grand nombre de problèmes soient soulignés de manière cohérente dans diverses organisations suggère qu’il existe Il y a probablement ici des problèmes sur lesquels X doit enquêter.
Cela est particulièrement vrai étant donné que vous pouvez recréer vous-même bon nombre de ces emplacements en chargeant les messages en question et en faisant défiler les réponses.
L’approche logique de l’entreprise serait donc que X travaille avec ces groupes pour résoudre ces problèmes et améliorer ses systèmes de placement d’annonces. Mais de toute évidence, ce n’est pas ainsi que Musk envisage de fonctionner, ce qui exacerbe probablement les inquiétudes des partenaires publicitaires, qui boycottent l’application en raison de ces rapports.
Bien entendu, ce ne sont pas seulement ces rapports qui incitent les annonceurs à faire une pause à ce stade.
Musk lui-même amplifie régulièrement les théories du complot et d’autres opinions et rapports potentiellement nuisibles, ce qui, étant donné qu’il est l’utilisateur le plus suivi de l’application, est également significatif. C’est apparemment la principale raison pour laquelle les annonceurs repensent, mais Musk essaie également de les convaincre que tout va bien, que ces rapports sont mensongers et que ces groupes travaillent d’une manière ou d’une autre de concert pour l’attaquer, même s’il est lui-même un distributeur clé du contenu en question.
C’est une situation déroutante et illogique, mais, d’une manière ou d’une autre, l’idée selon laquelle il existe une vaste collusion d’entités et d’organisations médiatiques s’opposant à Musk pour avoir révélé « la vérité » est plus crédible pour certains que les preuves présentées juste devant eux, et à condition que comme moyen d’inciter X à prendre des mesures supplémentaires pour répondre à ces préoccupations.
C’est ce que ces organisations réclament réellement : amener X à mettre à jour ses systèmes afin de contrer la propagation de contenus préjudiciables, tout en mettant un terme à la monétisation de ces allégations.
C’est techniquement ce à quoi X s’oppose désormais, car il tente d’instaurer plus de liberté dans ce que les gens peuvent publier dans l’application, offensant ou non, sous la bannière de la « liberté d’expression ». En ce sens, X ne veut pas contrôler de telles réclamations, il veut que les utilisateurs le fassent, sous la forme de notes communautaires, ce qui, selon lui, est une méthode de modération plus précise et plus responsable.
Mais clairement, cela ne fonctionne pas, mais Musk et Cie ne veulent pas entendre cela, alors ils utilisent la menace de poursuites judiciaires comme moyen de faire taire l’opposition, dans l’espoir qu’ils abandonneront tout simplement leurs reportages sur ce sujet. tel.
Mais ce n’est pas probable. Et avec X perdant des millions de dollars publicitaires chaque jour, c’est presque comme un jeu de poulet, où une des parties devra d’abord réduire ses pertes.
Ce qui, dans l’ensemble, semble être une stratégie erronée pour X. Mais Musk a planté son drapeau à plusieurs reprises sur la colline de la « liberté d’expression », et il semble déterminé à s’y tenir, même si cela signifie brûler la plateforme anciennement connue sous le nom de Twitter. .
Ce qui semble de plus en plus probable chaque jour, alors qu’Elon Musk continue de réaffirmer son défi et que les rapports continuent de montrer que X amplifie et monétise effectivement les contenus préjudiciables.
Peut-être que, comme le dit Musk, cela vaut la peine de prendre position. Mais cela ressemble à une démonstration coûteuse pour prouver un point de vue erroné.