Autre coup dur pour la nouvelle approche de X en matière de modération de contenu, sous la direction d’Elon Musk, la Commission australienne de sécurité électronique a délivré à l’entreprise un Amende de 386 000 $ pour ne pas avoir respecté ses obligations en matière de détection et de signalement de contenus, en particulier en ce qui concerne les matériels d’abus sexuels sur enfants (CSAM).

Ce que Musk a souligné à plusieurs reprises comme une priorité clé, tout en vantant également les améliorations que X a apportées sur ce front sous sa direction.

Sous l’Australie Conformément à la loi sur la sécurité en ligne, promulguée en 2021, le commissaire à la sécurité électronique peut faire appel aux services en ligne pour fournir des informations spécifiques sur la manière dont ils remplissent leurs obligations en vertu de la loi, qui couvre diverses formes d’activités illégales.

En conséquence, dans son deuxième rapport depuis la promulgation de la loi, la eSafety Commission australienne a constaté que Google et X (anciennement Twitter) ne respectaient pas ses paramètres, même si pour de nombreuses violations, X n’avait tout simplement pas fourni de réponse, au lieu d’être à la hauteur, en tant que tel.

D’après le rapport :

« Google a reçu un avertissement formel, l’informant de son non-respect car l’entreprise a fourni un certain nombre de réponses génériques à des questions spécifiques et a fourni des informations agrégées lorsqu’on lui a posé des questions sur des services spécifiques. La non-conformité de Twitter/X s’est avérée plus grave, la société n’ayant fourni aucune réponse à certaines questions, laissant certaines sections entièrement vides. Dans d’autres cas, Twitter/X a fourni une réponse qui était par ailleurs incomplète et/ou inexacte.

En termes de détails, la Commission eSafety déclare que dans les trois mois qui ont suivi le changement de propriétaire de Twitter/X à la fin de l’année dernière, sa « détection proactive du matériel d’exploitation sexuelle des enfants est passée de 90 % à 75 % ». La Commission a toutefois noté en outre que X affirme que son taux de détection proactive s’est amélioré en 2023.

Comme indiqué, la plupart des sanctions imposées à X concernent le fait de ne pas avoir fourni d’informations adéquates sur ses processus, que la Commission soupçonne d’avoir été affectés par les efforts de réduction des coûts de X.

« Twitter/X n’a ​​pas répondu à un certain nombre de questions clés, notamment le temps nécessaire à la plateforme pour répondre aux signalements d’exploitation sexuelle d’enfants ; les mesures mises en place pour détecter l’exploitation sexuelle des enfants dans les diffusions en direct ; et les outils et technologies qu’il utilise pour détecter le matériel d’exploitation sexuelle des enfants. L’entreprise n’a pas non plus répondu de manière adéquate aux questions relatives au nombre d’employés en matière de sécurité et de politique publique encore employés chez Twitter/X après l’acquisition d’octobre 2022 et les suppressions d’emplois ultérieures.

Ce qui constitue la base de l’amende, ce n’est donc pas nécessairement une indication que X, dans l’ensemble, échoue dans ces domaines clés, mais qu’il ne répond pas à ses exigences en matière de reporting.

Les mesures de détection de X pourraient donc effectivement s’améliorer, mais il doit également respecter ses obligations et fournir les mises à jour demandées.

Alors qu’est-ce que cela signifie pour X ? Eh bien, c’est difficile à dire.

En apparence, cela semble mauvais, X étant condamné à une amende pour ne pas avoir traité le matériel CSAM. Mais ce n’est pas vraiment à cela que sert l’amende, donc peut-être que cela n’aura pas un grand impact sur la réputation de X. Mais cela aura probablement un certain impact, et comme de nombreux annonceurs hésitent encore à investir dans le projet X d’Elon Musk en raison de préoccupations concernant ses processus de modération révisés, c’est un autre titre négatif pour l’entreprise.

Mais cela ne nous dit pas grand-chose sur la performance de X sur ce front critique.

Cependant, comme le note le rapport de la Commission :

« Si Twitter/X et Google ne parviennent pas à trouver des réponses aux questions clés sur la manière dont ils luttent contre l’exploitation sexuelle des enfants, soit ils ne veulent pas répondre sur la façon dont cela pourrait être perçu publiquement, soit ils ont besoin de meilleurs systèmes pour examiner leurs propres opérations. . Les deux scénarios nous préoccupent et suggèrent qu’ils ne sont pas à la hauteur de leurs responsabilités et des attentes de la communauté australienne.

La principale violation de Google, pour plus de clarté, est qu’il n’utilise pas les outils de détection dans Gmail, le chat et les messages, en dehors de ses réponses génériques à certaines requêtes.

Il s’agit donc moins d’un rapport accablant en tant que tel, mais plutôt d’un problème d’erreurs d’administration de la part de X. Mais cela pourrait, comme le souligne la Commission, mettre en évidence d’autres failles dans les systèmes de X qu’elle n’est pas très disposée à mettre en avant.

Il convient également de noter que divers rapports tiers ont révélé que le CSAM est toujours répandu dans l’application, plus que ce que X a suggéré.

X dispose de 28 jours pour faire appel ou payer l’amende.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.