Alors que la guerre entre Israël et le Hamas s’intensifie, les plateformes numériques sont de plus en plus utilisées pour diffuser des informations cruciales, à la fois au sein des régions touchées et auprès du public du monde entier. En conséquence, les groupes militants cherchent à utiliser les plateformes sociales pour influencer ces messages, afin de semer la dissidence et la confusion, que chaque plateforme doit désormais atténuer du mieux qu’elle peut.
Et avec l’entrée en vigueur des nouvelles réglementations de l’Union européenne sur la désinformation, les principales plateformes sont déjà sous surveillance, l’UE émettant des avis à Meta, X et TikTok pour leur rappeler ses nouvelles obligations plus strictes.
En conséquence, les responsables de l’UE ont déjà annoncé une enquête sur X, tandis que Meta a fourni aujourd’hui un aperçu complet de ses efforts, conformément aux dernières demandes de l’UE.
En réponse à la demande de l’UE de plus d’informations sur son processus de crise, Meta déclare avoir :
- Création d’un centre d’opérations spéciales, doté d’experts parlant couramment l’hébreu et l’arabe, afin de surveiller et de répondre à l’évolution de la situation en temps réel.
- Mise en œuvre de limites sur les recommandations de contenu potentiellement violant
- A élargi sa politique « Violence et incitation » afin de supprimer le contenu identifiant clairement les otages « même si cela est fait pour condamner ou sensibiliser à leur situation »»
- Restreint l’utilisation de hashtags associés à du contenu violant ses directives communautaires
- Restreint l’utilisation de Live pour les utilisateurs qui ont déjà enfreint certaines politiques. Meta note qu’il donne également la priorité à la modération des diffusions en direct de la région touchée, avec un accent particulier sur les menaces du Hamas de diffuser des images d’otages
- Ajout d’étiquettes d’avertissement sur le contenu jugé « faux » par des vérificateurs de faits tiers, tout en appliquant également des étiquettes aux éditeurs de médias contrôlés par l’État.
Ces mesures plus avancées permettront aux responsables de l’UE, en particulier, de mieux comprendre comment Meta cherche à lutter contre les rapports faux et trompeurs dans ses applications, qu’ils devront ensuite évaluer par rapport aux nouveaux critères de la loi sur les services numériques (DSA) pour suivre les progrès de Meta. .
Le DSA de l’UE concerne les plateformes en ligne comptant plus de 45 millions d’utilisateurs européens et comprend des dispositions spécifiques pour les situations de crise et les obligations des « grandes plateformes en ligne » de protéger leurs utilisateurs contre la désinformation au sein de leurs applications.
Selon la documentation DSA (paraphrasée pour plus de clarté) :
« En cas de crise, la Commission peut adopter une décision obligeant un ou plusieurs fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne à évaluer si le fonctionnement et l’utilisation de leurs services contribuent de manière significative à une menace grave, et à identifier et appliquer des mesures spécifiques, efficaces et proportionnées, pour prévenir, éliminer ou limiter toute contribution à la menace grave.
En d’autres termes, les plateformes sociales comptant plus de 45 millions d’utilisateurs dans l’UE doivent prendre des mesures proportionnées pour atténuer la propagation de la désinformation pendant une crise, comme l’ont évalué les responsables de l’UE.
Afin de faciliter cela, les règles exigent également que les grandes plateformes en ligne fassent rapport à la Commission à intervalles réguliers, afin de décrire les mesures spécifiques prises en réponse à cet incident.
L’UE a maintenant soumis ces demandes à Meta, X et TikTok, X ne semblant apparemment pas à la hauteur de ses attentes, étant donné qu’elle a également lancé une enquête sur son processus.
Les sanctions en cas de non-respect de ces obligations pourraient être des amendes s’élevant à 6% du chiffre d’affaires mondial annuel d’une entreprisepas seulement son apport dans l’UE.
Meta est probablement moins à risque à cet égard, car ses programmes d’atténuation sont bien établis et évoluent depuis un certain temps.
En effet, Meta note qu’il n’a « pasle plus grand réseau de vérification des faits tiers de toutes les plateformes », contribuant ainsi à alimenter ses efforts pour limiter activement la propagation de contenus potentiellement dangereux.
X, après avoir récemment éliminé 80 % de son personnel mondial, pourrait se trouver dans une situation plus difficile, avec sa nouvelle approche, qui s’appuie davantage sur la vérification participative des faits via les notes de la communauté, ne parvenant apparemment pas à détecter tous les incidents de désinformation autour du monde. attaques. Diverses analyses tierces ont montré que la désinformation et les faux rapports se propagent via les publications de X, et qu’il pourrait être difficile pour X de tous les détecter avec ses ressources désormais limitées.
Pour être clair, X a également répondu à la demande de l’UE demande de plus d’informations, décrivant comment il est possible de prendre des mesures pour gérer cela. Mais il appartiendra désormais aux responsables de l’UE d’évaluer si l’UE en fait suffisamment pour répondre aux exigences du DSA.
Ce qui, bien sûr, est la même situation que celle dans laquelle se trouve Meta, même si, encore une fois, les systèmes de Meta sont bien établis et sont plus susceptibles de répondre aux nouvelles exigences.
Il sera intéressant de voir comment les analystes de l’UE perçoivent cette situation et ce que cela signifie pour chaque plateforme à l’avenir.
X peut-il réellement remplir ces obligations ? TikTok sera-t-il en mesure de respecter des exigences d’application plus strictes, conformément à son approche d’amplification algorithmique ?
Il s’agit d’un test clé, alors que nous entrons dans la prochaine étape où les responsables de l’UE dicteront largement une politique de plateforme sociale plus large.