Meta est confrontée à davantage de questions concernant ses efforts d’application du CSAM, après que de nouvelles enquêtes ont révélé que de nombreux cas de contenu pédopornographique sont toujours diffusés sur les réseaux de Meta.
Comme le rapporte le Wall Street Journal, des groupes de recherche indépendants, notamment le Stanford Internet Observatory et le Centre canadien de protection de l’enfanceont suivi divers cas de groupes diffusant des abus sexuels sur des enfants sur Facebook et Instagram.
Selon le WSJ :
« Les tests montrent que le problème s’étend au-delà d’Instagram pour englober l’univers beaucoup plus large des groupes Facebook, y compris les grands groupes explicitement centrés sur la sexualisation des enfants. Un porte-parole de Meta a déclaré que l’entreprise avait masqué 190 000 groupes dans les résultats de recherche de Facebook et désactivé des dizaines de milliers d’autres comptes, mais que le travail n’avait pas progressé aussi vite qu’il l’aurait souhaité.»
Encore plus inquiétant, une enquête qui a suivi le CSAM Les réseaux Instagram (dont certains rassemblent plus de 10 millions de followers) ont constaté que les groupes continuaient de diffuser en direct des vidéos d’abus sexuels sur des enfants dans l’application, même après avoir été signalés à plusieurs reprises aux modérateurs de Meta.
En réponse, Meta affirme qu’elle travaille désormais en partenariat avec d’autres plateformes pour améliorer leurs efforts collectifs d’application, tout en améliorant sa technologie pour identifier les contenus offensants. Meta étend également ses efforts de détection de réseau, qui identifient par exemple quand des adultes tentent d’entrer en contact avec des enfants, le processus étant désormais également déployé pour empêcher les pédophiles de se connecter entre eux dans ses applications.
Mais le problème reste un défi constant, car les acteurs CSAM s’efforcent d’échapper à la détection en révisant leurs approches conformément aux efforts de Meta.
CSAM est une préoccupation majeure pour toutes les plateformes sociales et de messagerie, Meta en particulier, en raison de sa taille et de sa portée, assumant une responsabilité encore plus grande sur ce front.
Les propres statistiques de Meta sur la détection et la suppression de matériel pédopornographique renforcent ces préoccupations. Tout au long de 2021, Meta détecté et signalé 22 millions d’images de maltraitance d’enfants au Centre national pour les enfants disparus et exploités (NCMEC). En 2020, le NCMEC a également signalé que FAcebook était responsable de 94 % des 69 millions d’images d’abus sexuels sur des enfants signalées par des entreprises technologiques américaines.
De toute évidence, les plateformes de Meta facilitent une part importante de cette activité, ce qui a également été souligné comme l’une des principales raisons s’opposant au passage progressif de Meta vers l’activation par défaut du cryptage complet de la messagerie dans toutes ses applications de messagerie.
Avec le cryptage activé, personne ne pourra pénétrer dans ces groupes et arrêter la distribution de ce contenu, mais le contraire est le désir des gens ordinaires d’avoir plus de confidentialité et de limiter la surveillance par des tiers dans leurs discussions privées.
Cela vaut-il le risque potentiel d’une distribution élargie de CSAM ? C’est l’évaluation que les régulateurs ont tenté d’évaluer, tandis que Meta continue de faire avancer le projet, qui verra bientôt tous les messages dans Messenger, IG Direct et WhatsApp cachés à toute vue extérieure.
Il s’agit d’un équilibre difficile, qui souligne la frontière ténue que les plateformes sociales tracent toujours entre modération et confidentialité. C’est l’un des principaux ennuis d’Elon Musk, qui fait pression pour autoriser davantage de discours dans son application sociale, mais cela aussi entraîne ses propres inconvénients, dans son cas, sous la forme d’annonceurs choisissant de ne pas afficher leurs promotions dans son application. .
Il n’y a pas de réponses faciles, et il y aura toujours des considérations difficiles, surtout lorsque la motivation ultime d’une entreprise est alignée sur le profit.
En effet, selon le WSJ, Meta, confrontée à une pression croissante sur ses revenus plus tôt cette année, a déclaré ses équipes d’intégrité de donner la priorité aux objectifs qui réduiraient les « frictions des annonceurs », tout en évitant les erreurs qui pourraient « limiter par inadvertance l’utilisation bien intentionnée de nos produits ».
Une autre partie du défi ici est que les systèmes de recommandation de Meta connectent par inadvertance davantage d’utilisateurs partageant les mêmes idées en les aidant à trouver des groupes et des personnes similaires, et Meta, qui s’efforce de maximiser l’utilisation, n’est pas incité à limiter ses recommandations à cet égard.
Meta, comme indiqué, s’efforce toujours de limiter la propagation du matériel lié au CSAM. Mais avec les groupes CSAM qui mettent à jour leur façon de communiquer et les termes qu’ils utilisent, il est parfois impossible pour les systèmes Meta de détecter et d’éviter les recommandations associées basées sur une activité utilisateur similaire.
Les derniers rapports interviennent également alors que Meta fait l’objet d’un nouvel examen minutieux en Europe, avec l’UE les régulateurs demandent plus de détails sur sa réponse aux problèmes de sécurité des enfants sur Instagram et sur ce que fait exactement Meta pour lutter contre le contenu CSAM dans l’application.
Cela pourrait amener Meta à de lourdes amendes ou à de nouvelles sanctions de la part de l’UE dans le cadre des nouvelles réglementations DSA dans la région.
Cela reste un objectif essentiel et un domaine difficile pour toutes les applications sociales, Meta étant désormais soumise à une pression accrue pour faire évoluer ses systèmes et garantir une plus grande sécurité dans ses applications.
La Commission européenne a donné à Meta le 22 décembre pour présenter ses efforts évolutifs dans ce domaine.