Réseaux sociaux

Facebook présente de nouvelles mesures pour mieux détecter et supprimer le matériel d’exploitation des enfants

Facebook a annoncé de nouvelles mesures pour mieux détecter et supprimer le contenu exploitant les enfants, notamment des mises à jour d’avertissements, des alertes automatisées améliorées et de nouveaux outils de reporting.

Facebook affirme avoir récemment mené une étude sur tous les contenu exploitant des enfants qu’il avait précédemment détecté et signalé aux autorités, afin de déterminer les raisons de ce partage, en vue d’améliorer ses processus. Leurs résultats ont montré que de nombreux cas de partage de ce type n’étaient pas intentionnels, mais les dommages causés par un tel partage sont toujours les mêmes et présentent toujours un risque important.

Sur cette base, il a maintenant amélioré ses politiques et ajouté de nouvelles alertes variables pour dissuader un tel comportement.

La première nouvelle alerte est une fenêtre contextuelle qui sera présentée aux personnes qui recherchent des termes généralement associés à l’exploitation des enfants.

Comme l’explique Facebook:

« Le pop-up offre des moyens d’obtenir de l’aide des organisations de déjudiciarisation des délinquants et partage des informations sur les conséquences de la visualisation de contenu illégal. »

Avertissement d'exploitation d'enfants sur Facebook

Ceci est conçu pour résoudre les incidents où les utilisateurs peuvent ne pas savoir que le contenu qu’ils partagent est illégal et pourrait présenter un risque pour l’enfant ou les enfants impliqués.

Le deuxième type d’alerte est plus sérieux, informant les personnes qui ont partagé du contenu exploitant des enfants sur les dommages qu’il peut causer, tout en décrivant explicitement les politiques de Facebook et les sanctions à cet égard.

Avertissement d'exploitation d'enfants sur Facebook

« Nous partageons cette alerte de sécurité en plus de supprimer le contenu, de le mettre en banque et de le signaler au NCMEC. Les comptes qui font la promotion de ce contenu seront supprimés. Nous utilisons les informations de cette alerte de sécurité pour nous aider à identifier les signaux comportementaux de ceux qui pourraient être à risque de partager ce matériel, afin que nous puissions également les éduquer sur les raisons pour lesquelles il est nocif et les encourager à ne le partager sur aucune surface – publique ou privée. « 

Ces apprentissages pourraient être essentiels pour développer la prochaine avancée dans ses outils de détection et de dissuasion, tout en fournissant également des avertissements clairs et définitifs aux contrevenants actuels.

Facebook a également mis à jour son politiques de sécurité des enfants afin de clarifier ses règles et son application autour non seulement du matériel lui-même, mais également de l’engagement contextuel:

« Nous supprimerons les profils Facebook, les pages, les groupes et les comptes Instagram dédiés au partage d’images autrement innocentes d’enfants avec des légendes, des hashtags ou des commentaires contenant des signes d’affection inappropriés ou des commentaires sur les enfants représentés dans l’image. Nous avons toujours supprimé le contenu qui sexualise explicitement les enfants, mais un contenu qui n’est pas explicite et ne représente pas la nudité enfantine est plus difficile à définir. En vertu de cette nouvelle politique, même si les images seules ne peuvent pas enfreindre nos règles, le texte d’accompagnement peut nous aider à mieux déterminer si le contenu sexualise les enfants et si le profil, la page, le groupe ou le compte associé doit être supprimé. « 

Facebook a également amélioré son flux de signalement des utilisateurs pour de telles violations, qui verra également ces rapports. priorisé pour examen.

Avertissement d'exploitation d'enfants sur Facebook

C’est l’un des domaines d’intérêt les plus critiques pour Facebook. Avec près de 3 milliards d’utilisateurs, il est inévitable que des éléments criminels cherchent à utiliser et à abuser de ses systèmes à leurs propres fins, et Facebook doit veiller à faire tout ce qui est en son pouvoir pour détecter et protéger les jeunes contre les activités prédatrices.

Sur un front connexe, Facebook a fait l’objet d’un examen approfondi ces derniers temps sur son plan visant à offrir le cryptage des messages par défaut dans toutes ses applications de messagerie, qui défenseurs de la protection de l’enfance dire permettra aux anneaux d’exploitation d’utiliser ses outils, au-delà de la portée et de l’application des autorités. Divers représentants du gouvernement se sont joints aux appels pour empêcher Facebook de passer aux modèles de cryptage, ou pour que l’entreprise travaille avec les forces de l’ordre pour fournir un accès «  détourné  » comme alternative, ce qui pourrait finir par être un autre défi judiciaire auquel Facebook doit faire face en les mois à venir.

L’année dernière, le National Center for Missing and Exploited Children (NCMEC) a rapporté que Facebook était responsable de 94% des 69 millions d’images d’abus pédosexuels rapportées par les entreprises technologiques américaines. Les chiffres soulignent la nécessité d’une action accrue sur ce front, et bien que ces nouvelles mesures de Facebook soient d’une importance cruciale, il est clair que davantage doit être fait pour répondre aux préoccupations potentielles associées au cryptage des messages et à la capacité d’un tel contenu à être utilisé pour détecter les délinquants.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.