Facebook a décrit ses efforts en constante évolution pour détecter et supprimer les « images intimes non consensuelles », ou pornographie de vengeance, dans ses applications, en utilisant l’apprentissage automatique avancé pour mieux identifier ce contenu plus rapidement, afin de protéger les victimes.
Selon Facebook:
« En utilisant l’apprentissage automatique et l’intelligence artificielle, nous pouvons désormais détecter de manière proactive des images ou des vidéos presque nues qui sont partagées sans autorisation sur Facebook et Instagram. Cela signifie que nous pouvons trouver ce contenu avant que quiconque ne le signale, ce qui est important pour deux raisons: souvent les victimes ont peur des représailles et sont donc réticentes à signaler elles-mêmes le contenu, ou elles ou ils ne savent pas que le contenu a été partagé. «
Dans ce contexte, Facebook élargit maintenant le programme pilote qu’il a lancé en 2017, qui permet aux utilisateurs de soumettre une photo à Facebook, à partir de laquelle l’équipe de Facebook peut créer une «empreinte numérique» de l’image et l’empêcher d’être partagée.
Le programme a suscité une certaine controverse lors de son premier test auprès des utilisateurs australiens, craignant que Facebook ne demande aux gens de télécharger des images nues afin d’arrêter la propagation de la même chose.
Facebook dit qu’il a largement a reçu des commentaires positifs de la part des victimes et des organisations de soutien en ce qui concerne l’option, ce qui lui permettra d’étendre ce pilote au cours des prochains mois, «afin que davantage de personnes puissent bénéficier de cette option en cas d’urgence».
Facebook lance également un nouvel élément dans son centre de sécurité qui sera uniquement dédié à fournir un soutien aux victimes de la vengeance pornographique.
« Ici, les victimes peuvent trouver des organisations et des ressources pour les soutenir, y compris les mesures qu’elles peuvent prendre pour supprimer le contenu de notre plate-forme et empêcher qu’il ne soit plus partagé – et elles peuvent accéder à notre programme pilote. Nous allons également le rendre plus facile et plus intuitif pour les victimes de signaler lorsque leurs images intimes ont été partagées sur Facebook. Et au cours des prochains mois, nous créerons une boîte à outils d’aide aux victimes pour donner aux gens du monde entier plus d’informations avec un soutien local et culturel. »
Le porno de vengeance est devenu un problème important ces derniers temps – selon des recherches, autour de un Américain sur 25 est soit menacé, soit victime d’un partage d’image non consensuel, ce qui équivaut à environ 10 millions d’Américains chaque année. Et les impacts peuvent être importants, une étude de la Cyber Civil Rights Initiative a révélé que 51% des victimes américaines de vengeance pornographique ont envisagé de se suicider à la suite de l’incident.
Compte tenu de cela, il est important que les plateformes sociales fournissent des moyens d’aider et de soutenir les victimes. Les outils d’identification d’images de Facebook sont un grand pas en avant à cet égard, et nous espérons en atténuer l’impact et fournir un certain niveau d’assurance à ceux qui en ont besoin.