Alors que d’autres plates-formes de médias sociaux examinent comment elles peuvent utiliser des médias manipulés pour des fonctionnalités, y compris les deepfakes, Facebook a annoncé la première itération de sa politique visant à arrêter la propagation de fausses vidéos trompeuses, dans le cadre de son effort plus large pour prévenir l’augmentation potentielle. de vidéos deepfake problématiques.
Facebook dit avoir rencontré des experts dans le domaine pour formuler sa politique, y compris des personnes « ayant une formation technique, politique, médiatique, juridique, civique et universitaire ».
Selon Facebook:
« À la suite de ces partenariats et discussions, nous renforçons notre politique à l’égard des vidéos manipulées trompeuses qui ont été identifiées comme des deepfakes. À l’avenir, nous supprimerons les médias manipulés trompeurs s’ils répondent aux critères suivants:
- Il a été édité ou synthétisé – au-delà des ajustements pour la clarté ou la qualité – d’une manière qui n’est pas apparente pour une personne moyenne et qui induirait probablement quelqu’un en erreur en lui faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas réellement prononcés. Et:
- C’est le produit de l’intelligence artificielle ou de l’apprentissage automatique qui fusionne, remplace ou superpose du contenu sur une vidéo, lui donnant l’impression d’être authentique. «
Facebook dit que ses nouvelles politiques ne s’étendent pas au contenu qui est parodie ou satire, « ou vidéo qui a été éditée uniquement pour omettre ou changer l’ordre des mots ». Ce dernier peut sembler quelque peu problématique, mais ce type d’édition est déjà couvert dans les règles existantes de Facebook – bien que Facebook note également que:
« Les vidéos qui ne répondent pas à ces normes de suppression sont toujours éligible pour examen par un of nos vérificateurs de faits tiers indépendants, qui comprend plus de 50 partenaires mondiaux de vérification des faits dans plus de 40 langues. Si une photo ou une vidéo est jugée fausse ou partiellement fausse par un vérificateur de faits, nous réduisons considérablement sa diffusion dans le fil d’actualité et la rejetons si elle est diffusée en tant que publicité. Et surtout, les personnes qui le voient, essaient de le partager ou l’ont déjà partagé verront des avertissements les avertissant que c’est faux. «
Alors pourquoi Facebook ne les supprime-t-il pas également – si Facebook a la capacité d’identifier le contenu comme faux, et qu’il est signalé comme une violation, Facebook pourrait simplement le supprimer, deepfake ou non, et l’éliminer comme un problème.
Mais Facebook dit que cette approche pourrait être contre-intuitive, car ces mêmes images / vidéos seront disponibles ailleurs en ligne.
« Cette approche est essentielle à notre stratégie et celle que nous avons spécifiquement entendue lors de nos conversations avec des experts. Si nous supprimions simplement toutes les vidéos manipulées signalées par les vérificateurs de faits comme étant fausses, les vidéos seraient toujours disponibles ailleurs sur Internet ou dans l’écosystème des médias sociaux. En les laissant de côté et en les qualifiant de faux, nous fournissons aux gens des informations et un contexte importants. «
Ainsi, Facebook a formulé sa décision de ne pas supprimer certains contenus manipulés comme un devoir civique, ce qui est similaire à son approche sur les publicités politiques, que Facebook ne soumettra pas à la vérification des faits parce que:
« Les gens devraient pouvoir voir par eux-mêmes ce que disent les politiciens. Et si le contenu est digne d’intérêt, nous ne le retirerons pas non plus, même s’il entrerait autrement en conflit avec bon nombre de nos normes. «
Donc, cela aide, cela sert l’intérêt public – et Facebook ne profite en aucun cas de l’hébergement de ce contenu, et de l’engagement ultérieur qu’il génère, sur sa plate-forme, au lieu de le supprimer, puis, potentiellement, de voir les utilisateurs migrer vers un autre réseau social. réseau afin de faciliter la même discussion. Cela n’a rien à voir avec ça. Au seul profit du public.
Mis à part le scepticisme, les deepfakes sont clairement un sujet de préoccupation pour les grands réseaux à l’approche de 2020, Twitter, Google et Facebook menant tous leurs propres projets de recherche indépendants pour établir les meilleurs moyens de détecter et de supprimer ce contenu. Ils ne le font pas sans raison – avec autant d’emphase sur les dangers potentiels des deepfakes pour les messages manipulateurs, cela pourrait bien suggérer que les plates-formes se concentrent de plus en plus sur ce type d’activité de la part de mauvais acteurs, et qu’elles travaillent à tuez-le avant qu’il n’ait une chance de causer des problèmes.
Compte tenu de l’accent mis sur la désinformation depuis 2016 et de la volonté de certains de croire ce qu’ils choisissent, vous pouvez imaginer que les deepfakes pourraient en effet être une arme majeure pour les militants politiques. Et pire, dans de nombreux cas, même lorsqu’une fausse vidéo s’est avérée fausse, il est déjà trop tard. Le mal a été fait, la colère s’est ancrée, l’opinion s’est formée.
À titre d’exemple, cette vidéo circule sur Facebook depuis quelques années, représentant un réfugié musulman brisant une statue chrétienne en Italie avec un marteau.
Sauf que ce n’est pas une statue chrétienne, ce n’est pas un réfugié et la vidéo n’a pas été enregistrée en Italie. L’incident a eu lieu en 2017 en Algérie – une nation à majorité musulmane – où la statue d’une femme nue a longtemps fait l’objet de débats religieux.
Ce cadrage trompeur de la vidéo a été démystifié, à plusieurs reprises, et signalé. Mais cela revient encore de temps en temps, suscitant un sentiment anti-musulman, même si les détails sont complètement faux (et comme vous pouvez le voir, cette version a été vue plus de 1,1 million de fois).
Cette vidéo n’est pas un deepfake, mais comme indiqué, même si les gens peuvent faire défiler les commentaires et découvrir que c’est faux, même si cela a été démystifié à maintes reprises, cela n’a en grande partie pas d’importance. Le cycle des actualités sur les réseaux sociaux évolue rapidement et le partage est facile. La plupart des utilisateurs voient des choses comme celle-ci une fois, prennent-les au pied de la lettre, les transmettent, puis passent à la suite.
Vous pouvez imaginer que la même approche s’appliquera aux deepfakes – que se passe-t-il, par exemple, si quelqu’un publie un deepfake de Joe Biden en train de condamner? Diverses vidéos de Biden manifestement manipulées passent déjà au crible le réseau de Facebook – un deepfake gagnerait probablement du terrain très rapidement, probablement trop vite pour régner. Les opinions se sont solidifiées, les réponses se font sentir.
Vous pouvez voir pourquoi, alors, tous les principaux acteurs travaillent si dur pour éviter ce prochain niveau de manipulation à la passe.
Comme indiqué, cela survient également lorsque TikTok travaillerait sur un nouvel outil qui transformera les deepfakes en une fonctionnalité, en quelque sorte.
TikTok dit qu’il n’a pas l’intention de publier la fonctionnalité sur les marchés en dehors de la Chine, la fonctionnalité étant en fait testée à Douyin, la version chinoise de TikTok. Mais étant donné l’exigence potentielle de l’application de partager ses données avec le gouvernement chinois, cela pourrait être encore plus inquiétant – grâce à ce processus, les utilisateurs devraient fournir un scan biométrique du visage, que TikTok pourrait alors, en théorie, stocker sur ses serveurs.
Le gouvernement chinois a le plus sophistiqué réseau de surveillance citoyenne dans le monde, comprenant plus de 170 millions de caméras de vidéosurveillance, soit l’équivalent d’une pour 12 personnes dans le pays. Toutes ces caméras sont équipées d’une capacité de reconnaissance faciale avancée, et la Chine l’utilise déjà pour identifier les musulmans d’Uighar, les personnes qui ont échappé aux amendes et les manifestants à Hong Kong.
Imaginez s’il disposait également d’une base de données d’utilisateurs de TikTok, rendue disponible par cette fonctionnalité? On pourrait affirmer que la plupart des adultes ont un permis de conduire, et que cela suffirait à déclencher le système malgré tout, mais seuls 369 millions de Chinois sont enregistrés pour conduire, sur 1,39 milliard de citoyens, tandis que les utilisateurs de TikTok peuvent s’inscrire à partir du l’âge de 13 ans. C’est beaucoup de données précieuses.
Outre les problèmes de manipulation des deepfakes, TikTok a peut-être également trouvé un nouveau problème à résoudre (note: TikTok a déclaré que la fonctionnalité, qui n’est pas approuvée, ne serait disponible que pour les utilisateurs plus âgés).
En résumé, les deepfakes pourraient devenir un problème majeur, sur plusieurs fronts, c’est pourquoi Facebook s’emploie maintenant à arrêter la prochaine tendance majeure de désinformation.
Comme Ben Smith, le rédacteur en chef de BuzzFeed noté récemment:
« Je pense que les médias sont tout à fait prêts à ne pas répéter les erreurs du dernier [election] cycle … mais je suis sûr que nous le ferons d’une manière nouvelle à laquelle nous ne nous attendons pas. »
Les deepfakes pourraient-ils déséquilibrer le prochain cycle électoral?
Certainement un élément à surveiller en 2020.