Après avoir appelé à des soumissions publiques sur sa politique sur les deepfakes le mois dernier, Twitter a maintenant publié son projet de règles pour la gestion de ce contenu sur sa plate-forme et pour répondre aux préoccupations liées au contenu manipulé numériquement.
Comme expliqué par Twitter:
« Lorsque vous venez sur Twitter pour voir ce qui se passe dans le monde, nous voulons que vous ayez un contexte sur le contenu que vous voyez et avec lequel vous interagissez. Les tentatives délibérées d’induire en erreur ou de confondre les gens par le biais de médias manipulés sapent l’intégrité de la conversation. «
Les Deepfakes sont devenus un objectif majeur pour les fournisseurs en ligne ces derniers temps, Google et Facebook lançant également de nouvelles initiatives de recherche pour les aider à détecter et à agir de la même manière.
Pour sa part, Twitter prévoit de mettre en œuvre un nouvel ensemble de processus qui:
- Placez un avis à côté des Tweets qui partagent des médias synthétiques ou manipulés;
- Avertir les gens avant de partager ou d’aimer des Tweets avec des médias synthétiques ou manipulés; ou alors
- Ajoutez un lien – par exemple, vers un article de presse ou un moment Twitter – afin que les gens puissent en savoir plus sur les raisons pour lesquelles diverses sources pensent que les médias sont synthétiques ou manipulés.
Bien sûr, ces mesures sont relatives à la détection, qui est un autre élément de la recherche, mais Twitter cherche à prendre une longueur d’avance en s’assurant qu’il a mis en place des politiques claires pour traiter les deepfakes avant qu’ils ne deviennent une préoccupation plus importante.
À l’heure actuelle, les deepfakes – ou les vidéos / images modifiées numériquement qui semblent montrer une personne en train de faire ou de dire quelque chose qu’elle n’a pas – semblent plutôt être une nouveauté, une expérience intéressante, elles ne semblent pas être une confidentialité ou une sécurité majeure. publier. Mais ils deviendront une préoccupation plus importante à cet égard – par exemple, découvrez ce que les gens peuvent faire avec une application simple qui place leur ressemblance dans un mouvement ou une scène télévisée:
Au cas où vous n’auriez pas entendu, #ZAO est une application chinoise qui a complètement explosé depuis vendredi. Meilleure application de remplacement facial AI de style « Deepfake » que j’ai jamais vue.
Voici un exemple de moi en tant que DiCaprio (généré en moins de 8 secondes à partir de cette photo dans la vignette) ???? pic.twitter.com/1RpnJJ3wgT
– Allan Xia (@AllanXia) 1 septembre 2019
Encore plus loin, jetez un œil au niveau de sophistication que les deepfakes peuvent atteindre, avec une intégration visuelle transparente dans le contenu vidéo.
Vous pouvez donc imaginer comment la même chose pourrait être traduite dans d’autres voies, même dans des annonces officielles de politiciens, ce qui pourrait convaincre suffisamment de gens que c’est légitime.
Mais ce n’est clairement pas légitime, non? Ce n’est clairement pas Barack Obama qui parle. Nous pouvons le voir, et nous pourrons voir la même chose dans les futurs contrefaçons, en évitant toute manipulation potentielle. Droite?
Compte tenu des problèmes auxquels nous avons été confrontés avec les «fausses nouvelles» ces derniers temps et de l’utilisation de séquences vidéo ou d’images souvent plus anciennes ou hors contexte afin de provoquer une réaction émotionnelle, il s’agit d’un sujet de préoccupation majeur.
Par exemple, cette vidéo faisait le tour sur Facebook l’année dernière, prétendant être un homme musulman dégradant une sculpture chrétienne en Italie:
Comme vous pouvez le voir, la vidéo a accumulé des millions de vues et a été repartagée par de nombreux utilisateurs de Facebook, dont la plupart ont ajouté leurs propres commentaires haineux comme ceux-ci.
Sauf que ce n’est pas une vidéo d’un réfugié musulman ruinant une statue religieuse en Italie. La vidéo provenait en fait d’un incident survenu en Algérie en 2017 – l’homme a attaqué la statue de la fontaine d’Ain El Fouara parce qu’elle représente une femme nue, qu’il juge indécente. La même statue a été vandalisée à plusieurs reprises pour la même raison, car l’Algérie est une nation à majorité musulmane, et beaucoup considèrent la représentation comme déplaisante.
Mais la vérité n’est pas claire à partir des images seules, et la recherche a montré que les gens chercheront à partager du contenu qui soutient leurs propres croyances, et seront donc moins susceptibles de vérifier les mêmes faits.
Cela se produit déjà maintenant. Vous pouvez imaginer que les deepfakes ne feront qu’ «approfondir» ces problèmes.
Bien que cela ne semble pas être un problème majeur pour le moment, il est clair que les deepfakes deviendront un problème, c’est pourquoi il est bon de voir Twitter, avec Facebook et Google, aller de l’avant maintenant. Parce que dans quelques années, ce ne sera pas une vidéo de 2017 qui sera diffusée pour inciter à la colère, ce seront des déclarations de politiciens qu’ils n’ont jamais faites, mais qui pourraient convaincre suffisamment d’électeurs pour faire pencher la balance.
Imaginez, par exemple, qu’un groupe de militants politiques publie une vidéo deepfake assez convaincante d’un candidat faisant une déclaration préoccupante et la publie le jour du scrutin, limitant la fenêtre de clarification avant que les gens ne votent.
Encore une fois, il s’agit d’une préoccupation majeure et d’un domaine clé que les plates-formes doivent aborder.
Twitter dit qu’il le fera continuer à réviser sa politique deepfakes dans les mois à venir.