Alors que le débat fait rage autour de la protection des données numériques et des meilleurs moyens de garantir la sécurité des informations personnelles des personnes en ligne, un autre domaine clé qui émerge lentement comme une préoccupation plus importante est celui des « deepfakes ».
Les Deepfakes sont des vidéos qui ont été manipulées pour donner l’impression qu’une personne dit et / ou fait quelque chose qu’elle n’a pas fait – des exemples de cela en action ont vu des visages de célébrités ajoutés à la pornographie, et des politiciens américains faisant des aveux qui pourraient en fait tromper certains utilisateurs.
Comme vous pouvez le voir dans l’exemple ci-dessus, la technologie n’est pas encore à 100%, mais elle s’améliore, et il ne faudra pas longtemps pour séparer la vérité de la fiction de plus en plus difficile.
Facebook anticipe cela et plutôt que de laisser cela devenir un nouvel élément du paysage plus large des « fake news », il cherche à établir de nouvelles garanties pour la détection afin de devancer la prochaine vague de deepfake.
Cette semaine, Facebook a annoncé un nouveau défi profond qui verra Facebook travailler avec une gamme d’établissements universitaires pour établir de meilleures méthodes pour déterminer les faux contenus vidéo, et probablement les supprimer des plateformes en ligne.
Comme expliqué par Facebook:
« Le but du défi est de produire une technologie que tout le monde peut utiliser pour mieux détecter quand l’IA a été utilisée pour modifier une vidéo afin d’induire le spectateur en erreur. Le Deepfake Detection Challenge comprendra un ensemble de données et un classement, ainsi que des subventions et des récompenses, pour inciter l’industrie à créer de nouvelles façons de détecter et d’empêcher les médias manipulés via l’IA d’être utilisés pour induire les autres en erreur. La gouvernance du défi sera facilitée et supervisée par le nouveau Comité directeur du Partenariat sur l’IA sur l’IA et l’intégrité des médias, qui est composé d’une large coalition intersectorielle d’organisations comprenant Facebook, WITNESS, Microsoft et d’autres acteurs de la société civile et la technologie, les médias et les communautés universitaires. «
De son côté, Facebook consacre 10 millions de dollars au financement de la recherche associée, qui comprendra la création d’un nouvel ensemble de données, utilisant des acteurs rémunérés pour créer des vidéos deepfake.
C’est une initiative importante – comme indiqué dans le premier exemple ci-dessus, les deepfakes n’en sont pas encore au stade où ils sont vraiment convaincants. Mais ils y arriveront, et avec des applications déjà disponibles qui permettent aux utilisateurs de placer numériquement leur ressemblance dans des scènes de films et d’émissions de télévision, il n’est pas difficile de les imaginer causer une confusion significative dans un avenir proche.
Au cas où vous n’auriez pas entendu, #ZAO est une application chinoise qui a complètement explosé depuis vendredi. Meilleure application de remplacement facial AI de style « Deepfake » que j’ai jamais vue.
Voici un exemple de moi en tant que DiCaprio (généré en moins de 8 secondes à partir de cette photo dans la vignette) ???? pic.twitter.com/1RpnJJ3wgT
– Allan Xia (@AllanXia) 1 septembre 2019
Cela semble amusant pour le moment, mais le potentiel d’abus est important et il est important que toutes les mesures possibles soient prises pour assurer la transparence sur le terrain.
Vous pouvez en savoir plus sur Facebook Deepfake Detection Challenge (DFDC) ici.