Avec les derniers exemples de vidéos d’IA générative qui impressionnent par leur précision, ils soulignent également la menace potentielle à laquelle nous sommes désormais confrontés en raison du contenu artificiel, qui pourrait bientôt être utilisé pour représenter des scènes irréelles, mais convaincantes, susceptibles d’influencer les opinions et le comportement des gens.
Par exemple, un tel contenu pourrait avoir un impact sur la façon dont les gens votent.
Dans cette optique, à la fin de la semaine dernière, lors de la Conférence sur la sécurité de Munich 2024, les représentants de presque toutes les grandes entreprises technologiques ont convenu d’un nouveau pacte pour mettre en œuvre des « précautions raisonnables » pour empêcher que les outils d’IA ne soient utilisés pour perturber des élections démocratiques.
Selon le Accord technologique pour lutter contre l’utilisation trompeuse de l’IA lors des élections de 2024:
« 2024 apportera plus d’élections à un plus grand nombre de personnes que n’importe quelle année dans l’histoire, avec plus de 40 pays et plus de quatre milliards de personnes choisissant leurs dirigeants et représentants grâce au droit de vote. Dans le même temps, le développement rapide de l’intelligence artificielle, ou IA, crée de nouvelles opportunités ainsi que de nouveaux défis pour le processus démocratique. L’ensemble de la société devra tirer parti des opportunités offertes par l’IA et prendre ensemble de nouvelles mesures pour protéger les élections et le processus électoral au cours de cette année exceptionnelle.
Les dirigeants de Google, Meta, Microsoft, OpenAI, X et TikTok font partie de ceux qui ont accepté le nouvel accord, qui prévoit idéalement une coopération et une coordination plus larges pour aider à lutter contre les contrefaçons générées par l’IA avant qu’elles n’aient un impact.
L’accord énonce sept éléments clés, que tous les signataires ont accepté, en principe, comme mesures clés :
Le principal avantage de l’initiative est l’engagement de chaque entreprise à travailler ensemble pour partager les meilleures pratiques et « explorer de nouvelles voies pour partager les meilleurs outils et/ou signaux techniques sur le contenu électoral trompeur de l’IA en réponse aux incidents ».
L’accord définit également l’ambition pour chacun « de s’engager avec un ensemble diversifié d’organisations mondiales de la société civile et d’universitaires » afin de contribuer à une compréhension plus large du paysage mondial des risques.
C’est une démarche positive, mais non contraignante, et il s’agit plutôt d’un geste de bonne volonté de la part de chaque entreprise pour œuvrer aux meilleures solutions. En tant que tel, il ne définit pas les mesures définitives à prendre ni les sanctions en cas de non-respect de ces mesures. Mais idéalement, cela ouvre la voie à une action collaborative plus large pour mettre fin au contenu trompeur de l’IA avant qu’il puisse avoir un impact significatif.
Même si cet impact est relatif.
Par exemple, lors des récentes élections indonésiennes, divers éléments d’IA deepfake ont été utilisés pour influencer les électeurs, notamment une représentation vidéo du leader décédé Suharto conçue pour inspirer le soutien, et des versions caricaturales de certains candidats, afin d’adoucir leur image publique.
Celles-ci ont été générées par l’IA, ce qui est clair dès le départ, et personne ne pourrait être induit en erreur en croyant qu’il s’agissait d’images réelles de l’apparence des candidats, ni que Suharto était revenu d’entre les morts. Mais l’impact de tels éléments peut être significatif, même avec cette connaissance, qui souligne leur pouvoir de perception, même s’ils sont ensuite supprimés, étiquetés, etc.
Cela pourrait être le vrai risque. Si une image de Joe Biden ou de Donald Trump générée par l’IA a suffisamment de résonance, son origine pourrait être insignifiante, car elle pourrait toujours influencer les électeurs en fonction de la représentation, qu’elle soit réelle ou non.
La perception compte, et l’utilisation intelligente des deepfakes aura un impact et influencera certains électeurs, quelles que soient les garanties et précautions.
C’est un risque que nous devons désormais assumer, étant donné que de tels outils sont déjà facilement disponibles et, comme les médias sociaux auparavant, nous allons évaluer les impacts rétrospectivement, au lieu de boucher les trous à l’avance.
Parce que c’est ainsi que fonctionne la technologie, on avance vite, on casse des choses. Ensuite, nous ramassons les morceaux.