Avec diverses élections majeures qui se tiendront dans le monde en 2024 et les inquiétudes autour de différents aspects de la sphère de l’information numérique, nous avons l’impression d’être sur une trajectoire de collision de désinformation, où les leçons du passé sont rejetées ou ignorées, au profit quel que soit le point de vue idéologique ou idéaliste apportera plus de valeur à ceux qui tirent les ficelles.
Et tandis que les plateformes sociales disent toutes les bonnes choses et s’engagent à améliorer leurs mesures de sécurité avant le scrutin, nous observons déjà des signes d’activités d’influence significatives, qui auront inévitablement un impact sur les résultats du vote. Que cela nous plaise ou non.
La première préoccupation majeure concerne l’ingérence étrangère et l’influence des acteurs étatiques sur la politique mondiale.
Cette semaine, par exemple, Meta a rapporté la découverte de plus de 900 faux profils sur ses applicationsqui utilisaient des images de profil génératives d’IA et étaient effectivement utilisées pour espionner des journalistes et des militants politiques étrangers via leur activité dans l’application.
Une enquête menée par le Tech Transparency Project, quant à lui, a découvert que X avait approuvé divers dirigeants de groupes terroristes pour ses coches de vérification payantes, leur donnant non seulement une crédibilité supplémentaire, mais amplifiant également leurs publications dans l’application. À la fin de l’année dernière, Meta a également annoncé la suppression de deux opérations d’influence majeures opérant à partir de Russie, qui impliquaient plus de 1 600 comptes Facebook et 700 pages Facebook, et avait cherché à influencer l’opinion mondiale sur le conflit ukrainien.
Ce n’est ni sans précédent ni inattendu. Mais la prévalence et la persistance de telles campagnes soulignent le problème auquel sont confrontés les réseaux sociaux pour contrôler la désinformation et garantir que les électeurs restent informés avant les grands scrutins.
En effet, presque toutes les plateformes ont partagé un aperçu de l’étendue de l’activité d’influence étrangère :
- Meta a également récemment signalé la détection et la suppression d’une opération d’influence basée en Chine, qui utilisait Facebook et Instagram. des profils qui se faisaient passer pour des membres de familles de militaires américains et ont amplifié les critiques de la politique étrangère américaine à l’égard de Taiwan, d’Israël, ainsi que de son soutien à l’Ukraine. Le groupe a également partagé une fausse pétition critiquant le soutien américain à Taiwan. La pétition aurait recueilli plus de 300 signatures.
- En 2022, Google a signalé avoir a perturbé plus de 50 000 instances d’activité sur YouTube, Blogger et AdSense (profils, chaînes, etc.) menées par un groupe d’influence basé en Chine connu sous le nom de Dragonbridge. Les comptes Dragonbridge publient principalement du contenu apolitique de mauvaise qualité, tout en y insufflant des messages pro-Chine. Cette approche a été baptisée « Spamouflage » en raison de la pratique consistant à cacher des messages politiques parmi des courriers indésirables.
- Meta a également découvert des choses similaires, notamment la suppression d’un groupe composé de plus de 8 600 comptes, pages, groupes et comptes Instagram Facebook en août de l’année dernièrequi avait été diffuser des messages pro-Chine, tout en attaquant également les critiques des politiques du PCC. Les enquêtes de Meta ont révélé que le même réseau exploitait également des groupes de comptes sur Twitter, X, TikTok, Reddit et bien d’autres encore.
- X ne partage plus le même niveau de profondeur dans les mesures de contrôle des comptes que lorsqu’il s’appelait Twitter, mais il a également signalé la détection et la suppression de diverses opérations basées en Russie et en Iran destiné à influencer le débat politique.
- Même Pinterest signalé qu’il a été pris pour cible par des groupes soutenus par la Russie cherchant à influencer les élections étrangères.
Comme vous pouvez le constater, les opérations russes et chinoises sont les plus répandues, ce sont les mêmes deux régions qui ont été accusées de chercher à influencer les électeurs américains avant l’élection présidentielle américaine de 2016.
Et pourtant, la semaine dernière encore, X a joyeusement fait la promotion d’une interview entre Tucker Carlson et le président russe Vladimir Poutine, donnant une tribune dominante aux idées mêmes que ces groupes ont mis des années et des efforts technologiques importants à supprimer.
Ce qui, de l’avis de certaines personnes, constitue le problème, dans la mesure où ces opinions ne devraient pas être supprimées ou restreintes. Nous sommes tous assez intelligents pour déterminer par nous-mêmes ce qui est bien et mal, nous sommes tous des adultes, nous devrions donc être capables de voir différents points de vue et de les juger selon leurs mérites.
C’est le point de vue du propriétaire de X, Elon Musk, qui a souligné à plusieurs reprises qu’il souhaitait permettre un discours complet et ouvert dans l’application, qu’il s’agisse de propagande offensante, nuisible ou même flagrante.
Selon Musc:
« Toute information est, dans une certaine mesure, de la propagande. Laissons les gens décider eux-mêmes.
En théorie, cette approche a une valeur, et même un droit, dans la mesure où elle donne aux individus la liberté de prendre leur propre décision. Mais comme pour la campagne électorale américaine de 2016, dont diverses enquêtes ont révélé qu’elle était au moins en partie influencée par des opérations soutenues par la Russie, permettre une telle campagne peut conduire à une militarisation de l’information, au profit de celui qui est le plus à même d’orienter l’opinion, quelle que soit l’approche. leur propre morale le permet.
Cela peut aller, par exemple, à l’organisation de rassemblements de groupes politiques rivaux aux mêmes endroits et aux mêmes moments, afin d’attiser davantage la division et l’angoisse. En tant que tel, il ne s’agit pas tant de l’information partagée en elle-même, mais du résultat final de cette provocation, qui peut ensuite influencer les électeurs avec des informations incorrectes ou fausses, et interférer avec le processus démocratique.
Et cela pourrait être encore pire cette fois-ci, avec la prédominance d’outils d’IA générative capables de créer des éléments audio et visuels convaincants afin de suggérer d’autres contrevérités.
L’approche basée sur l’IA est déjà utilisée par divers acteurs politiques :
- La candidature présidentielle récemment abandonnée de Ron DeSantis a utilisé diverses images et audios de Donald Trump générés par l’IA, dans le but d’influencer les électeurs contre lui.
- Le Comité national républicain a récemment partagé des images générées par l’IA de militaires dans les rues de villes américaines pour décrire un avenir dystopique sous la présidence de Biden.
- Les hommes politiques indonésiens utilisent les images d’opposants politiques obtenues grâce à l’IA pour affaiblir leur attrait.
- Les deux principaux candidats à la présidentielle argentine ont utilisé diverses créations générées par l’IA au cours de leurs récentes campagnes, pour les aider à faire passer leurs messages respectifs de fierté nationale.
Le défi avec cet élément est que nous ne savons pas quel sera l’impact, car nous n’avons jamais eu affaire à des contrefaçons d’IA aussi réalistes et facilement accessibles auparavant. Bien sûr, la plupart des gens peuvent faire la différence entre ce qui est réel et ce qui a été généré par une machine, tandis que les commentaires provenant du public peuvent également être efficaces pour dissiper cela rapidement.
Mais il suffit d’une seule image résonante pour avoir un impact, et même si elle peut être supprimée, voire démystifiée, des idées peuvent être intégrées à travers de tels visuels qui pourraient avoir un impact, même avec des processus de détection et de suppression robustes.
Et nous n’avons même pas encore pleinement mis en place de tels processus. Alors que les plateformes s’efforcent toutes de mettre en œuvre de nouvelles divulgations d’IA pour lutter contre l’utilisation de deepfakes, encore une fois, nous ne savons pas quel en sera le plein effet, elles ne peuvent donc pas se préparer à l’assaut attendu de l’IA. Et cela ne vient peut-être même pas des campagnes officielles elles-mêmes, avec des milliers de créateurs qui envoient désormais des messages via Dall-E et Midjourney pour proposer des images thématiques basées sur les derniers arguments et discussions politiques dans chaque application.
C’est probablement l’une des principales raisons pour lesquelles Meta cherche à s’éloigner complètement de la politique, afin d’éviter l’examen minutieux qui viendra avec la prochaine vague.
Meta a longtemps soutenu que les discussions politiques ne contribuaient de toute façon que dans une mesure mineure à ses niveaux d’engagement globaux (Meta a rapporté l’année dernière que le contenu politique représentait moins de 3 % du total des vues de contenu dans le fil d’actualité), et en tant que tel, il estime désormais que il vaut mieux s’éloigner complètement de cet élément.
La semaine dernière, Meta a présenté son projet d’activer par défaut le contenu politique sur son application, notant en même temps qu’il avait déjà effectivement réduit l’exposition à la politique sur Facebook et IG, Threads étant désormais également soumis à la même réglementation. approche. Cela n’empêchera pas les gens d’interagir avec les messages politiques dans ses applications, mais cela les rendra plus difficiles à voir, d’autant plus que tous les utilisateurs ne pourront plus voir le contenu politique et ne prendront tout simplement pas la peine de les retourner manuellement. sur.
Dans le même temps, presque en contrepoint, X exerce une pression encore plus grande sur la politique. Avec Musk comme propriétaire de la plateforme et son utilisateur le plus influent, ses opinions politiques personnelles suscitent davantage de discussions et d’intérêt, et avec Musk plantant fermement son drapeau dans le camp républicain, il utilisera sans aucun doute toutes les ressources dont il dispose pour amplifier les principaux points de discussion républicains, dans le but de faire entrer leur candidat au pouvoir.
Et même si X est loin d’avoir la taille de Facebook, il compte toujours (apparemment) plus de 500 millions d’utilisateurs actifs par mois, et son influence est significative, au-delà des seuls chiffres.
Ajoutez à cela la réduction du personnel de modération et le recours croissant à la vérification participative des faits (via les notes de la communauté), et on a l’impression que 2016 se reproduit à nouveau, avec des points de discussion influencés par l’étranger infiltrant les flux de discussion et influençant les discussions. des avis.
Et cela avant de parler de l’influence potentielle de TikTok, qui peut être ou non un vecteur d’influence de la part du régime chinois.
Que vous considériez cela comme une préoccupation ou non, l’ampleur des opérations d’influence chinoises avérées suggère qu’une application appartenant à des Chinois pourrait également être un vecteur clé pour les mêmes types d’activités. Et comme le PCC compte également divers agents travaillant directement pour ByteDance, le propriétaire de TikTok, il est logique de supposer qu’il pourrait y avoir un certain type d’effort pour étendre ces programmes, afin d’atteindre un public étranger via l’application.
C’est pourquoi TikTok reste sous surveillance et pourrait encore faire l’objet d’une interdiction aux États-Unis. Pourtant, la semaine dernière, le président américain Joe Biden a publié sa première vidéo sur l’application, la portée potentielle qu’elle offre aux électeurs démocrates potentiels l’emportant clairement sur ces préoccupations plus larges.
En effet, la campagne Biden a publié 12 fois sur TikTok en moins d’une semaine, ce qui suggère qu’elle cherchera à utiliser l’application comme outil de messagerie supplémentaire lors de la prochaine campagne présidentielle.
Ce qui amènera également davantage de personnes à la recherche d’informations politiques vers l’application, où les algorithmes de TikTok pourraient leur montrer ce qu’ils veulent.
Essentiellement, il existe un large éventail de points faibles possibles dans la chaîne d’information des médias sociaux, et avec 70 % des Américains qui reçoivent au moins une partie de leurs informations à partir d’applications sociales, il semble que nous allons être confrontés à un problème ou une crise majeur basé sur à un moment donné, la désinformation basée sur les réseaux sociaux.
Idéalement, nous nous informons donc à l’avance, au lieu d’essayer de tout reconstituer rétrospectivement, comme nous l’avons fait en 2016.
Vraiment, on pourrait espérer que nous ne serions pas de retour ici, et il y a clairement eu des améliorations dans la détection dans la plupart des applications sur la base des résultats de la campagne 2016.
Mais certains semblent aussi l’avoir oublié, ou avoir choisi de l’écarter. Ce qui pourrait représenter un risque majeur.