Les attentats terroristes de Christchurch, au cours desquels 51 personnes ont été tuées et 50 blessées, ont mis en évidence une nouvelle préoccupation dans les cercles des médias numériques: les plateformes numériques, et les réseaux sociaux en particulier, alimentent les divisions sociétales majeures et les mouvements clandestins, ce qui peut avoir des conséquences tragiques.
Une grande partie de l’accent mis sur le contenu extrémiste dans le passé s’est concentré sur la radicalisation par des groupes terroristes établis, mais les attaques de Christchurch ont souligné l’importance de noter également la montée du discours de haine localisé, qui peut conduire à une autre forme de radicalisation. Ce changement peut au moins en partie être attribué aux médias sociaux et aux algorithmes de partage qui montrent aux utilisateurs plus ce qu’ils aiment – et sont-ils susceptibles d’être d’accord – et moins ce qu’ils ne veulent pas, ce qui conduit à un plus biaisé, perspective déséquilibrée.
Ajoutez à cela le fait que l’attaquant de Christchurch a diffusé en direct ses actions sur Facebook, et le lien entre les médias sociaux et ces mouvements est de plus en plus clair.
Alors, que peut-on faire pour s’attaquer à ce problème?
Cette semaine, des représentants de Facebook, Twitter, Microsoft, Google et Amazon ont participé à une réunion à Paris pour discuter des prochaines étapes à suivre pour freiner la propagation du terrorisme et de l’extrémisme en ligne. Le résultat de la réunion, qui a été accueillie par le président français Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern, est «l’appel de Christchurch», une stratégie en neuf points qui «définit les mesures concrètes que l’industrie prendra pour lutter contre les abus de technologie. pour diffuser du contenu terroriste. »
Selon le site officiel:
<< L'appel de Christchurch est un engagement des gouvernements et des entreprises de technologie à éliminer les contenus terroristes et extrémistes violents en ligne. Il repose sur la conviction qu'un Internet libre, ouvert et sécurisé offre des avantages extraordinaires à la société. Le respect de la liberté d'expression est fondamental. Cependant, personne n'a le droit de créer et de partager du contenu terroriste et extrémiste violent en ligne. "
Les éléments de l’appel de Christchurch, acceptés par tous les participants, sont les suivants:
- Conditions d’utilisation mises à jour – Les géants de la technologie mettront chacun à jour leurs conditions d’utilisation pour « d’interdire expressément la diffusion de contenus terroristes et extrémistes violents. « Nous avons déjà vu les premiers pas de Facebook, qui a récemment interdit plusieurs commentateurs politiques bien connus dans le cadre de sa politique en matière de discours de haine, et vous pouvez vous attendre à plus dans ce sens. les autres plates-formes mettent en œuvre des règles plus strictes sur les contenus incitant à la haine.
- Processus de reporting améliorés pour le contenu extrémiste – Les signataires se sont engagés à mettre en place de nouvelles méthodes au sein de leurs plateformes et services permettant aux utilisateurs de signaler ou de signaler un contenu inapproprié. Les entreprises chercheront également à s’assurer que les mécanismes de reporting sont clairs et faciles à utiliser, et fournissent suffisamment de détails catégoriques pour aider leurs équipes à établir des priorités et à agir rapidement sur les préoccupations pertinentes.
- Technologie améliorée – Les signataires se sont engagés à continuer d’investir dans une technologie de pointe pour détecter et supprimer les contenus extrémistes, ce qui inclut le développement continu d’outils de reconnaissance visuelle. Facebook a engagé 7,5 millions de dollars supplémentaires dans de telles recherches plus tôt cette semaine.
- Focus dédié sur les risques de la diffusion en direct – Comme indiqué, l’attaquant de Christchurch a utilisé Facebook Live pour diffuser ses actions en ligne, soulignant une préoccupation importante concernant la capacité de diffusion en direct en particulier. Les signataires se sont engagés à mettre en œuvre « des mesures de contrôle améliorées (telles que les notes ou les scores des streamers, l’activité du compte ou les processus de validation) et la modération de certains événements de diffusion en direct, le cas échéant ». Compte tenu de la nature du contenu en direct, il s’agit d’un domaine difficile à contrôler, et des mesures supplémentaires seront nécessaires pour répondre aux préoccupations potentielles.
- Rapports de transparence – Les signataires se sont également engagés à publier des mises à jour régulières concernant la détection et la suppression de contenus terroristes ou extrémistes violents sur leurs plateformes et services
En plus de ces mesures spécifiques à la plate-forme, les quatre points suivants seront appliqués plus largement dans toutes les entreprises.
- Développement technologique partagé – Les signataires se sont engagés à travailler en collaboration avec l’industrie, le gouvernement, les établissements d’enseignement et les ONG « pour développer une compréhension commune des contextes dans lesquels le contenu terroriste et extrémiste violent est publié et pour améliorer la technologie pour détecter et supprimer davantage le contenu terroriste et extrémiste violent. efficace et efficiente ». En travaillant en collaboration, les entreprises pourront faire progresser leurs outils et processus encore plus rapidement, renforçant ainsi les mesures de sécurité.
- Protocoles de crise – Les signataires travailleront également en collaboration pour créer un protocole de réponse urgente aux événements émergents ou actifs, afin de garantir que les informations pertinentes peuvent être partagées rapidement et traitées par toutes les parties prenantes dans un délai minimal.
- Éducation – Les signataires travailleront également en collaboration avec l’industrie, le gouvernement, les établissements d’enseignement et les ONG « pour aider à comprendre et à éduquer le public sur les contenus terroristes et extrémistes violents en ligne ». Le processus comprendra l’éducation et le rappel des utilisateurs sur la manière de signaler ou de ne pas contribuer à la diffusion de contenu extrémiste.
- Combattre la haine et le sectarisme – Enfin, les signataires se sont engagés à travailler en collaboration pour fournir un plus grand soutien aux recherches pertinentes afin de détecter et de s’attaquer aux causes profondes de l’extrémisme et de la haine. C’est un objectif bien plus large, évidemment, mais avec les ressources combinées des géants de la technologie, des progrès significatifs sont possibles, ce qui pourrait être un pas énorme.
Il ne fait aucun doute qu’il y a eu une augmentation de la haine en ligne et un déclin du discours civique ces derniers temps – ce qui, comme indiqué, doit être au moins en partie attribué aux algorithmes de partage utilisés par les plateformes sociales pour stimuler l’engagement, ce qui facilite également le filtrage. bulles, conduisant à des perspectives de plus en plus biaisées. C’est l’élément qui doit être abordé de toute urgence – comment les plateformes sociales modifient-elles leurs systèmes de partage pour réduire l’attention portée au contenu, ce qui stimule la division?
Par exemple, Facebook récompense les publications qui suscitent plus d’engagement (c’est-à-dire les commentaires, les partages, les réactions) avec une portée accrue, augmentant leur distribution et leur exposition parmi les 2,38 milliards d’utilisateurs de la plate-forme.
Quel article va inspirer le plus de commentaires – un article avec un titre qui se lit comme suit: « Les experts conviennent qu’une action urgente est nécessaire sur le changement climatique » ou un article qui dit: « Le changement climatique est un mythe conçu pour gagner de l’argent pour les entreprises mondiales »?
L’algorithme même de Facebook incite au sensationnalisme – les éditeurs qui jouent au jeu de Facebook gagnent en publiant des points de vue plus conflictuels et extrêmes. Ajoutez à cela le fait qu’une fois que vous avez montré le contenu qui vous intéresse, Facebook vous en montrera plus, afin de vous garder engagé, et il est clair que l’algorithme de Facebook est au moins en partie responsable de ces divisions. , et les algorithmes ultérieurs mis en œuvre sur d’autres plates-formes suivent un processus très similaire.
C’est un élément clé qui doit être abordé, qui n’est pas spécifiquement mentionné dans l’appel de Christchurch. Le fait que les entreprises se soient engagées à agir est une étape positive, mais ce sont les systèmes mêmes qui ont rendu les plateformes sociales de plus en plus engageantes qui sont également à l’origine de ces préoccupations associées.