Vous lisez

YouTube renforce ses règles autour des théories du complot dangereux, en mettant l’accent sur le contenu QAnon

Réseaux sociaux

YouTube renforce ses règles autour des théories du complot dangereux, en mettant l’accent sur le contenu QAnon

YouTube a annoncé une nouvelle mise à jour de ses règles relatives au discours de haine, en mettant l’accent sur la réduction de la diffusion de théories du complot comme QAnon, qui ont finalement abouti à la violence dans le monde réel.

Comme expliqué par YouTube:

«Aujourd’hui, nous élargissons encore nos politiques de haine et de harcèlement afin d’interdire le contenu qui cible un individu ou un groupe avec des théories du complot qui ont été utilisées pour justifier la violence dans le monde réel. Un exemple serait le contenu qui menace ou harcèle quelqu’un en suggérant qu’il le fait. complice de l’un de ces complots nuisibles, tels que QAnon ou Pizzagate. « 

Cela survient quelques jours à peine après que Facebook a renforcé sa position contre le contenu lié à QAnon, reconnaissant le danger évolutif du groupe et de son activité – bien que l’action de Facebook va un peu plus loin, en ce sens qu’elle verra la suppression de tous Pages Facebook, Groupes et comptes Instagram qui représentent QAnon.

YouTube a laissé de la place pour des exceptions dans son approche mise à jour:

« Comme toujours, le contexte est important, donc la couverture médiatique de ces questions ou le contenu qui en parle sans cibler des individus ou des groupes protégés peut rester en place. Nous commencerons à appliquer cette politique mise à jour aujourd’hui, et nous augmenterons dans les semaines à venir. »

C’est la dernière reconnaissance des principales plates-formes en ligne que le fait de faciliter une telle discussion peut entraîner des dommages dans le monde réel, et bien que YouTube ait cessé d’interdire totalement tout contenu lié à QAnon, les nouvelles mesures entraîneront une restriction supplémentaire du groupe, ce qui limiter son influence.

Et YouTube dit qu’il a déjà minimisé une grande partie de la discussion sur QAnon – il y a deux ans, YouTube a réduit la portée de la désinformation nuisible via ses recommandations «  Up Next  », qui, selon lui, ont entraîné une baisse de 70% des vues provenant de sa recherche et de sa découverte. systèmes.

«En fait, lorsque nous avons examiné le contenu de QAnon, nous avons constaté que le nombre de vues provenant de recommandations non abonnées vers des chaînes importantes liées à Q a chuté de plus de 80% depuis janvier 2019. De plus, nous avons supprimé des dizaines de milliers de QAnon -vidéos et mis fin à des centaines de chaînes en vertu de nos politiques existantes, en particulier celles qui menacent explicitement la violence ou nient l’existence d’événements violents majeurs. « 

Il existe donc encore des chaînes «  liées à Q  » connues sur YouTube, qui ne seront pas supprimées dans le cadre de cette mise à jour.

Ce qui semble étrange. Je veux dire, je comprends la position de YouTube à cet égard, en ce sens qu’elle cherchera uniquement à supprimer le contenu qui cible un individu ou un groupe. Mais une partie du problème avec QAnon, et d’autres mouvements, est qu’ils ont été autorisés à commencer comme un bavardage relativement inoffensif, et se sont développés à partir de là pour devenir importants, concernant des mouvements.

Vous pourriez affirmer, dès le début, que personne ne savait que QAnon évoluerait vers ce qu’il a. Mais nous le faisons maintenant. Alors, pourquoi en laisser une partie?

L’affaire QAnon met également en évidence la nécessité pour les plateformes sociales de tenir compte des avertissements officiels plus tôt dans le processus, afin de stopper l’élan de ces groupes avant qu’ils ne gagnent vraiment en popularité. Les experts mettent en garde les principales plates-formes sur la menace posée par QAnon depuis des années, mais ce n’est que maintenant qu’ils cherchent à restreindre considérablement la discussion.

Pourquoi cela a-t-il pris autant de temps? Et si nous reconnaissons maintenant la menace posée par de tels groupes, cela conduira-t-il à une action accrue contre d’autres formes de désinformation, avant qu’eux aussi puissent devenir plus dommageables et représenter un réel danger?

Les plates-formes s’efforcent de s’attaquer aux théories du complot COVID-19, et maintenant les anti-vaxxers sont confrontés à des restrictions plus strictes. Qu’en est-il du changement climatique et des mouvements de lutte contre la science? Ne représentent-ils pas également un risque important? Les «terriens plats» pourraient-ils éventuellement s’étendre sur des territoires plus dangereux? Y a-t-il un risque à permettre à tout contenu anti-scientifique de proliférer?

Il semble que, pour la plupart, les entreprises fonctionnent toujours rétrospectivement et attendent que de tels mouvements deviennent un problème avant d’agir.

À certains égards, ils doivent attendre, dans une perspective «innocente jusqu’à preuve du contraire». Mais encore une fois, les analystes ont souligné les préoccupations concernant QAnon depuis un adepte de la théorie du complot. est entré dans une pizzeria de Washington en 2016, armé d’un fusil semi-automatique, cherchant à enquêter par lui-même sur ce qui se passait à l’intérieur.

La façon dont vous définissez le risque, dans ce sens, est difficile, mais il semble clair que davantage pourrait être fait et que des mesures plus proactives pourraient être prises. Cela limitera-t-il la liberté d’expression? Est-ce que cela restreindra les utilisateurs de ce qu’ils peuvent partager? Devraient-ils être limités?

Il n’y a pas de réponses faciles, mais les conséquences peuvent être graves. Peut-être qu’avec le changement croissant pour restreindre ces mouvements, nous verrons un changement d’approche pour des avertissements similaires.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.