Facebook a déclaré à plusieurs reprises qu’il ne s’agissait pas d’une entreprise de médias et a cherché à maintenir la liberté d’expression des utilisateurs sur la plate-forme en adoptant une approche « sans intervention » de ce qui est publié, dans la mesure du possible. Et tandis que The Social Network a toujours maintenu les directives de la communauté, décrivant les limites de ce qui sera toléré, alors que la plate-forme a continué de croître, de plus en plus de contenu est tombé dans la zone grise entre les deux.
Certains contenus ne sont pas nécessairement contraires aux directives de la communauté, mais ils peuvent être extrêmement dommageables pour les personnes impliquées. Dans de tels cas, Facebook est-il obligé d’intervenir ?
C’est la situation au Myanmar, où les tensions ethniques ont conduit à d’horribles incidents de violence, les résidents musulmans rohingyas étant soumis à ce que l’ONU a qualifié d’« intention génocidaire » de la part de l’armée du Myanmar. Depuis des années, les gens demandent à Facebook, en particulier, de prendre des mesures sur le contenu associé, l’armée birmane utilisant la plate-forme comme principal canal de communication publique. Et tandis que Facebook a cherché à augmenter le nombre d’examinateurs de contenu en langue locale et à supprimer les comptes d’individus et de groupes qui génèrent des discours de haine, son inaction perçue a été largement critiquée.
Mais cette semaine, Facebook a pris des mesures – dans un article de blog, Facebook dit qu’il a supprimé 18 comptes Facebook, un compte Instagram et 52 pages Facebook, suivis collectivement par près de 12 millions de personnes, qui ont été utilisés pour partager des informations erronées liées à la génocide des Rohingyas.
« Plus précisément, nous interdisons l’accès à Facebook à 20 personnes et organisations au Myanmar, dont le général senior Min Aung Hlaing, commandant en chef des forces armées, et la chaîne de télévision militaire Myawady. Des experts internationaux, plus récemment dans un rapport de la mission d’établissement des faits autorisée par le Conseil des droits de l’homme des Nations Unies sur le Myanmar, ont trouvé des preuves que nombre de ces individus et organisations ont commis ou permis de graves violations des droits de l’homme dans le pays. Et nous voulons les empêcher d’utiliser notre service pour envenimer davantage les tensions ethniques et religieuses.
Comme indiqué par Facebook, cette décision intervient après que les enquêteurs des Nations Unies ont détaillé leurs conclusions selon lesquelles l’armée birmane a commis des massacres et des viols collectifs de Rohingyas musulmans avec une « intention génocidaire ».
Et tandis que Facebook agit maintenant, cette décision souligne une fois de plus les impacts négatifs que la plateforme peut avoir. Alors que le public occidental est moins exposé aux incidents au Myanmar, comme indiqué, Facebook subit depuis des années des pressions pour prendre des mesures sur de tels contenus, et ils n’ont pas agi. Cette hésitation est apparemment due au passage potentiel vers une censure de contenu plus large – même dans de tels incidents où des liens directs entre la plate-forme et de telles actions ont été présents, Facebook n’a pas été disposé à aller de l’avant, du moins, pas sans l’autorité connexe de un organisme comme l’ONU.
« Alors que nous étions trop lents à agir, nous faisons maintenant des progrès – avec une meilleure technologie pour identifier les discours de haine, des outils de signalement améliorés et plus de personnes pour examiner le contenu.
C’est sans aucun doute positif de voir Facebook agir sur ce front, mais cela soulève une fois de plus des questions sur l’importance du rôle que joue la plate-forme dans les communications modernes, et les responsabilités qu’elle a de surveiller, et même de censurer le discours de haine – et où il tire un trait sur un tel contenu. Facebook fait plus d’efforts sur ce front, il progresse, mais les incidents au Myanmar et le rôle que The Social Network y a joué soulèvent encore plus de questions quant à savoir si la plate-forme devrait être soumise à une réglementation alternative et plus large.
Peut-on faire confiance à une entreprise privée lorsqu’elle est dans une telle position de pouvoir ? C’est une nouvelle réalité que nous devons examiner et analyser pour mieux comprendre comment nous utilisons la plateforme au mieux.