À la suite des attentats terroristes de Christchurch, au cours desquels l’auteur a diffusé ses crimes en direct sur Facebook, The Social Network s’est efforcé de supprimer les images, divers utilisateurs publiant des clips et / ou des variantes de ceux-ci en succession rapide.
Facebook a fait l’objet d’un examen minutieux quant à son incapacité perçue à limiter le partage de ce contenu, les responsables gouvernementaux de plusieurs pays appelant à de nouvelles réglementations qui tiendraient essentiellement les dirigeants de Facebook pour responsables du matériel extrémiste hébergé sur leur plate-forme.
Mais la nature même de la diffusion en direct rend cela impossible à appliquer – la plupart des libellés autour de ces réglementations sont axés sur la responsabilisation de Facebook si le contenu n’est pas supprimé à temps.
Par exemple, en vertu de nouvelles lois mises en œuvre après les attentats de Christchurch en Australie:
« Les entreprises de médias sociaux risquent des amendes pouvant atteindre 10% du chiffre d’affaires annuel de la plateforme si elles ne parviennent pas à supprimer le contenu violent » rapidement «
Mais que signifie «rapidement»? C’est un paramètre assez flexible, sans statut juridique définitif. Et étant donné que le contenu est diffusé en temps réel, sans filtre entre l’utilisateur et le public, cela a encore moins de sens en tant que décision.
Alors, que peut faire Facebook?
Cette semaine, The Social Network a annoncé de nouvelles restrictions sur les personnes qui peuvent réellement utiliser Facebook Live, les utilisateurs qui avaient précédemment violé les règles de Facebook perdant leurs privilèges en direct – d’abord pendant un mois, puis prolongeant plus longtemps pour chaque infraction suivante.
Comme expliqué par Facebook:
« Nous appliquerons désormais une politique » un avertissement « à Live dans le cadre d’un plus large éventail d’infractions. Désormais, quiconque enfreindra nos politiques les plus graves ne pourra plus utiliser Live pendant des périodes déterminées, par exemple 30 jours – à partir de leur première infraction. Par exemple, une personne qui partage un lien vers une déclaration d’un groupe terroriste sans contexte sera désormais immédiatement empêchée d’utiliser Live pendant une période donnée. «
Ça marchera? Cela aurait-il empêché l’attaquant de Christchurch, par exemple, de diffuser son violent déchaînement?
Selon certaines informations, l’attaquant ne figurait sur aucune liste de surveillance terroriste, mais il semble qu’il aurait déjà été signalé pour son activité sur Facebook avant l’incident. Cela signifierait que, en vertu de ces nouvelles réglementations, il pourrait bien avoir perdu l’accès à Facebook Live – mais il est tout aussi probable que nous parlions alors de Periscope ou d’Instagram Live, ou d’un autre point de vente par lequel il pourrait partager la même chose.
Cela ne signifie pas que Facebook ne devrait rien faire, toute action que le réseau social peut entreprendre est positive, et il envisage également d’étendre les restrictions à d’autres outils Facebook – comme les publicités – pour ceux qui enfreignent les règles de la plate-forme.
Cela peut aider, mais l’impact réel est difficile à prévoir. C’est pourquoi Facebook investit également dans de nouveaux systèmes pour mieux détecter ce contenu par des moyens automatisés.
« L’un des défis auxquels nous avons été confrontés dans les jours qui ont suivi l’attaque de Christchurch était la prolifération de nombreuses variantes différentes de la vidéo de l’attaque. Les gens – pas toujours intentionnellement – ont partagé des versions éditées de la vidéo, ce qui a rendu la détection difficile pour nos systèmes. Bien que nous ayons déployé un certain nombre de techniques pour trouver éventuellement ces variantes, y compris la technologie de correspondance vidéo et audio, nous avons réalisé que c’est un domaine dans lequel nous devons investir dans des recherches supplémentaires. «
Pour cela, l’investissement de Facebook 7,5 millions de dollars dans de nouveaux partenariats de recherche avec des universitaires de premier plan de l’Université du Maryland, de l’Université Cornell et de l’Université de Californie à Berkeley, afin d’améliorer ses outils de détection automatisés.
Encore une fois, il est impossible de prédire le succès de ces efforts, mais c’est une autre étape vers l’amélioration des systèmes de Facebook – ce qui, compte tenu des enjeux, en vaut certainement la peine.
Vous pouvez en savoir plus sur les nouvelles initiatives de Facebook ici.