Stratégie digitale

Le président de Google, Eric Schmidt, propose une "Vérification orthographique" pour le discours de haine : le danger imminent de la censure automatisée

via Shutterstock

L’un des points les plus prémonitoires du livre de Naomi Klein « No Logo » était que, à mesure que de plus en plus d’espaces publics sont privatisés, le nombre d’endroits où nous avons accès à nos pleins droits de liberté d’expression et d’expression diminue. Ils sont inversement corrélés, fondamentalement. Klein parlait principalement d’espaces physiques, comme comment, lorsque les centres commerciaux deviennent nos lieux de prédilection où nous passons beaucoup de temps, nous perdons des droits, car les centres commerciaux, étant des propriétés privées, peuvent nous expulser à tout moment, surtout si nous perturber la fluidité du commerce.

Aujourd’hui, depuis une quinzaine d’années, nous avons déplacé nos discussions « publiques » presque entièrement dans des espaces privés. Pardonnez la généralisation, mais les endroits où nous parlons de choses sont maintenant tous en ligne et privés. Il peut sembler que vous pouvez dire presque tout ce que vous voulez sur Facebook ou Twitter sans être censuré, mais c’est uniquement à cause de la retenue de leurs propriétaires. S’ils le voulaient, ils pouvaient censurer tout ce qu’ils voulaient. Et ce serait leur droit.

C’est donc avec une musique de fond inquiétante qu’Eric E. Schmidt, président exécutif de Google, discute, dans un New York Times éditorial, que faire face à l’utilisation croissante des médias sociaux et d’Internet par des groupes extrémistes et terroristes pour diffuser leur message et leur propagande. Schmidt est impartial quant à l’impact d’Internet dans son ensemble, affirmant qu' »il a créé des amitiés, renforcé des liens et réalisé des rêves pour des milliards de personnes dans le monde », tout en notant à quel point il a été utilisé à mauvais escient par ceux qui ont de mauvaises intentions.

La phrase de l’éditorial sur laquelle tout le monde s’est concentré, cependant, est celle-ci : « Nous devrions créer des outils pour aider à désamorcer les tensions sur les réseaux sociaux – un peu comme les correcteurs orthographiques, mais pour la haine et le harcèlement. » Beaucoup ont compris que cela signifiait que des programmes et des algorithmes devraient être utilisés pour détecter et supprimer automatiquement la propagande et les comptes extrémistes, avant qu’ils n’aient eu la possibilité de diffuser leur message. C’est un sentiment très agréable, mais, en matière de censure, l’automatisation est la pointe de l’épée.

Pour utiliser le mot de Schmidt : avez-vous déjà remarqué à quel point la vérification orthographique marque parfois les vrais noms comme mal orthographiés ? Ou des noms de lieux ? Il vous dit souvent de réparer des choses qui n’ont pas besoin d’être réparées. Le problème est que les algorithmes sont indifférents. Ils reconnaissent certaines phrases, un certain vocabulaire, identifient le texte comme ayant un certain contenu et agissent en conséquence, soit pour, par exemple, promouvoir une publication dans un fil d’actualité Facebook ou, dans ce cas de la suggestion de Schmidt, bloquer l’extrémisme.

Mais que se passe-t-il si vous débattez simplement d’un aspect de cet extrémisme en ligne ? Les algorithmes ont du mal à démêler les nuances du contexte. Seront-ils capables de faire la différence entre une vraie propagande et une blague sur la propagande ? Peut-être que des algorithmes et des programmes seront développés au point de pouvoir le faire, mais pour le moment, j’ai de profonds doutes quant à la possibilité d’une telle chose.

L’Etat islamique devrait-il pouvoir recruter ou diffuser de la propagande via les réseaux sociaux ? Non bien sûr que non. Mais c’est l’exemple évident. Personne n’aime l’église baptiste de Westboro. Duh. Mais qu’en est-il du discours qui, bien que vil, est moins extrême que cela ? Où est la ligne tracée? L’utilité des protections constitutionnelles de la liberté d’expression est qu’elles sont très larges. Vous pouvez dire que Jerry Falwell a copulé avec sa mère dans une dépendance, car cela signifie que les opinions plus raisonnables sont également protégées.

Mais que faisons-nous lorsque Google, Facebook ou Twitter sont les entités qui prennent les décisions, et non les tribunaux ou la loi ? Et si les gouvernements essayaient de profiter de la situation, comme c’est actuellement le cas dans certains endroits ?

Nous vivons en ligne maintenant, et nous devons faire face aux conséquences de cela. Mais la première priorité du nouveau monde dans lequel nous vivons devrait être la protection de nos droits fondamentaux. Sans eux, toute la sécurité du monde ne signifiera rien.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.