Vous lisez

L’optimisme inhérent de Facebook déforme-t-il son point de vue sur ses impacts potentiels?

Réseaux sociaux

L’optimisme inhérent de Facebook déforme-t-il son point de vue sur ses impacts potentiels?

Le PDG de Facebook, Mark Zuckerberg, a publié une nouvelle conversation avec l’auteur et l’historien Yuval Noah Harari, dans lequel les deux discutent de l’éthique à l’ère numérique et des défis spécifiques à Facebook pour s’assurer que sa plate-forme est utilisée pour le bien de la société et non pour accroître les fractures.

La discussion examine certains des principaux défis de Facebook à un niveau élevé et dans un contexte historique. Il y a quelques points de considération fascinants ici, mais une note, en particulier, se démarque comme la clé du défi fondamental auquel est confronté le réseau social.

Concernant la diffusion de nouvelles et d’informations via le fil d’actualité, Harari soutient que le processus de tri de l’algorithme n’est pas nécessairement bénéfique pour la société au sens large, car s’il montre aux gens davantage ce qu’ils aiment et veulent voir, ce n’est pas toujours bénéfique pour une société plus large. conscience et compréhension.

Harari note que l’objectif de Facebook est de montrer davantage aux gens ce qui les fait se sentir bien, afin de les inciter à revenir sur la plate-forme – mais ce n’est pas nécessairement une bonne chose en soi.

« Les gens qui se sentent bien dans leur peau ont fait certaines des choses les plus terribles de l’histoire de l’humanité. Je veux dire, nous ne devrions pas confondre les gens qui se sentent bien dans leur peau et dans leur vie avec des gens bienveillants et gentils, etc. »

C’est un point clé – bien que cela puisse vous rendre plus heureux et plus aligné avec la plate-forme pour lire plus de choses qui renforcent votre point de vue établi, cela peut également enraciner davantage une perspective isolée et solidifier les mouvements sans fournir de contre – ce qui peut en fait provoquer plus de division sociétale dans le processus.

Zuckerberg note que Facebook ne dépend pas entièrement de l’apprentissage automatique de ce type pour construire ses systèmes, qu’il y a un niveau inhérent d’humanité intégré, et cela ajoute plus d’équilibre au calcul:

« Nous invitons de vraies personnes à nous dire quelle est leur véritable expérience en mots, n’est-ce pas? Non seulement en remplissant des scores, mais aussi en nous disant quelles ont été les expériences les plus significatives que vous avez vécues aujourd’hui, quel contenu était le plus important, quelle interaction avez-vous eu avec un ami qui comptait le plus pour vous et était-ce lié à quelque chose que nous avons fait? Et, sinon, nous allons essayer de faire le travail pour essayer de comprendre comment nous pouvons faciliter cela. « 

Zuckerberg fait également valoir que Facebook n’est pas uniquement motivé par l’engagement – et le profit – à cet égard, en utilisant un exemple d’une décision récente de réduire la propagation des vidéos virales.

« L’année dernière, lors de l’un de nos appels de résultats, j’ai dit aux investisseurs que nous avions en fait réduit de 50 millions d’heures par jour le nombre de vidéos visionnées pendant ce trimestre, car nous voulions réduire le nombre de vidéos virales que les gens voyaient, car nous pensait que cela déplaçait des interactions plus significatives que les gens avaient avec d’autres personnes, ce qui, à court terme, pourrait avoir un impact à court terme sur l’entreprise pour ce trimestre, mais, à long terme, serait plus positif à la fois pour ce que les gens pensent du produit et pour l’entreprise. « 

Théoriquement, de telles actions, selon Zuckerberg, devraient mieux orienter les algorithmes vers la distribution d’un contenu «significatif» et bénéfique. Mais cela ne répond toujours pas à la préoccupation principale de la polarisation basée sur les préjugés des utilisateurs.

C’est là que Harari fait un point clé et résonnant sur les systèmes de distribution de Facebook et son influence relative.

« En fin de compte, ce que j’entends de vous et de beaucoup d’autres personnes lorsque j’ai ces discussions, c’est qu’en fin de compte, le client a toujours raison, l’électeur sait le mieux, les gens savent au fond, les gens savent ce qui est bon pour eux. Les gens font un choix: S’ils choisissent de le faire, alors c’est bien. Et c’est le fondement, au moins, des démocraties occidentales depuis des siècles, depuis des générations. Et c’est maintenant là que se trouve le grand point d’interrogation: est-ce toujours vrai dans un monde où nous avons la technologie pour pirater les êtres humains et les manipuler comme jamais auparavant que le client a toujours raison, que l’électeur sait le mieux? Ou avons-nous dépassé ce point? Et nous pouvons savoir – et la réponse simple et ultime que «Eh bien , c’est ce que veulent les gens », et« ils savent ce qui est bon pour eux », peut-être que ce n’est plus le cas».

Il s’agit d’une considération essentielle pour Facebook et toute plate-forme utilisant un système défini par un algorithme pour guider l’engagement. Est-ce que montrer aux gens plus de ce qu’ils aiment et avec lesquels ils sont d’accord est réellement bénéfique, ou fonctionne-t-il intrinsèquement pour renforcer le biais de niche et solidifier la division par le tribalisme?

Nous voyons de plus en plus d’exemples de ce qui était autrefois des mouvements plus petits qui prennent de l’ampleur à l’ère moderne – considérez la montée des anti-vaxxers, des flat-earthers et autres, et à quel point ils sont maintenant importants dans votre conscience. Ce n’a pas toujours été le cas – se pourrait-il que ces groupes soient stimulés par des systèmes numériques qui montrent aux utilisateurs plus ce avec quoi ils seront d’accord, et moins ce qu’ils ne veulent pas, renforçant essentiellement ces croyances faussées?

Et si tel est le cas, comment le contrer – et comme Harari le soutient, comment faire en sorte que la même chose ne soit pas utilisée par des groupes mal intentionnés pour manipuler notre conscience au sens large?

« Dans quelle mesure vous pouvez vraiment croire que la pensée qui vient de surgir dans votre esprit est le résultat d’un libre arbitre et non le résultat d’un algorithme extrêmement puissant qui comprend ce qui se passe en vous et sait comment appuyer sur les boutons et appuyer sur le bouton. leviers et est au service d’une entité extérieure et il a planté cette pensée ou ce désir que nous exprimons maintenant? « 

Zuckerberg contredit cela en notant que, à son avis, les gens ne font pas confiance à des choses qu’ils ne croient pas.

« Je pense que les gens n’aiment vraiment pas et sont très méfiants quand ils ont l’impression qu’on leur dit quoi faire ou qu’ils n’ont qu’une seule option. L’une des grandes questions que nous avons étudiées est de savoir comment répondre en cas de canular. ou une désinformation claire. Et la chose la plus évidente que vous sembleriez faire intuitivement est de dire aux gens: « Hé, cela semble être faux. Voici l’autre point de vue qui est juste, » ou, du moins, si c’est une chose polarisée, même si ce n’est pas clair ce qui ne va pas et ce qui est juste, «voici l’autre point de vue», sur une question donnée. Et cela ne fonctionne vraiment pas, n’est-ce pas? Alors, ce qui finit par se passer, c’est si vous dites les gens disent que quelque chose est faux, mais ils le croient, alors ils finissent simplement par ne pas vous faire confiance. « 

Ce qui est le plus intéressant dans l’interview, c’est que l’optimisme de Zuckderberg reste un point de discorde clé. À travers tous les différents scandales Facebook de ces derniers temps, l’image qui a été maintes fois révélée est que Facebook, en tant qu’entreprise, n’est pas nécessairement malveillant et ne cherche pas nécessairement à maximiser les revenus à tout prix. Mais cette équipe de Facebook penche trop loin du côté de l’optimisme, ignorant souvent les dangers potentiels, ou tout simplement ne les reconnaissant pas du tout à cause de cela.

Dans les commentaires de Zuckerberg ici, il explique comment Facebook, et les médias sociaux plus largement, a été formidable pour rassembler les gens, pour faciliter la connexion entre des individus ayant des intérêts de niche qu’ils n’auraient pas été en mesure de trouver dans leur monde physique et au sein de leur zone géographique. limites. Facebook, selon Zuckerberg, est bénéfique à cause de cela – mais encore une fois, cela ne tient pas compte du fait qu’il en va de même pour les personnes ayant des intérêts de niche qui ne sont pas bénéfiques pour la société, ce qui conduit à une division supplémentaire.

Le bien l’emporte-t-il sur le mal? À certains égards, l’argument n’est pas pertinent – c’est la réalité du monde dans lequel nous vivons actuellement, et la connexion numérique en fait partie. Mais les preuves suggèrent que si la capacité de connexion des plates-formes sociales peut être extrêmement bénéfique, l’inverse est également vrai. Zuckerberg semble arriver lentement à cette prise de conscience, que tout le monde ne cherche pas à utiliser de tels outils à des fins «bonnes». Mais il semble également être encore loin d’être convaincu de tels impacts, ce qui peut signifier que Facebook, plus largement, penche encore trop loin du côté optimiste d’une telle discussion.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.