Vous lisez

Un nouveau rapport montre la méfiance universelle à l’égard des médias sociaux en tant que source d’information

Social Media Updates

Un nouveau rapport montre la méfiance universelle à l’égard des médias sociaux en tant que source d’information

La question de la désinformation, et son impact sur la perception publique des problèmes majeurs, est devenue un sujet clé ces derniers temps, les plateformes de médias sociaux étant considérées comme le principal coupable de la facilitation de la diffusion de «  fausses nouvelles  », conduisant à la confusion et à la dissidence parmi les populeux.

Mais nous n’en connaissons pas tous les effets. Pour toutes les études, toutes les recherches, pour toutes les analyses de données issues de l’élection présidentielle américaine de 2016 en particulier, il est impossible de dire avec certitude quel impact les médias sociaux ont sur les opinions des gens – et par la suite, comment ils votent.

Mais cela doit avoir un impact, non? Ces jours-ci, on a l’impression que nous sommes plus divisés que jamais sur le plan politique et idéologique, et en corrélation avec cet écart grandissant, il y a l’utilisation croissante des plates-formes sociales, en particulier pour le contenu des nouvelles. Il doit y avoir un lien entre les deux. Droite?

C’est ce qui rend cette nouvelle étude de Pew Research particulièrement intéressante – selon Pew:

« L’analyse actuelle, basée sur une enquête menée auprès de 12 043 adultes américains, trouve que […] les démocrates et les républicains (y compris les indépendants qui penchent vers l’un ou l’autre des partis) – dans une démonstration inhabituelle de convergence bipartite – enregistrent beaucoup plus de méfiance que de confiance envers les sites de médias sociaux en tant que sources d’informations politiques et électorales. Et les plus méfiants sont trois géants du paysage des médias sociaux – Facebook, Instagram et Twitter. « 

Pew Research - Méfiance

À certains égards, c’est à la fois une surprise et pas en même temps. Mais comme vous pouvez le voir, les plateformes de médias sociaux – bien qu’elles soient maintenant une source d’information plus critique pour la plupart des Américains que les journaux imprimés – ne sont pas universellement considérées comme une source d’informations fiables.

Mais les plateformes sociales sont devenues un pipeline d’actualités clé – comme indiqué dans une autre étude menée par Pew en 2018, 68% des Américains obtiennent désormais au moins du contenu d’actualité via les médias sociaux, et 43% l’obtiennent sur Facebook.

Étude Pew Social Media News

Ainsi, bien que Facebook soit désormais l’un des principaux fournisseurs de contenu d’actualités pour la majorité des gens, c’est aussi la source d’informations la plus méfiante.

Et cela a du sens – il y a beaucoup d’ordures flottant sur le réseau de Facebook, et comme indiqué, il y a aussi eu un tas de discussions médiatiques sur la manipulation politique, l’ingérence russe, etc. recevoir, mais encore consommer à un rythme aussi élevé, il n’est pas étonnant qu’il y ait une telle confusion et un tel désaccord sur les grandes questions politiques de l’heure.

Mais ce qui est encore plus intéressant dans l’étude de Pew, c’est que les deux côtés de la division politique se méfient également des plateformes sociales, en ce qui concerne le contenu des nouvelles.

Étude sur l'actualité sociale de Pew Research

Donc, pour récapituler, de plus en plus de gens obtiennent leurs informations sur les médias sociaux, informent leurs opinions sur les problèmes du jour. Pourtant, personne ne fait confiance aux informations qu’ils lisent sur les réseaux sociaux.

Donc, nous lisons tous ces rapports dans nos fils d’actualité, et secouons la tête en disant «ce n’est pas vrai», avant de réaliser que nous nous parlons à nous-mêmes. Et les gens nous regardent.

Blagues à part, peut-être, peut-être, c’est un exemple de la façon dont les plateformes sociales nous divisent. Les ingénieurs en algorithmes sociaux sont généralement motivés par l’engagement – s’ils peuvent vous montrer plus de contenu pour vous faire aimer et commenter, pour que vous soyez engagé et actif, alors la plate-forme l’emporte. Pendant longtemps, une préoccupation majeure de cette approche a été l’effet de la chambre d’écho. Les algorithmes détectent ce que vous aimez, ce qui vous intéresse, en fonction de votre activité sur la plate-forme, puis ils vous montrent plus, un contenu similaire, qui vous maintient engagé, mais peut également renforcer davantage une perspective, vous endoctriner dans un certain politique. côté, etc.

Mais que faire si ce n’est pas le cas? Si les gens se méfient universellement de ce qu’ils voient dans leurs flux, ce n’est peut-être pas l’effet de la chambre d’écho qui devrait nous inquiéter, mais en fait, c’est le contraire. Et si les algorithmes sociaux fonctionnent réellement pour vous montrer plus de contenu avec lequel vous n’êtes pas d’accord, afin de susciter des disputes et des dissensions parmi les utilisateurs – ce qui, d’un point de vue fonctionnel, n’est vraiment qu’un engagement et vous permet de commenter, partager, débattre, etc.

Cela correspondrait en fait aux propres conclusions de Facebook – en réponse aux critiques de la «  chambre d’écho  », Facebook a noté à plusieurs reprises Selon Sheryl Sandberg, COO de Facebook, 26% des actualités que les utilisateurs voient dans leurs flux Facebook sont en fait montrées à ses utilisateurs du contenu provenant d’un plus large éventail de sources que les non-utilisateurs.

Mais comme le directeur de Facebook, Andrew Bosworth, l’a récemment souligné:

« L’accent mis sur les bulles de filtre fait que les gens passent à côté du vrai désastre qu’est la polarisation. Que se passe-t-il lorsque vous voyez 26% de contenu en plus de personnes avec lesquelles vous n’êtes pas d’accord? Cela vous aide-t-il à sympathiser avec eux comme tout le monde le suggère? Nan. Cela fait que vous ne les aimez pas encore plus. « 

Mais peut-être que c’est aussi le point – si vous voyez plus de contenu avec lequel vous n’êtes pas d’accord, que vous n’aimez pas – que vous, en effet, vous méfiez-vous – peut-être que vous êtes plus enclin à vous engager avec cela, plutôt que de voir quelque chose avec lequel vous êtes d’accord, alors défilement. Peut-être que ce désaccord et cette division sont au cœur de l’engagement actif de Facebook, la force motrice de son algorithme d’alimentation tout puissant. Et peut-être que cela incite alors à une polarisation supplémentaire, car les gens sont davantage solidifiés d’un côté de l’argument ou de l’autre en réponse.

Cela expliquerait pourquoi tous les utilisateurs, de chaque côté de la politique, se méfient presque également du contenu d’actualité qu’ils voient sur les réseaux sociaux, et Facebook en particulier. Peut-être, alors, que les médias sociaux sont effectivement une machine à haine, un moteur de colère où les nouvelles partisanes l’emportent, et un journalisme précis et équilibré est tout aussi facilement rejeté.

Cela n’aide certainement pas que les politiciens qualifient désormais les rapports avec lesquels ils ne sont pas d’accord de «fausses nouvelles», ni que de nombreux médias eux-mêmes se sont tournés vers une couverture plus extrême et plus conflictuelle afin de stimuler le trafic.

Mais peut-être, c’est ce que c’est. Si l’engagement est votre principal facteur de succès, ce n’est pas un accord que vous voulez alimenter, mais le contraire. Le désaccord est ce qui fait parler les gens, ce qui suscite une réaction émotionnelle et alimente le débat. Ce n’est peut-être pas un «  engagement  » sain en tant que tel, mais en termes binaires – comme, par exemple, des taux d’engagement actif que vous pouvez montrer aux annonceurs – il s’agit très certainement d’un «  engagement  ».

Peut-être que Facebook a raison – cela ne renforce pas vos croyances établies, mais les remet en question, en facilitant la colère de ceux avec qui vous n’êtes pas d’accord.

Pensez-y: lorsque vous allez sur Facebook, est-ce que vous vous sentez le plus souvent heureux du monde ou en train de fâcher quelque chose que quelqu’un a partagé?

Peut-être que, malgré les chambres d’écho, la désinformation, la manipulation, le diviseur clé est notre propre biais inhérent – et Facebook l’utilise pour inciter à une réponse, ce qui souligne également, invariablement, les fissures de la société.

Tout le monde reçoit des nouvelles de Facebook, mais personne ne lui fait confiance. Mais ils pourraient simplement le partager avec le commentaire «  fake news  », qui signale ensuite leur position politique, quelque chose dont leurs amis et leur famille n’étaient peut-être pas au courant auparavant.

Lorsque vous considérez ces résultats dans leur ensemble, ils ont en fait beaucoup plus de sens qu’il n’y paraît au départ.