Vous lisez

YouTube fait face à de nouvelles questions sur ses recommandations de contenu sélectionnées par algorithme

Réseaux sociaux Stratégie digitale

YouTube fait face à de nouvelles questions sur ses recommandations de contenu sélectionnées par algorithme

L’espace en ligne est de plus en plus dominé par les algorithmes, les systèmes numériques qui «  apprennent  » de votre comportement et recommandent plus de contenu dans le même sens pour vous garder engagé et sur la plateforme.

Cela a du sens du point de vue des entreprises qui bénéficient du fait de vous garder enfermé dans leurs applications, mais le problème avec les algorithmes est qu’ils n’utilisent aucune forme de jugement. Ils recommandent simplement plus de ce que vous aimez – donc si vous aimez les théories du complot racistes et haineuses, devinez ce que vous voyez le plus? Et si vous êtes un pédophile qui cherche à regarder des vidéos d’enfants mineurs …

C’est le problème que YouTube se bat depuis environ un an, au milieu des critiques sur la façon dont ses systèmes d’apprentissage automatique facilitent essentiellement les réseaux pédophiles au sein de l’application.

En février, YouTuber Matt Watson a révélé comment le système de YouTube avait permis une telle activité, ce qui a incité YouTube à mettre en œuvre une série de nouvelles mesures, notamment désactivation des commentaires au « des dizaines de millions de vidéos qui pourraient être sujettes à des comportements prédateurs « .

De toute évidence, cependant, le problème demeure – selon un nouveau rapport du New York Times, une nouvelle préoccupation est apparue lorsque le système de YouTube a recommandé des vidéos avec des images d’enfants en arrière-plan de films à la maison à ces mêmes réseaux pédophiles en ligne.

Selon NYT:

« Toute vidéo individuelle peut être conçue comme non sexuelle, peut-être mise en ligne par des parents qui souhaitent partager des films à la maison avec leur famille. Mais l’algorithme de YouTube, en partie en apprenant des utilisateurs qui recherchaient des images révélatrices ou suggestives d’enfants, traitait les vidéos comme une destination. pour les gens sur un autre type de voyage. Et le nombre de vues extraordinaire – parfois dans les millions – a indiqué que le système avait trouvé un public pour les vidéos, et gardait ce public engagé. « 

C’est une tendance profondément préoccupante et un autre élément de la bataille de contenu de YouTube.

Pour sa part, YouTube a expliqué qu’il améliorait constamment ses systèmes de recommandation – qui génèrent jusqu’à 70% de ses vues – et qu’il avait mis en œuvre une gamme de nouveaux processus pour lutter contre ce type spécifique d’utilisation abusive. Dans une annonce séparée suivant la publication de l’article du NYT, YouTube a également décidé que les mineurs seraient désormais interdits de diffusion en direct sur la plate-forme, à moins qu’ils ne soient rejoints par un adulte à l’écran.

Mais le vrai problème que cela révèle est avec les algorithmes eux-mêmes. S’il est logique d’utiliser un algorithme pour montrer plus de la même chose aux utilisateurs et les garder sur la plate-forme, ce n’est peut-être pas la meilleure chose pour la société au sens large, les recommandations d’algorithmes jouant un rôle dans plusieurs des tendances les plus préoccupantes. des temps récents.

Prenez, par exemple, Facebook, où son algorithme endoctrine davantage les utilisateurs dans certaines idéologies en leur montrant plus de ce qu’ils vont probablement «aimer» – c’est-à-dire plus de ce avec quoi ils seront d’accord, et moins de ce qu’ils ne veulent pas.

Cela joue dans la psychologie humaine – nos esprits sont câblés pour répondre à nos propres préjugés inhérents en recherchant essentiellement des raccourcis pour traiter les informations, en choisissant de manière sélective les parties que nous croirons et que nous ignorerons.

Comme expliqué par le psychologue et l’auteur Sia Mohajer:

«Nous recherchons des preuves qui soutiennent nos croyances et nos opinions sur le monde, mais excluent celles qui sont contraires aux nôtres… Dans une tentative de simplifier le monde et de le rendre conforme à nos attentes, nous avons été bénis avec le don de biais cognitifs . « 

L’algorithme de Facebook alimente cet instinct, ce qui explique probablement pourquoi nous avons vu une augmentation des mouvements comme les anti-vaxxers et les flat earthers, des points de vue non fondés sur des preuves qui s’alignent avec certaines croyances marginales, puis sont renforcés et réaffirmés par les systèmes de recommandation de Facebook .

Est-ce bon pour la société en général?

Cela peut ne pas sembler être une préoccupation majeure, quelques personnes partageant des mèmes ici et là. Mais L’Europe a vu un nombre record de cas de rougeole en 2018, en raison, au moins en partie, d’un nombre croissant de parents qui refusent la vaccination de leurs enfants, Dans le même temps, en Amérique – où la rougeole était officiellement déclaré éliminé en 2000 – rapports de épidémies sont, une fois de plus, en train de devenir monnaie courante.

Ensuite, il y a les problèmes liés aux messages politiques et à la radicalisation des utilisateurs par le discours de haine.

Ce ne sont pas les médias sociaux qui sont le problème dans chacun de ces cas, ce sont les algorithmes, les systèmes qui vous montrent de plus en plus sur les sujets avec lesquels vous êtes susceptible d’être d’accord, et éliminent les points de vue opposés de votre sphère. Vous pouvez minimiser l’influence de Facebook et YouTube, ou le potentiel d’un tel processus. Mais les preuves sont claires. Les algorithmes, qui ne peuvent pas utiliser le jugement, seront toujours problématiques et travailleront toujours, sans aucun élément de conscience, pour alimenter les préjugés inhérents et les habitudes préoccupantes.

Parce que c’est ce pour quoi ils sont conçus – et nous les laissons définir des mouvements entiers dans le back-end de nos systèmes numériques.

Si vous voulez vraiment éliminer ces problèmes, les algorithmes doivent être entièrement supprimés. Laissez les utilisateurs effectuer des recherches et décider de ce qu’ils veulent voir.

Est-ce que cela arrêtera complètement ces abus? Non, mais cela le ralentira certainement, tout en facilitant la détection des utilisateurs qui suivent spécifiquement des chaînes de préoccupations et en arrêtant l’expansion involontaire de ces éléments.

Les algorithmes aident à stimuler les intérêts commerciaux, sans aucun doute, mais ils fonctionnent sans jugement humain – ce qui, parfois, est clairement nécessaire. Comme YouTube le découvre maintenant, il est presque impossible de l’arrêter. Sauf si vous supprimez complètement cet élément.

La littératie numérique atteint maintenant le point où, sans doute, cela est possible. Il est peut-être temps de réexaminer cet aspect.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.