Réseaux sociaux

YouTube met à jour son algorithme de recommandations pour réduire la propagation du «  contenu limite  »

Après des plaintes selon lesquelles YouTube a essentiellement fait la promotion de théories du complot et de faux contenus de type nouvelles via son système de recommandation, la plate-forme vidéo appartenant à Google a annoncé cette semaine une mise à jour de son processus qui visera à limiter la mise en évidence des téléchargements. qui « se rapproche de – mais ne franchit pas tout à fait la ligne » de violer son Règles de la communauté.

Comme détaillé par YouTube:

« Nous commencerons à réduire les recommandations de contenu limite et de contenu qui pourraient désinformer les utilisateurs de manière nuisible – comme des vidéos faisant la promotion d’un faux remède miracle pour une maladie grave, affirmant que la terre est plat, ou faire des déclarations manifestement fausses sur historique des événements comme le 11 septembre. « 

Plusieurs enquêtes ont été menées sur la manière dont le système de recommandation de YouTube présente ce contenu, des vidéos violentes et offensantes étant même diffusées aux enfants qui regardent via l’application YouTube Kids dédiée. Au moins un chercheur a également suggéré que « Les algorithmes de YouTube ont peut-être contribué à alimenter la désinformation lors de l’élection présidentielle de 2016 « , un domaine dans lequel Facebook a été traîné à différents niveaux d’enquête, mais pour lequel YouTube est resté largement déconnecté.

Et certainement, il n’est pas difficile de descendre un théorie du complot trou de lapin via les vidéos recommandées sur la plateforme.

Recommandations YouTube

Le problème pourrait également être exacerbé par YouTube qui a récemment déployé une option permettant de glisser latéralement, style Stories, sur la vidéo suivante de votre liste de recommandations, ce qui rend encore plus facile de se gaver sur un groupe de clips.

YouTube, cependant, a minimisé l’impact potentiel, notant que « ce changement s’appliquera à moins de 1% du contenu sur YouTube « . L’impact réel est difficile à quantifier, mais s’il constate une réduction de la diffusion de contenu offensant ou faux, alors il est bénéfique – et il convient également de le noter, YouTube a également récemment annoncé une interdiction du «contenu qui encourage la violence ou les activités dangereuses pouvant entraîner de graves blessures physiques, la détresse ou la mort» en réponse à un afflux d’utilisateurs publiant des clips du «Bird Box Challenge».

De toute évidence, YouTube semble avoir fait du nettoyage de sa plate-forme une priorité en 2019. La société a également récemment fourni plus d’informations sur la façon dont elle définit le contenu offensant en ce qui concerne le placement potentiel d’annonces.

Alors que les plates-formes numériques font l’objet d’un examen plus minutieux en ce qui concerne le rôle qu’elles jouent dans la distribution de ce matériel et l’incitation à des actions hors ligne, YouTube semble être en avance sur un retour de flamme plus important. Les recommandations de la plate-forme, comme indiqué, sont un problème connu depuis un certain temps, mais les responsables gouvernementaux examinant désormais de plus près tous les canaux en ligne, ce n’est peut-être qu’une question de temps avant que les appels à la réglementation et à la révision de l’industrie ne se multiplient.

YouTube semble s’efforcer de répondre à ces préoccupations avant la prochaine vague.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.