YouTube a publié une mise à jour sur ses efforts pour supprimer le contenu offensant et mieux protéger ses utilisateurs. En utilisant une combinaison de réviseurs humains et technologie d’apprentissage automatique, YouTube affirme qu’il est désormais en mesure de «faire appliquer nos politiques de manière cohérente à une vitesse croissante».
Et cette vitesse est vraiment impressionnante – YouTube affirme qu’entre juillet et septembre 2018, ses systèmes ont supprimé 7,8 millions de vidéos offensantes, dont 81% ont été détectées pour la première fois par des machines. Parmi ceux détectés par des machines, 74,5% n’avaient jamais reçu une seule vue.
C’est un résultat très solide: les outils d’IA évolutifs de YouTube sont de mieux en mieux en matière de détection et de suppression de contenu, avant même que quiconque ne le voie.
Cela s’étend à presque tous les domaines des efforts de détection de contenu de YouTube:
« En examinant spécifiquement les domaines les plus flagrants, mais à faible volume, comme l’extrémisme violent et la sécurité des enfants, notre investissement important dans la lutte contre ce type de contenu a un impact: bien plus de 90% des vidéos téléchargées en septembre 2018 et supprimées pour extrémisme violent ou Sécurité des enfants a eu moins de 10 vues. «
Et lorsque YouTube identifie de telles violations, il pousse à appliquer des actions plus fortes contre les éditeurs.
« Lorsque nous détectons une vidéo qui ne respecte pas nos consignes, nous supprimons la vidéo et appliquons un avertissement à la chaîne. Nous supprimons des chaînes entières si elles sont dédiées à la publication de contenu interdit par notre règlement de la communauté ou contiennent une seule violation flagrante, comme l’exploitation sexuelle des enfants. La grande majorité des tentatives d’abus provient d’acteurs malveillants qui tentent de mettre en ligne du spam ou du contenu pour adultes: plus de 90% des chaînes et plus de 80% des vidéos que nous avons supprimées en septembre 2018 ont été supprimées pour avoir enfreint nos politiques en matière de spam ou de contenu pour adultes. «
YouTube a également fait du non-respect des commentaires une priorité – au cours de la même période (juillet à septembre 2018), YouTube a supprimé plus de 224 millions de commentaires pour violation du règlement de la communauté.
Et le plus intéressant:
«Au fur et à mesure que nous supprimions plus de commentaires, nous avons vu notre écosystème de commentaires grandir, pas diminuer. Les utilisateurs quotidiens sont 11% plus susceptibles d’être des commentateurs que l’an dernier.»
Cela a du sens – moins de spam, de courrier indésirable et d’abus rend les utilisateurs plus à l’aise pour ajouter leurs propres pensées, mais ce n’est pas toujours ainsi que de telles tendances se déroulent dans la pratique. Il est bon de voir que les efforts de YouTube contribuent non seulement à protéger les utilisateurs, mais en encouragent également davantage à participer, et une augmentation de 11% est une grande approbation de leur approche.
L’utilisation abusive des plates-formes numériques, en particulier en ce qui concerne les abus et le harcèlement, est une préoccupation majeure, divers rapports montrant que de telles actions sur les médias sociaux peuvent avoir des effets négatifs importants sur la santé mentale, la cyberintimidation étant en tête de cette liste. L’idée de plates-formes entièrement ouvertes, où tout le monde peut communiquer librement, est idéaliste, mais c’est un principe fondamental sur lequel les plates-formes sociales ont été fondées, et elles ont largement eu du mal à maintenir un équilibre et à protéger les utilisateurs à cet égard, tout comme l’utilisation des médias sociaux. grandi.
C’est compréhensible – avec des milliards d’utilisateurs interagissant chaque jour, il devient plus difficile de surveiller chaque interaction. Et bien que la modération humaine à une telle échelle ne soit tout simplement pas possible, l’apprentissage automatique avancé peut aider, et aide clairement, comme le montrent les statistiques de YouTube.
Les machines ne pourront jamais comprendre toutes les nuances et des erreurs seront commises. Mais les données ici sont très encourageantes. Protéger les utilisateurs les plus vulnérables est une responsabilité essentielle pour tous, des plates-formes aux autres utilisateurs qui remarquent que quelque chose ne va pas.
Tous les efforts qui contribuent à progresser dans ce domaine méritent des éloges et des encouragements.