LinkedIn a déployé un nouveau système de détection pour répondre contenu ne respectant pas les règles dans les publications, qui s’appuie sur la détection de l’IA pour optimiser son flux de travail de modération. Ce qui, selon LinkedIn, a déjà conduit à des réductions significatives de l’exposition des utilisateurs.

Le nouveau système filtre désormais tous les contenus potentiellement violents via le système de lecture IA de LinkedIn, le processus filtrant ensuite chaque exemple en fonction de sa priorité.

Révision du contenu LinkedIn

Comme expliqué par LinkedIn :

« Avec ce cadre, le contenu entrant dans les files d’attente de révision est noté par un ensemble de modèles d’IA pour calculer la probabilité qu’il enfreigne nos politiques. Les contenus ayant une forte probabilité de ne pas enfreindre les règles sont dépriorisés, ce qui permet d’économiser la bande passante des examinateurs humains, et les contenus ayant une plus forte probabilité de violer les règles sont prioritaires par rapport aux autres afin qu’ils puissent être détectés et supprimés plus rapidement.»

C’est probablement ainsi que vous imaginiez déjà que de tels systèmes fonctionnaient, en utilisant un niveau d’automatisation pour déterminer la gravité. Mais selon LinkedIn, ce nouveau processus d’IA plus avancé est mieux à même de trier les incidents et de garantir que les pires cas soient traités plus rapidement, en affinant la charge de travail de ses modérateurs humains.

Mais cela dépend en grande partie de la précision de ses systèmes de détection automatisés et de sa capacité à déterminer si les publications sont nuisibles ou non.

Pour cela, LinkedIn affirme utiliser de nouveaux modèles qui se mettent constamment à jour sur la base des derniers exemples.

« Ces modèles sont formés sur un échantillon représentatif de données humaines antérieures étiquetées provenant de la file d’attente de révision de contenu, et testés sur un autre échantillon hors délai. Nous exploitons la recherche de grille aléatoire pour la sélection des hyperparamètres et le modèle final est choisi sur la base du rappel le plus élevé avec une précision extrêmement élevée. Nous utilisons cette mesure de réussite car LinkedIn place la barre très haut en matière de qualité des contrôles de confiance. Il est donc important de maintenir une très haute précision.»

LinkedIn affirme que son flux de modération mis à jour est capable de prendre des décisions automatiques sur environ 10 % de tout le contenu en file d’attente selon sa norme de précision établie, « ce qui est meilleur que les performances d’un évaluateur humain typique ».

« Grâce à ces économies, nous sommes en mesure de réduire la charge des évaluateurs humains, en leur permettant de se concentrer sur le contenu qui nécessite leur examen en raison de sa gravité et de son ambiguïté. Grâce à la priorisation dynamique du contenu dans la file d’attente de révision, ce cadre est également en mesure de réduire d’environ 60 % le temps moyen nécessaire pour détecter les contenus violant la politique.

Il s’agit d’une bonne utilisation de l’IA, même si cela peut avoir un impact sur le contenu qui finit par être diffusé, en fonction de la manière dont le système est capable de rester à jour et de garantir que les publications enfreignant les règles sont détectées.

LinkedIn est convaincu que cela améliorera l’expérience utilisateur, mais il peut être intéressant de noter si vous constatez une amélioration et si vous rencontrez moins de publications enfreignant les règles dans l’application.

Je veux dire, LinkedIn est moins susceptible de voir plus de publications incendiaires que d’autres applications, donc ce n’est probablement pas comme si vous voyiez de toute façon un tas de contenu offensant dans votre flux LinkedIn. Néanmoins, ce processus mis à jour devrait permettre à LinkedIn de mieux utiliser son personnel de modération humaine pour maximiser la réponse en hiérarchisant mieux le flux de travail à cet égard.

Et si cela fonctionne, il pourrait fournir des notes à d’autres applications pour améliorer leurs propres flux de détection.

Vous pouvez lire l’aperçu complet du système de modération de LinkedIn ici.