LinkedIn ajoute la technologie d’apprentissage automatique de la société mère Microsoft afin d’améliorer la qualité des flux en détectant et en supprimant les contenus les plus inappropriés.
Détaillé sur le blog LinkedIn Engineering, le nouveau processus permettra à LinkedIn d’augmenter sa capacité de détection de contenu en ajoutant le système « Content Moderator » de Microsoft, qui est capable de détecter les contenus potentiellement offensants au fur et à mesure de leur publication.
Comme expliqué par LinkedIn :
« La numérisation assistée par ordinateur de Content Moderator couvre le texte, les images et les vidéos. LinkedIn [existing detection process] utilise la base de connaissances et les capacités internes de LinkedIn pour classer les images, le texte et les vidéos dans des catégories similaires. Malgré leurs similitudes d’objectif, les deux outils ont des composants uniques qui, lorsqu’ils sont combinés, nous sont extrêmement bénéfiques. Premièrement, les classificateurs de Content Moderator sont formés sur du contenu jamais vu sur le fil LinkedIn, ce qui nous permet d’augmenter le volume de contenu inapproprié que nous pouvons classer avec succès. En d’autres termes, en combinant les classificateurs LinkedIn et Content Moderator, nous espérons améliorer à la fois le rappel (c’est-à-dire la quantité totale de contenu de mauvaise qualité détecté) et la précision (c’est-à-dire maintenir le nombre de faux positifs bas).
C’est une autre façon pour LinkedIn d’utiliser les outils plus avancés de Microsoft, en particulier en ce qui concerne l’apprentissage automatique, pour aider à améliorer sa plate-forme. Et bien que cette mise à jour se concentre spécifiquement sur la détection et la suppression de contenu inapproprié des flux, elle peut également indiquer de futures avancées pour les algorithmes de LinkedIn, aidant à fournir plus de contexte, de pertinence et, surtout, de rapidité des mises à jour incluses sur votre écran d’accueil.
Je ne sais pas pour vous, mais je vois encore régulièrement des publications LinkedIn dans mon flux qui sont bien au-delà de la pertinence car elles ont été publiées il y a si longtemps.
La quantité d’activité sur ce message particulier est peut-être ce qui l’a gardé, mais j’en vois quand même d’autres qui n’ont aucune raison de revenir à plusieurs reprises, y compris des rappels pour des événements qui continuent d’apparaître des semaines après la date réelle.
C’est probablement difficile à détecter pour les systèmes de LinkedIn, mais sûrement, avec les capacités avancées des outils d’IA de Microsoft, ils seraient en mesure de mieux contextualiser le libellé et l’heure de publication de ces mises à jour, et de mieux comprendre leur relation avec le temps.
Et ce n’est qu’un aspect – les algorithmes de flux de LinkedIn semblent encore avoir du chemin à parcourir avant de permettre au flux principal de devenir un outil vraiment pertinent et extrêmement utile. Dans l’application mobile, où LinkedIn a mis davantage l’accent (LinkedIn a plus d’utilisateurs mobiles que de bureau), c’est mieux, mais un alignement plus poussé avec les outils plus avancés de Microsoft sera sans aucun doute utile.
Il reste à voir si c’est la direction prise par LinkedIn avec de telles mises à jour, mais l’intégration progressive de la technologie de Microsoft dans ces domaines est très prometteuse. Commencer par la détection de contenu potentiellement offensant n’est probablement que le début de ce processus.