Réseaux sociaux

Facebook lance une nouvelle enquête sur les biais algorithmiques potentiels dans ses systèmes

Facebook lance une nouvelle enquête sur les biais potentiels au sein de ses algorithmes, alors qu’il travaille à améliorer ses systèmes en réponse au mouvement #BlackLivesMatter, et à la lumière de son récent audit des droits civils.

Comme le rapporte le Wall Street Journal, Facebook et Instagram lanceront de nouveaux examens de leurs algorithmes de base.

Selon WSJ:

« La nouvelle » équipe d’équité et d’inclusion « d’Instagram examinera comment les utilisateurs noirs, hispaniques et autres utilisateurs minoritaires aux États-Unis sont affectés par les algorithmes de l’entreprise, y compris ses systèmes d’apprentissage automatique, et comment ces effets se comparent à ceux des utilisateurs blancs, selon des gens familiers avec le sujet. « 

Facebook créera une équipe similaire pour son application principale.

Comme indiqué, cette décision vient en réponse aux appels croissants pour une meilleure représentation à tous les niveaux, après les récentes manifestations #BlackLivesMatter, tandis que l’audit des droits civils de Facebook, mené sur deux ans et publié plus tôt ce mois-ci, a révélé diverses préoccupations concernant la plateforme. systèmes, y compris le potentiel de biais algorithmique.

Selon le rapport:

« Parce que les algorithmes fonctionnent dans les coulisses, des algorithmes mal conçus, biaisés ou discriminatoires peuvent créer silencieusement des disparités qui ne sont pas détectées pendant longtemps à moins que des systèmes ne soient en place pour les évaluer. »

Les algorithmes de Facebook ont ​​facilité par inadvertance les processus discriminatoires dans le passé. En 2016, un rapport de ProPublica a montré qu’il était possible d’utiliser la segmentation démographique des «affinités ethniques» de Facebook pour éliminer des groupes raciaux spécifiques de votre portée publicitaire, ce qui est en violation des lois fédérales.

Affinité ethnique Facebook

Facebook par la suite a suspendu la possibilité de cibler les publicités en excluant les groupes raciaux, mais à l’époque, Facebook a également noté que de nombreuses options de ciblage publicitaire comme celle-ci étaient élaborées par les systèmes d’apprentissage automatique de Facebook, en fonction des tendances d’utilisation. En tant que tels, ils résultaient davantage de l’algorithme fournissant des options basées sur les données disponibles, par opposition à Facebook facilitant délibérément ces options.

Facebook a finalement supprimé toutes les options de ciblage potentiellement discriminatoires pour annonces de logement, d’emploi ou de crédit l’année dernière. Mais même dans ce cas, les experts ont noté que tout système défini par un algorithme reste susceptible de biais inhérent, basé sur l’ensemble de données d’entrée.

Selon Pauline Kim, professeur de droit du travail à l’Université de Washington:

« Selon la manière dont l’algorithme est construit, il est possible que vous finissiez par diffuser des publicités, par inadvertance, à des audiences biaisées. »

C’est parce que le système lit les données au fur et à mesure qu’elles sont entrées.

À titre d’illustration de base, si votre entreprise embauche plus de Blancs, il est possible qu’un algorithme, cherchant à afficher vos offres d’emploi auprès des candidats, ne diffuse vos offres d’emploi qu’aux utilisateurs blancs, sur la base des données dont il dispose.

Essentiellement, le problème est que tout algorithme basé sur des données du monde réel reflétera toujours les préjugés du monde actuel, et Facebook ne sera pas en mesure de les détecter dans ses processus sans effectuer un examen complet de ses systèmes.

C’est une préoccupation importante, et il est bon de voir Facebook chercher à y remédier, d’autant plus qu’il s’agissait d’un objectif clé du récent audit des droits civils.

Si Facebook peut améliorer ses systèmes et éliminer les biais algorithmiques, cela pourrait grandement contribuer à améliorer l’égalité, tandis que les leçons apprises peuvent également aider d’autres plates-formes à aborder la même chose dans leurs propres systèmes.

Cette décision pourrait également aider Facebook à rétablir les relations avec les groupes de défense des droits civiques, qui ont mené un boycott des publicités Facebook en juillet suite au refus de l’entreprise de répondre aux discours de haine publiés sur le réseau par le président américain Donald Trump.

Il y a un long chemin à parcourir sur ce front, mais aborder des éléments clés comme celui-ci pourrait aider Facebook à montrer qu’il prend ses responsabilités au sérieux à cet égard.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.