Meta cherche à garantir une plus grande représentation et équité dans les modèles d’IA, avec le lancement d’un nouvel ensemble de données de 32 000 images étiquetées par des humains, qui contribuera à garantir que davantage de types d’attributs sont reconnus et pris en compte dans les processus d’IA.

Comme vous pouvez le voir dans cet exemple, Meta’s L’ensemble de données FACET (FAirness in Computer Vision EvaluaTion) fournit une gamme d’images qui ont été évaluées pour divers attributs démographiques, notamment le sexe, le teint, la coiffure, etc.
L’idée est que cela aidera davantage de développeurs d’IA à prendre en compte ces éléments dans leurs modèles, garantissant ainsi une meilleure représentation de communautés historiquement marginalisées.
Comme expliqué par Meta :
« Bien que les modèles de vision par ordinateur nous permettent d’accomplir des tâches telles que la classification d’images et la segmentation sémantique à une échelle sans précédent, nous avons la responsabilité de garantir que nos systèmes d’IA sont justes et équitables. Mais l’analyse comparative de l’équité en matière de vision par ordinateur est notoirement difficile à réaliser. Le risque d’une mauvaise étiquetage est réel, et les personnes qui utilisent ces systèmes d’IA peuvent vivre une expérience meilleure ou pire en fonction non pas de la complexité de la tâche elle-même, mais plutôt de leurs données démographiques.
En incluant un ensemble plus large de qualificatifs démographiques, cela peut aider à résoudre ce problème, ce qui, à son tour, garantira une meilleure présentation d’un public plus large dans les résultats.
« Dans des études préliminaires utilisant FACET, nous avons constaté que les modèles de pointe ont tendance à présenter des disparités de performances entre les groupes démographiques. Par exemple, ils peuvent avoir du mal à détecter sur les images les personnes dont le teint est plus foncé, et ce défi peut être exacerbé pour les personnes aux cheveux bouclés plutôt que raides. En lançant FACET, notre objectif est de permettre aux chercheurs et aux praticiens d’effectuer des analyses comparatives similaires pour mieux comprendre les disparités présentes dans leurs propres modèles et surveiller l’impact des mesures d’atténuation mises en place pour répondre aux problèmes d’équité. Nous encourageons les chercheurs à utiliser FACET pour évaluer l’équité dans d’autres tâches de vision et multimodales.»
Il s’agit d’un ensemble de données précieux, qui pourrait avoir un impact significatif sur le développement de l’IA et garantir une meilleure représentation et prise en compte au sein de ces outils.
Cependant, Meta note également que FACET est uniquement destiné à des fins d’évaluation de la recherche et ne peut pas être utilisé à des fins de formation.
«Nous libérons l’ensemble de données et un explorateur d’ensembles de données avec l’intention que FACET puisse devenir une référence standard d’évaluation de l’équité pour les modèles de vision par ordinateur et aider les chercheurs à évaluer l’équité et la robustesse sur un ensemble plus inclusif d’attributs démographiques.»
Il pourrait s’agir d’une mise à jour critique, maximisant l’utilisation et l’application des outils d’IA et éliminant les biais dans les collections de données existantes.
Vous pouvez en savoir plus sur l’ensemble de données et l’approche FACET de Meta ici.