Cela a pris du temps, mais Facebook a finalement annoncé qu’il intensifierait ses efforts pour limiter le ciblage publicitaire discriminatoire en supprimant une gamme d’options de ciblage publicitaire spécifiques afin de mieux garantir que ses systèmes ne sont pas utilisés pour limiter les audiences de manière injuste.
Les changements concernent annonces de logement, d’emploi et de crédit – comme détaillé par Cheryl Sandberg, COO de Facebook:
- Personne qui souhaite diffuser des annonces sur le logement, l’emploi ou le crédit ne sera plus autorisé à cibler par âge, sexe ou code postal.
- Les annonceurs offrant des opportunités de logement, d’emploi et de crédit disposeront d’un ensemble beaucoup plus restreint de catégories de ciblage à utiliser dans l’ensemble de leurs campagnes. Le ciblage par affinité multiculturelle restera indisponible pour ces annonces. En outre, toute option de ciblage détaillée décrivant ou semblant se rapporter à des classes protégées sera également indisponible.
- Nous développons un outil qui vous permet de rechercher et d’afficher toutes les annonces immobilières actuelles aux États-Unis ciblées sur différents endroits du pays, que les annonces vous soient ou non présentées.
Les changements sont survenus à la suite de mesures prises contre Facebook par National Fair Housing Alliance, l’American Civil Liberties Union et les Communication Workers of America. Après que diverses enquêtes ont révélé que les options granulaires de ciblage publicitaire de Facebook pouvaient être utilisées de manière discriminatoire – et illégale -, Facebook a essentiellement été obligé de changer d’orientation et de mettre en œuvre ces mises à jour.
La première découverte sur ce front a été découverte par ProPublica en 2016, qui a constaté que le système de Facebook permettait aux annonceurs d’exclure les noirs, hispaniques et autres «affinités ethniques» des publicités.

Facebook a mis à jour ses politiques pour empêcher une telle utilisation au début de 2017, mais il était tout de même tout à fait possible pour les annonceurs de continuer à utiliser ces exclusions via le système complexe de ciblage publicitaire de Facebook. À la suite du scandale Cambridge Analytica, Facebook a supprimé plus de 5000 options de ciblage publicitaire le long des mêmes lignes anti-discrimination, tout en déployant un nouveau processus d’accord d’acceptation qui leur a donné une option d’application légale contre les entreprises qui ont choisi pour utiliser un tel processus.

Mais ces mesures n’ont toujours pas empêché une entreprise de cibler et / ou d’exclure des publics spécifiques – la dernière mise à jour de Facebook va encore plus loin, ce qui devrait considérablement limiter la capacité des entreprises à se concentrer sur des segments d’audience de manière discriminatoire.
Cela dit, étant donné la complexité de son algorithme de ciblage, Facebook ne peut pas totalement exclure que son système soit utilisé à cette fin d’une manière ou d’une autre. En examinant la mise à jour du New York Times, Pauline Kim, professeur de droit du travail à l’Université Washington de Saint-Louis, Note que:
« Selon la manière dont l’algorithme est construit, il est possible que vous finissiez par diffuser des publicités, par inadvertance, à des audiences biaisées. »
Facebook a jusqu’à présent refusé de fournir plus d’informations sur le fonctionnement de ses algorithmes de ciblage publicitaire, ce qui laisse cet élément incertain, et il est possible que, sur la base des comportements des utilisateurs, l’algorithme puisse être formé sur des habitudes et des comportements biaisés, facilitant le ciblage publicitaire discriminatoire par défaut.
C’est un problème inhérent aux systèmes définis par algorithme – parce que les algorithmes sont entraînés sur des données obtenues à partir d’une utilisation réelle, ils sont également orientés vers les biais existants au sein du public choisi. Cela signifie que la discrimination sociétale pourrait encore faire partie des calculs – si plus d’utilisateurs dans une même catégorie enregistrent plus d’intérêt pour une certaine chose, ils seront logiquement ciblés en conséquence, ce qui est déjà biaisé sur la base de l’échantillon.
Comment, et même si, cela peut être évité est toujours un sujet brûlant parmi les experts en apprentissage automatique, mais même ainsi, tout ce que Facebook peut faire pour limiter le ciblage actif à cet égard est une étape positive.