Ces algorithmes publicitaires qui discriminent secrètement les internautes
Par François Nadeau
22 mai 2019
Des chercheurs américains ont mis en lumière des biais dans l’algorithme publicitaire de Facebook : les femmes verraient par exemple plus d’offres d’emplois sponsorisées de secrétaire que de métiers dans l’intelligence artificielle. Un cas loin d’être unique… et méconnu par les annonceurs eux-mêmes.
Un des facteurs ayant fait le succès de l’offre publicitaire de Facebook auprès des annonceurs est sa précision de ciblage d’audiences. Toutefois, ce ciblage par genre, par origine ou encore par situation géographique amène des enjeux de discrimination… même pour les annonceurs qui souhaitent que leur publicité soit vue indistinctement de ces critères.
On sait déjà que le ministère américain du Logement poursuit Facebook pour pratiques discriminatoires. Par ses possibilités de ciblage par origine, religion ou encore situation familiale, l’entreprise contreviendrait aux lois en matière de discrimination.
Le ministère américain du Logement n’est pas le premier à accuser Facebook de telles pratiques, si bien que le réseau social a annoncé à la fin mars qu’elle réviserait ses options de ciblage pour certaines catégories de publicité.
Un biais dans le ciblage des abonnés
Une étude menée par des chercheurs de l’Université Northeastern a toutefois mis à jour un autre type de discrimination, plus subtil cette fois, au niveau de l’algorithme de Facebook. En effet, si la plateforme publicitaire du réseau social permet aux annonceurs de choisir les caractéristiques de leur public cible, son algorithme fait lui aussi des choix de ciblage lorsque vient le temps de livrer la publicité aux abonnés du réseau.
C’est à ce second niveau qu’on a démontré que des publicités étaient présentées dans des proportions moindres aux femmes ou à des abonnés issus de minorités, sans qu’aucune volonté n’ait été exprimée en ce sens par l’annonceur à l’étape initiale de ciblage.
C’est le cas par exemple dans le cas d’offres d’emploi. Alors qu’une publicité faisant la promotion d’un poste en intelligence artificielle était présentée à un auditoire masculin dans une proportion de 54 %, seulement 26 % d’entre eux composaient l’auditoire d’un poste en secrétariat et 15 % pour un emploi dans un supermarché.
Parallèlement, cette publicité pour un poste en intelligence artificielle avait été distribuée à un auditoire composé à 47 % d’abonnés issus des minorités. Cette même proportion était de 71 % pour un emploi de chauffeur de taxi et 64 % pour un emploi de concierge.
Au-delà des enjeux éthiques que cela amène (nous vous parlions il y a peu de la notion de risque algorithmique), cela peut signifier une baisse de performance pour les annonceurs. À titre d’exemple, pensons à un employeur voulant être le plus inclusif possible qui verrait ses offres d’emploi être distribuées en plus ou moins grande proportion à des gens d’un certain sexe ou de certaines origines.
Un problème répandu
Les constats soulevés par l’équipe de l’Université Northeastern ne sont qu’un exemple parmi d’autres. Des biais ont entre autres été découverts dans plusieurs autres algorithmes, dont l’algorithme publicitaire de Google.
Chez Amazon, après avoir découvert que certains processus d’apprentissage machine d’aide au recrutement à l’embauche discriminaient positivement les hommes, l’entreprise a décidé d’apporter des correctifs à son programme pour amener plus de neutralité.
Dans ce cas précis, Amazon a identifié le problème et l’a corrigé dans la mesure du possible. Même chose chez Facebook, qui compte modifier ses pratiques. Toutefois, pour quelques organisations qui peuvent agir directement sur le problème, combien n’ont pas la connaissance pour le faire ou même ne sont pas au courant des biais qui se glissent dans leur processus d’embauche ou de ciblage publicitaire ?
Sur le même thème
algorithme • IA