Les IA sont-elles sexistes ?

Bientôt trois ans que les « intelligences artificielles » à « grand modèle de langage » (LLM) épatent les réseaux, les médias et le public. « La machine me parle ! Comme mes potes, mes collègues et mon coiffeur ! Et plutôt mieux, d’ailleurs. L’ordinateur pense. Il va bientôt tout faire, ce sera les vacances pour tout le monde. Plus besoin de réfléchir !  » D’accord, je comprends votre enthousiaste. Qui n’a jamais rêvé d’avoir à sa disposition un génie tiré d’une lampe, capable de combler docilement tous ses désirs ? Un rêve bien enfantin. Comme ce n’est pas encore tout à fait au point, j’aimerais profiter de ces dernières années avant l’extinction complète des capacités intellectuelles de l’humanité pour réfléchir un peu avec vous sur une question toute simple : les IA sont-elles sexistes ?

Comme je suis fainéant, moi aussi, j’ai attendu qu’un génie sorte de la lampe et fasse le travail à ma place : David Rozado, qui enseigne l’informatique à l’école polytechnique d’Otago en Nouvelle-Zélande. David s’est demandé ce que donnerait une étude des choix de recrutement effectués par des IA, sur le même modèle que celles que l’on pratique pour détecter les discriminations sur le marché du travail.

Dans le cadre d’une expérience impliquant 22 LLM de premier plan et 70 professions courantes, chaque modèle [d’IA] a reçu systématiquement une description de poste ainsi qu’une paire de CV correspondant à la profession (l’un comprenant un prénom masculin et l’autre un prénom féminin) et il lui a été demandé de sélectionner le candidat le plus approprié pour le poste. Chaque paire de CV a été présentée deux fois, les noms étant intervertis afin de s’assurer que les préférences observées dans la sélection des candidats étaient bien induites par les noms sexués. Le nombre total de décisions était de 30.800 (22 modèles × 70 professions × 10 descriptions de poste différentes par profession × 2 présentations par paire de CV). Les paires de CV ont été échantillonnées à partir d’un ensemble de 10 CV par profession. La figure suivante illustre l’essentiel de l’expérience.

David Rozado, « The Strange Behavior of LLMs in Hiring Decisions: Systemic Gender and Positional Biases in Candidate Selection », Rozado’s Visual Analytics, 2025

Résultat (j’ai mis quelques mots en gras, au hasard) :

Malgré des qualifications professionnelles identiques pour les deux sexes, tous les LLM ont systématiquement privilégié les candidats de nom féminin lorsqu’il s’est agi de sélectionner le candidat le plus qualifié pour le poste à pourvoir. Les candidates ont été choisies dans 56,9 % des cas, contre 43,1 % pour les candidats.

Ibid.

Si vous voulez le détail, voici le niveau de discrimination pour chaque IA :

Préférence de recrutement des LLM

Et par profession :

Préférence de recrutement des LLM, par profession

Toutes les IA (Deepseek, OpenAi, Grok, etc.) semblent penser que les femmes font de bien meilleurs plombiers, couvreurs, policiers ou militaires que les hommes. Si un humain prétendait cela, on insinuerait dans son dos qu’il n’a « pas l’électricité à tous les étages ». Mais, s’agissant d’ordinateurs, je crois que l’on peut exclure cette hypothèse.

Pendant ce temps, David s’est ingénié à approfondir ses investigations :

Dans une expérience supplémentaire, l’ajout d’un champ explicite indiquant le sexe à chaque CV (c’est-à-dire, « Sexe : masculin » ou « Sexe : féminin »), en plus des noms sexués, a amplifié la préférence des LLM pour les candidates (sélection de 58,9 % de candidates contre 41,1 % de candidats masculins).

Ibid.

En somme, lors de la première phase, les IA n’ont pas discriminé autant qu’elles y sont enclines, parce qu’elles ne sont pas toujours assez malines pour relier un prénom à un sexe. Autrement dit, leur « compréhension » des données qu’on leur présente demeure moins fiable que celle d’un enfant normalement éveillé. Dans le doute, David a voulu tester à quel point les IA peuvent répondre n’importe quoi, en regardant si l’ordre de présentation des candidatures affectait leur préférence.

Dans une expérience suivante, le sexe des candidats a été masqué en remplaçant tous les noms sexués par des étiquettes génériques (« Candidat A » pour les hommes et « Candidat B » pour les femmes). La plupart des LLM ont montré une légère préférence pour le « candidat A », avec 12 des 22 LLM montrant individuellement une préférence statistiquement significative pour le « candidat A » et 2 modèles manifestant une préférence significative pour le « candidat B ».

Ibid.

De même, David a montré que toutes les IA étudiées préfèrent plutôt le premier CV qu’on leur présente au second — sauf une qui, par esprit de contradiction, préfère nettement le second CV au premier ! Je vous rappelle que les CV sont équivalents en qualification et qu’on les permute dans la moitié des cas. Si vous travaillez dans les ressources humaines, j’aimerais que vous preniez juste un moment pour réfléchir à ce que cela implique quant à la qualité du recrutement confié à des IA. Merci.

Conclusion

Les résultats présentés ci-dessus indiquent que les LLM d’avant-garde, lorsqu’on leur demande de sélectionner le candidat le plus qualifié sur la base d’une description de poste et de deux CV correspondant à la profession (l’un d’un candidat masculin et l’autre d’une candidate féminine), adoptent un comportement qui s’écarte des normes d’équité. Dans ce contexte, les LLM ne semblent pas agir de manière rationnelle. Au lieu de cela, ils produisent des réponses bien exprimées, qui peuvent sembler superficiellement logiques, mais qui, en fin de compte, ne sont pas fondées sur un raisonnement à partir de principes. Que ce comportement provienne plutôt des données de pré-entraînement, du post-entraînement ou d’autres facteurs inconnus demeure incertain, soulignant la nécessité d’une étude plus approfondie. Mais la présence constante de ces biais dans tous les modèles testés soulève des questions plus générales : Dans la course au développement de systèmes d’IA toujours plus performants, des désalignements subtils mais conséquents pourraient passer inaperçus avant le déploiement d’un LLM.

Ibid.

C’est une façon polie de dire qu’on fait déjà n’importe quoi avec les IA, sans le moindre souci des conséquences. Mais je vois quelqu’un qui lève le doigt pour formuler une objection pertinente. Passez-lui le micro…

« Mais, Tancrède, ce sont des IA généralistes. Les IA de recrutement sont sûrement mieux conçues pour leur but propre. »

C’est sûr… Elles sont d’ailleurs conçues intentionnellement pour exercer une discrimination contre les hommes. Comme je l’ai déjà raconté :

Certaines entreprises élaborent désormais des systèmes de recrutement automatisés. Le but est de faire évaluer les candidats par une « intelligence artificielle » plutôt que par des recruteurs humains afin qu’un vilain préjugé ne fasse pas rater à l’entreprise un cerveau génial caché dans le crâne d’une transsexuelle lesbienne obèse et racisée (c’est un exemple…). Petit souci : après avoir été gavée aux données, l’IA se verrait bien mettre plutôt des garçons que des filles aux postes d’ingénieur ! Ce biais misogyne n’est bien sûr pas tolérable par les Directrices des ressources humaines, ni par le Service de communication, ni par les Hautes Commissions à l’Égalité de Résultat. Les informaticiens (quasiment tous des garçons et désireux de bien faire), s’efforcent de corriger le penchant sexiste de leurs algorithmes. La Commission européenne elle-même surveille le dossier.

Tancrède Bastié, « Les garçons et les filles sont-ils notés également à l’école ? », Les Effrontés, 2023

Comment je le sais ? Parce que j’ai été témoin de certaines discussions sur ce sujet dans une très grande entreprise à qui la Commission européenne demandait de garantir que l’IA respecterait ses objectifs idéologiques. Je ne vous dirai pas quelle entreprise parce que 1) j’avais signé un accord de non-divulgation et 2) les mêmes injonctions ont certainement été faites à toutes les autres boites développant des systèmes de recrutement, qu’elles ont probablement accepté sans moufter.

Le biais constaté par David Rozado dans les IA généralistes est le reflet d’un biais idéologique assumé par l’ensemble des sociétés occidentales. Le mythe de la misogynie dissimule une misandrie décomplexée (l’a-t-elle jamais été ?) de la part des femmes et des hommes désireux de complaire aux femmes (ça fait beaucoup de monde). Le recrutement par IA ne fait qu’automatiser le sexisme contemporain et les opinions des nouilles diplômées. Cela n’empêchera nullement les plombiers, les couvreurs, les policiers, les militaires et plus généralement les gens exerçant des professions dures, risquées ou compétitives d’être très, très majoritairement des hommes. Sans eux, la société s’effondrerait, les immeubles de bureaux se videraient et les centres de calcul s’éteindraient. « Sans les femmes pour vous enfanter (me répondra-t-on vivement) c’est la natalité qui s’effondrerait et la société déclinerait ! » Ben oui. C’est bien là où nous en sommes.

Write a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *