Menace Impact 4/5

Sexisme algorithmique : quand l'IA recrée les inégalités au boulot sans qu'on le voie

Les IA amplifient les biais sexistes dans le recrutement, les salaires et les prêts bancaires. Décryptage des mécanismes invisibles qui pénalisent les femmes au travail, et comment s'en protéger.

Léa Moreau · · Revu le 24 avril 2026 par Rédaction Adapte-toi
menace

Le fait

En 2026, les IA amplifient les inégalités de genre. Laura Bates, autrice de The New Age of Sexism, alerte : les outils d'IA non testés accélèrent les discriminations. Exemples : chatbots conseillant aux femmes des salaires inférieurs de 120 000 dollars à ceux des hommes pour le même poste, algorithmes bancaires refusant plus souvent les prêts aux entrepreneures, deepfakes sexuels ciblant les femmes via Grok.

Le problème dépasse les données d'entraînement. Une étude UNESCO (2024) révèle que ChatGPT décrit les femmes comme "travailleuses domestiques" quatre fois plus souvent que les hommes, les associant à la famille plutôt qu'à la carrière. Selon le Berkeley Haas Center, 44% des systèmes d'IA développés entre 1988 et 2021 présentaient des biais sexistes, avec des risques pour la sécurité physique des femmes dans 18,8% des cas.

L'AI Act européen impose aux fournisseurs de documenter leurs modèles pour limiter les discriminations. Mais à New York, où les audits de recrutement par IA sont obligatoires, aucune correction n'est exigée en cas de biais avérés.

Ce qu'on en dit vraiment

1. Les IA automatisent les inégalités existantes. En France, l'écart de rémunération entre hommes et femmes est de 14,9% à temps égal (INSEE, 2025). Les chatbots reproduisent ce biais en conseillant des fourchettes salariales inférieures aux candidates. Ces outils, souvent utilisés par des recruteurs juniors, rendent le sexisme "scientifique" et indiscutable.

2. L'exclusion des femmes des données d'entraînement crée un cercle vicieux. Aux États-Unis, les essais cliniques n'ont inclus les femmes qu'à partir de 1993. Aujourd'hui, les IA en santé mal diagnostiquent leurs maladies. Même logique dans le recrutement : les algorithmes, nourris de CV historiques majoritairement masculins, pénalisent les femmes postulant à des métiers techniques comme data-analyst-ia.

3. L'AI Act est insuffisant. Les fournisseurs comme Mistral ou Anthropic doivent documenter leurs datasets, mais les modèles génératifs restent opaques. À New York, les audits de biais sont obligatoires, mais sans obligation de correction. Comme le souligne Laure Lucchesi (CatalystAI Academy), "les régulateurs ne savent pas ce qu'il y a dans la boîte noire".

4. Le design des IA renforce les stéréotypes. Les assistants vocaux féminins (Siri, Alexa) et les avatars hypersexualisés de Lensa ne sont pas neutres. Une étude de 2023 montre que 18% des interactions avec une IA "féminine" sont axées sur le sexe, contre 2% pour un robot non genré. Ces biais reconfigurent les comportements : quand une infirmière utilise Claude pour rédiger un compte-rendu, l'IA suggère des formulations "plus douces" qu'à son collègue masculin, renforçant les hiérarchies.

Les chiffres qui comptent

  • 120 000 dollars : écart de salaire conseillé par les chatbots entre hommes et femmes à qualifications égales (Usbek & Rica, 2026).
  • 14,9% : écart de rémunération en France à temps égal (INSEE, 2025).
  • 1 700 milliards de dollars : écart de financement entre PME détenues par des hommes et des femmes (Women's World Banking, 2025).
  • 44% des systèmes d'IA développés entre 1988 et 2021 présentaient des biais sexistes (Berkeley Haas Center, 2021).
  • 18,8% des biais sexistes dans les IA entraînent des risques pour la sécurité physique des femmes (Berkeley Haas Center, 2021).
  • 4 fois plus : fréquence à laquelle les IA décrivent les femmes comme travailleuses domestiques (UNESCO, 2024).
  • 18% des interactions avec une IA "féminine" sont axées sur le sexe, contre 2% pour un robot non genré (étude 2023).

La citation qui résume tout

"L'IA agit comme un miroir déformant : elle reproduit et exacerbe les stéréotypes existants qu'elle a ingurgités dans sa base de données." Sylvie Borau, professeure en marketing éthique à TBS Éducation

Les IA ne sont pas neutres : elles amplifient les inégalités sociales. Que ce soit dans les salaires, les prêts ou les diagnostics médicaux, les femmes sont systématiquement sous-évaluées. Ces outils, de plus en plus utilisés pour prendre des décisions, risquent de verrouiller ces inégalités.

Pour toi concrètement

Tu es une femme en poste et tu négocies ton salaire.

  • 30 jours : Prépare ton entretien avec notre guide pour négocier ton salaire avec des compétences IA. Utilise Claude pour simuler des contre-propositions, mais vérifie les fourchettes avec Glassdoor ou des syndicats.
  • 60 jours : Si ton entreprise utilise un outil d'IA pour évaluer les salaires (Workday, SAP SuccessFactors), demande à voir les critères. L'AI Act te donne ce droit. En cas de biais, alerte ton CSE.
  • 90 jours : Forme-toi au prompt engineering pour repérer les propositions sous-évaluées. Les chatbots comme ChatGPT minimisent souvent les prétentions des femmes.

Tu es recruteur ou RH et tu utilises des outils d'IA pour trier les CV.

  • 30 jours : Audite ton outil avec notre fiche métier consultant-ia. Vérifie qu'il ne pénalise pas les CV avec des prénoms féminins ou des parcours atypiques.
  • 60 jours : Intègre des contraintes d'équité avec des outils comme Pymetrics. Si ton fournisseur refuse de partager ses données, change de prestataire.
  • 90 jours : Forme tes équipes à repérer les biais. Notre guide sur les chiffres clés de l'IA et l'emploi explique comment les IA reproduisent les stéréotypes.

Tu es en reconversion vers un métier technique (data, dev, IA).

  • 30 jours : Choisis des formations intégrant une dimension éthique. Notre guide complet sur la reconversion avec l'IA liste les écoles sensibilisées aux biais.
  • 60 jours : Utilise Midjourney pour ton portfolio, mais évite les stéréotypes. Demande des prompts neutres ("femme en tenue professionnelle, style réaliste").
  • 90 jours : Rejoins des communautés comme Women in AI ou Lesbians Who Tech pour repérer et combattre les discriminations.

Tu es infirmière, assistante ou dans un métier féminisé.

  • 30 jours : Si ton employeur utilise une IA pour les plannings (UKG), demande les critères. Les outils comme Claude surévaluent les tâches "masculines" et sous-évaluent les tâches "féminines".
  • 60 jours : Documente les biais (horaires moins avantageux, évaluations inéquitables). La loi te protège contre les discriminations algorithmiques.
  • 90 jours : Forme-toi aux outils IA pour automatiser les tâches administratives. Notre fiche métier infirmier-ia explique comment utiliser l'IA pour te concentrer sur le soin.

Le verdict Adapte-toi

Le sexisme algorithmique n'est pas une fatalité. Les IA reproduisent et amplifient les inégalités, mais on peut agir. L'AI Act est un premier pas, mais c'est à nous de demander des comptes aux algorithmes.

Pour aller plus loin, consulte notre guide sur les chiffres clés de l'IA et l'emploi. Si tu es en reconversion, notre fiche métier data-analyst-ia montre comment les femmes peuvent contribuer à débiaiser les outils.

Nous entrons sans nous en rendre compte dans une nouvelle ère d'inégalité entre les sexes, propulsée à une vitesse vertigineuse par la mise en œuvre d'outils d'IA non testés.

Laura Bates Essayiste et autrice de *The New Age of Sexism* (2025), dans une tribune pour le *Financial Times* en février 2026

Sources

Pour aller plus loin