Image réalisée par Luc Legay

MisogynIA

Tendance de l’IA à prendre des décisions sexistes.
29 janvier 2026
3 mins de lecture

Les IA atteintes de misogynIA effectuent des discriminations professionnelles et dévalorisent l’image de la femme.

L’IA reproduit l’existant. La société étant sexiste, elle l’est aussi. Le problème, c’est qu’elle renforce ces discriminations en étant perçue comme objective.

Les logiciels d’intelligence artificielle générative sont entraînés à partir de gigantesques quantités de données disponibles en ligne. Dans cette masse d’informations, les hommes blancs sont les patrons et les femmes noires assistent les handicapés.

Pour les IA de recrutement, le principe est le même. L’IA n’ayant pas d’état d’âme ni de conscience, elle reproduit la suprématie masculine. Sa logique est profondément réactionnaire.

Les corpus de données existantes sont aussi le reflet des préjugés de la société. Les données médicales contiennent plus d’informations sur les maladies masculines que sur les maladies féminines. Les diagnostics sont donc moins précis pour les femmes. Il est difficile de construire une IA qui intègre les violences faites aux femmes vu que seuls 41 % des pays produisent régulièrement des statistiques sur le sujet…

Les femmes sont peu nombreuses dans le développement informatique, les décisions que doivent prendre les algorithmes sont pensées par des hommes. Un algorithme d’évaluation des compétences pourra, par exemple, attribuer une pondération plus élevée à des qualités identifiées comme masculines, telles que l’assertivité et moins importante pour les qualités perçues comme féminines, comme l’empathie.

Cette misogynIA étant critique, il faut donc envisager toutes les solutions pour l’éliminer. Il faut…

Traquer le sexisme numérique

  • Signaler toutes les dérives sexistes et plus largement discriminatoires des intelligences artificielles.
  • Aider les plus jeunes et les néophytes du numérique à les repérer
  • Ne plus considérer que l’intelligence artificielle est un outil, donc neutre. Comme pour le marteau, il y a quelqu’un qui tient le manche. En l’occurrence, ce sont les hommes.

Créer des recours

  • Des chercheurs de l’université d’Oxford défendent la mise en place d’une autorité chargée d’auditer les algorithmes quand un citoyen s’estime victime de discrimination.
  • L’Union européenne travaille sur un droit à l’explication, qui imposerait de pouvoir expliquer les décisions prises par l’IA.

 

Diversifier les équipes de développeurs

  • Il faut faire le ménage dans les esprits en supprimant l’image du développeur noctambule asocial et mangeur de pizza. Cela permettra à de nombreuses femmes de choisir ce travail et l’enrichir avec leurs visions différentes.

C’est arrivé près de chez nous

Discriminations à l’emploi

Il y a quelques années, Amazon a été accusée de privilégier les profils masculins aux postes de direction. L’intelligence artificielle chargée du recrutement était entraînée avec les embauches précédentes. Comme l’entreprise recrutait en priorité des hommes à ces postes, la machine a fait de même.

Les services de l’emploi autrichiens proposent un agent conversationnel utilisant la technologie de ChatGPT pour orienter les chômeurs et les étudiants. Avec le même CV, le robot propose aux candidats masculins de postuler dans le domaine de l’informatique, l’ingénierie industrielle ou les affaires internationales. Il conseille aux femmes de se tourner vers le tourisme, l’hôtellerie et la restauration, la psychologie des affaires ou la philosophie !

Les associations de femmes ont porté plainte contre les discriminations opérées par les algorithmes publicitaires de Facebook. Elles ont publié sur le réseau des publicités pour des offres d’emploi de secrétaire, pilote de ligne, auxiliaire de petite enfance, psychologue et responsable d’une structure informatique. Le réseau a choisi de diffuser l’annonce du poste de secrétaire à des femmes dans 92 % des cas, et celle de pilote de ligne à des hommes dans 85 % des cas !


Disparités de revenus

Des modèles algorithmiques calculent les revenus des collaborateurs. Chez Uber, les femmes sont payées en moyenne 7 % de moins que les hommes pour le même service !

En 2019, David Heinemeier Hansson et sa femme ont souscrit à la carte de crédit Apple. Alors qu’ils déclarent conjointement leurs impôts et sont mariés sous la communauté des biens, le Danois s’est vu proposer une limite de crédit 20 fois plus élevée que sa femme.


Dévalorisation de l’image de la femme

Si l’on tape « PDG » sur Midjourney, le logiciel génère des dizaines de photos d’hommes blancs en costume assis à leur bureau. Si l’on indique « secrétaire », l’intelligence artificielle propose un panel de jeunes femmes sexy avec une poitrine mise en valeur par un chemisier près du corps.

DeepL, un logiciel de traduction de référence, traduit « They are programmers » par « Ils sont programmeurs » et « They are nurses » par « Elles sont infirmières ».

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Catégories

Même catégorie

Articles aléatoires

Dernières parutions

Tutoria

IA ou ensemble d'agents qui remplace le tuteur humain pour assurer le suivi pédagogique individualisé d'un apprenant, de l'école primaire à la formation continue.…