L’intelligence artificielle ne fait pas que reproduire les biais existants, elle les amplifie et les femmes en paient le prix le plus lourd. À mesure que l’IA s’impose dans le recrutement, la finance, la santé ou l’éducation, une réalité s’installe : les discriminations de genre ne sont plus seulement humaines. Elles deviennent algorithmiques, systémiques, et souvent invisibles.
Les femmes, premières exposées
Les métiers les plus menacés par l’automatisation ont un point commun. Fonctions support, tâches administratives, relation client, production de contenus : ils sont majoritairement occupés par des femmes. Le risque de substitution est concret. Il est déjà mesurable.
Le paradoxe est brutal. On attend des utilisateurs qu’ils alimentent et améliorent ces systèmes. Mais pourquoi des femmes contribueraient-elles à entraîner des outils qui fragilisent leurs propres emplois ? La méfiance qui s’installe est logique. Elle risque pourtant d’alimenter un cercle vicieux : moins d’adoption, moins de maîtrise, plus d’exclusion.
Des biais qui ne sont pas des accidents
Ces inégalités ne relèvent pas d’un bug technique. Elles sont le produit de systèmes entiers : données historiquement biaisées, sous-représentation des femmes dans la conception des outils, logiques économiques qui perpétuent des rapports de pouvoir existants.
C’est précisément ce que décrypte Nejma Travaglini, psychologue cognitiviste et fondatrice de Nolej, entreprise qui développe des solutions d’IA pour transformer des contenus en expériences d’apprentissage. Elle s’est imposée comme l’une des voix les plus précises sur ce sujet.
Son regard croise trois niveaux d’analyse rarement articulés ensemble. La technique d’abord : comment les biais s’inscrivent dans les données et les architectures. Le comportemental ensuite : comment les interfaces et les recommandations orientent différemment les trajectoires selon le genre, parfois sans que personne ne s’en aperçoive. L’opérationnel enfin : comment concevoir des systèmes qui limitent ces effets plutôt que de les aggraver.
Une approche ancrée dans le réel
Passée par Facebook à Dublin, où elle a travaillé sur la formation et la qualité des outils d’IA, Nejma Travaglini ne parle pas de ces enjeux en théoricienne. Ses travaux portent directement sur l’impact de l’IA sur l’engagement cognitif. Ils lui permettent d’analyser comment certaines formulations, certains designs ou certaines logiques de recommandation peuvent pénaliser durablement les femmes dans leur parcours professionnel.
Ses pistes sont concrètes : repenser les interfaces pour limiter les biais, intégrer davantage de diversité dans les équipes de conception, et redonner aux utilisateurs un rôle actif face aux systèmes qui les concernent.
Un débat qui ne peut plus attendre
Ce sujet dépasse le cadre des discours abstraits sur les risques de l’IA. Il pose des questions directes sur l’emploi, la formation et la responsabilité des acteurs technologiques. Les effets sont déjà là. Les décisions qui les aggraveront — ou les limiteront — se prennent maintenant.
