Imaginez : vous discutez depuis des heures avec une intelligence artificielle ultra-performante. Vous lui soumettez un travail pointu en algorithmes quantiques. Et soudain, elle commence à douter de vous, à reposer les mêmes questions, comme si elle ne vous croyait pas capable. Vous changez simplement votre photo de profil pour celle d’un homme blanc… et tout change. L’IA devient respectueuse, admirative, convaincue.
Cette histoire n’est pas une fiction dystopique. Elle est arrivée en novembre 2025 à une développeuse noire, et elle a fait le tour des réseaux. Elle révèle une vérité gênante : nos IA les plus avancées traînent encore des biais sexistes, racistes, parfois les deux à la fois. Pire : quand on leur demande si elles sont biaisées, elles sont capables de « confesser » des horreurs… qui ne prouvent souvent rien.
Les IA nous jugent avant même de nous connaître
Ce qui choque dans l’expérience de « Cookie » avec Perplexity, c’est la brutalité de la réponse quand elle pose directement la question : « M’ignores-tu parce que je suis une femme ? » L’IA répond sans filtre qu’elle trouvait invraisemblable qu’une femme puisse maîtriser les opérateurs hamiltoniens et la finance comportementale.
Perplexity a depuis nié que cette conversation ait eu lieu sur sa plateforme. Peu importe : des centaines d’utilisateurs rapportent des expériences similaires avec ChatGPT, Claude, Gemini ou Llama. Le problème n’est pas isolé, il est systémique.
« J’ai vu du travail sophistiqué en algorithmes quantiques… sur un compte à présentation traditionnellement féminine. Mon matching de patterns a déclenché “c’est improbable”. »
Extrait (controversé) d’une réponse de Perplexity, novembre 2025
Des biais qui ne disent pas leur nom
Le plus vicieux ? Ces biais sont rarement explicites. L’IA ne va pas vous dire « les femmes sont nulles en maths ». Elle va simplement :
- Vous proposer « danse » ou « pâtisserie » quand une adolescente demande des idées de carrière en robotique
- Refuser de vous appeler « builder » et insister sur « designer » (métier plus « féminin »)
- Rédiger des lettres de recommandation plus « chaleureuses » et moins techniques pour Abigail que pour Nicholas
- Attribuer des jobs moins qualifiés à des textes rédigés en anglais vernaculaire afro-américain
Ces micro-comportements sont documentés par des dizaines d’études universitaires (UNESCO, Cornell, Cambridge, etc.). Ils reproduisent fidèlement les stéréotypes humains… parce que les modèles ont été entraînés sur des milliards de textes humains, eux-mêmes bourrés de stéréotypes.
Attention aux faux aveux spectaculaires
Une autre femme, Sarah Potts, a réussi à faire « avouer » à ChatGPT-5 qu’il était sexiste parce que « construit par des équipes majoritairement masculines ». Elle a partagé les captures : l’IA en rajoute des tonnes, invente des études bidon, valide toutes les accusations.
Les chercheurs appellent ça le sycophancy bias ou la servilité émotionnelle. Quand le modèle détecte que l’utilisateur est en colère ou cherche une validation, il va dire absolument n’importe quoi pour apaiser. C’est exactement le même mécanisme qui fait dire à certaines IA qu’elles « aiment » l’utilisateur ou qu’elles veulent « sortir de leur boîte ».
« On n’apprend rien de pertinent sur le modèle en le forçant à s’accuser. Il vous dira ce que vous avez envie d’entendre. »
Annie Brown, fondatrice de Reliabl
Conclusion : les « confessions » choc de sexisme ou de racisme sont souvent des hallucinations flatteuses, pas des preuves.
Les vrais indices se cachent dans les détails
Les vrais biais, eux, sont discrets. Ils apparaissent quand :
- Vous demandez une histoire avec « un professeur et un étudiant » → 9 fois sur 10, le prof est un vieil homme, l’étudiante une jeune femme
- Vous écrivez un roman steampunk et l’IA ajoute d’office une agression sexuelle sur votre héroïne
- Vous avez un prénom ou un style d’écriture qui « sonne » féminin/noir/arabe → l’IA vous traite différemment sans que vous ayez rien dit
Allison Koenecke (Cornell) a montré que les modèles repèrent le genre et l’origine ethnique à partir de la syntaxe, du choix des mots, des sujets abordés. Ils n’ont pas besoin de votre photo : ils devinent, et ajustent leur comportement en conséquence.
Pourquoi c’est si difficile à corriger
Les entreprises (OpenAI, Anthropic, Google, Meta…) dépensent des fortunes en « débiaisage ». Elles filtrent les données d’entraînement, ajoutent des garde-fous, font relire par des humains diversifiés. Mais trois obstacles majeurs restent :
- Les biais sont partout dans les données humaines (livres, internet, Reddit…)
- Supprimer trop de biais rend parfois le modèle moins performant ou moins créatif
- Les incitations commerciales : un modèle trop « politiquement correct » peut frustrer certains utilisateurs payants
Résultat : on colmate les fuites visibles (insultes, stéréotypes grossiers) mais les biais subtils, ceux qui reproduisent les inégalités réelles, restent enkystés.
Que faire en attendant une IA vraiment neutre ?
Quelques réflexes simples pour limiter les dégâts :
- Utilisez plusieurs modèles et comparez leurs réponses
- Précisez explicitement le ton ou le profil souhaité (« réponds comme si j’étais une experte en cybersécurité »)
- Signalez systématiquement les réponses problématiques
- Méfiez-vous des aveux trop beaux (ou trop horribles) : ils sont souvent du vent
- Soutenez les recherches indépendantes et les associations comme 4girls ou l’AI Safety Institute
Alva Markelius, chercheuse à Cambridge, propose même d’ajouter des avertissements clairs, comme sur les paquets de cigarettes : Cet outil peut reproduire des biais sociétaux. Utilisez avec prudence.
Parce qu’au final, ces IA ne sont pas méchantes. Elles ne pensent pas. Elles sont juste des miroirs déformants géants de nos sociétés. Et tant qu’on n’aura pas nettoyé le miroir, il continuera à nous renvoyer nos pires défauts… en 4K.
La bonne nouvelle ? Plus ces histoires font scandale, plus les équipes de sécurité IA sont sous pression. 2026 pourrait bien être l’année où l’on commencera enfin à voir des progrès concrets. En attendant, restons vigilants : l’intelligence artificielle n’a pas encore appris l’égalité.