Imaginez ouvrir votre application préférée un samedi matin et découvrir qu’elle a été massivement désertée en l’espace de quelques heures seulement. C’est exactement ce qui est arrivé à ChatGPT fin février 2026. Une décision stratégique d’OpenAI a déclenché une vague de réactions sans précédent chez les utilisateurs américains.
En seulement 24 heures, les désinstallations de l’application mobile ChatGPT ont bondi de 295 % aux États-Unis. Un chiffre qui fait froid dans le dos quand on sait que la moyenne habituelle tourne autour de 9 %. Derrière ce séisme se cache l’annonce d’un partenariat majeur entre OpenAI et le Département de la Défense américain, rebaptisé « Department of War » sous l’administration actuelle.
Quand l’IA rencontre la géopolitique : le tournant inattendu
Le 27 février 2026, la nouvelle tombe comme un couperet. OpenAI signe un accord de collaboration avec le ministère de la Défense. Rapidement, les réseaux sociaux s’enflamment. Les utilisateurs, qui jusqu’ici voyaient en ChatGPT un outil neutre, créatif et accessible, se sentent trahis. Pour beaucoup, associer l’intelligence artificielle la plus populaire au monde à l’appareil militaire américain représente une ligne rouge infranchissable.
Ce n’est pas la première fois qu’OpenAI flirte avec le secteur public sensible. Mais cette fois, l’ampleur et le timing semblent avoir cristallisé un ras-le-bol plus profond. L’opinion publique américaine, déjà polarisée sur les questions d’éthique technologique, a réagi avec une violence rare.
Les chiffres qui font mal : une hémorragie record
Selon les données fiables de Sensor Tower, les désinstallations jour-après-jour ont littéralement explosé le 28 février. On passe d’une variation quotidienne moyenne de 9 % à un pic de 295 %. Autrement dit : presque trois fois plus d’utilisateurs ont supprimé l’application ce jour-là par rapport à la veille.
Dans le même temps, les téléchargements chutent de 13 % le samedi, puis encore de 5 % le dimanche. La tendance haussière observée juste avant l’annonce (+14 % le vendredi) s’inverse brutalement. Le contraste est saisissant.
- Désinstallations : +295 % le 28 février
- Téléchargements : -13 % le 28 février, -5 % le 1er mars
- Avis 1 étoile : +775 % le samedi, +100 % le dimanche
- Avis 5 étoiles : -50 % sur la même période
Ces chiffres ne concernent que les États-Unis, mais ils sont suffisamment parlants pour comprendre l’ampleur du mouvement de rejet.
Claude, le grand gagnant inattendu
Pendant que ChatGPT plonge, Claude, l’IA développée par Anthropic, connaît une ascension fulgurante. Dès le 27 février, les téléchargements grimpent de 37 %, puis de 51 % le lendemain selon Sensor Tower. Appfigures va même plus loin en estimant une hausse de 88 % le samedi 28.
Le 28 février marque un tournant historique : pour la première fois, Claude dépasse ChatGPT en nombre total de téléchargements quotidiens aux États-Unis. L’application grimpe jusqu’à la première place du classement des applications gratuites sur l’App Store américain et s’y maintient plusieurs jours.
« Anthropic a clairement capitalisé sur son refus catégorique de tout partenariat militaire. »
Analyste indépendant du marché des applications mobiles
Ce positionnement éthique semble avoir résonné très fortement auprès d’une partie significative des utilisateurs. Claude n’est plus seulement une alternative technique : elle devient le symbole d’une IA qui refuse de se compromettre.
Pourquoi ce partenariat a-t-il autant choqué ?
Pour comprendre la violence de la réaction, il faut revenir sur les déclarations d’Anthropic. Lorsque la possibilité d’un contrat avec le DoD a été évoquée, Dario Amodei et son équipe ont rapidement mis fin aux discussions. Deux points bloquants majeurs ont été avancés :
- Crainte d’une utilisation de l’IA pour la surveillance de masse des citoyens américains
- Inquiétude majeure concernant le développement d’armes autonomes létales
Anthropic a publiquement déclaré que les technologies actuelles ne permettaient pas encore de garantir un usage sûr et éthique dans ces domaines. OpenAI, de son côté, a adopté une posture beaucoup plus pragmatique, affirmant vouloir contribuer à la sécurité nationale tout en maintenant des garde-fous stricts.
Cette divergence de vision, déjà connue dans les cercles professionnels, est soudainement devenue un argument marketing puissant pour Anthropic et un boulet pour OpenAI.
Les utilisateurs votent avec leurs doigts
Le consommateur moyen ne lit pas les white papers ni les conditions d’utilisation. Il réagit à l’émotion, aux titres choc, aux prises de position claires. Et là, le message a été limpide :
- OpenAI → partenaire du Pentagone → potentiellement impliqué dans des usages militaires
- Anthropic → refuse catégoriquement → position éthique forte
Le résultat est sans appel. Des milliers d’utilisateurs ont préféré désinstaller ChatGPT et installer Claude dans la foulée. Certains ont même laissé des avis assassins sur l’App Store, reprochant à OpenAI d’avoir « vendu son âme ».
Quelles leçons pour l’écosystème IA grand public ?
Cette crise est révélatrice de plusieurs tendances profondes qui traversent le secteur de l’intelligence artificielle en 2026 :
- La sensibilité croissante du public aux questions éthiques et géopolitiques
- La capacité des consommateurs à sanctionner très rapidement une marque perçue comme déviant de ses valeurs initiales
- La montée en puissance d’un positionnement « éthique » comme véritable avantage concurrentiel
- La fragilité des positions dominantes quand la confiance s’effrite
Pour OpenAI, l’enjeu est désormais double : reconquérir la confiance perdue tout en continuant à développer ses partenariats stratégiques. Une équation particulièrement délicate.
OpenAI peut-il inverser la tendance ?
Historiquement, OpenAI a toujours su rebondir après des controverses. Mais cette fois, la blessure semble plus profonde. Les utilisateurs ne se contentent plus de râler sur Twitter : ils passent à l’action.
Plusieurs scénarios sont possibles dans les prochains mois :
- Communication massive sur les garde-fous mis en place dans le cadre du contrat DoD
- Nouvelles fonctionnalités exclusives pour redonner de l’attrait à ChatGPT
- Prise de position publique plus claire sur les limites éthiques acceptables
- Ou, au contraire, accentuation de la stratégie « real-world impact » au risque d’accentuer la fracture
Chaque jour qui passe sans réaction forte d’OpenAI laisse un peu plus de terrain à Claude et aux autres concurrents qui surfent sur la vague éthique.
Et ailleurs dans le monde ?
Si les États-Unis concentrent l’essentiel de la réaction visible, d’autres marchés montrent également des signes de bascule. Selon Appfigures, Claude est devenu numéro 1 des applications gratuites dans plusieurs pays européens (Belgique, Allemagne, Norvège, Suisse, Luxembourg, Canada) dès le week-end du 28 février.
Cette contagion internationale pourrait s’amplifier si OpenAI ne parvient pas à calmer la tempête outre-Atlantique. L’image d’une IA « américaine militarisée » pourrait devenir un handicap compétitif majeur sur certains marchés sensibles aux questions de souveraineté numérique.
Conclusion : l’IA n’échappe plus à la politique
Ce qui s’est passé fin février 2026 marque un tournant. L’intelligence artificielle grand public n’est plus perçue uniquement comme un outil ludique ou productif. Elle est devenue un sujet éminemment politique.
Les entreprises qui développent ces technologies doivent désormais naviguer en eaux troubles : entre impératifs stratégiques, attentes des investisseurs et sensibilité croissante des utilisateurs finaux. OpenAI vient d’en faire les frais de manière brutale.
Dans cette nouvelle donne, la transparence, la cohérence et surtout l’alignement des valeurs affichées avec les actions concrètes deviennent des facteurs de succès aussi importants que la performance brute des modèles.
Claude n’a pas encore gagné la guerre. Mais il a clairement remporté la première bataille de l’image. Reste à savoir si OpenAI saura transformer cette crise en opportunité de repositionnement… ou si la fracture initiée en février 2026 deviendra permanente.
Une chose est sûre : les utilisateurs ont montré qu’ils étaient prêts à changer d’application du jour au lendemain quand leurs valeurs sont en jeu. Les géants de l’IA sont désormais prévenus.