Imaginez deux géants de l’intelligence artificielle, tous deux nés de la même ambition initiale : construire une IA sûre et bénéfique pour l’humanité. Aujourd’hui, en mars 2026, ces deux entreprises se retrouvent face à face dans un affrontement public d’une rare violence verbale. D’un côté OpenAI, dirigée par Sam Altman, qui vient de signer un contrat important avec le Département de la Défense américain. De l’autre, Anthropic, emmenée par Dario Amodei, qui a claqué la porte des négociations en posant des conditions jugées inacceptables par l’armée. Et au milieu de ce bras de fer : une accusation très grave.
« Straight up lies ». Ce sont les mots exacts employés par Dario Amodei dans un mémo interne adressé à ses équipes. Le PDG d’Anthropic ne mâche pas ses mots et qualifie carrément la communication d’OpenAI autour de ce contrat militaire de « purs mensonges ». Une sortie qui fait l’effet d’une bombe dans l’écosystème de l’IA mondiale.
Quand l’éthique devient un argument de différenciation stratégique
Depuis plusieurs années, les deux entreprises se livrent une concurrence acharnée, non seulement sur le plan technologique, mais aussi sur celui des valeurs affichées. Anthropic a construit toute sa communication autour de la sécurité et de la responsabilité. OpenAI, après avoir longtemps porté les mêmes drapeaux, semble avoir opéré un virage plus pragmatique ces derniers mois.
Le point de rupture ? Les relations avec le monde militaire. Alors que les États-Unis accélèrent massivement leurs investissements dans l’IA appliquée à la défense, les entreprises du secteur se retrouvent face à un dilemme existentiel : refuser l’argent public le plus important du monde ou accepter des conditions qui peuvent sembler contraires à leurs principes fondateurs.
Le refus tranché d’Anthropic
Anthropic avait déjà signé un contrat de 200 millions de dollars avec le Département de la Défense. Mais lorsque les militaires ont réclamé un accès illimité et sans restriction à leurs modèles les plus puissants, l’entreprise a posé ses conditions : aucune utilisation pour la surveillance de masse sur le sol américain, aucune arme autonome létale.
Le DoD n’a pas accepté ces lignes rouges. Les négociations ont capoté. Dario Amodei l’explique sans détour dans son mémo : « La principale raison pour laquelle ils ont accepté et nous non, c’est qu’ils cherchaient à calmer leurs employés, alors que nous cherchions réellement à empêcher les abus. »
« La principale raison pour laquelle ils ont accepté et nous non, c’est qu’ils cherchaient à calmer leurs employés, alors que nous cherchions réellement à empêcher les abus. »
Dario Amodei, PDG d’Anthropic
Cette phrase résume parfaitement la posture adoptée par Anthropic : pas de compromis sur certains sujets, quitte à perdre des contrats très lucratifs.
OpenAI : « Tout usage licite »
De son côté, OpenAI a choisi une voie différente. Après avoir communiqué pendant des années sur sa méfiance vis-à-vis des applications militaires, l’entreprise a finalement signé. Dans un article de blog officiel, Sam Altman et son équipe expliquent avoir obtenu des garanties : le contrat n’autorise que les « usages licites » et exclut explicitement la surveillance de masse domestique.
Mais cette communication n’a pas convaincu tout le monde, loin de là. Dario Amodei dénonce une « theater de sécurité » et accuse ouvertement son concurrent de présenter Sam Altman comme un « peacemaker » alors qu’il aurait selon lui simplement cédé aux pressions.
Les failles juridiques pointées du doigt
Le cœur du désaccord réside dans cette notion d’« usage licite ». OpenAI affirme que le DoD a reconnu que la surveillance de masse domestique était illégale et ne serait donc pas concernée. Mais de nombreux observateurs font remarquer que les lois évoluent.
- Une administration peut interpréter différemment ce qui est « licite »
- De nouvelles lois peuvent être votées en période de crise
- Les définitions de « surveillance de masse » ou d’« arme autonome » varient énormément selon les pays et les époques
Autrement dit : signer aujourd’hui sur la base de ce qui est légal en 2026 ne protège pas nécessairement contre des usages futurs potentiellement problématiques.
Réactions du public : le verdict des utilisateurs
Les chiffres parlent d’eux-mêmes. Dans les jours qui ont suivi l’annonce du contrat OpenAI-DoD, les désinstallations de ChatGPT ont explosé : +295 % selon plusieurs sources spécialisées dans l’analyse d’applications mobiles.
Dans le même temps, Claude (l’assistant d’Anthropic) grimpe à la deuxième place des téléchargements sur l’App Store américain. Un signal fort que les utilisateurs, même non spécialistes, perçoivent très clairement la différence de positionnement entre les deux entreprises.
« Je pense que cette tentative de spin/gaslighting ne fonctionne pas très bien auprès du grand public ni des médias, qui voient majoritairement le deal d’OpenAI avec le DoD comme louche ou suspect, et nous voient comme les héros (nous sommes #2 sur l’App Store maintenant !) »
Dario Amodei
Une guerre d’image aux conséquences très concrètes
Au-delà de la posture morale, ce conflit révèle des enjeux stratégiques majeurs pour l’avenir de l’IA :
- Attirer et retenir les meilleurs talents (beaucoup refusent de travailler sur des projets militaires)
- Maintenir la confiance des utilisateurs grand public
- Obtenir ou perdre des financements publics massifs
- Influencer le futur cadre réglementaire de l’IA aux États-Unis et ailleurs
Anthropic semble avoir fait le pari que la réputation éthique constitue un avantage compétitif durable, même au prix de revenus immédiats très importants. OpenAI, elle, semble estimer que refuser l’argent du Pentagone dans le contexte géopolitique actuel serait une erreur stratégique majeure.
Le rôle ambigu des gouvernements dans la course à l’IA
Ce que révèle également cette affaire, c’est l’appétit croissant des États pour l’IA de pointe. Sous l’administration Trump 2.0, le Département de la Défense (rebaptisé par certains médias « Department of War ») pousse très fort pour intégrer les modèles les plus avancés dans ses systèmes.
Les contrats en jeu se chiffrent en milliards. Les entreprises qui acceptent deviennent des partenaires stratégiques de la première armée mondiale. Celles qui refusent risquent de se voir dépassées technologiquement si leurs concurrents, eux, profitent de ces financements massifs pour entraîner leurs modèles sur des volumes de données inaccessibles au secteur privé.
Et les employés dans tout ça ?
Dario Amodei ne s’inquiète pas seulement de l’image publique. Dans son mémo, il exprime une crainte précise : que le discours d’OpenAI finisse par convaincre… ses propres employés.
« Mon principal souci est de m’assurer que cela ne fonctionne pas sur les employés d’OpenAI », écrit-il. Une phrase qui en dit long sur l’état d’esprit actuel dans les deux entreprises : la guerre pour les talents fait rage, et les valeurs affichées comptent autant que le salaire.
Quelles leçons pour l’écosystème startup IA ?
Cette confrontation entre Anthropic et OpenAI dépasse largement le simple règlement de comptes entre deux CEOs. Elle pose des questions fondamentales que devront tôt ou tard se poser toutes les entreprises sérieuses dans le domaine :
- Jusqu’où peut-on aller dans les compromis éthiques pour rester compétitif ?
- La transparence totale est-elle compatible avec la course aux performances ?
- Les garde-fous techniques (comme la Constitutional AI d’Anthropic) suffisent-ils face aux pressions gouvernementales ?
- Le grand public est-il prêt à payer plus cher pour une IA « plus éthique » ?
- Les investisseurs valoriseront-ils davantage la prudence ou l’accélération ?
Pour l’instant, les premiers signaux (désinstallations massives de ChatGPT, progression fulgurante de Claude) semblent donner raison à la stratégie d’Anthropic. Mais la partie est loin d’être terminée.
Vers une fragmentation du paysage IA ?
Certains analystes commencent à parler d’une véritable « scission » dans le monde de l’IA : d’un côté les entreprises qui acceptent de travailler avec les armées et les agences de renseignement, de l’autre celles qui maintiennent une ligne rouge stricte.
Cette séparation pourrait avoir des conséquences profondes :
| Position | Avantages | Risques |
| Ouverture aux contrats militaires | Financements massifs, données d’entraînement uniques, avance technologique | Perte de confiance grand public, difficultés de recrutement, image « arme » |
| Refus catégorique | Confiance utilisateurs, talents alignés, positionnement moral fort | Retard technologique potentiel, moindre accès aux données sensibles, valorisation moindre ? |
Le choix n’est pas anodin et il est probable que nous verrons apparaître dans les prochaines années des classements, des benchmarks, mais aussi des « ethical scores » officieux ou officiels qui viendront s’ajouter aux traditionnels classements de performance brute.
Conclusion : l’IA à la croisée des chemins
En 2026, l’intelligence artificielle n’est plus une technologie émergente : elle est devenue un enjeu stratégique majeur pour les nations. Les choix faits aujourd’hui par les leaders du secteur conditionneront non seulement leur avenir économique, mais aussi la manière dont l’IA sera utilisée – ou subie – par les citoyens du monde entier dans les décennies à venir.
Anthropic et OpenAI incarnent aujourd’hui deux visions opposées de ce que devrait être la relation entre les entreprises d’IA et les puissances militaires. Lequel des deux modèles l’emportera ? La réponse n’appartient ni à Dario Amodei ni à Sam Altman : elle appartient aux utilisateurs, aux talents, aux investisseurs… et probablement aussi aux électeurs et aux parlementaires qui, tôt ou tard, devront se prononcer sur ces questions.
Une chose est sûre : le débat ne fait que commencer.