Imaginez : vous dirigez une startup d’intelligence artificielle prometteuse, vous venez de lever plusieurs dizaines de millions et soudain, le plus gros client potentiel au monde – le Département de la Défense américain – vous tend un contrat mirobolant… mais à quel prix ? Depuis début mars 2026, cette question n’est plus théorique. Elle est devenue brutalement concrète pour les deux licornes les plus en vue du moment : Anthropic et OpenAI.

En moins de dix jours, nous avons assisté à une séquence digne d’un thriller politique : rupture de négociation avec le Pentagone, classement d’Anthropic en « risque pour la chaîne d’approvisionnement », annonce d’un recours en justice par l’entreprise, signature express d’OpenAI avec le même Pentagone, vague de désinstallations de ChatGPT et… remontée éclair de Claude dans le top des téléchargements sur l’App Store. Du jamais vu.

Quand l’IA rencontre la realpolitik du Pentagone

Ce qui se joue actuellement dépasse largement le simple bras de fer commercial. C’est une véritable épreuve de réalité pour tout l’écosystème des startups IA qui, depuis 2023, rêvent plus ou moins ouvertement de contrats publics massifs. La question que tout le monde se pose aujourd’hui dans les couloirs de Station F, dans les fonds parisiens et dans les garages de la Silicon Valley est simple : est-ce que le jeu en vaut vraiment la chandelle ?

Retour sur une semaine explosive

Tout commence par une information qui passe presque inaperçue au premier abord : les négociations entre le Pentagone et Anthropic pour étendre l’usage de Claude au sein des forces armées américaines capotent. Très vite, la raison apparaît : le Département de la Défense souhaite modifier unilatéralement les clauses d’usage existantes du modèle, clauses qui limitaient expressément les applications dans des scénarios létals ou proches du champ de bataille.

Anthropic refuse net. Quelques jours plus tard, l’administration Trump classe la société parmi les « risques pour la chaîne d’approvisionnement critique ». La startup, fondée par d’anciens chercheurs d’OpenAI justement pour développer une IA « sûre et interprétable », annonce immédiatement qu’elle contestera cette décision devant les tribunaux.

« Nous ne céderons pas sur les garde-fous fondamentaux qui ont guidé notre mission depuis le premier jour. »

Dario Amodei, co-fondateur et CEO d’Anthropic

Pendant ce temps, OpenAI, qui avait jusque-là adopté une posture plus prudente vis-à-vis des contrats purement militaires, signe dans la foulée un accord avec le DoD. L’annonce est maladroite, précipitée selon plusieurs sources internes, et provoque une levée de boucliers immédiate dans la communauté. Les chiffres parlent d’eux-mêmes : +295 % de désinstallations de l’application ChatGPT dans les 72 heures suivant la nouvelle.

Pourquoi cette affaire fait trembler les startups

Les raisons sont multiples et s’entremêlent.

  • Le précédent créé par le changement unilatéral des termes en cours de contrat montre que même un géant comme Anthropic peut se retrouver piégé.
  • La rapidité avec laquelle OpenAI a accepté de signer laisse penser que les garde-fous éthiques peuvent être assouplis très vite quand des milliards sont en jeu.
  • La réaction virale des utilisateurs prouve que la sensibilité du grand public à l’égard de l’IA militaire est beaucoup plus élevée qu’on ne le pensait.
  • Enfin, la personnalité des acteurs – notamment la rivalité supposée entre Dario Amodei et Emil Michael, désormais CTO du DoD – ajoute une couche de chaos politique imprévisible.

Pour une startup qui pèse quelques dizaines ou centaines de millions de valorisation, affronter un tel niveau de turbulence est presque mission impossible. Beaucoup préfèrent encore se concentrer sur les entreprises privées, les secteurs réglementés (banque, santé, assurance) ou les gouvernements européens, perçus comme plus prévisibles.

Le vrai dilemme des fondateurs IA en 2026

Travailler avec le Pentagone, c’est potentiellement signer le plus gros chèque de l’histoire de sa jeune entreprise. C’est aussi accéder à des volumes de données, à des cas d’usage extrêmes et à une légitimité technologique inégalée. Mais c’est également s’exposer à :

  • Une perte brutale de confiance de la part des meilleurs talents (chercheurs, ingénieurs éthiques)
  • Une désaffection d’une partie croissante des utilisateurs finaux
  • Des campagnes de dénigrement organisées sur les réseaux sociaux
  • Des difficultés accrues pour lever les prochains tours auprès d’investisseurs sensibles aux questions ESG
  • Et, dans le pire des cas, des procédures judiciaires ou des sanctions gouvernementales

Autant dire que le calcul coût/bénéfice n’est plus aussi évident qu’il y a deux ans.

Et en Europe, dans tout ça ?

La question est particulièrement sensible pour les startups françaises et européennes. D’un côté, le Vieux Continent pousse très fort pour développer une « souveraineté technologique » et des champions de l’IA. De l’autre, la plupart des grands fonds et des politiques publiques restent très allergiques à tout ce qui touche de près ou de loin au militaire.

Pourtant, plusieurs acteurs hexagonaux travaillent déjà discrètement avec la DGA, l’armée de Terre ou la Marine nationale. Mais ils le font généralement dans des domaines très encadrés : maintenance prédictive, renseignement d’origine électromagnétique, simulation, cybersécurité défensive… rarement dans le cœur brûlant des applications létales autonomes.

« En Europe, le tabou militaire est encore très fort. Mais la guerre en Ukraine a déjà commencé à faire bouger les lignes. »

Un investisseur français anonyme

Le précédent Anthropic-OpenAI risque donc de cristalliser les positions : soit on choisit clairement la voie « purement civile », soit on assume une dualité assumée et on accepte les conséquences en termes d’image et de recrutement.

Quelles leçons concrètes pour les fondateurs ?

Si vous dirigez ou rejoignez une startup IA aujourd’hui, voici les garde-fous que beaucoup considèrent désormais comme non négociables :

  1. Écrire dès le départ des principes d’usage très clairs et les rendre publics
  2. Prévoir des clauses de sortie unilatérale en cas de modification des conditions d’usage par le client
  3. Constituer un comité d’éthique indépendant avec droit de veto sur certains contrats
  4. Anticiper une communication de crise : avoir une position publique préparée et assumée
  5. Diversifier très tôt les sources de revenus pour ne jamais dépendre à plus de 30-40 % d’un seul type de client

Ces précautions peuvent sembler lourdes pour une jeune pousse, mais elles sont devenues un must-have en 2026 si l’on veut conserver la confiance des parties prenantes.

Vers une fracture durable dans l’écosystème IA ?

Certains observateurs prédisent déjà l’émergence de deux mondes parallèles :

  • D’un côté, les « pure players civils » qui refuseront systématiquement tout contrat lié à la défense ou au renseignement offensif
  • De l’autre, les acteurs « dual-use » qui accepteront de travailler avec les armées, quitte à perdre une partie de leur communauté

Entre les deux, une zone grise de plus en plus inconfortable où les startups qui hésitent trop longtemps risquent de se faire dépasser par les uns et sanctionner par les autres.

Le précédent Anthropic/OpenAI pourrait donc marquer un tournant aussi important que le refus initial de Google de renouveler le contrat Maven en 2018… mais cette fois avec des conséquences beaucoup plus visibles et immédiates.

Et si c’était une opportunité déguisée ?

Paradoxalement, certains investisseurs voient dans cette tempête une formidable opportunité. Les startups qui sauront naviguer habilement entre ces écueils – en restant fermes sur leurs valeurs tout en démontrant leur sérieux – pourraient justement sortir renforcées.

Celles qui refuseront clairement les contrats militaires tout en expliquant pourquoi, avec transparence et cohérence, pourraient capter une vague de talents et d’utilisateurs qui se détournent d’OpenAI. Celles qui accepteront, mais avec des garde-fous très stricts et une communication irréprochable, pourraient au contraire devenir incontournables pour les États qui cherchent des partenaires fiables.

Dans les deux cas, la clarté et le courage de la position prise seront probablement les meilleurs actifs immatériels des prochaines années.

Conclusion : le choix cornélien de 2026

Le feuilleton Anthropic-Pentagone/OpenAI-DoD n’est probablement que le premier épisode d’une longue série. À mesure que les capacités des modèles augmentent et que les tensions géopolitiques s’intensifient, les gouvernements vont continuer à vouloir s’assurer un accès privilégié aux meilleures technologies IA du moment.

Pour les fondateurs, le message est clair : il n’y aura bientôt plus de position neutre possible. Choisir son camp – ou refuser de choisir – deviendra l’une des décisions les plus stratégiques et les plus visibles de toute l’histoire de l’entreprise.

Et vous, de quel côté seriez-vous prêt à vous ranger ?

(Compte environ 3 450 mots)

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.