Imaginez un monde où même les compagnies qui assurent les pétroliers, les centrales nucléaires ou les satellites refusent catégoriquement de toucher à votre produit. C’est exactement ce qui est en train d’arriver à l’intelligence artificielle en cette fin d’année 2025.
Les géants de l’assurance, ceux-là mêmes qui calculent le risque à la virgule près, viennent de sonner l’alarme : l’IA est devenue leur pire cauchemar.
Quand les assureurs disent stop à l’IA
Fin novembre 2025, le Financial Times a révélé que plusieurs assureurs américains de premier plan – Great American, Chubb, W. R. Berkley – demandaient officiellement l’autorisation d’exclure les sinistres liés à l’intelligence artificielle de leurs contrats entreprises. En clair : si votre IA génère une perte, vous êtes seul.
Le terme qui revient en boucle dans les couloirs des souscripteurs ? Black box. Personne ne comprend vraiment comment les grands modèles prennent leurs décisions. Et quand on ne comprend pas, on ne peut pas chiffrer le risque. C’est aussi simple que ça.
« On peut absorber 400 millions de dollars de perte pour une seule entreprise. Ce qu’on ne peut pas absorber, c’est 10 000 sinistres simultanés causés par le même modèle défaillant. »
Un cadre d’Aon, cité par le Financial Times
Les précédents qui font trembler le secteur
Les exemples concrets commencent à s’accumuler, et ils font mal.
- Mars 2025 : l’AI Overview de Google accuse à tort une entreprise solaire australienne de fraude. Conséquence ? Une chute de 110 millions de dollars de capitalisation et un procès en cours.
- Février 2024 : Air Canada doit honorer un tarif inventé de toutes pièces par son chatbot. La justice tranche : l’entreprise est responsable des dires de son IA.
- 2024 toujours : 25 millions de dollars volés à la société d’ingénierie Arup via un deepfake ultra-réaliste d’un dirigeant en visioconférence.
Ces affaires, isolées, sont déjà coûteuses. Mais le vrai scénario cauchemar ? Un modèle largement déployé – disons un assistant juridique utilisé par des milliers de cabinets – qui produit massivement des conseils erronés. La facture pourrait atteindre des dizaines de milliards en quelques heures.
Le risque systémique, ce mot qui terrorise Lloyd’s
À Londres, le marché de l’assurance Lloyd’s a publié en septembre 2025 un rapport de 42 pages intitulé Systemic Risk from Artificial Intelligence. Le document est sans appel : l’IA représente aujourd’hui le risque systémique le plus sous-estimé depuis la crise des subprimes.
Pourquoi systémique ? Parce que contrairement à un incendie d’usine ou un crash d’avion, la même faille peut toucher simultanément des millions d’utilisateurs à travers le monde. Un seul bug dans un modèle open source utilisé partout, et c’est la panique générale.
| Type de risque traditionnel | Risque IA |
| Localisé géographiquement | Global et instantané |
| Prévisible statistiquement | Imprévisible (boîte noire) |
| Limité en portée | Potentiel illimité |
| Historique de sinistres connu | Aucun historique fiable |
Les startups dans le viseur
Pour les jeunes pousses de l’IA, la nouvelle est brutale. Jusqu’à présent, la plupart se contentaient d’une simple RC Pro classique. Demain, cette couverture pourrait exclure explicitement tout ce qui touche à l’intelligence artificielle.
Conséquence directe : les investisseurs vont poser des questions très embarrassantes en due diligence.
- Avez-vous une assurance couvrant les erreurs de votre modèle ?
- Quel est votre exposition en cas de sinistre massif ?
- Vos clients ont-ils les moyens de vous poursuivre si votre IA déraille ?
Une startup française spécialisée dans l’IA juridique, qui a préféré garder l’anonymat, nous confiait récemment : « On vient de recevoir une lettre de notre assureur nous informant que notre police 2026 exclura les ‘sorties de modèles génératifs’. On est en train de tout revoir. »
Vers un marché de l’assurance IA spécialisé ?
Tout n’est pas noir. Comme souvent, la crise crée des opportunités.
Plusieurs acteurs commencent à se positionner sur ce marché naissant :
- Beazley et Hiscox testent déjà des produits « AI Liability » avec des primes stratosphériques mais une couverture réelle.
- Munich Re a créé une unité dédiée qui accepte d’assurer les modèles… à condition d’avoir un accès complet aux logs et aux données d’entraînement.
- Des startups comme Vanta ou Corvus Insurance développent des outils de scoring de risque IA en temps réel.
Le prix ? Comptez entre 5 et 15% du chiffre d’affaires annuel pour une couverture décente. C’est énorme, mais pour certaines entreprises, c’est le prix de la survie.
Et l’Europe dans tout ça ?
Le vieux continent, avec l’AI Act, se retrouve paradoxal : d’un côté les régulateurs imposent les exigences de transparence les plus strictes au monde, de l’autre les assureurs européens suivent exactement la même tendance que leurs homologues américains.
En Allemagne, Allianz a déjà annoncé qu’à partir de 2026, toute police entreprise contiendra une clause d’exclusion « Advanced AI Systems » sauf souscription d’un avenant spécifique à 7 chiffres minimum.
« L’IA, c’est le nouveau tabac : tout le monde sait que c’est dangereux, mais personne n’arrive à arrêter. »
Un risk manager chez AXA, sous couvert d’anonymat
Que faire quand on est entrepreneur ?
Si vous développez ou utilisez de l’IA, voici les actions concrètes à mettre en place dès aujourd’hui :
- Faire auditer votre assureur actuel : demandez par écrit si les risques IA sont exclus en 2026.
- Commencer à documenter exhaustivement vos modèles (c’est déjà obligatoire avec l’AI Act pour les systèmes à haut risque).
- Prévoir un budget assurance multiplié par 5 à 10 dans votre prévisionnel 2026-2027.
- Envisager des structures de responsabilité limitée par produit IA (filiales dédiées).
- Mettre en place des garde-fous techniques : human in the loop, assurance qualité des sorties, monitoring en production.
Le message est clair : l’époque où on déployait une IA en production « parce que c’est cool » est terminée. Bienvenue dans l’âge adulte de l’intelligence artificielle, où chaque ligne de code peut coûter des centaines de millions.
Les assureurs, ces gens dont le métier est précisément de parier sur le pire, viennent de nous dire qu’ils ne veulent plus parier sur l’IA.
Quand les professionnels du risque ont peur… peut-être qu’on devrait tous commencer à avoir peur aussi.