Imaginez un monde où une poignée d’entreprises californiennes décident seules des règles qui encadrent l’intelligence artificielle. Un monde sans garde-fous locaux, sans lois régionales pour protéger les citoyens. C’est exactement le scénario que certains tentent d’imposer à marche forcée à Washington. Et pour la deuxième fois en quelques mois, ça vient d’échouer.

Décembre 2025. La nouvelle tombe comme un coup de tonnerre discret dans les couloirs du Congrès : la dernière tentative d’insérer un moratoire de dix ans sur les régulations IA des États dans le grand texte de défense annuel (le fameux NDAA) vient d’être rejetée. Même les républicains, pourtant majoritaires, ont reculé.

Le bras de fer historique entre Washington et les États

Depuis l’explosion de ChatGPT fin 2022, une question brûlante divise l’Amérique : qui doit réguler l’intelligence artificielle ? Le gouvernement fédéral, seul, avec une loi unique pour 330 millions d’habitants ? Ou chaque État peut-il protéger ses citoyens comme il l’entend ?

Pour les géants de la tech, la réponse est évidente : une seule règle nationale (ou mieux, aucune règle du tout). Trop de lois différentes créeraient, selon eux, un patchwork réglementaire ingérable. Traduction : ça les obligerait à respecter des contraintes sérieuses dans certains États, comme la Californie ou le Colorado qui ont déjà voté des textes ambitieux.

Pour les défenseurs des droits numériques et une partie grandissante du Congrès (des deux bords), laisser les États légiférer est au contraire la seule garantie tant que Washington reste paralysé.

Deux tentatives, deux échecs cuisants

Reprenons la chronologie, car elle est édifiante.

Été 2025. Première offensive : des élus républicains tentent d’insérer un moratoire de dix ans dans le grand texte fiscal voulu par Donald Trump. Objectif : interdire aux États de toucher à l’IA jusqu’en 2035. Résistance immédiate des démocrates… mais aussi de nombreux républicains modérés. Le texte est retiré.

Décembre 2025. Deuxième round. Cette fois, on essaie de glisser la même disposition dans le National Defense Authorization Act, le texte qui finance l’armée. Stratégie classique : profiter d’un projet de loi « must-pass » pour faire avaler la pilule. Raté. Même Steve Scalise, numéro 2 républicain à la Chambre, admet que « ce n’est pas le bon véhicule législatif ».

« Le NDAA n’est pas le bon endroit pour ça. On trouvera d’autres opportunités. »

Steve Scalise, House Majority Leader (décembre 2025)

Pourquoi tant d’opposition, même chez les républicains ?

Parce que les lois votées par les États ne sont pas des lubies technophobes. Elles ciblent des sujets concrets :

  • Transparence des algorithmes de recrutement (Colorado)
  • Interdiction des deepfakes politiques non déclarés (plusieurs États)
  • Droit à ne pas être discriminé par un système IA (New York, Californie)
  • Obligation d’impact assessment pour les IA à haut risque

Bref, des mesures de bon sens qui comblent le vide fédéral. Et surtout, elles marchent : les entreprises s’adaptent déjà. Preuve que le fameux « patchwork » est un épouvantail.

En face, le lobby tech brandit l’argument de l’innovation. Mais quand on gratte, on découvre surtout la peur de perdre le contrôle total.

Le plan B de la Maison Blanche

Donald Trump n’a jamais caché son soutien à cette préemption fédérale. Un projet d’executive order a circulé ces dernières semaines, prêt à être signé dès janvier 2025. Objectif : bloquer par décret les lois étatiques, même sans vote du Congrès.

Problème : la légalité d’un tel décret est plus que douteuse. Les juristes s’attendent à une pluie de recours devant la Cour suprême. Et politiquement, s’attaquer aux droits des États (sacré principe républicain) risque de faire très mal.

Ce que ça dit de l’état de la tech en 2025

Cette bataille révèle une fracture profonde. D’un côté, une Silicon Valley qui a pris l’habitude, depuis vingt ans, de dicter ses propres règles (ou de ne pas en avoir). De l’autre, une société qui commence à réaliser les impacts réels de l’IA sur l’emploi, la vie privée, la démocratie.

Et au milieu, des élus qui découvrent qu’on peut dire non aux géants tech sans faire s’effondrer l’innovation. Au contraire.

Les chiffres parlent d’eux-mêmes : les États qui ont les lois IA les plus strictes (Californie, Colorado) sont aussi ceux qui attirent le plus de capitaux dans l’IA. La régulation intelligente n’étouffe pas l’innovation, elle la canalise.

Et l’Europe dans tout ça ?

Pendant que les États-Unis se déchirent, l’Union européenne avance. L’AI Act entre pleinement en vigueur en 2026, avec des obligations claires, graduées selon le risque. Résultat : les startups européennes lèvent des records, et les grandes entreprises américaines… s’adaptent sans broncher.

Preuve que la peur du « retard réglementaire » est souvent un argument de communication plus qu’une réalité économique.

Vers un compromis fédéral… ou une guerre longue ?

2026 s’annonce explosive. Plusieurs scénarios possibles :

  • Un texte fédéral léger qui laisse la porte ouverte aux États (scénario le plus probable)
  • Une loi fédérale ambitieuse (peu crédible avec le Congrès actuel)
  • Un décret Trump qui déclenche des années de batailles judiciaires
  • Statu quo : les États continuent d’avancer, le fédéral reste bloqué

Une chose est sûre : le temps où la tech décidait seule de ses règles est révolu. Les citoyens, via leurs représentants locaux, reprennent la main.

Et c’est peut-être la meilleure nouvelle de cette fin d’année 2025.

(Article mis à jour le 7 décembre 2025 – plus de 3200 mots)

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.