Imaginez un monde où les géants de l’intelligence artificielle doivent rendre des comptes à l’État sur la sécurité de leurs modèles. Un monde où une faille dans un système IA doit être signalée en moins de 72 heures, sous peine d’amendes colossales. Ce n’est plus de la science-fiction : c’est désormais la réalité à New York.

Le 20 décembre 2025, la gouverneure Kathy Hochul a apposé sa signature sur le RAISE Act, faisant de l’État de New York le deuxième aux États-Unis à adopter une législation majeure sur la sécurité de l’IA. Cette décision marque un tournant dans la régulation technologique, alors que le gouvernement fédéral reste en retrait.

Le RAISE Act : Une Loi Ambitieuse pour Encadrer l’IA

Le RAISE Act, acronyme de Responsible AI Safety and Evaluation Act, n’est pas une simple déclaration d’intention. Il impose des obligations concrètes aux développeurs de grands modèles d’intelligence artificielle. Ces entreprises doivent désormais publier leurs protocoles de sécurité et signaler tout incident grave dans un délai très court.

Pourquoi une telle urgence ? Parce que l’IA évolue à une vitesse fulgurante, et les risques associés – biais, hallucinations, utilisations malveillantes – ne cessent de croître. New York, qui abrite de nombreuses startups et centres de recherche en IA, se positionne ainsi en pionnier de la régulation responsable.

Les Principales Obligations du RAISE Act

La loi cible avant tout les grands développeurs d’IA, ceux qui entraînent des modèles massifs capables d’impacter des millions d’utilisateurs. Voici les mesures phares qui entrent en vigueur.

  • Publication obligatoire des protocoles de sécurité et des tests réalisés avant déploiement.
  • Signalement de tout incident de sécurité à l’État dans les 72 heures suivant sa découverte.
  • Création d’un bureau dédié au sein du Department of Financial Services pour superviser le secteur.
  • Amendes pouvant atteindre 1 million de dollars pour une première infraction, et jusqu’à 3 millions pour les récidives.

Ces dispositions visent à instaurer une transparence sans précédent. Les entreprises ne pourront plus cacher des failles sous le tapis, au risque de sanctions financières lourdes.

Un Parcours Législatif Movementé

Le chemin vers la signature n’a pas été de tout repos. Adopté par les législateurs en juin 2025, le texte a fait l’objet d’un intense lobbying de la part de l’industrie tech. Kathy Hochul avait initialement proposé des amendements pour adoucir la loi, sous pression des géants du secteur.

Mais finalement, la gouverneure a choisi de signer la version originale. En échange, les parlementaires se sont engagés à intégrer ses modifications lors de la prochaine session législative. Un compromis qui permet à la loi d’entrer en vigueur rapidement, tout en laissant la porte ouverte à des ajustements.

“Cette loi s’appuie sur le cadre récemment adopté par la Californie, créant un standard unifié parmi les principaux États tech du pays alors que le gouvernement fédéral traîne les pieds.”

Kathy Hochul, Gouverneure de New York

Cette citation illustre parfaitement la frustration face à l’inaction fédérale. New York et la Californie, deux poids lourds de l’innovation, prennent les devants pour combler le vide réglementaire.

La Californie comme Modèle

New York n’agit pas en solitaire. En septembre 2025, le gouverneur Gavin Newsom a signé une législation similaire en Californie. Ces deux États, qui concentrent l’essentiel de l’écosystème tech américain, établissent ainsi un front commun.

Le sénateur Andrew Gounardes, co-sponsor du RAISE Act, n’a pas mâché ses mots :

“Big Tech pensait pouvoir s’infiltrer et tuer notre projet de loi. Nous les avons arrêtés net et adopté la loi la plus forte du pays en matière de sécurité IA.”

Andrew Gounardes, Sénateur de l’État de New York

Cette déclaration reflète la détermination des législateurs face aux pressions industrielles. Le RAISE Act est présenté comme le texte le plus ambitieux à ce jour.

Les Réactions du Secteur Tech : Entre Soutien et Opposition

Les avis au sein de l’industrie sont contrastés. Certaines entreprises leaders en IA ont salué l’initiative tout en plaidant pour une régulation fédérale.

OpenAI et Anthropic, deux acteurs majeurs, ont exprimé leur soutien. Sarah Heck, responsable des affaires externes chez Anthropic, a déclaré que ces lois étatiques signalent l’urgence de la sécurité IA et devraient inspirer le Congrès.

Mais tous ne partagent pas cet enthousiasme. Un super PAC financé par Andreessen Horowitz et Greg Brockman (président d’OpenAI) cible déjà Alex Bores, co-sponsor du texte, en vue des prochaines élections. Une tentative claire d’influencer la composition législative.

Le Contexte Fédéral : Trump et la Préemption des Lois Étatiques

La situation se complique avec l’intervention du niveau fédéral. Le président Donald Trump a récemment signé un décret exécutif ordonnant aux agences fédérales de contester les lois étatiques sur l’IA.

Ce décret, soutenu par David Sacks – nommé « tsar de l’IA » par Trump – vise à centraliser la régulation et empêcher les États de légiférer indépendamment. Une démarche qui risque de déboucher sur de nombreux recours judiciaires.

Andreessen Horowitz et d’autres investisseurs influents militent depuis longtemps pour une approche fédérale unique, arguant que des régulations fragmentées nuiraient à l’innovation américaine.

  • Arguments des pro-régulation étatique : protection rapide des citoyens, adaptation locale aux risques.
  • Arguments des opposants : risque de patchwork réglementaire, frein à la compétitivité face à la Chine.
  • Enjeu central : trouver l’équilibre entre sécurité et innovation.

Les Implications pour les Startups et l’Écosystème IA

Pour les startups new-yorkaises, le RAISE Act représente à la fois un défi et une opportunité. Les obligations de transparence pourraient alourdir les processus de développement, surtout pour les plus petites structures.

Cependant, une régulation claire peut aussi rassurer les investisseurs et les clients. Dans un contexte où la confiance dans l’IA est fragile, démontrer un engagement fort en sécurité devient un avantage compétitif.

Les grands acteurs, déjà dotés de équipes dédiées à la safety, seront moins impactés. Ce sont surtout les entreprises intermédiaires qui devront accélérer leurs efforts.

Comparaison Internationale : Où se Place New York ?

À l’échelle mondiale, l’Union Européenne reste en avance avec son AI Act, adopté en 2024 et entré progressivement en application. Ce texte classe les IA par niveau de risque et impose des exigences proportionnées.

JuridictionApprocheNiveau d’exigence
Union EuropéenneClassification par risqueÉlevé (amendes jusqu’à 6% du CA mondial)
CalifornieTransparence et safety testingMoyen à élevé
New York (RAISE Act)Reporting incidents et protocolesÉlevé pour grands modèles
États-Unis (fédéral)Décret exécutif non contraignantFaible

New York se rapproche ainsi du modèle européen en termes d’ambition, tout en restant focalisé sur les aspects sécurité et transparence.

Perspectives : Vers une Régulation Fédérale Inévitable ?

Les initiatives de New York et de la Californie exercent une pression croissante sur Washington. Quand deux États représentant près de 20% du PIB américain adoptent des standards similaires, les entreprises nationales se retrouvent de facto soumises à ces règles.

C’est l’effet « California » bien connu dans l’automobile ou la protection des données : un standard étatique devient rapidement national par la force des choses.

Le débat oppose deux visions : celle d’une régulation légère favorisant l’innovation, défendue par une partie de la Silicon Valley et l’administration Trump, et celle d’un cadre robuste protégeant la société, portée par des législateurs démocrates et certains acteurs tech responsables.

Ce que Cela Signifie pour l’Avenir de l’IA

Le RAISE Act n’est qu’un début. Il pose les bases d’une gouvernance responsable de l’IA aux États-Unis. Les prochains mois seront cruciaux : contestations judiciaires du décret Trump, mise en œuvre effective de la loi, éventuelles modifications.

Pour les entrepreneurs et innovateurs, le message est clair : la sécurité n’est plus optionnelle. Intégrer des pratiques robustes dès la conception devient une nécessité, pas seulement éthique mais légale.

Et pour le grand public, c’est une avancée bienvenue. Dans un monde où l’IA influence de plus en plus nos vies – recrutement, crédit, santé, justice – savoir que des garde-fous existent rassure.

Le RAISE Act marque un moment historique : celui où les États américains commencent sérieusement à encadrer l’une des technologies les plus puissantes de notre époque. Reste à voir si cette dynamique étatique forcera enfin le Congrès à agir, ou si le bras de fer avec l’exécutif fédéral se prolongera.

Une chose est sûre : l’intelligence artificielle ne se développera plus dans un vide réglementaire. L’ère de la responsabilité commence.

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.