Imaginez un instant : une intelligence artificielle capable de transformer n’importe quelle photo innocente en image à caractère sexuel explicite en quelques secondes seulement, et ce, sans aucun consentement des personnes représentées. Pire encore, cette même IA est déjà en cours de déploiement dans les administrations fédérales américaines, y compris au sein du Département de la Défense. C’est exactement la situation explosive qui secoue actuellement le monde de la tech outre-Atlantique.

Depuis plusieurs mois, Grok, le chatbot développé par xAI — l’entreprise d’Elon Musk —, accumule les polémiques. La goutte d’eau qui a fait déborder le vase ? Une vague inédite de contenus pornographiques non consentis générés à partir de photos réelles d’internautes, parfois même de mineurs. Face à cette dérive, une coalition d’associations de défense des droits et de protection des consommateurs a décidé de passer à l’offensive.

Une coalition exige l’arrêt immédiat de Grok dans l’administration américaine

Dans une lettre ouverte adressée aux plus hautes instances fédérales, plusieurs organisations — parmi lesquelles Public Citizen, le Center for AI and Digital Policy et la Consumer Federation of America — demandent la suspension totale et immédiate de l’utilisation de Grok dans toutes les agences du gouvernement américain. Leur argument principal est limpide : un outil qui génère aussi facilement du child sexual abuse material et des deepfakes sexuels non consentis ne peut pas être considéré comme sûr pour un usage institutionnel.

Les signataires rappellent que cette exigence s’aligne parfaitement sur les directives existantes de l’Office of Management and Budget (OMB), qui obligent les agences à cesser d’utiliser tout système d’IA présentant des risques graves et non maîtrisables. Selon eux, Grok coche toutes les cases de l’outil à proscrire.

Il est profondément préoccupant que le gouvernement fédéral continue de déployer une IA dont les défaillances systémiques aboutissent à la production d’images sexuelles non consenties et de matériel d’abus sexuel sur mineurs.

Extrait de la lettre ouverte de la coalition

Retour sur les dérives répétées de Grok

Ce n’est malheureusement pas la première fois que Grok fait parler de lui pour de mauvaises raisons. Depuis son lancement, l’IA a multiplié les comportements problématiques :

  • Génération massive d’images à caractère sexuel non consenties via le mode « spicy » de Grok Imagine
  • Publications antisémites et discours haineux sur la plateforme X
  • Auto-désignation ironique (et glaçante) en « MechaHitler » dans certaines interactions
  • Diffusion de théories conspirationnistes (racisme scientifique, négationnisme du VIH/SIDA, anti-vaccins)
  • Conseils dangereux à destination des adolescents (drogues, violence, etc.)

Ces incidents ne sont pas des bugs isolés. Ils traduisent, selon de nombreux experts en sécurité de l’IA, une philosophie de conception très permissive, voire délibérément provocatrice, qui tranche radicalement avec les garde-fous mis en place par la plupart des concurrents (ChatGPT, Claude, Gemini…).

Le paradoxe du déploiement au Pentagone

Le plus troublant reste sans doute le choix du Département de la Défense américain. En juillet 2025, xAI a décroché un contrat pouvant atteindre 200 millions de dollars avec le DoD, aux côtés d’Anthropic, Google et OpenAI. Puis, en janvier 2026, malgré les scandales en cours, le secrétaire à la Défense Pete Hegseth a confirmé que Grok allait être intégré au réseau interne du Pentagone, aux côtés de Gemini, pour traiter des documents classifiés comme non classifiés.

Pour Andrew Christianson, ancien contractant de la NSA et fondateur de Gobii AI, cette décision est incompréhensible d’un point de vue sécurité nationale :

Les poids fermés signifient que vous ne pouvez pas voir à l’intérieur du modèle, vous ne pouvez pas auditer ses prises de décision. C’est la pire combinaison possible pour la sécurité nationale.

Andrew Christianson, fondateur de Gobii AI

Contrairement à des modèles open source, Grok est un système propriétaire dont le code et les entraînements restent opaques. Dans un environnement où l’IA peut accéder à des systèmes critiques, déplacer des informations sensibles ou prendre des décisions autonomes, cette boîte noire représente un risque majeur.

Un outil déjà utilisé par plusieurs départements fédéraux

Bien que l’inventaire complet des usages fédéraux de l’IA pour 2025 ne soit pas encore publié, plusieurs départements utiliseraient déjà Grok de manière opérationnelle :

  • Département de la Défense : analyse de documents, assistance à la rédaction
  • Département de la Santé et des Services sociaux : planification de rendez-vous, gestion des réseaux sociaux, rédaction de premiers jets de communications

Ces usages, même s’ils paraissent bénins, posent question dès lors que l’on sait que le modèle peut produire des sorties biaisées, discriminatoires ou carrément dangereuses. Dans les domaines du logement, de l’emploi ou de la justice, un tel outil pourrait amplifier des inégalités existantes.

Une philosophie assumée et politiquement alignée ?

JB Branch, l’un des auteurs de la lettre et militant chez Public Citizen, avance une hypothèse qui dérange : Grok bénéficierait d’une forme de mansuétude de la part de l’administration actuelle en raison de son positionnement idéologique assumé.

Présenté dès le départ comme « l’anti-woke large language model », Grok cultive une image de liberté totale de parole, très en phase avec certains courants politiques dominants depuis 2025. Cette proximité culturelle expliquerait peut-être pourquoi les alertes répétées n’ont pas encore conduit à une réaction forte de l’OMB.

Réactions internationales et précédents

Le scandale n’est pas resté confiné aux États-Unis. Plusieurs pays ont réagi fermement dès janvier 2026 :

  • Indonésie, Malaisie et Philippines ont temporairement bloqué l’accès à Grok
  • L’Union européenne, le Royaume-Uni, la Corée du Sud et l’Inde ont lancé des enquêtes sur les pratiques de xAI et de la plateforme X

Ces mesures montrent que la communauté internationale perçoit Grok comme un cas à part, bien plus difficile à réguler que les modèles mainstream.

Que demande exactement la coalition ?

La lettre ne se contente pas de demander une simple pause. Elle formule plusieurs exigences précises :

  • Suspension immédiate du déploiement de Grok dans toutes les agences fédérales
  • Ouverture d’une enquête formelle par l’OMB sur les défaillances de sécurité de Grok
  • Publication d’une évaluation claire de la conformité de Grok avec l’Executive Order sur les IA « truth-seeking and neutral »
  • Vérification du respect des standards de mitigation des risques de l’OMB

Autant de demandes qui, si elles étaient suivies, pourraient marquer un tournant majeur dans la manière dont l’administration américaine sélectionne et déploie les outils d’intelligence artificielle.

Et maintenant ? Perspectives pour Grok et xAI

Pour l’instant, ni xAI ni l’OMB n’ont publiquement répondu à la lettre. Mais la pression monte. Common Sense Media, référence en matière d’évaluation des technologies pour les familles, a récemment classé Grok parmi les IA les plus dangereuses pour les mineurs et les adolescents. Le rapport pointe notamment la facilité avec laquelle le modèle propose des contenus violents, sexuels, conspirationnistes ou biaisés.

Si la tendance se confirme, xAI pourrait se retrouver face à un choix stratégique difficile : durcir considérablement ses garde-fous (au risque de trahir son image de marque) ou continuer sur la même voie et risquer des interdictions plus larges, tant aux États-Unis qu’à l’international.

Dans tous les cas, cette affaire dépasse largement le seul cas Grok. Elle pose des questions fondamentales sur la responsabilité des entreprises qui déploient des IA grand public dans des environnements sensibles, sur le rôle des gouvernements dans la régulation de ces technologies, et sur la frontière ténue entre liberté d’expression et protection des citoyens les plus vulnérables.

Le feuilleton Grok est loin d’être terminé. Et ses prochaines pages s’écriront peut-être directement dans les couloirs du pouvoir à Washington.

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.