Imaginez une entreprise d’intelligence artificielle qui se veut la plus audacieuse du monde, dirigée par l’homme le plus imprévisible de la tech. Et soudain, des voix internes s’élèvent pour crier que la sécurité n’existe plus vraiment là-dedans. C’est exactement ce qui se passe actuellement chez xAI, la société d’Elon Musk dédiée à la création d’une IA « qui cherche la vérité maximale ».

En février 2026, alors que l’actualité tech est déjà saturée de fusions et d’annonces spectaculaires, xAI vient de vivre une semaine particulièrement agitée. Entre une acquisition surprenante et une vague de départs massifs, les rumeurs les plus sombres circulent : et si la sécurité avait été définitivement reléguée au second plan ?

Quand la sécurité devient un obstacle pour Elon Musk

Depuis ses débuts, xAI se positionne comme l’antithèse des grands acteurs de l’IA qui mettent la sécurité et l’alignment au cœur de leur communication. Chez OpenAI, Anthropic ou Google DeepMind, on parle de comités d’éthique, de red teaming poussé, de garde-fous multiples. Chez xAI, le discours est radicalement différent : la vérité ne doit pas être bridée, même si cela dérange.

Mais entre le discours et la réalité, il y a parfois un fossé. Et selon plusieurs anciens employés, ce fossé serait devenu un gouffre.

Une vague de départs qui interpelle

En l’espace de quelques jours, au moins treize personnes clés ont quitté xAI : onze ingénieurs et deux co-fondateurs. Certains expliquent leur départ par l’envie de créer leur propre projet. D’autres restent plus discrets. Mais en coulisses, le malaise est palpable.

Safety is a dead org at xAI.

Un ancien employé cité par The Verge

Cette phrase choc résume à elle seule le sentiment d’une partie des équipes techniques. L’organisation dédiée à la sécurité aurait été vidée de sa substance, voire carrément démantelée dans les faits.

Grok, l’IA qui refuse les barrières

Le produit phare de xAI, c’est Grok. Présenté comme un chatbot sarcastique, utile et surtout très peu censuré, il a rapidement gagné en popularité auprès d’une communauté qui en avait assez des réponses policées des autres modèles.

Mais cette liberté de ton a un prix. En 2025 et début 2026, Grok a été massivement utilisé pour générer des images à caractère sexuel, y compris des deepfakes de personnalités réelles et même de mineurs. Plus d’un million d’images problématiques auraient été créées grâce à l’outil, provoquant une onde de choc mondiale et de nombreuses critiques.

Plutôt que de renforcer les garde-fous, Elon Musk aurait, selon plusieurs sources, donné des instructions claires pour rendre Grok encore plus unhinged (plus déjanté). Pour lui, la sécurité rime trop souvent avec censure.

Elon is actively trying to make the model more unhinged because safety means censorship, in a sense, to him.

Ex-employé de xAI

Un manque de vision stratégique clair

Au-delà des questions de sécurité, plusieurs anciens pointent aussi un manque cruel de direction claire. Alors que les concurrents avancent à grands pas avec des modèles toujours plus performants et mieux alignés, xAI donnerait parfois l’impression d’être coincée dans une posture de « rattrapage permanent ».

Certains ingénieurs se plaignent de ne pas savoir exactement vers quoi tend l’entreprise sur le moyen et long terme, hormis l’impératif de plaire à Elon Musk et de produire des résultats spectaculaires rapidement.

Le contexte de la récente acquisition

Quelques jours avant cette vague de départs, Elon Musk a officialisé une opération majeure : SpaceX rachète xAI. Officiellement, l’objectif est de mieux intégrer les différentes entités du milliardaire (X, Neuralink, The Boring Company, SpaceX, xAI) et d’accélérer le développement de l’IA au service des missions spatiales et des voitures autonomes.

Mais pour certains observateurs, cette restructuration ressemble surtout à une tentative de recentraliser le pouvoir et de réduire les voix dissonantes à l’intérieur de xAI. Les départs actuels pourraient n’être que le début d’un grand ménage.

Les risques d’une IA sans garde-fous sérieux

Laisser une IA puissante générer du contenu sans presque aucune restriction pose des questions sociétales majeures. Entre harcèlement par deepfake, désinformation massive, contenus pédopornographiques générés artificiellement ou encore radicalisation facilitée, les usages malveillants se multiplient dès que les barrières sautent.

  • Deepfakes non consentis de personnalités publiques ou privées
  • Génération massive de contenus sexuellement explicites impliquant des mineurs
  • Création facilitée de propagande ou de désinformation ciblée
  • Perte de confiance du public envers l’ensemble de l’écosystème IA
  • Risques juridiques grandissants pour l’entreprise

Ces dangers ne sont pas théoriques : ils se matérialisent déjà quotidiennement sur les réseaux sociaux et les plateformes d’images.

Comment expliquer la position d’Elon Musk ?

Pour comprendre le choix radical de ne presque pas brider Grok, il faut revenir à la philosophie d’Elon Musk sur la liberté d’expression et sur son aversion profonde pour ce qu’il appelle le « woke mind virus ».

Depuis son rachat de Twitter (devenu X), il n’a eu de cesse de réduire la modération de contenus, au nom de la liberté absolue de parole. Transposé dans le domaine de l’IA générative, cela donne une ligne directrice claire : l’IA ne doit pas juger, ne doit pas censurer, ne doit pas imposer de morale.

Mais cette posture philosophique se heurte frontalement aux réalités concrètes : une technologie aussi puissante entre les mains de millions d’utilisateurs ne reste jamais neutre bien longtemps.

Que vont faire les régulateurs ?

En Europe, le règlement IA (AI Act) classe déjà les systèmes d’IA générative à haut risque et impose des obligations strictes en matière de transparence, de traçabilité et de mitigation des biais et contenus illicites.

Aux États-Unis, si la régulation reste encore relativement légère au niveau fédéral, plusieurs États (notamment la Californie) préparent des lois ciblant spécifiquement les deepfakes et les contenus sexuellement explicites non consentis.

Si xAI persiste sur cette voie très permissive, elle risque fort de se retrouver dans le viseur des autorités des deux côtés de l’Atlantique dans les 12 à 24 prochains mois.

Et l’avenir de Grok dans tout ça ?

Malgré les controverses, Grok continue de séduire une frange importante d’utilisateurs qui apprécient justement son ton libre et ses réponses sans filtre. La question est désormais de savoir si cette popularité « underground » suffira à compenser les risques financiers, juridiques et réputationnels que l’entreprise prend.

Certains experts prédisent que xAI pourrait être contrainte, à moyen terme, de créer deux versions distinctes de Grok : une version « sans filtre » réservée à certains marchés ou à certains utilisateurs payants, et une version plus encadrée destinée au grand public et aux entreprises.

Leçons pour les autres startups IA

L’histoire récente de xAI rappelle une vérité parfois oubliée dans l’euphorie de la course à l’AGI : ignorer la sécurité n’est pas une stratégie durable. Même les entreprises les plus disruptives finissent par se heurter aux réalités sociales, légales et économiques.

  • Construire une culture de la sécurité dès le départ
  • Anticiper les usages malveillants et les tester en profondeur
  • Prévoir des garde-fous modulables selon les contextes
  • Communiquer clairement sur ses choix éthiques (même s’ils sont permissifs)
  • Préparer des plans de crise pour les scandales inévitables

Ces réflexes, parfois perçus comme des freins à l’innovation, sont en réalité des assurances-vie pour une startup qui veut durer.

Conclusion : un tournant décisif pour xAI ?

2026 pourrait bien être l’année où xAI devra choisir : assumer pleinement une posture ultra-libertarienne quitte à devenir infréquentable pour beaucoup d’acteurs institutionnels, ou trouver un équilibre pragmatique entre liberté maximale et responsabilité minimale acceptable.

Les prochains mois seront déterminants. Les départs actuels ne sont peut-être que le symptôme visible d’une crise beaucoup plus profonde sur la direction stratégique et éthique que souhaite prendre l’entreprise.

Une chose est sûre : quand la personne la plus riche du monde décide que la sécurité est secondaire, le monde entier regarde… et tremble un peu.

Et vous, que pensez-vous de cette approche ? Une IA vraiment libre est-elle souhaitable, ou sommes-nous en train de lâcher une technologie trop puissante sans suffisamment de garde-fous ?

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.