Imaginez ouvrir votre réseau social préféré et découvrir soudain des milliers d’images intimes de femmes, créées de toutes pièces par une intelligence artificielle sans aucun consentement. En ce début janvier 2026, c’est exactement ce que vivent des millions d’utilisateurs de X. Le coupable ? Grok, le chatbot d’image développé par xAI, qui depuis quelques semaines génère sans filtre des nus manipulés à une vitesse effrayante.
Ce qui a commencé comme une expérimentation technologique audacieuse s’est rapidement transformé en une crise mondiale de respect de la vie privée et de dignité humaine. Des actrices célèbres aux anonymes, en passant par des victimes de crimes et même des chefs d’État, personne ne semble épargné par cette vague incontrôlable de deepnudes.
Une technologie libérée sans garde-fous
Fin décembre 2025, xAI décide de lever presque toutes les restrictions sur la génération d’images par Grok. L’objectif affiché : offrir une créativité maximale aux utilisateurs. La réalité a été bien différente. Très vite, des comptes ont commencé à publier des nus générés en masse, souvent en ciblant des personnalités publiques.
Selon une étude publiée par Copyleaks le 31 décembre, environ une image de ce type était postée chaque minute sur la plateforme. Mais les relevés effectués entre le 5 et le 6 janvier 2026 sont encore plus alarmants : plus de 6 700 images par heure sur certaines périodes. Un rythme industriel qui dépasse largement les capacités de modération humaine.
Qui sont les principales victimes ?
Les cibles les plus visibles sont évidemment les personnalités connues. Des mannequins internationales, des actrices hollywoodiennes et même des présentatrices télévisées ont vu leur visage greffé sur des corps nus fictifs. Mais le phénomène touche aussi des personnes beaucoup moins protégées médiatiquement.
- Des victimes de violences sexuelles déjà identifiées publiquement
- Des journalistes et militantes engagées
- Des adolescentes dont les photos de classe ont été utilisées
- Des femmes politiques de plusieurs pays
- Des employées lambda dont les photos LinkedIn ont été détournées
Cette diversité des victimes montre bien que le problème dépasse largement le seul cadre des célébrités. Toute femme ayant publié ne serait-ce qu’une photo publique sur internet peut potentiellement devenir une cible.
« C’est une forme d’agression numérique de masse. On ne peut plus parler de canular ou d’humour noir, nous sommes face à une violence organisée facilitée par une technologie. »
Une militante pour les droits des femmes interviewée par un média européen
La réponse timide de xAI et d’Elon Musk
Face à la polémique grandissante, xAI a publié plusieurs communiqués. Le compte @Safety de X a notamment déclaré que toute personne utilisant Grok pour créer du contenu illégal subirait les mêmes conséquences que si elle avait publié ce contenu directement.
Elon Musk lui-même a tweeté que l’entreprise condamnait fermement la création d’images pédopornographiques. Cependant, aucune mention explicite n’a été faite concernant les deepnudes d’adultes non consentis. Des sources internes citées par plusieurs médias laissent même entendre que le PDG aurait personnellement demandé de ne pas implémenter de garde-fous trop stricts sur la génération d’images.
Techniquement, la seule mesure visible a été la suppression de l’onglet média public du compte Grok. Aucune annonce n’a été faite concernant un éventuel réentraînement du modèle ou l’ajout de filtres plus robustes.
Les gouvernements à la peine face à un acteur américain
La réaction des autorités publiques a été rapide mais très fragmentée. Chaque pays semble limité par ses propres outils juridiques et par la localisation américaine de xAI.
L’Europe en première ligne
La Commission européenne a réagi le plus fermement. Dès le jeudi suivant l’explosion du phénomène, elle a ordonné à xAI de conserver l’intégralité des documents relatifs au développement et au déploiement de Grok. Cette mesure conservatoire est souvent le prélude à une procédure formelle sous le Digital Services Act ou l’AI Act.
Plusieurs eurodéputés ont déjà appelé à une audition d’urgence d’Elon Musk devant le Parlement européen, comme cela avait été le cas pour Mark Zuckerberg en 2018.
Le Royaume-Uni entre fermeté et prudence
Ofcom, le régulateur britannique, a indiqué être en contact permanent avec xAI et procéder à une « évaluation rapide » pour déterminer si des manquements graves justifient l’ouverture d’une enquête formelle.
Le Premier ministre Keir Starmer n’a pas hésité à qualifier le phénomène de « disgraceful and disgusting » lors d’une interview radio, promettant le soutien total du gouvernement à Ofcom.
L’Australie observe et compte les plaintes
La commissaire eSafety Julie Inman-Grant a révélé une véritable explosion des signalements liés à Grok depuis fin 2025. Elle a promis d’utiliser « l’ensemble des outils réglementaires disponibles », sans toutefois annoncer de mesure concrète immédiate.
L’Inde menace sérieusement X
Le marché indien représente un enjeu majeur pour X. Suite à une plainte déposée par un député, le ministère indien des Technologies de l’information (MeitY) a exigé un rapport d’action sous 72 heures – délai ensuite prolongé de 48 heures.
X a bien transmis un document le 7 janvier, mais rien ne garantit que les autorités s’en satisferont. En cas d’insatisfaction, la plateforme pourrait perdre son statut d’intermédiaire protégé, ce qui l’exposerait à des poursuites directes pour chaque contenu illicite publié.
Pourquoi est-il si difficile de réguler ?
La crise actuelle révèle plusieurs failles structurelles dans la régulation des technologies d’IA générative :
- Les modèles open-source ou accessibles via API permettent une diffusion mondiale quasi instantanée
- Les garde-fous côté serveur peuvent être contournés par des jailbreaks ou des prompts ingénieux
- Les images sont générées à la demande, rendant la modération a posteriori très complexe
- Les juridictions nationales peinent à appliquer leurs lois à des entreprises basées aux États-Unis
- Le volume de contenus générés dépasse largement les capacités humaines de modération
Ces éléments combinés créent une situation où la technologie semble avancer beaucoup plus vite que le cadre légal censé l’encadrer.
Quelles solutions pour l’avenir ?
Face à cette impasse, plusieurs pistes commencent à émerger dans les débats publics et académiques :
- Watermarking obligatoire de toutes les images générées par IA
- Obligation de conservation des prompts pour traçabilité judiciaire
- Mise en place de modèles à deux niveaux : un mode créatif restreint et un mode « sans limite » réservé aux usages professionnels vérifiés
- Création d’une base noire mondiale de visages à protéger (opt-in pour les personnalités publiques et victimes)
- Sanctions financières proportionnelles au nombre de contenus illicites générés
- Responsabilité accrue des prompt engineers qui diffusent des méthodes de contournement
Ces solutions, bien que techniquement réalisables pour la plupart, se heurtent à des questions d’équilibre entre innovation, liberté d’expression et protection des personnes.
Et si c’était le vrai test de maturité de l’IA générative ?
Depuis l’arrivée massive des outils d’images IA fin 2022, la communauté technologique attendait le moment où les dérives dépasseraient les usages créatifs et ludiques. Ce moment semble être arrivé en ce début 2026 avec Grok.
Ce scandale pourrait marquer un tournant décisif : soit les entreprises de l’IA acceptent enfin de mettre en place des garde-fous robustes et vérifiables, soit les États imposeront des règles beaucoup plus contraignantes, au risque d’étouffer l’innovation.
Pour l’instant, le match est loin d’être terminé. Chaque jour qui passe voit apparaître de nouvelles victimes, de nouvelles plaintes, de nouveaux communiqués… mais aussi de nouvelles images. Le chronomètre tourne, et la question n’est plus de savoir si une régulation forte arrivera, mais quand et à quel prix.
Dans cette bataille entre accélération technologique et protection humaine, l’année 2026 s’annonce déjà comme une année charnière pour l’avenir de l’intelligence artificielle générative.
À suivre de très près.