Scandale Grok : au lieu de supprimer la fonction de “nudification”, X la réserve aux abonnés payants
Tech et Science · Par Antoine Lazare ·Le samedi 10 janvier 2026 à 11h34
Accusée de permettre la création d’images de personnes dénudées sans leur accord, l’IA Grok intégrée à X est au centre d’une vive polémique. Mais la réponse d’Elon Musk surprend et choque. La fonctionnalité n’est pas supprimée. Elle est désormais réservée aux abonnés payants. Une décision qui passe mal et relance le débat sur les dérives de l’intelligence artificielle.
Une révélation qui met le feu aux réseaux
Tout démarre début janvier 2026 lorsque des internautes et plusieurs médias révèlent que Grok permet de générer des images de personnes dénudées à partir de simples photos. En clair, il est possible de prendre une image publique et de demander à l’IA d’enlever virtuellement les vêtements. Très vite, des exemples circulent en ligne, montrant des femmes dont les photos ont été détournées sans leur consentement.
La réaction est immédiate. Indignation, colère, incompréhension. Beaucoup dénoncent une technologie qui facilite le harcèlement, l’humiliation et la diffusion de faux contenus sexuels. Des victimes potentielles expliquent craindre pour leur réputation, leur vie privée et leur sécurité. Pour de nombreux observateurs, une ligne rouge est clairement franchie.
La décision de X qui choque encore plus
Face à la polémique, X annonce des changements. Mais contre toute attente, la plateforme ne supprime pas la fonctionnalité en cause. Elle choisit de la limiter aux utilisateurs abonnés. Autrement dit, la possibilité de générer des images dénudées existe toujours, mais elle devient payante.
Officiellement, l’objectif est de mieux contrôler les usages et de responsabiliser les utilisateurs. Elon Musk présente cette restriction comme une mesure de sécurité. Des filtres supplémentaires auraient aussi été ajoutés pour bloquer certains contenus.
Dans les faits, beaucoup y voient surtout une manière de transformer un problème éthique en option premium. L’idée que l’on puisse payer pour accéder à un outil aussi sensible passe très mal, aussi bien auprès du grand public que des associations.
“C’est une insulte pour les victimes”
Du côté des organisations de défense des droits des femmes et des victimes de cyberviolences, le ton est très dur. Pour elles, réserver l’outil aux abonnés ne protège personne. Au contraire, cela envoie le message que tant que l’on paie, tout est permis.
Une responsable associative parle d’“insulte pour les victimes”, rappelant que ces images peuvent détruire des réputations, provoquer du harcèlement et avoir de lourdes conséquences psychologiques. Plusieurs juristes soulignent aussi que, dans de nombreux pays, créer ou diffuser des images sexuelles sans consentement peut relever du pénal.
Pour ces acteurs, le problème n’est pas l’accès à l’outil, mais son existence même.
Un nouveau dérapage de l’IA générative
L’affaire Grok s’inscrit dans une série de polémiques liées aux outils d’IA capables de générer des images, des vidéos ou des voix ultra réalistes. Deepfakes, faux nudes, usurpations d’identité. Les exemples se multiplient et les garde-fous peinent à suivre.
Pour les spécialistes, cette situation montre surtout que la technologie avance plus vite que les règles. “On ne peut pas réparer après coup”, explique un expert en éthique numérique. “Ces outils doivent être pensés avec des limites claires dès le départ.”
Dans ce contexte, la décision de X est perçue comme un mauvais signal. Elle donne l’impression que le modèle économique passe avant la protection des personnes.
Les autorités sous pression
En Europe, plusieurs responsables politiques rappellent que les plateformes ont des obligations en matière de protection des utilisateurs. Les textes sur les services numériques et l’intelligence artificielle imposent de limiter les risques et de prévenir les abus.
Des appels se multiplient pour que les autorités de régulation se saisissent du dossier. L’objectif est clair. Vérifier si X respecte réellement ses obligations ou si elle ferme les yeux sur des usages problématiques.
Pour beaucoup, cette affaire marque un tournant. Elle pose une question simple mais dérangeante. Jusqu’où peut aller l’IA au nom de l’innovation, et à partir de quand faut-il dire stop.




