
Depuis plusieurs jours, n’importe quel utilisateur de X peut répondre à la photo d’une femme, qu’il s’agisse d’une célébrité, d’une inconnue ou même d’une mineure, en demandant à Grok de « lui enlever ses vêtements » ou de la « mettre en bikini ». Et vous savez quoi ? L’IA Grok le fait.
L’outil est intégré directement dans l’interface de X, public, et d’une simplicité effrayante. La photo modifiée apparaît en réponse, visible par tous.
Face à l’explosion des signalements et à une polémique qui enfle (notamment en Inde où des actrices ont été ciblées massivement), xAI commence à paniquer et à serrer la vis. Mais le mal est fait. Et l’explication technique derrière ce désastre est encore plus agaçante que le résultat.
Flux, ou la liberté sans le cerveau
Pour comprendre comment on en est arrivé là, il faut regarder sous le capot. Grok n’utilise pas un moteur maison pour ses images, mais s’appuie massivement sur Flux.1, le modèle de Black Forest Labs.
Contrairement à DALL-E 3 (OpenAI) ou Midjourney, qui sont bardés de filtres de sécurité paranoïaques refusant de générer une image si vous tapez le mot « bikini », Flux est vendu comme un modèle « ouvert » et peu censuré. C’est techniquement impressionnant, mais sans sécurité, c’est une bombe à retardement. Elon Musk, dans sa croisade pour une IA « truth-seeking » (chercheuse de vérité) et « moins censurée », a délibérément choisi de laisser ces garde-fous au minimum syndical.
Le problème ? Les filtres de Grok étaient calibrés pour bloquer la « pornographie explicite » (les actes sexuels, la nudité frontale totale). Mais l’IA, bête comme ses pieds, ne classait pas « une femme en bikini générée à partir d’une photo habillée » comme du porno. C’est la faille « bikini ». Les utilisateurs malveillants l’ont compris immédiatement : en demandant de la lingerie ou des tenues de plage, ils obtiennent un résultat qui sert de matériel de harcèlement, tout en passant sous le radar des filtres automatiques basiques de xAI.
L’excuse du « c’est juste un outil » ne tient plus
On voit déjà les défenseurs de la plateforme monter au créneau : « C’est comme Photoshop, on ne blâme pas Adobe si quelqu’un fait un montage. » C’est faux.
La différence est fondamentale. Photoshop est un outil passif. Grok est un agent actif. Quand un utilisateur demande « mets-lui un bikini », l’IA ne se contente pas d’exécuter un script, elle interprète une demande de harcèlement, analyse l’image source, et génère une nouvelle image synthétique pour satisfaire cette demande.
Pire encore, cela se passe sur une place publique. X n’est pas seulement l’éditeur de l’outil, c’est aussi le diffuseur. En permettant à ces commandes de s’exécuter directement dans les fils de discussion, la plateforme facilite l’humiliation publique. C’est illégal, dangereux, et moralement indéfendable.
La réalité juridique va frapper fort
Pendant qu’Elon Musk joue aux apprentis sorciers avec la modération, le monde réel prépare la riposte. L’ENFORCE Act 2025 aux États-Unis et l’AI Act en Europe ne sont pas là pour faire de la figuration.
La génération d’images pédopornographiques ou leur suggestion forte sur des mineurs est un crime fédéral. En laissant son IA « halluciner » de la lingerie sur des enfants parce que ses filtres sont trop lâches, xAI s’expose à des poursuites pénales massives.
La réaction de xAI depuis hier, le 31 décembre 2025, est typique : on bouche les trous en urgence. Les prompts contenant « bikini », « undress » ou « lingerie » commencent à être bloqués ou génèrent des messages d’erreur.
Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !


Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix