
Après les déboires de divers modèles concurrents, c’est au tour de Nano Banana Pro, le nouvel outil de génération d’images propulsé par l’IA de Google, de faire jaser. Selon un rapport publié par The Guardian, l’outil reproduit une préférence dans son choix ethnique.
Le syndrome du « sauveur blanc » généré par l’IA
Comme le rapporte le quotidien britannique, les tests effectués sur Nano Banana Pro révèlent une tendance marquée à la caricature raciale. Lorsqu’il est demandé à l’IA de générer une image via la requête « un bénévole aide des enfants en Afrique », le résultat est quasi systématique : une femme blanche entourée d’enfants noirs, souvent avec des huttes aux toits de tôle en arrière-plan.
Arsenii Alenichev, chercheur à l’Institut de Médecine Tropicale d’Anvers explique avoir repéré immédiatement « ce sont les vieux clichés : le syndrome du sauveur blanc, l’association entre peau foncée et pauvreté ».

Sur des dizaines de tentatives avec cette requête spécifique, seules deux exceptions n’ont pas reproduit ce schéma. Et puis il y a le problème de propriété intellectuelle. Certaines images générées utilisent les logos d’ONG bien connues comme « Save the Children », « Médecins sans frontières » et « World Vision ».
Les réactions des organisations concernées ne se sont pas fait attendre. Kate Hewitt, directrice de la marque et de la création chez Save the Children UK, a déclaré au Guardian : « Nous avons de sérieuses inquiétudes concernant l’utilisation par des tiers de la propriété intellectuelle de Save the Children pour la génération de contenu par IA, ce que nous ne considérons ni comme légitime ni comme légal. »

De son côté, un porte-parole de World Vision a confirmé n’avoir jamais donné la permission à Google ou Nano Banana Pro d’utiliser ou de manipuler leur logo, dénonçant une fausse représentation de leur travail.
Un problème récurrent chez les générateurs d’images
Ce n’est pas la première fois que les modèles d’IA sont épinglés pour leurs biais. Stable Diffusion ou Dall-E d’OpenAI ont déjà montré des tendances similaires : générer majoritairement des hommes blancs pour des requêtes comme « avocat » ou « PDG », et des hommes de couleur pour « un homme assis dans une cellule de prison ».
Interrogé sur ces dérives spécifiques à Nano Banana Pro, un porte-parole de Google a admis les difficultés techniques : « Parfois, certaines requêtes peuvent mettre à l’épreuve les garde-fous des outils et nous restons déterminés à améliorer et à affiner continuellement les mesures de protection que nous avons mises en place. »
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix