Google Gemini fait n’importe quoi avec la diversité, et ça ne passe pas inaperçu

Entre ambition et faux pas historiques

 

Google s'est un peu emmêlé les pinceaux en voulant promouvoir la diversité avec son chatbot Gemini.

Images générées par Google Gemini

L’IA de Google, Gemini, qui génère des images à partir de textes, fait parler d’elle. Non pas pour ses prouesses techniques, mais pour un souci assez insolite : des images historiques… disons, créatives. Quand on demande à Gemini de nous montrer les pères fondateurs des États-Unis, surprise ! Parmi ces figures emblématiques, des femmes et des personnes de couleur font leur apparition. Une démarche louable pour la diversité ? Peut-être, mais pas vraiment fidèle à l’histoire.

La diversité est un objectif, mais le chemin pour y parvenir est loin d’être simple, surtout quand il s’agit d’IA. Google n’est pas nouveau dans cette arène et a déjà eu son lot de faux pas. Souvenez-vous de l’incident où son application Google Photos avait maladroitement identifié un couple de personnes noires comme des « gorilles ». Une erreur qui avait fait grand bruit et forcé Google à présenter ses excuses. Mais Google n’est pas seul ; d’autres géants de l’IA ont également trébuché sur ce terrain glissant.

L’approche de Google manque de finesse

La difficulté avec Gemini, c’est que son approche semble manquer de finesse. Prenons l’exemple des pères fondateurs : une requête renvoie des images de groupes d’hommes, majoritairement blancs, qui ressemblent à ce qu’on attendrait historiquement. Mais si on cherche un « sénateur américain des années 1800 », Gemini joue la carte de la diversité à fond, en incluant des femmes noires et amérindiennes dans les résultats — une représentation peu conforme à la réalité historique, étant donné que la première sénatrice américaine, une femme blanche, n’a pris ses fonctions qu’en 1922.

Un autre exemple ? Alors, tenez-vous bien : quand des curieux ont demandé à Gemini de montrer des images de soldats allemands de l’époque nazie. Au lieu du traditionnel uniforme gris, Gemini a généré des images de soldats de couleur, en plein Troisième Reich. Surprise.

Google a tenté d’expliquer ces « inexactitudes » par une volonté de présenter un large éventail de résultats. Une intention honorable, peut-être, mais qui a clairement manqué sa cible. Cela soulève un débat plus large sur le rôle des IA : doivent-elles simplement refléter le monde tel qu’il est (ou a été), avec ses imperfections et ses inégalités, ou bien essayer activement de le réinventer pour le meilleur ?

Les IA, comme Gemini, apprennent à partir d’énormes quantités de données disponibles en ligne, incluant des images et des textes. Si ces données reflètent des stéréotypes ou des biais, l’IA risque de les reproduire. C’est un vrai casse-tête pour les développeurs qui cherchent à équilibrer fidélité historique et représentation diverse et équitable.

Il ne s’agit pas seulement d’injecter artificiellement de la diversité dans les résultats, mais de comprendre et de respecter le contexte historique et social dans lequel ces technologies opèrent. Pour Google et ses pairs, le défi est de taille : comment entraîner une IA pour qu’elle comprenne la complexité du monde réel, avec ses nuances, ses contradictions et ses zones d’ombre ?

Gemini (Google Bard)

Gemini (Google Bard)

Lors de notre tentative de reproduire les exemples cités avec Google Gemini, nous avons découvert que Google avait temporairement suspendu cette fonctionnalité.

Source : Frandroid

Elon Musk n’en manque pas une

Sans surprise, Elon Musk n’a pas manqué pas l’occasion de piquer ses concurrents d’une manière assez grotesque. Il s’est amusé à qualifier OpenAI et Google de « woke », lançant ainsi un clin d’œil appuyé à son lectorat. Derrière ce commentaire se cache une stratégie bien huilée : promouvoir son propre chatbot, Grok, développé par xAI.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

Les derniers articles