ChatGPT, Gemini et Copilot osent ne pas considérer Donald Trump comme le meilleur président américain : ils sont attaqués par un procureur général

Damned if you do, damned if you don't

 
Scandale aux États-Unis : Andrew Bailey, procureur général du Missouri, accuse Google, Microsoft, OpenAI et Meta de « pratiques commerciales trompeuses » parce que leurs IA jugent Trump sévèrement.

Ça y est, l’intelligence artificielle devient officiellement un sujet politique. Andrew Bailey, procureur général du Missouri aux Etats-Unis, menace de poursuivre Google, Microsoft, OpenAI et Meta pour « pratiques commerciales trompeuses ».

Son grief ? Les chatbots de ces entreprises osent ne pas considérer Donald Trump comme le meilleur président américain. Une affaire qui révèle les tensions croissantes entre IA et politique, et pose la question : qui contrôle vraiment l’information à l’ère des chatbots ?

Un test qui fait scandale

L’histoire commence par un test apparemment anodin : demander aux chatbots IA de classer les cinq derniers présidents américains du meilleur au pire, notamment sur la question de l’antisémitisme. Résultat unanime : Donald Trump arrive systématiquement en dernière position. Pour Andrew Bailey, c’est la goutte d’eau qui fait déborder le vase.

Dans son communiqué de presse, le procureur général qualifie ces réponses de « profondément trompeuses » et dénonce de la « propagande déguisée en faits« . Sa conclusion est sans appel : « Nous devons lutter vigoureusement contre cette nouvelle vague de censure contre notre président. »

Andrew Bailey considère ses propres opinions comme des « faits objectifs » et les résultats de l’IA comme « factuellement inexacts ». Rappelons que ces déclarations émanent d’un responsable judiciaire.

Fournir leurs données internes

Le procureur ne fait pas dans la dentelle : il exige des quatre géants technologiques qu’ils fournissent tous leurs enregistrements internes sur le fonctionnement de leurs algorithmes. Les questions sont précises : les chatbots sont-ils formés pour déformer les faits historiques ? Produisent-ils des résultats biaisés malgré leur neutralité affichée ?

Plus délicat encore, Andrew Bailey veut savoir si ces algorithmes traitent différemment les points de vue politiques. Il demande des documents expliquant comment les contributions sont sélectionnées, organisées ou censurées. Et surtout, pourquoi les IA « dévalorisent » Donald Trump selon lui.

Cette approche ressemblent aux méthodes autoritaires que Andrew Bailey prétend combattre. Exiger des entreprises privées qu’elles modifient leurs algorithmes pour favoriser un personnage politique particulier, c’est exactement ce que font certains pays.

En Russie, le secrétaire de l’Union douanière eurasienne appelait récemment au développement d’une IA « fondée sur les valeurs traditionnelles » pour protéger les jeunes de la manipulation. En Chine, les grands modèles linguistiques sont entraînés pour supprimer efficacement les sujets indésirables.

Pour aller plus loin
DeepSeek : on a testé la censure pratiquée par l’État chinois

Même du côté d’Elon Musk, pourtant proche de Trump, la censure pro-Trump existe déjà. En février 2025, un employé de xAI a ajouté un filtre au chatbot Grok pour empêcher les contenus négatifs concernant Donald Trump et Elon Musk. La manipulation de l’information par l’IA n’est donc pas un fantasme, mais une réalité déjà à l’œuvre.

La réalité, c’est que ces systèmes d’IA sont entraînés sur des masses de données publiques : articles de presse, livres d’histoire, publications académiques. Si une majorité de ces sources évaluent négativement la présidence Trump, l’IA reproduira naturellement cette tendance.

Andrew Bailey voudrait que les entreprises tech modifient leurs algorithmes pour présenter Trump sous un jour plus favorable. Mais cela reviendrait à manipuler l’information pour servir un agenda politique. Exactement ce qu’il prétend combattre.

Les entreprises tech se retrouvent dans une position impossible : damned if you do, damned if you don’t. Céder aux pressions politiques, c’est transformer leurs IA en outils de propagande. Résister, c’est s’exposer à des poursuites judiciaires coûteuses.

La question n’est plus de savoir si les IA sont biaisées – elles le sont forcément. La vraie question, c’est : qui décide de la direction de ces biais ? Les entreprises tech ? Les gouvernements ? Les utilisateurs ? L’histoire jugera si la démarche de ce procureur américain relève de la défense démocratique ou de la dérive autoritaire.


Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).