Les États-Unis veulent savoir si un texte ou une image a été généré par ChatGPT ou Midjourney

 

Plusieurs grandes entreprises travaillant autour des intelligences artificielles génératives se sont engagées auprès de la Maison-Blanche. Elles souhaitent développer une technologie permettant d'identifier les contenus générés par leurs outils. Pour le moment, la façon dont elle va fonctionner reste assez floue.

GPT-4 imaginé par Midjourney
GPT-4 imaginé par Midjourney // Source : Midjourney par Frandroid

L’un des grands dangers de l’IA générative, c’est qu’elle peut tromper les citoyens : c’est le constat de toutes les administrations publiques du monde. Par ailleurs, elles réfléchissent à mettre en place des obligations pour les entreprises commercialisant des outils d’IA. En réponse à cela, ces dernières commencent à s’engager pour davantage de transparence dans les contenus générés. C’est le cas d’OpenAI, Microsoft, Google, Meta, Amazon, Anthropic et Inflection. Ces sept entreprises ont signé un engagement volontaire auprès de l’administration Biden-Harris pour « le développement d’une IA responsable ».

Les grandes entreprises s’engagent à plus de transparence dans les contenus générés par leurs IA

Dans un communiqué, la Maison-Blanche a indiqué que ces sept entreprises ainsi que l’administration Biden-Harris ont signé un accord engageant volontairement ces premières « à contribuer au développement sûr, sécurisé et transparent de la technologie de l’IA. » Pour le gouvernement américain, « les entreprises qui développent ces technologies émergentes ont la responsabilité de veiller à ce que leurs produits soient sûrs. » Trois mots d’ordre donc : sûreté, sécurité et confiance.

Deux IA, représentées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

L’idée de cet accord est de contrôler le partage des textes, images, vidéos et sons générés par les IA. Comme OpenAI l’écrit sur son blog, « les entreprises qui prennent cet engagement reconnaissent que les systèmes d’IA peuvent continuer à présenter des faiblesses et des vulnérabilités, même après une analyse approfondie » et plus généralement après leur mise sur le marché. Ces contenus doivent être authentifiés comme générés par un outil et non par un humain, en n’induisant pas en erreur les citoyens. Dans le viseur de la Maison-Blanche, les « deepfakes » vidéos, permettant par exemple de faire dire ce que l’on souhaite au président Joe Biden.

Ce dernier rencontrera ces entreprises avec le Congrès afin de les interroger. L’objectif est d’élaborer un décret ainsi qu’un texte de loi pour mieux contrôler les IA. Un décret a déjà été signé par Joe Biden, qui ordonne « aux agences fédérales d’éradiquer les préjugés dans la conception et l’utilisation des nouvelles technologies, y compris l’IA, et de protéger le public contre la discrimination algorithmique. »

Comment le « filigrane » de contrôle fonctionnera : ce n’est pas encore clair

Les entreprises concernées entendent opter pour un « filigrane », une marque apposée à tous les contenus pour qu’ils soient indiqués comme tels. Il devra indiquer quel outil d’IA a été utilisé lors de la génération. Le gouvernement américain se félicite de cette initiative, soulignant que « cette mesure permet à la créativité en matière d’IA de s’épanouir tout en réduisant les risques de fraude et de tromperie. »

Deux IA, représentées par des robots, s’affrontent // Source : Image créée par Frandroid avec Midjourney

Cependant, aucune solution technique concrète n’a été mentionnée. De premières mesures ont déjà été prises par certaines sociétés, mais au cas par cas. ArsTechnica rapporte l’histoire d’une fausse arrestation de Donald Trump via de fausses images générées par Midjourney, devenues virales. Le laboratoire du même nom a banni le fondateur de l’ONG Bellingcat Eliot Higgins, qui les avait créées.

Ce que mentionne par exemple OpenAI, c’est la mise en place d’outils ou d’API « permettant de déterminer si un élément de contenu particulier a été créé » avec un système d’IA. Entre les lignes, on comprend que si par exemple on lit un article sur Internet, on pourrait demander à OpenAI s’il a été rédigé par ChatGPT. Même chose pour Midjourney : un système de recherche inversée serait disponible pour savoir si l’image en question a été générée par cette IA. Ces systèmes n’incluront pas d’informations sur l’utilisateur ayant généré le contenu.

Emiliano Vittoriosi sur Unsplash

Du côté de Google, sur son blog la firme indique vouloir intégrer un filigrane et des métadonnées prochainement dans ses outils génératifs. Un bouton « À propos de cette image » sera ajouté au moteur de recherche pour savoir le contexte d’une image ainsi que la première fois où elle a été publiée en ligne.

Les autres mesures prévues par les créateurs des IA génératives

Outre la future mise en place desdits filigranes, OpenAI, Microsoft, Google, Meta, Amazon, Anthropic et Inflection ont accepté de mettre systématiquement en place des tests internes et externes avant leur mise à disposition du public. Ils seront réalisés par des experts indépendants. Toutes ont également déclaré investir davantage dans la cybersécurité et que le signalement de vulnérabilités sera renforcé. Concernant ce dernier point, les sociétés concernées mettront en place « des systèmes de primes, des concours ou des prix pour inciter à la divulgation responsable des faiblesses, telles que les comportements dangereux ».

L’interface de ChatGPT // Source : Frandroid

Aussi, ces entreprises « s’engagent à partager des informations sur la gestion des risques liés à l’IA avec l’ensemble de l’industrie, les gouvernements, la société civile et le monde universitaire », précise la Maison-Blanche. Cela comprend des rapports sur les capacités, limites, domaines d’utilisation appropriés et inappropriés et risques sociétaux (effets sur l’équité et les préjugés) des IA.

Des conséquences sur l’IA dans le monde entier

En plus de tout cela, l’administration Biden-Harris a annoncé travailler avec des gouvernements partenaires « pour établir un cadre international solide régissant le développement et l’utilisation de l’IA. » Parmi les pays avec lesquels elle a discuté, on compte l’Allemagne, l’Australie, le Brésil, le Canada, le Chili, la Corée du Sud, les Émirats arabes unis, la France, l’Inde, Israël, l’Italie, le Japon, le Kenya, le Mexique, la Nouvelle-Zélande, le Nigeria, les Pays-Bas, les Philippines, Singapour et le Royaume-Uni. Le gouvernement américain précise également discuter avec les Nations unies et ses États membres.

Le président des États-Unis, Joe Biden, aux côtés d’Emmanuel Macron // Source : The White House

Ces discussions ont eu lieu en parallèle de l’élaboration de l’AI Act, texte législatif de l’Union européenne. Il prévoit aussi des réglementations concernant les IA génératives. Le Parlement et le Conseil de l’Union européenne souhaiteraient une adoption du texte définitif avant 2024.


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.