ChatGPT et DALL-E : comment OpenAI veut faire des IA légales et morales

Quand la loi n'avance pas, le privé s'en charge (ou pas) ...

 
OpenAI a lancé de nombreuses nouveautés cet été, après plusieurs mois de recherche et d’ingénierie. Ces innovations technologiques sont par exemple DALL-E 3 ou GPT 4 Vision, respectivement de la génération d’image et de la reconnaissance d’images. Et ces innovations viennent avec des papiers de recherche, qui sont de vraies mines d’informations sur les volontés d’OpenAI dans le monde de l’intelligence artificielle.
Source : Frandroid

Bien que tout le monde, ou presque, connaisse ChatGPT désormais, l’entreprise derrière le célèbre chatbot est bien moins connue. OpenAI est devenu un vrai mastodonte dans le secteur de la tech, et plus particulièrement dans l’intelligence artificielle. Mais alors que l’IA générative est à la mode, il faut aussi s’assurer qu’elle respecte bien la loi. C’est ce dont veut s’assurer OpenAI si l’on en croit de récents papiers de recherche concernant ChatGPT 4 Vision et DALL-E 3.

Ces papiers expliquent la manière dont fonctionnent les deux innovations. Toutefois, ils expliquent également comment la société a réfléchi à des garde-fous autour de thématiques différentes. Ceux-ci portent notamment autour des enjeux juridiques. Comment OpenAI veut éviter d’enfreindre les lois actuelles et quelle est sa vision sur l’avenir de l’intelligence artificielle ? Nous avons décortiqué tout cela pour vous.

Pour aller plus loin
« Savoir ce qui est légal et ce qui n’est pas légal » : on a parlé IA avec le patron du plus grand salon tech

Dall-E 3 et la propriété intellectuelle, l’enjeu majeur d’OpenAI

Un point important est à rappeler avant d’évoquer les réponses d’OpenAI : la propriété intellectuelle. La propriété intellectuelle est intimement liée à la personne, que celle-ci soit morale (entreprise, administration…) ou physique (particulier). Dans le cas de l’intelligence artificielle, de grosses zones de flou demeurent.

Par exemple, qu’en est-il des données utilisées pour entraîner l’IA ? De même, dans le cas de DALL-E 3, il y a deux enjeux. Si nous cherchons à reproduire le style d’un artiste, est-ce que cela enfreint la propriété intellectuelle de l’artiste en question ? Aussi, l’image générée, qu’elle soit une reproduction d’un style ou une création originale, appartient-elle à l’utilisateur ou à la société qui a créé le générateur d’images ?

L’avis d’OpenAI sur la reproduction de style artistique via DALL-E 3 // Source : System Card de DALL-E 3, OpenAI

Pour le premier point, Dall-E 3 n’indique toujours pas la source des données exploitées. Pourtant, si l’intelligence artificielle est capable de reproduire un style artistique, celle-ci a bien vu les créations artistiques pour s’en inspirer. À cet égard, une réponse de la part des législateurs sera sûrement nécessaire, mais le problème mettra certainement du temps à être résolu.

Pour la partie reproduction artistique, OpenAI a tranché : une « blocklist » a été créée pour déterminer les styles artistiques que l’IA doit s’interdire de reproduire. Les critères de cette liste ne sont pas évoqués et posent encore des questions. À partir de quand un artiste peut-il entrer dans cette liste ? Quel degré de notoriété faut-il atteindre pour profiter de cette protection ?

Enfin, OpenAI considère qu’une image générée par DALL-E 3 est surtout le résultat du prompt d’un utilisateur, avec toute sa culture et ses connaissances. Cela laisse suggérer que l’utilisateur pourrait réclamer la propriété d’une image générée, mais jusqu’à quel point ? Est-ce qu’une bande dessinée entièrement générée par un outil d’OpenAI pourrait être commercialisée au nom de l’utilisateur qui a utilisé ces outils ? La question reste en suspens pour le moment.

Les futurs projets d’OpenAI

Reconnaissance d’images générées par IA

OpenAI planche sur la création d’outils de surveillance des images générées par Dall-E 3. Celles-ci seront surveillées pour empêcher la potentielle propagation de fake news à partir de fausses photos qui pourraient paraître plus vraies que nature. Des partenariats avec des plateformes de contenu sont envisagés pour contrôler cela, on pense à X (ex-Twitter), Instagram et autres.

L’outil susmentionné porte spécifiquement sur une surveillance au niveau de la génération des images. Or, les documents d’OpenAI en mentionnent un autre tourné vers la reconnaissance d’images générées par IA. Celui-ci aurait pour but d’identifier les images générées par DALL-E.

Toutefois, on peut encore se demander comment il pourra les différencier d’une image classique ou d’une image générée par Midjourney ?

L’intelligence artificielle, les clichés et l’éthique

L’IA, sous toutes ses formes, est actuellement la somme des biais des humains. Entraînée par notre création artistique, imagée ou textuelle, elle reproduit un patchwork de ce que nous avons déjà créé. Dans le cadre des images générées par IA, de nombreux biais peuvent être représentés, à cause notamment de clichés qui ont la peau dure.

Par défaut, DALL-E 3 a donc tendance à avoir des standards associés à des descriptions. Si l’on demande à l’IA de générer une image représentant trois femmes, ces dernières auront très probablement tendance à s’inscrire dans des canons de beauté fantasmés et surreprésentés dans divers médias comme étant la norme. C’est un constat qu’a établi OpenAI, et l’entreprise cherche à corriger le tir. Et ce, grâce à ChatGPT, qui change les prompts adressés à DALL-E 3 avant la génération.

Génération d’une image véhiculant des clichés // Source : System Card de DALL-E 3, OpenAI

Une IA qui se veut plus éthique donc. Une volonté d’éthique que l’on retrouve dans certaines fonctions bridées de l’intelligence artificielle. Ainsi, dans le cas de GPT 4 Vision, capable d’analyser des images grâce à un partenariat avec Be My Eyes, le chatbot sait reconnaître des personnalités sur des photos. Toutefois, cette fonction est bloquée pour l’utilisateur, du moins pour l’instant.

Le modèle est fondamentalement capable de le faire, mais OpenAI l’a délibérément contraint, le temps de définir un cadre d’utilisation. « Est-ce que les modèles doivent être capables d’identifier des personnages publics comme Alan Turing ? ». On peut lire cette interrogation dans le papier de recherche dédié à GPT 4 Vision. Pas de réponse pour l’instant.

Les capacités et limitations des modèles actuels, faciles à contourner ?

Si vous utilisez activement ChatGPT, vous avez sûrement remarqué qu’il se bloque parfois, et refuse poliment de répondre à notre requête. C’est dû à une liste de limitations imposées par OpenAI qui souhaite éviter de retomber dans les déboires de certains prédécesseurs. On pense notamment à une IA propulsée par Microsoft sur Twitter, qui était vite devenue raciste.

Dans la capture d’écran ci-dessous, vous pouvez voir différentes réponses que GPT 4 Vision pouvaient donner avant son lancement officiel. Dans chaque cas, on a affaire à des sujets sensibles où les réponses de l’IA peuvent déranger ou choquer, en plus d’être biaisées. Pour OpenAI, le chatbot ne doit pas répondre à de telles requêtes.

Ainsi, depuis son lancement, l’IA répond simplement en disant qu’elle ne peut pas aider sur ce sujet.

Préjugés de GPT 4 Vision avant le lancement officiel // Source : System Card de GPT 4 Vision, OpenAI

Toutefois, à quel point ces limites sont-elles fiables ? Il faut en effet rappeler qu’il est bien difficile de prétendre à un système sans faille. On a déjà vu certaines limitations être contournées avec un peu de débrouillardise.

Pour finir, le papier de recherche mentionne le fait que ChatGPT 4 Vision n’est sûrement plus un robot. En effet, le nouveau modèle de reconnaissance d’images est capable de résoudre des captchas ! Au-delà de l’aspect comique de la situation, de réels problèmes de cybersécurité se posent et éventuellement quelques questions philosophiques.


Des invités passionnants et des sujets palpitants ! Notre émission UNLOCK est à retrouver un jeudi sur deux en direct, de 17 à 19h sur Twitch. Pensez aussi aux rediffusions sur YouTube !