GPT-5 : OpenAI ne travaille pas sur la prochaine version de ChatGPT

 

Le mois dernier, OpenAI a officialisé l'arrivée de GPT-4, nouvelle version du modèle de langage utilisé pour faire fonctionner ChatGPT. Si l'on pouvait s'attendre à ce que l'entreprise travaille sur GPT-5, son PDG et cofondateur ne l'entend pas de cette oreille : il affirme qu'OpenAI ne travaille pas activement sur GPT-5.

GPT-4 imaginé par Midjourney // Source : Midjourney par Frandroid

GPT-5 n’arrivera pas tout de suite. C’est en tout cas ce qu’a déclaré Sam Altman, PDG et cofondateur d’OpenAI, à qui l’on doit GPT-4 ainsi que ChatGPT. Comme le rapporte The Verge, il était présent lors d’un événement organisé au MIT à propos des menaces liées aux intelligences artificielles devant les étudiants de l’institut. L’occasion pour lui de revenir sur une lettre ouverte signée par de nombreux acteurs de la tech, dont Elon Musk, qui pourtant aurait acquis 10 000 CPU pour mettre Twitter à l’IA.

Une lettre pour freiner l’IA maladroite

Durant cette conférence, Altman a déclaré approuver certaines demandes de la lettre, mais a aussi affirmé qu’elle « manquait de nuances techniques quant à l’endroit où nous devons faire une pause ». Une lettre toutefois signée par des centaines de personnes, dont des acteurs importants. Elle demandait un arrêt de six mois du développement des IA génératives, afin d’améliorer leur sécurité, rapporte Numerama.

D’ailleurs, une ancienne version de cette lettre indiquait qu’OpenAI travaillait actuellement sur GPT-5, ce qui a été infirmé par son PDG. D’autant plus que si l’on est attaché aux numéros de version, c’est aussi pour les améliorations significatives qui les accompagnent. Si GPT-4 est sensiblement plus puissant que GPT-3.5, ce n’est pas proportionnel de façon linéaire par rapport au nombre de paramètres pris en compte : GPT-4 en utiliserait 100 000 milliards, quand ce ne sont que 175 milliards qui sont pris en compte pour sa version précédente. Néanmoins, cela ne veut en rien dire qu’OpenAI ne sortira jamais de nouvelle version de GPT.

GPT-5, ce n’est pas pour tout de suite

Sam Altman a répondu que non, OpenAI ne développe pas de prochaine version de son modèle de langage principal, GPT : « ce n’est pas le cas et nous ne le ferons pas avant un certain temps ». Mais d’un autre côté, ce n’est pas parce qu’une future version n’est pas en projet que la version actuelle n’est pas en développement. Le PDG argumente en disant vouloir augmenter les exigences d’OpenAI en matière de sécurité, notamment via des audits et des tests indépendants. Comme pour GPT-3, nous pourrions voir une version intermédiaire être publiée, à savoir GPT-4.5.

OpenAI a réalisé des simulations d’examens pour différencier les deux modèles // Source : OpenAI

Parmi les changements les plus attendus pour ChatGPT depuis des mois, il y a la fameuse connexion à Internet, qui permettrait d’avoir des données actualisées, à la manière de Bing Chat. Autre changement qui pourrait être effectué : la mise en conformité avec les différentes législations sur la protection de données. Ce manquement a par exemple entraîné le blocage de ChatGPT en Italie.

Exemple de requête à GPT-4 // Source : OpenAI

Altman rappelle que GPT-4 voit ses capacités développées, spécialement en matière de sécurité. De plus, il a déclaré que « nous faisons d’autres choses en plus de GPT-4 qui, à mon avis, posent toutes sortes de problèmes de sécurité qu’il est important d’aborder et qui n’ont absolument pas été mentionnées dans la lettre ». BFM rapporte une autre phrase de Sam Altman : « Il y a des parties de la lettre avec lesquelles je suis d’accord. Nous avons fait une pause de six mois entre la fin de l’entraînement de ChatGPT-4 et sa sortie par exemple. Il faut prendre le temps d’étudier les systèmes de sécurité ».

Un point de vue aussi mis en avant par Greg Brockman, autre cofondateur d’OpenAI, dans un long tweet. Il propose « que les entraînements puissants devraient être signalés aux gouvernements, accompagnés de prévisions de plus en plus sophistiquées de leur capacité et de leur impact, et exiger de meilleures pratiques telles que des tests de capacité dangereuse ».

Ce que cela met en exergue, c’est probablement avant tout la difficulté pour OpenAI et autres entreprises concurrentes à prévoir, surveiller et corriger les dérives de ses modèles d’intelligence artificielle. Comment empêcher GPT-3.5 de donner des conseils sordides aux plus jeunes ? Comment reconnaître des images générées par Dall-E ? Comment étiqueter les données d’entraînement sans passer par des travailleurs exploités ?


Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !