Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

GPT-5 : OpenAI ne travaille pas sur la prochaine version de ChatGPT

GPT-5 n'arrivera pas tout de suite. C'est en tout cas ce qu'a déclaré Sam Altman, PDG et cofondateur d'OpenAI, à qui l'on doit GPT-4 ainsi que ChatGPT. Comme le rapporte The Verge, il était présent lors d'un événement organisé au MIT à propos des menaces liées aux intelligences artificielles devant les étudiants de l'institut. L'occasion pour lui de revenir sur une lettre ouverte signée par de nombreux acteurs de la tech, dont Elon Musk, qui pourtant aurait acquis 10 000 CPU pour mettre Twitter à l'IA.

Une lettre pour freiner l'IA maladroite

Durant cette conférence, Altman a déclaré approuver certaines demandes de la lettre, mais a aussi affirmé qu'elle « manquait de nuances techniques quant à l'endroit où nous devons faire une pause ». Une lettre toutefois signée par des centaines de personnes, dont des acteurs importants. Elle demandait un arrêt de six mois du développement des IA génératives, afin d'améliorer leur sécurité, rapporte Numerama.

D'ailleurs, une ancienne version de cette lettre indiquait qu'OpenAI travaillait actuellement sur GPT-5, ce qui a été infirmé par son PDG. D'autant plus que si l'on est attaché aux numéros de version, c'est aussi pour les améliorations significatives qui les accompagnent. Si GPT-4 est sensiblement plus puissant que GPT-3.5, ce n'est pas proportionnel de façon linéaire par rapport au nombre de paramètres pris en compte : GPT-4 en utiliserait 100 000 milliards, quand ce ne sont que 175 milliards qui sont pris en compte pour sa version précédente. Néanmoins, cela ne veut en rien dire qu'OpenAI ne sortira jamais de nouvelle version de GPT.

GPT-5, ce n'est pas pour tout de suite

Sam Altman a répondu que non, OpenAI ne développe pas de prochaine version de son modèle de langage principal, GPT : « ce n'est pas le cas et nous ne le ferons pas avant un certain temps ». Mais d'un autre côté, ce n'est pas parce qu'une future version n'est pas en projet que la version actuelle n'est pas en développement. Le PDG argumente en disant vouloir augmenter les exigences d'OpenAI en matière de sécurité, notamment via des audits et des tests indépendants. Comme pour GPT-3, nous pourrions voir une version intermédiaire être publiée, à savoir GPT-4.5.

Parmi les changements les plus attendus pour ChatGPT depuis des mois, il y a la fameuse connexion à Internet, qui permettrait d'avoir des données actualisées, à la manière de Bing Chat. Autre changement qui pourrait être effectué : la mise en conformité avec les différentes législations sur la protection de données. Ce manquement a par exemple entraîné le blocage de ChatGPT en Italie.

Altman rappelle que GPT-4 voit ses capacités développées, spécialement en matière de sécurité. De plus, il a déclaré que « nous faisons d'autres choses en plus de GPT-4 qui, à mon avis, posent toutes sortes de problèmes de sécurité qu'il est important d'aborder et qui n'ont absolument pas été mentionnées dans la lettre ». BFM rapporte une autre phrase de Sam Altman : « Il y a des parties de la lettre avec lesquelles je suis d'accord. Nous avons fait une pause de six mois entre la fin de l'entraînement de ChatGPT-4 et sa sortie par exemple. Il faut prendre le temps d'étudier les systèmes de sécurité ».

Un point de vue aussi mis en avant par Greg Brockman, autre cofondateur d'OpenAI, dans un long tweet. Il propose « que les entraînements puissants devraient être signalés aux gouvernements, accompagnés de prévisions de plus en plus sophistiquées de leur capacité et de leur impact, et exiger de meilleures pratiques telles que des tests de capacité dangereuse ».

https://twitter.com/gdb/status/1646183424024268800

Ce que cela met en exergue, c'est probablement avant tout la difficulté pour OpenAI et autres entreprises concurrentes à prévoir, surveiller et corriger les dérives de ses modèles d'intelligence artificielle. Comment empêcher GPT-3.5 de donner des conseils sordides aux plus jeunes ? Comment reconnaître des images générées par Dall-E ? Comment étiqueter les données d'entraînement sans passer par des travailleurs exploités ?