OpenAI pourrait faire des infidélités à Nvidia pour le futur de ChatGPT

 
Alors que les deux entreprises les plus synonymes de la course à l’IA sont dans un moment tendu, voilà qu’on apprend qu’OpenAI pourrait aller se fournir chez des concurrents de Nvidia pour construire ses prochains centres de données.
La puce H100 de Nvidia // Crédit : Nvidia

Immanquable dans le monde de l’intelligence artificielle générative, Nvidia pourrait bientôt avoir de la concurrence. C’est en tout cas ce qu’affirme l’agence de presse Reuters, qui croit savoir qu’OpenAI serait en train de faire ses courses chez des concurrents pour améliorer ChatGPT.

Ces infidélités de la part de Sam Altman arrivent en plus à un moment où les relations entre les deux entreprises sont relativement floues, avec une petite centaine de milliards dans la balance.

Pour rendre ChatGPT plus rapide

Selon plusieurs sources, OpenAI chercherait en fait des alternatives aux solutions de Nvidia depuis l’année dernière au moins. Il se murmure que les performances offertes par les cartes graphiques de Nvidia ne satisferaient pas pleinement les besoins d’OpenAI, notamment en ce qui concerne la phase d’inférence. Contrairement à la phase d’entraînement des modèles qui peut mouliner des semaines durant, l’inférence des modèles (soit leur phase d’utilisation par le grand public) se doit d’être prompte et réactive. Et selon OpenAI, les réponses offertes par ChatGPT prennent trop de temps à arriver.

Cela est particulièrement vrai pour les outils de création de code, Codex en tête. Actuellement, ces derniers se reposent sur des composants Nvidia où la mémoire RAM est dissociée du processeur, ce qui peut réduire le temps de réponse. D’autres systèmes embarquent de la mémoire vive sur le même bout de silicium que tout le reste, permettant un traitement des requêtes plus rapide. Une manière de répondre à la promesse que Sam Altman faisait il y a quelques jours de « s’investir sur les problématiques de vitesse dans la création de code ».

Tensions entre Nvidia et OpenAI

Les deux firmes en lice pour concurrencer Nvidia se nomment Cerebras et Groq. Si elles fabriquent des composants techniquement plus avancés, elles sont loin d’avoir la taille et le poids du célèbre fabricant de cartes graphiques. Comme en témoignent les projections obtenues par Reuters, OpenAI envisagerait de remplacer seulement 10 % de ses composants dédiés à l’inférence par ces systèmes plus puissants.

Pour aller plus loin
Nvidia pourrait créer une nouvelle pénurie en siphonnant des millions de téraoctets de SSD

Petit problème supplémentaire, Groq a déjà noué un partenariat avec Nvidia, qui a débauché pas mal d’ingénieurs de la firme à l’occasion. Histoire de ne pas trop vexer son partenaire historique, OpenAI, par la voix de son patron, a récemment déclaré « adorer travailler avec Nvidia » et « espérer rester un énorme client pour encore un bon moment ». On ne se défait pas de l’emprise de la plus grosse entreprise du monde comme ça.


Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !

Recherche IA boostée par
Perplexity