Google ouvre Gemini et le rend gratuit pour mieux vendre son cloud

 

Google présent Gemma, un ensemble de modèles d'IA en ouvert et accessible gratuitement, basés sur ce qu'est Gemini, son propre ChatGPT. L'idée derrière cela est de vendre ses solutions de cloud, à l'instar d'Amazon et de Microsoft.

Logo de Gemini // Source : Google

L’ouverture sert aussi à vendre. Pas directement, mais quand même. C’est en tout cas la stratégie qu’adopte à son tour Google avec Gemma, une nouvelle famille de grands modèles de langage (LLM) « ouverte », c’est-à-dire qui peut être utilisée gratuitement. Des LLM qui sont basés sur les travaux qui ont permis de créer Gemini, à savoir le LLM et le chatbot le plus puissant développé par Google.

C’est quoi Gemma, cette nouvelle « IA » de Google ?

Gemma est une « famille » de modèles d’intelligence artificielle de langage. Il s’agit d’un « moteur » permettant de faire fonctionner des outils d’IA, comme un chatbot. Google précise que Gemma a été développé par sa filiale DeepMind et « construit à l’aide des mêmes éléments techniques, de recherche et d’infrastructure que ceux utilisés pour créer les modèles Gemini ». Toujours selon l’entreprise, « Gemma présente les meilleurs performances de sa catégorie comparée aux autres modèles ouverts pour leur tailles. »

Les performances de Gemma par rapport à d’autres LLM // Source : Google

D’ailleurs, deux tailles sont disponibles : Gemma 2B et Gemma 7B, respectivement pour deux et sept milliards de paramètres. Plus un LLM dispose de paramètres, plus il est « performant » et plus il demande de ressources pour fonctionner. La version 7B de Gemma serait globalement plus puissant que Mistral 7B de Mitral AI ainsi que LLaMA-2 13B de Meta. Il est possible de faire fonctionner Gemma en local sur son ordinateur, à condition d’avoir une machine suffisamment puissante, notamment pour que les réponses ne soient pas générées trop lentement.

Derrière la « bonté » de la gratuité et de l’ouverture, Google veut vendre son cloud

Si Google va certainement aider des développeurs et chercheurs du monde entier en rendant l’accès à Gemma gratuit et ouvert, Google n’a pas qu’un intérêt philanthropique. En faisant cela, Google se « paie » de la publicité gratuitement pour Google Cloud, sa solution de cloud computing. Sur celle-ci, Google vend des jetons permettant de faire fonctionner ses modèles d’IA, mais pas que : au total, 130 modèles sont disponibles sur le catalogue, nommé Vertex AI. C’est sur Google Cloud que l’on peut personnaliser Gemma. Pour lancer son offre, Google propose un accès gratuit à Kaggle, et 300 dollars de crédits pour les nouveaux utilisateurs Google Cloud. Pour les chercheurs, Google indique pouvoir allouer jusqu’à 500 000 dollars de crédits.

La page dédiée à Gemma sur le site de Google Cloud // Source : Google

Cependant, on apprend dans un billet de blog que « les conditions d’utilisation permettent une utilisation commerciale et une distribution responsables pour toutes les organisations, quelle que soit leur taille. » En clair, il est possible d’utiliser Gemma dans un cadre professionnel (et ce, sans devoir rétribuer Google de quelque manière que ce soit). Par ailleurs, Google annonce avoir collaboré avec Nvidia afin d’optimiser ses modèles pour les cartes graphiques de la marque. L’idée, c’est également de faire tourner ces LLM sur des ordinateurs individuels, en local. Pour faciliter l’utilisation sur d’autres outils, des intégrations sont prêtes à l’emploi : Colab, Kaggle, Hugging Face, MaxText, Nvidia NeMo ou encore TensorRT-LLM.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Les derniers articles