Comment installer Google Gemma 4 sur votre smartphone Android ou iPhone : un « ChatGPT » gratuit et sans connexion

 
On nous rabâche que l’IA a besoin de serveurs géants pour réfléchir. Google vient de prouver le contraire avec Gemma 4. Grâce à l’application AI Edge Gallery, vous pouvez faire tourner un modèle de langage complet directement dans sur votre smartphone, sans connexion et avec une confidentialité totale.
Crédits : Frandroid

La famille Gemma 4 vient de débarquer, et elle voit très grand. Comme nous l’expliquions dans notre présentation de la gamme Gemma 4, Google propose désormais des modèles capables de tourner aussi bien sur des serveurs massifs que sur votre PC ou votre smartphone.

Pour aller plus loin
Google lance Gemma 4, un modèle open-source : voici comment l’essayer sur votre PC ou votre Mac

Maintenant, on passe à la pratique : comment l’installer dans votre poche ?

C’est vraiment simple, avec l’application AI Edge Gallery (disponible sur Android et iOS). Cet outil permet de télécharger et d’exécuter localement les modèles Gemma 4, la version « open-source » de Google. C’est l’outil idéal pour ceux qui veulent de la latence zéro et une confidentialité absolue.

L’application propose trois modules : Ask Image pour analyser vos photos (OCR, identification d’objets), Audio Scribe pour transcrire et traduire vos enregistrements en local, et le classique Prompt Lab pour discuter, résumer du texte ou générer du code. Le tout fonctionne avec une fenêtre de contexte de 128K tokens, ce qui est assez colossal pour du smartphone.

E2B ou E4B : Laquelle choisir pour votre SoC ?

Le problème, c’est que faire tourner une IA sur un processeur de smartphone demande des compromis de mémoire. Google propose deux variantes « Effective » (le « E » dans le nom) :

  1. Gemma 4 E2B (2,3 milliards de paramètres effectifs) : C’est la version plume. Elle pèse environ 2,54 Go. Elle est taillée pour les smartphones de milieu de gamme ou les tâches simples comme la dictée vocale ou la traduction rapide.
  2. Gemma 4 E4B (4,5 milliards de paramètres effectifs) : C’est le haut du panier. Avec ses 3,61 Go, elle demande au moins 6 Go de RAM libre pour ne pas faire planter votre système. En échange, elle est bien plus complète : elle surclasse sa petite sœur en raisonnement (69 % sur MMLU Pro contre 60 %) et gère bien la multimodalité.

Techniquement, la version E4B vient chasser sur les terres de Llama 3.2 (Meta) ou Phi-3.5 mini (Microsoft). Si elle reste logiquement en retrait face à des vieux LLM propriétaires comme GPT-4o ou Gemini 2.0 Pro, qui dominent les benchmarks avec plus de 85 % de réussite, par contre elle rivalise sans rougir avec leurs variantes « Mini » ou « Flash » tout en restant 100 % hors-ligne.

Le vrai souci reste la stabilité. Sur des conversations longues, l’application a tendance à chauffer et à crasher, surtout avec le modèle E4B. De plus, n’espérez pas de génération d’images ou d’analyse de fichiers PDF complexes pour le moment. Enfin, ces LLM ne vont pas chercher des informations récentes sur le web, elles ont donc des connaissances datées et limitées.

Les « Agent Skills » : la vraie bonne idée

Une des nouvelles fonctionnalités, c’est l’arrivée des Agent Skills. Ce sont des modules que vous pouvez charger pour donner de nouveaux pouvoirs à Gemma 4.

J’ai pu tester l’intégration Maps : l’IA répond à une question géographique en affichant une carte interactive directement dans le chat, sans passer par un serveur externe. On peut aussi imaginer des skills pour créer des graphiques à partir d’un vocal ou générer des cartes pour réviser.

Pour aller plus loin
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous


Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !

Recherche IA boostée par
Perplexity