
Faire tourner une intelligence artificielle directement sur son propre appareil séduit de plus en plus d’utilisateurs, avec les nouveaux outils comme OpenClaw, dont Clubic fait une belle démonstration.
Cette méthode garantit une confidentialité totale des échanges et permet de travailler sans aucune connexion Internet. Toutefois, face à la complexité technique des modèles de langage (les fameux LLM, qui sont les moteurs informatiques derrière les outils de génération de texte), il est souvent bien difficile de savoir si sa machine a les épaules assez larges pour encaisser une telle charge de calcul.
Pour répondre à cette problématique, le site CanIRun.ai propose une solution de diagnostic directement dans le navigateur.
Un diagnostic matériel clair et sans jargon
Si vous avez l’habitude du jeu vidéo sur ordinateur, vous connaissez probablement les plateformes qui analysent votre configuration pour vous indiquer si un titre récent fonctionnera correctement. CanIRun.ai reprend exactement ce concept, mais l’applique à l’intelligence artificielle locale. Son objectif est de scanner votre matériel pour vous lister les modèles ouverts qu’il est possible d’installer sans mettre votre ordinateur à genoux.


Le processeur AMD Ryzen 7 9800X3D est tout simplement l’un des meilleurs processeurs pour le gaming et bénéficie actuellement d’un très jolie promo ! CODE : FRAS45

L’interface de l’outil a le mérite de laisser de côté le jargon brut pour classer les modèles selon des critères de fluidité. Au lieu de vous noyer dans des calculs complexes impliquant la VRAM (la mémoire vidéo dédiée de votre carte graphique) ou la quantification (les méthodes de compression informatiques qui allègent le poids des modèles d’IA pour les faire rentrer dans la mémoire), le site délivre un verdict simple.
Les modèles sont classés du plus confortable au totalement hors de portée, en piochant dans un vaste catalogue d’options open-source comme Llama, Qwen, Mistral ou encore Gemma.
Les performances en pratique : l’exemple concret de Llama 3.1
Pour bien saisir l’utilité de cette démarche, il est intéressant de se pencher sur les estimations de performances générées pour Llama 3.1, un modèle de langage doté de 8 milliards de paramètres. L’indicateur de référence affiché par l’outil est le nombre de jetons par seconde (tok/s), une métrique qui correspond schématiquement à la vitesse de génération et d’affichage des mots à l’écran.
Sur un ordinateur portable MacBook Pro équipé d’une puce Apple M1 Pro avec 16 Go de mémoire, la vitesse estimée par l’outil se situe à 28 jetons par seconde. En passant sur une puce M1 Max dotée de 32 Go, cette cadence monte à 57 jetons par seconde.
| Appareil et configuration | Modèle d’IA testé | Vitesse estimée |
| PC avec Nvidia RTX 5070 Ti | Llama 3.1 (8 milliards de paramètres) | 136 tok/s |
| Mac M1 Max (32 Go de mémoire) | Llama 3.1 (8 milliards de paramètres) | 57 tok/s |
| Mac M1 Pro (16 Go de mémoire) | Llama 3.1 (8 milliards de paramètres) | 28 tok/s |
| Mac M5 (16 Go de mémoire) | Llama 3.1 (8 milliards de paramètres) | 22 tok/s |
| iPhone 17 Pro (8 Go de mémoire) | Llama 3.2 (1 milliard de paramètres) | 31 tok/s |
Une configuration comme un MacBook Air intégrant une puce M5 avec 16 Go affiche de son côté 22 jetons par seconde. Sur le front des PC fixes disposant d’une véritable force de frappe graphique dédiée, les chiffres s’envolent, puisqu’une carte Nvidia RTX 5070 Ti atteint les 136 jetons par seconde.
L’outil prend également en compte les smartphones : un iPhone 17 Pro disposant de 8 Go de mémoire vive génère 31 jetons par seconde, mais il faut préciser que ce calcul s’applique à un modèle nettement plus léger, Llama 3.2 avec 1 milliard de paramètres.
L’avantage matériel d’Apple et la protection des données
Le fonctionnement de CanIRun.ai met en lumière une particularité de l’architecture matérielle d’Apple. Contrairement à la plupart des PC Windows traditionnels qui séparent physiquement la mémoire vive du processeur et la mémoire vidéo de la carte graphique, les Mac récents exploitent une mémoire dite unifiée.
Selon les observations relayées par Numerama, les créateurs de l’outil soulignent que « un modèle peut utiliser jusqu’à environ 75 % de la mémoire totale », ce qui octroie un avantage mécanique aux Mac bien dotés en mémoire vive lorsqu’il s’agit de charger de lourds modèles d’IA.

Mais les Mac ne sont pas les seuls, de plus en plus de PC arrivent avec la mémoire unifiée, notamment avec des puces AMD Ryzen, comme le Framework Desktop et ses 128 Go de mémoire vive utilisable directement par le GPU pour l’IA.
La question de la collecte des données personnelles reste évidemment centrale lorsqu’un site web analyse les composants de votre machine. Les développeurs se veulent toutefois très clairs sur la méthodologie employée. « Lorsque vous visitez le site, nous utilisons les API de votre navigateur pour détecter votre GPU, votre CPU et votre mémoire, puis nous calculons quels modèles d’IA peuvent s’exécuter sur votre matériel et à quelle vitesse. Aucune donnée n’est envoyée à un serveur. Tout est calculé côté client », précisent-ils sur la page d’accueil de la plateforme.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.