Une IA capable de comprendre le monde qui l’entoure grâce à un seul GPU : LeWordModel veut révolutionner le secteur

 
Yann LeCun, Français considéré comme l’un des pères de l’IA moderne, dévoile LeWorldModel avec son équipe. Les premiers tests sont très encourageants.
Une image générée par Midjourney avec un prompt demandant une illustration d’intelligence artificielle // Source : Frandroid

Parler d’intelligence artificielle, c’est aborder à un moment ou un autre ce qu’on appelle les grands modèles de langage (LLM). Ce sont les systèmes qui vont analyser un nombre très important de données textuelles pour être ensuite capables d’en générer.

Ils sont derrière les robots conversationnels que vous connaissez : ChatGPT, Gemini, Claude… Chaque fois que vous formulez une requête, ce sont eux qui permettent au programme d’écrire une réponse « humaine ». En apparence du moins.

Mais si les modèles de langage sont largement utilisés aujourd’hui, certaines personnes estiment que l’on fait fausse route. C’est le cas de Yann LeCun, ancien de chez Meta et considéré comme l’un des pères de l’intelligence artificielle moderne.

Pour lui, un LLM ne fait qu’imiter le langage, sans véritable raisonnement. C’est pourquoi il se concentre plutôt sur des « modèles de monde », ou « world models », capables, eux, de prédire la physique alentour. Comme le relate Numerama, lui et son équipe viennent justement d’en dévoiler un : LeWorldModel (LeWM).

LeWorldModel de Yann LeCun promet de faire mieux que les IA actuelles, et avec moins de ressources

L’intelligence artificielle dont il est question ici est basée sur la JEPA, pour « Joint-Embedding Predictive Architecture ». Elle n’est pas nouvelle, mais jusqu’à présent, cette architecture atteignait rapidement ses limites. LeWorldModel est différent.

Parmi ses forces, on note qu’il analyse directement les pixels bruts pour structurer son environnement. Contrairement aux modèles de langage, il n’est pas nécessaire que LeWM comprenne a priori ce qu’on lui montre.

Son plus grand atout se situe au niveau des ressources qu’il demande. Il gère 15 millions de paramètres, soit beaucoup moins que les LLM dépassant parfois le milliard. Résultat : un GPU disponible dans le commerce suffit à son entraînement. Quand on sait que la crise de la RAM est causée par les besoins des IA en mémoire, c’est un excellent point.

Les tests initiaux sont très encourageants. LeWM a pu planifier ses actions (pousser un objet, naviguer dans une pièce) 48 fois plus vite que les modèles existants. Attention à ne pas crier à la révolution tout de suite, cela dit. Ce sont des résultats obtenus lors de situations très contrôlées et nous sommes encore loin d’une annonce concernant le grand public.


Tous nos bons plans directement sur WhatsApp. Rejoignez Frandroid Bons Plans, zéro spam garanti.

Recherche IA boostée par
Perplexity