Ne parlez plus de robots : l’industrie a honte de ce mot, alors elle a inventé « Physical AI »

 
Au CES 2026, le mot « robot » est devenu tabou. À la place ? Tout le monde parle de Physical AI. Une simple pirouette pour nous vendre des aspirateurs et des humanoïdes sans faire peur ? Pas seulement. Derrière ce changement de nom, il y a une vraie révolution technique pilotée par Nvidia.

Vous avez remarqué ? Le mot « robot » est devenu une insulte. Trop vieux, trop effrayant, pas assez rentable. La solution trouvée ? La Physical AI. Derrière ce rebranding grossier pour faire monter les actions en bourse, il y a pourtant une technologie fascinante.

Regardez autour de vous. Nvidia, Samsung, LG, Hyundai… Ils ont tous passé la consigne à leurs équipes communication : le mot en R est interdit. À la place ? On nous gave de Physical AI (IA Physique).

En tant que journaliste, sur le principe, ça m’énerve. C’est du rebranding pur et dur. C’est prendre une technologie qui existe depuis 50 ans, la saupoudrer de la poudre magique de 2026 (l’IA générative) et espérer que ça fasse grimper le cours de l’action. Mais attendez.

Une fois qu’on a fini de râler sur le marketing, et Dieu sait qu’il y a de quoi des fois, il faut regarder la technique. Et là, force est d’admettre qu’il se passe quelque chose de grave.

L’arnaque sémantique (et pourquoi elle marche)

Pourquoi ce changement de nom brutal ? C’est simple : le mot « robot » est cramé.

Dans l’imaginaire collectif, un robot, c’est soit quelque chose qui va piquer votre boulot, soit un Terminator en puissance, soit un aspirateur robot qui mange vos câbles.

Pour les investisseurs, c’est encore pire : la robotique, c’est du hardware. C’est lourd, c’est cher, les marges sont faibles et ça met des années à se développer.

L’IA, en revanche ? C’est du software. C’est sexy. Ça a des multiples de valorisation délirants.

En renommant leurs machines Physical AI, des boîtes comme Boston Dynamics ou les division robotiques de LG essaient simplement de se faire passer pour des boîtes de logiciel. C’est du « AI-washing » de compétition.

Boston Dynamic Electric Atlas

Mais le pire, c’est que ça marche. Quand Jensen Huang (le patron de Nvidia) monte sur scène pour dire qu’il ne vend pas des puces pour robots, mais des « cerveaux pour l’IA physique », tout le monde applaudit, l’action monte en Bourse.

La claque technique : le « Moment ChatGPT » de la tôle

Maintenant, oublions le marketing deux minutes. Techniquement, la promesse de la Physical AI est radicalement différente de la robotique classique.

Jusqu’ici, un robot, c’était loin d’être intelligent. Pour qu’un bras attrape une bouteille, il fallait qu’un ingénieur code chaque millimètre du mouvement : « baisse l’épaule de 10 degrés, ouvre la pince, avance de 12 cm« . Si la bouteille était décalée de 2 cm ? Le robot attrapait le vide.

La Physical AI, c’est la fin de ce script. On utilise des modèles VLA (Vision-Language-Action). C’est exactement comme ChatGPT, mais au lieu de prédire le mot suivant, le modèle prédit le mouvement suivant.

Ce qu’on voit sur le stand de Nvidia ou chez Figure, ce sont des machines qui :

  1. Regardent la scène (via caméras).
  2. Comprennent le contexte (« Il y a une bouteille, je dois la prendre »).
  3. Improvisent le mouvement.

J’insiste sur ce mot : improvisent. Si vous bougez la bouteille, le robot corrige sa trajectoire en temps réel. Pas parce qu’on l’a programmé pour, mais parce qu’il a « appris » ce qu’est « attraper un objet » en s’entraînant des milliards de fois dans une simulation (Nvidia Omniverse). C’est ça, la rupture. On passe de l’exécution bête à l’adaptation.

Pour aller plus loin
Nvidia déclare la guerre à Tesla : Alpamayo et la puce Rubin sur une Mercedes CLA pour faire mieux que le FSD

Du génie industriel au malaise domestique

Appliquer cette intelligence à des robots industriels ou des humanoïdes logistiques (comme le nouvel Atlas), c’est brillant. Ça va révolutionner l’usine et l’entrepôt.

Mais le CES étant le CES, il a fallu que les marques grand public s’en mêlent. Et là, on tombe dans le grand n’importe quoi.

LG CLOiD // Source : Vincent Sergère pour Frandroid

LG nous parle d’« intelligence affectueuse ». Samsung nous vend des boules robotiques Ballie dopées à la Physical AI pour surveiller le chien. On essaie de nous faire croire que parce que l’aspirateur reconnaît la différence entre une chaussette et une crotte de chien, il a une « personnalité ».

C’est faux, et c’est dangereux. Ces machines n’ont aucune conscience, aucune affection. Ce sont des calculateurs de probabilités montés sur des roues. Utiliser le terme « Physical AI » pour humaniser des gadgets, c’est la dérive qu’il va falloir surveiller.

Bref. Physical AI, ce n’est pas du flan. Oui, il y a une transition qui s’opère actuellement. Le logiciel a enfin rattrapé le matériel. Les robots ont enfin un cerveau à la hauteur de leurs muscles. Mais de grâce, ne vous laissez pas avoir par l’emballage.


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Recherche IA boostée par
Perplexity