On a essayé les lunettes connectées de Google : déjà très très prometteuses

 
Chez Google, nous avons pu essayé les lunettes connectées avec Android XR. Leur force : la simplicité.
Prototype de lunettes connectées de Google avec Android XR. // Source : Frandroid

Pas besoin de surenchère pour faire un bon appareil et Google semble l’avoir bien compris avec Android XR. J’ai pu tester un prototype de lunettes connectées du géant américain et un maître-mot s’est imposé à moi : sobriété.

Pour rappel, Android XR est la nouvelle plateforme logicielle de Google dédiée à la réalité mixte/réalité augmentée. C’était l’un des principaux sujets de la Google I/O 2025. Mais qu’est-ce que ça donne devant les yeux ? Voici mes premières impressions.

Des lunettes légères

Pour que ce soit bien clair, je vais le redire : j’ai essayé un prototype. L’appareil que j’ai eu sur le nez n’est donc pas prêt à la vente pour le moment. Et pourtant, la démo à laquelle j’ai eu droit était déjà très convaincante.

Les lunettes en elle-mêmes sont très légères et se confondent facilement avec des lunettes classiques. Le cadre est plus épais que la moyenne, certes, mais ce n’est pas quelque chose qui choquerait les passants si je me baladais avec dans la rue.

Selon l’angle de vue, on pourrait même croire que je porte mes lunettes classiques de tous les jours comme j’ai essayé de le montrer dans la comparaison ci-dessous.

Les lunettes Android XR de Google (à gauche) ressemblent beaucoup à des lunettes classiques (à droite). // Source : Frandroid

Rappelons que Google a déjà annoncé des partenariats avec deux lunetiers traditionnels pour intégrer Android XR : Gentle Monster et Warby Parker.

Gentle Monster et Warby Parker se sont associés à Google pour des lunettes connectées Android XR // Source : Frandroid

Au vu de l’état d’avancement prometteur du prototype, on peut s’attendre à de beaux produits prêts à la commercialisation.

Android XR : le coup d’œil dans les lunettes

L’une des forces d’Android XR, c’est de pouvoir s’adapter à un large nombre d’appareils, dont les casques VR comme le Project Moohan de Samsung que j’ai aussi essayé. Ce dernier promet, entre autres, une grande immersion. En revanche, ce n’est pas la direction prise sur les prototypes de lunettes de Google.

À lire aussi :
« J’ai fait beaucoup d’erreurs avec les Google Glass » : l’aveu de Sergey Brin, cofondateur de Google

Ici, le but est plutôt de livrer des informations consultables en un clin d’œil. Ainsi, sur la droite de mon champ de vision, j’avais une petite zone d’affichage distillant des informations. Imaginez une pièce de monnaie pour avoir une idée de la taille perçue.

J’ai pu exploiter cette interface visuelle dans deux applications : Google Maps et l’appareil photo.

Google Maps

Sur Maps, Google a trouvé une bonne solution pour vous guider sans vous obstruez la vue. Si vous regardez droit devant vous, seules de courtes indications d’itinéraire s’affichent accompagnées d’une petite flèche directionnelle. Exemple : « tournez à droite dans 50 m ».

Google

Or, lorsque je baissais la tête, j’apercevais alors une mini-carte affichant les rues avoisinantes et, surtout, ma position avec la petite boussole indiquant mon orientation. On imagine que cela pourrait être pratique pour une personne un peu perdue sortant du métro. Hop, un rapide coup d’œil vers le sol et elle retrouve ses repères.

Google

Par ailleurs, les transitions entre la carte et les simples indications sont vraiment fluides et réactives aux mouvements de la tête. J’aime.

Appareil photo

Un bouton physique sur la droite des lunettes connectées permet de déclencher l’appareil photo. Un court appui pour un cliché, un appui long pour une vidéo.

Un petit témoin lumineux blanc se déclenche dès que l’appareil photo est activé afin de prévenir les personnes en face.

Le témoin lumineux des lunettes connectées Android XR de Google quand la caméra est activée. // Source : Frandroid

Une fois la prise de vue effectuée, elle s’affiche quelques secondes, toujours dans le même coin du champ de vision. En parallèle, elle est sauvegardée dans la galerie du smartphone.

Gemini en permanence

Android XR c’est aussi et surtout une part immense accordée aux interactions orales avec Gemini pour lui demander tout un tas de choses sur le monde qui vous entoure.

Gemini sur Android XR exploite évidemment les fonctions du Project Astra permettant d’analyser ce que voit la caméra. J’ai ainsi pu lui demander de me décrire trois livres devant moi tout en l’interrompant avant de lui demander de reprendre ce qu’il disait.

En anglais, l’assistant parle avec un ton plus chaleureux, plus proche du ton d’un humain. En français, il est un peu plus froid. Même son de cloche pour ce qui est des interruptions mentionnées. Gemini m’a paru plus à l’aise dans cet exercice en anglais où il reprenait vraiment pile la conversation là où on l’avait laissée.

Sachez par ailleurs que, pour discuter avec Gemini, il faut taper légèrement sur la branche de la lunettes. C’est en faisant cela que l’IA va entrer dans un mode conversation et commencer à regarder le monde à travers la caméra des lunettes.

Pour activer Gemini dans Android XR, il faut taper sur la branche des lunettes. // Source : Frandroid

Un responsable chez Google nous a expliqué qu’aucune image n’est enregistrée de la sorte. Il faut déclencher l’appareil photo ou l’enregistrement vidéo pour que du contenu soit enregistré.

Et une fois que vous sortez du mode Gemini Live, alors la caméra n’est plus du tout exploitée.

Un joli potentiel

Android XR sur les lunettes connectées ont su montrer un joli potentiel pendant ma session de test. J’ai apprécié la sobriété du produit. Il est confortable et ne surcharge pas l’œil avec trop d’informations.

Les éléments sont suffisamment discrets pour ne pas déranger sur la durée et assez gros pour avoir une réelle utilité. De ce côté, je pense qu’Android XR est 100 % prêt.

Reste la question de Gemini. La démo à laquelle j’ai eu droit est prometteuse, mais il faudra évidemment mettre la main sur des produits finalisés pour se rendre des réelles capacités de l’assistant IA en termes de réponses pertinentes et naturelles au quotidien. On a hâte de pouvoir faire un test complet.

NB. Notre journaliste Omar Belkaab est présent à Mountain View pour couvrir la Google I/O 2025 dans le cadre d’un voyage de presse organisé par Google.

Les derniers articles