La branche ATAP de Google, celle qui conçoit des projets expérimentaux, a montré les avancés de Project Soli lors de la Google I/O 2016. Un projet qui permet d’interagir avec différents appareils en utilisant ses doigts et ses mains, mais sans les toucher. Google a justement montré une utilisation concrète et convaincante de sa technologie, sur une smartwatch.

project soli smartwatch

Vous vous rappelez le Project Soli ? Non ? Ce n’est pas très grave, à la rédaction, personne ne s’en souvenait non plus. Project Soli a pourtant été annoncé et montré pour la première fois l’année dernière lors de la Google I/O 2015. Le but du projet est de concevoir une puce qui soit capable de reconnaître les mouvements, la vitesse et la distance des mains et des doigts (ou de n’importe quel autre objet) qui passe à sa portée. Google n’a pas inventé de nouvelle technologie, puisque le Project Soli se base sur les ondes émises par les radars.

project soli

Les différents prototypes du Project Soli.

Plutôt discrète l’année dernière, l’équipe derrière le Project Soli a montré les avancées effectuées en un an lors de la Google I/O 2016, à l’occasion d’un atelier. En un an, l’équipe a considérablement progressé. En 2015, elle était parvenue à faire passer la taille du prototype d’une boîte à pizza à une carte SD. En 2016, elle a considérablement réduit la consommation électrique, le temps de latence et surtout a commencé à l’intégrer dans des appareils électroniques.

Lien Youtube
Chaine Youtube FrAndroid

La démonstration commence à 27 minutes environ.

Et c’est justement ce qu’a montré l’équipe lors de la Google I/O 2016. Comme on peut le voir dans la vidéo ci-dessus, la puce a été intégrée à la fois sur une smartwatch de LG et une enceinte connectée de Harman. La démo la plus impressionnante est sans conteste celle avec la montre connectée.

À l’aide de gestes effectués en dehors de l’écran, il est possible de modifier l’affichage, de naviguer dans les menus de la montre et d’interagir très facilement avec la montre sans cacher l’écran avec ses doigts. Bref, en quelques minutes, le Project Soli montre qu’il est possible de rendre la navigation sur une smartwatch ergonomique.

project soli 2

L’un des gestures repérée par le Project Soli.

Évidemment, ce mode contrôle relève pour l’instant (presque) de la science-fiction et l’on ne devrait pas voir arriver de tels moyens de contrôle avant quelques années encore. Mais voir que Google prend très au sérieux l’ergonomie des smartwatchs démontre que Mountain View croit réellement aux wearables.