Google Cardboard : la spatialisation du son en renfort pour encore plus d’immersion

 

Google vient d’annoncer la mise à jour du kit de développement de son Cardboard, permettant aux développeurs d’ajouter à leurs productions du son spatialisé. De quoi rendre l’immersion plus totale encore qu’elle ne l’est déjà.

google-cardboard-audio-spatial

Avec la réalité virtuelle, les jeux comme le cinéma prennent une tout autre dimension. Pour les plus pointilleux, l’image n’est toutefois pas suffisante pour une réelle immersion sans l’ambiance sonore adéquate. Google a donc travaillé sur ce point afin de fournir aux développeurs tous les outils nécessaires à la création d’une ambiance à 360°.

Un son mieux géré

Jusqu’à présent, les développeurs tentaient de reproduire une ambiance sonore cohérente en produisant des sons en stéréo et en y ajoutant une certaine atténuation en fonction de la distance. Désormais, le son pourra être bien mieux géré grâce au nouveau SDK du Cardboard pour Unity et Android. Google explique par exemple qu’un son n’arrivera pas simultanément dans les deux oreilles de l’utilisateur, mais avec un léger délai en fonction de sa provenance (un son venant de la droite arrivera légèrement plus tard dans l’oreille gauche). L’environnement sera également pris en compte, permettant d’accroître la sensation de réverbération dans une grotte souterraine.

Une intégration naturelle

Les développeurs souhaitant ajouter ces nouveautés à leurs applications compatibles Cardboard pourront s’y atteler très facilement grâce à des éléments pré-intégrés, et ainsi aisément définir les paramètres de leur environnement sonore. Du côté des utilisateurs, aucun matériel supplémentaire ne sera requis, si ce n’est leur smartphone, comme d’habitude, ainsi qu’une paire d’écouteurs ou un casque afin de profiter pleinement de l’expérience.

Enfin, pour ceux qui auraient peur que leur smartphone ne soit plus assez puissant pour profiter de tels éléments, Google précise que le son spatialisé est généré en temps réel dans un thread séparé, en dehors du CPU principal. Optimisée pour les CPU mobiles, cette fonctionnalité ne devrait donc pas rendre les applications (beaucoup) plus gourmandes qu’elles ne l’étaient jusqu’à présent.

Il ne reste plus qu’à attendre maintenant que les développeurs tirent pleinement parti de cette nouveauté afin que nous puissions nous immerger visuellement et auditivement parlant dans des univers à 360°.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.