Apple rachète la startup Q.ai : tout savoir sur la technologie de discours silencieux

 
En s’offrant la startup israélienne Q.ai, Apple s’assure une avance technologique majeure sur le traitement de la voix et des micro-mouvements faciaux.

Apple vient de sortir le carnet de chèques pour réaliser ce qui s’impose comme sa deuxième plus grosse acquisition historique. Pour environ 2 milliards de dollars (soit 1,85 milliard d’euros), la Pomme s’offre Q.ai, une jeune pousse israélienne spécialisée dans l’IA audio et la vision par ordinateur.

Pour rappel, seul le rachat de Beats en 2014 pour 3 milliards de dollars pèse plus lourd dans les livres de comptes de Cupertino. Mais si vous regardez de plus près qui est derrière Q.ai, vous comprendrez vite que ce n’est pas un pari à l’aveugle.

À la tête de la startup, on retrouve Aviad Maizels. Ce nom vous dit quelque chose ? C’est normal. C’est lui qui avait vendu PrimeSense à Apple en 2013.

À l’époque, cette technologie issue du Kinect de Microsoft avait permis de créer FaceID et de reléguer le capteur d’empreintes aux oubliettes.

Comprendre ce que vous ne dites pas

Mais que fait Q.ai concrètement ? La startup travaille sur des algorithmes de machine learning capables d’interpréter ce qu’ils appellent le « discours silencieux ».

L’IA analyse les micro-mouvements de la peau et des muscles de votre visage pour comprendre ce que vous dites, même si vous ne sortez aucun son de votre bouche.

Vous voyez le potentiel pour les AirPods ? Comme donner une instruction à Siri dans un métro bondé ou une bibliothèque sans ouvrir la bouche. Le système détecte le mouvement de vos lèvres et de vos muscles faciaux pour traduire cela en commandes textuelles. C’est de la lecture labiale, dopée par des capteurs optiques et une puissance de calcul locale.

L’acquisition inclut également des brevets sur la détection du rythme cardiaque et de la respiration via ces fameux micro-mouvements de la peau. Apple ne rachète pas seulement une fonction Siri, elle s’offre une brique supplémentaire pour son arsenal de santé connectée. Le tout sera intégré par les 100 employés de Q.ai qui rejoignent désormais les rangs de Cupertino.

Pour aller plus loin
Quels AirPods d’Apple choisir selon votre budget ? Le comparatif de la gamme

Le Vision Pro en ligne de mire

Alors, pourquoi maintenant ? La réponse tient en deux mots : Vision Pro. L’ordinateur spatial d’Apple a besoin d’interactions plus naturelles que de simples pincements de doigts ou des commandes vocales parfois laborieuses. Intégrer des capteurs capables de lire les expressions faciales et le langage non-verbal changerait radicalement l’expérience utilisateur.

Johnny Srouji, le patron des puces chez Apple, ne s’y est pas trompé. Dans un communiqué, il salue une entreprise qui « pionne de nouvelles façons créatives d’utiliser l’imagerie et l’apprentissage automatique ».


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Recherche IA boostée par
Perplexity