
Apple vient de sortir le carnet de chèques pour réaliser ce qui s’impose comme sa deuxième plus grosse acquisition historique. Pour environ 2 milliards de dollars (soit 1,85 milliard d’euros), la Pomme s’offre Q.ai, une jeune pousse israélienne spécialisée dans l’IA audio et la vision par ordinateur.
Pour rappel, seul le rachat de Beats en 2014 pour 3 milliards de dollars pèse plus lourd dans les livres de comptes de Cupertino. Mais si vous regardez de plus près qui est derrière Q.ai, vous comprendrez vite que ce n’est pas un pari à l’aveugle.
À la tête de la startup, on retrouve Aviad Maizels. Ce nom vous dit quelque chose ? C’est normal. C’est lui qui avait vendu PrimeSense à Apple en 2013.


PLAUD NOTE PRO enregistre, transcrit et synthétise vos moments clés en réunion, en cours ou en balade. Idéal pour rester organisé sans effort.
À l’époque, cette technologie issue du Kinect de Microsoft avait permis de créer FaceID et de reléguer le capteur d’empreintes aux oubliettes.
Comprendre ce que vous ne dites pas
Mais que fait Q.ai concrètement ? La startup travaille sur des algorithmes de machine learning capables d’interpréter ce qu’ils appellent le « discours silencieux ».
L’IA analyse les micro-mouvements de la peau et des muscles de votre visage pour comprendre ce que vous dites, même si vous ne sortez aucun son de votre bouche.
Vous voyez le potentiel pour les AirPods ? Comme donner une instruction à Siri dans un métro bondé ou une bibliothèque sans ouvrir la bouche. Le système détecte le mouvement de vos lèvres et de vos muscles faciaux pour traduire cela en commandes textuelles. C’est de la lecture labiale, dopée par des capteurs optiques et une puissance de calcul locale.
L’acquisition inclut également des brevets sur la détection du rythme cardiaque et de la respiration via ces fameux micro-mouvements de la peau. Apple ne rachète pas seulement une fonction Siri, elle s’offre une brique supplémentaire pour son arsenal de santé connectée. Le tout sera intégré par les 100 employés de Q.ai qui rejoignent désormais les rangs de Cupertino.
Pour aller plus loin
Quels AirPods d’Apple choisir selon votre budget ? Le comparatif de la gamme
Le Vision Pro en ligne de mire
Alors, pourquoi maintenant ? La réponse tient en deux mots : Vision Pro. L’ordinateur spatial d’Apple a besoin d’interactions plus naturelles que de simples pincements de doigts ou des commandes vocales parfois laborieuses. Intégrer des capteurs capables de lire les expressions faciales et le langage non-verbal changerait radicalement l’expérience utilisateur.
Johnny Srouji, le patron des puces chez Apple, ne s’y est pas trompé. Dans un communiqué, il salue une entreprise qui « pionne de nouvelles façons créatives d’utiliser l’imagerie et l’apprentissage automatique ».
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.