Comment Qualcomm va booster l’IA de notre quotidien avec le cloud

 

Le spécialiste des composants mobiles Qualcomm veut entrer dans les data centers, avec des puces dédiées à l’intelligence artificielle. Une décision audacieuse, mais pertinente, voici pourquoi.

Qualcomm a profité le 9 avril dernier d’un événement consacré à l’intelligence artificielle pour présenter les Snapdragon 665, 730 et 730G. Ces puces pour smartphones de milieu de gamme ont en commun qu’elles intègrent la quatrième et dernière génération du Qualcomm AI Engine, un sous-composant dédié aux traitements des intelligences artificielles. Ainsi, le Snapdragon 665 par exemple est deux fois plus performant sur ce point que le Snapdragon 660 auquel il succède, selon l’entreprise.

Déjà, le message est clair : en organisant un (modeste) événement international consacré à l’intelligence artificielle puis en choisissant ce cadre pour lancer de nouvelles puces et en communiquant davantage sur leurs capacités en IA que sur les performances de leurs CPU et GPU, Qualcomm envoie le signal qu’elle embrasse ce champ porteur.

Mais l’annonce des nouveaux Snapdragon n’est pas la plus marquante du Qualcomm AI Day 2019. Elle est même relativement mineure, c’est dire si l’autre annonce est importante, quoiqu’encore assez abstraite. L’entreprise a effectivement annoncé le lancement, l’année prochaine, d’une carte accélératrice d’intelligence artificielle pour data center.

Qualcomm Cloud AI 100 : des cartes d’accélération des intelligences artificielles

Concrètement, l’entreprise a annoncé Qualcomm Cloud AI 100, une future série de cartes d’extension pour serveurs, embarquant une « toute nouvelle puce » conçue spécifiquement pour le calcul d’inférences dans des travaux d’intelligences artificielles.

Un tel accélérateur d’inférences effectue exclusivement des raisonnements, des opérations de déductions, en exécutant un modèle préexistant. Il s’oppose à ce titre à un accélérateur d’entrainement, qui effectue quant à lui un apprentissage automatique (machine learning) à partir d’un ensemble de données d’entrainement.

Or dans l’intelligence artificielle davantage encore que dans d’autres domaines, plus un composant électronique est spécialisé, plus il est performant et plus il est efficace. En l’occurrence, la puce du Qualcomm Cloud AI 100 serait un tout nouvel ASIC (application specific integrated circuit, littéralement un circuit intégré propre à une application), et non le dérivé d’un SoC existant comme un Snapdragon, ni un dérivé d’un de ses sous-composants comme un Hexagon. Il bénéficie en revanche comme ces derniers d’un procédé de fabrication en 7 nm, le plus fin à ce jour, donc le plus efficace sur le plan énergétique.

Qualcomm revendique ainsi une performance en pointe 15 fois supérieure à celle d’un Snapdragon 855 en IA. Surtout, en comparaison aux produits utilisés à ce jour pour l’accélération d’inférences en data center, la puce de Qualcomm aurait une efficacité énergétique 10 fois supérieure aux GPU et aux FPGA, qui offrent eux-mêmes une performance par watt 10 fois supérieure aux CPU. L’entreprise est encore assez avare en chiffres absolus, mais à titre indicatif, elle vise une performance en pointe dépassant les 350 TOPS (350 milliards d’opérations par seconde).

Qualcomm plus légitime qu’il n’y parait dans les data centers

Qualcomm a fait une première tentative d’entrée dans les data centers en 2017, avec une série de processeurs ARM baptisée Centriq, qui s’est rapidement soldée par un échec. C’est que les principales applications serveur sont optimisées pour les processeurs x86 d’Intel et d’AMD, et que le travail d’adaptation et de recompilation de ces logiciels pour l’architecture ARM a découragé les clients potentiels.

Mais Qualcomm est mieux armé sur le terrain de l’intelligence artificielle. Notamment car les IA reposent sur des piles logicielles intermédiaires qu’on peut adapter à toutes sortes d’architectures. En l’occurrence, la gamme Cloud AI 100 sera compatible avec les principaux environnements d’exécution : TensorFlow, promu par Google ; PyTorch, promu par Facebook ; et ONNX (Open Neural Network Exchange), promu par Facebook et Microsoft. Les accélérateurs de Qualcomm pourront donc exécuter la plupart des intelligences artificielles existantes sans autre forme de procès.

Dès lors, l’entreprise peut mettre à profit, sans barrière à l’entrée, les expertises acquises sur le marché des puces mobiles : son leadership en matière de procédé de fabrication (maîtrise du 7 nm, contre 10 nm chez Intel et 12 nm chez Nvidia), son expertise en traitement de signal (sous-composants spécialisés intégrés à ses puces), et son expertise en matière d’efficacité énergétique.

Un marché de 17 milliards de dollars en 2025

Qualcomm a donc toute légitimité à lancer une gamme d’accélérateurs d’intelligence artificielle, il a même de grandes chances de ravir de bonnes parts de marché. À Nvidia, qui commercialise les cartes Tesla, reposant sur les mêmes puces Pascal et Turing que ses cartes graphiques GeForce des séries 1000 et 2000. À Intel également, qui lancera lui aussi courant 2020 une nouvelle gamme de GPU dédiés, baptisée Xe, qui comprendra des versions dédiées au data center et à l’IA. À diverses startups, enfin, qui proposent des ASIC dédiés à l’IA, mais qui ne font pas le poids face aux capacités de production de Qualcomm.

Or le marché de l’intelligence artificielle dans les centres de données devrait décupler entre 2018 et 2025, selon le cabinet d’analyse Tractica. Il n’est pas étonnant, dans ce contexte, que Qualcomm veuille sa part d’un gâteau estimé à 17 milliards de dollars (15 milliards d’euros) en 2025 et qu’il participe lui aussi à cette ruée vers l’or. D’ailleurs, Qualcomm n’a pas choisi de lancer un accélérateur d’inférences par hasard. Ils sont plus simples que les accélérateurs d’entrainement, mais il en faut beaucoup plus, le marché est plus important. En effet, on n’entraine pas les modèles autant qu’on les exécute.

Une balle dans le pied ?

Enfin, on pourrait se demander si Qualcomm ne se tire pas une balle dans le pied, en déportant l’intelligence artificielle dans les data centers, autrement dit dans le cloud, alors qu’il milite en parallèle pour intégrer l’IA à nos terminaux, avec le sous-composant Hexagon qu’embarquent de plus en plus de ses puces Snapdragon.

Premièrement, en se diversifiant, Qualcomm trouve des relais de croissance. Il faut dire que sur le marché du smartphone, l’entreprise fait face à l’hégémonie grandissante de Samsung, Apple et Huawei, qui représentent à eux seuls 50 % du marché, alors qu’ils fabriquent leurs propres puces. Qualcomm se partage les 50 % restants avec MediaTek. Ce n’est pas rien, mais autant multiplier les prospects.

Il s’agirait alors d’exécuter les intelligences artificielles là où c’est le plus efficace et le plus pertinent

Mais Qualcomm milite surtout pour une intelligence distribuée, répartie entre les data centers et les appareils des utilisateurs, potentiellement reliés en 5G. Or Qualcomm détient aujourd’hui le leadership sur les modems 5G, un autre marché porteur pour les 5 à 10 prochaines années. Il s’agirait alors d’exécuter les intelligences artificielles là où c’est le plus efficace et le plus pertinent. En effet, des IA de reconnaissance vocale, de reconnaissance d’image, un pilote automatique ou un chatbot ont des degrés variés d’exigences en termes de complexité, de réactivité ou de confidentialité.

Il s’agit là d’une approche « cloud to edge« , à laquelle nous consacrerons très bientôt un second article. Quoi qu’il en soit, Qualcomm livrera de premiers échantillons de ses cartes Cloud AI 100 au second semestre 2019, avant un lancement prévu courant 2020.


Le saviez-vous ? Google News vous permet de choisir vos médias. Ne passez pas à côté de Frandroid et Numerama.