Huawei se lance dans les processeurs dédiés à l’IA

Dépassant les performances des Tesla v100 de Nvidia et TPUv3 de Google, l’Ascend 910 démultiplie le design des puces Ascend 310 pour équiper les datacenters de clusters TensorFlow.

Huawei devrait lancer d’ici au mois prochain son propre processeur optimisé pour les algorithmes de Machine Learning. Dénommé Ascend 910, il s’accompagnera d’un kit de développement, MindSpore. Équivalent du framework Cuda des GPU NVidia, il est censé faciliter l’adaptation des codes applicatifs liés à l’intelligence artificielle – en particulier TensorFlow.

Ce lancement a lieu dans le contexte de l’impossibilité pour le constructeur chinois de se fournir en composants ou logiciels américains, une interdiction promulguée par l’administration Trump au prétexte de préserver la sécurité nationale des États-Unis.

L’Ascend 910 intègre à la fois un processeur classique capable de traiter 512 000 milliards d’opérations entières 8 bits à la seconde (512 TeraOPS) et un coprocesseur arithmétique capable de résoudre 256 000 milliards d’opérations 16 bits en virgule flottante à la seconde (256 TeraFLOPS). Comparativement, une puce GPU Tesla v100 de NVidia offre 120 TeraFLOPS, tandis que le TPUv3, le processeur dédié au Machine Learning mis au point par Google pour offrir des services d’intelligence artificielle dans son propre cloud, atteint 105 TeraFLOPS.

Le circuit de la puce comprend également un chipset qui prend en charge les communications avec l’extérieur. Il gère un bus HCCS maison comprenant deux ports à 240 Gbit/s chacun pour dialoguer avec un autre processeur, une interface PCIe 4.0 qui totalise 256 Gbits/s de bande passante vers les extensions ou le stockage NVMe internes, ainsi qu’un contrôleur Ethernet supportant 100 Gbits/s en RoCE v2 (RDMA-over-Converged-Ethernet) pour échanger des informations entre les nœuds serveurs.

Gravé avec une finesse de 7nm, l’Ascend 910 consomme jusqu’à 310 watts à 2GHz. Selon Huawei, il s’agirait d’une bonne nouvelle, car ses ingénieurs tablaient initialement sur une consommation de 350 watts.

A l’autre bout de la chaîne du processeur embarqué Ascend 310

L’Ascend 910 n’est pas la première tentative de la part d’Huawei d’occuper le marché des processeurs. L’année dernière, le constructeur avait déjà lancé l’Ascend 310, un CPU basse consommation (8 watts) destiné aux équipements embarqués, aujourd’hui dits de « Edge Computing ».

La particularité de l’Ascend 310 est d’intégrer un décodeur vidéo HD 16 voies, ce qui lui vaudrait, selon Huawei, de connaître un certain succès dans les projets de capture et d’analyse d’image, notamment dans l’industrie du transport mais aussi dans les services cloud d’OCR. Le constructeur affirme que les requêtes effectuées sur les API ModelArts de l’Ascend 310 devraient atteindre le rythme de 300 millions par jour d’ici à la fin de l’année.

L’idée serait que les informations transmises par ces requêtes puissent désormais nourrir des moteurs d’apprentissage, justement exécutés dans des datacenters par le nouvel Ascend 910. Cette intégration serait réalisable à l’aide de la plateforme de développement MindSpore, laquelle devrait d’ailleurs passer en Open source d’ici à 2020.

Ascend 310 et 910 partagent la même architecture, appelée Da Vinci. Elle correspond à des cœurs individuellement capables d’exécuter 256 opérations entières (unité « Cube ») et 16 opérations vectorielles (unité « Vector ») par cycle d’horloge. Il y a deux cœurs de ce type dans l’A310 et 32 dans l’A910. Un modèle milieu de gamme, doté de 16 cœurs et appelé Ascend 610, serait dans les cartons.

La parallélisation d’un code entre les différents cœurs serait gérée au niveau de la plateforme de développement MindSpore et reviendrait assez simplement à répartir les itérations successives d’une boucle (instruction « FOR... ») entre les unités de traitement.

L’enjeu d’équiper les clouds d’une infrastructure d’IA

Selon Alan Priestley, analyste chez Gartner interrogé par nos confrères américains de TechTarget, Huawei est susceptible de vendre des solutions d’intelligence artificielle clés en main plutôt que des processeurs au détail. Il en veut pour preuve la fourniture du kit MindSpore et le fait que l’Ascend 310 soit lui-même toujours déployé au sein d’équipements complets, mis au point par Huawei.

De même, alors que l’Ascend 910 pourrait concurrencer les GPU et les processeurs de fournisseurs occidentaux comme Intel et NVidia, Alan Priestley doute que Huawei se lance dans le commerce de cartes accélératrices. « Le composant électronique en lui-même est moins critique que ce qu’il a pu être par le passé. Ce qui compte aujourd’hui, c’est de fournir la solution complète », martèle-t-il.

Danny Mu, analyste chez Forrester basé à Pékin, estime même que MindSpore et Ascend n’ont d’autre but que de sponsoriser les infrastructures datacenters que Huawei propose aux opérateurs de cloud – dont OBS en France. L’enjeu serait pour eux de disposer de clusters de serveurs prêts à l’emploi pour proposer des services en ligne de Machine Learning. Ou, dit autrement, d’avoir les moyens techniques de concurrencer les offres d’IA de Google Cloud.

Tous deux rejettent d’ailleurs l’idée qu’Huawei développe ses propres processeurs pour contourner l’interdiction de se fournir en composants chez Intel, AMD ou autres fabricants américains. « Le marché des solutions de Machine Learning s’est fortement développé ces derniers mois. Et il ne fait aucun doute que le but de Huawei et d’abord de s’imposer dans ce domaine sur le marché chinois. Rappelons que Huawei planche en effet sur ses processeurs depuis bien avant la déclaration de guerre économique entre les USA et la Chine », estime Alan Priestley.

Huawei devrait faire de nouvelles annonces liées à l’intelligence artificielle lors de son événement Huawei Connect 2019 qui se tiendra mi-septembre à Shanghai.

Pour approfondir sur HPC

Close