Edelweiss - Fotolia

Puces dédiées à l’IA : Graphcore lève 222 millions de dollars

Pour s’imposer sur le marché ô combien concurrentiel des puces dédiées à l’IA, Graphcore entame une levée de fonds en série E. La licorne assure que sa deuxième génération de processeurs est huit fois plus performante que la précédente.

Le concepteur britannique de microprocesseurs et de systèmes de calcul dédié à l’IA annonce une levée de fonds en Série E portant sa valorisation à 2,77 milliards de dollars.

Suite de l'article ci-dessous

Ce nouveau tour de table est mené par le Conseil du régime de retraite des enseignantes et des enseignants de l’Ontario (RREO) auprès de Fidelity International, Shroder et des investisseurs historiques tels Baillie Gifford et Draper Esprit. Au total, Graphcore aurait levé plus de 710 millions de dollars et compte parmi ses soutiens financiers les VC de Microsoft, Dell, BMW, Bosch ou encore Samsung. La startup indique qu’elle disposera de 440 millions de liquidités après la clôture de l’opération.

Graphcore, fondée en 2016 à Bristol, développe des ASICs, qu’elle nomme IPU (Intelligent Processor Unit), les racks 1U et les pods associés.

Graphcore, fondée en 2016 à Bristol, développe des ASICs, qu’elle nomme IPU (Intelligent Processor Unit), les racks 1U et les pods associés. La jeune pousse s’est déjà entourée de partenaires de choix. Mondialement, ses produits sont distribués et intégrés par Atos, Dell et Cirrascale Cloud Services. En France, Atos est rejoint par le groupe 2CRSI (aussi revendeur aux Émirats arabes unis) et Boston Server & Storage Solutions, aussi présents en Grande-Bretagne, en Allemagne et en Suisse. La startup peut compter sur d’autres partenaires locaux en Allemagne, au Royaume-Uni, en Chine, à Hong Kong, en Corée du Sud et aux États-Unis. C’est cette empreinte mondiale que Graphcore souhaite étendre avec cette collecte en série E en plus de poursuivre le développement de ses microprocesseurs.

En ce sens, elle pourrait renouveler son partenariat avec Dell EMC. L’équipementier a conçu un serveur 4U, pouvant contenir jusqu’à quatre cartes PCIe qui hébergent chacune 2 IPU Colossus GC2, fournissant au total 1,6 PetaFLOPS de puissance de calcul. Graphcore a également créé un rack 5U avec Inspur cette fois-ci doté de huit unités PCIe dual IPU. Dans le cloud, la startup a aussi une collaboration avec Microsoft qui a testé des instances Graphcore auprès de ses clients.

De nouveaux systèmes Graphcore face aux GPU de Nvidia

La licorne a présenté en juillet dernier la nouvelle génération de son ASIC GC200 gravé en 7 nm, doté de 1 472 cœurs (624 kb de mémoire interne par cœur) pour 8 832 threads. Il compte 59,4 milliards de transistors sur un seul die. Cette puce serait huit fois plus performante que la précédente GC2 (gravée en 16 nm) pourvue de 1 216 cœurs. Un microprocesseur GC200 fournirait 250 TeraFLOPS de capacité de calcul dédiée à l’IA. La startup décline son fleuron dans des racks 1U et des Pods : les IPU-M2000 (4 IPU GC200 pour un 1 PetaFLOP) et les IPU POD 64 (16 lames 1U). La licorne promet qu’il est possible d’interconnecter 64 000 IPU via le déploiement de 1 000 pods pour bâtir des supercalculateurs exaflopiques. Graphcore aurait commencé à expédier à large échelle les produits de deuxième génération.

Graphcore explique avoir simulé les résultats, en s’appuyant sur les benchmarks TensorFlow fournis par Nvidia depuis un dépôt GitHub.

Ces équipements dédiés aux traitements d’intelligence artificielle doivent concurrencer les GPU A100 et les systèmes DGX A100 de Nvidia. Selon un benchmark réalisé par Graphcore, un IPU-POD 64 permettrait d’entraîner le modèle NLP BERT Large (24 couches, 1 024 nœuds, 16 têtes, 340 millions de paramètres) 5,3 fois plus rapidement qu’une station DGX A100. Toutefois, Graphcore explique avoir simulé les résultats en s’appuyant sur les benchmarks TensorFlow fournis par Nvidia depuis un dépôt GitHub. Surtout, il compare un pod hébergeant 16 racks IPU-M2000 (au total 64 puces IPU GC200) à un serveur doté de huit GPU A100.

À noter que la startup a développé des drivers et un SDK propriétaire (POPLAR) par-dessus sa plateforme matérielle. Celui-ci est compatible avec la plupart des frameworks de machine learning du marché (TensorFlow, ONNX, Pytorch, Keras, Paddle Paddle, etc.).

La concurrence gonfle les muscles

Malgré sa popularité auprès des équipementiers, Graphcore affiche principalement sur son site web sa clientèle issue de la recherche, dont l’université de Bristol, d’Oxford ou encore l’Imperial College de Londres. Microsoft et Qwant exploitent également ces IPU, alors que la startup assure traiter avec des clients de l’industrie pharmaceutique, de la finance, de l’automobile et des opérateurs télécoms sans dévoiler leur nom.

Cependant, la concurrence s’intensifie. Outre Nvidia, GSI Technology entend proposer des performances supérieures à l’IPU GC2 avec une puce mémoire PCIe, tandis qu’Intel vient d’acquérir SigOpt pour développer des logiciels que le fabricant associera sûrement aux plateformes matérielles conçues par Habana Labs (une autre startup acquise en 2019). Par ailleurs, en sus d’accueillir les microprocesseurs Gaudi de Habana Labs au sein de ses instances EC2, AWS a dévoilé Trainium, des puces maisons dédiées à l’entraînement des modèles de machine learning pour compléter son offre Inferentia.

Pour approfondir sur Intelligence Artificielle et Data Science

Close