Autrefois mineur de cryptomonnaies, le fournisseur CoreWeave a pris la vague de l’IA générative. Une vague qui fait désormais déferler ses services « GPU on demand » jusque sur les côtes européennes.
De la ferme de Bitcoin à l’IA, il n’y a qu’un pas. Ou presque. CoreWeave est un de ces néocloud, un spécialiste américain des charges de travail GPU. Ce nom est apparu pour la première fois dans les colonnes du MagIT dès le lancement de Mistral 7B de Mistral AI. La startup française avait en effet entraîné ses LLM sur les infrastructures du groupe. Depuis, il est l’un des fournisseurs favoris des startups IA, de ce côté de l’Atlantique ou de l’autre.
En même temps que de passer le cap de la cotation boursière, l’entreprise annonçait en mars le rachat de Weight & Biases, un spécialiste de l’observabilité, de l’entraînement et du fine-tuning de modèles de fondation.
Le 7 juillet, il a dévoilé l’acquisition par actions de Core Scientific pour un montant de 9 milliards de dollars. Core Scientific a été fondée en 2017, elle a entamé son activité en minant du bitcoin, et a continué d’acquérir de la puissance électrique et des centres de données avant de se spécialiser dans les charges de travail HPC, tout comme CoreWeave.
Après « l’hiver de la crypto », l’effet ChatGPT
Les deux entreprises se connaissent bien. Core Scientific a hébergé les GPU de CoreWeave à partir de 2019, l’année durant laquelle il a pivoté pour louer des fermes de calcul plus abordables accueillant les charges de travail de VFX/rendu 3D, de simulation, puis d’IA. Il faut dire qu’entre 2018 et 2019, l’entreprise a subi « l’hiver de la cryptomonnaie », une baisse des cours qui lui a également permis de racheter des GPU à prix cassés tout en pariant de gros montants sur les nouveaux.
CoreWeave a largement profité de l’effet ChatGPT. « Nous avons commercialisé l’accès au GPU H100 de Nvidia en mars 2023, soit un peu moins de cinq mois après la sortie de ChatGPT », relate Mike Mattacola, directeur général de CoreWeave, lors de l’événement parisien RAISE Summit, le 9 juillet. « Depuis lors, nos serveurs sont tous utilisés [“sold out”, en VO, N.D.L.R.] ».
L’entreprise est passée de 15 millions de dollars de chiffre d’affaires en 2022, à près de 2 milliards en 2024. Au premier trimestre fiscal 2025, elle a réalisé un chiffre d’affaires de 982 millions de dollars, soit une hausse stakhanoviste de 420 % en un an. Il affiche tout de même 163 millions de pertes non GAAP au T1 2025. Néanmoins, il lui reste à délivrer pas moins de 25 milliards de dollars d’obligation de performance.
De fait, en mars, CoreWeave a signé un contrat pour une valeur de 12 milliards de dollars sur cinq ans avec OpenAI. D’où le rachat de Core Scientific.
« [Core Scientific] dispose actuellement d’un 1,3 gigawatt de puissance électrique aux États-Unis », poursuit Mike Mattacola. « Nous avions déjà contractualisé l’accès à 850 mégawatts avec eux [les 500 MW restants servent encore à miner de la cryptomonnaie, mais CoreWeave imagine les convertir en HPC, N.D.L.R.]. Certaines des infrastructures sont en production, d’autres en cours de déploiement ».
9 milliards de dollars pour environ deux gigawatts de puissance électrique (et les data centers qui vont avec)
« Par ailleurs, le rachat nous permet d’accéder à plus de 1 GW supplémentaire de puissance [dont 350 MW réservés pour de la crypto, N.D.L.R.]. L’un des plus grands enjeux pour notre industrie est d’obtenir la capacité électrique nécessaire afin de déployer rapidement [les infrastructures] pour les clients », ajoute-t-il. Une acquisition que CoreWeave espère clôturer d’ici à six mois. À ses investisseurs, le fournisseur promet que l’opération lui permettra d’économiser 500 millions de dollars par an de coûts de « run » d’ici à 2027.
Le fournisseur est devenu suffisamment influent pour prendre de vitesse les hyperscalers dans le déploiement des derniers GPU de Nvidia. « Nous étions les premiers à commercialiser des instances avec H200, puis de GB200 et nous serons les premiers à lancer les GB300 », vante le directeur général.
Au lieu d’attendre que le géant fabless stabilise son cycle de production et sa stack logicielle avant de se procurer les puces, CoreWeave mettrait « le plus rapidement possible » les cartes de Nvidia dans les mains de ses ingénieurs. « Cela nous a vraiment permis de développer notre stack avec toutes les nouvelles technologies qui arrivent, de nous sentir à l’aise pour les faire fonctionner, puis de les déployer à grande échelle pour nos clients », affirme le directeur général. « Cela a été un énorme moteur de revenus pour nous ».
À la fin du mois d’avril, ses serveurs étaient installés dans 33 data centers, pour 420 MW de puissance électrique active (1,6 GW contractualisé). Pour l’instant, le fournisseur dispose de cinq régions cloud en disponibilité générale dans l’État de New York, le New Jersey, l’Ohio, la Virginie, le Nevada et l’Arizona.
D’autres régions sont en accès « dédiés » pour des clients sélectionnés sur le volet en Géorgie, en Virginie, en Pennsylvanie, en Ohio, dans le Massachusetts, au Texas, en Arizona, au Colorado, en Californie, en Oregon.
CoreWeave prend de l’ampleur en Europe
« Nous avons déployé notre infrastructure [dont des instances équipées de H200] dans six data centers en Europe. »
Mike MattacolaDirecteur général, CoreWeave
En Europe, CoreWeave a des accès dédiés dans des data centers à Falun, en Suède, à Barcelone, ainsi qu’à Crawley et Londres au Royaume-Uni. Coût d’installation : 2,2 milliards de dollars.
« Nous avons déployé notre infrastructure [dont des instances équipées de H200] dans six data centers en Europe. C’est beaucoup plus que ce que nous avions prévu. Nous en lancerons un septième au cours des trois prochains mois », annonce Mike Mattacola. CoreWeave emploierait 120 personnes dans la région, des citoyens britanniques et européens en majorité. « Nous y déploierons des instances équipées de GPU Blackwell, et Rubin quand ils seront disponibles ».
Ce faisant, CoreWeave concurrence à la fois les géants du cloud déployés en Europe, et les clouds européens bien dotés en GPU, dont Scaleway, Nebius et Sesterce. Le directeur général de la scale-up se veut réaliste.
« Je pense que l’essence même de la souveraineté est que les puces devraient être conçues localement, que les capitaux devraient venir de la région, que l’équipe devrait être locale, et que tout doit être construit en Europe », déclare le responsable britannique.
« Mais le capital n’est pas disponible. Les compétences ne sont pas nécessairement disponibles pour créer des entreprises. L’Europe va donc prendre encore plus de retard si elle essaie de tout faire de manière 100 % souveraine », poursuit-il.
« Nous allons déployer des dizaines de milliards de dollars d’infrastructures et de capitaux rien que cette année. Vous n’avez pas accès à de tels montants en Europe. »
Mike MattacolaDirecteur général, CoreWeave
Il ne faudrait donc pas faire de la souveraineté une « obsession », au risque que les entreprises européennes prennent encore du retard par rapport à leurs homologues américaines. « Nous allons déployer des dizaines de milliards de dollars d’infrastructures et de capitaux rien que cette année. Vous n’avez pas accès à de tels montants en Europe. Ce n’est tout simplement pas disponible », croit-il.
« Nous pensons donc qu’il y aura certaines charges de travail qui devront être exécutées dans des environnements souverains, et c’est très bien, mais il y en aura aussi beaucoup d’autres qui pourront être exécutées dans un environnement cloud [extraeuropéen] ».
Actuellement, CoreWeave demeure un acteur spécialisé. Outre les serveurs équipés de GPU (A100, A40, L40, L40S, H100, H200, GB200 NVL72, B200, A4000, A5000, A6000, Quadro 5000, 4000), les superclusters comprenant des centaines de milliers de puces, il fournit des services et des logiciels de gestion de flottes pour l’entraînement et l’inférence IA. Il le fait également pour les besoins en effets spéciaux des productions Netflix ou encore de rendu 3D du fabricant d’hypercars McLaren. Il propose du stockage local, objet et fichiers distribués, des capacités réseau adaptées à ces charges de travail, ainsi qu’un service Slurm sur Kubernetes.
Pour approfondir sur Hardware IA (GPU, FPGA, etc.)