Le loyer d’un GPU NVIDIA Blackwell en cloud vient de franchir les 4 dollars de l’heure. Selon l’indice Ornn Compute Price Index, publié sur le terminal Bloomberg, le tarif spot d’un Blackwell est passé de 2,75 $/h à 4,08 $/h en deux mois seulement, soit une hausse de 48 %. Le PDG de Vultr a été direct : c’est « la pire pénurie de compute depuis cinq ans ». Et rien n’indique que ça va s’améliorer bientôt.
A SAVOIR
L’indice Ornn Compute Price Index (OCPI) est la première référence standardisée pour le coût de location de GPU en cloud. Il est disponible sur le terminal Bloomberg depuis le 2 avril 2026. Il suit les prix réels négociés entre data centers et acheteurs de compute, pas des estimations.
Les faits : des chiffres qui donnent le vertige
Les GPU de la génération Blackwell, B200 et GB200, sont épuisés jusqu’à mi-2026 au moins. Le carnet de commandes dépasse 3,6 millions d’unités. Les délais de livraison s’étendent de 36 à 52 semaines. Ce n’est pas une pénurie temporaire : c’est une contrainte structurelle qui s’étale sur au moins deux ans.
- 4,08 $/h : prix spot d’un GPU Blackwell en cloud (contre 2,75 $ il y a deux mois)
- +48 % en deux mois selon l’indice Ornn (Bloomberg Terminal)
- 3,6 millions d’unités en attente de livraison (B200 et GB200)
- 36-52 semaines de délai de livraison pour les GPU data center
- 80 % : part de la mémoire HBM dans le coût de fabrication d’un GPU Blackwell
- Toute la capacité de packaging CoWoS chez TSMC est réservée jusqu’à mi-2027
La cause profonde, c’est l’IA agentique. Les systèmes d’IA qui planifient et agissent de manière autonome consomment exponentiellement plus de compute que la simple génération de texte. Microsoft, Google, Meta et Amazon ont passé commande en milliards de dollars pour des GPU Blackwell dès 2025, monopolisant l’essentiel des allocations NVIDIA jusqu’à fin 2026, voire 2027.

Ce que ça change : tout le monde trinque, des startups aux gamers
La pénurie ne touche pas que les grandes entreprises cloud. Elle crée des effets en cascade sur toute l’industrie tech, des laboratoires d’IA jusqu’aux joueurs PC.
Les labos IA rationalisent. Anthropic a limité l’accès à son dernier modèle à une quarantaine d’organisations seulement. La CFO d’OpenAI, Sarah Friar, a reconnu publiquement : « On fait des compromis difficiles sur des projets qu’on ne poursuit pas faute de compute. » Plus fort encore : même les équipes de recherche internes de NVIDIA n’arrivent plus à obtenir suffisamment de GPU, comme le révélait Fortune le 9 avril.
CoreWeave serre la vis. Le plus grand fournisseur cloud spécialisé GPU a augmenté ses tarifs de plus de 20 % fin 2025 et exige désormais des contrats de 3 ans pour les clients de taille moyenne. Les analystes de Bank of America estiment que la demande dépassera l’offre jusqu’en 2029 au moins.
Les gamers en paient le prix. NVIDIA réduit la production de ses GPU gaming RTX 50 de 30 à 40 % pour réorienter la VRAM GDDR7 vers les data centers. La RTX 5070 Ti est effectivement en fin de production : selon Hardware Unboxed, ASUS et MSI confirment ne plus pouvoir réapprovisionner. La RTX 5060 Ti 16 Go devrait suivre. La RTX 50 Super est reportée indéfiniment. Et la RTX 60 ? Repoussée à 2028.

ATTENTION
Si vous développez des applications IA et envisagez de louer des GPU Blackwell en cloud, anticipez des hausses de prix supplémentaires. Bank of America prévoit que la demande dépassera l’offre jusqu’en 2029. Bloquez vos accès maintenant avec des contrats longue durée plutôt que de miser sur le spot.
Notre avis : une crise structurelle, pas un simple pic de demande
Appelons les choses par leur nom : NVIDIA a créé un monopole de facto sur l’infrastructure IA, et ce monopole génère aujourd’hui une rente de situation inédite. Quand même les équipes de recherche internes de NVIDIA ne peuvent pas obtenir de GPU, on n’est plus dans un problème de supply chain classique. On est dans une réorganisation profonde des priorités industrielles mondiales.
La hausse de 48 % en deux mois révèle quelque chose que les annonces marketing masquaient : l’IA agentique n’est pas juste « du texte en plus ». C’est une multiplication par 10, 50, 100 de la consommation de compute par session. Les systèmes qui « planifient et agissent » font tourner des dizaines d’appels de modèle en parallèle, maintiennent des états, orchestrent des outils. La facture est astronomique, et elle se répercute directement dans le prix du cloud.
Pour les développeurs et startups IA, le message est sans ambiguïté : soit vous sécurisez votre accès GPU maintenant, soit vous risquez de payer 6, 8, 10 dollars de l’heure dans six mois. Pour les gamers, c’est une douche froide : NVIDIA a clairement choisi ses priorités, et vous n’en faites plus partie en 2026. La RTX 5080 reste le meilleur point d’entrée Blackwell en local, avec ses 16 Go de GDDR7 et ses performances en inférence locale qui permettent de faire tourner des modèles 70B quantifiés. C’est cher, c’est rare, mais c’est toujours moins cher que le cloud à 4 $/h.
La vraie question à suivre dans les prochaines semaines : est-ce que la prochaine génération Vera Rubin (attendue en 2H 2026) rééquilibrera réellement le marché, ou NVIDIA va-t-il simplement déplacer la pénurie vers le prochain niveau de performance ? À surveiller sur l’indice Ornn et les capacités CoWoS de TSMC.