Le marché des GPU ne ralentit pas, il explose
On présente souvent la course au matériel d'IA comme un simple duel entre Nvidia et Google. Si cela fait un bon titre, cela ne rend pas compte de ce qui se passe réellement fin 2025. Ce marché ne se dirige pas vers un unique vainqueur. Il ressemble plutôt à une piste d'atterrissage encombrée où de nouvelles conceptions continuent d'arriver, car la demande refuse de se calmer. Les puces restent rares, l'argent afflue, et il y a largement assez de place pour que plusieurs acteurs importants se développent simultanément.
Un marché toujours marqué par les pénuries
En examinant le marché des GPU en novembre 2025, on constate la même chose qu'il y a un an : des contraintes. Les nœuds de processus les plus avancés de TSMC tournent à plein régime et les gros clients réservent des capacités des années à l'avance. Cette chaîne d'approvisionnement tendue alimente la boucle familière des pénuries, des fluctuations de prix sauvages et des enchères frénétiques pour tout inventaire disponible. Même si de nouvelles usines arrivent en ligne et que les existantes s'agrandissent, elles ne peuvent tout simplement pas rattraper la vague de demande qui continue de croître plus vite que la production.
Les prévisions confirment ce point. Les analystes s'attendent à ce que le segment des GPU pour centres de données passe de 102 milliards de dollars en 2025 à près de 200 milliards de dollars en 2030, ce qui implique un taux de croissance annuel d'environ 14 %. L'univers plus large de l'infrastructure GPU semble encore plus explosif. Les projections le situent à environ 592 milliards de dollars d'ici 2033, soit un taux de croissance annuel composé ahurissant de 28 %. Ce n'est pas le comportement d'un marché saturé. Un marché saturé se refroidit, les prix s'adoucissent et les chiffres de croissance diminuent. Ici, c'est le contraire qui se produit.
Comment les puces personnalisées agrandissent tout le gâteau
Beaucoup de gens supposent que les puces personnalisées des grands fournisseurs de cloud cannibaliseront inévitablement les ventes de GPU. Des hyperscalers comme Google, Amazon, Meta et Microsoft livrent désormais une énorme quantité de puissance de calcul basée sur leurs propres puces Arm. Sur le papier, cela ressemble à une concurrence directe. En pratique, l'histoire est plus complexe. Environ la moitié de la puissance de calcul qu'ils fournissent utilise ces conceptions internes, mais ce changement agit davantage comme un ajout que comme un remplacement. Le bassin total d'accélérateurs s'agrandit au lieu de simplement échanger un type contre un autre.
À l'intérieur de leurs centres de données, ces entreprises déploient des puces propriétaires aux côtés de vastes fermes de GPU, plutôt qu'en remplacement de celles-ci. Google Cloud déclare ouvertement être « engagé à soutenir les deux », ses TPU et les GPU Nvidia, les traitant comme des partenaires plutôt que des rivaux dans les mêmes racks. Meta, qui a eu des discussions pour utiliser les TPU de Google, commande toujours d'énormes lots de H100 de Nvidia car elle souhaite de la redondance au lieu de tout miser sur un seul fournisseur. Cette double approche est visible dans le carnet de commandes des puces Blackwell de nouvelle génération de Nvidia. Les quatre plus grands hyperscalers américains ont précommandé environ 3,6 millions d'unités à eux tous, même s'ils font avancer leurs programmes de puces internes. La conclusion logique est simple : le marché s'étend assez rapidement pour que plusieurs architectures puissent prospérer côte à côte.
De nouvelles règles qui garantissent pratiquement de multiples gagnants
Le pouvoir dans cet écosystème s'est orienté vers les hyperscalers, et ce changement réécrit les règles de manière à favoriser naturellement plus de concurrence plutôt que moins.
Premièrement, les puces personnalisées donnent enfin un véritable levier aux plus grands acheteurs. Lorsqu'un géant du cloud dispose de sa propre alternative de type TPU prête, il n'entre pas dans une négociation avec Nvidia les mains vides. Comme l'a souligné une analyse, ces entreprises craignent d'être trop dépendantes d'un seul fournisseur et elles ont désormais les outils pour faire pression. Cette pression se manifeste dans les discussions sur les prix, même lorsque les deux parties décrivent leurs produits comme complémentaires.
Deuxièmement, la diversification de la chaîne d'approvisionnement est passée d'un « plus » agréable à une exigence de survie. Le plan antérieur de Meta d'acheter plus de 350 000 GPU H100 ressemble désormais à une mise en garde concernant le risque de concentration. En réponse, l'industrie dans son ensemble s'oriente vers le multi-approvisionnement. Cela signifie mélanger les contrats TPU, les efforts de développement d'ASIC internes et les contrats de GPU classiques pour créer un ensemble plus résilient. Si une voie se bloque, les autres assurent la continuité.
Troisièmement, l'écosystème des startups ne se limite plus aux présentations PowerPoint et aux démonstrations en laboratoire. Un ensemble d'entreprises de puces spécialisées a franchi le seuil du territoire commercial sérieux. Cerebras Systems, tout juste sortie d'un cycle de financement d'1,1 milliard de dollars, déploie ses moteurs à l'échelle de la tranche (wafer-scale engines) dans des projets majeurs comme le campus d'IA Stargate aux Émirats arabes unis. Groq, soutenue par un accord de 1,5 milliard de dollars avec l'Arabie Saoudite et un partenariat avec IBM, revendique des vitesses d'inférence trois à quatre fois plus rapides que les GPU comparables pour certaines charges de travail. SambaNova installe des systèmes dans des laboratoires nationaux et continue de promouvoir une plateforme intégrée matériel-logiciel. Collectivement, ces entreprises représentent plus de 5 milliards de dollars en valorisation et, plus important encore, de véritables déploiements. La concurrence n'est plus théorique. Elle exécute des charges de travail réelles.
Les forces profondes qui poussent à la diversité
Au-delà des titres, l'économie de l'IA penche discrètement en faveur d'un monde multi-architectures.
L'inférence joue un rôle clé ici. Nvidia reste le maître en matière d'entraînement de modèles géants. Cependant, une fois ces modèles existants, le volume d'inférence — l'acte quotidien de les exécuter — croît encore plus vite et se fragmente à travers de nombreux cas d'utilisation. Après la stabilisation d'un modèle, on peut le déployer sur du matériel adapté à des besoins très spécifiques. Cerebras peut exceller dans les tâches gourmandes en mémoire. Groq vise le streaming à latence ultra-faible. Les TPU de Google se sentent le plus à l'aise au sein de la propre pile cloud de Google. Ce type de spécialisation rend beaucoup moins probable qu'une seule famille de puces gagne toutes les batailles.
L'efficacité énergétique apporte un autre avantage significatif. Les ASIC personnalisés peuvent offrir jusqu'à 60 % de meilleure efficacité énergétique pour des charges de travail spécifiques. Lorsque l'électricité représente 30 à 40 % des coûts d'exploitation d'un centre de données hyperscale, cet avantage résonne fortement dans les conseils d'administration. La logique devient claire. Il faut associer chaque charge de travail à la puce qui consomme le moins d'énergie pour la performance requise.
Les contraintes de fabrication poussent dans la même direction. Les lignes de pointe de TSMC restent sursouscrites et les concurrents ne peuvent pas simplement reproduire la recette de Nvidia en réservant davantage de la même capacité. Ce goulot d'étranglement pousse les acteurs vers des voies alternatives. Intel promeut ses accélérateurs Gaudi. Cerebras affine son approche d'intégration à l'échelle de la tranche. Groq développe sa propre architecture LPU distincte. Ces stratégies divergentes utilisent souvent différentes fonderies, processus et techniques d'encapsulation. Ensemble, elles augmentent la production totale de l'industrie au lieu de tout canaliser à travers un seul tuyau étroit.
Le bilan : une hypercroissance avec une réelle diversité
En rassemblant tous ces éléments, le tableau fin 2025 devient difficile à ignorer. Le marché des accélérateurs ne se dirige pas vers une consolidation autour d'un unique champion GPU. Il traverse une sorte de changement de phase, passant d'un quasi-monopole centré sur le GPU à un écosystème dynamique bâti sur de nombreuses architectures. Avec un marché adressable total en expansion d'environ 28 à 33 % par an, l'opportunité semble énorme. L'offre reste le principal frein. La demande n'est pas le problème.
Dans cet environnement, les entreprises gagnent en apportant un avantage architectural pointu à un ensemble de problèmes clairement définis. Le marché s'est suffisamment élargi et segmenté pour que des stratégies ciblées puissent chacune se développer en franchises valant des milliards de dollars. Certains acteurs domineront les performances de streaming. D'autres chercheront la densité de calcul maximale ou une intégration logicielle ultra-serrée. L'ère du champion unique du matériel est révolue. L'ère du spécialiste a commencé.
CECI N'EST PAS UN CONSEIL EN INVESTISSEMENT
