La défense publique de Nvidia révèle les fissures du monopole de l'IA à mille milliards de dollars
La décision inhabituelle de Nvidia de publier une déclaration défensive sur X abordant la menace concurrentielle de Google marque un tournant décisif dans l'infrastructure de l'intelligence artificielle : l'ère de la domination incontestée des GPU touche à sa fin, et l'entreprise le sait.
La publication est intervenue après des rapports selon lesquels Meta négocierait des dépenses de plusieurs milliards de dollars pour des unités de traitement tensoriel (TPU) de Google, détournant potentiellement environ 10 % des revenus annuels de Nvidia. L'action de Nvidia a chuté de 3 % avant que l'entreprise n'affirme qu'elle restait « une génération en avance sur l'industrie » avec des produits offrant « des performances, une polyvalence et une fongibilité supérieures à celles des ASIC ».
Mais un examen technique de ces affirmations révèle quelque chose de plus nuancé que le simple fait de rassurer les investisseurs : il révèle les limites précises où le fossé concurrentiel de Nvidia reste solide, et où il s'est déjà érodé.
La réalité technique derrière le marketing
Les spécifications publiques racontent une histoire différente de celle suggérée par la publication de Nvidia sur X. Le TPU v7 « Ironwood » de Google offre environ 4,6 pétaFLOPS de performances FP8 avec 192 Go de mémoire HBM3e et une bande passante de 7,4 To/s. Le Blackwell B200 de Nvidia offre des spécifications quasiment identiques : 4,5 pétaFLOPS FP8, 192 Go de HBM3e et 7,7 To/s de bande passante.
Ce sont des pairs, pas des différences générationnelles.
Nvidia détient de véritables avantages techniques dans l'inférence à ultra-faible précision – son support FP4 permet des gains de débit massifs que les puces de Google n'égalent pas encore. L'entreprise domine également les benchmarks publics MLPerf, avec les racks GB200 NVL72 établissant de nouveaux records pour l'inférence de LLM. Cela reflète à la fois la capacité matérielle et l'optimisation logicielle extraordinaire de CUDA.
Mais Google répond avec des avantages architecturaux qui sont importants à l'échelle des hyperscalers. Les pods TPU peuvent assembler 9 216 puces en un seul tissu d'entraînement étroitement couplé, tandis que Nvidia nécessite de relier plusieurs domaines NVLink avec des connexions InfiniBand plus lentes au-delà de 72 GPU. Plusieurs analyses indépendantes confirment que les TPU offrent fréquemment des performances par watt et un coût par jeton supérieurs pour les charges de travail de production importantes et continues – précisément les charges de travail qui constituent la grande majorité des dépenses d'IA des hyperscalers.
L'affirmation selon laquelle Nvidia offre la « seule plateforme capable d'exécuter tous les modèles d'IA » est manifestement fausse. Claude d'Anthropic fonctionne sur des TPU. Les principaux modèles de vision, systèmes de recommandation et LLM fonctionnent sur des AMD Instinct, AWS Trainium et divers ASIC personnalisés. Ce que Nvidia peut légitimement revendiquer, c'est la pile logicielle unifiée la plus large couvrant les clouds, les centres de données sur site et les stations de travail – un avantage réel mais plus restreint que ce que la publication sur X implique.
Le point d'inflexion du pouvoir de négociation
L'histoire plus profonde réside dans ce que la position défensive de Nvidia signale concernant la structure du marché. Des dépôts récents montrent que les deux principaux clients de Nvidia représentent 39 % du chiffre d'affaires total, les six premiers en représentant environ 85 %. Le chiffre d'affaires du segment des centres de données a atteint 51,2 milliards de dollars le trimestre dernier avec des marges brutes de 73 %, ce qui signifie que l'intégralité de la thèse de valorisation de l'entreprise dépend d'une poignée d'hyperscalers continuant à payer des prix premium.
Ces hyperscalers sont désormais eux-mêmes des concepteurs de puces crédibles. Google, Amazon, Meta et Microsoft ont collectivement investi des milliards de dollars dans des puces personnalisées précisément pour échapper à ce qu'une analyse a estimé être une « taxe Nvidia » – des coûts de fabrication de 3 000 à 5 000 dollars par GPU vendu entre 20 000 et 35 000 dollars en volume.
Thèse d'investissement : profits monopolistiques contre volumes monopolistiques
Pour les investisseurs, ce point d'inflexion est plus important que n'importe quelle performance trimestrielle. Nvidia continuera presque certainement d'augmenter son chiffre d'affaires absolu, la demande mondiale en capacité de calcul d'IA devant être multipliée par 10 d'ici 2027. Le marché adressable total (TAM) reste extraordinaire.
Mais la dynamique régissant le pouvoir de fixation des prix et la durabilité des marges a fondamentalement changé. Lorsque les clients ont des alternatives crédibles – et lorsque ces clients représentent 85 % de votre chiffre d'affaires – la négociation change. Nvidia pourrait capter des volumes monopolistiques sans capter des profits monopolistiques.
La valorisation actuelle de l'entreprise intègre des hypothèses de marges brutes soutenues de plus de 70 % et un pouvoir de fixation des prix quasi monopolistique. Si la diversification des hyperscalers pousse les marges vers la fourchette de 60 % et force des prix plus compétitifs, le multiple de valorisation de Nvidia devrait se resserrer vers une valorisation de « plateforme de semi-conducteurs de haute qualité » plutôt que celle d'un monopole d'infrastructure intouchable.
La publication sur X elle-même confirme cette analyse. Les entreprises ayant des positions concurrentielles inattaquables ne publient pas de réfutations publiques face aux progrès de leurs concurrents. Le fait que Nvidia se soit sentie obligée de défendre son leadership technique – en utilisant des affirmations allant de l'exagéré au manifestement faux – en dit long aux investisseurs sur le paysage des menaces émergentes.
Les guerres de l'infrastructure de l'IA ont véritablement commencé.
CECI N'EST PAS UN CONSEIL EN INVESTISSEMENT
