Le dénouement à 3 billions de dollars : Comment AWS Re:Invent 2025 a révélé la bataille pour l'avenir de l'IA

Par
Anup S
4 min de lecture

La phase finale à 3 000 milliards de dollars : comment AWS re:Invent 2025 a révélé la bataille pour l'avenir de l'IA

La souveraineté du silicium remplace la domination du cloud

Le 2 décembre, la salve d'annonces d'Amazon Web Services—des UltraServers Trainium3 à 144 puces, trois « agents frontières » autonomes et des usines d'IA sur site pour les nations souveraines—marque la fin du manuel trentenaire de l'informatique en nuage. Le message de re:Invent 2025 est sans équivoque : celui qui contrôle les atomes physiques de l'infrastructure d'IA gagnera la prochaine décennie, et non celui qui écrit le logiciel le plus intelligent.

AWS affirme que Trainium3, sa première puce en 3 nm, offre une puissance de calcul 4,4 fois supérieure et une efficacité énergétique 4 fois meilleure que son prédécesseur, tout en réduisant les coûts de formation jusqu'à 50 % par rapport aux « systèmes GPU équivalents ». Plus révélateur encore, Amazon Bedrock exécute déjà des charges de travail de production sur la puce, avec Anthropic et d'autres partenaires engagés. Il ne s'agit pas de vaporware – c'est AWS qui récupère sa marge brute auprès de NVIDIA à grande échelle.

Mais l'histoire va au-delà du lancement d'une seule puce. Tous les principaux hyperscalers ont fait des mouvements identiques en 2025 : Google a livré le TPU v6, Microsoft a déployé Maia 2, Oracle a adopté Ampere et Trainium. Le schéma est clair : le silicium personnalisé, les plateformes d'IA agiles et les centres de données souverains sont devenus des incontournables. AWS ne mène pas ; il rattrape désespérément son retard après avoir cédé le leadership narratif de l'IA au partenariat OpenAI de Microsoft et à Gemini de Google.

Le paradoxe NVIDIA : plus de revenus, moins de contrôle

AWS a simultanément annoncé des UltraServers P6e-GB300 dotés de l'architecture GB300 NVL72 la plus avancée de NVIDIA, et a révélé que Trainium4 intégrerait le tissu d'interconnexion NVLink Fusion de NVIDIA. Cette contradiction contient l'avenir : NVIDIA n'est pas remplacé, il est absorbé dans la pile technologique de chacun comme une infrastructure essentielle, à l'instar d'Intel à l'ère du PC, tout en perdant sa domination de type « winner-take-all ».

Pour NVIDIA, le volume à court terme explose. Les usines d'IA d'AWS, y compris le projet HUMAIN en Arabie saoudite qui déploie 150 000 puces, représentent des milliards de dollars de dépenses engagées. Mais le pouvoir de fixation des prix à long terme s'érode à mesure que les hyperscalers acheminent 30 à 50 % des charges de travail vers des puces maison, réservant le matériel NVIDIA haut de gamme uniquement pour la formation de modèles de pointe et les problèmes d'inférence les plus complexes.

La licence NVLink Fusion accordée à Trainium4 est particulièrement douloureuse – NVIDIA gagne de nouveaux revenus de propriété intellectuelle mais abandonne son unicité architecturale. Lorsque AWS, Intel et Qualcomm utilisent tous des tissus compatibles NVLink, le « fossé » concurrentiel de NVIDIA passe de « nous possédons toute la pile » à « nous avons le meilleur écosystème » – une position plus étroite et plus contestable.

Récupération des marges vs. Compression des multiples

AWS a généré un chiffre d'affaires de 33 milliards de dollars au T3 2025, en hausse de 20 % d'une année sur l'autre, tout en contribuant à plus de 65 % du bénéfice d'exploitation d'Amazon. Oppenheimer estime qu'AWS a ajouté 3,8 gigawatts de capacité en douze mois, chaque gigawatt pouvant potentiellement soutenir 3 milliards de dollars de revenus – ce qui implique une capacité de revenus d'AWS de 175 milliards de dollars d'ici fin 2026, contre un consensus de 154 milliards de dollars de la part du marché.

Trainium3 transforme cette dynamique de croissance. S'il offre réellement des coûts 50 % inférieurs sur des charges de travail importantes, AWS peut soit défendre ses marges tout en réduisant les prix pour les clients, soit utiliser ces coûts réduits comme arme pour gagner des parts de marché face à Azure et Google Cloud. Les usines d'IA monétisent la même pile technologique dans des contextes souverains où le cloud public reste politiquement impossible, créant des contrats d'infrastructure de type rente d'une valeur de plusieurs milliards de dollars.

Amazon se négocie à 33 fois les bénéfices passés, contre 45 fois pour NVIDIA et 37 fois pour Microsoft – la valorisation à la traîne des « Sept Magnifiques » malgré la réaccélération d'AWS. Le marché a intégré un « AWS fait de l'IA » générique, mais pas la récupération des marges grâce au silicium personnalisé à grande échelle ni la ligne de revenus de l'infrastructure souveraine.

Pour NVIDIA, le volume reste robuste jusqu'en 2027, mais les investisseurs devraient s'interroger sur les multiples élevés de 2023-2024. Lorsque chaque hyperscaler mettra en œuvre des accélérateurs alternatifs crédibles, les prix par GPU atteindront leur maximum et l'expansion des marges brutes stagnera. Les dépenses en infrastructure d'IA pourraient atteindre 3 000 milliards de dollars d'ici 2030, mais la part de NVIDIA se comprimera de 80 % à peut-être 45-50 % – ce qui reste énorme, mais nécessite une discipline en matière de valorisation.

La dure vérité : re:Invent 2025 n'était pas un lancement de produit. Ce fut l'enterrement de l'ancienne économie du cloud computing et le couronnement de l'infrastructure d'IA intégrée verticalement – où le contrôle physique des puces, de l'énergie et des terrains détermine qui survivra les cinq prochaines années. Tous les autres deviendront des dommages collatéraux.

Ceci ne constitue pas un conseil en investissement.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales