
L'action Amazon s'envole alors qu'AWS dévoile un débit réseau record de 600 Gbit/s grâce à sa puce Graviton4
Le Pari d'Amazon sur le Silicium : La Percée de Graviton4 Propulse l'Action alors qu'AWS Redéfinit les Limites du Réseau
SEATTLE — L'action d'Amazon a progressé de 1,4 % pour atteindre 217,87 $ (actuellement retombée à 216,73 $) mercredi, après qu'AWS a dévoilé une mise à jour révolutionnaire de son processeur personnalisé Graviton4, intégrant des capacités de bande passante réseau qui éclipsent les offres cloud existantes et qui pourraient redéfinir le paysage concurrentiel du calcul haute performance.
L'annonce — présentant ce qu'Amazon appelle « la plus grande bande passante réseau dans le cloud public », atteignant un impressionnant 600 gigabits par seconde — représente plus qu'une simple étape technique. Elle signale la poussée accélérée d'Amazon vers l'intégration verticale et une dépendance réduite vis-à-vis des fabricants de puces traditionnels comme Intel et AMD, tout en renforçant sa position face à la domination de Nvidia dans l'infrastructure d'IA.
« 100 CD de musique par seconde » : Briser la barrière de la bande passante
Les ingénieurs d'AWS ont décrit cette avancée en termes évocateurs, comparant la bande passante réseau de 600 Gbit/s à un système capable de traiter 100 CD de musique par seconde — un bond d'un ordre de grandeur au-delà de la capacité de 50 à 100 Gbit/s des instances EC2 précédentes.
« Il ne s'agit pas d'un simple progrès incrémental », a déclaré un analyste de l'infrastructure cloud qui a requis l'anonymat. « En intégrant ce niveau de tissu réseau directement dans la puce du processeur plutôt que de dépendre de cartes d'interface réseau externes, AWS a résolu l'un des goulots d'étranglement les plus persistants dans les charges de travail de calcul distribué. »
La puce améliorée conserve ses fondations de 96 cœurs Arm Neoverse V2, 12 canaux mémoire DDR5-5600 et 192 Mo de cache L2 — des spécifications qui avaient déjà permis des gains de performance impressionnants de 30 à 45 % par rapport à la génération précédente de Graviton3 pour les applications web, les bases de données et les charges de travail Java.
Table : AWS Graviton4 vs. Principaux concurrents CPU Cloud et Serveur — Caractéristiques clés et positionnement
Plateforme/CPU | Nombre de cœurs | Processus | Principaux atouts | Disponibilité Cloud | Position par rapport au Graviton4 |
---|---|---|---|---|---|
AWS Graviton4 | 96 | 4 nm | Haute performance/efficacité, BW mémoire | AWS | Référence ; principal CPU cloud Arm |
Azure Cobalt 100 | 96 | ? | Arm interne, prix/performance | Azure | Performances par cœur légèrement inférieures, excellent rapport qualité-prix |
Azure Ampere Altra | 80 | 7 nm | Grand nombre de cœurs, efficacité | Azure, autres | Bon pour la mise à l'échelle, performances par cœur moindres |
Google Axion | ? | ? | Arm personnalisé, haute perf/efficacité | Google Cloud | Revendique une parité ou de meilleures performances |
Google Tau (x86) | Jusqu'à 60 | 7 nm | Prix/performance, mise à l'échelle | Google Cloud | Souvent un meilleur rapport prix/perf pour x86 |
AmpereOne | Jusqu'à 192 | 5 nm | Haute densité, natif cloud | Oracle, Azure, autres | Plus de cœurs, moins de performances par cœur |
OCI Ampere Altra/A2 | Jusqu'à 156 | 5 nm | Grand nombre de cœurs, prix/performance | Oracle Cloud | Fort pour le web/IA, leader en matière de coûts |
Intel Xeon | 60–144 | 7–10 nm | IA/ML, vaste écosystème | Tous les principaux clouds | Fort en mono-thread, coût plus élevé |
AMD EPYC | 96–192 | 5–3 nm | Grand nombre de cœurs, BW mémoire | Tous les principaux clouds | Égale/dépasse dans certaines charges de travail |
NVIDIA Grace | 72 | 4 nm | HPC, IA, BW mémoire | Sélectionné (futur) | Bande passante plus élevée, latence plus élevée |
Indépendance en matière de silicium : La stratégie d'intégration verticale d'Amazon porte ses fruits
Bien qu'AWS conçoive des puces personnalisées depuis l'acquisition d'Annapurna Labs en 2015, l'amélioration du réseau Graviton4 représente peut-être la validation la plus claire à ce jour de la stratégie d'indépendance en matière de silicium de l'entreprise.
Les observateurs du marché soulignent plusieurs avantages stratégiques. « AWS contrôle désormais une plus grande partie de sa pile, du silicium aux services », a expliqué un stratégiste en investissement technologique. « Cela réduit leur exposition aux contraintes de la chaîne d'approvisionnement et aux coûts de licence, tout en augmentant potentiellement les marges brutes de 5 à 10 % par rapport aux puces tierces. »
Le timing est particulièrement significatif, car les dépenses mondiales des utilisateurs finaux en services de cloud public devraient atteindre 723 milliards de dollars en 2025 — une augmentation de 21,4 % d'une année sur l'autre — avec la croissance la plus rapide se produisant dans les services d'infrastructure et de plateforme qui bénéficient le plus du matériel spécialisé à large bande passante.
Table : Spécifications et caractéristiques clés du processeur cloud AWS Graviton4
Caractéristique | Détails du Graviton4 |
---|---|
Date de lancement | 28 novembre 2023 |
Technologie de gravure | 4 nm (TSMC) |
Architecture | Arm Neoverse V2 (ISA ARMv9.0-A) |
Nombre de cœurs | 96 cœurs |
Fréquence de base | 2,8 GHz |
Conception de chiplets | SoC à 7 chiplets (boîtier multi-puces) |
Prise en charge SMP | Jusqu'à 2 voies (double socket, 192 vCPU par serveur) |
Prise en charge de la mémoire | 12 canaux DDR5-5600 ECC |
Bande passante mémoire maximale | 537,6 Go/s |
Nombre maximal de lignes PCIe | 96 lignes PCIe 5.0 |
Cache L1 | 12 Mio au total (6 Mio de données, 6 Mio d'instructions) |
Cache L2 | 192 Mio au total |
Mémoire prise en charge par instance | Jusqu'à 3 Tio (dans les instances EC2 X8g) |
Stockage local pris en charge | Jusqu'à 11,4 To SSD NVMe (dans les nouveaux types d'instances) |
Fabricant | TSMC |
Concepteur | Annapurna Labs (Amazon) |
Améliorations des performances | +30 % calcul, +50 % cœurs, +75 % BW mémoire vs. Graviton3 |
Charges de travail cibles | Bases de données, analyses, HPC, serveurs web/d'applications, microservices |
Instances EC2 prises en charge | X8g, R8g, C8gd, M8gd (jusqu'à 192 vCPU, 1,5 Tio de RAM, 11,4 To de SSD) |
Écosystème | Pris en charge par les principaux services gérés et clients d'AWS |
David contre plusieurs Goliaths : Redéfinir le paysage concurrentiel
L'accomplissement d'AWS le place dans une position unique par rapport aux fabricants de puces traditionnels et aux concurrents du cloud. Aucun autre fournisseur de cloud public n'offre de tissu réseau intégré au processeur approchant les 600 Gbit/s, les instances basées sur Intel et AMD atteignant généralement un maximum d'environ 100 Gbit/s via des cartes NIC externes.
Les alternatives natives du cloud comme Ampere Altra, utilisées dans les instances T2A de Google, atteignent en pratique environ 32 à 78 Gbit/s. Bien que les concurrents hyperscale, notamment Google, Microsoft et Huawei, développent leurs propres puces personnalisées, aucun n'a publiquement démontré une intégration réseau comparable.
Néanmoins, AWS reste confronté à une concurrence formidable dans le segment des très hautes performances. Les clusters de GPU utilisant la technologie NVLink de Nvidia — offrant jusqu'à 900 Go/s de bande passante inter-GPU — restent la référence en matière de débit brut pour l'entraînement d'IA. Cette dichotomie souligne le positionnement stratégique d'AWS : offrir des alternatives compétitives pour la grande majorité des charges de travail tout en développant des options spécialisées pour l'IA avec ses puces Trainium et Inferentia.
Au-delà des chiffres bruts : L'impact économique et le moteur de marge d'AWS
AWS est devenu le moteur de profit d'Amazon, déclarant un chiffre d'affaires de 29,3 milliards de dollars pour le T1 2025 (croissance de 19 % d'une année sur l'autre) avec une marge d'exploitation de 39,5 % — en hausse par rapport aux 37,6 % de l'année précédente. Le silicium personnalisé joue un rôle de plus en plus central dans cette histoire d'expansion des marges.
« Le véritable impact financier ne se limite pas à la performance par dollar pour les clients », a observé un analyste financier couvrant l'infrastructure cloud. « Il s'agit pour AWS de se sevrer progressivement de la ponction sur les marges des composants tiers. »
Ce changement s'accompagne de coûts initiaux substantiels. Amazon a déclaré 24,3 milliards de dollars de dépenses d'investissement pour le seul T1, dont une grande partie a été dirigée vers l'infrastructure des centres de données. Ces investissements suppriment temporairement les flux de trésorerie disponibles, mais créent une capacité à marge élevée qui pourrait entraîner des améliorations durables de la rentabilité au cours des 2 à 3 prochaines années.
La courbe d'adoption : Promesse contre demande immédiate
Malgré l'exploit technique, des questions subsistent quant à l'adoption immédiate par les clients. La capacité de 600 Gbit/s s'adresse principalement aux charges de travail spécialisées de calcul haute performance et d'entraînement d'IA plutôt qu'aux applications courantes.
« Le défi pour AWS est la préparation de l'écosystème », a déclaré un consultant en infrastructure cloud. « Tirer pleinement parti de cette bande passante nécessite des intergiciels optimisés, des groupes de placement de clusters spécialisés et des applications conçues pour un débit extrême. »
La concurrence se profile également à l'horizon. Des sources industrielles suggèrent qu'Intel, AMD et d'autres hyperscalers accélèrent le développement de tissus réseau sur puce similaires, réduisant potentiellement l'avance d'AWS dans les 12 à 18 mois.
Perspectives d'investissement : Équilibrer le leadership technique et les réalités du marché
Pour les investisseurs évaluant les perspectives d'Amazon, l'amélioration du réseau Graviton4 offre une image nuancée. Le scénario optimiste repose sur l'avantage concurrentiel durable d'AWS et les opportunités d'expansion des marges grâce à une intégration de plus en plus verticale.
Selon ce scénario, le silicium personnalisé augmente régulièrement les marges tout en étendant la portée d'AWS dans les segments de l'informatique en nuage à la croissance la plus rapide — justifiant des multiples de valorisation élevés. Le scénario de base suggère un impact plus modeste, avec des changements de prix et de mix de charges de travail favorisant modestement AWS, mais une croissance globale revenant à la fourchette de 15-20 %.
Les pessimistes soulignent l'intensité capitalistique nécessaire pour maintenir le leadership en matière de silicium et le risque que les concurrents puissent rapidement combler l'écart, pesant potentiellement sur la conversion des flux de trésorerie disponibles.
La voie du silicium à venir : Ce que les investisseurs doivent surveiller
Les investisseurs qui surveillent cet espace devraient se concentrer sur plusieurs indicateurs clés au cours des prochains trimestres. Premièrement, les métriques d'adoption des instances à large bande passante révéleront si l'avance technique d'AWS se traduit par des gains de parts de marché. Deuxièmement, la progression des marges montrera si la stratégie de silicium personnalisé, gourmande en capitaux, tient sa promesse financière.
Enfin, les réponses concurrentielles des fabricants de puces traditionnels et des rivaux du cloud détermineront la