
AMD lance de nouvelles puces IA avec plus de mémoire que Nvidia pour alimenter les systèmes d'IA de nouvelle génération
AMD brise le plafond mémoire de Nvidia dans la bataille acharnée des puces IA
Lors de l'affrontement dans la Silicon Valley, le pari mémoire de 288 Go d'AMD redéfinit le paysage du matériel IA
Dans un défi direct à la domination de longue date de Nvidia dans le calcul d'intelligence artificielle, AMD a dévoilé sa gamme de matériel IA la plus ambitieuse à ce jour, menée par des puces qui surpassent le leader de l'industrie sur une spécification cruciale : la capacité mémoire. Lors de son événement "Advancing AI 2025" à San Jose cette semaine, AMD a présenté la série Instinct MI350 dotée d'une capacité sans précédent de 288 Go de mémoire à haute bande passante (HBM)—soit 50 % de plus que les puces Blackwell phares de Nvidia—ce qui pourrait remodeler la dynamique concurrentielle sur le marché des accélérateurs IA, évalué à 150 milliards de dollars.
"Lorsque vous avez commencé à partager les spécifications, j'ai trouvé cela incroyable ; cela semblait totalement fou. Ce sera une avancée extraordinaire", a déclaré Sam Altman, PDG d'OpenAI, lors de l'événement, soulignant l'importance de la prouesse technique d'AMD.
Fiche technique des nouveaux produits IA d'AMD
Nom du produit/Série | Spécifications et fonctionnalités clés | Points forts des performances | Disponibilité / Lancement |
---|---|---|---|
Instinct MI350 Series (MI350X & MI355X) | - Architecture : CDNA 4, nœud TSMC N3P - Mémoire : Jusqu'à 288 Go HBM3E - Bande passante : 8 To/s - Refroidissement : Par air (jusqu'à 64 GPU/rack) et par liquide (jusqu'à 128 GPU/rack) | - Jusqu'à 4x la puissance de calcul IA et 35x les performances d'inférence par rapport à la génération précédente - Jusqu'à 2,6 exaFLOPS (FP4) en configuration rack - 40 % de tokens en plus par dollar que le Blackwell B200 de Nvidia (en inférence FP4) | T3 2025 (expédition) |
MI400/450 Series (Aperçu) | - Mémoire : Jusqu'à 432 Go HBM4 - Plateforme : Servira de base à la plateforme à l'échelle du rack "Helios" - Concurrence : Rivalisera avec les plateformes Rubin/Vera Rubin de Nvidia | - Devrait offrir jusqu'à 10x les performances d'inférence sur les modèles Mixture of Experts (MoE) par rapport à la série MI350 | 2026 |
Rack IA Helios | - Composants : Intègre jusqu'à 72 GPU, des CPU Zen 6 EPYC et une nouvelle puce réseau Vulcano - Conception : Refroidi par liquide, moteur de calcul unifié à l'échelle du rack pour l'IA à très grande échelle | - Les performances sont basées sur ses composants intégrés (série MI400/450) | 2026 |
Pile logicielle ROCm 7.0 | - Vise à créer un écosystème IA ouvert pour concurrencer CUDA - Comprend un shim (couche de compatibilité) CUDA-thunk pour recompiler 72 % des projets CUDA open-source "prêts à l'emploi" | - Offre plus de 4x d'améliorations de performance en inférence et 3x en entraînement par rapport à ROCm 6.0 | Disponible dès maintenant |
Cloud pour développeurs | - Un nouveau service cloud offrant aux développeurs un accès instantané aux derniers GPU d'AMD - Reflète le service DGX Cloud Lepton de Nvidia | - (S/O - une plateforme d'accès) | Disponible dès maintenant |
La percée mémoire cible le goulot d'étranglement de l'IA
La série Instinct MI350, basée sur la nouvelle architecture CDNA 4 d'AMD et le processus de fabrication avancé N3P de TSMC, représente le premier produit d'AMD dont la capacité surpasse clairement Nvidia sur une spécification phare. Avec 288 Go de mémoire HBM3E et une bande passante de 8 To/s par puce, le MI350 répond à ce qui est devenu la contrainte principale dans l'exécution des modèles de langage volumineux modernes : la capacité mémoire.
Pour les applications IA, en particulier les charges de travail d'inférence impliquant des modèles avec des milliards de paramètres, cet avantage mémoire se traduit par des gains de performance tangibles. Les premiers benchmarks suggèrent que le MI350 peut fournir environ 40 % de tokens en plus par dollar que le Blackwell B200 de Nvidia en précision FP4, principalement grâce à son efficacité mémoire plutôt qu'à sa puissance de calcul brute.
"C'est le moment où la stratégie IA d'AMD se concrétise enfin", a déclaré un analyste senior de l'industrie qui a requis l'anonymat. "La capacité mémoire du MI350 n'est pas seulement une victoire sur fiche technique, elle change fondamentalement ce qui est possible pour l'inférence des LLM à grande échelle."
Les puces seront disponibles en configurations refroidies par air supportant jusqu'à 64 GPU par rack et en variantes refroidies par liquide permettant jusqu'à 128 GPU par rack, avec un potentiel de performance allant jusqu'à 2,6 exaFLOPS en FP4. AMD a confirmé que la série MI350 sera expédiée au T3 2025, environ neuf mois après le début de l'expédition de l'architecture Blackwell par Nvidia.
Au-delà de la puce : l'assaut complet d'AMD
Bien que le MI350 représente l'offensive à court terme d'AMD, la stratégie à plus long terme de l'entreprise semble encore plus ambitieuse. AMD a donné un aperçu de ses puces de la série MI400/450, prévues pour une sortie en 2026, qui présenteront jusqu'à 432 Go de mémoire HBM4 de nouvelle génération et serviront de base à la plateforme IA "Helios" à l'échelle du rack de l'entreprise, conçue pour les déploiements à très grande échelle.
Le rack IA Helios — un système refroidi par liquide intégrant jusqu'à 72 GPU aux côtés de CPU Zen 6 EPYC et de la nouvelle puce réseau Vulcano d'AMD — signale l'intention d'AMD de concurrencer Nvidia au niveau du système complet plutôt qu'une simple comparaison puce par puce. Cette approche à l'échelle du rack reflète la stratégie Vera Rubin de Nvidia et cible les centres de données hyperscale qui représentent le segment le plus vaste et le plus lucratif du marché du matériel IA.
AMD a également considérablement amélioré son écosystème logiciel, en lançant ROCm 7.0, qui offre plus de 4x d'améliorations de performance en inférence et 3x en entraînement par rapport à son prédécesseur. L'entreprise a dévoilé un nouveau service cloud pour développeurs offrant un accès instantané à ses derniers GPU pour les développeurs d'IA, similaire à l'offre DGX Cloud Lepton de Nvidia.
Les partenariats stratégiques valident l'offensive d'AMD dans l'IA
Les principaux fournisseurs de cloud et entreprises d'IA ont déjà signifié leur soutien au nouveau matériel d'AMD. Oracle Cloud Infrastructure s'est engagé à déployer des clusters de plus de 131 000 puces MI355X, ce qui représente la plus grande commande annoncée publiquement à ce jour. Meta met en œuvre le MI350 pour l'inférence des modèles Llama, tandis que Microsoft et OpenAI ont approfondi leurs collaborations avec AMD.
Ces partenariats sont complétés par la stratégie d'acquisition agressive d'AMD, l'entreprise ayant acquis ou investi dans 25 startups liées à l'IA au cours de la dernière année. Parmi les acquisitions notables figurent le constructeur de serveurs ZT Systems, l'équipe de puces Untether AI, et des talents de la startup IA Lamini — toutes visant à renforcer les capacités d'IA de bout en bout d'AMD.
La réponse mesurée de Wall Street
Malgré les réalisations techniques, la réaction de Wall Street a été prudente. L'action d'AMD a chuté de 2 % suite aux annonces, tandis que les actions de Nvidia ont baissé de 1,5 %, reflétant le scepticisme des investisseurs concernant l'exécution plutôt que la feuille de route technologique elle-même.
AMD se négocie actuellement à environ 9 fois son EBITDA projeté pour 2026 — une décote de 30 % par rapport au multiple de 13x de Nvidia. Cet écart de valorisation souligne les préoccupations persistantes du marché quant à la capacité d'AMD à surmonter les contraintes d'approvisionnement et les désavantages de son écosystème logiciel.
"Les spécifications sont impressionnantes, mais le logiciel reste le point faible d'AMD", note un analyste des semi-conducteurs d'une grande banque d'investissement. "Tant que ROCm ne sera pas livré avec un runtime d'inférence plug-compatible, les clients 'clés en main' continueront à privilégier Nvidia."
Les contraintes de la chaîne d'approvisionnement pourraient limiter l'impact
Le succès de la stratégie IA d'AMD dépend autant de la capacité de fabrication que de la prouesse technique. La capacité de production N3P de TSMC est sous tension, Apple, AMD et Qualcomm étant tous en concurrence pour l'allocation. Des sources industrielles estiment qu'AMD pourrait expédier environ 80 000 packages MI350 au second semestre 2025 — ne représentant qu'environ 11 % des récentes expéditions trimestrielles de wafers Blackwell de Nvidia.
L'approvisionnement en mémoire HBM3E de SK Hynix et Samsung représente un autre goulot d'étranglement potentiel, limitant potentiellement la capacité d'AMD à capitaliser sur ses avantages techniques à court terme. De plus, contrairement aux variantes Blackwell de Nvidia, le MI355X n'a actuellement pas de version légale pour la Chine, cédant ainsi environ 18 % du marché à Nvidia.
Perspectives d'investissement : Option stratégique avec des rendements asymétriques
Pour les investisseurs, l'offensive IA d'AMD représente ce que les analystes décrivent comme une "option stratégique" avec des rendements potentiellement asymétriques. Même des gains de part de marché modestes pourraient avoir un impact significatif sur les performances financières d'AMD, les modèles suggérant un chiffre d'affaires GPU supplémentaire de 5 milliards de dollars pour l'exercice fiscal 2026 si les contraintes d'approvisionnement peuvent être surmontées.
"Le profil risque-rendement est attrayant aux valorisations actuelles", suggère un gestionnaire de portefeuille spécialisé dans les investissements en semi-conducteurs. "Si les volumes de MI350 parviennent à surmonter les contraintes d'approvisionnement et que Helios est livré à temps, AMD pourrait voir sa décote de valorisation par rapport à Nvidia se réduire de moitié au cours des 18 prochains mois."
Les principaux catalyseurs à surveiller incluent l'appel aux résultats du T3 2025 d'AMD, qui fournira les premiers chiffres de revenus concluants pour le MI350 ; la sortie du logiciel ROCm 7.1 prévue en novembre 2025 ; les premiers déploiements de racks pilotes Helios dans les centres de données d'Oracle et Meta ; et les contrats d'approvisionnement en HBM4 début 2026.
Bien que des risques d'exécution importants demeurent, les dernières annonces d'AMD établissent pour la première fois l'entreprise comme un challenger crédible dans l'accélération de l'IA. Pour une industrie habituée au leadership incontesté de Nvidia, l'émergence d'une concurrence viable pourrait remodeler la dynamique des prix et les cycles d'innovation au sein de l'écosystème du matériel IA.
Avertissement : Cette analyse reflète des informations accessibles au public et ne doit pas être considérée comme un conseil en investissement. Les performances passées ne préjugent pas des résultats futurs. Les investisseurs doivent consulter des conseillers financiers pour des conseils personnalisés.