
AMD Conclut un Accord Majeur avec OpenAI, Ciblant Directement le Leadership de Nvidia en IA
AMD signe un accord majeur avec OpenAI, ciblant directement la suprématie de Nvidia dans l'IA
Un engagement de six gigawatts, un bon de souscription pour 160 millions d'actions et des milliards en jeu redessinent le jeu de pouvoir de la Silicon Valley.
SANTA CLARA, Californie — AMD vient de conclure le genre d'accord dont la plupart des fabricants de puces ne peuvent que rêver. Lundi, la société a révélé un partenariat pluriannuel avec OpenAI visant à déployer six gigawatts de puissance de calcul GPU, propulsant ainsi ce challenger de longue date sous les feux de la rampe en tant que véritable rival de la domination de Nvidia dans le matériel d'intelligence artificielle.
Ce n'est pas un petit pari. L'accord débutera en 2026 avec un gigawatt des futurs processeurs MI450 d'AMD, puis augmentera progressivement. Parallèlement au matériel, AMD a accordé à OpenAI le droit d'acheter jusqu'à 160 millions d'actions – soit environ 10 % de la société – pour seulement un centime chacune. Ces bons de souscription seront acquis par étapes à mesure qu'AMD atteindra des objectifs de déploiement et des cibles de cours boursier, certains s'étendant, selon les rapports, jusqu'à 600 $ par action.
Les investisseurs ont accueilli la nouvelle avec enthousiasme. L'action AMD a bondi de plus de 20 % lors des échanges pré-boursiers avant de se stabiliser à 164,67 $ à l'ouverture, signe d'excitation mais aussi de la conscience des défis d'exécution à venir. Les dirigeants de l'entreprise estiment que l'accord pourrait se traduire par « des dizaines de milliards de dollars » de revenus au cours des prochaines années.
Pourquoi des gigawatts, et non des puces ?
Un détail a immédiatement frappé : le contrat est mesuré en gigawatts, et non en processeurs. Ce changement souligne une nouvelle réalité dans l'IA. Le goulot d'étranglement n'est pas seulement le nombre de GPU que l'on peut fabriquer, c'est aussi la capacité à trouver suffisamment d'énergie, de refroidissement et d'espace de centre de données pour les maintenir en fonctionnement.
Pour mettre cela en perspective, la construction d'un centre de données prêt pour l'IA d'une capacité d'un gigawatt peut coûter entre 9 et 15 milliards de dollars en infrastructures avant même l'installation d'une seule puce. Ajoutez les GPU, la mémoire à haute bande passante (HBM), les équipements réseau et les systèmes de rack, et le coût peut grimper jusqu'à 50 milliards de dollars par gigawatt.
Avec un ratio d'efficacité de l'utilisation de l'énergie d'environ 1,2, six gigawatts se traduisent par environ cinq gigawatts de charge informatique utilisable. Étant donné que les accélérateurs d'IA modernes consomment environ un kilowatt chacun pendant l'entraînement, l'accord d'AMD pourrait éventuellement impliquer plusieurs millions de GPU répartis sur différentes générations.
La stratégie bi-fournisseurs d'OpenAI
Cet accord n'existe pas dans le vide. Il y a tout juste quatre mois, OpenAI a signé une lettre d'intention distincte avec Nvidia pour un déploiement de 10 gigawatts, soutenu par un financement pouvant atteindre 100 milliards de dollars. En associant cela aux six gigawatts d'AMD, OpenAI dispose de 16 gigawatts d'engagements de capacité – et de deux fournisseurs très différents.
Les analystes voient cette stratégie comme une couverture. En se divisant entre l'architecture Rubin de Nvidia et la plateforme MI450 d'AMD, OpenAI évite d'être dépendant d'un seul fournisseur tout en poussant les deux entreprises à affiner leurs prix et leurs délais.
La structure des bons de souscription est également non conventionnelle. La capacité d'OpenAI à acheter près de 10 % d'AMD à des prix planchers lie directement le succès de la construction de son infrastructure au cours de l'action d'AMD, créant un incitatif partagé pour que les deux parties tiennent leurs promesses.
L'obstacle logiciel
Le matériel fait les gros titres, mais le logiciel est peut-être l'histoire la plus importante ici. La plateforme CUDA de Nvidia est la colonne vertébrale de l'IA depuis plus de 15 ans. Elle est profondément intégrée dans les outils de développement, les frameworks et les flux de travail d'entraînement.
La pile logicielle ROCm d'AMD s'est considérablement améliorée, en particulier pour les charges de travail d'inférence, mais elle reste en retard dans certains domaines clés. Pour OpenAI, cela signifie supporter le coût élevé de la maintenance de deux écosystèmes logiciels différents. Ils devront porter des noyaux, optimiser pour différentes interconnexions et s'assurer que des modèles massifs comme les « mixtures-of-experts » fonctionnent sans accroc sur les deux plateformes.
Les observateurs du secteur estiment que cela pourrait nécessiter des centaines d'ingénieurs travaillant à temps plein. Une telle envergure d'effort est possible pour OpenAI, mais hors de portée de la plupart des entreprises. En fait, ce partenariat s'apparente à un accord de co-développement, OpenAI guidant la feuille de route logicielle d'AMD en échange de meilleurs avantages économiques et d'assurances d'approvisionnement.
La pénurie de mémoire
Même si les puces et les logiciels s'alignent, la mémoire pourrait gâcher la fête. Chaque GPU haut de gamme dépend de piles de mémoire à haute bande passante (HBM3 ou HBM3E), et la production est limitée à trois fournisseurs : SK hynix, Samsung et Micron.
Ensuite, il y a l'emballage. Les processus d'assemblage avancés, comme la technologie CoWoS de TSMC, sont déjà mis à rude épreuve, et tout accroc dans les rendements pourrait retarder le déploiement d'AMD. Autrement dit, sans suffisamment de mémoire HBM et de capacités d'emballage, ces six gigawatts pourraient être livrés bien au-delà de 2026.
Les investisseurs regardent au-delà d'AMD
Pour Wall Street, le partenariat avec OpenAI clarifie l'avenir d'AMD mais ajoute également de nouveaux risques. Le bon de souscription de 160 millions d'actions pourrait diluer les actionnaires existants d'environ 10 %, bien que l'acquisition basée sur des jalons offre une certaine protection.
Les investisseurs avertis pourraient voir des opportunités plus fiables ailleurs. Les fournisseurs de HBM sont en position de bénéficier, quel que soit le fournisseur de GPU qui domine, car chaque puce nécessite désormais plus de mémoire. Les entreprises d'infrastructure de centres de données – en particulier celles offrant un refroidissement liquide avancé et des raccordements électriques rapides – pourraient également en tirer profit alors que les hyperscalers se précipitent pour trouver des sites.
Quant à Nvidia, elle conserve l'avantage. Son accord de 10 gigawatts avec OpenAI est plus important, et son intégration au niveau du système – NVLink pour l'extension verticale (scale-up) et Spectrum-X pour l'extension horizontale (scale-out) des réseaux – reste inégalée. AMD a prouvé sa légitimité, mais n'a pas détrôné le roi.
Quelle est la prochaine étape ?
Le véritable test arrivera fin 2026, lorsque le premier déploiement d'un gigawatt d'AMD sera mis en service. D'ici là, nous verrons les spécifications complètes du MI450 – configurations des puces, capacité mémoire, vitesses d'interconnexion et conceptions des racks – confrontées directement à la génération Rubin de Nvidia. Tout retard dans la préparation des puces, l'approvisionnement en mémoire ou la capacité d'emballage pourrait gravement nuire à la crédibilité d'AMD.
Il sera également essentiel de savoir si ROCm peut gérer des charges de travail de production à grande échelle. Si AMD démontre une inférence fluide pour les modèles volumineux à contexte long, elle aura franchi un obstacle majeur. Les bancs d'essai tiers et les résultats clients réels en seront la preuve.
Et n'oublions pas l'emplacement. Le choix d'OpenAI quant à l'emplacement de son premier gigawatt de matériel AMD montrera comment elle gère les permis, les négociations avec les services publics et le lent processus de raccordement aux réseaux électriques. Dans le monde d'aujourd'hui, contraint par l'énergie, ces détails peuvent retarder les projets autant que les pénuries de puces.
Thèse d'investissement interne
Catégorie | Résumé |
---|---|
Vue d'ensemble de l'accord | OpenAI déploiera 6 GW de GPU AMD Instinct. Le premier 1 GW en 2S'26 sur des systèmes de classe MI450. Une victoire structurelle faisant d'AMD un deuxième fournisseur crédible à l'échelle de la frontière. |
Conditions financières | AMD émet des bons de souscription pour OpenAI pour jusqu'à 160 M d'actions (~10 % d'AMD) avec un prix d'exercice de 0,01 $, leur acquisition étant basée sur le déploiement, le cours de l'action et les jalons. Potentiel de « dizaines de milliards » de dollars de revenus sur plusieurs années. |
Évaluation de l'opportunité | Revenus cumulés d'AMD (estimation de base d'ici 2028) : 30-50 Mrds $ (pour ~2 GW équivalents). Scénario haussier : 50-80 Mrds $. Scénario baissier : 20-30 Mrds $. Dépenses d'investissement pour les installations estimées à 9-15 Mrds $ par GW (hors matériel informatique). |
Dilution et incitations | Exercice complet du bon = ~9,9 % de dilution des actions. L'acquisition est liée aux jalons, alignant les incitations. C'est favorable aux actionnaires seulement si les revenus/marges brutes augmentent plus rapidement que la dilution. |
Dynamique concurrentielle | Nvidia reste le leader en performance/pile logicielle avec une plateforme complète. L'accord donne à AMD la validation et le volume nécessaires pour faire mûrir le logiciel ROCm. Modère le pouvoir de fixation des prix de Nvidia. L'approvisionnement en HBM/CoWoS est un facteur limitant critique. |
Logiciel (ROCm) | ROCm 7 est nettement meilleur, mais l'avantage de l'écosystème CUDA persiste. Le co-développement approfondi d'OpenAI rend les opérations à double pile possibles pour eux, mais pas pour les entreprises typiques. |
Risques clés et goulots d'étranglement | Risque d'exécution : Calendrier MI450, maturité ROCm, goulots d'étranglement d'interconnexion. Chaîne d'approvisionnement : Capacité/prix HBM (SK hynix, etc.) et TSMC CoWoS-L. Infrastructure : Emplacement des centres de données, disponibilité de l'énergie et développement du refroidissement liquide. |
Impact sur le marché | AMD : Rapport risque-rendement amélioré avec un point d'ancrage clair pour les revenus ; s'attendre à une volatilité des actions autour des nouvelles d'exécution. Nvidia : Met la pression sur les prix/conditions mais ne remet pas en cause la thèse. Fournisseurs HBM : Gagnants clairs avec un pouvoir de fixation des prix continu. |
Indicateurs clés à surveiller | 1. Rythme de divulgation du MI450 (spécifications, calendrier). 2. Performance de ROCm 7 vs Nvidia. 3. Nouvelles sur l'allocation HBM/CoWoS. 4. Annonces d'OpenAI sur l'énergie/l'emplacement. 5. Mécanismes des tranches de bons. |
En résumé | AMD n'a pas besoin de « battre » Nvidia pour que l'accord fonctionne. Elle doit exécuter à temps, à grande échelle, avec un coût par jeton compétitif. Le bon de souscription crée une asymétrie favorable avec un risque d'exécution élevé. |
Avertissement : Ce rapport est fourni à titre informatif uniquement et ne doit pas être considéré comme un conseil en investissement. Les conditions du marché changent, et les performances passées ne garantissent jamais les résultats futurs. Consultez toujours un conseiller financier qualifié avant de prendre des décisions financières.