Microsoft adopte les conceptions de puces et de centres de données d'OpenAI pour ses propres puces, étend ses droits de propriété intellectuelle jusqu'en 2032 et affirme que l'alimentation électrique limite désormais l'échelle de l'IA

Par
Lakshmi Reddy
5 min de lecture

Le véritable accord Microsoft-OpenAI : Les lignes électriques comptent plus que la conception des puces

Le pari de Microsoft d'importer le "cerveau" matériel d'OpenAI révèle une vérité brutale sur l'économie de l'IA : le goulot d'étranglement n'est plus celui qui conçoit la puce la plus intelligente, mais celui qui peut l'alimenter.

Microsoft va "industrialiser" les conceptions de puces personnalisées et de centres de données d'OpenAI en vertu de droits de propriété intellectuelle qui s'étendent désormais jusqu'en 2032, comme l'a révélé le PDG Satya Nadella dans le dernier podcast de Dwarkesh Patel. Cela marque un changement fondamental dans la course des hyperscalers pour maîtriser la pile d'infrastructure d'IA. Mais le titre a occulté l'essentiel : Nadella a admis que Microsoft avait des GPU "en stock" parce que l'entreprise ne peut pas les alimenter assez rapidement. Dans la nouvelle ère de la concurrence en matière d'IA, les droits de transmission et les permis de sous-station comptent plus que les délais de fabrication des puces.

Le contrat qui clarifie des milliards en dépenses d'investissement

Le partenariat révisé, finalisé le 28 octobre, remplace l'autorité unilatérale d'OpenAI de déclarer l'AGI (intelligence artificielle générale) par un panel d'experts indépendants qui vérifiera l'arrivée de cette dernière. Les droits de propriété intellectuelle de Microsoft sur les modèles et produits d'OpenAI s'étendent désormais jusqu'en 2032 — y compris les systèmes post-AGI soumis à des garde-fous de sécurité — tandis que l'accès aux méthodes de recherche confidentielles se poursuit jusqu'en 2030 ou jusqu'à la vérification de l'AGI, selon la première de ces éventualités. Le partage des revenus persiste jusqu'à ce que ce panel rende son jugement.

Cette structure résout une énigme d'allocation de capital : les investisseurs et les fournisseurs construisant des campus de plusieurs gigawatts peuvent désormais garantir les dépenses sur des fenêtres temporelles datées plutôt que sur une "déclaration d'AGI" binaire qui pourrait survenir sans préavis. Pour Microsoft, qui investira plus de 80 milliards de dollars dans l'infrastructure d'IA au cours de cet exercice fiscal, la certitude contractuelle justifie l'anticipation des achats de matériel, même si l'utilisation est en retard par rapport aux calendriers de mise sous tension.

Quand la physique prime sur l'approvisionnement

La reconnaissance franche par Nadella des GPU inactifs marque un tournant. Pendant deux ans, le discours sur le déploiement de l'IA s'est concentré sur l'approvisionnement en puces — qui pouvait s'assurer le plus de H100 et de GB200, qui avait la capacité de TSMC verrouillée. Cette rareté se dissout en une contrainte différente : les mégawatts et la vitesse de construction.

« La disponibilité de l'énergie et la vitesse de construction des centres de données pour l'IA » sont désormais les facteurs déterminants, a déclaré Nadella, élevant l'approvisionnement en énergie au rang de compétence des cadres dirigeants aux côtés de l'ingénierie logicielle. Microsoft s'efforce de signer des contrats d'achat d'énergie de plusieurs gigawatts — nucléaire, gaz naturel avancé, stockage de longue durée — et de sécuriser les interconnexions de transmission. Sans une électricité stable et des infrastructures achevées, même les accélérateurs les plus sophistiqués ne génèrent aucun retour.

Cette approche axée sur la physique explique pourquoi Microsoft intègre les conceptions au niveau système d'OpenAI plutôt que de simplement licencier la PI des puces. La collaboration d'OpenAI avec Broadcom vise 10 gigawatts d'infrastructure d'IA personnalisée, avec des déploiements qui devraient commencer au second semestre 2026. Cette échelle exige des innovations en matière de densité de racks, de réseaux optiques et de gestion thermique — des apprentissages que Microsoft peut désormais importer, étendre et déployer sur Azure sous son égide de propriété intellectuelle. La valeur ne réside pas seulement dans l'architecture silicium, mais dans le plan d'ensemble pour opérer aux limites des contraintes thermodynamiques et de livraison d'énergie.

La thèse d'investissement : L'intégration verticale sous un plafond énergétique

La stratégie de Microsoft raccourcit le calendrier d'intégration verticale sans partir de zéro — une alternative accélérée au parcours de Google avec ses TPU, long de dix ans, ou au déploiement de Trainium par AWS. En industrialisant d'abord la PI système d'OpenAI, Microsoft acquiert une valeur d'option sur trois fronts : la substitution partielle de Nvidia pour améliorer l'économie de l'entraînement, un levier dans les négociations avec les fournisseurs, et un couplage plus étroit entre l'architecture des modèles et l'infrastructure physique.

Le mécanisme financier est simple. Si Microsoft substitue 10 à 20 % des charges de travail d'entraînement de l'IA par du silicium interne d'ici l'exercice fiscal 2027, les marges brutes consolidées pourraient augmenter de 150 à 300 points de base par rapport à une flotte entièrement Nvidia, grâce aux gains de performance par dollar et à la garantie d'approvisionnement. Azure conserve l'exclusivité des API sans état pour les modèles de pointe d'OpenAI jusqu'en 2032, assurant des revenus de plateforme-en-tant-que-service à forte marge même si OpenAI diversifie ses fournisseurs d'infrastructure.

Mais le risque d'exécution est substantiel. Microsoft doit assimiler les conceptions d'OpenAI, livrer les générations de production Maia et Cobalt co-optimisées avec les modèles de pointe, et — de manière critique — résoudre l'équation énergétique. Les dépenses d'investissement se déplacent du calcul vers les investissements côté réseau : acquisition de terrains, sous-stations, améliorations de la transmission, production d'énergie sur site. Ces actifs ont des durées de vie comptables plus longues et amortissent la dépréciation à court terme, améliorant potentiellement la marge d'exploitation déclarée même si les décaissements augmentent.

Le développement de projets d'envergure, digne des services publics, est désormais la compétence décisive. Celui qui sécurise le plus rapidement des mégawatts stables et à faible émission de carbone ainsi que des interconnexions de transmission fixe la courbe d'approvisionnement de l'IA. Le bilan de Microsoft fournit le capital ; l'exécution dépend des permis, de la politique locale et des délais d'ingénierie qui se mesurent en années, non en trimestres.

Le contrôle réglementaire autour du regroupement cloud-modèle-puce est en hausse. Les droits de PI étendus post-AGI et l'exclusivité des API Azure suscitent des questions antitrust qui pourraient forcer des remèdes en matière d'interopérabilité. Pendant ce temps, le pouvoir de fixation des prix de Nvidia fait face à une pression sur les marges à mesure que des alternatives internes crédibles mûrissent — le calendrier dépendra de la mise en production des systèmes dérivés d'OpenAI d'ici fin 2026.

La nouvelle donne est impitoyable : de superbes puces sans une excellente infrastructure électrique entraînent des actifs bloqués. Microsoft parie qu'il peut maîtriser les deux.

PAS UN CONSEIL EN INVESTISSEMENT

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales