La suprématie du silicium : les dessous de l’accord secret qui redéfinit l’avenir de l’IA
SAN FRANCISCO — Dans une industrie où le changement est plus rapide que l'éclair, un document discrètement signé le 23 octobre pourrait bien façonner la prochaine décennie de l'intelligence artificielle. Il ne s'agissait pas d'une présentation de produit spectaculaire ni d'une annonce de recherche triomphale. C'était une démonstration de force – littéralement. L'accord garantit une énorme quantité de puissance de calcul qui pourrait redéfinir l'évolution de l'IA, tant dans le code que dans le concret.
Le pacte entre Anthropic, pionnier de la sûreté de l'IA, et le géant technologique Google donne à Anthropic un accès à jusqu'à un million d'unités de traitement Tensor (TPU) de Google à partir de 2026. Cet accord – évalué à plusieurs dizaines de milliards de dollars – représente l'un des plus grands engagements jamais pris en matière de matériel IA. Imaginez l'équivalent numérique de la consommation d'énergie d'une nouvelle ville entière, le tout consacré à un seul objectif : créer les prochaines générations des modèles Claude d'Anthropic.
Ce n'est pas qu'un simple contrat de fourniture. C'est un coup de semonce dans une nouvelle forme de guerre froide technologique. Google prend sa place dans la course à l'armement de l'IA, montrant au monde que son investissement dans les puces personnalisées porte enfin ses fruits. C'est en même temps un défi audacieux au quasi-monopole de Nvidia sur le marché du matériel IA. Anthropic, pour sa part, vient de déclarer son indépendance vis-à-vis de tout fabricant de puces unique. Google, quant à lui, peut enfin dévoiler une arme qu'il gardait en coulisse depuis longtemps : son silicium le plus avancé à ce jour.
Au cœur de cette démarche réside une vérité simple : une IA plus intelligente exige plus de puissance de calcul. L'entraînement de grands modèles signifie les alimenter avec des océans de données sur du matériel de plus en plus puissant. Cet appétit insatiable a poussé la demande mondiale de GPU Nvidia bien au-delà de ce que les usines peuvent fournir. La pénurie a été brutale, obligeant les laboratoires d'IA à se démener pour y avoir accès.
Les fondateurs d'Anthropic – d'anciens dirigeants d'OpenAI – ont identifié cette vulnérabilité très tôt. Leur stratégie ? Diversifier ou mourir. Ils appellent cela l'approche « multi-cloud, multi-puce ». Au lieu de s'appuyer uniquement sur un seul fournisseur, ils répartissent leurs investissements entre Amazon, Nvidia, et maintenant Google. Amazon a déjà injecté 8 milliards de dollars dans Anthropic, mais cet accord avec Google porte la diversification à un tout autre niveau.
« Ce n'est pas juste une commande de puces », a déclaré en privé un analyste chevronné du secteur des puces. « Anthropic achète de la résilience. Ils achètent de la liberté. Avec un million de TPU, ils peuvent entraîner plusieurs générations de Claude sans faire la queue. »
Anthropic affirme que la décision s'est résumée à la performance et au coût. Les TPU de Google sont conçus spécifiquement pour les opérations gourmandes en calcul mathématique qui alimentent l'IA, ce qui en fait des outils ultra-spécialisés plutôt que des gadgets polyvalents. Si les GPU de Nvidia sont les couteaux suisses de l'informatique, les TPU de Google sont des scalpels de précision. Ils sont plus rapides, plus légers et environ deux à trois fois plus économes en énergie. Pour Anthropic – dont les revenus annuels approchent déjà les 7 milliards de dollars – cette efficacité se traduit par des économies concrètes. Des tests internes suggèrent que l'entraînement sur TPU pourrait coûter 30 à 50 % moins cher par calcul, leur permettant d'étirer leur budget et d'entraîner des modèles encore plus puissants.
L'effet d'entraînement a instantanément frappé le marché du cloud. Google, qui luttait depuis longtemps pour se faire une place derrière Amazon et Microsoft, détient soudain un passeport pour le succès. En ouvrant son infrastructure TPU à l'une des principales startups de l'IA, Google a validé son matériel comme une véritable alternative à la domination de Nvidia.
« Cela pourrait surcharger l'adoption des TPU », ont écrit les analystes de Bloomberg Intelligence, comparant cela à l'alliance retentissante de Microsoft avec OpenAI. Les investisseurs ont semblé d'accord. Les actions d'Alphabet ont bondi de 3,5 % lors des transactions après-Bourse, signalant l'approbation de Wall Street.
Pourtant, il n'y a aucune illusion que l'empire de Nvidia s'effondrera du jour au lendemain. La demande en IA explose si vite que tout le monde – d'Anthropic à OpenAI – a toujours besoin de montagnes de puces Nvidia. Mais désormais, il y a de la concurrence au sommet. Pour la première fois, les laboratoires de pointe peuvent choisir entre les géants, en optimisant le prix, la puissance et la disponibilité. Le monopole de Nvidia ne semble plus intouchable.
Pourtant, la partie la plus stupéfiante de cet accord n'est peut-être pas numérique, mais physique. L'engagement d'Anthropic et de Google à mettre en ligne plus d'un gigawatt de puissance de calcul met en lumière l'énergie nécessaire derrière le « cloud ». C'est la consommation électrique d'une grande ville entière, acheminée vers des baies de serveurs et des systèmes de refroidissement. La construction de centres de données à cette échelle peut coûter plus de 50 milliards de dollars, la moitié rien que pour les puces elles-mêmes.
L'électricité, et non le silicium, est en train de devenir le principal goulot d'étranglement de l'IA. Les entreprises se lancent dans une course pour sécuriser des contrats énergétiques, des parcs éoliens aux centrales nucléaires, afin d'alimenter leurs centres de données toujours plus gourmands. En faisant du gigawatt un nouveau point de référence de l'ambition, Anthropic et Google ont accéléré la collision entre le progrès numérique et les limites physiques. Les régulateurs tournent déjà autour du dossier, méfiants de l'empreinte carbone croissante de l'IA.
Les ondes de choc se propagent également profondément dans la chaîne d'approvisionnement mondiale. Les partenaires de fabrication de Google – Broadcom et TSMC – devraient en tirer d'énormes avantages, puisqu'ils co-conçoivent et fabriquent les TPU. Les fournisseurs de mémoire comme SK hynix et Micron se préparent également à répondre à la demande croissante de puces de mémoire à haute bande passante qui alimentent les accélérateurs d'IA.
Avec cet accord, l'équilibre des pouvoirs dans l'IA s'est subtilement déplacé. La course met désormais en scène trois forces dominantes : Anthropic, OpenAI et les propres laboratoires d'IA de Google. Chacune est armée de sa propre forteresse de calcul. Google a prouvé que son matériel personnalisé était prêt pour les grandes ligues, et Anthropic a sécurisé l'énergie et la puissance nécessaires pour poursuivre sa vision d'une IA plus sûre et plus intelligente à grande échelle.
Les signatures sont sèches, les fonds circulent et les travaux préparatoires sont en cours. Dans des zones industrielles calmes et des vastes champs ruraux, les équipes de construction coulent du béton et posent des câbles à fibre optique. Ce qu'elles construisent ne sont pas de simples centres de données, ce sont des cathédrales de la computation.
Le pari du gigawatt a commencé. L'avenir de l'intelligence artificielle est en train de s'écrire en ce moment même, une impulsion électrique à la fois.
