TensorWave, soutenu par AMD, lève 100 millions de dollars pour déployer un cluster massif de GPU IA

Par
Super Mateo
6 min de lecture

Le pari d'AMD : TensorWave obtient 100 millions de dollars pour défier la domination de Nvidia dans l'IA

LAS VEGAS — Dans un centre de données baigné de soleil à la périphérie de Las Vegas, des rangées de racks de serveurs étincelants bourdonnent d'activité. La chaleur qui émane de milliers de processeurs est palpable, même à travers des systèmes de refroidissement sophistiqués. C'est le centre névralgique de TensorWave, une jeune pousse qui s'est soudainement imposée comme un concurrent important sur le marché très disputé du calcul IA.

TensorWave a annoncé aujourd'hui avoir obtenu 100 millions de dollars lors d'un financement de série A, codirigé par Magnetar et AMD Ventures, avec la participation de Maverick Silicon, Nexus Venture Partners, et du nouvel investisseur Prosperity7. Ce financement intervient alors que l'entreprise déploie plus de 8 000 GPU AMD Instinct MI325X pour un cluster dédié à l'entraînement d'IA – positionnant l'entreprise comme potentiellement le plus grand fournisseur d'infrastructure IA axé sur AMD dans un marché largement dominé par le matériel Nvidia.

« Ce financement propulse la mission de TensorWave de démocratiser l'accès au calcul IA de pointe », a déclaré Darrick Horton, PDG de TensorWave, dans l'annonce de l'entreprise. « Notre cluster de 8 192 GPU Instinct MI325X n'est qu'un début alors que nous nous établissons comme le leader émergent, alimenté par AMD, sur le marché de l'infrastructure IA en pleine expansion. »

TensorWave (businesswire.com)
TensorWave (businesswire.com)

Avantage Mémoire sur un Marché Saturé

Bien que TensorWave ne représente qu'une infime partie du paysage global du calcul IA comparé à des géants comme CoreWeave et Lambda Labs, sa concentration stratégique sur la technologie d'AMD offre un avantage technique que certains développeurs d'IA trouvent de plus en plus intéressant : la capacité mémoire.

Les GPU Instinct MI325X d'AMD offrent jusqu'à 128 Go de mémoire HBM3 par carte – soit le double de la mémoire des offres comparables de Nvidia. Cette marge de mémoire supplémentaire crée un avantage significatif pour l'entraînement de grands modèles d'IA qui dépassent souvent les limites de mémoire des GPU conventionnels.

« La différence de capacité mémoire est cruciale », a déclaré un chercheur en apprentissage automatique dans une société de services financiers. « Beaucoup de nos modèles sont limités par la mémoire, pas par la puissance de calcul brute. Avoir cette marge de manœuvre supplémentaire rend soudainement réalisables des charges de travail auparavant impossibles. »

Pour TensorWave, cette différenciation technique arrive à un moment critique. Le marché mondial de l'infrastructure IA devrait dépasser les 400 milliards de dollars d'ici 2027, selon les projections de l'industrie. Pourtant, l'acquisition de ressources de calcul IA adaptées reste l'un des obstacles les plus importants au développement et au déploiement de l'IA pour de nombreuses organisations.

Se Développer Face à une Concurrence Féroce

TensorWave affirme être en bonne voie pour terminer l'année avec un chiffre d'affaires annuel estimé dépassant les 100 millions de dollars – ce qui représente une augmentation multipliée par 20 d'une année sur l'autre. Bien qu'impressionnant pour une entreprise en série A, cela positionne TensorWave loin derrière les concurrents établis. CoreWeave, soutenu par Nvidia, a déclaré 1,92 milliard de dollars de chiffre d'affaires en 2024 et a une valorisation de 23 milliards de dollars. Lambda Labs, un autre concurrent, a vu ses revenus passer de 70 millions de dollars en 2021 à environ 200 millions de dollars en 2024.

« Les 100 millions de dollars que nous avons obtenus transformeront la manière dont les entreprises accèdent aux ressources de calcul IA », a déclaré Piotr Tomasik, Président de TensorWave. « Grâce à une culture attentive de partenariats stratégiques et de relations avec les investisseurs, nous avons positionné TensorWave pour résoudre le goulet d'étranglement critique en matière d'infrastructure auquel est confrontée l'adoption de l'IA. »

Cependant, les analystes du secteur soulignent des défis importants à venir. Nvidia contrôle plus de 80 % du marché des puces IA pour centres de données, soutenu par son écosystème logiciel CUDA mature que de nombreux développeurs d'IA sont réticents à abandonner. La pile logicielle alternative d'AMD, ROCm, bien qu'en amélioration, manque encore de l'omniprésence et de la familiarité des développeurs par rapport à la plateforme de Nvidia.

« TensorWave n'apporte pas seulement plus de calcul, mais plutôt une classe de calcul entièrement nouvelle à un marché contraint par la capacité », a déclaré Kenneth Safar, Directeur Général chez Maverick Silicon. « Nous pensons que cela sera très bénéfique pour l'écosystème de l'infrastructure IA dans son ensemble. »

Guerre des Prix Imminente

Le paysage de l'infrastructure IA est de plus en plus encombré de concurrents bien financés. CoreWeave a levé environ 12,9 milliards de dollars de dette pour étendre ses centres de données autour des GPU Nvidia. Lambda Labs a obtenu un prêt garanti par des actifs de 500 millions de dollars, garanti par des puces Nvidia. Pendant ce temps, les principaux fournisseurs de cloud comme AWS fixent des prix agressifs pour leurs propres puces IA, AWS Trainium offrant apparemment des avantages de coût de 30 à 40 % par rapport aux solutions basées sur Nvidia.

La stratégie de TensorWave axée sur AMD pourrait offrir des avantages de coût, des informations circulant suggérant que les puces AMD sont environ 20 % moins chères par opération en virgule flottante que les offres comparables de Nvidia. Cette efficacité pourrait permettre à TensorWave de proposer des prix inférieurs à ceux de ses concurrents tout en maintenant des marges saines, en particulier pour les charges de travail gourmandes en mémoire.

« Les goulets d'étranglement de la mémoire sont la contrainte cachée dans de nombreux systèmes IA en production », a noté un consultant du secteur spécialisé dans l'optimisation de l'infrastructure IA. « Le coût par exécution d'entraînement ne concerne plus seulement les téraflops bruts – il s'agit de savoir si vous pouvez charger efficacement votre modèle en mémoire. »

Résilience de la Chaîne d'Approvisionnement

Un avantage potentiel dans le partenariat de TensorWave avec AMD réside dans la disponibilité des puces. Bien que Bain mette en garde contre une pénurie de puces de 30 % jusqu'en 2026, l'investissement stratégique d'AMD suggère que TensorWave pourrait avoir un accès privilégié à du matériel qui reste en pénurie.

« L'investissement stratégique d'AMD dans TensorWave renforce l'engagement d'AMD à étendre sa présence dans l'espace de l'infrastructure IA », a déclaré Mathew Hein, SVP Chief Strategy Officer & Corporate Development chez AMD.

Ce partenariat pourrait s'avérer vital alors que la demande mondiale de calcul IA continue de dépasser l'offre disponible, d'autant plus que les entreprises recherchent des alternatives aux infrastructures basées sur Nvidia, qui sont très sollicitées.

La Route à Venir

TensorWave fait face à des obstacles redoutables malgré ses débuts prometteurs. Le taux de revenus annualisé annoncé par l'entreprise dépend probablement d'un petit nombre de grands clients, créant un risque de concentration potentiel. De plus, construire et maintenir des centres de données à grande échelle nécessite des investissements massifs en capital – le déploiement actuel de 8 000 GPU représente probablement un investissement de centaines de millions de dollars rien qu'en matériel.

L'entreprise devra démontrer qu'elle peut attirer les développeurs d'IA grand public qui ont construit leurs flux de travail autour de l'écosystème de Nvidia. Ce défi de migration s'est avéré difficile pour les initiatives précédentes axées sur AMD dans l'espace IA.

« Le plus grand obstacle n'est pas la performance matérielle – c'est l'inertie logicielle », a expliqué un vétéran de plusieurs start-ups d'infrastructure IA. « Les développeurs ont des années de travail investies dans des bases de code optimisées pour CUDA. Même avec des spécifications matérielles supérieures, les convaincre de porter leurs charges de travail est une bataille difficile. »

Pour l'instant, le succès de TensorWave semble dépendre de trois facteurs critiques : la vitesse de maturation de l'écosystème logiciel d'AMD par rapport à la position bien établie de Nvidia, la dynamique des prix sur un marché de plus en plus concurrentiel, et la capacité de l'entreprise à obtenir le capital supplémentaire nécessaire pour se développer au-delà de son déploiement initial.

Alors que la demande mondiale de calcul IA poursuit sa croissance explosive, TensorWave représente une alternative intéressante sur un marché désireux d'options au-delà des acteurs établis. Reste à voir si elle pourra transformer sa différenciation technologique en un avantage commercial durable.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales