Broadcom lance un commutateur Ethernet ultra-rapide pour l'IA, le titre atteint un sommet historique

Par
Jane Park
6 min de lecture

La révolution Ethernet de Broadcom redéfinit le paysage du calcul d'IA

Le Tomahawk Ultra offre des performances sans précédent, défiant la domination de Nvidia tout en propulsant l'action à des niveaux records

Dans un laboratoire aux murs de verre du campus de Broadcom à San Jose, les ingénieurs ont accompli ce que de nombreux vétérans de l'industrie considéraient comme impossible : transformer la technologie Ethernet conventionnelle en un tissu de classe supercalculateur capable d'alimenter les systèmes d'intelligence artificielle les plus exigeants au monde.

La société a commencé à livrer son commutateur Tomahawk Ultra cette semaine, une avancée technologique qui offre une latence stupéfiante de 250 nanosecondes — suffisamment rapide pour qu'un signal parcoure seulement 75 mètres (246 pieds) à travers un câble à fibre optique — tout en traitant les données à 51,2 térabits par seconde. Cette réalisation représente un changement fondamental dans le paysage de la mise en réseau, qui promet de remodeler la conception et le déploiement de l'infrastructure d'IA à l'échelle mondiale.

Broadcom Tomahawk
Broadcom Tomahawk

La révolution de la vitesse cachée dans le silicium

L'importance de la réalisation de Broadcom va bien au-delà des spécifications techniques abstraites. Pour situer, la latence de 250 nanosecondes représente à peu près le temps qu'il faut à la lumière pour parcourir la longueur d'un terrain de basketball — une mesure invisible à la perception humaine mais essentielle au fonctionnement synchronisé des systèmes d'IA massifs.

« Ce que Broadcom a accompli avec le Tomahawk Ultra représente l'avancée la plus significative dans la technologie de mise en réseau à standard ouvert que nous ayons vue au cours de la dernière décennie », a noté un architecte réseau vétéran chez un grand fournisseur de cloud qui a requis l'anonymat en raison des politiques de son entreprise. « Ils ont essentiellement réduit de 70 % l'écart de performance historique entre Ethernet et les fabriques spécialisées tout en conservant tous les avantages de l'écosystème. »

Cette percée technique résout un goulot d'étranglement critique dans le calcul d'IA, où des modèles d'apprentissage automatique complexes nécessitent que des milliers de processeurs communiquent avec une synchronisation quasi parfaite. Jusqu'à présent, cela exigeait des technologies propriétaires comme NVLink de Nvidia, entraînant un verrouillage des fournisseurs et augmentant les coûts.

Ondulations sur le marché et répercussions financières

L'action de Broadcom a grimpé à un record de 280,66 $ lors des transactions avant l'ouverture du marché, les investisseurs reconnaissant l'importance stratégique de l'annonce. Négociée à environ 23 fois les bénéfices projetés pour l'exercice fiscal 2026, la valorisation de la société semble refléter une confiance croissante dans sa stratégie de mise en réseau d'IA.

« Le marché commence à comprendre que l'infrastructure d'IA ne concerne pas seulement les processeurs – il s'agit de l'ensemble du tissu qui les connecte », a expliqué un analyste en investissement spécialisé dans les entreprises de semi-conducteurs. « Broadcom se positionne à un point de jonction critique qui pourrait générer une croissance substantielle des revenus jusqu'en 2027 et au-delà. »

Selon les projections de l'industrie, le silicium de commutation pour les réseaux d'IA pourrait dépasser 100 milliards de dollars de ventes cumulées entre 2025 et 2030, avec un taux de croissance annuel composé impressionnant de 32 %. Les revenus de Broadcom liés à la mise en réseau d'IA ont déjà augmenté de 46 % d'une année sur l'autre pour atteindre 4,4 milliards de dollars au cours du trimestre le plus récent, et les projections suggèrent que ce chiffre pourrait atteindre 7,2 milliards de dollars d'ici 2026.

Au cœur de la merveille technologique

Le Tomahawk Ultra atteint ses performances révolutionnaires grâce à plusieurs innovations qui redéfinissent ce qui est possible avec la technologie Ethernet standard. Au-delà du chiffre de latence de 250 nanosecondes qui fait la une, le commutateur intègre des « collectifs en réseau » (in-network collectives) — du matériel spécialisé qui décharge les modèles de communication courants dans les charges de travail d'IA des processeurs vers le réseau lui-même.

Cette approche réduit considérablement le temps que les accélérateurs d'IA passent à attendre la synchronisation des données, améliorant potentiellement l'efficacité de l'entraînement des modèles d'IA à mille milliards de paramètres de 7 à 10 %. Pour les opérateurs hyperscale gérant des milliers de systèmes en continu, cela se traduit par des réductions significatives des dépenses opérationnelles et des améliorations de l'empreinte carbone.

« Les gains d'efficacité sont substantiels lorsque l'on monte en puissance avec des milliers de GPU », a noté un ingénieur performance qui a testé les premières versions de la technologie. « Ce qui est particulièrement impressionnant, c'est qu'ils ont réalisé cela tout en maintenant la compatibilité avec l'écosystème Ethernet plus large. »

Le commutateur est également compatible broche à broche (pin-compatible) avec la génération précédente Tomahawk 5, permettant aux centres de données de mettre à niveau leur infrastructure sans redessiner l'intégralité de leur architecture réseau — une décision stratégique qui pourrait accélérer l'adoption.

Perturber le paysage concurrentiel

Le Tomahawk Ultra place Broadcom en concurrence directe avec Nvidia, qui a dominé le paysage du calcul d'IA avec ses processeurs graphiques et ses technologies de réseau. Alors que l'écosystème NVLink/NVSwitch de Nvidia offre une bande passante brute plus élevée (jusqu'à 115 Tbps par ASIC), il fonctionne comme un système fermé utilisable uniquement au sein des conceptions de serveurs propriétaires de Nvidia.

Parmi les autres concurrents figurent le Teralynx 10 de Marvell, qui revendique une latence « inférieure à 400 nanosecondes » mais ne dispose pas des collectifs en réseau qui différencient l'offre de Broadcom. Cisco et Arista sont également à la traîne sur les métriques techniques clés critiques pour les charges de travail d'IA.

« Nvidia fait maintenant face à un dilemme stratégique », a observé un stratège en technologie familier des deux entreprises. « Ils doivent décider s'ils concèdent sous licence leur propriété intellectuelle (IP) collective ou s'ils acceptent que Broadcom offre désormais une alternative à standard ouvert plus convaincante pour de nombreux scénarios de déploiement. »

Le jeu à long terme pour les investisseurs

Pour les investisseurs qui regardent au-delà de la réaction immédiate du marché, plusieurs facteurs méritent une attention particulière. La concentration de la clientèle représente un risque significatif, quatre fournisseurs de cloud hyperscale représentant plus de 60 % du marché adressable. Toute victoire — ou perte — majeure de conception chez des entreprises comme Amazon, Microsoft, Google ou Meta pourrait avoir un impact substantiel sur la trajectoire des revenus de Broadcom.

Les catalyseurs potentiels dans les prochains mois incluent les prévisions de dépenses d'investissement des hyperscalers pour le premier semestre 2026 (en particulier toute mention explicite de « Ultra-Ethernet »), les prévisions de marge brute de Broadcom pour l'exercice fiscal 2026, et l'élargissement de l'adhésion au Ultra Ethernet Consortium au-delà de ses 62 entreprises actuelles.

« Surveillez attentivement l'asymétrie des options », a suggéré un stratège en produits dérivés suivant le secteur des semi-conducteurs. « La volatilité implicite n'a pas encore pleinement intégré le potentiel de hausse lié à la pénétration du marché de l'Ultra. »

Le changement architectural

Peut-être le plus significatif, l'innovation de Broadcom signale un point d'inflexion potentiel dans la conception et le déploiement des systèmes d'IA. La capacité à atteindre des performances de classe supercalculateur en utilisant l'Ethernet standard pourrait démocratiser l'accès à une infrastructure d'IA haute performance, accélérant potentiellement l'innovation dans toutes les industries.

« Ce à quoi nous assistons est l'équivalent, en matière de mise en réseau, de ce qui s'est passé lorsque les GPU sont devenus la norme pour le calcul d'IA », a expliqué un architecte d'infrastructure dans une grande institution de recherche. « Les technologies standard avec un large soutien de l'écosystème finissent par l'emporter sur les solutions propriétaires, même si l'approche propriétaire offre initialement de meilleures performances brutes. »

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales