Supermicro met l’accent sur des serveurs fabriqués aux États‑Unis et déroule, avec NVIDIA, une feuille de route taillée pour les exigences fédérales.
Supermicro muscle son offre IA pour le secteur public américain
À l’occasion de NVIDIA GTC à Washington, Supermicro a dévoilé une série de plateformes IA destinées aux workloads critiques du gouvernement américain : cybersécurité, ingénierie, santé, analytique et simulation. Le constructeur annonce pour 2026 les plateformes NVIDIA Vera Rubin NVL144 et Vera Rubin NVL144 CPX, présentées comme la prochaine marche en entraînement et inférence. « Notre collaboration élargie avec NVIDIA et notre fabrication aux États‑Unis nous positionnent comme un partenaire de confiance », affirme Charles Liang, PDG de Supermicro.
Le cœur de l’offre s’appuie sur les dernières briques NVIDIA : HGX B300 et B200, GB300 et GB200, ainsi que les RTX PRO 6000 Blackwell Server Edition. Objectif : des performances et une efficacité accrues, avec une évolutivité pensée pour des déploiements rack‑scale. Supermicro met en avant la conformité TAA et l’éligibilité Buy American Act : conception, intégration et validation ont lieu à San Jose, un atout pour la sécurité d’approvisionnement et la traçabilité.
Parmi les nouveautés, un serveur 2OU HGX B300 à 8 GPU adopte une approche OCP rack‑scale. Il peut aligner jusqu’à 144 GPU par rack, de quoi répondre aux besoins d’entraînement massif en data centers gouvernementaux. Le constructeur indique aussi optimiser son portefeuille pour le référentiel NVIDIA AI Factory for Government, une architecture de référence couvrant déploiement on‑prem et hybride en conformité avec les organisations à haut niveau d’assurance.
Super AI Station et NVL4 : du bureau au rack
Supermicro lance la Super AI Station ARS-511GD-NB-LCC, une station liquid‑cooling qui transpose le Superchip NVIDIA GB300 dans un format bureaux ou rack. Selon Supermicro, elle peut atteindre jusqu’à 20 PFLOPS IA, supporter des modèles jusqu’à 1 000 milliards de paramètres, et offrir plus de 5× les performances IA d’une station PCIe traditionnelle. On y trouve jusqu’à 784 Go de mémoire cohérente, un SuperNIC ConnectX‑8 intégré, un bloc d’alimentation 1 600 W compatible prises standard et une option GPU PCIe additionnelle pour le rendu.
Côté data center, la plateforme ARS-121GL-NB2B-LCC NVL4 est désormais disponible pour le HPC et l’IA scientifique : 4 GPU Blackwell B200 reliés en NVLink et deux CPU NVIDIA Grace unifiés via NVLink‑C2C. Jusqu’à 32 nœuds par rack peuvent être interconnectés en ConnectX‑8 pour offrir jusqu’à 800G par GPU. Le tout prend place dans un rack MGX 48U pouvant accueillir jusqu’à 128 GPU, avec alimentation par busbar et refroidissement liquide direct‑to‑chip, via CDU en rack ou en allée.
Accélération réseau : Supermicro prévoit l’intégration des récents NVIDIA BlueField‑4 DPU et ConnectX‑9 SuperNIC pour des « gigafactories » d’IA. Grâce à son design modulaire, la marque entend réduire le temps d’ingénierie et accélérer la mise sur le marché, une approche qui vise explicitement les clusters de prochaine génération.
Enfin, le portefeuille s’élargit avec la Super AI Station sur base GB300 et des solutions GB200 NVL4 à l’échelle du rack, le tout optimisé pour les environnements fédéraux. Reste à voir si ces systèmes, annoncés avec des densités et performances élevées, répondront sur la durée aux contraintes de sécurité, de disponibilité et de coûts imposées par les agences américaines.
Source : TechPowerUp