Super Micro Computer, Inc.
San Jose, US, 22 Mar. 2023, 10:18 CEST
Supermicro versnelt het tijdperk van AI en de metaverse met eersteklas servers voor AI-training, deep learning, HPC en generatieve AI

Meest uitgebreide portfolio van systemen van de cloud tot de edge die NVIDIA HGX H100-systemen, L40 en L4 GPU's en OVX 3.0-systemen ondersteunen

Uitgebreide portefeuille van systemen van "the Edge to Cloud" img#1
Uitgebreide portefeuille van systemen van "the Edge to Cloud"

Supermicro versnelt het tijdperk van AI en de metaverse met eersteklas servers voor AI-training, deep learning, HPC en generatieve AI

Supermicro, Inc. (NASDAQ: SMCI), een leverancier van totale IT-oplossingen voor AI/ML, Cloud, Storage en 5G/Edge, heeft vandaag aangekondigd dat het is begonnen met de verzending van zijn eersteklas nieuwe GPU-servers met het nieuwste NVIDIA HGX H100 8-GPU-systeem. Supermicro-servers bevatten de nieuwe NVIDIA L4 Tensor Core GPU in een breed scala voor toepassingen geoptimaliseerde servers, van de edge tot het datacenter.

"Supermicro biedt het meest uitgebreide portfolio van GPU-systemen in de branche, inclusief servers in 8U-, 6U-, 5U-, 4U-, 2U- en 1U-vormfactoren, evenals werkstations en SuperBlade-systemen die het volledige scala aan nieuwe NVIDIA H100 GPU's ondersteunen," aldus Charles Liang, president en CEO van Supermicro. "Met onze nieuwe NVIDIA HGX H100 Delta-Next-server mogen klanten negen keer betere prestaties verwachten in vergelijking met de vorige generatie voor AI-trainingstoepassingen. Onze GPU-servers hebben innovatieve luchtstroomontwerpen die de ventilatorsnelheden verminderen, het geluidsniveau verlagen en minder stroom verbruiken, wat resulteert in een lagere totale eigendomskost (TCO). Daarnaast leveren we complete vloeistofkoelingsopties op rekschaal voor klanten die hun datacenters verder toekomstbestendig willen maken."

Supermicro's krachtigste nieuwe 8U GPU-server wordt nu in volume verzonden. Deze nieuwe Supermicro 8U-server, geoptimaliseerd voor AI-, DL-, ML- en HPC-werkladingen, wordt aangedreven door de NVIDIA HGX H100 8-GPU met de hoogste GPU-naar-GPU-communicatie met behulp van de snelste NVIDIA NVLink® 4.0-technologie, NVSwitch-interconnecties en NVIDIA Quantum-2 InfiniBand- en Spectrum-4 Ethernet-netwerken om de barrières van AI op schaal te doorbreken. Daarnaast biedt Supermicro verschillende prestatiegeoptimaliseerde configuraties van GPU-servers, waaronder direct-connect/single-root/dual-root CPU's naar GPU's en voorste of achterste I/O-modellen met AC- en DC-voeding in standaard- en OCP DC-rackconfiguraties. De Supermicro X13 SuperBlade®-behuizing biedt plaats aan twintig NVIDIA H100 Tensor Core PCIe GPU's of veertig NVIDIA L40 GPU's in een 8U-behuizing. Bovendien kunnen er tot tien NVIDIA H100 PCIe GPU's of twintig NVIDIA L4 Tensor Core GPU's worden gebruikt in een 6U-behuizing. Deze nieuwe systemen leveren de geoptimaliseerde versnelling die ideaal is voor het uitvoeren van NVIDIA AI Enterprise, de softwarelaag van het NVIDIA AI-platform.

Vloeistofkoeling van deze servers wordt ook op vele GPU-servers ondersteund. Daarnaast kondigt Supermicro een vloeistofgekoeld AI-ontwikkelingssysteem aan (als een toren- of rekmontageconfiguratie) met twee CPU's en vier NVIDIA A100 Tensor Core GPU's, die ideaal zijn voor kantoor- en thuiskantooromgevingen en kunnen worden ingezet in afdelings- en bedrijfsclusters.

De Supermicro-systemen ondersteunen de nieuwe NVIDIA L4 GPU, die meervoudige versnellingswinst en energiezuinigheid levert in vergelijking met eerdere generaties. Hetzelfde geldt voor AI-inferentie, videostreaming, virtuele werkstations en grafische toepassingen in de onderneming, in de cloud en aan de edge. Met NVIDIA's AI-platform en full-stackbenadering is de L4 geoptimaliseerd voor inferentie op schaal voor een breed scala aan AI-toepassingen, waaronder aanbevelingen, op stem gebaseerde AI-avatarassistenten, chatbots, visueel zoeken en contactcenterautomatisering om de beste gepersonaliseerde ervaringen te bieden. Als de meest efficiënte NVIDIA-versneller voor gewone servers, heeft L4 tot vier keer hogere AI-prestaties, verhoogde energie-efficiëntie en meer dan drie keer meer videostreamingcapaciteit en efficiëntie die AV1-codering/-decodering ondersteunt. De veelzijdigheid van de L4 GPU voor inferentie en visualisatie en de kleine, energiezuinige, onopvallende 72W-vormfactor met één sleuf maken hem ideaal voor wereldwijde implementaties, ook op edgelocaties.

"Door Supermicro-servers uit te rusten met de ongeëvenaarde kracht van de nieuwe NVIDIA L4 Tensor Core GPU kunnen klanten hun werkladingen efficiënt en duurzaam versnellen", aldus Dave Salvator, directeur van Accelerated Computing Products bij NVIDIA. "Geoptimaliseerd voor reguliere implementaties, levert de NVIDIA L4 een onopvallende vormfactor die werkt in een energiezuinig omhulsel van 72W, waardoor AI-prestaties en efficiëntie aan de edge naar nieuwe hoogten worden getild."

Supermicro's nieuwe PCIe-versnelde oplossingen maken het mogelijk om 3D-werelden, digitale tweelingen, 3D-simulatiemodellen en de industriële metaverse te creëren. Naast ondersteuning van de vorige generaties NVIDIA OVX™-systemen biedt Supermicro een OVX 3.0-configuratie met vier NVIDIA L40 GPU's, twee NVIDIA ConnectX®-7 SmartNIC's, een NVIDIA BlueField®-3 DPU en de nieuwste NVIDIA Omniverse Enterprise™-software aan.

Ga voor meer informatie over alle geavanceerde nieuwe GPU-systemen van Supermicro naar: https://www.supermicro.com/en/accelerators/nvidia

Zie meer over Supermicro op NVIDIA GTC 2023 -https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510