Supermicro stellt modulares Universal-GPU-System vor, welches den Einsatz von GPUs im großem Umfang vereinfacht

Supermicro hat mit dem neuen Universal-GPU-System nach eigenen Angaben eine revolutionäre Systemarchitektur vorgestellt, die den Einsatz von GPUs im großem Umfang vereinfacht und ein zukunftssicheres Design bietet, welches selbst zukünftige Technologien unterstützt.

„Für diese bahnbrechende neue Systemarchitektur kombiniert Supermicro die neuesten Technologien, die verschiedene GPU-Formfaktoren, CPUs, Speicher- und Netzwerkoptionen unterstützen. Diese Technologien wurden optimal aufeinander abgestimmt, um einzigartig konfigurierte und hoch skalierbare Systeme anbieten zu können“, sagt Charles Liang, Präsident und CEO, Supermicro. Die Supermicro-Universal-GPU-Systeme können für die spezifischen Anwendungen der Kunden in den Bereichen künstliche Intelligenz (KI), maschinelles Lernen (ML) und High-Performance Computing (HPC) optimiert werden. „Unternehmen benötigen neue Optionen für ihre nächste Generation von Computing-Umgebungen, die den notwendigen thermischen Spielraum für die nächste Generation von CPUs und GPUs bieten“.

„Das Universal-GPU-System von Supermicro ist ein Meilenstein für unsere Branche und die Infrastruktur von Rechenzentren“, erklärt Charles Liang.. „Mit einer einzigen leistungsstarken, modularen und zukunftssicheren Plattform haben wir die Grundregeln dafür geändert, wie CTOs und IT-Administratoren neue Implementierungen planen können. Es handelt sich um ein flexibles und revolutionäres Systemdesign, das einfach das beste auf dem Markt ist und schnelle Implementierungen im großen Maßstab ermöglicht.“

Zunächst wird das Universal-GPU-System für Server zur Anwendung kommen, die auf der dritten Generation der AMD-EPYC-7003 Prozessoren mit AMD-Instinct-MI250-GPUs oder NVIDIA-A100-Tensor-Core-4-GPUs, oder auf der dritten Generation der Intel-Xeon-Scalable Prozessoren mit integrierten KI-Beschleunigern und NVIDIA-A100-Tensor-Core 4-GPUs basieren. Diese Systeme wurden mit einer verbesserten Wärmekapazität entwickelt, um GPUs mit bis zu 700W zu unterstützen.

Das Universal-GPU-System ist so konzipiert, dass es mit einer breiten Palette von GPUs auf der Grundlage eines offenen Standarddesigns funktioniert. Durch die Einhaltung einer Reihe vereinbarter Hardware-Design-Standards wie Universal-Baseboard (UBB) und OCP-Accelerator-Modules (OAM) sowie PCI-E und plattformspezifischer Schnittstellen können IT-Administratoren die für ihre HPC- oder KI-Workloads am besten geeignete GPU-Architektur auswählen. Dies wird den anspruchsvollen Anforderungen vieler Unternehmen gerecht und vereinfacht die Installation, das Testen, die Produktion und Upgrades von GPU-Lösungen. Darüber hinaus können IT-Administratoren problemlos die richtige Kombination aus CPUs und GPUs wählen, um das optimale System für ihre Nutzer zu realisieren.

Die Universal-GPU-Server in 4HE oder 5HE werden für Beschleuniger verfügbar sein, die den UBB-Standard sowie PCI-E 4.0 und bald auch PCI-E 5.0 verwenden. Darüber hinaus stehen 32 DIMM-Steckplätze und eine Vielzahl von Speicher- und Netzwerkoptionen zur Verfügung, die ebenfalls über den PCI-E-Standard angeschlossen werden können. Die Universal-GPU-Server können GPUs unter Verwendung von Baseboards im SXM- oder OAM-Formfaktor aufnehmen, die sehr schnelle GPU-zu-GPU-Interconnects wie NVIDIA-NVLink oder die AMD-xGMI-Infinity-Fabric nutzen, oder GPUs direkt über einen PCI-E-Steckplatz anschließen. Alle gängigen CPU- und GPU-Plattformen werden unterstützt, so dass Kunden die Möglichkeit haben, die Universal GPU Server genau auf ihre Workloads abzustimmen.

Dabei sind die Supermicro-Universal-GPU-Server für die bestmögliche Luftzirkulation konzipiert und bieten Platz für aktuelle und zukünftige CPUs und GPUs, wobei die CPUs und GPUs mit der höchsten Thermal-Design-Power (TDP) die maximale Anwendungsleistung bieten. Für die Universal-GPU-Server gibt es Optionen für die Flüssigkeitskühlung (direkt auf den Chip). Darüber hinaus können durch das modulare Design bestimmte Subsysteme der Server ausgetauscht oder aufgerüstet werden, was die Lebensdauer des Gesamtsystems verlängert und Elektroschrott reduziert, der ansonsten durch den kompletten Austausch bei jeder neuen CPU- oder GPU-Technologiegeneration entstehen würde.

„Die NVIDIA- A100-Tensor-Core-GPU beschleunigt alle KI-Anwendungen und über 2.700 HPC-Anwendungen“, sagte Paresh Kharya, Senior Director of Product Management für Datacenter Computing, NVIDIA. „Die neue Serverplattform von Supermicro integriert die NVIDIA A100 GPU, um Unternehmen ein leistungsstarkes System zu bieten, das außergewöhnliche Leistung und Produktivität für eine breite Palette von Workloads wie HPC, KI-Inferencing, Training und maschinelles Lernen bietet.“

„AMD schätzt die enge Beziehung zu Supermicro. Wir freuen uns auf die Supermicro-Universal-GPU-Systeme, die eine ideale Plattform zur Demonstration unserer fortschrittlichen AMD-EPYC-CPU und AMD-Instinct-GPU-Innovationen sein wird, welche die Bedürfnisse der HPC-Branche und die Nachfrage nach rechenintensiven Rechenzentrums-Workloads erfüllen“, sagte Brad McCredie, Corporate Vice President, Data Center GPU und Accelerated Processing bei AMD.

#Supermicro