GPU Server als Schnellrechner für Simulationen
Für eilige Aufgaben optimiert
Lokale Super-Computer: GPU Server
Wenn Sie brachial schnelle Kalkulatoren für knifflige Brute-Force-Aufgaben oder Simulationen suchen, ist ein GPU-Server die erste Adresse.
Diese Server-Linie hat vor allem eines: Richtig viel Rechen-Power. Mit ihnen können hohe Compute Workloads effizient abgearbeitet werden und bieten dabei hochdichte Rechenkapazitäten mit maximaler Leistung und Produktivität bei reduziertem Kosten-Pro-Workload.
Sie sind also für den Einsatz in Rechenzentren optimiert und offerieren Höchstleistung bei maximaler Raum- und Energieeffizienz. Dazu kommt skalierbare CPU- bzw I/O-Leistung und Speicherbandbreite für unternehmenskritische Anwendungen sowie ein Design zur Anbindung an ein SAN (Speichernetzwerk).

Im 2 HE-GPU-Server ESC4000 G4 mit Intel-Prozessoren aus der Xeon-Familie erledigen vier Double-Deck GPU-Karten die eigentliche Gleitkomma-Rechenarbeit. Sein RAID-Massenspeicher mit acht LFF SATA-Festplattenschächten, die redundanten Netzteile und seine 8+3 PCIe-Steckplätze komplettieren die stimmige Ausstattungsliste. Der schnelle Server bietet grandiose Rechenleistungen, eine enorme Skalierbarkeit und eine hohe Energieeffizienz.High-Density-Computing ist speziell dafür ausgelegt, mehr Rechenleistung in einem Rack unterzubringen. Das schafft der ESC4000 G4 mit seinen zwei Höheneinheiten spielend, da er bis zu vier Grafikprozessoren aufnehmen kann und dadurch eine extrem hohe Leistungsdichte aufweist. Der ESC4000 G4 unterstützt bis zu acht PCIe Gen3 x16-Steckplätze. Daraus resultieren eine hohe Erweiterbarkeit und eine große Kompatibilität mit vielen Erweiterungskarten. So arbeitet der Server mit einer großen Anzahl von GPU-Karten zusammen (NVIDIA Tesla, GridTM und AMD FirePro S-Serie). Zusätzlich gibt es noch einen PCIe Gen3 x 24-Steckplatz, in den mittels Riser-Board auch zwei Low-Profile-HBAs oder proprietäre Netzwerkkarten mit FDR- und 10 GbE-Interface passen.

Dieser ASUS-Server richtet sich an leistungsintensive Einsatzbereiche, in denen hohe Rechenleistung, große Datenmengen und skalierbare Infrastruktur entscheidend sind. Zu den primären Zielmärkten zählen High Performance Computing (HPC), KI-basierte Prognose- und Analyse-Workloads, Data-Warehouse-Anwendungen im Terabyte-Maßstab sowie anspruchsvolle Virtualisierungsumgebungen. Das Storage- und Erweiterungskonzept ist auf Skalierbarkeit ausgelegt und umfasst bis zu sechs NVMe/SATA Hot-Swap-Laufwerke (2x 2,5" + 4x 3,5") sowie vier PCIe-5.0-x16-Steckplätze für Dual-Slot-GPUs (oder acht Single-Slot-GPUs) für maximale Beschleunigung. Für die Netzwerkanbindung stehen zwei Intel I350 GbE-LAN-Ports sowie ASMB11-iKVM für Remote-Management zur Verfügung. Die Kühlung erfolgt über ASUS Thermal Radar 2.0 mit mehreren Hochleistungsventilatoren, speziell für Prozessoren mit bis zu 350 W TDP und GPU-Workloads optimiert

Dieser ASUS-Server richtet sich an leistungsintensive GPU-Workloads in den Bereichen KI-Training/Inferenz, High Performance Computing (HPC), Forschung und Datenanalyse. Zu den primären Zielmärkten zählen anspruchsvolle AI-Infrastrukturen, die höchste Rechenleistung mit skalierbarer GPU-Anbindung erfordern. Das Storage- und Erweiterungskonzept ist GPU-optimiert und umfasst sechs frontseitige Hot-Swap-Laufwerke (2x 2,5" SATA/U.2 + 4x 3,5" SATA/U.2) sowie acht PCIe-5.0-Steckplätze (4x x16 + 4x x8 in x16-Größe) für bis zu vier Dual-Slot-GPUs mit NVIDIA NVLink-Bridge-Support. Für die Netzwerkanbindung stehen duale 1GbE Intel I350-Ports, ein dedizierter Management-LAN sowie OCP 3.0 zur Verfügung. Die Kühlung erfolgt mit 10Hochleistungsventilatoren und unterstützt Flüssigkeitskühlung, speziell für Prozessoren mit bis zu 400 W TDP und GPU-Workloads ausgelegt.

Der vier Höheneinheiten belegende GPU-Server von ASUS arbeitet mit zwei Intel Xeon Prozessoren und kann mit bis zu 3 Terabyte Arbeitsspeicher ausgerüstet werden. Die acht von vorn erreichbaren Laufwerksschächte werden kurzerhand an den SATA-Controller angedockt. Optional gibt es auch einen Controller für schnelle SAS-Platten und -SSDs. Zudem bietet der ESC8000 G4 auch noch zwei M.2-Schnittstellen für SSDs (SATA 6 Gbit/s & PCIe Gen3 x4 link 22110/2280/2260), sowie zwei NVMe-Slots. (Werden letztere verwendet, reduziert sich die Anzahl der nutzbaren SATA-Laufwerke von acht auf sechs.) Von seinen zehn PCIe-Erweiterungsslots lassen sich bis zu acht Schächte für GPU-Karten nutzen. Dafür eignen sich beispielsweise NVIDIA Tesla V100. Voll bestückt erreicht die schnelle Rechenmaschine damit rund 112 Teraflops (Floating Point Operations Per Second) nach Single Precision-Berechnung. Zum Vergleich: Ein Server ohne GPU-Unterstützung berechnet Gleitkommaoperationen etwa 200 mal langsamer.

Dieser ASUS-Server richtet sich an leistungsintensive Einsatzbereiche, in denen hohe Rechenleistung, große Datenmengen und skalierbare Infrastruktur entscheidend sind. Zu den primären Zielmärkten zählen High Performance Computing (HPC), KI-Training und Inferencing, Data-Warehouse-Anwendungen im Terabyte-Maßstab sowie anspruchsvolle Virtualisierungsumgebungen. Das Storage- und Erweiterungskonzept ist auf Skalierbarkeit ausgelegt und umfasst bis zu acht 2,5"-Hot-Swap-NVMe-Laufwerke sowie acht PCIe-5.0-x16-Steckplätze für Dual-Slot-GPUs (bis 600W TDP pro GPU) mit Unterstützung für NVIDIA NVLink 2-Way/4-Way Bridges. Für die Netzwerkanbindung steht ein dedizierter Management-Port sowie optionale OCP 3.0-Unterstützung zur Verfügung. Die Kühlung erfolgt über 5 System- und 5 dedizierte GPU-Ventilatoren mit ASUS Thermal Radar 2.0, speziell für Prozessoren mit bis zu 350 W TDP und extreme GPU-Workloads optimiert.

Der vier Höheneinheiten belegende GPU-Server von ASUS arbeitet mit zwei AMD EPYC 9004 Prozessoren und kann mit bis zu 6 Terabyte Arbeitsspeicher ausgerüstet werden. Die acht von vorn erreichbaren Laufwerksschächte werden kurzerhand an den SATA-Controller angedockt. Optional gibt es auch einen Controller für schnelle SAS-Platten und -SSDs. Zudem bietet der ESC8000A-E12 auch noch eine M.2-Schnittstelle für SSDs (PCIe Gen3 x4 link 22110/2280/2260). Von seinen zehn PCIe-Erweiterungsslots lassen sich bis zu acht Schächte für GPU-Karten nutzen. Dafür eignen sich beispielsweise NVIDIA H100. Voll bestückt erreicht die schnelle Rechenmaschine damit rund 480/240 Teraflops (FP32/FP64)


Dieser ASUS-Server richtet sich an extreme GPU-Workloads in KI-Training/Inferenz, High Performance Computing (HPC) und Enterprise-AI-Anwendungen. Zu den primären Zielmärkten zählen generative KI, Large Language Models (LLM), wissenschaftliche Simulationen und datenintensive Analytics-Umgebungen. Das GPU-optimierte Design unterstützt bis zu acht Dual-Slot-GPUs (z.B. NVIDIA H200/H100/RTX PRO 6000 Blackwell) mit PCIe 5.0 x16-Anbindung und optionalem NVLink-Bridge-Support in NVIDIA MGX-Architektur. Storage umfasst acht 2,5"-NVMe Hot-Swap-Bays plus zwei M.2 PCIe 5.0-Slots. Netzwerkoptionen reichen von dual 10GbE (Intel X710-AT2) bis zu dedizierten 400GbE PCIe-Karten, ergänzt durch ASMB11-iKVM Remote-Management. Die Kühlung mit 5 Systemventilatoren ist für Dual EPYC 9005 (bis 500W TDP) und GPU-TDP bis 600W ausgelegt
Unser Highlight
GPU-Server
● AMD Dual-Socket CPU
● 8 Dual-Slot-GPUs
● 8 NVMe/SATA/SAS-Bays
● 11 PCIe 5.0-Steckplätze
Durch GPU Server den Raum effektiv nutzen
Mit maximaler Leistung pro HE, maximale I/O-Leistung und I/O-Busarchitektur pro HE, maximaler Cache-Ausstattung und maximaler Energieeffizienz überzeugen sie zudem durch Servicefreundlichkeit. So sparen sie teure Rechenzentrums-Ressourcen wie Energie, Raum und Personal ein.
Ihre Vorteile bei Starline:
- Höchste Rechenleistung auf kleinem Raum
- Hohe Packungsdichte
- Bis zu acht GPUs einsetzbar
- Servicefreundlich
Starline Vorteile
Die Ware geht umgehend nach der Bestellung raus. Die schnelle Starline-Produktion assembliert Server und Storage-Systeme im Nu.
Wir wissen welche Komponenten miteinander arbeiten, weil wir die Connectivity vorab ausgiebig testen.
Unsere Produktmanager und Techniker suchen permanent nach ausgefeilten Server- und Storage-Produkten.
Wir sind nur Ihnen – also dem Kunden gegenüber – verpflichtet und bieten daher immer die für Sie beste Lösung an.
Hier finden Sie die wichtigsten Fragen rund um Server.
Unsere Server übernehmen in der Regel Kernaufgaben, die dauerhaft verfügbar sein müssen: Von E-Mail-Diensten und Webseiten bis hin zu wissenschaftlichen Simulationen. Sobald hier Ausfälle auftreten, kann das den gesamten Betrieb beeinträchtigen. Daher legen wir höchsten Wert auf Zuverlässigkeit und Performance, damit Sie zu jeder Zeit sicher und effizient arbeiten können.
Wir bieten Ihnen maßgeschneiderte Lösungen – ganz gleich, ob Sie einen Hochleistungs-GPU-Server für anspruchsvolle Berechnungen benötigen oder eine energieeffiziente Plattform für den sparsamen Dauerbetrieb bevorzugen. Wir bauen unsere Server mit Industrie-Komponenten, beispielsweise von Supermicro oder ASUS, und integrieren dabei genau die Features, die für Ihre Anforderungen relevant sind.
Bei Zealbox handelt es sich um unsere eigene eingetragene Marke – quasi als Qualitätssiegel. Wir assemblieren schließlich alle Zealbox-Server direkt vor Ort in Kirchheim. Das ermöglicht uns strenge Qualitätskontrollen, eine schnelle Anpassung an Kundenwünsche und einen umfassenden Produkttest. Sie erhalten somit zuverlässig funktionierende Systeme – ohne lange Lieferzeiten und garantiert „Made in Germany“.
Selbstverständlich. Wir führen GPU-Server, die enorme Teraflop-Leistungen abrufen können, und bieten darüber hinaus ARM-basierte Modelle für platz- und stromsparende Lösungen. Auch hyperkonvergente, softwaredefinierte oder Industrial-IoT-Lösungen sind bei uns erhältlich. Damit decken wir ein breites Spektrum an Unternehmensaufgaben ab.
Unser Service endet nicht mit dem Kauf. Wir begleiten Sie auf Wunsch durch den gesamten Lebenszyklus Ihres Servers: Von der ersten Beratung über den Einbau und die Inbetriebnahme bis hin zur Wartung im laufenden Betrieb. Selbst einen 24x7x4-Service können wir bereitstellen, damit Ihre IT im Ernstfall schnell wieder auf Kurs kommt.
Im Magazin erfahren Sie mehr über unsere Produkte

SupremeRAID Core als effiziente Lösung für Edge-Rechenzentren sowie SupremeRAID Pro als skalierbare Enterprise-Controller.

Die Open Container Initiative hat festgelegt, wie Container technisch aufgebaut sein müssen, damit sie überall gleich funktionieren.

Kann Thunderbolt 5 mit seiner Topologie und 120 Gbit/s Durchsatz auch Aufgaben im Datacenter übernehmen?
