Shop
Hier können Sie Produkte suchen, anfragen und bestellen

Im 2 HE-GPU-Server ESC4000 G4 mit Intel-Prozessoren aus der Xeon-Familie erledigen vier Double-Deck GPU-Karten die eigentliche Gleitkomma-Rechenarbeit. Sein RAID-Massenspeicher mit acht LFF SATA-Festplattenschächten, die redundanten Netzteile und seine 8+3 PCIe-Steckplätze komplettieren die stimmige Ausstattungsliste. Der schnelle Server bietet grandiose Rechenleistungen, eine enorme Skalierbarkeit und eine hohe Energieeffizienz.High-Density-Computing ist speziell dafür ausgelegt, mehr Rechenleistung in einem Rack unterzubringen. Das schafft der ESC4000 G4 mit seinen zwei Höheneinheiten spielend, da er bis zu vier Grafikprozessoren aufnehmen kann und dadurch eine extrem hohe Leistungsdichte aufweist. Der ESC4000 G4 unterstützt bis zu acht PCIe Gen3 x16-Steckplätze. Daraus resultieren eine hohe Erweiterbarkeit und eine große Kompatibilität mit vielen Erweiterungskarten. So arbeitet der Server mit einer großen Anzahl von GPU-Karten zusammen (NVIDIA Tesla, GridTM und AMD FirePro S-Serie). Zusätzlich gibt es noch einen PCIe Gen3 x 24-Steckplatz, in den mittels Riser-Board auch zwei Low-Profile-HBAs oder proprietäre Netzwerkkarten mit FDR- und 10 GbE-Interface passen.

Dieser ASUS-Server richtet sich an leistungsintensive Einsatzbereiche, in denen hohe Rechenleistung, große Datenmengen und skalierbare Infrastruktur entscheidend sind. Zu den primären Zielmärkten zählen High Performance Computing (HPC), KI-basierte Prognose- und Analyse-Workloads, Data-Warehouse-Anwendungen im Terabyte-Maßstab sowie anspruchsvolle Virtualisierungsumgebungen. Das Storage- und Erweiterungskonzept ist auf Skalierbarkeit ausgelegt und umfasst bis zu sechs NVMe/SATA Hot-Swap-Laufwerke (2x 2,5" + 4x 3,5") sowie vier PCIe-5.0-x16-Steckplätze für Dual-Slot-GPUs (oder acht Single-Slot-GPUs) für maximale Beschleunigung. Für die Netzwerkanbindung stehen zwei Intel I350 GbE-LAN-Ports sowie ASMB11-iKVM für Remote-Management zur Verfügung. Die Kühlung erfolgt über ASUS Thermal Radar 2.0 mit mehreren Hochleistungsventilatoren, speziell für Prozessoren mit bis zu 350 W TDP und GPU-Workloads optimiert

Dieser ASUS-Server richtet sich an leistungsintensive GPU-Workloads in den Bereichen KI-Training/Inferenz, High Performance Computing (HPC), Forschung und Datenanalyse. Zu den primären Zielmärkten zählen anspruchsvolle AI-Infrastrukturen, die höchste Rechenleistung mit skalierbarer GPU-Anbindung erfordern. Das Storage- und Erweiterungskonzept ist GPU-optimiert und umfasst sechs frontseitige Hot-Swap-Laufwerke (2x 2,5" SATA/U.2 + 4x 3,5" SATA/U.2) sowie acht PCIe-5.0-Steckplätze (4x x16 + 4x x8 in x16-Größe) für bis zu vier Dual-Slot-GPUs mit NVIDIA NVLink-Bridge-Support. Für die Netzwerkanbindung stehen duale 1GbE Intel I350-Ports, ein dedizierter Management-LAN sowie OCP 3.0 zur Verfügung. Die Kühlung erfolgt mit 10Hochleistungsventilatoren und unterstützt Flüssigkeitskühlung, speziell für Prozessoren mit bis zu 400 W TDP und GPU-Workloads ausgelegt.

Der vier Höheneinheiten belegende GPU-Server von ASUS arbeitet mit zwei Intel Xeon Prozessoren und kann mit bis zu 3 Terabyte Arbeitsspeicher ausgerüstet werden. Die acht von vorn erreichbaren Laufwerksschächte werden kurzerhand an den SATA-Controller angedockt. Optional gibt es auch einen Controller für schnelle SAS-Platten und -SSDs. Zudem bietet der ESC8000 G4 auch noch zwei M.2-Schnittstellen für SSDs (SATA 6 Gbit/s & PCIe Gen3 x4 link 22110/2280/2260), sowie zwei NVMe-Slots. (Werden letztere verwendet, reduziert sich die Anzahl der nutzbaren SATA-Laufwerke von acht auf sechs.) Von seinen zehn PCIe-Erweiterungsslots lassen sich bis zu acht Schächte für GPU-Karten nutzen. Dafür eignen sich beispielsweise NVIDIA Tesla V100. Voll bestückt erreicht die schnelle Rechenmaschine damit rund 112 Teraflops (Floating Point Operations Per Second) nach Single Precision-Berechnung. Zum Vergleich: Ein Server ohne GPU-Unterstützung berechnet Gleitkommaoperationen etwa 200 mal langsamer.

Dieser ASUS-Server richtet sich an leistungsintensive Einsatzbereiche, in denen hohe Rechenleistung, große Datenmengen und skalierbare Infrastruktur entscheidend sind. Zu den primären Zielmärkten zählen High Performance Computing (HPC), KI-Training und Inferencing, Data-Warehouse-Anwendungen im Terabyte-Maßstab sowie anspruchsvolle Virtualisierungsumgebungen. Das Storage- und Erweiterungskonzept ist auf Skalierbarkeit ausgelegt und umfasst bis zu acht 2,5"-Hot-Swap-NVMe-Laufwerke sowie acht PCIe-5.0-x16-Steckplätze für Dual-Slot-GPUs (bis 600W TDP pro GPU) mit Unterstützung für NVIDIA NVLink 2-Way/4-Way Bridges. Für die Netzwerkanbindung steht ein dedizierter Management-Port sowie optionale OCP 3.0-Unterstützung zur Verfügung. Die Kühlung erfolgt über 5 System- und 5 dedizierte GPU-Ventilatoren mit ASUS Thermal Radar 2.0, speziell für Prozessoren mit bis zu 350 W TDP und extreme GPU-Workloads optimiert.

Der vier Höheneinheiten belegende GPU-Server von ASUS arbeitet mit zwei AMD EPYC 9004 Prozessoren und kann mit bis zu 6 Terabyte Arbeitsspeicher ausgerüstet werden. Die acht von vorn erreichbaren Laufwerksschächte werden kurzerhand an den SATA-Controller angedockt. Optional gibt es auch einen Controller für schnelle SAS-Platten und -SSDs. Zudem bietet der ESC8000A-E12 auch noch eine M.2-Schnittstelle für SSDs (PCIe Gen3 x4 link 22110/2280/2260). Von seinen zehn PCIe-Erweiterungsslots lassen sich bis zu acht Schächte für GPU-Karten nutzen. Dafür eignen sich beispielsweise NVIDIA H100. Voll bestückt erreicht die schnelle Rechenmaschine damit rund 480/240 Teraflops (FP32/FP64)


Dieser ASUS-Server richtet sich an extreme GPU-Workloads in KI-Training/Inferenz, High Performance Computing (HPC) und Enterprise-AI-Anwendungen. Zu den primären Zielmärkten zählen generative KI, Large Language Models (LLM), wissenschaftliche Simulationen und datenintensive Analytics-Umgebungen. Das GPU-optimierte Design unterstützt bis zu acht Dual-Slot-GPUs (z.B. NVIDIA H200/H100/RTX PRO 6000 Blackwell) mit PCIe 5.0 x16-Anbindung und optionalem NVLink-Bridge-Support in NVIDIA MGX-Architektur. Storage umfasst acht 2,5"-NVMe Hot-Swap-Bays plus zwei M.2 PCIe 5.0-Slots. Netzwerkoptionen reichen von dual 10GbE (Intel X710-AT2) bis zu dedizierten 400GbE PCIe-Karten, ergänzt durch ASMB11-iKVM Remote-Management. Die Kühlung mit 5 Systemventilatoren ist für Dual EPYC 9005 (bis 500W TDP) und GPU-TDP bis 600W ausgelegt
