Die Verbindung von Simulation und KI ändert alles
Diese Verbindung stellte neue Anforderungen an HPC Storage, da die I/O-Muster der beiden Workloads unterschiedlicher nicht sein könnten. Und zwar genau jetzt. In einer kürzlich durchgeführten Studie fand die unabhängige Analysefirma Intersect360 heraus, dass 63 % der HPC-Benutzer heute bereits mit Programmen für maschinelles Lernen arbeiten. Hyperion Research prognostiziert, dass, wenn sich der aktuelle Trend in der derzeitigen Geschwindigkeit fortsetzt, die Ausgaben in Unternehmen und Organisationen des öffentlichen Sektors für HPC Storage um 57 % schneller wachsen werden als die Ausgaben für HPC-Rechenleistung in den nächsten drei Jahren.
+ Mehr anzeigen
Seymour Cray sagte einmal: „Jeder kann eine schnelle CPU entwickeln. Doch der Trick besteht darin, ein schnelles System zu entwickeln.“ Auf HPC und KI bezogen, bedeutet das: Jeder kann schnellen Dateispeicher entwickeln. Der Trick besteht darin, ein schnelles, aber auch kosteneffizientes und skalierbares Dateispeichersystem zu entwickeln. Das erreichen wir, indem wir die führenden parallelen Dateisysteme in parallele Datenspeicherprodukte von HPE mit integrierter Kosteneffizienz einbetten.
Neue HPC Storage-Ära: Das Beste aus beiden Welten
| Herkömmlicher HPC-Cluster | Neue Ära – konvergent | Herkömmlicher KI-Stack (POD) |
---|---|---|---|
Primärer Workload | Modellierung & Simulation | Beide | Maschinelles Lernen/Deep Learning |
Typ des Computing-Knotens
| CPU-Knoten wie HPE Apollo 2000 | Beide | GPU-Knoten wie HPE Apollo 6500 |
Anzahl der Computing-Knoten | Hunderte bis Tausende | Hunderte bis Tausende | Einige wenige |
Typische Verbindung | InfiniBand | Beide (plus HPE Slingshot) | Gigabit Ethernet |
Primäres I/O-Pattern | Schreibintensiv | Beide | Leseintensiv |
Speicherkapazität gemessen in | Petabyte | Petabyte | Terabyte |
Speicherskalierbarkeit in einzelnem Namespace | Bis zu Exabyte | Bis zu Exabyte | Bis zu niedrigen zweistelligen Petabyte |
Typischer Datenspeicher | HDD-basierter Parallel File System-Datenspeicher | Cray ClusterStor E1000 HPE Parallel File System Datenspeicher | All-Flash-Enterprise-NAS |
Speicher gut geeignet für | Bereitstellung großer Dateien in sequenzieller Folge mit Geschwindigkeiten von zu mehreren Terabyte pro Sekunde | Bereitstellung von Dateien in sequenzieller und zufälliger Folge mit Geschwindigkeiten bis zu mehreren Terabyte pro Sekunde | Bereitstellung von Dateien in sequenzieller und zufälliger Folge mit Geschwindigkeiten bis zu mehreren Gigabyte pro Sekunde |
Preis pro Terabyte | $ | $$ | $$$$$ |
Skalierbare, kosteneffiziente Leistung
Unsere Datenspeichersysteme sind für Leistung und Skalierbarkeit ausgelegt, die Scale-Out-NAS weit übertreffen. Sie nutzen führende parallele Dateisysteme und erfordern keine kapazitätsbasierte Lizenzierung des Dateisystems. HPE Pointnext bietet Unterstützung für das komplette Datenspeichersystem, Hardware und Software.
| HPE Parallel File System Datenspeicher | Cray ClusterStor E1000 Datenspeichersystem |
---|---|---|
Paralleles Dateisystem | IBM Spectrum Scale Erasure Code Edition | Lustre |
In der Regel verbunden mit | Cluster aus HPE Apollo Systemen oder HPE ProLiant DL Rack-Servern mit HPE IB HDR/Ethernet Adaptern mit 200 Gbit | HPE Cray EX Supercomputer oder sehr große Cluster aus HPE Apollo Systemen und HPE ProLiant DL Servern |
Anzahl der Computing-Knoten | Mehrere Zehn bis wenige Hundert | Hunderte bis Tausende |
Typ der Computing-Knoten | GPU und/oder CPU | GPU und/oder CPU |
Verbunden mit | InfiniBand HDR oder 100/200 GbE | HPE Slingshot oder InfiniBand HDR oder 100/200 GbE |
Umfang von Datenspeicherfunktionen der Enterprise-Klasse | Umfassend | Basic |
Unterstützte Protokolle | POSIX, NFS, SMB, HDFS, Objekt | POSIX |
Scale-Out in der Regel in | Terabyte (ab 27 TB) | Petabyte (ab 1 PB) |
Am besten geeignet für HPC und KI in | Fertigungsindustrie, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, High-Tech, Pharma, Telekommunikation, Einzelhandel und für Benutzerverzeichnisse in den in der rechten Spalte aufgeführten Organisationen | Forschungslabore und Universitäten, Verteidigung und Nachrichtendienste, Raumfahrtbehörden, Klimaforschung, Wettervorhersage und Geowissenschaften (einschließlich Öl und Gas) |
Parallele Datenspeicherlösungen für die neue Ära
Ganz gleich, ob Ihnen IBM Spectrum oder Lustre lieber ist – wir haben das richtige parallele Datenspeichersystem für Sie. Und mit HPE Data Management Framework (DMF) V7 können Sie Dateien aus Datenschutzgründen oder zur langfristigen Archivierung zwischen ihnen oder aus ihnen heraus übertragen.
+ Mehr anzeigen
Dieses Datenspeichersystem kann Lustre einbetten, das führende parallele Dateisystem für Anwendungsfälle in Wissenschaft und Bundesbehörden. Es eignet sich ideal für den Anschluss mit HPE Slingshot, InfiniBand HDR und 100/200 GbE an HPC Cray EX Supercomputer und große Cluster aus HPE Apollo Systemen oder HPE ProLiant DL Rack-Servern, die Modellierungs- und Simulations-, KI- oder Hochleistungs-Datenanalyseworkloads ausführen. Von HPE Pointnext Services wird sowohl Hardware als auch Software unterstützt.
Dieses Datenspeichersystem bettet IBM Spectrum Scale ein, das führende parallele Dateisystem für Unternehmen. Es eignet sich ideal für den Anschluss mit InfiniBand HDR und 100/200 GbE an Cluster aus HPE Apollo Systemen oder HPE ProLiant DL Rack-Servern, die Modellierungs- und Simulations-, KI- oder Hochleistungs-Datenanalyseworkloads ausführen. Von HPE Pointnext Services wird sowohl Hardware als auch Software unterstützt. Datenspeicherserver sind kosteneffiziente HPE ProLiant DL Rack-Server.
Optimieren Sie HPC Storage Ressourcen, indem Sie eine hierarchische, mehrstufige Architektur zur Speicherverwaltung schaffen. Das HPE Data Management Framework optimiert die Auslastung der Datenspeicherressourcen, um die Gesamtbetriebskosten zu senken, und optimiert die Datenworkflows mit der bewährten automatisierten Datenverschiebung in der gesamten Speicherhierarchie. Jetzt mit nativem Support für IBM Spectrum Scale sowie Lustre und HPE XFS.