Das Beste der Cloud in einer On-Premises-Umgebung zur Beschleunigung von Data-Science

Mit HPE GreenLake für ML Ops können Sie ML-/KI-Projekte einfacher und schneller voranbringen und diese nahtlos für den Produktionsbetrieb skalieren. Implementieren Sie KI-/ML-Workloads in Ihrem Rechenzentrum oder Ihrer Colocation auf der für KI/ML optimierten Cloud-Service-Infrastruktur von HPE. Sie beinhaltet HPE Apollo Hardware auf der Basis von HPE Ezmeral ML Ops – einer Lösung, die alle Aspekte des ML-Lebenszyklus berücksichtigt, von der Datenaufbereitung bis hin zur Erstellung, dem Training, der Implementierung, Überwachung und gemeinsamen Nutzung der Modelle. Die HPE GreenLake Edge-to-Cloud-Plattform bietet verbrauchsbasierte Tarife, mit denen Sie Ressourcen on-premises mit dem Besten der Cloud nutzen können.

Lösung von Problemen mit operativen Risiken und Datengravitation

Vermeiden Sie die Probleme mit der Compliance, Sicherheit und Datengravitation in der Public Cloud und das Risiko, das mit dem Betrieb einer eigenen Infrastruktur verbunden ist. Führen Sie Workloads direkt bei Ihrem On-Premises-Data-Lake aus und vermeiden Sie so versteckte Kosten für ausgehende Daten. HPE sorgt mit den neuesten Softwareversionen und Fixes für den gesamten Stack dafür, dass Ihre KI-/ML-Plattform stets auf dem aktuellen Stand ist.

Unterstützung von Data Scientists und Beschleunigung der Wertschöpfung

Mit HPE GreenLake für ML Ops können sich Ihre Data Scientists auf die Erstellung von Modellen statt auf das Management und die Konfiguration der Infrastruktur konzentrieren. Dieses auf Kubernetes basierende moderne und erweiterbare Data Science-Framework bietet Data Scientists die Möglichkeit, die Tools ihrer Wahl zu verwenden und Workflows zu definieren, um Algorithmen für jeden Data Science-Anwendungsfall zu erstellen.

Flexibles Preismodell und Kostenüberwachung

Reservieren Sie die Kapazität, die Sie benötigen, und bezahlen Sie nur für die tatsächlich genutzten Ressourcen. Sie können zudem Ihre gemessene Nutzung und die damit verbundenen Kosten anzeigen und so die Nutzung mit bestimmten Geschäftszielen verknüpfen.

Sichere Bereitstellung und sicheres Management

Lagern Sie die Überwachung und das Management Ihrer Data-Science-Umgebung aus. HPE GreenLake für ML Ops wird durch die HPE IT Operations Centers und HPE GreenLake Central sicher verwaltet.


HPE GreenLake für ML Ops

Führen Sie Ihre ML-Workloads mit der Sicherheit und Kontrolle aus, die eine On-Premises-Infrastruktur bietet. Sie haben die Wahl zwischen einer Standardkonfiguration und einer leistungsoptimierten Konfiguration, die beide auf einem leistungsfähigen, für maschinelles Lernen optimierten Hardware-/Software-Stack der Enterprise-Klasse basieren. Neben der nutzungsbasierten Abrechnung bietet dieser Service

  • ein einfaches, transparentes Preismodell, durch das der On-Premises-Service als Betriebsausgabe abgerechnet werden kann.
  • Flexibilität zur Unterstützung unvorhersehbarer Workloads.
  • reservierte Kapazität und ein nutzungsbasiertes Modell, das vorhersehbare Preise bietet und den variablen Bedarf unterstützt, der typisch für Data-Science-Workloads ist.
  • einen Vertrag über 4 Jahre mit monatlicher Zahlung.
  • Unterstützung für das erweiterbare Kubeflow Framework, das Zugriff auf ein breites und immer größeres Angebot an Tools bietet, die von der Open Source-Community entwickelt wurden.
Kontaktieren Sie uns
Überzeugen Sie sich mit einer kostenlosen Testversion, wie HPE GreenLake für ML Ops funktioniert
  • Die HPE GreenLake Edge-to-Cloud-Plattform liefert Ergebnisse für Unternehmen auf der ganzen Welt. Überzeugen Sie sich selbst! Wenn Sie eine kostenlose Testversion von HPE GreenLake für ML Ops anfordern, stellen wir die Instanz bereit und richten Ihr Konto in HPE GreenLake Central ein, wo Ihnen Verwaltungsfunktionen, Nutzungsdaten und detaillierte Verbrauchsberichte zur Verfügung stehen.
  • Eine 21-tägige Testphase ist Standard und kann bei Bedarf verlängert werden
  • Ihnen wird ein Testingenieur zugewiesen, der während der gesamten Testphase verfügbar ist, um Sie bei der Navigation durch die Anwendungsfallszenarien zu unterstützen und Ihre Fragen zu beantworten.
  • Der Service wird über ein HPE Colocation-Rechenzentrum bereitgestellt, sodass Sie keine Geräte an Ihrem eigenen Standort benötigen.
  • Ihr Test beinhaltet den Zugriff auf eine Standardkonfiguration von HPE GreenLake für ML Ops. Sie können Ihre eigenen Daten verwenden und Ihre Anwendungsfälle mit der HPE GreenLake Plattform validieren.
  • Der Test ist für Sie kostenlos.

DETAILS AUF EINEN BLICK

Standardkonfiguration
Leistungsoptimierte Konfiguration

Empfohlen für

Unternehmen mit einem Data Science-Team, die künstliche Intelligenz (KI) und maschinelles Lernen (ML) zur Lösung von Geschäftsproblemen einsetzen möchten und ML-/KI-Workloads agil und sicher in einer On-Premises-Umgebung ausführen möchten, ohne sich um das Management der Infrastruktur kümmern zu müssen.

Unternehmen mit einem Data Science-Team, die Deep Learning-Modelle im großen Maßstab trainieren und die Modelle in die Produktionsumgebung überführen oder mehrere Data Science-Projekte gleichzeitig in einer On-Premises-Umgebung durchführen.

Hardware-Spezifikationen

  • Rechenleistung: HPE Apollo 6500 (6 CPUs, 96 nutzbare CPU-Kerne) mit integrierten beschleunigten NVIDIA Tesla V100 oder A100 GPUs (4) und HPE ProLiant DL360 mit integrierten NVIDIA Tesla T4 GPUs (4). 
  • Datenspeicher: HPE Apollo 4200 mit 228 TB nutzbarem Datenspeicher.
  • Rechenleistung: HPE Apollo 6500 (6 CPUs, 120 nutzbare CPU-Kerne) mit integrierten beschleunigten NVIDIA Tesla V100 oder A100 GPUs (8) und HPE ProLiant DL360 mit integrierten NVIDIA Tesla T4 GPUs (4). 
  • Datenspeicher: HPE Apollo 4200 mit 394 TB nutzbarem Datenspeicher und 150 TB NVMe-Storage.

 

Software-Stack

  • HPE Ezmeral Runtime Enterprise und ML Ops Software
  • HPE GreenLake für ML Ops basiert auf Open Source Kubernetes und dem Kubeflow Data Science Framework. Zu den unterstützten Tools gehören: Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines und KFServing sowie die erforderlichen Infrastrukturkomponenten.
  • Zusätzlich zu den Kubeflow Komponenten bieten KubeDirector Images zusätzliche Tools wie Jenkins, Git Client und Kafka. 
  • Tools wie die Applications Work Bench für HPE Ezmeral Runtime Enterprise und Helm sind enthalten. So können KubeDirector und Kubernetes Anwendungen sowie Pakete zu HPE GreenLake für ML Ops hinzugefügt werden.
  • HPE Ezmeral Runtime Enterprise und ML Ops Software
  • HPE GreenLake für ML Ops basiert auf Open Source Kubernetes und dem Kubeflow Data Science Framework. Zu den unterstützten Tools gehören: Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines und KFServing sowie die erforderlichen Infrastrukturkomponenten.
  • Zusätzlich zu den Kubeflow Komponenten bieten KubeDirector Images zusätzliche Tools wie Jenkins, Git Client und Kafka. 
  • Tools wie die Applications Work Bench für HPE Ezmeral Runtime Enterprise und Helm sind enthalten. So können KubeDirector und Kubernetes Anwendungen sowie Pakete zu HPE GreenLake für ML Ops hinzugefügt werden.

Steuerungsebene

Sichere Self-Service-Bereitstellung und -Verwaltung über eine einheitliche Steuerungsebene für die Abstimmung zwischen HPE Ezmeral Runtime Enterprise und HPE GreenLake Central.

Sichere Self-Service-Bereitstellung und -Verwaltung über eine einheitliche Steuerungsebene für die Abstimmung zwischen HPE Ezmeral Runtime Enterprise und HPE GreenLake Central.

Was gemessen wird

Die Nutzung wird auf der Basis der Rechenkapazität (pro Minute) und der Datenspeicherkapazität (pro GB) gemessen, die von den Knoten in einem Cluster genutzt werden.

Es werden 4 Messgrößen zur Berechnung der Nutzung verwendet, die die reservierte Kapazität übersteigt:

  • CPU-Kerne – Nutzung pro Minute 
  • V100 oder A100 GPU – Nutzung pro Minute 
  • T4 GPU – Nutzung pro Minute 
  • Datenspeicher – durchschnittliche Nutzung in GB pro Stunde

Die Nutzung wird auf der Basis der Rechenkapazität (pro Minute) und der Datenspeicherkapazität (pro GB) gemessen, die von den Knoten in einem Cluster genutzt werden.

Es werden 4 Messgrößen zur Berechnung der Nutzung verwendet, die die reservierte Kapazität übersteigt:

  • CPU-Kerne – Nutzung pro Minute 
  • V100 oder A100 GPU – Nutzung pro Minute 
  • T4 GPU – Nutzung pro Minute 
  • Datenspeicher – durchschnittliche Nutzung in GB pro Stunde

Enthaltene Services

  • HPE Techniker führen die Ersteinrichtung und Integration in Ihre Rechenzentrumsinfrastruktur durch. Der Service beinhaltet proaktiven und reaktiven Support mit einer zentralen Anlaufstelle.
  • Der Service umfasst mehrere Tage technische Unterstützung nach der Installation durch HPE Experten. Sie können diesen Service nach Ihrem Ermessen nutzen.
  • Umfassende Überwachung und Lifecycle Management der Infrastruktur von HPE GreenLake für ML Ops durch HPE.
  • HPE Techniker führen die Ersteinrichtung und Integration in Ihre Rechenzentrumsinfrastruktur durch. Der Service beinhaltet proaktiven und reaktiven Support mit einer zentralen Anlaufstelle.
  • Der Service umfasst mehrere Tage technische Unterstützung nach der Installation durch HPE Experten. Sie können diesen Service nach Ihrem Ermessen nutzen.
  • Umfassende Überwachung und Lifecycle Management der Infrastruktur von HPE GreenLake für ML Ops durch HPE.