Pressemitteilung
Hewlett Packard Enterprise und NVIDIA lancieren „NVIDIA AI Computing by HPE“, um die industrielle Revolution der generativen KI zu beschleunigen
19. Juni 2024
Die neue Produktreihe umfasst die erste schlüsselfertige Private-Cloud-KI-Lösung mit der bisher tiefsten Integration von NVIDIA- und HPE-Technologien und der HPE GreenLake Cloud
Böblingen, Las Vegas, den 19. Juni 2024 – HPE Discover 2024 – Hewlett Packard Enterprise (HPE) und NVIDIA bringen „NVIDIA AI Computing by HPE“ auf den Markt, ein Portfolio gemeinsam entwickelter KI-Lösungen mit gemeinsamer Vermarktung, um die Einführung generativer KI in Firmen und Verwaltungen zu beschleunigen.
Zu den wichtigsten Angeboten des Portfolios gehört HPE Private Cloud AI, eine einzigartige Lösung mit der bisher tiefsten Integration von NVIDIAs Computing-, Netzwerk- und Software-Technologien mit den Speichern und Servern von HPE sowie mit der HPE GreenLake Cloud. Das neue Angebot wurde entwickelt für Inferenz, Feintuning und Retrieval-Augmented Generation (RAG) auf der Grundlage von proprietären Daten. Es ist für Unternehmen und Verwaltungen jeder Größe geeignet. Mit HPE Private Cloud AI haben sie Kontrolle und Souveränität hinsichtlich Datenschutz, Sicherheit, Transparenz und Governance.
Unterstützt durch einen neuen KI-Kopiloten auf der Grundlage von OpsRamp bietet HPE Private Cloud AI eine Self-Service-Umgebung mit Cloud-Nutzererfahrung und ein vollständiges Lebenszyklusmanagement. Die Lösung ist in vier Konfigurationen erhältlich, um eine breite Palette von KI-Anwendungen zu unterstützen.
Die Angebote und Dienstleistungen im Rahmen von NVIDIA AI Computing by HPE werden von HPE und NVIDIA gemeinsam mit Channel-Partnern und einem globalen Netzwerk von Systemintegratoren – darunter Deloitte, HCLTech, Infosys, TCS und Wipro – vermarktet.
NVIDIA AI Computing by HPE wurde während der Keynote der Konferenz HPE Discover in Las Vegas von Antonio Neri, President und CEO von HPE, und NVIDIA-Gründer und -CEO Jensen Huang angekündigt.
„Generative KI birgt ein immenses Transformationspotenzial, aber die Komplexität der fragmentierten KI-Technologie birgt viele Risiken und Barrieren – das erschwert die großflächige Einführung und gefährdet das wertvollste Kapital von Firmen und Verwaltungen: ihre proprietären Daten“, sagte Neri. „Deshalb haben HPE und NVIDIA gemeinsam eine schlüsselfertige Private Cloud für KI entwickelt, die es Kunden ermöglicht, sich auf die Entwicklung neuer KI-Anwendungen zu konzentrieren, die ihre Produktivität steigern und neue Einnahmequellen erschließen.“
„Generative KI und beschleunigtes Computing treiben einen grundlegenden Wandel voran, da jede Branche darum wetteifert, an der industriellen Revolution teilzuhaben“, sagte Huang. „Noch nie zuvor haben NVIDIA und HPE unsere Technologien so tief integriert wie mit dieser Kombination des gesamten NVIDIA AI Computing Stacks mit der Private-Cloud-Technologie von HPE. Damit statten wir Kunden mit dem führenden Infrastruktur- und Dienstleistungsangebot aus, sodass sie die Grenzen der KI erweitern können."
Der Technologie-Stack von HPE Private Cloud AI
Zum KI- und Daten-Software-Stack von HPE Private Cloud AI gehört zum einen die Softwareplattform NVIDIA AI Enterprise. Sie beschleunigt Daten-Pipelines und die Entwicklung von Kopiloten und anderen Anwendungen der generativen KI. NVIDIA AI Enterprise umfasst auch die Inferenz-Microservices von NVIDIA NIM, die einen reibungslosen Übergang vom Prototyp zum Betrieb von KI-Modellen unterstützen.
Als Ergänzung zu NVIDIA AI Enterprise und NVIDIA NIM bietet die Software HPE AI Essentials eine Reihe von kuratierten KI- und Datenwerkzeugen, die über eine einheitliche Steuerungsebene verwaltet werden. Diese Werkzeuge dienen dazu, Compliance, Erklärbarkeit und Reproduzierbarkeit von KI-Modellen sicherzustellen.
HPE Private Cloud AI beruht auf einem vollständig integrierten KI-Infrastruktur-Stack, der unter anderem die folgenden Komponenten umfasst: Spectrum-X-Ethernet-Netzwerke von NVIDIA, HPE GreenLake for File Storage und HPE-ProLiant-Server mit Unterstützung für die Grafikprozessoren NVIDIA L40S und NVIDIA H100 NVL Tensor Core sowie für die Superchip-Plattform NVIDIA GH200 NVL2.
Cloud-Nutzererfahrung und AIOps mit HPE GreenLake Cloud und OpsRamp
HPE Private Cloud AI bietet eine Self-Service-Nutzererfahrung. Grundlage dafür ist die HPE GreenLake Cloud, eine einheitliche Steuerungsplattform, mit der sich Endpunkte, Anwendungen und Daten in hybriden Umgebungen überwachen, automatisieren, orchestrieren und verwalten lassen. Dazu gehören auch Nachhaltigkeitsmetriken für Anwendungen und Endpunkte.
Die Softwarelösung OpsRamp ist in die HPE GreenLake Cloud integriert und bietet Überwachung und AIOps für den gesamten Technologie-Stack der HPE Private Cloud AI, einschließlich aller NVIDIA-Komponenten. IT-Administratoren können damit zum Beispiel Anomalien identifizieren und ihre KI-Infrastruktur und -Anwendungen in hybriden Multi-Cloud-Umgebungen überwachen.
Der neue OpsRamp-Kopilot nutzt die beschleunigte Computing-Plattform von NVIDIA und einen Chatbot, um große Datensätze zu analysieren und damit die Produktivität des Betriebsmanagements zu steigern. OpsRamp wird auch in CrowdStrike-APIs integriert, sodass Kunden eine einheitliche Sicht auf die Endpunktsicherheit bekommen.
HPE kündigte außerdem die folgenden neuen Server-Modelle an:
- HPE Cray XD670 unterstützt acht NVIDIA H200 NVL Tensor Core GPUs und ist ideal für das Training großer Sprachmodelle (LLM).
- Der HPE ProLiant DL384 Gen12 Server mit NVIDIA GH200 NVL2 ist ideal für LLM-Nutzer, die größere Modelle oder RAG verwenden.
- Der HPE ProLiant DL380a Gen12 Server unterstützt bis zu acht NVIDIA H200 NVL Tensor Core GPUs und ist ideal für LLM-Nutzer, die Flexibilität bei der Skalierung ihrer GenAI-Anwendungen brauchen.
- HPE wird zeitnah NVIDIA GB200 NVL72/NVL2 sowie die neuen Architekturen von NVIDIA Blackwell, NVIDIA Rubin und NVIDIA Vera unterstützen.
HPE GreenLake for File Storage zertifiziert für NVIDIA DGX BasePOD und NVIDIA OVX
HPE GreenLake for File Storage hat die DGX-BasePOD-Zertifizierung und die OVX-Speichervalidierung von NVIDIA erhalten und bietet Kunden eine bewährte Dateispeicherlösung zur Beschleunigung von KI-, GenAI- und GPU-intensiven Anwendungen in großem Maßstab.
Verfügbarkeiten
- HPE Private Cloud AI wird voraussichtlich im Herbst allgemein verfügbar sein.
- HPE ProLiant DL380a Gen12 Server mit NVIDIA H200 NVL Tensor Core GPUs wird voraussichtlich im Herbst allgemein verfügbar sein.
- HPE ProLiant DL384 Gen12 Server mit zwei NVIDIA GH200 NVL2 wird voraussichtlich im Herbst allgemein verfügbar sein.
- HPE Cray XD670 Server mit NVIDIA H200 NVL wird voraussichtlich im Sommer allgemein verfügbar sein.
Über NVIDIA
NVIDIA (NASDAQ: NVDA) ist der Weltmarktführer im beschleunigten Computing.
Über Hewlett Packard Enterprise
Das globale Edge-to-Cloud-Unternehmen Hewlett Packard Enterprise (HPE) hilft Kunden, den Wert aller ihrer Daten an jedem Ort zu erschließen, sodass sie bessere Geschäftsergebnisse erzielen. Seit Jahrzehnten erfindet HPE die Zukunft neu und treibt Innovationen voran, um das Leben und die Arbeit der Menschen zu verbessern. HPEs offene und intelligente Technologielösungen – dazu gehören Cloud-Dienste, Server, Supercomputer, künstliche Intelligenz, Intelligent Edge, Software und Speicher – werden als Dienstleistung („as a service“) bereitgestellt und bieten eine einheitliche Nutzererfahrung über Clouds und verteilte Standorte hinweg. Das hilft Kunden, neue Geschäftsmodelle zu entwickeln, neue Prozesse einzuführen und ihre Betriebsleistung zu steigern. Weitere Informationen finden Sie hier: www.hpe.com
Pressekontakt
Hewlett Packard Enterprise
Deutschland, Österreich, Schweiz
Agentur Storymaker
Email: hpe@storymaker.de
Tel: +49-(0)7071-93872-0