HPE KI-Inferenzlösung mit Qualcomm® Cloud AI 100

Entdecken Sie HPE Edgeline Inferenz und Qualcomm Cloud AI 100 für eine energieeffiziente Hochleistungs- und Energieeffizienz-Infrastruktur zur Bewältigung anspruchsvoller KI-/ML-Workloads.

Energieeffiziente Hochleistungs-KI-Inferenz vom Edge bis zur Cloud

KI-Inferenzlösung, basierend auf der Integration von Qualcomm Cloud AI 100-Beschleunigern mit HPE Edgeline EL8000 und HPE ProLiant DL385 Gen10 Plus v2 Servern. Erhebliche Verbesserung der Serverleistung für KI-/ML-Inferenz-Workloads und schnellere Einblicke sowie höhere Genauigkeit bei der Datenumwandlung von Computervision- und Natural-Language-Modellen.

Unübertroffene Leistung

Unübertroffene Leistung

Die Kombination aus Qualcomm Cloud AI 100 Accelerator mit HPE Edgeline und HPE ProLiant bietet eine hohe Leistung und reduziert Latenzen in Verbindung mit komplexen Modellen für  künstliche Intelligenz und maschinelles Lernen am Edge.

  • Die Qualcomm Cloud AI 100 SoC Hochleistungs-Architektur ist optimiert für die Deep Learning-Inferenz in der Cloud und am Edge.
  • Schnellste und dichteste KI-Inferenzlösung der Welt – MLPerf ™ 2.0
  • Spitzenleistung für Integer-Operationen (INT8) – Bis zu 350 TOPS
  • Spitzenleistung für Fließkomma-Operationen (FP16) – Bis zu 175 TFLOPS
Was ist KI-Inferenz?

KI-Inferenz am Edge bezieht sich auf die Bereitstellung trainierter KI-Modelle außerhalb des Rechenzentrums und der Cloud – an dem Punkt, an dem die Daten erstellt und schnell genutzt werden können, um Geschäftswerte zu erschließen.

Stromeffizienz

Stromeffizienz

Qualcomm Cloud AI 100 nutzt branchenführende energiesparende Technologie aus jahrzehntelanger Erfahrung in der Mobiltechnologie und liefert einzigartige Leistung pro Watt.

  • 75 W TDP Spitzenleistung – ideal für Edge-Bereitstellungen
  • Qualcomm KI-Kern der 6. Generation
  • Tensor Gerätedesign mit 5-mal höherer Energieeffizienz als ein Vektorgerät
  • 8 MB Arbeitsspeicher pro Kern maximieren die Wiederverwendung von Daten und senken den Energieverbrauch
Erfahren Sie mehr über die HPE Edgeline KI-Inferenzlösung mit Qualcomm Cloud AI 100
Edge-to-Cloud-Skalierbarkeit

Edge-to-Cloud-Skalierbarkeit

HPE Edgeline kann bis zu acht Qualcomm Cloud AI 100 Beschleuniger ein einem einzelnen EL8000 Gehäuse am Edge unterstützen.

  • Konzentration auf KI-/ML-Inferenzen für Cloud- und Edge-Anwendungen
  • Architektur für generationsübergreifend skalierbare Technologie
Erfahren Sie mehr über die HPE Edgeline KI-Inferenzlösung mit Qualcomm Cloud AI 100
Umfassende Software-Toolchain

Umfassende Software-Toolchain

Qualcomm Cloud AI 100 beinhaltet eine umfassende Sammlung von Tools zur einfachen Optimierung und Verwaltung trainierter KI-/ML-Modelle für KI-Inferenz-Infrastrukturen.

  • Cloud AI 100 unterstützt mehr als 200 Deep Learning-Netzwerke in den Bereichen Computer Vision, Natural Language Processing und Empfehlung.
  • Die Qualcomm Software unterstützt Kompilierung, Optimierung und Bereitstellung ab Branchenstandard-ML-Frameworks wie TensorFlow, PyTorch und ONNX. 
Erfahren Sie mehr über die HPE Edgeline KI-Inferenzlösung mit Qualcomm Cloud AI 100
Kooperation zwischen HPE und Qualcomm

Eine Kooperation zwischen HPE und Qualcomm mit Schwerpunkt KI-Inferenz-Computing

Im April 2022 gab HPE eine Partnerschaft mit Qualcomm bekannt, durch die Kunden eine leistungsstarke und energieeffiziente Hardware-Beschleunigung für KI-Inferenz-Workloads geboten wird.

AI 100 stellt die erste Produktkooperation zwischen HPE und Qualcomm dar und nutzt ein Jahrzehnt an Forschung und Entwicklung, um eine leistungsstarke, energieeffiziente Technologie zur Deep Learning-Inferenz-Beschleunigung zu bieten, die sicher, verwaltungsfreundlich und zuverlässig ist.  
Die Partnerschaft zwischen HPE und Qualcomm ist bedeutsam, da sie zu einer Erweiterung des KI-Lösungsportfolios für KI-Inferenz von HPE führt. Der AI 100 wurde für das KI-Inferenz-Computing entwickelt, eine wichtige KI-Komponente zur Generierung von Vorhersagen aus trainierten Modellen.

Erfahren Sie mehr über die HPE Edgeline KI-Inferenzlösung mit Qualcomm Cloud AI 100

HPE und Qualcomm liefern klassenbeste Leistung und Latenz bei KI-Inferenz-Workloads vom Edge bis zum Rechenzentrum

MLPerf Inference v3.0 Benchmarks zeigen die Leistung von HPE Systemen, die mit Qualcomm Cloud AI100-Beschleunigern integriert werden


Qualcomm ist eine Marke oder eingetragene Marke von Qualcomm Incorporated. Qualcomm Cloud AI ist ein Produkt von Qualcomm Technologies, Inc. und oder Tochtergesellschaften des Unternehmens.