HPE Edge-Inferenz mit Qualcomm Cloud AI 100
Entdecken Sie HPE Edgeline Inferenz und Qualcomm Cloud AI 100 für eine energieeffiziente Hochleistungs- und Energieeffizienz-Infrastruktur zur Bewältigung anspruchsvoller KI-/ML-Workloads.
Energieeffiziente Hochleistungs-KI-Inferenz am Edge
KI-Inferenz-Infrastruktur auf Grundlage der Integration von HPE Edgeline EL8000 und Qualcomm Cloud AI 100 Accelerator. Erhebliche Verbesserung der Serverleistung für KI-/ML-Inferenz-Workloads und schnellere Einblicke sowie höhere Genauigkeit bei der Datenumwandlung von Computer Vision-, Natural Language- und Empfehlungs-Workloads.
- Unübertroffene Leistung
- Stromeffizienz
- Edge-to-Cloud-Skalierbarkeit
- Umfassende Software-Toolchain
- Kooperation zwischen HPE und Qualcomm
Unübertroffene Leistung
Die Kombination aus HPE Edgeline und Qualcomm Cloud AI 100 Accelerator bietet eine hohe Leistung und reduziert Latenzen in Verbindung mit komplexen Modellen für künstliche Intelligenz und maschinelles Lernen am Edge.
- Die Qualcomm Cloud AI 100 SoC Hochleistungs-Architektur ist optimiert für die Deep Learning-Inferenz in der Cloud und am Edge.
- Schnellste und dichteste KI-Inferenzlösung der Welt – MLPerf ™ 2.0
- Spitzenleistung für Integer-Operationen (INT8) – Bis zu 350 TOPS
- Spitzenleistung für Fließkomma-Operationen (FP16) – Bis zu 175 TFLOPS
KI-Inferenz am Edge bezieht sich auf die Bereitstellung trainierter KI-Modelle außerhalb des Rechenzentrums und der Cloud – an dem Punkt, an dem die Daten erstellt und schnell genutzt werden können, um Geschäftswerte zu erschließen.
Stromeffizienz
Qualcomm Cloud AI 100 nutzt branchenführende energiesparende Technologie aus jahrzehntelanger Erfahrung in der Mobiltechnologie und liefert einzigartige Leistung pro Watt.
- 75 W TDP Spitzenleistung – ideal für Edge-Bereitstellungen
- Qualcomm KI-Kern der 6. Generation
- Tensor Gerätedesign mit 5-mal höherer Energieeffizienz als ein Vektorgerät
- 8 MB Arbeitsspeicher pro Kern maximieren die Wiederverwendung von Daten und senken den Energieverbrauch
Edge-to-Cloud-Skalierbarkeit
HPE Edgeline kann bis zu acht Qualcomm Cloud AI 100 Beschleuniger ein einem einzelnen EL8000 Gehäuse am Edge unterstützen.
- Konzentration auf KI-/ML-Inferenzen für Cloud- und Edge-Anwendungen
- Architektur für generationsübergreifend skalierbare Technologie
Umfassende Software-Toolchain
Qualcomm Cloud AI 100 beinhaltet eine umfassende Sammlung von Tools zur einfachen Optimierung und Verwaltung trainierter KI-/ML-Modelle für KI-Inferenz-Infrastrukturen.
- Cloud AI 100 unterstützt mehr als 200 Deep Learning-Netzwerke in den Bereichen Computer Vision, Natural Language Processing und Empfehlung.
- Die Qualcomm Software unterstützt Kompilierung, Optimierung und Bereitstellung ab Branchenstandard-ML-Frameworks wie TensorFlow, PyTorch und ONNX.
Eine Kooperation zwischen HPE und Qualcomm mit Schwerpunkt KI-Inferenz-Computing
Im April 2022 gab HPE eine Partnerschaft mit Qualcomm bekannt, durch die Kunden eine leistungsstarke und energieeffiziente Hardware-Beschleunigung für KI-Inferenz-Workloads geboten wird.
AI 100 stellt die erste Produktkooperation zwischen HPE und Qualcomm dar und nutzt ein Jahrzehnt an Forschung und Entwicklung, um eine leistungsstarke, energieeffiziente Technologie zur Deep Learning-Inferenz-Beschleunigung zu bieten, die sicher, verwaltungsfreundlich und zuverlässig ist.
Die Partnerschaft zwischen HPE und Qualcomm ist bedeutsam, da sie zu einer Erweiterung des KI-Lösungsportfolios für KI-Inferenz von HPE führt. Der AI 100 wurde für das KI-Inferenz-Computing entwickelt, eine wichtige KI-Komponente zur Generierung von Vorhersagen aus trainierten Modellen.
Zugehörige KI-Lösungen entdecken
Nutzen Sie unsere umfassenden Lösungen, um komplexe Strukturen aufzulösen und eine End-to-End-Lösung für künstliche Intelligenz zu entwickeln – von den zentralen Komponenten im Rechenzentrum bis zum Intelligent Edge.
Qualcomm ist eine Marke oder eingetragene Marke von Qualcomm Incorporated. Qualcomm Cloud AI ist ein Produkt von Qualcomm Technologies, Inc. und oder Tochtergesellschaften des Unternehmens.