采用 Qualcomm® Cloud AI 100 的 HPE AI 推理解决方案
为要求严苛的 AI/ML 推理工作负载提供高性能的节能高效型基础设施。
从边缘到云的高性能、节能高效型 AI 推理
Qualcomm Cloud AI 100 加速器与 HPE Edgeline EL8000 和 HPE ProLiant DL385 Gen10 Plus v2 服务器集成后推出了 AI 推理解决方案。大幅提高服务器处理 AI/ML 推理工作负载的性能,更快速地获得计算机视觉和自然语言模型洞见并提高数据转换准确性。
- 性能领先
- 节能高效
- 边缘到云可扩展性
- 丰富的软件工具链
- HPE Qualcomm 协作
节能高效
Qualcomm 十年来在移动技术领域深耕不辍,开发出了行业领先的低功耗技术,Qualcomm Cloud AI 100 正是利用这一技术实现了一流的每瓦性能。
- 75W TDP 功率包络 – 边缘部署的不二之选
- 第 6 代 Qualcomm AI 核心
- 较向量单元能耗低 5 倍的节能高效型张量单元设计
- 每个核心 8 MB 内存使数据重用最大化并降低了能耗
边缘到云可扩展性
HPE Edgeline 在边缘的一个 EL8000 机箱中最多可支持八个 Qualcomm Cloud AI 100 加速器。
- 重点关注云和边缘应用中的 AI/ML 推理
- 多代可扩展技术的架构
丰富的软件工具链
Qualcomm Cloud AI 100 带有一套综合工具,可以轻松优化并管理 AI 推理基础设施上的 AI/ML 训练模型。
- Cloud AI 100 支持 200 多个涉及计算机视觉、自然语言处理和推荐用途的深度学习网络。
- Qualcomm 软件支持从行业标准的 ML 框架(如 TensorFlow、PyTorch 和 ONNX)开始编译、优化和部署。
重点在 AI 推理计算的 HPE 与 Qualcomm 协作
2022 年 4 月,HPE 宣布与 Qualcomm 结为合作伙伴,为客户执行 AI 推理工作负载提供高性能的节能高效型硬件加速。
AI 100 代表 HPE 和 Qualcomm 第一次就产品展开的协作,利用了数十年的研发成果实现了安全、可管理且成效显著的高性能、节能高效型深度学习推理加速技术。
HPE 和 Qualcomm 的合作关系意义深远,因为这一合作进一步拓展了 HPE 在 AI 推理方面的 AI 解决方案产品组合。AI 100 专为 AI 主要用途的 AI 推理计算设计,可通过训练的模型生成预测。
HPE 与 Qualcomm 联合推出的解决方案让边缘到数据中心的 AI 推理工作负载获益于卓越性能与低延迟
MLPerf Inference v3.0 基准展示了集成 Qualcomm Cloud AI100 加速器的 HPE 系统性能
探索相关 AI 解决方案
利用 HPE 丰富而全面的解决方案可以化解诸多难题,量身定制端到端人工智能解决方案,涵盖核心数据中心到智能边缘。
Qualcomm 是 Qualcomm Incorporated 的商标或注册商标。Qualcomm Cloud AI 是 Qualcomm Technologies, Inc. 和/或其子公司的产品。