采用 Qualcomm® Cloud AI 100 的 HPE AI 推理解决方案

为要求严苛的 AI/ML 推理工作负载提供高性能的节能高效型基础设施。

从边缘到云的高性能、节能高效型 AI 推理

Qualcomm Cloud AI 100 加速器与 HPE Edgeline EL8000 和 HPE ProLiant DL385 Gen10 Plus v2 服务器集成后推出了 AI 推理解决方案。大幅提高服务器处理 AI/ML 推理工作负载的性能,更快速地获得计算机视觉和自然语言模型洞见并提高数据转换准确性。

性能领先

性能领先

搭配使用 HPE Edgeline 和 HPE ProLiant 与 Qualcomm Cloud AI 100 加速器,可提高边缘复杂的人工智能机器学习模型的性能并降低延迟。

  • Qualcomm Cloud AI 100 片上系统高性能架构针对在云和边缘中的深度学习进行了优化
  • 全球最快、最密集的 AI 推理解决方案 – MLPerf ™ 2.0
  • 峰值整数运算 (INT8) 高达 350 TOPS
  • 峰值浮点运算 (FP16) 高达 175 TFLOPS
什么是 AI 推理?

边缘 AI 推理指在数据中心和云之外部署训练有素的 AI 模型,生成数据,然后快速采取行动生成业务价值。

节能高效

节能高效

Qualcomm 十年来在移动技术领域深耕不辍,开发出了行业领先的低功耗技术,Qualcomm Cloud AI 100 正是利用这一技术实现了一流的每瓦性能。

  • 75W TDP 功率包络 – 边缘部署的不二之选
  • 第 6 代 Qualcomm AI 核心
  • 较向量单元能耗低 5 倍的节能高效型张量单元设计
  • 每个核心 8 MB 内存使数据重用最大化并降低了能耗
详细了解采用 Qualcomm Cloud AI 100 的 HPE Edgeline AI 推理解决方案
边缘到云可扩展性

边缘到云可扩展性

HPE Edgeline 在边缘的一个 EL8000 机箱中最多可支持八个 Qualcomm Cloud AI 100 加速器。

  • 重点关注云和边缘应用中的 AI/ML 推理
  • 多代可扩展技术的架构
详细了解采用 Qualcomm Cloud AI 100 的 HPE Edgeline AI 推理解决方案
丰富的软件工具链

丰富的软件工具链

Qualcomm Cloud AI 100 带有一套综合工具,可以轻松优化并管理 AI 推理基础设施上的 AI/ML 训练模型。

  • Cloud AI 100 支持 200 多个涉及计算机视觉、自然语言处理和推荐用途的深度学习网络。
  • Qualcomm 软件支持从行业标准的 ML 框架(如 TensorFlow、PyTorch 和 ONNX)开始编译、优化和部署。
详细了解采用 Qualcomm Cloud AI 100 的 HPE Edgeline AI 推理解决方案
HPE Qualcomm 协作

重点在 AI 推理计算的 HPE 与 Qualcomm 协作

2022 年 4 月,HPE 宣布与 Qualcomm 结为合作伙伴,为客户执行 AI 推理工作负载提供高性能的节能高效型硬件加速。

AI 100 代表 HPE 和 Qualcomm 第一次就产品展开的协作,利用了数十年的研发成果实现了安全、可管理且成效显著的高性能、节能高效型深度学习推理加速技术。 
HPE 和 Qualcomm 的合作关系意义深远,因为这一合作进一步拓展了 HPE 在 AI 推理方面的 AI 解决方案产品组合。AI 100 专为 AI 主要用途的 AI 推理计算设计,可通过训练的模型生成预测。

详细了解采用 Qualcomm Cloud AI 100 的 HPE Edgeline AI 推理解决方案

HPE 与 Qualcomm 联合推出的解决方案让边缘到数据中心的 AI 推理工作负载获益于卓越性能与低延迟

MLPerf Inference v3.0 基准展示了集成 Qualcomm Cloud AI100 加速器的 HPE 系统性能


Qualcomm 是 Qualcomm Incorporated 的商标或注册商标。Qualcomm Cloud AI 是 Qualcomm Technologies, Inc. 和/或其子公司的产品。