您的组织是否需要优化的基础设施来在边缘部署 AI/ML 训练模型? 适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器可大幅提升服务器在 AI/ML 推理工作负载方面的性能,在计算机视觉、自然语言和其他行业常见 AI/ML 用例上快速获得洞见并实现更精准的数据转换。这款服务器加速器基于 Qualcomm AI 核心,专为推理量身定制,支持模型定制和量化,可降低精度数据类型,获得优化性能和行业前列的功效。凭借超低功耗,适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器可以提升性能,同时降低运维成本。
新特性
- 紧凑的单插槽薄型低功耗 PCIe 加速器经过优化,适合边缘 AI 推理基础设施。
- 推理优化架构基于 Qualcomm AI 核心,利用十多年积累研发的节能深度学习技术进行推理计算。
- 实现出色的峰值 TOPS(每秒万亿次操作)性能:350 Int8,175 FP16。
- 超高性能,可大幅降低基础设施购置成本。
功能
卓越性能
适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器专为 AI/ML 工作负载而设计,基于行业标准基准(包括 MLPerf),是一款性能和能效俱佳的产品。
HPE Edgeline EL8000 中可配置高达 8 个此类薄型 PCIe 加速器。
每个标准卡可提供 350 TOPS,同时功率只有 75 瓦。
采用 ResNet-50 基准,在单个 HPE Edgeline EL8000 系统中,性能可达每秒推理超过 100,000 张图像。
外形小巧,节能高效
每个适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器的额定功率均为 75 瓦 TDP。
适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器采用薄型(半高半长)PCIe Gen4 (x8) 连接器设计,适合边缘的紧凑空间使用。
易于使用
适用于 HPE 产品的 Qualcomm Cloud AI 100 加速器利用 Qualcomm 的第六代 AI/ML 技术,并包含全面的 SDK、广泛的开发人员工具套件(编译器、性能优化和量化工具)和代码示例。
经过简化,支持常见 AI/ML 框架。