新闻稿
HPE将分布式AI工厂转型为由NVIDIA驱动的智能 AI 网格
全新解决方案面向依赖低时延和实时连接的AI 服务与应用场景,包括零售个性化推荐、制造业预测性维护、医疗领域本地化边缘推理以及运营商级AI服务。
加利福尼亚州圣何塞–NVIDIA GTC 2026 – 2026 年 3 月25日 – HPE(NYSE: HPE)日前宣布推出HPE AI Grid。这是一项基于NVIDIA推理架构的端到端解决方案,旨在安全地连接区域及远端边缘的AI工厂与分布式推理集群。HPE AI Grid助力服务提供商部署并运营数千个分布式推理站点,将零散的 AI设施转化为统一智能系统。
AI原生应用需要具备可预测、低时延的分布式基础设施。作为NVIDIA AI Computing by HPE产品组合的一部分,HPE AI Grid解决方案能够为大规模实时AI服务提供可预测的超低时延性能,并通过集成编排功能实现零配置部署与自动化安全防护。
- HPE推出端到端AI Grid解决方案,加速部署价值实现
HPE AI Grid 协同NVIDIA AI Grid 推理架构为服务提供商提供统一的软硬件技术栈。HPE AI Grid的差异化优势在于其能够提供全栈AI服务器与AI 网络。该解决方案包括:
- HPE Juniper电信级多云路由与相干光技术:提供可预测的长途与城域连接;具备云原生与多租户安全、防火墙、广域网(WAN)自动化及编排功能,实现零接触部署与全生命周期运维。
- 搭载 NVIDIA 加速计算的 HPE ProLiant Compute 边缘与机架服务器:包括NVIDIA RTX PRO 6000 Blackwell GPU,以及NVIDIA BlueField DPU、Spectrum-X以太网交换机、Connect-X SuperNIC,以及用于快速AI推理的AI蓝图。
- HPE AI Grid 为服务提供商创造新机遇
从零售个性化、预测性维护到边缘医疗及运营商级AI服务,服务提供商的应用场景均要求严苛的可预测超低延迟连接。HPE AI Grid 允许运营商将具备电力和连接的现有站点转换为支持RAN就绪能力的AI 网格,从而实现分布式推理并规模化推出新服务。
作为推进其AI网格战略的一部分,康卡斯特公司(Comcast)日前宣布在其高度分布式的网络上启动全新 AI 现场试点,旨在实现实时边缘AI推理,从而为下一波AI应用提供更快、响应更及时的体验。首批试点涵盖了多个用例,包括利用搭载NVIDIA GPU的 HPE ProLiant 服务器运行来自 HPE Unleash AI合作伙伴计划成员Personal AI的小语言模型,为小型企业提供AI驱动的“前台”服务。
- HPE与NVIDIA联合推出AI Grid的行业反响
- HPE Financial Services加速AI就绪网络与分布式AI基础设施建设
为进一步加速AI就绪网络和分布式AI基础设施的采用,HPE Financial Services正扩展其针对包括HPE Juniper Networking Mist在内的网络AIOps软件提供0% 利率融资;并为AI就绪网络租赁提供相当于节省10%现金成本的专项融资。
a50015228chp