
AI Mod POD
用于 AI 和 HPC 的模块化数据中心几乎可以部署在任何有电力和连接的地方,从而实现靠近用户的定制计算、遵守当地法规并支持远程操作。


灵活发展并推动 AI 用例
在几乎任何地方快速交付 AI 和 HPC 数据中心,提供扩展和支持 AI 用例的灵活性,同时确保更好地控制基础设施成本、电力使用、冷却效率和其他运营费用。让定制化计算更加贴近用户、满足本地监管要求并支持远程操作。
针对 AI 或 HPC 进行预配置
模块化数据中心非常适合 AI 工作负载,提供高密度计算、可扩展性、优化冷却、电源效率、灵活性、快速部署和边缘计算功能。
灵活性
模块化数据中心的采用越来越多地受到其灵活性的驱动,使企业能够利用各种预配置的 HPE AI 计算解决方案在本地训练和部署 AI 模型,以增强控制和适应性。
可扩展性
IT 必须提供可扩展且高性能的基础设施容量增长选项,以满足当前业务运营。对于旨在有效扩展其数字基础设施、确保最低成本并优化功能的组织来说,这一点至关重要。
价值实现时间创新
通过高效的基础设施来训练、部署和运行 AI 应用,以最快的生产路线加快产品上市时间。
成本优化
AI Mod POD 可以更好地控制基础设施成本。与同等的实体数据中心相比,在总容量和层级相同的情况下,AI Mod POD 系列在每千瓦 IT 成本方面大约便宜 30%。
独一无二的节能性
我们是唯一一家在模块化数据中心原生拥有直接液冷 (DLC) 技术的供应商,这对于支持 AI 基础设施和能源效率至关重要。

灵活、可持续、高效的 AI 和 HPC 数据中心
快速交付数据中心
HPE 是唯一一家提供与模块化数据中心功能相匹配的全面数据中心服务的供应商。这些模块化数据中心几乎可以部署在任何具有电力和连接能力的地方,使定制化计算更贴近用户,满足当地的监管要求,并支持远程操作。它们可以在几个月内交付,并根据具体要求进行定制。
灵活发展并推动 AI 用例
HPE AI Mod POD 具有根据需要进行扩展的能力,并且可以优先执行 AI 模型训练等任务,以快速进行实验。这些模块化解决方案允许选择和优化适合 AI 和 HPC 需求的硬件,解决云工作负载可移植性问题。AI Mod POD 同时支持 HPE 和第三方设备,可以满足复杂的 AI 硬件和软件要求。
成本、能源效率和可持续性
HPE 是唯一一家为模块化数据中心提供直接液冷 (DLC) 技术的供应商,这对于支持 AI 基础设施至关重要。AI Mod POD 可以更好地控制基础设施成本、电源使用、冷却效率和其他运营费用,同时通常可以将碳排放降低 30-40%。HPE 也是唯一一家开发出可立即安装的现成热回收模块的供应商。
HPE Private Cloud for AI
快速投入生产 AI,采用最新的可扩展基础设施以防止过时。针对 AI 和 GPU 进行了硬件和软件优化,包括开源工具,以实现最佳性能和可靠性。完全可扩展,从多个入口点开始,并随着您的业务需求而增长。
