本地云体验可加速数据科学

使用 HPE GreenLake ML Ops 服务,更加轻松、快速地启动 ML/AI 项目,实现与生产部署的无缝扩展。您可以在自己的数据中心或主机托管设施内,在 HPE 的 ML 优化云服务基础设施上部署 AI/ML 工作负载,该基础设施采用由 HPE Ezmeral ML Ops 提供支持的 HPE Apollo 硬件。这种解决方案旨在解决 ML 生命周期中从数据准备到模型构建、培训、部署、监控和协作等一系列问题。HPE GreenLake 边缘到云平台采用消费型定价模式,助您在本地使用此类资源并获得云体验。

+ 展开

解决运营风险和数据重力问题

避免公有云的合规性、安全性和数据重力问题,以及自行运行基础设施的经营风险。工作负载在本地数据湖旁运行,从而避免了数据出口带来的隐性成本。让 HPE 为您承担重任,确保您的 AI/ML 平台始终使用最新软件版本并完成对整个堆栈的修复。

助力数据科学家,缩短价值实现时间

借助 HPE GreenLake ML Ops 服务,让数据科学家聚焦构建模型,无需消耗精力管理和配置基础设施。有了这种基于 Kubernetes 的现代可扩展数据科学框架,数据科学家能够引入工具并定义工作流程,在任何数据科学用例中构建出数据科学算法。

享受弹性定价和成本监控

预留所需的容量,并根据实际用量,即用即付。您还能够查看使用量计量及相关成本,以便将使用量与具体业务目标绑定。

安全配置和管理

减轻对数据科学环境的监控和管理。借助 HPE GreenLake ML Ops 服务,通过 HPE IT 运维中心和 HPE GreenLake Central 可靠管理自己的环境。


HPE GreenLake ML Ops 服务

运行 ML 工作负载,并确保其拥有本地基础设施所能提供的安全性和控制力。有 2 种配置可选:标准版和性能优化版。它们建立在已针对机器学习进行优化的企业级高性能硬件/软件堆栈的基础上。此服务具有基于消费的计费功能,提供:

  • 简单、透明的定价模式,按运营费用提供本地服务。
  • 具有支持不可预测工作负载的弹性。
  • 预留容量 + 基于使用量的消费模型有利于实现价格的可预测性,同时支持可变需求,其中典型的是数据科学工作负载。
  • 4 年合同,按月支付。
  • 支持可扩展的 Kubeflow 框架,提供开源社区开发的广泛且不断增加的工具。
联系我们
免费试用,了解 HPE GreenLake ML Ops 服务的工作原理
  • HPE GreenLake 边缘到云平台为世界各地的企业提供服务,我们盛情邀请您亲自体验一番。当您申请免费试用 HPE GreenLake ML Ops 服务时,我们将构建实例并在 HPE GreenLake Central 上为您设置帐户 — 提供各种管理功能、使用情况洞见以及详细的消费报告。
  • 标准试用期为 21 天;需要时可以延长。
  • 我们会在整个试用期内为您指派一名试用工程师,帮助您了解各种用例场景并解答疑惑。
  • 服务通过主机托管的 HPE 数据中心交付,因而无需在本地部署设备。
  • 您的试用包括访问标准的 HPE GreenLake ML Ops 配置 - 您可以使用自己的数据并在 HPE GreenLake 平台上验证各种用例。
  • 我们提供免费试用。

获取详情

标准配置
性能优化配置

建议哪些企业使用此配置

若公司拥有数据科学团队,该团队希望利用人工智能及机器学习解决商业问题,且需在不管理基础设施的情况下,以敏捷、安全的方式运行本地 ML/AI 工作负载,其可运行下述操作。

若公司拥有数据科学团队,且其数据科学团队正通过大规模地深度学习模型,将模型应用至实践,或在本地同时运行多个数据科学项目,其可运行下述操作。

硬件规格

  • 计算:HPE Apollo 6500(6 个 CPU,96 个可使用 CPU 内核),集成有加速 NVIDIA Tesla V100 或 A100 GPU (4);以及 HPE ProLiant DL360,集成有 NVIDIA Tesla T4 GPU (4)。
  • 存储:HPE Apollo 4200,具有 228TB 可用存储空间。
  • 计算: HPE Apollo 6500(6 个 CPU, 120 个可使用 CPU 内核) ,集成有加速 NVIDIA Tesla V100 或 A100 GPU(8) 以及 HPE ProLiant DL360,集成有 NVIDIA Tesla T4 GPU (4)。
  • 存储:HPE Apollo 4200,具有 394TB 可用存储空间和 150TB NVMe 存储空间。

 

软件堆栈

  • HPE Ezmeral Runtime Enterprise 和 ML Ops 软件
  • HPE GreenLake ML Ops 服务是一款基于开源 Kubernetes 和 Kubeflow 数据科学框架的解决方案。支持的工具包括:Grafana、Jupyter、Pytorch、Seldon、TensorFlow、Argo、R、Python、Pipelines 和 KFServing 以及所需的基础设施组件。
  • 除了 Kubeflow 组件 外,KubeDirector 镜像还提供了诸如 Jenkins、Git 客户端和 Kafka 等其他工具。
  • 其中包括像适用于 HPE Ezmeral Runtime Enterprise 和 Helm 的 Applications Work Bench 等工具,从而把 KubeDirector 和 Kubernetes 应用和软件包都添加到 HPE GreenLake ML Ops 服务中。
  • HPE Ezmeral Runtime Enterprise 和 ML Ops 软件
  • HPE GreenLake ML Ops 服务是一款基于开源 Kubernetes 和 Kubeflow 数据科学框架的解决方案。支持的工具包括:Grafana、Jupyter、Pytorch、Seldon、TensorFlow、Argo、R、Python、Pipelines 和 KFServing 以及所需的基础设施组件。
  • 除了 Kubeflow 组件 外,KubeDirector 镜像还提供了诸如 Jenkins、Git 客户端和 Kafka 等其他工具。
  • 其中包括适用于 HPE Ezmeral Runtime Enterprise 和 Helm 的应用工作台等工具,藉此将 KubeDirector 和 Kubernetes 应用和软件包都添加到HPE GreenLake ML Ops 服务中。

控制平台

通过用于 HPE Ezmeral Runtime Enterprise 和 HPE GreenLake Central 编排的通用控制平面进行安全、自助式的配置和管理。

通过用于 HPE Ezmeral Runtime Enterprise 和 HPE GreenLake Central 编排的通用控制平面进行安全、自助式的配置和管理。

计量对象

根据群集中节点使用的计算(以分钟为单位)和存储(以 GB 为单位)计量使用量。

用于计算超过预留容量的使用量的指标有 4 个。

  • CPU 内核– 按分钟使用量
  • V100 或 A100 GPU – 按分钟使用量 
  • T4 GPU - 按分钟使用量
  • 存储空间 - 每小时平均使用 GB 数量

根据群集中节点使用的计算(以分钟为单位)和存储(以 GB 为单位)计量使用量。

用于计算超过预留容量的使用量的指标有 4 个。

  • CPU 内核– 按分钟使用量
  • V100 或 A100 GPU – 按分钟使用量 
  • T4 GPU - 按分钟使用量
  • 存储空间 - 每小时平均使用 GB 数量

含括的服务

  • 慧与工程师执行初始设置以及与现有数据中心基础设施的集成。服务内容包括主动式和响应式支持,有单点联系人。
  • 服务内容包括与慧与专家进行为期几天的安装后技术交流。您可以自行决定如何使用此服务。  
  • HPE GreenLake ML Ops 基础设施服务提供的全面监控和生命周期管理。
  • 慧与工程师执行初始设置以及与现有数据中心基础设施的集成。服务内容包括主动式和响应式支持,有单点联系人。
  • 服务内容包括与慧与专家进行为期几天的安装后技术交流。您可以自行决定如何使用此服务。  
  • 慧与对面向 ML 运营基础设施的 HPE GreenLake 进行全面监控和生命周期管理。