您是否需要简化 AI/ML 部署流程? 您是否需要支持云/混合环境中多样化的 AI 框架和可扩展基础设施,同时往往还需要定制数据保护策略?
HPE Machine Learning Inference Software 为用户提供方便好用的工具来更新、监控和部署模型,帮助您加快从 AI/ML 计划中获得价值。基于角色的访问控制 (RBAC) 和端点安全可以为 ML 资源提供额外保护。通过使用一致的工具和预训练模型,让团队将精力放在模型开发上,而不是操心模型投入正式环境时的复杂性难题,从而显著提高团队效率。HPE Machine Learning Inference Software 是一款能够处理部署、路由和实时监控等复杂问题的产品,有助于提高敏捷性,以便快速发布 ML 模型、根据真实世界的反馈进行迭代,以及保持高性能标准。
新特性
- 使用直观的图形界面,用简化的方式为 MLOps 或 ITOps 部署可扩展的生产模型,无需丰富的 Kubernetes 经验也能完成。
- 与 Hugging Face 和 NVIDIA 基础模型的简化集成,可实现以零编码的形式,直接从 Hugging Face 和 NVIDIA NGC 部署大型语言模型 (LLM) 的体验。
- 与 NVIDIA AI Enterprise® 的无缝集成包括 NIM® 微服务,可增强对二十多种 NVIDIA 及合作伙伴常用 AI 模型的推理。
- 提供对预训练和定制模型(基于 TensorFlow、PyTorch、scikit-learn 和 XGBoost 等常用框架)的支持。
- 发挥集成监控和日志记录功能的作用,跟踪模型性能、使用情况指标和系统运行状况,从而促进主动优化。
- 提供针对多样化基础设施的适应性部署,并兼容许多 Kubernetes 环境,包括 HPE Ezmeral、HPE GreenLake、AWS、Azure、Google Cloud 和本地部署。
功能
能够以可预测的方式可靠地部署到不同环境,兼具安全防护和监控功能
HPE Machine Learning Inference Software 可以使用直观的图形界面部署模型,并根据负载扩展部署。
通过实时监控模型来定制性能并跟踪部署相关的预测和统计数据。
无论是在现有的 Kubernetes 群集、私有云还是混合云中,HPE Machine Learning Inference Software 都能针对不断现代化的系统提供一致的工具,以此满足您的需求。
行业标准的 Helm 图表可部署到每一个与 Kubernetes 兼容的平台,例如 OpenShift、Rancher、EKS、AKS 或 GKS,从而一致地利用不同的云平台。
开箱即用的 NVIDIA 模型和工具支持
HPE Machine Learning Inference Software 为 NVIDIA GPU 提供灵活、出色的支持,其架构可轻松添加对持续现代化系统的支持。
集成 NVIDIA AI Enterprise (NVAIE) 软件套件、NVIDIA 推理微服务 (NIM)(利用 Triton、TensorRT-LLM)和其他 AI 推理技术,可提高性能。
内置企业级安全性
HPE Machine Learning Inference Software 可以在您偏好的环境中执行工作负载,包括云、混合、本地甚至是隔离环境,从而持续妥善保护模型、代码和数据。
使用基于角色的访问控制 (RBAC) 为开发和 MLOps 团队授权,实现安全地协作和共享 ML 资源和项目。
借助企业级安全功能,需要经过高阶身份验证(包括 OIDC 和 OAuth 2.0)后才能与模型交互,以此保护部署端点。
广泛的模型兼容性
HPE Machine Learning Inference Software 直接从 Hugging Face 和 NVIDIA 推理服务器 (NIM) 为特定大型语言模型 (LLM) 提供简化的集成,同时支持从大多数框架开发模型。
使用来自不同框架(例如 TensorFlow、PyTorch、Scikit-Learn 和 XGBoost)的模型来提高灵活性,以此适应广泛的预训练模型和客户模型需求。
- Kubernetes 是 Google LLC 的注册商标。NVIDIA® 和 CUDA 是 NVIDIA Corporation 在美国和其他国家(地区)的注册商标。其他第三方商标的所有权均属于各自的所有者。