ML Ops 什么是 ML Ops?
作为一个整体,容器可以轻松地在任何环境下的任何操作系统上移动和运行。机器学习运维 (ML Ops) 是一套标准化的最佳实践和工具,旨在简化生产中机器学习模型的设计、构建、部署和维护。ML Ops 采用了自动化手段,使数据科学家能够统一软件的发布周期、进行机器学习工件的自动化测试,并以规范的方式将敏捷原则应用于机器学习项目,最终帮助提高模型的质量。
目录
ML Ops 的使用场景有哪些?
数据科学家、软件工程师和 IT 运维专业人员使用 ML Ops 来标准化和自动化 AI 和 ML 模型的设计、构建、部署和管理。严格的 ML Ops 方法使参与者能够有效协作、实现持续集成和持续部署 (CI/CD),并加快开发和生产的进度。
我为什么需要 ML Ops?
众所周知,将机器学习和人工智能技术投入实际应用极具挑战性。信息孤岛、格式冲突、隐私问题、安全要求以及资源缺乏等问题常常使数据科学变得非常复杂。ML Ops 可以帮助简化数据科学工作流程的开发、测试和发布,为艰巨的 AI 和 ML 项目带来速度和灵活性。
ML Ops 的特点和优势
ML Ops 应用范围广泛,从探索性数据分析 (EDA) 到数据准备与工程,再到模型训练与部署。如果应用得当,它可以使 ML 工作流程变得快速、高效、可重复,从而加快投入生产的速度。
ML Ops 使数据科学团队能够更快地开发和交付更高质量的模型。这种模型极大地改善了管理并提高了可扩展性:可以并行控制和监控多个模型,从而实现持续的集成、交付和部署;也可促进数据科学家、DevOps 和 IT 运营人员之间的协作,减少了因偶尔优先级冲突而产生的团队间摩擦。
ML Ops 还最大限度地降低了开发风险,并通过严格的合规性和透明度来解决安全性和监管问题。它会细致地追踪模型和数据的每一次变更,以确保审计的精确性和结果的可复现性。
ML Ops 的最佳实践
ML Ops 原则适用于机器学习生命周期的每个阶段。
迭代
牵一发而动全身(CACE 原则)。必须记录和测试模型或数据集的每次迭代变化。
可复现性
每个模型、表格和测试在相同条件和数据下都必须能够完美重现。
可见性
功能和更改必须透明并在参与的数据团队之间共享。
一致性
开源格式和库有助于确保功能和数据的一致性。
可审计性
必须在整个 ML 生命周期内仔细跟踪和维护模型版本和谱系,以确保精确且准确的治理。
HPE 和 ML Ops
ML Ops 在未来的企业计算中发挥着重要作用,HPE 致力于发掘机器学习的全部潜力,并已将 ML Ops 纳入我们的发展战略。
HPE GreenLake for ML Ops 利用边缘到云平台和消费型定价模式为机器学习项目铺平道路,使用户可以从项目规划阶段无缝推进到生产部署阶段。HPE Apollo 硬件和 HPE Ezmeral 软件支持 ML 工作负载的各个方面,从数据准备到模型构建、训练、部署、管理和协作。
HPE Ezmeral ML Ops 是一款端到端数据科学解决方案,可以灵活地在本地设备、多个公有云中或混合模式下运行,并能响应各种不同用例的动态业务要求。HPE Ezmeral ML Ops 提供云一般的体验并结合预先打包的机器学习生命周期运作工具,解决了在企业规模上运作 ML 模型这一挑战。HPE Ezmeral ML Ops 使客户能够以类似 DevOps 的速度和敏捷性构建、训练和部署模型。它提供的的单一平台涵盖了 ML 生命周期的所有方面——从数据准备到模型构建、训练、部署、监控和协作——并在整个 ML 生命周期中实现了端到端流程运作,从而加快了数据模型的进度,缩短了上市时间。