HPC 工作负载
什么是 HPC 工作负载?

HPC 工作负载是一项极其复杂的数据密集型任务,分布在多个计算资源中,其中每个计算资源并行运行该任务的各个部分。HPC 系统可同时运行数百万个场景,且每次使用数 TB 数据,能够帮助组织更快获得洞见。

目录

    HPC 工作负载有哪些不同的组成部分?

    HPC 工作负载各不相同,因此完成任务所需的 CPU 和预留内存也不尽相同,具体取决于所涉及的工作量 — 持续时间、间隔和幅度。从最基本的层面来看,一个工作负载或查询收集输入 (I) 并产生输出 (O)。它可以分解为以下几个部分:

    · 请求:工作负载中的“工作”指的是应用所请求的工作。它涉及一系列读写操作(I/O 命令)以及与存储系统相关的有效载荷。

    · 应用和虚拟机:每个工作负载与完成工作所需的资源内容或应用的持续运行过程相关。应用如何处理数据以及固有的软件限制将决定工作负载本身的特性。

    · 工作集:工作负载期间创建/消耗的数据量称为工作集。典型的 HPC 工作负载会消耗大量数据,其中大部分是非结构化格式。随着科学家和工程师致力于提高工作负载的准确性,HPC 模型所使用的数据呈指数级增长。

    · 占空比:当一组过程发生并再次发生时,这被称为工作周期。这项工作的大致可重复时间在很大程度上取决于数据用户、应用用途及存储性能。

    您如何管理 HPC 工作负载?

    传统的 HPC 系统使用命令行界面 (CLI) 来管理作业的提交和管理。HPC 工作负载管理过程与常规数据处理工作负载基本类似:首先,识别和准备相关数据;然后,提交请求;之后,运行应用;最后,收集和存储生成的结果。

    准备数据

    任何 HPC 工作负载的准确性都取决于数据卫生情况。组织需要对要分析的数据集执行数据清理,以更新/删除不准确、不完整、格式不正确或重复的数据。

    设置数据访问

    虽然 HPC 工作负载需要轻松快速地访问数据,但组织需要实施相应的策略来确保安全高效地传递数据。所有使用的资源都执行相同的加密和访问控制,无论是数据湖、数据结构、湖屋架构还是神经网络。

    选择算法

    算法选择、分析模型的构建、训练与部署需要深厚的专业知识,这些关键环节应当由提出需求的数据科学家亲自参与确定。

    运行查询

    许多应用常被用于在 HPC 中生成研究结果。分布式计算软件平台(例如 Apache Hadoop、Databricks 和 Cloudera)用于分解和组织此类复杂的分析。

    HPC 工作负载有哪些不同类型?

    高性能计算工作负载分为几类,它们需要查看海量数据,搜索趋势,进行预测,并生成对操作或关系的调整建议。

    人工智能

    最直白的解释:人工智能 (AI) 就是让机器像人一样思考和处理信息,其核心是掌握人类每天用以做出数十亿项决策的认知技能,包括学习、推理和自我纠正。学习本身涉及获取输入数据并创建规则,进而将其转化为可操作的信息。推理涉及确定使用哪种正确的算法来取得期望的结果。自我纠正是 AI 过程中最具价值的部分,其中各项决策都有助于持续微调算法。

    机器学习

    机器学习 (ML) 作为一种人工智能,其借助算法越来越精准地预测结果。ML 最常见的用途是支持媒体组织的推荐引擎,例如 Netflix、Spotify、Facebook 等。其他用途包括客户关系管理系统、商业智能、虚拟助手、人力资源信息系统和自动驾驶汽车。

    深度学习

    这是机器学习的一个子集,指的是机器学习中预测性分析的自动化。它采用多层信息处理,通过每一层建立更复杂的理解,并逐步学习更为复杂的数据集信息。典型用例包括自动驾驶汽车,其中引擎盖下的超级计算机可以培养自动驾驶汽车的技能。

    HPC 工作负载如何在云环境中运行?

    云是高性能计算的理想平台,因为通过将高性能计算工作负载转移到云,组织就可以按需利用几乎无限的计算和服务。这意味着您可以根据单个工作负载需要,使用尽可能多的资源,然后在工作负载完成后释放这些资源。

    此外,您还可以组建基于云的计算实例和存储资源基础设施,管理分布在全球数据中心的多达数十万台服务器。这使得数据和处理活动可以在大数据任务所在位置附近或云提供商的某个区域内进行。基础设施和软件服务都在云端,用户可以为几乎任何规模的大数据项目组装基础设施。

    在云中运行 HPC 系统的一大优势在于可以根据需要动态实时添加/删除资源。能够如此快速地扩展消除了容量瓶颈问题,让客户能够调整基础设施的规模以便更精确地匹配工作负载。用户通过云提供的底层基础设施,能够用更少的工作人员处理更多的工作任务,从而节省成本,并让这些人员有更多时间来完成具有更高业务价值的任务。

    HPE 和 HPC 工作负载

    HPE 提供市场上最全面的 HPC 和融合工作流软件产品组合。我们丰富的硬件包括灵活性更高的解决方案,可以开放 AI、ML 和其他 HPC 技术,以及业界无与伦比的可扩展、高性能存储和互连技术。这些系统包括 HPE Apollo、Slingshot 和我们的并行存储,可提供前所未有的吞吐量和 GPU 增强功能。

    HPE Pointnext Services 提供并支持 HPC 和融合工作流的全套解决方案和消费模式。我们还结合利用 HPE 的最佳实践技术来管理和优化整个解决方案,以满足您组织的 HPC 要求。

    HPE GreenLake for HPC 是针对 HPC 应用的本地端到端解决方案,旨在提供令人难以置信的行业领先性能,让您的团队不必投入时间来进行组件集成和调优。它使您能够更便捷地部署 HPC 和 AI 工作负载,并支持最终用户、开发人员和数据科学家在高性能群集上运行纯 HPC、纯 AI 和融合 HPC/AI 工作流,以便充分利用 HPE GreenLake 客户体验。

    相关 HPE 解决方案、产品或服务

    HPE GreenLake

    HPE GreenLake HPC 服务

    HPE Pointnext

    相关主题