온프레미스 클라우드 경험으로 데이터 과학 가속화

ML Ops용 HPE GreenLake로 ML/AI 프로젝트를 더 쉽고 빠르게 시작하고, 생산 구축 단계로 원활하게 확장할 수 있습니다. 데이터 센터 또는 코로케이션 시설 내에서 HPE Ezmeral ML Ops 기반 HPE Apollo 하드웨어를 갖춘 ML 최적화 HPE 클라우드 서비스 인프라에 AL/ML 워크로드를 배치하십시오. 이 솔루션은 데이터 준비에서 모델 구축, 교육, 배치, 모니터링 및 협업까지 ML 라이프 사이클의 모든 측면을 다루도록 설계되었습니다. HPE GreenLake 엣지 투 클라우드 플랫폼은 사용량을 기반으로 가격이 결정되며, 클라우드 경험을 통해 온프레미스에서 이러한 리소스를 사용할 수 있습니다.

+ 자세히 알아보기

운영 위험 및 데이터 중력 문제 해결

퍼블릭 클라우드의 컴플라이언스, 보안 및 데이터 중력 문제와 인프라를 직접 운영하는 경우에 발생하는 운영상의 위험을 방지할 수 있습니다. 워크로드는 온프레미스 데이터 레이크 바로 옆에서 실행되므로 숨은 데이터 송신 비용이 발생하지 않습니다. HPE에서 전체 스택에 걸쳐 최신 소프트웨어 버전 및 수정사항 반영으로 AI/ML 플랫폼을 최신 상태로 유지해 드립니다.

데이터 과학자를 지원하고 수익 창출 시간 단축

ML Ops용 HPE GreenLake를 사용하여 데이터 과학자들이 인프라 관리 및 구성이 아닌 모델 구축에 집중하도록 지원하십시오. 데이터 과학자는 이 Kubernetes 기반의 확장 가능한 최신 데이터 과학 프레임워크를 이용해 모든 데이터 과학 사용 사례 전반의 데이터 과학 알고리즘을 구축하는 데 필요한 툴을 도입하고 워크플로를 정의할 수 있습니다.

탄력적인 가격 및 비용 모니터링 가능

필요한 용량을 보존하고 사용하는 리소스에 따른 종량제 결제가 가능합니다. 측정된 사용량과 관련 비용을 확인하고 특정 비즈니스 목표에 사용량을 연결할 수도 있습니다.

안전한 프로비저닝 및 관리

데이터 과학 환경의 모니터링 및 관리를 위임하십시오. ML Ops용 HPE GreenLake로 환경을 HPE IT 운영 센터에서 HPE GreenLake Central을 통해 안전하게 관리할 수 있습니다.


ML Ops용 HPE GreenLake

온프레미스 인프라가 제공하는 보안과 제어 기능을 활용하여 ML 워크로드를 실행할 수 있습니다. 기계 학습에 최적화된 엔터프라이즈 등급 고성능 하드웨어/소프트웨어 스택을 바탕으로 구축한 두 가지 구성(표준 및 성능 최적화) 중에서 선택하십시오. 사용량 기반 요금 청구로 다음과 같은 이점을 제공합니다.

  • 단순하고 투명한 가격 모델을 통해 운영 비용으로 온프레미스 서비스 제공.
  • 예측 불가능한 워크로드를 탄력적으로 지원.
  • 용량 보존 및 사용량 기반 소비 모델로 일반적인 데이터 과학 워크로드의 다양한 요구를 지원하면서 가격 예측 가능성 촉진.
  • 4년 계약, 월 결제.
  • 확장 가능한 Kubeflow 프레임워크를 지원하므로, 계속 범위가 확장되고 있는 광범위한 오픈 소스 커뮤니티 개발 툴을 이용할 수 있습니다.
문의하기
무료 평가판을 통해 ML Ops용 HPE GreenLake의 작동 방식 알아보기
  • HPE GreenLake 엣지 투 클라우드 플랫폼은 전 세계 기업에 성공적인 결과를 제공하고 있으며, HPE는 귀사에게도 이러한 경험을 선사하고자 합니다. ML Ops용 HPE GreenLake 무료 평가판을 요청하면 인스턴스를 구성하고, HPE GreenLake Central에 계정을 설정하여 관리 기능, 사용 인사이트, 상세한 소비 보고서를 제공합니다.
  • 21일 평가판이 일반적이며, 필요한 경우 연장 가능합니다.
  • 사용자의 사용 사례 시나리오 탐색을 안내하고 질문에 답할 평가판 엔지니어가 배정되므로 평가판 이용 기간 중에 도움을 받을 수 있습니다.
  • 서비스가 코로케이션 HPE 데이터 센터를 통해 제공되므로 온프레미스에 장비가 필요하지 않습니다.
  • 평가판에는 ML Ops용 표준 HPE GreenLake 구성에 대한 액세스 권한이 포함되어 있습니다. 이 구성을 통해 HPE GreenLake 플랫폼에서 자신의 데이터를 가져와 사용 사례의 유효성을 검증할 수 있습니다.
  • 비용은 부과되지 않습니다.

자세히 알아보기

표준 구성
성능 최적화 구성

추천 대상

비즈니스 문제 해결에 AI 및 기계 학습을 사용하길 원하며, 인프라를 관리할 필요 없이 빠르고 안전하게 온프레미스에서 ML/AI 워크로드를 실행해야 하는 데이터 과학 팀이 있는 기업을 대상으로 합니다.

적절한 규모로 딥 러닝 모델을 교육하거나, 모델을 프로덕션으로 이동하거나, 온프레미스에서 다수의 데이터 과학 프로젝트를 동시에 실행하는 데이터 과학 팀이 있는 기업을 대상으로 합니다.

하드웨어 사양

  • 컴퓨팅: 가속화된 NVIDIA Tesla V100 또는 A100 GPU(4개)와 통합된 HPE Apollo 6500(CPU 6개, 가용 CPU 코어 96개) 및 NVIDIA Tesla T4 GPU(4개)와 통합된 HPE ProLiant DL360. 
  • 스토리지:  HPE Apollo 4200(가용 스토리지 228TB 포함).
  • 컴퓨팅: 가속화된 NVIDIA Tesla V100 또는 A100 GPU(8개)와 통합된 HPE Apollo 6500(CPU 6개, 가용 CPU 코어 120개) 및 NVIDIA Tesla T4 GPU(4개)와 통합된 HPE ProLiant DL360. 
  • 스토리지:  HPE Apollo 4200(가용 스토리지 394TB, NVMe 스토리지 150TB 포함).

 

소프트웨어 스택

  • HPE Ezmeral Runtime Enterprise 및 ML Ops 소프트웨어
  • ML Ops용 HPE GreenLake는 오픈 소스 Kubernetes와 Kubeflow 데이터 과학 프레임워크에 기반을 두고 있습니다. 지원되는 툴은 Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines, KFServing이며, 이와 함께 필요한 인프라 구성요소도 지원됩니다.
  • Kubeflow 구성요소뿐 아니라 KubeDirector 이미지는 Jenkins, Git 클라이언트, Kafka와 같은 부가적인 툴도 제공합니다. 
  • HPE Ezmeral Runtime Enterprise용 Applications Work Bench와 Helm 등의 툴이 포함되어 있으므로 KubeDirector 및 Kubernetes의 애플리케이션과 패키지를 ML Ops용 HPE GreenLake에 모두 추가할 수 있습니다.
  • HPE Ezmeral Runtime Enterprise 및 ML Ops 소프트웨어
  • ML Ops용 HPE GreenLake는 오픈 소스 Kubernetes와 Kubeflow 데이터 과학 프레임워크에 기반을 두고 있습니다. 지원되는 툴은 Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines, KFServing이며, 이와 함께 필요한 인프라 구성요소도 지원됩니다.
  • Kubeflow 구성요소뿐 아니라 KubeDirector 이미지는 Jenkins, Git 클라이언트, Kafka와 같은 부가적인 툴도 제공합니다. 
  • HPE Ezmeral Runtime Enterprise용 Applications Work Bench와 Helm 등의 툴이 포함되어 있으므로 KubeDirector 및 Kubernetes의 애플리케이션과 패키지를 ML Ops용 HPE GreenLake에 모두 추가할 수 있습니다.

컨트롤 플레인

HPE Ezmeral Runtime Enterprise 및 HPE GreenLake Central 오케스트레이션용 공통 컨트롤 플레인을 통한 안전한 셀프 서비스프로비저닝 및 관리를 제공합니다.

HPE Ezmeral Runtime Enterprise 및 HPE GreenLake Central 오케스트레이션용 공통 컨트롤 플레인을 통한 안전한 셀프 서비스프로비저닝 및 관리를 제공합니다.

측정 대상

사용량은 클러스터의 노드에서 사용되는 컴퓨팅(분당)과 스토리지(GB당)를 기준으로 계측됩니다.

보존 용량에 대해 사용량을 계산할 때 사용하는 측정계 4개가 있습니다.

  • CPU 코어 – 사용량(분당) 
  • V100 또는 A100 GPU – 사용량(분당) 
  • T4 GPU  - 사용량(분당) 
  • 스토리지 – GB 평균 사용량(시간당)

사용량은 클러스터의 노드에서 사용되는 컴퓨팅(분당)과 스토리지(GB당)를 기준으로 계측됩니다.

보존 용량에 대해 사용량을 계산할 때 사용하는 측정계 4개가 있습니다.

  • CPU 코어 – 사용량(분당) 
  • V100 또는 A100 GPU – 사용량(분당) 
  • T4 GPU  - 사용량(분당) 
  • 스토리지 – GB 평균 사용량(시간당)

제공 서비스

  • HPE 엔지니어가 초기 설정을 수행하고 데이터 센터 인프라와 통합합니다. 서비스에 사전 대응 및 사후 대응 지원과 단일 연락 창구가 포함됩니다.
  • 서비스에 HPE 전문가의 사후 설치 기술 지원이  포함됩니다. 이 서비스를 재량에 따라 사용할 수 있습니다. 
  • HPE의 ML Ops 인프라용 HPE GreenLake의 완전한 모니터링 및 라이프 사이클 관리가 가능합니다.
  • HPE 엔지니어가 초기 설정을 수행하고 데이터 센터 인프라와 통합합니다. 서비스에 사전 대응 및 사후 대응 지원과 단일 연락 창구가 포함됩니다.
  • 서비스에 HPE 전문가의 사후 설치 기술 지원이  포함됩니다. 이 서비스를 재량에 따라 사용할 수 있습니다. 
  • HPE의 ML Ops 인프라용 HPE GreenLake의 완전한 모니터링 및 라이프 사이클 관리가 가능합니다.