Une expérience cloud sur site pour accélérer la science des données

HPE GreenLake pour ML Ops permet de démarrer plus facilement et plus rapidement des projets d’IA/ML, et de les faire évoluer de manière transparente vers des déploiements en production. Au sein de votre datacenter ou de votre centre de colocation, déployez des charges de travail d’IA/ML sur notre infrastructure de services clouds optimisée pour le ML, qui intègre du matériel HPE Apollo et s’appuie sur HPE Ezmeral ML Ops. Cette solution est conçue pour traiter tous les aspects du cycle de vie du ML : préparation des données, construction, entraînement, déploiement et surveillance des modèles, et collaboration. La plateforme Edge to Cloud HPE GreenLake propose un modèle de paiement à l’utilisation qui vous permet de consommer ces ressources sur site tout en bénéficiant d’une expérience cloud.

Dites adieu aux problèmes de risque opérationnel et de gravité des données

Évitez les problèmes de conformité, de sécurité et de gravité des données associés au cloud public, ainsi que le risque opérationnel lié au fait de gérer vous-même votre infrastructure. Les charges de travail sont exécutées juste à côté de votre lac de données sur site, ce qui vous permet d’éviter les coûts cachés de sortie des données. Laissez HPE se charger de maintenir votre plateforme d’IA/ML à jour en déployant les versions et correctifs logiciels les plus récents sur l’ensemble de la stack.

Donner plus de moyens d’action aux data scientists et accélérer le retour sur investissement

Laissez vos data scientists se concentrer sur la construction de modèles en les déchargeant de la gestion et de la configuration de l’infrastructure grâce à HPE GreenLake pour le ML Ops. Ce framework de science des données moderne et extensible basé sur Kubernetes permet aux data scientists d’apporter des outils et de définir des workflows pour élaborer des algorithmes couvrant tous les cas d’utilisation de la science des données.

Maîtriser vos coûts grâce à une tarification élastique

Réservez la capacité dont vous avez besoin et ne payez que les ressources que vous consommez (paiement à l’utilisation). Grâce à la possibilité de consulter votre utilisation mesurée et les coûts correspondants, vous pouvez faire le lien entre votre consommation et les objectifs de votre entreprise.

Sécuriser le provisionnement et la gestion

Déchargez-vous de la surveillance et de la gestion de votre environnement de science des données. Avec HPE GreenLake pour le ML Ops, votre environnement est géré en toute sécurité depuis les Centres d’opérations informatiques de HPE et via HPE GreenLake Central.


HPE GreenLake pour le ML Ops

Gérez vos charges de travail de ML avec le niveau de sécurité et de contrôle inhérent à une infrastructure sur site. Choisissez entre 2 configurations, une configuration standard et une configuration optimale, toutes deux appuyées sur une stack matérielle/logicielle ultra-performante de classe entreprise optimisée pour le machine learning. Ce service à la demande vous garantit :

  • Un modèle de paiement simple et transparent pour un service sur site imputable aux dépenses d’exploitation
  • La souplesse nécessaire pour assumer des charges de travail imprévues
  • Une capacité réservée et un modèle de paiement à l’utilisation permettant de prévoir les coûts tout en soutenant la demande variable typique des charges de travail de science des données
  • Un contrat de 4 ans avec paiement mensuel
  • Une prise en charge du framework extensible Kubeflow, donnant accès à une gamme étendue et croissante d’outils développés par la communauté open source.
Bénéficiez d’un essai gratuit afin de découvrir comment fonctionne HPE GreenLake pour le ML Ops.
  • La plateforme Edge to Cloud HPE GreenLake se révèle performant pour des entreprises du monde entier, et nous vous proposons de le constater par vous-même. Lorsque vous demandez un essai gratuit de HPE GreenLake pour le ML Ops, nous mettons l’instance en place puis nous configurons votre compte sur HPE GreenLake Central avec ses fonctionnalités de gestion, informations sur l’utilisation et rapports de consommation détaillés.
  • La période d’essai par défaut de 21 jours peut être prolongée si nécessaire.
  • Un ingénieur est mis à votre disposition pendant toute la période d’essai pour vous aider dans vos scénarios de cas d’utilisation et répondre à vos questions.
  • Le service est fourni via un datacenter HPE en colocation, de sorte qu’aucun équipement n’est nécessaire sur votre site.
  • Votre essai comprend l’accès à une configuration standard de HPE GreenLake pour le ML Ops, dans laquelle vous pouvez intégrer vos propres données et valider vos cas d’utilisation avec la plateforme HPE GreenLake.
  • Cette offre est entièrement gratuite.

EN SAVOIR PLUS

Configuration standard
Configuration optimisée pour les performances

Pour qui est-ce recommandé ?

Les entreprises disposant d’une équipe de data scientists qui souhaitent utiliser l’intelligence artificielle et le machine learning pour résoudre des problèmes métier, et qui ont besoin de gérer les charges de travail ML/IA de façon agile et sécurisée sur site, sans avoir à gérer l’infrastructure.

Entreprises disposant d’une équipe de science des données qui entraînent des modèles de deep learning à grande échelle, mettent des modèles en production ou gèrent simultanément plusieurs projets de sciences des données sur site.

Spécifications matérielles

  • Calcul : HPE Apollo 6500 (6 processeurs, 96 cœurs utilisables) intégré avec des processeurs graphiques (GPU) NVIDIA Tesla V100 ou A100 accélérés (4) et HPE ProLiant DL360 intégré avec des processeurs graphiques NVIDIA Tesla T4 (4).
  • Stockage : HPE Apollo 4200 avec 228 To de stockage utilisable.
  • Calcul : HPE Apollo 6500 (6 processeurs, 120 cœurs utilisables) intégré avec des processeurs graphiques NVIDIA Tesla V100 ou A100 accélérés (8) et HPE ProLiant DL360 intégré avec des processeurs graphiques NVIDIA Tesla T4 (4).
  • Stockage : HPE Apollo 4200 avec 394 To de stockage utilisable et 150 To de stockage NVMe.

 

Stack logicielle

  • Logiciels HPE Ezmeral Runtime Enterprise et ML Ops
  • HPE GreenLake pour le ML Ops est basé sur Kubernetes open source et le framework de science des données Kubeflow. Les outils pris en charge sont Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines et KFServing, ainsi que les composants d’infrastructure obligatoires.
  • En plus des composants Kubeflow, les images KubeDirector fournissent des outils supplémentaires tels que Jenkins, le client Git et Kafka.
  • Des outils tels que Applications Work Bench for HPE Ezmeral Runtime Enterprise et Helm sont assurés afin que les applications et les packages KubeDirector et Kubernetes puissent être ajoutés à HPE GreenLake pour le ML Ops.
  • Logiciels HPE Ezmeral Runtime Enterprise et ML Ops
  • HPE GreenLake pour le ML Ops est basé sur Kubernetes open source et le framework de science des données Kubeflow. Les outils pris en charge sont Grafana, Jupyter, Pytorch, Seldon, TensorFlow, Argo, R, Python, Pipelines et KFServing, ainsi que les composants d’infrastructure obligatoires.
  • En plus des composants Kubeflow, les images KubeDirector fournissent des outils supplémentaires tels que Jenkins, le client Git et Kafka.
  • Des outils tels que Applications Work Bench for HPE Ezmeral Runtime Enterprise et Helm sont assurés afin que les applications et les packages KubeDirector et Kubernetes puissent être ajoutés à HPE GreenLake pour le ML Ops.

Plan de contrôle

Le provisionnement et la gestion sont sécurisés et assurés en libre-service via un plan de contrôle commun pour l’orchestration de HPE Ezmeral Runtime Enterprise et de HPE GreenLake Central.

Un provisionnement et une gestion sécurisés sont fournis en libre-service via un plan de contrôle commun pour l’orchestration de HPE Ezmeral Runtime Enterprise et de HPE GreenLake Central.

Ce qui est comptabilisé

La consommation est mesurée sur la base des ressources de calcul utilisées (par minute) et de stockage consommées (en Go) par les nœuds d’un cluster.

4 mesures sont utilisées pour calculer la consommation au-delà de la capacité réservée :

  • Cœurs CPU – utilisation par minute
  • GPU V100 ou A100 – utilisation par minute
  • GPU T4 – utilisation par minute
  • Stockage – consommation moyenne en Go par heure

La consommation est mesurée sur la base des ressources de calcul utilisées (par minute) et de stockage consommées (en Go) par les nœuds d’un cluster.

4 mesures sont utilisées pour calculer la consommation au-delà de la capacité réservée :

  • Cœurs CPU – utilisation par minute
  • GPU V100 ou A100 – utilisation par minute
  • GPU T4 – utilisation par minute
  • Stockage – consommation moyenne en Go par heure

Services inclus

  • Les ingénieurs HPE réalisent la configuration initiale et l’intégration à votre infrastructure de datacenter. Le service inclut une assistance proactive et réactive, avec un point de contact unique.
  • Le service prévoit plusieurs jours d’interaction technique post-installation avec les experts de HPE. Vous pouvez utiliser ce service à votre discrétion.
  • HPE assure la surveillance et la gestion du cycle de vie de l’infrastructure HPE GreenLake pour le ML Ops de A à Z.
  • Les ingénieurs HPE réalisent la configuration initiale et l’intégration à votre infrastructure de datacenter. Le service inclut une assistance proactive et réactive, avec un point de contact unique.
  • Le service prévoit plusieurs jours d’interaction technique post-installation avec les experts de HPE. Vous pouvez utiliser ce service à votre discrétion.
  • HPE assure la surveillance et la gestion du cycle de vie de l’infrastructure HPE GreenLake for ML Ops de A à Z.