Vous souhaitez simplifier le processus de déploiement d’IA/ML ? Vous avez besoin de prendre en charge une variété d’infrastructures d’IA et une infrastructure évolutive dans un environnement cloud/hybride, tout en assurant une protection des données personnalisée ?
HPE Machine Learning Inference Software offre des outils intuitifs pour mettre à jour, surveiller et déployer des modèles qui vous permettront de valoriser plus rapidement vos initiatives d’IA/ML. Les contrôles d’accès en fonction du rôle (RBAC) et la sécurité des terminaux offrent une protection supplémentaire pour les ressources d’apprentissage automatique. Améliorez considérablement l’efficacité de votre équipe en utilisant des outils cohérents et des modèles pré-entraînés, pour vous concentrer davantage sur le développement des modèles et moins sur les complexités du processus de mise en production des modèles. En gérant les complexités liées au déploiement, au routage et à la surveillance en temps réel, HPE Machine Learning Inference Software offre l’agilité nécessaire pour créer rapidement des modèles ML, les itérer en fonction des résultats dans le monde réel et maintenir des performances optimales.
Nouveautés
- Simplifiez le processus de déploiement évolutif des modèles de production pour les équipes de MLOps ou ITOps, grâce à une interface graphique intuitive qui élimine le besoin d’une expertise approfondie de Kubernetes.
- Bénéficiez d’une intégration fluide avec Hugging Face et les modèles de base de NVIDIA, offrant ainsi une expérience de déploiement sans codage pour les grands modèles de langage (LLM) directement à partir de Hugging Face et de NVIDIA NGC.
- Profitez d’une intégration transparente avec NVIDIA AI Enterprise® qui inclut les microservices NIM® pour une inférence améliorée sur plus de deux douzaines de modèles d’IA populaires développés par NVIDIA et ses partenaires.
- Facilitez la prise en charge de modèles pré-entraînés et personnalisés basés sur des infrastructures populaires telles que TensorFlow, PyTorch, scikit-learn et XGBoost.
- Profitez de la surveillance et de la journalisation intégrées pour consulter les performances des modèles, les statistiques d’utilisation et l’état des systèmes, ce qui facilite l’optimisation proactive.
- Procédez aux déploiements de manière flexible sur différentes infrastructures, avec une compatibilité étendue pour de nombreux environnements Kubernetes, notamment HPE Ezmeral, HPE GreenLake, AWS, Azure, Google Cloud et les configurations sur site.
Caractéristiques
Déploiement prévisible, fiable, sécurisé et supervisé dans différents environnements
HPE Machine Learning Inference Software permet de déployer des modèles à l’aide d’une interface graphique intuitive et de les implémenter à grande échelle en fonction de la charge.
Personnalisez les performances grâce à une surveillance en temps réel des modèles, et suivez les prédictions et les statistiques liées au déploiement.
Que vous utilisiez un cluster Kubernetes existant, un cloud privé ou même un cloud hybride, HPE Machine Learning Inference Software offre des outils cohérents pour répondre à vos besoins dans des environnements en constante évolution.
Les charts Helm aux normes de l’industrie sont utilisés pour le déploiement sur n’importe quelle plateforme compatible avec Kubernetes, comme OpenShift, Rancher, EKS, AKS ou GKS. Vous pouvez exploiter n’importe quel cloud.
Prise en charge intégrée des modèles et des outils NVIDIA
HPE Machine Learning Inference Software offre une prise en charge flexible et efficace des GPU Nvidia, avec une architecture évolutive pour s’adapter aux systèmes en constante évolution.
L’intégration avec la suite logicielle AI Enterprise (NVAIE) de NVIDIA, les microservices d’inférence NVIDIA (NIM) (utilisant Triton, TensorRT-LLM) et d’autres techniques d’inférence IA permet d’obtenir de meilleures performances.
Sécurité professionnelle intégrée
HPE Machine Learning Inference Software permet d’exécuter vos charges de travail dans l’environnement de votre choix (cloud, infrastructure hybride, sur site, ou environnements isolés). Vos modèles, votre code et vos données restent ainsi toujours protégés.
Utilisez des contrôles d’accès en fonction du rôle (RBAC) pour autoriser de manière sécurisée la collaboration et le partage des ressources et des artefacts d’apprentissage automatique entre les équipes de développement et de MLOps.
Sécurisez les terminaux de déploiement grâce à des fonctionnalités de sécurité professionnelles qui requièrent une authentification avancée, notamment avec OIDC et OAuth 2.0, pour interagir avec les modèles.
Compatibilité étendue avec différents types de modèles
HPE Machine Learning Inference Software garantit une intégration fluide avec les grands modèles de langage (LLM) spécifiques provenant directement de Hugging Face et du serveur d’inférence Nvidia (NIM), tout en facilitant le développement de modèles à partir de la plupart des infrastructures disponibles.
Optimisez votre flexibilité en utilisant des modèles provenant de diverses infrastructures telles que TensorFlow, PyTorch, Scikit-Learn et XGBoost, afin de prendre en charge un large éventail de modèles pré-formés et personnalisables.
- Kubernetes est une marque déposée de Google LLC. NVIDIA® et CUDA sont des marques déposées de NVIDIA Corporation aux États-Unis et dans d’autres pays. Toutes les autres marques de tiers sont la propriété de leurs propriétaires respectifs.