Tout comme pour le développement de logiciels antérieurs DevOps, les entreprises de science des données consacrent encore beaucoup de temps et d’efforts lors du transfert de projets du développement à la production. Le contrôle de version de modèle et le partage de code est manuel et les outils et les structures manquent de standardisation, ce qui rend fastidieux et chronophage la production de modèles d'apprentissage automatique. Les logiciels HPE Machine Learning Ops (HPE ML Ops) étendent les capacités de la plateforme BlueData EPIC et confèrent à l’apprentissage automatique une agilité de type DevOps. Avec la plateforme HPE ML Ops, les entreprises peuvent mettre en œuvre des processus DevOps pour normaliser leurs flux de travail d’apprentissage automatique (ML). HPE ML Ops fournit aux équipes de science des données une plateforme pour répondre à leurs besoins de sciences des données de bout en bout avec la flexibilité nécessaire pour exécuter leurs charges de travail d'apprentissage automatique ou d'apprentissage en profondeur sur site, dans plusieurs clouds publics ou selon un modèle hybride, et répondre aux exigences commerciales dynamiques dans une variété de cas d'utilisation.

Nouveautés

  • Tirez parti de la puissance des conteneurs pour créer des piles complexes d’apprentissage automatique et d’apprentissage en profondeur, notamment TensorFlow, Apache Spark sur Yarn avec Kerberos H2Oet les boîtes à outils Python ML et Python DL.
  • Créez des environnements de formation optimisés distribués et évolutifs, d’apprentissage automatique (ML) et d’apprentissage en profondeur (DL) en quelques minutes plutôt qu'en plusieurs mois, sur site, dans un cloud public ou dans un modèle hybride.
  • Utilisez les outils de votre choix pour prendre en charge les flux d’apprentissage automatique (ML), y compris les plus complexes. Par exemple, commencez par préparer les données dans Spark, puis suivez une formation à TensorFlow sur les GPU et déployez-la sur des CPU exécutant TensorFlow.
  • Mettez en oeuvre les processus CI/CD dans vos projets d’apprentissage automatique (ML) grâce à un registre de modèles Le registre de modèles stocke les modèles et les versions créés dans HPE ML Ops, ainsi que ceux créés à l'aide de différents outils/plateformes.
  • Améliorez la fiabilité et la reproductibilité de vos projets d’apprentissage automatique (ML) sur un référentiel de projets partagés tel que GitHub.
  • Déployez des modèles en production avec un déploiement de point de terminaison fiable, évolutif et à haute disponibilité grâce à une mise à l'échelle automatique et une répartition de charge prêtes à l'emploi, ainsi que l'équilibrage de la charge.

Caractéristiques

Rentabilisation accélérée

Gérer et provisionnez l'infrastructure grâce à une interface utilisateur graphique intuitive.

Provisionnez des environnements de développement, de test ou de production en quelques minutes et non en plusieurs jours.

Intégrez rapidement de nouveaux scientifiques de données avec leur choix d'outils et de langages sans créer des environnements de développement cloisonnés.

Productivité améliorée

Les scientifiques de données consacrent leur temps à créer des modèles et à analyser les résultats plutôt qu’à attendre la fin des travaux de formation.

BlueData, société acquise récemment par Hewlett Packard Enterprise permet de lutter contre la perte de précision ou la dégradation des performances dans les environnements multi-locataires.

Augmentez la collaboration et la reproductibilité avec les référentiels de code, de projets et de modèles partagés.

Réduction des risques

Sécurité de niveau entreprise et contrôles d’accès aux calculs et aux données.

Le suivi des historiques fournit une gouvernance et une auditabilité de modèle pour une conformité réglementaire.

Les intégrations avec des logiciels tiers fournissent l'interprétabilité.

Les déploiements à haute disponibilité permettent d'éviter que des incidents affectent les applications stratégiques.

Flexible et élastique

Déployez sur site, dans le cloud ou dans un modèle hybride pour répondre aux besoins de votre entreprise.

Mise à l'échelle automatique des clusters pour répondre aux exigences des charges de travail dynamiques.