MACHINE LEARNING OPERATIVO SU SCALA ENTERPRISE

HPE Ezmeral ML Ops standardizza i processi e fornisce tool preconfigurati per creare, addestrare, distribuire e monitorare i flussi di lavoro di machine learning, offrendo la velocità e l’agilità di DevOps in ogni fase del ciclo di vita ML.

+ mostra di più
HPE GreenLake per ML Ops
Creazione dei modelli
Guarda il video: HPE Ezmeral Machine Learning Ops
Ambienti sandbox self-service preconfezionati

Valorizza rapidamente gli ambienti con i tuoi strumenti di data science preferiti per esplorare un’ampia gamma di origini dati aziendali sperimentando contemporaneamente più framework di machine learning o deep learning per scegliere il modello più adatto per i problemi di business che devi affrontare

Addestramento del modello
Guarda la demo: realizza e addestra un modello
Ambienti containerizzati a nodo singolo o multi-nodo distribuiti

Ambienti self-service on-demand per i carichi di lavoro di sviluppo e test o produzione. Ambienti di addestramento dalle prestazioni elevate, con distinzione tra elaborazione e storage, che accedono in modo sicuro alle origini dati aziendali nello storage on-premise o basato su cloud.

Implementazione e monitoraggio dei modelli
Guarda la demo: implementazione del modello
Distribuzione nei container con visibilità completa sull’intera pipeline ML

Distribuisci l’immagine di runtime del modello (Python, R, H2O ecc.) in un endpoint containerizzato. Con il registro dei modelli, monitora le versioni dei modelli e aggiorna i modelli secondo necessità senza problemi. Acquisisci una visibilità completa sull'utilizzo delle risorse durante il runtime. Monitora, misura e registra le prestazioni del modello, salva e ispeziona gli input e gli output di ogni richiesta di valutazione. Le integrazioni con il software di terzi consentono di valutare l’accuratezza e l’interpretabilità dei modelli.

Collaborazione
Guarda la demo: configurazione del repository del progetto
CI/CD. Test A/B o test Canary

HPE Ezmeral ML Ops consente il controllo delle origini con strumenti di integrazione pronti all'uso come GitHub. Memorizza più modelli (versioni multiple con metadati) per vari motori runtime nel registro dei modelli. Esegui test A/B o Canary per convalidare il modello prima della distribuzione su vasta scala. Un repository di progetti integrato facilita la collaborazione e fornisce il monitoraggio della derivazione per migliorare la verificabilità.

Sicurezza e controllo
Architettura multi-tenant e isolamento dei dati su infrastrutture e origini dati condivise

Sfrutta l’architettura multi-tenant e le caratteristiche di isolamento dei dati per garantire la separazione logica tra ciascun progetto, gruppo o reparto all'interno dell’azienda. La piattaforma si integra con meccanismi di autenticazione e sicurezza aziendale come LDAP, Active Directory e Kerberos.

Distribuzione ibrida
Predisposto per il cloud ibrido

Esegui il software HPE Ezmeral ML Ops on-premise su qualsiasi infrastruttura, in diversi cloud pubblici (Amazon® Web Services, Google® Cloud Platform o Microsoft® Azure) o in un modello ibrido, aumentando l’efficienza di utilizzo delle risorse e riducendo i costi operativi.

  • 53%
    Aumento della redditivitàForrester%3A%20Rendere%20operativo%20il%20machine%20learning%2C%20giugno%202020
  • 52%
    Migliore customer experienceForrester%3A%20Rendere%20operativo%20il%20machine%20learning%2C%20giugno%202020
  • 49%
    Migliore adozione delle best practice di data scienceForrester%3A%20Rendere%20operativo%20il%20machine%20learning%2C%20giugno%202020

VIDEO TECNICI SU HPE ML OPS

HPE EZMERAL ML OPS - DETTAGLI DEL PRODOTTO

HPE Ezmeral ML Ops supera le problematiche dell’“ultimo miglio”, con una piattaforma che garantisce un’esperienza paragonabile al cloud unita a tool preconfigurati per rendere operativo il ciclo di vita del machine learning, dalla fase pilota alla produzione.

+ mostra di più
HPE Ezmeral ML Ops 

Una soluzione software che estende le funzionalità di HPE Ezmeral Runtime Enterprise per supportare l’intero ciclo di vita ML implementando processi simili a DevOps per standardizzare e accelerare i flussi di lavoro di machine learning, fornendo ai team di data science l’implementazione con un clic di ambienti IA/ML distribuiti e l’accesso sicuro ai dati di cui hanno bisogno.

IL SUCCESSO IN AZIONE
Logo di Optum

ADVISORY BOARD (OPTUM) USA HPE EZMERAL PER ACCELERARE I RISULTATI DI BUSINESS CON IA E ML

Advisory Board (Optum) implementa l’analisi predittiva e il machine learning nei Big Data con la piattaforma basata su container di HPE Ezmeral. Scopri come ha semplificato le operazioni e ridotto i costi migliorando al contempo l’assistenza per i pazienti nelle strutture ospedaliere statunitensi.

Problematica

Aiutare le aziende ospedaliere negli Stati Uniti a trasformare i Big Data in informazioni fruibili che generano valore di business.

Soluzione

Distribuzione di applicazioni di analisi e ML distribuite per la separazione dell’elaborazione e della memoria dallo storage.

“HPE Ezmeral ci ha aiutato ad affrontare queste problematiche con la sua soluzione containerizzata che ha accelerato il tempo di estrazione delle informazioni, ridotto i costi e lasciato il personale libero di dedicarsi all'innovazione. La nostra organizzazione ne ha tratto grandi vantaggi e non vediamo l’ora di proseguire questo percorso insieme”.

Ramesh Thyagarajan, Executive Director, Advisory Board (Optum)

Risultato

Informazioni basate sui dati necessarie per aumentare l’efficienza operativa, ridurre i costi dell’infrastruttura e migliorare l’assistenza ai pazienti. 

Guarda il video