Tempo di lettura: 6 minuti | Pubblicazione: 10 marzo

Stack di AI Cos'è uno stack di AI?
Con stack di AI si intende l'insieme di tool, tecnologie e framework che operano in sinergia per creare, addestrare, distribuire e gestire le applicazioni di intelligenza artificiale. Comprende tutti gli elementi, tra cui l'elaborazione dei dati, i framework di machine learning, i servizi cloud e l'infrastruttura hardware, consentendo a sviluppatori e organizzazioni di creare e scalare in modo efficace le soluzioni di AI.
I seguenti sono alcuni esempi di prodotti all'interno dello stack di AI.
TensorFlow: un framework di machine learning open source che consente agli sviluppatori di creare e addestrare modelli di deep learning.
AWS Sagemaker: un servizio cloud fornito da Amazon Web Services che semplifica il processo di creazione, addestramento e distribuzione dei modelli di machine learning su vasta scala.

- Panoramica di uno stack di AI
- Livello dell’infrastruttura
- Livello di gestione dei dati
- Livello di inferenza e distribuzione
- Livello delle applicazioni
- Collabora con HPE
Quali sono i componenti di uno stack di AI?
La seguente è una ripartizione generale dei diversi livelli all'interno dello stack di AI.
- Raccolta e preparazione dei dati: è la base dello stack di AI. Comporta la raccolta di dati non elaborati da diverse origini, nonché la loro pulizia, organizzazione e preparazione per l'utilizzo nei modelli di intelligenza artificiale. I tool e le piattaforme a questo livello contribuiscono ad automatizzare le pipeline di dati e a garantirne la qualità.
- Storage e gestione dei dati: questo livello gestisce lo storage, l'organizzazione e l'accessibilità di enormi set di dati. Le soluzioni spesso includono database, data lake e servizi di storage cloud che consentono un recupero e una gestione efficienti dei dati.
- Sviluppo e addestramento del modello: in questo livello, gli sviluppatori creano e addestrano modelli di intelligenza artificiale mediante framework e librerie di machine learning. I tool di questa categoria, come TensorFlow e PyTorch, consentono ai data scientist di sperimentare, addestrare e mettere a punto i propri modelli con dati strutturati e non strutturati.
- Distribuzione e utilizzo del modello: questo livello prevede la distribuzione dei modelli addestrati in produzione per poterli utilizzare in applicazioni in tempo reale. In questo caso, le piattaforme e i servizi, come AWS Sagemaker o le soluzioni basate su Kubernetes, si concentrano sulla scalabilità, sul monitoraggio e sulla gestione delle prestazioni dei modelli.
- Infrastruttura ed elaborazione: è la spina dorsale che supporta lo stack di AI. Include l'hardware (ad esempio GPU e TPU) e i servizi cloud che forniscono la potenza di elaborazione necessaria per addestrare modelli complessi ed eseguire applicazioni di intelligenza artificiale su vasta scala.
- Monitoraggio e ottimizzazione: una volta che i modelli sono in produzione, questo livello ne garantisce prestazioni efficienti e coerenti. I tool di monitoraggio tracciano le metriche, rilevano le anomalie e identificano quando un modello necessita di essere riaddestrato. Le soluzioni di ottimizzazione adattano anche le risorse ed eseguono il fine tuning dei modelli per ottenere le massime prestazioni.
- Interfacce utente e integrazione: l'ultimo livello è quello in cui i sistemi di intelligenza artificiale si collegano con gli utenti e con altri sistemi aziendali. Questo livello include API, dashboard e tool software che rendono i risultati dell'AI accessibili e fruibili per il processo decisionale e l'uso operativo.
Ogni livello dello stack di AI svolge un ruolo cruciale nella creazione di un ecosistema di intelligenza artificiale solido e scalabile, consentendo alle aziende di sfruttare efficacemente questa tecnologia, dalla raccolta dati all'integrazione con l'utente finale. Spiegheremo più in dettaglio le funzioni di ogni passaggio.
Che infrastruttura è necessaria per uno stack di AI?
Per raggiungere la competenza nel livello dell’infrastruttura allo scopo di eseguire internamente i modelli di intelligenza artificiale, le aziende devono seguire diversi passaggi critici.
Configurazione interna dell'infrastruttura AI.
- Acquisizione dell’hardware: le aziende devono investire in server e unità di elaborazione ad alte prestazioni come i server Proliant o i prodotti Cray, che offrono una potenza di elaborazione elevata. Anche le GPU (Graphics Processing Unit) o TPU (Tensor Processing Unit) sono essenziali per accelerare l'addestramento e la distribuzione di modelli di intelligenza artificiale complessi.
- Soluzioni per lo storage: per gestire le enormi quantità di dati richiesti per l'addestramento dei modelli di intelligenza artificiale è necessario uno storage dati su vasta scala, che include la creazione di data lake o sistemi di storage ad alta capacità e rapido accesso.
- Funzionalità di rete: è necessaria un'infrastruttura di rete solida e ad alta velocità per garantire un trasferimento dati efficiente tra le unità di storage e di elaborazione. Questo contribuisce a mantenere l'efficienza e la velocità dei processi di intelligenza artificiale.
- Sistemi di alimentazione e raffreddamento: l'hardware ad alte prestazioni richiede molta energia e genera calore, per questo le aziende necessitano di un’alimentazione affidabile e di sistemi di raffreddamento avanzati per evitare il surriscaldamento e garantire prestazioni costanti.
- Competenze e gestione IT: per la configurazione, la gestione e la manutenzione dell'infrastruttura, oltre che per la risoluzione dei problemi, l’ottimizzazione delle prestazioni e l’implementazione di misure di sicurezza, è essenziale disporre di team IT qualificati.
- Protocolli di sicurezza: la protezione dei dati sensibili e il mantenimento della sicurezza delle operazioni sono di fondamentale importanza. Le aziende dovrebbero implementare misure di cybersicurezza complete, come firewall, crittografia e policy di controllo degli accessi.
Alternative all'infrastruttura interna.
Per le aziende che non dispongono del capitale o delle risorse per costruire e mantenere un'infrastruttura interna, le soluzioni alternative includono le seguenti.
- Cloud computing:
- Servizi di AI nel cloud: provider come Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) offrono risorse di elaborazione scalabili e on demand. Questi servizi consentono alle aziende di noleggiare la potenza di elaborazione, lo storage e i tool di AI senza dover effettuare investimenti iniziali nell’infrastruttura.
- Vantaggi: scalabilità, costi iniziali ridotti, facilità di configurazione e accesso a servizi di AI avanzati.
- Considerazioni: spese operative ricorrenti, dipendenza dalla connettività Internet e preoccupazioni sulla privacy dei dati.
- Affitto di spazio di data center.
- Servizi di colocation: le aziende possono affittare spazi nei data center per l’hosting dei propri server e sistemi di storage. Questo consente loro di gestire la propria infrastruttura di intelligenza artificiale senza dover costruire e mantenere strutture fisiche.
- Vantaggi: accesso ad alimentazione, raffreddamento, sicurezza e connessioni di rete affidabili forniti dal data center.
- Considerazioni: richiede un investimento iniziale in hardware e competenze IT per gestire i server, oltre a canoni di noleggio e manutenzione continuativi.
Ogni approccio presenta i suoi vantaggi e compromessi e le aziende dovrebbero valutare il budget, i requisiti di privacy dei dati e le esigenze di scalabilità per decidere tra infrastrutture interne, cloud computing o soluzioni di noleggio di data center.
Quale gestione dei dati è necessaria per uno stack di AI?
Per raggiungere la competenza nel livello di gestione dei dati dello stack di AI, le aziende devono concentrarsi sulla creazione di un sistema solido per la raccolta, l'organizzazione, lo storage e l'elaborazione dei dati. Questo garantisce che i modelli di intelligenza artificiale abbiano accesso a dati di alta qualità per l'addestramento e l'inferenza.
Configurazione interna della gestione dei dati.
- Storage dati centralizzato: le aziende hanno bisogno di sistemi in grado di gestire grandi volumi di dati in modo efficiente. È possibile implementare soluzioni come HPE Ezmeral Data Fabric per garantire uno storage, un accesso e una gestione dei dati ottimali. Questa piattaforma fornisce uno storage dati scalabile e garantisce che i dati siano disponibili e affidabili per l'addestramento dei modelli di intelligenza artificiale e l'analisi.
- Integrazione e pipeline dei dati: è essenziale stabilire pipeline in grado di estrarre dati da diverse origini (ad esempio database, dispositivi IoT e cloud storage). Questo garantisce che i dati possano essere elaborati e trasferiti senza problemi nell’intera infrastruttura. HPE Ezmeral Data Fabric supporta funzionalità di integrazione dei dati che consentono un accesso unificato ai dati negli ambienti ibridi.
- Tool di elaborazione dei dati: questi tool aiutano a preparare i dati pulendoli, normalizzandoli e formattandoli per i modelli di intelligenza artificiale. Ad esempio, Apache Spark e Hadoop sono noti framework open source per l'elaborazione dei dati che consentono l'elaborazione distribuita di grandi set di dati.
- Sicurezza e compliance dei dati: con normative sempre più rigide, le aziende devono garantire che i loro sistemi di gestione dei dati siano conformi alle leggi sulla privacy (ad esempio GDPR e CCPA). Per proteggere le informazioni sensibili, è necessario integrare misure di sicurezza, come la crittografia dei dati e il controllo degli accessi.
- Scalabilità e prestazioni: il livello dati dovrebbe essere in grado di scalare in base alla crescita delle esigenze in questo ambito. Le soluzioni dati di HPE sono progettate per scalare in linea con i requisiti aziendali, ma tecnologie alternative come Databricks (basato su Apache Spark) offrono anch'esse funzionalità scalabili di elaborazione dei dati e machine learning.
Alternative per il livello di gestione dei dati.
Per le aziende che non sono in grado di occuparsi internamente della gestione dei dati o che preferiscono non farlo, sono disponibili soluzioni basate su cloud e di terze parti, tra cui le seguenti.
- Servizi di gestione dei dati nel cloud.
- Amazon S3 e AWS Glue: questi servizi forniscono tool scalabili di cloud storage e di integrazione dei dati, consentendo una raccolta, una preparazione e una gestione efficienti dei dati.
- Microsoft Azure Data Lake Storage: offre una soluzione data lake sicura e scalabile con elevata disponibilità e integrazione con altri servizi Azure per l'elaborazione e l'analisi dei dati.
- Google Cloud BigQuery: un data warehouse completamente gestito che supporta l'analisi dei dati in tempo reale e si integra perfettamente con diversi tool di intelligenza artificiale di Google Cloud.
- Piattaforme di gestione dei dati di terze parti.
- Snowflake: una soluzione di data warehousing che offre funzionalità di condivisione e scalabilità dei dati in tempo reale, rendendola un'opzione valida per la gestione dei Big Data nelle organizzazioni.
- Cloudera Data Platform: una piattaforma dati ibrida e multi-cloud che offre servizi di data engineering, data warehousing e machine learning con particolare attenzione alle soluzioni per Big Data.
Soluzioni ibride.
HPE Ezmeral Data Fabric può essere abbinato a soluzioni cloud per un approccio ibrido, offrendo alle aziende la flessibilità di gestire alcuni dati internamente, sfruttando al contempo le risorse cloud in base alle necessità. In questo modo è possibile ottimizzare sia i costi che le prestazioni dei progetti di AI di grandi dimensioni.
Punti importanti per i responsabili delle decisioni IT e i dirigenti di alto livello.
- Affidabilità dei dati: è necessario garantire che le soluzioni per la gestione dei dati offrano elevata affidabilità e disponibilità per supportare operazioni AI continue.
- Gestione dei costi: è bene valutare i costi a lungo termine della gestione dei dati interna rispetto a quella basata su cloud, inclusi storage, elaborazione e compliance.
- Capacità di integrazione: è consigliabile scegliere soluzioni che si integrino facilmente con l'infrastruttura IT e i tool AI esistenti per aumentare al massimo la produttività e l’efficienza.
Sfruttando soluzioni come HPE Ezmeral Data Fabric ed esplorando prodotti complementari o alternativi come Snowflake o Databricks, le aziende possono creare un livello di gestione dei dati solido e scalabile, su misura per i loro specifici requisiti di intelligenza artificiale.
Cosa serve al livello di inferenza e distribuzione?
Per raggiungere la competenza nel livello di inferenza e distribuzione dello stack di AI, le aziende necessitano di una configurazione efficiente che garantisca la distribuzione e le prestazioni ottimali dei modelli di intelligenza artificiale in tempo reale. Questo livello è quello in cui i modelli addestrati vengono integrati nelle applicazioni e utilizzati per fare previsioni o prendere decisioni, influenzando le interazioni con gli utenti finali e i processi aziendali.
Configurazione interna di inferenza e distribuzione.
- Server ad alte prestazioni: per eseguire e distribuire i modelli di intelligenza artificiale in modo efficace, le aziende necessitano di server potenti, in grado di gestire le esigenze di elaborazione dell'inferenza in tempo reale. I server HPE ProLiant e altri server HPE sono soluzioni ideali, in quanto offrono hardware affidabile, scalabile e ad alte prestazioni. Questi server sono ottimizzati per i carichi di lavoro dell’intelligenza artificiale e possono gestire le attività impegnative richieste per l'implementazione di modelli complessi, garantendo previsioni a bassa latenza.
- Framework di distribuzione scalabili: è essenziale garantire la capacità di distribuire modelli in ambienti diversi (ad esempio on-premise, nel cloud e all’edge). L'infrastruttura di HPE supporta tool di containerizzazione e orchestrazione quali Kubernetes e Docker, consentendo una scalabilità e una gestione senza problemi delle distribuzioni dei modelli.
- Bilanciamento del carico e alta disponibilità: per garantire l'affidabilità del servizio, il bilanciamento del carico consente alle applicazioni di intelligenza artificiale di distribuire le richieste di inferenza su più server. Le configurazioni ad alta disponibilità supportate dai server HPE ProLiant contribuiscono a prevenire il downtime del servizio, garantendo il funzionamento senza intoppi delle applicazioni AI.
- Monitoraggio e gestione delle prestazioni: il monitoraggio continuo dei modelli implementati è fondamentale per mantenere l'accuratezza e l'efficienza dell'inferenza. I server HPE sono dotati di tool di gestione integrati che monitorano le metriche delle prestazioni, rilevano le anomalie e contribuiscono a ottimizzare l'utilizzo delle risorse. Inoltre, per una supervisione completa, è possibile integrare tool di monitoraggio specifici per l'intelligenza artificiale, come Prometheus e Grafana.
- Sicurezza e compliance: il livello di distribuzione deve disporre di protocolli di sicurezza robusti per salvaguardare l'integrità dei dati e del modello. I server HPE offrono funzionalità di sicurezza di livello enterprise, tra cui trasferimenti di dati crittografati e controlli degli accessi in base al ruolo, garantendo che i modelli AI distribuiti siano conformi agli standard e alle normative del settore.
Alternative per il livello di inferenza e distribuzione.
Per le aziende che preferiscono soluzioni basate su cloud o in outsourcing per l'inferenza e l'implementazione dei modelli, sono disponibili diverse opzioni, tra cui le seguenti.
- Soluzioni di inferenza basate su cloud.
- AWS Sagemaker Inference: fornisce un'infrastruttura scalabile per la distribuzione di modelli con endpoint a bassa latenza, consentendo alle aziende di sfruttare servizi e tool preimpostati per un'integrazione perfetta.
- Google Cloud AI Platform Prediction: offre opzioni serverless per la distribuzione di modelli addestrati, semplificando l'aumento o la riduzione delle risorse in base alla domanda e garantendo al contempo prestazioni elevate.
- Azure Machine Learning Managed Endpoints: consente la distribuzione rapida e sicura dei modelli con funzionalità integrate di scalabilità, monitoraggio e governance.
- Piattaforme di inferenza gestite.
- NVIDIA Triton Inference Server: una soluzione open source che semplifica l'implementazione di modelli di intelligenza artificiale, ottimizzando le prestazioni di GPU e CPU. Supporta molteplici modelli e framework, aumentando la flessibilità delle strategie di distribuzione.
- MLflow: una piattaforma che gestisce il ciclo di vita del machine learning end-to-end, inclusi distribuzione del modello, controllo delle versioni e monitoraggio. Può essere integrato con i server HPE per semplificare le operazioni.
- Soluzioni di distribuzione all’edge.
- Sistemi edge convergenti HPE Edgeline: per le aziende che desiderano implementare i modelli di intelligenza artificiale all'edge, i sistemi HPE Edgeline forniscono potenti capacità di elaborazione all'edge, riducendo la latenza e migliorando i tempi di risposta per applicazioni in tempo reale come IoT e sistemi autonomi.
- TensorFlow Lite: ottimizzato per la distribuzione di modelli AI su dispositivi mobili ed edge, consentendo funzionalità di intelligenza artificiale direttamente sul dispositivo per un'inferenza più rapida e una minore dipendenza dall'infrastruttura centralizzata.
Punti importanti per i responsabili delle decisioni IT e i dirigenti di alto livello.
- Latenza e prestazioni: è necessario garantire che la configurazione per l’inferenza sia in grado di gestire le esigenze di elaborazione in tempo reale. I server HPE ProLiant offrono la potenza necessaria per soddisfare i requisiti di elevate prestazioni.
- Scalabilità: è consigliabile valutare se l'infrastruttura attuale dell’organizzazione può essere scalata per gestire le crescenti richieste di inferenza o se le soluzioni basate su cloud sono più pratiche per la crescita.
- Sicurezza: è consigliabile verificare che l'ambiente di distribuzione soddisfi i necessari standard di protezione dei dati e di compliance.
- Funzionalità all’edge: per i casi d'uso che richiedono risposte rapide e bassa latenza, valutare se la distribuzione di modelli all'edge con HPE Edgeline o sistemi simili è in linea con la strategia.
Utilizzando i server HPE ProLiant o altri server HPE, le aziende possono creare un ambiente di inferenza e distribuzione robusto, sicuro e scalabile che supporta un'ampia gamma di applicazioni AI, dal semplice hosting di modelli alle implementazioni distribuite avanzate.
Cosa è necessario al livello delle applicazioni?
Per raggiungere la competenza nel livello delle applicazioni dello stack di AI, le aziende necessitano di soluzioni che consentano loro di integrare perfettamente le funzionalità di intelligenza artificiale nei prodotti e nei servizi. Questo livello rappresenta il lato dell'intelligenza artificiale rivolto all'utente, in cui i risultati dei modelli vengono trasformati in informazioni fruibili, interazioni con gli utenti o processi automatizzati che forniscono valore agli utenti finali.
Configurazione interna del livello delle applicazioni.
- Soluzioni e sviluppo di AI personalizzati: questo livello prevede lo sviluppo di applicazioni personalizzate che sfruttano la potenza dei modelli di intelligenza artificiale. I Gen AI Implementation Services di HPE offrono alle aziende le competenze e le risorse necessarie per integrare i modelli di AI generativa e altre funzionalità di intelligenza artificiale avanzate nelle loro applicazioni. Questi servizi offrono supporto nella personalizzazione delle implementazioni dell'AI in base alle specifiche esigenze aziendali, garantendo che le soluzioni siano non solo potenti, ma anche in linea con gli obiettivi di business.
- Interfacce utente (UI) ed esperienza utente (UX): per essere efficaci, le applicazioni di AI necessitano di interfacce intuitive che consentano agli utenti finali di interagire facilmente con gli output dell'intelligenza artificiale. I team di sviluppo possono creare dashboard, così come applicazioni web o mobili, che mostrano le informazioni ricavate dall'intelligenza artificiale in un formato fruibile. I servizi AI di HPE includono consulenza e supporto per progettare interfacce che facilitano l'interazione efficiente dell'utente e aumentano al massimo l'efficacia delle informazioni basate sull'AI.
- API per l'integrazione: le aziende spesso utilizzano le API per integrare le funzionalità dell'intelligenza artificiale nei sistemi e nei flussi di lavoro esistenti. I servizi AI di HPE possono contribuire alla creazione di API personalizzate per un'integrazione senza problemi, consentendo ai modelli di intelligenza artificiale di comunicare con altri software enterprise o piattaforme dati.
- Automazione basata sull'AI: l'automazione dei processi aziendali è un utilizzo fondamentale del livello delle applicazioni. Le soluzioni AI di HPE possono essere sfruttate per creare applicazioni che automatizzano le attività ripetitive, ottimizzano le operazioni e migliorano i processi decisionali. Questo può includere ogni elemento, dai chatbot per il servizio clienti ai sistemi automatizzati di rilevamento delle frodi.
- Personalizzazione: le applicazioni di intelligenza artificiale a questo livello si concentrano spesso sulla personalizzazione dell'esperienza utente, ad esempio fornendo consigli su misura, contenuti dinamici e interfacce utente adattive. Le aziende possono collaborare con gli HPE Gen AI Implementation Services per creare e distribuire applicazioni che rendano possibili interazioni personalizzate basate sull'intelligenza artificiale.
- Alternative per il livello delle applicazioni.
Per le aziende che cercano soluzioni di terze parti o tool aggiuntivi per ottimizzare le proprie funzionalità di intelligenza artificiale, le seguenti opzioni sono degne di nota.
Piattaforme SaaS basate sull'AI.
- Salesforce Einstein: integra le funzionalità di intelligenza artificiale nei tool di customer relationship management (CRM) per fornire analisi predittive, informazioni dettagliate sui clienti e flussi di lavoro automatizzati.
- IBM Watson AI Services: offre una gamma di funzionalità di intelligenza artificiale, dall'elaborazione del linguaggio naturale (NLP) al machine learning, che possono essere integrate nelle applicazioni aziendali per ottimizzare l'esperienza utente e semplificare le operazioni.
Framework di applicazioni AI.
- Microsoft Azure Cognitive Services: fornisce una serie di API e tool che consentono alle aziende di integrare funzionalità di AI come la visione artificiale, il riconoscimento vocale e la comprensione del linguaggio nelle loro applicazioni.
- Google Cloud AI: offre modelli pre-addestrati e tool come Dialogflow per la creazione di interfacce di intelligenza artificiale conversazionale, nonché API per la visione, la traduzione e l'analisi dei dati.
Piattaforme AI senza codice e a basso codice.
- DataRobot: consente alle organizzazioni di creare e distribuire applicazioni di intelligenza artificiale senza la necessità di scrivere ampie porzioni di codice, rendendo l'AI più accessibile agli utenti aziendali e accelerando il time to market.
- H2O.ai: una piattaforma che supporta lo sviluppo e l'implementazione rapidi di applicazioni di intelligenza artificiale con una minima scrittura di codice, perfetta per le aziende che cercano un modo semplice per integrare l'AI.
Punti importanti per i responsabili delle decisioni IT e i dirigenti di alto livello.
- Time to market: i Gen AI Implementation Services di HPE possono accelerare lo sviluppo e la distribuzione di applicazioni basate sull'intelligenza artificiale, garantendo alle aziende di ottenere più rapidamente un vantaggio competitivo.
- Scalabilità e personalizzazione: è necessario garantire che le soluzioni di intelligenza artificiale scelte offrano la flessibilità necessaria per scalare e adattarsi all'evoluzione delle esigenze aziendali.
- Capacità di integrazione: è consigliabile valutare se le soluzioni AI si integrano senza problemi con i sistemi aziendali esistenti per creare uno stack tecnologico coerente.
- Progettazione incentrata sull'utente: è bene dare priorità a tool e servizi che consentano di progettare applicazioni di intelligenza artificiale tenendo conto dell'esperienza dell'utente, ottimizzando l'adozione e l'efficacia.
Sfruttando i Gen AI Implementation Services di HPE e altre soluzioni AI HPE, le aziende possono creare applicazioni robuste che sfruttano appieno la potenza dei loro modelli di intelligenza artificiale. Questi servizi guidano le aziende attraverso il processo di sviluppo, implementazione e manutenzione di applicazioni di intelligenza artificiale che producono risultati di grande impatto e promuovono obiettivi strategici.
Collabora con HPE
Collabora con HPE per iniziare con lo stack di AI per la tua azienda. Disponiamo di numerosi prodotti e servizi per creare il tuo vantaggio AI e realizzare le tue ambizioni.
Soluzioni AI HPE: l'AI è ovunque e sta rivoluzionando ogni settore, con possibilità illimitate. L'AI può trasformare i dubbi in scoperte, le informazioni in azioni e l'immaginazione in realtà.
Hai la padronanza necessaria per sviluppare e scalare i progetti di AI con sicurezza? Dai slancio alla trasformazione in un’attività basata sull'AI e preparati ad affrontare facilmente problemi complessi ed enormi set di dati con le soluzioni AI di HPE.
HPE Private Cloud AI: semplifica la configurazione accelerata dell’infrastruttura e ottieni la velocità e la scalabilità del cloud pubblico, mantenendo al contempo i dati privati e più sicuri, con una piattaforma software per il ciclo di vita end-to-end. Con un cloud privato scalabile, pre-testato, ottimizzato per l’AI e completamente accelerato, è possibile dare ai team AI e IT la libertà di sperimentare e scalare i progetti di intelligenza artificiale con un ricco ecosistema di modelli AI e tool di sviluppo, mantenendo il controllo dei costi e dei rischi finanziari.
HPE Cray Supercomputing: migliora l'efficienza e accelera i carichi di lavoro HPC e AI/ML alla velocità del supercomputing con il portafoglio completo di soluzioni HPE.