Hewlett Packard Enterprise accelera l’addestramento dell’AI con una nuova soluzione chiavi in mano in collaborazione con NVIDIA

Una nuova soluzione HPE, dedicata a centri di ricerca e grandi imprese per accelerare l’AI generativa, integra software, hardware, reti e servizi di AI/ML considerata leader in questo settore


  • La soluzione di supercomputing per l'intelligenza artificiale generativa è creata appositamente per semplificare il processo di sviluppo dei modelli con uno stack software AI/ML che aiuta i clienti ad accelerare progetti di intelligenza artificiale generativa e deep learning, inclusi LLM e deep learning “recommendation model


  • HPE presenta una soluzione di addestramento AI preconfigurata e preaddestrata dotata di software AI/ML leader nel settore del supercalcolo, elaborazione accelerata, rete, storage e servizi - il primo sistema a offrire la configurazione “quad”, ossia che include 4 processori NVIDIA Grace Hopper GH200 Superchip


  • Fornita con servizi di installazione e configurazione, questa soluzione chiavi in mano è progettata per l'uso nei centri di ricerca sull'intelligenza artificiale e nelle grandi imprese per migliorare il time-to-value e accelerare l’addestramento di 2-3 volte rispetto al passato

  • Milano – 14 novembre 2023 Hewlett Packard Enterprise(NYSE: HPE) ha annunciato oggi una soluzione di supercomputing per l'intelligenza artificiale generativa progettata per grandi imprese, istituti di ricerca e organizzazioni governative per accelerare la formazione e la messa a punto dei modelli di intelligenza artificiale (AI) utilizzando set di dati privati. Questa soluzione comprende una suite software che consente ai clienti di addestrare e mettere a punto modelli e sviluppare applicazioni AI. La soluzione include anche supercomputer raffreddati a liquido, elaborazione accelerata, reti, storage e servizi per aiutare le organizzazioni a sbloccare il valore dell'intelligenza artificiale più rapidamente.


    "Le aziende e i centri di ricerca leader a livello mondiale stanno addestrando e mettendo a punto modelli di intelligenza artificiale per promuovere l'innovazione e rivoluzionare la ricerca, ma per farlo in modo efficace ed efficiente, hanno bisogno di soluzioni mirate", ha affermato Justin Hotard, executive vice president e general manager, HPC, AI & Labs di Hewlett Packard Enterprise. “Per supportare l’intelligenza artificiale generativa, le organizzazioni devono sfruttare soluzioni sostenibili e capaci di assicurare le prestazioni e le dimensioni di un supercomputer dedicato per supportare l’addestramento dei modelli di AI. Siamo entusiasti di espandere la nostra collaborazione con NVIDIA per offrire una soluzione “AI-native” chiavi in mano che aiuterà i nostri clienti ad accelerare in modo significativo la fase di addestramento e i risultati dei modelli AI”.


Gli strumenti software per creare applicazioni di intelligenza artificiale, personalizzare modelli predefiniti e sviluppare e modificare codice sono componenti chiave di questa soluzione di supercalcolo per l'intelligenza artificiale generativa. Il software è integrato con la tecnologia di supercalcolo HPE Cray, basata sulla stessa potente architettura utilizzata nel supercomputer più veloce del mondo, e sfrutta i superchip NVIDIA Grace Hopper™ GH200. Così, questa soluzione offre alle organizzazioni la scalabilità e le prestazioni senza precedenti richieste per i grandi carichi di lavoro di intelligenza artificiale, come il training degli LLM (Large Language Model) e dei DLRM (Deep Learning Recommendation Model). Utilizzando HPE Machine Learning Development Environment su questo sistema, il modello open source da 70 miliardi di parametri “Llama2” è stato messo a punto in meno di 3 minuti[i]per un immediato e più veloce time to market per i clienti[ii]. Le funzionalità avanzate di supercalcolo di HPE, supportate dalle tecnologie NVIDIA, migliorano le performance del sistema di circa 2-3 volte rispetto al passato


Utilizzando 32 nodi HPE Cray EX 2500 con 128 GPU NVIDIA H100 al 97% di efficienza di scaling, un modello Llama 2 da 70 miliardi di parametri è stato messo a punto in test interni su un corpus di 10 milioni di token in meno di 3 minuti. Il codice di regolazione del modello e i parametri di addestramento non sono stati ottimizzati tra un'esecuzione e l'altra.

I benchmark standard dell'intelligenza artificiale, BERT e Mask R-CNN, sono stati eseguiti con un sistema pronto all'uso, non sintonizzato, che comprende il supercomputer HPE Cray EX2500 e un acceleratore blade HPE Cray EX254n con quattro superchip NVIDIA GH200 Grace Hopper. I test eseguiti in modo indipendente hanno mostrato un miglioramento delle prestazioni di 2-3 volte rispetto ai risultati pubblicati da MLPerf 3.0 per un sistema basato su A100 comprendente due processori AMD EPYC 7763 e quattro GPU NVIDIA A100 con interconnessioni NVLINK.


“L’intelligenza artificiale generativa sta trasformando ogni attività industriale e scientifica”, ha affermato Ian Buck, vice president Hyperscale e HPC di NVIDIA. “La collaborazione di NVIDIA con HPE su questa soluzione chiavi in mano di addestramento e simulazione di modelli di IA, basata sui superchip NVIDIA GH200 Grace Hopper, fornirà ai clienti prestazioni capaci di far fare passi da gigante alle loro iniziative di intelligenza artificiale generativa”.


  • Una potente soluzione AI integrata

    La nuova soluzione di supercalcolo per l'intelligenza artificiale generativa rappresenta un'offerta AI-native, integrata e appositamente creata che include le seguenti tecnologie e servizi in modalità “end-to-end”:


    • Software di accelerazione AI/ML – Una suite di tre strumenti software aiuterà i clienti ad addestrare e ottimizzare i modelli di intelligenza artificiale e a creare le proprie applicazioni AI.


    • HPE Machine Learning Development Environmentè una piattaforma software di machine learning (ML) che consente ai clienti di sviluppare e distribuire modelli di intelligenza artificiale più rapidamente integrandosi con i framework di ML più diffusi e semplificando la preparazione dei dati.


    • NVIDIA AI Enterpriseapre le porte verso un'intelligenza artificiale all'avanguardia con sicurezza, stabilità, gestibilità e supporto. Offre framework estesi, modelli preaddestrati e strumenti che semplificano lo sviluppo e l'implementazione dell'IA di produzione.


    • La suite HPE Cray Programming Environment offre ai programmatori un set completo di strumenti per lo sviluppo, il porting, il debug e il perfezionamento del codice.
    • Progettata per la scalabilità- basata su HPE Cray EX2500, un sistema di classe exascale e dotata dei superchip Grace Hopper NVIDIA GH200 leader del settore, la soluzione è scalabile fino a migliaia di unità di elaborazione grafica (GPU) con la possibilità di dedicare l'intera capacità dei nodi a supporto di un singolo carico di lavoro AI per un time-to-value più rapido. Il sistema è il primo a offrire la configurazione quad NVIDIA Grace Hopper GH200 Superchip.


    • Un network per l’AI in real time – HPE Slingshot Interconnect offre un open network ad alte prestazioni basato su Ethernet e progettato per supportare workload di classe exascale. Basato sulla tecnologia HPE Cray, questo network personalizzabile potenzia le prestazioni dell'intero sistema consentendo una velocità di networking estremamente elevata.
    • Chiavi in mano – La soluzione è completata da HPE Complete Care Services, che mette a disposizione specialisti per la configurazione, l'installazione e l’assistenza per l’intero ciclo di vita, così da semplificare l’adozione dell’AI.


  • Il futuro del supercalcolo e dell’intelligenza artificiale sarà più sostenibile

    Entro il 2028, si stima che la crescita dei carichi di lavoro dell’intelligenza artificiale richiederà circa 20 gigawatt di potenza all’interno dei data center[i]. I clienti richiederanno soluzioni che offrano un nuovo livello di efficienza energetica per ridurre la loro impronta di carbonio.

    L’efficienza energetica è un fattore centrale per HPE che sviluppa soluzioni con funzionalità di raffreddamento a liquido in grado di garantire un miglioramento delle prestazioni fino al 20% per kilowatt rispetto alle soluzioni raffreddate ad aria e consumare il 15% in meno di energia[ii].

    Oggi sono firmati HPE la maggior parte dei 10 supercomputer più efficienti al mondo, anche grazie all’utilizzo del raffreddamento diretto a liquido (DLC), presente nella soluzione di supercalcolo per l’intelligenza artificiale generativa per raffreddare in modo efficiente i sistemi riducendo al tempo stesso il consumo energetico per le applicazioni ad alta intensità di calcolo.

    HPE è in una posizione unica per aiutare le organizzazioni a sfruttare le tecnologie computazionali più potenti per portare avanti i propri obiettivi di intelligenza artificiale, contribuendo al contempo a ridurre il consumo di energia.

    Disponibilità

    La soluzione di supercalcolo per l’intelligenza artificiale generativa sarà generalmente disponibile a dicembre tramite HPE in più di 30 paesi.

    Ulteriori informazioni





Informazioni su Hewlett Packard Enterprise

Hewlett Packard Enterprise (NYSE: HPE) è l'azienda globale Edge-to-cloud che aiuta le organizzazioni ad accelerare i risultati sbloccando valore da tutti i loro dati, ovunque. Facendo leva su decenni di innovazione e capacità di reimmaginare il futuro per far progredire il modo in cui le persone vivono e lavorano, HPE offre soluzioni tecnologiche uniche, aperte e intelligenti, anche in modalità as-a-service. L’offerta di HPE Compute comprende server, servizi cloud, calcolo ad alte prestazioni e intelligenza

Contatti Stampa:

Cinzia Jamoletti

jamoletti@hpe.com


Recommended for you