
HPE Cray XD670
Accelera le prestazioni dell’intelligenza artificiale per l’addestramento dei Large Language Model, l’elaborazione del linguaggio naturale e l’addestramento multimodale.



Aumenta le prestazioni dell’AI per i carichi di lavoro a uso intensivo di GPU
Sviluppa e addestra più rapidamente i modelli AI di maggiori dimensioni e raggiungi prima i risultati con efficienza, precisione e informazioni dettagliate senza precedenti.
Scala per soddisfare i crescenti carichi di lavoro dell’intelligenza artificiale
Sfrutta l’innovazione rivoluzionaria con soluzioni completamente integrate dal livello hardware a quello software per carichi di lavoro di qualsiasi dimensione e ambito.
Accelera le iniziative AI
Distribuisci l’intelligenza artificiale su vasta scala con una soluzione ottimizzata per i carichi di lavoro in ambiti quali l’elaborazione del linguaggio naturale (NLP), i Large Language Model (LLM) e l’addestramento multimodale.
Soddisfa le esigenze aziendali in evoluzione con la massima flessibilità
Migliora l’efficienza dell’alimentazione con l’opzione di raffreddamento a liquido diretto e crea un ambiente flessibile con un’ampia gamma di tecnologie supportate, tra cui acceleratori, storage e networking.
I nostri clienti

Migliora le prestazioni dell’AI con il principale server per l’elaborazione del linguaggio naturale
HPE Cray XD670 è il principale supercomputer in campo NLP e uno dei migliori in tutti i modelli benchmark MLPerf Inference v4.0 a cui ha partecipato, inclusi GenAI, visione artificiale e LLM.
Potenzia l’elaborazione delle immagini ad alte prestazioni
Il server HPE Cray XD670 migliora le prestazioni e riduce i tempi di elaborazione del software CryoSPARC™, utilizzato per eseguire l’analisi dei dati e la ricostruzione 3D delle scansioni di microscopia elettronica criogenica (cryo-EM).

Ulteriori modalità di approfondimento


Ulteriori informazioni sull’esperienza cloud HPE GreenLake
È possibile accedere a tutti gli HPE GreenLake cloud services tramite un piano di controllo unificato che offre un’esperienza cloud pratica, aperta ed estensibile a ogni utente e servizio, ovunque si trovino i dati e i carichi di lavoro.
Specifiche tecniche
-
Chassis
- Chassis del sistema 5U
- Singolo nodo con 2 CPU
-
Accelerazione GPU - Opzione A
- 8x GPU NVIDIA H200 SXM 700 W TDP con 141 GB HBM ciascuna
- 2 CPU con processori scalabili Intel Xeon di quinta generazione, fino a 400 W TDP
- 32x DIMM DDR5, memoria a 8 canali per socket, fino a 5.600 MHz
-
Accelerazione GPU - Opzione B
- 8x GPU NVIDIA H100 SXM 700 W TDP con 80 GB HBM ciascuna
- 2 CPU con processori scalabili Intel Xeon di quarta generazione, fino a 300 W TDP
- 32x DIMM DDR5, memoria a 8 canali per socket, fino a 4.800 MHz
-
Alimentazione e raffreddamento
- Raffreddato ad aria; disponibile anche con l’opzione di raffreddamento a liquido diretto per una migliore efficienza energetica
- Raffreddato ad aria; disponibile anche con l’opzione di raffreddamento a liquido diretto per una migliore efficienza energetica