Cluster HPC

Cos'è un cluster HPC?

Un cluster HPC, o cluster High Performance Computing, è una combinazione di hardware specializzato, che comprende un gruppo di computer grandi e potenti e un framework software di elaborazione distribuita configurato per gestire enormi quantità di dati ad alta velocità con prestazioni parallele ed elevata disponibilità.

Come si realizza un cluster HPC?

Sebbene la costruzione di un cluster HPC sia abbastanza semplice, per determinare la configurazione è necessario che la tua organizzazione comprenda il livello di potenza di elaborazione richiesta su base giornaliera. Devi quindi valutare attentamente una serie di aspetti, come il numero di server necessari, il livello software in grado di gestire i carichi di lavoro in modo efficiente, il luogo in cui sarà ospitato il cluster e i requisiti di alimentazione e raffreddamento del sistema. Una volta definiti questi aspetti, puoi procedere con la realizzazione del cluster, seguendo i passaggi elencati di seguito.

  1. Costruisci un nodo di elaborazione: configura un nodo principale installando i tool per il monitoraggio e la gestione delle risorse e i driver/software di interconnessione ad alta velocità. Crea una directory del cluster condivisa, acquisisci un'immagine del nodo di elaborazione e clona l'immagine sul resto del cluster che eseguirà i carichi di lavoro.
  2. Configura gli indirizzi IP: per raggiungere la massima efficienza, i cluster HPC contengono una rete di interconnessione ad alta velocità che utilizza una subnet IP dedicata. Quando collegherai i nodi worker al nodo principale, assegnerai ulteriori indirizzi IP per ogni nodo.
  3. Configura le attività come gruppi di utenti CMU: via via che i carichi di lavoro arriveranno nella coda, avrai bisogno di uno script per creare dinamicamente gruppi di utenti CMU per ogni attività in corso.

Quali sono i componenti chiave di un cluster HPC?

I componenti di base di un cluster HPC sono tre: hardware di elaborazione, software e strutture, ciascuno con requisiti diversi.

Hardware di elaborazione

L'hardware di elaborazione comprende server, storage e una rete dedicata. In genere, dovrai effettuare il provisioning di almeno tre server che fungano da nodi principale, worker e client. Con una configurazione così limitata, sarà necessario investire in server di fascia alta con processori e storage adeguati per ottenere più capacità di elaborazione disponibile nel cluster. Ma puoi scalare virtualizzando un numero maggiore di server: l'infrastruttura di rete per supportarli richiederà apparecchiature di rete TCP/IP a elevata larghezza di banda, come Gigabit Ethernet, NIC e switch.

Software

Il livello software comprende i tool che intendi utilizzare per monitorare, effettuare il provisioning e gestire il tuo cluster HPC. Gli stack software includono librerie, compilatori, debugger e file system per eseguire le funzioni di gestione del cluster. Potresti decidere di adottare un framework HPC come Hadoop, che svolge le stesse funzioni, ma è fault-tolerant e può rilevare i sistemi malfunzionanti e reindirizzare automaticamente il traffico verso i sistemi disponibili.

Strutture

Per ospitare il tuo cluster HPC, hai bisogno di spazio fisico per contenere e supportare il peso dei rack, che possono includere fino a 72 server di tipo blade e cinque switch top-of-rack, per un totale di 800 chili. Devi inoltre disporre di energia sufficiente per il funzionamento e il raffreddamento dei server, che possono richiedere fino a 43 kW.

HPE e i cluster HPC

HPE offre un portafoglio di soluzioni HPC leader di settore per aiutare le organizzazioni di tutte le dimensioni a migliorare l'efficienza, ridurre il downtime e accelerare la produttività.

HPE Performance Cluster Manager fornisce tutto quello che ti serve per gestire il tuo cluster HPE e mantenerlo al massimo delle prestazioni. Con una serie completa di tool completamente integrati per i sistemi HPC e IA di HPE, questa soluzione di gestione dei sistemi flessibile e facile da usare viene utilizzata da centinaia di clienti in tutto il mondo da oltre dieci anni. Scalabile per gestire sistemi di qualsiasi dimensione, da decine di nodi fino all'Exascale, in ambienti HPC sia on-premise sia ibridi, ti permette di passare in produzione in pochi minuti e di eseguire test e controlli sullo stato di integrità a scadenze regolari per sfruttare al meglio le risorse disponibili.

HPE Slingshot è una moderna soluzione di interconnessione a elevate prestazioni per i cluster HPC e IA che offre prestazioni, larghezza di banda e bassa latenza leader di settore per le applicazioni HPC, IA/ML e analisi dati. Effettua il monitoraggio delle informazioni in tempo reale sul carico di ogni percorso switch-to-switch e reindirizza dinamicamente il traffico per bilanciare il carico.

HPE GreenLake offre la flessibilità, la scalabilità e il controllo che ti servono per il tuo ambiente HPC con un modello di consumo di servizi cloud on-premise. Inoltre, puoi affidarti ai nostri esperti per implementare e gestire l'ambiente al posto tuo, riducendo così i costi e la complessità della gestione della tua architettura HPC.