Cos’è l’hyperscale?

Per hyperscale si intende l’insieme complesso di hardware e strutture in grado di scalare un ambiente di elaborazione distribuito fino a migliaia di server.

Definizione di hyperscale

Come indica il termine stesso, hyperscale si riferisce all’elaborazione su scala massiva, generalmente per i Big Data o il cloud computing. L’infrastruttura hyperscale è studiata per garantire quella scalabilità orizzontale che si traduce in livelli elevati di prestazioni, produttività e ridondanza con cui si ottiene tolleranza di errore e massima disponibilità. L’elaborazione hyperscale spesso si basa su architetture di server massivamente scalabili e reti virtuali.

Perché l’hyperscale?

Sono molti i motivi che spingono un’organizzazione ad adottare l’elaborazione hyperscale, tra cui il fatto di costituire spesso il metodo migliore, o l’unico praticabile, per conseguire un obiettivo aziendale specifico, come la fornitura di servizi di cloud computing. In genere, tuttavia, le soluzioni hyperscale offrono l’approccio economicamente più vantaggioso per soddisfare una serie di requisiti molto impegnativi. Ad esempio, un progetto di analisi dei Big Data potrebbe essere realizzato a costi più contenuti sfruttando la scala e la densità di elaborazione disponibili con l’hyperscale.

Hyperscale HPE

La famiglia di server ad alta densità HPE Apollo è la soluzione HPE per l’elaborazione hyperscale. Ogni server ad alta densità HPE Apollo è concepito per i massimi livelli di prestazioni ed efficienza. Ottimizzata per la densità, la famiglia Apollo consente alle organizzazioni di ottenere l’hyperscale con strutture fisiche relativamente esigue  secondo un approccio a tier verso l’hyperscale.

Portafoglio HPE Apollo completo

Scopri tutti i componenti della linea HPE Apollo di server ad alta densità, per conoscere e confrontare i dettagli.

HPE Apollo 6000: efficienza a livello di rack

HPE Apollo 6000
Efficienza a livello di rack

 

Una soluzione raffreddata ad aria e ottimizzata per le prestazioni, che consente di ottenere il massimo da infrastruttura e investimento.

  • 20% di prestazioni in più per le applicazioni single-thread6
  • 60% di spazio in meno rispetto ai server blade7
  • 3 milioni di dollari di risparmi TCO in tre anni con 1.000 server8
HPE Apollo 4000: densità di storage

HPE Apollo 4000
Densità di storage

 

Progettato per Hadoop® e altri sistemi di analisi dei Big Data e di storage a oggetti .

  • Densità dell'unità massimizzata con 68 unità LFF in un fattore di forma 4U
  • Data mining basato su Hadoop e analisi basate su NoSQL
  • Storage a oggetti con volumi di dati scalabili nell’ordine di petabyte
HPE Apollo 2000: multinodo scalabile

HPE Apollo 2000
Multinodo scalabile

 

Un ponte verso l'architettura a scalabilità orizzontale per i data center tradizionali, ad alta densità e dotato di una capacità elevata in termini di prestazioni e carichi di lavoro in piccoli spazi.

  • Quattro server  HPE Apollo 2000  indipendenti con hot plug in un singolo 2U
  • Densità delle prestazioni raddoppiata rispetto ai server 1U standard, a costi analoghi

Parla con noi dell’elaborazione hyperscale

Parla con un esperto di hyperscale HPE per scoprire in che modo la famiglia di server ad alta densità HPE Apollo può aiutarti a raggiungere i tuoi obiettivi di elaborazione hyperscale.