Reti di data center
Cosa sono le reti di data center?

I data center sono strutture che ospitano applicazioni e dati critici come server, router e switch di rete, sistemi di storage, firewall e altro ancora. La loro progettazione si basa su una rete di risorse di storage ed elaborazione che consentono la delivery di applicazioni e dati condivisi.

Uomo e donna che collaborano camminando in una sala server high-tech.
  • Descrizione dei data center
  • Tendenze di progettazione dei data center moderni
  • Evoluzione della progettazione del data center
  • Progettazione del data center di quarta generazione
  • Sicurezza per il data center
  • Una nuova generazione di fabric di data center sicuri
  • Gestione del data center
  • HPE Aruba Networking Fabric Composer
  • Una nuova era di data center intelligenti
Descrizione dei data center

Descrizione dei data center

I data center sono strutture che ospitano applicazioni e dati critici. La loro progettazione si basa su una rete di risorse di storage ed elaborazione che consentono la delivery di applicazioni e dati condivisi. I server sono chiaramente una delle principali forme di infrastruttura data center, ma questa categoria comprende anche altri elementi, come router e switch di rete, sistemi di storage e firewall, server rack, alimentatori ridondanti e dispositivi di raffreddamento.

Con la diffusione della virtualizzazione, della containerizzazione e dei servizi cloud, i data center sono sempre più software defined: l'infrastruttura viene virtualizzata attraverso l'astrazione, la creazione di pool di risorse e l'automazione per proporre un approccio Infrastructure as-a-service (IAAS).

L’infrastruttura software-defined consente agli amministratori IT di semplificare il provisioning e la gestione dell’infrastruttura fisica tramite modelli software-defined e API per definire e automatizzare la configurazione dell’infrastruttura e le operazioni del ciclo di vita.

Tendenze di progettazione dei data center moderni

Tendenze di progettazione dei data center moderni

In passato, erano solo le CPU a fornire la potenza di elaborazione per l’hyperscale e i data center aziendali. Da allora, le GPU (unità di elaborazione grafica) hanno assunto un ruolo centrale grazie al loro utilizzo per l'intelligenza artificiale e l'analisi dei Big Data.

È molto recente la diffusione di una nuova tipologia di processore, chiamata DPU (unità di elaborazione dei dati): la DPU è appositamente realizzata per l’offloading del traffico dati, in modo da consentire l’ottimizzazione su risorse CPU e GPU delle attività a elaborazione intensiva.

Viene distribuita nei server per il data center al fine di accelerare le funzioni di elaborazione, cloud, rete, sicurezza e storage, tra cui crittografia, firewall, NAT, telemetria e altro ancora. Queste funzionalità supportano le piattaforme di elaborazione cloud-native bare metal che definiscono la nuova generazione di elaborazione su scala cloud.

La tecnologia DPU si è evoluta: se prima era riservata esclusivamente ai server, ora è disponibile anche negli switch di rete. Gli operatori possono quindi estendere le reti leaf-spine standard di settore con servizi distribuiti di micro-segmentazione stateful, firewall east-west, NAT, crittografia e telemetria, erogati più vicino a dove vengono gestiti i carichi di lavoro di elaborazione e di storage.

Evoluzione della progettazione del data center

Evoluzione della progettazione del data center

Negli ultimi 30 anni, ogni decennio è stato caratterizzato da un'evoluzione delle modalità di realizzazione dei fabric di data center. Le prime tre generazioni sono state di natura iterativa, basate sulla visione precedente del data center. La quarta adotta un approccio molto più olistico: semplificare e scalare non solo la connettività, ma l'intera serie di servizi per le infrastrutture del fabric di data center.

Progettazione del data center di quarta generazione

Progettazione del data center di quarta generazione

Oggi, per la prima volta, silicio e software consentono al fabric di data center di fornire realmente i servizi per l'infrastruttura necessari al supporto dei carichi di lavoro su vasta scala. Anziché considerarlo come una semplice soluzione di segmentazione e connettività, il fabric può trasformarsi per supportare tutti i servizi per l’infrastruttura che consentono la scala dei carichi di lavoro.

La quarta generazione di architetture data center introduce il consolidamento di funzioni stateful nell’intero fabric. Invece di essere semplicemente un veicolo di interconnessione stateless che unisce carichi di lavoro e servizi, il fabric può ora fornire tutti i servizi per l’infrastruttura in una nuova integrazione semplificata per ridurre la complessità del data center e contribuire a garantire la disponibilità dei servizi per i carichi di lavoro all’edge del fabric.

Evoluzione della progettazione del data center.
Evoluzione della progettazione del data center.
TOCCA L'IMMAGINE PER INGRANDIRLA
Sicurezza per il data center

Sicurezza per il data center

La sicurezza dei dati è il processo di protezione dei dati digitali da accessi non autorizzati, danneggiamenti e furti a seguito di una violazione dei dati stessi o della sicurezza fisica, oppure un cyberattacco.

La crescente ondata di traffico di data center east-west (da server a server) sta ridefinendo i requisiti di sicurezza. La velocità e il volume di questo traffico in ambienti applicativi virtualizzati e containerizzati richiedono nuove soluzioni di sicurezza, soprattutto in scenari multitenant dove l’approccio Zero Trust Security è fondamentale.

La segmentazione previene gli spostamenti laterali indesiderati ispezionando in modalità stateful tutto il traffico east-west nel data center e applicando policy per impedire a utenti malintenzionati di spostarsi attraverso la rete interna. La microsegmentazione è in grado di garantire la segmentazione senza richiedere una nuova progettazione architettonica.

Nei casi in cui le appliance di sicurezza centralizzate non sono adeguate all'espansione dei flussi di traffico, la segmentazione e la microsegmentazione della rete automatizzate e basate su policy sono necessarie. Il processo di hairpinning del traffico verso le appliance hardware all’edge del data center compromette le prestazioni delle applicazioni, limita la scalabilità, aumenta i costi e aggiunge latenza.

Una nuova generazione di fabric di data center sicuri

Una nuova generazione di fabric di data center sicuri

Un’architettura di servizi distribuiti estende Zero Trust più in profondità nel data center, fino all’edge dei server di rete, erogando micro-segmentazione a granularità fine, oltre a scalare e rafforzare drasticamente la sicurezza dei carichi di lavoro mission-critical.

Migrazione del fabric di data center.
Gestione del data center

Gestione del data center

La realizzazione di infrastrutture data center aziendali può essere problematica. L'orchestrazione e l'automazione dell'infrastruttura di rete possono risultare attività particolarmente gravose. Il fabric di rete è il collante fondamentale che integra le risorse di elaborazione, storage e applicative dell'infrastruttura. Qualsiasi collo di bottiglia nel fabric di rete avrà un impatto negativo sulla capacità di eseguire le applicazioni in modo efficiente.

Al massimo livello, il provisioning della rete in un moderno data center aziendale ha rappresentato una problematica per i due motivi fondamentali che seguono.

  • L’infrastruttura di rete stessa è tradizionalmente molto complessa da gestire, si basa su CLI e richiede competenze specialistiche per la configurazione.
  • I team responsabili della rete e della sicurezza di solito operano in organizzazioni separate in silo e spesso richiedono un job ticket per pianificare la configurazione e la manutenzione della rete, nonché la definizione delle policy di sicurezza nell'ambiente.

I progressi tecnici dei tool di automazione, sempre più integrati, aperti (API) e basati su DevOps, stanno iniziando a fornire maggior valore agli amministratori dei data center, in vari modi.

  • Semplificazione operativa: l’orchestrazione di un set di switch separato come un singolo fabric di rete semplifica notevolmente le operazioni quotidiane e la risoluzione dei problemi. L'automazione dei flussi di lavoro e la GUI point-and-click intuitiva contribuiscono a ridurre e automatizzare le complessità, ad esempio favorendo l’eliminazione automatica delle difficoltà della configurazione EVPN.
  • Provisioning accelerato: l’automazione e l’orchestrazione del fabric software-defined accelerano il provisioning dell'infrastruttura e supportano l’integrazione nei framework delle operazioni IT già esistenti.
  • Maggiore visibilità: la visibilità di rete end-to-end di host, le macchine virtuali, la VLAN, i servizi e i carichi di lavoro semplificano la risoluzione dei problemi di connettività e prestazioni.
  • Policy di sicurezza unificata: gli elementi delle policy definiti a livello centrale e distribuiti su ogni rack consentono la microsegmentazione ottimizzata dei carichi di lavoro.
  • Monitoraggio, telemetria e risoluzione dei problemi: gli allarmi, le informazioni e gi eventi dettagliati su quanto accade all'interno della rete e in relazione alla sicurezza favoriscono la risoluzione dei problemi e il monitoraggio continuo.
  • Supporto dell'orchestrazione multi-fabric: l’abilitazione avviene tramite l'automazione delle configurazioni VXLAN nei border switch dei data center e la sincronizzazione globale della gestione del fabric tra le sedi di data center geograficamente lontane.
HPE Aruba Networking Fabric Composer

HPE Aruba Networking Fabric Composer

Elimina la complessità operativa della sicurezza e della rete di data center. AFC è un tool di orchestrazione intelligente, basato su API e software-defined che semplifica e accelera il provisioning del fabric di rete leaf-spine su infrastrutture di elaborazione e storage di livello rack, con un aumento dell'efficienza e della produttività per operatori di rete, server e amministratori della virtualizzazione.

Una nuova era di data center intelligenti

Una nuova era di data center intelligenti

Con il passaggio sempre più frequente da data center centralizzati a “centri di dati” distribuiti, servono nuove architetture in grado di fornire una connettività sicura e un’esperienza eccellente per utenti e applicazioni, on-premise e all’edge. Questo nuovo tipo di connettività per data center richiede fabric dalle prestazioni più elevate, servizi distribuiti e opzioni di consumo flessibili.

HPE Aruba Networking può contribuire a semplificare l’architettura data center, ottimizzare le prestazioni, ridurre i costi ed estendere la protezione Zero Trust per arrivare il più vicino possibile alle applicazioni critiche.

Prodotti correlati

Una nuova era di reti di data center sicure

Le reti di data center si evolvono rapidamente a seguito delle iniziative digitali avviate dalle organizzazioni per trasformare il business.

Argomenti correlati

Sicurezza per il data center

Data center aziendale