
Oggi li chiamiamo comunemente Data Center ma, in lingua italiana, a lungo si è parlato solo di CED, Centri Elaborazione Dati, intesi come unità organizzative all’interno di una struttura aziendale che governa, gestisce e mantiene le apparecchiature ed i servizi di gestione dei dati, cioè l’infrastruttura ed i sistemi informativi a servizio dell’organizzazione aziendale.
Dalla prospettiva di business, il Datacentre è il perno da cui dipendono i processi, le comunicazioni ed i servizi aziendali (sia verso gli utenti interni sia verso clienti, fornitori, partner, ecc.), ancor di più oggi che non esiste praticamente più azienda che non abbia un qualche servizio digitale a supporto del proprio business.
Il Datacenter può essere “privato”, cioè di proprietà di una singola azienda, oppure di un provider pubblico che lo rende disponibile in outsourcing alle aziende che ne hanno bisogno (attraverso diverse formule, dall’hosting alla colocation al cloud computing). Sia che lo si abbia in-house (sia cioè di proprietà) o si utilizzo quello di un fornitore esterno, il datacenter rappresenta il cuore della continuità operativa, caratteristica dalla quale dipende anche la sua classificazione (tecnicamente in 4 livelli detti TIER).
Indice dei contenuti
Definizione: cos’è un Data Center
Non esiste oggi una tipologia di business che non abbia appoggiata la gestione dei propri asset e risorse su un Data Center, cuore pulsante della digital transformation e, più in generale, dell’economia digitale. I datacentre sono quegli edifici che contengono infrastrutture, sistemi, risorse e asset tecnologici che gli utenti non vedono ma senza i quali oggi non possono più lavorare o accedere a dati, applicazioni, servizi digitali. Al giorno d’oggi non esiste alcuna azienda che riesca a lavorare senza avere alle spalle un’infrastruttura di rete capace di garantire la produttività individuale e aziendale, nonché erogare servizi ai propri clienti e fornitori.
Per dirla alla Alec Ross, “guru” della tecnologia ed ex consigliere di Hillary Clinton, i Data Center sono i custodi del “petrolio del futuro”: i dati.
Ed è proprio sulla base di questo “petrolio” che la “morfologia” dei Data Center sta evolvendo: la struttura e l’offerta dei CED in Italia e su scala globale sta infatti progressivamente cambiando proprio in funzione di business sempre più basati sul digitale. Man mano che i processi di business e quelli di produzione si digitalizzano, i dati aziendali hanno bisogno di più spazio, consumano più energia e richiedono requisiti di sicurezza molto stringenti: la loro perdita o compromissione potrebbe infatti causare gravi danni in termini di competitività.
Così dal CED, il “vecchio” Centro Elaborazione Dati, si passa prima al Data Center interno e proprietario e oggi sempre più all’housing e alla colocation, fino ad arrivare all’accesso via Cloud a risorse Data Center come servizio, in particolare nell’ambito dello Iaas, Infrastructure as a service.
A cosa servono i datacenter e come possono essere sfruttati.
Non stupisce dunque che l’offerta di servizi Data Center nel mondo si sta spostando su strutture dedicate che mettono le macchine a disposizione delle aziende clienti (hosting) concedendole “in affitto”; accanto a questo tipo di offerta sta prendendo sempre più piede l’housing Data Center, o colocation, che per le aziende significa mantenere il proprio Data Center aziendale spostando però i sistemi all’interno di un edificio di proprietà di un Data Center provider. È una scelta che molte aziende fanno perché cedono a terzi l’onere del mantenimento della struttura fisica che ospita i sistemi aziendali mantenendo però il totale controllo su questi ultimi. Una scelta che differisce dal cosiddetto hosting
Quando un’azienda acquista un servizio di hosting, ciò che compra è uno “spazio”: che sia dedicato a ospitare un sito internet, un server virtuale o lo storage di dati, poco importa. La convenienza è quella di non dover avere server o storage proprietari, non doversi occupare direttamente dei costi e delle operazioni di manutenzione, non dover affrontare direttamente le spese per l’alimentazione delle macchine e il loro funzionamento. Le risorse concesse possono essere pensate inoltre su misura per il cliente, che in questo modo non si dovrà trovare a implementarle direttamente, ma utilizzerà le risorse del Data Center del provider a seconda delle necessità e in modalità pay-per-use (pagando cioè il servizo che acquista all’interno del quale il provider ha già inserito i costi di utilizzo delle risorse necessarie ad “alimentare” tale servizio, vale a dire computing, storage, connettività).

L’housing del Data Center è invece pensato per le aziende o le pubbliche amministrazioni che hanno già o preferiscono utilizzare per diversi motivi i propri sistemi proprietari: in questo caso il Data Center provider mette a disposizione lo spazio fisico per ospitarli (compresi i servizi di alimentazione elettrica, raffreddamento, e tutti i servizi di sicurezza, compresa quella degli accessi riservati) ma tutti gli asset sono e rimangono di proprità dell’azienda che li “sposta” negli edifici del provider.
In linea di massima, l’housing è preferito dalle aziende che generano volumi di traffico alti, che utilizzano database o tecnologie particolari oppure hanno dati e risorse che preferiscono, a volte anche per ragioni di compliance normativa, tenere “sotto controllo” all’interno dei propri sistemi IT.
Infine, come accennato, i provider oggi possono garantire anche servizi Cloud per l’accesso e l’utilizzo di infrastrutture as a service (Iaas), in particolare risorse virtualizzate come server e storage, proponendo alle aziende dei veri e propri Data Center on demand, spesso anche come soluzione per backup e disaster recovery rispetto al Data Center primario delle singole aziende.
Classificazione dei Data Center e standard di riferimento
Progettare un “centro dati” non è affatto un procedimento banale: connettività, ambienti ed edifici, operatività e continuità, sistemi di alimentazione e raffreddamento, sicurezza fisica e controllo degli accessi sono tutti aspetti critici di cui si deve tenere conto.
Per poter definire degli standard di riferimento The Uptime Institute (la Global Data Center Authority) ha creato un sistema standard di classificazione dei livelli (grazie al quale si possono oggi classificare i Data Center) come mezzo per valutare efficacemente l’infrastruttura di un Data Center, soprattutto in termini di sicurezza, affidabilità e disponibilità dei sistemi.
Nel 2005, proprio sulla base di questo sistema di valutazione, Telecommunications Industry Association (TIA) ha creato la prima serie di standard (poi evoluta ed aggiornata) oggi riconosciuta a livello internazionale come lo standard TIA-942.
Il sistema di classificazione dei Data Center (che oggi si basa su 4 livelli detti TIER) fornisce all’industria dei Data Center un metodo coerente e universalmente riconosciuto per poter confrontare le strutture in base a dei criteri unici come le prestazioni dell’infrastruttura del sito (intesa come ambiente generale del Data Center, non solo come sistema IT) ed il tempo di attività (traducibile anche più facilmente come concetto di “livello di servizio garantito”).
Vediamo allora in dettaglio quali sono le differenziazioni tra i vari livelli di classificazione di un Data Center.

TIER I
I requisiti del data center di livello 1 sono generalmente utilizzati dalle piccolissime imprese (che devono fare i conti con budget molto ristretti) e presentano:
- 99,671% di uptime;
- nessuna ridondanza (significa che esiste un singolo sistema di alimentazione e raffreddamento);
- 28,8 ore di inattività all’anno.
In un Data Center classificato come Tier I possono verificarsi interruzioni operative (vale a dire “spegnimento del Data Center o sua temporanea non disponibilità) legate ad attività di manutenzione (pianificate e non pianificate).
Questo tipo di ambienti Data Center sono dotati di un singolo collegamento per la connettività, un singolo percorso per l’alimentazione, un unico sistema di raffreddamento e solitamente server non ridondanti (cioè non replicati).
TIER II
Più si sale di livello più ovviamente diventano restrittivi alcuni parametri (come i downtime ammessi in termini di ore/anno) e si innalzano i livelli di servizio (in termini di continuità operativa).
I vantaggi di una struttura di livello 2 includono:
- 99,741% di uptime;
- ridondanza parziale in alimentazione e raffreddamento;
- max 22 ore di inattività all’anno.
In altre parole, in questa classificazione la continuità operativa garantita sale al 99,741% che, da un punto di vista temporale, significa dover prendere in considerazione dei momenti di fermo del Data Center pari a circa 22 ore all’anno.
Un Data Center provider Tier II non gode della ridondanza per tutte le aree operative, però rispetto al livello I introduce alcuni aspetti di sicurezza maggiori: alcune parti considerate critiche (per esempio la struttura meccanica) ricevono attenzione prioritaria e quindi si prevedono ridondanze o nell’infrastruttura elettrica per la generazione dell’alimentazione oppure dei sistemi di raffreddamento (anche se la ridondanza è spesso solo parziale).
Questo significa che bisogna prevedere possibili rischi di dowtime dovuti a manutenzione o guasti (che spesso richiedono il totale spegnimento dell’alimentazione e di altre parti dell’infrastruttura).
TIER III
In questo caso la continuità operativa garantita va al 99,982% (pari in termini temporali ad un fermo del Data Center per 1,6 ore all’anno). In altre parole, questi i vntaggi di un Data Center di livello 3:
- 99,982% di uptime (tempo di attività Tier III);
- non più di 1,6 ore di fermo macchina all’anno;
- N+1 fault tolerant che significa avere un sistema di ridondanza che possa fornire almeno 72 ore di protezione dall’interruzione dell’alimentazione (ossia che possa assicurare continuità operativa per almeno 72 ore dopo un eventuale interruzione tecnica).
Per poter essere classificato come Tier III, un Data Center deve rispettare alcuni parametri di ridondanza. N+1 è modalità con la quale viene identificato il concetto di ridondanza che di fatto entra come caratteristica concreta solo a partire dal livello III; N+1 significa avere una infrastruttura Data Center ottimizzata per le attività richieste (N) + 1 backup.
In sostanza, un provider di livello III può essere sottoposto a manutenzione ordinaria senza intoppi nelle operazioni, ossia garantendo la continuità operativa (anche se la manutenzione non pianificata e le emergenze possono causare problemi che interessano il sistema, causando downtime),
TIER IV
È il livello massimo della classificazione dei Data Center e sta ad indicare una continuità operativa garantita al 99,995% che, sempre tenendo come riferimento un arco temporale all’interno del quale possono esserci downtime o disservizi, significa ridurre il fermo del Data Center a 0,4 ore all’anno.
Questi in pratica i vantaggi di un Data Center di livello 4:
- tempo di operatività del 99,995% all’anno;
- 2N+1 infrastruttura completamente ridondante (la principale differenza tra i data center di livello 3 e di livello 4);
- 96 ore di protezione in caso di interruzione;
- max 26,3 minuti di interruzione annuale.
La peculiarità di un centro dati di livello 4 è la sua completa ridondanza: 2N+1 significa ottimizzare il Data Center affinché abbia due volte la quantità delle infrastrutture e dei sistemi richiesti per le proprie operazioni più un backup. 2N+1 è il modo tecnico per dire “completamente ridondante”.
Raggiungere tale livello di specializzazione ed organizzazione richiede sistemi di connettività stabili e ridondanti, ovvero una configurazione duplicata che garantisce la continuità operativa nel caso di guasti o anomalie di uno o più sistemi, in modo da garantire sempre e comunque la massima funzionalità. La piena tolleranza ai guasti impedisce a qualsiasi problema di rallentare il business: la continuità operativa è infatti garantita sia in termini di servizio sia in termini di tempo di downtime a livelli elevatissimi (anche in caso di manutenzione).
Contattaci
Ultime News Data Center
-
-
FTP: cos’è il File Transfer Protocol e a cosa serve
14 Febbraio 2023 -
Cos’è un’infrastruttura informatica: componenti e tipologie
13 Febbraio 2023 -
Macchina Virtuale: come funziona, vantaggi, applicazioni
8 Febbraio 2023 -
Telnet: cos’è e come funziona il protocollo
2 Febbraio 2023 -
-
Protocolli di rete: i più importanti e a cosa servono
15 Gennaio 2023 -
Architettura cloud: cos’è, tipologie, e vantaggi
13 Gennaio 2023 -
Network Manager: cosa fa e quanto guadagna
2 Gennaio 2023 -
Cos’è un cloud privato e che vantaggi offre
18 Dicembre 2022