
L’IoT è pronto a trasformare i Data Center, dall’edge computing al 5G; i nuovi scenari generati dall’Internet of Things (IoT) implicano la generazione di grandi moli di dati che, spesso, devono essere elaborati e analizzati in tempo reale. Questa necessità aumenterà in proporzione i carichi di lavoro dei Data Center, aumentando in modo significativo gli impatti sulle infrastrutture (non solo in termini di capacità di calcolo ma anche storage e network), sulla sicurezza e sugli analytics.
L’enorme numero di dispositivi e sensori connessi che generano e scambiano grandi quantità di dati di continuo, unito a volume, velocità e variabilità della struttura dei dati legati all’IoT, sta creando nuove sfide non solo legate al Data Management e alla sicurezza dei dati ma anche allo strato tecnologico che sta alla base di dati, workload, processi, ossia server, storage e infrastrutture di rete (connessione e comunicazione). I dipartimenti IT devono quindi capire in che modo affrontare le sfide e attraverso quali tecnologie assicurare che lo strato tecnologico di più basso livello sia di efficace supporto all’IoT evitando di creare colli di bottiglia, cali di performance o falle nella sicurezza in termini di vulnerabilità o disponibilità delle risorse.
Edge computing: l’IoT spinge elaborazione ed analisi distribuite
Secondo gli analisti di IDC, l’Internet of Things sta ormai “trovando la sua strada” in diversi settori e applicazioni, ed i dati generati da questi dispositivi rappresentano il vero volano per la creazione di nuove opportunità per migliorare i risultati di business. La gestione dei dati è quindi l’elemento fondamentale in strategie e progetti IoT, tuttavia senza le adeguate infrastrutture qualsiasi progetto risulterà fallimentare.
IDC prevede che entro il 2025 ci saranno 55,9 miliardi di dispositivi connessi in tutto il mondo, il 75% dei quali sarà collegato a una piattaforma IoT. IDC stima che i dati generati dai dispositivi IoT connessi saranno 79,4 ZB (zettabyte) entro il 2025, aumentando da 13,6 ZB nel 2019. Ad oggi la maggior parte di questi dati deriva dalla sicurezza e dalla videosorveglianza, ma le applicazioni IoT industriali occuperanno una parte significativa di questi dati nell’immediato futuro, grazie alla spinta di progetti in ambito Digital Manufacturing e Industria 4.0 (in particolare sul fronte della manutenzione predittiva).
Previsioni simili anche da Gartner che stima che nei prossimi due anni oltre il 70% dei dati generati da un’azienda saranno creati ed elaborati fuori dai Data Center tradizionali, motivo per cui si prevedono crescite significative dell’edge computing: il mercato globale dell’edge computing crescerà da 3,6 miliardi di dollari nel 2020 a 15,7 miliardi di dollari entro il 2025, con un tasso di crescita annuale composto (CAGR) del 34,1%. Fattori come la crescente adozione dell’Internet of Things (IoT) in tutti i settori, la crescente domanda di elaborazione a bassa latenza e soluzioni decisionali automatizzate in tempo reale (Advanced Analytics e Big Data Analytics), nonché la necessità di superare un aumento esponenziale dei volumi di dati e del traffico di rete, sono i driver di questa forte spinta del mercato.
Come accennato, la proliferazione dell’IoT ha portato a un aumento significativo dei dati, grazie al quale le organizzazioni fanno sempre più affidamento su soluzioni di cloud computing. La migrazione al cloud per l’intera infrastruttura IT pone però problemi di latenza e fattibilità economica. Di conseguenza, le organizzazioni che utilizzano sensori IoT, attuatori e altri dispositivi IoT sono sempre più alla ricerca di soluzioni di edge computing, quali nodi, dispositivi e Data Center distribuiti e “iper localizzati”.

Molte aziende hanno trovato nel cloud pubblico un supporto valido per estendere i propri Data Center in parte proprio per elaborare, analizzare e archiviare volumi di dati IoT difficilmente collocabili all’interno del Data Center aziendale. Tuttavia, il cloud, come il Data Center locale, non è adatto alle applicazioni IoT che necessitano di essere elaborate molto vicino a dove i dati vengono generati (in particolare, per ridurre al minimo la latenza). Elaborare i dati “in loco”, in modo distribuito, ai margini (da qui il termine edge computing), è quindi la nuova sfida: trasportare i dati per renderli disponibili alle applicazioni che fanno analisi in tempo reale quando le distanze sono significative (come quelle che tengono lontani i dispositivi IoT dal Data Center aziendale) comporta ritardi che sotto il profilo delle performance (e dell’efficacia delle analisi) non è tollerabile.
Joe Skorupa, Vice Presidente e analista di Gartner, in una recente intervista a IT Business Edge ha sottolineato: «L’IoT minaccia di generare enormi quantità di dati di input da fonti distribuite a livello globale. Il trasferimento di tutti questi dati in un’unica posizione per l’elaborazione non sarà tecnicamente ed economicamente valido. Le organizzazioni saranno costrette ad aggregare i dati in più “mini Data Center distribuiti” in cui avviare l’elaborazione iniziale dei dati», trasferendo poi nei Data Center e alle applicazioni solo i dati e le informazioni necessarie ai vari workload.
Gli impatti sulla gestione delle risorse IT e sulla sicurezza
La frammentazione delle architetture IT, che sempre più si configureranno come un mix tra Data Center locali, edge computing e ambienti cloud distribuiti, avrà impatti importanti sulla Data Governance, sull’IT Governance e sulla gestione della sicurezza.
Questo nuovo modello architetturale dovrà essere gestito come un’entità omogenea, ancorché distribuita e frammentata, tenendo conto delle criticità che ne derivano, come per esempio sul fronte del Backup che dovrà tenere conto di elementi come la larghezza di banda della rete e la larghezza di banda dell’archiviazione remota che potrebbero rendere inefficace (e persino non fattibile) fare il Backup di tutti i dati grezzi.
Ciò significa che le aziende dovranno rivedere le proprie strategie di Backup e Disaster Recovery, e che sul fronte della governance e della gestione dei dati si creeranno nuovi carichi di lavoro (in particolare legati all’elaborazione dei dati, anche “solo” per stabilire come archiviarli e farne il Backup) che richiederanno maggiori risorse di elaborazione, di storage e di rete che, a loro volta, dovranno essere gestite (in termini di affidabilità e sicurezza), magari in ottica di iperconvergenza e virtualizzazione che meglio consentono la scalabilità (anche verso ambienti cloud distribuiti) e semplificano la gestione IT.
Contattaci
Ultime News Data Center
-
-
Data mesh: cos’è, differenze e architettura
18 Settembre 2023 -
Switch di rete: cos’è, tipologie e vantaggi
31 Agosto 2023 -
Colocation data center: tipologie e vantaggi
16 Agosto 2023 -
Data Center Security: cos’è la sicurezza del data center?
12 Luglio 2023 -
Multi-cloud: cos’è e perché migliora l’infrastruttura cloud
15 Giugno 2023 -
-
Cos’è un hypervisor? Scopri il tipo 1 e 2
15 Maggio 2023 -
-