Secondo le stime di IDC, società mondiale specializzata in ricerche di mercato, entro il 2025 uomini e macchine potrebbero generare 175 zettabyte di dati che, se memorizzati su DVD convenzionali formerebbero 23 pile di DVD, ciascuna in grado di coprire la distanza terra-luna. Una crescita del volume medio annuo dei dati generati pari 27% che comporterebbe anche un impatto enorme sull’infrastruttura IT.
Poiché sono poche le aziende che possono permettersi di aumentare il proprio archivio dati di quasi un terzo all’anno, i responsabili IT si affidano sempre più spesso a servizi IT in cloud. Tuttavia, affidarsi a soluzioni cloud di terze parti significa perdere una parte del controllo sui propri dati aziendali. Per questo motivo, ad esempio, il regolamento US Cloud Act (Clarifying Lawful Overseas Use of Data) consente alle autorità statunitensi di acquisire i dati memorizzati nel cloud anche se la giurisdizione del luogo in cui i dati sono archiviati lo vieta.
Partendo da queste considerazioni, Rittal ha elaborato tre macro-tendenze che si avranno per questo 2020 nel campo dei Data Center. Vediamole.
Indice degli argomenti
1) Controllo dei dati
L’autodeterminazione informativa nel trattamento dei dati sta diventando sempre più un fattore di competitività per le aziende. Ciò vale per tutti i settori in cui la sicurezza dei dati è priorità assoluta e dove l’analisi degli stessi è decisiva per il successo aziendale, come nella sanità, mobility, finanza e industria manifatturiera. Le aziende si trovano a dover affrontare la questione di come elaborare i propri dati in modo sicuro ed efficiente: se modernizzando il proprio Data Center, investendo in infrastrutture all’avanguardia o utilizzando il cloud.
Nel 2020 è previsto l’avvio del grande progetto digitale europeo Gaia-X, nato su iniziativa del Ministero federale dell’economia e dell’energia (BMWi). Il progetto si pone l’obiettivo di creare un’infrastruttura cloud europea per la digitalizzazione e la messa in rete sicura dei dati, utilizzabile come base per l’implementazione di nuove applicazioni di intelligenza artificiale. In questo contesto, la Fraunhofer Gesellschaft ha realizzato l’iniziativa “International Data Spaces“, una sala dati virtuale dove le imprese possono condividere i dati in piena sicurezza e dove viene garantita la compatibilità delle loro soluzioni su piattaforme cloud consolidate (interoperabilità).
Ciò significa che piccoli Data Center, distribuiti geograficamente con cloud stack open-source, potrebbero essere in grado di creare una nuova classe di applicazioni industriali che eseguono la fase iniziale di analisi dei dati nel punto in cui gli stessi hanno origine e utilizzano il cloud per l’analisi a valle. Un esempio per questa soluzione è Oncite, il Data Center “chiavi in mano” (plug-and-produce) per applicazioni Edge cloud industriali che memorizza ed elabora i dati direttamente dove sono generati, così che le aziende connesse mantengano il controllo dei propri dati lungo l’intera supply chain.
2) Recupero di calore e raffreddamento diretto della CPU
I Data Center rilasciano grandi quantità di energia nell’ambiente sotto forma di calore di scarto. Con l’aumentare della densità di potenza nei Data Center, aumenta anche la quantità di calore potenzialmente utilizzabile per altri scopi. Fino ad oggi, tuttavia, il reimpiego del calore di scarto è risultato troppo costoso, ad esempio perché i possibili utilizzatori raramente si trovano nelle immediate vicinanze del sito. Inoltre, il calore generato dai sistemi di raffreddamento ad aria per le Infrastrutture IT è disponibile a una temperatura prossima ai 40 gradi Celsius, temperatura decisamente troppo bassa per consentire il recupero e il reimpiego dell’energia termica in modo economicamente vantaggioso.
Soprattutto in ambito High Performance Computing (HPC), i rack IT generano elevati carichi termici, spesso superiori a 50 kW. Per questi sistemi il raffreddamento diretto ad acqua delle CPU è molto più efficiente del raffreddamento ad aria. Il cooling diretto rende disponibili temperature di ritorno dell’acqua di raffreddamento comprese tra 60 a 65 gradi che consentono, ad esempio, di produrre acqua calda sanitaria, utilizzare pompe di calore o alimentare una rete di teleriscaldamento. Tuttavia, i CIO devono essere consapevoli che, con il raffreddamento diretto ad acqua delle CPU, si può estrarre solo l’80% circa del calore totale generato da un rack IT. Il restante 20% dei rack deve essere raffreddato in modo diretto.
3) Integrazione di ambienti multicloud
Le aziende devono essere certe di poter eseguire le loro applicazioni in cloud su piattaforme utilizzate in qualsiasi paese. Per questo è necessaria una strategia di gestione multicloud. Dal punto di vista del management, si tratta di una decisione strategica basata sulla consapevolezza che la propria organizzazione si indirizzerà verso una completa digitalizzazione del business.
Un’eccellente User Experience può essere garantita, ad esempio, minimizzando i ritardi nella risposta da zone specifiche (“Availability Zone”). Ciò significa che le aziende devono scegliere, per i loro servizi, una o più zone in tutto il mondo in funzione delle loro esigenze di business. Il rispetto dei severi requisiti di protezione dei dati può essere garantito, ad esempio, da un fornitore locale specializzato nel mercato di riferimento. Una strategia multicloud aperta permette proprio questo: combinare la densità funzionale e la scalabilità degli hyperscaler con la sicurezza dei dati di provider locali e specializzati come Innovo Cloud. La trasformazione digitale consentirà lo sviluppo di applicazioni studiate per il mondo cloud. Grazie a questo, si riuscirà a garantire un’elevata automazione dei processi operativi e funzionali aziendali.