Data center e reti: quando i Big Data diventano sostenibili

Le tecnologie e l’innovazione rivestono un ruolo trasversale di primo piano nell’Agenda 2030 per lo sviluppo sostenibile, che è stata sottoscritta dai 193 Stati membri delle Nazioni Unite.  L’insostenibilità dell’attuale modello di sviluppo è evidente su tutti i fronti, da quello ambientale a quello economico-sociale. 

Sostenibilità e ICT

Secondo il JRC Technical report del 2019, il settore ICT (Information and Communication Technology), compresi i data center, genera fino al 2% delle emissioni globali di CO2. In particolare i data center giocano una parte importante in questi consumi perché, anche se spesso non ci pensiamo, tutto ciò che chiamiamo cloud altro non è che un insieme di giganteschi data center che gestiscono enormi quantitativi di dati che, con il diffondersi dell’Internet of Things e dell’Intelligenza Artificiale, sono destinati a crescere. Sempre nello stesso rapporto è stimato che i data center producono un’impronta di carbonio che ha la crescita più rapida di tutto il settore ICT. Ancora, il consumo di energia nel settore dell’ICT è aumentato esponenzialmente negli ultimi anni, principalmente a causa dei progressi tecnologici come il cloud computing e la rapida crescita dell’uso dei servizi connessi a Internet. In generale, il settore dell’IT oggi consuma circa il 7% dell’elettricità globale e si prevede che la quota aumenterà fino al 13% entro il 2030.

Ma allora in che modo deve evolvere l’ICT per essere sostenibile? Massima efficienza energetica, impatto minimo sull’ambiente, piena scalabilità e modularità sembrano essere i criteri che guideranno tutte le nostre scelte nei prossimi anni.

Bologna e Pisa: alcuni Data Center d’eccellenza

Se parliamo di efficienza nei data center, un ruolo chiave lo giocano il sistema di raffreddamento insieme ad un hardware adeguato che permetta di consumare il meno possibile.

Alcuni giganti del tech hanno deciso di costruire i loro data center in aree dal clima freddo per ridurre i costi di raffreddamento, ad esempio Google ha costruito un grande data center in Finlandia avvalendosi dell’acqua di mare del Golfo per raffreddare i server, mentre Facebook ha scelto una zona prossima al Circolo polare artico, utilizzando il calore prodotto dai data center per riscaldare dove ce n’è bisogno. E in Italia?

Ad esempio al CNAF, il centro nazionale di calcolo dell’INFN, hanno lavorato per trovare le condizioni ottimali per ridurre i consumi e portare a temperatura adeguata l’infrastruttura di calcolo.  In questa ottica di efficientamento, la temperatura base della prima sala macchine è passata da 20° a 24° per aumentare la funzionalità del sistema di raffreddamento che lavora meglio se deve portare la temperatura dell’aria a 24 invece che a 20. Stefano Zani del CNAF, in uno dei momenti di confronto che GARR organizza periodicamente con la sua comunità, ci ha spiegato che oggi per la costruzione del loro nuovo data center si stanno riferendo a norme e standard come le norme ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers), lo standard ISO EN50600 e certificazioni LEED (Leadership in Energy and Environmental Design) che tendono ad una progettazione attenta alla efficienza energetica e all’impatto ambientale. L’obiettivo è sempre quello di ridurre al minimo il rapporto fra la quantità di energia consumata dal data center e la quantità effettivamente usata per l’elaborazione. La tecnologia in questi casi aiuta con l’introduzione di sistemi di raffreddamento diretto a liquido dei componenti elettronici dei server che, per installazioni ad alta densità, consentono di raffreddare utilizzando acqua “temperata”, ossia lavorando con acqua a circa 50°, che si raffredda di circa 10° con l’utilizzo dell’aria a temperatura ambiente anche alle nostre latitudini per la quasi totalità dell’anno (Free Cooling).  L’utilizzo di acqua più calda consente anche il riutilizzo per il riscaldamento degli edifici nel periodo invernale.

Ove possibile, ci ha spiegato ancora Stefano Zani, l’utilizzo del geotermico con accesso all’acqua di falda come risorsa di raffreddamento aumenta ulteriormente l’efficienza energetica, dato che in alcune zone è possibile utilizzare acqua di falda (che in genere ha temperature fra i 6 ed i circa 20° in base alla latitudine ed ovviamente alla profondità) nella quale immergere scambiatori in grado di dissipare una parte del calore direttamente in falda senza l’utilizzo di ulteriore energia.

Questo ovviamente è possibile solo con impianti costruiti appositamente ed in situazioni geologiche che consentano questo tipo di utilizzo senza danni all’ambiente circostante.

Un altro fattore che aumenta la sostenibilità è la condivisione delle risorse di calcolo fra esperimenti e comunità scientifiche diverse. Un data center consuma energia anche quando i server sono scarichi, quindi poter utilizzare sempre tutti gli slot di calcolo senza avere risorse allocate ma inutilizzate, consente di sfruttare con la massima efficienza le risorse.

Come elemento di efficientamento energetico, legato più all’uso che alla realizzazione del data center, c’è inoltre l’ottimizzazione del codice. Un codice più efficiente, infatti, può modificare anche di fattori rilevanti la quantità di cicli macchina per l’esecuzione dei processi di elaborazione che si traduce in un maggior lavoro fatto a parità di risorse e spesso in un conseguente risparmio energetico.

Nel data center di nuova generazione dell’Università di Pisa ubicato a San Piero a Grado, invece, sono state adottate soluzioni che prevedono un sistema di rinfrescamento basato sull’evaporazione quindi più efficiente dal punto di vista energetico. In particolare il prof. Attardi dell’Università di Pisa ci ha spiegato che con l’uso di tecnologie innovative, come il free cooling adiabatico per la parte di condizionamento e la gestione mirata del carico dei server, è possibile costruire e mantenere con costi sostenibili un data center di nuova generazione. Nel Green data center dell’Università di Pisa si è infatti ottenuta un’efficienza energetica pari a 1,2 di PUE (Power usage effectiveness), che viene controllata e misurata in tempo reale dal software di gestione. Per ridurre ulteriormente questo valore, stanno pensando di usare ad esempio dei pozzi geotermici a fianco del data center.

E ancora, parlando di data center sostenibili e della loro importanza strategica, non possiamo non parlare del notevole investimento congiunto a livello europeo di EuroHPC, il progetto che doterà l’UE di un’infrastruttura di supercalcolo entro la fine del 2020, dato che il Tecnopolo di Bologna è stata scelto per ospitare uno dei suoi supercomputer di classe pre-exascale. Questo perché gli attuali fabbisogni di calcolo della scienza e dell’industria europea non sono coperti dal tempo macchina disponibile nel nostro continente e ci costringono a elaborare i nostri dati in altri Paesi, con ovvi problemi di costi insostenibili nel lungo periodo, oltre che di privacy e sicurezza.  I computer di classe pre-exascale sono in grado di eseguire oltre 150 petaflop, ovvero 150 milioni di miliardi di calcoli al secondo. Di fronte a questa grande quantità di dati sarà necessario disporre di infrastrutture di rete di eccellenza. Per questo tutti i centri europei saranno interconnessi con la rete europea GÉANT e in Italia il nodo di Bologna sarà connesso con due collegamenti a 100 Gbps con la rete GARR con la capacità di crescere fino a 1 Tbps nei prossimi anni.

Un approccio integrato alla sostenibilità

Ho accennato ad un approccio alla sostenibilità di tipo integrato e vorrei a tal proposito citare l’esempio del Centro meteo europeo ECMWF, il più prestigioso a livello mondiale, che sta ottenendo importanti risultati con il suo programma di scalabilità integrato lanciato nel 2013, e che riguarda da vicino anche l’Italia proprio perché il suo data center verrà ospitato nella capitale italiana dei Big Data, Bologna, e sarà collegato alla rete GARR.

Il programma di scalabilità di ECMWF ha messo insieme i massimi esperti in informatica, in previsioni meteo e sviluppo di hardware per far fronte, in maniera sostenibile, alla domanda di previsioni sempre più accurate e alla necessità di aumentare di un fattore di 100-1000 volte le risorse di calcolo ad alte prestazioni e le risorse per la gestione di dati per ottenere il calcolo a esascala, che porterà inevitabilmente a costi e consumi energetici più elevati.

In particolare Peter Bauer, vice-direttore del Dipartimento di Ricerca di ECMWF, ha sottolineato che i progetti avviati nell’ambito di questo programma coprono tutte le attuali fasi operative del sistema di previsione dalla pre-elaborazione dei dati di osservazione, modellazione e assimilazione dei dati fino alla post-elaborazione dei dati di output e allo sviluppo di codici chiave tenendo conto delle attuali e future architetture di computing.

Rete e scalabilità

In fatto di rete e scalabilità, vorrei riportare l’esperienza di GARR. La nostra nuova rete, infatti, fa uso di una tecnologia ottica che è più aperta verso soluzioni non proprietarie e quindi ha la possibilità di essere disaccoppiata o disaggregata, consentendo di individuare soluzioni adeguate per aggiornarla e integrarla senza dover cambiare l’intera infrastruttura. La disaggregazione ci permette di avere elementi più piccoli, che consumano meno corrente, sono più agili e possono essere sostituiti più facilmente, con la conseguenza che da un lato la rete può evolvere a seconda delle necessità e dall’altro è possibile avere un notevole risparmio energetico.

In futuro andremo verso velocità ancora maggiori modificando solo alcuni apparati o integrando negli apparati esistenti nuove funzionalità, svolte sempre meno dall’hardware e sempre più dal software che verrà progressivamente aggiornato.  Questo è il percorso che permetterà di migliorare le funzionalità della rete senza sostituire l’hardware.

Con questo nuovo tipo di assetto di rete del tutto scalabile, saremo anche in grado di controllare e misurare meglio quello che succede in maniera automatica e adattare la rete a seconda delle necessità che si presentano.

Siamo fiduciosi che le scelte che stiamo facendo siano giuste dal punto di vista dello sviluppo delle tecnologie e dal punto di vista della sostenibilità economica, grazie ad una riduzione di costi legati agli apparati stessi, alla manutenzione e all’operatività quotidiana. Sappiamo, in ogni caso, che si tratta di scelte che rendono indispensabile una sperimentazione continua per poter crescere in modo dinamico ed efficiente e che la formazione sarà un elemento costante che ci accompagnerà per poter sviluppare e mantenere alte le competenze che questa trasformazione progressiva e sostenibile ci richiede.  

Sostenibile fa rima con condivisibile

Proprio avendo chiaro ben chiaro che la trasformazione digitale giocherà un ruolo chiave nel prossimo futuro e che tutti noi possiamo imprimere una direzione a questa trasformazione, abbiamo scelto di dedicare l’edizione 2021 della Conferenza GARR alla sostenibilità digitale riunendo tutta la comunità dell’istruzione e della ricerca che quotidianamente utilizza la rete. Ci interrogheremo sulle modalità di utilizzo della tecnologia in modo da avere una ricaduta positiva su ambiente e società: dalle tecnologie scalabili all’utilizzo delle energie pulite, dall’efficienza energetica all’importanza di adottare nuovi paradigmi all’interno delle organizzazioni che prevedano sia un approccio integrato alla sostenibilità che una sempre maggiore condivisione delle risorse anche con l’esterno, a livello tecnologico e di competenze, per creare quelli che saranno i nuovi modelli digitali e sostenibili del futuro.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here