HPC5: il supercomputer di Eni nel cuore di uno dei Green Data Center più efficienti al mondo. Intervista a Luca Bortot

In questa intervista per Tech Economy 2030, Luca Bortot ci ha parlato della straordinaria efficienza del Green Data Center di Eni, l’infrastruttura sede di HPC5, il supercomputer che a novembre ha fornito importanti informazioni per il contrasto alla pandemia

Oggi è l’ottavo supercomputer più potente del mondo – il secondo tra quelli non governativi – e lo scorso novembre ha elaborato grandi quantità di dati per individuare le molecole potenzialmente utilizzabili nel trattamento dei pazienti colpiti da Covid-19. Ma il pane quotidiano di HPC5, il gigantesco supercomputer di Eni ospitato nel centro di calcolo dell’azienda, il Green Data Center di Ferrera Erbognone, è la ricerca di energia: per trovare nuovi giacimenti, per studiare e sviluppare nuove fonti rinnovabili e la fusione a confinamento magnetico. E per farlo impiega 1.800 nodi (macchine che lavorano in sinergia) equipaggiati con 7.200 schede grafiche, riadattate allo scopo di eseguire calcoli paralleli massimizzando l’efficienza di calcolo e minimizzando i consumi energetici. Non a caso, l’acronimo “HPC” identifica gli High performance computer, computer ad alte prestazioni: macchine eccezionali di cui esiste un numero limitato nel mondo. In Europa sono 98, in Asia 268, 6 in Italia. Tra queste spicca il supercomputer di Eni, figlio di un progetto nato con l’installazione di HPC1 nel 2013, e che è proseguito nel tempo per assicurare all’azienda italiana di disporre delle tecnologie più avanzate al mondo.

Luca Bortot, informatico nella direzione Eni Natural Resources e membro del team HPC

“Quando abbiamo installato il primo HPC c’erano ancora le ruspe intorno al Green Data Center di Ferrera Erbognone”, racconta a Tech Economy 2030 Luca Bortot, informatico nella direzione Eni Natural Resources e membro del team HPC: “Da allora la tecnologia ha fatto passi da gigante, ma le nostre intuizioni sulla progettazione della sede che oggi ospita HPC5 si sono rivelate corrette: l’infrastruttura era ed è tutt’ora tra le più efficienti al mondo”.

Quali intuizioni?

“Abbiamo progettato il Green Data Center adottando un punto di vista da ‘softwaristi’. Ancora oggi la mentalità ingegneristica preferisce dividere un progetto in più ‘isole’ separate tra loro. Invece, noi abbiamo proposto un approccio diverso e immaginato una sede che, anche dal punto di vista strutturale, potesse resistere nel tempo e necessitare di aggiornamenti più dal punto di vista software che da quello hardware. La casa di HPC5 è la stessa di HPC1, tuttavia migliora costantemente e rimane all’avanguardia proprio grazie agli aggiornamenti che di volta in volta rilasciamo per migliorarne le prestazioni.”

Come si misurano le prestazioni di un supercomputer?

“Lo scopo dei supercomputer è di gestire enormi carichi di lavoro ottimizzando tempo e consumi. In tal senso, grazie alla sua architettura HPC5 è tra i più efficienti al mondo. Il principio è che simili infrastrutture consumano molta energia, e la nostra non fa eccezione: come richiesta energetica è paragonabile a una piccola cittadina. Tuttavia, il risparmio è netto ed è dato dal fatto che, per ottenere gli stessi risultati con altre soluzioni, servirebbero molti più computer e maggiori consumi energetici”.

Uno dei fattori determinanti è quello del raffreddamento, necessario per mantenere le macchine alla giusta temperatura. Qual è quella ottimale?

“In ogni sala macchine del Green Data Center manteniamo la temperatura tra i 18 e i 28 gradi, e grazie alla progettazione dell’infrastruttura possiamo farlo contenendo i consumi. Infatti, per circa il 92% del tempo non usiamo l’impianto di climatizzazione, ma ci limitiamo a spostare all’interno della struttura l’aria che proviene dall’esterno. Questa complessa tecnologia è al cuore del funzionamento del centro di calcolo, ed è regolata da un software che, non a caso, si chiama Stratega. Il software è in grado di analizzare momento per momento le condizioni esterne dell’aria, regolando la temperatura interna”.

Anche Stratega fa parte del percorso di avanzamento software di cui parlavamo?

“Assolutamente sì. Anzi, è un grande orgoglio. Con la diffusione dei supercomputer si è individuato uno standard internazionale che misura le prestazioni energetiche dei data center: il cosiddetto Power Usage Effectiveness (Pue), e cioè il rapporto tra l’energia consumata dall’intero data center e quella effettivamente utilizzata dai computer. La media mondiale di questo indice è di 1,67 e già all’inizio il nostro Green Data Center totalizzava un punteggio di 1,4. Dopo due anni di sviluppo abbiamo portato l’efficienza media complessiva a 1,17. Un risultato raggiunto solamente perfezionando l’intelligenza software della struttura, senza cambiare neanche un bullone. Ma il nostro data center è stato fin dall’inizio un luogo di sperimentazione, dove abbiamo avuto l’opportunità di sperimentare tecnologie all’avanguardia, e a volte addirittura di anticiparle”.

Per esempio?

I gruppi di continuità, o Ups, che assicurano l’alimentazione all’intera infrastruttura e la proteggono da sbalzi di tensione o blackout. L’intero centro di calcolo si serve degli Ups offline, che oggi sono la norma, ma di fatto li abbiamo inventati noi dieci anni fa.

In cosa consistono?

Partiamo dal vecchio standard: gli Ups sono dei dispositivi che prendono l’energia dalla rete, ne raddrizzano la corrente alternata al fine di alimentare la batteria interna e poi la restituiscono alle macchine alimentate. Il grosso vantaggio di questa tecnologia è che eroga dell’energia pulita e stabile, ma di fatto le macchine sono sempre alimentate attraverso la batteria, che funge da intermediario tra loro e la rete. In fase di progettazione del Green Data Center, abbiamo scelto un approccio diverso, chiedendo ai fornitori la costruzione di Ups offline, ovvero di gruppi di continuità in grado di far arrivare la corrente dalla rete direttamente alle macchine e di intervenire in caso di blackout, fornendo l’alimentazione di supporto.

Il cambio dev’essere immediato.

Esatto, ed è per questo che inizialmente credevano fossimo pazzi. Fino a quel momento gli Ups offline erano utilizzati solo su piccoli dispositivi come le casse dei supermercati. Noi abbiamo chiesto ai produttori apparecchi da 200 kilowatt. Si sono presentate quattro aziende: una francese, una tedesca e due italiane. Sono queste ultime ad aver realizzato gli Ups offline migliori e più vicini alle nostre esigenze: se mancasse la corrente si attiverebbero in dieci millisecondi. Oggi è lo standard nel settore ed è un cambiamento nato proprio a Ferrera Erbognone.

E nel cuore di questa struttura ipertecnologica risiede il supercomputer che, tra le altre cose, ha permesso lo studio delle molecole più efficaci contro il Covid-19.

“Esattamente, una ricerca resa possibile dall’elasticità con cui sono programmate le nostre infrastrutture. Inizialmente HPC1 (il primo computer di Eni ad alte prestazioni, ndr) era progettato esclusivamente per eseguire analisi di imaging sismico, dalle quali studiamo le conformazioni del sottosuolo. Uno sforzo che, nell’architettura più semplice che si può pensare per risolvere questo problema, impegna tutte le macchine collegate tra loro, così da dare un unico risultato. Ancora oggi molti supercomputer nel mondo utilizzano questo approccio monolitico, che dà una certa efficienza in termini di prestazioni ma che comporta il rischio di dover buttare un giorno di lavoro se una macchina produce un errore.”

Capita spesso?

“È pressoché scontato quando si lavora con migliaia di nodi ogni giorno. Per questo abbiamo adottato una soluzione diversa: HPC5 funziona come un’orchestra di migliaia di elementi, che suonano all’unisono seguendo lo stesso spartito. Ovviamente serve un direttore, e per questo, nel corso di un progetto di ricerca svolto in collaborazione con Cineca (il centro di supercalcolo interuniversitario di Bologna, ndr) abbiamo sviluppato Beat: un software che gestisce il flusso di lavoro – programmabile in base all’applicazione –  e,  in caso di errore, fa ripetere il calcolo al processore che lo ha causato”.

Ma se questo approccio è tanto più efficiente, perché non lo fanno tutti?

“Perché è più complesso che scrivere un codice monolitico ma, come abbiamo detto, nel nostro caso l’intera infrastruttura è pensata con la mentalità dei softwaristi. Allo stesso tempo, l’alto livello di parallelizzazione reso possibile da HPC5, ha bisogno di uno sviluppo a livello software molto più importante. Beat svolge il compito e, di fatto, è il direttore d’orchestra che assicura la corretta esecuzione dello spartito che di volta in volta sottoponiamo ai circuiti di HPC5, sia che debba analizzare la conformazione del sottosuolo alla ricerca di un giacimento, sia che debba elaborare milioni di interazioni alla ricerca di un’unica molecola che può risultare efficace contro il coronavirus. Il futuro dell’informatica è fatto di soluzioni elastiche a problemi complessi. Noi l’avevamo già immaginato dieci anni fa”.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here