Servizi e dati sempre disponibili: utopia?

Albert Zammar 1_rid
Albert Zammar è Country Manager Italia di Veeam

Quando ci accorgiamo dell’importanza della continuità operativa di un servizio? In genere quando il servizio “va giù” e non siamo più in grado di accedere ad un’applicazione o ai dati che ci servono in quel momento. Il tema della continuità di business garantita dalla tecnologia è tra i più strategici (e sempre più lo diventerà in futuro) per aziende e Pubbliche Amministrazioni, che non sempre vi pongono sufficiente attenzione. Per questa ragione Veeam Software – fornitore di soluzioni che garantiscono RTPO (Recovery Time and Point Objectives) inferiori a 15 minuti per tutte le applicazioni e i dati – commissiona a una società indipendente di ricerche di mercato in ambito tecnologico, ormai da 5 anni, uno studio finalizzato a comprendere lo stato dell’arte sulla continuità operativa in 24 diversi Paesi del mondo.

Dal Veeam Availability Report, che ha coinvolto 1.140 responsabili IT di alto livello di aziende di grandi dimensioni,  emerge che l’84% di questi (il 2% in più rispetto al 2014) ammette di soffrire di un ‘Availability Gap’, ovvero di un divario tra ciò che l’IT può offrire e le richieste degli utenti rispetto a disponibilità di dati e applicazioni, per un costo in termini di perdite di fatturato e produttività stimabile intorno ai 16 milioni di dollari l’anno (con un aumento di 6 milioni rispetto allo scorso anno). Impatti negativi degli eventi di “downtime” si riscontrano sulla fiducia dei clienti e sull’integrità del marchio (secondo il 68% e 62% degli intervistati). “Rispetto al 2014 – afferma Albert Zammar, country manager Italia di Veeam – c’è stato un aumento di consapevolezza inaspettato dei CIO circa il divario tra necessità operativa e infrastruttura aziendale. Dal report emerge un fatto curioso: gli stessi dipendenti delle aziende in cui si sono verificati disservizi, rispetto a indisponibilità di dati e applicazioni, hanno perso fiducia nella loro azienda”.

Quale la situazione italiana?

In Italia il 70% degli intervistati dichiara di aver avuto 10 episodi di interruzioni di servizio legati a infrastruttura inadeguata o attacchi esterni e il 63% afferma che, nonostante gli investimenti fatti sui data center, persiste un “availability gap”. “In Italia – continua Zammar – grande attenzione è riservata agli aspetti di sicurezza, per cui prioritariamente si tendono a attuare politiche di difesa da attacchi esterni. Inoltre, c’è la percezione da parte degli intervistati della necessità di ridurre i costi operativi delle infrastrutture”. Rispetto agli investimenti, il 63% degli intervistati dichiara di aver iniziato un’attività di virtualizzazione delle macchine (che consente riduzione dei costi infrastrutturali) e il 70% dice di investire in attività di protezione dati e disaster recovery.

Quali le ragioni dell’aumento degli eventi di indisponibilità di servizi rispetto allo scorso anno?

Sono sicuramente aumentate le applicazioni critiche – afferma il country manager Veema – ed è molto difficile tenere aggiornate le tante applicazioni presenti in maniera ottimale. Oltre a questo gli attacchi esterni sono in continuo aumento e le infrastrutture rischiano di essere sempre più esposte”. 

Se si pensa poi che il numero di utenti connessi, attestatosi a livelli record lo scorso anno con 3,4 miliardi di persone, ovvero circa il 42% del globo, e con previsioni che parlano di quasi 21 miliardi di dispositivi connessi entro la fine del 2020, la necessità di fornire l’accesso 24 ore al giorno e 7 giorni su 7 ai dati e alle applicazioni è di primaria importanza.

Quali i problemi di business continuity nel contesto dell’IoT?

Con l’aumento smisurato di oggetti e utenti connessi che si avrà nel breve periodo – continua Zammar – le aziende dovranno essere preparate e rivedere completamente le infrastrutture al fine di renderle più scalabili”. Grande attenzione, infatti, è rivolta alla virtualizzazione, con l’83% dei CIO intervistati che ritiene di dover estendere tale processo.”

Le aziende dovranno necessariamente essere in grado di garantire sicurezza e recuperare dati in modo veloce e agevole. Di fatto, credo che ad oggi tranne poche eccezioni, le aziende non siano pronte”.  Questo nonostante il fatto che più dei due terzi degli intervistati abbia dichiarato di aver investito fortemente sulla modernizzazione dei data center proprio per aumentare i livelli di disponibilità.

Il cloud che ruolo potrà giocare in questa partita?

Vista la presenza in Italia di un gran numero di piccole e medie imprese, la percentuale di imprese che usa data center di terze parti è ancora poco elevata (40%)”. Risulta predominante, infatti secondo lo studio, il backup locale molto più di quanto accada negli altri Paesi. “L’unica cosa che ci fa ben sperare – continua Zammar – è che c’è un grande potenziale di mercato per il cloud”.

E la situazione della Pubblica Amministrazione?

Nonostante la minor enfasi attribuita al piano di disaster recovery dal nuovo CAD, la situazione delle PA italiane, seppur non ottimale, credo sia migliorata negli ultimi anni. Le aziende in house si sono strutturate per offrire continuità operativa. Un esempio è quello di CSI Piemonte. Per la PA centrale c’è ancora molta strada da fare soprattutto a livello di semplificazione di infrastrutture”.

Alla domanda di cosa ci sarebbe bisogno in PA due sono le cose evidenziate da Zammar: uniformità e  consolidamento. “Finché ciascuno continuerà ad avere il proprio data center non sarà possibile ottimizzare”. 

 

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here