Quanto conta analizzare i dati di un data center?

Secondo TechTarget IT Priorities, sondaggio 2016 di Computer Weekly riferito ai piani di investimento dei responsabili IT europei (oltre mille i coinvolti), le priorità sono su virtualizzazione dei server, big data e business analytics (33,4%) e mobilità (31,2%). Nel Regno Unito il consolidamento dei data center si posiziona, in controtendenza, al secondo posto (32,8%). Quelli che un tempo erano chiamati CED sono da considerarsi sicuramente una componente chiave nella trasformazione digitale che sarà il “cuore pulsante” della strategia corporate di oltre il 65% delle aziende che rientrano nella classifica Global 2000.

Visto che la complessità di gestione dei data center sta aumentando sempre di più, oltre a virtualizzazione e consolidamento, qual è la cosa alla quale le aziende devono fare maggiormente attenzione?

Alcuni Cio, si legge nel rapporto, dichiarano di voler investire in tecnologie che possano migliorare le performance abbattendo i costi. Cosa non possibile se non passando da una seria analisi dei dati che consenta di capire in ogni momento cosa succede nel data center al fine di poter apportare dei correttivi nei processi, nelle applicazioni o nelle infrastrutture.

Avere visibilità su ogni pacchetto, flusso e velocità è l’obiettivo raggiunto da una nuova piattaforma presentata di recente da Cisco: Tetration Analytics.  Visibilità pervasiva di tutto ciò che avviene all’interno del data center, attraverso un mix di sensori di rete/hardware che controllano ogni singolo pacchetto e sensore server/software con un bassissimo overhead (<1% CPU), è quello che garantisce questa nuova piattaforma.

Grazie alla raccolta di dati di telemetria dai sensori hardware e software, infatti, consente l’analisi delle informazioni utilizzando tecniche di machine learning. I dati di telemetria raccolti da questi sensori sono composti da tre tipi di informazioni: sul flusso (dati sugli end point, sui protocolli, sulle porte, su quando sono partiti i flussi, per quanto tempo sono rimasti attivi, ecc.), di variazioni Inter Packet (modifiche nel TTL, nei flag IP/TCP, lunghezza del carico utile, ecc.) e dettagli sul contesto provenienti dall’esterno dell’header del pacchetto.  I dati che provengono dai sensori vengono inviati a Cisco Tetration Analytics, una piattaforma big data multi-server che elabora le informazioni e utilizza una macchina di apprendimento automatico, analisi dei comportamenti e algoritmi intelligenti per dare una panoramica di tutto ciò che accade nel data center.

La novità della piattaforma sta nel diverso approccio che le aziende possono avere rispetto alla gestione del proprio data center. Con Tetration Anlytics, infatti, è possibile avere il controllo sulle applicazioni analizzando eventuali comportamenti anomali e soprattutto avendo a disposizione la possibilità di capire quali di queste sono dipendenti l’una dall’altra all’interno del data center e nel cloud; prendere decisioni con maggior consapevolezza anche sperimentando prima con delle simulazioni eventuali cambiamenti nelle policy implementate; effettuare rapide ricerche in milioni di flussi utili a comprendere l’andamento delle attività.

Ma quali sono i limiti che sempre più spesso si riscontrano nella gestione attuale dei data center? Ciò che ne ostacola maggiormente una gestione efficace è la mancanza di visibilità pervasiva dell’infrastruttura e di come le applicazioni interagiscono oltre alla mancanza di informazioni utili a adottare modelli zero-trust, impostare attività di disaster recovery efficaci e veloci e analizzare possibili migrazioni a soluzioni software defined e al cloud.

Solo attraverso l’analisi dei dati passati, presenti e futuri è possibile avere gli elementi utili a prendere le giuste decisioni. E questo è quello che Cisco si è proposta di fare attraverso Tetration che consente di testare un cambiamento prima di eseguirlo per capire l’impatto sulle applicazioni, accertarsi che i cambiamenti relativi alle policy siano stati apportati e implementati con efficacia e fare simulazioni in tempo reale e retroattive delle policy, riproducendo quanto accaduto nella rete in qualsiasi momento, con funzionalità di storage dei dati a lungo termine.

Tra i primi a sperimentare la nuova piattaforma Cerner Corporation, leader mondiale in soluzioni tecnologiche per la salute che dispone di oltre 20.000 strutture in tutto il mondo.

Non è possibile gestire o proteggere ciò che non vediamo”, ha dichiarato Zeus Kerravala, Principal Analyst di ZK Research.  “Il problema è che, oggi, i clienti non hanno una visibilità adeguata dei comportamenti delle applicazioni e dei flussi di rete, con conseguenti difficoltà operative e sfide di sicurezza. Tetration fornisce tale visibilità, permettendo la ricerca di miliardi di flussi per ottenere in pochi minuti informazioni utilizzabili, approfondire le informazioni del passato (con analisi forense), del presente (con analisi in tempo reale) e future (con analisi sull’impatto).

Importante caratteristica di Teatration è che può essere messa in servizio in modo semplice, rispondendo a poche domande.

Il data center – commenta Alberto Degradi, Infrastructure Architecture Leader Cisco  – è cambiato tantissimo negli ultimi anni: sono aumentate le applicazioni e l’IoT ha creato domanda di nuove tipologie di traffico. Ci sono realtà nuove che devono essere monitorate e che non possono essere tenute sotto controllo in modo adeguato con gli strumenti attualmente disponibili. Teatration è una bussola utile a capire cosa succede nel data center in termini di singoli pacchetti, applicazioni e traffico. Solo dall’analisi puntuale dei dati siamo in grado di capire cosa è successo nel passato, cosa sta succedendo oggi e  modellare così in modo opportuno il futuro del data center”.

 

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here