L’equilibrio instabile della crittografia

I sistemi crittografici sono uno dei pilastri su cui si basa la nostra economia e, in ultima istanza, il mondo per come lo conosciamo. Algoritmi e protocolli crittografici costituiscono i presupposti imprescindibili per applicazioni fondamentali nei più diversi settori, a partire dalle telecomunicazioni, sino ad arrivare alla protezione delle risorse critiche, alla gestione dei  trasporti, all’e-government o all’e-commerce.

La rilevanza sociale ed economica dei sistemi crittografici oggi è tale da rendere lecite alcune domande. La crittografia ha una base solida o potrebbe essere minacciata da nuove scoperte tecniche e scientifiche? E se questo è possibile, quanto plausibili sono questi rischi? Quali sono le possibili contromisure?

La robustezza della crittografia si fonda su due vere e proprie scommesse:

  1. per alcuni problemi della Teoria dei Numeri, su cui si basano gli schemi crittografici più diffusi, non esistono algoritmi semplici (ovvero con tempo di esecuzione polinomiale);
  2. le risorse tecnologiche a disposizione dei potenziali attaccanti sono tali da non consentire di portare a termine in tempi accettabili elaborazioni il cui tempo di calcolo stimato è talmente lungo da essere considerato computazionalmente infattibile.

La prima ipotesi è da lungo tempo oggetto di grande attenzione e di avvincenti ricerche: era il 1900 quando David Hilbert, elencando i problemi matematici che a suo avviso avrebbero dovuto guidare i progressi della disciplina per il secolo che stava iniziando, citò l’ipotesi di Riemann. Se venisse dimostrata, questa congettura potrebbe rendere estremamente facile la compromissione degli schemi crittografici basati sui numeri primi, come RSA. L’ipotesi di Riemann è tuttora un problema aperto che suscita grande interesse, al punto che l’Istituto Matematico Clay ha messo in palio un milione di dollari per chi riuscisse a produrre una dimostrazione e in tanti si cimentano nell’impresa: esiste una lunghissima serie di annunci  di dimostrazioni successivamente smentite ed il tentativo noto più recente risale a poche settimane fa. La rilevanza di queste ricerche è testimoniata anche dal grande interesse di aziende come AT&T e Hewlett-Packard, che le sostengono tramite significativi investimenti.

La seconda assunzione della crittografia richiede di stimare la forza dei nostri avversari. Questo compito è reso sempre più difficile dai continui progressi tecnologici che periodicamente incrementano la capacità di calcolo dei sistemi, offrendo così nuove opportunità di crittoanalisi che consentono attacchi sempre più insidiosi ed efficaci.

Negli anni Novanta, ad esempio, DES Cracker, una macchina parallela con hardware dedicato, ha permesso di compromettere il cifrario DES che fino a pochi anni prima era considerato sicuro. Più recentemente, le schede grafiche ad alto parallelismo, pensate per applicazioni 3D, hanno incrementato notevolmente le risorse computazionali dei personal computer e l’avvento del cloud ha reso accessibile a tutti una capacità computazionale che un tempo era disponibile solo a governi e multinazionali. Negli ultimi anni si sta dedicando grande attenzione ai progressi verso la realizzazione di calcolatori quantistici che, sfruttando nuovi algoritmi, potrebbero ridurre in modo significativo i tempi di esecuzione degli attacchi ai più diffusi crittosistemi come RSA, Diffie-Hellmann e le curve ellittiche. Nonostante i grandi investimenti che laboratori di ricerca, aziende come Google ed enti come la National Security Agency (NSA) da tempo riservano al quantum computing, questa tecnologia è ancora immatura: si stima che i primi calcolatori quantistici usabili per scopi pratici saranno disponibili nei prossimi 30 anni. E’ però fondamentale non farsi trovare impreparati a questo scenario, sempre più concreto. Per questo pochi mesi fa la NSA ha reso nota la sua intenzione di iniziare una transizione verso l’utilizzo di nuovi schemi crittografici che, diversamente da quelli oggi più diffusi, siano robusti a fronte di attacchi condotti con calcolatori quantistici.

Quali implicazioni per le imprese?

La storia della crittologia è costellata di continue rincorse tra crittografi, che definiscono algoritmi e protocolli per difendere la sicurezza dell’informazione, e crittoanalisti che individuano punti di debolezza e strategie di attacco. Ogni progresso della crittoanalisi rende necessario il ricorso a parametri di configurazione più robusti (ad esempio chiavi di lunghezza maggiore), o addirittura l’adozione nuovi algoritmi o schemi crittografici per preservare i livelli di sicurezza desiderati. Questo è vero anche oggi per tutti i sistemi che utilizziamo, ed in particolare per quelli caratterizzati da un ciclo di vita lungo, come ad esempio i sistemi di gestione dei trasporti o delle centrali energetiche, o ancora i sistemi bancari, finanziari e di e-government. Per questa ragione la sicurezza non può essere considerata solo in termini di attacchi e difese, ma deve inevitabilmente essere intesa anche nella prospettiva di garantire la flessibilità necessaria all’evoluzione dei sistemi.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here