L’Intelligenza Artificiale può aiutare a prevenire gli attacchi terroristici?

Quando si parla di tecnologie digitali nell'ambito della prevenzione del terrorismo, quasi sempre si fa riferimento all'Intelligenza artificiale. Il suo utilizzo, però, porta con sé una serie di considerazioni da affrontare: ne abbiamo parlato con Domenico Martinelli, giornalista esperto in nuove tecnologie applicate alla sicurezza e direttore responsabile della rivista euNOMIKA

Immagine distribuita da Pixabay

La piaga del terrorismo che ciclicamente si presenta e si abbatte sugli eventi odierni e che si insedia nell’agenda dei media, resta ancora un fenomeno troppo complesso da risolvere. Da una parte vi è l’imprevedibilità di un eventuale attacco che può davvero avvenire ovunque; dall’altra le motivazioni che vi sono dietro possono far leva su ideologie o interessi, piuttosto che su disturbi o avvicendamenti vari che difficilmente possono essere capiti o previsti.

Le stesse modalità, tanto di esecuzione quanto di programmazione degli stessi attacchi, non seguono pattern standard o quantomeno simili tali da essere facilmente intuiti dagli organi di sicurezza. Ne emerge una complessità intrinseca al fenomeno stesso, il cui studio chiama in causa diverse discipline, tra cui il diritto, la criminologia, la sociologia, la comunicazione e molte altre.

Quando si chiamano in causa le tecnologie digitali in ambito di prevenzione del terrorismo, quasi sempre si fa riferimento all’Intelligenza Artificiale e questo perché è la principale tecnologia che viene utilizzata quando si tratta di fare delle previsioni. L’impiego di questa tecnologia – tuttavia – porta con sé delle considerazioni che necessariamente devono essere affrontate quando ci si chiede come questa possa essere impiegata in tale ambito.

Ne abbiamo discusso con Domenico Martinelli, giornalista esperto in nuove tecnologie applicate alla sicurezza, direttore responsabile della rivista euNOMIKA, edita dal Centro per gli Studi Criminologici, Giuridici e Sociologici.

Lo scenario normativo e di senso

Formalmente – ci dice Martinelli – non esiste ancora un’applicazione dell’AI in termini di sicurezza interna, tanto a livello nazionale quanto a livello comunitario e questo perché non vi è alcuna normativa che ne disciplina l’utilizzo.

Un passo verso la regolamentazione di questa tecnologia in ambito Europeo riguarda, tuttavia, il settore delle telecomunicazioni: il documento COM(2021)206 è senza dubbio il primo sistematico tentativo da parte della Commissione Europea di disciplinare l’utilizzo dell’AI e al suo interno prevede alcune disposizioni per il suo utilizzo nell’ambito della sicurezza. L’argomento è ancora in fase di discussione e potrebbero volerci anni prima di arrivare ad un risultato.

Ma sebbene l’Intelligenza Artificiale possa già essere utilizzata per svariati obiettivi, quando si prova ad applicarla alla sicurezza interna, si va incontro a dei temi molto complessi che interferiscono, poi, sulla dimensione del senso.

Proprio Martinelli ci fa notare che tra tutti vi è una “potenziale compressione dei diritti umani nel momento in cui la raccolta dati sulla popolazione potrebbe scontrarsi con il diritto alla privacy, alla libertà di espressione e di circolazione.” Il rischio, in tal caso, non è soltanto nella possibile violazione dei diritti in questione, ma anche nel fatto che un utilizzo dei dati su spostamenti, comunicazioni ed elementi afferenti alla sfera privata da parte delle forze dell’ordine, spaventa la popolazione fino a cadere nel complottismo. Proprio per questi motivi, l’Intelligenza Artificiale viene definita dalla stessa Commissione Europea come tecnologia ad alto rischio.

D’altra parte, un’Intelligenza Artificiale per funzionare ha bisogno di essere allenata sulla base di quegli stessi dati (e su altri), quindi il pericolo è che diventi discrezionale allenarla in un modo piuttosto che in un altro. Di fatto gli algoritmi di Intelligenza Artificiale possono essere indirizzati nella loro formazione e questa particolarità rende, a tutti gli effetti, la tecnologia stessa malleabile sulla base di elementi potenzialmente non obiettivi.

Una macchina non può prendere una decisione così importante al posto dell’uomo, ma c’è bisogno di valutare il contesto di volta in volta

Infine, va anche sottolineato il fatto che un’Intelligenza Artificiale, se messa in condizioni di agire in autonomia, può prendere delle decisioni senza l’intervento umano o fornire delle indicazioni che non sono prima passate al vaglio degli organi di sicurezza. Per questo motivo, soprattutto in quest’ambito, le decisioni necessitano sempre di essere valutate in base alla situazione e dunque l’intervento umano rappresenta una parte fondamentale del processo.

Per fare un esempio, nel caso in cui sistemi di videosorveglianza regolati da un’AI dovessero individuare un soggetto potenzialmente pericoloso in tempo reale, un possibile applicativo della tecnologia potrebbe consentire di intervenire perché il soggetto risulterebbe in linea con le caratteristiche fornite alla tecnologia stessa durante l’addestramento. Di fatto, come sottolineato da Martinelli, “i sistemi di video sorveglianza in tempo reale non sono vietati, ma potrebbero costituire un rischio perché – appunto – non sarebbero discrezionali: una macchina non può prendere una decisione così importante al posto dell’uomo, ma c’è bisogno di valutare il contesto di volta in volta.

L’Intelligenza Artificiale può essere utile?

Posto che, come detto, l’ultima decisione deve spettare agli organi competenti, l’Intelligenza Artificiale può essere di supporto in ambito sicurezza e prevenzione degli attacchi terroristici.

Ci sono alcuni studi che hanno provato a sviluppare dei modelli di previsione e uno di questi – recentemente pubblicato – utilizza un database composto dai dettagli sui precedenti attacchi seguendo tre differenti dimensioni: le armi impiegate, le modalità/tattiche dispiegate e gli obiettivi prescelti dai terroristi. L’algoritmo mappa le connessioni temporali tra gli elementi in database e individua le dipendenze e similarità tra i vari attentati.

Tale algoritmo, quindi, permette di imparare a prevedere eventuali bersagli a rischio indicando agli organi di sicurezza dove poter prestare attenzione, piuttosto che farsi un’idea sulle possibili modalità di attacco.

L’intervento umano deve essere una costante che serve a garantire ancora più sicurezza e che deve far sì che l’impiego della tecnologia possa essere sostenibile sul piano sociale

Un altro studio di Deloitte e della United Overseas Bank, discute l’impiego delle AI per la lotta finanziamento del terrorismo: in questo caso, la funzione dell’AI prevede un apprendimento tale da permettere di individuare eventuali scambi illeciti di denaro. Anche in questo caso, l’Intelligenza Artificiale può segnalare un qualcosa di sospetto, ma l’intervento e la decisione finale devono essere subordinate ad una valutazione umana ponderata.

Non vi è margine, dunque, per creare uno scenario in cui un’Intelligenza Artificiale possa essere lasciata libera di operare in autonomia quando si parla di prevenzione del terrorismo: è lo stesso Martinelli che ci tiene molto a sottolineare che “l’intervento umano deve essere una costante che serve a garantire ancora più sicurezza e che deve far sì che l’impiego della tecnologia possa essere sostenibile sul piano sociale.” L’uomo, ancora una volta, non subisce le tecnologie, ma si affianca ad esse per trarne benefici utilizzandole nel mondo più corretto possibile.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here