Rapporto Clusit 2018: Intelligenza Artificiale nuova minaccia reale

Nel corso della presentazione del Rapporto Clusit 2018 è stata illustrata la rapida evoluzione degli scenari della sicurezza informatica: in un contesto in cui sono in esponenziale aumento gli attacchi perpetrati con finalità di Cybercrime, con l’obiettivo di sottrarre informazioni e denaro (76% degli attacchi complessivi, in crescita del 14% rispetto al 2016), di Information Warfare (la guerra delle informazioni, che nel 2017 segna +24% rispetto al 2016) e il Cyber Espionage (lo spionaggio con finalità geopolitiche o di tipo industriale, a cui va tra l’altro ricondotto il furto di proprietà intellettuale, in crescita del 46%), cresce in maniera preoccupante la minaccia derivante dall’utilizzo degli algoritmi di Intelligenza Artificiale, sempre più frequentemente utilizzati dai criminali del web per sferrare attacchi gravi ad elevato impatto su scala planetaria.

La categoria dei “Multiple Targets”, ovvero delle organizzazioni appartenenti a settori differenti e geograficamente distribuite, risulta infatti la più colpita nel 2017: gli attacchi ad essa rivolti sono aumentati del 353% rispetto al 2016, a conferma del fatto che nessuno può più ritenersi escluso dall’essere un obiettivo.

Le nuove frontiere del Machine Learning e degli algoritmi di Intelligenza Artificiale e gli aspetti etici derivanti dal loro utilizzo, sono stati esplorati dagli esperti del Clusit – il Presidente, Gabriele Faggioli e Andrea Zapparoli Manzoni, tra gli autori del Rapporto Clusit – insieme a rappresentanti delle istituzioni e del mondo accademico, quali Luigi Montuori (Autorità Garante per la protezione dei dati personali), Corrado Giustozzi (AgID, ENISA) e Fabio Roli (Università di Cagliari), a seguito dell’intervento introduttivo di Věra Jourová, Commissario europeo per la giustizia, la tutela dei consumatori e l’uguaglianza di genere. Confermando la centralità dei diritti dei cittadini, Jourová ha annunciato nel contesto della Comunità Europea la costituzione di un team di esperti, chiamato a definire entro la fine del 2018 le linee guida a cui i programmatori dovranno adeguarsi per garantire trasparenza, responsabilità etica e assenza di discriminazioni in tema di Intelligenza Artificiale

Il rischio è, come evidenziato dagli esperti, la perdita di controllo: in particolare, secondo Andrea Zapparoli Manzoni del Clusit, la possibilità di utilizzare IA come strumenti offensivi sta già portando a “una vera e propria corsa agli armamenti da parte di Governi e attori non statuali”, con il pericolo di scatenare un inedito tipo di guerra iperveloce nello spazio cibernetico. “Questi strumenti vanno immediatamente regolamentati da una conferenza internazionale o meglio proibiti”, chiosa Zapparoli Manzoni, “perché eccessivamente rischiosi (come le armi batteriologiche, chimiche o nucleari). Dobbiamo evitare scenari oggi non più soltanto ipotetici in cui il fattore umano è destinato ad essere estromesso, in quanto troppo lento nel prendere decisioni”.

 

Copia & Incolla: perché questo titolo? Perché i contenuti di questa categoria sono stati pubblicati SENZA ALCUN INTERVENTO DELLA REDAZIONE. Sono comunicati stampa che abbiamo ritenuto in qualche modo interessanti, ma che NON SONO PASSATI PER ALCUNA ATTIVITÀ REDAZIONALE e per la pubblicazione dei quali Tech Economy NON RICEVE ALCUN COMPENSO. Qualche giornale li avrebbe pubblicati tra gli articoli senza dire nulla, ma noi riteniamo che non sia corretto, perché fare informazione è un’altra cosa, e li copiamo ed incolliamo (appunto) qui per voi.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here