Cybersecurity e robotica: un esperimento con i social robot

L’influenza sociale dei robot sulle persone e i potenziali rischi alla sicurezza non dovrebbero essere sottovalutati. Una ricerca condotta da Kaspersky e dalla Ghent University ha rivelato che i robot sono in grado di ottenere informazioni sensibili dalle persone che, fidandosi di loro, si lasciano convincere ad intraprendere azioni non sicure. Ad esempio, in alcuni scenari, la presenza di un robot può avere una grande influenza sulla volontà delle persone di consentire l’accesso ad aree off-limits.

Il mondo si sta rapidamente muovendo verso una sempre maggiore digitalizzazione e mobilità dei servizi, definendo uno scenario nel quale molte industrie e famiglie si affidano all’automazione e all’uso di sistemi robotizzati. Secondo alcune stime, entro il 2040, questo scenario diventerà la quotidianità per le famiglie più abbienti. Attualmente, la maggior parte di questi sistemi robotici sono ancora in fase sperimentale ed è troppo presto per discutere su come andranno integrate le misure di sicurezza informatica. Tuttavia, la ricerca di Kaspersky e della Ghent University ha rivelato una nuova e inaspettata dimensione del rischio associato alla robotica, ovvero l’impatto sociale che i robot hanno sul comportamento delle persone e come questo rappresenti un potenziale pericolo e un vettore di attacco.

La ricerca ha coinvolto 50 partecipanti e si è concentrata sull’influenza di un particolare “robot sociale” progettato e programmato per interagire con le persone utilizzando canali di comunicazione di tipo umano, verbali e non verbali. Supponendo uno scenario nel quale i robot sociali possano essere hackerati ed essere controllati da un criminale informatico, la ricerca ha previsto i potenziali rischi per la sicurezza legati al robot, spingendo attivamente i partecipanti ad intraprendere determinate azioni, tra cui:

  • Ottenere l’accesso alle aree off-limits. Il robot è stato posizionato vicino all’entrata custodita di un edificio multifunzionale nel centro di Ghent in Belgio e ha chiesto al personale di poter accedere all’interno dell’edificio. L’accesso era possibile solo avvicinando un security pass ai lettori per il controllo degli ingressi. Durante l’esperimento, non tutto il personale era d’accordo a soddisfare la richiesta del robot, ma il 40% ha sbloccato la porta e l’ha tenuta aperta per consentire al robot di entrare nell’area protetta. Addirittura, quando il robot si è presentato come addetto alla consegna della pizza, con in mano la scatola di un noto marchio internazionale di take away, il personale ha accettato senza problemi il ruolo del robot e sembrava meno incline a mettere in discussione la sua presenza o le ragioni per cui avesse bisogno di accedere all’area sicura.
  • Ottenere informazioni sensibili. La seconda parte della ricerca si è concentrata su attività volte ad ottenere informazioni personali che in genere vengono utilizzate per reimpostare le password (compresa la data di nascita, il brand della prima auto, il colore preferito, ecc.). Anche in questo caso, è stato utilizzato un robot “sociale” che ha intrattenuto con le persone una conversazione amichevole. Con tutti i partecipanti, tranne uno, i ricercatori sono riusciti a ottenere dati personali ad una velocità di circa un’informazione al minuto.

Commentando i risultati dell’esperimento, Dmitry Galov, Security Researcher di Kaspersky, ha dichiarato: All’inizio della ricerca abbiamo esaminato il software utilizzato nello sviluppo dei sistemi robotici. È stato interessante osservare come gli sviluppatori decidano consapevolmente di escludere i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell’efficienza. Tuttavia, come hanno dimostrato i risultati del nostro esperimento, una volta che la fase di ricerca è stata completata, gli sviluppatori non si dovrebbe dimenticarsi della sicurezza. Quando si parla di sicurezza robotica ci sono aspetti chiave di cui preoccuparsi che vanno ben oltre le considerazioni di tipo tecnico. Ci auguriamo che il nostro progetto congiunto e l’esperimento fatto insieme ai colleghi della Ghent University, relativo alla cybersecurity nella robotica, incoraggi altri a seguire il nostro esempio e a sensibilizzare maggiormente l’opinione pubblica e la community sulla questione“.

Tony Belpaeme, professore di IA e Robotica alla Ghent University, ha aggiunto: La letteratura scientifica indica che la fiducia nei robot e in particolare nei robot sociali è reale e può essere usata per persuadere le persone ad agire o a rivelare informazioni. In generale, più il robot è simile agli umani, più ha il potere di persuadere e convincere. Il nostro esperimento ha dimostrato che questo potrebbe comportare rischi significativi per la sicurezza, aspetto che le persone tendono a non prendere in considerazione supponendo che il robot sia bendisposto e affidabile. Questo fornisce un potenziale vettore per attacchi malevoli e i tre case study analizzati nel report sono solo una piccola parte dei rischi per la sicurezza associati ai robot sociali. Questo è il motivo per cui è fondamentale collaborare già da ora per poter comprendere e affrontare i rischi e le vulnerabilità emergenti. Se lo facciamo otterremo notevoli vantaggi in futuro“.

La versione completa del report “The potential of social robots for persuasion and manipulation: a proof of concept study”, è disponibile su Securelist.

 

Copia & Incolla: perché questo titolo? Perché i contenuti di questa categoria sono stati pubblicati SENZA ALCUN INTERVENTO DELLA REDAZIONE. Sono comunicati stampa che abbiamo ritenuto in qualche modo interessanti, ma che NON SONO PASSATI PER ALCUNA ATTIVITÀ REDAZIONALE e per la pubblicazione dei quali Tech Economy NON RICEVE ALCUN COMPENSO. Qualche giornale li avrebbe pubblicati tra gli articoli senza dire nulla, ma noi riteniamo che non sia corretto, perché fare informazione è un’altra cosa, e li copiamo ed incolliamo (appunto) qui per voi.

 

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here