Processo all’Intelligenza Artificiale: la sentenza

La scorsa settimana ha preso avvio il processo all’Intelligenza Artificiale, con i primi capi di imputazione discussi e commentati. Altri se ne aggiungono qui per arrivare alla sentenza e alle conclusioni.

Gli algoritmi ci espongono ai rischi della giustizia predittiva insiti sia nell’adottarla che nel non adottarla

L’ACCUSA fa riferimento ad un passo del film Minority Report dove il signor Marks viene arrestato dal capitano John Anderton, responsabile della “sezione Precrimine” della città di Washington, per un crimine che non ha ancora compiuto: “Signor Marks, in nome della sezione Precrimine di Washington D.C. la dichiaro in arresto per il futuro omicidio di Sarah Marks e Donald Dubin che avrebbe dovuto avere luogo oggi 22 aprile alle ore 8 e 04 minuti”. Questa giustizia non si basa sui fatti, ma sulle sulle intenzioni, afferma. Se sostituiamo il giudice con un algoritmo quanto avvenuto nella fiction di Minority Report potrà accadere realmente! Potremo però evitarlo – continua – con una legge che impedisca l’uso di algoritmi predittivi per proclamare le sentenze. Ma cosa accadrebbe se gli esiti di questi algoritmi venissero comunque pubblicati sui giornali? Come reagirebbero i cittadini se poi i crimini prospettati dalla stampa venissero realmente perpetrati? Essi forse chiederebbero che questi algoritmi venissero applicati. Tutti noi siamo determinati nella difesa dei diritti umani – afferma ancora l’accusa, e poi si domanda – le nostre certezze resteranno così salde anche quando arriveremo al dunque?

Con una certa sicurezza, la DIFESA afferma che questo è un caso di pura finzione scientifica. Gli algoritmi che oggi vengono adottati nell’ambito della giustizia predittiva sono molto semplici e si basano su dati relativi alle caratteristiche dell’imputato e su serie storiche. Quanto prospettato non potrà mai accadere: basti vedere quanto fallaci sono gli esiti dei vari exit pool elettorali!

COMMENTO

Ancora una volta ritengo che la difesa rappresenti una visione semplicistica del fenomeno. Non sarà un caso se in ambito giuridico stanno moltiplicandosi i convegni e le conferenze sul tema della giustizia predittiva. Il limite principale degli algoritmi predittivi è rappresentato proprio dal fatto che si basano su serie storiche, de-personalizzando di fatto il procedimento in quanto il loro esito viene associato ad una probabilità di reato del tutto generica che risente in modo preponderante della natura e qualità dei dati utilizzati. Ma visto che è verosimile che tali strumenti vengano sempre più adottati nel futuro, sarà necessario preparasi affinché il loro utilizzo sia confinato e regolamentato.

Non è chiara la responsabilità degli algoritmi per fatti illeciti

L’ACCUSA ricorda che nella nostra società la responsabilità giuridica ha un ruolo importante. Ancora una volta, anche in riferimento all’esempio dell’auto a guida autonoma, ci possiamo domandare di chi è la responsabilità in capo agli errori del software. La risposta ovvia la individua in chi lo ha progettato o nel produttore del veicolo. Ma l’intelligenza artificiale si basa su algoritmi che apprendono dall’esperienza – in altri termini, dai dati – e questo modifica la logica del loro funzionamento: siamo in presenza di una somma di logica e di dati. Se nell’ambito di un contenzioso la responsabilità sarà attribuita al produttore, oppure all’utilizzatore – afferma ancora l’accusa – entrambi ne risponderanno proprio perché il nostro ordinamento giuridico – il patto sociale su cui si basa la giustizia – ha bisogno di individuare un responsabile. Ma questo fatto può condannare gli algoritmi definitivamente con sentenze che arriverebbero a sancire il loro non utilizzo. Non è forse meglio lasciarli vivere in un regime di libertà condizionata? Se non lo facessimo, potremmo restare sospesi tra il rischio di non avere alcun responsabile, o un responsabile individuato su una base non oggettiva. Per l’accusa il problema esiste e va affrontato. Anche Tim Cook, il CEO di Apple – continua – ha recentemente aggiunto la sua voce a quelle che ci allertano sulle problematiche legate all’intelligenza artificiale, quando ha affermato che “le nostre informazioni – da quelle di ogni giorno a quelle profonde – sono stati trasformate contro di noi in un’arma con un’efficienza di tipo militare”.

Qui la DIFESA ribadisce che gli algoritmi non fanno che rispondere alle regole di programmazione. E’ la qualità dell’algoritmo che fa la differenza, sostiene. Questa volta riconosce che oggi esistono algoritmi basati sul funzionamento delle reti neurali che sono più sofisticati degli algoritmi tradizionali, ma afferma che anche questi rispondono alle regole imposte dalla programmazione. Il risultato è sempre condizionato da chi ha programmato l’algoritmo, il codice non si auto-genera.

COMMENTO

Non molto tempo fa ho assistito ad una conferenza dal titolo “Una legge per i Robot e per gli Umani”. Ci si domandava se, in un sistema di diritto antropocentrico, un robot potesse essere considerato un soggetto giuridico come entità capace di agire indipendentemente dal programmatore. Dopo un dibattito che ha evidenziato i rischi insiti nel seguire in questo campo una logica di antagonismo – potremmo dire di benchmarking – tra intelligenza artificiale ed essere umano, Maria Chiara Carrozza ha prospettato tre ordini di interventi nei confronti dei robot e, per estensione, degli algoritmi in genere: l’adozione di regole prescrittive specifiche (ad esempio, legate alla fase di progettazione e costruzione), l’attuazione di sanzioni in caso di reato (quali la disattivazione, la modifica o anche la distruzione del robot o dell’algoritmo) e, da ultimo, l’adozione di regole morali (come l’adozione del principio di precauzione in casi come quello del progetto Moral Machine, su cui qui si può leggere un appronfondimento proprio sul tema della responsabilità). Ancora una volta concordo con l’accusa nel sostenere che il problema esiste e va affrontato, anche perché applicazioni di giustizia predittiva sono già utilizzate e si stanno diffondendo sulla base della regola che quel che conta è la fattibilità di una soluzione, più che la sua opportunità (in altri termini: si agisce prima di pensare a come si agisce). La giustizia non può essere influenzata da quanto contenuto in una banca dati!

E a proposito di quanto affermato dalla difesa circa l’impossibilità di auto-generazione del codice, il futuro può riservarci delle sorprese: sono già in fase di sviluppo applicazioni di machine learning dedicate a generare altri processi basati sul concetto di rete neurale.

Non sono chiari i rischi connessi al riconoscimento del diritto di cittadinanza ai robot

L’ACCUSA ricorda che il 26 ottobre 2017 l’Arabia Saudita (un Paese che non riconosce diritti di piena cittadinanza alle donne) ha concesso la cittadinanza a Sophia. Questa è stata sicuramente una operazione di marketing provocatoria – ha sostenuto – ma non è il solo caso di concessione di diritti ad entità non umane (anche se nel caso di Sophia la natura effettiva di questi diritti non è stata specificata). L’ Ecuador e la Bolivia riconoscono nella propria costituzione diritti “di cittadinanza” alla natura. Qui l’ecosistema da oggetto diviene soggetto titolare di situazioni giuridiche. La natura diviene un’entità con un autonomo diritto di esistere e di prosperare, con il diritto, tra l’altro, al rispetto integrale della sua esistenza, al mantenimento e alla rigenerazione dei suoi cicli vitali, della sua struttura, delle sue funzioni e dei suoi processi evolutivi.

Il mondo sta prendendo coscienza che non esiste solo l’uomo, continua l’accusa. Questo potrebbe aprire la strada al riconoscimento effettivo di cittadinanza a una intelligenza artificiale e se nel futuro, come cittadini, ce la dovremmo giocare alla pari con una super-intelligenza, potremmo risultare perdenti e il passo perché questa arrivi a sopprimere l’uomo potrà essere breve (come preconizzato da alcuni film di fantascienza, ma anche da tecnologi e scienziati).

La DIFESA sostiene che sì, si può disquisire su tutto, ma che in questa fase dell’evoluzione, quando abbiamo ancora una conoscenza ridotta del funzionamento del cervello umano, il pensiero che l’intelligenza artificiale possa arrivare ad eliminare l’uomo non deve far parte delle nostre preoccupazioni. Forse questo tema potrà essere affrontato in futuro, ma non oggi. I robot non sono altro che pezzi di ferro e le previsioni prospettate dall’accusa attengono solo alla fantascienza. Oggi siamo troppo lontani dal pensare di riuscire a riprodurre le nostre capacità biologiche, peraltro con un basso consumo di energia.

COMMENTO

Questo è l’unico caso in cui concordo con la difesa, ma anche qui vale la pena di inserire qualche considerazione ulteriore. Mi riferisco alla percezione che ha l’uomo degli oggetti e delle entità non umane in genere. Quello che sostengo è che quando ragioniamo sull’innovazione ed i suoi effetti, con trasformazioni che sono di portata globale, e soprattutto quando prospettiamo delle singolarità, dobbiamo sempre prestare attenzione che la nostra discussione risente dei ricordi culturali della società in cui siamo inseriti, mentre è necessario affrontare l’argomento da diversi punti di vista. Il dibattito sull’intelligenza artificiale ferve soprattutto in occidente, una parte del mondo guidata dall’idea di crescita e di innovazione, che ha incluso anche il concetto di disruption, in un contesto antropocentrico legato al capitale e di netta impronta maschilista, soprattutto quando si affrontano temi tecnologici. L’uomo occidentale ha un rapporto di dominio sugli oggetti, sul non umano. Ma questo accade ovunque? A ben vedere, gli esempi portati dall’accusa riguardano Paesi non occidentali. Recentemente il filosofo Achille Mbembe, sempre nell’ambito degli Open Innovation Days, nello spiegare il rapporto profondo che esiste tra il possessore di uno smartphone e questo oggetto, ha ricordato che in Africa, uno dei grandi bacini da cui nel futuro attingeremo parecchie risorse, le cose stanno diversamente. Qui gli uomini hanno un diverso rapporto con gli oggetti, che sono percepiti come entità flessibili, con possibilità di azione autonoma rispetto alla vita (da cui gli effetti magici e terapeutici di alcuni di essi, aspetto che noi identifichiamo con il termine animismo).

A questa prima riflessione possiamo aggiungere che anche i principi morali degli uomini non sono universali, bensì variano a seconda della cultura, delle condizioni economiche e dell’area geografica di provenienza (un’esemplificazione legata ai risultati del progetto Moral Machine si può approfondire nell’articolo già citato).

In conclusione, concordo che in questo momento è prematuro discutere sul possibile diritto di cittadinanza di entità dotate di intelligenza artificiale, ma anche un argomento di questo genere ci può stimolare ad ampliare il campo delle nostre riflessioni, soprattutto nel considerare che se guardiamo al futuro l’atteggiamento antropocentrico non regge più: la necessità di sostenibilità ambientale e l’accelerazione del progresso scientifico ci impongono di abbandonare il concetto di “uomo al centro del mondo”, e di iniziare a prenderci cura dell’altro, sia su scala ridotta (ad esempio, sostituendo l’atteggiamento di confronto con quello di coesistenza), sia in grande scala, nel concepire la globalità dell’universo, dove convivono la natura, l’uomo e la tecnologia, come centro del nostro ragionamento.

Il dibattito e la sentenza

La giuria popolare, prima di emettere la sentenza, è chiamata a richieste di chiarimento e ad esporre qualche ulteriore osservazione utile a chiarire la questione. Negli interventi del pubblico vengono ripresi accadimenti che hanno evidenziato ulteriori problematiche legate all’uso degli algoritmi. Qualcuno ha ricordato il progetto di Facebook dove, nell’ambito di un’attività di machine learning, si è verificato l’imprevisto di due chatbot che hanno iniziato a sviluppare strategie autonome ed a dialogare tra loro secondo un nuovo linguaggio – fatto peraltro liquidato dalla corte come meramente suggestivo. E’ stato poi ricordato un ulteriore episodio, sempre relativo all’uso di bot, che ha alterato un tratto del mercato pubblicitario negli Stati Uniti quando, replicando il comportamento umano, questi hanno aumentato artificiosamente il traffico su alcuni siti, ingannando, tra l’altro, alcuni bot di controllo.

Chiuso rapidamente il dibattito per limiti di tempo, il giudice legge nuovamente la richiesta di condanna espressa dal pubblico ministero e si passa al voto.

L’intelligenza artificiale è assolta con 21 voti a favore e 19 contro.

Io ho votato per la sua condanna.

Conclusioni

Il GIUDICE chiude il processo con un commento in cui, a partire dalla constatazione che il giudizio finale è stato di sostanziale parità, dichiara di sentirsi più vicino alle tesi dell’accusa che a quelle della difesa, soprattutto perché la prima non ha chiesto la condanna definitiva dell’intelligenza artificiale, ma la sua condanna ad una libertà vigilata sotto controllo umano. Il paradigma scientifico – afferma – ci porta a ritenere che nulla è realmente nuovo. Ma nel caso in questione vi sono degli aspetti di novità. Gli algoritmi “tradizionali” rispondono a requisiti che hanno una definizione matematica chiara ed incontrovertibile. Ma un algoritmo di “tipo google” non si basa su una definizione matematica di rilevanza su cui tutti concordano. E’ lo stesso “google” che diventa la definizione operativa di rilevanza. L’algoritmo esegue ciò per cui è stato programmato, ma resta il bisogno di sapere se il suo risultato può essere accettato (e in questo caso anche la possibile apertura dell’algoritmo non aiuta, data la complessità di analisi dello stesso).

Va altresì sottolineato – continua – che non è necessario avere una conoscenza completa dei meccanismi di funzionamento del cervello per consentire il progresso dell’intelligenza artificiale: basti vedere quanto quest’ultima sta avanzando a fronte dello stato delle nostre attuali conoscenze. Anche questo, quindi, non ci protegge dai pericoli che potremmo dover affrontare. Come cittadini dobbiamo cercare di capire cosa sta accedendo intorno a noi e questo diventa più importante quanto più aumenta la complessità: è anche necessario investire per poter competere alla pari. Qui il giudice ha ricordato che quando nel 2000 Bill Clinton annunciò in conferenza stampa che si era arrivati a produrre il sequenziamento del genoma umano, un giornale nazionale – non citato – pubblicò un articolo ricordando che l’Italia era uscita per tempo da questo programma di ricerca e così, non investendo, aveva risparmiato parecchio denaro con la possibilità di ottenere comunque i risultati, in quanto pubblici. Una visione che ha sostenuto essere stata del tutto miope.

Lo storico israeliano Harari nel suo ultimo libro 21 lezioni per il XXI secolo, ha posto, tra le altre, alcune questioni. Cosa ha dato senso fino a qui? Cosa darà senso in futuro? Come vivremo in un mondo in cui le macchine ci conosceranno meglio di noi stessi? Se uno storico, non un tecnologo, pone queste domande, è facile comprendere come sia elevata la preoccupazione che questi sviluppi ci possano condizionare. Sono questioni da affrontare con grande cautela – conclude il giudice – al fine di cercare di comprendere fino in fondo, evitando atteggiamenti oscurantisti. Serve un contrappasso di conoscenze e di presa di responsabilità.

Commento finale

In premessa mi sono chiesto se si può processare una tecnologia. La risposta è ovvia: il problema non sta nella tecnologia che, come ho già avuto modo di scrivere, evolve autonomamente e in modo inarrestabile, ma nell’uso che se ne fa. Qui ho accettato il gioco, e ho emesso una sentenza di condanna, perché mi ha convinto il tipo di pena richiesta dall’accusa: la libertà condizionata sotto il controllo umano. E’ evidente che la specifica di questa libertà condizionata, basata su atti legislativi, norme, linee guida e regole di comportamento, richiede un processo lungo di comprensione, condivisione e continuo adattamento all’evoluzione stessa della tecnologia. Ciò non si può esaurire in poche righe, né oggi siamo nelle condizioni di portare a termine questo compito, ma il dibattito deve essere e restare aperto. Non è un caso che le strategie di sviluppo dell’intelligenza artificiale in molti stati contemplino regole e linee guida relative agli aspetti etici e che in questo campo esistano iniziative importanti, tra cui AI4People nata allo scopo di individuare i principi, le politiche e le pratiche utili a realizzare una “good AI society”.

Le regole della libertà vigilata attengono al tema della necessità di progettare il percorso della trasformazione digitale affiancando, come sostiene Luciano Floridi, “la gamba politico/sociale alla gamba del business che sta già sviluppando l’intelligenza artificiale come fatto a suo tempo con internet”. Per questo – interpretando sempre Floridi – è necessario definire un framework etico che contenga le linee guida per l’attuazione di politiche di coesistenza dell’uomo con l’intelligenza artificiale ed attivare una governance di sistema che includa non solo le regole specifiche di gestione, ma anche il rispetto di norme, leggi e degli aspetti etici.

Alcuni interventi si possono già ipotizzare: si può chiedere che per attività di tipo critico i codici e i dati siano disponibili ed aperti o che vengano ispezionati preventivamente da appositi comitati di controllo (come accade, ad esempio, nello Stato del Nevada); si può agire sulla proprietà dei dati con regole che impediscano condizioni di monopolio e che soprattutto mantengano la proprietà degli stessi in capo a chi li genera, ovvero ai cittadini, anziché a chi li processa e custodisce; si può concedere un diritto di utilizzo alla ricerca scientifica di qualsiasi dato, secondo regole opportune. Azioni di questo tipo, volte a risolvere problemi globali, non possono essere attuate con iniziative isolate: serve un consenso a diversi livelli che coinvolga anche la politica sovra-nazionale e in questo caso vorrei essere più ottimista di quanto oggi non sia. Non solo perché quando parliamo di intelligenza artificiale trattiamo argomenti che richiedono una comprensione troppo distante dalla visione delle attuali politiche degli stati, ma perché azioni concrete richiedono collaborazione e convergenza di iniziative. Se restiamo solo in Europa, pensiamo all’introduzione di normative quali la recente GDPR relativa al trattamento dei dati personali, che se pur non completa, è considerata da molti il punto più avanzato delle regole internazionali sulla privacy delle informazioni. In futuro sarà possibile realizzare altri interventi inter-governativi di tale portata nel momento in cui diverse spinte nazionali sembrano voler disgregare la possibilità di un’azione politica congiunta?

Ma il progresso richiede un atteggiamento di speranza e pensiero positivo: ognuno di noi può e deve fare la propria parte, ad esempio divulgando, contribuendo ad aumentare la consapevolezza collettiva, chiamando in causa chi può far cambiare le cose. Piccole azioni che possono aiutare a far crescere un movimento collettivo che diriga il futuro secondo percorsi profondamente sociali e, quindi, profondamente umani.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here