Processo all’Intelligenza Artificiale

Siamo seduti nella sala dell’Archivio Storico dell’Università di Padova. La corte e la giuria popolare sono pronte a processare l’Intelligenza Artificiale. Ha senso processare una tecnologia? E soprattutto, visto che non sono in discussione fatti specifici, è lecito un processo alle intenzioni? Questo lo vedremo alla fine. Ora il procedimento ha inizio.

La corte è composta dal giudice, un docente universitario, il pubblico ministero, un avvocato esperto di tecnologie digitali, e la difesa, rappresentata dall’amministratore delegato di un’azienda che opera in questo settore. La giuria popolare è costituita dal pubblico presente.

Siamo nell’ambito degli Open Innovation Days promossi dall’Università degli Studi di Padova e da Il Sole 24ORE. L’organizzatore ha definito questo evento come un incontro semi-serio allo scopo di riflettere sui problemi o le errate convinzioni che derivano dall’impatto delle applicazioni di intelligenza artificiale nella nostra vita. Ma io lo prendo molto sul serio e per questo ve ne faccio un resoconto il più possibile dettagliato, ma non neutrale. A questo fine, tengo i miei commenti separati dalla cronaca.

PREAMBOLO

In premessa, il GIUDICE esce temporaneamente dal suo ruolo e, assunto quello di docente universitario, ripercorre brevemente la storia degli algoritmi ricordandoci che questo concetto nasce nell’antichità a partire da quello rinvenuto presso gli egizi, nel 1600 A.C. circa. Solo dopo molti secoli si giunge ad una sua formalizzazione, cui segue l’esecuzione automatica avvenuta grazie alla macchina universale di Turing. Arriviamo quindi ai giorni nostri, quando gli algoritmi sono alla base di un aumento esponenziale dello sviluppo di applicazioni di intelligenza artificiale.

Rientrato nel ruolo di giudice, ora legge i capi di imputazione e la richiesta del pubblico ministero: “si chiede la condanna dell’intelligenza artificiale ad uno stato di libertà vigilata condizionata sotto il controllo umano che preveda, prima del rilascio di ogni applicazione, un assessment con analisi di impatto”.

I CAPI D’IMPUTAZIONE

Gli algoritmi non sono neutrali: il rischio di discriminazione è elevato

L’ACCUSA, con riferimento alle analisi contenute nel libro di Cathy O’Neil “Armi di Distruzione Matematica”, sostiene che l’uso degli algoritmi aumenta le disuguaglianze perché essi hanni in sé il gene della discriminazione. A titolo di esempio, cita il caso Compas dove, in una corte distrettuale statunitense, il giudice, per decidere l’entità della pena da comminare, ha utilizzato un algoritmo predittivo di valutazione del rischio di recidiva dell’imputato. Questo ha presentato ricorso contro la sentenza, sostenendo di non aver ricevuto un equo trattamento, in quanto ha ritenuto che l’algoritmo fosse discriminante e punitivo per gli uomini di colore. Anche se le analisi a posteriori hanno confermato la sua ipotesi, il ricorso è stato respinto sulla base dell’assunto che la decisione non è stata presa dall’algoritmo, ma dal giudice che lo ha utilizzato per supportare la propria autonoma decisione.

La DIFESA, in evidente contrasto, afferma categoricamente che il fatto – ovvero l’accusa di discriminazione da parte degli algoritmi – non sussiste. Gli algoritmi non sono intelligenti – sostiene – e si limitano ad eseguire esattamente ciò che l’uomo chiede loro di fare: l’intelligenza artificiale non ha caratteristiche diverse dal funzionamento degli algoritmi tradizionali e non vi è nulla di casuale.

COMMENTO

Io non concordo con la difesa. In altre occasioni ho sostenuto la problematicità indotta dalle applicazioni di machine learning per le quali, a differenza degli algoritmi tradizionali, non è sempre possibile spiegare i risultati. Inoltre, queste sono soggette al fenomeno dell’algorithmic bias. In breve, un algoritmo di questo tipo impara, come l’uomo, dall’esperienza, che in questo caso proviene dai dati che gli vengono proposti in input. Questi potrebbero non essere rappresentativi della globalità del fenomeno che si vuole indagare, limitandosi a riflettere le sole caratteristiche di quanto contenuto nelle banche dati, ovvero di una società generalmente occidentale fatta di uomini di pelle bianca, con la conseguenza di esiti discriminatori verso le minoranze linguistiche, culturali, di colore e di genere. In altri termini, l’impiego dell’intelligenza artificiale porta con sé necessariamente uno schema culturale, che scaturisce dai dati usati per l’addestramento dei modelli di base. Ampia letteratura sostiene quindi che il fatto sussiste! (per approfondire, un paio di esempi molto brevi qui e qui).

Algoritmi e big data sono facilitatori e moltiplicatori di oligopoli di mercato

L’ACCUSA invoca l’esempio di Google: chi possederà gli algoritmi più efficaci occuperà in tempi brevissimi posizioni di mercato non contendibili, e questo non avrà effetti solo commerciali, ma anche a livello sociale e politico. Vladimir Putin ha affermato che l’intelligenza artificiale è il futuro dell’umanità e che chi possiederà l’algoritmo più potente sarà padrone del mondo. In accordo con questa affermazione, Elon Musk ha sostenuto che la competizione in questo campo, con principali protagonisti Russia, Stati Uniti e Cina, sarà la causa più probabile di una terza guerra mondiale. Il vero problema – ribadisce l’accusa – è quello degli algoritmi “sbagliati” nelle mani “sbagliate”: l’intelligenza artificiale potrà essere utilizzata per esercitare il proprio predominio sui mercati e sulle persone.

Secondo la DIFESA, sul piano politico nulla cambia rispetto alle guerre condotte con armi tradizionali: ancora una volta, chi avrà lo strumento migliore – in questo caso software e dati – godrà di un vantaggio competitivo. Per quanto riguarda il mercato, poi, il problema esiste perché la politica non ha compreso questo nuovo fenomeno. Qui la difesa conviene che una regolamentazione è necessaria, in modo non dissimile però da come avviene per le attività condotte dalle imprese tradizionali. Purtroppo – conclude – gli interventi della politica sono inesistenti, in parte per ignoranza e in parte per miopia.

COMMENTO

Io spero che non si arrivi mai a combattere una terza guerra mondiale – anche se oggi molti leader politici fanno di tutto per tornare al passato. Inoltre, non credo molto in questo tipo di previsioni e di profeti. Sembra però assodato che, qualora la profezia di Musk si avverasse, le cosiddette “armi digitali” avranno un ruolo importante, se non decisivo.

Per quanto riguarda i mercati, non posso che ribadire quanto ho già riportato in un precedente articolo: nel libro di George Dyson, Turing’s Cathedral , è scritto: “Facebook definisce chi siamo, Amazon definisce cosa vogliamo, Google definisce cosa pensiamo. Si può estendere questa affermazione per includere la finanza che definisce cosa abbiamo (almeno materialmente) e la reputazione, che sempre di più definisce le opportunità cui possiamo accedere. In ogni settore i leader ambiscono a prendere le loro decisioni in assenza di regole, di necessità di richieste o spiegazioni. Se otterranno i loro risultati, le nostre libertà fondamentali e le nostre opportunità saranno delegate a sistemi guidati da valori che andranno poco oltre l’arricchimento di top manager ed azionisti”. Forse le aziende citate cambieranno, in nome e natura, ma temo che se non si interverrà con regolamentazioni e legislazioni efficaci, esisterà sempre un numero limitato di queste a guidare il mercato in condizioni di monopolio.

Ma gli oligopoli sui dati non rappresentano un pericolo solo per la democrazia e il mercato, ma anche per la ricerca scientifica. Riprendo qui una riflessione suggerita da Mario Rasetti a una recente conferenza. Il progresso scientifico è stato sostenuto da persone – gli scienziati – e da un metodo – quello scientifico – che ha garantito negli anni un approccio rigoroso alla conoscenza della realtà in modo oggettivo, verificabile e condivisibile. Questo si basa sulla raccolta di dati empirici che consentano di verificare le ipotesi date in modo da associare la sperimentazione al modello matematico definito. Nella storia dell’umanità gli scienziati hanno sempre avuto la disponibilità dei dati necessari per le proprie ricerche. Oggi, all’epoca dei big data, questo non è sempre vero. E cosa accade se la scienza non ha i dati necessari alle proprie sperimentazioni e li deve chiedere o acquistare da pochi soggetti privati? Questa credo sia una delle grandi domande su cui la politica globale deve iniziare a riflettere per dare risposte convincenti.

Gli algoritmi sono chiusi in scatole nere dove “code is law”

L’ACCUSA riprende ancora una volta il caso Compas: l’imputato, in sede di ricorso contro l’uso dell’algoritmo utilizzato per stabilire l’entità della pena, ha chiesto di poter conoscere la sua logica di funzionamento. La società produttrice non la ha rivelata, invocando la protezione del segreto industriale.

Ora ci porta un altro esempio, questa volta nel campo dei veicoli a guida autonoma: il progetto Moral Machine del MIT, che ci invita a riflettere su come le macchine – possiamo estendere il concetto agli automatismi in genere – debbano agire se poste di fronte ad un dilemma morale. Nel causo dell’auto, di fronte ad una situazione critica, si vuole privilegiare la sicurezza dei passeggeri o la salvezza dei passanti? Cosa accade, ad esempio, se i freni si rompono ed il controllo della guida deve prendere una decisione istantanea? L’auto deve procedere diritta andando ad infrangersi contro una barriera, procurando serie conseguenze ai suoi occupanti, inclusa la possibile morte, o sterzare bruscamente e investire delle persone che camminano sull’altro lato della strada, lasciando così incolumi i passeggeri? E quale sarà la decisione quando, accorgendosi che inevitabilmente si dovrà investire qualcuno sulle strisce pedonali, si dovrà scegliere se colpire un anziano, o un bambino, o un disabile, o più semplicemente, scegliere tra un uomo e una donna? In generale, può un’auto a guida autonoma comportarsi secondo parametri sociali e morali? (qui si può leggere un breve approfondimento sul progetto Moral Machine). L’accusa sostiene che chi nel futuro acquisterà un’auto autonoma avrà tutto l’interesse di chiedere informazioni su come è stato programmato l’algoritmo di controllo della guida. E chi mai acquisterà un’auto se non sarà sicuro che questo è stato programmato per difendere il conducente e gli occupanti della vettura?

La DIFESA afferma che il problema della proprietà intellettuale esiste e che questa va preservata al fine di non distruggere interi comparti industriali. Ammette però che in alcuni casi, come quello dell’auto citato dall’accusa, alcune funzioni devono essere regolate: l’acquirente dovrà essere sempre consapevole di cosa lo aspetta a fronte delle sue scelte di acquisto.

COMMENTO

Io non posso che essere a favore dell’accusa: molte volte ho sottolineato il tema della “scatola nera” e il dilemma morale evidenziato dal progetto Moral Machine. Ma è importante soprattutto affrontare il primo aspetto. Qui il movimento open source può ancora avere un ruolo importante nello sviluppo di iniziative che inducano a mantenere il codice aperto e disponibile. Questo ha funzionato nello sviluppo delle applicazioni in campi complessi e critici, come ad esempio il cloud computing e il big data, convincendo di fatto le grandi aziende di software, anche quelle inizialmente riluttanti, a investire in progetti aperti spingendo la collaborazione e beneficiandone poi nello sviluppo dei propri prodotti dove, su una base aperta comune, hanno inserito la propria declinazione specifica – gli americani dicono la propria secret sauce – operando così secondo una logica di coopetition. Segnali di interesse dell’open source al tema dell’intelligenza già si vedono, ad esempio con il progetto DeepMind. Ma non credo che questo sarà sufficiente. Sia per la complessità intrinseca delle applicazioni, dove la logica, che comprende sia software, sia dati, in molti casi si trasforma in modo che sia complicato comprenderne il funzionamento, sia perché in questo campo l’attenzione alla protezione del segreto industriale è più elevata. Probabilmente sarà opportuno affiancare a queste iniziative l’intervento di enti terzi di certificazione che, all’interno delle aziende produttrici, pur proteggendo la loro proprietà intellettuale, attestino che le applicazioni di intelligenza artificiale rispettino regole, legislazioni ed aspetti etici condivisi, sciogliendo così di fatto i dubbi legati alla “chiusura della scatola”.

Il processo non finisce qui. Altri capi di imputazione sono da discutere.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here