Il Lungotermismo, non l’Intelligenza Artificiale, è la vera minaccia con cui dover fare i conti

Il lungotermismo, è un neologismo coniato dall’inglese "longtermism" che indica una forma di razionalismo talmente spinto all’eccesso da divenire una specie di religione laica tutt’altro che compassionevole e solidaristica

Immagine distribuita da Pixabay con licenza CCO

Non un tweet ma una lettera aperta, pubblicata per di più non da lui stesso ma da altri e insieme ad altri 999. Già questo suona un po’ strano per un personaggio come Musk, il cui massimo grado di socievolezza sembra consistere nell’acquisto di un social. Mi riferisco naturalmente alla nota lettera aperta che a fine marzo Elon Musk insieme a 1000 tra ricercatori, manager, esperti del settore informatico ha firmato per mettere appunto in guardia l’umanità dai pericoli dell’intelligenza artificiale. La lettera è stata pubblicata dal Future of Life Institute, un’organizzazione definita dalle cronache senza scopo di lucro. Nel testo si chiedeva uno stop di almeno sei mesi allo sviluppo di sistemi di intelligenza artificiale quali chatGPT al fine di deliberare più stringenti regole di controllo ed evitare pericoli derivanti dall’AI che venivano descritti come gravi se non addirittura apocalittici. In tanti abbiamo pensato che a motivare Musk fosse, più che l’altruismo, qualità non proprio peculiare del magnate, la concorrenza con open AI. Se però è vero, come qualcuno non privo di ingegno sosteneva tempo fa, che il mezzo è il messaggio, vale la pena di porsi qualche domanda sul Future of Life Institute, che ha pubblicato la lettera e che risulta essere un think tank lungotermista.

Cos’è il lungotermismo? 

Il lungotermismo, della cui esistenza ho appreso da un amico la cui curiosità va di pari passo con l’acume, è un neologismo coniato dall’inglese longtermism per indicare una forma di razionalismo talmente spinto all’eccesso da divenire una specie di religione laica tutt’altro che compassionevole e solidaristica. Ne dà conto molto approfonditamente il Tascabile Treccani che ne descrive l’origine, l’evoluzione e le diverse forme e anche i suoi pericoli così come un articolo decisamente critico di Vox. 

Decisamente più benevolo verso il lungotermismo è, comprensibilmente, uno dei suoi fondatori, William MacAskill, professore associato di filosofia all’Università di Oxford e co-fondatore del Centro per l’altruismo efficace (Effective Altruism, Giving What We Can and 80,000 Hours) nonché autore di un nuovo libro sul lungotermismo “What We Owe the Future”, che riassume il suo pensiero sul tema in un articolo per la BBC.

L’idea di partenza dell’altruismo efficace è in definitiva la convinzione, tutt’altro che irrazionale, secondo la quale nello svolgere un’attività di beneficenza non dobbiamo lasciarci influenzare dalla maggiore o minore vicinanza a noi delle persone bisognose di aiuto ma essere guidati invece da criteri esclusivamente razionali, “affrontando i più grandi problemi di oggi – dalla malaria alla povertà estrema e altro ancora – in maniera rigorosa e valutando quantitativamente il loro effettivo impatto”.

Abituati, in particolare noi italiani, alla retorica dei sentimenti, non vorremo certo biasimare il filosofo scozzese per un po’ di sano empirismo e pragmatico razionalismo.

Procediamo dunque non prevenuti alla scoperta del lungotermismo. Così come non dobbiamo lasciarci influenzare dallo spazio che ci separa dalle persone bisognose, non dobbiamo lasciare che neanche il tempo si traduca in una discriminante negativa. “Così come dovremmo preoccuparci delle vite delle persone che sono lontane da noi nello spazio, dovremmo preoccuparci delle persone che sono lontane da noi nel tempo – quelle che vivono nel futuro” – sostiene Will MacAskill. Come dargli torto? A maggior ragione se siamo abituati a pensare, o almeno ci sforziamo di farlo, in termini di sostenibilità, che la Commissione Brundtland delle Nazioni Unite ha definito come l’attitudine a “soddisfare i bisogni del presente senza compromettere la capacità delle generazioni future di soddisfare i propri bisogni”. Will MacAskill precisa tuttavia che i lungotermisti non si accontentano di pensare a nipoti e pronipoti ma si vogliono prendere cura di tutte le generazioni che verranno dopo di noi, il ché, bisogna ammettere, è uno sforzo di altruismo senza precedenti, quasi messianico. Egli sostiene infatti che “se si potesse impedire un genocidio tra mille anni, il fatto che “quelle persone non esistono ancora” non giustificherebbe l’inazione.”

Qui confesso che qualche perplessità comincia a sorgere nella mia povera mente, abituata a ordini temporali di portata infinitamente minore.

Lungotermismo debole, forte e extra forte

Mi viene allora in soccorso la catalogazione, suggerita da Vox e ripresa dal Tascabile Treccani, secondo la quale “si potrebbe immaginare il lungotermismo come una ferrovia con tre principali stazioni. La prima stazione è quella del “lungotermismo debole”, la seconda del “lungotermismo forte” e l’ultima del “lungotermismo galaxy-brain”. La prima forma di lungotermismo, fondamentalmente, sostiene che dovremmo prestare più attenzione al futuro. La seconda sostiene invece che il futuro di lungo termine è più importante di qualunque altra cosa e dovrebbe essere la nostra assoluta priorità. La terza è invece quella secondo cui dovremmo essere oggi disposti anche ad assumerci dei grossi rischi pur di assicurarci la sopravvivenza dell’essere umano in un futuro remoto.”

Semplificando un po’, potremmo dire che il lungotermismo debole è sostanzialmente sovrapponibile al concetto dì sostenibilità, che peraltro mi sembra non trovare ampio spazio negli scritti lungotermisti. Si sa, le nuove teorie sopportano di malanimo quelle già esistenti e preferiscono ribattezzarle.

Decisamente più preoccupanti appaiono però il lungotermismo forte e quello Galaxy-brain. Ancora più preoccupante il fatto che la distinzione tra le “stazioni” non sembra essere molto chiara nemmeno al fondatore del lungotermismo, Will MacAskill, che, stando all’articolo di Vox, sarebbe preoccupato dal fatto che il treno venga fatto proseguire a dismisura e abbia trovato tra i suoi sostenitori e conduttori proprio lui, sì, Elon Musk, che, nella sua abituale riservatezza, non ne fa mistero.

Se aggiungiamo poi che della lunga lista delle istituzioni lungotermiste fanno parte anche, come candidamente dichiara lo stesso Will MacAskill,  “the Future of Humanity Institute and Global Priorities Institute at the University of Oxford, the Centre for the Study of Existential Risks at Cambridge, the Stanford Existential Risks Initiative, the Future of Life Institute “ il cerchio si chiude e ci consente di comprendere ora perché la lettera aperta di cui si diceva all’inizio sia stata pubblicata dal Future of Life Institute e il lievemente egocentrico Elon Musk abbia accettato che accanto alla sua firma ce ne fossero altre 999.

Lungotermisti forti ed extra forti

Ma cosa sostengono allora i lungotermisti forti ed extra forti?

“Il lungotermismo forte ha … un solo obiettivo: prevenire l’estinzione, evitare che si verifichino rischi esistenziali per l’essere umano, senza dare peso a quanto in là nel tempo potrebbero avvenire. Non solo: anche eventi molto improbabili di un futuro lontano assumono una grande importanza, a discapito magari di problemi che possono sembrare oggi più grandi e urgenti e sicuri” al punto che secondo questa scuola di pensiero – come ha scritto Kieran Setiya – “se potessi salvare un milione di vite oggi o evitare che ci sia lo 0,0001% di probabilità di una prematura estinzione dell’essere umano – una chance su un milione di salvare 8 miliardi di vite – dovresti optare per quest’ultima”.

Altrettanto radicale il filosofo Nick Beckstead, membro del Future of Humanity Institute, che nella sua tesi di dottorato del 2013 scrive: “Salvare vite umane nelle nazioni povere potrebbe essere meno utile che salvare vite nelle nazioni ricche. Questo perché le nazioni più ricche hanno a disposizione innovazioni considerevolmente migliori e i loro lavoratori sono molto più produttivi. Di conseguenza, è plausibile che, a parità di condizioni, salvare una vita in una nazione ricca sia sostanzialmente più importante che salvarne una in un paese povero.”

Parole difficili anche solo da leggere, poiché ricordano da vicino quelle tragiche dell’eugenetica. Un altro lungotermista radicale, Nick Bostrom, sostiene che “un disastro non esistenziale che provochi il crollo della civilizzazione globale sia, dalla prospettiva dell’umanità nel suo complesso, una battuta d’arresto dalla quale si può potenzialmente recuperare. Da questo punto di vista, anche tragedie come Chernobyl o l’AIDS sono semplici increspature sulla superficie del grande mare della vita”.

Parole anche queste che ricordano fin troppo da vicino quelle di remote sette millenariste . Per non parlare delle affermazioni di Jaan Tallinn, fondatore di Skype e cofondatore del think tank lungotermista Future of Life Institute (collegato al Future of Humanity Institute), secondo il quale “il cambiamento climatico non rappresenta un “rischio esistenziale”, poiché non compromette il futuro di una specie umana destinata a colonizzare lo spazio.”

Un altro tema ricorrente dei lungotermisti forti ed extra-forti è poi il pericolo di un’intelligenza artificiale di livello umano che potrebbe mettere a rischio la stessa sopravvivenza della nostra specie. Lo stesso Will MacAskill scrive: “In effetti, diversi indicatori suggeriscono la possibilità che i sistemi di IA superino le capacità umane nel giro di pochi decenni, ed è tutt’altro che chiaro che la transizione verso una tecnologia così trasformativa e generica avverrà in modo positivo. Le persone che si ispirano al lungotermismo stanno quindi lavorando per garantire che i sistemi di AI siano onesti e sicuri.”

E qui non so se preoccuparmi di più per le preoccupazioni dei lungotermisti o per il fatto che siano loro a garantire sistemi di AI “onesti e sicuri”. Visti i soggetti, mi vien da pensare che sistemi di AI lasciati al caso costituiscano forse un rischio minore.

Cupo tardocapitalismo dagli evidenti tratti fascisti e suprematisti

Insomma l’assunto centrale dei lungotermisti sembra essere che niente è eticamente più importante che portare a termine il potenziale di “specie intelligente” che ha avuto  origine sulla Terra” ma che, come afferma anche Musk, deve diventare una specie multiplanetaria per massimizzare la possibilità di sopravvivenza ed evitare che un evento cataclismatico ne causi la scomparsa. Ne deriva inoltre che l’essere umano deve moltiplicarsi il più possibile in ogni luogo del cosmo, ragion per cui il lungotermismo va di pari passo con movimenti come il natalismo, il transumanesimo e con l’esplorazione spaziale.

Non bisogna essere filosofi, mi sembra, per capire che in una siffatta visione del mondo le persone non hanno alcun valore intrinseco ma rappresentano solo un mezzo, totalmente intercambiabile e sostituibile, per il raggiungimento di un fine, la sopravvivenza della specie intelligente. Forse in questo gran prodigarsi per il futuro i lungotermisti di Oxford si sono scordati del passato e di quanto ci suggeriva il buon vecchio Immanuel: “Agisci in modo da trattare sempre l’umanità, così nella tua persona come nella persona di ogni altro, sempre come un fine, e mai come un mezzo.”

È difficile allora non concordare con il severo giudizio che del lungotermismo dà il Tascabile Treccani: “ Il lungotermismo rappresenta in definitiva l’apice di un cupo tardocapitalismo dagli evidenti tratti fascisti e suprematisti. È una visione ammantata di futuro e tecnologia, ma che è invece orribilmente reazionaria e antiquata nel suo estremo antropocentrismo.”

La fragilità umana come premessa dell’etica

Alle convinzioni dei, non a caso, maschi, lungotermisti così intrise di arrogante e narcisistico desiderio di dominio e di illusorio controllo delle sorti umane e del futuro si contrappongono le parole piene di umanità e di consapevole modestia di una filosofa statunitense, Martha Nussbaum che vede l’essenza del buono, dell’essere umano buono, nella capacità di accettare l’insicurezza di base dell’esistenza e di abbracciare l’incertezza. “La condizione per essere buoni – afferma la filosofa – è che sia sempre possibile essere moralmente distrutti da qualcosa che non si può prevenire. Essere un essere umano buono significa avere una sorta di apertura al mondo, una capacità di fidarsi di cose incerte che sfuggono al proprio controllo, il ché può portarti a essere distrutto in circostanze estreme di cui non hai colpa.” Bill Moyers: A World of Ideas.

Paradossalmente, se la nostra capacità di vulnerabilità – e, per estensione, la nostra capacità di fidarci degli altri – può essere ciò che permette alla tragedia di abbattersi su di noi, la tragedia più grande di tutte è il tentativo di proteggersi dal dolore pietrificando quella morbidezza essenziale dell’anima, perché ciò nega la nostra umanità di base.

La premessa per la vita etica, secondo Nussbaum, non è dunque la valutazione astrattamente razionale dell’azione umana, nel corso della quale si perde di vista il volto dell’essere umano e con questo anche il suo cuore, ma l’apertura al mondo e alla sua incertezza, quale quella di una pianta, di un fiore, la cui bellezza non può essere disgiunta dalla sua fragilità.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here