“Se si pensa che la superintelligenza sarà un bene o un male dipende molto dal fatto che si è ottimisti o pessimisti. Se si chiede alle persone di stimare il rischio che accadano cose brutte, ad esempio qual è la probabilità che qualcuno della propria famiglia si ammali gravemente o venga investito da un’auto, un ottimista potrebbe dire il 5% e un pessimista potrebbe dire che è garantito che accada. Ma una persona leggermente depressa dirà che le probabilità sono forse intorno al 40%, e di solito ha ragione”.
Queste è quanto afferma Geoffrey Hinton, vincitore, insieme a Yann LeCun e Yoshua Bengio, del Turing Award 2018 per il suo lavoro sul Deep Learning, nella sua bella intervista alla MIT Technology Review, che ha preceduto di poco (4 giorni) la sua decisione di licenziarsi da Google per dedicarsi a quello che lui chiama un „lavoro più filosofico“ incentrato “sul piccolo ma – per lui – molto reale pericolo che l’IA si riveli un disastro“.
Vale forse la pena di aggiungere che quando l’intervistatore ha chiesto a Hinton come si sentisse lui, Hinton ha risposto “Sono leggermente depresso”, dice. “Ed è per questo che ho paura”.
Credo che queste parole illustrino bene quanto le emozioni, e in particolare la paura, stiano influenzando l’attuale dibattito sull’AI e sulla sua più recente creatura il ChatGPT. Naturalmente le emozioni non sono gli unici fattori a giocare un ruolo nella controversia. Vanno considerati innanzitutto gli aspetti etici, tecnologici, ma anche quelli epistemologici. Come rileva infatti Luca De Biase “vi sono due modelli di sviluppo per l’intelligenza artificiale. Il primo è quello che si concentra sulla concorrenza tra aziende: in questo contesto l’intelligenza artificiale è considerata una tecnologia controllata da chi l’ha realizzata e quindi sviluppata nell’ambito della competizione tra aziende” motivo per cui i tempi devono essere veloci e la persuasione degli utenti prevale sulla valutazione dei rischi. Il secondo modello di sviluppo vede invece “l’AI dal punto di vista della ricerca scientifica” per cui “gli studiosi lavorano in un atteggiamento di collaborazione, si scambiano conoscenze, pubblicano risultati sperimentali, aumentano la consapevolezza della società sulla struttura della conoscenza emergente dai loro studi”.
Anche tra i ricercatori tuttavia emozioni e impulsi antropomorfizzanti non mancano, come dimostra un lavoro di Michal Kosinski, professore alla Stanford University, psicologo computazionale e psicometrista, “interessato allo studio della psicologia di Al”. Nel suo articolo riferisce di aver sottoposto le diverse generazioni di ChatGPT ad esercizi originariamente utilizzati per mettere alla prova la teoria della mente (ToM) degli esseri umani, la nostra capacità cioè di attribuire all’altro stati mentali non osservabili. Tale proprietà è in effetti di fondamentale importanza per la comunicazione, le interazioni sociali umane, e per tutte le attività cognitive superiori che implichino un rapporto con gli altri. La ricerca di Kosinski ha evidenziato che “i modelli di GPT pubblicati prima del 2020 non hanno praticamente alcuna capacità di risolvere compiti di ToM. La prima versione di GPT-3 (“davinci-001”), pubblicata nel maggio 2020, ha risolto circa il 40% dei compiti di falsa credenza, con prestazioni paragonabili a quelle di bambini di 3,5 anni. La seconda versione (“davinci-002”; gennaio 2022) ha risolto il 70% dei compiti di falsa credenza, con prestazioni paragonabili a quelle di bambini di sei anni. La sua versione più recente, GPT-3.5 (“davinci-003”; novembre 2022), ha risolto il 90% dei compiti di falsa credenza, al livello dei bambini di sette anni. Il GPT-4, pubblicato nel marzo 2023, ha risolto quasi tutti i compiti (95%). Kosinski giunge alla conclusione che tale abilità simile alla ToM (finora considerata esclusiva dell’uomo) potrebbe essere emersa spontaneamente come sottoprodotto del miglioramento delle competenze linguistiche dei modelli linguistici del ChatGPT.”
Kosinski ipotizza infatti che “la capacità di ToM non debba essere inserita esplicitamente nei sistemi di IA ma al contrario, potrebbe emergere spontaneamente come sottoprodotto dell’addestramento dell’IA per raggiungere altri obiettivi”, come già accaduto per altre funzioni. Egli cita l’esempio di “modelli addestrati a elaborare immagini che hanno imparato spontaneamente a contare e a elaborare in modo differenziato aree centrali e periferiche dell’immagine, oltre a sperimentare illusioni ottiche simili a quelle umane”.
In effetti si ritiene che anche negli esseri umani “la ToM sia probabilmente emersa come un sottoprodotto dell’aumento delle capacità linguistiche , come indicato dall’elevata correlazione tra ToM e attitudine linguistica, dal ritardo nell’acquisizione della ToM in persone con un’esposizione linguistica minima e dalla sovrapposizione delle regioni cerebrali responsabili di entrambe”. Da un punto di vista evoluzionistico, si ritiene infatti che “le capacità di comprendere intenzioni, emozioni e intenzioni degli altri possano essersi evolute perché la selezione naturale ha favorito gli individui motivati a entrare in empatia con altri e occuparsi delle loro interazioni sociali” (Seyfarth, R.M., & Cheney, D.L. (2013). Affiliation, empathy, and the origins of theory of mind. Proceedings of the National Academy of Sciences, 110, 10349 – 10356). Tali abilità, tra l’altro spiccatamente femminili, vengono infatti ritenute adattive perché “essenziali per formare legami sociali forti e duraturi, che a loro volta migliorano il successo riproduttivo”.
La capacità del ChatGPT di nuova generazione di dimostrare caratteristiche simili o, fino a un cero punto, uguali a quelle umane nella comprensione degli stati mentali altrui non osservabili è senza dubbio interessante proprio perché richiede capacità linguistiche complesse che si trasformano poi in abilità logiche e al tempo stesso psicologiche altrettanto complesse. Proviamo a fare un esempio. Per interpretare correttamente la frase “Maria crede che Giovanna pensi che Gennaro sia felice”, è necessario comprendere il concetto di “stato mentale” (ad esempio, “Maria crede” o “Giovanna pensa”); che i protagonisti possono avere stati mentali diversi e che i loro stati mentali non rappresentano necessariamente la realtà (ad esempio, Gennaro potrebbe non essere felice o Giovanna potrebbe non pensarlo davvero). Gli ideatori del ChatGPT possono dunque essere a buona ragione orgogliosi del loro lavoro e noi a loro grati.
Dobbiamo però stare attenti a non lasciarci trarre in inganno, cadendo in false credenze simili a quelle con cui si testa la ToM. E le trappole sono molteplici. Il fatto che la dimostrata abilità del ChatGPT sia “simile alla ToM (finora considerata esclusiva dell’uomo)” e possa “essere emersa spontaneamente (corsivo mio) come sottoprodotto del miglioramento delle competenze linguistiche dei modelli linguistici del ChatGPT” non ci deve indurre ingannevolmente a pensare che che il ChatGPT sviluppi autonomamente un pensiero. Come scrive Stefano Epifani in un suo Tweet “Questa storia dei comportamenti delle #AI ci sta sfuggendo di mano. Abbiamo sviluppato un sistema costruito perché riproducesse il linguaggio “sembrando pensante” e lo abbiamo fatto così bene che qualcuno si convince che abbia caratteristiche “emergenti” proprie del pensiero…”
Il rischio è insomma quello, tipicamente umano, e tipicamente rivelato dalla psicoanalisi, di proiettare caratteristiche proprie su quello che ci sta dinnanzi. Fino ad ora i nostri interlocutori erano umani, animali, piante e minerali. Ora sono anche Robot e programmi di intelligenza artificiale. Se fino ad ora avevamo antropomorfizzato animali, scorto magie nelle piante e nelle pietre, creato dei e diavoli, nulla è più facile che attribuire caratteristiche umane a computer e robot, che sembrano rispecchiarci. Non a caso, visto che li abbiamo creati noi.
In effetti, come scrive Luca De Biase facendo riferimento al libro dello storico Simone Natale, Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale (Einaudi 2022), “la struttura dell’automazione cognitiva è progettata proprio per simulare una capacità di interazione tra umani e macchine, con la conseguenza che in qualche modo le macchine ingannano gli umani e appaiono come veri e propri interlocutori.” A maggior ragione dobbiamo scongiurare la “tentazione di considerare quella tecnologia come una sorta di entità, in grado di volere qualcosa, o comunque di avere una propria personalità” (ibidem). Dobbiamo piuttosto fare i conti con un Inconscio digitale che è solo nostro e ricordare sempre, come scrive Massimo Chiaratti, che di fronte abbiamo invece una incoscienza artificiale
L’abilità del ChatGPT di risolvere compiti ToM ci deve piuttosto indurre a riflettere ulteriormente sulle nostre peculiari abilità umane, che, evidentemente, vanno al di là della ToM. Noi umani abbiamo infatti a disposizione diversi sistemi per comprendere cosa succede dentro di noi e dentro gli altri e valutare dunque il significato del comportamento nostro e altrui. Tali sistemi si muovono in un continuum che va dalle emozioni più fisiche ai pensieri più astratti, dall‘affettività alla cognizione che ne rappresentano i due poli. Secondo i più recenti studi di neuro-Imaging funzionale (RMIf) tre sistemi neuronali sarebbero sarebbero alla base di tali nostre capacità (Martin Debbané, Mentalizzazione Dalla teoria alla pratica clinica): il sistema limbico, il sistema dei neuroni specchio e il sistema di mentalising nel senso cognitivo del termine. Il sistema limbico, (amigdala, talamo, ipotalamo e altri centri cerebrali) che condividiamo con i mammiferi, è il sistema di produzione ed elaborazione per eccellenza delle nostre emozioni, importantissimi segnali che ci informano in modo velocissimo ma non sempre accurato su cosa succede dentro e fuori di noi. Il sistema dei neuroni specchio (regioni frontali e parietali laterali, regioni mediali e insula) sarebbe responsabile della simulazione automatica che scatta alla semplice vista di un movimento o di un’espressione dell‘altro da cui è percepibile un’intenzione. Si tratta dunque di un sistema che ci consente di comprendere e attribuire spontaneamente, automaticamente all’altro emozioni e intenzioni. Peraltro la funzione principale del sistema dei neuroni specchio sarebbe in riferimento ai processi incarnati del riconoscimento di sé (embodied emotion). Infine il sistema del mentalising cognitivo (corteccia prefrontale mediale e giunzioni temporo-parietali) riunisce le aree cerebrali destinate soprattutto al trattamento dell’informazione astratta e simbolica riguardante gli stati mentali di sé e degli altri. Quest’ultimo sarebbe quello più direttamente responsabile della ToM, della comprensione cioè degli altri sulla base soprattutto delle competenze linguistiche.
Noi umani siamo dunque molto altro che il ChatGPT, e proprio per questo abbiamo la tendenza a proiettare, molto umanamente, su quest’ultimo le nostre emozioni.
Facebook Comments