Fondazione per la Sostenibilità Digitale presenta il “Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale”

La sostenibilità dell’Intelligenza artificiale e l’Intelligenza artificiale per la sostenibilità: come fare dell’AI uno strumento di sviluppo sostenibile? Risponde il “Manifesto” della Fondazione per la Sostenibilità Digitale

La Fondazione per la Sostenibilità Digitale – la prima Fondazione di ricerca riconosciuta in Italia dedicata ad approfondire i temi della sostenibilità digitale – ha annunciato, ieri pomeriggio, il lancio del “Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale”, il Position Paper sull’Intelligenza Artificiale (AI) e la Sostenibilità: il documento che vuole essere una guida per approcciare l’AI in modo consapevole, responsabile e sostenibile.

Ciò che è accaduto a Tom Hanks – che si è trovato protagonista di uno spot pubblicatario che ha usato la sua immagine realizzata con l’intelligenza artificiale, a sua insaputa –  mette in luce una condizione che potrebbe diventare sempre più comune e che non riguarderà solamente persone VIP, politici e personaggi pubblici ma anche, e sempre di più, il pubblico in generale.

L’evoluzione dei sistemi di Intelligenza Artificiale dedicati, semplici ed economici, spingerà la diffusione di tecniche di deep fake e quindi la realizzazione di video “falsi” non distinguibili da quelli originali, in cui vero e falso si sovrappongono. Per affrontarlo sono necessari tre elementi: la normativa, e grazie all’AI act le Intelligenze Artificiali devono rispettare rigorosi criteri; la cultura, attraverso programmi culturali capillari e generalizzati che creino cittadini consapevoli e informati; la tecnologia. Così come l’AI può generare deep fake, l’AI deve poter generare algoritmi che li smascherino e che diano la possibilità all’utente di comprendere la natura delle immagini che appaiono sul video.

Il Manifesto serve proprio ad analizzare sfide ed opportunità dell’AI in rapporto alla società e, nell’ultima parte del documento, identificare, per ciascun SDG (Sustainable Development Goal), quelle caratteristiche dell’AI che più di altre contribuiscono alla realizzazione dei singoli obiettivi di SDG. Partendo dall’assunto che l’AI è entrata in una fase di impatto di massa, coinvolgendo non solo utenti, ma anche istituzioni pubbliche e private, il Position Paper si pone come obiettivo quello di collocare l’AI in un contesto di sostenibilità digitale, fornendo una visione chiara dei principi e delle caratteristiche che dovrebbero guidare lo sviluppo e l’adozione di questa tecnologia. Non si tratta di limitare l’AI, ma di massimizzarne i benefici nel rispetto dei principi di sostenibilità.

“È fondamentale, per ciascuno di noi, approfondire la conoscenza di queste tecnologie per potere comprendere le loro potenzialità”, ha dichiarato Marzio Bonelli, CIO di MM. “Scopriremmo quanto l’attuale Intelligenza Artificiale, anche quella generativa, non sia in grado di inventare nulla di nuovo ma sia un potente articolatore di una conoscenza esistente in grado di scoprire relazioni deboli che sfuggono alla nostra mente. Scopriremmo quanto gli algoritmi possono stravolgere nel mondo del lavoro i modelli di business, ma anche quanto essi siano condizionabili, consapevolmente o inconsapevolmente, da chi li ha generati, e quanto sia importante riconoscere tale rischio per interpretare correttamente i risultati che l’AI ci propone, approcciando a questa tecnologia in modo costruttivo e consapevole, senza pregiudizi.”

Il Position Paper si sviluppa in tre sezioni principali: la prima contiene la descrizione del dominio dell’AI e la sua definizione, la seconda fa riferimento ai criteri e ai principi che devono essere considerati per valutarla ed utilizzarla in modo consapevole, la terza riguarda gli SDG di Agenda 2030 come chiave di lettura per definire i caratteri connotanti per la realizzazione di sistemi e soluzioni AI sostenibili.

Lo sviluppo del manifesto ha visto l’impegno attivo di un gruppo di lavoro differenziato e multidisciplinare, composto tanto dai professori delle Università del nostro network che dagli esperti delle aziende che sostengono la Fondazione” – ha spiegato Stefano Epifani, Presidente della Fondazione per la Sostenibilità Digitale. “Nella riflessione che riguarda il futuro dell’AI la multidisciplinarietà è fondamentale: è stato entusiasmante veder ragionare assieme alcune tra le più brillanti menti che stanno sviluppando riflessioni in quest’ambito ibridando ed unendo visione giuridica (con l’apporto di esperti come Giovanni Battista Gallus e Lara Lazzaroni), con competenze tecnico-scientifiche ed approccio filosofico (con il contributo di studiosi come Tiziana Catarci e Fabio Ciracì). È, questo, il modus operandi della Fondazione, che fa della interdisciplinarità nell’approccio ai problemi collegati alla sostenibilità digitale uno dei suoi punti di forza”.

Criteri di valutazione di sistemi e soluzioni di AI

Nel documento vengono presentati i principi e le caratteristiche necessarie per valutare qualsiasi prodotto realizzato a partire da una Intelligenza Artificiale.

Si parte dall’assunto che l‘AI non deve essere considerata una commodity a cui si accede in modo inconsapevole, ma piuttosto una tecnologia che richiede consapevolezza, competenza e capacità critica. L’obiettivo è utilizzare l’IA per costruire un mondo più sostenibile, affrontando i problemi reali che la società si trova a fronteggiare.

A questo scopo, la Fondazione per la Sostenibilità Digitale ha identificato alcuni criteri, elencati nel Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale, che tutte le organizzazioni (pubbliche e private) dovrebbero utilizzare nello sviluppo e adozione di sistemi di AI:

  1. Rispetto dei diritti fondamentali: I sistemi AI devono essere progettati fin dall’inizio per garantire il rispetto della dignità umana e dei diritti fondamentali, come definiti dalla Carta dei diritti fondamentali dell’Unione europea e della Convenzione europea dei diritti dell’uomo.
  2. Privacy: L’AI deve rispettare i criteri ed i principi in tema di protezione dei dati personali, garantendo agli utenti il pieno controllo dei propri dati.
  3. Trasparenza: L’Intelligenza Artificiale deve basarsi su criteri di trasparenza sia per quanto attiene i dati di training e le fonti di riferimento, che per ciò che riguarda le logiche e gli algoritmi adottati.
  4. Non discriminatorietà: L’Intelligenza Artificiale non deve creare disparità di trattamento tra soggetti o gruppi di soggetti, tanto generati da bias algoritmici derivanti dai dati di training quanto da scelte progettuali.
  5. Sicurezza: I sistemi AI devono garantire la confidenzialità, integrità e disponibilità delle informazioni, tenere in considerazione i possibili rischi derivanti dalle interazioni con le persone e con gli altri sistemi, e prevedere meccanismi di sicurezza fin dalla progettazione, per garantire che siano sicuri in modo verificabile in ogni fase.
  6. Interoperabilità: L’AI non deve creare nuovi “walled gardens” ma deve basarsi su standard e protocolli aperti, in grado di garantire in maniera ottimale lo scambio e il riutilizzo delle informazioni.
  7. Portabilità: L’utente deve avere la possibilità di esportare i propri dati (non soltanto quelli personali) in un formato strutturato e trasferirli, anche in maniera automatizzata, da un sistema all’altro.
  8. Accessibilità: I sistemi di Intelligenza Artificiale devono garantire, fin dalla fase di progettazione e nelle fasi successive, l’accesso alle persone con disabilità, su base di uguaglianza e “senza lasciare indietro nessuno”.
  9. Revoca: Deve essere garantita la possibilità di un’efficace supervisione umana, che possa incidere ove necessario su processi e azioni governati o eseguiti dall’AI.
  10. Riconoscibilità: Gli utenti devono essere messi in condizione, in maniera semplice e intuitiva, di sapere che stanno interagendo con un sistema di AI. Anche i prodotti dell’AI devono essere chiaramente identificati, con sistemi standard e interoperabili.
  11. Proporzionalità del rischio: Nello sviluppo dell’Al deve esistere un rapporto di proporzionalità tra i modelli di implementazione, le dinamiche di utilizzo ed i processi regolamentari in relazione alla portata dei rischi che possono essere generati dalla sua adozione.
  12. Efficienza energetica: I sistemi di AI devono essere progettati tenendo in considerazione l’impatto ambientale generato tanto nelle fasi di addestramento che di esercizio ed utilizzo da parte dell’utenza.

I criteri indicati dal position paper sono funzionali a stabilire una scala di valutazione dei sistemi e soluzioni di AI e non possono prescindere dall’ambito di utilizzo degli stessi.

Come l’AI contribuisce a raggiungere gli Obiettivi di Sostenibilità (SDG)

Un aspetto cruciale dell’AI è la sua crescente importanza nella realizzazione degli obiettivi di sostenibilità stabiliti da Agenda 2030 delle Nazioni Unite. L’AI offre soluzioni innovative per affrontare sfide globali come il cambiamento climatico, la povertà, la salute pubblica e l’uguaglianza di genere.

Raggruppando gli SDG in 3 macrocategorie, Benessere e Sostenibilità Sociale (SDG 1, 2, 3, 4, 5, 8 e 10), Innovazione e Sostenibilità Ambientale (SDG 6, 7, 9, 11, 12, 13, 15) e Pace, Giustizia e Istituzioni solide (SDG 16 e 17), si può osservare come l’AI, nelle sue caratteristiche specifiche può impattare il raggiungimento degli obiettivi di ogni singolo SDG:

  • Gruppo Benessere e Sostenibilità sociale: questo gruppo di SDG risulta essere quello maggiormente sensibile alle caratteristiche intrinseche e di finalità di sistemi e soluzioni di AI. L’aspetto non discriminatorio dell’AI, come l’attenzione ai bias di genere nella fase di learning favorisce l’inclusione e la promozione dell’uguaglianza (SDG5), riducendo allo stesso tempo le disuguaglianze (SDG10). L’interoperabilità e la portabilità sono fondamentali per il SDG3 in quanto la possibilità di scambio dati in tempo reale tra più soluzioni di AI. La loro semplicità di adozione invece può essere determinante per la salvezza di vite umane. Il diritto di revoca dell’azione e il controllo umano sugli algoritmi possono evitare effetti indesiderati che, per rilevanza, impattano maggiormente sempre sul SDG3. L’accessibilità è una caratteristica che riduce le disuguaglianze e deve essere un punto di riferimento per tutte le tecnologie digitali che devono tendere a favorire l’inclusione. Infine, le caratteristiche di impatto ambientale fanno riferimento in modo particolare al SDG3 in quanto una AI sostenibile, che opera in modo ottimizzato, contenendo il consumo di risorse computazionali ha un impatto positivo sull’ambiente e di conseguenza sulla salute e il benessere delle persone.
  • Gruppo Innovazione e Sostenibilità ambientale: questo gruppo di SDG è l’unico che risulta essere influenzabile in modo pervasivo, e questo conferma il ruolo portante dell’AI nel percorso di sviluppo e innovazione. L’AI può infatti contribuire alla riduzione dell’impatto ambientale delle attività industriali, ad esempio, ottimizzando l’efficienza energetica nei processi industriali o dando indicazioni in merito alle perdite di acqua. Attraverso il monitoraggio e l’analisi dei dati i processi gestiti attraverso l’AI possono promuovere un uso più sostenibile delle risorse (SDG6 e 7). Le caratteristiche tecniche sono fondamentali per il SDG9 (Innovazione ed Infrastrutture) poiché si tratta di requisiti impliciti. SDG11 (Città e comunità sostenibili) può essere raggiunto attraverso lo sviluppo di mobilità intelligenti, come sistemi di trasporto condiviso e ottimizzazione del traffico. Contribuendo quindi a ridurre le emissioni di gas serra e migliorare la qualità dell’aria nelle aree urbane. I dati prodotti e gestiti dalle AI possono essere utilizzati per comprendere i processi legati al cambiamento climatico e per sviluppare di conseguenza nuovi modelli di previsione del clima contribuendo a migliorare la resilienza delle comunità e ad affrontare i rischi ambientali (SDG13).
  • Gruppo Pace, Giustizia e Istituzioni solide: questo gruppo di obiettivi SDG risulta influenzato da alcune delle caratteristiche dell’AI, in particolare quelle intrinseche e di finalità. Il SDG16 si propone di promuovere società pacifiche, giuste e inclusive. Una AI non discriminatoria e progettata in modo etico consente l’implementazione di sistemi e algoritmi che evitano discriminazioni basate su caratteristiche come l’etnia, il genere o la religione. L’AI può aiutare a garantire equità e giustizia nel processo decisionale, promuovendo un trattamento imparziale di tutte le persone, indipendentemente dalle loro caratteristiche personali. L’aspetto “inclusivo” dell’AI favorisce la coesione sociale e la fiducia tra i diversi gruppi della società, contribuendo ad eliminare pregiudizi o stereotipi, a ridurre le tensioni sociali e a promuovere la collaborazione e la costruzione di comunità pacifiche. Per quanto concerne invece l’SDG17 (Partenariato per gli obiettivi generali), abbiamo osservato negli ultimi anni come l’AI stia trasformando diversi settori e richieda un’adeguata preparazione per poter affrontare le sfide e cogliere le opportunità che essa presenta. La literacy consente alle persone di sviluppare competenze per utilizzare l’AI in modo efficace e responsabile, promuovendo l’innovazione e la sostenibilità.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here