La Mappa dell’Intolleranza: la nostra “asimmetria informativa”

Nel 2001 Joseph Stiglitz ha condiviso con George A. Akerlof e A. Michael Spence il premio Nobel per l’Economia. Questo importante riconoscimento è stato dovuto, in gran parte, al contributo di Stiglitz alla teoria delle asimmetrie informative. Il fulcro di questa teoria è rappresentato dal principio secondo cui, negli scenari in cui l’informazione non è condivisa integralmente tra gli individui facenti parte di un processo, chi possiede maggiori informazioni rispetto agli altri può trarre vantaggio dallo specifico scenario configuratosi.

Sebbene questa teoria non affondi le sue radici in ambito informatico, tantissime evidenze recenti hanno dimostrato la validità di questo principio nelle dinamiche della Rete. Il “possesso” dei dati è diventato oggi un cardine per i principali attori del Web ed il principale motivo di successo nei confronti dei potenziali concorrenti: chi ha a disposizione i dati e riesce a ricavare dagli stessi della
conoscenza può trarre giovamento da questa “asimmetria”.

I principali social network, come ad esempio Facebook, utilizzano l’informazione a propria disposizione (con chi ci relazioniamo, cosa apprezziamo, dove ci troviamo) per decidere quali
contenuti mostrarci e quali nasconderci. Un principio molto simile guida i risultati di ricerca di YouTube e Netflix, che basano le proprie proposte sulla base di un’analisi dei nostri comportamenti,
implicitamente “contenuti” nei dati in loro possesso. Anche Google ad Amazon utilizzano dati e informazioni sugli utenti per personalizzare i risultati di ricerca e indirizzare gli acquisti.

Il principio dell’asimmetria informativa trova applicazione anche in numerosi scenari non digitali: i dati in possesso della polizia di Londra, ad esempio, hanno permesso di sviluppare degli algoritmi di “Predictive Crime Mapping”, orientati a predire e gestire con più efficacia i crimini della città. Allo stesso modo, i dati relativi alla mobilità e ai flussi del traffico hanno permesso di implementare avanzati sistemi di Smart Lighting e Smart Mobility nella città di Amsterdam. Di recente, persino i picchi influenzali sono stati previsti grazie all’analisi delle ricerche effettuate su Google dagli utenti.

Tutti questi scenari hanno un comune denominatore: la capacità di estrarre conoscenza e nuove informazioni da dati grezzi e apparentemente senza significato, come un furto o il passaggio di un’automobile su una strada.

Data is the new oil”, racconta un recente claim di IBM. La conoscenza derivante dall’analisi e l’elaborazione dei dati che viaggiano in Rete è il nuovo petrolio, in virtù delle innumerevoli applicazioni che possono derivare dall’applicazione degli algoritmi su questi dati, ma con una differenza non trascurabile intrinseca alla dimensione immateriale della conoscenza: la sua possibilità di condivisione senza limiti e senza esclusione (“He who receives an idea from me, receives instruction himself without lessening mine; as he who lights his taper at mine, receives light without darkening me. That ideas should freely spread from one to another over the globe, for the moral and mutual instruction of man, and improvement of his condition, seems to have been peculiarly and benevolently designed by nature, when she made them, like fire, expansible over all space, without lessening their density in any point, and like the air in which we breathe, move, and have our physical being, incapable of confinement or exclusive appropriation. Inventions then cannot, in nature, be a subject of property”, Thomas Jefferson, lettera a Isaac Mc Pherson, 13 agosto 1813)

Knowledge is Power”, affermava il filosofo Bacone: oggi, gli algoritmi e i dati rappresentano lo snodo fondamentale dell’intero processo. Trasformare dati grezzi e risalire la piramide della
conoscenza è una delle aspirazioni – sarebbe meglio dire, “l’Aspirazione” – di ogni essere umano, più di qualsiasi altro essere senziente.

Ma quanto vale il mercato dei dati?

Le stime del 2018 sono le seguenti:

  • 54,9 Miliardi di Euro per il mercato europeo
  • 4,6 Miliardi di Euro in Italia, con un incremento rispetto al 2015 dell’8,5% sulla media europea e dell’1,5% per l’Italia.

Nel nostro piccolo, la Mappa dell’Intolleranza (voluta da Vox che, insieme alle università Statale e Cattolica di Milano, Bari e Roma, ha mappato i tweet contro donne, omosessuali, disabili, immigrati, ebrei e musulmani, per fotografare un’Italia intollerante verso le minoranze e le diversità, ndr). rappresenta la “nostra” asimmetria informativa. Rappresenta la “conoscenza” che riusciamo a ricavare dai dati in nostro possesso. Le tecniche di estrazione dati adottate nel progetto, unite a metodologie proprie dell’Intelligenza Artificiale e più specificamente della Linguistica Computazionale e del Natural Language Processing (NLP) utilizzate per l’analisi semantica e l’elaborazione dei Tweet, ci hanno permesso di dare un significato concreto all’informazione latente presente nei numerosi dati grezzi disponibili sul Web.

I circa 5 milioni di Tweet estratti ed analizzati (di cui circa 100 mila geolocalizzati) hanno rappresentato l’input di questo moderno “microscopio”, che ci ha permesso di analizzare in modo
innovativo le dinamiche complesse che caratterizzano fenomeni articolati come quelli legati alla discriminazione delle minoranze.

La conoscenza era già presente nei dati: gli algoritmi ci hanno solo permesso di renderla esplicita!

Facebook Comments

Previous articleLe vittime di software per il mining di criptovalute crescono del 44,5%
Next articleImprese italiane più sostenibili e non lo comunicano
CATALDO MUSTO è ricercatore a tempo determinato (RTD-A) presso l'Università degli Studi di Bari. Ha conseguito il dottorato di ricerca nel 2012 e da Gennaio 2016 è principal investigator del progetto di ricerca "Semantic Holistic User Modeling per l'accesso personalizzato a servizi e contenuti digitali. I temi di ricerca spaziano dalla rappresentazione semantica dell'informazione all'elaborazione del linguaggio naturale, con principale applicazione alle tecniche di user modeling per la personalizzazione e i recommender systems semantici. Ha pubblicato oltre 70 articoli scientifici nelle principali conferenze e svolge regolarmente attività di Program Committee nelle proprie comunità di riferimento. GIOVANNI SEMERARO è professore ordinario di informatica presso l’Università degli Studi di Bari ALDO MORO, dove insegna Intelligent Information Access and Natural Language Pro­cessing (Laurea Magistrale in Computer Science) e Linguaggi di Programmazione (Laurea triennale in Informatica) e guida il gruppo di ricerca Semantic Web Access and Per­sonalization (SWAP) “Antonio Bello”. Nel 2015 è stato insignito di un IBM Faculty Award su Cognitive Computing per il progetto “Deep Learning to boost Cognitive Question Answering”. E’ uno dei fondatori di AILC (Associazione Italiana di Linguistica Computazionale) e fa parte del Comitato Direttivo. E’ nel Comitato di Gestione del Laboratorio CINI Artificial Intelligence and Intelligent Systems istituito a giugno 2018. Dal 2006 al 2011 ha fatto parte del Comitato Direttivo di AI*IA (Associazione Italiana per l’Intelligenza Ar­tificiale). E’ stato visiting scientist presso il Department of Information and Computer Science della University of California at Irvine nel 1993. Dal 1989 al 1991 è stato ricercatore presso Tecnopolis CSATA Novus Ortus. I suoi interessi di Ricerca vertono su machine learning, intelligenza artificiale, recommender systems, user modelling, adaptive systems, intelligent information retrieval e filtering, text mining, semantics e social computing, natural language processing, semantic web, personalization e giochi linguistici..E’ stato principal investigator in numerosi progetti europei, nazionali e regionali. E’ autore di oltre 400 articoli scientifici pubblicati in riviste internazionali, testi ed atti di conferenze e workshop internazionali. Il suo indice di Hirsch (h-index) è pari a 35 ed il suo i10-index è 120 secondo Google Scholar. Svolge regolarmente attività di peer review in qualità di membro dei Comitati di Programma delle principali conferenze delle comunità di ricerca di riferimento. Tra i vari ruoli svolti, è stato Program Chair di ACM Recommender Systems 2015 e General Chair di UMAP 2013. Dall’a.a. 2013-2014 svolge il ruolo di coordinatore della Laurea Magistrale in Computer Science (in inglese). E’ coordinatore della prima edizione del Master di II livello in Data Science

LEAVE A REPLY

Please enter your comment!
Please enter your name here