Nel 2001 Joseph Stiglitz ha condiviso con George A. Akerlof e A. Michael Spence il premio Nobel per l’Economia. Questo importante riconoscimento è stato dovuto, in gran parte, al contributo di Stiglitz alla teoria delle asimmetrie informative. Il fulcro di questa teoria è rappresentato dal principio secondo cui, negli scenari in cui l’informazione non è condivisa integralmente tra gli individui facenti parte di un processo, chi possiede maggiori informazioni rispetto agli altri può trarre vantaggio dallo specifico scenario configuratosi.
Sebbene questa teoria non affondi le sue radici in ambito informatico, tantissime evidenze recenti hanno dimostrato la validità di questo principio nelle dinamiche della Rete. Il “possesso” dei dati è diventato oggi un cardine per i principali attori del Web ed il principale motivo di successo nei confronti dei potenziali concorrenti: chi ha a disposizione i dati e riesce a ricavare dagli stessi della
conoscenza può trarre giovamento da questa “asimmetria”.
I principali social network, come ad esempio Facebook, utilizzano l’informazione a propria disposizione (con chi ci relazioniamo, cosa apprezziamo, dove ci troviamo) per decidere quali
contenuti mostrarci e quali nasconderci. Un principio molto simile guida i risultati di ricerca di YouTube e Netflix, che basano le proprie proposte sulla base di un’analisi dei nostri comportamenti,
implicitamente “contenuti” nei dati in loro possesso. Anche Google ad Amazon utilizzano dati e informazioni sugli utenti per personalizzare i risultati di ricerca e indirizzare gli acquisti.
Il principio dell’asimmetria informativa trova applicazione anche in numerosi scenari non digitali: i dati in possesso della polizia di Londra, ad esempio, hanno permesso di sviluppare degli algoritmi di “Predictive Crime Mapping”, orientati a predire e gestire con più efficacia i crimini della città. Allo stesso modo, i dati relativi alla mobilità e ai flussi del traffico hanno permesso di implementare avanzati sistemi di Smart Lighting e Smart Mobility nella città di Amsterdam. Di recente, persino i picchi influenzali sono stati previsti grazie all’analisi delle ricerche effettuate su Google dagli utenti.
Tutti questi scenari hanno un comune denominatore: la capacità di estrarre conoscenza e nuove informazioni da dati grezzi e apparentemente senza significato, come un furto o il passaggio di un’automobile su una strada.
“Data is the new oil”, racconta un recente claim di IBM. La conoscenza derivante dall’analisi e l’elaborazione dei dati che viaggiano in Rete è il nuovo petrolio, in virtù delle innumerevoli applicazioni che possono derivare dall’applicazione degli algoritmi su questi dati, ma con una differenza non trascurabile intrinseca alla dimensione immateriale della conoscenza: la sua possibilità di condivisione senza limiti e senza esclusione (“He who receives an idea from me, receives instruction himself without lessening mine; as he who lights his taper at mine, receives light without darkening me. That ideas should freely spread from one to another over the globe, for the moral and mutual instruction of man, and improvement of his condition, seems to have been peculiarly and benevolently designed by nature, when she made them, like fire, expansible over all space, without lessening their density in any point, and like the air in which we breathe, move, and have our physical being, incapable of confinement or exclusive appropriation. Inventions then cannot, in nature, be a subject of property”, Thomas Jefferson, lettera a Isaac Mc Pherson, 13 agosto 1813)
“Knowledge is Power”, affermava il filosofo Bacone: oggi, gli algoritmi e i dati rappresentano lo snodo fondamentale dell’intero processo. Trasformare dati grezzi e risalire la piramide della
conoscenza è una delle aspirazioni – sarebbe meglio dire, “l’Aspirazione” – di ogni essere umano, più di qualsiasi altro essere senziente.
Ma quanto vale il mercato dei dati?
Le stime del 2018 sono le seguenti:
- 54,9 Miliardi di Euro per il mercato europeo
- 4,6 Miliardi di Euro in Italia, con un incremento rispetto al 2015 dell’8,5% sulla media europea e dell’1,5% per l’Italia.
Nel nostro piccolo, la Mappa dell’Intolleranza (voluta da Vox che, insieme alle università Statale e Cattolica di Milano, Bari e Roma, ha mappato i tweet contro donne, omosessuali, disabili, immigrati, ebrei e musulmani, per fotografare un’Italia intollerante verso le minoranze e le diversità, ndr). rappresenta la “nostra” asimmetria informativa. Rappresenta la “conoscenza” che riusciamo a ricavare dai dati in nostro possesso. Le tecniche di estrazione dati adottate nel progetto, unite a metodologie proprie dell’Intelligenza Artificiale e più specificamente della Linguistica Computazionale e del Natural Language Processing (NLP) utilizzate per l’analisi semantica e l’elaborazione dei Tweet, ci hanno permesso di dare un significato concreto all’informazione latente presente nei numerosi dati grezzi disponibili sul Web.
I circa 5 milioni di Tweet estratti ed analizzati (di cui circa 100 mila geolocalizzati) hanno rappresentato l’input di questo moderno “microscopio”, che ci ha permesso di analizzare in modo
innovativo le dinamiche complesse che caratterizzano fenomeni articolati come quelli legati alla discriminazione delle minoranze.
La conoscenza era già presente nei dati: gli algoritmi ci hanno solo permesso di renderla esplicita!
Facebook Comments