Facebook sperimenta e lo fa sulle emozioni dei suoi utenti. Uno studio della Proceedings of Natural Academy of Science (PNAS), prestigiosa rivista scientifica statunitense, ha rivelato che Facebook ha manipolato il flusso di notizie di quasi 700 mila utenti con l’obiettivo di studiare “il contagio emotivo attraverso i social network”.
Il team di ricercatori, sia di casa Facebook sia provenienti dalla Cornell University e dalla University of California-San Francisco hanno condotto un test per capire se riducendo il numero di aggiornamenti “positivi” nel flusso dei feed pubblicati sulle bacheche le persone che li avessero letti avrebbero ridotto la produzione o la condivisione di contenuti positivi.
Per mettere in pratica l’idea alla base dello studio i ricercatori hanno modificato per un’intera settimana, dall’11 al 18 gennaio 2012, l’algoritmo sul quale Facebook seleziona i post in modo da classificare gli aggiornamenti con parole positive o negative.
Il campione era formato da 689.003 persone che sono state divise in due gruppi, per un totale di oltre tre milioni di aggiornamenti. Ad alcuni utenti sono stati forniti aggiornamenti dal neutrale al positivo mentre ad altri sono stati dati aggiornamenti dal neutrale al negativo: in uno venivano mostrati post positivi, con parole come “amore”, “bello”, “dolce”; all’altro invece apparivano post negativi, con parole come “antipatico”, “dolore”, “brutto”. Concluso questo passaggio preliminare sono stati poi analizzati i post di queste persone.
In pratica l’operazione ha confermato l’ipotesi iniziale: ovvero il “contagio emotivo” si verifica anche a distanza. “Gli stati emotivi”, infatti, “si possono trasmettere per un fenomeno di contagio, inducendo altre persone a provare le stesse emozioni senza che ne siano coscienti“, hanno affermato gli autori della ricerca, che ha dimostrato appunto la realtà di un contagio di massa attraverso il social network.
Ma sulle modalità della ricerca piovono ora polemiche. È etico condurre una ricerca senza il consenso esplicito dei diretti interessati? È giusto alterare i dati forniti agli utenti per confermare un’ipotesi? È corretto rendere “tristi” intenzionalmente i propri utenti?
Dal punto di vista legale, Facebook è tutelata: la sottoscrizione delle norme e dei vincoli al momento dell’adesione al social network consente agli amministratori di condurre operazioni interne, compresa la ricerca e la soluzione di problemi, l’esame di dati, test, ricerche e miglioramenti volte al miglioramento del servizio. Ma le critiche sul fronte dell’etica permangono, soprattutto se prendiamo per buona una definizione “sociologica” di consenso informato.
Inoltre la notizia della ricerca arriva in un periodo delicato per Facebook, ancora al centro di indagini circa il suo ruolo nella protezione della privacy dei suoi iscritti.
In seguito alla bufera che ha coinvolto l’esperimento, uno degli autori dello studio, Adam D. I. Kramer, ha pubblicato attraverso il suo account fb alcune informazioni per chiarire alcuni aspetti dell’operazione.
Kramer, che è anche membro del Data Science team del social network, ha riconosciuto che le motivazioni della ricerca non erano chiaramente esposte nello studio, e ha comunque specificato che l’esperimento ha riguardato soltanto una piccola percentuale dei contenuti del newsfeed di poche persone, per poco tempo: lo 0,04% degli utenti, per una settimana, nel 2012. Nessun aggiornamento degli amici è stato tecnicamente “nascosto”: continuava a essere visibile sul loro diario, e poteva in ogni caso comparire nel caso in cui l’utente avesse ricaricato il newsfeed.
Ha spiegato inoltre che all’origine dello studio c’era l’impegno a migliorare il prodotto, ossia Facebook, cercando di capire il reale impatto emotivo sugli utenti.
Da Facebook continuano a ribadire la legalità della ricerca ma i dubbi sui metodi rimangono.
Facebook Comments