Del non fidarsi mai degli utenti: Microsoft e la ragazzina virtuale che ha imparato a essere razzista

Da un grande potere derivano grandi responsabilità, diceva lo zio di Spider-Man. Adattando la saggezza di zio Ben al mondo dei social media, potremmo dire che a una grande visibilità corrisponde il grande dovere di non sottovalutare mai nulla, per lo meno quando si tratta di comunicare sul Web.

Negli ultimi giorni si è fatto un gran parlare di quanto successo a Tay, un chatbot creato da Microsoft su Twitter con l’intento di catturare l’attenzione degli utenti più giovani, ma che è stato bloccato in fretta e in furia dopo che sono cominciati ad apparire tweet dal contenuto estremamente riprovevole.

Per capire bene cosa sia successo, occorre spiegare cosa sia un chatbot: si tratta di un software di intelligenza artificiale che è in grado – o per lo meno dovrebbe esserlo – di intrattenere una conversazione con un utente umano, utilizzando linguaggio e sintassi come farebbe una persona vera. Questo software, poi, può essere “vestito” con i panni di un personaggio virtuale: nel caso del chatbot di Microsoft si trattava Tay, una ragazzina anglofona che avrebbe dovuto catturare l’interesse dei giovani utenti di lingua inglese.

tay

Lo scopo di Tay era quello, appunto, di conquistare una fetta di utenti composta da adolescenti e giovani adulti, che avrebbero dovuto divertirsi a conversare con un personaggio virtuale sugli argomenti più disparati, mostrando i miracoli degli agenti intelligenti e facendo vedere quanto fossero bravi quelli di Microsoft con i software di intelligenza artificiale. Sì, perché Tay è sempre stata presentata da Microsoft per quello che era: un software. Chi sosteneva con una conversazione su Twitter con lei, era ben consapevole della sua natura di macchina e non di essere umano.

Una delle caratteristiche principali dei chatbot è che questi “imparano” mano a mano che si usano: se un utente umano comincia a “chiacchierare” con un chatbot, la qualità delle risposte proposte dalla macchina migliorerà con in passare del tempo, perché il sistema è progettato in modo da recepire le nuove informazioni e utilizzarle in seguito, sia dal punto di vista dei contenuti che come “fluidità” del discorso.

Così, lo scorso 23 marzo, Tay è stata lanciata in pompa magna con il suo account Twitter, invitando tutti a provare quanto fosse facile e divertente conversare con lei, inviandole una domanda qualsiasi via Twitter e ricevendo immediatamente una risposta.

Purtroppo, però, sappiamo bene che davanti a un bot gli utenti non sanno resistere: come nel caso del bot di Bank of America, anche con Tay gli utenti si sono divertiti fin da subito a “istruire” la ragazzina virtuale di Microsoft insegnandole tutto il peggio dello scibile umano.  Un bot è sì in grado di riconoscere le informazioni utili e implementarle nel proprio sistema ma, purtroppo, non è in grado di discernere tra ciò che viene ritenuto “giusto” e “sbagliato”. È come parlare con un bambino molto piccolo: se gli diciamo che stelle stanno appese al cielo con la colla, lui non ha motivo di credere che si tratti di una fesseria.

Così gli utenti, consapevoli di avere a disposizione il giochino del giorno, hanno cominciato a conversare con Tay infilando, nelle proprie risposte, parolacce e frasi razziste, espressioni scurrili e concetti misogini.

Tay, diligente come una scolaretta, impara tutto. E in capo a una manciata di ore, arriva a negare l’Olocausto e a inneggiare ad Adolf Hitler, a dire che Donald Trump è la speranza del pianeta e a parlare come una scaricatrice di porto.

2tay

Il tutto è avvenuto sotto gli occhi di mezzo web, che più che scandalizzarsi per il tiro tirato dagli utenti, hanno scosso la testa davanti all’ingenuità di Microsoft che non ha pensato al fatto che la “intelligenza collettiva” non si sarebbe fatta sfuggire l’occasione di divertirsi alle spalle di una “intelligenza artificiale”.

3tay

Morale della favola: Microsoft si è precipitata a “sospendere” Tay, cancellando tutti i tweet e lasciandola online ma “muta” come una statua di sale.

Purtroppo per Microsoft non è stata una bella avventura: sembra quasi che, mentre la sua creatura ha imparato molte cose – anche se non socialmente desiderabili – il colosso dell’informatica non abbia fatto altrettanto. I precedenti per immaginare come sarebbe andata a finire c’erano (compreso il già citato caso di Bank of America), ma non ha saputo o voluto mettere in pratica le informazioni acquisite in passato. Da sempre gli utenti si divertono a prendersi gioco sui bot, protetti dall’anonimato delle proprie tastiere e consapevoli che, tanto, dall’altra parte dello schermo non c’è nessuna persona reale in grado di offendersi.

Non si tratta di un fallimento in senso tecnico – a conti fatti il bot ha dimostrato di funzionare alla perfezione – ma lo scivolone ha comunque delle ripercussioni negative sull’immagine e sulla reputazione di Microsoft, passata per il brand che vuole dimostrare la propria supremazia tecnica ma fallisce nella conoscenza delle dinamiche del web e dei suoi utenti che, purtroppo per Microsoft, di certo non si fanno impressionare da un chatbot e che anzi sono pronti a metterne in luce tutti i limiti tecnici, tirando in ballo il peggio non solo dell’Internet, ma degli utenti stessi.

Lesson Learned: Non si è mai too big to fail: il fatto che tu sia un brand importante, potente e conosciuto non ti metterà al riparo da scivoloni comunicativi sul web. Specialmente se agisci senza prendere le dovute precauzioni e ignorando i possibili rischi di quelli che hanno agito nello stesso modo prima di te.

Facebook Comments

1 COMMENT

LEAVE A REPLY

Please enter your comment!
Please enter your name here