martedì 1 luglio 2014
COMMENTA E CONDIVIDI
Dal "decalogo" di Noam Chomsky alla trilogia del film Matrix, sono anni che si parla di realtà manipolata. Eppure, ogni volta che scopriamo che qualcuno "gioca" con i nostri sentimenti, le nostre emozioni e le nostre vite restiamo feriti e scioccati come fosse la prima. Questa volta, poi, fa ancora più male. Perché a tradire la fiducia di tanti è stato Facebook, cioè il più grande social network del mondo. La più grande piazza telematica, frequentata ogni giorno da un miliardo di persone che si scambia storie, opinioni e, soprattutto, emozioni. Cos’è successo? Facebook ha coinvolto quasi 700mila utilizzatori a loro totale insaputa, alterando in parte le informazioni da loro comunicate per scoprire se fosse possibile diffondere un «contagio emotivo». Appena è stato pubblicato il risultato della ricerca, condotta con due università, tanti hanno fatto un salto sulla sedia. Non solo perché vi si legge nero su bianco che è possibile diffondere un «contagio emotivo» (sia positivo sia negativo), ma soprattutto che per farlo basta alterare l’algoritmo di Facebook. Qui vale la pena di fermarsi un attimo. Chi infatti usa per svago i social network (e non solo quelli), molto probabilmente fino a oggi ignorava che ciò che vede navigando è deciso da una formula matematica. All’inizio su Facebook ognuno di noi vedeva in tempo reale quello che i suoi amici pubblicavano. Ma ciò rendeva poco interessante (leggi: remunerativo) il social network. Così è stato creato un sistema che ci porta in primo piano non i contenuti più nuovi, ma quelli creati dalle persone e apparsi sulle pagine con le quali interagiamo di più. In pratica: se per qualche giorno non clicchiamo "mi piace", non condividiamo o non commentiamo le cose che scrive il nostro pur carissimo amico Pippo (o quella pagina che ci piaceva tanto), i suoi successivi post ci appariranno in fondo, mentre quelli di Caio, che ci hanno maggiormente "coinvolto" (li abbiamo commentati, anche negativamente, gratificati di un "mi piace" o condivisi), vengono pubblicati in forte evidenza, ai primi posti. Una bella comodità, avrà pensato qualcuno. Già: ma se vi dicessimo che, per esempio, il proliferare di immagini e video di cuccioli di animali sul web (da vedere, commentare e condividere) o la creazione di post molto provocatori serve soprattutto a "catturarvi" e a farvi vedere un sito o pubblicità mirata, forse non sarete più così contenti. Anzi, vi sentirete un po’ "truffati". Voi cliccate, commentate, litigate e approvate, ma le vostre reazioni spesso sono state indotte in maniera non trasparente. Voi credete di comandare, ma quando si tratta di prendere le decisioni più importanti è Facebook che di fatto comanda. Insomma, già così, ciò che ci appare sul web è spesso «manipolato». Il caso dell’esperimento di Facebook emerso ora è però molto più grave. Nessuna delle 700mila persone coinvolte è stata avvertita. Le «cavie» umane sono state divise in due gruppi e bombardate con aggiornamenti di segno opposto: positivi da una parte, negativi dall’altra. È così emerso che i due gruppi hanno reagito a loro volta postando messaggi dal contenuto negativo o positivo, secondo i post che avevano ricevuto. Risultato: «Gli stati emotivi si possono trasmettere per un fenomeno di contagio, inducendo altre persone a provare le stesse emozioni senza che ne siano coscienti», hanno affermato gli autori della ricerca. Chi ha provato a lamentarsi di essere stato «manipolato» senza permesso si è sentito ricordare che, dando l’adesione al social network, gli utenti hanno accettato una clausola che consente agli amministratori di Facebook di fare praticamente qualunque cosa. Ammettiamolo: fa male scoprire di essere cavie da laboratorio. Ma fa ancora più male scoprire che i nostri comportamenti sono molto meno unici e liberi di quello che crediamo.
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: