Social network
June 30 2014
Sembrava una ricerca come tante altre. Uno di quegli studi che cercano di comprendere se i social network sono davvero così sociali come vogliono apparire. E invece il tutto si sta trasformando in una gigantesca farsa che rischia di compromettere l’immagine di Facebook.
Tutto parte da un articolo apparso sull'edizione del 17 giugno della rivista Proceedings of the National Academy of Sciences dal titolo “La prova sperimentale che sui social network esiste un contagio di massa delle emozioni”. In esso si fa riferimento a uno studio condotto nel 2012 da alcuni ricercatori della Cornell University e della University of California di San Francisco sulla capacità degli utenti, e nella fattispecie di quelli iscritti a Facebook, di influenzare lo stato d’animo degli amici attraverso messaggi o aggiornamenti di stato fortemente emozionali.
"Attraverso un esperimento di massa basato su 689.003 utenti di Facebook - si legge nell’abstract - abbiamo dimostrato che gli stati d’animo possono essere trasferiti ad altre persone attraverso un contagio emozionale, portando gli utenti a vivere le stesse emozioni senza un reale contatto. Abbiamo la prova sperimentale che il contagio delle emozioni avviene senza una diretta interazione fra le persone (è sufficiente essere esposti alle emozioni degli amici) e in completa assenza di segnali non verbali”.
QUEI DATI ARRIVANO DA FACEBOOK
La conclusione è certamente interessante, per quanto non particolarmente sconvolgente. Ciò che in realtà fa più notizia è che l’intero dossier sia stato condotto su una serie di dati forniti da Facebook in prima persona, e per di più attraverso una preventiva manipolazione. Una fonte vicina al dossier - spiega Forbes - afferma che lo studio è stato condotto sulla base di un processo di revisione interna operato da Facebook e non attraverso una raccolta dati effettuata in modo autonomo dalle due Università. Susan Fiske, redattrice degli atti della National Academy of Sciences per la pubblicazione dello studio, ammette che l’analisi è stata effettuata su un “set di dati preesistente”, raccolti presumibilmente da Facebook, che sembrano essere stati rivisti in qualche modo non ben precisato.
In buona sostanza: Facebook avrebbe manipolato le bacheche di oltre mezzo milione di persone mostrando loro un maggior o un minor numero di post dal sentimento piuttosto marcato - ad alcuni sono apparsi post positivi con parole come “amore”, “bello, “dolce”, ad altri post con sentimento opposto - per capire quali fossero le loro reazioni. Il tutto, e questo è forse l’aspetto più critico della vicenda, lasciando gli utenti all’oscuro di tutto. Il consenso informato di Facebook, infatti, prevede che gli utenti che aderiscono al social network accettino una clausola che consente agli amministratori del sito di utilizzare i dati personali per operazioni interne o test finalizzati al miglioramento del servizio.
"Facebook ha effettuato un gioco psicologico coi suoi utenti e ha usato una clausola minuscola nascosta fra le 9000 parole dei suoi termini di servizio per giustificare le sue azioni", sottolinea Gizmodo . Rincara la dose la privacy-attivista Lauren Weinstein con un post pubblicato su Twitter: "Mi chiedo se Facebook con questa bravata sulle emozioni manipolate non abbia spinto qualcuno a suicidarsi. A questa scala e con tutte le persone depresse presenti là fuori, è un’ipotesi possibile".
LA DIFESA DI FACEBOOK: QUESTE RICERCHE CI AIUTANO A OFFRIRE UN SERVIZIO MIGLIORE
“L'obiettivo di tutta la nostra ricerca è imparare a fornire un servizio migliore”, ha spiegato Adam D. I. Kramer , data scientist di Facebook. "Avendo scritto e sviluppato questo studio io stesso, posso dirvi che il nostro obiettivo non era quello di turbare nessuno. Capisco che alcune persone possano avere delle preoccupazioni in merito, io e gli altri coautori siamo molto dispiaciuti per il modo un cui la stampa ha descritto la ricerca e l'ansia che ha generato. Col senno di poi, i benefici della ricerca potrebbero non aver giustificato tutta quest’ansia".
Ma Jim Sheridan, membro della Camera dei Comuni britannica, non ci sta e sottolinea l'importanza straordinaria dell'accaduto: "Se non esiste una normativa tal senso, allora è arrivato il momento di proteggere le persone. Stanno manipolando materiale dalla vita privata delle persone e io sono preoccupato per la capacità di Facebook e degli altri (servizi web) di influire sui pensieri della gente nella politica o in altri settori. Se i pensieri vengono controllati in questo modo ci deve essere una forma di tutela o quantomeno un’adeguata conoscenza da parte delle persone".
UNA BUONA OCCASIONE PER PARLARE DI PRIVACY
Facebook, va detto, non è l'unica web-company che interviene sui dati dei suoi utenti. Anche Google e Yahoo analizzano il modo in cui gli utenti interagiscono coi risultati di ricerca o con determinate notizie, in modo da modificare ciò che viene mostrato.
Di certo l’episodio fornirà nuovi spunto per alimentare un dibattito su cui si discute da tempo. Ovvero: in che modo la grande mano di Facebook influisce sui post che appaiono sulla nostra newsfeed? Per quale motivo certi aggiornamenti appaiono prima di altri? Quali sono i principi dell’algoritmo che regola la nostra comunicazione sui social? Per Mark Zuckerberg, la buccia di banana della ricerca truccata potrebbe essere una buona occasione per chiarire una volta per tutte i misteri che ancora avvolgono la sua creatura.
Segui @TritaTech