GLI ESPERIMENTI TOTALITARI DI FACEBOOK

16 Lug 2014

Nessuno ha mai avuto un potere così grande. Nessun dittatore ha mai sognato di poter manipolare le emozioni di oltre un miliardo di esseri umani. Quello che Facebook sta facendo non ha precedenti e influenzerà il modo in cui le grandi aziende potranno monetizzare le emozioni umane. Il responsabile dello studio, Adam Kramer, ha dichiarato con entusiasmo che "i dati raccolti da Facebook costituiscono il più grande campione nella storia del mondo". A quanto pare l'aspetto etico della vicenda deve ancora essere affrontato.
Ho provato a contattare i rappresentanti di Facebook (incluso Kramer) con telefonate, email e messaggi diretti. Mi hanno ripetuto che Adam Kramer è troppo impegnato per parlare con me, e lo sarà a tempo indeterminato. Kramer, invece, mi ha fatto sapere che non vuole incontrarmi senza il consenso dell'ufficio stampa dell'azienda. Facebook non ha voluto rilasciare commenti. Ha fatto di tutto per negarmi una dichiarazione senza mandarmi esplicitamente a quel paese. Ho chiesto se gli utenti potevano scoprire se il loro newsfeed era stata alterata. Nessuna risposta. Ho chiesto se gli utenti potevano evitare di essere scelti come cavie per un prossimo studio. Nessuna risposta (e se ne avessi avuta una probabilmente sarebbe stata "no", dato che tutti gli utenti accettano le condizioni di utilizzo quando si iscrivono). Si sono limitati ad ammettere di aver condotto lo studio e di essere interessati da tempo agli effetti del contagio emotivo.
Ora in rete c'è indignazione perché Facebook ha giocato con le emozioni di oltre mezzo milione di persone senza chiedere il loro permesso, ma forse dovremmo ricordarci che Facebook si comporta in questo modo da anni. L'azienda si mostra sorpresa dalle critiche per la sua ricerca, ma in realtà conduce questi esperimenti da molto tempo, spendendo cifre da capogiro.
Le ricerche semiconsensuali sulla manipolazione di emozioni e convinzioni politiche (invece della classica analisi dei dati) non sono una novità. Facebook ha investito moltissimo per scoprire "cosa succede se si applica la scienza alle relazioni tra le persone e i social network", secondo la definizione dell'azienda stessa. Le conseguenze etiche di un'alterazione cognitiva su scala così vasta e senza il consenso degli utenti sembrano non preoccupare minimamente i ricercatori di Facebook.

Ingegneria emotiva


L'ingegneria emotiva è sempre stata il modello commerciale di Facebook. La trasformazione in un'entità socialmente indispensabile ha permesso al social network di diventare la "prima pagina" di internet per svariati milioni di persone. Il newsfeed non è altro che questo, il primo posto dove molti di noi vanno per informarsi su cosa succede nel mondo e sull'esistenza di quelli che amiamo, di quelli che conosciamo e dei tizi inquietanti che incontriamo a una festa e ci chiedono l'amicizia due settimane dopo.
Nathan Jurgenson, teorico dei social network, ricercatore per Snapchat e direttore di New Inquiry, mi ha spiegato che "è tutto incluso nelle condizioni di utilizzo. È tutto progettato per influire sulle nostre emozioni. Lo studio non parla del pulsante che già di per sé è un elemento di ingegneria emotiva".
I giornali hanno adottato questo metodo già alla fine dell'ottocento. Le redazioni selezionano gli articoli per trasmettere una particolare visione del mondo, alterano i contenuti per soddisfare gli inserzionisti, cambiano titoli e diffondono messaggi propagandistici. Ma Facebook non è un giornale: è una piattaforma di distribuzione, un luogo di scambio sociale. Per fare un paragone, non stiamo parlando del tabloid britannico The Sun che decide di adottare la visione del mondo di Rupert Murdoch. Stiamo parlando del vostro pub sotto casa, del vostro supermercato, della vostra edicola e del vostro ufficio postale che improvvisamente decidono di vendere solo il Sun senza avvertirvi. La maggior parte degli esperimenti di questo tipo non offre scelta alle persone, presumendo che non ci saranno conseguenze. Aleks Krotoski, un esperto di metodologia della ricerca su internet, mi ha raccontato che lo studio è stato approvato da due commissioni etiche. "Tuttavia, quando si parla di ricerche così importanti, le commissioni etiche considerano trascura-bile il consenso informato, purché i rischi siano minimi". Il problema è che lo studio di Face-book non è affatto innocuo. Il test ha indotto emozioni negative in decine di migliaia di persone solo per dimostrare una tesi.
Su Medium, Zeynep Tufekci ha parlato di "controllo sociale come lo intendeva Gramsci, un modello in cui siamo esposti a dei microstimoli per farci assumere il 'comportamento desiderato". Questo tipo di controllo non è mai stato possibile nelle proporzioni raggiunte da Facebook. La tv non ci è riuscita. La radio non ci è riuscita. I giornali non ci sono riusciti, perché non potevano conoscere le reazioni di un singolo lettore e inviare un messaggio preciso.

Facebook agenzia elettorale?

I social network possono fare questo e altro, e il meccanismo ha già sconfinato nel controllo dei voti. Facebook ha già manipolato il comportamento nelle urne dei suoi utenti, e si è anche vantata di averlo fatto.
Fermatevi un secondo e pensate alle implicazioni. Nel 2010 Facebook ha inserito piccole alterazioni nei banner che ricordavano agli elettori statunitensi di andare a votare. Quasi tutti gli utenti hanno visto un banner che li invitava a recarsi alle urne, accompagnato dalle immagini dei loro amici che avevano già votato o dichiaravano di averlo fatto.
Due gruppi selezionati a caso e composti da 600mila utenti - questo sembra essere il numero ma-gico dei cervelloni di Facebook - hanno visto un messaggio diverso (senza le facce degli amici) o non hanno visto alcun messaggio. Uno studio del 2012 basato sull'analisi dei dati relativi al 2010 ha scoperto che questa campagna ha convinto 34omila persone a votare. L'alterazione del messaggio, inoltre, ha modificato il comportamento di decine di migliaia di persone, come hanno verificato i ricercatori incrociando le informazioni sullo status con i registri dell'attività politica conservati dalle istituzioni.
La sintesi dello studio annuncia con orgoglio che i risultati "mostrano un'influenza diretta del messaggio sull'espressione politica, la ricerca di informazioni e il voto di milioni di persone". James Fowler, responsabile dell'esperimento, ha spiegato alla Cnn: "Se vogliamo trasformare il mondo in un posto migliore non dobbiamo solo cambiare il comportamento di una per sona, ma anche usare la rete per influenzare gli amici di quella persona". Per me tutto questo suona come un esperimento politico totalitario top secret. Per un senatore o un deputato, invece, tutto questo significa molto di più. Significa potere. Un potere nuovo, immenso. Un potere che merita di essere considerato e corteggiato.
Cosa accadrebbe se Facebook decidesse di alterare il suo messaggio negli stati decisivi per le presidenziali statunitensi? Cosa accadrebbe se le persone non invogliate a votare vivessero tutte nei quartieri in cui abitano soprattutto afroamericani?
Il fatto che Facebook sia formato da bravi ragazzi che non farebbero mai nulla del genere non toglie che, volendo, potrebbero commettere qualsiasi nefandezza e poi sostenere che si è trattato solo di una ricerca. Presi singolarmente, questi studi sono inquietanti esperimenti semiconsensuali sulle sensazioni più intime e sulle decisioni più importanti di una persona. Messi insieme, compongono un disegno terrifican¬te. Facebook non è gratis. Lo paghiamo con le nostre informazioni, la nostra visione del mondo, i nostri ricordi e le nostre esperienze. Ogni volta che accediamo alla piattaforma, paghiamo. Queste informazioni sono potere, e il potere si può scambiare e vendere. Qualcuno, davanti a questo problema, dà una risposta semplicistica: se non volete essere spiati, studiati e manipolati, basta non usare Facebook.
Ma l'economia dell'informazione non funziona così, e non ha mai funzionato così. Anche restare fuori dalle reti ha un suo costo. Non partecipare significa perdersi gli eventi, i compleanni, i messaggi, le foto del matrimonio del vostro migliore amico, la disperata richiesta d'aiuto di vostro cugino alle quattro del mattino e le reti professionali. Significa perdersi le notizie dal mondo.

Facebook, la nazione più grande al mondo

A parte la Cina, il popolo di Facebook supera il numero di abitanti di qualsiasi paese del mondo. Face-book è un paese a sé, un paese fatto di pura informazione dove le autorità sanno tutto quello che fate e possono cambiare tutto ciò che vedete senza avvertirvi. Possono decidere che in un particolare giorno riceverete solo belle notizie, così magari comprerete quello che vogliono. O voterete come preferiscono.
Se Facebook è un paese, allora il suo sistema di governo è la dittatura aziendale. Questa non è affatto una metafora. Penso che sia arrivato il momento di sottomettere i social network non solo alle leggi del mercato, ma anche alle leggi della società in cui viviamo e di quella che vogliamo creare.
Dobbiamo difendere princìpi come il diritto a ricevere informazioni non alterate. Princìpi come il divieto di rendere tristi migliaia di persone per interesse personale. Princìpi come il divieto per le aziende di manipolare il nostro comportamento elettorale, mai, per nessun motivo e nessuna ragione. È il momento di stabilire i princìpi e i precedenti che modelleranno il nostro futuro.
Laurie Penny, Internazionale, 11/07/2014 (estratti)