Quarta Rivoluzione Industriale. Questa è l’idea dominante: le innovazioni digitali stanno creando nuove industrie, allo stesso modo in cui l’elettricità ha permesso la produzione di massa alle automobili Ford all’inizio del XX secolo. Ma lo scandalo Facebook-Cambridge Analytica offre una contro-narrazione più sobria.
Se leggiamo tra le righe, lo scandalo Facebook-Cambridge Analytica non ha riguardato soltanto un’enorme appropriazione di dati. Sì, è vero, nel 2015 l’azienda britannica Cambridge Analytica ottenne illegalmente (e molto facilmente) i dati personali di migliaia di utenti FB bypassando il regolamento del social network. Violando, quindi, le policy della piattaforma in fatto di protezione dei dati personali, anche in occasione della campagna per le presidenziali 2016 di Donald Trump. Di qui la frase “le app ci rubano i dati”.
Tuttavia, la vicenda ha mostrato come i servizi digitali, sviluppati da Facebook nel caso di specie (ma non solo), non dovrebbero essere visti come l’ultimo passo dell’industrializzazione. Poichè rappresentano, invece, una nuova e problematica forma di mercato. Che prende i nostri dati e li trasforma in profili comportamentali degli utenti online. Usati, tra l’altro, come potenti armi durante alcune delle passate campagne elettorali. Precisi profili di chi siamo, come pensiamo, che cosa vogliamo, ottenuti dalla combinanzione delle infinite tracce di noi che lasciamo navigando in rete. Nuova forma di mercato che prende l’esperienza umana e la trasforma in merce da vendere e da comprare. Ma – se ancora non l’avessimo capito – si tratta di noi.
I possessori di data, i potenti di oggi
Oggi dobbiamo fare i conti con una nuova gerarchia dei poteri che diffonde tecniche e metodologie sofisticate, che hanno per oggetto l’estrazione di informazioni utili da grandi quantità di dati (c.d. data mining). Che ci riguardano non solo come consumatori, ma in quanto cittadini. E possibili elettori. Solo chi detiene una grande mole di dati, infatti, può realizzare le analisi più sofisticate.
Attraverso il monitoraggio continuo della rete si individuano i temi di maggiore interesse, analizzando puntualmente la geografia dei bisogni e delle relazioni sociali, per elaborare contenuti personalizzati e messaggi mirati. Anche nell’offerta elettorale. Si tratta, in altre parole,
dell’applicazione alla politica della cd. pubblicità comportamentale on line (c.d. behavioural advertising). Una strategia comunicativa fondata sulla profilazione dei cittadini considerati non quali destinatari di un progetto politico, ma di una propaganda orientata su modelli e tipologie di utenti della rete. Schemi che, assai più delle fake news, travolgono le tradizionali regole del sistema politico.
In questo senso,buona parte della scena è occupata dai social network. Nel caso di specie, il ruolo svolto da Facebook nello scandalo Cambridge Analytica ne è un esempio calzante. La vicenda Cambridge Analytica è una storia di psicologia sociale, propaganda e tecnologia. Che ha fatto luce sul più generale fenomeno di utilizzo incontrollato dei dati, a scapito della privacy e del controllo del cittadino sulle sue informazioni in rete.
Da sempre raccogliamo e aggreghiamo dati: cosa è cambiato oggi
La raccolta dei dati è qualcosa di nuovo per gli esseri umani? Non proprio. Dal 1600 circa, la loro raccolta, archiviazione e sistemazione ha acquisito un significato specifico e rilevante come strumento di organizzazione e di governo della società. Rispetto a questo dato di lungo periodo, qual è la vera rivoluzione contemporanea? L’esecuzione dei calcoli attraverso dei sistemi computazionali dotati di una capacità di calcolo infinitamente superiore a quella umana. Impensabili fino a qualche decennio fa. Come ci suggerisce Luciano Floridi, Professore di filosofia ed etica dell’informazione ad Oxford, abbiamo assistito al passaggio dalla storia alla «iperstoria».
Con ciò, appare evidente come oggi l’uomo e il buon funzionamento dell’economia dipendano dalle tecnologie dell’informazione e della comunicazione (ICT) e dalla loro capacità di processare dati (modello della c.d. data-driven economy).
I rischi sui dati del mondo di oggi
Eppure, i progressi incessanti di questi cambiamenti ci espongono a nuovi rischi. Nella misura in cui i nostri dati rappresentano la proiezione digitale delle nostre persone, infatti, aumenta in modo esponenziale anche la vulnerabilità dei singoli. La libertà di ciascuno è insidiata da forme sottili e pervasive di controllo: oggi assistiamo ad una massiccia intrusione nella vita di tutti, con effetti importanti sui comportamenti individuali e collettivi, e sugli stessi caratteri delle nostre democrazie.
I responsabili sono, innanzitutto, le imprese tecnologiche. Queste, spinte da imperativi economici, hanno dilatato la raccolta e l’aggregazione dei nostri dati (in silos informativi per lo più sottratti al nostro controllo). E i governi che, spinti dalla minaccia criminale e terroristica, hanno incrementato la sicurezza in rete per finalità investigative. A questi due protagonisti della “nuova sorveglianza” se ne aggiunge un terzo involontario: “You”.
Tracce digitali di noi: le app ci rubano i dati?
Noi stessi siamo la principale fonte (non intenzionale) di produzione e disseminazione di dati. Internet è diventata la chiave di accesso del mondo. Cerchiamo lavoro navigando in rete, ci informiamo su riviste digitali, paghiamo bollette e gestiamo contatti online, compriamo beni e servizi e, soprattutto, comunichiamo con gli altri attraverso i social network. Sul piano giuridico, potremmo anche ammettere i limiti posti dalle legislazioni a tutela dei dati personali nei diversi sistemi giuridici. Ma gli utenti, con il loro consenso tramite un click sullo schermo del proprio computer, cedono i loro dati, autorizzando spesso i fornitori di servizi a farne gli usi più diversi.
Ecco che, a questo punto, i nostri dati cominciano a circolare in modo più o meno incontrollato. E hanno bisogno di una tutela, che oggi è offerta dalla protezione dei dati personali. Tutte queste attività svolte online, infatti, lasciano tracce digitali e informazioni personali che non vengono disperse nel’infinità della rete. I dati messi in circolazione vengono raccolti, aggregati, e processati, soprattutto per la forte capacità predittiva che assicurano. Questi dati, che sono principalmente tratti dall’ambiente online, sono ricercati, in quantità sempre più considerevoli (Big Data), in tutte le attività e i contesti della nostra vita.
Cosa succede ai dati che diamo a Facebook
Che ne è di questi dati? Convergono, per così dire, su nastri trasportatori che li portano alle fabbriche del XXI secolo: macchine intelligenti dotate di potere computazionale. Macchine che Shoshana Zuboff, Professoressa alla Harvard Business School e autrice de “Il capitalismo della Sorveglianza”, chiama «fabbriche del consenso». E, come tutte le altre fabbriche, producono dei prodotti. Quali sono questi manufatti? Le previsioni del comportamento umano.
Ora, si sa che la previsione di un comportamento è il presupposto di fondo per la manipolabilità di quello stesso comportamento. E’ proprio questo l’aspetto (ancora) più inquietante di queste pratiche: non solo una raccolta di informazioni e una previsione dei nostri bisogni futuri, ma operazioni capaci di influenzare i comportamenti degli utenti. Impacchettati e venduti ad organizzazioni interessate, appunto, alle nostre attività future.
Chi decide per noi: come le app “rubano” e usano i dati
Inoltre, l’analisi dei dati (c.d. data analytics) solleva seri problemi legati all’autonomia decisionale degli individui. Chi possiede il profilo dei consumatori indirizza la produzione commerciale verso specifici modelli di utenza, così da assecondarne i gusti ed insieme orientare selettivamente le scelte individuali. Quante delle nostre decisioni sono in realtà fortemente condizionate dai risultati che un qualche algoritmo ha selezionato per noi e ci ha messo davanti agli occhi?
Avete presente quando ricevete pubblicità ad hoc sui dispositivi con cui navigate sul web? Avete messo un like alla foto di una borsa che vi piace tanto e, qualche secondo dopo, vedete comparire sul vostro Facebook un annuncio sponsorizzato da parte di un’azienda che produce borse. Si tratta del c.d. targeting pubblicitario mirato. O ancora, vi sarete di certo accorti delle innumerevoli pratiche di discriminazioni del prezzo nel commercio online. Quando lo stesso bene o lo stesso servizio viene offerto, nello stesso momento, a due utenti diversi ad un prezzo differente. Così facendo si “punisce” l’utente che abbia indugiato troppo a lungo nell’acquistare un bene, al fine di spingerlo a velocizzare l’acquisto la volta successiva.
Non solo la scelta di un libro o di un certo viaggio, ma anche la scelta di una clinica cui affidare la salute, un investimento dei risparmi, la scelta di un dipendente da assumere, un giudizio politico. La stessa fiducia nei confronti di una persona appena incontrata, della quale chiediamo subito informazioni cliccando sui motori di ricerca. E la cui affidabilità siamo pronti a misurare su quanto appreso in rete.
Big data: un pericolo o un’opportunità per gli esseri umani?
Ogni processo che ha stravolto la storia del mondo ha rivelato anche i suoi lati oscuri. La rivoluzione digitale non fa eccezione. Anche essa manifesta meccanismi critici che possono arrivare ad incrinare le basi delle nostre democrazie. Ci deve preoccupare il potenziale discriminatorio che può nascere dall’utilizzo dei Big data (anche rispetto a dati non identificativi o aggregati), per effetto di profilazioni sempre più puntuali ed analitiche. In un gioco che finisce per annullare l’unicità della persona, il suo valore, la sua eccezionalità.
Inoltre, una grande attenzione va rivolta alle applicazioni dell’intelligenza artificiale che effettuano valutazioni o assumono decisioni supportate soltanto da algoritmi, con un intervento umano reso via via più marginale, fino ad annullarsi. Tutto ciò produce effetti dirompenti sul modo di vivere e articolare esistenze e relazioni. In termini individuali ma anche sociali e politici.
Un’esistenza sregolata del web può avere, ad esempio, implicazioni negative per lo stato della democrazia, come emerso con forza in occasione di alcune campagne elettorali degli ultimi anni. Il 9 novembre 2016 si è saputo il nome dell’azienda che aveva sostenuto la campagna elettorale online di Donald Trump e la campagna per la Brexit: Cambridge Analytica. Niente di meno che una protagonista del settore dei Big data. Guidata da Alexander Nix, ammistratore delegato di Cambridge Analytica e SCL Group.
Cos’è Cambridge Analytica
Di seguito, un paio di informazioni istituzionali. La società di ricerca Cambridge Analytica appartiene al gruppo SCL – Strategic Communication Laboratories, con sede nel Regno Unito, ed è di proprietà del miliardario Robert Mercer. Brillante scienziato informatico e un pioniere della prima intelligenza artificiale, Mercer è noto per aver sostenuto diverse campagne di candidati conservatori in tutto il mondo. Proprietario di hedge fund, nel caso di specie è stato il più grande donatore di Trump. Nel 2014, ai vertici della società, in qualità di vicepresidente di Cambridge Analytica, c’era Steve Bannon, il capo stratega che ha portato Trump alla Casa Bianca.
Cambridge Analytica è una delle tante società che si occupano di analizzare dati, raccolti attraverso il monitoraggio dei “comportamenti” (like, commenti, condivisioni ecc.) da parte degli utenti sui vari social network. Il compito di queste aziende è fornire, grazie all’analisi dei dati, profili di mercato sempre più raffinati per campagne mirate di comunicazione e pubblicitarie. E non solo.
Come ha fatto Cambridge Analytica ad ottenere da Facebook il suo vasto set di dati
Nel 2014 il Professor Aleksandr Kogan, docente di psicologia all’università di Cambridge e capo della società Global Science Research (GSR), sviluppò un’applicazione chiamata “Thisisyourdigitallife” (letteralmente “questa è la tua vita digitale”). L’intento del Professore era quello di effettuare ricerche proprio in ambito psicologico.
Il risultato, però, fu anche un altro. Grazie a quell’app, Kogan entrò in possesso dei dati personali di circa 270mila utenti di Facebook e dei loro amici. Che, successivamente, condivise con la società Cambridge Analytica. La quale ha utilizzato i dati di 87 milioni di utenti Facebook. Per fare cosa? Per delineare la loro personalità. Come? Mediante una profilazione di carattere psicologico. L’app si rivelò essere di fatto un quiz sulla personalità da eseguire su Facebook, che prometteva di produrre dettagliatissimi profili psicologici e di previsione del comportamento. In che modo? Basandosi sulle attività online svolte dagli utenti. Il fine ultimo? Veicolare, sempre tramite Facebook, pubblicità altamente personalizzata (c.d. micro-targeting advertisement), con il presunto obiettivo di influenzare il voto nelle elezioni, svoltesi negli USA l’8 novembre 2016.
Facebook login: se noi cediamo i dati, le app non rubano i dati
Per utilizzare l’App, gli utenti dovevano collegarsi mediante la funzione Facebook Login. Tale funzione, attiva dal 2007 e periodicamente aggiornata, è stata realizzata per consentire agli utenti di utilizzare le rispettive credenziali Facebook “per autenticarsi a servizi di terzi e per trasmettere i propri dati ai fornitori di tali servizi, al fine di ottenere un’ampia gamma di esperienze utili, innovative, sociali e personalizzate”. In questo modo, il sistema consentiva l’iscrizione a un sito utilizzando una verifica controllata da Facebook, senza la necessità di creare nuovi username e password. Il servizio, apparentemente gratuito, era in realtà “pagato” con i dati degli utenti. Come spesso avviene online.
Secondo quanto dichiarato da Facebook, nella fase di registrazione gli utenti dovevano confermare di aver preso visione dell’informativa, che metteva al corrente gli utenti del fatto che le informazioni pubbliche potessero essere visualizzate da chiunque, anche al di fuori del social network. Queste informazioni non erano di poco conto. Il flusso di dati personali da Facebook all’app “Thisisyourdigitallife” comprendeva: i dati del profilo pubblico, tra cui nome e genere, la data di nascita, la città attuale (se fornita), le pagine a cui l’utente ha messo “Mi piace”, la lista degli amici (in conformità con le impostazioni sulla privacy di ciascun amico e dunque solo nel caso in cui l’utente avesse deciso di renderla pubblica).
L’app Thisisyourdigitallife
L’attivazione dell’app “Thisisyourdigitallife” attraverso la funzione Facebook Login richiedeva agli utenti di acconsentire necessariamente alla raccolta dei dati. In altri termini, senza il conferimento dei dati personali di cui sopra non era possibile l’utilizzo dell’app medesima. Come avveniva il consenso? Fino ad aprile 2014, il consenso alla raccolta di tutti i dati avveniva con un’unica spunta, senza consentire all’utente di scegliere singolarmente quali informazioni condividere e quali, invece, mantenere private. Dall’aprile 2014, il consenso avviene per specifiche categorie di dati ma in modalità opt-out, consentendo agli utenti di rinunciare alla trasmissione di singole tipologie di dati.
L’uso della funzione Facebook Login da parte delle app di terze parti non è libero. E’ soggetto a specifici termini di servizio (“ToS”) e alla disciplina della piattaforma Facebook. I termini di servizio sanciscono ai fornitori di app “il divieto di trasferire i dati ottenuti (anche derivati, aggregati o anonimi) a provider di reti di inserzioni, broker di dati o altri servizi concernenti la monetizzazione o l’inserzione”. Tant’è che – secondo quanto affermato da Facebook – il dottor Kogan, proprio trasferendo i dati acquisiti da quella piattaforma alla società Cambridge Analytica, avrebbe violato la disciplina sopracitata.
Peraltro, l’esame della funzione Facebook Login ha evidenziato gravi carenze di informativa anche da parte delle varie app di volta in volta interessate. Queste, nella maggioranza dei casi, non forniscono un’adeguata indicazione delle finalità e modalità del trattamento dei dati, che risultano oltretutto essere più numerosi di quelli necessari all’autenticazione, a dispetto del principio di minimizzazione.
La reazione di Facebook e la contro reazione del Garante privacy italiano, dell’AGCM e del TAR Lazio
Con un comunicato del 16 marzo 2018, il social network rendeva nota la sua decisione di bloccare le attività del gruppo SCL sulla sua piattaforma (incluse quelle riferibili alla società Cambridge Analytica). E la sospensione delle attività del dottor Aleksandr Kogan, professore di psicologia dell’Università di Cambridge, per aver violato le policy di Facebook. Il professore aveva trasferito a Cambridge Analytica (ma non solo) i dati degli utenti della Piattaforma. Dati che erano stati acquisiti mediante la sua app, “Thisisyourdigitallife” (comprensiva di un quiz sulla personalità sviluppato dallo stesso Kogan e gestito dalla sua società, GSR-Global Science Research).
A seguito sono intervenuti il Garante privacy italiano, l’Autorità Garante del Mercato e della Concorrenza e il TAR del Lazio, come vi raccontiamo in questo articolo.
La reazione dell’Unione europea
Le pratiche di Cambridge Analytica hanno suscitato molto scandalo fra l’opinione pubblica europea. Perché hanno messo in luce la routine quotidiana dei metodi e degli obiettivi del capitalismo della sorveglianza. Nel caso di specie, spostando l’attenzione sulle prefenze politiche del singolo. I ricavi miliardari di poche grandi aziende si basano prevalentemente sulla virtualizzazione delle nostre esperienze umane.
In questo contesto, le istituzioni democratiche hanno il compito di contrapporre una visione positiva al dominio del mercato, creando e immaginando nuove soluzioni per un’economia equa e sostenibile. Le istituzioni europee, negli ultimi anni, hanno avuto un ruolo particolarmente attivo nel calmierare gli effetti negativi de pratiche monopolistiche da parte delle piattaforme tecnologiche.