Le piattaforme e i social network giocano un ruolo fondamentale nella comunicazione digitale per quanto rigarda l’accesso all’informazione, la sua selezione e diffusione. I social hanno reso possibile un dialogo globale ininterrotto nel quale miliardi di persone fanno esperienza della libertà di espressione e dell’amplificata diffusione dei loro messaggi.
Le conseguenze di tali azioni di comunicazione online sono imprevedibili e, talvolta, possono rivelarsi spiacevoli. Ne sono un esempio i recenti fatti di cronaca che hanno coinvolto giovanissimi utenti di Tik Tok – morti di alcuni minori, le fughe di altri, gli adescamenti di pedofili, di cui vi abbiamo parlato in questo articolo – così come lo sfruttamento dei dati degli utenti per aggregare consenso in chiave politica: qui vi abbiamo raccontato la vicenda di Cambridge Analytica.
Il cambio di regolamentazione sui doveri delle grandi piattaforme e dei social network sembra orientato a richiamarle alle loro responsabilità. Ne abbiamo parlato con Giovanni Ziccardi, Professore di Informatica Giuridica presso la Facoltà di Giurisprudenza dell’Università degli Studi di Milano, i cui ultimi lavori sono relativi all’uso delle tecnologie in politica, alla resistenza elettronica, alla società controllata e alle espressioni d’odio. Recentemente, ha preso parte alle attività del Gruppo di lavoro sull’odio online, siglato dal Ministero per l’Innovazione tecnologica e la transizione digitale, per contrastare i fenomeni di hate speech: qui trovate il report finale pubblicato il 5 febbraio 2021.
Qual è l’evoluzione giuridica del rapporto tra protezione dei dati personali, social network e libertà di espressione, dal dopoguerra ai tristi fatti di cronaca che hanno recentemente coinvolto giovanissimi utenti di Tik Tok.
Noi giuristi che ci occupiamo di questi temi abbiamo concentrato la nostra attenzione sugli ultimi vent’anni perché, in Europa, il 2000 è individuato come l’anno della grande riforma relativa al commercio elettronico e alla società digitale. Per far sì che in quegli anni l’economia digitale europea partisse, seguendo quello che stava succedendo negli Stati Uniti con riferimento alle nuove piattaforme, la scelta fu quella di lasciare molto liberi i grandi operatori delle telecomunicazioni (provider), tantoché la prima normativa europea si basò sul principio della deresponsabilizzazione dei provider. Essi venivano visti come semplici vettori o conduttori di informazione, e non come soggetti che in realtà potessero intervenire nei contenuti o altro.
La prima evoluzione che noto adesso è che, a venti anni di distanza, si sta mettendo completamente in discussione questo approccio originario: ci siamo resi conto che le piattaforme, i social network, le grandi società – che comunque sono in territorio nord americano o cinese e che attirano tutti i dati europei – non sono più delle semplici realtà che veicolano dei messaggi, dei pacchetti di dati o dei contenuti, ma sono delle realtà che possono intervenire direttamente nella gestione dei contenuti, come degli editori in molti casi. Allora noi giuristi abbiamo visto crescere problemi di criminalità informatica, di odio online, di diffusione di fake news, di attacchi ai minori. Sembra che a distanza di vent’anni (intendo anche il 2020-2021) tutti – noi giuristi, la politica, compresa l’Unione europea – si stiano interrogando su che cosa sia necessario cambiare dal punto di vista giuridico per affrontare il problema di come gestire le piattaforme che sono diventate troppo potenti e che, però, sono essenziali per la società digitale. E qui il provvedimento più importante è la Proposta di Regolamento del Parlamento Europeo e del Consiglio sul mercato unico dei servizi digitali (Digital Services Act) che è stata pubblicata il 15 dicembre 2020 e che vuole designare i prossimi tre anni di disciplina delle piattaforme in Europa in un’ottica di co-regolamentazione: quindi, le piattaforme non vengono più lasciate sole nel poter decidere quali contenuti rimuovere e come disciplinare ciò che accade sulle piattaforme, ma c’è un intervento dello Stato.
C’è un altro fatto che a noi giuristi crea tanti problemi: c’è stato uno spaventoso abbassamento della fascia d’età nell’utilizzo delle nuove tecnologie, per cui noi adesso ci stiamo concentrando su una fascia di età dai 6 anni agli 11-12. I casi di cronaca che abbiamo citato hanno avuto ad oggetto ragazzine tra gli 8 e i 10 anni. Questa è una cosa nuova per noi. Adesso tutto il problema dei contenuti d’odio, dell’odio interpersonale, delle fake news, della circolazione di informazioni, delle sfide, è sceso ad una fascia di età dai 6-7 anni (che è l’età media in Italia della concessione del primo dispositivo tecnologico) fino ai 12, che non pone solo dei problemi giuridici, ma anche un problema di comprensione di quello che sta capitando da parte di bambini/e che non hanno sicuramente il bagaglio culturale per comprendere quello che sta succedendo.
Quindi io vedrei così il quadro che lei mi designato di piattaforme, odio e problematiche giuridiche: siamo in un momento di svolta, cioè sta cambiando l’idea/l’approccio di non poter toccare le piattaforme, che chiede una maggiore responsabilizzazione. L’Ue non vuole comunque rinunciare ad una regolamentazione, quindi a regolamentare gli effetti, e soprattutto abbiamo a che fare con una generazione a rischio oggi che non è facile da comprendere anche per noi giuristi perché purtroppo non ha la maturità e la consapevolezza di argomenti così complessi.
Il mondo dei social network (da Facebook a Twitter, da Linkedin a Instagram) è in cambiamento incessante e il Garante per la protezione dei dati personali ne segue con attenzione gli sviluppi allo scopo di tutelare con efficacia giovani e adulti. Come valuta il provvedimento di blocco di Tik Tok emesso dal Garante in relazione alla triste vicenda di Palermo?
A me piace tantissimo come sta intervenendo il nuovo Garante per la protezione dei dati: l’anno scorso c’è stato il cambio del collegio e c’è stato proprio un cambio di marcia. Il Garante ha iniziato un’attività di responsabilizzazione anche su contenuti ed argomenti che apparentemente non sembrano essere di interesse del Garante, quali il revenge porn, l’uso da parte dei minori delle tecnologie, il cyberbullismo, e quindi il Garante sta entrando anche nell’ambito dell’educazione digitale, e secondo me è un’ottima cosa. Per la prima volta il Garante sta applicando il diritto anche nei confronti dei grandi: torniamo al discorso che dicevamo prima, cioè questa realtà non sono più intoccabili.
Dopo i casi di cronaca citati e la disposizione del bloccco di Tik Tok, il Garante ha chiaramente fatto capire che bisogna controllare i limiti di età di accesso alle piattaforme, cosa che negli ultimi dieci anni non è mai stata fatta: è vero, le piattaforme indicavano il limite di 13 anni ma tutti abbiamo dei nipotini o dei conoscenti di 8-9-10 anni che sono tranquillamente su Instagram, hanno più profili. Trovo molto accurato l’intervento del Garante per chiedere un minimo di controllo dell’età di accesso alle piattaforme – qui vi abbiamo raccontato di come i social network debbano rispettare il GDPR e qual è l’età per il consenso digitale dei minori – che non vuol dire identificare le persone, ma vuol dire garantirne l’accesso. Come trovo molto puntuale il fatto che il Garante non si concentri più soltanto sulla protezione dei dati, ma abbia pubblicato un bel vademecum sul revenge porn, quindi su un tema molto attuale che riguarda purtroppo anche ragazzine adolescenti, non soltanto gli adulti. E’ molto attivo con riferimento al cyberbullismo perché la normativa sul cyberbullismo prevede l’intervento del Garante. E poi è molto attivo sulla protezione dei dati sulle piattaforme.
Quindi, mi sembra che l’idea di far sentire la presenza sia importante. È finora mancata un’azione comune e concordata tra i Paesi europei. Adesso anche i Garanti per la protezione dei dati degli altri Paesi stanno intevenendo: il Garante italiano non lavora in maniera non coordinata con le autorità degli altri Paesi. C’è il principio di coerenza del Regolamento europeo per cui tutti si stanno muovendo in maniera coordinata. Forse dovremmo verificare insieme nei prossimi mesi e nei prossimi anni il recepimento di queste indicazioni: il Garante italiano non è partito con sanzioni, bensì con istruttorie, consigli, suggerimenti e dialogo, quindi in maniera molto soft e pacata. Vedremo se avrà effetto un approccio di questo tipo per migliorare le cose.
I social network offrono vantaggi significativi e immediati: semplificano i contatti, rendono possibili scambi di informazioni con un numero enorme di persone. Queste comunità online, però, amplificano i rischi legati a un utilizzo improprio o fraudolento dei dati personali degli utenti, esponendoli a danni alla reputazione, a furti di identità, a veri e propri abusi. Quel è la sua riflessione sul concetto di identità digitale? Come aumentare la consapevolezza degli utenti?
Già Stefano Rodotà nei suoi scritti si occupava del tema dell’identità digitale: l’identità digitale è garantire la corretta rappresentazione del soggetto anche nell’ambiente digitale, proprio come ha diritto di essere correttamente rappresentato nella società. Il rischio, diceva Rodotà, è di una falsa luce del soggetto online, cioè che le attività online arrivino a rappresentare un soggetto diversamente da come lui è realmente.
Noi abbiamo avuto due anni critici: il 2020 e anche questo inizio del 2021 sono stati terribili a causa del Covid per l’idea di identità digitale e per la presenza sui social network, perché c’è stato un aumento esponenziale del tempo passato online di tutte le persone chiuse in casa, e quindi abbiamo una connessione praticamente 24 ore su 24. Abbiamo avuto lo spostamento necessario di tutte le attività di relazione delle persone online: tutto quello che prima si faceva di persona (genericamente chiamato “socialità”) è stato spostato in rete. Al contempo c’è stato un aumento sensibile del pericolo delle vulnerabilità, di tentativi di frodi, di attacchi, di circolazione di materiale compromettente: è come se in questo anno e mezzo si fosse sospesa la vita fisica di gran parte delle persone (mi vengono in mente gli studenti per fare un esempio del problema della scuola ma in generale anche per molti adulti) e ci si fosse trasferiti online.
Secondo me, ad un anno di distanza sono cominciati anche un po’ gli anticorpi, si è cominciato a comprendere anche come difenderci, come quando usavamo Zoom e i sistemi di video conferenza a marzo del 2020 per la prima volta (e ogni tanto qualcuno lasciava il microfono aperto); adesso, ad un anno di distanza, vedo che c’è maggiore consapevolezza. Quindi nell’ambito delle tecnologie la consapevolezza si fa sul campo di solito: perché risolvere un problema o per imitazione.
Se da un lato l’anno di Covid ha aumentato la vulnerabilità di tutti questi soggetti per i motivi che le ho detto, però ha anche aumentato molto quella che lei chiamava “educazione”, cioè la competenza e l’approccio alle tecnologie. E’ chiaro che i criminali informatici oggi sfruttano la vulnerabilità delle persone: è provato che quando le persone sono più fragili, più tristi, più preoccupate, più incerte del futuro, più distratte, è proprio lì che tutti gli attacchi che cercano di rubare l’identità, gli attacchi criminali trovano un terreno che è molto favorevole, quindi un aumento degli attacchi c’è stato anche sui temi quali i vaccini, la possibilità di guarire, le mascherine, ovviamente anche i criminali informatici vanno a toccare argomenti che sanno essere sensibili per la vittima, quindi c’è stato un cambio di contenuti però al contempo speriamo che ci sia anche un aumento di consapevolezza perché la tecnologia è diventa la normalità, non più una situazione di emergenza per due mesi ma insomma è un anno e un paio di mesi che stiamo andando in questo modo. Insomma, vedo un bilanciamento da questo punto di vista.
La politica è stata radicalmente trasformata dall’uso delle nuove tecnologie (e in particolare dei social network) e ciò emerge chiaramente dalla cronaca quotidiana degli ultimi dieci anni. Dalla prima elezione di Obama fino a quella di Trump in USA, dall’impennata Italina del Movimento 5 Stelle e della Lega, l’utilizzo nei nuovi canali mediatici è diventato determinante nel sancire vincitori e vinti nella contesa elettorale. In questo contesto, come si può gestire la politica e la propaganda sulle piattaforme tra profilazione, guerra dell’informazione e comportamenti illeciti?
Gran parte della politica negli ultimi dieci anni ha scoperto quanto potevano essere utili le tecnologie per il marketing. E quindi praticamente la maggior parte di essi, a partire da Trump (quando Trump iniziò la sua campagna elettorale la prima persona che assunse per attività sui social era un esperto di pubblicità e consumatori), ha mutuato le strategie di marketing utilizzate dai pubblicitari per vendere un prodotto. La politica è diventata la vendita di un prodotto. E la profilazione ha consentito ai politici, proprio come succede nel marketing, di conoscere prima cosa gli elettori vogliono o di poter valutare in tempo reale gli scostamenti di umore su un determinato progetto o se una determinata idea è utile o meno. Nel tempo abbiamo avuto una politica che non è più correlata al buon governo, ma è correlata a che cosa piace ai potenziali elettori, perché si può sapere prima, così come si può sapere prima se il cornetto all’amarena o alla crema può avere impatto sul mondo dei consumatori.
A questo si è aggiunta la polarizzazione nella politica: negli ultimi anni in tutti i Paesi, non solo in Italia, c’è stato un “o sei con me o sei contro di me”, non c’è più quella zona grigia che era tipica della politica dove si cercava di raggiungere un accordo su un’idea. Ma la polarizzazione consiste nel fomentare il proprio gruppo che ci supporta e nell’offendere o denigrare l’altro gruppo.
E i social network si sono dimostrati l’ambiente ideale per una politica che si è ridotta, in molti casi, ad un puro scontro: i social network sono fatti di frasi brevi, si possono usare meme, o il deep fake che adesso è molto di moda, cioè la falsificazione di video o di dichiarazioni che possono arrivare ad impattare direttamente sulle persone. Questa trasformazione della politica causata dai social network ha attraversato tutto il mondo: è partita dagli Stati Uniti, soprattutto da Trump, è arrivata in Italia, ma anche in Europa, in Russia, in Francia. Tutti i Paesi e tutti i politici hanno adottato strategie simili, ossia l’uso delle caratteristiche principali che la tecnologia fornisce: l’amplificazione del messaggio, la disintermediazione, cioè la possibilità di arrivare direttamente ai propri elettori bypassando anche canali di stampa, televisioni o giornali che potrebbero in qualche modo censurare o limitare il messaggio. Noterà che adesso la prima fonte di informazione politica è il telefonino del politico, e anche i quotidiani e i telegiornali riprendono quei determinati messaggi perché il telefonino non ha filtri non ha censure, può dire assolutamente tutto quello che vuole. Al contempo la polarizzazione ha creato gruppi sui social network che dialogano tra di loro, che si uniscono e che contribuiscono ad alimentare questi messaggi.
In Italia abbiamo avuto delle strategie differenti da parte dei politici sull’utilizzo dei social network: abbiamo avuto l’esempio di Salvini e della Lega dove un leader forte è anche l’unico portavoce del messaggio. Se io le chiedessi il profilo di altri leghisti lei non me li saprebbe così dire a mente perché la politica della Lega è stata proprio quella di avere, anche sui social, un unico riferimento che è Salvini. Mentre i 5 stelle hanno operato in maniera molto differente con tanti siti o gruppi, anche satellite, un po’ delle isole, una rete, per generare rumore tramite l’uso del network. Questa era un po’ l’idea di Casaleggio padre, cioè l’idea di poter sfruttare la rete come network. Per tanti anni, prima della scissione con Italia Viva, nel Pd abbiamo avuto una situazione molto strana, per cui Renzi era il politico del Pd più seguito però la sua linea ufficilale era contraria alla linea del suo partito che non era così presente sui social.
Quindi diciamo che non c’è un modo per usare i social nella pratica, ma è molto ritagliato sul singolo politico e sulla situazione del partito. Però ci sono quei punti in comune che dicevo, cioè lo sfruttare la capacità di profilare i propri elettori (quindi proprio fare del marketing), l’amplificazione e la generalità del messaggio, e anche l’uso di artifizi grafici molto immediati per arrivare immediatamente alle persone. Ciascuno di noi ha dagli 8 ai 10 secondi di attenzione ormai massima su tutti i conenuti che passano sul nostro cellulare, quindi si immagini quanto è utile semplificare i contenuti con degli slogan e delle foto per raggiungere, in quel lasso di tempo della tipica attenzione, un determinato utente. E questo è un modo di utilizzo dei social in politica che lei trova trasversalmente in tutto il mondo.
C’è un pubblicitario francese che si chiama Jacques Séguéla, che lavorò anche con Mitterrand per gestire la sua campagna politica, il quale già negli anni 80 diceva chiaramente che i cittadini si possono utilizzare e prevedere come consumatori: i politici l’hanno sempre fatto. La grande differenza è che la tecnologia consente di fare questo marketing a milioni di persone distanti. In altre parole: non è una novità l’idea che il politico facesse markenting e trattasse i propri elettori come se dovesse vendere un prodotto, ma prima si faceva nel quartiere, nella città, nella scuola, e richiedeva tempo, risorse e non era l’unica attività del politico; adesso si può fare con degli algoritmi, dei sistemi automatizzati prendendo milioni di persone in pochi secondi. C’è stata una esclation di questo modello di approccio nei confronti del consumatore.
Il 31 maggio 2016 la Commissione Ue ha presentato, insieme a Facebook, Twitter, YouTube e Microsoft, un codice di condotta con un elenco di impegni per combattere la diffusione dell’illecito incitamento all’odio online in Europa. A distanza di cinque anni come si è evoluta la situazione?
Quando ci si relaziona con le piattaforme, da un punto di vista del diritto normativo, ci sono tre scelte. La prima scelta è lasciare alle piattaforme l’autoregolamentazione, ma sono tutti un po’ convinti che, in questi anni, i codici di condotta interni e la mancanza di trasparenza delle piattaforme non abbiano raggiunto un buon obiettivo di co-regolamentazioni. Quindi la prima scelta, che sarebbe quella un po’ più liberale che le piattaforme si regolamentino da loro, non è andata bene.
Il secondo livello un pò più rigido è la co-regolamentazione che vuole perseguire l’Unione europea nei prossimi anni con le prorposte sul mercato, sul Digital Single Market, sulle piattaforme. Un po’ come è stato il Regolamento europeo per la protezione dei dati, l’idea di accountability, di responsabilizzazione delle piattaforme, cioè il legislatore dà le regole più ampie/di massima e poi è lasciata la libertà alle piattaforme, prevendendo però delle sanzioni elevatissime se non si conformano a quelle regole.
Il terzo livello, a cui speriamo di non arrivare, è che sia lo Stato a decidere e a dare le regole specifiche/nel dettaglio su questi problemi. Mettersi contro le piattaforme potrebbe andare a incidere un po’ quell’aspetto dell’econocomia digitale di cui parlavamo prima, cioè l’indispensabilità delle piattaforme per l’economia digitale dell’Unione europea.
A distanza di cinque ani, l’esperimento del codice di condotta e di autoregolamentazione non ha avuto l’effetto sperato da parte dei governi e dell’Unione europea, e quindi si è pensato di fare un gradino in più: passare alla co-regolamentazione, che non è proprio una regolamentazione statale ma è anche qualcosa di un po’ più concreto e anche attuabile rispetto al lasciare alle piattaforme i codici di condotta e la regolamentazione. Gli esperti prevedono un paio di anni per concretizzare la Proposta di Regolamento in qualche provvedimento innovativo, magari anche un po’ prima se l’Unone europea decide di accellerare, Covid permettendo. Secondo me, vedremo presto i risultati di questa idea di co-regolamentazione, quanto meno di trasparenza e di maggior chiarezza.
Dopo l’esclusione di Donald Trump da Facebook e Twitter, il tema approda anche al Parlamento Ue. Secondo l’alto rappresentante Ue, Josep Borrell, “occorre poter regolamentare meglio i contenuti rispettando la libertà di espressione” ma “non è possibile che questa regolamentazione sia attuata principalmente secondo regole e procedure stabilite da soggetti privati”.
Quello che ha detto il parlamentare europeo è giusto: a noi giuristi, come al cittadino comune, sembra che oggi siano le piattaforme a decidere che cosa rimuovere, quando rimuove, come accogliere le segnalazioni, quali contenuti mostrare; anche il tema del diritto all’oblio della rimozione dei contenuti dopo la sentenza di Google Spain è stato lasciato in primo grado completamente. Torniamo al discorso che facevo all’inizio: vent’anni di approccio liberale e libertario nei confronti delle piattaforme ci hanno portato a questa situazione. Ora è il momento di cambiarla.
In Europa, Francia e Germania sono gli unici due Paesi ad essersi messi contro Facebook. La Germania è stato il primo Paese a intervenire, nel 2018, con una normativa specifica molto aggressiva nei confronti delle piattaforme e mirata soprattutto ad imporre maggiore collaborazione da parte di grandi social network. La legge tedesca prevede l’obbligo per Facebook di rimuovere in frettissima contenuti e di fare dei report di trasparenza ogni tre mesi se no ci sono delle sanzioni milionarie. La Francia, seguendo l’esempio della Germania, ha elaborato una normativa simile che, però, è finita sotto la scure del Consiglio Costituzionale. Per tradizione Francia e Germania, che sono abbastanza rigide contro le piattaforme, hanno adottato questa terza via. L’Unione europea, invece, è molto più cauta: vorrebbe prima esplorare la possibilità della co-regolamentazione/responsabilizzazione delle piattaforme. Secondo me, questo è interessante e risolverebbe anche i problemi di cui lei mi parlava nella sua domanda: il problema non è la rimozione dell’account di Trump. Nessuno dice che non fosse giusto rimuovere il profilo personale di Trump ma tutti domandavano una maggior trasparenza, magari capire il processo che c’è dietro, magari un ruolo di garanzia della magistratura nella gestione della rimozione dei contenuti quando impatta sulla libertà di espressione. Il problema non è solo l’account di Trump: lo stesso procedimento dovrebbe essere identico anche per un qualsiasi cittadino che vede rimosso il suo blog, i suoi contenuti o i suoi post.
In questo scenario, ritiene che la responsabilità maggiore sia delle piattaforme o della società?
Individuare un unico responsabile della situazione attuale è sbagliato. Secondo me, bisogna operare in tre ambiti:
- Capire il ruolo delle piattaforme e stabilire una co-regolamantazione.
- Capire il ruolo del diritto, cioè quando il diritto deve intervenire comunque se le piattaforme non agiscono in un certo modo.
- L’educazione: gran parte delle questioni relative ai contenuti, all’odio, alle fake news sono anche correlate ad un utilizzo sbagliato delle tecnologie.
Il segreto è non focalizzarsi solo sulle piattaforme o sul bisogno di diritto o sperare in un’educazione che nasca così all’improvviso, ma unire tutti e tre questi ambiti d’azione. Quindi unire responsabilizzazione delle piattaforme, capire il ruolo che il diritto deve avere in questo quadro e tutta l’attività educativa di educazione civica, educazione alla legalità e all’uso del digitale.