Una volta si diceva: è necessario interessarsi alla politica, altrimenti sarà la politica a interessarsi di noi. Oggi possiamo dire lo stesso degli algoritmi, dei social media e dei dati digitali: se non ci interessiamo di loro, saranno comunque loro ad interessarsi di noi.
Quanto questo sia necessario e non più rinviabile è ormai chiaramente sotto i nostri occhi: da tempo, a dire il vero. Almeno dal 2018, quando abbiamo scoperto che nel 2016 un’azienda privata di nome Cambridge Analytica ha fatto un uso improprio dei dati personali e delle modalità di raccomandazione dei contenuti su Facebook a fini di propaganda elettorale, in favore della Brexit e di Donald Trump. E poi ancora dentro la pandemia, quando la circolazione di buona informazione online è diventata strumento vitale, in senso letterale. Il messaggio è tanto semplice quanto senza mezzi termini: è tempo di interessarsi davvero, non solo come individui ma come società di come una notizia arriva sui nostri smartphone, di cosa succede ai nostri dati quando vengono raccolti dalle piattaforme, in una frase: del perché vediamo quello che vediamo, quando navighiamo in Rete o sui social.
Il progetto Algocount, finanziato da Fondazione Cariplo e svolto dal Dipartimento di Scienze Sociali e Politiche dell’Università di Milano insieme con il laboratorio Density Design del Politecnico di Milano, ha provato a scavare sotto la superficie per capire meglio come gli algoritmi di raccomandazione dei contenuti organizzano e regolano il flusso di informazione su social media come Facebook, Twitter, YouTube e TikTok, e se è vero che tendono, per dirla con le parole di Zeynep Tufekci sul New York Times, a “radicalizzarci” entro bolle informazionali in cui vi è scarsa diversità di opinione. Allo stesso tempo, ha provato a capire meglio quanto gli italiani sanno di questi processi e come si pongono a livello individuale e collettivo in relazione agli algoritmi che quotidianamente si prendono cura della loro dieta informazionale.
La risposta a queste domande è, ovviamente, ben più articolata di quanto si possa raccontare in poche righe. Ma ci proviamo: innanzitutto, abbiamo scoperto che ciò che sostiene Tufekci è vero solo in parte. Forse è un po’ troppo affermare che le piattaforme “radicalizzano” l’opinione degli utenti rispetto a temi di rilevanza pubblica. È vero però che queste offrono percorsi in grado di facilitare la diffusione di posizioni binarie e polarizzate (bianco o nero, a favore o contro) attorno a un tema, e che tutto ciò è funzionale alla loro sopravvivenza economica. Gli utenti in tutto questo non sono attori passivi che subiscono questi processi. Al contrario, hanno un ruolo attivo nel produrre queste raccomandazioni, che originano pur sempre – almeno a livello tecnico – da quello che loro stessi fanno sulle piattaforme. E però, tendono a non curarsene: per molti, gli algoritmi non esistono fino a che…funzionano, e ne scoprono l’esistenza quando inciampano in un errore, un malfunzionamento, un glitch. Solo in quel momento iniziano a vedere – talvolta anche molto chiaramente – alcuni degli “effetti collaterali” che caratterizzano il modo in cui le piattaforme suggeriscono contenuti in maniera personalizzata.
Tutto ciò non basta più.
Nell’ultimo decennio abbiamo assistito ad un processo ampio e complesso di “piattaformizzazione” della società. I social media (e gli strumenti digitali in generale, come lo smartphone) si sono affermati come la porta di accesso principale all’informazione e sono oggi attori centrali nei processi di formazione dell’opinione pubblica. A differenza però dei giornali e della televisione, che sono stati (nel bene e nel male) sottoposti a regolamentazioni di vario tipo, ancora troppo poco è stato fatto per mettere a sistema questo cambio di paradigma, e che produce quella che a tutti gli effetti possiamo definire come un’opinione pubblica algoritmica. A questo scopo, il progetto Algocount ha prodotto 5 proposte (accessibili in versione completa e scaricabile qui: ) che sono state presentate pubblicamente lo scorso 8 luglio presso il Museo Nazionale Scienza e Tecnologia “Leonardo da Vinci” e discusse con alcuni rappresentanti dei più importanti organi istituzionali attivi su questi temi in Italia, come AGCOM e Autorità Garante Privacy. Alcune di queste proposte sono da leggersi nell’ambito legislativo dell’Unione Europea, come quella di un New Deal dei Dati. Altre sono di stampo più locale, come la proposta di creare plugin pubblici per aiutare gli utenti a navigare i flussi di informazione in Rete. Ci auguriamo che queste possano essere il seme per una discussione più ampia, che ambisca ad un complessivo miglioramento del rapporto tra social media e opinione pubblica negli anni a venire, in Italia e non solo.
Ma per raggiungere questo scopo sono imprescindibili gli utenti stessi: i cittadini. Come è stato per la raccolta differenziata, o i danni prodotti dal fumo, è necessario acquisire la consapevolezza che occuparsi di dati e algoritmi è questione non più rinviabile per il benessere della società in cui viviamo,e che non possiamo demandare solamente alla politica – o, peggio ancora, alle piattaforme stesse. Solo attraverso un dibattito aperto, collettivo e civico possiamo gettare le basi per un’opinione pubblica algoritmica sana e sostenibile.
(Si ringraziano: Urbano Reviglio, autore delle 5 Proposte di Policy per l’Opinione Pubblica Algoritmica, e Diletta Huyskes).
Qui sotto la chiacchierata su Think Tally Talk con l’autore.
Autore. Alessandro Gandini, Università degli Studi di Milano
Coordinatore scientifico progetto Algocount (www.algocount.org)