Facebook è il terzo sito web più trafficato al mondo e il quarto negli Stati Uniti. Insieme a Google, domina il mercato della pubblicità digitale ed è documentato oramai che questa piattaforma detiene un posto speciale e significativo nell’universo sociale e civico dei suoi utenti. Eppure, secondo una ricerca condotta negli Stati Uniti da Pew Research su quasi mille utenti di Facebook, tre persone su quattro non sono ancora a conoscenza di come funziona l’algoritmo di Facebook, ovvero che la piattaforma classifica i propri utenti per interesse, credo politico e affinità etniche, offrendo sulla base di questi dati un elenco di possibili pagine o gruppi di interesse.
Una volta spiegato loro che le cose stanno così, la metà degli intervistati non si sente a proprio agio con questo aspetto, ma a questa presa d’atto non segue quasi mai una reazione pratica, come per esempio cancellarsi dal social. Alla domanda “pensi che sia semplice per Facebook comprendere le tue inclinazioni e i tuoi interesse sulla base di quello che condividi?” la maggior parte degli intervistati risponde affermativamente. L’84% degli utenti dichiara che sarebbe molto o abbastanza facile per queste piattaforme determinare la propria razza o etnia e il 79% i loro hobby e interessi, il 71% risponde che non è difficile per Facebook capire la loro appartenenza politica, e il 65% dice lo stesso circa le proprie convinzioni religiose.
Inoltre, poco meno di una persona su tre dichiara che in ogni caso la classificazione operata dall’algoritmo di Facebook non li rappresenta correttamente, mentre la maggioranza degli utenti afferma che l’algoritmo di Facebook in questo è molto (13%) o in qualche modo (46%) accurato, riflettendo i loro interessi nella vita reale. Nel 27% dei casi le persone giudicano le liste di Facebook non accurate, e un 5% di essi ritiene che non lo siano per nulla.
È comune per Facebook assegnare “etichette” politiche ai propri utenti: circa la metà di coloro che hanno partecipato a questo sondaggio ha ricevuto tale etichetta. Tre persone su quattro tra chi è stato “classificato” politicamente, confermano che Facebook ci ha visto giusto, individuando esattamente il proprio orientamento.
Per alcuni utenti, Facebook elenca anche una categoria chiamata “affinità multiculturale“, che intende definire la “vicinanza” di un utente a vari gruppi etnici, oltre ad assegnarli a gruppi che riflettono la loro origine etnica reale. Eppure, solo circa un quinto degli utenti di Facebook (il 21%) afferma di avere una “affinità multiculturale”.
Emerge comunque un interessante scollamento semantico fra il significato che le persone attribuiscono a un’ideologia politica o a un’affinità culturale e il significato algoritmico delle etichette di Facebook. Nel complesso, il 60% degli utenti a cui viene assegnata una categoria di affinità multiculturale afferma di avere un’affinità molto o piuttosto forte per il gruppo a cui sono assegnati, mentre il 37% dichiara che la loro affinità per quel gruppo non è particolarmente forte. Circa il 57% di coloro che sono assegnati a questa categoria si considera effettivamente membro del gruppo etnico a cui Facebook li ha assegnati.
In ogni caso l’uso dell’affinità multiculturale come strumento per gli inserzionisti di escludere determinati gruppi ha creato polemiche. A seguito delle pressioni del Congresso e delle indagini condotte da ProPublica, Facebook ha firmato un accordo nel luglio 2018 con il Procuratore generale dello Stato di Washington dicendo che non permetterebbe più agli inserzionisti di escludere illegalmente gli utenti dalla razza, dalla religione, dall’orientamento sessuale e da altre classi protette.