I dispositivi di intelligenza artificiale sembrano oramai replicare alla perfezione alcune capacità cognitive ed espressive di noi esseri umani. ChatGPT è solo l’estremo approdo di un percorso il cui inizio rimanda alla metà del secolo scorso. Macchine e robot oggi abitano la nostra quotidianità in forme via via più pervasive, e ciò dà luogo a fenomeni che affascinano un numero sempre maggiore di scienziati sociali e studiosi di discipline non direttamente, o non esclusivamente, riferite al sapere tecnologico. InfoData ha chiesto a Simone Natale, che insegna Comunicazione e Culture dei Media all’Università di Torino, di approfondire alcuni aspetti del nostro modo di interagire con le macchine, a partire dal suo ultimo saggio Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale (Einaudi, 2022).
In apertura, le immagina la trama un possibile romanzo thriller: in un futuro prossimo, le tecnologie di intelligenza artificiale sono così sviluppate da riprodurre alla perfezione le voci umane. Che effetto le fa sapere che Microsoft ha ora messo a punto VALL-E, uno strumento capace di replicare con esattezza una voce di cui sia stato fornito un ‘sample’ di appena tre secondi?
Non mi stupisce, perché queste tecnologie hanno da tempo mostrato grandi potenzialità, così come i software capaci di intrattenere conversazioni con utenti umani, tra cui GPT-3 e Google LaMDA. Quest’ultimo ha fatto scalpore, alcuni mesi fa, quando è riuscito a convincere un ingegnere di Google di avere sviluppato una vera e propria coscienza. In realtà si tratta, come sostengo nel saggio, non tanto di macchine intelligenti quanto di macchine in grado di produrre l’illusione di un’intelligenza. Per questo ritengo che il dibattito pubblico sull’intelligenza artificiale dovrebbe concentrarsi non tanto sulla possibilità che emergano esseri artificiali pensanti, una possibilità che appare per ora remota, quanto sul fatto che stiamo perdendo la capacità di distinguere tra macchine ed esseri umani.
La trama raccontata all’inizio del mio libro è un tentativo di stimolare a soffermarsi su questa questione e sulle sue implicazioni. La forza di un genere letterario come la fantascienza, infatti, sta nel creare una narrazione sul futuro che allo stesso tempo pone delle domande relative al presente. La protagonista della storia, Ellen, si trova a parlare al telefono con un programma informatico che è indistinguibile da suo marito, ovvero dalla persona che conosce più a fondo: non solo ha la stessa voce, ma usa le stesse espressioni e sembra ragionare nello stesso modo. Il problema è che si tratta solo di un’illusione, anche se apparentemente perfetta: il programma ha sviluppato la capacità di imitare la voce e il parlato, eseguendo calcoli statistici su campioni della voce e delle conversazioni del marito di Ellen.
È sufficiente abbandonare il mondo della fiction e tornare alla nostra esperienza per renderci conto di quanto una situazione del genere sarebbe dirompente. Pensate se non potessimo più fidarci della natura umana dei nostri interlocutori, se ogni volta che parliamo al telefono o su WhatsApp con qualcuno dovessimo chiederci se si tratti di una persona o di una mera imitazione. Saremmo costretti a riscrivere molte delle nostre abitudini e delle nostre convenzioni sociali.
Lei esamina l’IA ‘comunicativa’: ossia quella in grado di interfacciarsi con noi utenti umani, imitando il nostro comportamento. Ciò chiama in causa il concetto stesso di ‘verità’, nonché quello di ‘inganno banale’. Quest’ultima è una sua definizione: può illustrarla?
Parlo di inganno banale per definire una forma di inganno più sottile di quella subita da Ellen, la protagonista della storia, ma non per questo meno densa di conseguenze. Nella nostra vita quotidiana siamo ancora in grado, perlomeno nella maggior parte dei casi, di distinguere tra umani e macchine: chi usa assistenti vocali come Siri o Alexa, ad esempio, sa benissimo di stare parlando con un software. Ma questo non vuol dire che la capacità di mimesi di queste tecnologie non abbia delle conseguenze importanti sul modo in cui interagiamo con esse. Ad esempio, il fatto che Alexa ci parli con una voce che sembra umana, e che ha una precisa caratterizzazione di genere, ci spinge a umanizzare queste tecnologie e a riprodurre stereotipi e rappresentazioni che sono tipici del nostro contesto sociale. Queste forme di inganno sono “banali” perché sono nascoste nelle pieghe del nostro vivere quotidiano, al punto che non ce ne preoccupiamo e non le consideriamo tali; eppure hanno un ruolo centrale nel successo e nell’impatto di queste tecnologie, come dimostrano gli sforzi fatti da aziende come Amazon o Apple di creare voci artificiali sempre più credibili e modalità di conversazione più verosimili, pur con tutti i limiti che questi sistemi ancora hanno.
…segue
State leggendo la rubrica online dal titolo “Un libro e un grafico”. Una recensione con didascalia intelligente.
Per approfondire.
La verità è invisibile. Perché occuparsi della menzogna? Un grafico e un libro
Come si misura l’antitglobalismo contemporaneo #ungraficoeunlibro