Le falle alla sicurezza e le promesse più estreme dell’intelligenza artificiale rendono urgente ripensare l’industria dei microchip
Qualcuno l’ha malignamente definita l’economia dei consigli non richiesti. Frigoriferi che parlano con lavatrici per suggerire la spesa della famiglia, sensori che gestiscono la casa per aiutarci a risparmiare sui consumi elettrici, smartphone che controllano la nostre abitudini di acquisto per aiutarci a ottenere credito in banca. Gli americani ne sono già entusiasti. Gli europei meno.
Se fai fatica ad accettare che i tuoi dispositivi connessi autorizzati a condividere informazioni possano inviare consigli utili, allora stai alla larga dal futuro immaginato al Consumer Electronic Show, la più grande fiera del gadget che ogni anno a Las Vegas si mette in vetrina per suggerici come cambierà il nostro quotidiano. Quello che andrà in onda in questi giorni è la promessa di una vita “migliore” governata con l’intelligenza artificiale. Come dire, Black Mirror è adesso.
Chiaramente c’è molto marketing: le fiere dell’elettronica sono luoghi per commercianti, per venditori di oggetti, ma per la prima volta, mi spiegano gli esperti, il costo di connessione dell’elettronica che ci circonda e quello di elaborazione delle informazioni ha trovato quel punto di equilibrio da entrare negli scaffali delle grandi catene con oggetti smart a prezzi contenuti. E’ come se fossimo tornati agli anni Cinquanta quando gli elettrodomestici hanno invaso in massa le case degli italiani. Con la differenze che queste macchine possono non solo vedere e ascoltare ma anche parlarsi tra loro.
In realtà per abilitare una economia dei consigli così come se la immaginano oltre oceano servirebbero davvero il boom economico degli anni Cinquanta. Ma anche, chiosano alcuni esperti di tecnologia, la nascita di una nuova industria dei semiconduttori. Messa oggi più che mai in discussione dalle due falle alla sicurezza scoperte pochi giorni fa che da vent’anni rendono insicuri computer, smartphone e device che contengono un microprocessore.
Il 2017 ha conosciuto con il gigante cinese Huawei il debutto su smartphone di micropocessori progettati per lavorare con le reti neurali. I telefonini sono diventati il primo punto di ingresso per sperimentare machine learning e applicazioni di apprendimento automatico in mobilità. Cosa vuole dire? Una rete neurale non viene programmata per eseguire certi compiti ma viene addestrata, attraverso algoritmi di apprendimento automatico basati su una grande quantità di dati reali. Le reti neurali, che operano attraverso neuroni artificiali che si ispirano al funzionamento biologico del cervello umano, richiedono avanzati chip hardware particolarmente evoluti ed efficienti. Ma per addestrare più velocemente questi software chiamati a ricordare guardare e riconoscere cose o a tracciare e analizzare comportamenti serviranno più dati e quindi più gadget capaci di raccogliere informazioni. Non solo: secondo il venture capital che di mestiere investe sul futuro serve anche una nuova generazione di chip. L’anno scorso i Vc hanno investito 113 milioni di dollari in startup, quasi il triplo rispetto al 2015. Una cifra altissima se si considera che quello del silicio è un mestiere per pochi che vede sempre gli stessi attori: Intel, Amd, Nvidia ecc. In particolare gli occhi sono puntati sull’azienda del visionario capo di Nvidia, Jen-Hsun Huang. Il titolo nel 2017 ha corso in Borsa come pochi spinto dall’entusiasmo per le potenzialità dell’IA. Gli acceleatori grafici di Nvidia già ampiamente utilizzati per videogiochi e computer grafica, sono stati adattati per eseguire algoritmi di deep learning. Il problema di questo chip chiamate Gpu (Graphics processing unit) è che quando cominciano a lavorare in parallelo e in grande quantità assorbono moltissima energia.
Le piccole dell’intelligenza artificiale stanno progettando di produrre processori più efficienti proprio dal punto di vista energetico. La stessa Intel si è affidata a una startup per dare battaglia Nvidia acquisendo per 350 milioni di dollari Nervana.
«Il machine learning e il deep learning ci consentono di ricavare informazioni significative dai dati, ma i loro bisogni computazionali ci hanno portato a una nuova riflessione sull’hardware necessario – ha spiegato a Nova24 Naveen Rao, Vice President dell’Intel AI Products Group -. Nervana l’abbiamo pensato per liberarci dalle limitazioni imposte dall’hardware esistente con la speranza di aprire la strada a una nuova classe di applicazioni di intelligenza artificiale». L’intero chip è progettato per ottimizzare al massimo il flusso dei dati. La sfida è quella di riuscire a istruire una rete neurale con il maggior numero di dati nel minor intervallo di tempo. Anche Google lavora a un suo hardware. Il progetto Tensor processing unit (Tpu) vuole accelerare la fase inferenza delle reti neurali artificiali meglio dei processori in circolazione. Ma la scommessa vera delle startup è quella di processori su misura per le applicazioni di intelligenza artificiale. Aziende come Graphcore (50 milioni di finanziamenit da Sequoia Venture) o la cinese Cambicon ( 100 milioni) sono convinte che serva hardware altamente specializzato per supportare applicazioni AI.
Come sempre in campo tecnologico è questione di trovare i tempi giusti. Per le startup il rischio è di arrivare sul mercato con un chip sorpassato dai nuovi sofware. Per i Big del silicio di ritrovarsi di fronte a una nuova industria dell’hardware dell’Ia. Gli unici però che rischiano davvero di restare ancora una volta a svolgere il ruolo di spettatori siamo noi europei. L’Ia, si è capito, è un “mestiere” per chi ha soldi e dati. E i soldi e i dati stanno tutti dalle parti delle grandi piattaforme tecnologiche made in California (o giù di lì). Nei prossimi dieci anni l’Unione Europea, con il contributo degli Stati membri, investirà un miliardo di euro nella ricerca sulle tecnologie quantistiche. E’ una partita diversa ma ugualmente interessante. Anche perché forse, quella dell’Ia è già persa in partenza. Almeno per noi europei.