E’ un giochino e va preso come tale. Ma è piuttosto esemplificativo di come funzionino le reti neurali e il deep learning. Come sappiamo, le reti neurali opportunamente addestrate possono classificare le immagini e riconoscere gli oggetti identificando caratteristiche che li accomunano. Tuttavia, senza l’intervento “umano” non comprendono quello che vedono. Per aiutare a comprenderne il funzionamento Google ha pubblicato online un tutorial chiamato Teachable Machine che semplifica il processo di apprendimento e mostra come “insegnare” (tra virgolette) a interpretare delle immagini associando a ciascuna di esse una azione. In sostanza, il tutorial ti aiuta ad addestrare l’Ia. In che modo? Attraverso una webcam l’utente mostra degli oggetti che poi vengono associati a una immagine o a un suono. Il sistema riconosce l’oggetto ed esegue il comando. In questo video pubblicato sul sito dell’autorevole Mit Technology Review, viene “scherzata” il machine learning. Va detto che spesse volte dietro il marchio “intelligenza artificiale” ci sono limitati moduli di machine learning, statistica e algoritmi per capirci. Sostanzialmente sono sistemi avanzati di riconoscimento di schemi che si ripetono. Non c’è quindi auto-apprendimento.
Cosa è una rete neurale? Di solito viene rappresentata una rete neurale come un panino con strati di cibo uno sopra l’altro. Gli strati contengono neuroni artificiali, che sono piccole unità computazionali che si eccitano – il modo in cui un vero neurone si eccita – e passa quella eccitazione agli altri neuroni a cui sono connessi. L’eccitazione di un neurone è rappresentata da un numero, come 0,13 o 32,39, che dice quanto sia eccitato. E c’è un altro parametro, su ciascuna delle connessioni tra due neuroni, che determina la quantità di eccitazione che deve passare da uno all’altro. Quel numero intende modellare la forza delle sinapsi tra i neuroni nel cervello. Quando il numero è più alto, significa che la connessione è più forte, quindi più dell’eccitazione di uno scorre verso l’altro.
Una delle applicazioni più facili delle reti neurali è il riconoscimento delle immagini. Cioè, riconoscere in un video un determinato oggetto, come in questo caso le mani che si muovono. Il primo passo è quello di ottenere un’immagine. Diciamo per semplicità, è una piccola immagine in bianco e nero che è 100 pixel di larghezza e 100 pixel di altezza. Questa immagine viene sottoposta alla rete neurale impostando l’eccitazione di ciascun neurone simulato nello strato di input in modo che sia uguale alla luminosità di ogni pixel. Si collega quindi questo grande strato di neuroni ad un altro grande strato di neuroni sopra di esso. Infine, nello strato superiore del “panino”, lo strato di uscita, hai appena due neuroni – uno che rappresenta l’oggetto e l’altro che rappresenta il non oggetto. L’idea è insegnare alla rete neurale che il primo di quei neuroni si eccita solo se “vede” l’immagine dell’oggetto, e il secondo, se non ce n’è”. Questa tecnica si chiama Backpropagation ed è un metodo di apprendimento supervisionato. Funziona meglio con enormi quantità di dati. Ecco perché i Big data sono così importanti in questo campo. Ed è questo il limite vero dello sviluppo dell’Ia. Per affinare bene gli algoritmi servono moltissimi dati e capacità di calcolo. Un asset questo che le aziende e le università, a differenza delle grandi piattaforme come ad esempio Google e Facebook, non possiedono. (Qui l’articolo del Mit per approfondire)