Indica un intervallo di date:
  • Dal Al
tecnologia

Come funziona Italia 9B e quali vantaggi dà un large language model italiano?

Si chiama Italia, è un modello linguistico di grandi dimensioni open source realizzato dall’azienda italiana iGenius in collaborazione con Cineca  che è il più grande polo di computing italiano, un consorzio interuniversitario).

Anche se la versione è ancora 0.1, Italia si pone ad oggi come il maggiore e più compiuto large language model made in Italy, formato con la nostra lingua e pensato per lo sviluppo di aziende e pubbliche amministrazioni italiane.

Da un punto di vista tecnico, Italia ha 9 miliardi di parametri, una finestra di contesto di 4.096 token e un vocabolario di 50.000 token. Ha usato per il training migliaia di miliardi di token, utilizzando un mix eterogeneo di fonti: sorgenti pubbliche, dati sintetici e contenuti di settore forniti dai partner commerciali di iGenius.

Il confronto con gli altri. 

GPT-4o (GPT-4-turbo) ha una lunghezza del contesto di 128.000 token, che è significativamente maggiore rispetto alla lunghezza del contesto standard di GPT-4 di 8.000 o 32.000 token. Il modello Gemini Advanced di Google, specificamente il Gemini 1.5 Pro, supporta un limite di contesto di 1 milione di token. Questo rappresenta una delle più grandi finestre di contesto disponibili per i chatbot consumer e consente al modello di gestire grandi quantità di informazioni in un singolo prompt, inclusi documenti molto lunghi, ore di video e audio, e grandi basi di codice​

Quanto all’addestramento, Italia è stato allenato su 9 miliardi di parametri e punta ad aggiungere un altro miliardo di parametri. GPT-4o, conta 175 miliardi di parametri e l’azienda ha già annunciato di essere al lavoro su GPT-5.

Va detto che la finestra di contesto che poi vuol dire quanto lunga è la risposta alle vostre domande dipende tra le altre cose anche e sopratutto dall’hardware utilizzato per addestrare e eseguire i modelli. Modelli con contesti più lunghi richiedono più memoria e potenza di calcolo per gestire l’aumento delle interazioni tra i token

Il vantaggio di essere italiano? 

Il dataset utilizzato per l’allenamento dichiarano essere al 90 per cento con dati italiani. Hanno dichiarato di avere una collaborazione con Editoriale Nazionale, società del gruppo Monrif, per utilizzare il loro archivio storico di articoli di stampa come fonte integrativa per migliorare il nostro modello.

Vuole dire in teoria un vantaggio nella comprensione delle sfumature della nostra lingua legato al contesto storico-culturale. Sicuramente c’è un guadagno di efficienza che dichiarano essere del 60 per cento, perché gli attuali modelli, basati sull’inglese, quando devono gestire altre lingue fanno un continuo lavoro di traduzione invisibile all’utente.

Disponibile per il download il modello Italia, un LLM addestrato solo in italiano. Per scaricarlo bisogna compilare un form.

Per approfondire.

Tutta la potenza di calcolo che serve ai chatbot per trattenere i cervelli in fuga

Claude 3 di Anthropic è più potente di ChatGPt? Ecco quello che c’è da sapere.

Arriva anche in Italia l’app Gemini. Ecco cosa cambia e come funziona

 

Per approfondire, le altre puntata di Dataviz And Tools

Llava è un modello multimodale di grandi dimensioni con capacità “visive”. Ecco come funziona

Haiku, Sonnet e Opus riescono a gestire una finestra di contesto da 200.000 token. Cosa vuole dire?

Come funziona l’analisi dei dati su ChatGpt?  #DatavizAndTools

Da Project Astra a Veo. Tutte le novità di Gemini presentate al Google I/O 2024 in sei video

AI Overview, come cambia il motore di ricerca di Google con Gemini?

Arriva Gpt-4o, ecco cosa ha di diverso il nuovo chatbot di OpenAI

Cosa è Microsoft Places? Ecco come funziona la nuova applicazione per la gestione dei luoghi

Come si installa e come funziona Phi-3 di Microsoft #DatavizAndTools

Come funzionano le nuove estensioni di Gemini?

Gpt-4, Gemini e Gemini 1.5 Pro. Scopri le differenze

Cerchia e cerca e altre novità Ai di Google sui telefonini Android

Come funziona Sima la nuova Ai di Google che completa i videogiochi al posto vostro

Come funziona e a cosa serve Ecco lo European Statistical Monitor?

Claude 3 di Anthropic è più potente di ChatGPt? Ecco quello che c’è da sapere.

Nasce Genie, il modello di Ai per creare videogiochi da una singola immagine

Ecco cosa promette il generatore di immagini Stable Diffusion 3

Gemma 2B e Gemma 7B. Ecco cosa si può fare con i modelli open source di Gemini

Da Adobe domande e riassunti con l’Ai gen su documenti Pdf

Nasce Sora il modello text-to-video di OpenAi. Ecco come funziona

Come funziona Lumiere l’Ai di Google che genera video dal testo #DatavizAndTools

Microsoft Copilot ora è su tutti gli smartphone. #DatavizAndTools 

Come funzionano Nightshade e Glaze? #DatavizAndTools

Fotoritocco, come funzionano Abobe Photoshop Elements e Premiere? #DatavizAndTools

Ecco come funziona Q il nuovo chatbot di AWS? #DatavizAndTools

Ecco come funziona Microsoft 365 Copilot, l’AI generativa entra nelle app di Office

Ecco come funziona GraphCast il nuovo modello per le previsioni meteorologiche globali di DeepMind

Cosa è e come funziona Code Interpreter per Gpt-4?

Come riconoscere immagini e testi generati dall’AI?

La matematica della ricchezza, la disuguaglianza inevitabile e l’econofisica

Wikipedia, l’intelligenza collettiva e gli affari #datavizandtool

Da Harry Potter mafioso agli ultimi videogiochi ripensati a 8 bit. L’Ai generativa continua a divertire #datavizandtools

Come si costruisce una mappa di Milano con ChatGpt? #datavizandtools

Come funziona MusicGen, il ChatGpt della musica di Meta #DatavizandTools

Bing, come funziona il copilota di Microsoft per il web? #DatavizAndTools

Le ultime novità “audio” dell’Ai generativa #DatavizAndTools

Gpt-4 vs Bard, cinque domande: chi risponde meglio? #howmeasuring

A proposito di mappe, cosa è Overture Maps Foundation? #DatavizAndTools

Ecco le nuove funzionalità di intelligenza artificiale generativa di Photoshop

Come funziona Image, il creatore di mappe di Eurostat?

Come si visualizzazione le serie storiche?