GPT-4.5 is ready!
good news: it is the first model that feels like talking to a thoughtful person to me. i have had several moments where i’ve sat back in my chair and been astonished at getting actually good advice from an AI.
bad news: it is a giant, expensive model. we…
— Sam Altman (@sama) February 27, 2025
Così Sam Altman su X: “GPT-4.5 è pronto! Buone notizie: è il primo modello che mi dà la sensazione di parlare con una persona premurosa. Ci sono stati diversi momenti in cui mi sono seduto sulla sedia e sono rimasto sbalordito nel ricevere consigli davvero buoni da un’IA. Cattive notizie: è un modello gigantesco e costoso. Volevamo davvero lanciarlo su Plus e Pro contemporaneamente, ma siamo cresciuti molto e abbiamo esaurito le GPU. Aggiungeremo decine di migliaia di GPU la prossima settimana e poi lo lanceremo sul livello Plus. (Centinaia di migliaia in arrivo presto e sono abbastanza sicuro che userete tutte quelle che riusciremo ad accumulare.) Non è così che vogliamo operare, ma è difficile prevedere perfettamente picchi di crescita che portano a carenze di GPU. Un avvertimento: questo non è un modello di ragionamIento e non supererà i benchmark. È un diverso tipo di intelligenza e c’è una magia in esso che non avevo mai percepito prima. Sono davvero emozionato che le persone lo provino!
Era ieri giovedì 27 febbraio e OpenAi annuncia di aver rilasciato un’anteprima del suo ultimo modello GPT-4.5 per gli utenti Pro e gli sviluppatori di tutto il mondo, con l’intenzione di ampliare l’accesso nelle prossime settimane.
Il modello oltre a essere il più potente promette di avere un tasso inferiore di “allucinazioni”, un problema comune in cui i modelli linguistici di grandi dimensioni generano informazioni false. Con il 37,1%, il tasso di allucinazioni di GPT-4.5 si confronta con il 61,8% mostrato da GPT-4o e il 44% mostrato dal modello di ragionamento o1.
GPT‑4.5, scrivono, non pensa prima di rispondere, il che rende i suoi punti di forza particolarmente diversi dai modelli di ragionamento come OpenAI o1. Rispetto a OpenAI o1 e OpenAI o3‑mini, GPT‑4.5 è un modello più generico e intrinsecamente più intelligente.
Gli utenti di ChatGPT Pro potranno selezionare GPT‑4.5 nel selettore modello su Web, dispositivi mobili e desktop. Ha accesso alle informazioni più aggiornate con la ricerca, supporta il caricamento di file e immagini e può usare canvas per lavorare su scrittura e codice. Tuttavia, GPT‑4.5 al momento non supporta funzionalità multimodali come Voice Mode, video e condivisione dello schermo in ChatGPT. In futuro, lavoreremo per semplificare l’esperienza utente in modo che l’IA “funzioni e basta” per te.
Una settimana fa invece…
A pochi distanza di giorni altri due annunci. Prima il rilascio di Deep Research che è ora disponibile per tutti gli utenti abbonati. E poi novità anche per Advanced Voice che arriva nelle mani di più utenti.
Andiamo con ordine. Rilasciato durante i primi giorni di febbraio ma solo per gli utenti Pro, Deep Research è un agente integrato nel modello di OpenAI o3 pensato per eseguire attività di ricerca su internet anche molto complesse riducendo drasticamente i tempi di attività: può essere considerato l’assistente personale degli utenti che, grazie a un’elevata capacità di ragionamento può effettuare ricerche, interpretare i contenuti ed analizzare testi anche molto ampi, immagini e documenti PDF presenti in rete realizzando in pochi minuti ciò che a un essere umano richiederebbe diverse ore di lavoro.
In aggiunta, OpenAI ha annunciato il debutto di nuove modalità per consentire l’utilizzo della funzione Advanced Voice anche agli utenti del chatbot che usano un piano gratuito, passando da una preview mensile a una giornaliera. Ciò è stato reso possibile aggiornando il modello che supporta Advanced Voice (per gli utenti senza abbonamento) a GPT-4o mini ovvero più economico ma comunque in grado di offrire ritmo e tono di conversazione naturale, come quello già apprezzato da coloro che usano GPT-4o: dalle esercitazioni in una nuova lingua straniera con feedback in tempo reale alla una sessione di meditazione guidata, gli utilizzi di questa funzionalità possono essere davvero molto ampi.
Ancora una notizia…
OpenAI ha annunciato oggi 28 febbraio che Sora, il modello di generazione video di OpenAI, inizierà la fase di roll out nel Regno Unito e in Europa. Parliamo del tools che consente alle persone di realizzare video semplicemente scrivendo quello che vogliono vedere. Il servizio già presente da alcuni mesi negli Stati Unti è disponibile per gli abbonati a ChatGPT Pro (200 dollari al mese) o Plus (24 dollari). Ciò significa che gli utenti in Europa avranno accesso a Sora Editor per generare, modificare e perfezionare video a partire da testi, foto e brevi video su Sora.com.
Sora has arrived in the EU and the UK. pic.twitter.com/vk4QynY1N8
— OpenAI (@OpenAI) February 28, 2025
Cosa sa fare Sora?
Per esempio, consente di sostituire, rimuovere o reinventare elementi in un video; identifica e isola i migliori fotogrammi, estendendoli in entrambe le direzioni per completare una scena; organizza e modifica una sequenza unica dei video su una timeline personale, ritaglia e crea video che si ripetono in modo continuo; combina due video in un unico clip e consente di creare e condividere stili che catturano l’immaginazione, come Film Noir, Card e Papercraft.
Cosa sta accadendo
Nel giro di poco più di dieci giorni una raffica di novità. Rispetto a quanto dichiarato Sam Altman sta accelerando. Forse troppo, forse l’effetto e il successo di DeepSeek stanno imprimendo un cambio di direzione alla roadmap di OpenAi. Forse stanno uscendo tutti i prodotti previsti perché c’è altro su cui lavorare.
Per approfondire.
Tra qualche mese uscirà il prossimo Gpt-5 che integrerà o3 il modello di ragionamento più avanzato
ChatGpt su WhatsApp ascolta i vocali e legge le immagini #DatavizAndTools
Sam Altman dalla “parte sbagliata della storia”
OpenAi aggiorna Canvas. Ecco cosa cambia con o1
Come funziona Operator di OpenAi? #DatavizAndTools
ChatGpt Task è una to-do-list per le tue attività quotidiane
Come funziona Canvas la nuova interfaccia per ChatGpt? #DatavizAndTools
Ecco come funziona o1, il modello di OpenAi che “pensa” prima di rispondere
Disponibile ChatGpt per Windows. Ecco cosa cambia #DatavizAndTools
L’informazione, i giornali, i viaggi e il senso della vita. La prova di SearchGpt
SearchGpt sta arrivando. OpenAi sfida Google sui motori di ricerca. Ecco cosa sappiamo finora
Che fine ha fatto SearchGpt, il motore di ricerca di OpenAi?
Cosa è AI Overview? Ecco come sta cambiando il motore di ricerca di Google con Gemini
Cosa è WildChat? Più di un milione di prompt (e risposte) per allenare il vostro chatbot
Come si scrive un prompt per Midjourney?
L’Ai Gen si è convertita all’ideologia “woke”? #PromptAnalysis
Quali caratteristiche deve avere un cantante per vincere Sanremo? Risponde Gpt4