Qualcuno l’ha definita una evoluzione di Google Lens, e in effetti è qualcosa già visto. La novità presentata in anteprima sui nuovi Samsung Galaxy s24 (e su Google Pixel 8) arriverà anche sugli altri smartphone Android. La disponibilità è prevista per il 31 gennaio sugli smartphone citati in tutti i mercati in cui sono presenti.
Si chiama “Cerchia e cerca” e lo possiamo definire come un un nuovo modo di cercare qualsiasi cosa sul vostro telefono Android, senza dover cambiare app. Ora, con un semplice gesto, potete selezionare ciò che vi incuriosisce nel modo che vi viene più naturale, ad esempio cerchiando, evidenziando, scarabocchiando o toccando, e ottenere maggiori informazioni proprio dove vi trovate.
Altra novità è il potenziamento dell’Ai in Lens. Sarà possibile puntare la fotocamera su qualsiasi cosa si veda, porre una domanda al riguardo e ottenere rapidamente informazioni grazie all’IA generativa integrata in Google Lens. Il roll-out è previsto inizialmente per gli Stati Uniti.
Quanto alla partnership con Samsung: Gemini Pro e Imagen 2 verranno implementati su Vertex AI via cloud su smartphone Samsung. Note, Registratore Vocale e Tastiera, utilizzeranno Gemini Pro per generare riassunti e note più accurati durante meeting e lezioni.
Con Imagen 2, inoltre, gli smartphone otterranno funzionalità text-to-image avanzate, anche per l’editing fotografico utilizzando la feature Generative Edit nell’app Galleria. La serie Galaxy S24 implementerà anche Gemini Nano, un modello dedicato alle attività on-device. Samsung sarà inoltre uno dei primi partner ad accedere ai test per Gemini Ultra, il modello specifico per task complessi, prima che sia reso disponibile ad aziende e sviluppatori.
Su Android arriveranno nuove funzionalità di messaggistica come Magic Compose, per creare messaggi in stili diversi grazie a Gemini Nano, e Photomoji per generare emoji personalizzate. Anche Android Auto beneficerà dell’IA, ad esempio riassumendo automaticamente testi lunghi e chat di gruppo durante la guida e suggerendo risposte senza dover toccare il telefono.
Per approfondire.
Microsoft Copilot ora è su tutti gli smartphone. #DatavizAndTools
Come funzionano Nightshade e Glaze? #DatavizAndTools
Fotoritocco, come funzionano Abobe Photoshop Elements e Premiere? #DatavizAndTools
Ecco come funziona Q il nuovo chatbot di AWS? #DatavizAndTools
Ecco come funziona Microsoft 365 Copilot, l’AI generativa entra nelle app di Office
Ecco come funziona GraphCast il nuovo modello per le previsioni meteorologiche globali di DeepMind
Cosa è e come funziona Code Interpreter per Gpt-4?
Come riconoscere immagini e testi generati dall’AI?
La matematica della ricchezza, la disuguaglianza inevitabile e l’econofisica
Wikipedia, l’intelligenza collettiva e gli affari #datavizandtool
Come si costruisce una mappa di Milano con ChatGpt? #datavizandtools
Come funziona MusicGen, il ChatGpt della musica di Meta #DatavizandTools
Bing, come funziona il copilota di Microsoft per il web? #DatavizAndTools
Le ultime novità “audio” dell’Ai generativa #DatavizAndTools
Gpt-4 vs Bard, cinque domande: chi risponde meglio? #howmeasuring
A proposito di mappe, cosa è Overture Maps Foundation? #DatavizAndTools
Ecco le nuove funzionalità di intelligenza artificiale generativa di Photoshop