Adobe, la società dietro al tool di editing fotografico Photoshop, ha annunciato l’arrivo di un nuovo modello generativo per la famiglia Firefly. Il modello di Adobe farà parte della suite Premiere Pro, che comprende strumenti di intelligenza artificiale generativa per uso professionale, riuniti sotto il nome di Firefly. Secondo quanto riportato da Bloomberg, la società statunitense ha iniziato a procurarsi i video per addestrare un suo modello e starebbe bussando alla porta della sua rete di fotografi e artisti offrendo loro 120 dollari per video di persone che svolgono azioni comuni come camminare o in cui esprimono emozioni tra cui gioia e rabbia. Inoltre, integrerà anche modelli di terze parti come Pika, RunwayML e anche Sora di OpenAI.
Come già mostrato dalla concorrenza, l’IA realizza filmati da zero e consente di intervenire successivamente su quanto prodotto, aggiungendo o rimuovendo elementi e lasciando che l’intelligenza artificiale migliori alcune parti del filmato, se non soddisfa le necessità dell’utente. In un’anteprima con alcune testate americane, come TechCrunch, un portavoce di Adobe ha creato con l’IA un video partendo da un elemento reale. Nello specifico, una foto di una valigetta è stata usata per generare un filmato in cui la stessa viene aperta per mostrare al suo interno diversi diamanti. L’azienda definisce questa funzione come “estensione generativa”. Per affrontare la paura dei deepfake, che inevitabilmente circondano i nuovi strumenti di intelligenza artificiale generativa, Adobe afferma che ogni video creato dall’IA conterrà delle informazioni aggiuntive, i cosiddetti metadati, con l’indicazione non solo dell’eventuale intervento dell’IA ma anche della tipologia di software utilizzato per generare il filmato. Adobe è parte della Content Authenticity Initiative, che promuove la definizione di standard comuni per aumentare la trasparenza dei contenuti realizzati con le nuove tecnologie generative.
Per approfondire.
Gpt-4, Gemini e Gemini 1.5 Pro. Scopri le differenze
Cerchia e cerca e altre novità Ai di Google sui telefonini Android
Come funziona Sima la nuova Ai di Google che completa i videogiochi al posto vostro
Come funziona e a cosa serve Ecco lo European Statistical Monitor?
Claude 3 di Anthropic è più potente di ChatGPt? Ecco quello che c’è da sapere.
Nasce Genie, il modello di Ai per creare videogiochi da una singola immagine
Ecco cosa promette il generatore di immagini Stable Diffusion 3
Gemma 2B e Gemma 7B. Ecco cosa si può fare con i modelli open source di Gemini
Da Adobe domande e riassunti con l’Ai gen su documenti Pdf
Nasce Sora il modello text-to-video di OpenAi. Ecco come funziona
Come funziona Lumiere l’Ai di Google che genera video dal testo #DatavizAndTools
Microsoft Copilot ora è su tutti gli smartphone. #DatavizAndTools
Come funzionano Nightshade e Glaze? #DatavizAndTools
Fotoritocco, come funzionano Abobe Photoshop Elements e Premiere? #DatavizAndTools
Ecco come funziona Q il nuovo chatbot di AWS? #DatavizAndTools
Ecco come funziona Microsoft 365 Copilot, l’AI generativa entra nelle app di Office
Ecco come funziona GraphCast il nuovo modello per le previsioni meteorologiche globali di DeepMind
Cosa è e come funziona Code Interpreter per Gpt-4?
Come riconoscere immagini e testi generati dall’AI?
La matematica della ricchezza, la disuguaglianza inevitabile e l’econofisica
Wikipedia, l’intelligenza collettiva e gli affari #datavizandtool
Come si costruisce una mappa di Milano con ChatGpt? #datavizandtools
Come funziona MusicGen, il ChatGpt della musica di Meta #DatavizandTools
Bing, come funziona il copilota di Microsoft per il web? #DatavizAndTools
Le ultime novità “audio” dell’Ai generativa #DatavizAndTools
Gpt-4 vs Bard, cinque domande: chi risponde meglio? #howmeasuring
A proposito di mappe, cosa è Overture Maps Foundation? #DatavizAndTools
Ecco le nuove funzionalità di intelligenza artificiale generativa di Photoshop