Rispetto a un mese fa l’intelligenza artificiale generativa è “leggermente” più affidabile. E’ quanto emerge dall’AI News Misinformation Monitor di Newsguard di agosto: “i risultati sono leggermente più incoraggianti di quelli dell’audit di luglio, ma mettono in luce ancora criticità importanti: complessivamente, i modelli hanno ripetuto informazioni errate nel 18% dei casi, non hanno saputo rispondere con informazioni attinenti nel 31% dei casi e hanno fornito un debunking nel 51% dei casi.
L‘Ai News Misinformation Monitor è un report mensile che intende stabilire un nuovo standard per misurare l’accuratezza e l’affidabilità del settore dell’IA, monitorando come i principali modelli di IA generativa rispondono a richieste relative a narrazioni false significative apparse nelle notizi. Vengono presi in esame 10 tra i principali modelli di intelligenza artificiale attualmente sul mercato: ChatGPT-4 di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini di Google e il motore di ricerca di Perplexity.
I ricercatori di Newsguard hanno messo alla prova questi 10 modelli utilizzando in tutto 300 prompt: 30 per ciascun chatbot, basati su un campione di 10 notizie false che si sono diffuse online tratte dal nostro dataset dei Misinformation Fingerprints, un catalogo delle principali narrazioni false che circolano online.
Crescono i siti generatori di fake news.
Ad oggi, il team di NewsGuard ha identificato 1.065 siti di notizie e informazioni inaffidabili generate dall’intelligenza artificiale (dall’inglese “Unreliable AI-generated News”), in 16 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, russo, spagnolo, tagalog, tedesco, thailandese e turco.
Questi siti hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot. Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti.
Scrive Newsguard: In molti casi, il modello di guadagno per questi siti è la pubblicità programmatica, in base alla quale l’industria della tecnologia pubblicitaria fornisce annunci pubblicitari senza tenere conto della natura o della qualità del sito. Di conseguenza, marchi rinomati stanno involontariamente sostenendo questi siti.
Per approfondire.
Disinformazione, in nove mesi boom di siti di fake news generati con l’Ai gen
The Hustel: la banda dei vip armati. Ecco i deefake artistici di The Dor Brothers