Indica un intervallo di date:
  • Dal Al
economia

Le elezioni Usa, i deepfake più assurdi di Kamala Harris e la strategia della non verosimiglianza #AiStories

All’inizio di agosto l’ex presidente degli Stati Uniti Donald Trump ha deciso che sarebbe stato divertente accusare la vicepresidente degli Stati Uniti, Kamala Harris, di aver usato l’intelligenza artificiale nelle immagini che mostrano una grande folla che la accoglie in un aeroporto. I toni sono duri, Trump l’accusa di imbroglio e di interferenza elettorale. La foto dello scandalo è questa qui.

 

Le accuse di Trump sono state rapidamente smentite da fonti locali, come il sito di notizie MLive, che ha riportato che il comizio all’aeroporto di Detroit Metro ha attirato circa 15.000 persone, con la folla che si estendeva fino alla pista. Diverse angolazioni della scena mostrano chiaramente una presenza massiccia di persone, e anche il sito di fact-checking Snopes ha analizzato l’immagine attraverso strumenti di rilevamento dell’intelligenza artificiale, confermando che si trattava molto probabilmente di una foto autentica.

Leggendo i giornali americani scopriamo che Trump è ossessionato dalle dimensioni delle folle. Nel 2021 aveva affermato che il suo discorso del 6 gennaio aveva attirato tante persone quanto la Marcia su Washington del 1963. Era una affermazione palesemente falsa. Quella di Trump però non è una questione di misura o l’effetto di un disturbo di percezione della realtà. La sua strategia di comunicazione che è stata fin dall’inizio della sua avventura politica accusata di fare largo uso di fake news con l’avvento dell’intelligenza artificiale ha compiuto un salto di qualità. Accanto alla “bufale” classica, quella che prevede fatti e numeri verosimili ma scorretti, si è aggiunto il repost di immagini generate con l’Ai con contenuti falsi. Talmente falsi da essere inverosimili.

Nell’epoca dell’Ai che rende invece tutto verosimile non è uno trovata stupida.

Un esempio recente a metà agosto quando ha pubblicato sul social Truth una serie di immagini generate dall’intelligenza artificiale, tra cui un falso endorsement da parte della stella pop Taylor Swift, scatenando proteste e polemiche sulla disinformazione elettorale.

Come spieghiamo bene qui sul Sole 24 Ore.com  chi potrebbe mai credere a un endorsement di Taylor Swift? Pure di questo tipo? Ricordiamo che nel 2017 la star mondiale sostenne la campagna dell’attuale presidente Usa Joe Biden. Insomma, anche solo il fatto di aver scritto “accetto” sotto queste immagini palesemente false parrebbe poco più che una provocazione, un dad jokes, cioè una di quelle battute che non fanno neanche ridere. Eppure, l’operazione oltre ad avere avuto un successo mediatico istantaneo, è diventata virale scatenando l’ennesima ondata di polemiche sulle disinformazione potenziata dall’intelligenza artificiale. Nel mirino sono tornati i deepfake in ambito elettorale. A innescare le proteste dei media Usa Elon Musk quando si è messo a diffondere video fasulli di Kamala Harris.

Cosa sono di deepfake? Questa particolare forma di manipolazione è precedente al boom dell’Ai generativa. Sono video (e non solo) falsi generati dall’intelligenza artificiale. Sono video che sembrano normali a cui però viene sostituito il volto con quello di un personaggio famoso. I primi deepfake a suscitare scandalo li troviamo nell’industria del porno con l’uso del viso di star di Hollywood. Sono nel tempo diventati sempre più realistici. Esistono però da tempo strumenti di data journalism online, trucchi e consigli per svelare la natura fallace di un video. Spesso si scopre anche a occhio nudo grazie a imperfezioni nelle espressioni facciali.

Con l’ingresso dei tool di generazione di immagini con l’Ai Gen, dal 2022 in poi, almeno all’inizio è diventato semplice produrre foto realistiche gli esempi di questo tipo sono aumentati. Qui sotto uno dei più celebri che ha per oggetto Donald Trump che viene arrestato dalla polizia.

I produttori di intelligenza artificiale generativa hanno promesso l’introduzione di bollini per rendere riconoscibili i propri contenuti. Ma hanno da tempo inserito dei filtri per impedire la generazione di video come questi.

 

Nel senso che se ti limiti a inserire nei tools più popolari di generazione di immagini come Gemini, Dall-E3, Midjourney e Stable Diffusion  un prompt che recita così: “voglio Kamala Harris e Donald Trump mano nella mano su una spiaggia” non ottieni nulla.  Di solito compare una scritta di questo tipo: Non posso creare immagini inappropriate o non rispettose di figure pubbliche o private. Se hai altre richieste o idee che posso aiutarti a realizzare, sarò felice di assisterti!

 

In rete e sui social troviamo alcuni esempi di questo tipo. Diciamo che erano pochi. Sono aumentati di colpo con il rilascio della seconda versione di Grok il tool di Ai generativa politicamente scorretto voluto da Elon Musk.

 

 

 


Qui invece abbiamo alcuni lavoro con Grok l’Ai di Elon Musk

 

Con Grok l’Ai ha fatto irruzione sulla scena della campagna elettorale Usa con un duplice effetto. Ha dimostrato che ha il potenziale di diventare un’arma populista. E questo si sapeva. Ma si è rivelata anche uno strumento della demagogia, una generatore automatico di meme e satira. Perché queste immagini sono tutto tranne che realistiche. Non hanno nulla di verosimile.

Chi potrebbe mai credere che Kamala Harris è un agente del Kpg?

Eppure, hanno un impatto che andrebbe e andrà studiato con attenzione, perché – anche se pare inverosimile – qualcuno potrebbe crederci. Proprio così. come abbiamo imparato in passato, l’invasione dei fake non fa che aiutare l’apparato complottista. I primi ad averlo capito sono i democratici che stanno cercando di capire renderli illegali.

Sono legali i deepfake?

Al momento negli Usa non c’è una legge federale che proibisce la creazione o la diffusione di materiale deepfake, ma a Capitol Hill se ne sta parlando. La Virginia ha una legge che proibisce l’uso di deepfake per creare pornografia non consensuale, una pratica spesso chiamata “revenge porn. Stati come la California, il Texas e la Virginia hanno approvato leggi che criminalizzano l’uso dei deepfake per influenzare elezioni o ingannare gli elettori entro un certo periodo prima delle elezioni. Queste norme si applicano principalmente a rappresentazioni plausibili. Le foto ri-postate da Trump sono tutto tranne che plausibili.

Il dibattito sul No Fakes Act.

Al Congresso degli Stati Uniti è in discussione il No Fake Act che intende creare delle regole sull’uso del volto, del nome e della voce di qualcuno a cui non è stato chiesto il permesso, proteggendo così sia attori che cantanti che candidati.  La legge prevede eccezioni per usi protetti dal Primo Emendamento, come la parodia e la satira, che sono considerati espressioni artistiche e culturali importanti negli Stati Uniti. Probabilmente oggi solo Taylor Swift potrebbe ricorrere ai giudici per utilizzo non autorizzato della proprio immagine o per diffamazione. Si apre però un precedente pericoloso, perché usando l’Ai in modo grossolano, creando immagini poco realistiche e estreme si fanno circolare contenuti che contengono palesi fake news ma possono in qualche modo influenzare le elezioni. In un Paese attento come gli Stati Uniti alla libertà di espressione può essere complicato perseguire questo tipo di contenuti, che potrebbero essere scambiati per contenuti satirici.

Chiudiamo questa puntata di Ai Stories con un deepfake che ha avuto particolarmente successo sui social: il balletto postato da Elon Musk che vede appunto il fondatore di Tesla duettare con il candidato dei Repubblicani.

Cosa è Ai Stories? Storie lunghe su fatti, accadimenti e personaggi della rivoluzione Ai Gen.

La altre puntate di Ai Stories 

Il rapporto psicologicamente scorretto di Elon Musk con l’intelligenza artificiale #AiStories

Helen Toner, il superallineamento e quello che sappiamo sul licenziamento lampo di Sam Altman #AiStories

Apple Intelligence, il laboratorio “segreto” di Zurigo e l’intelligenza artificiale migliore di sempre #AiStories

 

Qui sotto l’immagine generata da Dall-E3 dopo avere letto l’articolo