Democrazia deepfake
Come l'intelligenza artificiale sta cambiando per sempre il panorama elettorale mondiale.
Foreign Affairs - una newsletter di notizie da tutto il mondo
a cura di Luca Salvemini
N. 122 - 29 giugno 2025
Immaginate un mondo dove un video di Donald Trump che critica il governo rumeno può essere creato in pochi minuti da chiunque abbia un computer. Dove un candidato presidenziale può "apparire" in luoghi dove non è mai stato, dire cose che non ha mai detto, e tutto questo sembra perfettamente reale.
Non è fantascienza. È il 2025, e questo mondo è già qui.
Come spiega un reportage del New York Times, da quando l'intelligenza artificiale generativa è esplosa negli ultimi due anni, la tecnologia ha denigrato o diffamato gli avversari e, per la prima volta, hanno dichiarato funzionari ed esperti, ha iniziato ad avere un impatto sui risultati elettorali.
Gratuiti e facili da usare, gli strumenti di AI hanno generato un'inondazione di foto e video falsi di candidati o sostenitori che dicono cose che non hanno detto o che appaiono in luoghi dove non sono mai stati.
Il tutto diffuso con la relativa impunità dell'anonimato online.
Un esempio è stato registrato nelle recenti elezioni in Germania, Polonia e Portogallo, dove, specialmente nell’estrema destra, la tecnologia è servita ad amplificare le divisioni sociali e a rafforzare il sentimento antigovernativo.
In Romania, un'operazione di influenza russa che utilizzava l'IA ha contaminato il primo turno delle elezioni presidenziali dello scorso anno, secondo i funzionari governativi. Un tribunale ha annullato quel risultato, forzando un nuovo voto il mese scorso e portando una nuova ondata di falsificazioni.
È stata la prima grande elezione in cui l'IA ha svolto un ruolo decisivo nell'esito.
È improbabile che sia l'ultima.
Funzionari ed esperti avvertono come man mano che la tecnologia migliori, il rischio sarà quello di minare la fiducia nell'integrità elettorale, contribuendo ad erodere il consenso politico necessario perché le società democratiche funzionino.
Madalina Botan, professoressa presso l'Università Nazionale di Studi Politici e Amministrazione Pubblica nella capitale romena, Bucarest, ha detto che non c'era dubbio che la tecnologia venisse "usata per scopi ovviamente malevoli" ovvero manipolare gli elettori. "Questi meccanismi sono così sofisticati che sono davvero riusciti a far diventare virale un contenuto in un tempo molto limitato. Cosa può competere con questo?"
Nell'ondata insolitamente concentrata di elezioni che si sono svolte nel 2024, l'IA è stata utilizzata in più dell'80%, secondo l’International Panel on the Information Environment (IPIE), un'organizzazione indipendente di scienziati con sede in Svizzera.
Sono stati documentati 215 casi di utilizzo dell'IA nelle elezioni di quell'anno, basandosi su dichiarazioni governative, ricerche e rapporti giornalistici.
Quest'anno, l'utilizzo di strumenti di intelligenza artificiale hanno svolto un ruolo in almeno altre nove elezioni importanti, dal Canada all'Australia.



Tuttavia, non tutti gli usi dell’AI sono da considerarsi negativi o controversi.
Nel 25% dei casi esaminati dall’IPIE, i candidati hanno utilizzato l'AI per sé stessi, affidandosi ad essa per tradurre discorsi e piattaforme in dialetti locali e per identificare blocchi di elettori da raggiungere.
In India, la pratica di clonare i candidati è diventata comune "non solo per raggiungere gli elettori ma anche per motivare i lavoratori del partito", secondo uno studio del Center for Media Engagement dell'Università del Texas ad Austin.
Allo stesso tempo, tuttavia, decine di deepfake - fotografie o video che ricreano persone reali - hanno utilizzato l'AI per clonare voci di candidati o trasmissioni di notizie. Sempre secondo il sondaggio dell’IPIE, l'AI è stata caratterizzata come avente un ruolo dannoso nel 69% dei casi.
Anche nelle elezioni americane dello scorso anno si sono registrati diversi interventi malevoli di tool di intelligenza artificiale; tale è stata l’allerta da provocare avvertimenti pubblici da parte di funzionari della Cybersecurity and Infrastructure Security Agency, dell'Office of the Director of National Intelligence e del Federal Bureau of Investigation.
"Nel 2024, i potenziali benefici di queste tecnologie sono stati largamente eclissati dal loro uso improprio dannoso", ha detto Inga Kristina Trauthig, professoressa alla Florida International University, che ha guidato il sondaggio.
Gli usi ingannevoli più intensivi dell'AI sono venuti da paesi autocratici che cercavano di interferire nelle elezioni al di fuori dei loro confini, come Russia, Cina e Iran.
La tecnologia ha permesso loro di amplificare il supporto per candidati più flessibili alla loro visione del mondo - o semplicemente di screditare l'idea stessa della governance democratica come sistema politico preferibile ad altri.
Una campagna russa ha cercato di fomentare sentimenti anti-Ucraina prima delle elezioni presidenziali del mese scorso in Polonia, dove molti rifugiati ucraini si sono trasferiti. Ha creato video falsi che suggerivano che gli ucraini stavano pianificando attacchi per disturbare le votazioni.
La differenza con le elezioni precedenti sta tutta nei costi e nella difficoltà. Prima per un attacco ci si affidava a lavoratori in “troll farm” per generare account e contenuti sui social media, spesso incappando in un linguaggio improprio che tradiva immediatamente l’artificiosità delle parole.
Con l'AI, questi sforzi possono essere fatti a una velocità e su una scala che erano inimmaginabili quando i media tradizionali e i giornali erano le principali fonti di notizie politiche.
Saman Nazari, un ricercatore dell'Alliance 4 Europe, un'organizzazione che studia le minacce digitali alle democrazie, ha detto che “le elezioni di quest'anno in Germania e Polonia hanno mostrato per la prima volta quanto efficace la tecnologia fosse diventata per le campagne straniere, così come per i partiti politici nazionali”.



I progressi negli strumenti commercialmente disponibili come il creatore di immagini di Midjourney e il nuovo generatore audio-video IA di Google, Veo, hanno reso ancora più difficile distinguere le falsificazioni dalla realtà, specialmente a colpo d'occhio.
Grok, il chatbot IA e generatore di immagini sviluppato da Elon Musk, riprodurrà facilmente immagini di figure popolari, inclusi politici.
Questi strumenti hanno reso più difficile per governi, aziende e ricercatori identificare e tracciare campagne sempre più sofisticate.
Prima dell'AI, "dovevi scegliere tra scala o qualità in quanto la qualità proveniente dalle troll farm umane era essenzialmente scarsa, e la scala proveniente dai bot che potevano dartela ma erano di bassa qualità", ha detto Isabelle Frances-Wright, direttore di tecnologia e società presso l'Institute for Strategic Dialogue. "Ora, puoi avere entrambi, e questo è davvero un territorio spaventoso in cui trovarsi."
Le principali piattaforme di social media, inclusi Facebook, X, YouTube e TikTok, hanno politiche che governano l'uso improprio dell'AI e hanno preso provvedimenti in diversi casi che coinvolgevano elezioni.
Allo stesso tempo, sono gestite da aziende con un interesse acquisito in tutto ciò che mantiene gli utenti a scorrere, secondo i ricercatori che dicono che le piattaforme dovrebbero fare di più per limitare contenuti fuorvianti o dannosi.
Nelle elezioni dell'India, per esempio, pochissimi dei contenuti AI sulla piattaforma di Meta era contrassegnati da un disclaimer, come richiesto dall'azienda, secondo lo studio del Center for Media Engagement.
E tutto ciò va oltre il semplice contenuto falso.
I ricercatori dell'Università di Notre Dame hanno scoperto l'anno scorso che account inautentici generati da strumenti AI potevano facilmente evadere il rilevamento su otto principali piattaforme di social media: LinkedIn, Mastodon, Reddit, TikTok, X e le tre piattaforme di Meta, Facebook, Instagram e Threads.
In sostanza, le aziende leader che guidano l'avvento dei prodotti di intelligenza artificiale sono le stesse che dovrebbero contrastarla, impedendo l’utilizzo per fini manipolativi.
Nel 2024, OpenAI ha interrotto cinque operazioni di influenza mirate agli elettori in Rwanda, Stati Uniti, India, Ghana e Unione Europea durante le sue corse parlamentari, secondo i rapporti dell'azienda.
Questo mese, l'azienda ha rivelato di aver rilevato un'operazione di influenza russa che utilizzava ChatGPT durante le elezioni tedesche di febbraio. In un caso, l'operazione ha creato un account bot su X che ha raccolto 27.000 follower e ha postato contenuti a supporto del partito di estrema destra, Alternative für Deutschland, o AfD. Il partito, una volta visto come marginale, è balzato al secondo posto, raddoppiando il numero dei suoi seggi in Parlamento.
Il caso più dirompente si è verificato nelle elezioni presidenziali rumene alla fine dello scorso anno. Nel primo turno di votazioni di novembre, un candidato dell'estrema destra poco conosciuto, Calin Georgescu, è balzato in testa con l'aiuto di un'operazione russa segreta che, secondo la tesi della giustizia romena, ha coordinato una campagna inautentica su TikTok (ne avevamo parlato in questa newsletter).
I critici, incluso il vicepresidente americano, JD Vance, e Musk, hanno denunciato la successiva annullamento del voto stesso da parte del tribunale come antidemocratico. "Se la tua democrazia può essere distrutta con qualche centinaio di migliaia di dollari di pubblicità digitale da un paese straniero", ha detto Vance in febbraio, "allora non era molto forte."

L'Unione Europea ha aperto un'indagine per stabilire se TikTok avesse fatto abbastanza per limitare il numero di attività manipolative e disinformazione sulla piattaforma. A parole, TikTok ha affermato di essersi mossa rapidamente per rimuovere post che violavano le sue politiche. In due settimane prima del secondo turno di votazioni in Romania, ha detto di aver rimosso più di 7.300 post, inclusi quelli generati dall'AI ma non identificati come tali.
Lucas Hansen, un fondatore di CivAI, un'organizzazione no-profit che studia le capacità e i pericoli dell'intelligenza artificiale, ha detto di essere preoccupato molto più che per il semplice potenziale utilizzo dei deepfake per ingannare gli elettori. L'IA, ha avvertito, sta “confondendo così tanto il dibattito pubblico che le persone stanno diventando disilluse”.
"L'inquinamento dell'ecosistema dell'informazione sarà una delle cose più difficili da superare", ha detto. "E non sono davvero sicuro che ci sia molto modo di tornare indietro da quello."
Stiamo assistendo a una trasformazione epocale: per la prima volta nella storia umana, le macchine possono influenzare direttamente noi e chi ci governa.
Non si tratta solo di tecnologia, ma di una questione esistenziale per la democrazia. Come società, siamo di fronte ad un bivio: adattarci a questa nuova realtà, intercettandone le distorsioni o le alterazioni telecomandate o rischiare che la democrazia stessa diventi un ricordo del passato.
La partita è appena iniziata. E questa volta, l'avversario è invisibile, instancabile e in continua evoluzione.
In definitiva, ciò che possiamo - continuare - a fare noi è dubitare, verificare le notizie che leggiamo attraverso più fonti diverse.
In sintesi, continuare a ragionare con la nostra testa.
Certamente non si torna indietro.
Bisognerebbe combattere rispondendo con la stessa moneta: inondare i social di contenuti credibili fabbricati con la AI che confondano le idee ai target elettorali della destra.
Alla fine andrebbero a votare solo gli elettori che hanno vera cognizione di causa.
Il vero problema è che spesso le alternative sono scarse e bisogna comunque votare turandosi il naso.
Sono curioso di vedere se l'esperimento delle primarie democratiche di New York con una proposta così estrema per il pubblico americano avrà successo anche a livello nazionale.
Gianni, corretto quello che dici. Il test Ny è interessante ma ha anche tante peculiarità. Sicuramente è l'ennesima sonora bocciatura per l'establishment del Partito Democratico che appoggiava Cuomo.