Ingegneri informatici e scienziati politici inclini alla tecnologia hanno avvertito per anni che strumenti di intelligenza artificiale economici e potenti avrebbero presto consentito a chiunque di creare immagini, video e audio falsi che fossero abbastanza realistici da ingannare gli elettori e forse influenzare un'elezione.
Le immagini sintetiche emerse erano spesso grezzo, non convincente e costoso da produrre, soprattutto quando altri tipi di disinformazione erano così poco costosi e facili da diffondere sui social media. La minaccia rappresentata da AI e cosiddetti deepfakes sembrava sempre un anno o due di distanza.
Non piu.
Ora è possibile creare sofisticati strumenti di intelligenza artificiale generativa voci umane clonate e immagini iperrealistiche, video e audio in pochi secondi, a un costo minimo. Se collegato a potenti algoritmi di social media, questo contenuto falso e creato digitalmente può diffondersi in lungo e in largo e rivolgersi a un pubblico altamente specifico, portando potenzialmente i trucchi sporchi della campagna a un nuovo minimo.
Le implicazioni per le campagne e le elezioni del 2024 sono tanto grandi quanto preoccupanti: l'IA generativa non solo può produrre rapidamente e-mail, testi o video di campagne mirate, ma potrebbe anche essere utilizzata per ingannare gli elettori, impersonare candidati e minare le elezioni su una scala ea una velocità mai viste.
"Non siamo preparati per questo", ha avvertito AJ Nash, vicepresidente dell'intelligence presso la società di sicurezza informatica ZeroFox. “Per me, il grande balzo in avanti sono le capacità audio e video che sono emerse. Quando puoi farlo su larga scala e distribuirlo su piattaforme social, beh, avrà un grande impatto.
Esperti di intelligenza artificiale può rapidamente snocciolare una serie di scenari allarmanti in cui l'IA generativa viene utilizzata per creare media sintetici allo scopo di confondere gli elettori, calunniare un candidato o persino incitare alla violenza.
Eccone alcuni: messaggi automatizzati di robocall, con la voce di un candidato, che istruiscono gli elettori a votare nella data sbagliata; registrazioni audio di un candidato che presumibilmente confessa un crimine o esprime opinioni razziste; riprese video che mostrano qualcuno che tiene un discorso o colloquio non hanno mai dato. Immagini false progettate per sembrare notizie locali, affermando falsamente che un candidato si è ritirato dalla gara.
"E se Elon Musk ti chiama personalmente e ti dice di votare per un determinato candidato?" ha affermato Oren Etzioni, CEO fondatore dell'Allen Institute for AI, che si è dimesso lo scorso anno per avviare l'AI2 senza scopo di lucro. “Molte persone ascolterebbero. Ma non è lui.
L'ex presidente Donald Trump, in carica nel 2024, ha condiviso i contenuti generati dall'intelligenza artificiale con i suoi follower sui social media. Un video manipolato del conduttore della CNN Anderson Cooper che Trump ha condiviso sulla sua piattaforma Truth Social venerdì, che ha distorto la reazione di Cooper al Municipio della CNN La settimana passata con Trump, è stato creato utilizzando uno strumento di clonazione vocale AI.
Un annuncio pubblicitario distopico pubblicato il mese scorso dal Comitato nazionale repubblicano offre un altro scorcio di questo futuro manipolato digitalmente. L'annuncio online, che è venuto dopo Il presidente Joe Biden ha annunciato la sua campagna di rielezione, e inizia con una strana immagine leggermente deformata di Biden e il testo "E se il presidente più debole che abbiamo mai avuto fosse rieletto?"
Segue una serie di immagini generate dall'intelligenza artificiale: Taiwan sotto attacco; vetrine chiuse con assi negli Stati Uniti mentre l'economia si sgretola; soldati e veicoli militari blindati pattugliano le strade locali mentre criminali tatuati e ondate di immigrati creano il panico.
"Uno sguardo generato dall'intelligenza artificiale nel possibile futuro del paese se Joe Biden viene rieletto nel 2024", recita la descrizione dell'annuncio dal RNC.
L'RNC ha riconosciuto il suo uso dell'intelligenza artificiale, ma altri, comprese le nefaste campagne politiche e avversari stranieri, non lo faranno, ha affermato Petko Stoyanov, chief technology officer globale presso Forcepoint, una società di sicurezza informatica con sede ad Austin, in Texas. Stoyanov ha predetto che i gruppi che cercano di intromettersi nella democrazia statunitense impiegheranno l'intelligenza artificiale e i media sintetici come un modo per erodere la fiducia.
"Cosa succede se un'entità internazionale - un criminale informatico o uno stato nazione - impersona qualcuno. Qual è l'impatto? Abbiamo qualche ricorso? disse Stoyanov. "Vedremo molta più disinformazione da fonti internazionali".
La disinformazione politica generata dall'intelligenza artificiale è già diventata virale online prima delle elezioni del 2024, da a video falsificato di Biden sembra tenere un discorso attaccando le persone transgender a Immagini di bambini generate dall'intelligenza artificiale presumibilmente imparando il satanismo nelle biblioteche.
Immagini AI che sembra mostrare la foto segnaletica di Trump ha anche ingannato alcuni utenti dei social media anche se l'ex presidente non ne ha preso uno quando è stato arrestato e citato in giudizio in un tribunale penale di Manhattan per falsificazione di documenti aziendali. Sono state mostrate altre immagini generate dall'intelligenza artificiale Trump resiste all'arresto, anche se il loro creatore si è affrettato a riconoscere la loro origine.
La legislazione che richiederebbe ai candidati di etichettare le campagne pubblicitarie create con l'intelligenza artificiale è stata introdotta alla Camera dalla rappresentante Yvette Clarke, DN.Y., che ha anche sponsorizzato una legislazione che richiederebbe a chiunque crei immagini sintetiche di aggiungere una filigrana che indichi il fatto.
Alcuni stati hanno offerto le proprie proposte per aver risposto alle preoccupazioni sui deepfake.
Clarke ha affermato che la sua più grande paura è che l'IA generativa possa essere utilizzata prima delle elezioni del 2024 per creare un video o un audio che inciti alla violenza e metta gli americani l'uno contro l'altro.
"È importante tenere il passo con la tecnologia", ha dichiarato Clarke all'Associated Press. «Dobbiamo installare dei guardrail. Le persone possono essere ingannate e ci vuole solo una frazione di secondo. Le persone sono impegnate con le loro vite e non hanno il tempo di controllare ogni informazione. L'intelligenza artificiale utilizzata come arma, in una stagione politica, potrebbe essere estremamente dirompente".
All'inizio di questo mese, un'associazione di categoria per consulenti politici a Washington ha condannato l'uso di deepfake nella pubblicità politica, definendoli "un inganno" che "non ha posto in campagne legittime ed etiche".
Altre forme di intelligenza artificiale sono state per anni una caratteristica delle campagne politiche, utilizzando dati e algoritmi per automatizzare attività come prendere di mira gli elettori sui social media o rintracciare i donatori. Gli strateghi della campagna e gli imprenditori tecnologici sperano che le innovazioni più recenti offrano alcuni aspetti positivi anche nel 2024.
Mike Nellis, CEO dell'agenzia digitale progressiva Authentic, ha affermato di utilizzare ChatGPT "ogni singolo giorno" e incoraggia anche il suo staff a usarlo, purché qualsiasi contenuto redatto con lo strumento venga successivamente rivisto da occhi umani.
[…] L'intelligenza artificiale verrà utilizzata per distorcere i risultati delle elezioni del 2024? […]