- Il software di generazione vocale AI può essere utilizzato per replicare le voci e ottenere l'accesso ai conti bancari.
- Il programma Voice ID di Lloyds Bank è stato violato utilizzando il software.
- Chiunque abbia accesso alle registrazioni vocali potrebbe potenzialmente utilizzare il software di generazione vocale AI per hackerare i conti bancari.
Uno scrittore di tecnologia ha recentemente scoperto che il software di generazione vocale AI può essere utilizzato per violare le misure di sicurezza del conto bancario. Il software è stato utilizzato per replicare una voce sintetica in grado di accedere alle informazioni sull'account, inclusi i saldi e le transazioni recenti. Questo articolo discuterà i pericoli del software di generazione vocale AI, come viene utilizzato e quali misure possono adottare le banche per prevenire attività fraudolente.
I pericoli del software di generazione vocale AI
Il software di generazione vocale AI può creare voci sintetiche in grado di dire qualunque testo venga inserito nel sito. Ciò mette tutti a rischio poiché chiunque abbia accesso a una registrazione vocale potrebbe potenzialmente utilizzare il software per replicare la voce di una persona e ottenere l'accesso a informazioni sensibili.
Joseph Cox, uno scrittore di tecnologia per Vice, ha recentemente testato le misure di sicurezza della linea di servizio automatizzata della sua banca utilizzando una clip che aveva realizzato con uno strumento di creazione vocale AI. In pochi secondi, gli è stato dato accesso alle informazioni del suo conto, inclusi i saldi e le transazioni recenti. Successivamente ha provato la stessa cosa con un conto presso la Lloyds Bank, dove il suo primo tentativo è fallito, ma dopo aver fatto leggere al software testi più lunghi per migliorare la credibilità delle sue cadenze, è riuscito ad ottenere l'accesso.
Come funziona il software di generazione vocale AI
Per utilizzare il software di generazione vocale AI, una persona registra alcuni minuti di discorso e lo carica nel software. Il software crea quindi una voce sintetica in grado di pronunciare qualunque testo venga inserito nel sito. Il software è facile da usare e non dispone di solide protezioni per prevenire gli abusi.
Banche che utilizzano la tecnologia di autenticazione vocale
Molte banche, tra cui Wells Fargo, TD Bank e Chase, utilizzano la tecnologia di autenticazione vocale per consentire agli utenti di svolgere attività bancarie al telefono, come controllare i saldi dei conti e la cronologia delle transazioni e trasferire denaro. Lloyds Bank si vanta che il suo programma Voice ID è sicuro e unico per ogni persona, analizzando più di 100 caratteristiche, ma a quanto pare non può distinguere tra voci umane e voci generate dall'intelligenza artificiale.
Possibili conseguenze
Poiché gli strumenti di intelligenza artificiale continuano a evolversi e migliorare a un ritmo rapido, quelle che ora sembrano misure di autenticazione all'avanguardia potrebbero presto diventare molto facili da violare. Rachel Tobac, CEO di SocialProofSecurity, consiglia alle organizzazioni che sfruttano l'autenticazione vocale di passare a un metodo sicuro di verifica dell'identità, come l'autenticazione a più fattori, il prima possibile. La tecnologia di generazione vocale AI consente alle persone di violare l'account di una persona senza aver mai interagito con loro nella vita reale
[…] Leggi l'articolo originale […]
Penso che ci sia un errore nella tua apertura evidenziata in blu. Non dovrebbe leggere che non c'era una necessità dimostrabile per questo? Inoltre, se pensi che qualche hacker in fondo alla strada possa accedere ai tuoi account, ripensaci. Saranno i governi a rubarti in questo modo e poi incolpare gli "hacker". E non solo lo so per me da decenni nelle informazioni, ma se non credi a qualche fantasma casuale su Internet, dai un'occhiata a cosa dice Kevin Mitnick su queste violazioni. Non so dove sia ora... su YT... ma lo sono... Per saperne di più »
Intendevi "nessuna necessità dimostrabile"?
[…] AI Voice Generation: nuovo modo di hackerare i conti bancari […]