Se vedere per credere, preparati ad essere ingannato

Wikipedia Commons
Per favore, condividi questa storia!
Quando l'eco-mondo mette le mani su un software AI "deep fake", può creare immagini della terra che non possono essere rilevate come false, inserendo cose che non ci sono e rimuovendo cose che ci sono. Dimentica il "mentire con le statistiche"; Ora sta mentendo con le immagini. ⁃ TN Editor

Passaggio 1: utilizzare l'IA per apportare modifiche non rilevabili alle foto esterne. Step 2: liberali nel mondo open source e goditi il ​​caos.

Preoccupati falsi profondi- i video manipolati con macchine di celebrità e leader mondiali che presumibilmente affermano o fanno cose che in realtà non hanno fatto - sono pittoreschi rispetto a una nuova minaccia: immagini dotte della Terra stessa.

La Cina è il leader riconosciuto nell'uso di una tecnica emergente chiamata reti contraddittorie generative per ingannare i computer nel vedere oggetti nei paesaggi o nelle immagini satellitari che non ci sono, afferma Todd Myers, responsabile dell'automazione e Chief Information Officer nell'ufficio del direttore della tecnologia presso la National Geospatial-Intelligence Agency.

“I cinesi sono molto più avanti di noi. Non si tratta di informazioni classificate ", ha detto Myers giovedì alla seconda annuale Macchine Genius vertice, ospitato da Difesa One e Nextgov. “I cinesi hanno già progettato; lo stanno già facendo proprio ora, usando le GAN - che sono reti contraddittorie generative - per manipolare scene e pixel per creare cose per motivi nefasti ”.

Ad esempio, ha affermato Myers, un avversario potrebbe ingannare i tuoi analisti di immagini assistite da computer nel riferire che un ponte attraversa un fiume importante in un determinato punto.

“Quindi, dal punto di vista tattico o della pianificazione della missione, alleni le tue forze per percorrere un certo percorso, verso un ponte, ma non è lì. Poi c'è una grande sorpresa che ti aspetta ”, ha detto.

in sicurezza descritto in 2014, I GAN rappresentano una grande evoluzione nel modo in cui le reti neurali imparano a vedere e riconoscere gli oggetti e persino a rilevare la verità dalla finzione.

Supponiamo che tu chieda alla tua rete neurale convenzionale di capire quali oggetti sono cosa nelle foto satellitari. La rete suddividerà l'immagine in più pezzi, o gruppi di pixel, calcolerà come questi pezzi rotti si relazionano tra loro, quindi stabilirà quale sia il prodotto finale o se le foto siano reali o alterate. È tutto basato sull'esperienza di guardare molte foto satellitari.

I GAN invertono questo processo mettendo due reti l'una contro l'altra, da cui la parola "contraddittorio". Una rete convenzionale potrebbe dire: "La presenza di x, ye z in questi cluster di pixel significa che questa è l'immagine di un gatto". una rete GAN potrebbe dire: “Questa è l'immagine di un gatto, quindi devono essere presenti x, ye z. Cosa sono x, ye z e come si relazionano? ”La rete contraddittoria impara a costruire o generare x, ye z in modo da convincere la prima rete neurale, o il discriminatore, che c'è qualcosa quando, forse, non lo è.

Molti studiosi hanno trovato i GAN utili per individuare oggetti e ordinare immagini valide da quelli falsi. In 2017, usavano studiosi cinesi GANS per identificare strade, ponti e altre caratteristiche nelle foto satellitari.

La preoccupazione, come tecnologi dell'IA detto Quarzo l'anno scorso, è che la stessa tecnica in grado di discernere ponti reali da quelli falsi può anche aiutare a creare ponti falsi che l'IA non può dire dalla cosa reale.

Myers teme che, man mano che il mondo si affida sempre di più alle immagini open source per comprendere il terreno fisico, solo una manciata di set di dati manipolati con esperienza inseriti nella linea di fornitura di immagini open source potrebbe creare scompiglio. “Dimentica il [Dipartimento della Difesa] e la [comunità dell'intelligence]. Immagina che Google Maps venga infiltrato intenzionalmente? E immagina tra cinque anni quando il Seme di Tesla [auto-guida] ci sono routing fuori roba? ", ha detto.

Quando si tratta di video falsi profondi di persone, indicatori biometrici come il polso e il linguaggio possono sconfiggere l'effetto falso. Ma il paesaggio simulato non è vulnerabile alle stesse tecniche.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti