Esperti: l'unica difesa contro l'IA killer non la sta sviluppando

Per favore, condividi questa storia!
L'IA killer fuori controllo in guerra è inevitabile perché diventerà troppo complessa per la gestione e il controllo umani. L'unica vera risposta è di non svilupparla in primo luogo. ⁃ Editor TN

Una recente analisi sul futuro della guerra indica che i paesi che continuano a sviluppare l'IA per uso militare rischiano di perdere il controllo del campo di battaglia. Quelli che non rischiano l'eradicazione. Che tu sia a favore o contro la corsa agli armamenti dell'IA: sta accadendo. Ecco cosa significa, secondo un trio di esperti.

ricercatori provenienti da ASRC federale, una società privata che fornisce supporto alle comunità dell'intelligence e della difesa e l'Università del Maryland ha recentemente pubblicato un documento sul server prestampa ArXivdiscutere le potenziali ramificazioni dell'integrazione dei sistemi di intelligenza artificiale nella guerra moderna.

La carta - leggi qui - si concentra sulle conseguenze del prossimo futuro per la corsa agli armamenti dell'IA, supponendo che l'IA lo farà non in qualche modo impazzire o subentrare. In sostanza è uno sguardo breve, sobrio e terrificante su come tutte queste varie tecnologie di machine learning si baseranno sull'analisi delle attuali tecnologie militari all'avanguardia dell'IA e sulla prevista integrazione su scala.

Il documento inizia con un avvertimento sull'imminente catastrofe, spiegando che quasi sicuramente ci sarà un "incidente normale", riguardante l'IA - un incidente atteso di natura e portata che non possiamo prevedere. Fondamentalmente, i militari del mondo romperanno alcune uova civili rendendo l'omelette della corsa alle armi di intelligenza artificiale:

Lo studio di questo campo è iniziato con incidenti come Three Mile Island, ma le tecnologie AI implicano rischi simili. Trovare e sfruttare queste debolezze per indurre comportamenti difettosi diventerà una caratteristica permanente della strategia militare.

Se stai pensando che i robot killer si sfidino nelle nostre città mentre i civili corrono in cerca di un riparo, non ti sbagli, ma i robot come procura per i soldati non sono la più grande preoccupazione dell'umanità quando si tratta della guerra dell'IA. Questo documento discute cosa succede dopo che raggiungiamo il punto in cui diventa ovvio che gli umani stanno trattenendo le macchine in guerra.

Secondo i ricercatori, il problema non è uno che possiamo definire buono e cattivo. Certo è facile affermare che non dovremmo permettere ai robot di uccidere gli esseri umani con autonomia, ma non è così che funzionerà il processo decisionale del futuro.

I ricercatori lo descrivono come una pendenza scivolosa:

Se i sistemi di intelligenza artificiale sono efficaci, la pressione per aumentare il livello di assistenza al combattente sarebbe inevitabile. Il successo continuo significherebbe spingere gradualmente l'essere umano fuori dal giro, prima verso un ruolo di supervisione e poi infine verso il ruolo di "operatore di killswitch" che controlla una LEGGE sempre attiva.

LEGGI, o sistemi d'arma autonomi letali, scaleranno quasi immediatamente oltre la capacità degli umani di lavorare con computer e macchine, e probabilmente prima di quanto la maggior parte delle persone pensi. Il combattimento corpo a corpo tra macchine, ad esempio, sarà del tutto autonomo per necessità:

Nel tempo, man mano che l'IA diventa più capace di pensare riflessivo e integrativo, la componente umana dovrà essere eliminata del tutto man mano che la velocità e la dimensionalità diventeranno incomprensibili, anche tenendo conto dell'assistenza cognitiva.

E, alla fine, la tattica e la reattività necessarie per scambiare i colpi con l'IA saranno completamente al di là del genere umano:

Dato uno spazio di battaglia così schiacciante che gli umani non possono interagire manualmente con il sistema, il ruolo umano sarà limitato all'analisi forense post-hoc, una volta che le ostilità saranno cessate o saranno stati firmati i trattati.

Se questo suona un po 'triste, è perché lo è. Come Importa AI Jack Clark sottolinea: "Questo è un breve documento che espone le preoccupazioni di AI + War da una comunità di cui non sentiamo spesso notizie: persone che lavorano come fornitori diretti di tecnologia governativa".

Potrebbe essere nel migliore interesse di tutti prestare particolare attenzione a come sia gli accademici che il governo continuano a inquadrare il problema in futuro.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

2 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Elle

Mi stupisce sempre come debba essere condotto uno "studio" per "determinare" le probabilità delle azioni molto ovvie che verranno. Bene, DUH! sul fronte dell'IA, ragazzi. Mi ricorda di essere stato invitato a cena dalla moglie del CEO di una società di marketing. Lo definisco tale perché è tutto quello di cui ha parlato. Durante il pasto continuava a parlare della sua compagnia, fino alla nausea per tutti noi. Quando finalmente, ha raggiunto la ricompensa. Ha detto al tavolo che la sua azienda "straordinaria" aveva ricevuto 4 milioni di dollari per scoprire perché la gente ne aveva scelto uno... Per saperne di più »