Il segretario all'esercito degli Stati Uniti Mark Esper ha recentemente rivelato che i militari hanno una visione strategica di utilizzare veicoli senza pilota autonomi e semi-autonomi sul campo di battaglia di 2028.
“Penso che la robotica abbia il potenziale di cambiare radicalmente il carattere della guerra. E penso che chiunque arriverà per primo avrà un vantaggio unico sul campo di battaglia moderno ", ha detto Esper durante un evento della Brookings Institution.
"La mia ambizione è di 2028, iniziare a mettere in campo veicoli autonomi e sicuramente semi-autonomi che possono combattere sul campo di battaglia", ha aggiunto. "Combatti, sostenici, fornisci le cose di cui abbiamo bisogno e continueremo ad evolvere da lì."
In un anteprima della visione strategica dell'esercito americano, rilasciata il 6 di giugno, Esper ha affermato che l'integrazione di queste forze sarebbe diventata una componente strategica critica, citando il documento:
L'esercito di 2028 sarà in grado di schierare, combattere e vincere in modo decisivo contro qualsiasi avversario, sempre e ovunque ... attraverso l'impiego di moderni velivoli con sistemi di combattimento a terra con equipaggio e senza pilota, sistemi di sostentamento e armi.
Quando è stato riferito che Esper è stato interrogato in merito alle preoccupazioni riguardanti i robot autonomi come una minaccia per l'umanità, ha risposto per scherzo: "Beh, non stiamo ancora facendo un T-3000", riferendosi al Terminator serie di film sull'intelligenza artificiale autocosciente che minacciano l'esistenza dell'umanità.
Naturalmente, mentre scherza sulla minaccia dei robot killer autonomi, l'inventore di polimeri Elon Musk prende chiaramente in seria considerazione il potenziale di tale minaccia, come evidenziato dal suo Commenti alla conferenza e al festival South by Southwest (SXSW) di marzo 11, in cui ha affermato che "l'IA è molto più pericolosa delle armi nucleari".
"Sono molto vicino all'avanguardia nell'intelligenza artificiale e mi spaventa da morire", ha detto Musk alla folla di SXSW. “L'intelligenza artificiale stretta non è un rischio a livello di specie. Si tradurrà in dislocazione ... lavori persi ... armi migliori e cose del genere. Non è un rischio fondamentale a livello di specie, ma lo è la superintelligenza digitale. "
"Penso che il pericolo dell'IA sia molto più grande del pericolo delle testate nucleari di molto. Nessuno suggerirebbe che permettiamo al mondo di costruire testate nucleari solo se lo desiderano, sarebbe folle. E segna le mie parole: l'IA è molto più pericolosa delle armi nucleari, "Ha aggiunto Musk.
As Il progetto del pensiero libero segnalati il mese scorso, secondo quanto riferito, il Pentagono prevede di spendere più di $ 1 miliardi nei prossimi anni per lo sviluppo di robot avanzati per applicazioni militari che dovrebbero integrare i soldati sul campo di battaglia e potenzialmente addirittura sostituirne alcuni.
Mentre lo sviluppo di questa tecnologia da parte dell'esercito suona come un movimento verso armi migliori e non una super-intelligenza digitale, come discusso da Musk, la creazione di sistemi di armi senza pilota completamente autonomi ha chiaramente implicazioni dato il potenziale sviluppo futuro di un tipo di "Super-intelligenza digitale".
Esper ha tentato di placare le paure osservando che il programma di veicoli senza pilota dell'esercito sarebbe simile all'utilizzo da parte dell'Aeronautica dei droni Predator, e ha chiarito che l'idea sarebbe quella di proteggere i soldati rimuovendoli dal combattimento diretto. A sua volta, ha detto, ciò migliorerebbe l'abilità tattica e la mobilità, aprendo così la strada a carri armati più economici a causa della mancanza di un equipaggio che necessitava di protezione.
Tuttavia, a causa della complessità del moderno campo di battaglia, un elemento umano rimarrebbe parte del processo.
“Nella mia visione, almeno, ci sarà un soldato nel giro. Ci deve essere. Il campo di battaglia è troppo complesso com'è ", ha detto Esper.
La sfumatura nella dichiarazione di Esper sembra apparentemente molta ambiguità quando dice: "Nella mia visione, almeno ..." che per impostazione predefinita probabilmente implica altre visioni concorrenti che quasi certamente includono l'uso di sistemi autonomi che non hanno un "solider nel ciclo continuo."
Durante il suo commento SXSW, Musk ha osservato che i rapidi progressi nell'intelligenza artificiale stanno superando di gran lunga la regolamentazione della tecnologia in crescita, creando così un pericoloso paradigma. Ha spiegato che mentre di solito è contrario alla regolamentazione e alla supervisione governative, le implicazioni potenzialmente catastrofiche per l'umanità creano un bisogno di regolamentazione.
"Normalmente non sono un sostenitore della regolamentazione e della supervisione", ha detto Musk. "Deve esserci un ente pubblico che abbia una visione e una supervisione per confermare che tutti stanno sviluppando l'IA in modo sicuro".
Mentre alcuni esperti del settore hanno tentato di respingere la minaccia rappresentata dall'umanità dallo sviluppo dell'IA, Musk ha affermato che questi "esperti" sono vittime delle proprie illusioni di superiorità intellettuale sulle macchine, definendo il loro processo di pensiero "fondamentalmente imperfetto".