Quando si tratta di decidere di uccidere un essere umano in tempo di guerra, una macchina dovrebbe prendere quella decisione o dovrebbe un altro essere umano?
La domanda è morale, portata in primo piano dalle tecniche e dagli incentivi della tecnologia moderna. È una questione il cui campo di applicazione rientra esattamente sotto gli auspici del diritto internazionale e che le nazioni hanno discusso per anni. Eppure è anche un problema di azione collettiva, che richiede non solo stati, ma anche aziende e lavoratori nelle aziende di raggiungere un accordo per rinunciare a un vantaggio percepito. Il pericolo non è tanto nel creare un'arma, ma nel creare un'arma in grado di scegliere bersagli indipendentemente dal responsabile umano che inizia la sua azione.
In un rapporto 8 di maggio di Pax - un'organizzazione no profit con l'obiettivo esplicito di proteggere i civili dalla violenza, ridurre i conflitti armati e costruire una giusta pace - gli autori guardano allo stato attuale dell'intelligenza artificiale nelle armi e sollecitano le nazioni, le aziende e i lavoratori a pensare su come prevenire una corsa agli armamenti di intelligenza artificiale, invece di pensare a come vincerne una. Senza azioni correttive, il rapporto avverte, lo status quo potrebbe portare tutti i partecipanti a una situazione senza vittorie, con qualsiasi vantaggio ottenuto dallo sviluppo di un'arma autonoma temporanea e limitata.
"Vediamo emergere questa corsa agli armamenti di intelligenza artificiale e pensiamo che se non succede nulla che sia una grave minaccia per l'umanità", ha detto Frank Slijper, uno degli autori di la relazione. “C'è una finestra di opportunità per fermare una corsa agli armamenti di intelligenza artificiale. Gli Stati dovrebbero cercare di prevenire una corsa agli armamenti di intelligenza artificiale e lavorare verso una regolamentazione internazionale. Nel frattempo, le aziende e gli istituti di ricerca hanno la responsabilità principale di assicurarsi che il lavoro nell'intelligenza artificiale e nei settori correlati non contribuisca a potenziali armi autonome letali. "
Il rapporto è scritto con un occhio specifico verso i sette principali poteri dell'IA. Questi includono i cinque membri permanenti del consiglio di sicurezza delle Nazioni Unite: Cina, Francia, Russia, Regno Unito e Stati Uniti. Inoltre, il rapporto dettaglia la ricerca dell'intelligenza artificiale di Israele e Corea del Sud, entrambi i paesi le cui posizioni geografiche e politiche hanno incoraggiato lo sviluppo dell'IA militare.
“Abbiamo identificato i principali attori in termini di utilizzo e ricerca e sforzi di sviluppo sull'IA e sull'uso militare dell'IA in armi sempre più autonome. Non riuscivo a pensare a nessuno, a nessuno stato che avremmo perso da questi sette ", afferma Slijper. "Certo, c'è sempre un numero otto e il numero nove."
Per ogni potere di intelligenza artificiale coperto, il rapporto esamina lo stato dell'IA, il ruolo dell'IA nelle forze armate e ciò che è noto della cooperazione tra gli sviluppatori di intelligenza artificiale nel settore privato o nelle università e nelle forze armate. Con paesi come gli Stati Uniti, in cui vengono nominati i programmi militari di IA, si possono indicare le politiche di governo e sono noti i dibattiti sulla relazione tra IA commerciale e uso militare, il rapporto descrive in dettaglio tale processo. L'accuratezza della ricerca viene utilizzata per sottolineare la missione esplicitamente attivista di Pax, sebbene fornisca anche una preziosa indagine sullo stato dell'intelligenza artificiale nel mondo.
Come sostiene il rapporto, questo ruolo dell'intelligenza artificiale nelle armi non è solo una questione per i governi. È una domanda per i responsabili delle aziende e una domanda per i lavoratori che creano AI per le aziende.
"Gran parte ha a che fare con il carattere piuttosto unico della tecnologia delle armi infuse dall'intelligenza artificiale", afferma Slijper. “Tradizionalmente, molte delle aziende che ora lavorano sull'intelligenza artificiale ci stavano lavorando da una prospettiva puramente civile per fare del bene e aiutare l'umanità. Queste compagnie non erano tradizionalmente produttori militari o fornitori dominanti dell'esercito. Se lavori per un'azienda di armi, sai per cosa stai lavorando. "
Negli Stati Uniti, è stata espressa la resistenza a contribuire ai contratti del Pentagono da parte dei lavoratori nel settore tecnologico. Dopo le proteste dei lavoratori di Google dopo aver appreso dell'impegno dell'azienda nei confronti di Progetto Maven, che ha sviluppato un'intelligenza artificiale di elaborazione di filmati con droni per i militari, la leadership dell'azienda ha accettato di tramontare il progetto. (Il progetto Maven è ora gestito dal Andruil sostenuto da Peter Thiel.)
Anche Microsoft ha esperienza resistenza dei lavoratori all'uso militare del suo strumento di realtà aumentata HoloLens, con alcuni operai che scrivevano una lettera in cui affermava che nelle mani del Pentagono, i sensori e il trattamento delle cuffie lo rendevano pericolosamente vicino a un componente dell'arma. I lavoratori hanno notato specificamente che loro aveva costruito HoloLens "Aiutare a insegnare alla gente come eseguire un intervento chirurgico o suonare il piano, spingere i confini del gioco e connettersi con la Mars Rover", il che è molto lontano dall'aiutare i militari nell'identificazione delle minacce di pattuglia.
"E penso che sia per un sacco di persone che lavorano nel settore tecnologico abbastanza inquietante che, mentre inizialmente, quell'azienda lavorava principalmente o solo su applicazioni civili di quella tecnologia, ora sempre più vedono che queste tecnologie sono state usate anche per scopi militari progetti o addirittura armi letali ", ha detto Slijper.
Slijper indica il protocollo sulle armi cieche come un modo in cui la comunità internazionale ha regolato una tecnologia con applicazioni sia civili che militari per garantire che il suo uso rientri nelle leggi della guerra.
Bene, Duh. Almeno c'è stato un respingimento da parte dei dipendenti una volta che hanno confermato che erano in uso. Ma davvero, pensaci. Lavori su componenti di intelligenza artificiale per note organizzazioni controllate e finanziate dal governo e non pensi che il punto fondamentale sia armare quella tecnologia per la macchina da guerra? SVEGLIA, BAMBINI! Non danno fondi perché sono gentili. L'intera storia del complesso governo / militare / intelligence e ciò che finanziano viene sorvolato e dimenticato da coloro che non vogliono vedere.