Ex ingegnere Google: "Killer Robots" potrebbe iniziare la guerra

Per favore, condividi questa storia!
Mentre i governi intensificano la corsa agli armamenti dell'IA per dirigere robot autonomi con una `` licenza di uccidere '', aumenta anche il rischio di orribili errori, inclusa la possibilità di iniziare una guerra tra robot. ⁃ TN Editor

Una nuova generazione di armi autonome o "robot killer" potrebbe accidentalmente iniziare una guerra o causare atrocità di massa, un ex Google l'ingegnere del software ha avvertito.

Laura Nolan, che l'anno scorso ha rassegnato le dimissioni da Google per protestare per essere stata inviata a lavorare su un progetto per migliorare notevolmente Militare degli Stati Uniti tecnologia dei droni, ha chiesto il divieto di tutte le macchine per uccidere l'IA non gestite dall'uomo.

Nolan ha affermato che i robot killer non guidati dal controllo remoto umano dovrebbero essere messi fuori legge dallo stesso tipo di trattato internazionale che vieta le armi chimiche.

A differenza dei droni, che sono controllati da squadre militari spesso a migliaia di miglia di distanza da dove viene dispiegata l'arma volante, Nolan afferma che i robot killer hanno il potenziale per fare "cose ​​disastrose per le quali non erano originariamente programmate".

Non vi è alcun suggerimento che Google sia coinvolto nello sviluppo di sistemi di armi autonomi. Il mese scorso un gruppo di esperti governativi delle Nazioni Unite ha discusso di armi autonome e ha scoperto che Google stava evitando l'IA per l'uso nei sistemi di armi e impegnandosi nelle migliori pratiche.

Nolan, che ha aderito al Campagna fermare i robot assassini e ha informato i diplomatici delle Nazioni Unite a New York e Ginevra sui pericoli rappresentati dalle armi autonome, ha dichiarato: “La probabilità di un disastro è proporzionale al numero di queste macchine in una determinata area contemporaneamente. Quello che stai guardando sono possibili atrocità e omicidi illegali anche in base alle leggi della guerra, specialmente se vengono schierate centinaia o migliaia di queste macchine.

“Potrebbero esserci incidenti su larga scala perché queste cose inizieranno a comportarsi in modo inaspettato. Ecco perché qualsiasi sistema di armi avanzato dovrebbe essere soggetto a un significativo controllo umano, altrimenti dovrebbe essere bandito perché troppo imprevedibile e pericoloso. "

Google ha reclutato Nolan, laureata in informatica presso il Trinity College di Dublino, per lavorare al Progetto Maven in 2017 dopo essere stata assunta dal colosso della tecnologia per quattro anni, diventando uno dei suoi migliori ingegneri del software in Irlanda.

Ha affermato di essere diventata "sempre più eticamente preoccupata" per il suo ruolo nel programma Maven, che è stato ideato per aiutare il Dipartimento della Difesa degli Stati Uniti ad accelerare drasticamente la tecnologia di riconoscimento video dei droni.

Invece di usare un gran numero di agenti militari per scorrere ore e ore di riprese video di droni di potenziali bersagli nemici, a Nolan e altri è stato chiesto di costruire un sistema in cui le macchine di intelligenza artificiale potevano differenziare persone e oggetti a una velocità infinitamente più veloce.

Google ha lasciato scadere il contratto di Project Maven a marzo di quest'anno dopo oltre 3,000 dei suoi dipendenti ha firmato una petizione per protestare contro il coinvolgimento dell'azienda.

"In qualità di ingegnere dell'affidabilità del sito, la mia esperienza in Google era quella di garantire che i nostri sistemi e le nostre infrastrutture continuassero a funzionare, e questo è ciò con cui avrei dovuto aiutare Maven. Sebbene non fossi direttamente coinvolto nell'accelerazione del riconoscimento dei filmati, mi sono reso conto che ero ancora parte della catena di uccisioni; che ciò alla fine porterebbe a un numero maggiore di persone colpite e uccise dai militari statunitensi in luoghi come l'Afghanistan.

Sebbene abbia rassegnato le dimissioni per il Progetto Maven, Nolan ha previsto che le armi autonome in via di sviluppo rappresentano un rischio molto maggiore per la razza umana rispetto ai droni telecomandati.

Ha delineato come forze esterne che vanno dal cambiamento dei sistemi meteorologici alle macchine che non sono in grado di elaborare comportamenti umani complessi potrebbero far decollare i robot killer, con conseguenze potenzialmente fatali.

“Potresti avere uno scenario in cui armi autonome che sono state inviate per svolgere un lavoro affrontano segnali radar inaspettati in un'area che stanno cercando; potrebbe esserci del tempo che non è stato preso in considerazione nel suo software o si imbattono in un gruppo di uomini armati che sembrano nemici ribelli ma in realtà sono fuori con pistole a caccia di cibo. La macchina non ha il discernimento o il buon senso che ha il tocco umano.

“L'altra cosa spaventosa di questi sistemi di guerra autonomi è che puoi davvero testarli schierandoli in una vera zona di combattimento. Forse sta succedendo con i russi attualmente in Siria, chi lo sa? Quello che sappiamo è che all'ONU la Russia si è opposta a qualsiasi trattato e tanto meno al divieto di queste armi.

“Se stai testando una macchina che sta prendendo le proprie decisioni sul mondo che la circonda, deve essere in tempo reale. Inoltre, come si addestra un sistema che gira esclusivamente su software per rilevare comportamenti umani sottili o discernere la differenza tra cacciatori e ribelli? In che modo la macchina per uccidere là fuori da sola sta distinguendo tra il combattente 18 di un anno e il 18 che sta cercando conigli? ”

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
steve

Questo mi ricorda quella scena di War Games - un po 'antiquata da guardare ora - ma molto rilevante. https://www.youtube.com/watch?v=NHWjlCaIrQo