Il mondo deve agire rapidamente per evitare un futuro in cui robot autonomi con intelligenza artificiale vagano per i campi di battaglia uccidendo umani, scienziati ed esperti di armi avvertiti in una riunione d'élite nelle Alpi svizzere.
Le regole devono essere concordate per impedire lo sviluppo di tali armi, hanno detto in una riunione 19-23 di gennaio di miliardari, scienziati e leader politici nella localitĂ sciistica innevata di Davos.
Angela Kane, l'alto rappresentante tedesco delle Nazioni Unite per il disarmo di 2012-2015, ha affermato che il mondo è stato lento nell'adottare misure preventive per proteggere l'umanità dalla tecnologia letale.
"Potrebbe essere troppo tardi", ha detto in un dibattito a Davos.
“Ci sono molti paesi e molti rappresentanti nella comunità internazionale che davvero non capiscono di cosa si tratta. Questo sviluppo è qualcosa che è limitato a un certo numero di paesi avanzati ", ha detto Kane.
Lo spiegamento di armi autonome rappresenterebbe una nuova era pericolosa in guerra, hanno detto gli scienziati.
"Non stiamo parlando di droni, dove un pilota umano controlla il drone", ha detto Stuart Russell, professore di informatica presso l'UniversitĂ della California, Berkeley.
“Stiamo parlando di armi autonome, il che significa che non c'è nessuno dietro. AI: armi di intelligenza artificiale ", ha detto a un forum a Davos. "Molto precisamente, armi che possono localizzare e attaccare obiettivi senza intervento umano".
Russell ha detto che non prevedeva un giorno in cui i robot combatteranno le guerre per gli umani e alla fine della giornata una parte dice: "OK, hai vinto, così puoi avere tutte le nostre donne".
Ma alcuni capi della scienza e della tecnologia 1,000, incluso il fisico britannico Stephen Hawking, hanno dichiarato in una lettera aperta lo scorso luglio che lo sviluppo di armi con un grado di capacitĂ decisionale autonoma potrebbe essere fattibile in anni, non decenni.
Hanno chiesto il divieto di armi autonome offensive che vadano oltre il significativo controllo umano, avvertendo che il mondo ha rischiato di scivolare in una corsa agli armamenti di intelligenza artificiale e di allarmare sui rischi che tali armi cadano nelle mani di estremisti violenti.
Il problema è culturale, non tecnologico.
Se perdoniamo l'omicidio come soluzione alle sfide di coloro che la pensano diversamente dal nostro modo di fare, importa come ci impegniamo a uccidere?