Fermare i robot killer prima che sia troppo tardi, gli scienziati dicono al forum di Davos

Per favore, condividi questa storia!

Nota TN: L'incontro dell'élite globale a Davos sta attirando l'attenzione degli scienziati che hanno paura che i robot assassini si rivoltino contro l'umanità, o che almeno portino a una sorta di corsa agli armamenti, tranne che per lo sviluppo di robot assassini. 

Il mondo deve agire rapidamente per evitare un futuro in cui robot autonomi con intelligenza artificiale vagano per i campi di battaglia uccidendo umani, scienziati ed esperti di armi avvertiti in una riunione d'élite nelle Alpi svizzere.

Le regole devono essere concordate per impedire lo sviluppo di tali armi, hanno detto in una riunione 19-23 di gennaio di miliardari, scienziati e leader politici nella località sciistica innevata di Davos.

Angela Kane, l'alto rappresentante tedesco delle Nazioni Unite per il disarmo di 2012-2015, ha affermato che il mondo è stato lento nell'adottare misure preventive per proteggere l'umanità dalla tecnologia letale.

"Potrebbe essere troppo tardi", ha detto in un dibattito a Davos.

“Ci sono molti paesi e molti rappresentanti nella comunità internazionale che davvero non capiscono di cosa si tratta. Questo sviluppo è qualcosa che è limitato a un certo numero di paesi avanzati ", ha detto Kane.

Lo spiegamento di armi autonome rappresenterebbe una nuova era pericolosa in guerra, hanno detto gli scienziati.

"Non stiamo parlando di droni, dove un pilota umano controlla il drone", ha detto Stuart Russell, professore di informatica presso l'Università della California, Berkeley.

“Stiamo parlando di armi autonome, il che significa che non c'è nessuno dietro. AI: armi di intelligenza artificiale ", ha detto a un forum a Davos. "Molto precisamente, armi che possono localizzare e attaccare obiettivi senza intervento umano".

Russell ha detto che non prevedeva un giorno in cui i robot combatteranno le guerre per gli umani e alla fine della giornata una parte dice: "OK, hai vinto, così puoi avere tutte le nostre donne".

Ma alcuni capi della scienza e della tecnologia 1,000, incluso il fisico britannico Stephen Hawking, hanno dichiarato in una lettera aperta lo scorso luglio che lo sviluppo di armi con un grado di capacità decisionale autonoma potrebbe essere fattibile in anni, non decenni.

Hanno chiesto il divieto di armi autonome offensive che vadano oltre il significativo controllo umano, avvertendo che il mondo ha rischiato di scivolare in una corsa agli armamenti di intelligenza artificiale e di allarmare sui rischi che tali armi cadano nelle mani di estremisti violenti.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
FreeOregon

Il problema è culturale, non tecnologico.

Se perdoniamo l'omicidio come soluzione alle sfide di coloro che la pensano diversamente dal nostro modo di fare, importa come ci impegniamo a uccidere?