Esperto: I soldati dell'IA svilupperanno la "bussola morale" e sfideranno gli ordini

Wikimedia Commons
Per favore, condividi questa storia!
È già stato dimostrato che gli algoritmi AI mostrano i pregiudizi dei loro creatori, quindi perché non anche gli intenti omicidi? I tecnocrati sono così assorbiti dalle loro invenzioni di Pollyanna che non riescono a vedere la fine logica della loro esistenza. ⁃ Editor TN

I robot assassini assassini diventeranno così avanzati da poter sviluppare il proprio codice morale per sfidare violentemente gli ordini, afferma un esperto di IA.

L'ex ingegnere cibernetico Dr Ian Pearson prevede che stiamo andando verso un futuro di macchine coscienti.

Ma se i robot vengono spinti in azione dalle potenze militari, il futurologo avverte che saranno in grado di evocare il proprio "punto di vista morale".

E se lo fanno, l'ex scienziato missilistico afferma che potrebbero ribellarsi alle stesse persone che li mandano in battaglia.

Il dottor Pearson, che scrive per Futurizon, ha dichiarato al Daily Star Online: "Mentre l'IA continua a svilupparsi e mentre ci dirigiamo verso la coscienza - e non sarà una cosa dall'oggi al domani, ma stiamo gradualmente rendendo i computer sempre più sofisticato: a un certo punto dai loro accesso all'educazione morale in modo che possano apprendere la morale da soli.

“Puoi dare loro capacità di ragionamento e potrebbero inventare un codice morale diverso, che li colloca su un piedistallo più alto rispetto agli umani che dovrebbero servire.

Alla domanda se questo potesse rivelarsi fatale, ha risposto: “Sì, certo.

“Se hanno il controllo delle armi e decidono di essere un essere morale superiore rispetto agli umani che dovrebbero custodire, potrebbero prendere decisioni che alcune persone dovrebbero essere uccise per proteggere la popolazione più ampia.

“Chissà quali decisioni potrebbero prendere?

"Se hai un ragazzo su un campo di battaglia, che dice ai soldati di sparare a questo gruppo di persone, per qualsiasi motivo, ma il computer la pensa diversamente, il computer non ne è convinto, potrebbe concludere che il soldato che dà gli ordini è piuttosto delle persone che sta cercando di uccidere, quindi potrebbe voltarsi e ucciderlo invece.

"È del tutto possibile, dipende da come sono scritti i sistemi."

L'avvertimento del dottor Pearson arriva tra le crescenti preoccupazioni per i robot completamente autonomi utilizzati in guerra.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

6 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Pyra

Idiota. Qualcuno di questi computer ha mai pensato a quello che stanno dicendo? Intendo pensarlo oltre la punta del loro naso.

Il detto, "professandosi saggi, sono diventati sciocchi ..." ha molta rilevanza qui.