Rilascio ufficiale dell'etica dei robot: non danneggiare, obbedire agli ordini

Per favore, condividi questa storia!

Un professore di robotica in Inghilterra afferma: "Il problema con i sistemi di intelligenza artificiale in questo momento, in particolare questi sistemi di apprendimento profondo, è quello è impossibile sapere perché prendono le decisioni che prendono."Se questo è vero, i robot sono già fuori controllo.  Editor TN

Isaac Asimov ci ha dato le regole di base del buon comportamento dei robot: non danneggiare gli umani, obbedire agli ordini e proteggersi. Ora il British Standards Institute ha emesso un versione più ufficiale mirato ad aiutare i progettisti a creare robot eticamente sani.

Il documento, BS8611 Robot e dispositivi robotici, è scritto nella lingua secca di un manuale di salute e sicurezza, ma gli scenari indesiderati che evidenzia potrebbero essere presi direttamente dalla finzione. L'inganno, la dipendenza da robot e la possibilità che i sistemi di autoapprendimento superino le loro competenze sono tutti considerati dei pericoli che i produttori dovrebbero considerare.

Accogliendo con favore le linee guida al Social Robotics e AI Alla conferenza di Oxford, Alan Winfield, professore di robotica all'Università dell'Inghilterra occidentale, ha affermato di rappresentare "il primo passo verso l'integrazione dei valori etici nella robotica e nell'intelligenza artificiale".

"Per quanto ne so, questo è il primo standard pubblicato per la progettazione etica dei robot", ha dichiarato Winfield dopo l'evento. "È un po 'più sofisticato delle leggi di Asimov - in sostanza stabilisce come eseguire una valutazione etica del rischio di un robot."

Il documento BSI inizia con alcuni principi etici generali: “I robot non dovrebbero essere progettati esclusivamente o principalmente per uccidere o danneggiare gli umani; gli umani, non i robot, sono gli agenti responsabili; dovrebbe essere possibile scoprire chi è responsabile di qualsiasi robot e del suo comportamento. "

Continua a evidenziare una serie di questioni più controverse, come ad esempio se è desiderabile un legame emotivo con un robot, in particolare quando il robot è progettato per interagire con i bambini o gli anziani.

Noel Sharkey, professore emerito di robotica e intelligenza artificiale all'Università di Sheffield, ha affermato che questo è un esempio di dove i robot potrebbero ingannarci involontariamente. "C'è stato uno studio recente in cui piccoli robot sono stati incorporati in una scuola materna", ha detto. “I bambini l'hanno adorato e si sono davvero uniti ai robot. Ma quando gli è stato chiesto in seguito, i bambini hanno chiaramente pensato che i robot fossero più cognitivi del loro animale domestico di famiglia. "

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Jerry Day

I robot devono sapere cosa un essere umano considera "danno" per poterlo fare. Potrebbe trattarsi di qualsiasi cosa, dall'eliminazione dei nostri lavori ai commenti micro-aggressivi. La polizia ha già utilizzato i robot per fare a pezzi un "sospetto", quindi, proprio come qualsiasi altra cosa, il governo ei suoi robot possono ignorare le regole mentre noi ei nostri robot dobbiamo obbedirle.