Gli scienziati protestano contro il nuovo laboratorio letale per le armi di intelligenza artificiale lanciato all'università sudcoreana

Per favore, condividi questa storia!
La Corea del Sud è una tecnocrazia dall'alto verso il basso, e quindi non vi è alcuna inibizione dall'uso delle risorse universitarie per sviluppare la tecnologia che può essere utilizzata per la guerra; in questo caso, si tratta di robot killer autonomi dotati di intelligenza artificiale. ⁃ Editor TN

L'università KAIST avrebbe lanciato un nuovo laboratorio di armi AI a febbraio, portando dozzine di ricercatori a credere che i prodotti "avranno il potenziale per essere armi del terrore".

oby Walsh, professore all'Università del Nuovo Galles del Sud a Sydney, ha organizzato il boicottaggio con altri ricercatori di 49.

Ha detto in una lettera aperta: “Se sviluppate, armi autonome… consentiranno di combattere la guerra più velocemente e su larga scala che mai.

"Avranno il potenziale per essere armi del terrore".

KAIST ha affermato di non avere "alcuna intenzione di impegnarsi nello sviluppo di sistemi d'arma autonomi letali e robot killer".

Il presidente dell'università Sung-Chul Shin ha detto che l'università era "molto consapevole" delle preoccupazioni etiche riguardanti l'IA.

Ma ieri, i ricercatori hanno annunciato un boicottaggio dell'università, dicendo che si asterrebbero dal visitare KAIST, ospitare visitatori dall'università o cooperare con i suoi programmi di ricerca fino a quando non si impegnerà a smettere di sviluppare le armi.

Gli scienziati hanno aggiunto: “Hanno il potenziale per essere armi del terrore.

“Despoti e terroristi potrebbero usarli contro popolazioni innocenti, rimuovendo ogni vincolo etico.

"Questo vaso di Pandora sarà difficile da chiudere se viene aperto."

Il professor Walsh ha riconosciuto che c'erano molti buoni usi della robotica e dell'intelligenza artificiale in campo militare.

Gli scienziati hanno citato divieti efficaci sulle precedenti tecnologie delle armi e hanno esortato KAIST a vietare qualsiasi lavoro su armi autonome letali e astenersi dagli usi dell'IA che danneggerebbero la vita umana.

Ma ha detto che non dovrebbero essere in grado di decidere "chi vive o muore".

La lettera, firmata anche dai migliori esperti di deep learning e robotica, è stata rilasciata prima dell'incontro di lunedì prossimo a Ginevra da parte dei paesi membri dell'ONU 123 sulle sfide poste dalle letali armi autonome, descritte come "robot killer".

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti