Migliaia di scienziati specializzati in intelligenza artificiale (AI) hanno dichiarato che non parteciperanno allo sviluppo o alla fabbricazione di robot in grado di identificare e attaccare le persone senza il controllo umano.
Demis Hassabis presso Google DeepMind ed Elon Musk presso la compagnia spaziale americana SpaceX sono tra gli altri oltre 2,400 firmatari del pegno che intende dissuadere le ditte e le nazioni militari dalla costruzione di letali sistemi d'arma autonomi, noti anche come leggi.
La mossa è l'ultima di scienziati e organizzazioni interessati per evidenziare i pericoli legati al passaggio di decisioni di vita o di morte a macchine potenziate dall'intelligenza artificiale. Segue la richiesta di a divieto preventivo sulla tecnologia che gli attivisti ritengono possa inaugurare una nuova generazione di armi di distruzione di massa.
Orchestrato dall'organizzazione con sede a Boston, The Future of Life Institute, l'impegno invita i governi a concordare norme, leggi e regolamenti che stigmatizzano ed effettivamente vietano lo sviluppo di robot killer. In assenza di tali misure oggi, i firmatari si impegnano a "non partecipare né sostenere lo sviluppo, la fabbricazione, il commercio o l'uso di armi autonome letali". Più di 150 aziende e organizzazioni legate all'IA hanno aggiunto i loro nomi all'impegno di essere annunciato oggi alla Conferenza internazionale congiunta sull'intelligenza artificiale a Stoccolma.
Yoshua Bengio, un pioniere dell'intelligenza artificiale presso il Montreal Institute for Learning Algorithms, ha detto al Guardian che se l'impegno fosse in grado di vergognare quelle aziende e organizzazioni militari che costruivano armi autonome, l'opinione pubblica si sarebbe ribaltata contro di loro. "Questo approccio in realtà ha funzionato per le mine terrestri, grazie a trattati internazionali e vergogna pubblica, anche se i principali paesi come gli Stati Uniti non hanno firmato il trattato che vieta le mine antiuomo. Le compagnie americane hanno smesso di costruire mine antiuomo ", ha detto. Bengio ha firmato l'impegno di esprimere la sua "forte preoccupazione per le armi autonome letali".
L'esercito è uno dei maggiori finanziatori e adottatori della tecnologia AI. Con sistemi informatici avanzati, i robot possono volare missioni su terreni ostili, navigare a terra e pattugliare in mare aperto. Sono in cantiere sistemi d'arma più sofisticati. Lunedì, il segretario alla Difesa Gavin Williamson ha presentato un piano da £ 2bn per a nuovo caccia RAF, la Tempesta, che sarà in grado di volare senza pilota.
I ministri del Regno Unito hanno dichiarato che la Gran Bretagna non sta sviluppando letali sistemi di armi autonome e che le sue forze avranno sempre la supervisione e il controllo delle armi che dispiega. Ma gli attivisti avvertono che i rapidi progressi nell'intelligenza artificiale e in altri campi significano che ora è possibile costruire armi sofisticate in grado di identificare, localizzare e sparare su bersagli umani senza il consenso di un controllore umano. Per molti ricercatori, dare alle macchine la decisione su chi vive e muore attraversa una linea morale.
“Dobbiamo rendere norma internazionale che le armi autonome non sono accettabili. Un essere umano deve essere sempre nel giro ”, ha dichiarato Toby Walsh, professore di intelligenza artificiale presso l'Università del New South Wales a Sydney, che ha firmato l'impegno
bambini basati sulla storia della vita reale di About Real-Life Kids Who Changed the World