Le nuove tecnologie potrebbero indurre gli umani a rinunciare al controllo sulle decisioni di usare la forza letale. Man mano che l'intelligenza artificiale avanza, la possibilità che le macchine possano selezionare e sparare in modo indipendente sugli obiettivi è si avvicina rapidamente. Le armi completamente autonome, note anche come "robot killer", si stanno rapidamente spostando dal regno della fantascienza alla realtà.
Queste armi, che potrebbero operare a terra, in aria o in mare, minacciano di rivoluzionare i conflitti armati e le forze dell'ordine in modo allarmante. I sostenitori affermano che questi robot killer sono necessari perché i combattimenti moderni si muovono così rapidamente, e poiché i robot fanno i combattimenti, i soldati e gli agenti di polizia sarebbero tenuti lontani. Ma le minacce per l'umanità supererebbero qualsiasi beneficio militare o di applicazione della legge.
Rimuovere gli umani dalla decisione sul bersaglio creerebbe un mondo pericoloso. Le macchine farebbero delle determinazioni sulla vita e la morte al di fuori del controllo umano. Aumenterebbe il rischio di danni sproporzionati o di bersagli errati di civili. Nessuna persona può essere ritenuta responsabile.
dato che rischi morali, legali e di responsabilità di armi completamente autonome, anticipando il loro sviluppo, produzione e uso non possono aspettare. Il modo migliore per gestire questa minaccia è un divieto internazionale e giuridicamente vincolante di armi prive di un significativo controllo umano.
Preservare empatia e giudizio
Almeno I paesi 20 si sono espressi nelle riunioni delle Nazioni Unite la convinzione che gli umani dovrebbero dettare la selezione e l'impegno degli obiettivi. Molti di loro hanno fatto eco argomenti esposti in una nuova relazione, di cui ero l'autore principale. Il rapporto è stato pubblicato in aprile da Human Rights Watch e la Clinica internazionale per i diritti umani della Harvard Law School, due organizzazioni che hanno fatto campagna per vietare le armi completamente autonome.
Mantenere il controllo umano sulle armi è un imperativo morale. Poiché possiedono empatia, le persone possono sentire il peso emotivo di danneggiare un altro individuo. Il loro rispetto per la dignità umana può - e dovrebbe - servire da controllo sull'uccisione.
I robot, al contrario, mancano di emozioni vere, compresa la compassione. Inoltre, le macchine inanimate non potevano veramente comprendere il valore di qualsiasi vita umana che scegliessero di prendere. Consentire loro di determinare quando usare la forza minerebbe la dignità umana.
Il controllo umano promuove anche il rispetto del diritto internazionale, che è progettato per proteggere civili e soldati. Ad esempio, le leggi della guerra proibire attacchi sproporzionati in cui il danno civile previsto supera il vantaggio militare previsto. Gli umani possono applicare il loro giudizio, sulla base dell'esperienza passata e delle considerazioni morali, e prendere decisioni caso per caso sulla proporzionalità.