I capi del Pentagono temono che i robot killer possano spazzare via l'umanità

Pentagono (Wikipedia Commons)
Per favore, condividi questa storia!

Solo sei mesi fa, il Pentagono ha negato che avrebbe creato robot killer autonomi. Oggi è chiaro che non solo stanno fabbricando tali macchine, ma sono chiaramente preoccupati per il potenziale delle guerre robotiche autonome per spazzare via tutta l'umanità.  Editor TN

Enormi balzi tecnologici nei droni, intelligenza artificiale e sistemi di armi autonomi devono essere affrontati prima che l'umanità venga portata all'estinzione.

Le armi robotiche sono diventate così avanzate che i massimi esperti militari negli Stati Uniti temono che la trama del film di fantascienza "Terminator" possa diventare realtà.

Enormi balzi tecnologici nei droni, intelligenza artificiale e sistemi di armi autonomi devono essere affrontati prima che l'umanità venga portata all'estinzionesignori meccanici come nel classico di Arnold Schwarzenegger 1984, secondo i capi del Pentagono.

Il generale dell'aeronautica militare Paul Selva, vicepresidente dei capi di stato maggiore congiunti del dipartimento della difesa degli Stati Uniti, ha dichiarato i cosiddetti armi pensanti potrebbe portare a: "Sistemi robotici per fare danni letali ... un Terminator senza coscienza."

Alla domanda sulle armi robotiche in grado di prendere le proprie decisioni, ha detto: "Il nostro compito è sconfiggere il nemico", ma "è regolato dalla legge e dalla convenzione".

Dice che l'esercito insiste nel mantenere gli umani nel processo decisionale per "infliggere violenza al nemico".

“Quel confine etico è quello su cui abbiamo tracciato una linea piuttosto sottile. È uno che dobbiamo considerare nello sviluppo di queste nuove armi ", ha aggiunto.

Selva ha detto che il Pentagono deve raggiungere le aziende tecnologiche di intelligenza artificiale che non sono necessariamente "orientate all'esercito" per sviluppare nuovi sistemi di comando e modelli di leadership, riferisce Notizie US Naval Institute .

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

3 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
FreeOregon

Il generale Paul Selva ha una coscienza?

John Dunlap

Questo articolo rafforza solo la mia convinzione che queste armi non siano destinate ai campi di battaglia convenzionali. L'IA non prenderà mai decisioni "migliori" di quanto possa fare un essere umano, ma prende già decisioni molto più velocemente. Queste macchine non hanno alcun vantaggio contro le forze convenzionali, semplicemente perché forze opposte metteranno in campo i propri sistemi e contromisure, ma rappresentano un serio pericolo. In particolare, a causa della velocità con cui le armi autonome prenderanno decisioni, c'è una probabilità molto reale che la forma di qualsiasi conflitto, comprese l'espansione e l'escalation, si evolverà a un ritmo che supera la capacità dei decisori di stare al passo... Per saperne di più »