DARPA

DARPA: finanziamento di interfacce cervello-macchina indossabili

I tecnocrati della DARPA intendono creare un'interfaccia cervello-macchina non chirurgica come moltiplicatore di forza per i soldati. La ricerca richiederà "Esenzioni dal dispositivo di indagine" da parte dell'amministrazione. ⁃ Editor TN

DARPA ha concesso finanziamenti a sei organizzazioni per supportare la Neurotecnologia non chirurgica di nuova generazione (N3) programma, annunciato per la prima volta a marzo 2018. Il Battelle Memorial Institute, la Carnegie Mellon University, il Johns Hopkins University Applied Physics Laboratory, il Palo Alto Research Center (PARC), la Rice University e Teledyne Scientific sono i principali team multidisciplinari per sviluppare interfacce bidirezionali ad alta risoluzione per l'uso da parte di abili membri del servizio. Queste interfacce indossabili potrebbero in definitiva consentire diverse applicazioni di sicurezza nazionale come il controllo dei sistemi di difesa informatica attiva e sciami di veicoli aerei senza pilota o la collaborazione con sistemi informatici per il multitasking durante missioni complesse.

"DARPA si sta preparando per un futuro in cui una combinazione di sistemi senza pilota, intelligenza artificiale e operazioni informatiche potrebbe causare conflitti su scadenze troppo brevi per consentire agli umani di gestire efficacemente con la sola tecnologia attuale", ha affermato Al Emondi, il N3 responsabile del programma. "Creando un'interfaccia cervello-macchina più accessibile che non richiede un intervento chirurgico, DARPA potrebbe fornire strumenti che consentono ai comandanti di missione di rimanere significativamente coinvolti in operazioni dinamiche che si svolgono a velocità rapida."

Negli ultimi anni di 18, DARPA ha dimostrato neurotecnologie sempre più sofisticate che si basano su elettrodi impiantati chirurgicamente per interfacciarsi con il sistema nervoso centrale o periferico. L'agenzia ha dimostrato risultati come controllo neurale degli arti protesici ed ripristino del senso del tatto agli utenti di quegli arti, sollievo da malattie neuropsichiatriche altrimenti intrattabili come la depressione e miglioramento della formazione e del richiamo della memoria. A causa dei rischi intrinseci della chirurgia, queste tecnologie sono state finora limitate all'uso da parte di volontari con necessità cliniche.

Affinché la popolazione principalmente abile dei militari tragga beneficio dalla neurotecnologia, sono necessarie interfacce non chirurgiche. Tuttavia, in effetti, una tecnologia simile potrebbe essere di grande beneficio anche per le popolazioni cliniche. Eliminando la necessità di un intervento chirurgico, i sistemi N3 cercano di espandere il pool di pazienti che possono accedere a trattamenti come la stimolazione cerebrale profonda per gestire le malattie neurologiche.

Poi3 i team stanno perseguendo una serie di approcci che utilizzano l'ottica, l'acustica e l'elettromagnetismo per registrare l'attività neurale e / o inviare segnali al cervello ad alta velocità e risoluzione. La ricerca è divisa tra due tracce. I team stanno perseguendo interfacce completamente non invasive che sono completamente esterne al corpo o sistemi di interfaccia minutamente invasivi che includono nanotrasduttori che possono essere temporaneamente e non chirurgicamente consegnati al cervello per migliorare la risoluzione del segnale.

  • Il team di Battelle, sotto il principale investigatore Dr. Gaurav Sharma, mira a sviluppare un sistema di interfaccia minutamente invasivo che abbina un ricetrasmettitore esterno a nanotrasduttori elettromagnetici che non vengono inviati chirurgicamente ai neuroni di interesse. I nanotrasduttori convertono i segnali elettrici dai neuroni in segnali magnetici che possono essere registrati ed elaborati dal ricetrasmettitore esterno, e viceversa, per consentire la comunicazione bidirezionale.
  • Il team della Carnegie Mellon University, sotto il principale investigatore Dr. Pulkit Grover, mira a sviluppare un dispositivo completamente non invasivo che utilizza un approccio acusto-ottico per registrare dal cervello e interferire con i campi elettrici per scrivere a neuroni specifici. Il team utilizzerà le onde ad ultrasuoni per guidare la luce dentro e fuori il cervello per rilevare l'attività neurale. L'approccio di scrittura del team sfrutta la risposta non lineare dei neuroni ai campi elettrici per consentire la stimolazione localizzata di specifici tipi di cellule.
  • Il team del Laboratorio di fisica applicata della Johns Hopkins University, sotto il principale investigatore Dr. David Blodgett, mira a sviluppare un sistema ottico completamente non invasivo e coerente per la registrazione dal cervello. Il sistema misurerà direttamente i cambiamenti di lunghezza del percorso ottico nel tessuto neurale correlati all'attività neurale.
  • Il team PARC, sotto il principale investigatore Dr. Krishnan Thyagarajan, mira a sviluppare un dispositivo acusto-magnetico completamente non invasivo per la scrittura nel cervello. Il loro approccio abbina le onde ultrasoniche ai campi magnetici per generare correnti elettriche localizzate per la neuromodulazione. L'approccio ibrido offre il potenziale di neuromodulazione localizzata più in profondità nel cervello.
  • Il team della Rice University, sotto il principale investigatore Dr. Jacob Robinson, mira a sviluppare un sistema mininvasivo e bidirezionale per la registrazione e la scrittura nel cervello. Per la funzione di registrazione, l'interfaccia utilizzerà la tomografia ottica diffusa per dedurre l'attività neurale misurando la dispersione della luce nel tessuto neurale. Per abilitare la funzione di scrittura, il team utilizzerà un approccio magneto-genetico per rendere i neuroni sensibili ai campi magnetici.
  • Il team di Teledyne, sotto il principale investigatore Dr. Patrick Connolly, mira a sviluppare un dispositivo completamente non invasivo e integrato che utilizza magnetometri micro pompati otticamente per rilevare piccoli campi magnetici localizzati correlati all'attività neurale. Il team utilizzerà ultrasuoni focalizzati per scrivere ai neuroni.

Durante tutto il programma, la ricerca trarrà vantaggio da approfondimenti forniti da esperti legali ed etici indipendenti che hanno accettato di fornire approfondimenti su N3 progredire e considerare le potenziali future applicazioni militari e civili e le implicazioni della tecnologia. Inoltre, i regolatori federali stanno collaborando con il DARPA per aiutare i team a comprendere meglio il nulla osta per uso umano all'avvio della ricerca. Man mano che il lavoro procede, questi regolatori aiuteranno a guidare le strategie per la presentazione di domande di esenzioni per dispositivi investigativi e nuovi farmaci investigativi per consentire prove umane di N3 sistemi durante l'ultima fase del programma quadriennale.

“Se N3 ha successo, finiremo con sistemi di interfaccia neurale indossabili in grado di comunicare con il cervello da una distanza di pochi millimetri, spostando la neurotecnologia oltre la clinica e andando in pratica per la sicurezza nazionale ", ha affermato Emondi. "Proprio come i membri del servizio indossano equipaggiamento protettivo e tattico in preparazione per una missione, in futuro potrebbero indossare un auricolare contenente un'interfaccia neurale, utilizzare la tecnologia comunque necessaria, quindi mettere da parte lo strumento al termine della missione."

Leggi la storia completa qui ...




Esperti: l'unica difesa contro l'IA killer non la sta sviluppando

L'IA killer fuori controllo in guerra è inevitabile perché diventerà troppo complessa per la gestione e il controllo umani. L'unica vera risposta è di non svilupparla in primo luogo. ⁃ Editor TN

Una recente analisi sul futuro della guerra indica che i paesi che continuano a sviluppare l'IA per uso militare rischiano di perdere il controllo del campo di battaglia. Quelli che non rischiano l'eradicazione. Che tu sia a favore o contro la corsa agli armamenti dell'IA: sta accadendo. Ecco cosa significa, secondo un trio di esperti.

ricercatori provenienti da ASRC federale, una società privata che fornisce supporto alle comunità dell'intelligence e della difesa e l'Università del Maryland ha recentemente pubblicato un documento sul server prestampa ArXivdiscutere le potenziali ramificazioni dell'integrazione dei sistemi di intelligenza artificiale nella guerra moderna.

La carta - leggi qui - si concentra sulle conseguenze del prossimo futuro per la corsa agli armamenti dell'IA, supponendo che l'IA lo farà non in qualche modo impazzire o subentrare. In sostanza è uno sguardo breve, sobrio e terrificante su come tutte queste varie tecnologie di machine learning si baseranno sull'analisi delle attuali tecnologie militari all'avanguardia dell'IA e sulla prevista integrazione su scala.

Il documento inizia con un avvertimento sull'imminente catastrofe, spiegando che quasi sicuramente ci sarà un "incidente normale", riguardante l'IA - un incidente atteso di natura e portata che non possiamo prevedere. Fondamentalmente, i militari del mondo romperanno alcune uova civili rendendo l'omelette della corsa alle armi di intelligenza artificiale:

Lo studio di questo campo è iniziato con incidenti come Three Mile Island, ma le tecnologie AI implicano rischi simili. Trovare e sfruttare queste debolezze per indurre comportamenti difettosi diventerà una caratteristica permanente della strategia militare.

Se stai pensando che i robot killer si sfidino nelle nostre città mentre i civili corrono in cerca di un riparo, non ti sbagli, ma i robot come procura per i soldati non sono la più grande preoccupazione dell'umanità quando si tratta della guerra dell'IA. Questo documento discute cosa succede dopo che raggiungiamo il punto in cui diventa ovvio che gli umani stanno trattenendo le macchine in guerra.

Secondo i ricercatori, il problema non è uno che possiamo definire buono e cattivo. Certo è facile affermare che non dovremmo permettere ai robot di uccidere gli esseri umani con autonomia, ma non è così che funzionerà il processo decisionale del futuro.

I ricercatori lo descrivono come una pendenza scivolosa:

Se i sistemi di intelligenza artificiale sono efficaci, la pressione per aumentare il livello di assistenza al combattente sarebbe inevitabile. Il successo continuo significherebbe spingere gradualmente l'essere umano fuori dal giro, prima verso un ruolo di supervisione e poi infine verso il ruolo di "operatore di killswitch" che controlla una LEGGE sempre attiva.

Le LEGGI, o letali sistemi di armi autonome, si ridurranno quasi immediatamente oltre la capacità degli esseri umani di lavorare con computer e macchine - e probabilmente prima di quanto la maggior parte della gente pensi. Il combattimento corpo a corpo tra le macchine, ad esempio, sarà completamente autonomo per necessità:

Nel tempo, man mano che l'IA diventa più capace di pensare riflessivo e integrativo, la componente umana dovrà essere eliminata del tutto man mano che la velocità e la dimensionalità diventeranno incomprensibili, anche tenendo conto dell'assistenza cognitiva.

E, alla fine, la tattica e la reattività necessarie per scambiare i colpi con l'IA saranno completamente al di là del genere umano:

Dato uno spazio di battaglia così schiacciante che gli umani non possono interagire manualmente con il sistema, il ruolo umano sarà limitato all'analisi forense post-hoc, una volta che le ostilità saranno cessate o saranno stati firmati i trattati.

Se questo suona un po 'triste, è perché lo è. Come Importa AI Jack Clark sottolinea: "Questo è un breve documento che espone le preoccupazioni di AI + War da una comunità di cui non sentiamo spesso notizie: persone che lavorano come fornitori diretti di tecnologia governativa".

Potrebbe essere nel migliore interesse di tutti prestare particolare attenzione a come sia gli accademici che il governo continuano a inquadrare il problema in futuro.

Leggi la storia completa qui ...




DARPA: AI Mosaic Warfare e strategia di battaglia multi-dominio

I tecnocrati del DARPA stanno correndo per applicare l'intelligenza artificiale alla guerra impegnata, coordinando tutti i componenti del campo di battaglia in una macchina per uccidere coordinata. Il successo dipende da ingegneri e programmatori di computer. ⁃ Editor TN

DARPA sta automatizzando il combattimento aria-aria, consentendo tempi di reazione a velocità della macchina e liberazione dei piloti per concentrarsi sulla più grande battaglia aerea e dirigere un'ala aerea di droni.

I combattimenti tra cani saranno ancora rari in futuro, ma fa parte dell'intelligenza artificiale e dell'automazione che prendono il controllo di tutti i combattimenti di alto livello. Nuovi piloti di combattenti umani imparano a combattere il cane perché rappresenta un crogiolo in cui le prestazioni e la fiducia dei piloti possono essere perfezionate. Per accelerare la trasformazione dei piloti da operatori aerei a comandanti di battaglie di missione - che possono affidare compiti dinamici di combattimento aereo a risorse aeree senza pilota e semi-autonome dalla cabina di pilotaggio - l'IA deve prima dimostrare di essere in grado di gestire le basi.

La visione è che l'IA gestisce le manovre in pochi secondi durante i combattimenti all'interno di un raggio visivo e i piloti diventano direttori d'orchestra o manager di livello superiore su un gran numero di sistemi senza pilota.

DARPA vuole una guerra a mosaico. La guerra a mosaico si sposta da costosi sistemi con equipaggio a un mix di sistemi senza pilota con equipaggio e meno costosi che possono essere rapidamente sviluppati, messi in campo e aggiornati con le ultime tecnologie per affrontare le mutevoli minacce. Il collegamento di velivoli con equipaggio con sistemi senza pilota significativamente più economici crea un "mosaico" in cui i singoli "pezzi" possono essere facilmente ricomposti per creare effetti diversi o rapidamente sostituiti se distrutti, con conseguente capacità di combattimento più resiliente.

Leggi la storia completa qui ...




Addio mondo: AI Arms Race diretto verso i robot killer autonomi

La corsa agli armamenti dell'IA in rapida crescita per creare macchine per uccidere autonome è la follia di Technocrat al suo apice più alto. Per la mente di Technocrat, ogni problema ha una soluzione scientifica; allora perché non lasciare che un robot armato e letale di intelligenza artificiale faccia tutto il lavoro dei soldati umani? ⁃ Editor TN

Quando si tratta di decidere di uccidere un essere umano in tempo di guerra, una macchina dovrebbe prendere quella decisione o dovrebbe un altro essere umano?

La domanda è morale, portata in primo piano dalle tecniche e dagli incentivi della tecnologia moderna. È una questione il cui campo di applicazione rientra esattamente sotto gli auspici del diritto internazionale e che le nazioni hanno discusso per anni. Eppure è anche un problema di azione collettiva, che richiede non solo stati, ma anche aziende e lavoratori nelle aziende di raggiungere un accordo per rinunciare a un vantaggio percepito. Il pericolo non è tanto nel creare un'arma, ma nel creare un'arma in grado di scegliere bersagli indipendentemente dal responsabile umano che inizia la sua azione.

In un rapporto 8 di maggio di Pax - un'organizzazione no profit con l'obiettivo esplicito di proteggere i civili dalla violenza, ridurre i conflitti armati e costruire una giusta pace - gli autori guardano allo stato attuale dell'intelligenza artificiale nelle armi e sollecitano le nazioni, le aziende e i lavoratori a pensare su come prevenire una corsa agli armamenti di intelligenza artificiale, invece di pensare a come vincerne una. Senza azioni correttive, il rapporto avverte, lo status quo potrebbe portare tutti i partecipanti a una situazione senza vittorie, con qualsiasi vantaggio ottenuto dallo sviluppo di un'arma autonoma temporanea e limitata.

"Vediamo emergere questa corsa agli armamenti di intelligenza artificiale e pensiamo che se non succede nulla che sia una grave minaccia per l'umanità", ha detto Frank Slijper, uno degli autori di la relazione. “C'è una finestra di opportunità per fermare una corsa agli armamenti di intelligenza artificiale. Gli Stati dovrebbero cercare di prevenire una corsa agli armamenti di intelligenza artificiale e lavorare verso una regolamentazione internazionale. Nel frattempo, le aziende e gli istituti di ricerca hanno la responsabilità principale di assicurarsi che il lavoro nell'intelligenza artificiale e nei settori correlati non contribuisca a potenziali armi autonome letali. "

Il rapporto è scritto con un occhio specifico verso i sette principali poteri dell'IA. Questi includono i cinque membri permanenti del consiglio di sicurezza delle Nazioni Unite: Cina, Francia, Russia, Regno Unito e Stati Uniti. Inoltre, il rapporto dettaglia la ricerca dell'intelligenza artificiale di Israele e Corea del Sud, entrambi i paesi le cui posizioni geografiche e politiche hanno incoraggiato lo sviluppo dell'IA militare.

“Abbiamo identificato i principali attori in termini di utilizzo e ricerca e sforzi di sviluppo sull'IA e sull'uso militare dell'IA in armi sempre più autonome. Non riuscivo a pensare a nessuno, a nessuno stato che avremmo perso da questi sette ", afferma Slijper. "Certo, c'è sempre un numero otto e il numero nove."

Per ogni potere di intelligenza artificiale coperto, il rapporto esamina lo stato dell'IA, il ruolo dell'IA nelle forze armate e ciò che è noto della cooperazione tra gli sviluppatori di intelligenza artificiale nel settore privato o nelle università e nelle forze armate. Con paesi come gli Stati Uniti, in cui vengono nominati i programmi militari di IA, si possono indicare le politiche di governo e sono noti i dibattiti sulla relazione tra IA commerciale e uso militare, il rapporto descrive in dettaglio tale processo. L'accuratezza della ricerca viene utilizzata per sottolineare la missione esplicitamente attivista di Pax, sebbene fornisca anche una preziosa indagine sullo stato dell'intelligenza artificiale nel mondo.

Come sostiene il rapporto, questo ruolo dell'intelligenza artificiale nelle armi non è solo una questione per i governi. È una domanda per i responsabili delle aziende e una domanda per i lavoratori che creano AI per le aziende.

"Gran parte ha a che fare con il carattere piuttosto unico della tecnologia delle armi infuse dall'intelligenza artificiale", afferma Slijper. “Tradizionalmente, molte delle aziende che ora lavorano sull'intelligenza artificiale ci stavano lavorando da una prospettiva puramente civile per fare del bene e aiutare l'umanità. Queste compagnie non erano tradizionalmente produttori militari o fornitori dominanti dell'esercito. Se lavori per un'azienda di armi, sai per cosa stai lavorando. "

Negli Stati Uniti, è stata espressa la resistenza a contribuire ai contratti del Pentagono da parte dei lavoratori nel settore tecnologico. Dopo le proteste dei lavoratori di Google dopo aver appreso dell'impegno dell'azienda nei confronti di Progetto Maven, che ha sviluppato un'intelligenza artificiale di elaborazione di filmati con droni per i militari, la leadership dell'azienda ha accettato di tramontare il progetto. (Il progetto Maven è ora gestito dal Andruil sostenuto da Peter Thiel.)

Anche Microsoft ha esperienza resistenza dei lavoratori all'uso militare del suo strumento di realtà aumentata HoloLens, con alcuni operai che scrivevano una lettera in cui affermava che nelle mani del Pentagono, i sensori e il trattamento delle cuffie lo rendevano pericolosamente vicino a un componente dell'arma. I lavoratori hanno notato specificamente che loro aveva costruito HoloLens "Aiutare a insegnare alla gente come eseguire un intervento chirurgico o suonare il piano, spingere i confini del gioco e connettersi con la Mars Rover", il che è molto lontano dall'aiutare i militari nell'identificazione delle minacce di pattuglia.

"E penso che sia per un sacco di persone che lavorano nel settore tecnologico abbastanza inquietante che, mentre inizialmente, quell'azienda lavorava principalmente o solo su applicazioni civili di quella tecnologia, ora sempre più vedono che queste tecnologie sono state usate anche per scopi militari progetti o addirittura armi letali ", ha detto Slijper.

Slijper indica il protocollo sulle armi cieche come un modo in cui la comunità internazionale ha regolato una tecnologia con applicazioni sia civili che militari per garantire che il suo uso rientri nelle leggi della guerra.

Leggi la storia completa qui ...




Se vedere per credere, preparati ad essere ingannato

Quando l'eco-mondo mette le mani su un software di intelligenza artificiale "profondamente falso", possono creare immagini terrestri che non possono essere rilevate come false, inserendo cose che non ci sono e rimuovendo cose che ci sono. Dimentica "mentire con le statistiche"; Ora giace con le immagini. ⁃ Editor TN

Passaggio 1: utilizzare l'IA per apportare modifiche non rilevabili alle foto esterne. Step 2: liberali nel mondo open source e goditi il ​​caos.

Preoccupati falsi profondi- i video manipolati con macchine di celebrità e leader mondiali che presumibilmente affermano o fanno cose che in realtà non hanno fatto - sono pittoreschi rispetto a una nuova minaccia: immagini dotte della Terra stessa.

La Cina è il leader riconosciuto nell'uso di una tecnica emergente chiamata reti contraddittorie generative per ingannare i computer nel vedere oggetti nei paesaggi o nelle immagini satellitari che non ci sono, afferma Todd Myers, responsabile dell'automazione e Chief Information Officer nell'ufficio del direttore della tecnologia presso la National Geospatial-Intelligence Agency.

“I cinesi sono molto più avanti di noi. Non si tratta di informazioni classificate ", ha detto Myers giovedì alla seconda annuale Macchine Genius vertice, ospitato da Difesa One ed Nextgov. “I cinesi hanno già progettato; lo stanno già facendo proprio ora, usando le GAN - che sono reti contraddittorie generative - per manipolare scene e pixel per creare cose per motivi nefasti ”.

Ad esempio, ha affermato Myers, un avversario potrebbe ingannare i tuoi analisti di immagini assistite da computer nel riferire che un ponte attraversa un fiume importante in un determinato punto.

“Quindi, dal punto di vista tattico o della pianificazione della missione, alleni le tue forze per percorrere un certo percorso, verso un ponte, ma non è lì. Poi c'è una grande sorpresa che ti aspetta ”, ha detto.

Nome descritto in 2014, I GAN rappresentano una grande evoluzione nel modo in cui le reti neurali imparano a vedere e riconoscere gli oggetti e persino a rilevare la verità dalla finzione.

Supponi di chiedere alla tua rete neurale convenzionale di capire quali oggetti sono presenti nelle foto satellitari. La rete suddividerà l'immagine in più pezzi o cluster di pixel, calcolerà il modo in cui quei pezzi rotti si collegano tra loro e quindi determinerà quale sia il prodotto finale o se le foto siano reali o documentate. È tutto basato sull'esperienza di guardare molte foto satellitari.

I GAN invertono questo processo mettendo due reti l'una contro l'altra, da cui la parola "contraddittorio". Una rete convenzionale potrebbe dire: "La presenza di x, ye z in questi cluster di pixel significa che questa è l'immagine di un gatto". una rete GAN potrebbe dire: “Questa è l'immagine di un gatto, quindi devono essere presenti x, ye z. Cosa sono x, ye z e come si relazionano? ”La rete contraddittoria impara a costruire o generare x, ye z in modo da convincere la prima rete neurale, o il discriminatore, che c'è qualcosa quando, forse, non lo è.

Molti studiosi hanno trovato i GAN utili per individuare oggetti e ordinare immagini valide da quelli falsi. In 2017, usavano studiosi cinesi GANS per identificare strade, ponti e altre caratteristiche nelle foto satellitari.

La preoccupazione, come tecnologi dell'IA detto quarzo l'anno scorso, è che la stessa tecnica in grado di discernere ponti reali da quelli falsi può anche aiutare a creare ponti falsi che l'IA non può dire dalla cosa reale.

Myers teme che, man mano che il mondo si affida sempre di più alle immagini open source per comprendere il terreno fisico, solo una manciata di set di dati manipolati con esperienza inseriti nella linea di fornitura di immagini open source potrebbe creare scompiglio. “Dimentica il [Dipartimento della Difesa] e la [comunità dell'intelligence]. Immagina che Google Maps venga infiltrato intenzionalmente? E immagina tra cinque anni quando il Seme di Tesla [auto-guida] ci sono routing fuori roba? ", ha detto.

Quando si tratta di video falsi profondi di persone, indicatori biometrici come il polso e il linguaggio possono sconfiggere l'effetto falso. Ma il paesaggio simulato non è vulnerabile alle stesse tecniche.

Leggi la storia completa qui ...




Il Pentagono insegue le armi ad intelligenza artificiale nonostante le proteste pubbliche

I tecnocrati nell'esercito che costruiscono semplicemente perché possono, sono una minaccia per il mondo intero. La tecnologia che serve e aiuta gli esseri umani, non li uccide o li controlla, è ciò che l'umanità desidera. ⁃ Editor TN

La controversia relativa all'intelligenza artificiale militare è radicata in "gravi percezioni errate" su ciò che il dipartimento sta effettivamente cercando di fare, secondo gli attuali ed ex funzionari della Difesa.

La protezione degli Stati Uniti nei decenni a venire richiederà al Pentagono di effettuare investimenti "sostanziali e sostenuti" nell'intelligenza artificiale militare, e i critici devono rendersi conto che non svolge questo compito alla leggera, secondo gli attuali ed ex funzionari del Dipartimento della Difesa.

Gli sforzi per espandere l'uso dei sistemi di intelligenza artificiale da parte del dipartimento sono stati accolti dalle proteste del pubblico tra molte comunità tecnologiche e politiche che temono che gli Stati Uniti presto affideranno le macchine per prendere decisioni sulla vita sul campo di battaglia. L'anno scorso, le proteste dei dipendenti hanno portato Google per tirare fuori un progetto dell'Aeronautica che utilizzava l'apprendimento automatico per ordinare i filmati di sorveglianza.

Mercoledì scorso, i funzionari hanno detto che è il Pentagono andando a lungo garantire che eventuali applicazioni dell'IA aderiscano a rigidi standard etici e norme internazionali. Anche se i militari statunitensi si oppongono allo schieramento della tecnologia, hanno avvertito, gli avversari globali come la Russia e la Cina certamente non lo faranno, e il loro quadro etico probabilmente mancherà.

"Il Dipartimento della Difesa non è assolutamente dispiaciuto di perseguire questa nuova generazione di armi abilitate all'intelligenza artificiale", ha detto l'ex segretario alla Difesa Robert Work mercoledì in un evento ospitato dal capitolo dell'AFCEA a Washington, DC. "Se avremo successo contro un concorrente come la Cina che parteciperà a questa competizione ... dovremo cogliere l'inevitabilità dell'IA".

Rilasciato a febbraio, il La strategia AI del Pentagono richiede esplicitamente agli operatori umani di avere la possibilità di ignorare qualsiasi decisione presa da un sistema militare di intelligenza artificiale e garantisce che la tecnologia rispetti le leggi dei conflitti armati.

"Direi che l'esercito americano è la forza militare più etica nella storia della guerra, e pensiamo che il passaggio alle armi abilitate all'IA continuerà questa tendenza", ha detto Work. E nonostante le critiche, ha aggiunto, la tecnologia potrebbe potenzialmente salvare vite umane riducendo il fuoco amico ed evitando vittime civili.

Il tenente generale Jack Shanahan, che dirige il Centro di intelligenza artificiale congiunta di recente coniato del dipartimento, ha detto al pubblico che molte delle critiche che ha sentito dirette agli sforzi militari di intelligenza artificiale sono radicate in "gravi percezioni errate su ciò su cui [il dipartimento] sta effettivamente lavorando". Mentre alcuni potrebbero immaginare un sistema di intelligenza artificiale generale "che vagherà indiscriminatamente attraverso il campo di battaglia", ha detto, la tecnologia verrà applicata solo in modo restrittivo e gli umani rimarranno sempre nel circuito.

Semmai, le proteste dimostrano che il Pentagono non è abbastanza coinvolgente con l'industria riguardo ai progetti che sta perseguendo, secondo Shanahan.

Leggi la storia completa qui ...




sciami di droni

Killer Robots: gare russe per costruire una "forza di terra" di carri armati a guida autonoma e "sciami di droni"

Parlare di un divieto di robot killer autonomi è inutile chiacchiere mentre la corsa agli armamenti tra i superpoteri progredisce. L'intelligenza artificiale e le reti stanno abilitando spaventosi sistemi di armi che possono uccidere senza l'intervento umano. ⁃ Editor TN

Un nuovo video terrificante mette in mostra alcune delle più recenti tecnologie robotiche killer della Russia.

Mini-carri armati controllati dall'IA e sciami di droni autonomi delle dimensioni di un gatto cancellano obiettivi nella clip di propaganda rilasciata dal Cremlino.

I robot sono progettati per aiutare la fanteria russa e sono attualmente controllati da un umano a distanza.

Tuttavia, in futuro la tecnologia sarà completamente autonoma, il che significa che può colpire e uccidere i nemici senza bisogno dell'aiuto di un essere umano.

La Russia Advanced Research Foundation (ARF), la divisione di ricerca militare dietro la nuova tecnologia, ha affermato che l'obiettivo finale è quello di avere un esercito di robot controllato dall'intelligenza artificiale.

https://www.youtube.com/watch?v=7ZM8HqjmCgE

"L'evoluzione dei robot da combattimento è in procinto di aumentare la capacità di eseguire compiti in modalità autonoma con una graduale riduzione del ruolo dell'operatore", ha detto un portavoce C4ISRNET.

Il video, caricato su YouTube dall'ARF, mostra le terrificanti capacità della tecnologia killer.

In esso, viene mostrato un mini-carro armato che sfreccia sulla neve mentre bersaglia e spara ai bersagli.

Il veicolo mortale si allinea con un soldato e segue il suo campo visivo, puntando le sue enormi pistole in qualunque direzione giri il suo fucile.

Sembra suggerire che un giorno i carri armati di AI della Russia seguiranno autonomamente l'obiettivo del loro gestore di fornire ulteriore potenza di fuoco.

Oltre ai mini-carri armati, il video mostra anche la tecnologia militare dei droni russi.

Uno sciame di quadrocopters si alza in una forma coordinata e sfreccia attraverso il poligono di tiro.

Sembrano far cadere esplosivi su bersagli, lasciandoli fumanti nella neve.

La Russia non è l'unico paese a sviluppare armi autonome.

Leggi la storia completa qui ...




Esperti della difesa: la Cina rappresenta una "minaccia esistenziale" per gli Stati Uniti

La tecnocrazia in Cina rappresenta una minaccia maggiore per il mondo rispetto al dominio militare, sebbene i due potrebbero andare di pari passo. Technocracy significa dittatura scientifica totale e la Cina sta correndo per completare la sua rete globale. ⁃ Editor TN

La crescente potenza della Cina in tutto il mondo rappresenta una minaccia esistenziale per il futuro degli americani per la quale non sono preparati, hanno avvertito gli esperti giovedì durante una tavola rotonda alla Conferenza sull'azione politica conservatrice dell'2019 (CPAC).

“Questa è una minaccia esistenziale. Il popolo americano non è pronto ad affrontarlo, ma questa sarà la sfida della nostra generazione, e forse anche di quelle successive ", ha dichiarato Gordon G. Chang, autore ed esperto di Cina.

Il panel, intitolato "China, the Global Menace", è stato uno dei tanti durante la conferenza di tre giorni che ha esplorato la sfida per gli Stati Uniti da una Cina in crescita.

Rick Fisher, membro senior degli affari militari asiatici presso l'International Assessment and Strategy Center, ha affermato che la Cina sta costruendo metodicamente reti in tutto il mondo, nonché un esercito che proietterà il potere in tutto il mondo.

"La Cina da anni 30 sta raccogliendo assiduamente il potere economico in tutte le regioni del pianeta, usando questo potere economico per raccogliere reti politiche, e ... oggi sta convincendo quelle reti politiche a iniziare la cooperazione militare per la cooperazione di proto-alleanza con la Cina", ha detto .

Ad esempio, l'Organizzazione per la cooperazione di Shanghai è nata in 1996 come ente di cooperazione economica, ma "tutto ciò che produce sono esercitazioni militari", ha affermato Fisher.

Ha detto a luglio, la Cina ha annunciato il Forum di difesa e sicurezza della Cina Africa, che comprende tutti i paesi del continente africano ma è "controllato dall'esercito popolare di liberazione".

"Quindi questo è l'inizio di una seconda proto-alleanza, e non fanno ossa pubblicamente [che stanno] lavorando per formare un forum simile in tutti i paesi dell'America Latina e dei Caraibi", ha detto.

Gli esperti del panel hanno affermato che la Cina è la più grande fonte di sostegno al di fuori della regione per il regime comunista cubano, la dittatura venezuelana e altri regimi di sinistra.

Il Capitano della Marina in pensione Jim Fanell, ex ufficiale dell'intelligence e attuale collaboratore del Centro di sicurezza di Ginevra, ha affermato che un numero sempre maggiore di navi della marina cinese si sta dirigendo verso i Caraibi.

"Mi aspetto che ad un certo punto nel prossimo futuro, inizierai a vedere navi di raccolta di informazioni cinesi che operano nei Caraibi e più da vicino a ciascuna delle nostre coste, perché sono state molto frustrate dal fatto che abbiamo operato all'interno del prima catena di isole nel Pacifico occidentale ", ha detto.

Leggi la storia completa qui ...




Il Pentagono rilascia un modello per accelerare l'intelligenza artificiale

I tecnocrati del Pentagono stanno vivendo un periodo d'oro con l'IA. Il rapporto afferma: "L'intelligenza artificiale è pronta a trasformare ogni settore e dovrebbe avere un impatto su ogni angolo del Dipartimento, attraversando operazioni, formazione, sostegno, protezione della forza, reclutamento, assistenza sanitaria e molti altri". Il problema è ovvio: "artificiale intelligenza "è un ossimoro. ⁃ Editor TN

Il Pentagono ha reso pubblici per la prima volta il febbraio 12 i contorni del suo piano generale per accelerare l'iniezione dell'intelligenza artificiale (AI) nelle apparecchiature militari, comprese le tecnologie avanzate destinate al campo di battaglia.

Declassificando gli elementi chiave di una strategia adottata la scorsa estate, il Dipartimento della Difesa sembra aver cercato di affrontare critiche disparate sul fatto che non era abbastanza attento ai rischi di usare l'IA nelle sue armi o non era abbastanza aggressivo di fronte al rivale gli sforzi delle nazioni per abbracciare l'IA.

Lo Strategia della pagina 17 il riassunto ha affermato che l'IA - un termine abbreviato per l'apprendimento guidato dalle macchine e il processo decisionale - ha offerto una grande promessa per le applicazioni militari e che "dovrebbe avere un impatto su ogni angolo del Dipartimento, attraversando operazioni, addestramento, sostegno, protezione della forza, reclutamento, assistenza sanitaria e molti altri. "

Descriveva l'abbraccio dell'IA in termini esclusivamente positivi, affermando che "con l'applicazione dell'IA alla difesa, abbiamo l'opportunità di migliorare il supporto e la protezione dei membri dei servizi statunitensi, salvaguardare i nostri cittadini, difendere i nostri alleati e partner e migliorare l'accessibilità e velocità delle nostre operazioni. "

Fare un passo indietro dall'intelligenza artificiale di fronte agli sforzi aggressivi di ricerca sull'intelligenza artificiale da parte di potenziali rivali avrebbe conseguenze disastrose - anche apocalittiche -, ha ulteriormente avvertito. Si tradurrebbe in "sistemi legacy irrilevanti per la difesa del nostro popolo, erodendo la coesione tra alleati e partner, riducendo l'accesso ai mercati che contribuiranno a un declino della nostra prosperità e standard di vita e crescenti sfide per le società su cui sono state costruite libertà individuali ".

La pubblicazione dei concetti chiave della strategia del Pentagono arriva otto mesi dopo una rivolta della Silicon Valley contro il principale programma di ricerca sull'intelligence militare. Dopo che migliaia di dipendenti di Google hanno firmato una petizione per protestare contro il coinvolgimento dell'azienda in uno sforzo noto come Project Maven, inteso ad accelerare l'analisi dei video presi da un drone in modo che il personale militare potesse identificare più facilmente potenziali obiettivi, Google annunciato 1 di giugno che ne sarebbe uscito.

Ma il rilascio della strategia chiarisce che l'amministrazione Trump non sta avendo ripensamenti

sull'utilità dell'IA. Dice che il focus del Joint Intelligial Intelligence Center (JAIC) del Dipartimento della Difesa, creato lo scorso giugno, sarà sull'esecuzione a breve termine e sull'adozione dell'IA. E in una sezione che descrive l'analisi delle immagini, il documento suggerisce che ci sono alcune cose che le macchine possono fare meglio degli umani. Dice che "l'IA può generare e aiutare i comandanti a esplorare nuove opzioni in modo che possano selezionare le linee d'azione che meglio raggiungono i risultati della missione, minimizzando i rischi sia per le forze schierate che per i civili".

Leggi la storia completa qui ...




La Cina rilascia robot e droni killer completamente autonomi per il combattimento

Grazie alla Cina, la corsa agli armamenti del Technocrat per le macchine automatiche di uccisione si è accelerata mentre proliferavano i loro nuovi sistemi di armi verso qualsiasi nazione non occidentale allineata nel mondo. ⁃ Editor TN

La Cina sta lanciando in modo aggressivo droni letali completamente autonomi in grado di eseguire attacchi militari mirati, ha avvertito un gruppo di esperti.

I droni assassini e gli aerei senza pilota equipaggiati con fucili AK-47 vengono esportati in Asia, Africa e zone di combattimento in Medio Oriente.

La Cina sta scatenando letali droni completamente autonomi in grado di effettuare attacchi militari mirati
L'aereo stealth CH-7 della Cina dovrebbe fare il suo primo volo alla fine di 2019

Il centro di riflessione sulla sicurezza nazionale statunitense Center for a New American Security (CNAS) ha dichiarato in un rapporto che i funzionari cinesi considerano questa "corsa agli armamenti" dell'IA come una minaccia alla pace globale.

Gregory C Allen, l'autore del rapporto, ha affermato che la Cina si sta affrettando a integrare un'intelligenza artificiale sempre più sofisticata nelle armi e nelle attrezzature militari.

Ha sottolineato che i droni, sia grandi che piccoli, sono un esempio particolare di un tipo di armamento che sta diventando sempre più automatizzato.

Negli Stati Uniti, i droni sono in grado di eseguire il pilota automatico di base, eseguendo compiti semplici come volare in cerchio attorno a un bersaglio.

Ma la Cina è "più aggressiva nell'introdurre maggiori livelli di autonomia più vicini all'uso letale della forza", afferma.

Un esempio è il drone Blowfish A2, che la Cina esporta a livello internazionale e che Allen afferma essere pubblicizzato come capace di "piena autonomia fino a scioperi mirati".

"COLPI DI PRECISIONE MIRATI"

Il Blowfish A2 "esegue autonomamente missioni di combattimento complesse, tra cui il rilevamento del tempismo in punti fissi e la ricognizione a distanza fissa e gli attacchi di precisione mirati".

A seconda delle preferenze del cliente, il produttore cinese di droni militari Ziyan offre di equipaggiare Blowfish A2 con missili o mitragliatrici.

Allen ha scritto: “Sebbene molti droni della generazione attuale siano principalmente gestiti in remoto, i funzionari cinesi generalmente si aspettano che i droni e la robotica militare presentino un'IA sempre più ampia e capacità autonome in futuro.

"I produttori di armi cinesi stanno già vendendo droni armati con quantità significative di autonomia di combattimento."

La Cina è anche interessata a usare l'IA per il processo decisionale del comando militare.

FUTURO DELLA GUERRA

Secondo il rapporto, Zeng Yi, un dirigente senior della terza più grande compagnia di difesa cinese, ha dichiarato che l'IA sarà al centro della guerra futura.

“L'attrezzatura meccanizzata è proprio come la mano del corpo umano. Nelle future guerre intelligenti, i sistemi di intelligenza artificiale saranno proprio come il cervello del corpo umano ", ha detto Zeng, secondo il rapporto.

Ha aggiunto che "l'IA può cambiare completamente l'attuale struttura di comando, che è dominata dagli umani" in una che è dominata da un "cluster di intelligenza artificiale".

Questa opinione è coerente con un pensiero più ampio nei circoli militari cinesi.

Leggi la storia completa qui ...