La corsa agli armamenti di intelligenza artificiale è inevitabile ma può essere controllata?

Per favore, condividi questa storia!

Il World Economic Forum comprende che l'IA ha innescato una corsa agli armamenti internazionale, ma il risultato non è ancora chiaro. Da una mente tecnocratica, l'IA è la soluzione a tutti i problemi sociali e personali dell'umanità.  Editor TN

Le macchine si alzano, soggiogando l'umanità. È un trofeo di fantascienza vecchio quasi quanto le macchine stesse. Gli scenari del giorno del giudizio su questo tema sono così stravaganti La matrice, in cui l'intelligenza artificiale creata dall'uomo collega gli esseri umani a una realtà simulata per raccogliere energia dai loro corpi - è difficile visualizzarli come minacce gravi.

Nel frattempo, i sistemi artificialmente intelligenti continuano a svilupparsi rapidamente. Le auto a guida autonoma stanno iniziando a condividere le nostre strade; i dispositivi tascabili rispondono alle nostre domande e gestiscono i nostri programmi in tempo reale; gli algoritmi ci battono su Go; i robot si rialzano quando cadono. È evidente come lo sviluppo di queste tecnologie andrà a beneficio dell'umanità. Ma allora - tutte le storie di fantascienza distopiche non iniziano in questo modo?

Qualsiasi discussione sul potenziale distopico dell'IA rischia di gravitare verso uno dei due estremi. Uno è troppo spaventoso e spaventoso. Naturalmente, Siri non sta per trasformarsi in HAL omicida 2001: Odissea nello spazio. Ma l'altro estremo è ugualmente pericoloso - compiacimento che non abbiamo bisogno di pensare a questi problemi, perché l'IA che minaccia l'umanità è lontana decenni o più.

È vero che la "superintelligenza" artificiale amata dalla fantascienza potrebbe essere molti decenni in futuro, se possibile. Tuttavia, a recente indagine condotta da TechEmergence sui principali ricercatori di intelligenza artificiale ha riscontrato una vasta gamma di preoccupazioni sui pericoli per la sicurezza dell'intelligenza artificiale in un arco di tempo molto più realistico, 20, incluso il crollo del sistema finanziario quando gli algoritmi interagiscono in modo imprevisto e il potenziale per l'IA di aiutare gli attori malintenzionati a ottimizzare le armi biotecnologiche.

Questi esempi mostrano come, accanto al progresso tecnologico su molti fronti, la Quarta rivoluzione industriale promette una rapida e massiccia democratizzazione della capacità di provocare il caos su larga scala. Sul lato oscuro del "deep web", dove le informazioni sono nascoste ai motori di ricerca, esistono già strumenti per la vendita di una serie di tecnologie emergenti, dalle armi stampate 3D ai materiali fissili e alle attrezzature per l'ingegneria genetica nei laboratori domestici. In ogni caso, l'IA aggrava il potenziale di danno.

Considera un'altra possibilità menzionata nel sondaggio TechEmergence. Se combiniamo una pistola, un drone quadrocopter, una fotocamera ad alta risoluzione e un algoritmo di riconoscimento facciale che non avrebbe bisogno di essere molto più avanzato del corrente meglio della classe, potremmo in teoria realizzare una macchina che possiamo programmare per sorvolare folle, cercando volti particolari e assassinando obiettivi a vista.

Un tale dispositivo non richiederebbe superintelligenza. È concepibile usando l'IA attuale, "stretta", che non può ancora fare il tipo di salti creativi di comprensione attraverso domini distinti che gli umani possono fare. Quando viene sviluppata "intelligenza generale artificiale", o AGI, come sembra probabile, prima o poi, aumenterà in modo significativo sia i potenziali benefici dell'IA sia, nel parole di Jeff Goddell, i suoi rischi per la sicurezza, "forzare un nuovo tipo di contabilità con il genio tecnologico".

Ma non si sta abbastanza pensando al potenziale arma- nizzabile dell'IA. Come Wendell Wallach dice: "Navigare nel futuro delle possibilità tecnologiche è un'impresa pericolosa", osserva. "Inizia con l'apprendimento di porre le domande giuste, domande che rivelano le insidie ​​dell'inazione e, cosa più importante, i passaggi disponibili per tracciare una rotta verso un porto sicuro".

Sfide di non proliferazione

Studiosi di spicco tra cui Stuart Russell hanno emesso a richiedere un'azione per evitare "potenziali insidie" nello sviluppo dell'IA che è stato Backed dai principali tecnologi tra cui Elon Musk, Demis Hassabis, Steve Wozniak e Bill Gates. Una trappola di alto profilo potrebbe essere "letali sistemi di armi autonome" (LEGGI) - o, più colloquialmente, "robot killer". I progressi tecnologici nella robotica e la trasformazione digitale della sicurezza hanno già cambiato il paradigma fondamentale della guerra. Secondo a Christopher Coker "La tecnologia 21st del secolo scorso sta cambiando la nostra comprensione della guerra in modi profondamente inquietanti". LE LEGGI completamente sviluppate trasformeranno probabilmente la guerra moderna drammaticamente come polvere da sparo e armi nucleari.

Il Consiglio delle Nazioni Unite per i diritti umani ha ha chiesto una moratoria sull'ulteriore sviluppo delle LEGGI, mentre altri gruppi e campagne di attivisti hanno sostenuto un divieto totale, tracciando un'analogia con le armi chimiche e biologiche, che la comunità internazionale considera oltre il limite. Per il terzo anno consecutivo, il mese scorso gli Stati membri delle Nazioni Unite si sono incontrati per discutere la richiesta di divieto e come garantire che qualsiasi ulteriore sviluppo delle LEGGI rimanga all'interno del diritto internazionale umanitario. Tuttavia, quando la tecnologia delle armi rivoluzionarie non è più limitata a pochi grandi militari, gli sforzi di non proliferazione diventano molto più difficili.

Il dibattito è complicato dal fatto che le definizioni rimangono confuse. Le piattaforme, come i droni, sono comunemente confuse con le armi che possono essere caricate su piattaforme. L'idea che ai sistemi venga chiesto di eseguire compiti strettamente definiti, come identificare ed eliminare i veicoli corazzati che si muovono in una specifica area geografica, non è sempre distinta dall'idea che ai sistemi venga concesso un ambito discrezionale per interpretare missioni più generali, come "vincere la guerra" .

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti