L'ex CEO di Google Eric Schmidt ha paragonato l'IA alle armi nucleari e ha chiesto un regime di deterrenza simile alla distruzione reciprocamente assicurata che impedisce ai paesi più potenti del mondo di distruggersi a vicenda.
Schmidt ha parlato dei pericoli dell'IA all'Aspen Security Forum a pannello di eventi sulla sicurezza nazionale e l'intelligenza artificiale il 22 luglio. Mentre rispondeva a una domanda sul valore della moralità nella tecnologia, Schmidt ha spiegato che lui stesso era stato ingenuo riguardo al potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse più in linea con l'etica e la morale delle persone che serve e ha fatto un bizzarro confronto tra l'IA e le armi nucleari.
"Non siamo pronti per i negoziati di cui abbiamo bisogno". – @ericschmidt #AspenSicurezza pic.twitter.com/As749t6ZyU
— Forum sulla sicurezza di Aspen (@AspenSecurity) Luglio 22, 2022
Schmidt immaginava un futuro prossimo in cui Cina e Stati Uniti avrebbero dovuto cementare un trattato sull'IA. "Negli anni '50 e '60, alla fine abbiamo elaborato un mondo in cui c'era una regola 'nessuna sorpresa' sui test nucleari e alla fine sono stati banditi", ha detto Schmidt. “E' un esempio di equilibrio di fiducia, o mancanza di fiducia, è una regola del 'senza sorprese'. Sono molto preoccupato che la visione degli Stati Uniti della Cina come corrotta o comunista o altro, e la visione cinese dell'America come un fallimento... permetteranno alle persone di dire "Oh mio dio, stanno combinando qualcosa" e poi iniziare in qualche modo di enigma. Inizia una cosa in cui, poiché ti stai armando o ti stai preparando, attivi l'altro lato. Non abbiamo nessuno che ci lavori, eppure l'IA è così potente".
L'intelligenza artificiale e l'apprendimento automatico sono una tecnologia impressionante e spesso fraintesa. In gran parte, non è così intelligente come la gente pensa che sia. Può sfornare opere d'arte a livello di capolavoro, battere gli umani a Starcraft IIed effettuare telefonate rudimentali per gli utenti. Tuttavia, i tentativi di farlo svolgere compiti più complicati, come guidare un'auto in una grande città, non stanno andando così bene.
Schmidt immaginava un futuro prossimo in cui sia la Cina che gli Stati Uniti avrebbero avuto problemi di sicurezza che avrebbero imposto una sorta di trattato di deterrenza tra loro attorno all'IA. Parla degli anni '1950 e '60, quando la diplomazia mise a punto una serie di controlli sulle armi più letali del pianeta. Ma perché il mondo arrivasse al punto in cui ha istituito il Trattato per la messa al bando degli esperimenti nucleari, SALT II e altri atti legislativi storici, ci sono voluti decenni di esplosioni nucleari e, in modo critico, la distruzione di Hiroshima e Nagasaki.
Le due città giapponesi distrutte dall'America alla fine della seconda guerra mondiale uccisero decine di migliaia di persone e dimostrarono al mondo l'orrore eterno delle armi nucleari. I governi di Russia e Cina si sono quindi precipitati ad acquisire le armi. Il modo in cui viviamo con la possibilità che queste armi vengano usate è attraverso qualcosa chiamato distruzione reciproca assicurata (MAD), una teoria di deterrenza che garantisce che se un paese lancia un'arma nucleare, è possibile che lo faccia anche ogni altro paese. Non usiamo l'arma più distruttiva del pianeta a causa della possibilità che così facendo distruggerà, per lo meno, la civiltà in tutto il mondo.
Nonostante i commenti colorati di Schmidt, non vogliamo o non abbiamo bisogno di MAD for AI. Per prima cosa, l'IA non si è dimostrata neanche lontanamente distruttiva come le armi nucleari. Ma persone in posizioni di potere teme questa nuova tecnologia e, in genere, per tutte le ragioni sbagliate. Le persone hanno persino suggerito dando il controllo delle armi nucleari all'IA, teorizzando che sarebbero arbitri del loro uso migliori degli umani.
Il problema con l'IA non è che ha la forza potenzialmente distruttiva di un'arma nucleare. È che l'IA è valida solo quanto le persone che l'hanno progettata e che riflettono i valori dei loro creatori. L'IA soffre del classico problema "spazzatura dentro, spazzatura fuori": gli algoritmi razzisti fanno robot razzisti, tutta l'IA porta i pregiudizi dei suoi creatori e un chatbot addestrato su 4chan diventa vile.
Questo è qualcosa di Demis Hassabis, il CEO di DeepMind, che ha addestrato l'IA che sta battendo Starcraft II giocatori: sembra capire meglio di Schmidt. In un'intervista di luglio sul podcast di Lex Fridman, Fridman ha chiesto ad Hassabis come si potrebbe controllare una tecnologia potente come l'IA e come lo stesso Hassabis potrebbe evitare di essere corrotto dal potere.
[…] Eric Schmidt: l'IA è potente quanto le armi nucleari […]
[…] Eric Schmidt: l'IA è potente quanto le armi nucleari […]
[…] FONTE: ERIC SCHMIDT: L'IA EST AUSSI PUISSANTE QUE LES ARMES NUCLÉAIRES […]
[…] is wellicht de moeite om daar naar te luisteren. Di hij de oplossing heeft, è een andere vraag. Technocracy News, dat het bericht van Vice heeft overgenomen, omschrijft de grote techspeler namelijk als een […]