Google AI Breakthrough: Deep Mind può imparare senza input umano

Per favore, condividi questa storia!

Google è ai vertici delle aziende che ricercano la tecnocrazia globale e la loro spinta verso l'IA autonoma minaccia il nucleo stesso della società mondiale. La minaccia è reale, ma pochi cittadini comprendono la complessità di questa tecnologia.  Editor TN

Non molto tempo fa, padroneggiare l'antico gioco cinese di Go era fuori dalla portata di intelligenza artificiale. Ma allora AlphaGo, lettore AI di Google DeepMind, ha iniziato a partire anche i migliori avversari umani nella polvere. Eppure, anche questa IA che batteva il mondo aveva bisogno degli umani da cui imparare. Quindi, mercoledì, la nuova versione di DeepMind ha completamente abbandonato le persone.

AlphaGo Zero ha superato le capacità del suo predecessore, aggirando il metodo tradizionale di AI di apprendimento dei giochi, che prevede la visione di migliaia di ore di gioco umano. Invece, inizia semplicemente a giocare a caso, affinando le sue abilità giocando ripetutamente contro se stesso. Tre giorni e 4.9 milioni di giochi simili in seguito, il risultato è la migliore intelligenza artificiale Go-playing al mondo.

"È più potente degli approcci precedenti perché abbiamo rimosso i vincoli della conoscenza umana", afferma David Silver, ricercatore capo di AlphaGo.

"L'umanità ha accumulato conoscenze su Go da milioni di giochi giocati nel corso di migliaia di anni", scrivono gli autori nel loro articolo. "Nel giro di pochi giorni ... AlphaGo Zero è stato in grado di riscoprire gran parte di questa conoscenza di Go, nonché nuove strategie che forniscono nuove intuizioni sul più antico dei giochi."

L'approccio alternativo di AlphaGo Zero gli ha permesso di scoprire strategie che gli umani non hanno mai trovato. Ad esempio, ha appreso molti diversi joseki: sequenze di mosse che non provocano perdite nette per entrambe le parti. Un sacco di joseki sono stati scritti durante le migliaia di anni in cui Go è stato suonato, e inizialmente AlphaGo Zero ha imparato molti di quelli familiari. Ma mentre l'auto-allenamento continuava, ha iniziato a favorire sequenze precedentemente sconosciute.

Per testare queste nuove mosse, DeepMind ha confrontato AlphaGo Zero con la versione che ha battuto il campione del mondo 18 Lee Sedol. In un gioco 100 rancore, ha vinto 100-0. Questo nonostante l'allenamento duri solo tre giorni, rispetto a diversi mesi per il suo predecessore. Dopo 40 giorni di allenamento, ha anche vinto 89-11 contro una versione migliore di AlphaGo che aveva sconfitto il numero uno al mondo Ke Jie (NaturaDOI: 10.1038 / nature24270).

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti