Googles A.I. Slår Facebook i Race för att vinna på Old Game of Go

$config[ads_kvadrat] not found

Google's DeepMind AI Just Taught Itself To Walk

Google's DeepMind AI Just Taught Itself To Walk
Anonim

Lite före midnatt Pacific Time på tisdag, Mark Zuckerberg lanserade en förebyggande strejk mot hans tävling på Google med ett uttalande som han troligen visste var fel:

"Det gamla kinesiska spelet Go är ett av de sista spelen där de bästa mänskliga spelarna fortfarande kan slå de bästa artificiella intelligensspelarna."

Visst visste Zuckerberg att tolv timmar senare skulle Google trumpet det Ja faktiskt, dess artificiella intelligens hade slagit en mänsklig spelare, och inte bara någon människa utan en av världens bästa. Googles uppskattade prestation - resultaten publicerades i tidningen Natur på onsdag eftermiddag - är det att dess DeepMind forskare hade utvecklat AlphaGo, ett artificiellt neuralt nätverk, som slog Fan Hui med ett poäng på fem matcher till noll.

Under tiden skrev Zuckerberg i samma post på tisdagskvällen att Facebook kommer nära: "Forskare har försökt att lära ut datorer att vinna på Go i 20 år. Vi närmar oss, och under de senaste sex månaderna har vi byggt en A.I. som kan göra rörelser så snabbt som 0,1 sekunder och fortfarande vara lika bra som tidigare system som tog år att bygga."

Go-spelet är äldre än Jesu berättelse, men är fortfarande anmärkningsvärt tufft för datorer att slå. Algoritmer krossar människor på tic-tac-toe, schack och checkers, men det stora antalet rörelser i Go (mer än det finns atomer i universum) har varit för mycket för datorer att brute-force deras väg till seger. Koden kunde inte bästa människan Go champs - tills nu.

I årtionden har datavetenskapare övervägt att vinna spelet något av en A.I. syratest. Googles AlphaGo ligger före kurvan, enligt vissa experter, med tio år. Till skillnad från Kasparov-mördaren Deep Blue (http://en.wikipedia.org/wiki/Deep Blå (chess_computer), som kan krossa igenom möjliga drag och välja det bästa, Googles algoritm är ett avancerat system som kombinerar förutsäger motståndarens rörelser och maskininlärning.

Från Googles officiella blogg:

Vi tränade neurala nätverk på 30 miljoner flyttningar från spel som spelats av mänskliga experter, tills det kunde förutsäga den mänskliga rörelsen 57 procent av tiden (föregående rekord före AlphaGo var 44 procent). Men vårt mål är att slå de bästa mänskliga spelarna, inte bara efterlikna dem. För att göra detta lärde sig AlphaGo att upptäcka nya strategier för sig själv, genom att spela tusentals spel mellan sina neurala nätverk och justera anslutningarna med hjälp av en trial-and-error-process som kallas förstärkningslärande. Naturligtvis kräver allt detta en stor mängd datorkraft, så vi utnyttjade kraftigt Google Cloud Platform.

Vad är Go? Det är ett 2500-årigt brädspel som är nästan omöjligt att slå genom att använda artificiell intelligens. pic.twitter.com/UEyGIxh42I

- Google (@google) 27 januari 2016

Nu kan det här känna sig som en hel del skrovabaloo över vars dator kan svänga sin A.I. Dick harder på ett gammalt brädspel. Men slutspelet är att ta de bakomliggande principerna bakom dessa program och lägga grunden för mer generaliserad maskininlärning.

Zuckerberg påkallade A.I: s förmåga att hantera miljöproblem och analysera sjukdomar. På en presskonferens sa Googles chef AlphaGo-programmerare att en trolig första tillämpning av Googles nya teknik skulle vara produktrekommendationer.

$config[ads_kvadrat] not found