Video: Stunt-skådespelare kan ersättas av detta A.I. Teknik en dag snart

$config[ads_kvadrat] not found

Funny Fail And Behind The Scene | Stunt Sk Rony

Funny Fail And Behind The Scene | Stunt Sk Rony
Anonim

Ett nytt artificiellt intelligenssystem har utvecklat datoranimerade stuntmän som skulle kunna göra actionfilmerna svalare än någonsin. Forskare vid University of California, Berkeley har utvecklat ett system som kan återskapa några av de smalaste rörelserna inom kampsport, med potential att ersätta verkliga mänskliga aktörer.

UC Berkeley doktorand Xue Bin 'Jason' Peng säger att tekniken resulterar i rörelser som är svåra att skilja från människors.

"Detta är faktiskt ett ganska stort steg från vad som har gjorts med djupt lärande och animering", sa Peng i ett uttalande som släpptes med sin forskning som presenterades vid 2018 SIGGRAPH-konferensen i augusti i Vancouver, Kanada i augusti. "Tidigare har mycket arbete gått in på att simulera naturliga rörelser, men dessa fysikbaserade metoder tenderar att vara mycket specialiserade. de är inte allmänna metoder som kan hantera en mängd olika färdigheter.

"Om du jämför våra resultat med rörelseinspelning inspelad från människor, kommer vi till den punkt där det är ganska svårt att skilja de två, för att berätta vad som är simulering och vad som är verkligt. Vi flyttar mot en virtuell stuntman."

Ett dokument på projektet, kallat DeepMimic, publicerades i tidningen ACM Trans. Graf i Augusti. I september gjorde laget sitt kod- och filminspelningsdata tillgängligt på GitHub för andra att pröva.

Laget använde djup förstärkning lärande tekniker för att lära systemet hur man rör sig. Det tog inspelningsdata från verkliga livsföreställningar, matade dem in i systemet och satte det att träna rörelserna i en simulering för motsvarande en hel månad, träning 24 timmar om dagen. DeepMimic lärde 25 olika drag som kicking och backflips, jämföra sina resultat varje gång för att se hur nära det kom till de ursprungliga mocap-data.

Till skillnad från andra system som kanske har försökt och misslyckats upprepade gånger, slog DeepMimic ner draget i steg, så om det misslyckades vid en tidpunkt kunde det analysera prestanda och tweak i rätt ögonblick i enlighet därmed.

"När dessa tekniker utvecklas tror jag att de kommer att börja spela en större och större roll i filmer, säger Peng Omvänd. "Men eftersom filmer i allmänhet inte är interaktiva kan dessa simuleringstekniker ha mer omedelbar inverkan på spel och VR.

"Faktum är att simulerad karaktär som utbildats med hjälp av förstärkningslärande redan hittar sig till spel. Indiespel kan vara en mycket trevlig testplats för dessa idéer. Men det kan ta en stund längre innan de är redo för AAA-titlar, eftersom det är ett ganska drastiskt skifte från traditionella utvecklingsledningar eftersom man arbetar med simulerade tecken."

Spelutvecklare börjar experimentera med dessa verktyg. En utvecklare lyckades använda DeepMimic inom Unity-spelmotorn:

Damer och herrar! Vi har slutfört Backflip! Grattis till Ringo, aka StyleTransfer002.144 - med # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer tränar en #ActiveRagoll från MoCap data aka Deepmimic http://t.co/gAGtYYeawE … #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 1 november 2018

Peng är hoppfull att släppa koden kommer att påskynda sitt antagande. Han noterar också att laget har talat med ett antal spelutvecklare och animeringsstudior om möjliga tillämpningar av detta arbete, men jag kan inte gå in på för mycket detaljer om det ännu.

Maskiner kämpar regelbundet med komplexa rörelser, vilket demonstreras av robotarna som spelar fotboll som mjukt tumlar över gräset i stället för att slutföra några högoktanflyttningar. Det finns tecken på framsteg, som A.I. får fat i komplexiteten i verkliga rörelser och börjar korrigera sig mer som människor.

Kanske DeepMimic kunde en dag lära sig ett nytt drag i sekunder, liknande hur Neo lär sig kung fu i Matrisen.

Läs abstrakt nedan.

Ett långsiktigt mål i teckenanimering är att kombinera datadriven specifikation av beteende med ett system som kan utföra ett liknande beteende i en fysisk simulering, vilket möjliggör realistiska svar på störningar och miljövariationer. Vi visar att välkända metoder för förstärkningslärande (RL) kan anpassas för att lära sig robusta kontrollpolicyer som kan imitera ett brett spektrum av exemplar rörelseklipp, samtidigt som man lär sig komplexa återhämtningar, anpassar sig till förändringar i morfologin och åstadkommer användarspecificerade mål. Vår metod hanterar nyckelbilder, högdynamiska handlingar som rörelsefångade vändningar och spinn och retargeta rörelser. Genom att kombinera ett rörelsesimitationsmål med ett uppgiftsmål kan vi träna tecken som reagerar intelligent i interaktiva inställningar, t ex genom att gå i önskad riktning eller kasta en boll i ett användardefinierat mål. Detta tillvägagångssätt kombinerar sålunda bekvämligheten och rörelsekvaliteten för att använda rörklämmor för att definiera önskad stil och utseende, med flexibilitet och allmänt som RL-metoder och fysikbaserad animering ger. Vi utforskar vidare ett antal metoder för att integrera flera klip i inlärningsprocessen för att utveckla flera skickliga agenter som kan utföra en rik repertoar av olika färdigheter. Vi demonstrerar resultat med hjälp av flera tecken (människa, Atlas robot, bipedal dinosaur, drake) och ett stort antal färdigheter, inklusive lokomotion, akrobatik och kampsport.

$config[ads_kvadrat] not found