GAN「一生萬(wàn)物」, ETH、谷歌用單個(gè)序列玩轉(zhuǎn)神經(jīng)動(dòng)作合成,入選SIGGRAPH

來(lái)源:機(jī)器之心 本文約2000字,建議閱讀5分鐘
酷炫的神經(jīng)動(dòng)作合成技術(shù),單個(gè)序列就能完成。
生成逼真且多樣化的人體動(dòng)作是計(jì)算機(jī)圖形學(xué)的長(zhǎng)期目標(biāo)。對(duì)于動(dòng)作建模和合成來(lái)說(shuō),研究者通常使用概率模型來(lái)捕獲有限的局部變化或利用動(dòng)作捕捉(mocap)獲得的大型動(dòng)作數(shù)據(jù)集。在階段設(shè)置(stage-setting)和后期處理(例如,涉及手動(dòng)數(shù)據(jù)清理)中,使用動(dòng)作捕捉系統(tǒng)捕獲數(shù)據(jù)的成本很高,并且動(dòng)作數(shù)據(jù)集通常是有限制的,即它們?nèi)狈λ璧墓趋澜Y(jié)構(gòu)、身體比例或樣式。利用動(dòng)作數(shù)據(jù)集通常需要復(fù)雜的處理,例如重新定位,這可能會(huì)在原始捕獲的動(dòng)作中引入錯(cuò)誤。
近日,來(lái)自蘇黎世聯(lián)邦理工學(xué)院、谷歌、芝加哥大學(xué)等機(jī)構(gòu)的研究者開(kāi)發(fā)了一個(gè)框架 GANimator,該框架能夠產(chǎn)生不同且逼真的動(dòng)作,只使用一個(gè)單一的訓(xùn)練序列。這一框架大大簡(jiǎn)化了數(shù)據(jù)收集過(guò)程,同時(shí)允許創(chuàng)建逼真的動(dòng)作變化,還可以準(zhǔn)確地捕捉單獨(dú)動(dòng)作序列細(xì)節(jié)。該研究入選 SIGGRAPH 2022。

論文地址:
https://arxiv.org/pdf/2205.02625.pdf
項(xiàng)目地址: https://peizhuoli.github.io/ganimator/

















