八月伊始,驚喜不斷。疊境數(shù)字與上?萍即髮W(xué)的合作成果“TightCap: 3D Human Shape Capture with Clothing Tightness Field”(以下簡稱“TightCap”)被計(jì)算機(jī)圖形學(xué)的頂級期刊TOG (ACM Transactions on Graphics, 2021)接收。
“想要通過一次3D人體掃描,就獲得人體體型信息與衣著信息聽起來像是天方夜譚”,該文章的作者,陳欣與龐安琪討論到,“但是這并不是不可能,當(dāng)有著充足的相關(guān)衣物信息時,我們可以根據(jù)估計(jì)的衣物與皮膚的貼合緊密度來估計(jì)人體的體型信息,這項(xiàng)技術(shù)是虛擬試衣的基礎(chǔ)”。
TightCap流程圖
TightCap提出了一種全新的數(shù)據(jù)驅(qū)動的人體體型與服裝的估計(jì)方法。該方法只需一次3D人體掃描即可準(zhǔn)確捕捉體型與著裝信息,并能夠?qū)崿F(xiàn)虛擬試穿、生物識別、身體評估等眾多應(yīng)用。該方法提出了一種新穎的框架,通過衣服松緊度公式來定義衣服與體型關(guān)系,并用深度神經(jīng)網(wǎng)絡(luò)預(yù)測未知服裝的3D松緊度場,綜合優(yōu)化體型與提取服裝,構(gòu)建多層級的穿衣虛擬角色。通過該技術(shù),我們能夠?yàn)樘摂M世界中的人物形象,提供更為自然的衣著表現(xiàn),為構(gòu)建更為真實(shí)的元宇宙提供底層技術(shù)能力。
疊境數(shù)字作為該項(xiàng)目聯(lián)合研發(fā)團(tuán)隊(duì),長期聚焦于人工智能技術(shù),計(jì)算機(jī)視覺、計(jì)算機(jī)圖形學(xué)等基礎(chǔ)計(jì)算機(jī)科學(xué)研發(fā),力圖構(gòu)建一個更為真實(shí)的虛擬世界。面向元宇宙構(gòu)建,不斷積累其所需要的三維光場重建、全自由三維交互、虛實(shí)融合的數(shù)字孿生場景等底層技術(shù),向著一個輝宏的元宇宙世界,提供疊境數(shù)字的解決方案。