在計(jì)算機(jī)視覺(jué)領(lǐng)域,單圖3D人體重建一直是一個(gè)極具挑戰(zhàn)性的課題。近日,由南京大學(xué)軟件學(xué)院媒體識(shí)別與理解研究組(MAGUS)牽頭,聯(lián)合中國(guó)科學(xué)院深圳先進(jìn)技術(shù)研究院、清華大學(xué)交叉信息院、騰訊天衍實(shí)驗(yàn)室等機(jī)構(gòu)的研究團(tuán)隊(duì),提出的名為 “IDOL(Implicit Deformable Object Learning)”的技術(shù),在計(jì)算機(jī)視覺(jué)領(lǐng)域頂級(jí)會(huì)議2025 CVPR(IEEE Conference on Computer Vision and Pattern Recognition)的評(píng)審中脫穎而出,獲得了極高的評(píng)價(jià)。?
傳統(tǒng)的單圖3D人體重建方法往往面臨計(jì)算效率低、重建效果不夠逼真等問(wèn)題。而IDOL技術(shù)創(chuàng)新性地提出了一種基于神經(jīng)輻射場(chǎng)(Neural Radiance Field, NeRF)的隱式可變形物體學(xué)習(xí)框架,為這一難題提供了高效的解決方案。它能夠在單GPU上實(shí)現(xiàn)秒級(jí)生成高分辨率的逼真3D人體模型,大大提高了重建效率。與以往方法相比,IDOL技術(shù)通過(guò)引入可變形的隱式表示,能夠更精準(zhǔn)地捕捉人體的復(fù)雜幾何形狀和細(xì)節(jié)紋理。在實(shí)驗(yàn)測(cè)試中,使用相同的硬件設(shè)備,傳統(tǒng)方法生成一個(gè)高分辨率3D人體模型可能需要數(shù)分鐘甚至更長(zhǎng)時(shí)間,而IDOL技術(shù)僅需短短幾秒,且生成的模型在細(xì)節(jié)表現(xiàn),如皮膚褶皺、肌肉紋理等方面更加逼真。?
IDOL技術(shù)不僅在重建效率和模型質(zhì)量上表現(xiàn)出色,還具備實(shí)時(shí)渲染、直接動(dòng)畫(huà)化與編輯能力。這意味著,利用該技術(shù)生成的3D人體模型能夠在虛擬場(chǎng)景中實(shí)時(shí)呈現(xiàn),并且可以直接對(duì)模型進(jìn)行動(dòng)畫(huà)控制,如行走、奔跑、跳躍等動(dòng)作,無(wú)需復(fù)雜的后期處理。同時(shí),用戶還能方便地對(duì)模型進(jìn)行編輯,調(diào)整人體的姿態(tài)、體型等參數(shù)。例如,在虛擬試衣場(chǎng)景中,通過(guò)IDOL 技術(shù)快速生成顧客的3D人體模型后,能夠?qū)崟r(shí)為模型穿上不同款式的衣服,觀察效果,并可對(duì)模型的身材參數(shù)進(jìn)行微調(diào),模擬不同身材穿著同一款衣服的效果,為用戶提供更個(gè)性化的購(gòu)物體驗(yàn)。在影視制作中,導(dǎo)演可以實(shí)時(shí)編輯角色的動(dòng)作和姿態(tài),大大節(jié)省了制作時(shí)間和成本。?
【913VR原創(chuàng)內(nèi)容,轉(zhuǎn)載請(qǐng)注明及回鏈】