全身化身實時渲染:Meta Codec Avatars在Quest 3上的進展與未來走向

?? 由 文心大模型 生成的文章摘要

Meta已成功對其全身Codec Avatars技術(shù)進行優(yōu)化提煉,如今在Quest 3獨立版上可同時渲染出3個該化身,但這一成果的背后也伴隨著一些明顯的權(quán)衡。?

近十年來,Meta始終致力于研發(fā)Codec Avatars技術(shù)。這項技術(shù)借助VR頭顯的面部及眼球追蹤功能,能夠?qū)崟r驅(qū)動出逼真的人體數(shù)字化身。根據(jù)實際體驗,最高質(zhì)量的原型版本在突破恐怖谷效應(yīng)方面取得了非凡成就。?

Codec Avatars的核心目標(biāo)是傳遞社交臨場感,也就是讓人們在潛意識中覺得自己真的在和另一個人相處,即便對方并不在現(xiàn)場。這一點,無論是平板技術(shù),甚至是視頻通話,都難以做到。?

為了能讓Codec Avatars最終成功推出,Meta一直在不懈努力:一方面不斷提升系統(tǒng)的真實感與適應(yīng)性,另一方面降低其實時渲染的要求,并且力求實現(xiàn)通過智能手機掃描就能生成該化身。?

比如,上周我們曾報道過Meta在高度逼真的頭部Codec Avatar方面的最新進展。借助高斯分布技術(shù)(Gaussian splatting),只需一段旋轉(zhuǎn)頭部的自拍視頻,再加上服務(wù)器GPU大約一小時的處理時間,就能生成這樣的化身。近年來,高斯分布技術(shù)在逼真的體積渲染領(lǐng)域發(fā)揮著至關(guān)重要的作用,其地位堪比大型語言模型(LLM)在聊天機器人領(lǐng)域的影響力。?

不過,該系統(tǒng)最初的設(shè)計是在性能強大的PC顯卡上運行。而現(xiàn)在,Meta的研究人員已經(jīng)找到在Quest 3上實時運行全身Codec Avatar的方法。?

在一篇名為《SqueezeMe:高斯全身頭像的移動就緒提煉》的論文中,研究人員詳細(xì)闡述了如何利用NPU和GPU對全身逼真頭像進行優(yōu)化,使其能夠在移動芯片組上運行。?

或許你在大型語言模型(LLM)或人工智能(AI)的相關(guān)語境中聽說過“蒸餾”這個詞。它指的是利用一個大型且計算成本高昂的模型的輸出,來訓(xùn)練一個規(guī)模小得多的模型。其核心理念是,讓小模型能夠高效地復(fù)制大型模型的功能,同時將質(zhì)量損失降到最低。?

研究人員表示,SqueezeMe技術(shù)可以在Quest 3上以72FPS的速度渲染出3個全身頭像,與在PC上渲染的版本相比,質(zhì)量幾乎沒有損失。?

然而,有幾個關(guān)鍵的權(quán)衡之處需要留意。?

這些頭像的生成,依靠的是傳統(tǒng)的大規(guī)模自定義捕捉陣列,該陣列配備了超過100個攝像頭和數(shù)百盞燈,而非Meta近期在其他Codec Avatars研究中所采用的新“通用模型”智能手機掃描方法。?

而且,它們采用的是平面光照,不支持動態(tài)重新光照。而支持動態(tài)重新光照是Meta最新PC版Codec Avatars的旗艦功能,對于讓該化身適應(yīng)VR環(huán)境和混合現(xiàn)實來說至關(guān)重要。
?
盡管存在這些不足,但這項研究對于Meta而言,仍是朝著最終將Codec Avatars作為其HorizonOS頭顯的實際功能所邁出的充滿希望的一步。?

今年,隨著蘋果在visionOS中推出新的Persona,公眾對Meta的壓力顯著增大,大家紛紛要求Meta推出這款已研究十年的產(chǎn)品,這也相當(dāng)于在督促Meta兌現(xiàn)其承諾。?

但問題在于,Quest 3和Quest 3S均不支持眼動追蹤或面部追蹤,而且目前沒有跡象表明Meta計劃在近期推出另一款具備這兩種功能的頭顯。此前的QuestPro曾支持這兩項功能,不過已于今年年初停產(chǎn)。?

有一種可能性是,Meta會首先推出帶有AI模擬面部追蹤功能的初級平板版本Codec Avatars,讓用戶能夠以比Meta Avatar更逼真的形式參與Whats App和Messenger視頻通話。?

Meta Connect 2025將于9月17日舉行,屆時該公司很可能會分享更多關(guān)于Codec Avatars技術(shù)的進展情況。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明出處」