?? 由 文心大模型 生成的文章摘要

Meta正在嘗試高斯?jié)姙R技術(Gaussian splatting),以使Codec avatar虛擬化身更加逼真。
通過Codec avatar虛擬化身,Meta希望有一天能夠實現(xiàn)逼真的遠程呈現(xiàn),該技術依賴于具有眼動和面部跟蹤功能的VR頭顯以及復雜的人工智能技術,Meta首席執(zhí)行官扎克伯格最近在播客中展示了該技術的現(xiàn)狀。
將Codec Avatars推向市場的最大技術障礙之一是用戶必須在特殊工作室中進行詳細的3D 掃描,而往往這個過程需要幾個小時。未來,Meta旨在基于智能手機拍攝的照片以完成化身生成過程;而另一個障礙是在Meta Quest等缺乏必要計算力的VR一體機上渲染逼真的虛擬化身。為了解決這個問題,Meta正在開發(fā)一種專用芯片,以幫助實時渲染虛擬化身。
如今,Codec Avatars 2.0更新了最新版本虛擬化身技術,采用高斯?jié)姙R技術以實現(xiàn)更真實、更高效的化身照明。Meta在題為“Relightable Gaussian Codec Avatars”的研究論文中介紹了這一新流程。
高斯?jié)姙R是一種機器學習技術,可以根據(jù)真實位置的一些圖像渲染3D場景。與技術上相關的NeRF不同,高斯?jié)姙R圖可以實時渲染。
Meta研究人員將高斯?jié)姙R應用于Codec Avatars化身,并取得了驚人的結果:化身照明比以前更加真實,甚至最精細的細節(jié)(例如單根頭發(fā)和毛孔)也能真實渲染,并響應不斷變化的照明條件。
研究人員表示:“我們的方案在不影響實時性能的情況下優(yōu)于現(xiàn)有方案?!保芯咳藛T基于標準PC VR頭顯展示了該方案的可行性。
「93913原創(chuàng)內容,轉載請注明出處」








