Meta旗下網(wǎng)絡(luò)瀏覽器現(xiàn)已采用深度感應(yīng)技術(shù),在Quest 3與Quest 3S設(shè)備上實現(xiàn)WebXR命中測試功能,無需依賴場景網(wǎng)格即可完成混合現(xiàn)實對象的即時放置。
WebXR命中測試API(WebXR Hit Testing API)支持開發(fā)者從指定原點(如用戶頭部或控制器)投射虛擬射線,并精準(zhǔn)定位該射線與現(xiàn)實世界幾何體的首次相交位置。該 API 屬于 WebXR 開放標(biāo)準(zhǔn)的核心組成部分,但其底層技術(shù)的具體實現(xiàn)方式會因設(shè)備硬件與軟件配置的差異而有所不同。
在Horizon Browser 40.4版本發(fā)布前,Quest 3與Quest 3S設(shè)備的WebXR頭顯需借助混合現(xiàn)實設(shè)置流程中生成的場景網(wǎng)格,來確定光線投射所命中的現(xiàn)實世界幾何體。然而,這種依賴場景網(wǎng)格的實現(xiàn)方式存在明顯局限:
若用戶未預(yù)先為所在空間創(chuàng)建場景網(wǎng)格,當(dāng)開發(fā)者調(diào)用命中測試API時,用戶需額外完成場景網(wǎng)格設(shè)置操作,顯著增加了操作阻力與使用門檻;
即便用戶已生成場景網(wǎng)格,該網(wǎng)格也無法實時反映掃描完成后家具移動、物品擺放調(diào)整等現(xiàn)實空間變化,導(dǎo)致命中測試結(jié)果與實際環(huán)境脫節(jié)。
隨著Horizon Browser 40.4版本的正式推出,WebXR命中測試API的技術(shù)依賴已從場景網(wǎng)格(Scene Mesh)切換為Meta深度API(Depth API)。
Quest 3與Quest 3S設(shè)備均原生支持Depth API,該API可提供實時第一人稱視角深度幀。此類深度幀由計算機視覺算法生成,其核心原理是通過對比設(shè)備前置的兩個追蹤攝像頭所捕捉畫面的視差,計算得出空間深度信息。Depth API的有效工作距離可達(dá)約5米,在混合現(xiàn)實場景中常用于實現(xiàn)動態(tài)遮擋功能——通過判斷虛擬對象與物理幾何體的空間位置關(guān)系,確定虛擬對象是否應(yīng)被現(xiàn)實中的物理物體遮擋,從而提升混合現(xiàn)實體驗的真實感。
在WebXR命中測試場景中,依托Depth API,開發(fā)者可在無需預(yù)先構(gòu)建場景網(wǎng)格的前提下,將虛擬對象即時、精準(zhǔn)地放置于現(xiàn)實世界表面。值得注意的是,作為Meta混合現(xiàn)實實用工具包(MRUK,Mixed Reality Utility Kit)的重要功能模塊,基于Depth API的虛擬對象放置能力已于約一年前向Unity開發(fā)者開放;同時,虛幻引擎開發(fā)者及原生應(yīng)用開發(fā)者也可通過調(diào)用Depth API,自行實現(xiàn)類似功能。此次Horizon Browser的版本更新,標(biāo)志著該功能正式向 WebXR開發(fā)者開放,進一步降低了WebXR領(lǐng)域混合現(xiàn)實應(yīng)用的開發(fā)門檻。
需特別說明的是,當(dāng)前基于Depth API的WebXR命中測試功能,主要適用于生成靜態(tài)、簡單的虛擬物體及交互界面。若需實現(xiàn)虛擬實體在現(xiàn)實表面的動態(tài)移動,或讓虛擬對象與房間內(nèi)其他物理元素產(chǎn)生復(fù)雜交互(如碰撞檢測、空間約束等),仍需依賴傳統(tǒng)的場景網(wǎng)格掃描與構(gòu)建流程。