Meta發(fā)布了Quest 3 Depth API,這是面向開發(fā)者以測試混合現實動態(tài)遮擋機制的實驗性功能。
Quest 3評測中,我們嚴厲批評了Quest 3混合現實動態(tài)遮擋機制的缺乏。雖然虛擬對象可以出現在房間設置掃描生成的原始場景網格之后,但始終顯示在移動對象(例如手臂和其他人)的前面,這看起來很違和。

如今,Depth API為開發(fā)者提供了基于頭顯角度生成的每幀粗略深度圖,這可用于實現遮擋,既適用于移動對象,也適用于靜態(tài)對象的更精細細節(jié)。
采用動態(tài)遮擋則使Quest 3混合現實體驗更加自然。然而,Quest 3深度感應分辨率非常低,無法捕獲手指之間的空間等細節(jié),因此用戶將會看到物體邊緣周圍的空白間隙。
另外深度圖覆蓋范圍也建議在4米之內,之外則“精度會顯著下降”,為此有些開發(fā)者可能還希望采用場景網格進行靜態(tài)遮擋。
此外開發(fā)者可以通過兩種方式實現遮擋:硬遮擋和軟遮擋。硬遮擋本質上是免費的,但有鋸齒狀邊緣,而軟遮擋則需要GPU成本,但顯示效果看起來更佳。

但在這兩種情況下,遮擋都需要基于Meta的特殊遮擋著色器或自定義著色器以實現,這遠非一鍵式解決方案,并且可能需要開發(fā)者付出巨大的努力。
除了遮擋,開發(fā)者還可以使用Depth API在混合現實中實現基于深度的視覺效果,例如霧。
目前,使用Depth API需要通過運行ADB命令在Quest 3上啟用實驗性功能:前提條件是Unity開發(fā)者必須基于Unity XR Oculus包實驗版本以及Unity 2022.3.1或更高版本。
作為一項實驗性功能,基于Depth API的構建內容尚無法上傳到Quest Store或App Lab,開發(fā)者可通過SideQuest等其他分發(fā)方法以分享,通常,Meta會在后續(xù)SDK版本中將實驗性功能過渡到實際功能,敬請期待。
來源:UploadVR