
扎克伯格正在斥巨資推動(dòng)元宇宙的發(fā)展。對于Meta而言,這包括了AI,該領(lǐng)域的最新創(chuàng)新是Segment Anything (SAM) AI分割模型。
Meta表示,SAM“對物體對象已有了一個(gè)大致了解,并且可以為任意圖像或視頻中的任意對象創(chuàng)建掩碼,甚至是系統(tǒng)在訓(xùn)練期間沒有遇到過的物體和圖像類型”。
SAM用途廣泛——即使在XR中也是如此
因此,該模型在未來可“用于需要找到和分割任意圖像中任意對象的應(yīng)用程序?!?/p>
據(jù)報(bào)道,SAM的設(shè)計(jì)可與其他系統(tǒng)靈活集成:“在AR/VR中,SAM可根據(jù)用戶的注視選擇對象,然后以3D方式投影。”
以上視頻基于直通AR功能頭顯進(jìn)行了演示?;赟AM,頭顯可以獨(dú)立檢測焦點(diǎn)對象和人,并支持疊加顯示具體對象及其距離。
另外,Meta SAM博客一段類似的視頻演示了更加清晰的物體對象識別,盡管視頻中所用頭顯尚不清楚(可能是Meta Quest Pro),猜測該技術(shù)或?qū)?yīng)用于Meta Quest 3。
Meta Quest 3 SAM:XR游戲規(guī)則改變者?
倘若SAM模型應(yīng)用于Meta Quest 3,那么頭顯擁有的物體識別和音頻輸出功能將使視障人士受益,甚至SAM模型可用于語言學(xué)習(xí)以支持更多識別對象。例如,基于SAM,頭顯將能識別烘焙原料并自動(dòng)顯示合適的食譜。
此外,SAM可確定VR視圖中物理世界的性質(zhì),并以適應(yīng)VR軟件的方式將其轉(zhuǎn)換到虛擬世界。例如,這將消除繪制保護(hù)區(qū)域的需要,用戶將能實(shí)現(xiàn)在VR環(huán)境中自由移動(dòng)。
來源:Mixed








