可準(zhǔn)確識(shí)別VR和AR場(chǎng)景圖片對(duì)象,Meta發(fā)布AI模型SAM

?? 由 文心大模型 生成的文章摘要

Meta推出可準(zhǔn)確識(shí)別圖像對(duì)象的工具“Segment Anything”,該工具包括模型、數(shù)據(jù)集,基于Apache 2.0標(biāo)準(zhǔn)。

“Segment Anything”模型名為 Segment Anything Model(SAM),數(shù)據(jù)集名為“Segment Anything 1-Billion mask dataset(SA-1B)”,Meta表示這是有史以來最大的分割數(shù)據(jù)集(Segmentation Dataset)。

另外,據(jù)悉,SAM模型可應(yīng)用于各種領(lǐng)域,以查找和分割圖像中的任何對(duì)象。

而開發(fā)者則可以基于該模型,開發(fā)出功能更強(qiáng)大、影響范圍更廣的人工智能應(yīng)用,從而支持用戶在虛擬現(xiàn)實(shí)(VR)和增強(qiáng)現(xiàn)實(shí)(AR)場(chǎng)景中進(jìn)行眼動(dòng)追蹤交互。