天堂草原网在线观看,亚洲高清中文字幕免费 http://pinmang.cn 93913成立于2015年9月13日,是目前國內(nèi)最早且最具知名度和影響力的元宇宙&AI產(chǎn)業(yè)服務商,通過93913為用戶提供信息服務以及元宇宙&AI領域相關廠商提供整體品牌傳播、發(fā)布會、開發(fā)者大賽、連接商業(yè)項目以及FA投融資顧問等服務。 Thu, 12 Sep 2024 06:53:33 +0000 zh-CN hourly 1 https://wordpress.org/?v=6.6.2 美國交互式3D可視化和仿真解決方案商WorldViz推出VR眼動追蹤實驗工具「SightLab VR」 http://pinmang.cn/58544.html http://pinmang.cn/58544.html#respond Tue, 01 Jun 2021 16:27:34 +0000 http://pinmang.cn/?p=58544

據(jù)美通社報道,近日美國交互式3D可視化和仿真解決方案商WorldViz推出了VR眼動追蹤實驗工具「SightLab VR」,該工具基于GUI 界面構建交互式場景,僅運行幾分鐘就支持研究人員查看眼動追蹤實驗數(shù)據(jù)。

WorldViz研發(fā)VR實用工具已有20多年的歷史,借助「SightLab VR」,研究人員則可以在VR環(huán)境中設置和進行眼動追蹤實驗。

馬斯特里赫特大學Joy Lee博士表示:“采用VR眼動追蹤技術進行研究所面臨的挑戰(zhàn)之一是構建復雜的初始實驗環(huán)境,而通過「SightLab VR」研究人員則可以在VR環(huán)境中設置眼動追蹤實驗參數(shù),從而以最少的時間高效完成實驗?!?/p>

不僅如此「SightLab VR」兼容BIOPAC生物反饋設備,基于該工具研究人員將能通過測量實驗者瞳孔大小、眼睛注視、注視位置以及掃描眼動追蹤路徑及交互環(huán)境來深入了解用戶體驗及其心理負荷,通過VR眼動追蹤技術研究人員則能進行具有科研價值的實驗,以測算更多實驗數(shù)據(jù)。

「SightLab VR」具有完善的內(nèi)置工具和示例場景,研究人員將能以交互回放模式重播實驗會話以查看想要具體了解的3D注視路徑、熱圖等眼動追蹤原始數(shù)據(jù),并進行保存。

WorldViz CEO Matthias Pusch表示:“我們一直處于VR眼動追蹤技術研究的前沿,通過「SightLab VR」研究人員將能在幾分鐘內(nèi)進行一項眼動追蹤實驗?!?/p>

「93913原創(chuàng)內(nèi)容,轉載請注明及回鏈」
]]>
http://pinmang.cn/58544.html/feed 0
RUDN教授公布VR眼動追蹤改進數(shù)學模型,可幫助準確計算新的注視點 http://pinmang.cn/47518.html http://pinmang.cn/47518.html#respond Mon, 25 Jan 2021 16:02:58 +0000 http://pinmang.cn/?p=47518
根據(jù)expresscomputer報道,研究人員近日開發(fā)了一個全新的數(shù)學模型,能夠幫助計算機準確的在眼動追蹤時預測新的注視點,同時減少由于眨眼導致的數(shù)據(jù)不準確。該研究成果發(fā)表在SID Symposium Digest of Technical Papers,將使VR/AR系統(tǒng)更加逼真并且更好的響應用戶操作。
俄羅斯人民友誼大學(RUDN)教授Viktor Belyaev表示:“我們已經(jīng)有效解決了廣泛應用于VR設備的注視點渲染技術所存在的問題?!弊⒁朁c渲染技術是VR系統(tǒng)的一項基礎技術,當一名用戶看向某樣東西時,他的目光會集中在被稱為注視區(qū)域的地方,其他的事物則處在周邊視野中。
因此,計算機可以以最高的細節(jié)來渲染注視區(qū)域中的圖像,其他部分只需要很少的計算能力,就能夠為用戶帶來清晰的VR畫面。這種方式有助于提高計算性能,消除了GPU性能有限和VR顯示分辨率提高之間的矛盾。
但是由于人眼的運動是一個復雜且很大程度上隨機的過程,因此注視點渲染技術在下一個注視點預測的速度和準確性方面受到很大的限制。為了解決這個問題,研究人員開發(fā)了一種數(shù)學建模方法,可以幫助提前計算下一個注視點。
該模型的計算基于對眼跳運動(眼睛的快速和有節(jié)奏的運動)的研究。它們會伴隨著我們的目光從一個物體到另一個物體的變化而發(fā)生。研究人員將主要精力專注于一個能夠幫助獲得眼跳運動參數(shù)的數(shù)學模型上,然后將該數(shù)據(jù)用于計算圖像中的注視區(qū)域。
研究人員通過VR頭顯和AR眼鏡對新方法進行了實驗測試?;跀?shù)學模型的眼動追蹤設備能夠檢測到輕微的眼動(精度3.4分,等于0.05度),誤差大約為6.7分(0.11度)。此外,團隊設法消除了由眨眼引起的計算錯誤:數(shù)學模型中包含的過濾器將因為眨眼導致的計算不準確性降低了10倍。
但是,目前這些數(shù)學模型暫時無法幫助眼動追蹤設備進行注視點的預測,因為模型還不夠準確。
【93913原創(chuàng)內(nèi)容,轉載請注明及回鏈】
]]>
http://pinmang.cn/47518.html/feed 0