在线综合亚洲欧洲综合网站,在线观看免费a∨网站,偷av色偷偷男人的天堂 http://pinmang.cn 93913成立于2015年9月13日,是目前國內(nèi)最早且最具知名度和影響力的元宇宙&AI產(chǎn)業(yè)服務(wù)商,通過93913為用戶提供信息服務(wù)以及元宇宙&AI領(lǐng)域相關(guān)廠商提供整體品牌傳播、發(fā)布會、開發(fā)者大賽、連接商業(yè)項目以及FA投融資顧問等服務(wù)。 Thu, 12 Sep 2024 18:36:57 +0000 zh-CN hourly 1 https://wordpress.org/?v=6.6.2 揭秘大朋雙目激光定位,HTC的又一勁敵? http://pinmang.cn/11568.html http://pinmang.cn/11568.html#respond Fri, 21 Apr 2017 10:11:14 +0000 http://pinmang.cn/2017/04/21/%e6%8f%ad%e7%a7%98%e5%a4%a7%e6%9c%8b%e5%8f%8c%e7%9b%ae%e6%bf%80%e5%85%89%e5%ae%9a%e4%bd%8d%ef%bc%8chtc%e7%9a%84%e5%8f%88%e4%b8%80%e5%8a%b2%e6%95%8c%ef%bc%9f/ 作為VR頭盔空間定位的代表,HTC Vive一直以其Lighthouse激光定位傲視群雄。也許Oculus、PSVR分別在用戶體驗和內(nèi)容上有自己的優(yōu)勢,但要說到房間尺寸(Room-Scale)定位,則已經(jīng)推出一年的HTC Vive,至今在全世界還沒有對手,這也可以看出它激光定位方案的強大。
先給不玩VR的科普下(不玩VR你看這個文章干啥?),所謂Room-Scale,指的就是用戶能否自由地在VR里行走。其實,所謂的VR三大硬件(HTC Vive、Oculus Rift、PSVR)都能實現(xiàn)一定程度的Room-Scale體驗,但Oculus、PSVR采用攝像頭為主的方案,效果并不怎么好,大多數(shù)情況下還是坐著不動玩更舒服。
而HTC Vive的激光方案,才讓玩家真正能比較自由地在VR里行走,穩(wěn)定性和行走范圍均遠(yuǎn)遠(yuǎn)優(yōu)于另外兩者。可以說,HTC Vive啥都能黑,就是這個定位黑不得。
在2017年的CES上,國內(nèi)硬件廠商大朋帶來了雙目激光定位方案Polaris,似乎是要以自研技術(shù)和硬件,對HTC Vive發(fā)出挑戰(zhàn)。三月末又召開了發(fā)布會邀行業(yè)人現(xiàn)場體驗。經(jīng)過現(xiàn)場測試,大朋的雙目激光定位方案反饋還不錯。
但是我們?nèi)匀灰獑?,大朋的雙目激光定位原理為何?如何實現(xiàn)?相比HTC Vive又有哪些好處?本著刨根問底的精神,我們專門采訪了大朋CEO陳朝陽,首次詳細(xì)獨家揭示大朋的技術(shù)奧秘。
首先來看看,HTC Vive的方案是怎么玩的?
首先,要想明白大朋比HTC Vive好在哪里,我們就必須得再詳細(xì)闡述一下HTC Vive的定位方案(熟悉的小伙伴可以跳過這部分,直接看大朋的)。這一方案使用的是兩個名為光塔(Lighthouse)的基站,對角擺放,拉出一塊空間,不斷發(fā)射激光來掃描空間里的HTC Vive和手柄。
那么,基站具體是怎么運作的?現(xiàn)在我們來拆解一下。
打開基站,會發(fā)現(xiàn)由三個部分組成,分別是LED燈陣列和兩個電機。電機分別用于打出一橫一豎兩個激光面。
如下圖,其中紅色面為豎直的激光面,掃動方向是水平的,藍色為水平激光面,掃動方向為上下垂直掃動,紅色陰影部分位于藍色面下方。
 
每當(dāng)一個激光面遇到傳感器,就會停止掃描并記錄角度。假如兩個面停止位置如圖所示,則可以確定傳感器位于兩面相交線,即圖中細(xì)紅線上。
這樣得到的位置信息是不全面的,因為只知道點在哪條線上,不知道具體在線上什么位置,就像去某個地方,只知道在某條街上卻不知道門牌號碼。因此需要安裝多個傳感器。
所以聰明的你可能已經(jīng)猜到了,HTC Vive的傳感器都放在頭盔和手柄上,坑坑洼洼、如同月球表面的頭盔上,每一個小坑都是一個傳感器。并且傳感器是固定的,不能移動。
實際上,系統(tǒng)并不需要確定每個傳感器的位置。而只需要確定傳感器所在的直線就好了。這就好像吃烤雞腿,用手拿著可以直接確定雞腿的位置,也可以拿幾根簽子穿著固定住,雞腿的位置同樣是確定的。
也就是說,確定位置并不一定需要傳感器的點,還可以僅用足夠多的線來確定頭盔位置。只要知道頭盔尺寸,依據(jù)下圖就能確定位置了。
兩個激光面掃描完一次,確定的是頭盔上一個傳感器距離基站的直線方程。只知道掃描到的傳感器在這條直線上,但并不知道詳細(xì)距離。
這個時候就需要知道頭盔的尺寸了。然后通過專門的算法,明白在確定幾條直線、并已知頭盔大小的情況下,頭盔唯一有可能的方位在哪里。
在兩個激光面掃描完一個傳感器后,該傳感器就會關(guān)閉,以免下次再被掃到。等到掃到五個傳感器后(Valve官方給出的數(shù)字),頭盔定位完成。所有傳感器重新打開,開始新一輪的掃描,如此反復(fù)。
新版Lighthouse基站的LED陣列排列有變化
從上所述,理論上傳感器只需要五個就夠了。然而,實際上定位時由于光線接受可能被遮擋,傳感器之間又為了防止串?dāng)_信號必須保持距離,因此最后采用的傳感器有幾十個。所以不要再苛責(zé)你頭盔為什么長那么丑了,滿滿的都是愛啊……
重點來了,如何實現(xiàn)完整的數(shù)據(jù)流程,完成從用戶的移動到他們的頭盔圖像的變化呢?
我們要先確定關(guān)鍵的數(shù)據(jù)和采集方法。兩個激光面能確定一條線(也就是上文所說的,傳感器點所在的直線)。那么橫豎激光兩個面的位置怎么算?只需要角度就能知道了——角度是電機的角速度(轉(zhuǎn)速)和用時的乘積,角速度是恒定的,相當(dāng)于已知,因此記錄下時間就能求出來。
下面是具體實現(xiàn)步驟了,對于不學(xué)理科的同學(xué)來說,可能還是有點復(fù)雜,打起精神!
首先基站會和傳感器進行一次溝通,同步閃光(sync light),這樣傳感器會告訴傳感器的控制芯片,讓它把計時器(類似于秒表的功能)歸零,接下來的10毫米內(nèi),會有一個激光面掃過,這個激光面接觸到傳感器的時候,傳感器就會發(fā)出信號,計時器就停了,記錄下時間,然后歸零。緊接著另一個激光面掃過,再次記錄時間,歸零。
這個過程看似復(fù)雜,實際上兩個電機只要以20毫秒轉(zhuǎn)一圈的速度(也就是每秒50轉(zhuǎn))穩(wěn)定運行,而電機上的激光發(fā)射器“此起彼伏”地出現(xiàn)就行了。時間值隨后會來到傳感器的集線器,再到數(shù)據(jù)收集芯片,通過WiFi信號以某種數(shù)據(jù)包形式和協(xié)議(如UDP)發(fā)送到基站的計算部分。
這樣得到了兩個時間值能轉(zhuǎn)化為角度值,再轉(zhuǎn)為兩個面的方程,求出交線,就能獲得一個之前說到的傳感器所在的直線方程。然后諸多方程合并起來,通過算法算出一個頭盔上傳感器方位對應(yīng)的位置,就是對頭盔完成了定位。這個定位數(shù)據(jù)隨后會由基站更新到計算機或主機,在3D引擎內(nèi)修改攝影機位置,重新計算畫面,發(fā)送到頭盔顯示器,完成一幀的顯示。
那么,大朋是怎么做的呢?
說完了HTC Vive,終于輪到我們今天的正主兒——大朋了!根據(jù)我們對大朋CEO陳朝陽的采訪,再加上觀察和HTC Vive的Lighthouse原理推斷,大朋Polaris結(jié)構(gòu)應(yīng)該類似這樣:
畫工丑了點,將就點吧……是的,你沒看錯,大朋的基站里是三組電機,比Vive多一組。分別為兩個打出橫激光面的電機和一個打出豎激光面的電機。
如下圖,三個激光面會形成三條交線,實際上只任意用兩條(比如紅和藍)就能確定交點,該點即為要確定的傳感器位置。也就是說,三個掃描面的時候,不是確定傳感器所在直線,而是直接把傳感器所在位置確定了。
顯然,這樣定位方式比起Lighthouse的定位只能確定傳感器所在直線位置要更加有效率。只要釘死三個點就能確定位置,也就相當(dāng)于頭盔上最少三個傳感器就夠了。(當(dāng)然為了保證精確,實際上不止三個)
不過,實際中設(shè)計的時候為了防止橫向兩個面靠太近,影響精度(就像人要靠兩眼間存在距離才好定位一樣)。最好的辦法就是,把兩個橫向電機放在縱向電機的上下兩個位置。
這樣傳感器的數(shù)量比起Lighthouse大約能減少一半。但是存在問題是,如果激光面照不到傳感器就沒有效果了,為了實現(xiàn)無死角,最簡單的方式就是在基站的另一面再放一個基站,就能覆蓋到了,這樣雙基站的設(shè)計能讓傳感器數(shù)量再減一半。大概像這樣:
最后需要的傳感器數(shù)量大概是Lighthouse的四分之一左右(Lighthouse用了幾十個傳感器)。事實上,大朋官方也是這樣宣傳的,即頭盔所需傳感器相對Vive較少,僅需六個。頭盔得以更輕便,而相對的,大朋的基站就要比Lighthouse體積更大。
實際工作順序如下:
首先LED陣列發(fā)出閃光,與傳感器控制芯片同步一次,然后開始計時。如果能做到16毫秒左右延遲的話,總周期應(yīng)該是15毫秒以內(nèi)。
這里假設(shè)是15毫秒。則閃光后第一個5毫秒內(nèi),第一個橫向激光面掃過,傳感器發(fā)信號之后記錄時間;第二個5毫秒內(nèi),縱向激光面掃過,傳感器發(fā)信號后記錄時間;第三個5毫秒內(nèi),第二個橫向激光面掃過,傳感器發(fā)信號,記錄時間,然后WiFi信號傳輸時間數(shù)據(jù)包給基站進行位置計算,上傳到計算機或主機完成位置數(shù)據(jù)更新。
其實和HTC Vive很類似,只是多出一步橫激光面的掃描,定位的不是點所在的直線,而是點的坐標(biāo)。
陳朝陽的在讀完原理解析后,表示認(rèn)可:“原理上已經(jīng)寫的很好了。沒什么好補充的了。” 但他也強調(diào):“95%的難度在工程實現(xiàn)上,太多細(xì)節(jié)要考慮了。”
國內(nèi)專注于大空間多人定位的公司ZVR CEO郭偉指出,激光方案主要是工程方面的問題,在具體的電機調(diào)校、產(chǎn)品量產(chǎn)、供應(yīng)鏈方面會有很多坑。
定位方案相關(guān)疑問
綜上,我們對大朋的定位方案進行了解讀。但是聰明如你,一定還有一些疑惑。是的,關(guān)于大朋的定位方案,從原理上來說,我們萌生了這幾個問題。
筆者就這些問題對陳朝陽進行求證,對方給出了可以理解的答復(fù):“目前還沒到開源我們的所有原理的時候”。
筆者期待,作為國產(chǎn)硬件中少數(shù)采用自研技術(shù)方案的廠商,大朋的定位方案能夠走出一條自己的路,用體驗說話,在未來能夠?qū)@些問題作出完美的解答。
]]>
http://pinmang.cn/11568.html/feed 0
聽技術(shù)大拿說說雙目定位技術(shù) (上) http://pinmang.cn/11244.html http://pinmang.cn/11244.html#respond Wed, 05 Apr 2017 00:01:22 +0000 http://pinmang.cn/2017/04/05/%e5%90%ac%e6%8a%80%e6%9c%af%e5%a4%a7%e6%8b%bf%e8%af%b4%e8%af%b4%e5%8f%8c%e7%9b%ae%e5%ae%9a%e4%bd%8d%e6%8a%80%e6%9c%af-%e4%b8%8a/ 清明小長假我看到HYPEREAL的laohyx在知乎上發(fā)表了這篇短文,感覺這位同學(xué)的分享通俗易通,于是拿出來與大家分享一下。這里我也非常歡迎VR行業(yè)的眾多程序猿和攻城獅可以多多交流和分享,讓我們共同推進VR技術(shù)的進步與發(fā)展。
(題圖是目前三大頭顯中銷量最好的PSVR的定位攝像頭,也是三家中惟一使用雙目技術(shù)的廠商)
VR定位技術(shù)有千萬種,就目前三大頭顯廠商而言,可以分為:
HTC 的 Lighthouse 激光定位系統(tǒng),是一種長距離的使用PnP解算的定位技術(shù)(由Valve公司研發(fā)授權(quán))
Oculus 的 Constellation 系統(tǒng)紅外攝像頭定位,也是使用 PnP解算的定位
PSVR 的 可見光攝像頭定位,使用雙目定位
從技術(shù)發(fā)展時間來看,雙目定位是在三家技術(shù)中,出現(xiàn)最早、最成熟的技術(shù)了。先在這里簡單說說它的原理。
定位原理
雙目定位,一定要有兩個攝像頭/定位器,且兩者在同一剛體/模具上,這樣保證了兩攝像頭工作時,它們之間的相對位置是已知的。
雙目定位貌似還有一定的仿生概念,畢竟人眼的立體視覺,也是靠雙眼的,有了兩只眼睛,才可以受到到某一物體的距離遠(yuǎn)近,否則只知道“物體在看過去的視線方向,而無法判斷距離”(顯然生活經(jīng)驗可以彌補一些啦,比如近大遠(yuǎn)小)
下圖是一篇學(xué)術(shù)論文的附圖,再參考人雙眼的構(gòu)造,就很容易理解雙目定位了。O1, O2分別是兩攝像頭的位置,且它們擺放角度已知。P1,P2是物體P在相機成像平面上的投影點,也就是照片上拍攝到P的點啦。根據(jù)兩相機的擺放位置,以及P1, P2點的位置,很容易計算出點P在空間中的三維位置。
雙目定位成功之處就在于,它只靠一個特征點就可以定位!比如PSVR的手柄,只靠一條光帶,就可以通過雙攝像頭,得到它的空間位置?。ê芏嗄昵暗腜S move也是這個原理,要不然說PSVR的技術(shù)老呢)
單單一個特征點,可以求得一個物體在三維空間中的 x, y, z 位置(3 自由度, DOF),但 VR 定位還需要它的旋轉(zhuǎn)信息——另外三個自由度(旋轉(zhuǎn)信息)——就無法靠一個特征點得到啦。
那么,想要做 6自由度求解,想要需要多少個特征點呢?試想一下:
如果只有一個特征點,那么物體可以把模型的特征點放在定位出來的一個三維空間的點P1上,然而它可以繞這個P1點任何旋轉(zhuǎn),都符合解。因此它只有 3 DOF。
如果有兩個特征點,雙目定位可求解出 P1, P2,那么物體的姿態(tài)在定程度地確定了,但它仍然可以繞P1, P2連線構(gòu)成的軸,旋轉(zhuǎn),因此它有 5 DOF。
如果有三個特征點,且它們不共線(否則會退化的),那么三個特征點的求解出的姿態(tài),就可以惟一地確定物體的位置和姿態(tài),達到 6 DOF 求解。
因此PSVR的頭顯上有好多標(biāo)記點,而手柄上也是一個具有特點的倒三角光條(見上圖),至少可提取出3個特征點(三角的頂點)。這些特征點,可將姿態(tài)解算從 3DOF 升級成 6DOF。
看到這里,你一定會想,wow,原來空間定位就這么簡單,果然雙目大法好,學(xué)會初中立體幾何就可以明白原理啦。
但顯然事情沒有那么簡單。歡迎來到工程領(lǐng)域的噩夢——測量誤差。
定位誤差
雙目定位的理想很美好,但測量誤差對其帶來的影響卻是殘酷的。
如下圖,在O1, O2相機觀察物體 P 時,由于種種原因,測量所得到的射線發(fā)生了微妙的角度偏移,誤差角度分別為∠P O1 P' 和 ∠P O2 P'. 那么從觀測值,求解出 P' 位置,就與真實位置有了一定的偏移。
這偏移的位置隨著雙目射線變平行,而增大。就是說,當(dāng)物體離你越遠(yuǎn)時,你越難確定它與你的距離,而物體很近時,雙目定位會很精確。
那么誤差都是哪里來的呢?要知道,工程就不是數(shù)學(xué)上的理想假設(shè)了,誤差的來源千千萬,比如:
O1, O2點的安裝誤差,也就是制造公差,不過這一步往往會在出廠時進行標(biāo)定。
相機的標(biāo)定誤差。相機是存在畸變的,如果反畸變算法不好 ,那么始終會帶著角度測量誤差。
特征點誤差,就拿PS手柄來說,它那個三角光條是圓角,特征點很難取得很準(zhǔn)確
像素誤差,要知道攝像頭的像素數(shù)是有限的,它所代表的角度值也會是離散的,無法準(zhǔn)確地表示物體的投影射線
以上各種因素都會影響到單點求解的精度。如果再想求 6DOF,物體上三個特征點求解都有誤差,那么它的旋轉(zhuǎn)求解就差得更遠(yuǎn)啦(還不一定對得上)。因此雙目攝像頭方案只能在近距離使用(2m以內(nèi)),靠增多特征點數(shù)量來平均化測量誤差,才可以達到可以接受的效果。
因此雙目定位,簡單是簡單,但坑,真是多啊~
未完待續(xù)
關(guān)于雙目定位的基礎(chǔ),在這里就講得差不多啦,本系列的下篇,將會分析大朋E3提出的創(chuàng)新性的雙目激光定位技術(shù),敬請期待~
]]>
http://pinmang.cn/11244.html/feed 0
AR游戲霸主誕生,國內(nèi)唯一量產(chǎn)級雙目全息智能眼鏡首秀CJ http://pinmang.cn/6311.html http://pinmang.cn/6311.html#respond Sat, 30 Jul 2016 00:01:36 +0000 http://pinmang.cn/2016/07/30/ar%e6%b8%b8%e6%88%8f%e9%9c%b8%e4%b8%bb%e8%af%9e%e7%94%9f%ef%bc%8c%e5%9b%bd%e5%86%85%e5%94%af%e4%b8%80%e9%87%8f%e4%ba%a7%e7%ba%a7%e5%8f%8c%e7%9b%ae%e5%85%a8%e6%81%af%e6%99%ba%e8%83%bd%e7%9c%bc%e9%95%9c/  “這家公司的創(chuàng)意永無止境,兩個月前的CES上將巨幅眼鏡吊頂,這次直接把綠野仙蹤搬進了同樣的場館。”——評述如是說
每年的ChinaJoy都是各類動漫游戲娛樂產(chǎn)品的盛宴,加上2016年虛擬現(xiàn)實行業(yè)藍海的開啟,今年的CJ上VR、AR企業(yè)大量涌入,令人應(yīng)接不暇。不過作為國內(nèi)唯一可量產(chǎn)雙目全息智能AR眼鏡的廠商,影創(chuàng)科技總能跟別人玩的不一樣。正如大家所說,影創(chuàng)的創(chuàng)意是永無止境的,兩個月前的CES上將巨幅眼鏡吊頂,這次直接把綠野仙蹤搬進了同樣的場館,讓你領(lǐng)略什么叫別具一格,什么叫不同凡想。
佩戴AR智能眼鏡,在叢林中捕捉各種活靈活現(xiàn)的寵物,身邊有愛麗絲陪伴,最終還能贏得超級大獎,這就是影創(chuàng)為CJ觀眾準(zhǔn)備的驚喜,是不是迫不及待想了解其中的詳情呢?
叢林冒險的活動流程簡單而有趣,現(xiàn)場關(guān)注影創(chuàng)科技微信公眾號后就可以報名參加游戲。
正式入場之前,工作人員會一對一詳細(xì)講解游戲的規(guī)則和捕捉器的使用方法。
裝備好AR智能眼鏡,就可以出發(fā)去探險啦!
進到場地一片茫然?不要怕,我們的愛麗絲妹子會來為你提供幫助。
先來捕捉一只簡單的寵物,比如墻上這只看似普通的鳥。
不過這只是圍觀者的視角,進入仙境的你看到的完全是另一番模樣。
捉完小鳥,愛麗絲會悄悄地告訴你,不要驚動橋上的山雞和河里的小魚。
因為在你的仙境里,它們可是活生生的,一不小心就會逃走呢。
快看圍觀小伙伴羨慕的表情!他為什么會這么驚訝?
原來是我們暢游仙境的主角在一個普通的井蓋上發(fā)現(xiàn)了一只可愛的貓咪,不禁贊了出來。
三分鐘的探險很快結(jié)束了,愛麗絲也要愉快地和主角告別了。
暢游之后的紀(jì)念品當(dāng)然不能少,是什么先賣個關(guān)子,不過相信以后看到它時,你一定會對這次探險回味無窮。
其實,在眾多同類廠商清一色地在場地搭建時選用時尚科技風(fēng)格的CJ上,影創(chuàng)科技敢于開啟完全與眾不同的玩法,是因為有著強大的技術(shù)實力支撐。影創(chuàng)科技在此前舉辦的2016夏季新品發(fā)布會上,已經(jīng)對影創(chuàng)Air等智能AR眼鏡的功能和應(yīng)用做了詳細(xì)的介紹。而這次數(shù)臺可直接用于游戲的AR智能眼鏡在CJ上集體亮相,無疑奠定了影創(chuàng)Air作為國內(nèi)唯一一款可量產(chǎn)的全息雙目智能眼鏡在AR游戲江湖的霸主地位。
技藝超群,創(chuàng)意無限,不同凡想,影創(chuàng)帶給大家的驚喜仍將繼續(xù)。
【913VR原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明及回鏈】
]]>
http://pinmang.cn/6311.html/feed 0