谷歌新專利專注于未來AR眼鏡,可通過語音命令、虛擬控制等方式進(jìn)行控制

?? 由 文心大模型 生成的文章摘要

谷歌正不斷為其聯(lián)盟AR眼鏡IP池注入全新技術(shù)。據(jù)谷歌透露,這款A(yù)R眼鏡能夠與和聲音或語音相關(guān)的AR消息展開交互。這種交互模式基于用戶的注視行為,并結(jié)合至少一項其他用戶動作,這些動作涵蓋用戶至少一個肢體(如手臂、手、手指)的動作、至少一個眼瞼的活動、至少一只眼睛的轉(zhuǎn)動,以及語音指令等。

交互方式可基于用戶的凝視,同時結(jié)合用戶眨眼、眼球轉(zhuǎn)動、手勢(如手指點觸或特定手勢動作)以及語音指令。用戶基于這種“凝視加”方法,能夠記錄下在周圍環(huán)境中感興趣的聲源。

用戶還可運(yùn)用 “凝視加”方法與消息進(jìn)行交互。舉例來說,消息中可能包含至少一個交互特征,該特征被設(shè)定為在 “凝視加” 用戶動作觸發(fā)時執(zhí)行特定功能,也就是將凝視與額外的用戶動作相結(jié)合,比如手勢(形成 “凝視加手勢”)或者語音指令(形成 “凝視加命令”)。

所披露的系統(tǒng)和方法,通過提供具備交互特征的聲音相關(guān)消息,提升了AR界面的性能與實用性,產(chǎn)生了顯著的技術(shù)成效。交互式消息能夠為AR環(huán)境增添更多信息與功能。

AR眼鏡能夠檢測到“凝視加點”命令,并觸發(fā)應(yīng)用程序,從而讓智能揚(yáng)聲器播放聲音。再比如,當(dāng)用戶注視播放按鈕(即播放按鈕處于突出顯示狀態(tài))時,可以將編號為 #140 的操作指向AR環(huán)境中的播放按鈕。此時,AR眼鏡能夠檢測到凝視加點動作,并觸發(fā)應(yīng)用程序,實現(xiàn)智能揚(yáng)聲器的播放功能。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明出處」