中國—東盟博覽會先進技術展現(xiàn)場,一款承載著科技溫度與人文關懷的產品——專為視力殘障人士設計的MTE美替AI智能終端(智能眼鏡)正式揭開神秘面紗,瞬間成為展會焦點,吸引了眾多參展嘉賓、媒體記者以及關注助殘科技發(fā)展人士的目光。?
此次發(fā)布的MTE美替AI智能終端,并非單一企業(yè)的成果,而是多方攜手、聚力創(chuàng)新的結晶。它由廣西壯族自治區(qū)產業(yè)技術研究院人工智能研究所牽頭,聯(lián)合在科技領域有著深厚積淀的北京中興訊通科技發(fā)展公司,以及深耕殘疾人輔助器具服務領域的廣西殘疾人輔助器具中心共同出品。三方充分發(fā)揮各自優(yōu)勢,廣西壯族自治區(qū)產業(yè)技術研究院人工智能研究所憑借強大的科研實力,為產品提供前沿的技術研發(fā)支持;北京中興訊通科技發(fā)展公司則將多年積累的技術成果與實踐經驗融入其中,保障產品的技術成熟度與穩(wěn)定性;廣西殘疾人輔助器具中心則從視力殘障人士的實際需求出發(fā),為產品的功能設計、使用體驗優(yōu)化提供了關鍵的指導,確保產品真正貼合用戶需求。?
這款智能眼鏡之所以能在眾多先進技術產品中脫穎而出,核心在于其依托的多模態(tài)大模型,以及創(chuàng)新采用的視覺—聽覺—空間感知三模融合技術。多模態(tài)大模型如同智能眼鏡的“超級大腦”,能夠高效處理來自不同維度的信息,為后續(xù)的信息理解與交互奠定堅實基礎。而視覺—聽覺—空間感知三模融合技術,則讓智能眼鏡具備了“感知世界”的能力。通過視覺模塊,它可以捕捉周圍環(huán)境中的圖像信息,如道路狀況、障礙物位置、文字標識等;聽覺模塊則能精準識別聲音來源,區(qū)分不同類型的聲音,如汽車鳴笛聲、行人對話聲等;空間感知模塊則可實時判斷用戶的位置、運動狀態(tài)以及周圍環(huán)境的空間結構,如上下樓梯、進入房間等場景。?
這三大模塊協(xié)同工作,實現(xiàn)了對環(huán)境信息的主動理解與實時交互。當視力殘障人士佩戴這款智能眼鏡出行時,它能快速分析周圍環(huán)境,通過語音播報的方式,及時向用戶傳遞關鍵信息,如“前方5米處有臺階,請注意腳下”“左側10米處有公交車站”“前方路口為紅燈,建議等待”等。在遇到文字信息時,如指示牌、菜單、書籍內容等,智能眼鏡還能將文字轉化為語音,為用戶提供便捷的信息獲取渠道。此外,它還具備智能交互功能,用戶可通過語音指令,查詢天氣、設置提醒、撥打電話等,極大地提升了生活便利性與自主性。
]]>