而且不管是強光還是黑暗環境下,都不能影響螢幕的透明性,從而影響佩戴者的視野。這要求透明螢幕必須根據環境,來調節其畫面的顯示強度。
增強顯示畫面,勢必會影響螢幕的透明度,從而影響佩戴者的視野。而降低顯示畫面強度,又會影響畫面的質量,從而影響觀看體驗。
這是一個對立的矛盾問題,想要解決就必須因地制宜。什麼時間,那種使用場景下要增強顯示畫面,什麼時候則需要降低顯示畫面強度。這不僅需要人為進行控制,也需要系統根據相關的使用佩戴環境進行智慧自動調節。
除了顯示技術難題以外,再有就是資訊資料處理能力了,這個同樣分為硬體和軟體部分。
首先硬體部分,ar眼鏡可不同於vr眼鏡。因為使用的環境和場景不同,ar眼鏡需要長期佩戴,並且適應多種環境,所以要求ar眼鏡的體積和重量必須儘可能的輕便。
最理想的狀態,那就是一副眼鏡,或者說比眼鏡大不了多少,也重不了多少,太大太重都會影響佩戴使用體驗。
同樣矛盾的是,如何在儘可能輕和小的情況下,放置大量的硬體裝置,這對於整個硬體的整合化和整合能力都有著超高的要求。
目前普遍做的是將這些硬體裝置整合安裝在眼鏡兩端的鏡架鏡腿上,可即便是如此,還是非常笨重,佩戴起來很不方便。
因為體積和重量的限制,所以註定硬體裝置的功率不可能太強,這也極大的限制了系統的運算處理能力。如何提高系統的資訊資料處理能力,這也是研發團隊必須要解決的難題。
雖然隨著5g技術的推廣普及,資訊資料的高速傳播已經不是什麼問題。但是如何接收及時的處理這些海量的資訊,也是一個非常棘手的問題。
單一環境下還可以,如果是在複雜環境下呢。
假設一個場景,當你走在一個繁華的十字街頭,周邊所有的建築,廣告牌,乃至一些設施都設定了ar演繹功能。這也就意味著你的ar眼鏡要一下子接受大量的ar資料資訊,並同時顯示在你的螢幕畫面中,這對於處理器和系統可有著極大的要求。
最後一個難題,那就是在互動系統方面。vr可以採用穿戴式手套感測器或者是手持操作柄進行控制。
ar就不行了,因為ar要適應於多種環境和場景,所以必須要有一套更加簡單直接的方式才行。
目前為此想到的總共有三種方式,首先第一種眼球跟蹤控制技術。
透過眼球捕捉感測器來實時的捕捉眼球的轉動,眨眼,以及眼球聚焦中心來進行互動控制。這項技術目前已經實現,並在很多裝置上面都有很好的應用表現。
一般情況下,這項技術也會配合頭部運動感測器來進行使用。比如你抬頭向上看的時候,螢幕顯示內容向上滑動;低頭向下看的時候,螢幕顯示內容向下滑動。向左向右看的時候,螢幕顯示內容也會相應的向左向右進行滑動。
當你眨眼的時候,可以進行確定選定等操作。比如眨一下眼睛是確定,兩下是撤銷等等,這就相當於滑鼠的左右鍵。
而眼睛聚焦的焦點呢,也正好對應了滑鼠的游標。你往哪裡看,焦點就在哪裡,和滑鼠滑動的游標一樣非常靈活。
第二種方式呢,則是採用手勢控制技術,利用感測器捕捉前面手勢的移動變化來進行互動控制。
比如手向上向下滑動,螢幕顯示內容也會向上向下滑動,向左向右也是如此。手指拉動還可以移動螢幕位置,或者放大和縮小螢幕。手指點選確定,揮手撤銷等等。
手勢識別控制技術,目前發展的也很快,但想要識別高速運動的手勢變化,還是有一些困難。這就要求感測器必須對手勢有著精準的識別捕捉能力