TW201814438A - 基於虛擬實境場景的輸入方法及裝置 - Google Patents
基於虛擬實境場景的輸入方法及裝置 Download PDFInfo
- Publication number
- TW201814438A TW201814438A TW106126422A TW106126422A TW201814438A TW 201814438 A TW201814438 A TW 201814438A TW 106126422 A TW106126422 A TW 106126422A TW 106126422 A TW106126422 A TW 106126422A TW 201814438 A TW201814438 A TW 201814438A
- Authority
- TW
- Taiwan
- Prior art keywords
- dimensional
- virtual
- gesture
- dimensional gesture
- user
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本發明提供一種新的基於VR場景的輸入方法,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面,所述方法包括:識別用戶在所述虛擬實境場景中的三維手勢;當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。本發明實現了用戶在在佩戴虛擬實境終端進行沉浸體驗時,可以通過三維手勢,在虛擬實境場景中快速的完成資訊的輸入,從而可以提升用戶的輸入體驗。
Description
本發明涉及電腦應用領域,尤其涉及一種基於虛擬實境場景的輸入方法及裝置。
VR(Virtual Reality,虛擬實境)技術,是一種綜合利用電腦圖形系統和各種控制接口,在電腦上生成可交互的三維交互環境,面向用戶提供沉浸感的技術。隨著VR技術以及硬體的進步,VR技術的應用場景也越來越豐富。然而,VR技術雖然可以面向用戶提供逼真的沉浸感,但用戶在佩戴VR終端進行沉浸體驗時,在VR場景中完成資訊輸入通常會存在困難,因而如何在VR場景中面向用戶提供更新人性化的資訊輸入,對於提升用戶體驗將具有十分重要的意義。
本發明提出一種基於虛擬實境場景的輸入方法,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面,所述方法包括: 識別用戶在所述虛擬實境場景中的三維手勢; 當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
本發明還提出一種基於虛擬實境場景的輸入裝置,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面,所述裝置包括:識別模組,識別用戶在所述虛擬實境場景中的三維手勢;判斷模組,當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;計算模組,如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;輸入模組,選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
本發明中,通過在虛擬實境場景中輸出一個三維輸入介面,並識別用戶在虛擬實境場景中的三維手勢,當識別出的三維手勢為預設三維手勢時,可以計算該三維手勢對應於虛擬實境場景中的三維輸入介面的操作位置,並選中 該三維輸入介面中與該操作位置對應的虛擬輸入元件,然後讀取該虛擬輸入元件所指示的輸入資訊完成輸入,實現了用戶在佩戴虛擬實境終端進行沉浸體驗時,可以通過三維手勢,在虛擬實境場景中快速的完成資訊的輸入,從而可以提升用戶的輸入體驗。
50‧‧‧裝置
101‧‧‧步驟
102‧‧‧步驟
103‧‧‧步驟
104‧‧‧步驟
501‧‧‧識別模組
502‧‧‧判斷模組
503‧‧‧計算模組
504‧‧‧輸入模組
圖1是本發明一實施例示出的基於VR場景的輸入方法的流程圖;圖2是本發明一實施例示出的一種“三維空氣鍵盤”的示意圖;圖3是本發明一實施例示出的一種“三維數字魔方鍵盤”的示意圖;圖4是本發明一實施例示出的若干種可用於選中並觸發VR場景中的虛擬元件的三維手勢;圖5是本發明一實施例提供的一種基於VR場景的輸入裝置的邏輯方塊圖;圖6是本發明一實施例提供的承載所述一種基於VR場景的輸入裝置的VR客戶端所涉及的硬體結構圖。
在相關技術中,用戶在佩戴VR終端進行沉浸體驗時,如果需要在VR場景中執行資訊輸入,目前主要通過以下兩種方案來實現: 在第一種方案中,用戶可以取下佩戴的VR終端,使用與VR終端對接的PC主機,或者行動終端(比如用戶的手機)來完成資訊的輸入。
例如,以需要插入用戶手機的滑佩式VR頭盔為例,假設用戶在佩戴該VR頭盔進行VR購物體驗時,需要輸入支付密碼對訂單完成支付,此時可以取下佩戴的該VR頭盔,並取下插入在VR頭盔中的手機,通過手機來輸入支付密碼完成訂單支付。
在第二種方案中,用戶可以使用與VR終端搭配的外接設備,比如操縱杆、手柄等,來控制VR場景中的操作焦點,將操作焦點移動到虛擬實境場景中用於資訊輸入的虛擬元件的位置上,然後點擊外接設備上提供的選中按鈕,選中並觸發該虛擬元件,來完成資訊的輸入;在第三方案中,可以預先設置一個超時時長,用戶可以通過頭部姿態或者手勢,來控制操作焦點的位置,在將操作焦點移動到虛擬實境場景中用於資訊輸入的虛擬元件的位置上後,可以使該操作焦點在該虛擬元件的位置上保持懸停,並在懸停時間達到該超時時長後,選中並觸發該虛擬元件,來完成資訊輸入。
例如,假設用戶在佩戴該VR頭盔進行VR購物體驗時,需要輸入支付密碼對訂單完成支付,此時用戶可以選擇使用預先完成充值的虛擬貨幣來完成支付;在這種情況下,在虛擬實境場景中可以提供一個“使用虛擬幣支付”的虛擬按鈕。
在一種實現方式中,用戶可以通過操作操縱杆或者手柄等外接設備,通過控制VR場景中的操作焦點,將操作焦點移動到該虛擬按鈕的位置上,然後通過點擊操縱杆或者手柄等外接設備上提供的選中按鈕,來選中並觸發該虛擬按鈕,使用虛擬貨幣來完成訂單的支付;在另一種實現方式中,可以預先設定一個超時時長,用戶可以通過頭部姿態或者手勢,來控制操作焦點的位置,當將操作焦點移動到該虛擬按鈕的位置上後,可以使操作焦點在該虛擬按鈕上保持懸停,當懸停時間達到該超時時長時,可以選中並觸發該虛擬按鈕,使用虛擬貨幣來完成訂單的支付。
然而,對於以上示出的第一種方案,在進行資訊的輸入時,用戶無法在VR場景中完成資訊的輸入,需要用戶取下佩戴的VR終端,因此會中斷用戶的VR沉浸體驗,影響用戶體驗。
對於以上示出的第二種方案,由於在進行資訊的輸入時,VR終端需要搭配操縱杆、手柄等外接設備,因此會增加硬體成本。
對於以上示出的第三種方案,由於用戶將操作焦點懸停在虛擬元件上後,需要等待一個懸停的超時時長,才能夠完成資訊的輸入,因此無法實現資訊的快速輸入,導致資訊的輸入效率較低,影響用戶體驗。
有鑑於此,本發明提出一種基於虛擬實境場景的輸入方法,通過在虛擬實境場中輸出一個三維輸入介面,並識 別用戶在虛擬實境場景中的三維手勢,當識別出的三維手勢為預設三維手勢時,可以計算該三維手勢對應於虛擬實境場景中的三維輸入介面的操作位置,並選中該三維輸入介面中與該操作位置對應的虛擬輸入元件,然後讀取該虛擬輸入元件所指示的輸入資訊完成輸入,實現了用戶在在佩戴虛擬實境終端進行沉浸體驗時,可以通過三維手勢,在虛擬實境場景中快速的完成資訊的輸入,從而可以提升用戶的輸入體驗。
下面通過具體實施例並結合具體的應用場景對本發明進行描述。
請參考圖1,圖1是本發明一實施例提供的一種基於虛擬實境場景的輸入方法,應用於VR客戶端,所述VR輸出的虛擬實境場景中包括三維輸入介面,執行以下步驟:步驟101,識別用戶在所述虛擬實境場景中的三維手勢;步驟102,當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;步驟103,如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;步驟104,選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
上述VR客戶端,是指基於VR技術開發的可以面向用 戶提供三維沉浸體驗的客戶端軟體;比如,基於VR的APP;上述VR客戶端,可以將開發人員開發出的虛擬實境場景模型,通過與VR客戶端對接的VR終端,向用戶輸出,從而使得佩戴VR終端的用戶,能夠在虛擬實境場景中得到三維沉浸體驗。
上述三維手勢,是指VR終端通過預設的傳感硬體,識別出的具有深度資訊的用戶手勢;其中,上述深度資訊,通常是指用戶的手勢相對於虛擬實境場景的Z軸的坐標資訊;例如,對於立體空間中的一個點,通過三維坐標通常可以表示為(x,y,z),在這種情況下,這個點對應的Z軸的坐標值,就可以稱之為相對於X軸和Y軸的深度資訊。
上述三維輸入介面,是指在虛擬實境場景中輸出的,用於進行資訊輸入的三維介面。在該三維輸入介面中可以包含若干虛擬輸入元件,每一個虛擬輸入元件可以指示一個對應的輸入資訊。
例如,在示出的一種實施方式中,上述三維輸入介面可以是一個三維輸入鍵盤。在這種情況下,上述若干虛擬輸入元件,可以是該三維輸入鍵盤中所包含的多干虛擬按鍵,每一個虛擬按鍵分別指示一個對應的輸入字符。
在本例中,為了使用戶在在佩戴VR終端進行沉浸體驗時,能夠在VR場景中快速的完成資訊的輸入,可以在VR場景中輸出三維輸入介面,用戶在佩戴VR終端進行沉浸體驗時,可以在VR場景中執行特定的三維手勢操作, 通過三維手勢觸發上述三維輸入介面中的虛擬輸入元件,快速的完成輸入。
以下通過VR場景模型創建,三維手勢識別,以及資訊輸入三個階段,對本發明的技術方案進行詳細描述。
1)VR場景模型創建
在本例中,開發人員可以通過特定的建模工具,完成VR場景模型的創建。上述建模工具,在本例中不進行特別的限定;例如,開發人員可以使用諸如Unity、3dsMax、Photoshop等較為成熟的建模工具完成VR場景模型的創建。
其中,開發人員在通過建模工具創建VR場景模型的過程中,該VR場景模型,以及該VR場景的紋理貼圖,都可來源於現實生活中的真實場景;例如,可以事先通過攝影,採集材質紋理貼圖,和真實場景的平面模型,然後通過Photoshop或3dmax等建模工具,來處理紋理和構建真實場景的三維模型,然後導入到unity3D平臺(簡稱U3D),在U3D平臺中通過音效、圖形介面、插件、燈光等多個維度進行畫面渲染,然後編寫交互代碼,最後完成VR場景模型的建模。
在本例中,開發人員除了需要創建VR場景模型以外,為了使用戶能夠在VR場景中快速的完成資訊輸入,還可以通過上述建模工具,在上述VR場景模型中,創建一個用於在VR場景中進行資訊輸入的三維輸入介面。
例如,在示出的一種實施方式中,上述三維輸入介面,可以是一個三維虛擬鍵盤,在該三維虛擬鍵盤中可以包括若干虛擬按鍵,用戶在佩戴VR終端進行沉浸體驗時,可以通過這些三維虛擬鍵盤,在VR場景中快速的完成諸如密碼等資訊的輸入。
其中,上述三維輸入介面的具體形態,在本例中不進行特別限定;在實際應用中,可以基於用戶體驗進行個性化定制。
例如,在示出的一種實現方式中,上述三維輸入介面可以是一“三維空氣鍵盤”。
請參見圖2,圖2為本例中示出的一種“三維空氣鍵盤”的示意圖。
在圖2所示出的“三維空氣鍵盤”,可以包括一平鋪在VR場景的用戶視野中的三維虛擬鍵盤,在該三維虛擬鍵盤中包括若干三維的虛擬按鍵,用戶可以在VR場景中,通過特定的三維手勢選中相應的虛擬按鍵,來完成密碼等數字資訊的輸入;比如,圖2中示出的為用戶在虛擬按鍵“3”所在的位置上執行“點擊手勢”,選中虛擬按鍵“3”,來完成3這一數字的輸入。
在示出的另一種實現方式中,上述三維輸入介面也可以是一“三維數字魔方鍵盤”。
請參見圖3,圖3為本例中示出的一種“三維數字魔方鍵盤”的示意圖。
在圖3所示出的“三維數字魔方鍵盤”,可以包括一 魔方外形的立方體,該立方體的每一個面上包括若干個虛擬按鍵,其中,每一個虛擬按鍵上所指示的數字可以隨機顯示。用戶可以在VR場景中,通過三維手勢,在該“三維數字魔方鍵盤”中面向用戶視野的那一面上選中相應的虛擬按鍵,然後向任意方向旋轉該“三維數字魔方鍵盤”,來完成密碼等數字資訊的輸入;比如,圖3中示出的為用戶在虛擬按鍵“9”所在位置執行“向右側旋轉的手勢”選中虛擬按鍵“9”,來完成9這一數字的輸入。
需要說明的是,如圖2和圖3所示出的三維輸入介面的形態,僅為示意性的。顯然,在實際應用中,上述三維輸入介面的形態並不僅限定於圖2和圖3所示出的形態,在本例中不再進行一一列舉。
在本例中,當開發人員完成VR場景模型,以及上述三維輸入介面的建模後,上述VR客戶端可以將上述VR場景模型以及上述三維輸入介面,通過與上述VR客戶端對接的VR終端(比如VR頭盔),向用戶輸出。
其中,需要說明的是,在默認情況下,上述VR客戶端可以僅向用戶輸出上述VR場景模型,當用戶在VR場景中進行沉浸體驗的過程中,需要執行資訊輸入時,再通過用戶執行的預設三維手勢的觸發,在上述VR場景中輸出上述三維輸入介面。
在示出的一種實施方式中,在默認狀態下,上述VR場景中,可以提供一預設的虛擬觸發元件(比如虛擬按鈕),該虛擬觸發元件用於觸發在該VR場景中輸出上述 三維輸入介面。
當用戶在VR場景中進行沉浸體驗的過程中,需要執行資訊輸入時,可以通過特定的三維手勢選中該虛擬觸發元件,然後觸發VR客戶端在該VR場景中輸出上述三維輸入介面。
例如,假設用戶通過佩戴VR終端進行VR購物體驗。在這種場景中,上述虛擬觸發元件,可以是一個“購買/支付”的虛擬按鈕;上述三維輸入介面,可以是一個包含三維虛擬鍵盤的“3D收銀台”介面。當用戶選擇了一件滿意的商品,需要在VR場景中購買該商品,並完成訂單的支付時,可以通過特定的三維手勢選中上述“購買/支付”的虛擬按鈕,此時VR客戶端可以在該VR場景中輸出上述“3D收銀台”。在這種情況下,用戶可以通過特定的三維手勢,繼續在該收銀台介面中的三維虛擬鍵盤中,選中並觸發相應的虛擬按鍵,來輸入支付密碼,完成該商品的購買。
2)三維手勢識別
在本例中,用戶可以通過在VR場景中,執行特定的三維手勢,來選中該VR場景中提供的虛擬元件(比如虛擬按鈕,可操作控件,以及頁面等)。
其中,上述特定的三維手勢,在本例中不進行特別限定,可以是較為簡單的三維手勢(比如簡單的點擊手勢),也可以是較為複雜的三維手勢(比如特定的用於選 中虛擬元件的手勢),可以是靜態的三維手勢(比如利用手部做出特定的姿勢),也可以是動態的三維手勢(比如抓握,拖動,旋轉,等),在本例中不再進行一一列舉,在實際應用中,可以基於實際的需求進行個性化定制;例如,不同的VR內容提供商,可以分別自定義不同的三維手勢,以體現與其它VR內容提供商的差異化。
請參見圖4,圖4為本例示出的若干種可用於選中並觸發VR場景中的虛擬元件的三維手勢。
需要說明的是,圖4示出的若干種可用於選中並觸發VR場景中的虛擬元件的三維手勢,僅為示例性的。顯然,在實際應用中,也可以定義圖4中示出的三維手勢以外的其它類型的三維手勢,來選中並觸發VR場景中的虛擬元件。
在本例中,用戶在通過佩戴VR終端進行沉浸體驗時,上述VR客戶端可以通過VR終端上搭載的傳感硬體,並結合預設的三維手勢識別算法,來識別用戶在VR場景中所執行的三維手勢。
在示出的一種實施方式中,上述VR客戶端可以通過搭載在上述VR終端上的傳感硬體,來實時的跟蹤用戶的手部位移,由上述傳感硬體對用戶的手部位移資料進行採集,並將採集到的用戶的手部位移資料回傳給上述VR客戶端。
其中,上述手部位移資料,具體可以是指用戶手部在完成特定的三維手勢時的位置坐標、運動軌跡等資料。
當上述VR客戶端獲取到上述傳感硬體採集到的上述用戶的手部位移資料後,可以基於預設的手勢識別算法,針對獲取到的該手部位移資料進行計算,以識別出用戶的三維手勢。
其中,上述VR客戶端在基於上述手勢識別算法,識別用戶的三維手勢時,首先可以基於獲取到的上述用戶的手部位移資料,計算出該用戶的手部,相對於VR場景的X/Y/Z軸的旋轉量以及偏移量。
其中,針對X/Y/Z軸的旋轉量,可以是指用戶的手部在執行特定的三維手勢時,用戶手部上預先選定出的特徵點,分別以X/Y/Z軸為旋轉軸,相對於X/Y/Z軸所旋轉的偏離角度。而上述偏移量,可以是指用戶的手部在執行特定的三維手勢時,用戶手部上預先選定出的特徵點,相對於X/Y/Z軸所偏離的水平距離。
通過獲取用戶的首部相對於VR場景的X/Y/Z軸的旋轉量以及偏移量,將旋轉量以及偏移量這兩個維度相結合,可以正確的獲取到用戶的手部在執行三維手勢的過程中的深度資訊。
當上述VR客戶端通過上述手勢識別算法,計算出用戶的手部,相對於VR場景的X/Y/Z軸的旋轉量以及偏移量後,可以基於得到的該旋轉量以及偏移量,進行三維建模。其中,具體的建模算法,在本例中進行特別限定。
由於上述旋轉量以及偏移量,可以表徵用戶的手部在執行三維手勢的過程中的深度資訊,因此基於該深度資訊 進行三維建模,能夠正確的對用戶的三維手勢進行還原。
當基於上述旋轉量以及偏移量進行三維建模,成功創建出用戶的三維手勢模型後,此時針對用戶的三維手勢識別完成,上述三維手勢模型即為最終的三維手勢識別結果。
其中,需要說明的是,上述傳感硬體,具體可以包括紅外傳感器、圖像傳感器、雷射光傳感器、雷達傳感器,等,在本例中不進行特別限定。
例如,在VR技術的常規實現中,在識別用戶的三維手勢時,通常可以通過諸如TOF(Time of Flight,飛行時間)方案、雙攝影機雙目成像方案、結構光方案、以及微型雷達方案來實現。
以基於雙攝影機雙目成像方案來識別用戶的三維手勢時,上述傳感硬體可以是圖像傳感器,在這種方案中,上述VR客戶端可以通過雙攝影機的圖像傳感器實時的跟蹤用戶的手部位移,並採集用戶的手部位移資料,然後基於上述手勢識別算法對用戶的手部位移資料進行計算,計算出該用戶的手部,相對於VR場景的X/Y/Z軸的旋轉量以及偏移量,然後基於得到的旋轉量和偏移量進行三維建模,得到最終的三維手勢模型。
當然,除了以上示出的基於雙攝影機雙目成像來識別用戶的三維手勢的方案以外,在實際應用中,也可以採用TOF方案、結構光方案、微型雷達方案來實現。當基於TOF方案來識別用戶的三維手勢時,上述傳感硬體則可以 是紅外傳感器。當基於結構光方案來識別用戶的三維手勢時,上述傳感硬體可以是雷射光傳感器。當基於結微型雷達方案來識別用戶的三維手勢時,上述傳感硬體可以是雷達傳感器。
其中,基於TOF方案、結構光方案、以及微型雷達方案來識別用戶的三維手勢的詳細實現過程,與基於雙攝影機雙目成像的方案在原理上相同,都是基於手部位移跟蹤,計算出用戶手部相對於VR場景的X/Y/Z軸的旋轉量以及偏移量等深度資訊,來進行三維建模,在本例中不再詳述,本領域技術人員在將本發明的技術方案付諸實施時,可以參考相關技術中的記載。
在本例中,由於用戶在佩戴VR終端進行沉浸體驗的過程中,受限於VR終端對用戶的裸眼視覺的遮擋,用戶並不能實時的觀看到的自己手部所執行的三維手勢;因此,在這種情況下,可能會對用戶所執行的三維手勢的準確度造成影響,造成用戶沉浸於VR場景中時,所執行的三維手勢不夠準確。
為了避免這種問題,上述VR客戶端還可以在VR場景中輸出一與用戶的三維手勢對應的操作焦點(也可以稱之為視覺焦點),並控制該操作焦點,與用戶在VR場景中所執行的三維手勢同步的進行位移; 例如,在實現時,上述VR客戶端,可以根據上述傳感硬體通過實時跟蹤用戶的手部,而採集到的手部位移資料,來實時計算用戶的手部對應於上述VR場景中的操作 位置,然後根據用戶的手部對應於上述VR場景中的操作位置,來控制上述操作焦點的位移,從而實現操作焦點,與用戶的三維手勢的同步位移。
另外,為了使用戶能夠在VR場景中的用戶視野中,更加直觀的觀察到用戶手部執行的三維手勢,在一種實現方式中,上述操作焦點具體可以是一模擬用戶的三維手勢的動畫。
例如,上述VR客戶端在基於用戶手部的深度資訊進行三維建模,成功創建出與用戶的三維手勢對應的三維手勢模型後,由於該三維手勢模型通常準確記錄了用戶的手部的位置坐標、位移變化等參數,因此可以利用該三維手勢模型來渲染出一個對應的三維手勢動畫,並將該三維手勢動畫作為上述操作焦點,與用戶的三維手勢同步位移。
可見,通過這種方式,用戶沉浸在VR場景中時,可以通過VR場景中的用戶視野中輸出的操作焦點,實時準確的查看到自己手部當前正在執行的三維手勢,從而可以提升用戶執行的三維手勢的準確度,用戶在該操作焦點的提示下,可以及時對手勢進行校正,以降低由於手勢不準確而造成的誤輸入的機率。
在本例中,VR客戶端可以預先定義用於對VR場景中的虛擬元素進行選中的預設三維手勢。當VR客戶端識別出用戶的三維手勢時,還可以進一步識別該三維手勢是否為上述預設三維手勢,來決策是否選中相應的虛擬元件。
其中,在識別三維手勢是否為預設三維手勢時,可以 通過三維手勢模型之間的精準匹配來實現;例如,VR客戶端可以預先保存用於匹配的上述預設三維手勢模型,當識別出用戶的三維手勢後,可以從該三維模型對應的三維手勢模型,以及上述預設三維手勢模型上,分別選定若干個相對應的特徵點,然後逐一匹配各特徵點對應於上述虛擬實境場景的X/Y/Z軸的旋轉量以及偏移量是否相同,來識別上述三維手勢是否為預設三維手勢;如果各特徵點對應於上述虛擬實境場景的X/Y/Z軸的旋轉量以及偏移量均相同,則可以確定上述三維手勢為預設三維手勢。
當然,在實際應用中,由於用戶在VR場景中執行預設三維手勢時,通常無法做到精準匹配(即用戶執行的三維手勢與預設三維手勢百分之百相同),因此,在這種情況下,VR客戶端在識別用戶的三維手勢是否為預設三維手勢時,除了以上描述的通過三維手勢模型之間的精準匹配來實現以外,也可以通過確定三維手勢模型之間的相似度是否達到預設閾值來實現;例如,當VR客戶端識別出用戶的三維手勢後,可以基於預設的相似度算法計算該三維手勢對應的三維手勢模型,與預設三維手勢模型之間的相似度,然後判斷計算出的相似度是否達到預設閾值;如果是,則可以確定用戶的三維手勢為預設三維手勢;其中,上述相似度算法在本例中不進行特別限定,本領域技術人員在將本發明的技術方案付諸實施時,可以參 考相關技術的記載;另外,上述預設閾值的大小,在本例中也不進行特別限定,本領域技術人員可以基於實際的需求進行設置;例如,當對三維手勢識別時的相似度要求較高時,可以將上述預設閾值設置為一個較大的值;當對三維手勢識別時的相似度要求較低時,可以將上述預設閾值設置為一個較小的值。
3)資訊輸入
在本例中,當VR客戶端識別出用戶的三維手勢為預設三維手勢時,此時VR客戶端可以計算該三維手勢對應於VR場景的操作位置,然後選中VR場景中與該操作位置對應的虛擬元件。
例如,VR客戶端仍然可以根據上述傳感硬體通過實時跟蹤用戶的手部,而採集到的手部位移資料,來實時計算用戶的手部對應於上述VR場景中的操作位置。當計算出該操作位置後,VR客戶端可以查找VR場景中與該操作位置對應的虛擬元件,然後選中該虛擬元件。
當然,在實際應用中,VR客戶端除了可以通過上述傳感硬體採集到的手部位移資料,來實時計算用戶的手部對應於上述VR場景中的操作位置以外,如果當前VR場景中已經輸出了與用戶的三維手勢對應的操作焦點,那麼也可以直接通過定位該操作焦點的位置,來確定用戶的手部對應於上述VR場景中的操作位置;在這種情況下,VR客戶端可以直接查找該操作焦點在VR場景中指示的虛擬元 件,然後選中該虛擬元件。
其中,為了降低用戶在執行預設三維手勢時,由於該三維手勢的持續時間過長而造成的誤操作,在示出的一種實施方式中,VR客戶端還可以預設一個用於表徵三維手勢是否有效的預設的時長閾值。當VR客戶端在識別出用戶的三維手勢後,還可以計算該三維手勢的持續時間(即用戶在開始執行手勢的時刻,到手勢執行完畢的時刻之間的時間差);然後判斷該三維手勢的持續時間,是否低於上述預設的時長閾值;如果該三維手勢的持續時間低於該預設的時長閾值,則確定該三維手勢有效,VR客戶端可以開始執行後續的識別該三維手勢是否為預設三維手勢的執行邏輯。當然,如果該三維手勢的持續時間等於或者大於該預設的時長閾值,則確定該三維手勢無效。
其中,上述預設的時長閾值的具體取值,在本例中不進行特別限定,在實際應用中可以設置為一個較短的時長(比如2秒),從而使得用戶可以在較短的時間內快速的執行預設三維手勢,來選中VR場景中的虛擬元件,從而可以避免由於用戶執行三維手勢的持續時間太長,而造成的誤操作的問題。
在本例中,如前所述,假設上述VR場景中,預先提供了一預設的虛擬觸發元件,該虛擬觸發元件用戶觸發上述VR客戶端輸出預設的三維輸入介面。
在這種情況下,當用戶在VR場景中進行沉浸體驗時,如果需要執行資訊輸入,此時用戶可以通過將操作焦 點移動至該虛擬觸發元件所在位置,並使該操作焦點在該虛擬觸發元件上保持懸浮;例如,在實現時,用戶可以通過諸如操作杆、手柄等外接設備來控制操作焦點的移動;或者,可以在VR終端上預先安裝重力傳感器,或者在用戶的手部佩戴相應的重力傳感裝置,繼而用戶可以通過頭部姿態,或者手部的移動,來控制操作焦點的移動。
當該操作焦點在上述虛擬觸發元件上保持懸浮後,用戶可以在操作焦點指示的位置上執行預設三維手勢,VR客戶端在識別出用戶執行的三維手勢為預設三維手勢後,由於該操作焦點在上述虛擬觸發元件上保持懸停,此時該操作焦點所指示的虛擬元件為該虛擬觸發元件,因此VR客戶端可以選中該虛擬元件,並觸發在上述VR場景中輸出上述三維輸入介面。
在本例中,當VR終端在VR場景中輸出上述三維輸入介面後,此時用戶可以查看該三維輸入介面中各虛擬輸入元件所指示的資訊,基於自己的輸入需求,通過將操作焦點懸浮在相應的虛擬輸入元件上,然後執行預設三維手勢,來選中該虛擬輸入元件。
其中,需要說明的是,用於選中上述虛擬觸發元件的預設三維手勢,與用於選中上述三維輸入介面中的虛擬輸入元件的預設三維手勢,在實際應用中,可以相同,也可以不同,在本例中不進行特別限定。
VR客戶端在識別出用戶執行的三維手勢為預設三維 手勢後,VR客戶端可以計算該三維手勢對應於VR場景的操作位置,然後查找上述三維輸入介面中與該操作位置對應的虛擬輸入元件,並選中該虛擬輸入元件。
其中,為了確保用戶能夠直觀的查看到當前選中的虛擬輸入元件,當VR客戶端基於用戶執行的預設三維手勢,選定相應的虛擬輸入元件後,還可以在上述三維輸入介面中將該虛擬輸入元件突出顯示;例如,可以在上述三維輸入介面中,將選中的虛擬輸入元件高亮顯示。
在本例中,當上述三維輸入介面中的虛擬元件被選中後,VR客戶端可以讀取該虛擬輸入元件所指示的輸入資訊,然後基於獲取到的該輸入資訊完成資訊的輸入。
以此類推,用戶可以通過重複以上操作,按順序選中上述三維輸入介面中的多個虛擬輸入元件,來完成諸如密碼等字符串的輸入。
以下結合用戶在進行VR購物體驗時,在VR場景中輸入支付密碼完成商品支付的應用場景為例,對本發明的技術方案進行描述。
當然,需要說明的是,上述示出的應用場景僅為示例性的,並不用於限定;顯然,在實際應用中本發明的技術方案,也可以應用在其它基於VR場景的資訊輸入場景;例如,用戶在VR遊戲的場景中,輸入登錄密碼完成遊戲賬號的登錄,或者輸入支付密碼完成遊戲幣的充值;或者,用戶在VR直播場景中,輸入支付密碼,完成支付對主播進行打賞,等;在本例中不再一一列舉。
在本例中,用戶在佩戴VR終端進行VR購物體驗時,在VR場景中可以向用戶呈現若干可供選擇的商品,用戶可以通過查看VR場景中提供的商品列表,來選擇自己喜歡的商品進行購買。
上述VR場景中除了可以向用戶提供商品列表外,在每一個商品對應的位置上還可以提供一個“購買/支付”的虛擬按鈕(即上述虛擬觸發元件)。當用戶在上述商品列表中,選擇了一件滿意的商品後,可以將操作焦點移動至該“購買/支付”的虛擬按鈕所在位置,並使該操作焦點在該“購買/支付”的虛擬按鈕上保持懸浮。
當操作焦點在該“購買/支付”的虛擬按鈕上保持懸浮後,用戶可以執行預設三維手勢來選中該“購買/支付”的虛擬按鈕。當VR客戶端識別出用戶執行的三維手勢為預設三維手勢時,可以選中該“購買/支付”的虛擬按鈕,並觸發在VR場景中輸出“三維虛擬鍵盤”(即上述三維輸入介面)。
其中,輸出的該“三維虛擬鍵盤”可以是如圖2所示的“三維空氣鍵盤”,也可以是如圖3所示的“三維數字魔方鍵盤”。
當VR客戶端在VR場景中輸出上述“三維虛擬鍵盤”後,用戶可以通過將操作焦點移動到相應的“虛擬按鍵”上,並使該操作焦點在該“虛擬按鍵”上保持懸浮,然後執行預設三維手勢來選中該“虛擬按鍵”。當VR客戶端識別出用戶執行的三維手勢為預設三維手勢時,可以選中 該“虛擬按鍵”,然後讀取該“虛擬按鍵”所指示的數字,完成密碼的輸入。
以此類推,用戶可以通過重複以上操作,按順序選中上述“三維虛擬鍵盤”中的多個“虛擬按鍵”,來完成支付密碼的輸入。當支付密碼輸入完成,並且輸入的支付密碼由相應的支付伺服器驗證通過後,此時商品購買完成。
通過以上實施例可知,本發明通過在虛擬實境場景中輸出一個三維輸入介面,並識別用戶在虛擬實境場景中的三維手勢,當識別出的三維手勢為預設三維手勢時,可以計算該三維手勢對應於虛擬實境場景中的三維輸入介面的操作位置,並選中該三維輸入介面中與該操作位置對應的虛擬輸入元件,然後讀取該虛擬輸入元件所指示的輸入資訊完成輸入,實現了用戶在在佩戴虛擬實境終端進行沉浸體驗時,可以通過三維手勢,在虛擬實境場景中快速的完成資訊的輸入,從而可以提升用戶的輸入體驗。
與上述方法實施例相對應,本發明還提供了裝置的實施例。
請參見圖5,本發明提出一種基於VR場景的輸入裝置50,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面;請參見圖6,作為承載所述基於VR場景的輸入裝置50的虛擬實境客戶端所涉及的硬體架構中,通常包括CPU、記憶體、非易失性記憶體、網路接口以及內部總線等;以軟體實現為例,所述基於VR場景的輸入裝置40通常可以 理解為加載在記憶體中的電腦程式,通過CPU運行之後形成的軟硬體相結合的邏輯裝置,所述裝置50包括:識別模組501,識別用戶在所述虛擬實境場景中的三維手勢;判斷模組502,當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;計算模組503,如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;輸入模組504,選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
在本例中,所述虛擬實境場景中包括預設的虛擬觸發元件;所述虛擬觸發元件用於觸發在所述虛擬實境場景中輸出所述三維輸入介面;所述判斷模組502進一步:當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;所述計算模組503進一步:如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;所述裝置50還包括:輸出模組505(圖5中未示出),在所述操作位置與所述虛擬觸發元件所在位置對應時,輸出所述三維輸入介 面。
在本例中,所述識別模組501:通過預設的傳感硬體跟蹤所述用戶的手部位移;獲取所述傳感硬體採集到的所述用戶的手部位移資料;基於所述手部位移資料計算所述用戶的手部相對於所述虛擬現場場景的X/Y/Z軸的旋轉量以及偏移量;基於所述旋轉量以及所述偏移量進行三維建模,得到對應的三維手勢。
在本例中,所述計算模組503進一步:在計算所述三維手勢對應於所述三維輸入介面的操作位置之前,計算所述三維手勢的持續時間;判斷所述三維手勢的持續時間是否低於預設閾值;如果所述三維手勢的持續時間低於預設閾值,則執行計算所述三維手勢對應於所述三維輸入介面的操作位置的操作。
在本例中,所述虛擬實境場景中包括對應於所述三維手勢的操作焦點;其中,所述操作焦點在所述虛擬實境場景中與所述三維手勢同步位移。
在本例中,所述操作焦點為模擬所述三維手勢的動畫。
在本例中,所述輸入模組504進一步:將選中的所述虛擬輸入元件在所述三維輸入介面中突出顯示。
在本例中,所述三維輸入介面為三維虛擬鍵盤;所述 虛擬輸入元件為所述三維虛擬鍵盤中的虛擬按鍵。
本領域技術人員在考慮說明書及實踐這裡公開的發明後,將容易想到本發明的其它實施方案。本發明旨在涵蓋本發明的任何變型、用途或者適應性變化,這些變型、用途或者適應性變化遵循本發明的一般性原理並包括本發明未公開的本技術領域中的公知常識或慣用技術手段。說明書和實施例僅被視為示例性的,本發明的真正範圍和精神由下面的申請專利範圍指出。
應當理解的是,本發明並不局限於上面已經描述並在圖式中示出的精確結構,並且可以在不脫離其範圍進行各種修改和改變。本發明的範圍僅由所附的申請專利範圍來限制。
以上所述僅為本發明的較佳實施例而已,並不用以限制本發明,凡在本發明的精神和原則之內,所做的任何修改、等同替換、改進等,均應包含在本發明保護的範圍之內。
Claims (16)
- 一種基於虛擬實境場景的輸入方法,其特徵在於,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面,所述方法包括:識別用戶在所述虛擬實境場景中的三維手勢;當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
- 根據請求項1所述的方法,其中,所述虛擬實境場景中包括預設的虛擬觸發元件;所述虛擬觸發元件用於觸發在所述虛擬實境場景中輸出所述三維輸入介面;所述方法還包括:當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;如果識別出的所述三維手勢為所述預設三維手勢,確定所述三維手勢對應於所述虛擬實境場景的操作位置,並在所述操作位置與所述虛擬觸發元件所在位置對應時,輸出所述三維輸入介面。
- 根據請求項1所述的方法,其中,所述識別用戶在所述虛擬實境場景中的三維手勢,包括:透過預設的傳感硬體跟蹤所述用戶的手部位移;獲取所述傳感硬體採集到的所述用戶的手部位移資料;基於所述手部位移資料計算所述用戶的手部相對於所述虛擬現場場景的X/Y/Z軸的旋轉量以及偏移量;基於所述旋轉量以及所述偏移量進行三維建模,得到對應的三維手勢。
- 根據請求項1所述的方法,其中,所述確定識別出的所述的三維手勢是否為預設三維手勢之前,還包括:計算所述三維手勢的持續時間;判斷所述三維手勢的持續時間是否低於預設閾值;如果所述三維手勢的持續時間低於預設閾值,則執行確定識別出的所述的三維手勢是否為預設三維手勢的操作。
- 根據請求項3所述的方法,其中,所述虛擬實境場景中包括對應於所述三維手勢的操作焦點;其中,所述操作焦點在所述虛擬實境場景中與所述三維手勢同步位移。
- 根據請求項5所述的方法,其中,所述操作焦點為模 擬所述三維手勢的動畫。
- 根據請求項1所述的方法,其中,還包括:將選中的所述虛擬輸入元件在所述三維輸入介面中突出顯示。
- 根據請求項1所述的方法,其中,所述三維輸入介面為三維虛擬鍵盤;所述虛擬輸入元件為所述三維虛擬鍵盤中的虛擬按鍵。
- 一種基於虛擬實境場景的輸入裝置,其特徵在於,應用於虛擬實境客戶端,所述虛擬實境客戶端輸出的虛擬實境場景中包括三維輸入介面,所述裝置包括:識別模組,識別用戶在所述虛擬實境場景中的三維手勢;判斷模組,當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;計算模組,如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;輸入模組,選中所述三維輸入介面中與所述操作位置對應的虛擬輸入元件,並讀取所述虛擬輸入元件所指示的輸入資訊完成輸入。
- 根據請求項9所述的裝置,其中,所述虛擬實境場景中包括預設的虛擬觸發元件;所述虛擬觸發元件用於觸發在所述虛擬實境場景中輸出所述三維輸入介面;所述判斷模組進一步:當識別出用戶的三維手勢時,確定識別出的所述的三維手勢是否為預設三維手勢;所述計算模組進一步:如果識別出的所述三維手勢為所述預設三維手勢,計算所述三維手勢對應於所述三維輸入介面的操作位置;所述裝置還包括:輸出模組,在所述操作位置與所述虛擬觸發元件所在位置對應時,輸出所述三維輸入介面。
- 根據請求項9所述的裝置,其中,所述識別模組:透過預設的傳感硬體跟蹤所述用戶的手部位移;獲取所述傳感硬體採集到的所述用戶的手部位移資料;基於所述手部位移資料計算所述用戶的手部相對於所述虛擬現場場景的X/Y/Z軸的旋轉量以及偏移量;基於所述旋轉量以及所述偏移量進行三維建模,得到對應的三維手勢。
- 根據請求項9所述的裝置,其中,所述計算模組進一步: 在計算所述三維手勢對應於所述三維輸入介面的操作位置之前,計算所述三維手勢的持續時間;判斷所述三維手勢的持續時間是否低於預設閾值;如果所述三維手勢的持續時間低於預設閾值,則執行計算所述三維手勢對應於所述三維輸入介面的操作位置的操作。
- 根據請求項9所述的裝置,其中,所述虛擬實境場景中包括對應於所述三維手勢的操作焦點;其中,所述操作焦點在所述虛擬實境場景中與所述三維手勢同步位移。
- 根據請求項13所述的裝置,其中,所述操作焦點為模擬所述三維手勢的動畫。
- 根據請求項9所述的裝置,其中,所述輸入模組進一步:將選中的所述虛擬輸入元件在所述三維輸入介面中突出顯示。
- 根據請求項99所述的裝置,其中,所述三維輸入介面為三維虛擬鍵盤;所述虛擬輸入元件為所述三維虛擬鍵盤中的虛擬按鍵。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610881695.8A CN106980362A (zh) | 2016-10-09 | 2016-10-09 | 基于虚拟现实场景的输入方法及装置 |
| ??201610881695.8 | 2016-10-09 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| TW201814438A true TW201814438A (zh) | 2018-04-16 |
Family
ID=59340781
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| TW106126422A TW201814438A (zh) | 2016-10-09 | 2017-08-04 | 基於虛擬實境場景的輸入方法及裝置 |
Country Status (10)
| Country | Link |
|---|---|
| US (2) | US10474242B2 (zh) |
| EP (1) | EP3523708A4 (zh) |
| JP (1) | JP6999662B2 (zh) |
| KR (1) | KR102297818B1 (zh) |
| CN (1) | CN106980362A (zh) |
| MY (1) | MY197006A (zh) |
| PH (1) | PH12019500773A1 (zh) |
| SG (2) | SG11201903137XA (zh) |
| TW (1) | TW201814438A (zh) |
| WO (1) | WO2018067587A1 (zh) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI855533B (zh) * | 2022-02-25 | 2024-09-11 | 宏達國際電子股份有限公司 | 用於與虛擬實境環境進行互動的方法及裝置 |
| US12099693B2 (en) | 2019-06-07 | 2024-09-24 | Meta Platforms Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
| TWI887170B (zh) * | 2024-10-08 | 2025-06-11 | 宏達國際電子股份有限公司 | 主機、安全登入系統以及安全登入方法 |
Families Citing this family (100)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
| US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
| US10223634B2 (en) | 2014-08-14 | 2019-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Multiplicative recurrent neural network for fast and robust intracortical brain machine interface decoders |
| US10181653B2 (en) | 2016-07-21 | 2019-01-15 | Infineon Technologies Ag | Radio frequency system for wearable device |
| US10218407B2 (en) | 2016-08-08 | 2019-02-26 | Infineon Technologies Ag | Radio frequency system and method for wearable device |
| CN106980362A (zh) | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
| US10466772B2 (en) | 2017-01-09 | 2019-11-05 | Infineon Technologies Ag | System and method of gesture detection for a remote device |
| US10505255B2 (en) | 2017-01-30 | 2019-12-10 | Infineon Technologies Ag | Radio frequency device packages and methods of formation thereof |
| US11494986B2 (en) * | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
| CN107368184B (zh) * | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
| US10602548B2 (en) | 2017-06-22 | 2020-03-24 | Infineon Technologies Ag | System and method for gesture sensing |
| US20190049558A1 (en) * | 2017-08-08 | 2019-02-14 | KC Sense Limited | Hand Gesture Recognition System and Method |
| CN109656432B (zh) * | 2017-10-10 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 虚拟现实环境下的控制方法、装置、设备和存储介质 |
| US10746625B2 (en) | 2017-12-22 | 2020-08-18 | Infineon Technologies Ag | System and method of monitoring a structural object using a millimeter-wave radar sensor |
| US11346936B2 (en) | 2018-01-16 | 2022-05-31 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
| US11278241B2 (en) | 2018-01-16 | 2022-03-22 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
| US10795012B2 (en) | 2018-01-22 | 2020-10-06 | Infineon Technologies Ag | System and method for human behavior modelling and power control using a millimeter-wave radar sensor |
| US10576328B2 (en) | 2018-02-06 | 2020-03-03 | Infineon Technologies Ag | System and method for contactless sensing on a treadmill |
| CN110196629A (zh) * | 2018-02-27 | 2019-09-03 | 优酷网络技术(北京)有限公司 | 虚拟现实界面展示控制方法及装置 |
| US10705198B2 (en) | 2018-03-27 | 2020-07-07 | Infineon Technologies Ag | System and method of monitoring an air flow using a millimeter-wave radar sensor |
| US10761187B2 (en) | 2018-04-11 | 2020-09-01 | Infineon Technologies Ag | Liquid detection using millimeter-wave radar sensor |
| US10775482B2 (en) | 2018-04-11 | 2020-09-15 | Infineon Technologies Ag | Human detection and identification in a setting using millimeter-wave radar |
| US10775892B2 (en) | 2018-04-20 | 2020-09-15 | Immersion Corporation | Systems and methods for multi-user shared virtual and augmented reality-based haptics |
| CN108563335B (zh) * | 2018-04-24 | 2021-03-23 | 网易(杭州)网络有限公司 | 虚拟现实交互方法、装置、存储介质及电子设备 |
| US12008987B2 (en) | 2018-04-30 | 2024-06-11 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for decoding intended speech from neuronal activity |
| US10794841B2 (en) | 2018-05-07 | 2020-10-06 | Infineon Technologies Ag | Composite material structure monitoring system |
| US10399393B1 (en) | 2018-05-29 | 2019-09-03 | Infineon Technologies Ag | Radar sensor system for tire monitoring |
| US10903567B2 (en) | 2018-06-04 | 2021-01-26 | Infineon Technologies Ag | Calibrating a phased array system |
| US11416077B2 (en) | 2018-07-19 | 2022-08-16 | Infineon Technologies Ag | Gesture detection system and method using a radar sensor |
| CN109164915B (zh) * | 2018-08-17 | 2020-03-17 | 湖南时变通讯科技有限公司 | 一种手势识别方法、装置、系统和设备 |
| US10698603B2 (en) * | 2018-08-24 | 2020-06-30 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
| US10928501B2 (en) | 2018-08-28 | 2021-02-23 | Infineon Technologies Ag | Target detection in rainfall and snowfall conditions using mmWave radar |
| US11183772B2 (en) | 2018-09-13 | 2021-11-23 | Infineon Technologies Ag | Embedded downlight and radar system |
| US11049299B2 (en) * | 2018-09-26 | 2021-06-29 | The Alchemy Of You, Llc | System and method for improved data structures and related interfaces |
| US11125869B2 (en) | 2018-10-16 | 2021-09-21 | Infineon Technologies Ag | Estimating angle of human target using mmWave radar |
| US10788880B2 (en) | 2018-10-22 | 2020-09-29 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
| WO2020084192A1 (en) * | 2018-10-23 | 2020-04-30 | Ainak Oy | Method, arrangement, and computer program product for three-dimensional visualization of augmented reality and virtual reality environments |
| US11360185B2 (en) | 2018-10-24 | 2022-06-14 | Infineon Technologies Ag | Phase coded FMCW radar |
| US11397239B2 (en) | 2018-10-24 | 2022-07-26 | Infineon Technologies Ag | Radar sensor FSM low power mode |
| US10949086B2 (en) * | 2018-10-29 | 2021-03-16 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for virtual keyboards for high dimensional controllers |
| EP3654053A1 (en) | 2018-11-14 | 2020-05-20 | Infineon Technologies AG | Package with acoustic sensing device(s) and millimeter wave sensing elements |
| US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
| CN109799906A (zh) * | 2018-12-29 | 2019-05-24 | 北京诺亦腾科技有限公司 | 一种利用动作捕捉手套在vr场景中绘画的方法及装置 |
| US11087115B2 (en) | 2019-01-22 | 2021-08-10 | Infineon Technologies Ag | User authentication using mm-Wave sensor for automotive radar systems |
| US11355838B2 (en) | 2019-03-18 | 2022-06-07 | Infineon Technologies Ag | Integration of EBG structures (single layer/multi-layer) for isolation enhancement in multilayer embedded packaging technology at mmWave |
| US11126885B2 (en) | 2019-03-21 | 2021-09-21 | Infineon Technologies Ag | Character recognition in air-writing based on network of radars |
| US11454696B2 (en) | 2019-04-05 | 2022-09-27 | Infineon Technologies Ag | FMCW radar integration with communication system |
| CN109933208A (zh) * | 2019-04-11 | 2019-06-25 | 湖北航天技术研究院特种车辆技术中心 | 一种基于虚拟现实的操作行为识别方法及系统 |
| CN110096166A (zh) * | 2019-04-23 | 2019-08-06 | 广东工业大学华立学院 | 一种虚拟输入方法 |
| US11442550B2 (en) * | 2019-05-06 | 2022-09-13 | Samsung Electronics Co., Ltd. | Methods for gesture recognition and control |
| CN110262722A (zh) * | 2019-06-21 | 2019-09-20 | 深圳市趣创科技有限公司 | 移动终端解锁方法及装置 |
| CN110647803B (zh) * | 2019-08-09 | 2023-12-05 | 深圳大学 | 一种手势识别方法、系统以及存储介质 |
| US11640204B2 (en) | 2019-08-28 | 2023-05-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods decoding intended symbols from neural activity |
| US11327167B2 (en) | 2019-09-13 | 2022-05-10 | Infineon Technologies Ag | Human target tracking system and method |
| US11774592B2 (en) | 2019-09-18 | 2023-10-03 | Infineon Technologies Ag | Multimode communication and radar system resource allocation |
| US11435443B2 (en) | 2019-10-22 | 2022-09-06 | Infineon Technologies Ag | Integration of tracking with classifier in mmwave radar |
| CN111084980B (zh) * | 2019-12-25 | 2023-04-07 | 网易(杭州)网络有限公司 | 一种购买虚拟物品的方法和装置 |
| US11808883B2 (en) | 2020-01-31 | 2023-11-07 | Infineon Technologies Ag | Synchronization of multiple mmWave devices |
| US11614516B2 (en) | 2020-02-19 | 2023-03-28 | Infineon Technologies Ag | Radar vital signal tracking using a Kalman filter |
| US11585891B2 (en) | 2020-04-20 | 2023-02-21 | Infineon Technologies Ag | Radar-based vital sign estimation |
| US11567185B2 (en) | 2020-05-05 | 2023-01-31 | Infineon Technologies Ag | Radar-based target tracking using motion detection |
| CN111427457A (zh) * | 2020-06-11 | 2020-07-17 | 诺百爱(杭州)科技有限责任公司 | 一种基于虚拟按键输入字符的方法、装置和电子设备 |
| KR102502195B1 (ko) * | 2020-06-16 | 2023-02-21 | 한국기술교육대학교 산학협력단 | 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템 |
| US11774553B2 (en) | 2020-06-18 | 2023-10-03 | Infineon Technologies Ag | Parametric CNN for radar processing |
| CN111880647B (zh) * | 2020-06-19 | 2022-02-01 | 华为技术有限公司 | 一种三维界面的控制方法和终端 |
| CN111782041A (zh) * | 2020-06-24 | 2020-10-16 | Oppo广东移动通信有限公司 | 打字方法及装置、设备、存储介质 |
| US11704917B2 (en) | 2020-07-09 | 2023-07-18 | Infineon Technologies Ag | Multi-sensor analysis of food |
| US11614511B2 (en) | 2020-09-17 | 2023-03-28 | Infineon Technologies Ag | Radar interference mitigation |
| US11719787B2 (en) | 2020-10-30 | 2023-08-08 | Infineon Technologies Ag | Radar-based target set generation |
| US11719805B2 (en) | 2020-11-18 | 2023-08-08 | Infineon Technologies Ag | Radar based tracker using empirical mode decomposition (EMD) and invariant feature transform (IFT) |
| CN112463004B (zh) * | 2020-11-25 | 2022-07-22 | 努比亚技术有限公司 | 一种交互界面操作控制方法、设备及计算机可读存储介质 |
| CN112698721A (zh) * | 2020-12-24 | 2021-04-23 | 上海科技大学 | 基于手势的虚拟现实物体交互系统 |
| US12189021B2 (en) | 2021-02-18 | 2025-01-07 | Infineon Technologies Ag | Radar-based target tracker |
| US11662430B2 (en) | 2021-03-17 | 2023-05-30 | Infineon Technologies Ag | MmWave radar testing |
| US11099709B1 (en) | 2021-04-13 | 2021-08-24 | Dapper Labs Inc. | System and method for creating, managing, and displaying an interactive display for 3D digital collectibles |
| US11210844B1 (en) | 2021-04-13 | 2021-12-28 | Dapper Labs Inc. | System and method for creating, managing, and displaying 3D digital collectibles |
| USD991271S1 (en) | 2021-04-30 | 2023-07-04 | Dapper Labs, Inc. | Display screen with an animated graphical user interface |
| US11227010B1 (en) | 2021-05-03 | 2022-01-18 | Dapper Labs Inc. | System and method for creating, managing, and displaying user owned collections of 3D digital collectibles |
| US11170582B1 (en) | 2021-05-04 | 2021-11-09 | Dapper Labs Inc. | System and method for creating, managing, and displaying limited edition, serialized 3D digital collectibles with visual indicators of rarity classifications |
| US11533467B2 (en) * | 2021-05-04 | 2022-12-20 | Dapper Labs, Inc. | System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements |
| CN113282168A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
| CN113282166A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的交互方法、装置及头戴式显示设备 |
| US11950895B2 (en) | 2021-05-28 | 2024-04-09 | Infineon Technologies Ag | Radar sensor system for blood pressure sensing, and associated method |
| CN113432281B (zh) * | 2021-06-30 | 2022-06-14 | 珠海格力电器股份有限公司 | 设备的控制方法、装置、设备及存储介质 |
| US12307761B2 (en) | 2021-08-06 | 2025-05-20 | Infineon Technologies Ag | Scene-adaptive radar |
| CN113822795B (zh) * | 2021-09-17 | 2024-02-09 | 惠州视维新技术有限公司 | 基于毫米波雷达的虚拟按键投影方法、装置及电子设备 |
| CN113838177B (zh) * | 2021-09-22 | 2023-08-01 | 上海拾衷信息科技有限公司 | 一种手部动画制作方法及系统 |
| US12405351B2 (en) | 2022-03-25 | 2025-09-02 | Infineon Technologies Ag | Adaptive Tx-Rx crosstalk cancellation for radar systems |
| US12399254B2 (en) | 2022-06-07 | 2025-08-26 | Infineon Technologies Ag | Radar-based single target vital sensing |
| CN115186310A (zh) * | 2022-07-06 | 2022-10-14 | 中国工商银行股份有限公司 | 信息输入方法、装置、设备、存储介质和程序产品 |
| US12399271B2 (en) | 2022-07-20 | 2025-08-26 | Infineon Technologies Ag | Radar-based target tracker |
| US12254670B2 (en) | 2022-07-29 | 2025-03-18 | Infineon Technologies Ag | Radar-based activity classification |
| US12504526B2 (en) | 2022-09-21 | 2025-12-23 | Infineon Technologies Ag | Radar-based segmented presence detection |
| CN115588092A (zh) * | 2022-10-17 | 2023-01-10 | 中国银行股份有限公司 | 纪念币显示方法及装置 |
| US11900511B1 (en) * | 2022-12-08 | 2024-02-13 | Fmr Llc | Systems and methods for graphing data in virtual reality environments |
| CN116069169A (zh) * | 2023-03-29 | 2023-05-05 | 深圳市光速时代科技有限公司 | 一种基于智能手表输入虚拟文本的数据处理方法及系统 |
| CN116719416B (zh) * | 2023-08-07 | 2023-12-15 | 海马云(天津)信息技术有限公司 | 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质 |
| CN117095103B (zh) * | 2023-08-11 | 2024-03-19 | 广州淦源智能科技有限公司 | 一种基于智能魔方的数据处理方法及其魔方 |
| US20250094041A1 (en) * | 2023-09-18 | 2025-03-20 | Meta Platforms, Inc. | Smart Character Suggestion via XR Cubic Keyboard on Head-mounted Devices |
| CN117406867B (zh) * | 2023-12-15 | 2024-02-09 | 小芒电子商务有限责任公司 | 一种基于网页的增强现实交互方法及装置 |
Family Cites Families (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004044664A1 (en) | 2002-11-06 | 2004-05-27 | Julius Lin | Virtual workstation |
| US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
| JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
| TW201113754A (en) * | 2009-10-15 | 2011-04-16 | Acer Inc | Multi-directional input method and electronic system thereof |
| EP2372512A1 (en) * | 2010-03-30 | 2011-10-05 | Harman Becker Automotive Systems GmbH | Vehicle user interface unit for a vehicle electronic device |
| TW201140420A (en) * | 2010-06-15 | 2011-11-16 | Wistron Neweb Corp | User interface and electronic device |
| WO2012021902A2 (en) | 2010-08-13 | 2012-02-16 | Net Power And Light Inc. | Methods and systems for interaction through gestures |
| US8893054B2 (en) * | 2010-12-08 | 2014-11-18 | At&T Intellectual Property I, L.P. | Devices, systems, and methods for conveying gesture commands |
| KR20120080072A (ko) * | 2011-01-06 | 2012-07-16 | 삼성전자주식회사 | 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법 |
| US8937603B2 (en) | 2011-04-01 | 2015-01-20 | Analog Devices, Inc. | Method and apparatus for haptic vibration response profiling and feedback |
| KR20140069124A (ko) * | 2011-09-19 | 2014-06-09 | 아이사이트 모빌 테크놀로지 엘티디 | 증강 현실 시스템용 터치프리 인터페이스 |
| CN102789313B (zh) * | 2012-03-19 | 2015-05-13 | 苏州触达信息技术有限公司 | 一种用户交互系统和方法 |
| US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
| US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
| US9069455B2 (en) * | 2012-06-22 | 2015-06-30 | Microsoft Technology Licensing, Llc | 3D user interface for application entities |
| US9495068B2 (en) * | 2012-07-27 | 2016-11-15 | Nec Solution Innovators, Ltd. | Three-dimensional user interface apparatus and three-dimensional operation method |
| SE537553C2 (sv) | 2012-08-03 | 2015-06-09 | Crunchfish Ab | Förbättrad identifiering av en gest |
| WO2014051092A1 (ja) * | 2012-09-28 | 2014-04-03 | 京セラ株式会社 | 表示装置、制御方法および制御プログラム |
| US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
| US9298266B2 (en) * | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
| WO2014162762A1 (ja) * | 2013-04-02 | 2014-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| TW201447375A (zh) | 2013-06-13 | 2014-12-16 | Hsiu-Chi Yeh | 擴增實境之頭戴式電子裝置及方法 |
| KR102130590B1 (ko) * | 2013-07-22 | 2020-07-06 | 엘지전자 주식회사 | 세탁물 처리기기 |
| US20150067603A1 (en) | 2013-09-05 | 2015-03-05 | Kabushiki Kaisha Toshiba | Display control device |
| TWI499966B (zh) | 2013-10-08 | 2015-09-11 | Univ Nat Taiwan Science Tech | 互動式操作方法 |
| TWI488072B (zh) | 2013-12-19 | 2015-06-11 | Lite On Technology Corp | 手勢辨識系統及其手勢辨識方法 |
| JP6851133B2 (ja) * | 2014-01-03 | 2021-03-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ユーザに方向付けられた個人情報アシスタント |
| JP2015176253A (ja) | 2014-03-13 | 2015-10-05 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
| US9558610B2 (en) * | 2014-02-14 | 2017-01-31 | Igt Canada Solutions Ulc | Gesture input interface for gaming systems |
| JP6355978B2 (ja) * | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
| US9766806B2 (en) | 2014-07-15 | 2017-09-19 | Microsoft Technology Licensing, Llc | Holographic keyboard display |
| CN204463032U (zh) * | 2014-12-30 | 2015-07-08 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和虚拟现实头戴设备 |
| US9811650B2 (en) * | 2014-12-31 | 2017-11-07 | Hand Held Products, Inc. | User authentication system and method |
| US10310616B2 (en) * | 2015-03-31 | 2019-06-04 | Ebay Inc. | Modification of three-dimensional garments using gestures |
| CN105892631A (zh) * | 2015-11-16 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种简化虚拟现实应用操作的方法和装置 |
| CN105573596B (zh) * | 2015-12-10 | 2018-09-04 | 广东欧珀移动通信有限公司 | 一种播放列表的播放顺序调整方法及用户终端 |
| US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
| CN105912110B (zh) * | 2016-04-06 | 2019-09-06 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
| CN105955453A (zh) * | 2016-04-15 | 2016-09-21 | 北京小鸟看看科技有限公司 | 一种3d沉浸式环境下的信息输入方法 |
| CN106980362A (zh) | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
-
2016
- 2016-10-09 CN CN201610881695.8A patent/CN106980362A/zh active Pending
-
2017
- 2017-08-04 TW TW106126422A patent/TW201814438A/zh unknown
- 2017-09-29 US US15/720,635 patent/US10474242B2/en active Active
- 2017-10-03 SG SG11201903137XA patent/SG11201903137XA/en unknown
- 2017-10-03 WO PCT/US2017/054967 patent/WO2018067587A1/en not_active Ceased
- 2017-10-03 MY MYPI2019001954A patent/MY197006A/en unknown
- 2017-10-03 EP EP17859034.5A patent/EP3523708A4/en not_active Ceased
- 2017-10-03 JP JP2019519296A patent/JP6999662B2/ja active Active
- 2017-10-03 KR KR1020197013078A patent/KR102297818B1/ko active Active
- 2017-10-03 SG SG10202108555YA patent/SG10202108555YA/en unknown
-
2019
- 2019-04-10 PH PH12019500773A patent/PH12019500773A1/en unknown
- 2019-11-08 US US16/678,442 patent/US11054912B2/en active Active
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12099693B2 (en) | 2019-06-07 | 2024-09-24 | Meta Platforms Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
| TWI855533B (zh) * | 2022-02-25 | 2024-09-11 | 宏達國際電子股份有限公司 | 用於與虛擬實境環境進行互動的方法及裝置 |
| TWI887170B (zh) * | 2024-10-08 | 2025-06-11 | 宏達國際電子股份有限公司 | 主機、安全登入系統以及安全登入方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| SG10202108555YA (en) | 2021-09-29 |
| CN106980362A (zh) | 2017-07-25 |
| KR20190064623A (ko) | 2019-06-10 |
| EP3523708A4 (en) | 2019-09-04 |
| MY197006A (en) | 2023-05-18 |
| SG11201903137XA (en) | 2019-05-30 |
| US20180101239A1 (en) | 2018-04-12 |
| US10474242B2 (en) | 2019-11-12 |
| US11054912B2 (en) | 2021-07-06 |
| JP2020502614A (ja) | 2020-01-23 |
| EP3523708A1 (en) | 2019-08-14 |
| PH12019500773A1 (en) | 2019-11-11 |
| JP6999662B2 (ja) | 2022-01-18 |
| KR102297818B1 (ko) | 2021-09-07 |
| WO2018067587A1 (en) | 2018-04-12 |
| US20200142498A1 (en) | 2020-05-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TW201814438A (zh) | 基於虛擬實境場景的輸入方法及裝置 | |
| US12099660B2 (en) | User-defined virtual interaction space and manipulation of virtual cameras in the interaction space | |
| US12141366B2 (en) | Gesture recognition system and method of using same | |
| CN111610858B (zh) | 基于虚拟现实的交互方法及装置 | |
| HK1239854A1 (zh) | 基於虚拟现实场景的输入方法及装置 | |
| HK1239854A (zh) | 基於虛擬現實場景的輸入方法及裝置 |