KR102522142B1 - Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture - Google Patents
Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture Download PDFInfo
- Publication number
- KR102522142B1 KR102522142B1 KR1020210087947A KR20210087947A KR102522142B1 KR 102522142 B1 KR102522142 B1 KR 102522142B1 KR 1020210087947 A KR1020210087947 A KR 1020210087947A KR 20210087947 A KR20210087947 A KR 20210087947A KR 102522142 B1 KR102522142 B1 KR 102522142B1
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- hand
- augmented reality
- reality device
- manipulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치로서, 제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부; 상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 포함하며, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부; 상기 손동작 검출부에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부; 및 상기 설정부의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부를 포함하며, 상기 좌측 손동작 및 우측 손동작은, 상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 따르면, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.The present invention relates to a wearable augmented reality device that inputs a manipulation signal using a gesture of both hands, and more specifically, to a wearable augmented reality device, comprising: a setting unit for setting gestures and manipulation events in correspondence with each other; a hand motion detection unit including proximity sensors mounted on both sides of the wearable augmented reality device and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor; a gesture detector detecting a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector; and a control unit extracting a manipulation event corresponding to the detected gesture according to a setting of the setting unit and controlling an augmented reality image according to the extracted manipulation event, wherein the left hand motion and the right hand motion are within the recognition range. It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. to be
According to the wearable augmented reality device for inputting a manipulation signal using a two-handed gesture and the method for operating the wearable augmented reality device using a two-handed gesture proposed in the present invention, a proximity sensor is mounted and the left hand motion and the right hand motion are within the recognition range. By detecting a gesture composed of a combination of and performing control according to a manipulation event corresponding to the detected gesture, real-time recognition can be quickly performed in an embedded state using a proximity sensor, and a simple operation using a combination of two hand gestures. It is possible to implement various functions with just one, and it is easy to learn and use with a manipulation method similar to the existing mouse input method by using manipulation events such as cursor movement, object selection and execution.
Description
본 발명은 착용형 증강현실 장치 및 착용형 증강현실 장치의 조작 방법에 관한 것으로서, 보다 구체적으로는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 관한 것이다.The present invention relates to a wearable augmented reality device and a method for operating the wearable augmented reality device, and more specifically, to a wearable augmented reality device for inputting a manipulation signal using a gesture of both hands and a wearable augmented reality device using a gesture of both hands. It's about how to operate.
디지털 디바이스의 경량화 및 소형화 추세에 따라 다양한 웨어러블 디바이스(wearable device)들이 개발되고 있다. 이러한 웨어러블 디바이스의 일종인 헤드 마운티드 디스플레이(Head Mounted Display)는 사용자가 머리에 착용하여 멀티미디어 컨텐츠 등을 제공받을 수 있는 각종 디바이스를 의미한다. 여기서 헤드 마운티드 디스플레이(HMD)는 사용자의 신체에 착용 되어 사용자가 이동함에 따라서 다양한 환경에서 사용자에게 영상을 제공하게 된다. 이러한 헤드 마운티드 디스플레이(HMD)는 투과(see-through)형과 밀폐(see-closed)형으로 구분되고 있으며, 투과형은 주로 증강현실(Augmented Reality, AR)용으로 사용되고, 밀폐형은 주로 가상현실(Virtual Reality, VR)용으로 사용되고 있다.Various wearable devices are being developed according to the trend of light weight and miniaturization of digital devices. A head mounted display, which is a kind of wearable device, refers to various devices that can be worn on a user's head to receive multimedia contents and the like. Here, the head mounted display (HMD) is worn on the user's body and provides images to the user in various environments as the user moves. Head-mounted displays (HMDs) are classified into see-through and see-closed types. The see-through type is mainly used for Augmented Reality (AR), and the closed type is mainly used for virtual reality (VR). reality, VR).
헤드 마운티드 디스플레이는 기존의 터치스크린과 같은 입력 방식을 사용하기 어려우므로, 사용자 상호작용을 위한 최적화된 입력 방식이 필요하다. 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 입력 방식으로, HMD에 구비된 버튼이나 HMD와 연결된 별도의 입력 장치, 제스처 인식 등이 있을 수 있다. 그중에서 제스처 인식은, 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 적합한 입력 방식이라고 할 수 있다.Since it is difficult to use an input method such as a conventional touch screen in a head-mounted display, an input method optimized for user interaction is required. As an input method that can be used in the augmented reality of the head-mounted display, there may be a button provided in the HMD, a separate input device connected to the HMD, or gesture recognition. Among them, gesture recognition can be said to be a suitable input method that can be used in augmented reality of a head-mounted display.
그러나 제스처를 이용하는 방식은 기존의 컴퓨터나 휴대 단말기 등의 입력 방식과는 전혀 달라서 사용자가 익히기 불편하고 여러 종류의 제스처를 기억하기 힘든 한계가 있다.However, the method using gestures is completely different from the input methods of existing computers or portable terminals, and thus has limitations in that it is inconvenient for users to learn and difficult to remember various types of gestures.
한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1700569호(발명의 명칭: 제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법, 등록일자: 2017년 01월 23일) 등이 개시된 바 있다.On the other hand, as a prior art related to the present invention, Patent Registration No. 10-1700569 (Title of Invention: HMD device capable of gesture-based user authentication and gesture-based user authentication method of the HMD device, registration date: January 2017 23), etc. have been disclosed.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법을 제공하는 것을 그 목적으로 한다.The present invention is proposed to solve the above problems of the previously proposed methods, and a proximity sensor is mounted, a gesture consisting of a combination of a left hand motion and a right hand motion is detected within a recognition range, and the detected gesture is responded to. By performing control according to the manipulation event that can be performed, it is possible to perform real-time recognition quickly in the embedded state using a proximity sensor, and since it uses a combination of two hand gestures, it is possible to implement various functions with simple actions, such as cursor movement, object selection and execution. A wearable augmented reality device that inputs a manipulation signal using two-handed gestures that can be easily learned and used in a manipulation method similar to the existing mouse input method using manipulation events such as and a method of operating the wearable augmented reality device using two-handed gestures It aims to provide
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치는,A wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to the features of the present invention for achieving the above object is,
착용형 증강현실 장치로서,As a wearable augmented reality device,
제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부;a setting unit that sets gestures and manipulation events in correspondence with each other;
상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 포함하며, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부;a hand motion detection unit including proximity sensors mounted on both sides of the wearable augmented reality device and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor;
상기 손동작 검출부에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부; 및a gesture detector detecting a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector; and
상기 설정부의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부를 포함하며,A control unit extracting a manipulation event corresponding to the detected gesture according to a setting of the setting unit and controlling an augmented reality image according to the extracted manipulation event;
상기 좌측 손동작 및 우측 손동작은,The left hand motion and the right hand motion,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. It is a structural feature.
바람직하게는, 상기 조작 이벤트는,Preferably, the manipulation event,
커서 이동, 객체 선택 및 실행 이벤트를 포함할 수 있다.It can include cursor movement, object selection, and execution events.
바람직하게는, 상기 손 모양은,Preferably, the hand shape is
손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나일 수 있다.It may be any one of a first shape in which a hand is spread out so that a palm is visible and a second shape in which a fist is clenched.
더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,
상기 인식범위 내에 손 부재로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion consisting of a hand member within the recognition range and the right hand motion consisting of the presence of a hand within the recognition range, the first shape, and the direction of the hand motion;
상기 제어부는,The control unit,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행할 수 있다.A movement event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control of moving a cursor by a predetermined amount in a direction of a hand movement constituting the right hand movement may be performed.
더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,
상기 인식범위 내에 손 존재, 상기 제1 모양으로 구성되는 상기 좌측 손동작과, 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the hand presence within the recognition range, the left hand motion consisting of the first shape, and the right hand motion consisting of the hand presence within the recognition range, the first shape, and the direction of the hand movement; ,
상기 제어부는,The control unit,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 상기 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행할 수 있다.A movement event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control may be performed to move a cursor while the left hand motion is maintained in the direction of the hand motion constituting the right hand motion.
더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,
상기 인식범위 내에 손 존재, 상기 제2 모양 및 상기 손의 존재 여부의 변화로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 부재로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion consisting of the presence of a hand within the recognition range, the second shape, and a change in whether the hand exists, and the right hand motion consisting of a hand member within the recognition range;
상기 제어부는,The control unit,
상기 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행할 수 있다.A selection event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control of selecting an object at a cursor position may be performed.
더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,
상기 인식범위 내에 손 존재, 상기 제2 모양 및 상기 손의 존재 여부의 변화로 각각 구성되는 상기 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion and the right hand motion, each composed of the presence of the hand within the recognition range, the second shape, and a change in the presence or absence of the hand;
상기 제어부는,The control unit,
상기 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행할 수 있다.An execution event, which is a manipulation event corresponding to the detected gesture, may be extracted, and control of executing an object located at a cursor position may be performed.
또한, 상기한 목적을 달성하기 위한 본 발명의 특징에 따른 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법은,In addition, a method for operating a wearable augmented reality device using a two-handed gesture according to the features of the present invention for achieving the above object is,
착용형 증강현실 장치의 조작 방법으로서,As a method of operating a wearable augmented reality device,
(1) 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계;(1) setting gestures and manipulation events in correspondence with each other;
(2) 상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 사용해, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계;(2) detecting a left hand gesture and a right hand gesture within a recognition range of the proximity sensor using proximity sensors mounted on both sides of the wearable augmented reality device;
(3) 상기 단계 (2)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계; 및(3) detecting a gesture composed of a combination of the left hand motion and the right hand motion using the left hand motion and the right hand motion detected in step (2); and
(4) 상기 단계 (1)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계를 포함하며,(4) extracting a manipulation event corresponding to the detected gesture according to the setting in step (1), and controlling an augmented reality image according to the extracted manipulation event;
상기 좌측 손동작 및 우측 손동작은,The left hand motion and the right hand motion,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. It is a structural feature.
본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 따르면, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.According to the wearable augmented reality device for inputting a manipulation signal using a two-handed gesture and the method for operating the wearable augmented reality device using a two-handed gesture proposed in the present invention, a proximity sensor is mounted and the left hand motion and the right hand motion are within the recognition range. By detecting a gesture composed of a combination of and performing control according to a manipulation event corresponding to the detected gesture, real-time recognition can be quickly performed in an embedded state using a proximity sensor, and a simple operation using a combination of two hand gestures. It is possible to implement various functions with just one, and it is easy to learn and use with a manipulation method similar to the existing mouse input method by using manipulation events such as cursor movement, object selection and execution.
도 1은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 정의된 제스처와 대응되는 조작 이벤트를 예를 들어 도시한 도면.
도 3 내지 도 6은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 제스처에 따른 증강현실 영상의 제어를 예를 들어 도시한 도면.
도 7은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 손동작 검출부의 세부적인 구성을 도시한 도면,
도 8은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치의 전체적인 구성을 도시한 도면.
도 9는 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법의 흐름을 도시한 도면.1 is a diagram showing the configuration of a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
2 is a view showing, for example, a manipulation event corresponding to a defined gesture in a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
3 to 6 are diagrams illustrating, for example, control of an augmented reality image according to a gesture in a wearable augmented reality device that inputs a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
7 is a diagram showing a detailed configuration of a hand motion detection unit in a wearable augmented reality device for inputting a manipulation signal using a gesture of both hands according to an embodiment of the present invention;
8 is a view showing the overall configuration of a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
9 is a flowchart illustrating a method of operating a wearable augmented reality device using a two-handed gesture according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise specified.
도 1은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 설정부(110), 손동작 검출부(120), 제스처 검출부(130) 및 제어부(400)를 포함하여 구성될 수 있다.1 is a diagram showing the configuration of a wearable
즉, 설정부(110), 손동작 검출부(120) 및 제스처 검출부(130)는 제스처 입력 장치(100)를 구성하고, 제스처 입력 장치(100)는 착용형 증강현실 장치(10)의 구성요소 중 하나로서, 제어부(400)에 검출된 제스처를 전달해 제스처에 따른 착용형 증강현실 장치(10)의 제어가 구현되도록 할 수 있다. 제스처 입력 장치(100)는, 착용형 증강현실 장치(10)상의 임베디드 환경에서 제스처를 검출할 수 있다.That is, the
여기서, 착용형 증강현실 장치(10)는 사용자의 머리 또는 두부에 착용 되며, 착용형 증강현실 장치(10)를 착용한 사용자가 광학계를 통해 투과되어 보이는 현실 세계와 디스플레이에서 출력되어 광학계를 통해 사용자의 동공으로 전달되는 영상 정보를 함께 제공받아 증강현실을 경험할 수 있도록 하는 장치일 수 있다. 여기서, 착용형 증강현실 장치(10)는 글라스형, 고글형 등 다양할 수 있으며, 사용자의 신체에 착용 되어 사용자의 시야를 통한 증강현실을 경험할 수 있도록 한다면 그 구체적인 형태나 종류와 관계없이 본 발명의 착용형 증강현실 장치(10)의 역할을 할 수 있다.Here, the wearable
본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 근접 센서(121)를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서(121)를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 손동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.The wearable
이하에서는, 도 1을 참조하여 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 각 구성에 대해 상세히 설명하도록 한다.Hereinafter, with reference to FIG. 1 , each component of the wearable
설정부(110)는, 제스처와 조작 이벤트를 상호 대응하여 설정할 수 있다. 여기서, 제스처는 좌측 손동작 및 우측 손동작의 조합으로 구성되며, 좌측 손동작 및 우측 손동작은, 근접 센서(121)의 인식범위 내에 손의 존재 여부를 포함하며, 인식범위 내에 존재하는 손의 손 모양, 손의 존재 여부의 변화 및 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의될 수 있다. 이때, 손의 존재 여부의 변화나 인식범위 내에서의 손 움직임은 미리 정해진 시간 동안의 변화로 검출될 수 있다.The
도 2는 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 정의된 제스처와 대응되는 조작 이벤트를 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 설정부(110)는, 서로 대응되는 제스처와 조작 이벤트를 테이블로 저장할 수 있다. 여기서, 손 모양은, 손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나일 수 있다.2 is a diagram showing, for example, a manipulation event corresponding to a defined gesture in the wearable
또한, 조작 이벤트는, 커서 이동, 객체 선택 및 실행 이벤트를 포함할 수 있다. 즉, 커서 이동, 객체 선택, 실행 등과 같이 실제 데스크탑 등에서 마우스를 조작할 때와 유사한 커서 이동과 클릭, 더블클릭 등으로 조작 이벤트를 설정함으로써, 사용자가 다양한 제스처에 따른 조작 이벤트를 별도로 학습하거나 암기할 필요 없이, 몇 개의 단순한 손동작만으로 제스처와 조작 이벤트의 관계를 파악하고 쉽게 사용할 수 있다.Also, manipulation events may include cursor movement, object selection, and execution events. That is, by setting operation events such as cursor movement, click, double-click, etc. similar to mouse operation on the actual desktop, such as cursor movement, object selection, and execution, the user can separately learn or memorize operation events according to various gestures. No need, just a few simple hand gestures, you can understand the relationship between gestures and manipulation events and use them easily.
손동작 검출부(120)는, 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 포함하며, 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출할 수 있다. 즉, 손동작 검출부(120)는 근접 센서(121)를 사용해 양손의 손동작을 인식하는 구성으로, 여기서 근접 센서(121)는, 광전식 근접각 센서(photoelectric proximity sensor), 정전용량형 근접각 센서(capacitive proximity sensor) 및 초음파 근접각 센서(ultrasonic proximity sensor) 중 적어도 하나일 수 있다.The hand
도 3 내지 도 6은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 제스처에 따른 증강현실 영상의 제어를 예를 들어 도시한 도면이다. 도 3 내지 도 6에 도시된 바와 같이, 손동작 검출부(120)는, 좌측 손동작을 검출하는 좌측 근접 센서(121a) 및 우측 손동작을 검출하는 우측 근접 센서(121b)를 포함할 수 있다. 사용자는 착용형 증강현실 장치(10)를 착용한 상태에서 얼굴 옆의 귀 앞쪽에 있는 근접 센서(121)에 손을 가져다 대는 좌, 우 손동작의 조합으로 제스처를 입력할 수 있다.3 to 6 are diagrams illustrating, for example, control of an augmented reality image according to a gesture in the wearable
도 7은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 손동작 검출부(120)의 세부적인 구성을 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 손동작 검출부(120)는, 근접 센서(121) 외에도, 근접 센서(121)를 사용해 제스처 입력을 활성화하는 근접 스위치(122) 및 제스처 입력이 활성화되면, 손 모양 및/또는 손 움직임을 인식하는 동작 인식 모듈(123)을 더 포함하여 구성될 수 있다.FIG. 7 is a diagram showing a detailed configuration of the hand
즉, 사용자가 착용형 증강현실 장치(10) 측면의 근접 센서(121)에 손을 가까이 가져가면 근접 스위치(122)에 의해 제스처 입력 모드가 활성화되며, 제스처 입력 모드에서 근접 센서(121)가 손의 존재 여부, 손의 존재 여부의 변화를 인식하며, 동작 인식 모듈(123)이 손 모양과 손 움직임을 인식할 수 있다.That is, when the user brings his hand close to the
보다 구체적으로, 동작 인식 모듈(123)은, 근접 센서(121)에서 조사된 광의 반사 정도에 기초해 손 모양 및/또는 손 움직임을 인식할 수 있다. 근접 센서(121)만으로 손동작을 인식하는 경우 추가 센서 없이 임베디드 환경에서도 빠르게 처리가 가능하며, 근접 센서(121)에 의한 효율적이고 정확한 손 모양 검출을 위해 복잡한 손의 모양이 아닌, 손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양으로 제스처를 구성할 수 있다.More specifically, the
실시예에 따라서, 동작 인식 모듈(123)은, 손 영상을 촬영하는 측면 카메라를 사용해, 측면 카메라에서 촬영된 손 영상을 처리해 손 모양 및/또는 손 움직임을 인식할 수도 있다. 즉, 영상 처리 기술을 사용해 제스처 입력 모드에서 촬영된 손 영상을 분석해 손 모양과 손 움직임의 방향 등을 정확하게 검출할 수 있다. 이때, 영상 처리 기술은 서버와의 통신 등으로 처리될 수 있다. 이와 같이 영상 처리 기술을 사용하면 근접 센서(121)의 정확성 한계를 극복하고 정확한 손 모양과 손 움직임 방향 등을 검출할 수 있다.According to embodiments, the
제스처 검출부(130)는, 손동작 검출부(120)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다.The
제어부(400)는, 설정부(110)의 설정에 따라 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행할 수 있다.The
이하에서는, 도 3 내지 도 6을 참고하여, 도 2에 도시된 바와 같이 상호 대응하여 설정된 제스처와 조작 이벤트에 의한 증강현실 영상의 제어를 예를 들어 상세히 설명하도록 한다.Hereinafter, with reference to FIGS. 3 to 6 , as shown in FIG. 2 , control of an augmented reality image by gestures and manipulation events set in correspondence with each other will be described in detail as an example.
도 3에 도시된 바와 같은 커서 이동 중 기본 이동을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 부재로 구성되는 좌측 손동작과 인식범위 내에 손 존재, 제1 모양 및 손 움직임의 방향으로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행할 수 있다. 즉, 좌측 손은 인식범위 바깥에 위치하고(좌측 손동작), 우측 손은 손바닥이 보이도록 펴고 모아서(제1 모양) 착용형 증강현실 장치(10)의 우측면(우측 근접 센서(121b)의 인식범위)에 위치시키고 커서를 이동하고자 하는 방향으로 한 번씩 움직이는(우측 손동작) 제스처가 검출되면, 증강현실 화면상에서 커서가 우측 손 움직임 방향에 맞게 미리 정해진 픽셀 수만큼 이동하고 정지할 수 있다.For the basic movement of the cursor movement as shown in FIG. 3, the
도 4에 도시된 바와 같은 커서 이동 중 복합 이동을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제1 모양으로 구성되는 좌측 손동작과, 인식범위 내에 손 존재, 제1 모양 및 손 움직임의 방향으로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 우측 손동작을 구성하는 손 움직임의 방향으로 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행할 수 있다. 즉, 도 4에 도시된 커서 기본 이동을 기본으로 하되, 좌측 손도 우측과 같은 제1 모양으로 착용형 증강현실 장치(10)의 좌측면(좌측 근접 센서(121a)의 인식범위)에 위치시키고 좌측 손은 움직임 없는 상태를 유지하고, 우측 손동작만 커서 기본 이동 방식에 따른 제스처가 검출되면, 증강현실 화면상에서 커서가 우측 손 움직임 방향에 맞게 좌측 손이 유지되는 동안 입력된 방향으로 화면 가장자리에 커서가 닿을 때까지 커서를 이동시킬 수 있다. 또한, 커서 이동 중에 우측 손의 움직임의 방향이 달라지면 해당 방향으로 커서 방향을 이동할 수 있고, 커서 이동 중에 좌측 손이 센서 인식범위 밖으로 사라질 경우 이동 중인 커서는 이동을 중지할 수 있다.For compound movement among cursor movements as shown in FIG. 4 , the
도 5에 도시된 바와 같은 객체 선택을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제2 모양 및 손의 존재 여부의 변화로 구성되는 좌측 손동작과 인식범위 내에 손 부재로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행할 수 있다. 즉, 도 5에 도시된 바와 같이, 우측 손은 인식범위 바깥에 위치하고(우측 손동작), 좌측 손은 주먹을 쥔 모양으로(제2 모양) 착용형 증강현실 장치(10)의 좌측면(좌측 근접 센서(121a)의 인식범위)에 위치시키고, 주먹 쥔 손을 인식범위 내에서 인식범위 밖으로 움직이는(손의 움직임) 제스처가 검출되면, 증강현실 화면상에서 커서의 현 위치에서 선택 입력을 입력받을 수 있다. 이러한 객체 선택과 대응되는 조작 이벤트는, 커서의 현 위치에서 선택 입력, 창을 선택하거나 앱 아이콘이 선택되는 등의 마우스 원 클릭의 기능을 할 수 있다.For object selection as shown in FIG. 5 , the
도 6에 도시된 바와 같은 객체 실행을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제2 모양 및 손의 존재 여부의 변화로 각각 구성되는 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행할 수 있다. 즉, 도 6에 도시된 바와 같이, 양쪽 손이 모두 제2 모양으로 인식범위를 벗어났다가 다시 돌아오는 제스처가 검출되면, 증강현실 화면상에서 커서의 현 위치에 대응되는 조작 이벤트는, 창(windows)을 닫거나 열기, 앱 아이콘 실행 등의 마우스 더블 클릭의 기능을 할 수 있다.In order to execute the object as shown in FIG. 6 , the
도 8은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 전체적인 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 제스처 입력 장치(100) 및 제어부(400)를 포함하여 구성될 수 있으며, HMD 프레임(200), 광학 디스플레이부(300), GPS 모듈(500), 카메라(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.8 is a diagram showing the overall configuration of the wearable
HMD 프레임(200)은, 사용자가 머리나 두부에 착용할 수 있는 착용형 증강현실 장치(10)의 프레임 구성이다. 이러한 HMD 프레임(200)은, 사용자가 머리에 착용한 상태에서 빛이 들어올 수 있는 프레임 구조를 갖는 헬멧(helmet) 형태 또는 고글(goggles) 형태로 구성될 수 있다. 여기서, HMD 프레임(200)이 헬멧 형태로 이루어지는 경우, 사용자의 머리에 착용되는 헬멧(미도시)과 헬멧의 전방에 배치되는 디스플레이 프레임(미도시) 구조로 구성될 수 있다. 또한, HMD 프레임(200)(200)이 고글 형태로 구성되는 경우, 사용자의 머리에 착용될 수 있는 밴드 프레임(미도시)과, 밴드 프레임에 체결 고정되는 고글 프레임(미도시) 구조로 구성될 수 있다.The
광학 디스플레이부(300)는, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실 또는 혼합현실을 제공할 수 있다. 즉, 광학 디스플레이부(300)는 착용형 증강현실 장치(10)의 AR, VR 또는 MR 글라스에 해당하는 구성으로서, 영상 정보가 착용자에게 제공될 수 있도록 영상 광을 출력하는 OLED 등의 디스플레이 및 착용형 증강현실 장치(10)를 착용한 착용자의 양안의 전방에 배치되어 실제 세계의 광과 영상 광의 결합에 의한 증강현실을 제공하는 광학계를 포함하여 구성될 수 있다. 또한, 광학계는 복수의 렌즈와 미러 등으로 구성되며 다양한 방식으로 구현될 수 있는데, 예를 들어 광학 회절 방식, 빔 스플리터 방식, 핀 미러 방식 등으로 구현될 수 있다.The
GPS 모듈(500)은 사용자의 위치 정보를 제공하고, 카메라(600)는 사용자가 바라보는 시선 방향의 영상을 촬영할 수 있다. 제어부(400)는, GPS 모듈(500), 카메라(600), 그 외 각종 센서에서 수집한 정보에 기초하여, 사용자에게 제공할 영상 정보를 생성해 디스플레이로 전송되도록 제어함으로써, 사용자가 증강현실을 통해 외부 환경에 대한 추가 정보 등을 최적화된 화면으로 전달받도록 할 수 있다.The
센서부(700)는, 적어도 하나 이상의 센서를 포함할 수 있으며, 보다 구체적으로 홍채 인식 센서 등을 포함할 수 있다. 실시예에 따라서, 사용자가 착용형 중강현실 장치(10)를 착용하고 사용자 인증을 하면, 제어부(400)는 각 사용자에 따라 저장된 조도, IPD(Inter-Pupillary Distance), 입력 인터페이스 등 여러 가지 설정 내용을 자동으로 적용할 수도 있다. 이때, 사용자 인증은 센서부(700)에 포함된 홍채 인식 센서 등을 사용할 수 있다.The
통신부(800)는, 착용형 증강현실 장치(10)의 일측에 설치되며, 다른 착용형 증강현실 장치(10)나 서버 등과 각종 신호 및 데이터를 송수신할 수 있다. 여기서, 통신부(800)가 사용하는 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5G(3/4/5th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The
도 9는 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법의 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법은, 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계(S110), 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 사용해, 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계(S120), 단계 S120에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계(S130), 및 단계 S110의 설정에 따라 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계(S140)를 포함하여 구현될 수 있다.9 is a flow diagram illustrating a method of operating the wearable
각각의 단계들과 관련된 상세한 내용들은, 앞서 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)와 관련하여 충분히 설명되었으므로, 상세한 설명은 생략하기로 한다.Since the details related to each step have been sufficiently described in relation to the wearable
전술한 바와 같이, 본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10) 및 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법에 따르면, 근접 센서(121)를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서(121)를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.As described above, according to the wearable
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be variously modified or applied by those skilled in the art to which the present invention belongs, and the scope of the technical idea according to the present invention should be defined by the claims below.
10: 착용형 증강현실 장치
100: 제스처 입력 장치
110: 설정부
120: 손동작 검출부
121: 근접 센서
122: 근접 스위치
123: 동작 인식 모듈
130: 제스처 검출부
200: HMD 프레임
300: 광학 디스플레이부
400: 제어부
500: GPS 모듈
600: 카메라
700: 센서부
800: 통신부
S110: 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계
S120: 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계
S130: 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계
S140: 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계10: wearable augmented reality device
100: gesture input device
110: setting unit
120: hand motion detector
121: proximity sensor
122 proximity switch
123: motion recognition module
130: gesture detection unit
200: HMD frame
300: optical display unit
400: control unit
500: GPS module
600: camera
700: sensor unit
800: communication department
S110: Setting gestures and manipulation events in correspondence with each other
S120: Detecting left hand gestures and right hand gestures within the recognition range of the proximity sensor
S130: Detecting a gesture composed of a combination of a left hand motion and a right hand motion
S140: Extracting a manipulation event corresponding to the detected gesture and performing control of the augmented reality image according to the extracted manipulation event
Claims (8)
제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부(110);
상기 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 포함하며, 상기 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부(120);
상기 손동작 검출부(120)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부(130); 및
상기 설정부(110)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부(400)를 포함하며,
상기 좌측 손동작 및 우측 손동작은,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 손이 존재하면, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
As a wearable augmented reality device 10,
a setting unit 110 that sets gestures and manipulation events in correspondence with each other;
A hand motion detection unit 120 including proximity sensors 121 mounted on both sides of the wearable augmented reality device 10 and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor 121;
a gesture detector 130 that detects a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector 120; and
A control unit 400 extracting a manipulation event corresponding to the detected gesture according to the setting of the setting unit 110 and controlling an augmented reality image according to the extracted manipulation event,
The left hand motion and the right hand motion,
It includes whether the hand exists within the recognition range, and if the hand exists within the recognition range, at least one of a hand shape of the hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. A wearable augmented reality device 10 that inputs a manipulation signal using a two-handed gesture, characterized in that it is defined by combining one more.
커서 이동, 객체 선택 및 실행 이벤트를 포함하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 1, wherein the manipulation event,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that it includes cursor movement, object selection, and execution events.
손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나인 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 1, wherein the hand shape,
A wearable augmented reality device 10 that inputs a manipulation signal using a two-handed gesture, characterized in that any one of a first shape in which the hand is open so that the palm is visible and a second shape in which the fist is clenched.
상기 인식범위 내에 손 부재로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion consisting of a hand member within the recognition range and the right hand motion consisting of the presence of a hand within the recognition range, the first shape, and the direction of the hand motion;
The controller 400,
Extracting a movement event, which is a manipulation event corresponding to the detected gesture, and performing control to move a cursor by a predetermined amount in the direction of the hand movement constituting the right hand gesture, characterized in that, a manipulation signal using a two-handed gesture Wearable augmented reality device 10 to input.
상기 인식범위 내에 손 존재, 상기 제1 모양으로 구성되는 상기 좌측 손동작과, 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 상기 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the hand presence within the recognition range, the left hand motion consisting of the first shape, and the right hand motion consisting of the hand presence within the recognition range, the first shape, and the direction of the hand movement; ,
The controller 400,
A two-handed gesture characterized by extracting a movement event, which is a manipulation event corresponding to the detected gesture, and performing control to move a cursor while the left hand gesture is maintained in the direction of the hand movement constituting the right hand gesture. A wearable augmented reality device 10 that inputs a manipulation signal using.
상기 인식범위 내에 존재하는 손의 상기 제2 모양 및 상기 손의 존재 여부의 변화로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 부재로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion consisting of the second shape of a hand existing within the recognition range and a change in the presence or absence of the hand and the right hand motion consisting of a hand member within the recognition range;
The controller 400,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that a selection event, which is a manipulation event corresponding to the detected gesture, is extracted and control for selecting an object at a cursor position is performed.
상기 인식범위 내에 존재하는 손의 상기 제2 모양 및 상기 손의 존재 여부의 변화로 각각 구성되는 상기 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion and the right hand motion each composed of the second shape of a hand existing within the recognition range and a change in whether the hand exists,
The controller 400,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that an execution event, which is a manipulation event corresponding to the detected gesture, is extracted and a control for executing an object at a cursor position is performed.
(1) 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계;
(2) 상기 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 사용해, 상기 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계;
(3) 상기 단계 (2)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계; 및
(4) 상기 단계 (1)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계를 포함하며,
상기 좌측 손동작 및 우측 손동작은,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 손이 존재하면, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 특징으로 하는, 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법.As a method of operating the wearable augmented reality device 10,
(1) setting gestures and manipulation events in correspondence with each other;
(2) detecting a left hand gesture and a right hand gesture within a recognition range of the proximity sensor 121 using the proximity sensors 121 mounted on both sides of the wearable augmented reality device 10;
(3) detecting a gesture composed of a combination of the left hand motion and the right hand motion using the left hand motion and the right hand motion detected in step (2); and
(4) extracting a manipulation event corresponding to the detected gesture according to the setting in step (1), and controlling an augmented reality image according to the extracted manipulation event;
The left hand motion and the right hand motion,
It includes whether the hand exists within the recognition range, and if the hand exists within the recognition range, at least one of the hand shape of the hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. A method of operating the wearable augmented reality device 10 using a two-handed gesture, characterized in that defined by combining one more.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210087947A KR102522142B1 (en) | 2021-07-05 | 2021-07-05 | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210087947A KR102522142B1 (en) | 2021-07-05 | 2021-07-05 | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230007109A KR20230007109A (en) | 2023-01-12 |
KR102522142B1 true KR102522142B1 (en) | 2023-04-17 |
Family
ID=84923741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210087947A Active KR102522142B1 (en) | 2021-07-05 | 2021-07-05 | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102522142B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20250067494A (en) | 2023-11-08 | 2025-05-15 | 백석대학교산학협력단 | User Interface System and Method Using Hand Gesture Recognition and Face Verification |
KR20250104960A (en) | 2023-12-29 | 2025-07-08 | 백석대학교산학협력단 | User interface system using facial gesture recognition based on camera vision and method therefor |
KR20250109089A (en) | 2024-01-09 | 2025-07-16 | 백석대학교산학협력단 | System for user interface using facial gesture recognition and face verification and method therefor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN120104010A (en) * | 2025-05-09 | 2025-06-06 | 北京虹宇科技有限公司 | Multiple selection method and device in three-dimensional space |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100687737B1 (en) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | Virtual Mouse Device and Method Based on Two-Hand Gesture |
KR102147430B1 (en) * | 2013-10-07 | 2020-08-24 | 한국전자통신연구원 | virtual multi-touch interaction apparatus and method |
KR20150118377A (en) * | 2014-04-14 | 2015-10-22 | 고려대학교 산학협력단 | Information inputting system and method by movements of finger |
KR102303115B1 (en) * | 2014-06-05 | 2021-09-16 | 삼성전자 주식회사 | Method For Providing Augmented Reality Information And Wearable Device Using The Same |
KR102379245B1 (en) * | 2019-04-30 | 2022-03-28 | 치루 유니버시티 오브 테크놀로지 | Wearable device-based mobile robot control system and control method |
-
2021
- 2021-07-05 KR KR1020210087947A patent/KR102522142B1/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20250067494A (en) | 2023-11-08 | 2025-05-15 | 백석대학교산학협력단 | User Interface System and Method Using Hand Gesture Recognition and Face Verification |
KR20250104960A (en) | 2023-12-29 | 2025-07-08 | 백석대학교산학협력단 | User interface system using facial gesture recognition based on camera vision and method therefor |
KR20250109089A (en) | 2024-01-09 | 2025-07-16 | 백석대학교산학협력단 | System for user interface using facial gesture recognition and face verification and method therefor |
Also Published As
Publication number | Publication date |
---|---|
KR20230007109A (en) | 2023-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102522142B1 (en) | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture | |
US12099653B2 (en) | User interface response based on gaze-holding event assessment | |
US9442567B2 (en) | Gaze swipe selection | |
CN108170279B (en) | Eye movement and head movement interaction method of head display equipment | |
US20160224123A1 (en) | Method and system to control electronic devices through gestures | |
CN102779000B (en) | User interaction system and method | |
US20150143283A1 (en) | Information processing device, display control method, and program | |
CN104298340B (en) | Control method and electronic equipment | |
US20150002475A1 (en) | Mobile device and method for controlling graphical user interface thereof | |
KR20150091322A (en) | Multi-touch interactions on eyewear | |
JP2016208370A (en) | Head mounted display and method for controlling head mounted display | |
JP2001154794A (en) | Pointing device with click function by blink | |
CN104281266A (en) | Head-mounted display equipment | |
EP3617851B1 (en) | Information processing device, information processing method, and recording medium | |
CN108369451B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US20250199623A1 (en) | Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments | |
CN104077784A (en) | Method for extracting target object and electronic device | |
US20240126377A1 (en) | Personalized calibration of user interfaces | |
US20180143436A1 (en) | Head-operated digital eyeglasses | |
KR102633495B1 (en) | Method of operating an app library through recognition of wrist and trigger gesture and head-mounted display apparatus in which the app library operates | |
KR102636996B1 (en) | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition | |
KR102539045B1 (en) | Dashboard control apparatus and method for wearable augmented reality device | |
CN207249604U (en) | The digital glasses of head operation | |
US20250264973A1 (en) | Contextual interfaces for 3d environments | |
US20250238110A1 (en) | Shape-based graphical indications of interaction events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |