[go: up one dir, main page]

KR102522142B1 - Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture - Google Patents

Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture Download PDF

Info

Publication number
KR102522142B1
KR102522142B1 KR1020210087947A KR20210087947A KR102522142B1 KR 102522142 B1 KR102522142 B1 KR 102522142B1 KR 1020210087947 A KR1020210087947 A KR 1020210087947A KR 20210087947 A KR20210087947 A KR 20210087947A KR 102522142 B1 KR102522142 B1 KR 102522142B1
Authority
KR
South Korea
Prior art keywords
gesture
hand
augmented reality
reality device
manipulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210087947A
Other languages
Korean (ko)
Other versions
KR20230007109A (en
Inventor
최치원
이취희
Original Assignee
주식회사 피앤씨솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피앤씨솔루션 filed Critical 주식회사 피앤씨솔루션
Priority to KR1020210087947A priority Critical patent/KR102522142B1/en
Publication of KR20230007109A publication Critical patent/KR20230007109A/en
Application granted granted Critical
Publication of KR102522142B1 publication Critical patent/KR102522142B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치로서, 제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부; 상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 포함하며, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부; 상기 손동작 검출부에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부; 및 상기 설정부의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부를 포함하며, 상기 좌측 손동작 및 우측 손동작은, 상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 따르면, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.
The present invention relates to a wearable augmented reality device that inputs a manipulation signal using a gesture of both hands, and more specifically, to a wearable augmented reality device, comprising: a setting unit for setting gestures and manipulation events in correspondence with each other; a hand motion detection unit including proximity sensors mounted on both sides of the wearable augmented reality device and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor; a gesture detector detecting a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector; and a control unit extracting a manipulation event corresponding to the detected gesture according to a setting of the setting unit and controlling an augmented reality image according to the extracted manipulation event, wherein the left hand motion and the right hand motion are within the recognition range. It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. to be
According to the wearable augmented reality device for inputting a manipulation signal using a two-handed gesture and the method for operating the wearable augmented reality device using a two-handed gesture proposed in the present invention, a proximity sensor is mounted and the left hand motion and the right hand motion are within the recognition range. By detecting a gesture composed of a combination of and performing control according to a manipulation event corresponding to the detected gesture, real-time recognition can be quickly performed in an embedded state using a proximity sensor, and a simple operation using a combination of two hand gestures. It is possible to implement various functions with just one, and it is easy to learn and use with a manipulation method similar to the existing mouse input method by using manipulation events such as cursor movement, object selection and execution.

Description

양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법{WEARABLE AUGMENTED REALITY DEVICE THAT INPUTS OPERATION SIGNAL USING A TWO-HANDED GESTURE AND METHOD OF OPERATING A WEARABLE AUGMENTED REALITY DEVICE USING A TWO-HANDED GESTURE}A wearable augmented reality device inputting a manipulation signal using both hand gestures and a method of operating the wearable augmented reality device using both hand gestures DEVICE USING A TWO-HANDED GESTURE}

본 발명은 착용형 증강현실 장치 및 착용형 증강현실 장치의 조작 방법에 관한 것으로서, 보다 구체적으로는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 관한 것이다.The present invention relates to a wearable augmented reality device and a method for operating the wearable augmented reality device, and more specifically, to a wearable augmented reality device for inputting a manipulation signal using a gesture of both hands and a wearable augmented reality device using a gesture of both hands. It's about how to operate.

디지털 디바이스의 경량화 및 소형화 추세에 따라 다양한 웨어러블 디바이스(wearable device)들이 개발되고 있다. 이러한 웨어러블 디바이스의 일종인 헤드 마운티드 디스플레이(Head Mounted Display)는 사용자가 머리에 착용하여 멀티미디어 컨텐츠 등을 제공받을 수 있는 각종 디바이스를 의미한다. 여기서 헤드 마운티드 디스플레이(HMD)는 사용자의 신체에 착용 되어 사용자가 이동함에 따라서 다양한 환경에서 사용자에게 영상을 제공하게 된다. 이러한 헤드 마운티드 디스플레이(HMD)는 투과(see-through)형과 밀폐(see-closed)형으로 구분되고 있으며, 투과형은 주로 증강현실(Augmented Reality, AR)용으로 사용되고, 밀폐형은 주로 가상현실(Virtual Reality, VR)용으로 사용되고 있다.Various wearable devices are being developed according to the trend of light weight and miniaturization of digital devices. A head mounted display, which is a kind of wearable device, refers to various devices that can be worn on a user's head to receive multimedia contents and the like. Here, the head mounted display (HMD) is worn on the user's body and provides images to the user in various environments as the user moves. Head-mounted displays (HMDs) are classified into see-through and see-closed types. The see-through type is mainly used for Augmented Reality (AR), and the closed type is mainly used for virtual reality (VR). reality, VR).

헤드 마운티드 디스플레이는 기존의 터치스크린과 같은 입력 방식을 사용하기 어려우므로, 사용자 상호작용을 위한 최적화된 입력 방식이 필요하다. 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 입력 방식으로, HMD에 구비된 버튼이나 HMD와 연결된 별도의 입력 장치, 제스처 인식 등이 있을 수 있다. 그중에서 제스처 인식은, 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 적합한 입력 방식이라고 할 수 있다.Since it is difficult to use an input method such as a conventional touch screen in a head-mounted display, an input method optimized for user interaction is required. As an input method that can be used in the augmented reality of the head-mounted display, there may be a button provided in the HMD, a separate input device connected to the HMD, or gesture recognition. Among them, gesture recognition can be said to be a suitable input method that can be used in augmented reality of a head-mounted display.

그러나 제스처를 이용하는 방식은 기존의 컴퓨터나 휴대 단말기 등의 입력 방식과는 전혀 달라서 사용자가 익히기 불편하고 여러 종류의 제스처를 기억하기 힘든 한계가 있다.However, the method using gestures is completely different from the input methods of existing computers or portable terminals, and thus has limitations in that it is inconvenient for users to learn and difficult to remember various types of gestures.

한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1700569호(발명의 명칭: 제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법, 등록일자: 2017년 01월 23일) 등이 개시된 바 있다.On the other hand, as a prior art related to the present invention, Patent Registration No. 10-1700569 (Title of Invention: HMD device capable of gesture-based user authentication and gesture-based user authentication method of the HMD device, registration date: January 2017 23), etc. have been disclosed.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법을 제공하는 것을 그 목적으로 한다.The present invention is proposed to solve the above problems of the previously proposed methods, and a proximity sensor is mounted, a gesture consisting of a combination of a left hand motion and a right hand motion is detected within a recognition range, and the detected gesture is responded to. By performing control according to the manipulation event that can be performed, it is possible to perform real-time recognition quickly in the embedded state using a proximity sensor, and since it uses a combination of two hand gestures, it is possible to implement various functions with simple actions, such as cursor movement, object selection and execution. A wearable augmented reality device that inputs a manipulation signal using two-handed gestures that can be easily learned and used in a manipulation method similar to the existing mouse input method using manipulation events such as and a method of operating the wearable augmented reality device using two-handed gestures It aims to provide

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치는,A wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to the features of the present invention for achieving the above object is,

착용형 증강현실 장치로서,As a wearable augmented reality device,

제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부;a setting unit that sets gestures and manipulation events in correspondence with each other;

상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 포함하며, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부;a hand motion detection unit including proximity sensors mounted on both sides of the wearable augmented reality device and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor;

상기 손동작 검출부에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부; 및a gesture detector detecting a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector; and

상기 설정부의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부를 포함하며,A control unit extracting a manipulation event corresponding to the detected gesture according to a setting of the setting unit and controlling an augmented reality image according to the extracted manipulation event;

상기 좌측 손동작 및 우측 손동작은,The left hand motion and the right hand motion,

상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. It is a structural feature.

바람직하게는, 상기 조작 이벤트는,Preferably, the manipulation event,

커서 이동, 객체 선택 및 실행 이벤트를 포함할 수 있다.It can include cursor movement, object selection, and execution events.

바람직하게는, 상기 손 모양은,Preferably, the hand shape is

손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나일 수 있다.It may be any one of a first shape in which a hand is spread out so that a palm is visible and a second shape in which a fist is clenched.

더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,

상기 인식범위 내에 손 부재로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion consisting of a hand member within the recognition range and the right hand motion consisting of the presence of a hand within the recognition range, the first shape, and the direction of the hand motion;

상기 제어부는,The control unit,

상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행할 수 있다.A movement event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control of moving a cursor by a predetermined amount in a direction of a hand movement constituting the right hand movement may be performed.

더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,

상기 인식범위 내에 손 존재, 상기 제1 모양으로 구성되는 상기 좌측 손동작과, 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the hand presence within the recognition range, the left hand motion consisting of the first shape, and the right hand motion consisting of the hand presence within the recognition range, the first shape, and the direction of the hand movement; ,

상기 제어부는,The control unit,

상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 상기 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행할 수 있다.A movement event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control may be performed to move a cursor while the left hand motion is maintained in the direction of the hand motion constituting the right hand motion.

더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,

상기 인식범위 내에 손 존재, 상기 제2 모양 및 상기 손의 존재 여부의 변화로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 부재로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion consisting of the presence of a hand within the recognition range, the second shape, and a change in whether the hand exists, and the right hand motion consisting of a hand member within the recognition range;

상기 제어부는,The control unit,

상기 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행할 수 있다.A selection event, which is a manipulation event corresponding to the detected gesture, may be extracted, and a control of selecting an object at a cursor position may be performed.

더욱 바람직하게는, 상기 제스처 검출부는,More preferably, the gesture detection unit,

상기 인식범위 내에 손 존재, 상기 제2 모양 및 상기 손의 존재 여부의 변화로 각각 구성되는 상기 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출하고,Detecting a gesture composed of a combination of the left hand motion and the right hand motion, each composed of the presence of the hand within the recognition range, the second shape, and a change in the presence or absence of the hand;

상기 제어부는,The control unit,

상기 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행할 수 있다.An execution event, which is a manipulation event corresponding to the detected gesture, may be extracted, and control of executing an object located at a cursor position may be performed.

또한, 상기한 목적을 달성하기 위한 본 발명의 특징에 따른 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법은,In addition, a method for operating a wearable augmented reality device using a two-handed gesture according to the features of the present invention for achieving the above object is,

착용형 증강현실 장치의 조작 방법으로서,As a method of operating a wearable augmented reality device,

(1) 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계;(1) setting gestures and manipulation events in correspondence with each other;

(2) 상기 착용형 증강현실 장치의 양 측면에 탑재된 근접 센서를 사용해, 상기 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계;(2) detecting a left hand gesture and a right hand gesture within a recognition range of the proximity sensor using proximity sensors mounted on both sides of the wearable augmented reality device;

(3) 상기 단계 (2)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계; 및(3) detecting a gesture composed of a combination of the left hand motion and the right hand motion using the left hand motion and the right hand motion detected in step (2); and

(4) 상기 단계 (1)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계를 포함하며,(4) extracting a manipulation event corresponding to the detected gesture according to the setting in step (1), and controlling an augmented reality image according to the extracted manipulation event;

상기 좌측 손동작 및 우측 손동작은,The left hand motion and the right hand motion,

상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 그 구성상의 특징으로 한다.It includes the presence or absence of a hand within the recognition range, and is defined by further combining at least one of a hand shape of a hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. It is a structural feature.

본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법에 따르면, 근접 센서를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.According to the wearable augmented reality device for inputting a manipulation signal using a two-handed gesture and the method for operating the wearable augmented reality device using a two-handed gesture proposed in the present invention, a proximity sensor is mounted and the left hand motion and the right hand motion are within the recognition range. By detecting a gesture composed of a combination of and performing control according to a manipulation event corresponding to the detected gesture, real-time recognition can be quickly performed in an embedded state using a proximity sensor, and a simple operation using a combination of two hand gestures. It is possible to implement various functions with just one, and it is easy to learn and use with a manipulation method similar to the existing mouse input method by using manipulation events such as cursor movement, object selection and execution.

도 1은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 정의된 제스처와 대응되는 조작 이벤트를 예를 들어 도시한 도면.
도 3 내지 도 6은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 제스처에 따른 증강현실 영상의 제어를 예를 들어 도시한 도면.
도 7은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치에서, 손동작 검출부의 세부적인 구성을 도시한 도면,
도 8은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치의 전체적인 구성을 도시한 도면.
도 9는 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법의 흐름을 도시한 도면.
1 is a diagram showing the configuration of a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
2 is a view showing, for example, a manipulation event corresponding to a defined gesture in a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
3 to 6 are diagrams illustrating, for example, control of an augmented reality image according to a gesture in a wearable augmented reality device that inputs a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
7 is a diagram showing a detailed configuration of a hand motion detection unit in a wearable augmented reality device for inputting a manipulation signal using a gesture of both hands according to an embodiment of the present invention;
8 is a view showing the overall configuration of a wearable augmented reality device for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention.
9 is a flowchart illustrating a method of operating a wearable augmented reality device using a two-handed gesture according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise specified.

도 1은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 설정부(110), 손동작 검출부(120), 제스처 검출부(130) 및 제어부(400)를 포함하여 구성될 수 있다.1 is a diagram showing the configuration of a wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention. As shown in FIG. 1, the wearable augmented reality device 10 for inputting a manipulation signal using a gesture of both hands according to an embodiment of the present invention includes a setting unit 110, a hand motion detection unit 120, a gesture detection unit ( 130) and the controller 400.

즉, 설정부(110), 손동작 검출부(120) 및 제스처 검출부(130)는 제스처 입력 장치(100)를 구성하고, 제스처 입력 장치(100)는 착용형 증강현실 장치(10)의 구성요소 중 하나로서, 제어부(400)에 검출된 제스처를 전달해 제스처에 따른 착용형 증강현실 장치(10)의 제어가 구현되도록 할 수 있다. 제스처 입력 장치(100)는, 착용형 증강현실 장치(10)상의 임베디드 환경에서 제스처를 검출할 수 있다.That is, the setting unit 110, the hand motion detection unit 120, and the gesture detection unit 130 constitute the gesture input device 100, and the gesture input device 100 is one of the components of the wearable augmented reality device 10. As such, the detected gesture may be transmitted to the control unit 400 so that control of the wearable augmented reality device 10 according to the gesture may be implemented. The gesture input device 100 may detect a gesture in an embedded environment on the wearable augmented reality device 10 .

여기서, 착용형 증강현실 장치(10)는 사용자의 머리 또는 두부에 착용 되며, 착용형 증강현실 장치(10)를 착용한 사용자가 광학계를 통해 투과되어 보이는 현실 세계와 디스플레이에서 출력되어 광학계를 통해 사용자의 동공으로 전달되는 영상 정보를 함께 제공받아 증강현실을 경험할 수 있도록 하는 장치일 수 있다. 여기서, 착용형 증강현실 장치(10)는 글라스형, 고글형 등 다양할 수 있으며, 사용자의 신체에 착용 되어 사용자의 시야를 통한 증강현실을 경험할 수 있도록 한다면 그 구체적인 형태나 종류와 관계없이 본 발명의 착용형 증강현실 장치(10)의 역할을 할 수 있다.Here, the wearable augmented reality device 10 is worn on the head or head of the user, and the real world that the user wearing the wearable augmented reality device 10 is transmitted through the optical system and output from the display are displayed to the user through the optical system. It may be a device that allows users to experience augmented reality by receiving image information delivered to the pupil of the child. Here, the wearable augmented reality device 10 may be of various types such as glass type and goggles type, and if it is worn on the user's body to experience augmented reality through the user's field of view, the present invention regardless of its specific form or type It can serve as a wearable augmented reality device 10 of.

본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 근접 센서(121)를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서(121)를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 손동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.The wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention is equipped with a proximity sensor 121 and a gesture composed of a combination of a left hand motion and a right hand motion within a recognition range. By detecting and performing control according to the manipulation event corresponding to the detected gesture, real-time recognition can be quickly performed in an embedded state using the proximity sensor 121, and various functions can be performed with simple hand motions because a combination of two hand motions is used. can be implemented, and it can be easily learned and used with a manipulation method similar to the existing mouse input method using manipulation events such as cursor movement, object selection and execution.

이하에서는, 도 1을 참조하여 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 각 구성에 대해 상세히 설명하도록 한다.Hereinafter, with reference to FIG. 1 , each component of the wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention will be described in detail.

설정부(110)는, 제스처와 조작 이벤트를 상호 대응하여 설정할 수 있다. 여기서, 제스처는 좌측 손동작 및 우측 손동작의 조합으로 구성되며, 좌측 손동작 및 우측 손동작은, 근접 센서(121)의 인식범위 내에 손의 존재 여부를 포함하며, 인식범위 내에 존재하는 손의 손 모양, 손의 존재 여부의 변화 및 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의될 수 있다. 이때, 손의 존재 여부의 변화나 인식범위 내에서의 손 움직임은 미리 정해진 시간 동안의 변화로 검출될 수 있다.The setting unit 110 may set gestures and manipulation events in correspondence with each other. Here, the gesture is composed of a combination of a left hand motion and a right hand motion, and the left hand motion and the right hand motion include whether or not the hand exists within the recognition range of the proximity sensor 121, and the hand shape and hand of the hand existing within the recognition range. It may be defined by further combining at least one of a change in the presence or absence of and a hand movement within the recognition range. At this time, a change in the existence of a hand or a hand movement within a recognition range may be detected as a change for a predetermined time.

도 2는 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 정의된 제스처와 대응되는 조작 이벤트를 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 설정부(110)는, 서로 대응되는 제스처와 조작 이벤트를 테이블로 저장할 수 있다. 여기서, 손 모양은, 손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나일 수 있다.2 is a diagram showing, for example, a manipulation event corresponding to a defined gesture in the wearable augmented reality device 10 that inputs a manipulation signal using a gesture of both hands according to an embodiment of the present invention. As shown in FIG. 2, the setting unit 110 of the wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention lists gestures and manipulation events corresponding to each other in a table. can be saved as Here, the hand shape may be any one of a first shape in which the hand is spread out so that the palm is visible and a second shape in which the hand is clenched into a fist.

또한, 조작 이벤트는, 커서 이동, 객체 선택 및 실행 이벤트를 포함할 수 있다. 즉, 커서 이동, 객체 선택, 실행 등과 같이 실제 데스크탑 등에서 마우스를 조작할 때와 유사한 커서 이동과 클릭, 더블클릭 등으로 조작 이벤트를 설정함으로써, 사용자가 다양한 제스처에 따른 조작 이벤트를 별도로 학습하거나 암기할 필요 없이, 몇 개의 단순한 손동작만으로 제스처와 조작 이벤트의 관계를 파악하고 쉽게 사용할 수 있다.Also, manipulation events may include cursor movement, object selection, and execution events. That is, by setting operation events such as cursor movement, click, double-click, etc. similar to mouse operation on the actual desktop, such as cursor movement, object selection, and execution, the user can separately learn or memorize operation events according to various gestures. No need, just a few simple hand gestures, you can understand the relationship between gestures and manipulation events and use them easily.

손동작 검출부(120)는, 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 포함하며, 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출할 수 있다. 즉, 손동작 검출부(120)는 근접 센서(121)를 사용해 양손의 손동작을 인식하는 구성으로, 여기서 근접 센서(121)는, 광전식 근접각 센서(photoelectric proximity sensor), 정전용량형 근접각 센서(capacitive proximity sensor) 및 초음파 근접각 센서(ultrasonic proximity sensor) 중 적어도 하나일 수 있다.The hand motion detection unit 120 includes proximity sensors 121 mounted on both sides of the wearable augmented reality device 10, and can detect left hand motions and right hand motions within a recognition range of the proximity sensors 121. . That is, the hand motion detection unit 120 is configured to recognize hand motions of both hands using the proximity sensor 121, where the proximity sensor 121 is a photoelectric proximity sensor, a capacitive proximity sensor ( It may be at least one of a capacitive proximity sensor and an ultrasonic proximity sensor.

도 3 내지 도 6은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 제스처에 따른 증강현실 영상의 제어를 예를 들어 도시한 도면이다. 도 3 내지 도 6에 도시된 바와 같이, 손동작 검출부(120)는, 좌측 손동작을 검출하는 좌측 근접 센서(121a) 및 우측 손동작을 검출하는 우측 근접 센서(121b)를 포함할 수 있다. 사용자는 착용형 증강현실 장치(10)를 착용한 상태에서 얼굴 옆의 귀 앞쪽에 있는 근접 센서(121)에 손을 가져다 대는 좌, 우 손동작의 조합으로 제스처를 입력할 수 있다.3 to 6 are diagrams illustrating, for example, control of an augmented reality image according to a gesture in the wearable augmented reality device 10 that inputs a manipulation signal using a two-handed gesture according to an embodiment of the present invention. As shown in FIGS. 3 to 6 , the hand motion detector 120 may include a left proximity sensor 121a that detects a left hand motion and a right proximity sensor 121b that detects a right hand motion. While wearing the wearable augmented reality device 10, the user may input a gesture using a combination of left and right hand motions of placing a hand on the proximity sensor 121 in front of the ear next to the face.

도 7은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)에서, 손동작 검출부(120)의 세부적인 구성을 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 손동작 검출부(120)는, 근접 센서(121) 외에도, 근접 센서(121)를 사용해 제스처 입력을 활성화하는 근접 스위치(122) 및 제스처 입력이 활성화되면, 손 모양 및/또는 손 움직임을 인식하는 동작 인식 모듈(123)을 더 포함하여 구성될 수 있다.FIG. 7 is a diagram showing a detailed configuration of the hand motion detection unit 120 in the wearable augmented reality device 10 that inputs a manipulation signal using a gesture of both hands according to an embodiment of the present invention. As shown in FIG. 7 , the hand motion detection unit 120 of the wearable augmented reality device 10 for inputting a manipulation signal using a gesture of both hands according to an embodiment of the present invention includes a proximity sensor 121 as well as a proximity sensor. It may be configured to further include a proximity switch 122 for activating a gesture input using 121 and a motion recognition module 123 for recognizing a hand shape and/or hand movement when the gesture input is activated.

즉, 사용자가 착용형 증강현실 장치(10) 측면의 근접 센서(121)에 손을 가까이 가져가면 근접 스위치(122)에 의해 제스처 입력 모드가 활성화되며, 제스처 입력 모드에서 근접 센서(121)가 손의 존재 여부, 손의 존재 여부의 변화를 인식하며, 동작 인식 모듈(123)이 손 모양과 손 움직임을 인식할 수 있다.That is, when the user brings his hand close to the proximity sensor 121 on the side of the wearable augmented reality device 10, the gesture input mode is activated by the proximity switch 122, and in the gesture input mode, the proximity sensor 121 moves the hand The presence or absence of the hand and a change in the presence or absence of the hand may be recognized, and the motion recognition module 123 may recognize the hand shape and hand movement.

보다 구체적으로, 동작 인식 모듈(123)은, 근접 센서(121)에서 조사된 광의 반사 정도에 기초해 손 모양 및/또는 손 움직임을 인식할 수 있다. 근접 센서(121)만으로 손동작을 인식하는 경우 추가 센서 없이 임베디드 환경에서도 빠르게 처리가 가능하며, 근접 센서(121)에 의한 효율적이고 정확한 손 모양 검출을 위해 복잡한 손의 모양이 아닌, 손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양으로 제스처를 구성할 수 있다.More specifically, the motion recognition module 123 may recognize a hand shape and/or a hand movement based on a degree of reflection of light emitted from the proximity sensor 121 . In the case of recognizing a hand gesture with only the proximity sensor 121, it can be quickly processed in an embedded environment without an additional sensor, and for efficient and accurate hand shape detection by the proximity sensor 121, the palm is visible rather than the complex shape of the hand. The gesture may be composed of a first shape, which is an open shape, and a second shape, which is a closed fist shape.

실시예에 따라서, 동작 인식 모듈(123)은, 손 영상을 촬영하는 측면 카메라를 사용해, 측면 카메라에서 촬영된 손 영상을 처리해 손 모양 및/또는 손 움직임을 인식할 수도 있다. 즉, 영상 처리 기술을 사용해 제스처 입력 모드에서 촬영된 손 영상을 분석해 손 모양과 손 움직임의 방향 등을 정확하게 검출할 수 있다. 이때, 영상 처리 기술은 서버와의 통신 등으로 처리될 수 있다. 이와 같이 영상 처리 기술을 사용하면 근접 센서(121)의 정확성 한계를 극복하고 정확한 손 모양과 손 움직임 방향 등을 검출할 수 있다.According to embodiments, the motion recognition module 123 may recognize a hand shape and/or a hand movement by processing a hand image captured by a side camera using a side camera that captures a hand image. In other words, the hand shape and direction of hand movement can be accurately detected by analyzing the hand image captured in the gesture input mode using image processing technology. At this time, the image processing technology may be processed through communication with a server. In this way, if the image processing technology is used, the accuracy limit of the proximity sensor 121 can be overcome and an accurate hand shape and hand movement direction can be detected.

제스처 검출부(130)는, 손동작 검출부(120)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다.The gesture detector 130 may use the left hand motion and the right hand motion detected by the hand motion detector 120 to detect a gesture composed of a combination of the left hand motion and the right hand motion.

제어부(400)는, 설정부(110)의 설정에 따라 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행할 수 있다.The controller 400 may extract a manipulation event corresponding to the detected gesture according to the setting of the setting unit 110 and control the augmented reality image according to the extracted manipulation event.

이하에서는, 도 3 내지 도 6을 참고하여, 도 2에 도시된 바와 같이 상호 대응하여 설정된 제스처와 조작 이벤트에 의한 증강현실 영상의 제어를 예를 들어 상세히 설명하도록 한다.Hereinafter, with reference to FIGS. 3 to 6 , as shown in FIG. 2 , control of an augmented reality image by gestures and manipulation events set in correspondence with each other will be described in detail as an example.

도 3에 도시된 바와 같은 커서 이동 중 기본 이동을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 부재로 구성되는 좌측 손동작과 인식범위 내에 손 존재, 제1 모양 및 손 움직임의 방향으로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행할 수 있다. 즉, 좌측 손은 인식범위 바깥에 위치하고(좌측 손동작), 우측 손은 손바닥이 보이도록 펴고 모아서(제1 모양) 착용형 증강현실 장치(10)의 우측면(우측 근접 센서(121b)의 인식범위)에 위치시키고 커서를 이동하고자 하는 방향으로 한 번씩 움직이는(우측 손동작) 제스처가 검출되면, 증강현실 화면상에서 커서가 우측 손 움직임 방향에 맞게 미리 정해진 픽셀 수만큼 이동하고 정지할 수 있다.For the basic movement of the cursor movement as shown in FIG. 3, the gesture detection unit 130 consists of the left hand motion consisting of the hand member within the recognition range and the presence of the hand within the recognition range, the first shape, and the direction of the hand movement. A gesture composed of a combination of right hand motions may be detected. The controller 400 may extract a movement event, which is a manipulation event corresponding to the detected gesture, and perform control to move the cursor by a predetermined amount in the direction of the hand movement constituting the right hand movement. That is, the left hand is located outside the recognition range (left hand motion), and the right hand is spread out and gathered so that the palm is visible (first shape) to the right side of the wearable augmented reality device 10 (recognition range of the right proximity sensor 121b) and when a gesture is detected that moves the cursor once in the desired direction (right hand motion), the cursor may be moved by a predetermined number of pixels in accordance with the right hand motion direction on the augmented reality screen and then stopped.

도 4에 도시된 바와 같은 커서 이동 중 복합 이동을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제1 모양으로 구성되는 좌측 손동작과, 인식범위 내에 손 존재, 제1 모양 및 손 움직임의 방향으로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 우측 손동작을 구성하는 손 움직임의 방향으로 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행할 수 있다. 즉, 도 4에 도시된 커서 기본 이동을 기본으로 하되, 좌측 손도 우측과 같은 제1 모양으로 착용형 증강현실 장치(10)의 좌측면(좌측 근접 센서(121a)의 인식범위)에 위치시키고 좌측 손은 움직임 없는 상태를 유지하고, 우측 손동작만 커서 기본 이동 방식에 따른 제스처가 검출되면, 증강현실 화면상에서 커서가 우측 손 움직임 방향에 맞게 좌측 손이 유지되는 동안 입력된 방향으로 화면 가장자리에 커서가 닿을 때까지 커서를 이동시킬 수 있다. 또한, 커서 이동 중에 우측 손의 움직임의 방향이 달라지면 해당 방향으로 커서 방향을 이동할 수 있고, 커서 이동 중에 좌측 손이 센서 인식범위 밖으로 사라질 경우 이동 중인 커서는 이동을 중지할 수 있다.For compound movement among cursor movements as shown in FIG. 4 , the gesture detection unit 130 includes the left hand motion consisting of the hand presence within the recognition range and the first shape, and the presence of the hand within the recognition range, the first shape and the hand movement. A gesture composed of a combination of right hand gestures composed in the direction of may be detected. The controller 400 may extract a movement event, which is a manipulation event corresponding to the detected gesture, and perform control to move the cursor while the left hand motion is maintained in the direction of the hand motion constituting the right hand motion. That is, based on the basic movement of the cursor shown in FIG. 4, the left hand is also placed on the left side of the wearable augmented reality device 10 (recognition range of the left proximity sensor 121a) in the same first shape as the right hand, and The hand remains motionless, and only the right hand moves. When a gesture is detected according to the basic movement method, the cursor is displayed on the edge of the screen in the input direction while the left hand is maintained in line with the right hand movement direction on the augmented reality screen. You can move the cursor until you reach it. In addition, if the direction of the movement of the right hand changes during cursor movement, the cursor can move in the corresponding direction, and if the left hand disappears outside the sensor recognition range during cursor movement, the moving cursor can stop moving.

도 5에 도시된 바와 같은 객체 선택을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제2 모양 및 손의 존재 여부의 변화로 구성되는 좌측 손동작과 인식범위 내에 손 부재로 구성되는 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행할 수 있다. 즉, 도 5에 도시된 바와 같이, 우측 손은 인식범위 바깥에 위치하고(우측 손동작), 좌측 손은 주먹을 쥔 모양으로(제2 모양) 착용형 증강현실 장치(10)의 좌측면(좌측 근접 센서(121a)의 인식범위)에 위치시키고, 주먹 쥔 손을 인식범위 내에서 인식범위 밖으로 움직이는(손의 움직임) 제스처가 검출되면, 증강현실 화면상에서 커서의 현 위치에서 선택 입력을 입력받을 수 있다. 이러한 객체 선택과 대응되는 조작 이벤트는, 커서의 현 위치에서 선택 입력, 창을 선택하거나 앱 아이콘이 선택되는 등의 마우스 원 클릭의 기능을 할 수 있다.For object selection as shown in FIG. 5 , the gesture detection unit 130 uses the left hand motion consisting of the presence of a hand within the recognition range, the second shape, and a change in whether or not the hand exists, and the right hand consisting of a hand member within the recognition range. A gesture composed of a combination of hand gestures may be detected. The controller 400 may extract a selection event, which is a manipulation event corresponding to the detected gesture, and perform control to select an object at the cursor position. That is, as shown in FIG. 5, the right hand is located outside the recognition range (right hand motion), and the left hand is clenched into a fist (second shape) on the left side of the wearable augmented reality device 10 (left proximity). When a gesture of moving a hand with a clenched fist within the recognition range to outside the recognition range (hand movement) is detected, a selection input can be received at the current position of the cursor on the augmented reality screen. . A manipulation event corresponding to such object selection may function as a single click of a mouse, such as inputting a selection at the current position of the cursor, selecting a window, or selecting an app icon.

도 6에 도시된 바와 같은 객체 실행을 위해서, 제스처 검출부(130)는, 인식범위 내에 손 존재, 제2 모양 및 손의 존재 여부의 변화로 각각 구성되는 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출할 수 있다. 제어부(400)는, 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행할 수 있다. 즉, 도 6에 도시된 바와 같이, 양쪽 손이 모두 제2 모양으로 인식범위를 벗어났다가 다시 돌아오는 제스처가 검출되면, 증강현실 화면상에서 커서의 현 위치에 대응되는 조작 이벤트는, 창(windows)을 닫거나 열기, 앱 아이콘 실행 등의 마우스 더블 클릭의 기능을 할 수 있다.In order to execute the object as shown in FIG. 6 , the gesture detection unit 130 includes a hand presence within the recognition range, a second shape, and a gesture composed of a combination of a left hand motion and a right hand motion each composed of a change in existence or nonexistence of the hand. can be detected. The controller 400 may extract an execution event, which is a manipulation event corresponding to the detected gesture, and perform control to execute the object at the cursor position. That is, as shown in FIG. 6, when a gesture in which both hands leave the recognition range in the second shape and then return is detected, a manipulation event corresponding to the current position of the cursor on the augmented reality screen is displayed in a window (windows). ), or double-clicking the mouse, such as opening or closing the app icon.

도 8은 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)의 전체적인 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)는, 제스처 입력 장치(100) 및 제어부(400)를 포함하여 구성될 수 있으며, HMD 프레임(200), 광학 디스플레이부(300), GPS 모듈(500), 카메라(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.8 is a diagram showing the overall configuration of the wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention. As shown in FIG. 8 , the wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention includes a gesture input device 100 and a controller 400. and may further include an HMD frame 200, an optical display unit 300, a GPS module 500, a camera 600, a sensor unit 700, and a communication unit 800.

HMD 프레임(200)은, 사용자가 머리나 두부에 착용할 수 있는 착용형 증강현실 장치(10)의 프레임 구성이다. 이러한 HMD 프레임(200)은, 사용자가 머리에 착용한 상태에서 빛이 들어올 수 있는 프레임 구조를 갖는 헬멧(helmet) 형태 또는 고글(goggles) 형태로 구성될 수 있다. 여기서, HMD 프레임(200)이 헬멧 형태로 이루어지는 경우, 사용자의 머리에 착용되는 헬멧(미도시)과 헬멧의 전방에 배치되는 디스플레이 프레임(미도시) 구조로 구성될 수 있다. 또한, HMD 프레임(200)(200)이 고글 형태로 구성되는 경우, 사용자의 머리에 착용될 수 있는 밴드 프레임(미도시)과, 밴드 프레임에 체결 고정되는 고글 프레임(미도시) 구조로 구성될 수 있다.The HMD frame 200 is a frame configuration of the wearable augmented reality device 10 that can be worn on the head or head by the user. The HMD frame 200 may be configured in the form of a helmet or goggles having a frame structure through which light may enter while worn on the head by a user. Here, when the HMD frame 200 is formed in the form of a helmet, it may be composed of a helmet (not shown) worn on the user's head and a display frame (not shown) disposed in front of the helmet. In addition, when the HMD frames 200 and 200 are configured in the form of goggles, they are composed of a band frame (not shown) that can be worn on the user's head and a goggle frame (not shown) fastened and fixed to the band frame. can

광학 디스플레이부(300)는, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실 또는 혼합현실을 제공할 수 있다. 즉, 광학 디스플레이부(300)는 착용형 증강현실 장치(10)의 AR, VR 또는 MR 글라스에 해당하는 구성으로서, 영상 정보가 착용자에게 제공될 수 있도록 영상 광을 출력하는 OLED 등의 디스플레이 및 착용형 증강현실 장치(10)를 착용한 착용자의 양안의 전방에 배치되어 실제 세계의 광과 영상 광의 결합에 의한 증강현실을 제공하는 광학계를 포함하여 구성될 수 있다. 또한, 광학계는 복수의 렌즈와 미러 등으로 구성되며 다양한 방식으로 구현될 수 있는데, 예를 들어 광학 회절 방식, 빔 스플리터 방식, 핀 미러 방식 등으로 구현될 수 있다.The optical display unit 300 may be disposed in front of both eyes of the wearer to provide augmented reality or mixed reality to the wearer. That is, the optical display unit 300 is a component corresponding to the AR, VR or MR glasses of the wearable augmented reality device 10, and displays and wears an OLED that outputs image light so that image information can be provided to the wearer. It may be configured to include an optical system that is disposed in front of both eyes of the wearer wearing the type augmented reality device 10 and provides augmented reality by combining real world light and image light. In addition, the optical system is composed of a plurality of lenses and mirrors and may be implemented in various ways, such as an optical diffraction method, a beam splitter method, a pin mirror method, and the like.

GPS 모듈(500)은 사용자의 위치 정보를 제공하고, 카메라(600)는 사용자가 바라보는 시선 방향의 영상을 촬영할 수 있다. 제어부(400)는, GPS 모듈(500), 카메라(600), 그 외 각종 센서에서 수집한 정보에 기초하여, 사용자에게 제공할 영상 정보를 생성해 디스플레이로 전송되도록 제어함으로써, 사용자가 증강현실을 통해 외부 환경에 대한 추가 정보 등을 최적화된 화면으로 전달받도록 할 수 있다.The GPS module 500 may provide location information of the user, and the camera 600 may capture an image in the direction of the user's gaze. The control unit 400 generates image information to be provided to the user based on information collected from the GPS module 500, the camera 600, and other various sensors, and controls the image information to be transmitted to the display so that the user can enjoy augmented reality. Through this, it is possible to receive additional information about the external environment through an optimized screen.

센서부(700)는, 적어도 하나 이상의 센서를 포함할 수 있으며, 보다 구체적으로 홍채 인식 센서 등을 포함할 수 있다. 실시예에 따라서, 사용자가 착용형 중강현실 장치(10)를 착용하고 사용자 인증을 하면, 제어부(400)는 각 사용자에 따라 저장된 조도, IPD(Inter-Pupillary Distance), 입력 인터페이스 등 여러 가지 설정 내용을 자동으로 적용할 수도 있다. 이때, 사용자 인증은 센서부(700)에 포함된 홍채 인식 센서 등을 사용할 수 있다.The sensor unit 700 may include at least one or more sensors, and more specifically, an iris recognition sensor or the like. According to the embodiment, when a user wears the wearable augmented reality device 10 and authenticates the user, the controller 400 configures various settings such as illuminance, inter-pupillary distance (IPD), input interface, etc., stored according to each user. can be applied automatically. In this case, user authentication may use an iris recognition sensor included in the sensor unit 700 .

통신부(800)는, 착용형 증강현실 장치(10)의 일측에 설치되며, 다른 착용형 증강현실 장치(10)나 서버 등과 각종 신호 및 데이터를 송수신할 수 있다. 여기서, 통신부(800)가 사용하는 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5G(3/4/5th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The communication unit 800 is installed on one side of the wearable augmented reality device 10 and can transmit and receive various signals and data to and from other wearable augmented reality devices 10 or servers. Here, the network used by the communication unit 800 is a wired network or a mobile communication network such as a Local Area Network (LAN), a Wide Area Network (WAN), or a Value Added Network (VAN). radio communication network), satellite communication network, Bluetooth, Wibro (Wireless Broadband Internet), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution), 3/4/5G (3/4/5th Generation Mobile Telecommunication ) can be implemented in all types of wireless networks, such as

도 9는 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법의 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법은, 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계(S110), 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 사용해, 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계(S120), 단계 S120에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계(S130), 및 단계 S110의 설정에 따라 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계(S140)를 포함하여 구현될 수 있다.9 is a flow diagram illustrating a method of operating the wearable augmented reality device 10 using a two-handed gesture according to an embodiment of the present invention. As shown in FIG. 9, the method of operating the wearable augmented reality device 10 using a two-handed gesture according to an embodiment of the present invention includes setting a gesture and a manipulation event in correspondence with each other (S110), wearable Using the proximity sensors 121 mounted on both sides of the augmented reality device 10, detecting the left hand motion and the right hand motion within the recognition range of the proximity sensor 121 (S120), the left hand motion detected in step S120. and detecting a gesture composed of a combination of the left hand motion and the right hand motion using the right hand motion (S130), and extracting a manipulation event corresponding to the detected gesture according to the settings in step S110, and extracting a manipulation event according to the extracted manipulation event. It may be implemented by including the step of performing control of the augmented reality image (S140).

각각의 단계들과 관련된 상세한 내용들은, 앞서 본 발명의 일실시예에 따른 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10)와 관련하여 충분히 설명되었으므로, 상세한 설명은 생략하기로 한다.Since the details related to each step have been sufficiently described in relation to the wearable augmented reality device 10 for inputting a manipulation signal using a two-handed gesture according to an embodiment of the present invention, detailed descriptions will be omitted. .

전술한 바와 같이, 본 발명에서 제안하고 있는 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10) 및 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법에 따르면, 근접 센서(121)를 탑재하고 인식범위 내에서 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하고, 검출된 제스처에 대응되는 조작 이벤트에 따른 제어를 수행함으로써, 근접 센서(121)를 사용해 임베디드 상태에서 신속하게 실시간 인식을 할 수 있고, 두 손동작의 조합을 사용하므로 단순한 동작만으로도 다양한 기능을 구현할 수 있으며, 커서 이동, 객체 선택 및 실행과 같은 조작 이벤트를 이용해 기존의 마우스 입력 방식과 유사한 조작 방식으로 쉽게 익히고 사용할 수 있다.As described above, according to the wearable augmented reality device 10 for inputting a manipulation signal using a gesture of both hands and the method of operating the wearable augmented reality device 10 using a gesture of both hands proposed in the present invention, the proximity sensor ( 121), detects a gesture consisting of a combination of a left hand motion and a right hand motion within the recognition range, and performs control according to a manipulation event corresponding to the detected gesture. Real-time recognition is possible, and since a combination of two hand gestures is used, various functions can be implemented with simple actions. can be used

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be variously modified or applied by those skilled in the art to which the present invention belongs, and the scope of the technical idea according to the present invention should be defined by the claims below.

10: 착용형 증강현실 장치
100: 제스처 입력 장치
110: 설정부
120: 손동작 검출부
121: 근접 센서
122: 근접 스위치
123: 동작 인식 모듈
130: 제스처 검출부
200: HMD 프레임
300: 광학 디스플레이부
400: 제어부
500: GPS 모듈
600: 카메라
700: 센서부
800: 통신부
S110: 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계
S120: 근접 센서의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계
S130: 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계
S140: 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계
10: wearable augmented reality device
100: gesture input device
110: setting unit
120: hand motion detector
121: proximity sensor
122 proximity switch
123: motion recognition module
130: gesture detection unit
200: HMD frame
300: optical display unit
400: control unit
500: GPS module
600: camera
700: sensor unit
800: communication department
S110: Setting gestures and manipulation events in correspondence with each other
S120: Detecting left hand gestures and right hand gestures within the recognition range of the proximity sensor
S130: Detecting a gesture composed of a combination of a left hand motion and a right hand motion
S140: Extracting a manipulation event corresponding to the detected gesture and performing control of the augmented reality image according to the extracted manipulation event

Claims (8)

착용형 증강현실 장치(10)로서,
제스처와 조작 이벤트를 상호 대응하여 설정하는 설정부(110);
상기 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 포함하며, 상기 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 손동작 검출부(120);
상기 손동작 검출부(120)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 제스처 검출부(130); 및
상기 설정부(110)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 제어부(400)를 포함하며,
상기 좌측 손동작 및 우측 손동작은,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 손이 존재하면, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
As a wearable augmented reality device 10,
a setting unit 110 that sets gestures and manipulation events in correspondence with each other;
A hand motion detection unit 120 including proximity sensors 121 mounted on both sides of the wearable augmented reality device 10 and detecting a left hand motion and a right hand motion within a recognition range of the proximity sensor 121;
a gesture detector 130 that detects a gesture composed of a combination of a left hand gesture and a right hand gesture using the left hand gesture and the right hand gesture detected by the hand gesture detector 120; and
A control unit 400 extracting a manipulation event corresponding to the detected gesture according to the setting of the setting unit 110 and controlling an augmented reality image according to the extracted manipulation event,
The left hand motion and the right hand motion,
It includes whether the hand exists within the recognition range, and if the hand exists within the recognition range, at least one of a hand shape of the hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. A wearable augmented reality device 10 that inputs a manipulation signal using a two-handed gesture, characterized in that it is defined by combining one more.
제1항에 있어서, 상기 조작 이벤트는,
커서 이동, 객체 선택 및 실행 이벤트를 포함하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 1, wherein the manipulation event,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that it includes cursor movement, object selection, and execution events.
제1항에 있어서, 상기 손 모양은,
손바닥이 보이도록 손을 편 모양인 제1 모양과 주먹을 쥔 모양인 제2 모양 중 어느 하나인 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 1, wherein the hand shape,
A wearable augmented reality device 10 that inputs a manipulation signal using a two-handed gesture, characterized in that any one of a first shape in which the hand is open so that the palm is visible and a second shape in which the fist is clenched.
제3항에 있어서, 상기 제스처 검출부(130)는,
상기 인식범위 내에 손 부재로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 미리 정해진 만큼 커서를 이동하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion consisting of a hand member within the recognition range and the right hand motion consisting of the presence of a hand within the recognition range, the first shape, and the direction of the hand motion;
The controller 400,
Extracting a movement event, which is a manipulation event corresponding to the detected gesture, and performing control to move a cursor by a predetermined amount in the direction of the hand movement constituting the right hand gesture, characterized in that, a manipulation signal using a two-handed gesture Wearable augmented reality device 10 to input.
제3항에 있어서, 상기 제스처 검출부(130)는,
상기 인식범위 내에 손 존재, 상기 제1 모양으로 구성되는 상기 좌측 손동작과, 상기 인식범위 내에 손 존재, 상기 제1 모양 및 손 움직임의 방향으로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 이동 이벤트를 추출하고, 상기 우측 손동작을 구성하는 손 움직임의 방향으로 상기 좌측 손동작이 유지되는 동안 커서를 이동하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the hand presence within the recognition range, the left hand motion consisting of the first shape, and the right hand motion consisting of the hand presence within the recognition range, the first shape, and the direction of the hand movement; ,
The controller 400,
A two-handed gesture characterized by extracting a movement event, which is a manipulation event corresponding to the detected gesture, and performing control to move a cursor while the left hand gesture is maintained in the direction of the hand movement constituting the right hand gesture. A wearable augmented reality device 10 that inputs a manipulation signal using.
제3항에 있어서, 상기 제스처 검출부(130)는,
상기 인식범위 내에 존재하는 손의 상기 제2 모양 및 상기 손의 존재 여부의 변화로 구성되는 상기 좌측 손동작과 상기 인식범위 내에 손 부재로 구성되는 상기 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 선택 이벤트를 추출하고, 커서 위치의 객체를 선택하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion consisting of the second shape of a hand existing within the recognition range and a change in the presence or absence of the hand and the right hand motion consisting of a hand member within the recognition range;
The controller 400,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that a selection event, which is a manipulation event corresponding to the detected gesture, is extracted and control for selecting an object at a cursor position is performed.
제3항에 있어서, 상기 제스처 검출부(130)는,
상기 인식범위 내에 존재하는 손의 상기 제2 모양 및 상기 손의 존재 여부의 변화로 각각 구성되는 상기 좌측 손동작과 우측 손동작의 조합으로 구성되는 제스처를 검출하고,
상기 제어부(400)는,
상기 검출된 제스처에 대응하는 조작 이벤트인 실행 이벤트를 추출하고, 커서 위치의 객체를 실행하는 제어를 수행하는 것을 특징으로 하는, 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치(10).
The method of claim 3, wherein the gesture detection unit 130,
Detecting a gesture composed of a combination of the left hand motion and the right hand motion each composed of the second shape of a hand existing within the recognition range and a change in whether the hand exists,
The controller 400,
A wearable augmented reality device (10) for inputting a manipulation signal using a two-handed gesture, characterized in that an execution event, which is a manipulation event corresponding to the detected gesture, is extracted and a control for executing an object at a cursor position is performed.
착용형 증강현실 장치(10)의 조작 방법으로서,
(1) 제스처와 조작 이벤트를 상호 대응하여 설정하는 단계;
(2) 상기 착용형 증강현실 장치(10)의 양 측면에 탑재된 근접 센서(121)를 사용해, 상기 근접 센서(121)의 인식범위 내에서 좌측 손동작 및 우측 손동작을 검출하는 단계;
(3) 상기 단계 (2)에서 검출된 좌측 손동작 및 우측 손동작을 이용해, 좌측 손동작 및 우측 손동작의 조합으로 구성되는 제스처를 검출하는 단계; 및
(4) 상기 단계 (1)의 설정에 따라 상기 검출된 제스처에 대응하는 조작 이벤트를 추출하고, 추출된 조작 이벤트에 따른 증강현실 영상의 제어를 수행하는 단계를 포함하며,
상기 좌측 손동작 및 우측 손동작은,
상기 인식범위 내에 손의 존재 여부를 포함하며, 상기 인식범위 내에 손이 존재하면, 상기 인식범위 내에 존재하는 손의 손 모양, 상기 손의 존재 여부의 변화 및 상기 인식범위 내에서의 손 움직임 중 적어도 하나를 더 조합하여 정의되는 것을 특징으로 하는, 양손 제스처를 이용한 착용형 증강현실 장치(10)의 조작 방법.
As a method of operating the wearable augmented reality device 10,
(1) setting gestures and manipulation events in correspondence with each other;
(2) detecting a left hand gesture and a right hand gesture within a recognition range of the proximity sensor 121 using the proximity sensors 121 mounted on both sides of the wearable augmented reality device 10;
(3) detecting a gesture composed of a combination of the left hand motion and the right hand motion using the left hand motion and the right hand motion detected in step (2); and
(4) extracting a manipulation event corresponding to the detected gesture according to the setting in step (1), and controlling an augmented reality image according to the extracted manipulation event;
The left hand motion and the right hand motion,
It includes whether the hand exists within the recognition range, and if the hand exists within the recognition range, at least one of the hand shape of the hand existing within the recognition range, a change in the presence or absence of the hand, and a hand movement within the recognition range. A method of operating the wearable augmented reality device 10 using a two-handed gesture, characterized in that defined by combining one more.
KR1020210087947A 2021-07-05 2021-07-05 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture Active KR102522142B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210087947A KR102522142B1 (en) 2021-07-05 2021-07-05 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210087947A KR102522142B1 (en) 2021-07-05 2021-07-05 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture

Publications (2)

Publication Number Publication Date
KR20230007109A KR20230007109A (en) 2023-01-12
KR102522142B1 true KR102522142B1 (en) 2023-04-17

Family

ID=84923741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210087947A Active KR102522142B1 (en) 2021-07-05 2021-07-05 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture

Country Status (1)

Country Link
KR (1) KR102522142B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250067494A (en) 2023-11-08 2025-05-15 백석대학교산학협력단 User Interface System and Method Using Hand Gesture Recognition and Face Verification
KR20250104960A (en) 2023-12-29 2025-07-08 백석대학교산학협력단 User interface system using facial gesture recognition based on camera vision and method therefor
KR20250109089A (en) 2024-01-09 2025-07-16 백석대학교산학협력단 System for user interface using facial gesture recognition and face verification and method therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN120104010A (en) * 2025-05-09 2025-06-06 北京虹宇科技有限公司 Multiple selection method and device in three-dimensional space

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687737B1 (en) * 2005-03-19 2007-02-27 한국전자통신연구원 Virtual Mouse Device and Method Based on Two-Hand Gesture
KR102147430B1 (en) * 2013-10-07 2020-08-24 한국전자통신연구원 virtual multi-touch interaction apparatus and method
KR20150118377A (en) * 2014-04-14 2015-10-22 고려대학교 산학협력단 Information inputting system and method by movements of finger
KR102303115B1 (en) * 2014-06-05 2021-09-16 삼성전자 주식회사 Method For Providing Augmented Reality Information And Wearable Device Using The Same
KR102379245B1 (en) * 2019-04-30 2022-03-28 치루 유니버시티 오브 테크놀로지 Wearable device-based mobile robot control system and control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250067494A (en) 2023-11-08 2025-05-15 백석대학교산학협력단 User Interface System and Method Using Hand Gesture Recognition and Face Verification
KR20250104960A (en) 2023-12-29 2025-07-08 백석대학교산학협력단 User interface system using facial gesture recognition based on camera vision and method therefor
KR20250109089A (en) 2024-01-09 2025-07-16 백석대학교산학협력단 System for user interface using facial gesture recognition and face verification and method therefor

Also Published As

Publication number Publication date
KR20230007109A (en) 2023-01-12

Similar Documents

Publication Publication Date Title
KR102522142B1 (en) Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture
US12099653B2 (en) User interface response based on gaze-holding event assessment
US9442567B2 (en) Gaze swipe selection
CN108170279B (en) Eye movement and head movement interaction method of head display equipment
US20160224123A1 (en) Method and system to control electronic devices through gestures
CN102779000B (en) User interaction system and method
US20150143283A1 (en) Information processing device, display control method, and program
CN104298340B (en) Control method and electronic equipment
US20150002475A1 (en) Mobile device and method for controlling graphical user interface thereof
KR20150091322A (en) Multi-touch interactions on eyewear
JP2016208370A (en) Head mounted display and method for controlling head mounted display
JP2001154794A (en) Pointing device with click function by blink
CN104281266A (en) Head-mounted display equipment
EP3617851B1 (en) Information processing device, information processing method, and recording medium
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
US20250199623A1 (en) Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments
CN104077784A (en) Method for extracting target object and electronic device
US20240126377A1 (en) Personalized calibration of user interfaces
US20180143436A1 (en) Head-operated digital eyeglasses
KR102633495B1 (en) Method of operating an app library through recognition of wrist and trigger gesture and head-mounted display apparatus in which the app library operates
KR102636996B1 (en) Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition
KR102539045B1 (en) Dashboard control apparatus and method for wearable augmented reality device
CN207249604U (en) The digital glasses of head operation
US20250264973A1 (en) Contextual interfaces for 3d environments
US20250238110A1 (en) Shape-based graphical indications of interaction events

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000