[go: up one dir, main page]

JP2010108500A - User interface device for wearable computing environmental base, and method therefor - Google Patents

User interface device for wearable computing environmental base, and method therefor Download PDF

Info

Publication number
JP2010108500A
JP2010108500A JP2009248773A JP2009248773A JP2010108500A JP 2010108500 A JP2010108500 A JP 2010108500A JP 2009248773 A JP2009248773 A JP 2009248773A JP 2009248773 A JP2009248773 A JP 2009248773A JP 2010108500 A JP2010108500 A JP 2010108500A
Authority
JP
Japan
Prior art keywords
wearable computing
measuring
user
user interface
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009248773A
Other languages
Japanese (ja)
Inventor
Yongki Son
ヨンキ ソン
Jeongmook Lim
ジョンムク イム
Dongwoo Lee
ドンウ イ
Hyuntae Jeong
ヒュンテ ジョン
Ilyeon Cho
イルヨン チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2010108500A publication Critical patent/JP2010108500A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user interface device for a wearable computing environmental base, and a method therefor. <P>SOLUTION: The user interface device for the wearable computing environmental base includes a signal measuring means worn on a finger or the vicinity of a wrist of a user, and including a plurality of image measuring parts provided with an image sensor for receiving a light signal generated from a position indication device generating the light signal, and for measuring respectively images of a user front face, and a signal processing means for calculating three-dimensional coordinates by analyzing the respective images measured by the signal measuring means, for recognizing a movement pattern of a hand of the user on the three-dimensional coordinates, based on the light signal received by the signal measuring means, and for outputting a corresponding command. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法に関し、より詳しくは、着用型コンピューティング環境に適しながら、ユーザ前面の3次元空間上においてユーザの両手の動きを着用型システムあるいは周辺装置の入力によって使用することができる着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法に関する。   The present invention relates to a wearable computing environment-based user interface apparatus and method, and more particularly, to a wearable system or a method for controlling movements of both hands of a user in a three-dimensional space in front of a user while being suitable for the wearable computing environment. The present invention relates to a wearable computing environment-based user interface device and method that can be used by inputting peripheral devices.

既存にシステムが備えられた制限された空間において、ユーザの動き、特に手の動きを検出して人間とコンピュータとの間の相互作用(interaction)として用いようとする多くの試みが研究されて来た。既存のシステムには、ユーザが手袋形態の装置を着用したり、適切に備えられて定められた制限された場所でのみ入力を実行することができるという短所がある。   Many attempts have been studied to detect user movements, especially hand movements, and use them as interactions between humans and computers in a limited space with existing systems. It was. Existing systems have the disadvantage that the user can wear gloves-like devices or perform input only in limited places that are properly equipped and defined.

また、現在市販されている3次元空間マウスあるいはペンのような装置は、ジャイロセンサを用いてユーザの手の動きを計測し、ユーザ入力として使用している。この装置もユーザが把持して用いなければならず、ユーザが必要な場合に持ち歩かなければならないという不便さがある。   In addition, a device such as a three-dimensional space mouse or a pen currently on the market measures a user's hand movement using a gyro sensor and uses it as a user input. This device must also be held and used by the user, and there is an inconvenience that the user has to carry around when necessary.

アップル(登録商標)社のIpod Touch(登録商標)、マイクロソフト(登録商標)社のSurface(登録商標)、ジェフハンのMulti−Touch装置のようなマルチタッチは、装置のディスプレイにタッチを適用してマルチタッチの長所を最大限に発揮しているが、手に装置を把持したり制限された装置で使用しなければならないという不便さがある。   Multi-touch, such as Apple (registered trademark) Ipod Touch (registered trademark), Microsoft (registered trademark) Surface (registered trademark), and Jeff Han's Multi-Touch device, applies touch to the display of the device. Although the advantages of touch are maximized, there is an inconvenience that the device must be held by a hand or used in a restricted device.

特に、装置あるいはコンピュータを体に付着あるいは着用して持ち歩く着用型システムのためのユーザインターフェースの場合、装置を持ち歩かなければならない移動性およびユーザが手軽に使用して持ち歩くことができる着用性のような要素を考慮して設計しなければならない。   In particular, in the case of a user interface for a wearable system in which the device or computer is attached to or worn on the body, such as the mobility with which the device must be carried and the wearability that the user can easily carry around The design must take into account factors.

特開平10−031551号公報Japanese Patent Laid-Open No. 10-031551

上述した課題を解決するために、本発明は、着用型コンピューティング環境に適しながら、ユーザ前面の3次元空間上においてユーザの手のような動きによって着用型システムあるいは周辺装置の入力として使用することができる着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法を提供することを目的とする。   In order to solve the above-described problems, the present invention is suitable for a wearable computing environment, and is used as an input of a wearable system or a peripheral device by movement like a user's hand in a three-dimensional space in front of the user. It is an object of the present invention to provide a wearable computing environment-based user interface device and method thereof.

上述した目的を達成するために、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置は、ユーザの手首付近に着用されて光信号を発生する位置指示器機、前記位置指示器機から発生された光信号を受信し、ユーザ前面の映像をそれぞれ計測するためのイメージセンサを備えた複数の映像計測部を含む信号計測手段、および前記信号計測手段によって計測されたそれぞれの映像を分析して3次元座標を計算し、前記信号計測手段によって受信された光信号から前記3次元座標上でユーザの手の動きパターンを認識し、対応する命令を出力する信号処理手段を備えることを特徴とする。   To achieve the above object, a wearable computing environment-based user interface device according to the present invention is generated from a position indicator device that is worn near a wrist of a user and generates an optical signal, the position indicator device. A signal measuring unit including a plurality of video measuring units having an image sensor for receiving an optical signal and measuring a video in front of a user, and analyzing each video measured by the signal measuring unit to obtain a three-dimensional Signal processing means for calculating coordinates, recognizing a movement pattern of the user's hand on the three-dimensional coordinates from the optical signal received by the signal measuring means, and outputting a corresponding command is provided.

前記信号計測手段は、イメージセンサを備えた複数の映像計測部、およびユーザの動きから身体の揺れ程度を計測する身体揺れ計測部を備えることを特徴とする。   The signal measuring means includes a plurality of video measurement units including an image sensor and a body shake measurement unit that measures the degree of body shake based on a user's movement.

前記身体揺れ計測部は、慣性センサを備えることを特徴とする。   The body shake measuring unit includes an inertial sensor.

前記映像計測部は、前記位置指示器機から発生された位置信号と前記映像を区分するためのフィルタを備えることを特徴とする。   The image measuring unit may include a filter for distinguishing the image from the position signal generated from the position pointing device.

前記信号処理手段は、前記複数の映像計測部に備えられたイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする。   The signal processing means implements a virtual display screen in a region where the angle of view of the image sensors provided in the plurality of video measurement units overlap each other, and calculates three-dimensional coordinates from the video of the virtual display screen. Features.

前記信号処理手段は、前記複数の映像計測部によって計測された各映像から2次元座標を抽出する2次元座標計算部を備え、前記2次元座標計算部によって抽出された2次元座標および前記位置信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする。   The signal processing means includes a two-dimensional coordinate calculation unit that extracts a two-dimensional coordinate from each video measured by the plurality of video measurement units, and the two-dimensional coordinate extracted by the two-dimensional coordinate calculation unit and the position signal 3D coordinates are calculated based on the position information of the hand sensed by.

前記信号処理手段は、前記身体揺れ計測部によって計測された身体の揺れ程度に基づいて、前記映像計測部から計測された映像の揺れを補正する身体揺れ補正部をさらに備えることを特徴とする。   The signal processing unit may further include a body shake correction unit that corrects the image shake measured from the image measurement unit based on the degree of body shake measured by the body shake measurement unit.

前記位置指示器機は、ユーザの手の位置移動ごとに位置信号を発生する位置信号発生手段、およびユーザから制御命令の入力を受ける入力信号計測手段を備え、前記入力信号計測手段に入力されたユーザ制御命令に基づいて前記位置信号発生手段の動作を制御することを特徴とする。   The position pointing device includes position signal generating means for generating a position signal for every movement of the user's hand, and input signal measuring means for receiving an input of a control command from the user, and the user input to the input signal measuring means The operation of the position signal generating means is controlled based on a control command.

前記位置信号発生手段は、前記位置信号を光信号形態で発生することを特徴とする。   The position signal generating means generates the position signal in the form of an optical signal.

一方、上述した目的を達成するために、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース方法は、ユーザの手首付近に着用されて位置信号を発生する位置指示器機から発生された位置信号を受信し、ユーザ前面の映像を計測するステップ、前記計測するステップで計測された映像から3次元座標を計算するステップ、前記計測するステップで受信された位置信号からユーザの手の位置を把握し、前記計算された3次元座標上でユーザの手の動きパターンを認識するステップ、および前記認識するステップで認識された動きパターンに対応する命令を出力するステップを備えることを特徴とする。   Meanwhile, in order to achieve the above-described object, a user interface method based on a wearable computing environment according to the present invention uses a position signal generated from a position indicator device that is worn near a user's wrist and generates a position signal. Receiving and measuring the image in front of the user, calculating the three-dimensional coordinates from the image measured in the measuring step, grasping the position of the user's hand from the position signal received in the measuring step, Recognizing a motion pattern of a user's hand on the calculated three-dimensional coordinates, and outputting a command corresponding to the motion pattern recognized in the recognizing step.

前記計測するステップは、前記ユーザの動きから身体の揺れ程度を計測するステップを備えることを特徴とする。   The step of measuring includes the step of measuring the degree of body shake from the movement of the user.

前記計測された身体の揺れ程度に基づいて、前記計測するステップで計測された映像の揺れを補正するステップをさらに備えることを特徴とする。   The method further comprises a step of correcting the shaking of the image measured in the measuring step based on the measured degree of shaking of the body.

前記計算するステップは、前記計測するステップで映像を計測する複数のイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする。   The calculating step includes implementing a virtual display screen in a region where the angles of view of a plurality of image sensors that measure video in the measuring step overlap each other, and calculating three-dimensional coordinates from the video on the virtual display screen. It is characterized by.

前記計算するステップは、前記複数の映像計測手段によって計測された各映像から2次元座標を抽出するステップを備え、前記抽出された2次元座標、および前記計測するステップの前記位置信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする。   The calculating step includes a step of extracting a two-dimensional coordinate from each image measured by the plurality of image measuring means, and is detected by the extracted two-dimensional coordinate and the position signal of the measuring step. Three-dimensional coordinates are calculated based on hand position information.

前記位置信号は、ユーザの手の位置移動ごとに前記位置指示器機によって発生されることを特徴とする。   The position signal is generated by the position pointing device every time the hand of the user moves.

前記位置信号は、ユーザから前記位置指示器機に手の動きの開始と終了を知らせる信号が入力されれば、前記入力された信号に基づいて発生されることを特徴とする。   The position signal may be generated based on the input signal when a signal indicating the start and end of hand movement is input from the user to the position pointing device.

前記位置信号は、光信号形態で発生されることを特徴とする。   The position signal is generated in the form of an optical signal.

本発明によれば、ユーザ前面の3次元空間上において両手でジェスチャを取るとき、その動きを追跡して3次元的な所定のパターンとして認識して処理することにより、ユーザが移動しながらコンピュータを使用しなければならない着用型コンピューティング環境においてユーザ空間にマルチポイント入力機能を支援し、ユーザディスプレイ上のオブジェクトを選択したり操作する方法において、まるで空間内の事物を操作するようなユーザ親和的な入力インターフェースを支援することができるという利点がある。   According to the present invention, when a gesture is taken with both hands in the three-dimensional space in front of the user, the movement is tracked and recognized and processed as a predetermined three-dimensional pattern, so that the computer moves while the user moves. Supporting multi-point input function in user space in a wearable computing environment that must be used, and selecting and manipulating objects on the user display is as user friendly as manipulating things in space There is an advantage that the input interface can be supported.

本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置の動作を説明するために参照される図である。FIG. 5 is a diagram referred to for explaining the operation of the wearable computing environment-based user interface device according to the present invention; 本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置の動作を説明するために参照される図である。FIG. 5 is a diagram referred to for explaining the operation of the wearable computing environment-based user interface device according to the present invention; 本発明に係るユーザインターフェース装置の動き処理器機に対する構成を示すブロック図である。It is a block diagram which shows the structure with respect to the motion processor of the user interface apparatus which concerns on this invention. 本発明に係るユーザインターフェース装置の位置指示器機に対する構成を示すブロック図である。It is a block diagram which shows the structure with respect to the position indicator machine of the user interface apparatus which concerns on this invention. 本発明に係る映像計測方法を説明するために参照される例示図である。It is an illustration referred in order to demonstrate the image | video measuring method which concerns on this invention. 本発明に係る位置座標計測方法を説明するために参照される例示図である。It is an example figure referred in order to explain the position coordinate measuring method concerning the present invention. 本発明に係るユーザインターフェース方法に対する動作の流れを示すフローチャートである。5 is a flowchart illustrating a flow of operations for a user interface method according to the present invention.

以下、添付の図面を参照しながら、本発明の実施形態について次のように説明する。
図1および図2は、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置を説明するために参照される図である。図1および図2を参照すれば、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置は、手首付近に装着され、手の動きを感知する位置指示器機20と、位置指示器機20によって感知された信号から手の動きを認識し、それに対応する動作を処理する動き処理器機10とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
1 and 2 are diagrams for explaining a wearable computing environment-based user interface device according to the present invention. 1 and 2, the wearable computing environment-based user interface apparatus according to the present invention is mounted near the wrist and detects a movement of the hand. A motion processor 10 for recognizing hand movements from the received signals and processing the corresponding movements.

まず、ユーザは、図1のように、着用型コンピューティングの壁面型ディスプレイ装置あるいはHMD(Head Mounted Display)のような実際のディスプレイ画面1ではなく、仮想のディスプレイ画面2上でディスプレイ画面1を制御するために手を動かすようになる。   First, as shown in FIG. 1, the user controls the display screen 1 on the virtual display screen 2 instead of the actual display screen 1 such as a wall-mounted display device for wearable computing or an HMD (Head Mounted Display). Move your hands to do.

ここで、手の動きは、文字、記号、ジェスチャなど、ユーザが表現することができるすべてのものが該当し、片手だけではなく両手による複合的なジェスチャも該当する。   Here, the movement of the hand corresponds to everything that can be expressed by the user, such as a character, a symbol, and a gesture, and includes not only one hand but also a complex gesture with both hands.

したがって、ユーザは、仮想のディスプレイ画面2で両手を用いて入力することにより、実際にユーザの目の前に出力される事物をマルチタッチと類似するように3次元空間上で制御することができる。特に、図2に示すように、めがね形態の両終端に付着された複数の映像計測部11a、11bを介してユーザ前面の一定の3次元空間内で入力を実行することができ、該当空間は、複数の映像計測部11a、11bからの画角によって決定される。   Accordingly, by inputting with both hands on the virtual display screen 2, the user can control the thing actually output in front of the user's eyes in a three-dimensional space to be similar to multi-touch. . In particular, as shown in FIG. 2, input can be performed in a fixed three-dimensional space in front of the user via a plurality of video measurement units 11a and 11b attached to both ends of the glasses, It is determined by the angle of view from the plurality of video measurement units 11a and 11b.

このとき、位置指示器機20は、複数備えられることができる。位置指示器機20は、腕輪形態で具現され、ユーザの片手首または両手首にすべて着用することができる。これだけでなく、位置指示器機20は、指輪形態で具現されてユーザの指に着用することもできる。これにより、本発明の実施形態では、位置指示器機20が腕輪形態で具現されてユーザの両手首に着用された場合を例示したが、これに限定されるものではない。位置指示器機20に対する具体的な説明は、図4を参照する。   At this time, a plurality of position indicator devices 20 may be provided. The position indicator device 20 is embodied in a bracelet shape and can be worn on one or both wrists of the user. In addition, the position pointing device 20 may be embodied in a ring shape and worn on the user's finger. Thus, in the embodiment of the present invention, the case where the position pointing device 20 is embodied in a bracelet shape and worn on both wrists of the user is illustrated, but the present invention is not limited thereto. Refer to FIG. 4 for a specific description of the position pointing device 20.

一方、動き処理器機10は、位置指示器機20と同様にユーザの体に着用が可能な形態で具現され、その実施例としては、めがね、帽子、服などのように身体のあらゆる部分に着用することもできる。本発明の実施形態では、ユーザの視覚で見るのと同じ効果を出すために、動き処理器機10がめがね形態で具現されたことを例示する。   On the other hand, the motion processor 10 is embodied in a form that can be worn on the user's body in the same manner as the position indicator 20, and as an example, the motion processor 10 is worn on any part of the body such as glasses, a hat, and clothes. You can also. The embodiment of the present invention exemplifies that the motion processor 10 is implemented in the form of glasses in order to produce the same effect as that seen by the user.

動き処理器機10には、複数の映像計測部11a、11bが備えられる。このとき、複数の映像計測部11a、11bは、それぞれ互いに異なる位置に配置され、該当の位置において位置指示器機20から発生される信号を計測する。動き処理器機10に対する具体的な説明は、図3を参照する。   The motion processor 10 includes a plurality of video measurement units 11a and 11b. At this time, the plurality of video measurement units 11a and 11b are arranged at different positions, and measure signals generated from the position indicator 20 at the corresponding positions. Refer to FIG. 3 for a detailed description of the motion processor 10.

図3は、本発明に係る動き処理器機10の構成を示すブロック図である。図3に示すように、本発明に係る動き処理器機10は、信号計測手段11と、命令入力手段13と、信号処理手段15と、通信手段17とを備える。   FIG. 3 is a block diagram showing the configuration of the motion processor 10 according to the present invention. As shown in FIG. 3, the motion processor 10 according to the present invention includes a signal measuring unit 11, a command input unit 13, a signal processing unit 15, and a communication unit 17.

また、信号計測手段11は、第1映像計測部11aと、第2映像計測部11bと、身体揺れ計測部11cとを備える。   The signal measuring means 11 includes a first video measurement unit 11a, a second video measurement unit 11b, and a body shake measurement unit 11c.

第1映像計測部11aおよび第2映像計測部11bは、互いに異なる位置に配置され、図2に示すように、めがねの両終端に配置することができる。勿論、図3では、第1映像計測部11aと第2映像計測部11bが備えられたことを例示したが、第3映像計測部などさらに多くが備えられることもできる。   The first video measurement unit 11a and the second video measurement unit 11b are arranged at different positions, and can be arranged at both ends of the glasses as shown in FIG. Of course, FIG. 3 illustrates that the first video measurement unit 11a and the second video measurement unit 11b are provided. However, a third video measurement unit and the like can be provided.

このとき、第1映像計測部11aおよび第2映像計測部11bは、位置指示器機20から発生された信号を計測することができるイメージセンサであることを例示する。勿論、位置指示器機20によって発生される赤外線、可視光線、レーザなどの形態を有することができる。   At this time, the first video measurement unit 11a and the second video measurement unit 11b are exemplified as image sensors that can measure signals generated from the position indicator device 20. Of course, it may be in the form of infrared rays, visible rays, lasers, etc. generated by the position pointing device 20.

また、第1映像計測部11aおよび第2映像計測部11bは、位置指示器機20から発生された信号を受信し、受信された信号からユーザの手の位置を感知する。このとき、第1映像計測部11aおよび第2映像計測部11bには、イメージセンサによって計測される映像信号と位置指示器機20から受信された信号を区分するための物理的なフィルタが備えられる。   In addition, the first video measurement unit 11a and the second video measurement unit 11b receive a signal generated from the position pointing device 20, and sense the position of the user's hand from the received signal. At this time, the first video measurement unit 11a and the second video measurement unit 11b are provided with a physical filter for distinguishing the video signal measured by the image sensor and the signal received from the position pointing device 20.

このとき、物理的なフィルタとしては、赤外線通過帯域フィルタなどが該当することができる。赤外線通過帯域フィルタは、可視光線による干渉を除去することにより、第1映像計測部11aおよび第2映像計測部11bが赤外線信号をより明確に計測できるようにする。   At this time, an infrared passband filter or the like can be used as the physical filter. The infrared passband filter removes interference caused by visible light so that the first video measurement unit 11a and the second video measurement unit 11b can more clearly measure the infrared signal.

一方、身体揺れ計測部11cは、ユーザの身体の揺れ程度を計測する。身体揺れ計測部11cは、手の動きを計測する場合、ユーザ身体の揺れによる誤差が発生することを補うために、慣性センサ(IMU:Inertial Measurement Unit)を追加で備えることができる。このとき、身体揺れ計測部11cは、計測された信号を信号処理手段15に伝達する。   On the other hand, the body shaking measuring unit 11c measures the degree of shaking of the user's body. When measuring the hand movement, the body shake measuring unit 11c can additionally include an inertial sensor (IMU: Inertial Measurement Unit) in order to compensate for an error caused by a user body shake. At this time, the body shake measuring unit 11 c transmits the measured signal to the signal processing means 15.

命令入力手段13は、ユーザから制御命令の入力を受けるための手段であり、動き器機からの制御命令を受信するための通信モジュールを備える。   The command input means 13 is a means for receiving a control command input from a user, and includes a communication module for receiving a control command from the motion device.

位置指示器機20にユーザからの制御命令が入力されれば、位置指示器機20は、動き処理器機10に該当の命令を送信する。したがって、命令入力手段13は、位置指示器機20からの制御命令を受信して信号処理手段15に伝達する。   If a control command from the user is input to the position pointing device 20, the position pointing device 20 transmits the corresponding command to the motion processing device 10. Therefore, the command input means 13 receives the control command from the position pointing device 20 and transmits it to the signal processing means 15.

信号処理手段15は、2次元座標計算部15aと、3次元座標計算部15bと、身体揺れ補正部15cと、パターン認識部15dと、命令処理部15eとを備える。   The signal processing means 15 includes a two-dimensional coordinate calculation unit 15a, a three-dimensional coordinate calculation unit 15b, a body shake correction unit 15c, a pattern recognition unit 15d, and a command processing unit 15e.

まず、2次元座標計算部15aは、第1映像計測部11aおよび第2映像計測部11bによって計測された映像から位置指示器機20が配置された領域、すなわち、手が位置した領域に対する2次元座標を計算する。このとき、2次元座標計算部15aは、それぞれの計測映像において点形態で示される赤外線イメージの2次元座標を抽出する。   First, the two-dimensional coordinate calculation unit 15a performs two-dimensional coordinates with respect to the region where the position pointing device 20 is arranged from the images measured by the first image measurement unit 11a and the second image measurement unit 11b, that is, the region where the hand is located. Calculate At this time, the two-dimensional coordinate calculation unit 15a extracts the two-dimensional coordinates of the infrared image indicated by the point form in each measurement video.

この後、3次元座標計算部15bは、2次元座標計算部15aによって抽出された2次元座標を用い、該当の位置における3次元座標を計算する。3次元座標の計算のためのモデルは、図6を参照する。   Thereafter, the three-dimensional coordinate calculator 15b calculates the three-dimensional coordinates at the corresponding position using the two-dimensional coordinates extracted by the two-dimensional coordinate calculator 15a. See FIG. 6 for a model for calculating the three-dimensional coordinates.

このとき、第1映像計測部11aおよび第2映像計測部11bと、2次元座標計算部15a、3次元座標計算部15bは、複合的に具現され、1つのプロセッサとして処理されることができる。   At this time, the first image measurement unit 11a and the second image measurement unit 11b, the two-dimensional coordinate calculation unit 15a, and the three-dimensional coordinate calculation unit 15b may be combined and processed as one processor.

身体揺れ補正部15cは、身体揺れ計測部11cによって計測された信号から身体の揺れ程度を把握する。このとき、身体揺れ補正部15cは、把握された情報に基づいて、第1映像計測部11aおよび第2映像計測部11bによって計測された映像に対する身体の揺れを補正する。   The body shake correction unit 15c grasps the degree of body shake from the signal measured by the body shake measurement unit 11c. At this time, the body shake correction unit 15c corrects the body shake with respect to the image measured by the first image measurement unit 11a and the second image measurement unit 11b based on the grasped information.

パターン認識部15dは、身体揺れ補正部15cによって補正された映像から、3次元座標計算部15bによって計算された3次元座標における動きパターンを認識する。   The pattern recognition unit 15d recognizes the motion pattern at the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 15b from the video corrected by the body shake correction unit 15c.

この後、命令処理部15eは、パターン認識部15dによって認識された動きパターンに対応する命令を抽出し、通信手段を介して着用型コンピュータに送信する。   Thereafter, the command processing unit 15e extracts a command corresponding to the motion pattern recognized by the pattern recognition unit 15d, and transmits the command to the wearable computer via the communication unit.

命令処理部15eは、有無線通信インターフェースを介して他の器機と連結し、該当の器機に命令を伝達することもできる。このとき、3次元座標計算部15b、パターン認識部15d、および命令処理部15eは、2次元座標計算部15aに通信インターフェースを付加し、外部の他の器機でも処理することができる。   The command processing unit 15e can be connected to another device via a wired / wireless communication interface and transmit the command to the corresponding device. At this time, the three-dimensional coordinate calculation unit 15b, the pattern recognition unit 15d, and the command processing unit 15e can add a communication interface to the two-dimensional coordinate calculation unit 15a and perform processing by other external devices.

一方、図4は、本発明に係る位置指示器機20の構成を示すブロック図である。図4を参照すれば、本発明に係る位置指示器機20は、位置信号発生手段21と、入力信号計測手段23と、信号処理手段25と、通信手段27とを備える。   On the other hand, FIG. 4 is a block diagram showing the configuration of the position pointing device 20 according to the present invention. Referring to FIG. 4, the position pointing device 20 according to the present invention includes a position signal generating unit 21, an input signal measuring unit 23, a signal processing unit 25, and a communication unit 27.

位置信号発生手段21は、該当の位置指示器機20の現在位置を知らせるための位置信号を発生する手段である。位置信号発生手段21は、赤外線、可視光線、レーザなどのように、動き処理器機10の第1映像計測部11aおよび第2映像計測部11bによって計測が可能な信号形態で出力する。   The position signal generating means 21 is a means for generating a position signal for informing the current position of the corresponding position indicator device 20. The position signal generating means 21 outputs in the form of a signal that can be measured by the first image measuring unit 11a and the second image measuring unit 11b of the motion processor 10 such as infrared rays, visible rays, and lasers.

入力信号計測手段23は、ユーザから制御命令の入力を受ける手段である。すなわち、ユーザは、コンピュータ入力装置であるマウスのクリックのような動作により、現在ユーザが行っている手の動きの有効性を指示する。このとき、入力信号計測手段23は、指輪形態のボタン操作、指または手首接触音、筋電図などを計測することにより、ユーザからの制御命令を認識する。   The input signal measuring means 23 is means for receiving a control command input from the user. That is, the user instructs the effectiveness of the hand movement currently performed by the user by an operation such as a mouse click which is a computer input device. At this time, the input signal measuring means 23 recognizes a control command from the user by measuring a ring-shaped button operation, finger or wrist contact sound, electromyogram, and the like.

例えば、ユーザが空間において指を動かす行為をすれば、入力信号計測手段23は、現在からの動作は有効な動作であると解釈し、動きの開始を指示する信号として認識する。また、入力信号計測手段23は、ユーザの動きがなかったり、あるいは筋電図を用いる場合には、指を打ち合わす行為と広げる行為から動きの開始と終了を指示する命令を計測することができる。   For example, if the user performs an action of moving a finger in the space, the input signal measuring unit 23 interprets the current operation as an effective operation and recognizes it as a signal instructing the start of the movement. Further, the input signal measuring means 23 can measure a command for instructing the start and end of movement from the action of striking fingers and the action of spreading when there is no movement of the user or an electromyogram is used. .

入力信号計測手段23は、計測されたユーザの制御命令を信号処理手段25に伝達する。   The input signal measuring unit 23 transmits the measured user control command to the signal processing unit 25.

信号処理手段25は、入力信号認識部25aと、命令処理部25bとを備える。   The signal processing means 25 includes an input signal recognition unit 25a and a command processing unit 25b.

入力信号認識部25aは、入力信号計測手段23によって計測されたユーザの制御命令を認識する。このとき、命令処理部25bは、入力信号認識部25aによって認識されたユーザの制御命令を、通信手段27を介して動き処理器機10の命令入力手段13に送信する。   The input signal recognition unit 25 a recognizes the user's control command measured by the input signal measurement unit 23. At this time, the command processing unit 25 b transmits the user control command recognized by the input signal recognition unit 25 a to the command input unit 13 of the motion processor 10 through the communication unit 27.

一方、命令処理部25bは、入力信号認識部25aによってユーザ動きの開始を知らせる命令が認識されれば、位置信号発生手段21に所定の制御信号を出力する。したがって、位置信号発生手段21は、命令処理部25bからの制御信号によって位置信号を発生する。   On the other hand, the command processing unit 25b outputs a predetermined control signal to the position signal generating unit 21 when the command notifying the start of the user movement is recognized by the input signal recognition unit 25a. Therefore, the position signal generating means 21 generates a position signal by the control signal from the command processing unit 25b.

図5は、本発明に係る動き処理器機の映像計測部に対する動作を説明するために参照される例示図である。図5に示すように、第1映像計測部11aと第2映像計測部11bは、正面の映像を取得するようになる。このとき、第1映像計測部11aと第2映像計測部11bの画角により、仮想のディスプレイ画面2が具現される領域を決定する。   FIG. 5 is an exemplary diagram that is referred to for explaining the operation of the motion measuring device according to the present invention for the video measurement unit. As shown in FIG. 5, the first video measurement unit 11 a and the second video measurement unit 11 b acquire a front video. At this time, an area where the virtual display screen 2 is implemented is determined based on the angle of view of the first video measurement unit 11a and the second video measurement unit 11b.

言い換えれば、第1映像計測部11aと第2映像計測部11bは一定の画角θを有し、第1映像計測部11aと第2映像計測部11bの画角が重なる領域に仮想のディスプレイ画面2が具現するようにする。   In other words, the first video measurement unit 11a and the second video measurement unit 11b have a certain angle of view θ, and the virtual display screen is in an area where the field angles of the first video measurement unit 11a and the second video measurement unit 11b overlap. 2 is embodied.

したがって、上述のように具現された3次元空間の仮想のディスプレイ画面2において、ユーザは拳を握ったり指を打ち合わす形態のジェスチャを取って仮想空間上のオブジェクトを選択し、その状態で手を動かして該当のオブジェクトを移動するようにコンピュータを制御できるようになる。   Therefore, on the virtual display screen 2 in the three-dimensional space embodied as described above, the user selects an object in the virtual space by taking a gesture in the form of grasping a fist or striking a finger and holding the hand in that state. The computer can be controlled to move and move the object.

図6は、本発明に係る座標計算方法に対する動作を説明するために参照される例示図である。図6を参照すれば、位置指示器機20の位置信号発生手段21から位置信号が発生されれば、第1映像計測部11aおよび第2映像計測部11bは位置信号を受信するようになる。   FIG. 6 is an exemplary diagram that is referred to in order to explain the operation of the coordinate calculation method according to the present invention. Referring to FIG. 6, when a position signal is generated from the position signal generation unit 21 of the position indicator device 20, the first image measurement unit 11 a and the second image measurement unit 11 b receive position signals.

このとき、3次元座標計算部15bは、位置信号発生手段21と第1映像計測部11aおよび第2映像計測部11bの位置に基づいて3次元座標を計算する。3次元座標の計算のためのモデルは、下記の数式1を用いて求めることができる。   At this time, the three-dimensional coordinate calculation unit 15b calculates the three-dimensional coordinates based on the positions of the position signal generation unit 21, the first video measurement unit 11a, and the second video measurement unit 11b. A model for calculating the three-dimensional coordinates can be obtained using Equation 1 below.

Figure 2010108500
Figure 2010108500

ここで、drは、第1映像計測部11aに位置信号発生手段21から発生された位置信号が到達した地点から中心までの距離である。dlは、第2映像計測部11bに位置信号発生手段21から発生された位置信号が到達した地点から中心までの距離である。また、Lは、第1映像計測部11aの中心から第2映像計測部11bの中心までの距離である。また、fは、第1映像計測部11aと第2映像計測部11bの中心から第1映像計測部11aと第2映像計測部11bに垂直方向に、位置信号発生手段21から発生した位置信号と出会う地点までの距離である。即ち、fは、第1映像計測部11aと第2映像計測部11bの焦点距離である。また、xは、第1映像計測部11aと第2映像計測部11bから位置信号発生手段21までの垂直距離である。   Here, dr is the distance from the point where the position signal generated from the position signal generating means 21 reaches the first video measurement unit 11a to the center. dl is the distance from the point where the position signal generated from the position signal generating means 21 arrives at the second image measuring unit 11b to the center. L is the distance from the center of the first video measurement unit 11a to the center of the second video measurement unit 11b. Further, f is a position signal generated from the position signal generating means 21 in the direction perpendicular to the first image measuring unit 11a and the second image measuring unit 11b from the center of the first image measuring unit 11a and the second image measuring unit 11b. The distance to the point of encounter. That is, f is the focal length of the first video measurement unit 11a and the second video measurement unit 11b. Further, x is a vertical distance from the first video measuring unit 11a and the second video measuring unit 11b to the position signal generating unit 21.

したがって、3次元座標計算部15bは、2次元座標計算部15aから抽出された2次元座標と上記で算出されたx値を用いて3次元座標を計算するようになる。   Therefore, the three-dimensional coordinate calculation unit 15b calculates the three-dimensional coordinates using the two-dimensional coordinates extracted from the two-dimensional coordinate calculation unit 15a and the x value calculated above.

上述のように構成される本発明の動作は、次のとおりとなる。図7は、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース方法に対する動作の流れを示すフローチャートであり、動き処理器機10の動作を示す図である。   The operation of the present invention configured as described above is as follows. FIG. 7 is a flowchart illustrating an operation flow of the wearable computing environment-based user interface method according to the present invention, and illustrates an operation of the motion processor 10.

図7に示すように、動き処理器機10は、位置指示器機20からの信号に基づいてユーザの身体動きを計測する(S100)。また、動き処理器機10の第1映像計測部11aおよび第2映像計測部11bのイメージセンサを用いて計測された動き映像を処理する(S110)。   As shown in FIG. 7, the motion processor 10 measures the user's body movement based on the signal from the position indicator 20 (S100). Further, the motion image measured using the image sensors of the first image measuring unit 11a and the second image measuring unit 11b of the motion processor 10 is processed (S110).

この後、2次元座標計算部15aは、「S110」過程の映像から2次元座標を計算し(S120)、3次元座標計算部15bは、「S120」過程における2次元座標および「S100」過程で受信された信号に基づいて3次元座標を計算する(S130)。   Thereafter, the two-dimensional coordinate calculation unit 15a calculates the two-dimensional coordinates from the video in the “S110” process (S120), and the three-dimensional coordinate calculation unit 15b performs the two-dimensional coordinates in the “S120” process and the “S100” process. Based on the received signal, a three-dimensional coordinate is calculated (S130).

一方、身体揺れ計測部11cは、「S100」過程で受信された信号から身体の揺れ程度を計測し(S140)、身体揺れ補正部15cは、「S140」過程で計測された情報によって該当の映像における身体の揺れおよびこれによる誤差を補正する(S150)。   On the other hand, the body shake measuring unit 11c measures the degree of body shake from the signal received in the “S100” process (S140), and the body shake correcting unit 15c uses the information measured in the “S140” process to determine the corresponding image. The body shake and the error due to this are corrected (S150).

パターン認識部15dは、「S130」過程で計算された3次元座標と、「S150」過程で補正された映像からユーザの動きパターンを認識し(S160)、「S160」過程で認識されたパターンに対応する命令データを抽出し、通信モジュールを介して着用型コンピュータに送信する(S170)。   The pattern recognition unit 15d recognizes the user's motion pattern from the three-dimensional coordinates calculated in the “S130” process and the video corrected in the “S150” process (S160), and converts the pattern to the pattern recognized in the “S160” process. Corresponding command data is extracted and transmitted to the wearable computer via the communication module (S170).

本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法は、着用型コンピューティングに適用されることを実施形態として記述したが、着用型コンピューティングだけではなく、一般的なコンピュータのインターフェース装置としても利用が可能なことは言うまでもない。   Although the wearable computing environment-based user interface apparatus and method according to the present invention have been described as being applied to wearable computing as an embodiment, not only wearable computing but also general computer interfaces Needless to say, it can also be used as a device.

以上のように、本発明に係る着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法は、上述した実施形態の構成と方法が限定されて適用されるのではなく、上述した実施形態は、多様な変形がなされるように各実施形態の全部または一部が選択的に組み合わせされて構成されることもできる。   As described above, the wearable computing environment-based user interface device and the method thereof according to the present invention are not applied with the configuration and method of the above-described embodiment being limited, and the above-described embodiment is various. All or some of the embodiments may be selectively combined so that various modifications are made.

Claims (14)

着用型コンピューティング環境基盤のユーザインターフェース装置であって、
ユーザの手首付近に着用されて光信号を発生する位置指示器機と、
前記位置指示器機から発生された光信号を受信し、ユーザ前面の映像をそれぞれ計測するためのイメージセンサを備えた複数の映像計測部を含む信号計測手段と、
前記信号計測手段によって計測されたそれぞれの映像を分析して3次元座標を計算し、前記信号計測手段によって受信された光信号から前記3次元座標上でユーザの手の動きパターンを認識し、対応する命令を出力する信号処理手段と
を備えることを特徴とする着用型コンピューティング環境基盤のユーザインターフェース装置。
A wearable computing environment based user interface device comprising:
A position indicator that is worn near the user's wrist and generates an optical signal;
A signal measuring unit including a plurality of video measuring units each including an image sensor for receiving an optical signal generated from the position pointing device and measuring a video on the front side of the user;
Analyzing each image measured by the signal measuring means to calculate a three-dimensional coordinate, recognizing the movement pattern of the user's hand on the three-dimensional coordinate from the optical signal received by the signal measuring means, A wearable computing environment-based user interface device, comprising: a signal processing means for outputting a command to perform.
前記信号処理手段は、
前記複数の映像計測部に備えられたイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The signal processing means includes
The virtual display screen is implemented in a region where the angles of view of image sensors provided in the plurality of video measurement units overlap with each other, and three-dimensional coordinates are calculated from the video on the virtual display screen. 2. A wearable computing environment-based user interface device according to 1.
前記信号処理手段は、
前記複数の映像計測部によって計測された各映像から2次元座標を抽出する2次元座標計算部を備え、
前記2次元座標計算部によって抽出された2次元座標および前記光信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The signal processing means includes
A two-dimensional coordinate calculation unit that extracts a two-dimensional coordinate from each image measured by the plurality of image measurement units;
The wearable computing according to claim 1, wherein three-dimensional coordinates are calculated based on the two-dimensional coordinates extracted by the two-dimensional coordinate calculation unit and hand position information detected by the optical signal. Environment-based user interface device.
前記映像計測部は、
前記位置指示器機から発生された位置信号と前記映像を区分するためのフィルタを備えることを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The video measurement unit
The wearable computing environment based user interface device of claim 1, further comprising a filter for distinguishing the position signal generated from the position pointing device and the image.
前記信号計測手段は、
ユーザの動きから身体の揺れ程度を計測する身体揺れ計測部をさらに備えることを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The signal measuring means is
The wearable computing environment-based user interface device according to claim 1, further comprising a body shake measuring unit that measures a degree of body shake from a user's movement.
前記身体揺れ計測部は、
慣性センサを含むことを特徴とする、請求項5に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The body shake measuring unit is
The wearable computing environment-based user interface device according to claim 5, further comprising an inertial sensor.
前記信号処理手段は、
前記身体揺れ計測部によって計測された身体の揺れ程度に基づいて、前記映像計測部から計測された映像の揺れを補正する身体揺れ補正部をさらに備えることを特徴とする、請求項5に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The signal processing means includes
6. The body shake correction unit according to claim 5, further comprising a body shake correction unit that corrects the shake of the image measured from the image measurement unit based on the degree of body shake measured by the body shake measurement unit. Wearable computing environment-based user interface device.
前記位置指示器機は、
ユーザの手の位置を示す光信号を発生する位置信号発生手段と、
ユーザから制御命令の入力を受ける入力信号計測手段と
を備え、
前記入力信号計測手段に入力されたユーザ制御命令に基づいて前記位置信号発生手段の動作を制御することを特徴とする、請求項1に記載の着用型コンピューティング環境基盤のユーザインターフェース装置。
The position indicator machine is:
Position signal generating means for generating an optical signal indicating the position of the user's hand;
An input signal measuring means for receiving a control command input from a user,
The wearable computing environment-based user interface device according to claim 1, wherein the operation of the position signal generating unit is controlled based on a user control command input to the input signal measuring unit.
着用型コンピューティング環境基盤のユーザインターフェース方法であって、
ユーザの手首付近に着用された位置指示器機からユーザの手の位置を示す光信号が発生されるステップと、
前記位置指示器機から発生された光信号を受信し、ユーザ前面に対する複数の映像を計測するステップと、
前記計測するステップで計測されたそれぞれの映像を分析して3次元座標を計算するステップと、
前記計測するステップで受信された光信号からユーザの手の位置を把握し、前記計算された3次元座標上でユーザの手の動きパターンを認識するステップと、
前記認識するステップで認識された動きパターンに対応する命令を出力するステップと
を備えることを特徴とする着用型コンピューティング環境基盤のユーザインターフェース方法。
A wearable computing environment based user interface method comprising:
Generating a light signal indicating the position of the user's hand from a position indicator device worn near the user's wrist;
Receiving an optical signal generated from the position pointing device and measuring a plurality of images on the front surface of the user;
Analyzing each image measured in the measuring step and calculating three-dimensional coordinates;
Recognizing the position of the user's hand from the optical signal received in the measuring step and recognizing the movement pattern of the user's hand on the calculated three-dimensional coordinates;
And a step of outputting a command corresponding to the motion pattern recognized in the step of recognizing the wearable computing environment based user interface method.
前記計算するステップは、
前記計測するステップで映像を計測する複数のイメージセンサの画角が互いに重なる領域に仮想のディスプレイ画面を具現し、前記仮想のディスプレイ画面の映像から3次元座標を計算することを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
The calculating step includes:
A virtual display screen is implemented in a region where the angles of view of a plurality of image sensors that measure video in the measuring step overlap each other, and three-dimensional coordinates are calculated from the video on the virtual display screen. Item 10. A wearable computing environment-based user interface method according to Item 9.
前記計算するステップは、
前記複数の映像計測手段によって計測された各映像から2次元座標を抽出するステップを備え、
前記抽出された2次元座標、および前記計測するステップの前記光信号によって感知された手の位置情報に基づいて3次元座標を計算することを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
The calculating step includes:
A step of extracting a two-dimensional coordinate from each image measured by the plurality of image measuring means,
The wearable computing according to claim 9, wherein three-dimensional coordinates are calculated based on the extracted two-dimensional coordinates and hand position information sensed by the optical signal of the measuring step. Environment-based user interface method.
前記計測するステップは、
前記ユーザの動きから身体の揺れ程度を計測するステップを備えることを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
The measuring step includes
The wearable computing environment-based user interface method according to claim 9, further comprising a step of measuring a degree of body shaking from the user's movement.
前記計測された身体の揺れ程度に基づいて、前記計測するステップで計測された映像の揺れを補正するステップをさらに備えることを特徴とする、請求項12に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。   The wearable computing environment-based user according to claim 12, further comprising a step of correcting the shaking of the image measured in the measuring step based on the measured degree of shaking of the body. Interface method. 前記光信号は、
ユーザから前記位置指示器機に手の動きの開始と終了を知らせる信号が入力されれば、前記入力された信号に基づいて発生されることを特徴とする、請求項9に記載の着用型コンピューティング環境基盤のユーザインターフェース方法。
The optical signal is
The wearable computing according to claim 9, wherein if the user inputs a signal indicating the start and end of hand movement to the position pointing device, the wearable computing is generated based on the input signal. Environment-based user interface method.
JP2009248773A 2008-10-29 2009-10-29 User interface device for wearable computing environmental base, and method therefor Pending JP2010108500A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080106474 2008-10-29
KR1020090090147A KR101284797B1 (en) 2008-10-29 2009-09-23 Apparatus for user interface based on wearable computing environment and method thereof

Publications (1)

Publication Number Publication Date
JP2010108500A true JP2010108500A (en) 2010-05-13

Family

ID=42274719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009248773A Pending JP2010108500A (en) 2008-10-29 2009-10-29 User interface device for wearable computing environmental base, and method therefor

Country Status (2)

Country Link
JP (1) JP2010108500A (en)
KR (1) KR101284797B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
JP2014132719A (en) * 2013-01-07 2014-07-17 Seiko Epson Corp Display device and control method for display device

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157073B1 (en) 2010-12-10 2012-06-21 숭실대학교산학협력단 Method for finger language recognition using emg and gyro sensor and apparatus thereof
KR20120064900A (en) * 2010-12-10 2012-06-20 곽진호 Mobile communication terminal having a privacy protection function and the method thereof, a computer readable medium recorded privacy protection function program
KR101800182B1 (en) 2011-03-16 2017-11-23 삼성전자주식회사 Apparatus and Method for Controlling Virtual Object
KR101251774B1 (en) * 2011-05-17 2013-04-05 목원대학교 산학협력단 Matching system, matching method, wearable input device and command signal providing method for incorporating real world into virtual reality for handicapped and elderly
KR101315303B1 (en) * 2011-07-11 2013-10-14 한국과학기술연구원 Head mounted display apparatus and contents display method
JP6155448B2 (en) 2012-11-01 2017-07-05 アイカム エルエルシー Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing
KR101397812B1 (en) * 2012-11-30 2014-05-20 강원대학교산학협력단 Input system of touch and drag type in remote
KR102065417B1 (en) * 2013-09-23 2020-02-11 엘지전자 주식회사 Wearable mobile terminal and method for controlling the same
KR102033334B1 (en) * 2014-02-03 2019-10-17 한국전자통신연구원 Wrist wearable apparatus with transformable material
KR101560474B1 (en) 2014-02-18 2015-10-14 성균관대학교산학협력단 Apparatus and method for providing 3d user interface using stereoscopic image display device
WO2015142023A1 (en) 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
KR20150110032A (en) 2014-03-24 2015-10-02 삼성전자주식회사 Electronic Apparatus and Method for Image Data Processing
KR101524575B1 (en) * 2014-08-20 2015-06-03 박준호 Wearable device
WO2016060461A1 (en) 2014-10-15 2016-04-21 Jun Ho Park Wearable device
KR101655820B1 (en) 2014-12-16 2016-09-22 현대자동차주식회사 Time of arrival notice system and there of method using smart glasses
KR101577359B1 (en) * 2015-03-16 2015-12-14 박준호 Wearable device
KR20170028130A (en) 2015-09-03 2017-03-13 박준호 Wearable device
KR102612988B1 (en) * 2016-10-20 2023-12-12 삼성전자주식회사 Display apparatus and image processing method thereof
WO2019079790A1 (en) 2017-10-21 2019-04-25 Eyecam, Inc Adaptive graphic user interfacing system
KR102163825B1 (en) * 2018-02-24 2020-10-13 링크플로우 주식회사 Method for implementing user interface of user equipment and apparatus for using the method
KR102102309B1 (en) * 2019-03-12 2020-04-21 주식회사 피앤씨솔루션 Object recognition method for 3d virtual space of head mounted display apparatus
WO2021117155A1 (en) 2019-12-11 2021-06-17 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method, and image processing program
WO2022250238A1 (en) * 2021-05-25 2022-12-01 (주) 이즈커뮤니케이션즈 System for information input into computer and method for calculating coordinates of input information by using information input system
KR102846044B1 (en) * 2025-06-10 2025-08-13 헬스온클라우드 주식회사 Method and system for automatic virtual object calibration for vr cpr training

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003035515A (en) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional position detection method and apparatus, and marker for three-dimensional position detection
JP2004013314A (en) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd Position measuring input support device
JP2005208182A (en) * 2004-01-21 2005-08-04 Sony Corp Display control apparatus and method, recording medium, and program
WO2006038577A1 (en) * 2004-10-05 2006-04-13 Nikon Corporation Electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078977A (en) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd Interface device
KR100571428B1 (en) * 2003-12-24 2006-04-17 한국전자통신연구원 Wearable Interface Device
KR100674090B1 (en) 2004-12-20 2007-01-24 한국전자통신연구원 Wearable Universal 3D Input System
KR100851977B1 (en) 2006-11-20 2008-08-12 삼성전자주식회사 A method and apparatus for controlling a user interface of an electronic device using a virtual plane.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003035515A (en) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional position detection method and apparatus, and marker for three-dimensional position detection
JP2004013314A (en) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd Position measuring input support device
JP2005208182A (en) * 2004-01-21 2005-08-04 Sony Corp Display control apparatus and method, recording medium, and program
WO2006038577A1 (en) * 2004-10-05 2006-04-13 Nikon Corporation Electronic device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSND200500584001; 安室 喜弘、外4名: '"Clip-Interface:ウェアラブルPCによる3次元作業空間インタフェースの提案"' 画像ラボ 第14巻 第7号, 20030701, p.1〜5, 日本工業出版株式会社 *
JPN6011064823; 安室 喜弘、外4名: '"Clip-Interface:ウェアラブルPCによる3次元作業空間インタフェースの提案"' 画像ラボ 第14巻 第7号, 20030701, p.1〜5, 日本工業出版株式会社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
JP2014132719A (en) * 2013-01-07 2014-07-17 Seiko Epson Corp Display device and control method for display device

Also Published As

Publication number Publication date
KR20100047793A (en) 2010-05-10
KR101284797B1 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
US20100103104A1 (en) Apparatus for user interface based on wearable computing environment and method thereof
JP5969626B2 (en) System and method for enhanced gesture-based dialogue
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
US10775946B2 (en) Universal handheld controller of a computer system
CN107918485B (en) Gesture detection system and method
KR101844390B1 (en) Systems and techniques for user interface control
US20220155866A1 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
EP3287871B1 (en) Wearable device and method for providing feedback of wearable device
US10120444B2 (en) Wearable device
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User&#39;s Range of Motion
CN110476168A (en) Method and system for hand tracking
CA2931364A1 (en) Computing interface system
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
CN104298340A (en) Control method and electronic equipment
EP3441849A1 (en) Pointing input device for personal computer based on fingers &#39; movements
US11054923B2 (en) Automatic switching between different modes of tracking user motions to control computer applications
WO2021207033A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
CN117784926A (en) Control device, control method, and computer-readable storage medium
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
KR20120037739A (en) User interface device and method based on hand gesture recognition
KR101588021B1 (en) An input device using head movement
Sugiyama et al. NAVIgoid: robot navigation with haptic vision
JP2024154673A (en) Processing device, control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121005