JP2003186596A - Display device and input method of display device - Google Patents
Display device and input method of display deviceInfo
- Publication number
- JP2003186596A JP2003186596A JP2001380236A JP2001380236A JP2003186596A JP 2003186596 A JP2003186596 A JP 2003186596A JP 2001380236 A JP2001380236 A JP 2001380236A JP 2001380236 A JP2001380236 A JP 2001380236A JP 2003186596 A JP2003186596 A JP 2003186596A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- display device
- information
- image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は様々な情報を表示す
る表示装置に関し、手の届かない距離から表示装置の制
御を行う入力方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device for displaying various information, and more particularly to an input method for controlling the display device from a distance out of reach.
【0002】[0002]
【従来の技術】表示パネル技術とディジタル情報化技術
の進展に伴って、壁に掛けられるような薄型の表示パネ
ルを用いた装置に配信や蓄積した情報を複数の人間で利
用する環境が整いつつある。そのために表示装置は情報
ソースの切り替えや、表示個所の指示といった入力操作
が必要となる。2. Description of the Related Art With the progress of display panel technology and digital information technology, an environment is being prepared in which a plurality of people can use information distributed or stored in a device using a thin display panel that can be hung on a wall. is there. For this reason, the display device requires input operations such as switching of information sources and indication of display points.
【0003】こうした表示装置を離れたところから空間
上で制御する入力方式としては、従来はキーボードを持
つリモコンが一般的であった。しかし、細かなポインテ
ィングの位置入力や複数で共用して使用される表示装置
に対しては次のような理由により不都合である。As a conventional input method for controlling such a display device in space from a distance, a remote controller having a keyboard has been generally used. However, it is inconvenient for a fine pointing position input and a display device commonly used by a plurality of people for the following reasons.
【0004】 マウスによる操作のような細かな位置
入力や、連続的な移動の指示はキーボードからは困難で
ある。
不特定なユーザで共用する装置では、リモコンの置
き場所やその使い方を周知させることが困難である。
特別な機器を手に持ったり、装着したりせずに入力
の指示が行えることが望ましい。It is difficult to input a fine position such as an operation with a mouse and give an instruction for continuous movement from the keyboard. In a device shared by unspecified users, it is difficult to publicize where the remote control is placed and how to use it. It is desirable to be able to give input instructions without holding or wearing special equipment.
【0005】上記の解決方法として人間のジェスチャー
を入力手段とする方法が提案されており、その従来例を
説明する。As a solution to the above, a method using a human gesture as an input means has been proposed, and a conventional example will be described.
【0006】図6のブロック図は特開平10−3155
1の例であって、表示装置制御のような高度な入力を可
能にするためにジェスチャーに加えて音声認識技術を用
いている。人間61のボデーアクションを画像センサ6
2で検出し、その補助手段としての音声入力手段63を
併用し、認識手段64が操作者の意図を判別して被制御
装置65としての表示装置等を制御するよう構成してい
る。The block diagram of FIG. 6 is disclosed in Japanese Patent Laid-Open No. 10-3155.
In one example, voice recognition technology is used in addition to gestures to enable advanced input such as display device control. Image sensor 6 for body action of human 61
2 and the voice input means 63 as an auxiliary means thereof are also used, and the recognition means 64 determines the intention of the operator and controls the display device or the like as the controlled device 65.
【0007】[0007]
【発明が解決しようとする課題】しかしながら上記従来
例のように音声入力を用いることにより、幾つかの不都
合な問題が発生する。一つ目には複数の不特定利用者に
対して音声入力が他者への迷惑になってしまうことであ
る。例えば美術館などの環境で展示物の説明を行う表示
装置では大変不都合である。二つ目には騒音その他、音
が既に存在している環境において自然発声による指示音
声を入力装置に分別させることは大変技術的に高度で高
価格となる点である。例えば、屋外や街頭に設置した場
合などである。また、屋外でなくても表示装置自体に説
明のための音声、音響を発生させていることの方が一般
的であり、ゲーム装置の場合にも効果音等がそれに当た
る。However, the use of voice input as in the above-mentioned conventional example causes some inconvenient problems. The first is that voice input is a nuisance to other unspecified users. For example, a display device for explaining an exhibit in an environment such as a museum is very inconvenient. Secondly, in an environment where noise and other sounds already exist, it is very technically advanced and expensive to separate the input voice by natural utterance into the input device. For example, when it is installed outdoors or on the street. In addition, it is more common to generate voices and sounds for explanation on the display device itself, even when not outdoors, and even in the case of a game device, a sound effect or the like corresponds thereto.
【0008】更には、制御を目的として音声認識のため
に発声を行わせることは通常の会話と異なり、人間にと
って苦痛な作業であることも大いに考慮する必要があ
る。Furthermore, it must be taken into consideration that making speech for voice recognition for control purposes is a painful task for humans, unlike ordinary conversation.
【0009】よって本発明は上記の問題点に鑑み、音声
入力のような他の補助入力手段を用いずに、人間の身体
動作にて高度な入力制御が行える表示装置及び入力方法
を提供することを目的とする。Therefore, in view of the above problems, the present invention provides a display device and an input method capable of performing advanced input control by human body movements without using other auxiliary input means such as voice input. With the goal.
【0010】[0010]
【課題を解決するための手段】本発明は上記の課題を解
決するために、電子情報を表示せしめる表示装置本体
と、人間の身体の動作を検出する画像入力手段と、該画
像入力手段記画像情報から身体動作を解析する動作解析
手段と、表示の制御を行う表示制御手段とを備え、前記
動作解析手段は身体動作を複数の部位の動作に分離する
分離手段と、夫々の動作部位毎の動作情報を出力する動
作情報出力手段とを更に有し、前記の夫々の動作情報出
力を組み合わせた結果に基づいて表示の制御を行うこと
を特徴とする。In order to solve the above problems, the present invention provides a display device main body for displaying electronic information, an image inputting means for detecting a motion of a human body, and an image recorded by the image inputting means. A motion analysis unit that analyzes body motion from information and a display control unit that controls display are provided, and the motion analysis unit separates the body motion into motions of a plurality of parts, and each motion part. It is characterized by further comprising motion information output means for outputting motion information, and performing display control based on a result of combining the respective motion information outputs.
【0011】請求項1,7に記載の、このような構成に
よれば、身体の動作による入力のみにて高度な表示制御
を行うことが可能となる。According to such a structure as described in claims 1 and 7, it is possible to perform high-level display control only by an input by the movement of the body.
【0012】また、請求項2、8に記載の本発明は、表
示装置の前に立つ複数の利用者の中から入力を行う利用
者を特定する方法を実現するものである。Further, the present invention according to claims 2 and 8 realizes a method of specifying a user who performs input from a plurality of users standing in front of a display device.
【0013】また、請求項3,9に記載のように本発明
においては、人間の右手と左手の動作とに対して画像情
報を分離し、一方の動作情報出力が選択や移動の操作を
行う選択的入力指示であり、他方の動作情報出力を少な
くとも前記選択的入力指示への決定指示とすることが望
ましい。Further, in the present invention as set forth in claims 3 and 9, the image information is separated for the motion of the human right hand and the motion of the left hand, and one motion information output performs the operation of selection or movement. It is a selective input instruction, and it is desirable that the other operation information output is at least a determination instruction for the selective input instruction.
【0014】また、請求項4,10に記載のように本発
明においては、人間の右手又は左手による手の動作と、
顔を動かす動作とに画像情報を分離し、一方の動作情報
出力が選択や移動の操作を行う選択的入力指示であり、
他方の動作情報出力を少なくとも前記選択的入力指示へ
の決定指示とすることが望ましい。Further, in the present invention as set forth in claims 4 and 10, the movement of the hand by the human right hand or left hand,
The image information is separated into the action of moving the face, and the action information output of one is the selective input instruction for performing the operation of selection or movement,
It is desirable that the other operation information output is at least a decision instruction for the selective input instruction.
【0015】また、請求項5、11に記載のように本発
明においては、先に顔の位置情報を抽出し、該顔の位置
情報を基にして対象とする動作部位を求めて分離する方
法を取ることが望ましい。Further, according to the present invention as set forth in claims 5 and 11, a method of extracting the position information of the face first, and obtaining and separating the target operation part based on the position information of the face. It is desirable to take
【0016】また、請求項6、12に記載のように本発
明においては、複数の利用者の中から入力を行う利用者
の特定をするにあたって、人間の右手と左手の動作とを
組み合わせたパターンであることが望ましい。Further, according to the present invention as set forth in claims 6 and 12, a pattern in which a human's right hand and left hand motions are combined in specifying a user who inputs from a plurality of users. Is desirable.
【0017】[0017]
【発明の実施の形態】以下に本発明の実施例を図面に基
づいて詳述する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.
【0018】図1は、本発明の実施例による表示装置の
全体図である。表示装置本体1は独立したネットワーク
端末としてIPアドレスを有し、制御回路2(図2にお
いて詳説する)、表示パネル3及び初期設定や受信アド
レス等を設定する設定入力手段4から構成され、配信さ
れる電子情報の受信手段である通信インタフェースには
通信回線5が接続されてインターネット網へと繋がって
いる。表示装置としては、屋外の表示パネルのような規
模の大きいものから家庭用の小規模なものまで多様であ
って、それにより表示パネルの大きさも変わってくる。
複数の人に共用される場合が主であるが、個人を対象と
したものであっても良い。装置の形態としてはパソコン
のような据え置きタイプでなく、このような壁面等に設
置する形が自然である。FIG. 1 is an overall view of a display device according to an embodiment of the present invention. The display device main body 1 has an IP address as an independent network terminal, is composed of a control circuit 2 (described in detail in FIG. 2), a display panel 3 and a setting input means 4 for setting initial settings, reception addresses, etc., and is distributed. A communication line 5 is connected to a communication interface, which is a means for receiving electronic information, and is connected to the Internet network. There are various types of display devices, from a large-scale display device such as an outdoor display panel to a small-scale display device for home use, and the size of the display panel also changes accordingly.
Although it is mainly shared by a plurality of people, it may be intended for an individual. As for the form of the device, it is not a stationary type like a personal computer, but it is natural that it is installed on such a wall surface.
【0019】情報の形態も文字情報から、静止画、動画
と多様化され、画像への音声付加も一般的に用いられ
る。従ってこのような情報を得る表示装置としては、常
時接続によるPUSHという配信形態となる。図1では
通信回線5のローカルなネットワークには監視カメラ6
も接続されてネットワークシステムを成し、離れたとこ
ろにある屋内又は屋外の様子を本発明の表示装置によっ
て見ることが出来、幼児等被保護者の様子の見守りや、
外部に対するセキュリティチェックその他の用途に用い
られる。The form of information is diversified from character information to still images and moving images, and addition of voice to images is also commonly used. Therefore, a display device for obtaining such information has a distribution form called PUSH by constant connection. In FIG. 1, a surveillance camera 6 is provided on the local network of the communication line 5.
Also connected to form a network system, the indoor or outdoor state at a distance can be seen by the display device of the present invention, and the state of a protected person such as an infant can be monitored.
Used for external security checks and other purposes.
【0020】そして、更にはインターネット網を通して
7、あるいは8に代表されるコンテンツサービス情報を
受信して表示する。こうしたコンテンツは、利用者の嗜
好によって選択され、料金等の契約がなされたニュース
やマガジン、あるいは自然風景と多様であって定期ある
いは不定期に更新されて送られてきて表示装置内に蓄積
される。Further, the content service information represented by 7 or 8 is received and displayed through the Internet network. These contents are diverse with news and magazines that have been selected according to the taste of the user and have a contract for charges, or natural scenery, and are regularly or irregularly updated and sent to be accumulated in the display device. .
【0021】また、図1では図示していないが表示装置
と同じローカルなネットワーク内にホームサーバなるサ
ーバを設置しておき、該サーバを窓口として入手した情
報を所定のフィルタ手段で選別してから表示装置へ送信
したり、大容量情報はサーバ内に蓄積しておくようなネ
ットワーク構成にしても良い。Although not shown in FIG. 1, a home server, which is not shown in FIG. 1, is installed in the same local network as the home server, and the information obtained using the server as a window is selected by a predetermined filter means. The network configuration may be such that the information is transmitted to the display device or the large amount of information is stored in the server.
【0022】9は人間の身体の動作を検出する画像入力
手段で、CCD等を用いた撮像デバイスである。Reference numeral 9 denotes an image input means for detecting the movement of the human body, which is an image pickup device using a CCD or the like.
【0023】図2は本発明の実施例による制御回路のブ
ロック図で、CPU11、内部バス12を介して表示用
コントローラであるD−CONT16、ビデオRAMで
あるVRAM15、受信情報を複数ページ蓄積しておく
ページメモリであるPAGE−RAM18が接続され、
D−CONT16の画像等の表示データは表示パネル1
7に出力されて表示される。表示パネルの方式としては
薄型化の構成が可能な、液晶、EL、プラズマ表示方式
等を用いることができる。FIG. 2 is a block diagram of a control circuit according to an embodiment of the present invention. A CPU 11 and a D-CONT 16 which is a display controller, a VRAM 15 which is a video RAM, and a plurality of pages of received information are accumulated via an internal bus 12. PAGE-RAM 18 which is a page memory to be placed is connected,
Display data such as images of D-CONT 16 are displayed on the display panel 1.
It is output to 7 and displayed. As a display panel method, a liquid crystal, EL, plasma display method or the like which can be thinned can be used.
【0024】更に内部バスには、前記設定入力手段4の
インタフェースであるKIF19、通信インタフェース
であるCOM−IF21、本発明の制御プログラムを内
蔵したROM13、内部メモリであるRAM14、表示
装置が有する特定の情報発生手段であるGEN23、音
声及び音響を発生するSP24、時刻情報及びタイマ処
理を行うタイマであるTIM25が接続され、続いて本
発明の入力方法に深く関わる画像入力手段28や画像入
力手段の画像情報から身体動作を解析する動作解析手段
DISである27、27の動作部位毎の動作情報出力で
あるRとLにより表示を制御する命令を形成するコマン
ド発生手段26、特定の比較パターンを記憶したパター
ンメモリ29より構成されている。Further, the internal bus has a KIF 19 which is an interface of the setting input means 4, a COM-IF 21 which is a communication interface, a ROM 13 which has a control program of the present invention built therein, a RAM 14 which is an internal memory, and a specific device which the display device has. An GEN23 which is an information generating means, an SP24 which generates a voice and a sound, a TIM25 which is a timer for performing time information and timer processing are connected, and subsequently, an image of the image inputting means 28 or an image inputting means which is deeply related to the inputting method of the present invention. Command generating means 26 for forming a command for controlling display by R and L which are motion information outputs 27 and 27 of motion analyzing means DIS for analyzing body motion from information, and a specific comparison pattern are stored. It is composed of a pattern memory 29.
【0025】動作解析手段27はCPUプログラム内に
格納されたアルゴリズムにより身体動作を複数の部位の
動作に分離し、夫々の動作部位毎の動作情報RとLを出
力する。R、Lは、例えば右手と左手の動作情報、或い
は右手と顔の上下左右の向き、更には、右手と左手と顔
の上下左右の向きといった3つの部位としても良い。そ
して、こうした解析の処理時間を速めるためには専用の
ICや専用のCPUを割り当てても良い。なお、本発明
で用いている手の動作の定義は、手の平や指といった狭
い意味でなく、腕から先の部位として広く定義してい
る。The motion analysis means 27 separates the body motion into motions of a plurality of parts by an algorithm stored in the CPU program, and outputs motion information R and L for each motion part. R and L may be, for example, three parts such as motion information of the right hand and the left hand, up / down / left / right orientation of the right hand / face, and further up / down / left / right orientation of the right hand / left hand and face. Then, in order to speed up the processing time of such analysis, a dedicated IC or a dedicated CPU may be assigned. It should be noted that the definition of the motion of the hand used in the present invention is not defined in a narrow sense such as a palm or a finger, but is defined broadly as a part beyond the arm.
【0026】コマンド発生手段26は動作情報出力R、
Lの組み合わせを用いて表示回路の制御を行う。特に初
期制御のような特定の制御には組み合わせた結果を一つ
のコマンドとするが、途中の複雑な制御のためには夫々
の動作情報出力R、L等に対して異なる種類の制御指示
を割り当てる。例えば、異なる制御指示として一方の動
作情報出力が選択や移動の操作を行う選択的入力指示で
あり、他方の動作情報出力を少なくとも前記選択的入力
指示への決定指示とする。また異なる制御指示への考え
方として表現を変えれば、一方を直接的な操作への指
示、他方をその直接的な指示に対しての決定、終了、中
断といった主従的な組み合わせの関係としても良い。The command generating means 26 outputs motion information R,
The display circuit is controlled by using the combination of L. In particular, the combined result is used as one command for specific control such as initial control, but for complicated control in the middle, different types of control instructions are assigned to the respective operation information outputs R, L, etc. . For example, as different control instructions, one operation information output is a selective input instruction for performing a selection or movement operation, and the other operation information output is at least a determination instruction for the selective input instruction. Further, if expressions are changed as a way of thinking for different control instructions, one may have a relationship of a master-slave combination such as an instruction for a direct operation and the other for determination, termination, and interruption for the direct instruction.
【0027】パターンメモリ29は前記初期制御のよう
な特定の制御のために、動作を組み合わせた結果を一つ
のコマンドとする比較パターンを格納しておくメモリで
ある。例えば複数の利用者から一人を選ぶ選択時や、特
定の機能の制御を開始するための場合などに適用する。
具体的な身体動作としては右手と左手による特定の形な
どとするのが自然である。The pattern memory 29 is a memory for storing a comparison pattern in which the result of combining operations is one command for a specific control such as the initial control. For example, it is applied when selecting one from a plurality of users or when starting control of a specific function.
As a specific physical movement, it is natural to have a specific shape with the right and left hands.
【0028】23のGENは表示装置自身による特定情
報発生手段であって、受信情報の到来前や受信情報を表
示し尽くしたときなどのベースの表示情報として使用す
る。例えば、時刻表示を針式アナログ時計表示の画像デ
ザインで、壁掛け時計の如く表示させておくことができ
る。GEN 23 is a specific information generating means by the display device itself, and is used as base display information before the arrival of the received information or when the received information is completely displayed. For example, the time display can be displayed like a wall clock with an image design of a needle type analog clock display.
【0029】KIF19は設定入力手段のキーボードで
あるKB20に接続されており、20は表示装置の初期
設定並びに受信を選択する情報先の設定などを行う。本
発明はこうした初期的な設定に加えて、個々の受信情報
に対しての優先ランクの設定なども行う。優先ランクに
より複数の情報を受信して同時に表示したい情報が複数
あったときに、表示装置自身がそのランク情報に基づき
表示の方法や順序等を処理し、かつ利用者が見るにあた
っても適切な情報掲示を行うことができる。The KIF 19 is connected to a KB 20 which is a keyboard of setting input means, and 20 performs initial setting of the display device and setting of an information destination for selecting reception. In addition to such initial setting, the present invention also sets a priority rank for each piece of received information. When there are multiple pieces of information that should be displayed at the same time by receiving multiple pieces of information according to the priority rank, the display device itself processes the display method and order based on the rank information, and the appropriate information for the user to view. You can post.
【0030】通信インタフェース21は通信伝送手段2
2に接続されている。そして22は電話線やLANケー
ブルに限定されず、無線によるワイヤレス方式、或いは
電灯線を用いた通信方式などにより本発明の表示装置を
構築できる。特に電灯線通信方式を用いることにより、
表示装置に要する電源供給を電灯線コンセントから取る
経路と共用ができるのでケーブル等の敷設を必要とせず
に設置が大変容易であり、無線における場合のように周
波数資源による端末収容数の問題や電波遮蔽物などを気
にしなくても良い。The communication interface 21 is the communication transmission means 2
Connected to 2. Reference numeral 22 is not limited to a telephone line or a LAN cable, and the display device of the present invention can be constructed by a wireless system such as a wireless system or a communication system using a power line. Especially by using the power line communication system,
Since the power supply required for the display device can be shared with the route taken from the power line outlet, it is very easy to install without the need for laying cables, etc. You don't have to worry about shields.
【0031】図3は本発明の実施例における身体の動作
解析と制御指令形成のフローチャートである。操作事例
としては左右の手を用いて、表示されている被操作対象
に対し、移動や選択を行う場合である。FIG. 3 is a flowchart of body motion analysis and control command formation in the embodiment of the present invention. An example of operation is a case where the left and right hands are used to move or select a displayed operated object.
【0032】まず、S―31で画像入力手段より出力さ
れた画像の中に人間が存在するかの解析と検出を行う。
存在が検出された場合には、S―32の処理によって右
手の動作と左手の動作に分離した解析出力を得る。First, in S-31, it is analyzed and detected whether a person exists in the image output from the image input means.
When the presence is detected, the analysis output which is separated into the right hand motion and the left hand motion is obtained by the process of S-32.
【0033】次にS―33では制御の開始を示している
身体の動作指示であるかの検出を行う。この場合は右手
と左手を組み合わせて一体化した動作そのものを開始の
指示としても良いし、あるいは左手のみが開始を指示す
るものとしても良い。Next, in S-33, it is detected whether or not it is a body motion instruction indicating the start of control. In this case, the operation itself, which is a combination of the right hand and the left hand, may be the start instruction, or only the left hand may be the start instruction.
【0034】制御の開始が指示されると、S―34にお
いて右手の動作に追従して表示画面中の被操作対象に対
し移動や選択が行われる。具体的には、カーソルの移動
であったり、画像中の特定部分の移動であったり、画面
全体のページ送りであったり、画像中に現れたリストの
中から特定の指示や文字を選択していく操作である。When the start of control is instructed, in S-34, movement or selection is performed with respect to the operated object on the display screen following the operation of the right hand. Specifically, it is the movement of the cursor, the movement of a specific part in the image, the page feed of the entire screen, or the selection of a specific instruction or character from the list that appears in the image. It is a go operation.
【0035】また、S―34と並行してS―35によっ
て左手の動作を監視し、特定パターンの有無を検出す
る。左手が操作の決定を表す動作を指示場合には、その
ときの右手によって指示された移動量や選択を結果を確
定する。左手の動作が決定を表すまでは右手の位置が示
す指示に基づく移動・選択を継続する。これは人間にと
って極めて指示をし易い手を用いて+方向と−方向のど
ちらもアナログ的に二次元上で指示できるためヒューマ
ンインタフェースとして大変優れている。なお、手の検
出部位としては手の平としても良いし、肘の角度や腕そ
のものの角度であっても良い。Further, in parallel with S-34, the operation of the left hand is monitored by S-35 to detect the presence / absence of a specific pattern. In the case where the left hand instructs the action indicating the decision of the operation, the result of the movement amount or the selection instructed by the right hand at that time is confirmed. The movement / selection based on the instruction indicated by the position of the right hand is continued until the action of the left hand indicates the decision. This is extremely excellent as a human interface because it is possible to instruct two-dimensionally in both the + direction and the-direction in an analog manner using a hand that is extremely easy for humans to instruct. The detection part of the hand may be the palm, or the angle of the elbow or the angle of the arm itself.
【0036】S―36はS―35の検出に基づき具体的
な確定処理を行い、表示装置の制御ルーチンにコマンド
を発行する。S-36 carries out a specific confirmation process based on the detection of S-35, and issues a command to the control routine of the display device.
【0037】図4は本発明の実施例における身体の動作
と操作の関係を例示する表示形態図である。図中の4A
は人間の動作を示し、表示装置に向かって左手を略直角
に右手を伸ばした状態を示している。FIG. 4 is a display mode diagram illustrating the relationship between body movements and operations in the embodiment of the present invention. 4A in the figure
Shows a human motion, and shows a state in which the left hand is extended at a substantially right angle toward the display device.
【0038】4Aは制御の開始を指示する動作を示して
おり、図のように両手がある形を示す状態を開始の指示
としているが、左手の動作のみで表しても良い。制御が
開始された後は具体的な制御操作となって4B、4Cに
表されている動作へと移行する。図4の右側にある4B
1、4C1、4C2は制御操作のモードになった以降の
表示装置の画面状態を表す。Reference numeral 4A indicates an operation for instructing the start of control. As shown in the figure, the state in which both hands have a certain shape is used as the start instruction, but it may be expressed only by the operation of the left hand. After the control is started, a specific control operation is performed, and the operations shown in 4B and 4C are performed. 4B on the right side of FIG.
1, 4C1 and 4C2 represent the screen states of the display device after the control operation mode is entered.
【0039】4Bは右手41の位置により画面状態4B
1にカーソル43が出現し、手の先端である41に追従
して移動する関係を示している。また、43はカーソル
でなくても表示画面上の構成部品を対象とすることもで
きる。4B shows the screen state 4B depending on the position of the right hand 41.
A cursor 43 appears at 1 and shows a relationship in which the cursor 43 moves following 41, which is the tip of the hand. Also, 43 may be a component on the display screen without being a cursor.
【0040】4Cは右腕42の角度を用いて画面状態4
C1に表示させた選択リスト44を上下に移動させる関
係を示している。また4C2は、画面4C2の表示隅に
表示させたページ表示部45を、腕角度42の上下動作
がページ送りとページ戻しを移動指示している関係を示
している。4C is a screen state 4 using the angle of the right arm 42.
The relationship of moving the selection list 44 displayed on C1 up and down is shown. Further, 4C2 shows the relationship in which the page display unit 45 displayed in the display corner of the screen 4C2 is instructed to move by the vertical movement of the arm angle 42 for page feed and page return.
【0041】上記の表示形態図における右手と左手の関
係は限定されるものではなく、逆であっても構わない。
また、手の動作でなく、手と顔の動作としても人間にと
って制御しやすい動作部位である。顔の動作としては上
下方向、左右方向ともに有用である。The relationship between the right hand and the left hand in the above display form diagram is not limited and may be reversed.
In addition, it is a movement part that is easy for humans to control not only the movement of the hand but also the movement of the hand and face. It is useful to move the face both vertically and horizontally.
【0042】4Zは移動や選択を決定した場合にその指
示を行う動作を示している。図の例では左手46が曲げ
状態から水平状態になったことで制御の内容を決定した
ことの指示を表している。本発明では複雑な移動や選択
と、決定動作を人間の異なる部位の動作をセレクト/セ
ット方法に対応させるようにしたことによって複雑、高
度な制御を人間にとって極めて容易に操作できる動作に
置き換えて実現している。そして、手の握り方や指とい
った細かな動作でなく、腕等による出来るだけ大きな動
作を用いていることにより表示装置が遠くからでも判別
し易く、誤判断を起こさないようにしている。Reference numeral 4Z indicates an operation for giving an instruction when the movement or selection is decided. In the example of the figure, the left hand 46 is changed from the bent state to the horizontal state, which indicates an instruction that the content of the control is determined. In the present invention, complicated movements and selections and decision actions are made to correspond to actions of different parts of human beings by the select / set method, so that complicated and sophisticated control is replaced by actions that are extremely easy for humans to operate. is doing. The display device is easy to discriminate even from a distance and does not cause a misjudgment by using a large movement by the arm or the like rather than a detailed movement such as grasping a hand or fingers.
【0043】本発明は利用者が表示装置と距離がある場
合の表示制御が主目的であるが、人間が他の操作のため
にキーボードを操作できない場合の用途にも有効である
ことは言うまでもない。この点に関しては、表示装置と
の距離が近い場合においてもキーボードを付けにくい構
成やキーボートを排してより簡単なヒューマンインタフ
ェースを実現する場合にも適している。The main purpose of the present invention is to control the display when the user is at a distance from the display device, but it goes without saying that the present invention is also effective for applications where the human cannot operate the keyboard for other operations. . In this respect, it is also suitable for a configuration in which it is difficult to attach a keyboard even when the distance from the display device is short, and a case where a simpler human interface is realized by eliminating the keyboard.
【0044】また、本発明の上記の構成は人間の動作を
平面的に検出しているため、画像の入力手段としては一
つのセンサで単純に平面入力するだけで良く、特別な装
置を必要としない。身体動作の入力方法としては手の動
作を平面の動きと前後の動きに分離する方法も考えられ
るが、その場合には二つの画像入力手段が必要になって
装置が複雑になってしまう。また、三次元的要素が入っ
てくると利用者が制御可能な位置や角度も制限され実用
性が低下してしまう。Further, since the above-described structure of the present invention detects human motions on a plane, only one sensor needs to be used for plane input as an image input means, and a special device is required. do not do. As a method of inputting a body motion, a method of separating a motion of a hand into a plane motion and a front-back motion can be considered, but in that case, two image input means are required and the device becomes complicated. In addition, if a three-dimensional element is introduced, the position and angle that can be controlled by the user are limited, and the practicality is reduced.
【0045】図4に記載している4Xは複数の人間が表
示装置の前に立っていたときに、制御しようとした利用
者の特定化とそれを表示装置が識別するための動作パタ
ーンを示している。4Xの例では右手と左手を共に略直
角に曲げた状態で特定化パターンを指示している。4X
に限定されるものではないが、出来るだけ意図的な動作
であって、表示装置にも回りの他の人間にも識別し易い
動作パターンであることが望ましい。Reference numeral 4X shown in FIG. 4 shows an operation pattern for identifying the user who tried to control when a plurality of persons are standing in front of the display device and for identifying the user. ing. In the 4X example, the specific pattern is instructed in a state where both the right hand and the left hand are bent at substantially right angles. 4X
Although not limited to this, it is desirable that the operation pattern is an intentional operation as much as possible and that the operation pattern is easily recognized by the display device and other people around.
【0046】図5は本発明の実施例によるフローチャー
トの一部で、特に身体の部位を識別する部分を示してい
る。FIG. 5 is a part of a flowchart according to an embodiment of the present invention, and particularly shows a part for identifying a body part.
【0047】まず、S―51で目、鼻、口等による人間
の顔の特徴により顔の識別とその位置を抽出する。次に
S―52で顔の外形を識別し、S―53で顔の向きを判
別する。従って、顔の位置、向き、外形から腕や手の画
像が存在する距離や範囲が推定できるので、それに基づ
いた予想範囲と実画像の輪郭パターンより効率的に目的
とする部位の形や動作を求めることができる。First, in S-51, the face is identified and its position is extracted from the features of the human face such as the eyes, nose, and mouth. Next, the outline of the face is identified in S-52, and the orientation of the face is identified in S-53. Therefore, it is possible to estimate the distance and range in which the image of the arm or hand exists from the position, orientation, and outline of the face, and the shape and movement of the target part can be estimated more efficiently than the expected range and the contour pattern of the actual image based on that. You can ask.
【0048】[0048]
【発明の効果】以上説明したように本発明によれば、情
報を掲示する表示装置において、人間の身体動作のみの
操作で高度な表示の制御が可能にすることができる。ま
た、本発明によれば、複数の利用者に情報を掲示する表
示装置において、利用者を特定化し、その利用者による
身体動作で高度な表示の制御が可能になる。As described above, according to the present invention, in a display device for displaying information, it is possible to perform advanced display control by operating only a human body movement. Further, according to the present invention, in a display device that displays information to a plurality of users, the user can be specified, and advanced display control can be performed by the body motion of the user.
【0049】[0049]
【図1】 本発明による表示装置の実施例を示す全体図
である。FIG. 1 is an overall view showing an embodiment of a display device according to the present invention.
【図2】 本発明による表示装置の実施例を示す制御回
路のブロック図である。FIG. 2 is a block diagram of a control circuit showing an embodiment of a display device according to the present invention.
【図3】 本発明による表示装置の実施例のフローチャ
ートである。FIG. 3 is a flow chart of an embodiment of a display device according to the present invention.
【図4】 本発明による表示装置の実施例の表示形態図
である。FIG. 4 is a display form diagram of an embodiment of a display device according to the present invention.
【図5】 本発明による表示装置の部分フローチャート
である。FIG. 5 is a partial flowchart of a display device according to the present invention.
【図6】 従来例のブロック図である。FIG. 6 is a block diagram of a conventional example.
1・・表示装置本体 2・・制御回路 3、17・・表示パネル 5・・通信回線 6・・監視カメラ 7、8・・コンテンツサービス情報の送信元 9・・画像入力手段 16・・表示用コントローラ 18・・ページメモリ 21・・通信インタフェース 22・・通信伝送手段 23・・特定の情報発生手段 26・・コマンド発生手段 27・・動作解析手段 28・・画像入力手段 29・・パターンメモリ 1..Display unit body 2 ... Control circuit Display panel 5 ... Communication line 6 ... Surveillance camera 7, 8 ... Source of content service information 9. Image input means 16 ... Display controller ..Page memory 21..Communication interface 22 .. Communication transmission means 23..Specific information generation means 26 .. Command generation means 27 .. Motion analysis means 28 .. Image input means ..Pattern memory
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B087 AA10 AB02 BC06 5C082 AA13 BA41 BB53 CA54 CB05 DA22 DA42 DA73 DA86 MM02 MM05 MM09 5L096 BA02 CA14 DA02 FA06 FA67 FA69 HA01 JA22 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 5B087 AA10 AB02 BC06 5C082 AA13 BA41 BB53 CA54 CB05 DA22 DA42 DA73 DA86 MM02 MM05 MM09 5L096 BA02 CA14 DA02 FA06 FA67 FA69 HA01 JA22
Claims (12)
と、人間の身体の動作を検出する画像入力手段と、該画
像入力手段記画像情報から身体動作を解析する動作解析
手段と、表示の制御を行う表示制御手段とを備えた表示
装置において、前記動作解析手段は身体動作を複数の部
位の動作に分離する分離手段と、夫々の動作部位毎の動
作情報を出力する動作情報出力手段とを更に有し、前記
の夫々の動作情報出力組み合わせた結果に基づいて表示
の制御を行うことを特徴とする表示装置。1. A display device main body for displaying electronic information, an image input means for detecting a movement of a human body, a movement analysis means for analyzing a body movement from image information recorded in the image input means, and a display control. In the display device including display control means for performing, the motion analysis means further includes a separation means for separating a body motion into motions of a plurality of parts, and a motion information output means for outputting motion information for each motion part. A display device, characterized by comprising: controlling display based on a result of combining the respective operation information outputs.
と、人間の身体の動作を検出する画像入力手段と、該画
像入力手段記画像情報から身体動作を解析する動作解析
手段と、表示の制御を行う表示制御手段とを備えた表示
装置において、前記動作解析手段は身体動作を複数の部
位の動作に分離する分離手段と、夫々の動作部位毎の動
作情報を出力する動作情報出力手段とを更に有し、前記
動作部位毎の動作情報出力を組み合わせた結果が予め設
定した特定のパターンであった場合には、該特定パター
ンを発生させた画像発生者を表示の制御者として決定
し、以後は前記発生者についてのみ動作の検出と解析を
行うことを特徴とする表示装置。2. A display device main body for displaying electronic information, an image input means for detecting a movement of a human body, a movement analysis means for analyzing a body movement from the image information recorded in the image input means, and a display control. In the display device including display control means for performing, the motion analysis means further includes a separation means for separating a body motion into motions of a plurality of parts, and a motion information output means for outputting motion information for each motion part. If the result of combining the operation information output for each operation part is a preset specific pattern, the image generator who generated the specific pattern is determined as the display controller, and thereafter, A display device, which detects and analyzes a motion only for the person who generated the motion.
作とに対して画像情報を分離し、一方の動作情報出力が
選択や移動の操作を行う選択的入力指示であり、他方の
動作情報出力を少なくとも前記選択的入力指示への決定
指示とすることを特徴する請求項1又は2に記載の表示
装置。3. The separating means separates image information into human right hand and left hand motions, and one motion information output is a selective input instruction for performing a selection or movement operation, and the other motion. The display device according to claim 1, wherein the information output is at least a determination instruction for the selective input instruction.
よる手の動作と、顔を動かす動作とに画像情報を分離
し、一方の動作情報出力が選択や移動の操作を行う選択
的入力指示であり、他方の動作情報出力を少なくとも前
記選択的入力指示への決定指示とすることを特徴する請
求項1又は2に記載の表示装置。4. The selective input instruction, wherein the separating means separates image information into a hand motion of a human right or left hand and a motion of moving a face, and one motion information output performs a selection or movement operation. 3. The display device according to claim 1, wherein the other operation information output is at least a determination instruction for the selective input instruction.
情報を抽出し、該顔の位置情報を基にして対象とする動
作部位を求めて分離することを特徴する請求項1ないし
4のいずれかに記載の表示装置。5. The motion part separating means extracts the position information of the face first, obtains and separates the target motion part based on the position information of the face, and separates the target motion part. The display device according to any one of 1.
手の動作とを組み合わせたパターンであることを特徴す
る請求項2記載の表示装置。6. The display device according to claim 2, wherein the specific pattern is a combination of human right hand and left hand motions.
検出する第1のステップと、 該画像情報を身体の部位に分離し、各部位ごとの動作と
して動作情報を出力する第2のステップと、 前記の夫々の動作情報出力を組み合わせて制御指令を形
成し、表示制御手段へ出力する第3のステップと、 前記制御指令に基づいて表示装置の表示制御を行う第4
のステップとを有することを特徴とする表示装置の入力
方法。7. A first step of detecting an image of a human body by an image input means, and a second step of separating the image information into body parts and outputting motion information as a motion for each part. A third step of forming a control command by combining the respective operation information outputs and outputting the control command to the display control means; and a fourth step of performing display control of the display device based on the control command.
And an input method for a display device.
検出する第1のステップと、 該画像情報を身体の部位に分離し、各部位ごとの動作と
して動作情報を出力する第2のステップと、 前記動作情報出力を組み合わせた結果が予め設定した特
定のパターンであることを検出した場合に、該特定パタ
ーンを発生させた画像発生者を表示の制御者として決定
し、以後は前記発生者についてのみ制御指令を形成し、
表示制御手段へ出力する第3のステップと、 前記制御指令に基づいて表示装置の表示制御を行う第4
のステップとを有することを特徴とする表示装置の入力
方法。8. A first step of detecting an image of a human body by an image input means, and a second step of separating the image information into body parts and outputting motion information as a motion for each part. When it is detected that the result of combining the operation information outputs is a preset specific pattern, the image generator who generated the specific pattern is determined as a display controller, and thereafter, the image generator is determined. Only form control commands,
A third step of outputting to the display control means, and a fourth step of performing display control of the display device based on the control command.
And an input method for a display device.
手と左手の動作とに対して画像情報を分離して夫々の動
作情報を出力し、 前記第3のステップにおいて、一方の動作情報出力が選
択や移動の操作を行う選択的入力指示であり、他方の動
作情報出力を少なくとも前記選択的入力指示への決定指
示とすることを特徴する請求項7又は8に記載の表示装
置の入力方法。9. In the second step, image information is separated for the motions of the right hand and the left hand of a human and the respective motion information is output, and in the third step, one motion information output is performed. 9. The input method of the display device according to claim 7, wherein the input operation is a selective input instruction for performing a selection operation or a movement operation, and the other operation information output is at least a determination instruction for the selective input instruction.
右手又は左手による手の動作と顔を動かす動作とに対し
て画像情報を分離して夫々の動作情報を出力し、 前記第3のステップにおいて、一方の動作情報出力が選
択や移動の操作を行う選択的入力指示であり、他方の動
作情報出力を少なくとも前記選択的入力指示への決定指
示とすることを特徴する請求項7又は8に記載の表示装
置の入力方法。10. In the second step, image information is separated for a hand motion with a human right hand or a left hand and a motion of moving a face, and respective motion information is output, and in the third step, The operation information output of one is a selective input instruction for performing a selection or movement operation, and the operation information output of the other is at least a determination instruction for the selective input instruction. Input method of the display device.
の位置情報を抽出し、該顔の位置情報を基にして対象と
する動作部位を求めて分離することを特徴する請求項7
ないし10のいずれかに記載の表示装置の入力方法。11. The method according to claim 7, wherein in the second step, face position information is first extracted, and a target operation part is obtained and separated based on the face position information.
11. The input method of the display device according to any one of 1 to 10.
定のパターンは、人間の右手と左手の動作とを組み合わ
せたパターンであることを特徴する請求項8記載の表示
装置の入力方法。12. The input method for a display device according to claim 8, wherein in the third step, the specific pattern is a pattern in which a right hand motion and a left hand motion of a human are combined.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001380236A JP3997392B2 (en) | 2001-12-13 | 2001-12-13 | Display device and input method of display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001380236A JP3997392B2 (en) | 2001-12-13 | 2001-12-13 | Display device and input method of display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003186596A true JP2003186596A (en) | 2003-07-04 |
JP3997392B2 JP3997392B2 (en) | 2007-10-24 |
Family
ID=27591368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001380236A Expired - Fee Related JP3997392B2 (en) | 2001-12-13 | 2001-12-13 | Display device and input method of display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3997392B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209563A (en) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | Interface device |
JP2010017571A (en) * | 2009-09-24 | 2010-01-28 | Daiichi Shokai Co Ltd | Game machine |
JP2010176510A (en) * | 2009-01-30 | 2010-08-12 | Sanyo Electric Co Ltd | Information display device |
JP2010238145A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Information output device, remote control method, and program |
US7849421B2 (en) | 2005-03-19 | 2010-12-07 | Electronics And Telecommunications Research Institute | Virtual mouse driving apparatus and method using two-handed gestures |
JP2010283691A (en) * | 2009-06-05 | 2010-12-16 | Casio Computer Co Ltd | Image specifying device, display control device, image specifying program, and display control program |
JP2011095984A (en) * | 2009-10-29 | 2011-05-12 | Nikon Corp | Image display apparatus |
WO2012039140A1 (en) * | 2010-09-22 | 2012-03-29 | 島根県 | Operation input apparatus, operation input method, and program |
JP2012516497A (en) * | 2009-01-30 | 2012-07-19 | トムソン ライセンシング | Method for controlling and requesting information from a multimedia display |
JP2012222784A (en) * | 2011-04-14 | 2012-11-12 | Casio Comput Co Ltd | Remote operation device, remote operation method and program |
WO2012161279A1 (en) * | 2011-05-25 | 2012-11-29 | 株式会社コナミデジタルエンタテインメント | Instruction-receiving device, instruction receiving method, non-temporary recording medium, and program |
JP2013016060A (en) * | 2011-07-05 | 2013-01-24 | Shimane Prefecture | Operation input device, operation determination method, and program |
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
WO2013137412A1 (en) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program |
KR20140014129A (en) * | 2011-01-19 | 2014-02-05 | 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. | Method and system for multimodal and gestural control |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5658500B2 (en) | 2010-07-26 | 2015-01-28 | キヤノン株式会社 | Information processing apparatus and control method thereof |
CN110164440B (en) * | 2019-06-03 | 2022-08-09 | 交互未来(北京)科技有限公司 | Voice interaction awakening electronic device, method and medium based on mouth covering action recognition |
-
2001
- 2001-12-13 JP JP2001380236A patent/JP3997392B2/en not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209563A (en) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | Interface device |
US7849421B2 (en) | 2005-03-19 | 2010-12-07 | Electronics And Telecommunications Research Institute | Virtual mouse driving apparatus and method using two-handed gestures |
JP2012516497A (en) * | 2009-01-30 | 2012-07-19 | トムソン ライセンシング | Method for controlling and requesting information from a multimedia display |
JP2010176510A (en) * | 2009-01-30 | 2010-08-12 | Sanyo Electric Co Ltd | Information display device |
US9639744B2 (en) | 2009-01-30 | 2017-05-02 | Thomson Licensing | Method for controlling and requesting information from displaying multimedia |
JP2010238145A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Information output device, remote control method, and program |
JP2010283691A (en) * | 2009-06-05 | 2010-12-16 | Casio Computer Co Ltd | Image specifying device, display control device, image specifying program, and display control program |
JP2010017571A (en) * | 2009-09-24 | 2010-01-28 | Daiichi Shokai Co Ltd | Game machine |
JP2011095984A (en) * | 2009-10-29 | 2011-05-12 | Nikon Corp | Image display apparatus |
WO2012039140A1 (en) * | 2010-09-22 | 2012-03-29 | 島根県 | Operation input apparatus, operation input method, and program |
CN103154858A (en) * | 2010-09-22 | 2013-06-12 | 岛根县 | Operation input apparatus, operation input method, and program |
EP2620849A4 (en) * | 2010-09-22 | 2017-02-22 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
US9329691B2 (en) | 2010-09-22 | 2016-05-03 | Shimane Prefectural Government | Operation input apparatus and method using distinct determination and control areas |
JP2014507714A (en) * | 2011-01-19 | 2014-03-27 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Method and system for multimodal and gesture control |
KR20140014129A (en) * | 2011-01-19 | 2014-02-05 | 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. | Method and system for multimodal and gestural control |
KR101690117B1 (en) | 2011-01-19 | 2016-12-27 | 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. | Method and system for multimodal and gestural control |
US9778747B2 (en) | 2011-01-19 | 2017-10-03 | Hewlett-Packard Development Company, L.P. | Method and system for multimodal and gestural control |
JP2012222784A (en) * | 2011-04-14 | 2012-11-12 | Casio Comput Co Ltd | Remote operation device, remote operation method and program |
CN103562823A (en) * | 2011-05-25 | 2014-02-05 | 科乐美数码娱乐株式会社 | Instruction-receiving device, instruction receiving method, non-temporary recording medium, and program |
JP2012247823A (en) * | 2011-05-25 | 2012-12-13 | Konami Digital Entertainment Co Ltd | Instruction reception device, instruction reception method, and program |
WO2012161279A1 (en) * | 2011-05-25 | 2012-11-29 | 株式会社コナミデジタルエンタテインメント | Instruction-receiving device, instruction receiving method, non-temporary recording medium, and program |
JP2013016060A (en) * | 2011-07-05 | 2013-01-24 | Shimane Prefecture | Operation input device, operation determination method, and program |
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
WO2013137412A1 (en) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program |
JPWO2013137412A1 (en) * | 2012-03-15 | 2015-08-03 | オムロン株式会社 | Control device, electronic device, control method, control program, and computer-readable recording medium storing control program |
Also Published As
Publication number | Publication date |
---|---|
JP3997392B2 (en) | 2007-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003186596A (en) | Display device and input method of display device | |
JP7127645B2 (en) | Information processing device, information processing method, and program | |
JP7338626B2 (en) | Information processing device, information processing method and program | |
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
US9218781B2 (en) | Information processing apparatus, display control method, and program | |
CN103442201B (en) | Enhancing interface for voice and video communication | |
US20150338651A1 (en) | Multimodal interation with near-to-eye display | |
WO2020078319A1 (en) | Gesture-based manipulation method and terminal device | |
EP3276618A1 (en) | Information processing system and information processing method | |
CN102981610A (en) | Input Apparatus | |
CN106325517A (en) | Target object trigger method and system and wearable equipment based on virtual reality | |
JPWO2018216355A1 (en) | Information processing apparatus, information processing method, and program | |
WO2016157330A1 (en) | Mobile monitoring device, program, and control method | |
CN118502695A (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
US20200125398A1 (en) | Information processing apparatus, method for processing information, and program | |
CN113138669A (en) | Image acquisition method, device and system of electronic equipment and electronic equipment | |
JP2017035215A (en) | Information processing apparatus, information processing system, and character movement control program | |
Yamato et al. | Hand gesture interaction with a low-resolution infrared image sensor on an inner wrist | |
JP2018036974A (en) | Information processing system | |
JP2017035214A (en) | Information processor, information processing system, and character movement control program | |
WO2019054037A1 (en) | Information processing device, information processing method and program | |
WO2019138682A1 (en) | Information processing device, information processing method, and program | |
JP3625549B2 (en) | Multipoint video conferencing system | |
WO2018139050A1 (en) | Information processing device, information processing method, and program | |
CN115576414A (en) | Projection limb interaction system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061228 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20061228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070724 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100817 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110817 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120817 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130817 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |