JPH0981309A - 入力装置 - Google Patents
入力装置Info
- Publication number
- JPH0981309A JPH0981309A JP7235834A JP23583495A JPH0981309A JP H0981309 A JPH0981309 A JP H0981309A JP 7235834 A JP7235834 A JP 7235834A JP 23583495 A JP23583495 A JP 23583495A JP H0981309 A JPH0981309 A JP H0981309A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- instruction
- attention
- unit
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
(57)【要約】
【課題】操作者が動作指示を要する機器を特定すること
により、操作者の意図的な行為に基づく指示を入力でき
る入力装置を提供すること。 【解決手段】操作者の成す所定の行為を検出しその行為
に対応する指示を出力する入力装置において、前記操作
者の成す第1の行為に基づき前記操作者が操作対象に対
して注目状態にあることを検出する注目度検出手段(1
1)と、前記操作者の成す第2の行為に基づき前記操作
者による前記操作対象に対する動作指示を検出する動作
指示検出手段(13)と、前記注目度検出手段(11)
で注目状態にあることが検出された場合、前記動作指示
検出手段(13)で検出された動作指示に対応する指示
を出力する指示出力手段と(14)を具備。
により、操作者の意図的な行為に基づく指示を入力でき
る入力装置を提供すること。 【解決手段】操作者の成す所定の行為を検出しその行為
に対応する指示を出力する入力装置において、前記操作
者の成す第1の行為に基づき前記操作者が操作対象に対
して注目状態にあることを検出する注目度検出手段(1
1)と、前記操作者の成す第2の行為に基づき前記操作
者による前記操作対象に対する動作指示を検出する動作
指示検出手段(13)と、前記注目度検出手段(11)
で注目状態にあることが検出された場合、前記動作指示
検出手段(13)で検出された動作指示に対応する指示
を出力する指示出力手段と(14)を具備。
Description
【0001】
【発明の属する技術分野】本発明は、例えば家庭電気機
器やオフィス機器等の動作指示を視線入力やジェスチャ
入力にて行なうのに適用される入力装置に関する。
器やオフィス機器等の動作指示を視線入力やジェスチャ
入力にて行なうのに適用される入力装置に関する。
【0002】
【従来の技術】近年、家庭電気機器などをより手軽に操
作するために、機器への動作指示を操作者の視線、音
声、ジェスチャ等にて行なう入力装置のニーズが高まっ
てきている。操作者にとって使いやすいこれらの入力装
置は、将来家庭内やオフイス内に多数現われることが予
想されている。
作するために、機器への動作指示を操作者の視線、音
声、ジェスチャ等にて行なう入力装置のニーズが高まっ
てきている。操作者にとって使いやすいこれらの入力装
置は、将来家庭内やオフイス内に多数現われることが予
想されている。
【0003】従来、この種の視線、音声、ジェスチャに
よる入力装置では、その入力に係る指示を操作者の単純
な動作にて行なうよう設定している。例えば視線を用い
た入力装置としては特開平02−173696(画像表
示装置)に示されているコンピュータの画面のスクロー
ルを視線で指示する装置や、特開平02−178721
(座標入力装置)に示されているディスプレイ内で操作
者が視線を向けている位置に自動的にカーソルを移動す
る装置等が考えられている。
よる入力装置では、その入力に係る指示を操作者の単純
な動作にて行なうよう設定している。例えば視線を用い
た入力装置としては特開平02−173696(画像表
示装置)に示されているコンピュータの画面のスクロー
ルを視線で指示する装置や、特開平02−178721
(座標入力装置)に示されているディスプレイ内で操作
者が視線を向けている位置に自動的にカーソルを移動す
る装置等が考えられている。
【0004】またその他の従来例としては、特開平03
−87818(視線で作動機能を選択できる装置:カメ
ラにおいてファインダ内の選択指標を注視すると指標が
点滅し、選択状況を確認できる。)、特開平03−10
7932(カメラの撮影制御装置:注視点の焦点位置お
よび測光情報を基にピント合わせ、絞りを制御す
る。)、特開平03−107933(カメラの自動露出
制御装置:注視点から測光すべき領域を求める。)、特
開平03−107934(視線信号を利用した露出制御
装置:注視点に合わせて露出制御を行なう。)等、注視
点の情報からカメラを制御する装置等がある。
−87818(視線で作動機能を選択できる装置:カメ
ラにおいてファインダ内の選択指標を注視すると指標が
点滅し、選択状況を確認できる。)、特開平03−10
7932(カメラの撮影制御装置:注視点の焦点位置お
よび測光情報を基にピント合わせ、絞りを制御す
る。)、特開平03−107933(カメラの自動露出
制御装置:注視点から測光すべき領域を求める。)、特
開平03−107934(視線信号を利用した露出制御
装置:注視点に合わせて露出制御を行なう。)等、注視
点の情報からカメラを制御する装置等がある。
【0005】さらに、例えばジェスチャを用いた入力装
置の従来例としては、特開平01−314320(手装
着型データ入力方式)に示されている手袋の表面に圧力
センサを取り付けて指相互で押し合うことによりデータ
入力を行なう装置や、特開平01−188925(カー
ソル移動方法及びそのための慣性入力装置)に示されて
いる、手に加速度センサを付けてコンピュータのディス
プレイ上のカーソルを移動させる装置等がある。
置の従来例としては、特開平01−314320(手装
着型データ入力方式)に示されている手袋の表面に圧力
センサを取り付けて指相互で押し合うことによりデータ
入力を行なう装置や、特開平01−188925(カー
ソル移動方法及びそのための慣性入力装置)に示されて
いる、手に加速度センサを付けてコンピュータのディス
プレイ上のカーソルを移動させる装置等がある。
【0006】
【発明が解決しようとする課題】上述したような操作者
による動作指示を入力することにより操作を行なう機器
においては、一般にその機器への動作指示は簡易なもの
である。しかしその反面、検出される動作が単純である
ために操作者の無意識な動作にも反応してしまい、意図
しない動作をするといった弊害がある。例えば、操作者
の視線を検出してその注視点を求め、コンピュータディ
スプレイのカーソル位置やカメラの露出調整位置を制御
する機器の場合、操作者の“ぼーっと遠くを見る”、
“くしゃみや咳で頭が動く”、“声をかけられてあわて
て振り向く”等、不意にあるいは無意識に視線を動かし
てしまう動作にも反応することが数多くある。
による動作指示を入力することにより操作を行なう機器
においては、一般にその機器への動作指示は簡易なもの
である。しかしその反面、検出される動作が単純である
ために操作者の無意識な動作にも反応してしまい、意図
しない動作をするといった弊害がある。例えば、操作者
の視線を検出してその注視点を求め、コンピュータディ
スプレイのカーソル位置やカメラの露出調整位置を制御
する機器の場合、操作者の“ぼーっと遠くを見る”、
“くしゃみや咳で頭が動く”、“声をかけられてあわて
て振り向く”等、不意にあるいは無意識に視線を動かし
てしまう動作にも反応することが数多くある。
【0007】また、操作者の手の動きや体の動きをジェ
スチャ認識し動作する機器の場合、操作者の無意識の動
作が指示入力になり誤動作することがある。あるいは操
作者が手袋やボディースーツのような特殊な器具を付け
て指示入力する場合、その器具を装着し所定のスイッチ
をONにしているときは操作者の全ての動作が入力対象
となってしまう。特に画像入力を利用した入力装置の場
合にその傾向が顕著であり、TVカメラが操作者の姿を
撮像している間はその全ての動作が指示入力として検出
されることになる。
スチャ認識し動作する機器の場合、操作者の無意識の動
作が指示入力になり誤動作することがある。あるいは操
作者が手袋やボディースーツのような特殊な器具を付け
て指示入力する場合、その器具を装着し所定のスイッチ
をONにしているときは操作者の全ての動作が入力対象
となってしまう。特に画像入力を利用した入力装置の場
合にその傾向が顕著であり、TVカメラが操作者の姿を
撮像している間はその全ての動作が指示入力として検出
されることになる。
【0008】上述したような入力装置は指示の入力動作
が単純であるため、操作者は機器に対する指示を簡易に
行なえるが、無意識な余計な動作をしないよう操作時に
緊張していなければならないという問題がある。しかし
ながら、逆に指示を意味する動作を不自然な特殊な動作
に設定してしまうと、簡易に指示することができなくな
り操作性が悪くなる。例えば、“何度もある一点を見な
いとカーソルが動かない装置”、“一つの指示動作を行
なう度に、所定のスイッチをONにしないと認識しない
装置”等では、視線やジェスチャを用いて指示を簡易に
行なうという種の入力装置としての本来の目的を遂げら
れない。
が単純であるため、操作者は機器に対する指示を簡易に
行なえるが、無意識な余計な動作をしないよう操作時に
緊張していなければならないという問題がある。しかし
ながら、逆に指示を意味する動作を不自然な特殊な動作
に設定してしまうと、簡易に指示することができなくな
り操作性が悪くなる。例えば、“何度もある一点を見な
いとカーソルが動かない装置”、“一つの指示動作を行
なう度に、所定のスイッチをONにしないと認識しない
装置”等では、視線やジェスチャを用いて指示を簡易に
行なうという種の入力装置としての本来の目的を遂げら
れない。
【0009】また、家庭内やオフイス内等にこの種の機
器が多数導入されるようになると、操作者の一つのジェ
スチャで異なる多数の機器が同時に動作してしまうこと
が考えられる。また、画像や遠隔センサ等を用いて視線
やジェスチャを認識する入力装置では、検出対象空間に
操作者が複数人いる場合や、操作者でない人間が存在す
る場合も考えられる。このような場合、各機器が操作者
の意図に反して動作する状況はますます増加すると考え
られる。
器が多数導入されるようになると、操作者の一つのジェ
スチャで異なる多数の機器が同時に動作してしまうこと
が考えられる。また、画像や遠隔センサ等を用いて視線
やジェスチャを認識する入力装置では、検出対象空間に
操作者が複数人いる場合や、操作者でない人間が存在す
る場合も考えられる。このような場合、各機器が操作者
の意図に反して動作する状況はますます増加すると考え
られる。
【0010】また、上述したような人間の意図的な動作
を識別する手段としては、例えば予め設定した人間の声
にだけ反応する(話者識別)手段や、いくつかの所定の
指示(例えば複数のコマンドを入力する)を組み合わせ
てどの対象に対して何の指示を行なったのかを判別する
手段を組み合わせることも考えられる。しかしこのよう
な方法では、入力装置が話者識別のような高度な認識を
必要としたり、いくつかの指示を行なわないと機器が動
作しないことになり、結果的に操作者にとって極めて使
い勝手の悪い機器となってしまう。
を識別する手段としては、例えば予め設定した人間の声
にだけ反応する(話者識別)手段や、いくつかの所定の
指示(例えば複数のコマンドを入力する)を組み合わせ
てどの対象に対して何の指示を行なったのかを判別する
手段を組み合わせることも考えられる。しかしこのよう
な方法では、入力装置が話者識別のような高度な認識を
必要としたり、いくつかの指示を行なわないと機器が動
作しないことになり、結果的に操作者にとって極めて使
い勝手の悪い機器となってしまう。
【0011】以上述べてきたように、視線入力やジェス
チャ認識を用いた機器においては操作者の意図しない動
作を防止する必要があり、かつ簡単な手段で意図した動
作だけを選択して認識する機能が、使いやすいヒューマ
ンインタフェースの実現のためには必要不可欠であると
いうことが明らかである。
チャ認識を用いた機器においては操作者の意図しない動
作を防止する必要があり、かつ簡単な手段で意図した動
作だけを選択して認識する機能が、使いやすいヒューマ
ンインタフェースの実現のためには必要不可欠であると
いうことが明らかである。
【0012】本発明の目的は、操作者が動作指示を要す
る機器を簡易に特定することにより、操作者の意図的な
行為に基づく指示を入力できる入力装置を提供すること
にある。
る機器を簡易に特定することにより、操作者の意図的な
行為に基づく指示を入力できる入力装置を提供すること
にある。
【0013】
【課題を解決するための手段】上記課題を解決し目的を
達成するために、本発明の入力装置は以下の如く構成さ
れている。 (1)本発明の入力装置は、操作者の成す所定の行為を
検出しその行為に対応する指示を出力する入力装置にお
いて、前記操作者の成す第1の行為に基づき前記操作者
が操作対象に対して注目状態にあることを検出する注目
度検出手段と、前記操作者の成す第2の行為に基づき前
記操作者による前記操作対象に対する動作指示を検出す
る動作指示検出手段と、前記注目度検出手段で注目状態
にあることが検出された場合、前記動作指示検出手段で
検出された動作指示に対応する指示を出力する指示出力
手段とから構成されている。 (2)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への注視であり、前記動作指示検出手段における
第2の行為は身体の動作である。 (3)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への注視であり、前記動作指示検出手段における
第2の行為は音声入力である。 (4)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への接触であり、前記動作指示検出手段における
第2の行為は視線方向の移動である。 (5)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は音
声入力であり、前記動作指示検出手段における第2の行
為は身体の動作である。 (6)本発明の入力装置は上記(1)〜(5)のいずれ
かに記載の装置であって、かつ前記注目度検出手段にお
いて注目状態にあることが検出された場合、その旨を出
力する手段を備える。
達成するために、本発明の入力装置は以下の如く構成さ
れている。 (1)本発明の入力装置は、操作者の成す所定の行為を
検出しその行為に対応する指示を出力する入力装置にお
いて、前記操作者の成す第1の行為に基づき前記操作者
が操作対象に対して注目状態にあることを検出する注目
度検出手段と、前記操作者の成す第2の行為に基づき前
記操作者による前記操作対象に対する動作指示を検出す
る動作指示検出手段と、前記注目度検出手段で注目状態
にあることが検出された場合、前記動作指示検出手段で
検出された動作指示に対応する指示を出力する指示出力
手段とから構成されている。 (2)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への注視であり、前記動作指示検出手段における
第2の行為は身体の動作である。 (3)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への注視であり、前記動作指示検出手段における
第2の行為は音声入力である。 (4)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は所
定箇所への接触であり、前記動作指示検出手段における
第2の行為は視線方向の移動である。 (5)本発明の入力装置は上記(1)に記載の装置であ
って、かつ前記注目度検出手段における第1の行為は音
声入力であり、前記動作指示検出手段における第2の行
為は身体の動作である。 (6)本発明の入力装置は上記(1)〜(5)のいずれ
かに記載の装置であって、かつ前記注目度検出手段にお
いて注目状態にあることが検出された場合、その旨を出
力する手段を備える。
【0014】上記手段(1)〜(6)を講じた結果、そ
れぞれ次のような作用が生じる。 (1)本発明の入力装置は、操作者の成す第1の行為に
基づき注目度検出手段で注目状態にあることが検出され
た場合、前記操作者の成す第2の行為に基づき動作指示
検出手段で検出された動作指示に対応する指示を出力す
るので、操作者による前記第2の行為と同様な行為に基
づき動作を行なう機器が同一環境内に複数存在しても、
前記第1の行為の検出を行なうことで操作対象となる機
器の特定が可能になる。これにより、前記操作対象とな
る機器のみを動作させることができ、操作者の意図しな
い行為により他の機器を誤動作させるおそれがなくな
る。 (2)本発明の入力装置は、前記第1の行為は所定箇所
の注視であり、前記第2の行為は身体の動作であるの
で、操作者により前記所定箇所が注視されたときのみ、
前記身体の動作に対応する指示を出力することができ
る。これにより、操作者の意図しない身体の動作が機器
への動作指示として誤認識されることがなくなる。 (3)本発明の入力装置は、前記第1の行為は所定箇所
の注視であり、前記第2の行為は音声入力であるので、
操作者により前記所定箇所が注視されたときのみ、前記
音声に対応する指示を出力することができる。これによ
り、操作者の意図しない音声の発生が機器への動作指示
として誤認識されることがなくなる。 (4)本発明の入力装置は、前記第1の行為は所定箇所
への接触であり、前記第2の行為は視線方向の移動であ
るので、操作者により前記所定箇所が接触されたときの
み、前記視線方向の移動に対応する指示を出力すること
ができる。これにより、操作者の意図しない視線方向の
移動が機器への動作指示として誤認識されることがなく
なる。 (5)本発明の入力装置は、前記第1の行為は音声入力
であり、前記第2の行為は身体の動作であるので、操作
者により所定の音声の発生が成されたときのみ、前記身
体の動作に対応する指示を出力することができる。これ
により、操作者の意図しない身体の動作が機器への動作
指示として誤認識されることがなくなる。 (6)本発明の入力装置は、注目状態にあることが検出
された場合その旨を出力するので、操作者は前記第1の
行為が検出されたことを確認した後、前記第2の行為を
成すことができる。これにより、操作者による前記第2
の行為に対応する動作指示を対象となる機器へ確実に出
力できることになる。
れぞれ次のような作用が生じる。 (1)本発明の入力装置は、操作者の成す第1の行為に
基づき注目度検出手段で注目状態にあることが検出され
た場合、前記操作者の成す第2の行為に基づき動作指示
検出手段で検出された動作指示に対応する指示を出力す
るので、操作者による前記第2の行為と同様な行為に基
づき動作を行なう機器が同一環境内に複数存在しても、
前記第1の行為の検出を行なうことで操作対象となる機
器の特定が可能になる。これにより、前記操作対象とな
る機器のみを動作させることができ、操作者の意図しな
い行為により他の機器を誤動作させるおそれがなくな
る。 (2)本発明の入力装置は、前記第1の行為は所定箇所
の注視であり、前記第2の行為は身体の動作であるの
で、操作者により前記所定箇所が注視されたときのみ、
前記身体の動作に対応する指示を出力することができ
る。これにより、操作者の意図しない身体の動作が機器
への動作指示として誤認識されることがなくなる。 (3)本発明の入力装置は、前記第1の行為は所定箇所
の注視であり、前記第2の行為は音声入力であるので、
操作者により前記所定箇所が注視されたときのみ、前記
音声に対応する指示を出力することができる。これによ
り、操作者の意図しない音声の発生が機器への動作指示
として誤認識されることがなくなる。 (4)本発明の入力装置は、前記第1の行為は所定箇所
への接触であり、前記第2の行為は視線方向の移動であ
るので、操作者により前記所定箇所が接触されたときの
み、前記視線方向の移動に対応する指示を出力すること
ができる。これにより、操作者の意図しない視線方向の
移動が機器への動作指示として誤認識されることがなく
なる。 (5)本発明の入力装置は、前記第1の行為は音声入力
であり、前記第2の行為は身体の動作であるので、操作
者により所定の音声の発生が成されたときのみ、前記身
体の動作に対応する指示を出力することができる。これ
により、操作者の意図しない身体の動作が機器への動作
指示として誤認識されることがなくなる。 (6)本発明の入力装置は、注目状態にあることが検出
された場合その旨を出力するので、操作者は前記第1の
行為が検出されたことを確認した後、前記第2の行為を
成すことができる。これにより、操作者による前記第2
の行為に対応する動作指示を対象となる機器へ確実に出
力できることになる。
【0015】
(第1の実施の形態)図1は本発明の第1の実施の形態
に係る入力装置の構成を示すブロック図である。本第1
の実施の形態に係る入力装置は、コンピュータに付随す
るディスプレイ制御を操作者の視線とジェスチャに基づ
き行なうためのものである。図1に示す入力装置は、視
線方向検出部11、注目度判定部12、ジェスチャ認識
部13、指示出力部14および注目状態表示部15から
なる。視線方向検出部11は注目度判定部12を介して
指示出力部14および注目状態表示部15に接続されて
いる。またジェスチャ認識部13も指示出力部14に接
続されている。さらに指示出力部14は当該コンピュー
タに接続されている。
に係る入力装置の構成を示すブロック図である。本第1
の実施の形態に係る入力装置は、コンピュータに付随す
るディスプレイ制御を操作者の視線とジェスチャに基づ
き行なうためのものである。図1に示す入力装置は、視
線方向検出部11、注目度判定部12、ジェスチャ認識
部13、指示出力部14および注目状態表示部15から
なる。視線方向検出部11は注目度判定部12を介して
指示出力部14および注目状態表示部15に接続されて
いる。またジェスチャ認識部13も指示出力部14に接
続されている。さらに指示出力部14は当該コンピュー
タに接続されている。
【0016】図2は上記視線方向検出部11の構成を示
すブロック図である。図2に示すように視線方向検出部
11はTVカメラ111、AD変換部112、顔領域検
出部113、目領域検出部114および視線方向計測部
115からなる。TVカメラ111はAD変換部112
を介して顔領域検出部113に接続され、顔領域検出部
113は目領域検出部114を介して視線方向計測部1
15に接続されている。さらに視線方向計測部115は
注目度判定部12に接続されている。
すブロック図である。図2に示すように視線方向検出部
11はTVカメラ111、AD変換部112、顔領域検
出部113、目領域検出部114および視線方向計測部
115からなる。TVカメラ111はAD変換部112
を介して顔領域検出部113に接続され、顔領域検出部
113は目領域検出部114を介して視線方向計測部1
15に接続されている。さらに視線方向計測部115は
注目度判定部12に接続されている。
【0017】図3の(a)は上記TVカメラ111によ
り撮影された、当該ディスプレイに向って座った操作者
の顔を示す図である。このTVカメラ111から出力さ
れたビデオ信号は、AD変換部112に入力されディジ
タル画像に変換される。そしてこのディジタル画像がA
D変換部112から顔領域検出部113へ出力される。
顔領域検出部113は入力したディジタル画像から操作
者の顔領域を切り出す。この切り出しは、例えば撮影さ
れた操作者の顔における肌色領域を切り出すようにす
る。なお顔の肌色の色相は人それぞれ異なるが、操作者
がディスプレイに向かう際、自分の顔の色、あるいは手
の甲の色を該コンピュータに教示することで(例えば、
該コンピュータに接続されている所定の色識別装置に自
身の手の甲を向ける)、その操作者に適した肌色の設定
が容易に行なえる。
り撮影された、当該ディスプレイに向って座った操作者
の顔を示す図である。このTVカメラ111から出力さ
れたビデオ信号は、AD変換部112に入力されディジ
タル画像に変換される。そしてこのディジタル画像がA
D変換部112から顔領域検出部113へ出力される。
顔領域検出部113は入力したディジタル画像から操作
者の顔領域を切り出す。この切り出しは、例えば撮影さ
れた操作者の顔における肌色領域を切り出すようにす
る。なお顔の肌色の色相は人それぞれ異なるが、操作者
がディスプレイに向かう際、自分の顔の色、あるいは手
の甲の色を該コンピュータに教示することで(例えば、
該コンピュータに接続されている所定の色識別装置に自
身の手の甲を向ける)、その操作者に適した肌色の設定
が容易に行なえる。
【0018】そして、その切り出された顔領域の情報が
顔領域検出部113から目領域検出部114へ出力され
る。目領域検出部114は入力した顔領域の情報から左
右の目の領域を切り出す。この切り出しは、例えば前記
顔領域における中心軸に対称で上方にある黒の円部分を
抽出する。そして目の中心位置が検出されると、その情
報が目領域検出部114から視線方向計測部115へ出
力され、視線方向計測部115で操作者の視線方向が計
測される。
顔領域検出部113から目領域検出部114へ出力され
る。目領域検出部114は入力した顔領域の情報から左
右の目の領域を切り出す。この切り出しは、例えば前記
顔領域における中心軸に対称で上方にある黒の円部分を
抽出する。そして目の中心位置が検出されると、その情
報が目領域検出部114から視線方向計測部115へ出
力され、視線方向計測部115で操作者の視線方向が計
測される。
【0019】上記視線方向検出部11に類するものを適
用した例は、従来から各種提案されている。本発明がそ
れら従来の提案内容と異なる点は、視線方向検出部11
で得られた視線方向の情報を用いて即ディスプレイの画
面制御(例えばカーソル位置の制御やウインドウの切り
替え制御)を行なうのでなく、その視線方向の情報を後
述するような注目度判定の情報として用いることにあ
る。
用した例は、従来から各種提案されている。本発明がそ
れら従来の提案内容と異なる点は、視線方向検出部11
で得られた視線方向の情報を用いて即ディスプレイの画
面制御(例えばカーソル位置の制御やウインドウの切り
替え制御)を行なうのでなく、その視線方向の情報を後
述するような注目度判定の情報として用いることにあ
る。
【0020】さて、このようにして視線方向検出部11
で得られた視線方向の情報は、注目度判定部12へ出力
される。この注目度判定部12は、視線方向検出部11
から入力した視線方向に対応する該ディスプレイ上での
注視点が該ディスプレイの中央から所定の半径を有する
円内に位置する場合、このディスプレイが操作者により
“注目された状態にある”と判定する。また、注目度判
定部12は前記注視点が前記ディスプレイに表示されて
いる複数のウィンドウのうち特定のウィンドウの中心位
置(あるいは、例えば前記特定のウィンドウ上のカーソ
ル位置や前記特定のウィンドウのラベル等)から所定の
半径を有する円内に位置する場合、このウインドウが操
作者により“注目された状態にある”と判定する。
で得られた視線方向の情報は、注目度判定部12へ出力
される。この注目度判定部12は、視線方向検出部11
から入力した視線方向に対応する該ディスプレイ上での
注視点が該ディスプレイの中央から所定の半径を有する
円内に位置する場合、このディスプレイが操作者により
“注目された状態にある”と判定する。また、注目度判
定部12は前記注視点が前記ディスプレイに表示されて
いる複数のウィンドウのうち特定のウィンドウの中心位
置(あるいは、例えば前記特定のウィンドウ上のカーソ
ル位置や前記特定のウィンドウのラベル等)から所定の
半径を有する円内に位置する場合、このウインドウが操
作者により“注目された状態にある”と判定する。
【0021】このような“注目された状態にある”と判
定する方法は上述した以外にも数種類考えられる。例え
ば注視状態の継続時間を測定しある設定時間(例えば3
秒と決めておく)より長く注視状態にある場合、“注目
された状態にある”と判定することもできる。このよう
に、検出された視線方向から“注目された状態にある”
と判定する方法は、本発明に係る入力装置を用いて構成
するシステムの用途にあわせて適宜設定すればよく、重
要なことは注目度判定のため情報と、後述する動作指示
の認識とを分離して検出することにある。
定する方法は上述した以外にも数種類考えられる。例え
ば注視状態の継続時間を測定しある設定時間(例えば3
秒と決めておく)より長く注視状態にある場合、“注目
された状態にある”と判定することもできる。このよう
に、検出された視線方向から“注目された状態にある”
と判定する方法は、本発明に係る入力装置を用いて構成
するシステムの用途にあわせて適宜設定すればよく、重
要なことは注目度判定のため情報と、後述する動作指示
の認識とを分離して検出することにある。
【0022】そして注目度判定部12は“注目された状
態にある”と判定した時点で、指示出力部14にその判
定結果を出力し、指示出力部14における所定の注目状
態フラグをONにする。その後注目度判定部12は、前
記注視点が前記所定の半径を有する円内に位置せず“注
目された状態にない”と判定した時点で前記注目状態フ
ラグをOFFに切替える。
態にある”と判定した時点で、指示出力部14にその判
定結果を出力し、指示出力部14における所定の注目状
態フラグをONにする。その後注目度判定部12は、前
記注視点が前記所定の半径を有する円内に位置せず“注
目された状態にない”と判定した時点で前記注目状態フ
ラグをOFFに切替える。
【0023】なお、上述したようなディスプレイが注目
された状態にあるか否かの判定を行なうには、該ディス
プレイに対するTVカメラ111の設定位置が確定して
いなければならない。一般に、TVカメラはディスプレ
イと同じ位置には設定できないため、例えばディスプレ
イの上部にTVカメラを設置することになる。したがっ
て、操作者のTVカメラに対する視線方向と、ディスプ
レイに対する視線方向は異なる。例えばTVカメラがデ
ィスプレイの上部から30度下方向に傾いて設置されて
いるならば、操作者の視線方向がTVカメラに対して正
面である状態が、操作者がディスプレイの中心を正面か
ら注視している状態なのでは無い。操作者の視線方向が
TVカメラに対して30度下方向を向いている時が、デ
ィスプレイの中心を正面から注視している状態になる。
このようにTVカメラに対する視線方向とディスプレイ
に対する視線方向とは異なるので、補正をする必要があ
る。この補正量は操作者の背の(座高の)高さによって
も変化する。ただし操作者が同一人物であればこの補正
量は一定と考えられる。このような意味で、前記ディス
プレイとTVカメラ111の設定位置を確定する必要が
ある。
された状態にあるか否かの判定を行なうには、該ディス
プレイに対するTVカメラ111の設定位置が確定して
いなければならない。一般に、TVカメラはディスプレ
イと同じ位置には設定できないため、例えばディスプレ
イの上部にTVカメラを設置することになる。したがっ
て、操作者のTVカメラに対する視線方向と、ディスプ
レイに対する視線方向は異なる。例えばTVカメラがデ
ィスプレイの上部から30度下方向に傾いて設置されて
いるならば、操作者の視線方向がTVカメラに対して正
面である状態が、操作者がディスプレイの中心を正面か
ら注視している状態なのでは無い。操作者の視線方向が
TVカメラに対して30度下方向を向いている時が、デ
ィスプレイの中心を正面から注視している状態になる。
このようにTVカメラに対する視線方向とディスプレイ
に対する視線方向とは異なるので、補正をする必要があ
る。この補正量は操作者の背の(座高の)高さによって
も変化する。ただし操作者が同一人物であればこの補正
量は一定と考えられる。このような意味で、前記ディス
プレイとTVカメラ111の設定位置を確定する必要が
ある。
【0024】そして、前記設定位置はTVカメラ111
を設置したときに前記ディスプレイとの相対位置として
容易に登録できる。また、操作者がディスプレイに向っ
て座るときに、その操作者とディスプレイとの位置関係
を考慮し、該ディスプレイおよびTVカメラ111の位
置の校正を当該コンピュータ内の処理により行なうこと
もできる。そしてディスプレイの位置が決定されれば、
そのディスプレイに表示される各ウィンドウの位置の情
報は、前記コンピュータで実行されているウインドウシ
ステムから容易に得ることができる。
を設置したときに前記ディスプレイとの相対位置として
容易に登録できる。また、操作者がディスプレイに向っ
て座るときに、その操作者とディスプレイとの位置関係
を考慮し、該ディスプレイおよびTVカメラ111の位
置の校正を当該コンピュータ内の処理により行なうこと
もできる。そしてディスプレイの位置が決定されれば、
そのディスプレイに表示される各ウィンドウの位置の情
報は、前記コンピュータで実行されているウインドウシ
ステムから容易に得ることができる。
【0025】一方、注目度判定部12の判定結果は注目
状態表示部15にも出力される。注目状態表示部15
は、上記注目状態フラグがONの状態である期間に、例
えば当該ディスプレイの傍らに設置されたランプを点灯
し、操作者に当該ディスプレイが“注目された状態にあ
る”と判定されていることを通知する。また、前記ラン
プを設置し点灯させる以外に、ディスプレイのウインド
ウ上のカーソル形状を変更する、カーソルの色を変更す
る、または該当するウインドウの色を変更する等数々の
手段により状態表示を行なえる。
状態表示部15にも出力される。注目状態表示部15
は、上記注目状態フラグがONの状態である期間に、例
えば当該ディスプレイの傍らに設置されたランプを点灯
し、操作者に当該ディスプレイが“注目された状態にあ
る”と判定されていることを通知する。また、前記ラン
プを設置し点灯させる以外に、ディスプレイのウインド
ウ上のカーソル形状を変更する、カーソルの色を変更す
る、または該当するウインドウの色を変更する等数々の
手段により状態表示を行なえる。
【0026】このように、当該コンピュータディスプレ
イが注目された状態にあることを操作者に通知すること
より、操作者は当該入力装置が自らの指示動作を入力で
きる状態にあることを認識できる。なお、上記注目状態
表示部15は本第1の実施の形態の構成においては省略
可能な部分であり、当該入力装置を上述したような状態
表示を行なわない構成とすることもできる。
イが注目された状態にあることを操作者に通知すること
より、操作者は当該入力装置が自らの指示動作を入力で
きる状態にあることを認識できる。なお、上記注目状態
表示部15は本第1の実施の形態の構成においては省略
可能な部分であり、当該入力装置を上述したような状態
表示を行なわない構成とすることもできる。
【0027】さて、上述したような視線方向検出部11
の処理に並行して、ジェスチャ認識部13の処理が実行
されている。なお、本第1の実施の形態ではジェスチャ
認識部13の入力において視線方向検出部11のTVカ
メラ111と同じ映像を利用するが(即ち、TVカメラ
111にて操作者の顔と共にジェスチャも撮影する)、
ジェスチャ入力のための入力手段を別途設けるようにし
てもよい。
の処理に並行して、ジェスチャ認識部13の処理が実行
されている。なお、本第1の実施の形態ではジェスチャ
認識部13の入力において視線方向検出部11のTVカ
メラ111と同じ映像を利用するが(即ち、TVカメラ
111にて操作者の顔と共にジェスチャも撮影する)、
ジェスチャ入力のための入力手段を別途設けるようにし
てもよい。
【0028】図3の(b)は、ジェスチャ認識部13に
より操作者の手の動作を抽出するために用いる手袋の概
念図である。この手袋の各指先および掌の下部に相当す
る部分にはそれぞれ固有の色を有するカラーボールが取
り付けられている。なお、これら各カラーボールは各々
が固有のものであることが識別可能であればよく、各々
の色が異なる以外に各形状や色の濃さが異なるものであ
るようにしてもよい。
より操作者の手の動作を抽出するために用いる手袋の概
念図である。この手袋の各指先および掌の下部に相当す
る部分にはそれぞれ固有の色を有するカラーボールが取
り付けられている。なお、これら各カラーボールは各々
が固有のものであることが識別可能であればよく、各々
の色が異なる以外に各形状や色の濃さが異なるものであ
るようにしてもよい。
【0029】以下、操作者が片方の手に上記手袋をは
め、TVカメラ111からジェスチャ入力した後の動作
を説明する。なお各カラーボールの色は予め当該コンピ
ュータに登録しておき、AD変換部112から出力され
るディジタル映像を基に、登録されている色の領域を検
出する。そしてこれら各カラーボールの動きを利用する
ことにより、簡単なジェスチャ(例えば上下左右への手
の動き)を検出することができる。
め、TVカメラ111からジェスチャ入力した後の動作
を説明する。なお各カラーボールの色は予め当該コンピ
ュータに登録しておき、AD変換部112から出力され
るディジタル映像を基に、登録されている色の領域を検
出する。そしてこれら各カラーボールの動きを利用する
ことにより、簡単なジェスチャ(例えば上下左右への手
の動き)を検出することができる。
【0030】ジェスチャ認識部13は抽出したジェスチ
ャを予め設定されている動作指示信号に変換し、(例え
ば、ウインドウを手前に出すという信号、あるいはウイ
ンドウ内の文字を拡大するという信号に変換する)その
結果を指示出力部14に出力する。指示出力部14は、
上記注目状態フラグがONの状態である場合、ジェスチ
ャ認識部13から入力した動作指示信号に基づいた操作
量を当該コンピュータへ出力する。
ャを予め設定されている動作指示信号に変換し、(例え
ば、ウインドウを手前に出すという信号、あるいはウイ
ンドウ内の文字を拡大するという信号に変換する)その
結果を指示出力部14に出力する。指示出力部14は、
上記注目状態フラグがONの状態である場合、ジェスチ
ャ認識部13から入力した動作指示信号に基づいた操作
量を当該コンピュータへ出力する。
【0031】なお本第1の実施の形態では、ジェスチャ
認識部13は前記注目状態フラグのONまたはOFF状
態に関わらず終始ジェスチャ認識を行なっているが、注
目度判定部12が“注目された状態にある”と判定した
期間のみジェスチャ認識を行なう構成としてもよい。例
えば、視線方向検出部11とジェスチャ認識部13を同
一の装置上に備える場合は、“注目された状態にある”
期間のみジェスチャ認識を行なうようにすれば、当該コ
ンピュータの処理に係る負荷を低減させることができ
る。このようにして操作者が注目している場合にのみ、
操作者のジェスチャを認識し動作する入力装置が構成で
きる。
認識部13は前記注目状態フラグのONまたはOFF状
態に関わらず終始ジェスチャ認識を行なっているが、注
目度判定部12が“注目された状態にある”と判定した
期間のみジェスチャ認識を行なう構成としてもよい。例
えば、視線方向検出部11とジェスチャ認識部13を同
一の装置上に備える場合は、“注目された状態にある”
期間のみジェスチャ認識を行なうようにすれば、当該コ
ンピュータの処理に係る負荷を低減させることができ
る。このようにして操作者が注目している場合にのみ、
操作者のジェスチャを認識し動作する入力装置が構成で
きる。
【0032】以上のように本第1の実施の形態による入
力装置では、注目状態にある場合にのみ、認識したジェ
スチャを対応する動作指示信号に変換し当該コンピュー
タへ出力するので、従来では検出するに足らないと思わ
れていた程度の簡単な動作(例えば手の上下左右への動
き)でも、指示動作として利用することができる。また
単純な動作の認識であれば、画像により認識する方式に
しても、他のデバイスあるいは特殊な器具を用いてジェ
スチャを認識する方式にしても簡単な構成で実現でき
る。
力装置では、注目状態にある場合にのみ、認識したジェ
スチャを対応する動作指示信号に変換し当該コンピュー
タへ出力するので、従来では検出するに足らないと思わ
れていた程度の簡単な動作(例えば手の上下左右への動
き)でも、指示動作として利用することができる。また
単純な動作の認識であれば、画像により認識する方式に
しても、他のデバイスあるいは特殊な器具を用いてジェ
スチャを認識する方式にしても簡単な構成で実現でき
る。
【0033】ところで本第1の実施の形態において、操
作者以外の人物が偶然TVカメラ111の画像に映った
場合などは、注目度判定部12で誤って“注目された状
態にある”と判定される状況が考えられる。装置の設置
環境によってこのような状況が頻発する場合でも対策は
いくつか考えられる。例えば、TVカメラのレンズを広
角系から望遠系に変更し、通常状態であれば操作者の顔
以外はほとんど映らないように設定する方法や、画像中
の顔の大きさが所定量以上に撮影されなければ、視線方
向がディスプレイに向いていても“注目された状態にあ
る”と判定しない(これにより、遠くにいる人物を誤認
識することを防ぐことができる)方法などがある。ある
いは、注目状態表示部15において、注目状態にある場
合は見やすい大きなランプを点灯することで、“注目さ
れた状態にある”ことを操作者が容易に認識できるよう
構成する。これにより、誤認識があった場合操作者はそ
の時点で誤認識が発生したことを認識でき、後続の動作
指示を控えることができるので、誤認識があった場合で
も誤動作を防ぐことができる。これも注目状態の検出と
動作指示認識とを分離したことによる効果である。
作者以外の人物が偶然TVカメラ111の画像に映った
場合などは、注目度判定部12で誤って“注目された状
態にある”と判定される状況が考えられる。装置の設置
環境によってこのような状況が頻発する場合でも対策は
いくつか考えられる。例えば、TVカメラのレンズを広
角系から望遠系に変更し、通常状態であれば操作者の顔
以外はほとんど映らないように設定する方法や、画像中
の顔の大きさが所定量以上に撮影されなければ、視線方
向がディスプレイに向いていても“注目された状態にあ
る”と判定しない(これにより、遠くにいる人物を誤認
識することを防ぐことができる)方法などがある。ある
いは、注目状態表示部15において、注目状態にある場
合は見やすい大きなランプを点灯することで、“注目さ
れた状態にある”ことを操作者が容易に認識できるよう
構成する。これにより、誤認識があった場合操作者はそ
の時点で誤認識が発生したことを認識でき、後続の動作
指示を控えることができるので、誤認識があった場合で
も誤動作を防ぐことができる。これも注目状態の検出と
動作指示認識とを分離したことによる効果である。
【0034】以上本第1の実施の形態は、注目意志の伝
達に視線方向を用い、操作指示の伝達にジェスチャを用
いる例として説明した。 (第2の実施の形態)第2の実施の形態では、上記第1
の実施の形態の変形例を示す。上記第1の実施の形態で
は、注目度の判定を操作者の視線方向の検出を基に行な
い、動作指示の認識を操作者のジェスチャを基に行なっ
たが、注目度の判定を操作者による別の行為に基づいて
行なっても全く同様にシステムを構成することができ
る。例えば後述する第11の実施の形態で説明する音声
認識部を注目度の判定のために利用することが考えられ
る。この音声認識部は操作者が発声する「カーソル」
「移動」等の言葉を認識するものである。そして、例え
ば操作者による「カーソル」という発声を認識した場
合、その時点から10秒間を“注目された状態にある”
と判定する。
達に視線方向を用い、操作指示の伝達にジェスチャを用
いる例として説明した。 (第2の実施の形態)第2の実施の形態では、上記第1
の実施の形態の変形例を示す。上記第1の実施の形態で
は、注目度の判定を操作者の視線方向の検出を基に行な
い、動作指示の認識を操作者のジェスチャを基に行なっ
たが、注目度の判定を操作者による別の行為に基づいて
行なっても全く同様にシステムを構成することができ
る。例えば後述する第11の実施の形態で説明する音声
認識部を注目度の判定のために利用することが考えられ
る。この音声認識部は操作者が発声する「カーソル」
「移動」等の言葉を認識するものである。そして、例え
ば操作者による「カーソル」という発声を認識した場
合、その時点から10秒間を“注目された状態にある”
と判定する。
【0035】本第2の実施の形態では、操作者は音声に
より動作指示を行なう機器を特定し、ジェスチャにより
ディスプレイに表示されるカーソル(本来マウスの操作
により移動する)の位置を操作する。上記第1の実施の
形態と同様に、通常操作者がジェスチャを行なっても
(手や身体を動かしても)機器は誤動作せず、操作者が
意図した時間における意図したジェスチャに対しての
み、前記機器が動作するという効果が得られる。
より動作指示を行なう機器を特定し、ジェスチャにより
ディスプレイに表示されるカーソル(本来マウスの操作
により移動する)の位置を操作する。上記第1の実施の
形態と同様に、通常操作者がジェスチャを行なっても
(手や身体を動かしても)機器は誤動作せず、操作者が
意図した時間における意図したジェスチャに対しての
み、前記機器が動作するという効果が得られる。
【0036】以上本第2の実施の形態は注目意志の伝達
に音声を用い、操作指示の伝達にジェスチャを用いる例
として説明した。 (第3の実施の形態)第3の実施の形態も、上記第1の
実施の形態の変形例を示す。例えば注目度の判定を操作
者の対象機器への接触を検出することで行なうこともで
きる。いま操作者がコンピュータを操作する際に座る椅
子が所定の椅子として明らかであり、その椅子に限定さ
れているものとする。また、コンピュータ本体やディス
プレイを置く机と椅子とが一体型の場合や、コンピュー
タと椅子とをケーブルで接続しておく等の方法で、操作
者が椅子を限定できる状況は多数考えられる。
に音声を用い、操作指示の伝達にジェスチャを用いる例
として説明した。 (第3の実施の形態)第3の実施の形態も、上記第1の
実施の形態の変形例を示す。例えば注目度の判定を操作
者の対象機器への接触を検出することで行なうこともで
きる。いま操作者がコンピュータを操作する際に座る椅
子が所定の椅子として明らかであり、その椅子に限定さ
れているものとする。また、コンピュータ本体やディス
プレイを置く机と椅子とが一体型の場合や、コンピュー
タと椅子とをケーブルで接続しておく等の方法で、操作
者が椅子を限定できる状況は多数考えられる。
【0037】本第3の実施の形態では、前記椅子に圧力
センサを組み込み、操作者が前記椅子に座っている状態
を検出することで“注目された状態にある”と判定し、
操作者のジェスチャを認識することによりマウスのカー
ソル位置の操作を行なう。
センサを組み込み、操作者が前記椅子に座っている状態
を検出することで“注目された状態にある”と判定し、
操作者のジェスチャを認識することによりマウスのカー
ソル位置の操作を行なう。
【0038】ところで操作者が椅子に座るだけで“注目
された状態”と判定する構成では、操作者が横を向いて
座った場合などでも“注目された状態にある”と判断さ
れ、カーソル位置が移動するおそれがある。そのため、
操作者の個性や操作環境により、そのような状況が頻発
してしまう場合は、例えばロータリーエンコーダで前記
椅子の角度を検出し、操作者が前記ディスプレイに正対
した位置に座っているか否かを検知する手段を付加する
等の方法が考えられる。
された状態”と判定する構成では、操作者が横を向いて
座った場合などでも“注目された状態にある”と判断さ
れ、カーソル位置が移動するおそれがある。そのため、
操作者の個性や操作環境により、そのような状況が頻発
してしまう場合は、例えばロータリーエンコーダで前記
椅子の角度を検出し、操作者が前記ディスプレイに正対
した位置に座っているか否かを検知する手段を付加する
等の方法が考えられる。
【0039】以上本第3の実施の形態は、注目意志の伝
達に機器への接触を行ない、操作指示の伝達にジェスチ
ャを用いる例として説明した。 (第4の実施の形態)第4の実施の形態では、上記第1
の実施の形態の操作指示の入力形態の変形例を示す。第
4の実施の形態では、注目度の判定を上記第1の実施の
形態と同様に操作者の視線方向の検出を基に行ない、動
作指示の認識を操作者の発する音声を基に行なう。
達に機器への接触を行ない、操作指示の伝達にジェスチ
ャを用いる例として説明した。 (第4の実施の形態)第4の実施の形態では、上記第1
の実施の形態の操作指示の入力形態の変形例を示す。第
4の実施の形態では、注目度の判定を上記第1の実施の
形態と同様に操作者の視線方向の検出を基に行ない、動
作指示の認識を操作者の発する音声を基に行なう。
【0040】入力装置の構成としては、図1に示すジェ
スチャ認識部13に代えて音声認識部(不図示)を設け
る。この音声認識部は例えば、操作者の発声する「拡
大」「手前に」等の言葉を認識し、それらの音声を入力
した場合“ウィンドウの文字を拡大する”、“ウィンド
ウを手前に出す”といった旨を示す信号に変換し、指示
出力部14へ送信する。これにより、当該ディスプレイ
が“注目された状態にない”状態で、操作者の音声を認
識してしまい誤動作することを防ぐことができる。
スチャ認識部13に代えて音声認識部(不図示)を設け
る。この音声認識部は例えば、操作者の発声する「拡
大」「手前に」等の言葉を認識し、それらの音声を入力
した場合“ウィンドウの文字を拡大する”、“ウィンド
ウを手前に出す”といった旨を示す信号に変換し、指示
出力部14へ送信する。これにより、当該ディスプレイ
が“注目された状態にない”状態で、操作者の音声を認
識してしまい誤動作することを防ぐことができる。
【0041】以上本第4の実施の形態は、注目意志の伝
達に視線方向を用い、操作指示の伝達に音声を用いる例
として説明した。 (第1〜第4の実施の形態のまとめ)第1〜第4の実施
の形態に示された構成及び作用効果をまとめると次の通
りである。 [1]第1の実施の形態に示された入力装置は、注目度
検出手段(11)における第1の行為は所定箇所への注
視であり、動作指示検出手段(13)における第2の行
為は身体の動作である。
達に視線方向を用い、操作指示の伝達に音声を用いる例
として説明した。 (第1〜第4の実施の形態のまとめ)第1〜第4の実施
の形態に示された構成及び作用効果をまとめると次の通
りである。 [1]第1の実施の形態に示された入力装置は、注目度
検出手段(11)における第1の行為は所定箇所への注
視であり、動作指示検出手段(13)における第2の行
為は身体の動作である。
【0042】したがって上記入力装置においては、操作
者により前記所定箇所が注視されたときのみ、前記身体
の動作に対応する指示を出力することができる。これに
より、操作者の意図しない身体の動作が機器への動作指
示として誤認識されることがなくなる。 [2]第2の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は音声入力であり、動作指
示検出手段(13)における第2の行為は身体の動作で
ある。
者により前記所定箇所が注視されたときのみ、前記身体
の動作に対応する指示を出力することができる。これに
より、操作者の意図しない身体の動作が機器への動作指
示として誤認識されることがなくなる。 [2]第2の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は音声入力であり、動作指
示検出手段(13)における第2の行為は身体の動作で
ある。
【0043】したがって上記入力装置においては、操作
者により所定の音声の発生が成されたときのみ、前記身
体の動作に対応する指示を出力することができる。 [3]第3の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は所定箇所への接触であ
り、動作指示検出手段(13)における第2の行為は身
体の動作である。
者により所定の音声の発生が成されたときのみ、前記身
体の動作に対応する指示を出力することができる。 [3]第3の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は所定箇所への接触であ
り、動作指示検出手段(13)における第2の行為は身
体の動作である。
【0044】したがって上記入力装置においては、操作
者により前記所定箇所が接触されたときのみ、前記身体
の動作に対応する指示を出力することができる。 [4]第4の実施の形態に示された入力装置は、注目度
検出手段(11)における第1の行為は所定箇所への注
視であり、動作指示検出手段における第2の行為は音声
入力である。
者により前記所定箇所が接触されたときのみ、前記身体
の動作に対応する指示を出力することができる。 [4]第4の実施の形態に示された入力装置は、注目度
検出手段(11)における第1の行為は所定箇所への注
視であり、動作指示検出手段における第2の行為は音声
入力である。
【0045】したがって上記入力装置においては、操作
者により前記所定箇所が注視されたときのみ、前記音声
に対応する指示を出力することができる。これにより、
操作者の意図しない音声の発生が機器への動作指示とし
て誤認識されることがなくなる。
者により前記所定箇所が注視されたときのみ、前記音声
に対応する指示を出力することができる。これにより、
操作者の意図しない音声の発生が機器への動作指示とし
て誤認識されることがなくなる。
【0046】(第5の実施の形態)図4は本発明の第5
の実施の形態に係る入力装置の構成を示すブロック図で
ある。本第5の実施の形態に係る入力装置は、コンピュ
ータに付随するディスプレイの制御を操作者の視線に基
づき行なうためのものである。図4に示す入力装置は、
マウス21、注目度判定部22、視線方向検出部23、
指示出力部24および注目状態表示部25からなる。マ
ウス21は注目度判定部22を介して指示出力部24お
よび注目状態表示部25に接続されている。また視線方
向検出部23は指示出力部24に接続されている。さら
に指示出力部24は当該コンピュータに接続されてい
る。
の実施の形態に係る入力装置の構成を示すブロック図で
ある。本第5の実施の形態に係る入力装置は、コンピュ
ータに付随するディスプレイの制御を操作者の視線に基
づき行なうためのものである。図4に示す入力装置は、
マウス21、注目度判定部22、視線方向検出部23、
指示出力部24および注目状態表示部25からなる。マ
ウス21は注目度判定部22を介して指示出力部24お
よび注目状態表示部25に接続されている。また視線方
向検出部23は指示出力部24に接続されている。さら
に指示出力部24は当該コンピュータに接続されてい
る。
【0047】なお上記第1の実施の形態では、操作者の
視線方向を基に注目状態を判定しジェスチャ認識により
カーソル位置等を制御したが、本第5の実施の形態では
操作者によるマウス21のクリックを基に注目状態を判
定し、視線方向を基にカーソル位置を制御する。マウス
21は通常のコンピュータに付属するマウスを使用し、
このマウス21のボタンが操作者によりクリックされて
いる期間を注目度判定部22では“注目された状態にあ
る”と判定する。このとき注目度判定部22はマウス2
1のボタンだけでなく、当該ディスプレイの傍らに接触
センサを設置し、それに操作者が触れている期間を“注
目された状態にある”と判定するようにしてもよい。
視線方向を基に注目状態を判定しジェスチャ認識により
カーソル位置等を制御したが、本第5の実施の形態では
操作者によるマウス21のクリックを基に注目状態を判
定し、視線方向を基にカーソル位置を制御する。マウス
21は通常のコンピュータに付属するマウスを使用し、
このマウス21のボタンが操作者によりクリックされて
いる期間を注目度判定部22では“注目された状態にあ
る”と判定する。このとき注目度判定部22はマウス2
1のボタンだけでなく、当該ディスプレイの傍らに接触
センサを設置し、それに操作者が触れている期間を“注
目された状態にある”と判定するようにしてもよい。
【0048】また注目度判定部22が、“注目された状
態にある”と判定した期間は、注目状態表示部25が所
定のランプを点灯するなどして、操作者に“注目された
状態にある”旨を通知する。なお、カーソルの形状や色
を変更することで状態表示を行なってもよいことは、上
記第1の実施の形態と同様である。また、視線方向検出
部23は上記第1の実施の形態における視線方向検出部
11と同様に構成し、操作者のディスプレイ上の注視点
に従ってカーソルが動くように、指示出力部24が前記
注視点の情報を当該コンピュータへ出力する。
態にある”と判定した期間は、注目状態表示部25が所
定のランプを点灯するなどして、操作者に“注目された
状態にある”旨を通知する。なお、カーソルの形状や色
を変更することで状態表示を行なってもよいことは、上
記第1の実施の形態と同様である。また、視線方向検出
部23は上記第1の実施の形態における視線方向検出部
11と同様に構成し、操作者のディスプレイ上の注視点
に従ってカーソルが動くように、指示出力部24が前記
注視点の情報を当該コンピュータへ出力する。
【0049】以上のように本第5の実施の形態による入
力装置を用いれば、操作者によりマウス21がクリック
されている期間のみ、操作者の視線方向を基にカーソル
位置を制御可能となるので、操作者の無意識な視線の動
きに左右されず、意図した視線の動きに基づきカーソル
位置の移動を制御することが可能になる。
力装置を用いれば、操作者によりマウス21がクリック
されている期間のみ、操作者の視線方向を基にカーソル
位置を制御可能となるので、操作者の無意識な視線の動
きに左右されず、意図した視線の動きに基づきカーソル
位置の移動を制御することが可能になる。
【0050】以上本第5の実施の形態は、注目意志の伝
達に機器への接触を行ない、操作指示の伝達に視線方向
の移動を用いる例として説明した。 (第6の実施の形態)第6の実施の形態では、上記第5
の実施の形態の注目度判定のための入力形態の変形例を
示す。本第6の実施の形態では注目度の判定を、操作者
がコンピュータのディスプレイに対して正面を向いてい
る事を検出することにより行なう。入力装置の構成とし
ては、図4に示すマウス21の代わりに以下の如き正面
顔判定手段26を設ける。
達に機器への接触を行ない、操作指示の伝達に視線方向
の移動を用いる例として説明した。 (第6の実施の形態)第6の実施の形態では、上記第5
の実施の形態の注目度判定のための入力形態の変形例を
示す。本第6の実施の形態では注目度の判定を、操作者
がコンピュータのディスプレイに対して正面を向いてい
る事を検出することにより行なう。入力装置の構成とし
ては、図4に示すマウス21の代わりに以下の如き正面
顔判定手段26を設ける。
【0051】図5は正面顔判定手段26の構成を示すブ
ロック図である。図5に示すように正面顔判定手段26
はTVカメラ261、AD変換部262、顔領域検出部
263、画像処理部264からなる。TVカメラ261
はAD変換部262を介して顔領域検出部263に接続
され、顔領域検出部263は画像処理部264に接続さ
れている。さらに画像処理部264は注目度判定部22
に接続されている。
ロック図である。図5に示すように正面顔判定手段26
はTVカメラ261、AD変換部262、顔領域検出部
263、画像処理部264からなる。TVカメラ261
はAD変換部262を介して顔領域検出部263に接続
され、顔領域検出部263は画像処理部264に接続さ
れている。さらに画像処理部264は注目度判定部22
に接続されている。
【0052】TVカメラ261は図4に示す視線方向検
出部23内部の構成要素であるTVカメラと共有する構
成としてもよい。TVカメラ261から入力した画像は
図3の(a)に示したものと同様であるとする。TVカ
メラ261から出力されたビデオ信号はAD変換部26
2でディジタル画像に変換される。この画像に対して、
上記第1の実施の形態と同様に顔領域検出部263で顔
領域が切り出され、画像処理部264へその切り出され
た顔領域の部分画像が送信される。画像処理部264は
前記顔領域の特徴を解析することで、操作者が当該ディ
スプレイに十分接近しかつ当該ディスプレイに対して正
面を向いているか否かを判定することができる。
出部23内部の構成要素であるTVカメラと共有する構
成としてもよい。TVカメラ261から入力した画像は
図3の(a)に示したものと同様であるとする。TVカ
メラ261から出力されたビデオ信号はAD変換部26
2でディジタル画像に変換される。この画像に対して、
上記第1の実施の形態と同様に顔領域検出部263で顔
領域が切り出され、画像処理部264へその切り出され
た顔領域の部分画像が送信される。画像処理部264は
前記顔領域の特徴を解析することで、操作者が当該ディ
スプレイに十分接近しかつ当該ディスプレイに対して正
面を向いているか否かを判定することができる。
【0053】画像処理の手法としては、例えば抽出され
た顔領域の部分画像が中心軸に対して左右対称であるこ
と、前記顔領域の両側の耳が同様な大きさで切り出され
ていること、切り出された前記顔領域の大きさが入力画
像の大きさに対して所定の割合(例えば、30%以上と
予め設定しておく)を上回っていること等、特徴を解析
し予め設定した条件を満たしていれば当該ディスプレイ
に対して正面を向いていると判定することで実現でき
る。
た顔領域の部分画像が中心軸に対して左右対称であるこ
と、前記顔領域の両側の耳が同様な大きさで切り出され
ていること、切り出された前記顔領域の大きさが入力画
像の大きさに対して所定の割合(例えば、30%以上と
予め設定しておく)を上回っていること等、特徴を解析
し予め設定した条件を満たしていれば当該ディスプレイ
に対して正面を向いていると判定することで実現でき
る。
【0054】以上本第6の実施の形態は、注目意志の伝
達を対象機器と正対することで行ない、操作指示の伝達
に視線方向の移動を用いる例として説明した。 (第7の実施の形態)第7の実施の形態も、上記第5の
実施の形態の注目度判定のための入力形態の変形例を示
す。本第7の実施の形態では注目度の判定を、操作者の
発する音声を基に行なう。
達を対象機器と正対することで行ない、操作指示の伝達
に視線方向の移動を用いる例として説明した。 (第7の実施の形態)第7の実施の形態も、上記第5の
実施の形態の注目度判定のための入力形態の変形例を示
す。本第7の実施の形態では注目度の判定を、操作者の
発する音声を基に行なう。
【0055】入力装置の構成は、図4に示したマウス2
1の代わりに音声認識部(不図示)を設ける。前記音声
認識部は、例えば、操作者の発声する「移動」「動かす
よ」「カーソル」等の言葉を認識し、それらの認識結果
に基づいて、注目度判定部22が“注目された状態にあ
る”と判定し、以降上記第5の実施の形態と同様に、視
線方向を検出しカーソル位置を制御する。操作者による
発声とカーソル位置の制御は同時である必要はなく、予
め決められた単語が認識された時点から所定の時間内
(例えば15秒間)を“注目された状態にある”と判定
している期間とする。あるいは、「始め」という言葉で
“注目された状態”に入り、「止め」という言葉で“注
目された状態”から“注目されていない状態”に復帰す
る方法も考えられる。
1の代わりに音声認識部(不図示)を設ける。前記音声
認識部は、例えば、操作者の発声する「移動」「動かす
よ」「カーソル」等の言葉を認識し、それらの認識結果
に基づいて、注目度判定部22が“注目された状態にあ
る”と判定し、以降上記第5の実施の形態と同様に、視
線方向を検出しカーソル位置を制御する。操作者による
発声とカーソル位置の制御は同時である必要はなく、予
め決められた単語が認識された時点から所定の時間内
(例えば15秒間)を“注目された状態にある”と判定
している期間とする。あるいは、「始め」という言葉で
“注目された状態”に入り、「止め」という言葉で“注
目された状態”から“注目されていない状態”に復帰す
る方法も考えられる。
【0056】当該音声認識部が注目度の判定のために認
識する単語は端的に述べれば何でも良く、操作者自身が
その単語を言うことにより“注目された状態”に入る
(あるいは出る)ことを分かっていれば良い。また各単
語を操作者毎に個別に設定する方法も考えられる。ある
いは、当該音声認識部は簡略化された性能の機器を利用
し、その機器にて認識可能な単語を注目状態の出入りを
示す単語として設定するようにしてもよい。このような
構成をとることで、入力装置全体の構成も簡略化でき
る。
識する単語は端的に述べれば何でも良く、操作者自身が
その単語を言うことにより“注目された状態”に入る
(あるいは出る)ことを分かっていれば良い。また各単
語を操作者毎に個別に設定する方法も考えられる。ある
いは、当該音声認識部は簡略化された性能の機器を利用
し、その機器にて認識可能な単語を注目状態の出入りを
示す単語として設定するようにしてもよい。このような
構成をとることで、入力装置全体の構成も簡略化でき
る。
【0057】以上本第7の実施の形態は、注目意志の伝
達に音声を用い、操作指示の伝達に視線方向の移動を用
いる例として説明した。 (第5〜第7の実施の形態のまとめ)第5〜第7の実施
の形態に示された構成及び作用効果をまとめると次の通
りである。 [5]第5の実施の形態に示された入力装置は、注目度
検出手段(21)における第1の行為は所定箇所への接
触であり、動作指示検出手段(23)における第2の行
為は視線方向の移動である。
達に音声を用い、操作指示の伝達に視線方向の移動を用
いる例として説明した。 (第5〜第7の実施の形態のまとめ)第5〜第7の実施
の形態に示された構成及び作用効果をまとめると次の通
りである。 [5]第5の実施の形態に示された入力装置は、注目度
検出手段(21)における第1の行為は所定箇所への接
触であり、動作指示検出手段(23)における第2の行
為は視線方向の移動である。
【0058】したがって上記入力装置においては、操作
者により前記所定箇所が接触されたときのみ、前記視線
方向の移動に対応する指示を出力することができる。こ
れにより、操作者の意図しない視線方向の移動が機器へ
の動作指示として誤認識されることがなくなる。 [6]第6の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は前記注目度検出手段に対
して正対することであり、動作指示検出手段(23)に
おける第2の行為は視線方向の移動である。
者により前記所定箇所が接触されたときのみ、前記視線
方向の移動に対応する指示を出力することができる。こ
れにより、操作者の意図しない視線方向の移動が機器へ
の動作指示として誤認識されることがなくなる。 [6]第6の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は前記注目度検出手段に対
して正対することであり、動作指示検出手段(23)に
おける第2の行為は視線方向の移動である。
【0059】したがって上記入力装置においては、操作
者が前記注目度検出手段に対して正対したときのみ、前
記視線方向の移動に対応する指示を出力することができ
る。 [7]第7の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は音声入力であり、動作指
示検出手段(23)における第2の行為は視線方向の移
動である。
者が前記注目度検出手段に対して正対したときのみ、前
記視線方向の移動に対応する指示を出力することができ
る。 [7]第7の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は音声入力であり、動作指
示検出手段(23)における第2の行為は視線方向の移
動である。
【0060】したがって上記入力装置においては、操作
者により所定の音声の発生が成されたときのみ、前記視
線方向の移動に対応する指示を出力することができる。 (第8の実施の形態)図6の(a)は本発明の第8の実
施の形態に係る入力装置の構成を示すブロック図であ
る。本第8の実施の形態に係る入力装置は、家庭用テレ
ビのスイッチを制御するためのものである。図6の
(a)に示す入力装置は、ジェスチャ認識部31、注目
度判定部32、音声認識部33および表示出力部34か
らなる。ジェスチャ認識部31は注目度判定部32を介
して指示出力部34に接続されている。また音声認識部
33も指示出力部34に接続されている。さらに指示出
力部34は当該家庭用テレビに接続されている。
者により所定の音声の発生が成されたときのみ、前記視
線方向の移動に対応する指示を出力することができる。 (第8の実施の形態)図6の(a)は本発明の第8の実
施の形態に係る入力装置の構成を示すブロック図であ
る。本第8の実施の形態に係る入力装置は、家庭用テレ
ビのスイッチを制御するためのものである。図6の
(a)に示す入力装置は、ジェスチャ認識部31、注目
度判定部32、音声認識部33および表示出力部34か
らなる。ジェスチャ認識部31は注目度判定部32を介
して指示出力部34に接続されている。また音声認識部
33も指示出力部34に接続されている。さらに指示出
力部34は当該家庭用テレビに接続されている。
【0061】図6の(b)は上記ジェスチャ認識部31
の構成を示すブロック図である。ジェスチャ認識部31
は、操作者が当該家庭用テレビにおけるテレビ画面に向
って指さしている方向を検出する。図6の(b)におい
て331aおよび331bはTVカメラであり、これら
TVカメラ331a、331bはそれぞれAD変換部3
32a、332bを介して手領域検出部333a、33
3bに接続されている。また手領域検出部333a、3
33bはそれぞれ指先方向検出部334a、334bを
介して指先方向計測部335に接続されている。
の構成を示すブロック図である。ジェスチャ認識部31
は、操作者が当該家庭用テレビにおけるテレビ画面に向
って指さしている方向を検出する。図6の(b)におい
て331aおよび331bはTVカメラであり、これら
TVカメラ331a、331bはそれぞれAD変換部3
32a、332bを介して手領域検出部333a、33
3bに接続されている。また手領域検出部333a、3
33bはそれぞれ指先方向検出部334a、334bを
介して指先方向計測部335に接続されている。
【0062】以下図6の(b)に基づき、ジェスチャ認
識部31の動作を説明する。なおジェスチャ認識部31
内において、当該テレビ画面の位置は予め設定されてい
るものとする。またTVカメラ331aは操作者に対し
て横方向から、TVカメラ331bは操作者に対して上
方向から各々操作者の手先が撮影できるよう設置されて
いる。なお各TVカメラ331a、331bはカラーカ
メラを用いている。各TVカメラ331a、331bの
出力はそれぞれAD変換部332a、332bに入力さ
れ、各々カラー情報が含まれたディジタル画像に変換さ
れる。そしてこれらディジタル画像はAD変換部332
a、332bから手領域検出部333a、333bへ出
力される。
識部31の動作を説明する。なおジェスチャ認識部31
内において、当該テレビ画面の位置は予め設定されてい
るものとする。またTVカメラ331aは操作者に対し
て横方向から、TVカメラ331bは操作者に対して上
方向から各々操作者の手先が撮影できるよう設置されて
いる。なお各TVカメラ331a、331bはカラーカ
メラを用いている。各TVカメラ331a、331bの
出力はそれぞれAD変換部332a、332bに入力さ
れ、各々カラー情報が含まれたディジタル画像に変換さ
れる。そしてこれらディジタル画像はAD変換部332
a、332bから手領域検出部333a、333bへ出
力される。
【0063】手領域検出部333a,333bは各々入
力したディジタル画像を基に、予め登録されている操作
者の手の色相に当てはまる部分を手領域として切り出
し、その手領域画像情報を指先方向検出部334a,3
34bへ出力する。指先方向検出部334a,334b
は入力した手領域画像情報の中で当該テレビ画面に最も
接近している部分を選択し、その部分を前記画像中の指
先位置と指定する。またそれと共に指先方向検出部33
4a,334bは前記手領域の重心位置を計測し、その
位置を手の甲の中心位置と指定する。これら指先方向検
出部334a,334bにて指定された指先位置および
手の甲の中心位置を示す画像情報は指先方向計測部33
5へ出力される。
力したディジタル画像を基に、予め登録されている操作
者の手の色相に当てはまる部分を手領域として切り出
し、その手領域画像情報を指先方向検出部334a,3
34bへ出力する。指先方向検出部334a,334b
は入力した手領域画像情報の中で当該テレビ画面に最も
接近している部分を選択し、その部分を前記画像中の指
先位置と指定する。またそれと共に指先方向検出部33
4a,334bは前記手領域の重心位置を計測し、その
位置を手の甲の中心位置と指定する。これら指先方向検
出部334a,334bにて指定された指先位置および
手の甲の中心位置を示す画像情報は指先方向計測部33
5へ出力される。
【0064】指先方向計測部335では、指先方向検出
部334a,334bから入力した両系統画像を基に操
作者の指先位置と手の甲の中心位置が計測される。そし
て指先方向計測部335は、予め設定されているTVカ
メラ331a,331bの位置関係を基に、ステレオ計
測により前記手の甲の中心位置から前記指先位置へ向か
う3次元ベクトルの方向を算出し、注目度判定部32へ
出力する。
部334a,334bから入力した両系統画像を基に操
作者の指先位置と手の甲の中心位置が計測される。そし
て指先方向計測部335は、予め設定されているTVカ
メラ331a,331bの位置関係を基に、ステレオ計
測により前記手の甲の中心位置から前記指先位置へ向か
う3次元ベクトルの方向を算出し、注目度判定部32へ
出力する。
【0065】そして注目度判定部32は、ジェスチャ認
識部31から入力した前記手の甲の中心位置から前記指
先位置へ向かう3次元ベクトルが、当該テレビ画面の中
心位置を中心とし所定の半径を有する球を通過する方向
にあるか否かを判定する。そして通過する方向にある場
合、“操作者は指先をテレビ画面に向けている”と判定
し、指示出力部24の注目状態フラグをONに設定す
る。
識部31から入力した前記手の甲の中心位置から前記指
先位置へ向かう3次元ベクトルが、当該テレビ画面の中
心位置を中心とし所定の半径を有する球を通過する方向
にあるか否かを判定する。そして通過する方向にある場
合、“操作者は指先をテレビ画面に向けている”と判定
し、指示出力部24の注目状態フラグをONに設定す
る。
【0066】一方音声認識部33は、操作者の音声によ
る指示を認識する。例えば「スイッチオン」「スイッチ
オフ」「ボリューム」「上げる」「下げる」等、テレビ
の操作に必要な簡単な言葉が十分認識できる。なお、本
発明による構成に基づけば、一つ一つの認識手段は簡易
に構成されたもので十分である。また「スイッチオン」
等の言葉は、テレビに限らず様々な機器の動作指示に共
通に使われる言葉であるが、上述したように操作者が指
先をテレビ画面に向けている場合にのみ、指示出力部3
4は音声認識部33で認識した音声に係る指示を当該家
庭用テレビへ行なうので、操作者が意図して指示してい
る機器以外の機器が誤動作する心配はない。そのため
「テレビ、スイッチオン」などのように複合命令を用い
る必要もなくなる。なお複合命令を認識する音声認識手
段には、複合命令に含まれている各命令を自動的に区切
ったり、同一話者の命令か否かを判別する機能が必要と
なるが、これら複雑な機能を設ける必要もなくなる。
る指示を認識する。例えば「スイッチオン」「スイッチ
オフ」「ボリューム」「上げる」「下げる」等、テレビ
の操作に必要な簡単な言葉が十分認識できる。なお、本
発明による構成に基づけば、一つ一つの認識手段は簡易
に構成されたもので十分である。また「スイッチオン」
等の言葉は、テレビに限らず様々な機器の動作指示に共
通に使われる言葉であるが、上述したように操作者が指
先をテレビ画面に向けている場合にのみ、指示出力部3
4は音声認識部33で認識した音声に係る指示を当該家
庭用テレビへ行なうので、操作者が意図して指示してい
る機器以外の機器が誤動作する心配はない。そのため
「テレビ、スイッチオン」などのように複合命令を用い
る必要もなくなる。なお複合命令を認識する音声認識手
段には、複合命令に含まれている各命令を自動的に区切
ったり、同一話者の命令か否かを判別する機能が必要と
なるが、これら複雑な機能を設ける必要もなくなる。
【0067】上記音声認識部33での認識結果は、上記
第1の実施の形態と同様に指示対象に合わせて予め設定
されている動作指示信号(例えばスイッチをOFFにす
るための命令信号)に変換され、指示出力部34に出力
される。また従来の音声認識機能は、使用される環境内
の雑音等の影響でしばしば誤認識を起こすが、本第8の
実施の形態による入力装置では、注目状態フラグがON
の状態のときの音声認識部33での認識結果だけを用い
ている。このため、誤認識により操作者が意図しない時
にスイッチがOFFになるといった誤動作は起こらな
い。また、周囲の騒音や雑音が激しい場合でも、操作者
はそれらの騒音や雑音が一旦おさまるまで待って指先で
機器を特定することで、音声による操作を行なうことが
可能になる。
第1の実施の形態と同様に指示対象に合わせて予め設定
されている動作指示信号(例えばスイッチをOFFにす
るための命令信号)に変換され、指示出力部34に出力
される。また従来の音声認識機能は、使用される環境内
の雑音等の影響でしばしば誤認識を起こすが、本第8の
実施の形態による入力装置では、注目状態フラグがON
の状態のときの音声認識部33での認識結果だけを用い
ている。このため、誤認識により操作者が意図しない時
にスイッチがOFFになるといった誤動作は起こらな
い。また、周囲の騒音や雑音が激しい場合でも、操作者
はそれらの騒音や雑音が一旦おさまるまで待って指先で
機器を特定することで、音声による操作を行なうことが
可能になる。
【0068】以上本第8の実施の形態は、注目意志の伝
達にジェスチャを用い、操作指示の伝達に音声を用いる
例として説明した。 (第9の実施の形態)第9の実施の形態では、上記第8
の実施の形態の注目度判定のための入力形態および操作
指示の入力形態の変形例を示す。本第9の実施の形態で
は注目度の判定に正面顔判定部を利用し、操作指示の認
識にジェスチャ認識部を利用した例を示す。
達にジェスチャを用い、操作指示の伝達に音声を用いる
例として説明した。 (第9の実施の形態)第9の実施の形態では、上記第8
の実施の形態の注目度判定のための入力形態および操作
指示の入力形態の変形例を示す。本第9の実施の形態で
は注目度の判定に正面顔判定部を利用し、操作指示の認
識にジェスチャ認識部を利用した例を示す。
【0069】入力装置の構成としては、図6の(a)に
示したジェスチャ認識部31の代わりに正面顔判定部
(不図示)を設け、音声認識部33の代わりにジェスチ
ャ認識部(不図示)を設ける。前記正面顔判定部は上記
第6の実施の形態で示した正面顔判定手段26と同様に
構成される。当該正面顔判定部においては上記第6の実
施の形態における正面顔判定手段26と比較して操作者
の位置が当該家庭用テレビに対して遠方である事が予想
されるので、上記第6の実施の形態に示したような入力
画像に対する顔画像領域の大きさの比を条件とする手法
は利用できない場合も考えられる。このため操作者が当
該家庭用テレビにある程度接近して操作するという仕様
を設定することにより操作者の顔領域が大きく撮影され
るので、画像処理の結果も安定し、入力画像と顔画像領
域との比を上記第6の実施の形態における正面顔判定手
段26と同様に利用できる。
示したジェスチャ認識部31の代わりに正面顔判定部
(不図示)を設け、音声認識部33の代わりにジェスチ
ャ認識部(不図示)を設ける。前記正面顔判定部は上記
第6の実施の形態で示した正面顔判定手段26と同様に
構成される。当該正面顔判定部においては上記第6の実
施の形態における正面顔判定手段26と比較して操作者
の位置が当該家庭用テレビに対して遠方である事が予想
されるので、上記第6の実施の形態に示したような入力
画像に対する顔画像領域の大きさの比を条件とする手法
は利用できない場合も考えられる。このため操作者が当
該家庭用テレビにある程度接近して操作するという仕様
を設定することにより操作者の顔領域が大きく撮影され
るので、画像処理の結果も安定し、入力画像と顔画像領
域との比を上記第6の実施の形態における正面顔判定手
段26と同様に利用できる。
【0070】本第9の実施の形態では、前記正面顔判定
部で操作者が当該家庭用テレビに対して正面を向いてい
ると判定した状態において、前記ジェスチャ認識部が操
作者のジェスチャ(手の動き)を認識し、その認識結果
に基づいて指示出力部34が動作指示信号を当該家庭用
テレビへ送信する。これにより上記第8の実施の形態と
同様に、操作者の一つのジェスチャにより多数の機器が
同時に動く弊害は防止され、同様の効果が得られる。
部で操作者が当該家庭用テレビに対して正面を向いてい
ると判定した状態において、前記ジェスチャ認識部が操
作者のジェスチャ(手の動き)を認識し、その認識結果
に基づいて指示出力部34が動作指示信号を当該家庭用
テレビへ送信する。これにより上記第8の実施の形態と
同様に、操作者の一つのジェスチャにより多数の機器が
同時に動く弊害は防止され、同様の効果が得られる。
【0071】以上本第9の実施の形態は、注目意志の伝
達を対象機器と正対することで行ない、操作指示の伝達
に手や身体のジェスチャを用いる例として説明した。 (第10の実施の形態)本第10の実施の形態は、上記
第8の実施の形態の注目度判定のための入力形態の変形
例を示す。本第10の実施の形態では注目度の判定に正
面顔判定部を利用した例について説明する。
達を対象機器と正対することで行ない、操作指示の伝達
に手や身体のジェスチャを用いる例として説明した。 (第10の実施の形態)本第10の実施の形態は、上記
第8の実施の形態の注目度判定のための入力形態の変形
例を示す。本第10の実施の形態では注目度の判定に正
面顔判定部を利用した例について説明する。
【0072】入力装置の構成としては、図6の(a)に
示したジェスチャ認識部31の代わりに正面顔判定部
(不図示)を設ける。音声認識部33は操作者の発声す
る「オン」「オフ」「2チャンネル」などの言葉を認識
し、その認識結果に基づいて指示出力部34が動作指示
信号を家庭用テレビへ送信する。
示したジェスチャ認識部31の代わりに正面顔判定部
(不図示)を設ける。音声認識部33は操作者の発声す
る「オン」「オフ」「2チャンネル」などの言葉を認識
し、その認識結果に基づいて指示出力部34が動作指示
信号を家庭用テレビへ送信する。
【0073】上記第9の実施の形態および本第10の実
施の形態では正面顔判定部を利用した例について説明し
た。実施形態が家庭用テレビのスイッチである場合は、
前記家庭用テレビに対して正面を向いている人物が複数
である可能性がある。このような場合、入力画像に対す
る顔領域の比が最大の人物のジェスチャを指示として優
先的に認識する手法が考えられる。また音声により操作
指示を入力する場合は、入力画像に対して顔領域の比が
所定の割合(例えば、20%等と予め決めておく。また
割合をユーザが設定することも考えられる)より大きけ
れば音声認識部33が動作すると設定する。この場合、
当該家庭用テレビへの操作指示を意図する操作者は必然
的に当該家庭用テレビへ接近することになり、音声認識
部33を構成するマイクから入力される音声レベルも十
分大きくなり、結果的にその環境のなかで検出される音
声としては最大のものとなる。
施の形態では正面顔判定部を利用した例について説明し
た。実施形態が家庭用テレビのスイッチである場合は、
前記家庭用テレビに対して正面を向いている人物が複数
である可能性がある。このような場合、入力画像に対す
る顔領域の比が最大の人物のジェスチャを指示として優
先的に認識する手法が考えられる。また音声により操作
指示を入力する場合は、入力画像に対して顔領域の比が
所定の割合(例えば、20%等と予め決めておく。また
割合をユーザが設定することも考えられる)より大きけ
れば音声認識部33が動作すると設定する。この場合、
当該家庭用テレビへの操作指示を意図する操作者は必然
的に当該家庭用テレビへ接近することになり、音声認識
部33を構成するマイクから入力される音声レベルも十
分大きくなり、結果的にその環境のなかで検出される音
声としては最大のものとなる。
【0074】したがって、前記マイクの入力感度レベル
を低く設定しておけば、必然的に最も強い意図を持って
いる操作者の声だけが前記マイクから入力されることに
なる。あるいは、入力画像中の顔領域の割合から当該家
庭用テレビと操作者との概略距離が推定できるので、前
記マイクの入力感度レベルを動的に調整することも考え
られる。
を低く設定しておけば、必然的に最も強い意図を持って
いる操作者の声だけが前記マイクから入力されることに
なる。あるいは、入力画像中の顔領域の割合から当該家
庭用テレビと操作者との概略距離が推定できるので、前
記マイクの入力感度レベルを動的に調整することも考え
られる。
【0075】以上本第10の実施の形態は、注目意志の
伝達を対象機器と正対することで行ない、操作指示の伝
達に音声を用いる例として説明した。 (第8〜第10の実施の形態のまとめ)第8〜第10の
実施の形態に示された構成及び作用効果をまとめると次
の通りである。 [8]第8の実施の形態に示された入力装置は、注目度
検出手段(31)における第1の行為は身体の動作であ
り、動作指示検出手段(33)における第2の行為は音
声入力である。
伝達を対象機器と正対することで行ない、操作指示の伝
達に音声を用いる例として説明した。 (第8〜第10の実施の形態のまとめ)第8〜第10の
実施の形態に示された構成及び作用効果をまとめると次
の通りである。 [8]第8の実施の形態に示された入力装置は、注目度
検出手段(31)における第1の行為は身体の動作であ
り、動作指示検出手段(33)における第2の行為は音
声入力である。
【0076】したがって上記入力装置においては、所定
の身体の動作がなされたときのみ、前記音声に対応する
指示を出力することができる。これにより、操作者の意
図しない音声の発生が機器への動作指示として誤認識さ
れることがなくなる。 [9]第9の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は前記注目度検出手段に対
して正対することであり、動作指示検出手段における第
2の行為は身体の動作である。
の身体の動作がなされたときのみ、前記音声に対応する
指示を出力することができる。これにより、操作者の意
図しない音声の発生が機器への動作指示として誤認識さ
れることがなくなる。 [9]第9の実施の形態に示された入力装置は、注目度
検出手段における第1の行為は前記注目度検出手段に対
して正対することであり、動作指示検出手段における第
2の行為は身体の動作である。
【0077】したがって上記入力装置においては、操作
者が前記注目度検出手段に対して正対したときのみ、前
記身体の動作に対応する指示を出力することができる。
これにより、操作者の意図しない身体の動作が機器への
動作指示として誤認識されることがなくなる。 [10]第10の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
に対して正対することであり、動作指示検出手段(3
3)における第2の行為は音声入力である。
者が前記注目度検出手段に対して正対したときのみ、前
記身体の動作に対応する指示を出力することができる。
これにより、操作者の意図しない身体の動作が機器への
動作指示として誤認識されることがなくなる。 [10]第10の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
に対して正対することであり、動作指示検出手段(3
3)における第2の行為は音声入力である。
【0078】したがって上記入力装置においては、操作
者が前記注目度検出手段に対して正対したときのみ、前
記音声に対応する指示を出力することができる。 (第11の実施の形態)図7の(a)は本発明の第11
の実施の形態に係る入力装置の構成を示すブロック図で
ある。本第11の実施の形態に係る入力装置は、家庭用
テレビのスイッチを制御するためのものである。図7の
(a)に示す入力装置は、音声認識部41、注目度判定
部42、ジェスチャ認識部43および指示出力部44か
らなる。音声認識部41は注目度判定部42を介して指
示出力部44に接続されている。またジェスチャ認識部
43も指示出力部44に接続されている。さらに指示出
力部44は当該家庭用テレビに接続されている。上記第
8の実施の形態では操作者のジェスチャで機器を特定し
音声によって動作指示を行なったが、本第11の実施の
形態では音声によって機器を特定しジェスチャによって
動作指示を行なう。
者が前記注目度検出手段に対して正対したときのみ、前
記音声に対応する指示を出力することができる。 (第11の実施の形態)図7の(a)は本発明の第11
の実施の形態に係る入力装置の構成を示すブロック図で
ある。本第11の実施の形態に係る入力装置は、家庭用
テレビのスイッチを制御するためのものである。図7の
(a)に示す入力装置は、音声認識部41、注目度判定
部42、ジェスチャ認識部43および指示出力部44か
らなる。音声認識部41は注目度判定部42を介して指
示出力部44に接続されている。またジェスチャ認識部
43も指示出力部44に接続されている。さらに指示出
力部44は当該家庭用テレビに接続されている。上記第
8の実施の形態では操作者のジェスチャで機器を特定し
音声によって動作指示を行なったが、本第11の実施の
形態では音声によって機器を特定しジェスチャによって
動作指示を行なう。
【0079】上記音声認識部41は操作者の当該家庭用
テレビへの注目状態を、操作者による例えば「テレビ」
「画面」等の呼びかけ言葉で認識し、認識した旨を示す
信号を注目度判定部42へ出力する。注目度判定部42
は前記信号を入力した場合、指示出力部44の注目状態
フラグをONにする。このように操作者による機器への
呼びかけを基に当該家庭用テレビへの注目状態の判定を
行なっているため、例えばその機器が備えられている環
境内に音声やジェスチャで指示により動作する機器が種
々存在しても、操作者が音声を発した後で行なうジェス
チャが当該家庭用テレビに対する指示であることが明確
になり、他の機器を誤動作させずに済む。
テレビへの注目状態を、操作者による例えば「テレビ」
「画面」等の呼びかけ言葉で認識し、認識した旨を示す
信号を注目度判定部42へ出力する。注目度判定部42
は前記信号を入力した場合、指示出力部44の注目状態
フラグをONにする。このように操作者による機器への
呼びかけを基に当該家庭用テレビへの注目状態の判定を
行なっているため、例えばその機器が備えられている環
境内に音声やジェスチャで指示により動作する機器が種
々存在しても、操作者が音声を発した後で行なうジェス
チャが当該家庭用テレビに対する指示であることが明確
になり、他の機器を誤動作させずに済む。
【0080】図7の(b)はジェスチャ認識部43の構
成を示すブロック図である。ジェスチャ認識部43は、
TVカメラ431、AD変換部432、手領域検出部4
33、指の骨格線抽出部434および形状識別部435
からなる。TVカメラ431はAD変換部432を介し
て手領域検出部433に接続されている。さらに手領域
検出部433は指の骨格線抽出部434を介して形状識
別部435に接続されている。
成を示すブロック図である。ジェスチャ認識部43は、
TVカメラ431、AD変換部432、手領域検出部4
33、指の骨格線抽出部434および形状識別部435
からなる。TVカメラ431はAD変換部432を介し
て手領域検出部433に接続されている。さらに手領域
検出部433は指の骨格線抽出部434を介して形状識
別部435に接続されている。
【0081】図8の(a)は上記TVカメラ431によ
り撮影された操作者の顔および手を示す図である。TV
カメラ431はこのような操作者の画像が得られるよう
設置されている。TVカメラ431から入力された画像
は、AD変換部432でディジタル画像に変換され、手
領域検出部433に出力される。手領域検出部433は
入力したディジタル画像を基に、予め登録されている操
作者の手の平の色相に当てはまる部分を手領域(図8の
(a)において81で示す)として切り出す。手領域検
出部433で切り出された手領域81の部分画像は指の
骨格線抽出部434に出力される。
り撮影された操作者の顔および手を示す図である。TV
カメラ431はこのような操作者の画像が得られるよう
設置されている。TVカメラ431から入力された画像
は、AD変換部432でディジタル画像に変換され、手
領域検出部433に出力される。手領域検出部433は
入力したディジタル画像を基に、予め登録されている操
作者の手の平の色相に当てはまる部分を手領域(図8の
(a)において81で示す)として切り出す。手領域検
出部433で切り出された手領域81の部分画像は指の
骨格線抽出部434に出力される。
【0082】図8の(b)は切り出された手領域81の
部分画像を示す図である。骨格線抽出部434は入力し
た前記部分画像に対し、手領域81の細線化処理を行な
うことにより、各指の骨格線を抽出しその情報を形状識
別部435へ出力する。形状識別部435は入力した指
の骨格線形状の情報を基に、手の形(例えば「パー」
「グー」「チョキ」)の識別を行なう。そして、その識
別した結果を所定の指示信号に変換し指示出力部44に
出力する。
部分画像を示す図である。骨格線抽出部434は入力し
た前記部分画像に対し、手領域81の細線化処理を行な
うことにより、各指の骨格線を抽出しその情報を形状識
別部435へ出力する。形状識別部435は入力した指
の骨格線形状の情報を基に、手の形(例えば「パー」
「グー」「チョキ」)の識別を行なう。そして、その識
別した結果を所定の指示信号に変換し指示出力部44に
出力する。
【0083】本第11の実施の形態では、ジェスチャ認
識部43の方が音声認識部41に比べ処理すべき情報量
が多いため、注目度判定部42が上記注目状態フラグを
ONにしている期間(即ち当該家庭用テレビが操作者に
より“注目された状態にある”場合)のみ、ジェスチャ
認識部43が処理を行なう構成としてもよい。その際注
目度判定部42は前記注目状態フラグがONである期
間、所定の信号をジェスチャ認識部43へ出力する。そ
してジェスチャ認識部43は注目度判定部42から前記
信号を入力している間、ジェスチャの認識を行なうよう
にする。
識部43の方が音声認識部41に比べ処理すべき情報量
が多いため、注目度判定部42が上記注目状態フラグを
ONにしている期間(即ち当該家庭用テレビが操作者に
より“注目された状態にある”場合)のみ、ジェスチャ
認識部43が処理を行なう構成としてもよい。その際注
目度判定部42は前記注目状態フラグがONである期
間、所定の信号をジェスチャ認識部43へ出力する。そ
してジェスチャ認識部43は注目度判定部42から前記
信号を入力している間、ジェスチャの認識を行なうよう
にする。
【0084】勿論、上記第8の実施の形態と同様にジェ
スチャ認識部が終始認識処理を行なっているよう構成し
てもよい。そしていずれの場合も、指示出力部44は当
該家庭用テレビが操作者により“注目された状態にあ
る”場合にのみ、ジェスチャ認識部43の認識結果に基
づく動作指示を当該家庭用テレビへ出力する。
スチャ認識部が終始認識処理を行なっているよう構成し
てもよい。そしていずれの場合も、指示出力部44は当
該家庭用テレビが操作者により“注目された状態にあ
る”場合にのみ、ジェスチャ認識部43の認識結果に基
づく動作指示を当該家庭用テレビへ出力する。
【0085】以上、本第11の実施の形態は、注目意志
の伝達に音声を用い、操作指示の伝達にジェスチャを用
いる例として説明した。 (第11の実施の形態のまとめ)第11の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [11]第11の実施の形態に示された入力装置は、注
目度検出手段(41)における第1の行為は音声入力で
あり、動作指示検出手段(43)における第2の行為は
身体の動作である。
の伝達に音声を用い、操作指示の伝達にジェスチャを用
いる例として説明した。 (第11の実施の形態のまとめ)第11の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [11]第11の実施の形態に示された入力装置は、注
目度検出手段(41)における第1の行為は音声入力で
あり、動作指示検出手段(43)における第2の行為は
身体の動作である。
【0086】したがって上記入力装置においては、操作
者が所定の音声を発生したときのみ、前記身体の動作に
対応する指示を出力することができる。これにより、操
作者の意図しない身体の動作が機器への動作指示として
誤認識されることがなくなる。
者が所定の音声を発生したときのみ、前記身体の動作に
対応する指示を出力することができる。これにより、操
作者の意図しない身体の動作が機器への動作指示として
誤認識されることがなくなる。
【0087】(第12の実施の形態)図9は本発明の第
12の実施の形態に係る入力装置の構成を示すブロック
図である。本第12の実施の形態に係る入力装置は、携
帯時計に適用されている。図9に示す入力装置は、視線
方向検出部51、注目度判定部52、接触センサ53、
指示出力部54、音声出力部55およびクロック56か
らなる。視線方向検出部51は注目度判定部52を介し
て指示出力部54に接続されている。また接触センサ5
3も指示出力部54に接続されている。さらに指示出力
部54は音声出力部55に接続されており、この音声出
力部55はクロック56に接続されている。
12の実施の形態に係る入力装置の構成を示すブロック
図である。本第12の実施の形態に係る入力装置は、携
帯時計に適用されている。図9に示す入力装置は、視線
方向検出部51、注目度判定部52、接触センサ53、
指示出力部54、音声出力部55およびクロック56か
らなる。視線方向検出部51は注目度判定部52を介し
て指示出力部54に接続されている。また接触センサ5
3も指示出力部54に接続されている。さらに指示出力
部54は音声出力部55に接続されており、この音声出
力部55はクロック56に接続されている。
【0088】このような構成により、利用者が当該携帯
時計を見て、かつ前記接触センサに接触するとその瞬間
の時刻を当該携帯時計が音声により読み上げることにな
る。当該入力装置は、TVカメラからなる視線方向検出
部51にて検出された利用者の視線方向に基づき注目度
判定部52で注目度を判定する。それとともに接触セン
サ53の検出結果を基に指示出力部54で音声出力部5
5に動作指示する。これにより、音声出力部55がクロ
ック56からその時点の時刻を検出し、その時刻を図示
しないスピーカから音声出力することになる(例えば、
「ただいま午後3時30分です。」)。なお、視線方向
検出部51および注目度判定部52は上記第1の実施の
形態における視線方向検出部11および注目度判定部1
2と同様に構成する。
時計を見て、かつ前記接触センサに接触するとその瞬間
の時刻を当該携帯時計が音声により読み上げることにな
る。当該入力装置は、TVカメラからなる視線方向検出
部51にて検出された利用者の視線方向に基づき注目度
判定部52で注目度を判定する。それとともに接触セン
サ53の検出結果を基に指示出力部54で音声出力部5
5に動作指示する。これにより、音声出力部55がクロ
ック56からその時点の時刻を検出し、その時刻を図示
しないスピーカから音声出力することになる(例えば、
「ただいま午後3時30分です。」)。なお、視線方向
検出部51および注目度判定部52は上記第1の実施の
形態における視線方向検出部11および注目度判定部1
2と同様に構成する。
【0089】本第12の実施の形態による入力装置で
は、動作指示を当該携帯時計、あるいは当該携帯時計と
離れた位置に設置されている(例えば、利用者のポケッ
ト内等持ち歩くに便利な位置)接触センサに利用者が触
れたことを検出することにより行なう。
は、動作指示を当該携帯時計、あるいは当該携帯時計と
離れた位置に設置されている(例えば、利用者のポケッ
ト内等持ち歩くに便利な位置)接触センサに利用者が触
れたことを検出することにより行なう。
【0090】ここで、時計に接触センサを搭載し接触状
態を検出する構成をとり、視線方向の検出に画像入力と
画像処理を用いている場合、利用者が当該携帯時計に接
触している間は視線方向検出部1に相当するTVカメラ
が手で塞がれて入力画像が得られないおそれがある。こ
のような場合、注目状態と動作指示には若干のタイミン
グラグが生ずる。このようなとき、注目度判定部52は
ある一定期間利用者の視線が当該携帯時計に向けられて
いたと判定した場合、それ以降所定の設定期間(例えば
15秒間)、指示出力部54の注目状態フラグをONに
設定する。このように注目状態は注目度判定部52が
“注目された状態にある”と判定した時点だけでなく、
適切な期間上記注目状態フラグをONにすることで、注
目状態と指示入力が同時には成立し得ないような機器で
も本発明を適用できるので、より使いやすい入力装置を
実現することができる。
態を検出する構成をとり、視線方向の検出に画像入力と
画像処理を用いている場合、利用者が当該携帯時計に接
触している間は視線方向検出部1に相当するTVカメラ
が手で塞がれて入力画像が得られないおそれがある。こ
のような場合、注目状態と動作指示には若干のタイミン
グラグが生ずる。このようなとき、注目度判定部52は
ある一定期間利用者の視線が当該携帯時計に向けられて
いたと判定した場合、それ以降所定の設定期間(例えば
15秒間)、指示出力部54の注目状態フラグをONに
設定する。このように注目状態は注目度判定部52が
“注目された状態にある”と判定した時点だけでなく、
適切な期間上記注目状態フラグをONにすることで、注
目状態と指示入力が同時には成立し得ないような機器で
も本発明を適用できるので、より使いやすい入力装置を
実現することができる。
【0091】以上述べたように、接触センサ53は利用
者による接触を検出しその結果を指示出力部54に出力
する。指示出力部54は上記注目状態フラグがONであ
れば、音声出力部55に現在の時刻を読み上げるための
命令信号を出力する。そして音声出力部55は指示出力
部54から入力した前記命令信号に従って、クロック5
6からその時点の時刻を検出し、その時刻を図示しない
スピーカから音声出力する。
者による接触を検出しその結果を指示出力部54に出力
する。指示出力部54は上記注目状態フラグがONであ
れば、音声出力部55に現在の時刻を読み上げるための
命令信号を出力する。そして音声出力部55は指示出力
部54から入力した前記命令信号に従って、クロック5
6からその時点の時刻を検出し、その時刻を図示しない
スピーカから音声出力する。
【0092】このような構成により、時刻を読み上げる
携帯時計を構成することができる。なお、上述したよう
に注目度認識機能を時計に搭載したことによる効果は、
特に携帯時計において顕著である。本第12の実施の形
態によれば、携帯時計例えば腕時計において、利用者が
軽く腕時計全体を眺めた後で、その腕時計を耳に当てた
時に静かな音声で時刻を読み上げるよう構成することが
できる。このような時計は、視力の弱い障害者やお年寄
りにとって使いやすいものとなる。
携帯時計を構成することができる。なお、上述したよう
に注目度認識機能を時計に搭載したことによる効果は、
特に携帯時計において顕著である。本第12の実施の形
態によれば、携帯時計例えば腕時計において、利用者が
軽く腕時計全体を眺めた後で、その腕時計を耳に当てた
時に静かな音声で時刻を読み上げるよう構成することが
できる。このような時計は、視力の弱い障害者やお年寄
りにとって使いやすいものとなる。
【0093】また日常生活の中で、不意に腕時計に触っ
てしまうことはしばしばあるが、その都度時刻を読み上
げるよう構成する必要はなく、当該腕時計が利用者によ
り注目されたときにのみ時刻を読み上げれば良い。そこ
で、利用者の視線方向検出に基づく注目度判定部52を
設けることで、当該腕時計にて不必要なときに時刻を読
み上げることがなくなる。さらに、例えば腕時計の文字
盤が見えない夜間でも、赤外センサを用いることで当該
入力装置において視線方向の検出が可能であり、夜間に
も利用者が当該時計を耳に当てることで、静かな音声で
時刻を伝えてくれる腕時計を実現できる。
てしまうことはしばしばあるが、その都度時刻を読み上
げるよう構成する必要はなく、当該腕時計が利用者によ
り注目されたときにのみ時刻を読み上げれば良い。そこ
で、利用者の視線方向検出に基づく注目度判定部52を
設けることで、当該腕時計にて不必要なときに時刻を読
み上げることがなくなる。さらに、例えば腕時計の文字
盤が見えない夜間でも、赤外センサを用いることで当該
入力装置において視線方向の検出が可能であり、夜間に
も利用者が当該時計を耳に当てることで、静かな音声で
時刻を伝えてくれる腕時計を実現できる。
【0094】以上本第12の実施の形態は、注目意志の
伝達に視線方向を用い、操作指示の伝達に機器への接触
を用いる例として説明した。 (第12の実施の形態のまとめ)第12の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [12]第12の実施の形態に示された入力装置は、注
目度検出手段(51)における第1の行為は所定箇所へ
の注視であり、動作指示検出手段(53)における第2
の行為は所定箇所への接触である。
伝達に視線方向を用い、操作指示の伝達に機器への接触
を用いる例として説明した。 (第12の実施の形態のまとめ)第12の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [12]第12の実施の形態に示された入力装置は、注
目度検出手段(51)における第1の行為は所定箇所へ
の注視であり、動作指示検出手段(53)における第2
の行為は所定箇所への接触である。
【0095】したがって上記入力装置においては、操作
者により前記所定箇所が注視されたときのみ、前記所定
箇所への接触に対応する指示を出力することができる。
これにより、操作者の意図しない前記所定箇所への接触
が機器への動作指示として誤認識されることがなくな
る。
者により前記所定箇所が注視されたときのみ、前記所定
箇所への接触に対応する指示を出力することができる。
これにより、操作者の意図しない前記所定箇所への接触
が機器への動作指示として誤認識されることがなくな
る。
【0096】(第13の実施の形態)第13の実施の形
態では、本発明を適用した自動ドアの開閉スイッチを構
成する。この自動ドアは例えばビルや店舗の入口に設置
される自動ドアを想定している。従来の自動ドアでは圧
力センサ、赤外線センサ等人間の存在を検知するだけの
センサを用いドアの開閉スイッチをON、OFFしてい
た。しかしドアの周囲が混雑すると、ドアを開ける意図
がないにも関わらず人間がドアに接近してしまう状況が
多くなる。(例えば、混雑を避けようとして扉に近付い
たり、後向きで後ずさりしているうちにドアの近くに寄
ってしまうという状況。)このような場合でも従来の自
動ドアであれば無条件に開いてしまい、無駄にドアを開
けていた。
態では、本発明を適用した自動ドアの開閉スイッチを構
成する。この自動ドアは例えばビルや店舗の入口に設置
される自動ドアを想定している。従来の自動ドアでは圧
力センサ、赤外線センサ等人間の存在を検知するだけの
センサを用いドアの開閉スイッチをON、OFFしてい
た。しかしドアの周囲が混雑すると、ドアを開ける意図
がないにも関わらず人間がドアに接近してしまう状況が
多くなる。(例えば、混雑を避けようとして扉に近付い
たり、後向きで後ずさりしているうちにドアの近くに寄
ってしまうという状況。)このような場合でも従来の自
動ドアであれば無条件に開いてしまい、無駄にドアを開
けていた。
【0097】このような問題も、本発明を適用すれば簡
単に解決できる。上記のような場合は、注目度認識機能
として接近した人間が当該自動ドアに対して正面から来
ているか否かを判別する手段を適用し(例えばTVカメ
ラにて撮影した該人間の画像から両目が検出されたか否
かを判断する。)、さらに指示認識機能として従来から
用いられている圧力センサや赤外線センサを適用すれば
よい。そして前記注目度認識機能で人間が正面から接近
していることを検出したとき“注目された状態にある”
と判定し、この判定がなされかつ前記指示認識機能で人
間の存在を検知したときのみ、当該自動ドアを開くよう
にする。
単に解決できる。上記のような場合は、注目度認識機能
として接近した人間が当該自動ドアに対して正面から来
ているか否かを判別する手段を適用し(例えばTVカメ
ラにて撮影した該人間の画像から両目が検出されたか否
かを判断する。)、さらに指示認識機能として従来から
用いられている圧力センサや赤外線センサを適用すれば
よい。そして前記注目度認識機能で人間が正面から接近
していることを検出したとき“注目された状態にある”
と判定し、この判定がなされかつ前記指示認識機能で人
間の存在を検知したときのみ、当該自動ドアを開くよう
にする。
【0098】このような構成により、当該自動ドアに人
間が正面から接近している場合即ち当該自動ドアの内側
に入ろうとしている場合にのみ、当該自動ドアを開ける
ことが可能になる。
間が正面から接近している場合即ち当該自動ドアの内側
に入ろうとしている場合にのみ、当該自動ドアを開ける
ことが可能になる。
【0099】以上本第13の実施の形態は、注目意志の
伝達を対象機器と正対することで行ない、操作指示の伝
達を機器へ接近することで行なう例として説明した。 (第14の実施の形態)第14の実施の形態では、上記
第13の実施の形態で用いられている接近に係る情報
を、操作者による注目意志の伝達に用いた自動ドアの開
閉スイッチを説明する。本第14の実施の形態では、例
えば赤外線センサや超音波センサを当該自動ドアの入口
に、外側からの人間の接近に反応するよう設置する。そ
して人間が当該自動ドアへ接近する情報を注目状態の判
定に用いる。
伝達を対象機器と正対することで行ない、操作指示の伝
達を機器へ接近することで行なう例として説明した。 (第14の実施の形態)第14の実施の形態では、上記
第13の実施の形態で用いられている接近に係る情報
を、操作者による注目意志の伝達に用いた自動ドアの開
閉スイッチを説明する。本第14の実施の形態では、例
えば赤外線センサや超音波センサを当該自動ドアの入口
に、外側からの人間の接近に反応するよう設置する。そ
して人間が当該自動ドアへ接近する情報を注目状態の判
定に用いる。
【0100】指示認識機能を持つ入力部には音声認識装
置(不図示)を用いる。例えば操作者の発声する「開
け」「閉まれ」という言葉を認識し、その認識結果に基
づいて当該自動ドアを開いたり閉じたりするようにす
る。
置(不図示)を用いる。例えば操作者の発声する「開
け」「閉まれ」という言葉を認識し、その認識結果に基
づいて当該自動ドアを開いたり閉じたりするようにす
る。
【0101】このような構成により、自動ドアに人間が
意図せず接近した場合に、誤ってドアが開くことを防ぐ
ことができる。また、単に音声の認識により開く自動ド
アと比較しても、前記音声認識装置が周囲のノイズに反
応して誤ってドアが開いてしまうことを防ぐことができ
る。
意図せず接近した場合に、誤ってドアが開くことを防ぐ
ことができる。また、単に音声の認識により開く自動ド
アと比較しても、前記音声認識装置が周囲のノイズに反
応して誤ってドアが開いてしまうことを防ぐことができ
る。
【0102】以上本第14の実施の形態は、注目意志の
伝達を対象機器へ接近することで行ない、操作指示の伝
達に音声を用いる例として説明した。 (第13および第14の実施の形態のまとめ)第13お
よび第14の実施の形態に示された構成及び作用効果を
まとめると次の通りである。 [13]第13の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
に対して正対することであり、動作指示検出手段におけ
る第2の行為は前記動作指示検出手段への接近である。
伝達を対象機器へ接近することで行ない、操作指示の伝
達に音声を用いる例として説明した。 (第13および第14の実施の形態のまとめ)第13お
よび第14の実施の形態に示された構成及び作用効果を
まとめると次の通りである。 [13]第13の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
に対して正対することであり、動作指示検出手段におけ
る第2の行為は前記動作指示検出手段への接近である。
【0103】したがって上記入力装置においては、操作
者が前記注目度検出手段に対して正対したときのみ、前
記動作指示検出手段への接近に対応する指示を出力する
ことができる。これにより、操作者の意図しない前記動
作指示検出手段への接近が機器への動作指示として誤認
識されることがなくなる。 [14]第13の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
への接近であり、動作指示検出手段における第2の行為
は音声入力である。したがって上記入力装置において
は、操作者が前記注目度検出手段に接近したときのみ、
前記音声に対応する指示を出力することができる。これ
により、操作者の意図しない音声の発生が機器への動作
指示として誤認識されることがなくなる。
者が前記注目度検出手段に対して正対したときのみ、前
記動作指示検出手段への接近に対応する指示を出力する
ことができる。これにより、操作者の意図しない前記動
作指示検出手段への接近が機器への動作指示として誤認
識されることがなくなる。 [14]第13の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は前記注目度検出手段
への接近であり、動作指示検出手段における第2の行為
は音声入力である。したがって上記入力装置において
は、操作者が前記注目度検出手段に接近したときのみ、
前記音声に対応する指示を出力することができる。これ
により、操作者の意図しない音声の発生が機器への動作
指示として誤認識されることがなくなる。
【0104】(第15の実施の形態)第15の実施の形
態では、本発明をコンピュータのキーボードに適用した
キー入力装置について説明する。従来のキーボード等の
キー入力装置は、操作者により所定のキーが押し下げれ
たことを検出し、そのキーに対応した信号をコンピュー
タ本体へ出力することにより操作者の入力を伝達するも
のであった。近年さまざまな形態のキー入力装置あるい
は接触型センサが開発されている。これらの入力装置は
一般に、操作者の接触あるいはキー押し下げを検出する
だけの装置であった。
態では、本発明をコンピュータのキーボードに適用した
キー入力装置について説明する。従来のキーボード等の
キー入力装置は、操作者により所定のキーが押し下げれ
たことを検出し、そのキーに対応した信号をコンピュー
タ本体へ出力することにより操作者の入力を伝達するも
のであった。近年さまざまな形態のキー入力装置あるい
は接触型センサが開発されている。これらの入力装置は
一般に、操作者の接触あるいはキー押し下げを検出する
だけの装置であった。
【0105】しかしこれらの装置では、しばしば操作者
の意図しない入力を検出することがある。例えば、キー
ボードの上に物が置かれ圧力がかかり押し下げられたキ
ーや、操作者がコンピュータのディスプレイに向かって
考え事をしているうちに、キーボードの上に置かれた手
により無意識に押されたキー等を検出することがある。
の意図しない入力を検出することがある。例えば、キー
ボードの上に物が置かれ圧力がかかり押し下げられたキ
ーや、操作者がコンピュータのディスプレイに向かって
考え事をしているうちに、キーボードの上に置かれた手
により無意識に押されたキー等を検出することがある。
【0106】図10は本第15の実施の形態に係るキー
入力装置の構成を示すブロック図である。図10に示す
キー入力装置は、視線方向検出部61aおよび61b、
注目度判定部62、キーボード入力装置63および指示
出力部64からなる。視線方向検出部61a、61bは
各々注目度判定部62を介して指示出力部64に接続さ
れている。またキーボード入力装置63も指示出力部6
4に接続されている。さらに指示出力部64には当該コ
ンピュータ本体が接続されている。
入力装置の構成を示すブロック図である。図10に示す
キー入力装置は、視線方向検出部61aおよび61b、
注目度判定部62、キーボード入力装置63および指示
出力部64からなる。視線方向検出部61a、61bは
各々注目度判定部62を介して指示出力部64に接続さ
れている。またキーボード入力装置63も指示出力部6
4に接続されている。さらに指示出力部64には当該コ
ンピュータ本体が接続されている。
【0107】本第15の実施の形態では、注目度の判定
を注目度判定部62において視線方向検出部61a,6
1bからの出力を基に行なう。視線方向検出部61a,
61bの構成は上記第1の実施の形態に示した視線方向
検出部11と同様である。当該入力装置は、各々TVカ
メラからなる二つの視線方向検出部61a,61bを備
えている。視線検出部61aをなすTVカメラは当該コ
ンピュータのキーボードに、また視線検出部61bをな
すTVカメラはディスプレイに、各々操作者の顔領域が
撮影できるよう取り付けられている。注目度判定部62
は、視線検出部61aで検出した視線位置が前記キーボ
ード上にあるか、または視線検出部61bで検出した視
線位置が前記ディスプレイの中心位置から所定の半径を
有する円内にある場合、“注目された状態にある”と判
定する。
を注目度判定部62において視線方向検出部61a,6
1bからの出力を基に行なう。視線方向検出部61a,
61bの構成は上記第1の実施の形態に示した視線方向
検出部11と同様である。当該入力装置は、各々TVカ
メラからなる二つの視線方向検出部61a,61bを備
えている。視線検出部61aをなすTVカメラは当該コ
ンピュータのキーボードに、また視線検出部61bをな
すTVカメラはディスプレイに、各々操作者の顔領域が
撮影できるよう取り付けられている。注目度判定部62
は、視線検出部61aで検出した視線位置が前記キーボ
ード上にあるか、または視線検出部61bで検出した視
線位置が前記ディスプレイの中心位置から所定の半径を
有する円内にある場合、“注目された状態にある”と判
定する。
【0108】一方、指示出力部64は前記キーボードに
おけるキー入力を検出する。キーボード入力装置63か
ら出力された信号を入力し、それらの入力信号の中で注
目度判定部62が“注目された状態にある”と判定して
いる期間の信号を当該コンピュータ本体へ出力する。
おけるキー入力を検出する。キーボード入力装置63か
ら出力された信号を入力し、それらの入力信号の中で注
目度判定部62が“注目された状態にある”と判定して
いる期間の信号を当該コンピュータ本体へ出力する。
【0109】なお、視線方向検出部61aにおける検出
が高精度に行なえる場合、視線方向検出部61aに前記
キーボード上の各キーに対応する複数の注目状態フラグ
を設け、各注目状態フラグのON、OFF状態を指示出
力部64へ出力するようにしてもよい。例えば視線方向
検出部61aで、前記キーボード上の“a”のキーが
“注目された状態にある”と判定し、前記キーボード上
の“a”のキーの近傍にある各キーに対応する注目状態
フラグを各々ONにし、それらの情報を指示出力部64
へ出力する。そして指示出力部64は、キーボード入力
装置63から入力する信号のうち操作者により注目され
ているキー、即ち“a”のキーの近傍にある各キーの入
力に限り受け付け、当該コンピュータ本体へ出力するよ
うにする。
が高精度に行なえる場合、視線方向検出部61aに前記
キーボード上の各キーに対応する複数の注目状態フラグ
を設け、各注目状態フラグのON、OFF状態を指示出
力部64へ出力するようにしてもよい。例えば視線方向
検出部61aで、前記キーボード上の“a”のキーが
“注目された状態にある”と判定し、前記キーボード上
の“a”のキーの近傍にある各キーに対応する注目状態
フラグを各々ONにし、それらの情報を指示出力部64
へ出力する。そして指示出力部64は、キーボード入力
装置63から入力する信号のうち操作者により注目され
ているキー、即ち“a”のキーの近傍にある各キーの入
力に限り受け付け、当該コンピュータ本体へ出力するよ
うにする。
【0110】また場合によっては、操作者がディスプレ
イでなく原稿を見ながらキーボードを操作する状況も考
えられる。このような場合、操作者の視線方向はキーボ
ードにもディスプレイにも当たらず、視線方向検出部6
1aおよび61bのいずれにも検出されない。そのよう
な特殊な状況では、手動で切り替えられるスイッチ(最
も簡単なものは、操作者が所定の椅子に座ったときON
になるようなセンサ)を別途備え、そのスイッチがON
の状態である期間、注目度判定部62が“注目された状
態にある”と判定する。そして、注目度判定部62が指
示出力部64における所定の注目状態フラグをONにす
るよう設定することにより、上記キーボードを従来のも
のと同様に使用することができる。
イでなく原稿を見ながらキーボードを操作する状況も考
えられる。このような場合、操作者の視線方向はキーボ
ードにもディスプレイにも当たらず、視線方向検出部6
1aおよび61bのいずれにも検出されない。そのよう
な特殊な状況では、手動で切り替えられるスイッチ(最
も簡単なものは、操作者が所定の椅子に座ったときON
になるようなセンサ)を別途備え、そのスイッチがON
の状態である期間、注目度判定部62が“注目された状
態にある”と判定する。そして、注目度判定部62が指
示出力部64における所定の注目状態フラグをONにす
るよう設定することにより、上記キーボードを従来のも
のと同様に使用することができる。
【0111】以上本第15の実施の形態は、注目意志の
伝達に視線方向を用い、操作指示の伝達に機器への接触
を用いる例として説明した。 (第15の実施の形態のまとめ)第15の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [15]第15の実施の形態に示された入力装置は、注
目度検出手段(61a、61b)における第1の行為は
所定箇所への注視であり、動作指示検出手段(63)に
おける第2の行為は所定箇所への接触である。
伝達に視線方向を用い、操作指示の伝達に機器への接触
を用いる例として説明した。 (第15の実施の形態のまとめ)第15の実施の形態に
示された構成及び作用効果をまとめると次の通りであ
る。 [15]第15の実施の形態に示された入力装置は、注
目度検出手段(61a、61b)における第1の行為は
所定箇所への注視であり、動作指示検出手段(63)に
おける第2の行為は所定箇所への接触である。
【0112】したがって上記入力装置においては、操作
者により前記所定箇所が注視されたときのみ、前記所定
箇所への接触に対応する指示を出力することができる。
これにより、操作者の意図しない前記所定箇所への接触
が機器への動作指示として誤認識されることがなくな
る。
者により前記所定箇所が注視されたときのみ、前記所定
箇所への接触に対応する指示を出力することができる。
これにより、操作者の意図しない前記所定箇所への接触
が機器への動作指示として誤認識されることがなくな
る。
【0113】(第16の実施の形態)図11は、本発明
の第16の実施の形態に係る入力装置の構成を示すブロ
ック図である。本第16の実施の形態に係る入力装置
は、目覚まし時計のスイッチを制御するためのものであ
る。図11に示す入力装置は、ジェスチャ識別部71、
注目度判定部72、視線方向検出部73、指示出力部7
4からなる。ジェスチャ識別部71は注目度判定部72
を介して指示出力部74に接続されている。また視線方
向検出部73も指示出力部74に接続されている。さら
に指示出力部74は当該目覚まし時計に接続されてい
る。
の第16の実施の形態に係る入力装置の構成を示すブロ
ック図である。本第16の実施の形態に係る入力装置
は、目覚まし時計のスイッチを制御するためのものであ
る。図11に示す入力装置は、ジェスチャ識別部71、
注目度判定部72、視線方向検出部73、指示出力部7
4からなる。ジェスチャ識別部71は注目度判定部72
を介して指示出力部74に接続されている。また視線方
向検出部73も指示出力部74に接続されている。さら
に指示出力部74は当該目覚まし時計に接続されてい
る。
【0114】図12は上記ジェスチャ認識部71の構成
を示すブロック図である。図12に示すようにジェスチ
ャ認識部71はTVカメラ711、AD変換部712、
手領域検出部713および画像処理部714からなる。
TVカメラ711はAD変換部712を介して手領域検
出部713に接続され、手領域検出部713は画像処理
部714に接続されている。さらに画像処理部714は
指示出力部74に接続されている。
を示すブロック図である。図12に示すようにジェスチ
ャ認識部71はTVカメラ711、AD変換部712、
手領域検出部713および画像処理部714からなる。
TVカメラ711はAD変換部712を介して手領域検
出部713に接続され、手領域検出部713は画像処理
部714に接続されている。さらに画像処理部714は
指示出力部74に接続されている。
【0115】ジェスチャ認識部71のTVカメラ711
は、当該目覚まし時計の近傍を撮影するよう設置してい
る。また視線方向検出部73は、上記第1の実施の形態
の視線方向検出部11とほぼ同様の構成である。
は、当該目覚まし時計の近傍を撮影するよう設置してい
る。また視線方向検出部73は、上記第1の実施の形態
の視線方向検出部11とほぼ同様の構成である。
【0116】当該目覚まし時計にセットされた時間(タ
イマーにセットされた時間)が到来すると、当該目覚ま
し時計は一般の目覚まし時計と同様にベルを鳴らす。一
般の目覚まし時計であれば、目覚めようとする人物(操
作者)が非常に眠い場合は、手探りでスイッチを切り、
再び眠ってしまうおそれがある。本第16の実施の形態
の目覚まし時計は、そのような無意識の行動では簡単に
はスイッチを切れない入力装置(スイッチ)の実現が目
的である。
イマーにセットされた時間)が到来すると、当該目覚ま
し時計は一般の目覚まし時計と同様にベルを鳴らす。一
般の目覚まし時計であれば、目覚めようとする人物(操
作者)が非常に眠い場合は、手探りでスイッチを切り、
再び眠ってしまうおそれがある。本第16の実施の形態
の目覚まし時計は、そのような無意識の行動では簡単に
はスイッチを切れない入力装置(スイッチ)の実現が目
的である。
【0117】TVカメラ711は当該目覚まし時計の近
傍を撮影し、上記第11の実施の形態のジェスチャ認識
部43と同様に手領域検出部(713)で手領域を切り
出す。画像処理部714による処理は時系列的に行な
い、時間的に前記手領域が移動していることを求める
(例えば、手領域の重心位置の移動量を算出すれば簡単
に求められる。)。これにより、操作者はTVカメラ7
11の前で手を振ることによって当該入力装置に“注目
された状態にある”ことを伝達できる。
傍を撮影し、上記第11の実施の形態のジェスチャ認識
部43と同様に手領域検出部(713)で手領域を切り
出す。画像処理部714による処理は時系列的に行な
い、時間的に前記手領域が移動していることを求める
(例えば、手領域の重心位置の移動量を算出すれば簡単
に求められる。)。これにより、操作者はTVカメラ7
11の前で手を振ることによって当該入力装置に“注目
された状態にある”ことを伝達できる。
【0118】操作者が本当に眠い場合は、手を振ること
はできても目を開けることはできない。したがって本第
16の実施の形態では“入力装置に視線を向けること”
を前記目覚まし時計のスイッチを切る操作指示として用
いる。これにより本第16の実施の形態の目覚し時計
は、操作者が手を振ると共に目を開けることによりスイ
ッチを切る構成が実現できる。
はできても目を開けることはできない。したがって本第
16の実施の形態では“入力装置に視線を向けること”
を前記目覚まし時計のスイッチを切る操作指示として用
いる。これにより本第16の実施の形態の目覚し時計
は、操作者が手を振ると共に目を開けることによりスイ
ッチを切る構成が実現できる。
【0119】操作者が目を開けているか閉じているかの
判定は、視線方向検出部73で行なう。これは図2に示
した視線方向検出部11の目領域検出部114によって
検出される黒目の大きさが十分大きい場合に、目を開け
ていると判断すれば良い。この黒目領域の抽出は確実か
つ精密に行なう必要があるが、これは視線方向検出部7
3の入力用TVカメラの設置にあたり、本第16の実施
の形態の目覚し時計に十分接近した範囲だけを撮影する
ようにカメラ系(位置、方向、画角、被写界深度)を設
定すればよい。そして、操作者は確実に当該目覚し時計
の近傍で手を振ると共に確実に時計を見ないと(即ち、
目を覚まさないと)ベルのスイッチを切ることはできな
い。
判定は、視線方向検出部73で行なう。これは図2に示
した視線方向検出部11の目領域検出部114によって
検出される黒目の大きさが十分大きい場合に、目を開け
ていると判断すれば良い。この黒目領域の抽出は確実か
つ精密に行なう必要があるが、これは視線方向検出部7
3の入力用TVカメラの設置にあたり、本第16の実施
の形態の目覚し時計に十分接近した範囲だけを撮影する
ようにカメラ系(位置、方向、画角、被写界深度)を設
定すればよい。そして、操作者は確実に当該目覚し時計
の近傍で手を振ると共に確実に時計を見ないと(即ち、
目を覚まさないと)ベルのスイッチを切ることはできな
い。
【0120】このように本第16の実施の形態の目覚し
時計は、スイッチを切るだけ、あるいは時計自身を見る
だけでベルが鳴り止む目覚し時計と違って、手を振るこ
と等による注目状態の伝達と注視による動作指示の伝達
の2段階が必要になる。通常起床する場合には操作者に
とって何ら負担とならない自然な動作であるが、操作者
が非常に眠い場合に目覚める確実性が向上する。
時計は、スイッチを切るだけ、あるいは時計自身を見る
だけでベルが鳴り止む目覚し時計と違って、手を振るこ
と等による注目状態の伝達と注視による動作指示の伝達
の2段階が必要になる。通常起床する場合には操作者に
とって何ら負担とならない自然な動作であるが、操作者
が非常に眠い場合に目覚める確実性が向上する。
【0121】以上本第16の実施の形態は、注目意志の
伝達に手や身体のジェスチャを用い、動作指示の伝達に
視線方向の検出を用いる例として説明した。 (第17の実施の形態)第17の実施の形態は、上記第
16の実施の形態の変形例を示す。本第17の実施の形
態では目覚し時計の注目状態の判定に音声入力を用い
る。
伝達に手や身体のジェスチャを用い、動作指示の伝達に
視線方向の検出を用いる例として説明した。 (第17の実施の形態)第17の実施の形態は、上記第
16の実施の形態の変形例を示す。本第17の実施の形
態では目覚し時計の注目状態の判定に音声入力を用い
る。
【0122】入力装置の構成は、図11に示したジェス
チャ認識部71の代わりに音声認識部を設ける。スイッ
チを切るための動作指示の認識は視線方向の検出である
ことは上記第16の実施の形態と同様である。前記音声
認識部は、例えば操作者の発声する「起きます」「起き
るよ」などの言葉を認識し、これらの言葉が認識された
時点から決められた期間(例えば15秒間)は“注目さ
れた状態にある”と判定する。注目状態にあるとき、視
線方向検出部73は操作者の視線方向を検出し、確かに
目を開けていると判定した場合に当該目覚し時計のベル
を切ることになる。
チャ認識部71の代わりに音声認識部を設ける。スイッ
チを切るための動作指示の認識は視線方向の検出である
ことは上記第16の実施の形態と同様である。前記音声
認識部は、例えば操作者の発声する「起きます」「起き
るよ」などの言葉を認識し、これらの言葉が認識された
時点から決められた期間(例えば15秒間)は“注目さ
れた状態にある”と判定する。注目状態にあるとき、視
線方向検出部73は操作者の視線方向を検出し、確かに
目を開けていると判定した場合に当該目覚し時計のベル
を切ることになる。
【0123】以上本第17の実施の形態は、上記第7の
実施の形態と同様に、注目意志の伝達に音声を用い動作
指示の伝達に視線方向の検出を用いる例として説明し
た。 (第16および第17の実施の形態のまとめ)第16お
よび第17の実施の形態に示された構成及び作用効果を
まとめると次の通りである。 [16]第16の実施の形態に示された入力装置は、注
目度検出手段(71)における第1の行為は身体の動作
であり、動作指示検出手段(73)における第2の行為
は所定箇所への注視である。
実施の形態と同様に、注目意志の伝達に音声を用い動作
指示の伝達に視線方向の検出を用いる例として説明し
た。 (第16および第17の実施の形態のまとめ)第16お
よび第17の実施の形態に示された構成及び作用効果を
まとめると次の通りである。 [16]第16の実施の形態に示された入力装置は、注
目度検出手段(71)における第1の行為は身体の動作
であり、動作指示検出手段(73)における第2の行為
は所定箇所への注視である。
【0124】したがって上記入力装置においては、所定
の身体の動作がなされたときのみ、前記所定箇所への注
視に対応する指示を出力することができる。これによ
り、操作者の意図しない前記所定箇所への注視が機器へ
の動作指示として誤認識されることがなくなる。 [17]第17の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は音声入力であり、動
作指示検出手段(73)における第2の行為は所定箇所
への注視である。
の身体の動作がなされたときのみ、前記所定箇所への注
視に対応する指示を出力することができる。これによ
り、操作者の意図しない前記所定箇所への注視が機器へ
の動作指示として誤認識されることがなくなる。 [17]第17の実施の形態に示された入力装置は、注
目度検出手段における第1の行為は音声入力であり、動
作指示検出手段(73)における第2の行為は所定箇所
への注視である。
【0125】したがって上記入力装置においては、操作
者が所定の音声を発生したときのみ、前記所定箇所への
注視に対応する指示を出力することができる。 (その他の実施の形態)本発明は上述した以外の実施形
態でも同様に実現される。 (1) 注目意志の伝達を視線方向を向けることで行ない、
動作指示の伝達を機器へ接近することで行なう例。 (2) 注目意志の伝達を機器へ接近することで行ない、動
作指示の伝達を視線方向によって行なう例。 (3) 注目意志の伝達を機器へ接近することで行ない、動
作指示の伝達を手や身体のジェスチャによって行なう
例。 (4) 注目意志の伝達を手や身体のジェスチャによって行
ない、動作指示の伝達を機器へ接触することで行なう
例。 (5) 注目意志の伝達を手や身体のジェスチャによって行
ない、動作指示の伝達を機器へ接近することで行なう
例。
者が所定の音声を発生したときのみ、前記所定箇所への
注視に対応する指示を出力することができる。 (その他の実施の形態)本発明は上述した以外の実施形
態でも同様に実現される。 (1) 注目意志の伝達を視線方向を向けることで行ない、
動作指示の伝達を機器へ接近することで行なう例。 (2) 注目意志の伝達を機器へ接近することで行ない、動
作指示の伝達を視線方向によって行なう例。 (3) 注目意志の伝達を機器へ接近することで行ない、動
作指示の伝達を手や身体のジェスチャによって行なう
例。 (4) 注目意志の伝達を手や身体のジェスチャによって行
ない、動作指示の伝達を機器へ接触することで行なう
例。 (5) 注目意志の伝達を手や身体のジェスチャによって行
ない、動作指示の伝達を機器へ接近することで行なう
例。
【0126】なお、本発明は上記各実施の形態に限定さ
れず、要旨を変更しない範囲で適宜変形して実施でき
る。以上数々の実施の形態を説明してきた。本発明の基
本構成をまとめると以下のようになる。本発明で構成さ
れる入力装置は操作者の立場からみれば、全て自らの対
象機器への注目意志を伝える段階と操作指示を伝える段
階とがある。そして注目意志を伝える手段と操作指示を
伝える手段とが各々別の形態をとる。注目意志を伝える
手段および操作指示を伝える手段としては、例えば視線
方向、機器に対して正面を向くこと、手や身体のジェス
チャ、音声、機器への接触、機器への接近などがあり、
これらを組み合わせることになる。
れず、要旨を変更しない範囲で適宜変形して実施でき
る。以上数々の実施の形態を説明してきた。本発明の基
本構成をまとめると以下のようになる。本発明で構成さ
れる入力装置は操作者の立場からみれば、全て自らの対
象機器への注目意志を伝える段階と操作指示を伝える段
階とがある。そして注目意志を伝える手段と操作指示を
伝える手段とが各々別の形態をとる。注目意志を伝える
手段および操作指示を伝える手段としては、例えば視線
方向、機器に対して正面を向くこと、手や身体のジェス
チャ、音声、機器への接触、機器への接近などがあり、
これらを組み合わせることになる。
【0127】本発明の入力装置で最も効果を発揮するの
は、注目意志を伝える手段または操作指示のどちらか一
方に視線やジェスチャなど画像による認識方法を用いた
り、特殊な装置(例えばデータグローブ、データスーツ
等)を身体に装着して認識する入力形態を利用する場合
である。このような画像による認識方法や特殊な装置等
による認識方法を用いる利点は、継続的に操作者の動作
を認識できることである。その反面、操作者の意図しな
い動作と意図した動作は全く同様な信号で出力される問
題がある。しかし本発明によれば、機器において操作指
示の認識がなされる期間を操作者が“注目された状態”
という概念を利用し選択、調整できるため、上述したよ
うな入力形態を有効に活用できる。なお、本発明の各実
施の形態は装置を構成し説明したが、ソフトウェアによ
っても同様に実現可能である。
は、注目意志を伝える手段または操作指示のどちらか一
方に視線やジェスチャなど画像による認識方法を用いた
り、特殊な装置(例えばデータグローブ、データスーツ
等)を身体に装着して認識する入力形態を利用する場合
である。このような画像による認識方法や特殊な装置等
による認識方法を用いる利点は、継続的に操作者の動作
を認識できることである。その反面、操作者の意図しな
い動作と意図した動作は全く同様な信号で出力される問
題がある。しかし本発明によれば、機器において操作指
示の認識がなされる期間を操作者が“注目された状態”
という概念を利用し選択、調整できるため、上述したよ
うな入力形態を有効に活用できる。なお、本発明の各実
施の形態は装置を構成し説明したが、ソフトウェアによ
っても同様に実現可能である。
【0128】
【発明の効果】本発明によれば、操作者の意志に基づき
動作を要する機器を特定でき、その機器に対する操作者
の意図する指示だけを入力できる。これにより操作者の
意図しない行為による他機器の誤動作を防ぐことがで
き、実用上多大な効果が奏せられる。例えば、家庭内や
オフィス内等で使用されている種々の電気機器を操作者
の音声やジェスチャ等で簡易かつ自由に操作する環境が
実現できる。
動作を要する機器を特定でき、その機器に対する操作者
の意図する指示だけを入力できる。これにより操作者の
意図しない行為による他機器の誤動作を防ぐことがで
き、実用上多大な効果が奏せられる。例えば、家庭内や
オフィス内等で使用されている種々の電気機器を操作者
の音声やジェスチャ等で簡易かつ自由に操作する環境が
実現できる。
【図1】本発明の第1の実施の形態に係る入力装置の構
成を示すブロック図。
成を示すブロック図。
【図2】本発明の第1の実施の形態に係る視線方向検出
部の構成を示すブロック図。
部の構成を示すブロック図。
【図3】本発明の第1の実施の形態に係る図であり、
(a)はTVカメラにより撮影されたコンピュータの前
に座った操作者の顔を示す図、(b)はジェスチャ認識
部により手の動作を抽出するために用いる手袋の概念図
(a)はTVカメラにより撮影されたコンピュータの前
に座った操作者の顔を示す図、(b)はジェスチャ認識
部により手の動作を抽出するために用いる手袋の概念図
【図4】本発明の第5の実施の形態に係る入力装置の構
成を示すブロック図。
成を示すブロック図。
【図5】本発明の第6の実施の形態に係る正面顔判定手
段の構成を示すブロック図。
段の構成を示すブロック図。
【図6】本発明の第8の実施の形態に係る図であり、
(a)は入力装置の構成を示すブロック図、(b)はジ
ェスチャ認識部の構成を示すブロック図。
(a)は入力装置の構成を示すブロック図、(b)はジ
ェスチャ認識部の構成を示すブロック図。
【図7】本発明の第11の実施の形態に係る図であり、
(a)は入力装置の構成を示すブロック図、(b)はジ
ェスチャ認識部の構成を示すブロック図。
(a)は入力装置の構成を示すブロック図、(b)はジ
ェスチャ認識部の構成を示すブロック図。
【図8】本発明の第11の実施の形態に係る図であり、
(a)はTVカメラにより撮影された操作者の顔および
手を示す図、(b)は切り出された手領域の部分画像を
示す図。
(a)はTVカメラにより撮影された操作者の顔および
手を示す図、(b)は切り出された手領域の部分画像を
示す図。
【図9】本発明の第12の実施の形態に係る入力装置の
構成を示すブロック図。
構成を示すブロック図。
【図10】本発明の第15の実施の形態に係るキー入力
装置の構成を示すブロック図。
装置の構成を示すブロック図。
【図11】本発明の第16の実施の形態に係る入力装置
の構成を示すブロック図。
の構成を示すブロック図。
【図12】本発明の第16の実施の形態に係るジェスチ
ャ認識部の構成を示すブロック図。
ャ認識部の構成を示すブロック図。
11…視線方向検出部、12…注目度判定部、13…ジ
ェスチャ認識部、14…指示出力部、15…注目状態表
示部、111…TVカメラ、112…AD変換部、11
3…顔領域検出部、114…目領域検出部、115…視
線方向計測部、21…マウス、22…注目度判定部、2
3…視線方向検出部、24…指示出力部、25…注目状
態表示部、26…正面顔判定手段、261…TVカメ
ラ、262…AD変換部、263…顔領域検出部、26
4…画像処理部、31…ジェスチャ認識部、32…注目
度判定部、33…音声認識部、34…指示出力部、33
1a…TVカメラ、331b…TVカメラ、332a…
AD変換部、332b…AD変換部、333a…手領域
検出部、333b…手領域検出部、334a…指先方向
検出部、334b…指先方向検出部、335…指先方向
計測部、41…音声認識部、42…注目度判定部、43
…ジェスチャ認識部、44…指示出力部、431…TV
カメラ、432…AD変換部、433…手領域検出部、
434…指の骨格線抽出部、435…形状識別部、81
…手領域、51…指先方向検出部、52…注目度判定
部、53…接触センサ、54…指示出力部、55…音声
出力部、56…クロック、61a…視線方向検出部、6
1b…視線方向検出部、62…注目度判定部、63…キ
ーボード入力装置、64…指示出力部、71…ジェスチ
ャ識別部、72…注目度判定部、73…視線方向検出
部、74…指示出力部、711…TVカメラ、712…
AD変換部、713…手領域検出部、714…画像処理
部。
ェスチャ認識部、14…指示出力部、15…注目状態表
示部、111…TVカメラ、112…AD変換部、11
3…顔領域検出部、114…目領域検出部、115…視
線方向計測部、21…マウス、22…注目度判定部、2
3…視線方向検出部、24…指示出力部、25…注目状
態表示部、26…正面顔判定手段、261…TVカメ
ラ、262…AD変換部、263…顔領域検出部、26
4…画像処理部、31…ジェスチャ認識部、32…注目
度判定部、33…音声認識部、34…指示出力部、33
1a…TVカメラ、331b…TVカメラ、332a…
AD変換部、332b…AD変換部、333a…手領域
検出部、333b…手領域検出部、334a…指先方向
検出部、334b…指先方向検出部、335…指先方向
計測部、41…音声認識部、42…注目度判定部、43
…ジェスチャ認識部、44…指示出力部、431…TV
カメラ、432…AD変換部、433…手領域検出部、
434…指の骨格線抽出部、435…形状識別部、81
…手領域、51…指先方向検出部、52…注目度判定
部、53…接触センサ、54…指示出力部、55…音声
出力部、56…クロック、61a…視線方向検出部、6
1b…視線方向検出部、62…注目度判定部、63…キ
ーボード入力装置、64…指示出力部、71…ジェスチ
ャ識別部、72…注目度判定部、73…視線方向検出
部、74…指示出力部、711…TVカメラ、712…
AD変換部、713…手領域検出部、714…画像処理
部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 湯浅 真由美 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内
Claims (6)
- 【請求項1】操作者の成す所定の行為を検出しその行為
に対応する指示を出力する入力装置において、 前記操作者の成す第1の行為に基づき前記操作者が操作
対象に対して注目状態にあることを検出する注目度検出
手段と、 前記操作者の成す第2の行為に基づき前記操作者による
前記操作対象に対する動作指示を検出する動作指示検出
手段と、 前記注目度検出手段で注目状態にあることが検出された
場合、前記動作指示検出手段で検出された動作指示に対
応する指示を出力する指示出力手段と、 を具備したことを特徴とする入力装置。 - 【請求項2】前記注目度検出手段における第1の行為は
所定箇所への注視であり、前記動作指示検出手段におけ
る第2の行為は身体の動作であることを特徴とする請求
項1に記載の入力装置。 - 【請求項3】前記注目度検出手段における第1の行為は
所定箇所への注視であり、前記動作指示検出手段におけ
る第2の行為は音声入力であることを特徴とする請求項
1に記載の入力装置。 - 【請求項4】前記注目度検出手段における第1の行為は
所定箇所への接触であり、前記動作指示検出手段におけ
る第2の行為は視線方向の移動であることを特徴とする
請求項1に記載の入力装置。 - 【請求項5】前記注目度検出手段における第1の行為は
音声入力であり、前記動作指示検出手段における第2の
行為は身体の動作であることを特徴とする請求項1に記
載の入力装置。 - 【請求項6】前記注目度検出手段において注目状態にあ
ることが検出された場合、その旨を出力する手段を具備
したことを特徴とする請求項1乃至5のいずれかに記載
の入力装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7235834A JPH0981309A (ja) | 1995-09-13 | 1995-09-13 | 入力装置 |
| US08/709,493 US6111580A (en) | 1995-09-13 | 1996-09-06 | Apparatus and method for controlling an electronic device with user action |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7235834A JPH0981309A (ja) | 1995-09-13 | 1995-09-13 | 入力装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0981309A true JPH0981309A (ja) | 1997-03-28 |
Family
ID=16991959
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP7235834A Pending JPH0981309A (ja) | 1995-09-13 | 1995-09-13 | 入力装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US6111580A (ja) |
| JP (1) | JPH0981309A (ja) |
Cited By (67)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1124694A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 命令認識装置 |
| JPH11219421A (ja) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
| JPH11249773A (ja) * | 1998-02-27 | 1999-09-17 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
| JPH11327753A (ja) * | 1997-11-27 | 1999-11-30 | Matsushita Electric Ind Co Ltd | 制御方法及びプログラム記録媒体 |
| JPH11352987A (ja) * | 1998-06-04 | 1999-12-24 | Toyota Motor Corp | 音声認識装置 |
| JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
| JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
| US6353764B1 (en) | 1997-11-27 | 2002-03-05 | Matsushita Electric Industrial Co., Ltd. | Control method |
| JP2002311990A (ja) * | 2000-12-19 | 2002-10-25 | Hewlett Packard Co <Hp> | 音声制御式機器の活動化方法およびシステム |
| JP2003219218A (ja) * | 2002-01-23 | 2003-07-31 | Fuji Photo Film Co Ltd | デジタルカメラ |
| US6703999B1 (en) | 2000-11-13 | 2004-03-09 | Toyota Jidosha Kabushiki Kaisha | System for computer user interface |
| JP2004282770A (ja) * | 1997-11-27 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 制御方法 |
| JP2004289850A (ja) * | 1997-11-27 | 2004-10-14 | Matsushita Electric Ind Co Ltd | 制御方法、機器制御装置、及びプログラム記録媒体 |
| JP2004303251A (ja) * | 1997-11-27 | 2004-10-28 | Matsushita Electric Ind Co Ltd | 制御方法 |
| JP2004537055A (ja) * | 2001-07-24 | 2004-12-09 | サムスン エレクトロニクス カンパニー リミテッド | 多次元空間上での情報選択方法及び装置 |
| JP2005135432A (ja) * | 2004-12-13 | 2005-05-26 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
| JP2005301479A (ja) * | 2004-04-08 | 2005-10-27 | Akinori Yoshino | 投影された提示者の動作による命令入力装置 |
| JP2006285115A (ja) * | 2005-04-05 | 2006-10-19 | Hitachi Ltd | 情報提供方法および情報提供装置 |
| JP2007042020A (ja) * | 2005-08-05 | 2007-02-15 | Nec Corp | 携帯端末及びプログラム |
| JP2007213245A (ja) * | 2006-02-08 | 2007-08-23 | Nec Corp | 携帯端末及びプログラム |
| JP2008225991A (ja) * | 2007-03-14 | 2008-09-25 | Nec Computertechno Ltd | 次動作予測準備マルチメディア装置 |
| JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
| JP2010154405A (ja) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | 映像再生装置、制御信号生成装置及び制御信号生成方法 |
| JP2012146210A (ja) * | 2011-01-13 | 2012-08-02 | Nikon Corp | 電子機器 |
| JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
| JP5148002B1 (ja) * | 2012-04-26 | 2013-02-20 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器、情報処理方法およびプログラム |
| JP5174979B1 (ja) * | 2012-04-26 | 2013-04-03 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
| JP2013518316A (ja) * | 2010-01-21 | 2013-05-20 | トビー・テクノロジー・アーベー | アイトラッカーベースのコンテキストアクション |
| JP2013178783A (ja) * | 2013-03-07 | 2013-09-09 | Fujitsu Ten Ltd | ディスプレイ装置 |
| JP2013206272A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法及びコンピュータプログラム |
| JP2013228993A (ja) * | 2012-09-27 | 2013-11-07 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器、情報処理方法およびプログラム |
| JP2014507714A (ja) * | 2011-01-19 | 2014-03-27 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | マルチモーダル及びジェスチャー制御のための方法及びシステム |
| JP2014071811A (ja) * | 2012-10-01 | 2014-04-21 | Sony Corp | 情報処理装置、表示制御方法及びプログラム |
| JP2014086085A (ja) * | 2012-10-19 | 2014-05-12 | Samsung Electronics Co Ltd | ディスプレイ装置及びその制御方法 |
| JPWO2012117508A1 (ja) * | 2011-02-28 | 2014-07-07 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
| WO2014188565A1 (ja) * | 2013-05-23 | 2014-11-27 | パイオニア株式会社 | 表示制御装置 |
| JP2015511044A (ja) * | 2012-04-12 | 2015-04-13 | インテル コーポレイション | 視線追跡に基づくディスプレイの選択的バックライト |
| JP2015093147A (ja) * | 2013-11-14 | 2015-05-18 | オリンパスメディカルシステムズ株式会社 | 医療システム |
| JP2015219440A (ja) * | 2014-05-20 | 2015-12-07 | パナソニックIpマネジメント株式会社 | 操作補助装置および操作補助方法 |
| JP2016035614A (ja) * | 2014-08-01 | 2016-03-17 | シャープ株式会社 | 機器、音声出力方法、音声出力プログラム、ネットワークシステム、サーバ、および通信機器 |
| JP2016536699A (ja) * | 2013-08-29 | 2016-11-24 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 注意にもとづくレンダリングと忠実性 |
| JP6039074B2 (ja) * | 2013-07-01 | 2016-12-07 | パイオニア株式会社 | 撮像システム |
| JP2017004553A (ja) * | 2016-08-22 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
| US9760168B2 (en) | 2012-11-06 | 2017-09-12 | Konica Minolta, Inc. | Guidance information display device |
| JP2017228291A (ja) * | 2016-06-16 | 2017-12-28 | ハンド ヘルド プロダクツ インコーポレーティッド | 視線検出により制御される標示スキャンシステム及び方法 |
| JP2019121183A (ja) * | 2018-01-05 | 2019-07-22 | 株式会社ミツバ | 被操作体制御装置、及び被操作体制御方法 |
| JP2019164822A (ja) * | 2012-11-20 | 2019-09-26 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 着用式電子デバイスでのgui転移 |
| KR20200050235A (ko) * | 2018-11-01 | 2020-05-11 | 삼성전자주식회사 | 전자 장치 및 그의 지능형 인터랙션 방법 |
| WO2020171098A1 (ja) * | 2019-02-19 | 2020-08-27 | 株式会社Nttドコモ | 視線とジェスチャを用いた情報表示装置 |
| KR20210041131A (ko) * | 2018-09-28 | 2021-04-14 | 애플 인크. | 응시 정보를 사용한 디바이스 제어 |
| JPWO2021230048A1 (ja) * | 2020-05-15 | 2021-11-18 | ||
| WO2021256520A1 (ja) * | 2020-06-17 | 2021-12-23 | 株式会社Nttドコモ | ヘッドマウントディスプレイ |
| US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
| US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
| US11765163B2 (en) | 2017-09-09 | 2023-09-19 | Apple Inc. | Implementation of biometric authentication |
| US11768575B2 (en) | 2013-09-09 | 2023-09-26 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
| US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
| US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
| US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
| US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
| US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
| US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
| US12417596B2 (en) | 2022-09-23 | 2025-09-16 | Apple Inc. | User interfaces for managing live communication sessions |
| US12462005B2 (en) | 2017-09-09 | 2025-11-04 | Apple Inc. | Implementation of biometric authentication |
Families Citing this family (162)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
| US7076118B1 (en) * | 1997-12-05 | 2006-07-11 | Sharp Laboratories Of America, Inc. | Document classification system |
| GB2330752B (en) * | 1997-10-24 | 2002-09-04 | Sony Uk Ltd | Audio processing |
| US6351222B1 (en) * | 1998-10-30 | 2002-02-26 | Ati International Srl | Method and apparatus for receiving an input by an entertainment device |
| US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
| US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
| DE19921677A1 (de) * | 1999-05-18 | 2000-11-23 | Braun Gmbh | Zusatzgerät für ein Elektrokleingerät und Verfahren zur Erkennung einer elektrischen und/oder magnetischen Verbindung zwischen den Geräten |
| US6901561B1 (en) * | 1999-10-19 | 2005-05-31 | International Business Machines Corporation | Apparatus and method for using a target based computer vision system for user interaction |
| US6606103B1 (en) * | 1999-11-30 | 2003-08-12 | Uhc Llc | Infinite resolution scheme for graphical user interface object |
| AUPQ464099A0 (en) * | 1999-12-14 | 2000-01-13 | Canon Kabushiki Kaisha | Emotive editing system |
| US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
| DE50104533D1 (de) * | 2000-01-27 | 2004-12-23 | Siemens Ag | System und verfahren zur blickfokussierten sprachverarbeitung |
| JP4409035B2 (ja) * | 2000-03-22 | 2010-02-03 | 本田技研工業株式会社 | 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体 |
| US7546172B1 (en) * | 2000-06-14 | 2009-06-09 | Marvell International Ltd. | Apparatus, method, and computer program product for recording and reproducing digital data |
| US7315764B1 (en) | 2000-06-14 | 2008-01-01 | Marvell International Ltd | Integrated circuit, method, and computer program product for recording and reproducing digital data |
| US7577247B1 (en) | 2000-06-14 | 2009-08-18 | Marvell International Ltd. | Apparatus and method for telephone, intercom, and clock |
| US7778736B2 (en) | 2000-06-14 | 2010-08-17 | Marvell International Ltd. | Apparatus, method, and computer program for sprinkler control |
| US7457676B1 (en) * | 2000-06-14 | 2008-11-25 | Marvell International Ltd. | Vehicle for recording and reproducing digital data |
| US7298252B1 (en) * | 2000-06-14 | 2007-11-20 | Marvell International Ltd. | Apparatus, method, and computer program for an alarm system |
| JP3785902B2 (ja) * | 2000-07-11 | 2006-06-14 | インターナショナル・ビジネス・マシーンズ・コーポレーション | デバイス、デバイスの制御方法、ポインタの移動方法 |
| WO2002015560A2 (en) * | 2000-08-12 | 2002-02-21 | Georgia Tech Research Corporation | A system and method for capturing an image |
| DE10040680A1 (de) * | 2000-08-19 | 2002-02-28 | Philips Corp Intellectual Pty | Fernsehgerät mit Zusatzfunktionen |
| GB0029573D0 (en) * | 2000-12-02 | 2001-01-17 | Hewlett Packard Co | Activation of voice-controlled apparatus |
| EP1215658A3 (en) * | 2000-12-05 | 2002-08-14 | Hewlett-Packard Company | Visual activation of voice controlled apparatus |
| US20020178440A1 (en) * | 2001-03-28 | 2002-11-28 | Philips Electronics North America Corp. | Method and apparatus for automatically selecting an alternate item based on user behavior |
| US6804396B2 (en) * | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
| JP3790680B2 (ja) * | 2001-05-25 | 2006-06-28 | 株式会社東芝 | 画像処理システム及びこれを用いた運転支援システム |
| US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
| US6838994B2 (en) * | 2001-10-26 | 2005-01-04 | Koninklijke Philips Electronics N.V. | Adaptive alarm system |
| US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
| US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
| FR2839176A1 (fr) * | 2002-04-30 | 2003-10-31 | Koninkl Philips Electronics Nv | Systeme d'animation pour robot comprenant un ensemble de pieces mobiles |
| JP4142460B2 (ja) * | 2003-01-31 | 2008-09-03 | オリンパス株式会社 | 運動検出装置 |
| US7762665B2 (en) * | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
| US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
| US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
| CN1938672A (zh) * | 2003-04-14 | 2007-03-28 | 皇家飞利浦电子股份有限公司 | 电气设备以及该设备与用户之间进行交流的方法 |
| EP1507389A1 (en) * | 2003-08-13 | 2005-02-16 | Sony Ericsson Mobile Communications AB | Mobile phone with means for switching off the alarm remotely |
| JP2005100084A (ja) * | 2003-09-25 | 2005-04-14 | Toshiba Corp | 画像処理装置及び方法 |
| US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
| US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
| US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
| US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
| US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
| US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
| US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
| US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
| US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
| US9008447B2 (en) | 2004-04-01 | 2015-04-14 | Google Inc. | Method and system for character recognition |
| US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
| US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
| US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
| US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
| US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
| US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
| US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
| JP3827317B2 (ja) * | 2004-06-03 | 2006-09-27 | 任天堂株式会社 | コマンド処理装置 |
| CN1969313A (zh) * | 2004-06-18 | 2007-05-23 | 日本电气株式会社 | 图像显示系统、图像显示方法以及图像显示程序 |
| US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
| JP4572615B2 (ja) * | 2004-07-27 | 2010-11-04 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
| EP1783453A4 (en) * | 2004-08-12 | 2012-05-30 | A4 Vision S A | DEVICE FOR CONTACTLESS CONTROL OF THE SURFACE PROFILE OF OBJECTS |
| CA2615335C (en) * | 2004-08-12 | 2014-10-28 | A4 Vision S.A. | Device for biometrically controlling a face surface |
| US7295904B2 (en) * | 2004-08-31 | 2007-11-13 | International Business Machines Corporation | Touch gesture based interface for motor vehicle |
| US7583819B2 (en) * | 2004-11-05 | 2009-09-01 | Kyprianos Papademetriou | Digital signal processing methods, systems and computer program products that identify threshold positions and values |
| JP2006172439A (ja) * | 2004-11-26 | 2006-06-29 | Oce Technologies Bv | 手操作を用いたデスクトップスキャン |
| CA2517999A1 (en) * | 2005-08-30 | 2007-02-28 | Ibm Canada Limited - Ibm Canada Limitee | Position sensing for a kvm switch |
| US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
| JP4665780B2 (ja) * | 2006-01-30 | 2011-04-06 | ソニー株式会社 | 顔重要度判定装置、方法、および撮像装置 |
| US8406457B2 (en) * | 2006-03-15 | 2013-03-26 | Omron Corporation | Monitoring device, monitoring method, control device, control method, and program |
| US20080024433A1 (en) * | 2006-07-26 | 2008-01-31 | International Business Machines Corporation | Method and system for automatically switching keyboard/mouse between computers by user line of sight |
| TWI319680B (en) * | 2006-08-30 | 2010-01-11 | Face-detection-based remote-control system and method and face-detection-based remote-controllable multimedia system | |
| EP2067119A2 (en) | 2006-09-08 | 2009-06-10 | Exbiblio B.V. | Optical scanners, such as hand-held optical scanners |
| US8793621B2 (en) * | 2006-11-09 | 2014-07-29 | Navisense | Method and device to control touchless recognition |
| JP2008146243A (ja) * | 2006-12-07 | 2008-06-26 | Toshiba Corp | 情報処理装置、情報処理方法、及びプログラム |
| JP4745207B2 (ja) * | 2006-12-08 | 2011-08-10 | 株式会社東芝 | 顔特徴点検出装置及びその方法 |
| US10437459B2 (en) | 2007-01-07 | 2019-10-08 | Apple Inc. | Multitouch data fusion |
| US20090125299A1 (en) * | 2007-11-09 | 2009-05-14 | Jui-Chang Wang | Speech recognition system |
| US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
| US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
| US20100079508A1 (en) * | 2008-09-30 | 2010-04-01 | Andrew Hodge | Electronic devices with gaze detection capabilities |
| KR101480564B1 (ko) * | 2008-10-21 | 2015-01-12 | 삼성전자주식회사 | 안면 인식을 이용한 알람 제어 장치 및 방법 |
| JP5361368B2 (ja) * | 2008-12-22 | 2013-12-04 | 任天堂株式会社 | ゲームプログラム、ゲーム装置およびゲーム制御方法 |
| US10019081B2 (en) * | 2009-01-15 | 2018-07-10 | International Business Machines Corporation | Functionality switching in pointer input devices |
| US8732623B2 (en) * | 2009-02-17 | 2014-05-20 | Microsoft Corporation | Web cam based user interaction |
| WO2010096193A2 (en) | 2009-02-18 | 2010-08-26 | Exbiblio B.V. | Identifying a document by performing spectral analysis on the contents of the document |
| EP2399182B1 (en) * | 2009-02-20 | 2014-04-09 | Koninklijke Philips N.V. | System, method and apparatus for causing a device to enter an active mode |
| US8990235B2 (en) | 2009-03-12 | 2015-03-24 | Google Inc. | Automatically providing content associated with captured information, such as information captured in real-time |
| US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
| WO2010103482A2 (en) * | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
| US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
| KR101644015B1 (ko) * | 2009-11-27 | 2016-08-01 | 삼성전자주식회사 | 시스템과 다수 사용자 간의 대화 인터페이스 장치 |
| US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
| US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
| US20110163944A1 (en) * | 2010-01-05 | 2011-07-07 | Apple Inc. | Intuitive, gesture-based communications with physics metaphors |
| US20110164032A1 (en) * | 2010-01-07 | 2011-07-07 | Prime Sense Ltd. | Three-Dimensional User Interface |
| RU2422878C1 (ru) * | 2010-02-04 | 2011-06-27 | Владимир Валентинович Девятков | Способ управления телевизором с помощью мультимодального интерфейса |
| US8730164B2 (en) | 2010-05-28 | 2014-05-20 | Panasonic Corporation | Gesture recognition apparatus and method of gesture recognition |
| JP2012068713A (ja) * | 2010-09-21 | 2012-04-05 | Sony Corp | 情報処理装置、および情報処理方法 |
| TWI496093B (zh) * | 2010-11-16 | 2015-08-11 | Fih Hong Kong Ltd | 人臉識別鬧鐘及其鬧醒用戶的方法 |
| TW201224685A (en) * | 2010-12-07 | 2012-06-16 | Hon Hai Prec Ind Co Ltd | Alarm clock |
| US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
| US10895917B2 (en) | 2011-03-12 | 2021-01-19 | Uday Parshionikar | Multipurpose controllers and methods |
| US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
| US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
| US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
| US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
| US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
| US9367732B2 (en) * | 2011-04-28 | 2016-06-14 | Nec Solution Innovators, Ltd. | Information processing device, information processing method, and recording medium |
| US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
| US8744528B2 (en) * | 2011-05-16 | 2014-06-03 | Lg Electronics Inc. | Gesture-based control method and apparatus of an electronic device |
| US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
| RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
| US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
| US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
| US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
| US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
| US9218063B2 (en) * | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
| US9462262B1 (en) * | 2011-08-29 | 2016-10-04 | Amazon Technologies, Inc. | Augmented reality environment with environmental condition control |
| WO2013033842A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
| CN103858073B (zh) * | 2011-09-19 | 2022-07-29 | 视力移动技术有限公司 | 增强现实设备、操作增强现实设备的方法、计算机可读介质 |
| EP2595401A1 (en) * | 2011-11-15 | 2013-05-22 | Thomson Licensing | Multimedia device, multimedia environment and method for controlling a multimedia device in a multimedia environment |
| US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
| US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
| US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
| CN104040461A (zh) * | 2011-12-27 | 2014-09-10 | 惠普发展公司,有限责任合伙企业 | 用户界面设备 |
| US9336456B2 (en) | 2012-01-25 | 2016-05-10 | Bruno Delean | Systems, methods and computer program products for identifying objects in video data |
| US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
| US9612663B2 (en) | 2012-03-26 | 2017-04-04 | Tata Consultancy Services Limited | Multimodal system and method facilitating gesture creation through scalar and vector data |
| US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
| CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
| JP5783957B2 (ja) * | 2012-06-22 | 2015-09-24 | 株式会社Nttドコモ | 表示装置、表示方法及びプログラム |
| US10095033B2 (en) | 2012-07-27 | 2018-10-09 | Nokia Technologies Oy | Multimodal interaction with near-to-eye display |
| US9201500B2 (en) | 2012-09-28 | 2015-12-01 | Intel Corporation | Multi-modal touch screen emulator |
| WO2014068582A1 (en) * | 2012-10-31 | 2014-05-08 | Nokia Corporation | A method, apparatus and computer program for enabling a user input command to be performed |
| US10146316B2 (en) | 2012-10-31 | 2018-12-04 | Nokia Technologies Oy | Method and apparatus for disambiguating a plurality of targets |
| CN103869945A (zh) * | 2012-12-14 | 2014-06-18 | 联想(北京)有限公司 | 一种信息交互方法及装置、电子设备 |
| US20140180752A1 (en) * | 2012-12-21 | 2014-06-26 | International Business Machines Corporation | Interface to select application based on state transition models of work |
| US9921648B2 (en) * | 2013-02-22 | 2018-03-20 | University Of Seoul Industry Cooperation Foundation | Apparatuses, methods and recording medium for control portable communication terminal and its smart watch |
| JP2014206932A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | 認証装置、認証方法、制御プログラムおよび記録媒体 |
| US10884493B2 (en) | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
| US20160148381A1 (en) * | 2013-07-03 | 2016-05-26 | Panasonic Intellectual Property Management Co., Ltd. | Object recognition device and object recognition method |
| US20150015509A1 (en) * | 2013-07-11 | 2015-01-15 | David H. Shanabrook | Method and system of obtaining affective state from touch screen display interactions |
| CN104345871B (zh) * | 2013-07-26 | 2017-06-23 | 株式会社东芝 | 设备选择系统 |
| US9134794B2 (en) * | 2013-08-20 | 2015-09-15 | Kabushiki Kaisha Toshiba | System to identify user and device the user is intending to operate |
| US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
| US9996797B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
| US20150221341A1 (en) * | 2014-01-31 | 2015-08-06 | Audi Ag | System and method for enhanced time-lapse video generation using panoramic imagery |
| IL232391A0 (en) * | 2014-04-30 | 2014-08-31 | Pointgrab Ltd | A method and system for controlling accessories |
| PL3157432T3 (pl) * | 2014-06-17 | 2019-06-28 | Koninklijke Philips N.V. | Ocena skupienia uwagi klinicysty |
| JP6344084B2 (ja) * | 2014-06-20 | 2018-06-20 | オムロン株式会社 | ロボット操作用の作業者端末 |
| KR102337682B1 (ko) * | 2014-10-01 | 2021-12-09 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
| US10353532B1 (en) * | 2014-12-18 | 2019-07-16 | Leap Motion, Inc. | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
| CN104869188A (zh) * | 2015-04-28 | 2015-08-26 | 江苏卡罗卡国际动漫城有限公司 | 一种带有距离显示与报警装置的读报手机 |
| CN104869234A (zh) * | 2015-04-28 | 2015-08-26 | 江苏卡罗卡国际动漫城有限公司 | 一种带有时间显示与报警装置的读报手机 |
| JP2017117371A (ja) * | 2015-12-25 | 2017-06-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 制御方法、制御装置およびプログラム |
| US10691201B2 (en) * | 2016-12-19 | 2020-06-23 | Intel Corporation | Image stream switcher |
| US11227593B2 (en) | 2019-06-28 | 2022-01-18 | Rovi Guides, Inc. | Systems and methods for disambiguating a voice search query based on gestures |
| TWI768704B (zh) * | 2021-02-05 | 2022-06-21 | 宏碁股份有限公司 | 計算關注焦點的方法及電腦程式產品 |
| CN113377198B (zh) * | 2021-06-16 | 2023-10-17 | 深圳Tcl新技术有限公司 | 一种屏保交互方法、装置、电子设备和存储介质 |
| CN115794004A (zh) * | 2021-09-09 | 2023-03-14 | 财团法人工业技术研究院 | 信息显示方法及其处理装置与信息显示系统 |
| KR20230168859A (ko) * | 2022-06-08 | 2023-12-15 | 현대모비스 주식회사 | 자동차 조명 장치 및 그 작동 방법 |
| US12001261B2 (en) | 2022-06-27 | 2024-06-04 | Qualcomm Incorporated | Power optimization for smartwatch |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4595990A (en) * | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
| US4975960A (en) * | 1985-06-03 | 1990-12-04 | Petajan Eric D | Electronic facial tracking and detection system and method and apparatus for automated speech recognition |
| US4836670A (en) * | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
| JPH01188925A (ja) * | 1988-01-22 | 1989-07-28 | Nippon Telegr & Teleph Corp <Ntt> | カーソル移動方法及びそのための慣性入力装置 |
| JPH01314320A (ja) * | 1988-06-15 | 1989-12-19 | Katsumi Kadota | 手装着型データ入力方式 |
| US5016282A (en) * | 1988-07-14 | 1991-05-14 | Atr Communication Systems Research Laboratories | Eye tracking image pickup apparatus for separating noise from feature portions |
| JP2872292B2 (ja) * | 1989-08-31 | 1999-03-17 | キヤノン株式会社 | 視線検出手段を有する機器 |
| JPH02173696A (ja) * | 1988-12-26 | 1990-07-05 | Canon Inc | 画像表示装置 |
| JPH02178721A (ja) * | 1988-12-28 | 1990-07-11 | Shimadzu Corp | 座標入力装置 |
| US5086385A (en) * | 1989-01-31 | 1992-02-04 | Custom Command Systems | Expandable home automation system |
| JP3133043B2 (ja) * | 1989-09-22 | 2001-02-05 | キヤノン株式会社 | 光学機器 |
| JP3130905B2 (ja) * | 1989-09-22 | 2001-01-31 | キヤノン株式会社 | 光学機器 |
| JP2870852B2 (ja) * | 1989-09-22 | 1999-03-17 | キヤノン株式会社 | 光学機器 |
| US5381158A (en) * | 1991-07-12 | 1995-01-10 | Kabushiki Kaisha Toshiba | Information retrieval apparatus |
| US5524195A (en) * | 1993-05-24 | 1996-06-04 | Sun Microsystems, Inc. | Graphical user interface for interactive television with an animated agent |
| US5621662A (en) * | 1994-02-15 | 1997-04-15 | Intellinet, Inc. | Home automation system |
| US5541585A (en) * | 1994-10-11 | 1996-07-30 | Stanley Home Automation | Security system for controlling building access |
| US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
-
1995
- 1995-09-13 JP JP7235834A patent/JPH0981309A/ja active Pending
-
1996
- 1996-09-06 US US08/709,493 patent/US6111580A/en not_active Expired - Fee Related
Cited By (90)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1124694A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 命令認識装置 |
| JP2004282770A (ja) * | 1997-11-27 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 制御方法 |
| JPH11327753A (ja) * | 1997-11-27 | 1999-11-30 | Matsushita Electric Ind Co Ltd | 制御方法及びプログラム記録媒体 |
| US6353764B1 (en) | 1997-11-27 | 2002-03-05 | Matsushita Electric Industrial Co., Ltd. | Control method |
| JP2004303251A (ja) * | 1997-11-27 | 2004-10-28 | Matsushita Electric Ind Co Ltd | 制御方法 |
| JP2004289850A (ja) * | 1997-11-27 | 2004-10-14 | Matsushita Electric Ind Co Ltd | 制御方法、機器制御装置、及びプログラム記録媒体 |
| JPH11219421A (ja) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
| JPH11249773A (ja) * | 1998-02-27 | 1999-09-17 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
| JPH11352987A (ja) * | 1998-06-04 | 1999-12-24 | Toyota Motor Corp | 音声認識装置 |
| JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
| JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
| US6703999B1 (en) | 2000-11-13 | 2004-03-09 | Toyota Jidosha Kabushiki Kaisha | System for computer user interface |
| JP2002311990A (ja) * | 2000-12-19 | 2002-10-25 | Hewlett Packard Co <Hp> | 音声制御式機器の活動化方法およびシステム |
| JP2004537055A (ja) * | 2001-07-24 | 2004-12-09 | サムスン エレクトロニクス カンパニー リミテッド | 多次元空間上での情報選択方法及び装置 |
| JP2003219218A (ja) * | 2002-01-23 | 2003-07-31 | Fuji Photo Film Co Ltd | デジタルカメラ |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
| US8094881B2 (en) | 2004-01-15 | 2012-01-10 | Canon Kabushiki Kaisha | Action recognition apparatus and method, moving-object recognition apparatus and method, device control apparatus and method, and program |
| JP2005301479A (ja) * | 2004-04-08 | 2005-10-27 | Akinori Yoshino | 投影された提示者の動作による命令入力装置 |
| JP2005135432A (ja) * | 2004-12-13 | 2005-05-26 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
| JP2006285115A (ja) * | 2005-04-05 | 2006-10-19 | Hitachi Ltd | 情報提供方法および情報提供装置 |
| JP2007042020A (ja) * | 2005-08-05 | 2007-02-15 | Nec Corp | 携帯端末及びプログラム |
| JP2007213245A (ja) * | 2006-02-08 | 2007-08-23 | Nec Corp | 携帯端末及びプログラム |
| JP2008225991A (ja) * | 2007-03-14 | 2008-09-25 | Nec Computertechno Ltd | 次動作予測準備マルチメディア装置 |
| JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
| US12406490B2 (en) | 2008-01-03 | 2025-09-02 | Apple Inc. | Personal computing device control using face detection and recognition |
| US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
| JP2010154405A (ja) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | 映像再生装置、制御信号生成装置及び制御信号生成方法 |
| JP2013518316A (ja) * | 2010-01-21 | 2013-05-20 | トビー・テクノロジー・アーベー | アイトラッカーベースのコンテキストアクション |
| JP2012146210A (ja) * | 2011-01-13 | 2012-08-02 | Nikon Corp | 電子機器 |
| US9778747B2 (en) | 2011-01-19 | 2017-10-03 | Hewlett-Packard Development Company, L.P. | Method and system for multimodal and gestural control |
| JP2014507714A (ja) * | 2011-01-19 | 2014-03-27 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | マルチモーダル及びジェスチャー制御のための方法及びシステム |
| JPWO2012117508A1 (ja) * | 2011-02-28 | 2014-07-07 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
| US9436273B2 (en) | 2011-02-28 | 2016-09-06 | Pfu Limited | Information processing device, method and computer-readable non-transitory recording medium |
| JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
| US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
| US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
| JP2013206272A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法及びコンピュータプログラム |
| US10437324B2 (en) | 2012-03-29 | 2019-10-08 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
| US10037078B2 (en) | 2012-03-29 | 2018-07-31 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
| JP2015511044A (ja) * | 2012-04-12 | 2015-04-13 | インテル コーポレイション | 視線追跡に基づくディスプレイの選択的バックライト |
| JP2013242844A (ja) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
| JP5174979B1 (ja) * | 2012-04-26 | 2013-04-03 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
| JP5174978B1 (ja) * | 2012-04-26 | 2013-04-03 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
| JP5148002B1 (ja) * | 2012-04-26 | 2013-02-20 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器、情報処理方法およびプログラム |
| JP2014032646A (ja) * | 2012-04-26 | 2014-02-20 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器およびプログラム |
| JP5232930B1 (ja) * | 2012-04-26 | 2013-07-10 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
| JP2013228993A (ja) * | 2012-09-27 | 2013-11-07 | Bank Of Tokyo-Mitsubishi Ufj Ltd | 情報処理装置、電子機器、情報処理方法およびプログラム |
| JP2014071811A (ja) * | 2012-10-01 | 2014-04-21 | Sony Corp | 情報処理装置、表示制御方法及びプログラム |
| JP2014086085A (ja) * | 2012-10-19 | 2014-05-12 | Samsung Electronics Co Ltd | ディスプレイ装置及びその制御方法 |
| US9760168B2 (en) | 2012-11-06 | 2017-09-12 | Konica Minolta, Inc. | Guidance information display device |
| JP2019164822A (ja) * | 2012-11-20 | 2019-09-26 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 着用式電子デバイスでのgui転移 |
| JP2013178783A (ja) * | 2013-03-07 | 2013-09-09 | Fujitsu Ten Ltd | ディスプレイ装置 |
| WO2014188565A1 (ja) * | 2013-05-23 | 2014-11-27 | パイオニア株式会社 | 表示制御装置 |
| JPWO2014188565A1 (ja) * | 2013-05-23 | 2017-02-23 | パイオニア株式会社 | 表示制御装置 |
| JP6039074B2 (ja) * | 2013-07-01 | 2016-12-07 | パイオニア株式会社 | 撮像システム |
| JP2016536699A (ja) * | 2013-08-29 | 2016-11-24 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 注意にもとづくレンダリングと忠実性 |
| US9715266B2 (en) | 2013-08-29 | 2017-07-25 | Sony Interactive Entertainment America Llc | Attention-based rendering and fidelity |
| KR20180132989A (ko) * | 2013-08-29 | 2018-12-12 | 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 | 주의 기반 렌더링 및 피델리티 |
| US10310583B2 (en) | 2013-08-29 | 2019-06-04 | Sony Interactive Entertainment America Llc | Attention-based rendering and fidelity |
| US11768575B2 (en) | 2013-09-09 | 2023-09-26 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| US12314527B2 (en) | 2013-09-09 | 2025-05-27 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| JP2015093147A (ja) * | 2013-11-14 | 2015-05-18 | オリンパスメディカルシステムズ株式会社 | 医療システム |
| JP2015219440A (ja) * | 2014-05-20 | 2015-12-07 | パナソニックIpマネジメント株式会社 | 操作補助装置および操作補助方法 |
| US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
| JP2016035614A (ja) * | 2014-08-01 | 2016-03-17 | シャープ株式会社 | 機器、音声出力方法、音声出力プログラム、ネットワークシステム、サーバ、および通信機器 |
| JP2017228291A (ja) * | 2016-06-16 | 2017-12-28 | ハンド ヘルド プロダクツ インコーポレーティッド | 視線検出により制御される標示スキャンシステム及び方法 |
| JP2017004553A (ja) * | 2016-08-22 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
| US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
| US12462005B2 (en) | 2017-09-09 | 2025-11-04 | Apple Inc. | Implementation of biometric authentication |
| US11765163B2 (en) | 2017-09-09 | 2023-09-19 | Apple Inc. | Implementation of biometric authentication |
| JP2019121183A (ja) * | 2018-01-05 | 2019-07-22 | 株式会社ミツバ | 被操作体制御装置、及び被操作体制御方法 |
| US12189748B2 (en) | 2018-06-03 | 2025-01-07 | Apple Inc. | Implementation of biometric authentication |
| US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
| US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
| US12124770B2 (en) | 2018-09-28 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
| KR20210041131A (ko) * | 2018-09-28 | 2021-04-14 | 애플 인크. | 응시 정보를 사용한 디바이스 제어 |
| US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
| JP2021193572A (ja) * | 2018-09-28 | 2021-12-23 | アップル インコーポレイテッドApple Inc. | 凝視情報を用いたデバイス制御 |
| JP2024164043A (ja) * | 2018-09-28 | 2024-11-26 | アップル インコーポレイテッド | 凝視情報を用いたデバイス制御 |
| US12105874B2 (en) | 2018-09-28 | 2024-10-01 | Apple Inc. | Device control using gaze information |
| KR20200050235A (ko) * | 2018-11-01 | 2020-05-11 | 삼성전자주식회사 | 전자 장치 및 그의 지능형 인터랙션 방법 |
| WO2020171098A1 (ja) * | 2019-02-19 | 2020-08-27 | 株式会社Nttドコモ | 視線とジェスチャを用いた情報表示装置 |
| JPWO2020171098A1 (ja) * | 2019-02-19 | 2021-11-25 | 株式会社Nttドコモ | 視線とジェスチャを用いた情報表示装置 |
| JPWO2021230048A1 (ja) * | 2020-05-15 | 2021-11-18 | ||
| JPWO2021256520A1 (ja) * | 2020-06-17 | 2021-12-23 | ||
| WO2021256520A1 (ja) * | 2020-06-17 | 2021-12-23 | 株式会社Nttドコモ | ヘッドマウントディスプレイ |
| US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
| US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
| US12417596B2 (en) | 2022-09-23 | 2025-09-16 | Apple Inc. | User interfaces for managing live communication sessions |
Also Published As
| Publication number | Publication date |
|---|---|
| US6111580A (en) | 2000-08-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0981309A (ja) | 入力装置 | |
| EP0919906B1 (en) | Control method | |
| EP3616050B1 (en) | Apparatus and method for voice command context | |
| CN110164440B (zh) | 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质 | |
| EP3451335B1 (en) | Optimum control method based on multi-mode command of operation-voice, and electronic device to which same is applied | |
| CN107621777B (zh) | 电子设备和采集控制方法 | |
| US9916006B2 (en) | Eye-wearable device user interface and method | |
| CN101438218B (zh) | 具有虚拟小键盘的移动设备 | |
| WO2021073743A1 (en) | Determining user input based on hand gestures and eye tracking | |
| US20250093955A1 (en) | Input device, system, and control method | |
| JP7617575B2 (ja) | オーディオ認識を行う拡張現実デバイスおよびその制御方法 | |
| JPH11327753A (ja) | 制御方法及びプログラム記録媒体 | |
| JP2014095766A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| JP7579378B2 (ja) | ヘッドマウント情報処理装置の制御方法 | |
| CN111768757A (zh) | 可穿戴设备的控制方法、可穿戴设备及存储介质 | |
| JP2004214895A (ja) | 通信補助装置 | |
| CN110262767B (zh) | 基于靠近嘴部检测的语音输入唤醒装置、方法和介质 | |
| JP2012118679A (ja) | 情報処理装置、単語判別装置、画面表示操作装置、単語登録装置およびこれらに関する方法ならびにプログラム | |
| WO2017104272A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP7416894B2 (ja) | 携帯端末 | |
| JP2001300148A (ja) | アクション応答システムおよびそのプログラム記録媒体 | |
| CN110799932A (zh) | 便携终端 | |
| JPH1039995A (ja) | 視線・音声入力装置 | |
| Fukumoto et al. | Fulltime-wear Interface Technology | |
| EP3396509A1 (en) | Information processing device, information processing method, and program |