[go: up one dir, main page]

JP2011054165A - 対話システムのためのジェスチャ認識方法および対話システム - Google Patents

対話システムのためのジェスチャ認識方法および対話システム Download PDF

Info

Publication number
JP2011054165A
JP2011054165A JP2010189686A JP2010189686A JP2011054165A JP 2011054165 A JP2011054165 A JP 2011054165A JP 2010189686 A JP2010189686 A JP 2010189686A JP 2010189686 A JP2010189686 A JP 2010189686A JP 2011054165 A JP2011054165 A JP 2011054165A
Authority
JP
Japan
Prior art keywords
image
gesture recognition
object images
display
recognition method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010189686A
Other languages
English (en)
Other versions
JP5241786B2 (ja
Inventor
Hsin-Chia Chen
信嘉 陳
Tzung-Min Su
宗敏 蘇
Chih-Hung Lu
志宏 呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of JP2011054165A publication Critical patent/JP2011054165A/ja
Application granted granted Critical
Publication of JP5241786B2 publication Critical patent/JP5241786B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

【課題】対話システムのためのジェスチャ認識方法を提供する。
【解決手段】このジェスチャ認識方法は、イメージセンサで画像ウィンドウを取り込むステップと、画像ウィンドウにおいて、1以上のポインタに関連する物体画像の情報を取得するステップと、単一のポインタが物体画像の情報により識別されると、画像ウィンドウにおける物体画像の位置にしたがい対話システムに対してポインタの位置座標を計算するステップと、複数のポインタが物体画像の情報により識別されると、画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を実行するステップとを含む。本発明はさらに対話システムを提供する。
【選択図】 図4a

Description

本発明は、対話システムに関連し、より詳細には、ジェスチャ認識方法および同方法を用いる対話システムに関連する。
図1は、従来技術のタッチシステム9を示す図である。タッチシステム9は、タッチ表面90ならびに少なくとも2台のカメラ91および92を備える。タッチ表面90は、カメラ91および92の視界の範囲内に配置される。ユーザが、一本の指を使ってタッチ表面90に接触すると、カメラ91および92が指の先端の物体画像を含む画像ウィンドウを取り込むことになる。処理部は、画像ウィンドウ内の指先端の物体画像の位置により、タッチ表面90上のタッチポイントの2次元位置座標を計算して、2次元位置座標の変化に対応する動作をディスプレイに実行させることができる。
タッチシステム9は、画像ウィンドウにおける指先端の物体画像の位置によりタッチ表面90上のタッチポイントの2次元位置座標を取得する。しかしながら、ユーザが、複数の指でタッチ表面90に接触した場合、カメラ92の視界から、指が互いを隠しあう可能性がある。したがって、カメラ92が取り込んだ画像ウィンドウが、必ずしも、指の先端の物体画像をすべて含んでいるとは限らない可能性がある。
たとえば、図1を参照して、ユーザが指81および82でタッチ表面90に接触した場合、カメラ91は、指81の物体画像I81および指82の物体画像I82を含む画像ウィンドウW91を取り込むことになる。しかしながら、指82がカメラ92の視界から指81を隠すので、カメラ92が取り込んだ画像ウィンドウW92が含む物体画像は1つしかないことになる。したがって、処理部は、画像ウィンドウW91およびW92による画像ウィンドウにおいて、タッチポイントの誤った2次元位置座標を取得することになる。これでは、誤った反応が引き起こされる可能性がある。
上記の課題を解決するため、2台のカメラ93および94を他の2つの角度に新たに設置して、他の2つの画像ウィンドウW93およびW94を取り込むことができる。処理部は、指81および82が接触したタッチ表面92上のタッチポイントの2次元位置座標を取得することができる。しかしながら、これでは、システムのコストが増大してしまう。
したがって、本発明は、ジェスチャ認識方法および同方法を用いる対話システムを提供して、この先行技術の問題を解決する。
本発明の目的は、イメージセンサが取り込んだ画像ウィンドウにおける物体画像間の関係を識別してジェスチャ認識を行う、ジェスチャ認識方法および同方法を用いる対話システムを提供することにある。これにより、ポインタが互いを隠しあうことによりタッチポイントの位置がわからなくなる、という先行技術の課題を解決できる。
本発明の対話システムは、1以上の光源、反射板および画像ウィンドウを取り込むよう構成されたイメージセンサを備え、画像ウィンドウは、1以上のポインタが光源および/または反射板から発せられる光を遮ることで生じるポインタの物体画像を含む。ジェスチャ認識方法は、イメージセンサで画像ウィンドウを取り込むステップと、画像ウィンドウにおける物体画像の情報を取得するステップと、物体画像の情報により、複数のポインタが存在するか否かを識別するステップと、複数のポインタが識別される場合、連続する画像ウィンドウにおける物体画像間の関係によりジェスチャ認識を行うステップとを含む。
本発明のジェスチャ認識方法によれば、物体画像の情報が、物体画像の平均数、物体画像間の平均距離および/または物体画像間の最大距離を含む。
本発明のジェスチャ認識方法によれば、連続する画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を実行するステップが、物体画像の平均数および物体画像間の平均距離を閾値と比較するステップと、物体画像の平均数または物体画像間の平均距離が閾値より小さい場合に、上、下、左、右、ズームインまたはズームアウトのジェスチャ認識を実行するステップと、物体画像の平均数または物体画像間の平均距離が閾値より大きい場合に、回転のジェスチャ認識を実行するステップと、認識されたジェスチャにしたがい画像ディスプレイの表示を更新するステップとを含む。
本発明はさらに対話システムを提供する。この対話システムは、発光部と、イメージセンサと、処理部とを備える。イメージセンサは、1以上のポインタが発光部からの光を遮ることにより生じるポインタの物体画像を含む画像ウィンドウを取り込むよう構成される。処理部は、イメージセンサが取り込む連続する画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を実行するよう構成される。
本発明の対話システムによれば、発光部が、能動光源または受動光源である。発光部が、反射面を有する受動光源である場合、対話システムが、能動光源をさらに備える。
本発明はさらに、対話システムのためのジェスチャ認識方法を提供する。対話システムは、発光部と、複数のポインタが、発光部から発せられた光を遮ることにより生じるポインタの物体画像を含む画像ウィンドウを取り込むよう構成されるイメージセンサとを含む。ジェスチャ認識方法は、イメージセンサで画像ウィンドウを取り込むステップと、連続する画像ウィンドウにおける複数の物体画像間の関係にしたがいジェスチャ認識を実行するステップとを含む。
本発明のジェスチャ認識方法によれば、物体画像間の関係は、物体画像間の平均距離の変化、物体画像間の最大距離の変化および変位の方向を含む。
本発明のジェスチャ認識方法および対話システムによれば、第1のモードでは、対話システムは、ポインタの2次元位置座標の変化にしたがいカーソルの動きを制御する。第2のモードでは、対話システムは、複数のポインタの物体画像間の関係にしたがい画像ディスプレイの表示を更新する。たとえば、画像ディスプレイを作動させて、画面のスクロール、物体のスケーリング、物体の回転、表示の切り替えまたはメニューの表示を行うことができる。
本発明のジェスチャ認識方法および対話システムによれば、ジェスチャを認識でき、複数のポインタのタッチポイントの座標を計算する必要がない。したがって、イメージセンサの視界においてポインタ同士が互いを隠しあう場合でさえ、ジェスチャ認識を行うことができる。
本発明の上記および他の目的、特徴および利点については、添付の図面を参照して行う、以下の詳細な説明によって、より明らかになるであろう。
従来技術のタッチシステムの模式図である。 図2aは、本発明の実施例1の対話システムの斜視図である。 図2bは、本発明の実施例1の対話システムの動作模式図である。 図3aは、本発明の実施例1の対話システムを用いてカーソルを制御する様子を示す模式図である。 図3bは、図3aのイメージセンサが取り込んだ画像ウィンドウの模式図である。 図4aは、本発明の対話システムのためのジェスチャ認識方法のフローチャートである。 図4bは、図4aにおける第2モードを実行するためのフローチャートである。 図5aは、本発明の実施例1の対話システムのためのジェスチャ認識方法による、右のジェスチャ認識の模式図である。 図5bは、本発明の実施例1の対話システムのためのジェスチャ認識方法による、左のジェスチャ認識の模式図である。 図5cは、本発明の実施例1の対話システムのためのジェスチャ認識方法による、下のジェスチャ認識の模式図である。 図5dは、本発明の実施例1の対話システムのためのジェスチャ認識方法による、上のジェスチャ認識の模式図である。 図5eは、ズームインのジェスチャ認識の模式図である。 図5fは、ズームアウトのジェスチャ認識の模式図である。 図5gは、右回り回転のジェスチャ認識を示す模式図である。 図5hは、左回り回転のジェスチャ認識を示す模式図である。 図6aは、本発明の実施例2の対話システムの動作模式図である。 図6bは、図6aのイメージセンサが取り込んだ画像ウィンドウの模式図である。 図6cは、図6aのイメージセンサが取り込んだ画像ウィンドウの模式図である。 図7aは、本発明の実施例2の対話システムのためのジェスチャ認識方法による、右のジェスチャ認識を示す模式図である。 図7bは、本発明の実施例2の対話システムのためのジェスチャ認識方法による、左のジェスチャ認識を示す模式図である。 図7cは、ズームインのジェスチャ認識を示す模式図である。 図7dは、ズームアウトのジェスチャ認識を示す模式図である。 図7eは、右回り回転のジェスチャ認識を示す模式図である。 図7fは、左回り回転のジェスチャ認識を示す模式図である。
本発明の上記および他の目的、特徴ならびに利点については、添付の図面を参照して行う、以下の詳細な説明によって、より明らかになるであろう。本発明においては、各図面に共通する実質的に同じ要素を指す場合には、同じ参照番号を使用する。
図2aおよび図2bの両方を参照して、図2aは、本発明の実施例1の対話システム10の斜視図であり、かつ図2bは、対話システム10を作動させる様子を示す模式図である。対話システム10は、パネル100、発光部11、第1の光源121、第2の光源122、イメージセンサ13、処理部14および画像ディスプレイ15を備える。
パネル100は、第1の辺100a、第2の辺100b、第3の辺100c、第4の辺100dおよび表面100sを有する。これに限定されるわけではないが、パネル100としては、ホワイトボードやタッチスクリーンが考えられる。発光部11は、表面100s上でかつ第1の辺100aに隣接して配設される。発光部11は、能動光源でもよいし、受動光源でもよい。発光部11が能動光源である場合、光を発生する能力があり、線光源であることが好ましい。発光部11が、受動光源である場合、他の光源(第1の光源121または第2の光源122等)から発せられる光を反射することができる。受動光源11は、パネルの第3の辺100cに面する、適当な材料から作成される反射面11aを備える。第1の光源121は、表面100s上でかつ第2の辺100bに隣接して配設される。好ましくは、第1の光源121は、第4の辺100dに向かって光を発する。第2の光源122は、表面100s上でかつ第3の辺100cに隣接して配設される。好ましくは、第2の光源122は、第1の辺100aに向かって光を発する。第1および第2の光源121および122は、線光源等の能動光源であることが好ましい。
再び図2bを参照して、発光部11が受動光源(反射板等)である場合、第1の光源121は反射面11a上に第2のミラー画像121’を映すことができ、第2の光源122は、反射面11aの上に第3のミラー画像122’を映すことができ、かつパネル100の第4の辺100dは、反射面11a上に第4のミラー画像100d’を映すことができる。発光部11、第1の光源121、第2の光源122およびパネル100の第4の辺100dがともに実像空間RSを規定する。発光部11、第2のミラー画像121’、第3のミラー画像122’および第4のミラー画像100d’がともに虚像空間ISを規定する。
イメージセンサ13は、パネル100の角の1つに配置される。この実施例において、イメージセンサ13は、パネル100の第3の辺100cおよび第4の辺100dの交差する角に配設される。イメージセンサ13は、少なくとも実像空間RSおよび虚像空間ISをカバーする視界VAを有して、実像空間RSおよび虚像空間ISの画像ウィンドウならびに実像空間RS内の指等のポインタ81の物体画像を取り込む。一実施例においては、イメージセンサ13は、レンズ(またはレンズ系)を備え、イメージセンサ13が実像空間RSおよび虚像空間IS全体の物体画像を取り込むことができるように、イメージセンサ13の視界VAを調節するよう構成される。イメージセンサ13は、これに限定されるわけではないが、CCDイメージセンサまたはCMOSイメージセンサが考えられる。
処理部14は、イメージセンサ13に結合されて、イメージセンサ13が取り込んだ画像を処理し、1以上のポインタを認識する。1つのポインタのみが識別される場合、処理部14は、画像ウィンドウにおけるポインタの物体画像の位置にしたがい、ポインタが接触するパネル表面100s上のタッチポイントの2次元位置座標を計算する。複数のポインタを識別する場合には、処理部14は、画像ウィンドウにおけるこれらポインタの物体画像間の関係にしたがって、ジェスチャ認識を行うことができ、その上で、認識されたジェスチャにしたがって、画像ディスプレイに表示画面を更新させることができる。認識方法について、以下の項で詳細に説明する。
画像ディスプレイ15は、処理部14に結合される。画像ディスプレイ15は、図2bに示すように、カーソル151を表示できる表示画面150を備える。処理部14は、ポインタが接触するパネル表面100s上のタッチポイントの計算された2次元位置座標の変化にしたがい、表示画面150上のカーソル151の動きを相対的に制御することができる。また、処理部14は、取り込んだ画像ウィンドウにおけるポインタの物体画像間の関係にしたがい、表示画面150の表示を更新することもできる。たとえば、表示画面150を作動させて画面をスクロールし、物体をスケーリングし、物体を回転させ、表示を切り替え、またはメニューを表示することができる。
本発明の対話システムをわかりやすく説明するため、パネル100を画像ディスプレイ15から分離する。ただし、他の実施例では、パネル100を画像ディスプレイ15の表示画面150に取り付けることもできる。さらに、パネル100がタッチスクリーンの場合、画面ディスプレイ15の表示画面150をパネル100として機能させることができる。発光部11、第1の光源121、第2の光源122およびイメージセンサ13が、表示画面150上に配置されることになる。
なお、パネル100は矩形で、図2aおよび図2bに示すパネル100の各辺上に、相互に直角をなして、発光部11、第1の光源121および第2の光源122が配列されるが、これらの構成は、本発明の実施例の1つにすぎないことはもちろんである。他の実施例では、パネル100は別の形状でもよく、発光部11、第1の光源121、第2の光源122およびイメージセンサ13を他の位置に配置することができる。本発明の趣旨は、イメージセンサ13が画像ウィンドウを取り込むように構成され、かつ処理部14が物体画像の変位および画像ウィンドウにおける物体画像間の関係にしたがい、ジェスチャ認識を行うという点にある。処理部14は、その上で、認識されたジェスチャにしたがい表示画面の表示を更新する。
図3aおよび図3bを参照して、図3aは、本発明の実施例1による対話システム10を用いてカーソルを制御する様子を示す模式図であり、図3bは、図3aのイメージセンサ13が取り込んだ画像ウィンドウ20の模式図である。図示のとおり、指81等のポインタが、実像空間RSにおけるパネル表面100s上のポイントT81上に接触すると、ポインタの第1のミラー画像が虚像空間ISにおける発光部11の反射面11a上に映しだされる。したがって、タッチポイントT81は、虚像空間IS内にミラータッチポイントT81’を有する。イメージセンサ13は、第1の撮像ルートR81にしたがい、ポインタの先端の画像を取り込んで、画像ウィンドウ20内に第1の物体画像I81を形成する。同様に、イメージセンサ13は、第2の撮像ルートR81’にしたがい、ポインタの第1のミラー画像の先端の画像を取り込んで、画像ウィンドウ20内に第2の物体画像I81’を形成する。この実施例では、画像ウィンドウ20における物体画像の1次元位置の情報および撮像ルートとパネル100の第3の辺100cとの間の角度が、あらかじめ処理部14に記憶されている。したがって、イメージセンサ13は、ポインタの先端の物体画像および第1のミラー画像を取り込んで、画像ウィンドウ20を形成し、処理部14は、画像ウィンドウ20における物体画像の1次元位置にしたがいそれぞれ第1の角度A81および第2の角度A81’を取得することができる。その後、処理部14は、三角法にしたがい、パネル表面100s上のタッチポイントT81の2次元位置座標を取得することができる。
たとえば、一実施例において、パネル表面100sがデカルト座標系を構成する。第3の辺100cは、デカルト座標系のx軸であり、第4の辺100dは、デカルト座標系のy軸であり、イメージセンサ13の位置が原点である。したがって、タッチポイントT81のx座標値は、タッチポイントT81から第4の辺100dへの最小距離により表されることになり、かつy座標値は、タッチポイントT81から第3の辺100cへの最小距離により表されることになる。また、第1の辺100aと第3の辺100cとの間の距離D1についての情報は、処理部14にあらかじめ記憶されている。このように、処理部14は、以下のステップにしたがい、タッチポイントT81の2次元位置座標を得る。(a)処理部14が第1の撮像ルートR81とパネル100の第3の辺100cとの間の第1の角度A81および第2の撮像ルートR81’とパネル100の第3の辺100cとの間の第2の角度A81’を得る。(b)そして、タッチポイントT81からパネル100の第4の辺100dへの距離Dを等式D=2D/(tanA81+tanA81’)にしたがい得ることができる。(c)タッチポイントT81のy座標値はD×tanA81により表される。したがって、タッチポイントT81の2次元座標は、(D,D×tanA81)として表すことができる。
図3aおよび図3bを再び参照して、本発明の実施例1の対話システム10には、2つの動作モードが存在する。処理部14が、イメージセンサ13が取り込んだ画像ウィンドウ20にしたがい、パネル表面100sへの接触は1つのポインタのみであると識別する場合、対話システム10は第1のモードで作動される。第1のモードでは、イメージセンサ13は、サンプリング周波数で画像を連続的に取り込み、その後処理部14が、画像ウィンドウ20におけるポインタの物体画像の1次元位置にしたがって、ポインタが接触したパネル表面100s上のタッチポイントT81の2次元位置座標を計算する。その後、処理部14は、タッチポイントT81の2次元位置座標の変化にしたがい、表示画面150上のカーソル151の動きを相対的に制御する。たとえば、ポインタ81は、パネル100の第4の辺100dに向かって移動し、これに応じて、第1のミラー画像のタッチポイントT81’は、第4のミラー画像100d’に向かって移動することになる。この時点で、画像ウィンドウ20のポインタの画像I81および第1のミラー画像の画像I81’も、画像ウィンドウ20の左側に向かって移動することになる。このように、処理部14は各画像ウィンドウ20における物体画像I81および物体画像I81’の位置にしたがい、タッチポイントT81の2次元位置座標を計算することができ、その上で表示画面150上のカーソル151をタッチポイントT81の2次元位置座標の変化にしたがい、画像ディスプレイ15の左側に移動させる。当然、画像ウィンドウ20における物体画像I81およびI81’の移動方向ならびにカーソル151の移動方向は、ポインタの移動方向とは異なる可能性がある。たとえば、物体画像I81およびI81’ならびにカーソル151の移動方向は、ソフトウエアの動作によりポインタの移動と逆方向になり得る。イメージセンサ13が取り込んだ画像ウィンドウ20にしたがい、処理部14が、複数のポインタがパネル表面100sに接触することを確認した場合、対話システム10を第2のモードで作動させる。処理部14は、画像ウィンドウ20にしたがうタッチポイントT81の2次元位置座標を計算しない。その代り、処理部14は、複数のポインタの物体画像間の関係にしたがいジェスチャを認識して、認識されたジェスチャにしたがい、画像ディスプレイ15の表示画面150の表示を更新して、たとえば画面をスクロールしたり、物体のスケーリングをしたり、物体を回転させたり、表示を切り替えたり、またはメニューを表示したりする。
図4aは、本発明のジェスチャ認識方法のフローチャートである。本発明の方法は、以下のステップを含む。すなわち、イメージセンサで画像ウィンドウを取り込むステップ(ステップS1)と、画像ウィンドウにおける物体画像の情報を得るステップ(ステップS)と、物体画像の情報にしたがい複数のポインタが存在するかどうかを識別するステップ(ステップS3)と、存在しない場合、第1のモードを実行するステップ(ステップS4)と、存在する場合、第2のモードを実行するステップ(ステップS5)とを含む。
図4bは、ステップSにおける第2のモードを実行する方法を示す。物体画像についての情報には、物体画像の平均数、物体画像間の平均距離、物体画像間の最大距離が含まれる。第2のモードは、物体画像の平均数または物体画像間の平均距離が閾値より大きいか否かを判別するステップ(ステップS51)と、大きい場合に、連続する画像ウィンドウにおける物体画像間の関係にしたがう回転のジェスチャ認識を実行するステップ(ステップS52)と、大きくない場合に、連続する画像ウィンドウにおける物体画像間の関係にしたがい上/下/左/右/ズームイン/ズームアウトのジェスチャ認識を行うステップ(ステップS53)と、認識されたジェスチャにしたがい画像ディスプレイの表示を更新するステップ(ステップS54)とを含む。なお、図4bにおける回転のジェスチャ認識は、物体画像の平均数または物体画像間の平均距離が閾値より小さい場合に実行することができ、平行移動のジェスチャ認識は、物体画像の平均数または物体画像間の平均距離が閾値より大きい場合に実行できる。
他の実施例では、第2のモードは、連続する画像ウィンドウにおける物体画像間の関係にしたがい回転のジェスチャ認識を実行するというステップ1つのみを含み得る。他の実施例では、第2のモードは、連続する画像ウィンドウにおける物体画像間の関係にしたがい、上/下/左/右/ズームイン/ズームアウトのジェスチャ認識を行うというステップ1つのみを含み得る。より詳細には、対話システムの第2のモードは、回転または上/下/左/右/ズームイン/ズームアウトのジェスチャ認識のみを実行できる。
再び、図3aから図4bを参照して、ジェスチャ認識を本発明の実施例1の対話システム10を用いて行う場合、イメージセンサ13は、画像を取り込んで画像ウィンドウ20を形成するが、画像ウィンドウ20は、ポインタが接触するタッチポイントT81の1以上の物体画像I81と第1のミラータッチポイントT81’の1以上の物体画像I81’とを含む(ステップS)。その後、処理部14は、後続のステップのために、物体画像の平均数、物体画像間の平均距離、および物体画像間の最大距離等の、画像ウィンドウ20における物体画像の情報を取り込む(ステップS)。次に、処理部14は、取り込まれた物体画像の情報にしたがい画像ウィンドウ20において複数のポインタが存在するか否かを識別する(ステップS)。各ポインタは、画像ウィンドウ20において最大2つの物体画像を生じさせるので、2を超える数の物体画像が画像ウィンドウ20内に存在する場合には、複数のポインタが含まれていることになる。
識別されるポインタが1つだけなら、図3aおよび図3bに示すように、処理部14は、対話システム10が第1モードに入れるようにする(ステップS)。第1のモードでは、処理部14は、画像ウィンドウ20においてイメージセンサ13が取り込んだ物体画像(I81およびI81’等)の1次元位置にしたがい、ポインタが接触するパネル表面100s上のタッチポイント(T81等)の2次元位置座標を計算する。その後、処理部14は、タッチポイントの2次元位置座標の変化にしたがい画像ディスプレイ15上のカーソル151の動きを相対的に制御する。
処理部14は、図5aから図5hにおいて示すように、物体画像の情報にしたがい、パネル表面100sに接触する複数のポインタの存在を識別すると、対話システム10が第2のモードに入れるようにする(ステップS)。第2のモードでは、処理部14は、画像ウィンドウ20における物体画像間の関係にしたがいジェスチャ認識を実行した後、認識されたジェスチャにしたがい、たとえば、画面をスクロールしたり、物体のスケーリングをしたり、物体を回転させたり、表示を切り替えたり、メニューを表示するなど、画像ディスプレイ15の表示画面150の表示を更新する。
図5aから図5hを参照して、第2のモードの実施例について、以下の項で説明する。発光部11は、実施例における受動光源である。また、図5aから図5hは、例示目的のみであり、発明を限定するものではない。
<画面をスクロールするためのジェスチャ>
図5aから図5dに示すように、処理部14が、取り込んだ画像20における物体画像の情報にしたがい、TおよびT等の複数のタッチポイントの存在を識別すると、第2のモードに入る。その後、処理部14は、画像ウィンドウ20内の物体画像の平均数が閾値である6(この閾値は、実際の応用にしたがって決定でき、ここでの値「6」は、三つのポインタの場合の閾値の一例である。)より大きいか否か、または物体画像間の平均距離Savがあらかじめ定められた閾値より大きいか否かを識別する(ステップS51)。物体画像の平均数および平均距離Savの少なくともどちらかがあらかじめ定められた閾値を超えない場合、平行移動のジェスチャ認識が行われる(ステップS53)。
平行移動のジェスチャ認識が行われる場合、物体画像がまずグループ化される。たとえば、物体画像を、画像ウィンドウ20の中心線Cによって、第1の画像グループGと第2の画像グループGとに分けることができ、このうち第1の画像グループGを実像グループまたは虚像グループのいずれかにすることができ、かつ第2の画像グループGを虚像グループまたは実像グループとすることができる。
たとえば、図5aから図5dに示すように、物体画像の平均数と物体画像間の平均距離Savとの少なくともどちらかがあらかじめ定められた閾値を超えてない、処理部14は上/下/左/右のジェスチャ認識を実行する(ステップS53)。たとえば、図5aにおいては、処理部14は、画像ウィンドウ20における、第1の画像グループG1および第2の画像グループGがすべて右方向へ動くことを確認する。したがって、ユーザが、画面を右/左方向へスクロールするジェスチャを行っていると識別される。処理部14はそこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
同様に、図5bでは、処理部14は、画像ウィンドウ20における、第1の画像グループG1および第2の画像グループGがすべて左方向へ動くことを識別する。したがって、ユーザが、画面を左方向/右方向へスクロールするジェスチャを行っていると識別される。処理部14はそこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
図5cでは、処理部14は、第1の画像グループG1と第2の画像グループGとの間の平均距離が徐々に増大することを識別する。したがって、ユーザが、画面を下方向/上方向へスクロールするジェスチャを行っていると識別される。処理部14はそこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
図5dでは、処理部14は、第1の画像グループG1と第2の画像グループG間との平均距離が徐々に減少することを識別する。したがって、ユーザが、画面を上方向/下方向へスクロールするジェスチャを行っていると識別される。処理部14はそこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込んだ画像ウィンドウ20における物体画像の情報にしたがい、複数のタッチポイントの存在を識別すると、ステップS51を行わず、そのまま平行移動のジェスチャ認識(ステップS53)が行われることになる。
<物体のスケーリングのためのジェスチャ>
物体のスケーリング実施を要求する前に、ユーザは、まずパネル表面100s上に単一のタッチポイントを形成して、第1のモードに入り、かつその後、図3aに示すように標的物体Oへカーソル151を移動させる。その後、ユーザは、図5eおよび図5fに示すようにパネル表面100s上に複数のタッチポイントを形成する。処理部14が、取り込んだ画像ウィンドウ20における物体画像の情報にしたがい、TおよびT等の複数のタッチポイントの存在を識別すれば、第2のモードに入る。
その後、処理部14は、画像ウィンドウ20内の物体画像の平均数または物体画像間の平均距離Savがあらかじめ定められた閾値より大きいかどうかを識別する(ステップS51)。物体画像の平均数および物体画像間の平均距離Savの少なくともどちらかが、あらかじめ定められた閾値を超えない場合、物体画像はまずグループ化される。たとえば、物体画像を画像ウィンドウ20の中心線Cにより、第1のグループGと第2のグループGに分けることができる。
たとえば、図5eおよび図5fに示すように、物体画像の平均数および物体画像間の平均距離Savの少なくともどちらかが、あらかじめ定められた閾値を超えてない、処理部14は、ズームイン/ズームアウトのジェスチャ認識を実行する(ステップS53)。たとえば、図5eにおいては、処理部14は、画像ウィンドウ20における、第1の画像グループGと第2の画像グループG1との間の平均距離が実質的に変化しないままで、かつ物体画像間の最大距離が増加していると識別する。したがって、ユーザがズームイン/ズームアウトのジェスチャを行っていると識別される。処理部14は、そこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
たとえば、図5fに示すように、処理部14は、画像ウィンドウ20における第1のグループG1と第2のグループGとの間の平均距離が実質的に変化しないまま維持されかつ物体画像間の最大距離が減少していると識別する。したがって、ユーザが、ズームアウト/ズームインするジェスチャを行っていると識別される。処理部14はそこで、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込まれた画像ウィンドウ20における物体画像の情報により、複数のタッチポイントの存在を識別すると、ステップS51は実行されず、そのままズームイン/ズームアウトのジェスチャ認識(ステップS53)が行われる。
また、物体のスケーリングを実行したい場合、第2モードに入る前に必ずしも第1のモードにまず入る必要はない。たとえば、パネル100がタッチパネルの場合、ユーザは、直接標的物体をハイライトすることができる。したがって、物体のスケーリング実行を要求する前に、ユーザはそのまま第2のモードに入ることができる。
<物体を回転させるためのジェスチャ>
物体の回転実行を要求する前に、ユーザは、まずタッチ表面100sに接触し、パネル表面100s上に単一のタッチポイントを形成して、第1モードに入り、その後図3aに示すように、カーソル151を標的物体Oへ移動させる。その後、ユーザは、図5gおよび図5hに示すようにパネル表面100s上に複数のタッチポイントTを形成する。処理部14が、取り込まれた画像ウィンドウ20における物体画像の情報により、複数のタッチポイントTの存在を識別すると、第2のモードに入る。
その後、処理部14は、画像ウィンドウ20における物体画像の平均数または物体画像間の平均距離Savが、あらかじめ定められた閾値を超えるかどうかを識別する(ステップS51)。物体画像の平均数または平均距離Savが、あらかじめ定められた閾値より大きければ、物体画像はグループ化されない。回転の配向は、画像ウィンドウ20の2つの対向する辺に向かって移動する物体画像の数を比較すれば識別することができる。
たとえば、図5gに示すように、処理部14は、画像ウィンドウ20において右方向に移動する物体画像の数が左方向に移動する物体画像の数より大きいと識別する。したがって、ユーザは、右回り/左回りに回転するジェスチャを行っていると識別される。そこで、処理部14は、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
たとえば、図5hに示すように、処理部14は、画像ウィンドウ20において左方向に移動する物体画像の数が右方向に移動する物体画像の数より多いと識別する。したがって、ユーザは、左回り/右回り回転のジェスチャを行っていると識別される。そこで、処理部14は、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込んだ画像ウィンドウ20における物体画像の情報により、複数のタッチポイントの存在を識別すると、ステップS51は、実行されず、そのまま物体回転のジェスチャ認識(ステップS52)を実行することになる。
また、物体の回転を実行したい場合、必ずしも第2のモードに入る前にまず第1のモードに入る必要はない。たとえば、パネル100がタッチパネルである場合、ユーザは、標的物体を直接ハイライトすることができる。したがって、物体の回転実行を要求する前に、ユーザは直接第2モードに入ることができる。
<表示切り替えのためのジェスチャ>
ユーザは、パネル表面100sに触って、図5gおよび図5hに示すようにパネル表面100s上に複数のタッチポイントTを形成する。処理部14が、取り込んだ画像ウィンドウ20における物体画像の情報により、複数のタッチポイントTの存在を識別すると、第2のモードに入る。
処理部14は、画像ウィンドウ20の2つの対向する辺に向かって移動する物体画像の数を比較して、表示を切り替えるかどうか判断する。図5gおよび図5hに示すように、処理部14は、画像ウィンドウ20において右方向/左方向に移動する物体画像の数が、それぞれ左方向/右方向に移動する物体画像の数より多いと識別する。したがって、ユーザが、切り替え表示のジェスチャを行っていると識別される。処理部14は、そこで、これに対応して、画像ディスプレイ15の表示を切り替える。
<メニューを表示するためのジェスチャ>
図5gおよび図5hに示すように、ユーザは、パネル表面100sに触って、パネル表面100s上に複数のタッチポイントTを形成する。処理部14が、取り込まれた画像ウィンドウ20における物体画像の情報により、複数のタッチポイントTの存在を識別すると、第2のモードに入る。
処理部14は、画像ウィンドウ20の2つの対向する辺に向かって移動する物体画像の数を比較して、メニューを表示するかどうか決める。図5gおよび図5hに示すように、処理部14は、画像ウィンドウ20において右方向/左方向に移動する物体画像の数がそれぞれ左方向/右方向に移動する物体画像の数より多いと識別する。したがって、ユーザは、メニューを表示するジェスチャを行っていると識別される。そこで、処理部14は、これに対応して、画像ディスプレイ15の表示画面150上にメニューを示す。
図6aから図6cを参照して、図6aは、本発明の実施例2の対話システム10’を作動させる様子を示す模式図であり、かつ図6bおよび図6cは、図6aにおいて、それぞれイメージセンサ13および13’が取り込んだ画像ウィンドウ20’および20”の模式図である。この実施例では、対話システム10’が、発光部11と、第1の光源121と、第2の光源122と、イメージセンサ13および13’とを備える。発光部11は、能動光源であり、パネルの第3の辺100cに向かって光を発することが好ましい。発光部11、第1の光源121および第2の光源122は、パネルの表面上でかつパネルの第1の辺100a、第2の辺100bおよび第4の辺100dそれぞれに隣接して配設される。したがって、イメージセンサ13が取り込む画像ウィンドウ20’は、ポインタ先端の物体画像I81およびI82のみを含み、かつイメージセンサ13’が取り込む画像ウィンドウ20”は、ポインタ先端の物体画像I81”およびI82”のみを含む。
この実施例では、処理部14は、イメージセンサ13および13’が取り込む画像ウィンドウ20’および20”におけるポインタの複数の物体画像間の関係にしたがい、ジェスチャ認識を行うことができる。
<画面をスクロールするためのジェスチャ>
図7aおよび図7bを参照して、処理部14が、イメージセンサ13および13’が取り込んだ画像ウィンドウ20’および20”における物体画像の情報により、TおよびT等の複数のタッチポイントの存在を識別すると、第2のモードに入る。その後、処理部14は、画像ウィンドウ20’および20”における物体画像の平均数または物体画像間の平均距離があらかじめ定められた閾値より大きいかどうか識別する(ステップS51)。
画像ウィンドウ20’および20”における物体画像の平均数と平均距離との少なくともどちらかが、あらかじめ定められた閾値を超えない場合、処理部14は、左/右のジェスチャ認識を行う(ステップS53)。たとえば、図7aおよび図7bにおいては、処理部14は、画像ウィンドウ20’および20”における物体画像がすべて右方向または左方向へ移動すると識別する。したがって、ユーザは、下向き/上向きに画面をスクロールするジェスチャを行っていると識別される。そこで、処理部14は、それに対応して画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込んだ画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントの存在を確認すると、ステップS51は実行せず、そのまま平行移動のジェスチャ認識(ステップS53)が行われることになる。
<物体をスケーリングするためのジェスチャ>
物体のスケーリング実行を要求する前に、ユーザはまず標的物体へカーソル151を移動させる。その後、ユーザは、図7cおよび図7dで示すように、パネル表面100s上に、TおよびT等の複数のタッチポイントを形成する。処理部14が、イメージセンサ13および13’が取り込んだ画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントの存在を識別すると、第2のモードに入る。
その後、処理部14が画像ウィンドウ20’および20”における物体画像の平均数または物体画像間の平均距離があらかじめ定められた値を超えるかどうか確認する(ステップS51)。画像ウィンドウ20’および20”における物体画像平均数および物体画像間平均距離の少なくともどちらかが、あらかじめ定められた閾値を超えない場合、処理部14は、ズームイン/ズームアウトのジェスチャ認識を行う(ステップS53)。たとえば、図7cおよび図7dにおいて、処理部14は、画像ウィンドウ20’および20”における物体画像間の平均距離の増大または減少を識別する。したがって、ユーザが、ズームイン/ズームアウトのジェスチャを行っていると識別される。そこで、処理部14は、これに対応して画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込まれた画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントの存在を確認すると、ステップS51は、実行されず、そのままズームイン/ズームアウトのジェスチャ認識が行われることになる(ステップS53)。
また、物体のスケーリングの実行を要求する場合、必ずしも、第2のモードに入る前にまず第1のモードに入る必要はない。たとえば、パネル100がタッチパネルである場合、ユーザは標的物体を直接ハイライトすることができる。したがって、物体のスケーリングの実行を要求する前に、ユーザは直接第2のモードに入ることができる。
<物体を回転させるためのジェスチャ>
物体の回転実行を要求する前に、まず、ユーザは、標的物体へカーソル151を移動させる。その後、図7eおよび図7fに示すように、ユーザは、パネル表面100s上に複数のタッチポイントTを形成する。処理部14が、イメージセンサ13および13’が取り込んだ画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントTの存在を識別すると、第2のモードに入る。
その後、処理部14が画像ウィンドウ20’および20”における物体画像の平均数または物体画像間の平均距離があらかじめ定められた閾値を超えるかどうか確認する(ステップS51)。物体画像平均数または平均距離があらかじめ定められた閾値を超える場合、画像ウィンドウ20’および20”の2つの対向する辺に向かって移動する物体画像の数を比較することにより、回転の配向を識別することができる。
たとえば、図7eおよび図7fに示すように、処理部14は、画像ウィンドウ20’および20”において右方向および左方向に移動する物体画像の数が、それぞれ左方向および右方向に移動する物体画像の数より多いことを確認する。したがって、ユーザが、右回り/左回りの回転のジェスチャを行っていると識別される。そこで、処理部14は、これに対応して、画像ディスプレイ15の表示画面150の表示を更新する(ステップS54)。
他の実施例では、処理部14が、取り込まれた画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントの存在を識別すると、ステップS51は実行されず、そのままズームイン/ズームアウトのジェスチャ認識(ステップS53)が行われることになる。
また、物体の回転を実行したい場合、必ずしもまず第1のモードに入った後、第2のモードに入る必要はない。
<表示切り替えまたはメニュー表示のためのジェスチャ>
ユーザは、タッチ表面100sを触って、図7eおよび図7fに示すように、パネル表面100s上に複数のタッチポイントTを形成する。
処理部14が、イメージセンサ13および13’により取り込まれた画像ウィンドウ20’および20”における物体画像の情報により、複数のタッチポイントTの存在を識別すると、第2のモードに入る。
処理部14は、画像ウィンドウ20’および20”の2つの対向する辺に向って移動する物体画像の数を比較し、表示を切り替えるかメニューを表示するかを決定する。図7eおよび図7fに示すように、処理部14は、画像ウィンドウ20’および20”において、右方向および左方向に移動する物体画像の数が、それぞれ左方向および右方向に移動する物体画像の数より多いことを識別する。したがって、ユーザが表示を切り替えるかまたはメニューを表示するジェスチャを行っていると識別される。処理部14は、そこで、それに対応して、画像ディスプレイ15の表示画面150の表示を更新する。
なお、第2のモードにおける物体画像間の関係に対応する動作は、図5aから図5hおよび図7aから図7fに示す実施例に限定されるわけではない。本発明の趣旨は、取り込まれた画像ウィンドウにおける物体画像間の関係にのみしたがい、ジェスチャ認識を行うことができるので、パネル表面上のタッチポイントの正確な位置を知る必要がないという点にある。これにより、ポインタ同士が互いを隠すことによりタッチポイントの位置がわからないという先行技術の問題が解決する。
上記のとおり、従来技術のタッチシステムでは、タッチポイントの2次元位置座標の変化によって、ジェスチャ認識を行っていた。したがって、ポインタがお互いを隠してしまうと、正確なタッチポイントの位置を厳密に取得することができない。本発明は、画像ウィンドウ内の物体画像間の関係を識別することにより、ジェスチャ認識を行う。したがって、ジェスチャ認識は、イメージセンサ一台だけで、行うことができる。そのため、システムのコストが低減できる。
発明の好ましい実施例について例示目的で開示したが、当業者においては、添付の請求の範囲において開示される発明の範囲および精神から逸脱することなく、様々な変更、追加、代替が可能である点が理解されるであろう。

Claims (22)

  1. 対話システムのためのジェスチャ認識方法であって、対話システムが、1以上の光源、反射板および画像ウィンドウを取り込むよう構成されたイメージセンサを備え、画像ウィンドウは、1以上のポインタが光源および/または反射板から発せられる光を遮ることで生じるポインタの物体画像を含み、ジェスチャ認識方法が、
    イメージセンサで画像ウィンドウを取り込むステップと、
    画像ウィンドウにおける物体画像の情報を取得するステップと、
    物体画像の情報により、複数のポインタが存在するか否かを識別するステップと、
    複数のポインタが識別される場合、連続する画像ウィンドウにおける物体画像間の関係によりジェスチャ認識を行うステップとを含む、ジェスチャ認識方法。
  2. 1つのポインタが識別される場合に、画像ウィンドウにおける物体画像の位置にしたがい、対話システムに対するポインタの位置座標を計算するステップと、
    連続する画像ウィンドウにおけるポインタの位置座標の変化にしたがい、画像ディスプレイ上のカーソルの動きを制御するステップとを含む、請求項1に記載のジェスチャ認識方法。
  3. 物体画像の情報が、物体画像の平均数、物体画像間の平均距離および物体画像間の最大距離を含む、請求項1に記載のジェスチャ認識方法。
  4. 連続する画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を実行するステップが、
    物体画像の平均数および物体画像間の平均距離を閾値と比較するステップと、
    物体画像の平均数または物体画像間の平均距離が閾値より小さい場合に、上、下、左、右、ズームインまたはズームアウトのジェスチャ認識を実行するステップと、
    物体画像の平均数または物体画像間の平均距離が閾値より大きい場合に、回転のジェスチャ認識を実行するステップと、
    認識されたジェスチャにしたがい画像ディスプレイの表示を更新するステップとをさらに含む、請求項3に記載のジェスチャ認識方法。
  5. 表示の更新とは、画面のスクロール、物体のスケーリング、物体の回転、表示の切り替えまたはメニューの表示である、請求項4に記載のジェスチャ認識方法。
  6. 物体画像の平均数または物体画像間の平均距離が閾値より小さい場合に、物体画像を2つのグループに分割するステップをさらに含む、請求項4に記載のジェスチャ認識方法。
  7. 物体画像が、画像ウィンドウの中心線で、実像グループと、虚像グループに分割される、請求項6に記載のジェスチャ認識方法。
  8. 画像ウィンドウにおいて、物体画像の二つのグループが、両方とも同じ方向に移動する場合に、左または右のジェスチャ認識を実行するステップと、
    物体画像の2つのグループ間の平均距離が変化する場合に、上または下のジェスチャ認識を実行するステップと、
    画像ウィンドウにおける物体画像間の最大距離が変化する場合、ズームインまたはズームアウトのジェスチャ認識を実行するステップとをさらに含む、請求項6に記載のジェスチャ認識方法。
  9. 回転のジェスチャ認識を実行するステップが、物体画像の大多数が移動する方向を識別して、回転の配向を認識するステップを含む、請求項4に記載のジェスチャ認識方法。
  10. 連続する画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を行うステップが、上、下、左、右、ズームインまたはズームアウトの認識を含む、請求項1に記載のジェスチャ認識方法。
  11. 連続する画像ウィンドウにおける物体画像間の関係にしたがいジェスチャ認識を行うステップが、回転の認識を含む、請求項1に記載のジェスチャ認識方法。
  12. 対話システムであって、
    発光部と、
    1以上のポインタが発光部からの光を遮ることにより生じるポインタの物体画像を含む画像ウィンドウを取り込むよう構成されるイメージセンサと、
    イメージセンサにより取り込まれる連続する画像ウィンドウにおける物体画像間の関係にしたがい、ジェスチャ認識を実行するよう構成される処理部とを備える、対話システム。
  13. 発光部が、能動光源または受動光源である、請求項12に記載の対話システム。
  14. 発光部が、反射面を有する受動光源であり、かつ対話システムが、能動光源をさらに備える、請求項13に記載の対話システム。
  15. イメージセンサが取り込んだ画像ウィンドウが、実物体画像および虚物体画像を含み、かつ処理部が、連続する画像ウィンドウにおける実物体画像と虚物体画像との間の関係にしたがいジェスチャ認識を実行するよう構成される、請求項14に記載の対話システム。
  16. 発光部が能動光源であり、かつ対話システムが第2のイメージセンサをさらに含む、請求項13に記載の対話システム。
  17. 処理部に結合された画像ディスプレイをさらに含み、処理部が、認識されたジェスチャにしたがい画像ディプレイの表示を更新する、請求項12に記載の対話システム。
  18. 対話システムのためのジェスチャ認識方法であって、対話システムが、発光部と、複数のポインタが発光部から発せられた光を遮ることにより生じる、これらポインタの物体画像を含む画像ウィンドウを取り込むよう構成されるイメージセンサとを含み、ジェスチャ認識方法が、
    イメージセンサで画像ウィンドウを取り込むステップと、
    連続する画像ウィンドウにおける複数の物体画像間の関係にしたがいジェスチャ認識を実行するステップとを含む、ジェスチャ認識方法。
  19. 物体画像間の関係が、物体画像間の平均距離の変化、物体画像間の最大距離の変化、および変位の方向を含む、請求項18に記載のジェスチャ認識方法。
  20. 発光部が、反射面を有する受動光源であり、かつイメージセンサが取り込む画像ウィンドウが、実物体画像および虚物体画像を含み、物体画像間の関係が、実物体画像および虚物体画像間の平均距離の変化、実および虚物体画像間の最大距離の変化ならびに変位の方向を含む、請求項18に記載のジェスチャ認識方法。
  21. 画像ウィンドウの中心線により物体画像を実像グループと虚像グループとに分割するステップをさらに含む、請求項20に記載のジェスチャ認識方法。
  22. 認識されたジェスチャにしたがい画面ディスプレイの表示を更新する、請求項18に記載のジェスチャ認識方法。
JP2010189686A 2009-09-02 2010-08-26 対話システムのためのジェスチャ認識方法および対話システム Active JP5241786B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098129508A TWI412975B (zh) 2009-09-02 2009-09-02 手勢辨識方法及使用該方法之互動系統
TW098129508 2009-09-02

Publications (2)

Publication Number Publication Date
JP2011054165A true JP2011054165A (ja) 2011-03-17
JP5241786B2 JP5241786B2 (ja) 2013-07-17

Family

ID=43624976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010189686A Active JP5241786B2 (ja) 2009-09-02 2010-08-26 対話システムのためのジェスチャ認識方法および対話システム

Country Status (3)

Country Link
US (2) US8675913B2 (ja)
JP (1) JP5241786B2 (ja)
TW (1) TWI412975B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2016015078A (ja) * 2014-07-03 2016-01-28 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及び、プログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5284889A (en) 1992-11-20 1994-02-08 Minnesota Mining And Manufacturing Company Electrically insulating film backing
TWI412975B (zh) * 2009-09-02 2013-10-21 Pixart Imaging Inc 手勢辨識方法及使用該方法之互動系統
US9142192B2 (en) * 2011-09-26 2015-09-22 Intel Corporation Simulation of web applications and secondary devices in a web browser, web application development tools, and methods using the same
TW201319921A (zh) * 2011-11-07 2013-05-16 Benq Corp 觸控螢幕畫面控制方法及觸控螢幕畫面顯示方法
US9348464B2 (en) * 2012-06-06 2016-05-24 Semiconductor Components Industries, Llc Imaging systems and methods for user input detection
TWI498771B (zh) 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
TWI492099B (zh) * 2012-07-06 2015-07-11 Pixart Imaging Inc 可辨識手勢動作的眼鏡
TWI465753B (zh) * 2012-08-15 2014-12-21 Generalplus Technology Inc 位置識別系統、方法以及使用其之姿勢識別系統、方法
CN103677441B (zh) * 2012-09-18 2017-02-08 北京汇冠新技术股份有限公司 红外多点识别方法、红外多点识别装置和红外触摸屏
TWI475448B (zh) * 2012-11-29 2015-03-01 Pixart Imaging Inc 座標定位模組、光學式觸控系統及其計算觸控媒介之座標的方法
US9213448B2 (en) 2012-11-29 2015-12-15 Pixart Imaging Inc. Positioning module, optical touch system and method of calculating a coordinate of a touch medium
US9234742B2 (en) 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
CN111583818B (zh) * 2020-05-07 2021-07-06 武汉华星光电半导体显示技术有限公司 一种显示面板和显示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736603A (ja) * 1993-07-16 1995-02-07 Wacom Co Ltd 二次元位置検出装置
JP2000132340A (ja) * 1998-06-09 2000-05-12 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2007072508A (ja) * 2005-09-02 2007-03-22 Canon Inc 座標入力装置及びその制御方法、プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6972401B2 (en) * 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7346187B2 (en) * 2003-10-10 2008-03-18 Intellivid Corporation Method of counting objects in a monitored environment and apparatus for the same
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20090044988A1 (en) * 2007-08-17 2009-02-19 Egalax_Empia Technology Inc. Device and method for determining function represented by continuous relative motion between/among multitouch inputs on signal shielding-based position acquisition type touch panel
TWI339808B (en) * 2007-09-07 2011-04-01 Quanta Comp Inc Method and system for distinguishing multiple touch points
US20090109194A1 (en) * 2007-10-28 2009-04-30 Lunghwa University Of Science And Technology Touch Screen
CA2748881C (en) * 2009-01-05 2017-01-17 Smart Technologies Ulc Gesture recognition method and interactive input system employing the same
TWI393037B (zh) * 2009-02-10 2013-04-11 Quanta Comp Inc 光學觸控顯示裝置及其操作方法
TWI412975B (zh) * 2009-09-02 2013-10-21 Pixart Imaging Inc 手勢辨識方法及使用該方法之互動系統
US8681124B2 (en) * 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736603A (ja) * 1993-07-16 1995-02-07 Wacom Co Ltd 二次元位置検出装置
JP2000132340A (ja) * 1998-06-09 2000-05-12 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2007072508A (ja) * 2005-09-02 2007-03-22 Canon Inc 座標入力装置及びその制御方法、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2016015078A (ja) * 2014-07-03 2016-01-28 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及び、プログラム

Also Published As

Publication number Publication date
TWI412975B (zh) 2013-10-21
US20140160053A1 (en) 2014-06-12
US8867791B2 (en) 2014-10-21
US20110052007A1 (en) 2011-03-03
JP5241786B2 (ja) 2013-07-17
US8675913B2 (en) 2014-03-18
TW201109998A (en) 2011-03-16

Similar Documents

Publication Publication Date Title
JP5241786B2 (ja) 対話システムのためのジェスチャ認識方法および対話システム
JP5657293B2 (ja) ジェスチャ認識方法及び同方法を用いたタッチシステム
EP2480955B1 (en) Remote control of computer devices
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
TWI393037B (zh) 光學觸控顯示裝置及其操作方法
JP2013061848A (ja) 非接触入力装置
KR20120136719A (ko) 손과 눈의 3차원 위치정보를 이용한 원거리 스크린 상의 물체지목 및 제어방법
JP2012238293A (ja) 入力装置
CN102999158B (zh) 互动系统的手势辨识方法及互动系统
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
JP2000056916A (ja) ハンドポインティング装置
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
CN101989150A (zh) 手势辨识方法以及使用该方法的触控系统
JP2015060295A (ja) 入力装置
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP5118663B2 (ja) 情報端末装置
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
JP2022188689A (ja) 空間入力システム
CN102902419A (zh) 混合式指向装置
TW201305853A (zh) 混合式指向裝置
HK1173522A (en) Remote control of computer devices
HK1173522B (en) Remote control of computer devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130108

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5241786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250