JP2014048680A - 情報システム - Google Patents
情報システム Download PDFInfo
- Publication number
- JP2014048680A JP2014048680A JP2012188463A JP2012188463A JP2014048680A JP 2014048680 A JP2014048680 A JP 2014048680A JP 2012188463 A JP2012188463 A JP 2012188463A JP 2012188463 A JP2012188463 A JP 2012188463A JP 2014048680 A JP2014048680 A JP 2014048680A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- unit
- subject
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Abstract
【解決手段】自動車のダッシュボート上の左右方向について中央の位置に後方向を撮影するように配置した赤外カメラ1で撮影した画像に写り込んだユーザの手のジェスチャーを認識する。また、当該画像より、手の中心点301と、腕の幅方向についての中央点302とを算定し、腕の中央点302が手の中心点301よりもユーザ側から見て左側となる位置にある場合にはジェスチャーの主体が助手席のユーザであると判定し、ユーザ側から見て右側となる位置にあれば入力開始ジェスチャーの主体が運転席のユーザであると判定する。
【選択図】図3
Description
ここで、以上の情報システムは、当該情報システムに、さらに、表示装置と、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを設け、前記参照画像表示部において、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示するように構成してもよい。
また、以上の情報システムは、当該情報システムに、さらに、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部を設け、前記制御部において、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないように構成してもよい。
また、本発明は、併せて、前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラと、表示装置とを備えた情報システムであって、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを備えた情報システムも提供する。ここで、前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示するものである。
また、本発明は、併せて、前方を向いて左右に並んだ二人のユーザの前方に、後方を撮影するように配置されたカメラを備えた情報システムであって、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部とを備えた情報システムを提供する。但し、前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないものである。
なお、以上の各情報システムは自動車に搭載されたものであってよく、前記二人のユーザを、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザとし、前記カメラを、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置するようにしてもよい。
図1aに、本実施形態に係る情報システムの構成を示す。
ここで、情報システムは、自動車に搭載されるシステムであり、当該情報システムは、たとえば、AVシステムやナビゲーションシステムなどを構成するものである。
そして、情報システムは、図示するように赤外カメラ1、赤外カメラ1で撮影した画像を格納する画像メモリ2、ジェスチャー認識部3、表示装置4、表示装置4に表示する画像を格納する表示メモリ5、制御装置6、1つまたは複数の周辺装置7を備えている。
ただし、このような情報システムは、CPUやメモリを備えたコンピュータを用いて構成されるものであってよく、この場合、制御装置6やジェスチャー認識部3などは、コンピュータが所定のコンピュータプログラムを実行することにより実現されるものであってよい。
また、赤外カメラ1は、図1bに示すように、表示装置4の上部の、左右方向について中央の位置に、後方を撮影するように配置される。
また、後方を向いた赤外カメラ1で撮影した画像は、左右方向をユーザから見た左右方向に合わせるために、左右を反転して画像メモリ2に格納される。
次に、ジェスチャー認識部3は、当該ジェスチャー認識部3において認識対象とする手のジェスチャーの種別が予め登録されており、ジェスチャー認識部3は、画像メモリ2に格納された画像が表す赤外カメラ1の撮影映像より手のジェスチャーの種別を認識し、認識したジェスチャーの種別を認識ジェスチャーとして制御装置6に出力する。
図2に、ジェスチャー入力受付処理の手順を示す。
図示するように、この処理では、まず、ジェスチャー入力待機モードをジェスチャー認識部3に設定する(ステップ202)。
ジェスチャー認識部3は、ジェスチャー入力待機モードが設定されている期間中には、入力開始ジェスチャーとして予め定めた種別のジェスチャーのみを認識対象としてジェスチャーの認識を行い、入力開始ジェスチャーを認識できたときに、認識ジェスチャーとして入力開始ジェスチャーを制御装置6に出力する。
ジェスチャー認識部3は、ジェスチャー入力モードが設定されている期間中には、予め登録されている認識対象とする手のジェスチャーの種別の全てを認識対象としてジェスチャーの認識を行い、認識したジェスチャーの種別を認識ジェスチャーとして制御装置6に入力する。
ここで、入力開始ジェスチャーの主体の判定は次のように行う。
すなわち、まず、画像メモリ2から、ジェスチャー認識部3が入力開始ジェスチャーを認識した画像を取得する。
そして、図3a、bに示すような取得した画像中に含まれる手の映像の、手の中心点301と、腕の幅方向についての中央点302とを算定する。
ここで、運転席は右座席であり、助手席は左座席であるものして、撮影された手が赤外カメラ1の左側に位置する助手席のユーザの手であれば腕は手より左にあり、撮影された手が赤外カメラ1の右側に位置する運転席のユーザの手であれば腕は手より右にあることとなる。
そこで、手の中心点301より腕の中央点302が左にある場合には、入力開始ジェスチャーの主体が助手席のユーザであると判定し、手の中心点301より腕の中央点302が右にあれば入力開始ジェスチャーの主体が運転席のユーザであると判定する。
ここで、手の中心点301の算定は、様々な手法で行うことができ、図3c1に示すように、ジェスチャー認識部3で手と認識した画像領域311の重心を手の中心点301としたり、図3c2に示すように、ジェスチャー認識部3で手のひらと認識した画像領域312、すなわち、手と認識した画像領域から指と認識した画像領域を除いた画像領域312の重心を手の中心点301としたりすることができる。
さて、図2に戻り、以上のようにして、入力開始ジェスチャーの主体が運転席のユーザであるのか、助手席のユーザであるのかを判定したならば、(ステップ208)、入力開始ジェスチャーの主体が運転席のユーザであれば(ステップ210)、ステップ212以降の処理に進み、入力開始ジェスチャーの主体が助手席のユーザであれば(ステップ210)、ステップ232以降の処理に進む、
そして、入力開始ジェスチャーの主体が運転席のユーザであると判定されてステップ212に進んだならば、図4aに示すように、表示装置4の表示画面の運転席側(ユーザから見て右側)の位置に撮影画像表示ウインドウ402を小画面状に配置し、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始する。
ここで、ジェスチャー入力モード解除イベントは、予め定められたイベントであり、所定期間以上の新たな認識ジェスチャーの入力の発生無しや、ジェスチャー入力を介してユーザと対話的に応じて行う一連の処理シーケンス(たとえば、ナビゲーションシステムにおける目的地設定処理シーケンスの終了や、AVシステムにおける再生コンテンツの指定受付処理シーケンスの終了など)の発生などをジェスチャー入力モード解除イベントとして用いる。
また、ステップ210で、入力開始ジェスチャーの主体が助手席のユーザであると判定されてステップ232に進んだ場合には、図4bに示すように、表示装置4の表示画面の助手席側(ユーザから見て左側)の位置に撮影画像表示ウインドウ402を小画面状に配置し、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始する。
そして、ジェスチャー認識部3からの新たな認識ジェスチャーの入力が発生したならば(ステップ236)、上述のようにジェスチャー認識部3が認識したジェスチャーの主体を判定し(ステップ240)、主体が助手席のユーザでなければ(ステップ242)、ステップ236、238の監視に戻り、ジェスチャーの主体が助手席のユーザであれば、入力した認識ジェスチャーで受け付ける操作として予め定めておいた操作を受け付け、受け付けた操作に応じた処理を行って(ステップ244)、ステップ236、238の監視に戻る。
以上、制御装置6が行うジェスチャー入力受付処理について説明した。
さて、ここで、以上のジェスチャー入力受付処理のステップ212、232で、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始するのは、ユーザが、以降のジェスチャーを、赤外カメラ1に適正に手が写り込む位置で行えるようにするためである。このように、赤外カメラ1で撮影された画像を表示することにより、たとえば、手を左右に動かすジェスチャーをスクロール操作として受け付けるような場合に、ジェスチャー中にしだいに手が赤外カメラ1に適正に手が写り込む位置からずれていってしまうことなどを抑制することができる。
なお、図4cは、入力開始ジェスチャーの主体、すなわち、以降のジェスチャーを行うユーザが運転席のユーザである場合を、図4dは、入力開始ジェスチャーの主体、すなわち、以降のジェスチャーを行うユーザが助主席のユーザである場合を示している。
すなわち、まず、画像メモリ2をFIFO形式とすることなどにより、画像メモリ2に常の過去十秒程度の間の赤外カメラ1で撮影された画像が常に蓄積されているようにする。そして、ジェスチャー認識部3でジェスチャーを認識しときに、ジェスチャーを認識した手が、過去において、左右のいずれ側から赤外カメラ1の撮影範囲内に登場しているかを画像メモリ2に格納されている過去の撮影画像を用いて調べ、図5aに示すように右から登場している場合には主体は運転席のユーザであると判定し、図5bに示すように左から登場している場合には主体は助手席のユーザであると判定するようにする。
なお、以上の実施形態は、赤外カメラ1に代えて、可視光用のカメラを用いるようにしてもよい。
また、以上の実施形態は、任意の情報システムにおいて、左右に並んだ二人のユーザからジェスチャー入力を受け付ける場合にも同様に適用することができる。
Claims (15)
- 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えた情報システムであって、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーが写り込んでいる画像を対象画像として、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定する判定部と、
前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が右側のユーザであると特定し、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも左側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部とを有することを特徴とする情報システム。 - 請求項1記載の情報システムであって、
前記判定部は、前記対象画像に写り込んでいる手の中心から、当該対象画像に写り込んでいる腕の幅方向の中央の点に向かう方向の角度に基づいて、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定することを特徴とする情報システム。 - 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えた情報システムであって、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識された手のジェスチャーが写り込んでいる画像以前に前記カメラに撮影された画像に基づいて、当該ジェスチャーが認識された手が前記カメラの撮影範囲に右側から登場したか左側から登場したかを調べ、右側から登場している場合には、当該ジェスチャーを行った主体が右側のユーザであると特定し、左側から登場している場合には、当該ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部とを有することを特徴とする情報システム。 - 請求項1、2または3記載の情報システムであって、
表示装置と、
前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを有し、
前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とする情報システム。 - 請求項1、2、3または4記載の情報システムであって、
入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部とを有し、
前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とする情報システム。 - 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラと、表示装置とを備えた情報システムであって、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、
前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを有し、
前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とする情報システム。 - 前方を向いて左右に並んだ二人のユーザの前方に、後方を撮影するように配置されたカメラを備えた情報システムであって、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、
入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部とを有し、
前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とする情報システム。 - 請求項1、2、3、4、5、6または7記載の情報システムであって、
当該情報システムは自動車に搭載されており、
前記二人のユーザは、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザであり、
前記カメラは、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置されていることを特徴とする情報システム。 - 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
前記コンピュータを、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーが写り込んでいる画像を対象画像として、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定する判定部と、
前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が右側のユーザであると特定し、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも左側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部として機能させることを特徴とするコンピュータプログラム。 - 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えたカメラを備えたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
前記コンピュータを、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識された手のジェスチャーが写り込んでいる画像以前に前記カメラに撮影された画像に基づいて、当該ジェスチャーが認識された手が前記カメラの撮影範囲に右側から登場したか左側から登場したかを調べ、右側から登場している場合には、当該ジェスチャーを行った主体が右側のユーザであると特定し、左側から登場している場合には、当該ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部として機能させることを特徴とするコンピュータプログラム。 - 表示装置を備えた、請求項9または10記載のコンピュータプログラムであって、
当該コンピュータプログラムは前記コンピュータを、さらに、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部として機能させ、
当該参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とするコンピュータプログラム。 - 請求項9、10または11記載のコンピュータプログラムであって、
当該コンピュータプログラムは前記コンピュータを、さらに、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部として機能させ、
当該制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とするコンピュータプログラム。 - 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
当該コンピュータプログラムは、前記コンピュータを、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、
前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部として機能させ、
前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とするコンピュータプログラム。 - 前方を向いて左右に並んだ二人のユーザの前方に、後方を撮影するように配置されたカメラを備えたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
当該コンピュータプログラムは、前記コンピュータを、
前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、
入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部として機能させ、
前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とするコンピュータプログラム。 - 請求項9、10、11、12、13または14記載のコンピュータプログラムであって、
前記コンピュータは自動車に搭載されており、
前記二人のユーザは、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザであり、
前記カメラは、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置されていることを特徴とするコンピュータプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012188463A JP5916566B2 (ja) | 2012-08-29 | 2012-08-29 | 情報システム |
| US13/889,038 US8922483B2 (en) | 2012-08-29 | 2013-05-07 | Information system having centrally located camera and gesture recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012188463A JP5916566B2 (ja) | 2012-08-29 | 2012-08-29 | 情報システム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014048680A true JP2014048680A (ja) | 2014-03-17 |
| JP5916566B2 JP5916566B2 (ja) | 2016-05-11 |
Family
ID=50186831
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012188463A Active JP5916566B2 (ja) | 2012-08-29 | 2012-08-29 | 情報システム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US8922483B2 (ja) |
| JP (1) | JP5916566B2 (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016095614A (ja) * | 2014-11-13 | 2016-05-26 | ソフトバンク株式会社 | 表示制御装置及びプログラム |
| JP2016148898A (ja) * | 2015-02-10 | 2016-08-18 | 範宏 青柳 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
| JP2017510875A (ja) * | 2014-01-22 | 2017-04-13 | エルジー イノテック カンパニー リミテッド | ジェスチャー装置、その動作方法及びこれを備えた車両 |
| JP2017111711A (ja) * | 2015-12-18 | 2017-06-22 | 本田技研工業株式会社 | 車両用操作装置 |
| US10067570B2 (en) | 2014-06-30 | 2018-09-04 | Clarion Co., Ltd. | Non-contact operation detection device |
| KR20200113154A (ko) * | 2019-03-15 | 2020-10-06 | 엘지전자 주식회사 | 차량 제어 장치 |
| JP2020184147A (ja) * | 2019-05-07 | 2020-11-12 | コーデンシ株式会社 | ジェスチャ認識装置及びジェスチャ認識装置用プログラム |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5805503B2 (ja) * | 2011-11-25 | 2015-11-04 | 京セラ株式会社 | 携帯端末、表示方向制御プログラムおよび表示方向制御方法 |
| JP5882270B2 (ja) * | 2013-08-29 | 2016-03-09 | 東芝テック株式会社 | 情報処理装置、プログラム |
| KR101537936B1 (ko) * | 2013-11-08 | 2015-07-21 | 현대자동차주식회사 | 차량 및 그 제어방법 |
| KR20150062317A (ko) * | 2013-11-29 | 2015-06-08 | 현대모비스 주식회사 | 자동차의 통합 멀티미디어 장치 |
| CN104700132A (zh) * | 2015-03-20 | 2015-06-10 | 周立成 | 机动车和驾驶员管理识别方法 |
| KR20170052976A (ko) * | 2015-11-05 | 2017-05-15 | 삼성전자주식회사 | 모션을 수행하는 전자 장치 및 그 제어 방법 |
| DE102016001314B4 (de) | 2016-02-05 | 2017-10-12 | Audi Ag | Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug |
| JP6776067B2 (ja) * | 2016-09-05 | 2020-10-28 | 東芝テック株式会社 | 操作入力装置及びプログラム |
| CN106778670A (zh) * | 2016-12-30 | 2017-05-31 | 上海集成电路研发中心有限公司 | 手势识别装置及识别方法 |
| US20190180883A1 (en) * | 2017-12-11 | 2019-06-13 | Teletracking Technologies, Inc. | Milestone detection sensing |
| CN107998670A (zh) * | 2017-12-13 | 2018-05-08 | 哈尔滨拓博科技有限公司 | 基于平面手势识别的遥控玩具控制系统 |
| JP2019139633A (ja) * | 2018-02-14 | 2019-08-22 | 京セラ株式会社 | 電子機器、移動体、プログラムおよび制御方法 |
| WO2020003914A1 (ja) * | 2018-06-26 | 2020-01-02 | 京セラ株式会社 | 電子機器、移動体、プログラムおよび制御方法 |
| CN110850975B (zh) * | 2018-11-08 | 2024-03-19 | 英属开曼群岛商麦迪创科技股份有限公司 | 具有手掌辨识的电子系统、车辆及其操作方法 |
| EP4281946A1 (en) * | 2021-01-25 | 2023-11-29 | Sony Semiconductor Solutions Corporation | Electronic device, method and computer program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006522397A (ja) * | 2003-03-10 | 2006-09-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | マルチビュー・ディスプレイ |
| JP2009184551A (ja) * | 2008-02-07 | 2009-08-20 | Panasonic Corp | 車載機器入力装置 |
| JP2009252105A (ja) * | 2008-04-09 | 2009-10-29 | Denso Corp | プロンプター式操作装置 |
| JP2012121386A (ja) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | 車載装置 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6868383B1 (en) * | 2001-07-12 | 2005-03-15 | At&T Corp. | Systems and methods for extracting meaning from multimodal inputs using finite-state devices |
| JP3863809B2 (ja) | 2002-05-28 | 2006-12-27 | 独立行政法人科学技術振興機構 | 手の画像認識による入力システム |
| US7770136B2 (en) * | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
| JP2009294843A (ja) | 2008-06-04 | 2009-12-17 | Tokai Rika Co Ltd | 操作者判別装置及び操作者判別方法 |
| US20110199292A1 (en) * | 2010-02-18 | 2011-08-18 | Kilbride Paul E | Wrist-Mounted Gesture Device |
| JP2011204019A (ja) | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
-
2012
- 2012-08-29 JP JP2012188463A patent/JP5916566B2/ja active Active
-
2013
- 2013-05-07 US US13/889,038 patent/US8922483B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006522397A (ja) * | 2003-03-10 | 2006-09-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | マルチビュー・ディスプレイ |
| JP2009184551A (ja) * | 2008-02-07 | 2009-08-20 | Panasonic Corp | 車載機器入力装置 |
| JP2009252105A (ja) * | 2008-04-09 | 2009-10-29 | Denso Corp | プロンプター式操作装置 |
| JP2012121386A (ja) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | 車載装置 |
Non-Patent Citations (1)
| Title |
|---|
| JPN6016002391; 添石幸憲ほか: 'ロボットハンド制御のための手指形状推定' 電子情報通信学会技術研究報告 第101巻,第154号, 20010622, 第21〜25ページ(NC2001-25), 社団法人電子情報通信学会 * |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017510875A (ja) * | 2014-01-22 | 2017-04-13 | エルジー イノテック カンパニー リミテッド | ジェスチャー装置、その動作方法及びこれを備えた車両 |
| US10067570B2 (en) | 2014-06-30 | 2018-09-04 | Clarion Co., Ltd. | Non-contact operation detection device |
| JP2016095614A (ja) * | 2014-11-13 | 2016-05-26 | ソフトバンク株式会社 | 表示制御装置及びプログラム |
| JP2016148898A (ja) * | 2015-02-10 | 2016-08-18 | 範宏 青柳 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
| JP2017111711A (ja) * | 2015-12-18 | 2017-06-22 | 本田技研工業株式会社 | 車両用操作装置 |
| KR20200113154A (ko) * | 2019-03-15 | 2020-10-06 | 엘지전자 주식회사 | 차량 제어 장치 |
| KR102272309B1 (ko) * | 2019-03-15 | 2021-07-05 | 엘지전자 주식회사 | 차량 제어 장치 |
| US11314976B2 (en) | 2019-03-15 | 2022-04-26 | Lg Electronics Inc. | Vehicle control device |
| JP2020184147A (ja) * | 2019-05-07 | 2020-11-12 | コーデンシ株式会社 | ジェスチャ認識装置及びジェスチャ認識装置用プログラム |
| JP7179334B2 (ja) | 2019-05-07 | 2022-11-29 | コーデンシ株式会社 | ジェスチャ認識装置及びジェスチャ認識装置用プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20140062858A1 (en) | 2014-03-06 |
| JP5916566B2 (ja) | 2016-05-11 |
| US8922483B2 (en) | 2014-12-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5916566B2 (ja) | 情報システム | |
| CN113330395B (zh) | 一种多屏交互的方法、装置、终端设备和车辆 | |
| US20240249520A1 (en) | Integrated internal and external camera system in vehicles | |
| US11112900B2 (en) | Method and apparatus for controlling vehicular user interface under driving condition | |
| US9613459B2 (en) | System and method for in-vehicle interaction | |
| EP3018629B1 (en) | Imaging system | |
| JP6347211B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
| US20150015479A1 (en) | Mobile terminal and control method thereof | |
| CN110992327A (zh) | 镜头脏污状态的检测方法、装置、终端及存储介质 | |
| CN113994312A (zh) | 通过手势识别和控制设备运行移动终端的方法、手势识别和控制设备、机动车及可佩戴在头上的输出装置 | |
| US20140152549A1 (en) | System and method for providing user interface using hand shape trace recognition in vehicle | |
| US9983407B2 (en) | Managing points of interest | |
| JP6210234B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
| CN103870802A (zh) | 使用指谷操作车辆内的用户界面的系统和方法 | |
| US20210012632A1 (en) | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not | |
| CN112540739B (zh) | 一种投屏方法及系统 | |
| KR20130107697A (ko) | 내비게이션 단말기의 배경 화면 표시 장치 및 방법 | |
| JPWO2014050432A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
| US10771707B2 (en) | Information processing device and information processing method | |
| CN112749590A (zh) | 目标检测方法、装置、计算机设备和计算机可读存储介质 | |
| JP6589796B2 (ja) | ジェスチャ検出装置 | |
| WO2016074487A1 (zh) | 一种具有行车记录功能的导航装置、终端和方法 | |
| CN112991790A (zh) | 提示用户的方法、装置、电子设备及介质 | |
| CN119975216B (zh) | 车内异响的检测方法、装置、车辆和存储介质 | |
| JP2015020677A (ja) | 画像認識装置、ジェスチャ入力装置及びコンピュータプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150227 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160120 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160229 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160405 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5916566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |