[go: up one dir, main page]

JP2011095985A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2011095985A
JP2011095985A JP2009249012A JP2009249012A JP2011095985A JP 2011095985 A JP2011095985 A JP 2011095985A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2011095985 A JP2011095985 A JP 2011095985A
Authority
JP
Japan
Prior art keywords
hand
unit
face
operator
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009249012A
Other languages
English (en)
Inventor
静二 ▲高▼野
Seiji Takano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009249012A priority Critical patent/JP2011095985A/ja
Publication of JP2011095985A publication Critical patent/JP2011095985A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】撮像画像に基づくユーザの操作指示に係るコマンドの誤認識を防止する。
【解決手段】画像を表示する表示部4と、前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部5と、前記操作者により反射された赤外光を撮像する撮像部14と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部18と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部26と、前記手検出領域において前記操作者の手を検出する手検出部28と、前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部32と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部13とを備える。
【選択図】図3

Description

本発明は、画像表示装置に関するものである。
ユーザを撮像するカメラを備え、カメラにより撮像された撮像画像に基づいてユーザの操作指示に係るコマンドを認識する画像表示装置が知られている(例えば、特許文献1参照)。この画像表示装置においては、ユーザがカメラに対して手を振ったことをトリガとしてコマンド認識を開始している。
特開2009−75685号公報
しかし、この画像表示装置においては、コマンド認識に係るトリガとなるユーザの手の動作を撮像画像全体において常に観察しなければならずユーザの操作指示に係るコマンド認識処理にかかる負荷が大きかった。また、特に暗所にあってはトリガであるユーザの手の動作を誤認識する虞があった。
本発明の目的は、撮像画像に基づくユーザの操作指示に係るコマンドの誤認識を防止することができる画像表示装置を提供することである。
本発明の画像表示装置は、画像を表示する表示部と、前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、前記操作者により反射された赤外光を撮像する撮像部と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、前記手検出領域において前記操作者の手を検出する手検出部と、前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部とを備えることを特徴とする。
本発明の画像表示装置によれば、ユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減しつつ、暗所においてもコマンドの誤認識を防止することができる。
本発明の第1の実施の形態に係るDPFの前面を示す図である。 本発明の第1の実施の形態に係るDPFの背面を示す図である。 本発明の第1の実施の形態に係るDPFのシステム構成を示すブロック図である。 本発明の第1の実施の形態に係るDPFの手検出領域を説明するための図である。 本発明の第1の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。 本発明の第2の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。
以下、図面を参照して本発明の第1の実施の形態に係る画像表示装置についてデジタルフォトフレーム(以下、DPFという。)を例に説明する。図1は、第1の実施の形態に係るDPFの前面を示す図であり、図2は背面を示す図である。DPF2の前面には、画像や時刻等の情報を電気的に表示するLCD等により構成される表示部4、表示部4に表示される画像を鑑賞するユーザに対して赤外光を射出する赤外線LED5、ユーザにより反射された赤外光を撮像する撮像レンズ6が設けられている。また、DPF2の背面には、DPF2を設置するために用いられる支持部材8が設けられている。
図3は、第1の実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2はCPU12を備え、CPU12には、赤外線LED5、後述するコマンドに基づいて表示部4の表示態様を制御する表示制御部13、被写体により反射され撮像レンズ6を介した赤外光を撮像する撮像素子等を備える撮像部14、撮像部14により撮像された撮像画像を所定のフレーム数または所定時間分記憶するメモリ16、撮像画像のデータから特徴点や特定の形状等を抽出することにより顔認識データを生成しユーザの顔を検出する顔検出部18、顔認識データから検出した顔の面積を算出する顔面積算出部20、検出した顔の検出時間を計測する検出時間計測部22、検出した顔の動作速度を検出する顔動作検出部24、検出した顔の位置を基準にしてユーザの手を検出するための手検出領域を設定する手検出領域設定部26、設定した手検出領域において特徴点や特定の形状等を抽出することによりユーザの手を検出する手検出部28、検出した手の撮像画像における面積を算出する手面積算出部30、手検出領域において検出したユーザの手の動作、形状または位置を認識する手動作認識部32、所定の手の動作、形状または位置に対応付けて操作指示に係るコマンドを記憶する手動作記憶部34、表示部4に表示する画像や情報を記憶するメモリカード36が接続されている。ここで、撮像部14はモノクロの撮像素子を備えることにより被写体により反射された赤外線を撮像する。
図4は、第1の実施の形態に係るDPFの手検出領域を説明するための図である。撮像画像40において顔検出部18によりユーザの顔38が検出されると、検出された顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。従って、手検出部28は、手検出領域42内にある手44の検出を行うが、手検出領域42外にある手46の検出は行わない。また、矢印48で示すように手検出領域42は、顔の動作に合わせて移動する。
次に、図5に示すフローチャートを参照して第1の実施の形態に係るDPFのコマンド認識処理について説明する。赤外線LED5によりDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対して赤外光の射出を行い(ステップS1)、撮像部14により被写体光に含まれる赤外光の撮像を行うと(ステップS2:Y)、所定フレーム数または所定時間分の撮像画像データをメモリ16に記憶する(ステップS3)。撮像部14による撮像が行われない場合には(ステップS2:N)、撮像が行われるまで待機する。
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS4)。顔が検出された場合には、ステップS5〜S9に示す操作意思判定条件に合致するか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。即ち、操作意思判定条件を満たすことをトリガとして、顔が検出された人物をユーザとして判定する。一方、顔が検出されなかった場合には、ステップS1の処理に戻る。
なお、複数の人物の顔が検出された場合には、DPF2に最も近い距離に位置する人物の顔を検出してもよいし、予め登録された人物を検出してもよい。DPFに最も近い距離に位置する人物の顔を検出する場合には、例えば、赤外線LED5により赤外光が射出されてから被写体により反射され、DPF2の撮像部14において受光するまでの時間を計測することにより、DPF2と人物の顔との距離を求めてもよい。
ステップS4において顔が検出された場合には、操作意思判定条件として、まず、顔検出部18により検出された顔の位置が特定領域にあるか否かを判定する(ステップS5)。ここで、例えば顔の位置が画像の中央付近である場合には、顔の位置が特定領域にあると判定する。一方、顔の検出位置が画像の端である場合には、顔の位置が特定領域外にあると判定する。顔の位置が特定領域にない場合には(ステップS5:N)、ステップS1の処理に戻る。
顔の位置が特定領域にある場合には(ステップS5:Y)、ステップS6の処理に進み、次の操作意思判定条件に合致するか否かを判定する。即ち、顔面積算出部20により算出された撮像画像における顔の面積が所定の面積以上を占めるか否かを判定する(ステップS6)。所定の面積以上占める場合には、顔が検出された人物にDPF2を操作する意思があると判断し、ステップS10の処理に進む。
一方、検出された顔面積が画像において所定の面積以下である場合には(ステップS6:N)、検出時間測定部22により測定される顔検出時間が所定時間以上であるか否かを判定する(ステップS7)。顔検出時間が所定時間以上である場合、即ち、ユーザが表示部4を所定時間以上連続して見ている場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。
一方、顔検出時間が所定時間以下である場合には(ステップS7:N)、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する(ステップS8)。所定速度以下である場合には顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。
一方、顔の動作速度が所定速度以上である場合には(ステップS8:N)、顔面積算出部20により算出された撮像画像における顔面積及び手面積算出部30により算出された撮像画像における手面積を用いて顔面積と手面積の比を算出し、面積比が所定の範囲にあるか否かを判定する(ステップS9)。面積比が所定の範囲にある場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。一方、顔と手の面積比が所定の範囲内にない場合には(ステップS9:N)、処理を終了する。
ステップS5〜S9の処理において顔が検出された人物にDPF2を操作する意思があると判断された場合には、顔が検出された人物をユーザと判定し、ユーザの手を検出するための手検出領域を設定する(ステップS10)。このとき、図4に示すようにユーザの顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ11:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状または位置を解析する(ステップS12)。特に限定されるものではないが、手の形状、位置を解析する場合は、例えば、撮影画像の1フレームを解析し、また、動作を解析する場合は、複数フレームの解析をする。なお、手検出領域42内で手が複数検出された場合には、DPF2に距離が最も近い手の動作、形状または位置を解析してもよいし、手面積算出部30により算出された手面積が最も大きい手の動作、形状または位置を解析してもよい。
解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS13:Y)、認識された手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS14)。例えば、手を左から右へ動かす動作である場合には、画像送りを実行する。また、手を開いた状態から閉じる動作である場合には電源をオフする処理を実行する。また、手のひらをDPF2に対して向けた状態で近づけると表示部4に表示されている画像の拡大、遠ざけると画像の縮小を実行する。なお、DPF2が表示部4による表示を行わずに撮像部14による撮像を行うスリープ状態において、手を閉じた状態から開く動作をした場合にスリープ状態から起動状態に回復する処理を実行してもよい。なお、手の動作、形状または位置だけでなく、例えば、両腕を交差させ×印が形成された場合には電源をオフする処理を実行してもよい。なお、ステップS13の処理のあと、メモリ16に記憶された所定フレーム数または所定時間分の撮像画像データは削除してもよい。
また、ステップS11において手が検出されなかった場合、ステップS13において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS1の処理に戻る。
本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。
また、人物の顔を検出し、検出された顔が特定領域にあることを条件として操作意思判定を行うため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができる。
また、手検出領域内で手が検出されない場合には手動作認識を行わないため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができ、ユーザ以外の手の動作等の認識によるユーザの意図しないDPFの動作を防ぐことができる。
また、赤外光を撮像するため暗所においてもユーザの操作指示に係るコマンド認識を行うことができる。また、赤外光を撮像するためモノクロカメラで構成することもでき、製造コストを下げることが可能である。
なお、上述の実施の形態においては、顔検出部18により検出された人物が複数である場合には1の人物について操作意思判定を行う構成としたが、検出された複数の人物全てについて操作意思判定を行い、操作意思が認められる人物について手検出領域を設定し手の検出を行う構成としてもよい。
次に図面を参照して本発明の第2の実施の形態に係るDPFのコマンド認識処理について説明する。第1の実施の形態においてはコマンド認識処理を所定のフレーム数または所定時間分の撮像画像について行う構成としたが、この第2の実施の形態においては、手が検出された後は手を追尾してコマンド認識処理を行う構成に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。
図6は、第2の実施の形態に係るコマンド認識処理を示すフローチャートである。赤外線LED5によるDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対する赤外光の射出を開始し(ステップS21)、撮像部14による被写体光に含まれる赤外光の撮像を開始すると(ステップS22:Y)、撮像画像データのメモリ16への記憶を開始する(ステップS23)。撮像部14による撮像が開始されない場合には(ステップS22:N)、撮像が開始されるまで待機する。
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS24)。顔が検出された場合には、ステップS25〜S29に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。一方、顔が検出されなかった場合には、顔が検出されるまで待機する。
ステップS25〜S30に示す処理は図5のフローチャートのステップS5〜S10に示す処理と同様であるため説明は省略する。なお、ステップS25において顔の位置が特定領域にない場合及びステップS29において顔と手の面積比が所定の範囲内にない場合には、ステップS24の処理に戻り新たな撮像画像データについて顔が検出された否かの判定を行う。
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ31:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS32)。解析した手の動作が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS33:Y)、手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS34)。
また、ステップS31において手が検出されなかった場合、ステップS33において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS35に示す処理に進む。
次に、操作意思判定条件の全てを満たさなくなったか否かを判定し(ステップS35)、操作意思判定条件を満たさない場合には処理を終了する。即ち、i)ユーザの顔が特定領域にあることを満たさない場合には撮像を停止し(ステップS36)、処理を終了する。また、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件の何れをも満たさない場合には、撮像を停止し(ステップS36)、処理を終了する。一方、上述の顔検出条件i)を満たしかつ、ii)〜v)の何れかを満たす場合には、ステップS31に戻り、新たな撮像画像データについて手が検出されたか否かを判定し処理を継続する。
本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。
また、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行い、さらに一旦顔検出を行った後は顔検出を行わないため、ユーザの操作指示に係るコマンド認識にかかる負荷を軽減することができる。また、ステップS35で手が検出されなかった場合に処理を終了してもよい。
なお、上述の各実施の形態においては手を検出し手の動作、形状または位置を解析する構成を例に説明したが、図7に示すように肘や肩等の支点を検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に±aピクセル、Y軸方向に−bピクセルの支点検出領域50を設定する。支点検出領域50に例えば支点である肘52があり、かつ、手検出領域42に手44がある場合にのみ手検出部28は手の検出を行い、手動作認識部32は手の動作、形状または位置の解析を行う。従って、高精度に手の検出を行うことができる。また、暗所においても高精度にユーザの操作指示に係るコマンド認識を行うことができる。また、この場合においても矢印48,52に示すように顔38の動きに合わせて手検出領域42及び支点検出領域50は移動する。
また、図8に示すようにユーザの右手または左手の一方の動きのみを検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に+aピクセルまたは−aピクセル、Y軸方向に−bピクセルの点を手検出領域56の中心位置58とする。ここで、図8においては、ユーザの右手を検出する場合を例として人物の顔38を基準にX軸方向に−aピクセル、Y軸方向に−bピクセルの点を中心位置58としている。そして、中心位置58を基準にX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域56を設定する。従って、一方の手の動作、形状また位置のみを検出することができ、手の動作、形状または位置の誤検出によるユーザの望まないDPF2の動作を防ぐことができる。また、矢印60に示すように手検出領域56は、顔38の動きに合わせて移動する。
また、上述の各実施の形態においては、操作意思判定としてi)ユーザの顔が特定領域にあることを満たし、かつ、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件のうち1つを満たせば操作意思があるものとする構成としたが、i)〜v)の操作意思判定条件のうち予め定められた所定数の条件を満たした場合に操作意思があるものと判定する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たした場合に操作意思があるものと判定する構成としてもよい。また、例えばi)を満たす場合等、i)〜v)の操作意思判定条件のうち何れか1つを満たす場合に操作意思があるものと判定する構成としてもよい。
また、同様に上述の実施の形態におけるコマンド認識処理の終了条件として上述のi)を満たさない場合、または、ii)〜v)の何れをも満たさない場合にコマンド認識処理を終了する構成したが、i)〜v)の条件をすべて満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。また、これらのうち予め定められた所定数の条件を満たさなくなった場合にコマンド認識処理を終了する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。
2…DPF、4…表示部、5…赤外線LED、12…CPU、13…表示制御部、14…撮像部、16…メモリ、18…顔検出部、20・・・顔面積算出部、26…手検出領域設定部、28…手検出部、30…手面積算出部、32…手動作認識部、34…手動作記憶部

Claims (5)

  1. 画像を表示する表示部と、
    前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、
    前記操作者により反射された赤外光を撮像する撮像部と、
    前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、
    前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、
    前記手検出領域において前記操作者の手を検出する手検出部と、
    前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、
    前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部と
    を備えることを特徴とする画像表示装置。
  2. 前記手検出領域設定部は、前記顔検出部による検出結果に基づいて、前記操作者の手を検出するための手検出領域を設定するか否かを判定することを特徴とする請求項1記載の画像表示装置。
  3. 前記操作者の手の動作、形状又は位置を所定の操作指示と対応付けて記憶する記憶部を備え、
    前記コマンド認識部が、前記操作者の手の動作、形状又は位置が前記記憶部に記憶されている前記手の動作、形状又は位置であると認識する場合には、前記表示制御部は、前記手の動作、形状又は位置に対応付けられた操作指示を実行することを特徴とする請求項1又は2に記載の画像表示装置。
  4. 前記顔検出部は、前記手検出領域設定部による前記操作者の手を検出するための前記手検出領域が設定された場合には、前記操作者の顔の検出を停止することを特徴とする請求項1〜3の何れか一項に記載の画像表示装置。
  5. 前記顔検出部により検出された前記操作者の前記撮像画像における顔の面積を算出する顔面積算出部と、
    前記手検出部により検出された前記操作者の前記撮像画像における手の面積を算出する手面積算出部と、
    前記顔の面積と前記手の面積とを比較する面積比較部と
    を備え、
    前記手検出領域設定部は、前記面積比較部における比較結果に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像表示装置。
JP2009249012A 2009-10-29 2009-10-29 画像表示装置 Pending JP2011095985A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249012A JP2011095985A (ja) 2009-10-29 2009-10-29 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249012A JP2011095985A (ja) 2009-10-29 2009-10-29 画像表示装置

Publications (1)

Publication Number Publication Date
JP2011095985A true JP2011095985A (ja) 2011-05-12

Family

ID=44112823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249012A Pending JP2011095985A (ja) 2009-10-29 2009-10-29 画像表示装置

Country Status (1)

Country Link
JP (1) JP2011095985A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
JP2013190925A (ja) * 2012-03-13 2013-09-26 Nikon Corp 入力装置、及び表示装置
JP2013200654A (ja) * 2012-03-23 2013-10-03 Yahoo Japan Corp 表示制御装置、表示制御方法、情報表示システム及びプログラム
WO2013175844A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
JP2013242889A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置
KR20150033182A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
JP2013190925A (ja) * 2012-03-13 2013-09-26 Nikon Corp 入力装置、及び表示装置
JP2013200654A (ja) * 2012-03-23 2013-10-03 Yahoo Japan Corp 表示制御装置、表示制御方法、情報表示システム及びプログラム
JP2013242889A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置
WO2013175844A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
JP2013246514A (ja) * 2012-05-23 2013-12-09 Toshiba Corp 情報処理装置、情報処理方法、およびプログラム
US20130342448A1 (en) * 2012-05-23 2013-12-26 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program product
KR20150033182A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
KR101641091B1 (ko) 2013-09-23 2016-07-20 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법

Similar Documents

Publication Publication Date Title
US8831282B2 (en) Imaging device including a face detector
CN100545733C (zh) 成像设备、成像设备的控制方法以及计算机程序
US10659681B2 (en) Information processing apparatus, information processing method, and program
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
JP2011095985A (ja) 画像表示装置
KR101590334B1 (ko) 영상 촬영 장치 및 그 제어방법
US8648960B2 (en) Digital photographing apparatus and control method thereof
JP4730478B2 (ja) 撮像装置、および撮像装置制御方法、並びにプログラム
JP2013214858A (ja) 撮像装置、撮像装置の制御方法およびコンピュータプログラム
JP2009295031A (ja) 画像投影装置及びその制御方法
JP2009199049A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP2013012941A (ja) 追尾装置、追尾方法及び追尾プログラム
JP5254897B2 (ja) 手画像認識装置
JP5360406B2 (ja) 画像表示装置
JP6866467B2 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
EP2690859B1 (en) Digital photographing apparatus and method of controlling same
US12470818B2 (en) Imaging apparatus, imaging control method, and imaging control program with modes for focus control and tracking processing
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
KR20100091844A (ko) 촬상 장치 및 촬상 방법
JP5109853B2 (ja) 電子カメラ
JP4732299B2 (ja) 特定被写体像の検出方法およびデジタルカメラ
TW202114396A (zh) 攝像裝置、攝像控制方法及攝像控制程式
JP2013061988A (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP2012120003A (ja) 撮影装置、撮影装置における制御方法及びその制御プログラム
JP2009267824A (ja) 撮影装置