[go: up one dir, main page]

JP2010278624A - 撮影装置および方法、並びにプログラム - Google Patents

撮影装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2010278624A
JP2010278624A JP2009127667A JP2009127667A JP2010278624A JP 2010278624 A JP2010278624 A JP 2010278624A JP 2009127667 A JP2009127667 A JP 2009127667A JP 2009127667 A JP2009127667 A JP 2009127667A JP 2010278624 A JP2010278624 A JP 2010278624A
Authority
JP
Japan
Prior art keywords
subject
image
face
detected
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009127667A
Other languages
English (en)
Inventor
Atsushi Murayama
淳 村山
Takefumi Nagumo
武文 名雲
Ken Tamayama
研 玉山
Kazuki Aisaka
一樹 相坂
Tatsuo Fujiwara
達雄 藤原
Masatoshi Yokokawa
昌俊 横川
Takashi Kyo
山 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009127667A priority Critical patent/JP2010278624A/ja
Publication of JP2010278624A publication Critical patent/JP2010278624A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】被写体がより最適な位置にあるときに撮影する。
【解決手段】撮影部31は、画像を撮影し、顔検出部53は、撮影部31によって撮影された画像において、被写体を検出し、記録制御部57は、顔検出部53によって検出された被写体の位置が、画像において所定位置にある場合、画像の記録を制御し、表示制御部58または音声出力制御部59は、顔検出部53によって検出された被写体の位置が、画像において所定位置にない場合、被写体の位置が所定位置となるように移動する指示を提示する。本発明は、例えば、撮影機能を有する電子機器に適用することができる。
【選択図】図1

Description

本発明は、撮影装置および方法、並びにプログラムに関し、特に、被写体がより最適な位置にあるときに撮影することができるようにする撮影装置および方法、並びにプログラムに関する。
従来、デジタルカメラ等の撮影装置によって撮影された画像に対して、撮影後に、被写体が最適な位置になるように補正する様々な技術が提案されている。
例えば、撮影済み原画像データを内蔵メモリより読み出し、原画像の被写体を検出し、3分割法の4つの交点に被写体が配置されるようにトリミングを行う画像編集装置がある(特許文献1参照)。
特開2007−295203号公報
しかしながら、上述した構成では、撮影者は、撮影時に、被写体が最適な位置になるようにして撮影することはない。
本発明は、このような状況に鑑みてなされたものであり、特に、被写体がより最適な位置にあるときに撮影するようにするものである。
本発明の一側面の撮影装置は、画像を撮影する撮影手段と、前記撮影手段によって撮影された前記画像において、被写体を検出する被写体検出手段と、前記被写体検出手段によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御手段と、前記被写体検出手段によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示手段とを備える。
前記被写体検出手段には、前記被写体としての人物の顔を検出させ、前記記録制御手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示させることができる。
前記記録制御手段には、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にない場合、複数の前記顔のそれぞれの位置がそれぞれの前記所定位置となるように移動する指示を提示させることができる。
複数の前記所定位置は、前記顔の数に応じたテンプレートによって決定されるようにできる。
前記撮影装置には、前記被写体検出手段によって検出された前記顔に基づいて、前記被写体の年齢を検出する年齢検出手段をさらに設け、前記記録制御手段には、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示させることができる。
前記撮影装置には、前記被写体検出手段によって検出された複数の前記顔に基づいて、複数の前記顔に対応する前記被写体の性別を検出する性別検出手段をさらに設け、前記記録制御手段には、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より近い場合、前記画像の記録を制御させ、前記提示手段には、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より遠い場合、前記異性の前記被写体の顔同士の位置が所定の距離より近い位置となるように移動する指示を提示させることができる。
前記撮影装置には、前記被写体検出手段によって検出された前記顔に基づいて、前記顔の表情を検出する表情検出手段をさらに設け、前記記録制御手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にあり、かつ、前記表情検出手段によって検出された前記顔の表情が笑顔である場合、前記画像の記録を制御させることができる。
前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、前記被写体に提示させることができる。
前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、撮影者に提示させることができる。
前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の表示を制御させることができる。
前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置を前記所定位置に移動する指示の音声による出力を制御させることができる。
本発明の一側面の撮影方法は、画像を撮影する撮影ステップと、前記撮影ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示ステップとを含む。
本発明の一側面のプログラムは、画像の撮影を制御する撮影制御ステップと、前記撮影制御ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示の提示を制御する提示制御ステップと含む処理をコンピュータに実行させる。
本発明の一側面においては、画像が撮影され、撮影された画像において、被写体が検出され、検出された被写体の位置が、画像において所定位置にある場合、画像の記録が制御され、検出された被写体の位置が、画像において所定位置にない場合、被写体の位置が所定位置となるように移動する指示が提示される。
本発明の一側面によれば、被写体がより最適な位置にあるときに撮影することが可能となる。
本発明を適用した撮影装置の一実施の形態の構成例を示すブロック図である。 撮影装置による撮影処理について説明するフローチャートである。 撮影された被写体の画像について説明する図である。 テンプレートについて説明する図である。 テンプレートについて説明する図である。 テンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影装置による他の撮影処理について説明するフローチャートである。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影装置によるさらに他の撮影処理について説明するフローチャートである。 撮影された被写体の画像における被写体の位置について説明する図である。 撮影された被写体の画像における被写体の位置について説明する図である。 撮影された被写体の画像における被写体の位置について説明する図である。 撮影装置によるさらに他の撮影処理について説明するフローチャートである。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。 撮影された被写体の画像とテンプレートについて説明する図である。
以下、本発明の実施の形態について図を参照して説明する。
[撮影装置の構成例]
図1は、本発明を適用した撮影装置の一実施の形態の構成例を示している。図1の撮影装置11は、例えば、デジタルカメラや携帯電話機等の、撮影機能を有する電子機器である。
図1の撮影装置11は、撮影部31、入力部32、記録部33、表示部34、音声出力部35、制御部36、ドライブ37、およびリムーバブルメディア38から構成される。
撮影部31は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)センサ等の光学的な画像を電気信号に変換する光電変換素子、および、光電変換素子に被写体の光学的な画像を結像させる光学系等からなる。撮影部31は、制御部36の制御に基づいて、被写体の画像を電気信号である画像信号に変換し、すなわち、被写体を撮影し、得られた画像信号を、制御部36に供給する。
入力部32は、撮影装置11に対する指示を入力するためにユーザに操作される。入力部32は、例えば、各種の操作ボタン、キーボード、マウス、リモコン、タッチパネル、マイクロホンなどから構成され、ユーザからの操作を受け付け、その操作内容を示す信号(情報)を制御部36に供給する。
記録部33は、ハードディスクドライブ、所定のドライブに駆動されるDVD(Digital Versatile Disk)などの光ディスクおよびそのドライブ、またはメモリカードなどの半導体メモリなどからなる。記録部33は、例えば、撮影部31において撮影された被写体の画像を記録する。
表示部34は、LCD(Liquid Crystal Display)または有機EL(Electro Luminescence)などの表示デバイスからなり、制御部36の制御に基づいて、各種の画像を表示する。
音声出力部35は、いわゆるスピーカにより構成され、制御部36の制御に基づいて、各種の音声を出力する。
制御部36は、例えば、マイクロプロセッサなどからなり、撮影装置11全体を制御する。例えば、制御部36は、撮影部31からの画像信号に所定の処理を施し、所定の条件に基づいて、得られた画像データを記録部33に供給し、記録させる。
制御部36は、コンピュータプログラムを実行することにより、撮影制御部51、画像処理部52、顔検出部53、属性検出部54、入力制御部55、条件判定部56、記録制御部57、表示制御部58、および音声出力制御部59を実現する。
撮影制御部51は、入力制御部55からの信号(情報)に基づいて、撮影部31による被写体の撮影を制御する。撮影制御部51は、撮影部31から供給される画像信号から画像データを生成し、生成した画像データを画像処理部52に供給する。
画像処理部52は、撮影制御部51からの画像データ(以下、単に、画像ともいう)に、適宜、所定の処理を施して、必要に応じて、顔検出部53、記録制御部57、および表示制御部58に供給する。
顔検出部53は、画像処理部52から供給された画像から顔を検出し、顔を検出する領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、顔検出領域の位置を表す情報とともに、属性検出部54に供給する。また、顔検出部53は、顔検出領域の位置を表す情報を、条件判定部56に供給する。
属性検出部54は、顔検出部53からの顔画像から、被写体の属性(表情、年齢、性別)を検出し、被写体の属性についての情報を、条件判定部56に供給する。属性検出部54は、表情検出部54a、年齢検出部54b、および性別検出部54cを備えている。表情検出部54aは、顔検出部53からの顔画像から、被写体の顔の表情を検出する。年齢検出部54bは、顔検出部53からの顔画像から、被写体の年齢を検出する。性別検出部54cは、顔検出部53からの顔画像から、被写体の性別を検出する。
なお、顔検出部による顔の検出、および、属性検出部54による属性の検出は、例えば、様々な顔画像について、顔画像とその属性を予め学習しておき、得られた学習データを記録部33に記録させた上で、記録制御部57を介して取得することで実現される。
入力制御部55は、入力部32を制御し、ユーザの操作に応じた、入力部32からのユーザの操作を示す信号を取得し、撮影制御部51および条件判定部56に供給する。
条件判定部56は、入力制御部55からの信号に応じて、顔検出部53からの顔検出領域の位置を表す情報や、属性検出部54からの被写体の顔の属性についての情報に基づいて、顔検出領域の位置や被写体の顔の属性が、所定の条件を満たしているか否かを判定する。条件判定部56は、判定の結果に応じて、記録制御部57に対して画像の記録を指示したり、表示制御部58に所定の条件を満たすための表示を指示するか、または、音声出力制御部59に所定の条件を満たすための音声の出力を指示する。
記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。
表示制御部58は、画像処理部52からの画像を表示部34に表示させる他、条件判定部56からの指示に基づいて、所定の条件を満たすための表示を表示部34に行わせる。
音声出力制御部59は、条件判定部56からの指示に基づいて、所定の条件を満たすための音声を音声出力部35に出力させる。
ドライブ37には、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブルメディア38が適宜装着される。ドライブ37は、制御部36に制御されて、装着されているリムーバブルメディア38から読み出されたコンピュータプログラムやデータを、必要に応じて記録部33にインストールするか記憶させる。
[撮影装置の撮影処理]
次に、図2のフローチャートを参照して、撮影装置11による撮影処理について説明する。
撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちの集合写真撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。
ステップS11において、撮影部31は、撮影制御部51の制御に基づいて、被写体の画像を電気信号である画像信号に変換し、すなわち、被写体を撮影し、得られた画像信号を、撮影制御部51に供給する。撮影制御部51は、撮影部31からの画像信号から画像データを生成し、画像処理部52に供給する。画像処理部52は、撮影制御部51からの画像データを、顔検出部53および表示制御部58に供給する。このとき、表示制御部58は、画像処理部52からの画像データに基づいて、表示部34に、撮影されている被写体の画像(いわゆるスルー画)を表示させる。
ステップS12において、顔検出部53は、画像処理部52からの被写体の画像において、顔を検出し、顔検出領域の位置および大きさに基づいて顔画像を抽出して、属性検出部54に供給する。また、顔検出部53は、顔検出領域の位置を表す情報を、属性検出部54および条件判定部56に供給する。
例えば、画像処理部52からの画像が、図3に示されるように、人物である被写体A1乃至A3が撮影されている画像である場合、顔検出部53は、被写体A1乃至A3の3人それぞれの顔を検出し、それぞれの顔画像を属性検出部54に供給する。また、顔検出部53は、被写体A1乃至A3の3人それぞれの顔についての顔検出領域の位置を表す情報を、属性検出部54および条件判定部56に供給する。
ステップS13において、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報を基に、検出された顔の数を求め、その数に応じたテンプレートを、記録制御部57を介して、記録部33から読み出す。
条件判定部56によって読み出されるテンプレートは、集合写真において、被写体の数に応じた、被写体の顔の配置が最適となる位置(以下、指定位置という)を決定するためのデータである。例えば、図3に示されたように、被写体が3人である場合、条件判定部56は、図4に示されるようなテンプレートを、記録部33から読み出す。図4のテンプレートにおいては、被写体3人の集合写真に対して、被写体A1乃至A3の指定位置P1乃至P3が決定されている。条件判定部56が読み出したテンプレートを表示制御部58に供給することで、表示部34には、被写体のスルー画に、図4に示されるようなテンプレートが重畳して表示される。
なお、例えば、被写体が5人である場合には、条件判定部56は、図5に示されるようなテンプレートを記録部33から読み出す。図5においては、被写体5人の集合写真に対して、指定位置P1乃至P5が決定される。また、例えば、被写体が11人である場合には、条件判定部56は、図6に示されるようなテンプレートを記録部33から読み出す。図6においては、被写体11人の集合写真に対して、指定位置P1乃至P11が決定される。
図2のフローチャートに戻り、ステップS14において、条件判定部56は、撮影した画像における被写体の顔の位置と、テンプレートにおける指定位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、顔検出領域の中心の座標を求め、テンプレートにおける指定位置の中心の座標との距離を算出する。
ステップS15において、条件判定部56は、撮影した画像における被写体の顔の位置が、テンプレートにおける指定位置にあるか否かを判定する。より具体的には、条件判定部56は、ステップS14において算出した顔検出領域の中心の座標と、テンプレートにおける指定位置の中心の座標との距離が、所定の距離より近いか否かを判定する。
ステップS15において、被写体の顔の位置が指定位置にあると判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より近い場合、処理は、ステップS16に進む。すなわち、例えば、図7に示されるように、被写体A1の顔の位置が指定位置P1にあり、被写体A2の顔の位置が指定位置P2にあり、被写体A3の顔の位置が指定位置P3にある場合、処理は、ステップS16に進む。
ステップS16において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS12において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、顔検出領域を表す位置とともに、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、対応する位置にある被写体の顔の表情が笑顔であるか否かを判定する。
ステップS16において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS15に戻り、被写体の顔の表情が笑顔になるまで、ステップS15,S16の処理が繰り返される。
一方、ステップS16において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS17に進む。
ステップS17において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、被写体の顔の位置が指定位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。
ところで、ステップS15において、被写体の顔の位置が指定位置にないと判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS18に進む。すなわち、例えば、図8に示されるように、被写体A1の顔の位置が指定位置P1の左側にずれてあり、被写体A2の顔の位置が指定位置P2の左側にずれてあり、被写体A3の顔の位置が指定位置P3の右側にずれてある場合、処理は、ステップS18に進む。
ステップS18において、表示制御部58は、それぞれの被写体の顔の位置がそれぞれの指定位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、被写体の顔の位置が指定位置となるようにする(顔検出領域の中心の座標と指定位置の中心の座標との距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための表示を表示部34に行わせる。例えば、図8で説明したように、被写体の顔の位置が指定位置にない場合には、表示制御部58は、図9に示されるように、被写体A1については図中右側に、被写体A2については図中右側に、被写体A3については図中左側に、それぞれ移動するように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。
また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、被写体の顔の位置が指定位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための音声を音声出力部35に出力させる。例えば、図8で説明したように、被写体の顔の位置が指定位置にない場合には、音声出力制御部59は、被写体A1に対しては「向かって左側の人、もう少し左手に寄ってください」、被写体A2に対しては「真ん中の人、もう少し左手に寄ってください」、被写体A3に対しては「向かって右側の人、もう少し右手に寄ってください」と、それぞれ移動するように音声を出力させることで、被写体に対する移動の指示を提示する。
ステップS18の後、処理はステップS15に戻り、被写体の顔の位置が指定位置にあると判定されるまで、ステップS15,S18の処理が繰り返される。
以上の処理によれば、集合写真の撮影時に、被写体の数に応じたテンプレートを読み出して、それぞれの被写体の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。
以上においては、被写体の顔の数に応じた指定位置に被写体の顔があるときに撮影する処理について説明したが、被写体の年齢、例えば、被写体が赤ちゃんである場合に撮影するようにすることもできる。
[撮影装置の他の撮影処理]
次に、図10のフローチャートを参照して、赤ちゃんを撮影するときの赤ちゃん撮影モードにおける、撮影装置11の撮影処理について説明する。
撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちの赤ちゃん撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。
図10のフローチャートにおいて、ステップS31,S32の処理は、図2のフローチャートのステップS11,S12の処理と同様であるので、その説明は省略する。
ステップS33において、属性検出部54の年齢検出部54bは、顔検出部53からの顔画像から被写体の年齢を検出し、被写体の年齢を表す情報を、条件判定部56に供給する。
ステップS34において、条件判定部56は、年齢検出部54bからの被写体の年齢を表す情報に基づいて、赤ちゃんの顔が存在するか否かを判定する。より具体的には、条件判定部56は、年齢検出部54bからの被写体の年齢を表す情報から、年齢が所定の年齢の範囲(例えば、0歳乃至3歳)に含まれている被写体が存在するか否かを判定する。
ステップS34において、赤ちゃんの顔が存在すると判定された場合、処理は、ステップS35に進み、条件判定部56は、赤ちゃん撮影モードに対応したテンプレートを、記録制御部57を介して、記録部33から読み出す。ここで読み出されるテンプレートは、赤ちゃんの顔の位置を画像の中央に配置させるためのデータである。赤ちゃんが撮影されたシーンの画像においては、赤ちゃんは中央に写っていることが比較的多く、赤ちゃん撮影モードで用いられるテンプレートにおいては、画像の中央に指定位置が決定されている。
ステップS36において、条件判定部56は、撮影した画像における被写体(赤ちゃん)の顔の位置と、テンプレートにおける指定位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、顔検出領域の中心の座標を求め、テンプレートにおける指定位置の中心の座標との距離を算出する。
ステップS37において、条件判定部56は、撮影した画像における被写体(赤ちゃん)の顔の位置が、テンプレートにおける指定位置にあるか否かを判定する。より具体的には、条件判定部56は、ステップS36において算出した顔検出領域の中心の座標と、テンプレートにおける指定位置の中心の座標との距離が、所定の距離より近いか否かを判定する。
ステップS37において、被写体の顔の位置が指定位置にあると判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より近い場合、処理は、ステップS38に進む。すなわち、例えば、図11に示されるように、被写体A4が被写体Mに抱きかかえられているシーンが撮影されている画像であって、被写体A4が赤ちゃんであると判定された画像において、被写体A4の顔の位置が指定位置P4にある場合、処理は、ステップS38に進む。
ステップS38において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS32において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、顔検出領域の位置を表す情報とともに、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、対応する位置にある被写体の顔の表情が笑顔であるか否かを判定する。
ステップS38において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS37に戻り、被写体の顔の表情が笑顔になるまで、ステップS37,S38の処理が繰り返される。
一方、ステップS38において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS39に進む。
ステップS39において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、赤ちゃんである被写体の顔の位置が指定位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。
ところで、ステップS37において、被写体の顔の位置が指定位置にないと判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS40に進む。すなわち、例えば、図12に示されるように、被写体A4の顔の位置が指定位置P4の左側にずれてある場合、処理は、ステップS40に進む。
ステップS40において、表示制御部58は、被写体の顔の位置が指定位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、被写体の顔の位置が指定位置となるようにする(顔検出領域の中心の座標と指定位置の中心の座標との距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための表示を表示部34に行わせる。例えば、図12で説明したように、被写体の顔の位置が指定位置にない場合には、表示制御部58は、図13に示されるように、被写体A4を抱きかかえている被写体Mが被写体A4を図中右側に移動するように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。
また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、被写体の顔の位置が指定位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための音声を音声出力部35に出力させる。例えば、図12で説明したように、被写体の顔の位置が指定位置にない場合には、音声出力制御部59は、被写体A4を抱きかかえている被写体Mに対して、「赤ちゃんをもう少し左手に持ってきてください」と音声を出力させることで、被写体に対する移動の指示を提示する。
ステップS40の後、処理はステップS37に戻り、被写体の顔の位置が指定位置にあると判定されるまで、ステップS37,S40の処理が繰り返される。
また、ステップS34において、赤ちゃんの顔が存在しないと判定された場合、条件判定部56は、例えば、「赤ちゃんはいません」等の表示を表示部34に行わせる指示を、表示制御部58に供給して、処理は終了する。
なお、図11乃至図13を参照した説明では、赤ちゃんである被写体は1人であるものとしたが、複数であってもよく、赤ちゃんの数に応じた指定位置を決定するテンプレートを用いて撮影するようにすることもできる。
以上の処理によれば、赤ちゃんの撮影時に、赤ちゃんの撮影に応じたテンプレートを読み出して、被写体(赤ちゃん)の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。
以上においては、被写体の顔がテンプレートで決定される指定位置にあるときに撮影する処理について説明したが、被写体同士が所定の位置関係にある場合に撮影するようにすることもできる。
[撮影装置のさらに他の撮影処理]
次に、図14のフローチャートを参照して、男女ペアのカップルを撮影するときのカップル撮影モードにおける、撮影装置11の撮影処理について説明する。
撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちのカップル撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。
図14のフローチャートにおいて、ステップS51,S52の処理は、図2のフローチャートのステップS11,S12の処理と同様であるので、その説明は省略する。
ステップS53において、属性検出部54の性別検出部54cは、顔検出部53からの顔画像から被写体の性別を検出し、被写体の性別を表す情報を、条件判定部56に供給する。
ステップS54において、条件判定部56は、性別検出部54cからの被写体の性別を表す情報に基づいて、男性の顔と女性の顔のそれぞれが存在するか否かを判定する。
ステップS54において、男性の顔と女性の顔のそれぞれが存在すると判定された場合、処理は、ステップS55に進み、条件判定部56は、撮影した画像における男性の顔の位置と女性の顔の位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、それぞれの顔検出領域の中心の座標を求め、男性の顔の顔検出領域の中心の座標と、女性の顔の顔検出領域の中心の座標との距離を算出する。例えば、男女2人ずつ計4人が撮影されている画像においては、男性1人の顔の顔検出領域の中心の座標と、女性2人それぞれの顔の顔検出領域の中心の座標との距離が算出される。また、同様にして、女性1人の顔の顔検出領域の中心の座標と、男性2人それぞれの顔の顔検出領域の中心の座標との距離が算出される。
ステップS56において、条件判定部56は、撮影した画像における男女それぞれの顔の位置が、所定の距離より近いか否かを判定する。より具体的には、例えば、男女2人ずつ計4人が撮影されている場合、条件判定部56は、ステップS55において算出した男女それぞれの顔検出領域の中心の座標間の距離のうち、より距離の近い男女ペア(カップル)間の顔検出領域の中心の座標の距離が、所定の距離より近いか否かを判定する。
ステップS56において、男女それぞれの顔の位置が所定の距離より近いと判定された場合、処理は、ステップS57に進む。すなわち、例えば、図15に示されるように、被写体B1乃至B4が撮影されている画像であって、被写体B1,B3が男性、被写体B2,B4が女性であると判定された画像において、被写体B1の顔検出領域Q1の中心の座標と被写体B2の顔検出領域Q2の中心の座標との距離、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離がそれぞれ所定の距離より近い場合、処理は、ステップS57に進む。
ステップS57において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS52において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、被写体の顔の表情が笑顔であるか否かを判定する。
ステップS57において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS56に戻り、被写体の顔の表情が笑顔になるまで、ステップS56,S57の処理が繰り返される。
一方、ステップS57において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS58に進む。
ステップS58において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、男女ペアのカップルである被写体の顔同士の位置がお互いに近い位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。
ところで、ステップS56において、男女それぞれの顔の位置が所定の距離より近くないと判定された場合、処理は、ステップS59に進む。すなわち、例えば、図16に示されるように、被写体B1の顔検出領域Q1の中心の座標と被写体B2の顔検出領域Q2の中心の座標との距離は所定の距離より近いものの、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS59に進む。
ステップS59において、表示制御部58は、男女それぞれの顔の位置が所定の距離より近い位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、男女それぞれの顔の位置が所定の距離より近い位置となるようにする(男女それぞれの顔検出領域の中心の座標間の距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための表示を表示部34に行わせる。例えば、図16で説明したように、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離が所定の距離より近い位置にない場合には、表示制御部58は、図17に示されるように、被写体B3,B4それぞれについて、お互い近づくように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。
また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための音声を音声出力部35に出力させる。例えば、図16で説明したように、男女それぞれの顔の位置が所定の距離より近い位置にない場合には、音声出力制御部59は、被写体B3,B4それぞれに対して、「向かって右側のカップル、もう少し近づいて下さい」と音声を出力させることで、被写体に対する移動の指示を提示する。
ステップS59の後、処理はステップS56に戻り、男女それぞれの顔の位置が所定の距離より近い位置にあると判定されるまで、ステップS56,S59の処理が繰り返される。
また、ステップS54において、男性の顔と女性の顔のそれぞれが存在しないと判定された場合、条件判定部56は、例えば、「カップルはいません」等の表示を表示部34に行わせる指示を、表示制御部58に供給して、処理は終了する。
なお、図15乃至図17を参照した説明では、被写体が男女2人ずつ計4人で、2組のカップルを撮影するものとしたが、例えば、男性1人女性2人であった場合には、より近い男女ペアをカップルとして、1組のカップルと女性1人を撮影するようにしてもよいし、位置関係として、女性2人の間に男性1人がいる場合には、女性2人それぞれを男性1人に近づけるように移動させて撮影するようにしてもよい。
以上の処理によれば、カップルの撮影時に、男女の顔の位置が、所定の距離より近い位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。
以上においては、被写体の顔の位置が所定の位置となるように移動する指示を、(撮影者を介して)被写体に提示する処理について説明してきたが、被写体の顔の位置が所定の位置となるように移動する指示を、撮影者自身に提示させるようにもできる。
[撮影装置のさらに他の撮影処理]
次に、図18のフローチャートを参照して、被写体の顔の位置を所定の位置に移動する指示を撮影者に提示する、撮影装置11の撮影処理について説明する。
なお、図18のフローチャートにおいて、ステップS71乃至S77の処理は、図2のフローチャートのステップS11乃至S17の処理と同様であるので、その説明は省略する。
すなわち、ステップS78において、表示制御部58は、それぞれの被写体の顔の位置がそれぞれの指定位置となるように移動する指示を撮影者に提示する。
より具体的には、条件判定部56は、例えば、被写体を撮影した画像における、それぞれの顔検出領域の中心の座標から、対応する指定位置の中心の座標へのベクトルの水平方向成分(水平方向ベクトル)を求める。条件判定部56は、それぞれの水平方向ベクトルの向きが同じである場合、すなわち、それぞれの被写体の顔の位置が、対応する指定位置からそれぞれ水平方向に同じ向きにずれてある場合、それぞれの水平方向ベクトルの平均ベクトルを求め、その平均ベクトルが0になるようにするための表示を、表示制御部58に指示する。表示制御部58は、条件判定部56からの指示に基づいて、平均ベクトルが0になるようにするための表示(すなわち、被写体の顔の位置が指定位置となるようにするための表示)を表示部34に行わせる。例えば、図19に示されるように、被写体A11の顔の位置が指定位置P11の左側にずれてあり、同様に、被写体A12の顔の位置が指定位置P12の左側にずれてある場合、表示制御部58は、図20に示されるように、撮影者に対する、「左へ移動して下さい」というコメントとともに矢印を表示させることで、撮影者に対する移動の指示を提示する。
また、条件判定部56は、求めたそれぞれの水平方向ベクトルの向きが異なる場合、すなわち、それぞれの被写体の顔の位置が、対応する指定位置からそれぞれ水平方向に異なる向きにずれてある場合、画像の中心に向かう水平方向ベクトルが多いか、画像の外側に向かう水平方向ベクトルが多いかに応じて、撮影者に対する移動を指示する表示を、表示制御部58に指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置になるようにするための表示を表示部34に行わせる。例えば、図21に示されるように、被写体A11の顔の位置が指定位置P11の左側にずれてあり、被写体A12の顔の位置が指定位置P12の右側にずれてある場合、画像の中心に向かう水平方向ベクトルが多くなり、表示制御部58は、図22に示されるように、撮影者に対する、「後ろへ移動して下さい」というコメントとともに矢印を表示させることで、撮影者に対する移動の指示を提示する。また、図示はしないが、画像の外側に向かう水平方向ベクトルが多い場合には、表示制御部58は、撮影者に対する、「前へ移動して下さい」というコメントとともに矢印を表示させる。
なお、ステップS78においても、撮影者への移動の指示は、表示によるものでなく、音声による撮影者への指示であってもよい。例えば、図19で説明したような場合には、音声出力制御部59は、撮影者に対して「撮影者は左へ動いて下さい」と、また、図21で説明したような場合には、撮影者に対して「撮影者は後ろへ動いて下さい」と、音声を出力させることで、撮影者に対する移動の指示を提示する。
このように、撮影装置11は、被写体の位置関係に基づいて、撮影者に対して移動の指示を提示することで、被写体の顔の位置を、相対的にテンプレートの指定位置に移動するようにできる。
以上の処理によれば、被写体の撮影時に、被写体の数に応じたテンプレートを読み出して、それぞれの被写体の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。
なお、図18乃至図22を参照して説明した処理では、被写体が2人であったが、3人以上の場合には、撮影者に対する移動の指示に加えて、被写体に対する移動の指示を提示することで、被写体の顔の位置をテンプレートの指定位置に移動させることができる。
さらに、撮影モードが、赤ちゃん撮影モードやカップル撮影モードである場合にも、必要に応じて、撮影者に対する移動の指示の提示を適用したり、撮影者と被写体に対する移動の指示の提示を適用することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図1に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア38、または、プログラムが一時的もしくは永続的に格納される記録部33としてのROMやRAMを構成するハードディスクなどにより構成される。プログラム記憶媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである図示せぬ通信部を介して、ネットワーク、ローカルエリアネットワーク、インターネット、デジタル衛生放送といった、有線または無線の通信媒体を利用して行われる。
また、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 撮影装置, 31 撮影部, 33 記録部, 34 表示部, 35 音声出力部, 36 制御部, 51 撮影制御部, 53 顔検出部, 54 属性検出部, 54a 表情検出部, 54b 年齢検出部, 54c 性別検出部, 56 条件判定部, 57 記録制御部, 58 表示制御部, 59 音声出力制御部

Claims (13)

  1. 画像を撮影する撮影手段と、
    前記撮影手段によって撮影された前記画像において、被写体を検出する被写体検出手段と、
    前記被写体検出手段によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御手段と、
    前記被写体検出手段によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示手段と
    を備える撮影装置。
  2. 前記被写体検出手段は、前記被写体としての人物の顔を検出し、
    前記記録制御手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にある場合、前記画像の記録を制御し、
    前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示する
    請求項1に記載の撮影装置。
  3. 前記記録制御手段は、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にある場合、前記画像の記録を制御し、
    前記提示手段は、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にない場合、複数の前記顔のそれぞれの位置がそれぞれの前記所定位置となるように移動する指示を提示する
    請求項2に記載の撮影装置。
  4. 複数の前記所定位置は、前記顔の数に応じたテンプレートによって決定される
    請求項3に記載の撮影装置。
  5. 前記被写体検出手段によって検出された前記顔に基づいて、前記被写体の年齢を検出する年齢検出手段をさらに備え、
    前記記録制御手段は、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にある場合、前記画像の記録を制御し、
    前記提示手段は、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示する
    請求項2に記載の撮影装置。
  6. 前記被写体検出手段によって検出された複数の前記顔に基づいて、複数の前記顔に対応する前記被写体の性別を検出する性別検出手段をさらに備え、
    前記記録制御手段は、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より近い場合、前記画像の記録を制御し、
    前記提示手段は、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より遠い場合、前記異性の前記被写体の顔同士の位置が所定の距離より近い位置となるように移動する指示を提示する
    請求項2に記載の撮影装置。
  7. 前記被写体検出手段によって検出された前記顔に基づいて、前記顔の表情を検出する表情検出手段をさらに備え、
    前記記録制御手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にあり、かつ、前記表情検出手段によって検出された前記顔の表情が笑顔である場合、前記画像の記録を制御する
    請求項2に記載の撮影装置。
  8. 前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、前記被写体に提示する
    請求項2に記載の撮影装置。
  9. 前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、撮影者に提示する
    請求項2に記載の撮影装置。
  10. 前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の表示を制御する
    請求項2に記載の撮影装置。
  11. 前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の音声による出力を制御する
    請求項2に記載の撮影装置。
  12. 画像を撮影する撮影ステップと、
    前記撮影ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、
    前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、
    前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示ステップと
    を含む撮影方法。
  13. 画像の撮影を制御する撮影制御ステップと、
    前記撮影制御ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、
    前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、
    前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示の提示を制御する提示制御ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2009127667A 2009-05-27 2009-05-27 撮影装置および方法、並びにプログラム Pending JP2010278624A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009127667A JP2010278624A (ja) 2009-05-27 2009-05-27 撮影装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009127667A JP2010278624A (ja) 2009-05-27 2009-05-27 撮影装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2010278624A true JP2010278624A (ja) 2010-12-09

Family

ID=43425192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009127667A Pending JP2010278624A (ja) 2009-05-27 2009-05-27 撮影装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2010278624A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211719A (ja) * 2012-03-30 2013-10-10 Nikon Corp デジタルカメラ
JP2019023846A (ja) * 2017-07-21 2019-02-14 テイク エイト インコーポレイテッド プログラム、撮影方法及び端末
US10868956B2 (en) 2015-08-24 2020-12-15 Samsung Electronics Co., Ltd. Picture-taking technique for self-photography using device having camera and device therefor
JP2021082972A (ja) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269562A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 撮影装置
JP2007006325A (ja) * 2005-06-27 2007-01-11 Nikon Corp 撮像装置
JP2007020105A (ja) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp 撮像装置、撮像方法及び撮像プログラム
JP2008206027A (ja) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd 撮像装置及びレンズ鏡筒
JP2008245093A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp デジタルカメラ、デジタルカメラの制御方法及び制御プログラム
JP2009065577A (ja) * 2007-09-10 2009-03-26 Ricoh Co Ltd 撮像装置および撮像方法
JP2009100284A (ja) * 2007-10-17 2009-05-07 Fujifilm Corp 撮像装置及び撮像制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269562A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 撮影装置
JP2007006325A (ja) * 2005-06-27 2007-01-11 Nikon Corp 撮像装置
JP2007020105A (ja) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp 撮像装置、撮像方法及び撮像プログラム
JP2008206027A (ja) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd 撮像装置及びレンズ鏡筒
JP2008245093A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp デジタルカメラ、デジタルカメラの制御方法及び制御プログラム
JP2009065577A (ja) * 2007-09-10 2009-03-26 Ricoh Co Ltd 撮像装置および撮像方法
JP2009100284A (ja) * 2007-10-17 2009-05-07 Fujifilm Corp 撮像装置及び撮像制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211719A (ja) * 2012-03-30 2013-10-10 Nikon Corp デジタルカメラ
US10868956B2 (en) 2015-08-24 2020-12-15 Samsung Electronics Co., Ltd. Picture-taking technique for self-photography using device having camera and device therefor
JP2019023846A (ja) * 2017-07-21 2019-02-14 テイク エイト インコーポレイテッド プログラム、撮影方法及び端末
JP2021082972A (ja) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
JP4720810B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP4442330B2 (ja) 電子カメラ、及び電子カメラシステム
CN102469244B (zh) 用于对被摄体进行连续摄像的摄像装置
US20110234854A1 (en) Information processing apparatus, information processing method, and program
KR101537948B1 (ko) 얼굴 포즈 추정을 이용한 촬영 방법 및 장치
US20100053363A1 (en) Photographing method and apparatus
JP2011066873A (ja) 撮像装置及び画像処理装置
US20100123816A1 (en) Method and apparatus for generating a thumbnail of a moving picture
JP2007028536A (ja) デジタルカメラ
TW201246119A (en) Face detector, image pickup device, and face detecting method
JP2012249175A (ja) 撮像装置、表示方法およびプログラム
JP7005324B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2009124340A (ja) 撮像装置、撮影支援方法、及び撮影支援プログラム
JP2009284235A (ja) 撮像装置
KR20110102694A (ko) 얼굴검출을 이용한 디지털 촬영 장치, 상기 디지털 촬영 장치의 제어 방법 및 컴퓨터 판독가능 기록매체.
CN103327228A (zh) 图像处理设备和方法以及程序
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置
CN103037156B (zh) 图像处理装置以及图像处理方法
CN101141565A (zh) 图像处理装置和图像处理方法、计算机程序及摄像装置
JP2010278624A (ja) 撮影装置および方法、並びにプログラム
JP5206422B2 (ja) 構図選択装置及びプログラム
JP2007251429A (ja) 動画撮影装置及びズーム調整方法
JP2013183185A (ja) 撮像装置、撮影制御方法及びプログラム
JP2007299297A (ja) 画像合成装置およびその制御方法
JP2020115679A (ja) 物体検出装置、検出制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130611