[go: up one dir, main page]

JP2011035634A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2011035634A
JP2011035634A JP2009179550A JP2009179550A JP2011035634A JP 2011035634 A JP2011035634 A JP 2011035634A JP 2009179550 A JP2009179550 A JP 2009179550A JP 2009179550 A JP2009179550 A JP 2009179550A JP 2011035634 A JP2011035634 A JP 2011035634A
Authority
JP
Japan
Prior art keywords
image
view
shooting angle
cpu
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009179550A
Other languages
English (en)
Other versions
JP2011035634A5 (ja
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009179550A priority Critical patent/JP2011035634A/ja
Publication of JP2011035634A publication Critical patent/JP2011035634A/ja
Publication of JP2011035634A5 publication Critical patent/JP2011035634A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物の顔と別の被写体を同一の撮影画角内に含めて撮影することが可能な画像処理装置を提供すること。
【解決手段】画像処理装置は、スルー画像51について、複数の特徴量マップ52Fc,52Fh,52Fs統合した顕著性マップ53Sを用いて、注目点領域54,55を推定する(ステップSa)。画像処理装置は、スルー画像51から、顔検出領域56を検出する(ステップSb)。画像処理装置は、顔検出領域56、及び、注目点領域54,55が同一の撮影画角内に入るように、ズーム倍率や撮影画角の範囲を調整する(ステップSc)。これにより、撮影画像58Tが得られる。
【選択図】図2

Description

本発明は、画像処理装置及び方法に関し、特に、人物の顔と別の被写体とを同一の撮影画角内に含めて撮影する技術に関する。
従来より、ユーザがカメラで撮影する場合、意図しない撮影画像が得られる場合があった。かかる失敗を回避すべく、様々な回避策が提案されている。
例えば、人物などの周囲の風景全体を撮影しようとして、人物などを小さく撮影してしまう、という現象が発生する。この現象の回避策は、特許文献1などで提案されている。
例えば、ユーザは、F値の小さい(口径の大きい)レンズを使用したり、絞りを開放してF値を下げることで、前景にだけピントを合わせて、背景をぼかした撮影をすることができる。しかしながら、ぼかし度合が適切でない状態で撮影する、という現象が発生する。この現象の回避策は、特許文献2などで提案されている。
例えば、ユーザは、ピント合わせに気をとられている場合などに、被写体を中央に配置させる構図で、すなわち、いわゆる「日の丸構図」で撮影してしまう。このような場合、撮影画像が、初心者が撮影したような画像になったり、単調な説明画像になってしまう、という現象が発生する。この現象の回避策は、特許文献3,4などで提案されている。
特開2006−148344号公報 特開平06−30349号公報 特開2002−232753号公報 特開2007−174548号公報
しかしながら、顔検出機能を利用した自動フレーミング処理が実行されると、人物の顔がクローズアップされて撮影される。このため、ユーザにとって、人物の顔と共に撮影することを所望していた別の被写体、例えば建築物や風景などが撮影されていない、という現象が発生する場合がある。かかる現象の回避策としては、特許文献1乃至4を含め従来の回避策では十分ではない。
そこで、本発明は、人物の顔と別の被写体とを同一の撮影画角内に含めて撮影することを目的とする。
本発明の第1の観点によると、所定のズーム倍率及び所定の撮影画角で主要被写体を撮影する画像処理装置であって、事前に前記主要被写体が撮影された画像を入力画像として、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、前記入力画像に前記主要被写体として含まれる1以上の人物の顔を検出する検出部と、前記検出部により検出された前記1以上の顔、及び、前記推定部により推定された前記注目点領域の少なくとも一部を、同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する調整部と、を備える画像処理装置を提供する。
本発明の第2の観点によると、前記調整部は、前記推定部により前記注目点領域が推定されなかった場合、さらに、前記検出部により検出された前記1以上の顔を同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する画像処理装置を提供する。
本発明の第3の観点によると、前記調整部は、前記推定部により前記注目点領域が推定されなかった場合、さらに、前記検出部により検出された前記1以上の顔のうちの一部の顔を拡大して同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する画像処理装置を提供する。
本発明の第4の観点によると、前記調整部は、さらに、前記顔と前記注目点領域とのうち少なくとも一方に応じて決定される構図で撮影可能となるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する画像処理装置を提供する。
本発明の第5の観点によると、所定のズーム倍率及び所定の撮影画角で主要被写体を撮影する画像処理装置の画像処理方法であって、事前に前記主要被写体が撮影された画像を入力画像として、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、前記入力画像に前記主要被写体として含まれる1以上の人物の顔を検出する検出ステップと、前記検出ステップの処理により検出された前記1以上の顔、及び、前記推定ステップの処理により推定された前記注目点領域の少なくとも一部が、同一の撮影画角内に入るように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する調整ステップと、を含む画像処理方法を提供する。
本発明によれば、人物の顔と別の被写体を同一の撮影画角内に含めて自動的に撮影することができる
本発明の一実施形態に係る画像処理装置のハードウェアの構成図である。 本発明の一実施形態における自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理の概略を説明する図であって、具体的な処理結果の一例を示す図である。 本発明の一実施形態における自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理の概略を説明する図であって、具体的な処理結果の別の例を示す図である。 本発明の一実施形態における撮影モード処理の流れの一例を示すフローチャートである。 本発明の一実施形態における撮影モード処理のうちの注目点領域推定処理の流れの詳細例を示すフローチャートである。 本発明の一実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの一例を示すフローチャートである。 本発明の一実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの別の例を示すフローチャートである。
以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本発明の一実施形態に係る画像処理装置100のハードウェアの構成を示す図である。画像処理装置100は、例えばデジタルカメラにより構成することができる。
画像処理装置100は、光学レンズ装置1と、シャッタ装置2と、アクチュエータ3と、CMOSセンサ4と、AFE5と、TG6と、DRAM7と、DSP8と、CPU9と、RAM10と、ROM11と、液晶表示コントローラ12と、液晶ディスプレイ13と、操作部14と、メモリカード15と、測距センサ16と、測光センサ17と、を備える。
光学レンズ装置1は、例えばフォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、CMOSセンサ4の受光面に被写体像を結像させるためレンズである。
シャッタ装置2は、例えばシャッタ羽根などから構成される。シャッタ装置2は、CMOSセンサ4へ入射する光束を遮断する機械式のシャッタとして機能する。シャッタ装置2はまた、CMOSセンサ4へ入射する光束の光量を調節する絞りとしても機能する。アクチュエータ3は、CPU9による制御にしたがって、シャッタ装置2のシャッタ羽根を開閉させる。
CMOS(Complementary Metal Oxide Semiconductor)センサ4は、例えばCMOS型のイメージセンサなどから構成される。CMOSセンサ4には、光学レンズ装置1からシャッタ装置2を介して被写体像が入射される。そこで、CMOSセンサ4は、TG6から供給されるクロックパルスにしたがって、一定時間毎に被写体像を光電変換(撮影)して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。
AFE(Analog Front End)5には、CMOSセンサ4からアナログの画像信号が供給される。そこで、AFE5は、TG6から供給されるクロックパルスにしたがって、アナログの画像信号に対し、A/D(Analog/Digital)変換処理などの各種信号処理を施す。各種信号処理の結果、ディジタル信号が生成され、AFE5から出力される。
TG(Timing Generator)6は、CPU9による制御にしたがって、一定時間毎にクロックパルスをCMOSセンサ4とAFE5とにそれぞれ供給する。
DRAM(Dynamic Random Access Memory)7は、AFE5により生成されるディジタル信号や、DSP8により生成される画像データを一時的に記憶する。
DSP(Digital Signal Processor)8は、CPU9による制御にしたがって、DRAM7に記憶されたディジタル信号に対して、ホワイトバランス補正処理、γ補正処理、YC変換処理などの各種画像処理を施す。各種画像処理の結果、輝度信号と色差信号とでなる画像データが生成される。なお、以下、かかる画像データをフレーム画像データと称し、このフレーム画像データにより表現される画像をフレーム画像と称する。
CPU(Central Processing Unit)9は、画像処理装置100全体の動作を制御する。RAM(Random Access Memory)10は、CPU9が各処理を実行する際にワーキングエリアとして機能する。ROM(Read Only Memory)11は、画像処理装置100が各処理を実行するのに必要なプログラムやデータを記憶する。CPU9は、RAM10をワーキングエリアとして、ROM11に記憶されているプログラムとの協働により各種処理を実行する。
液晶表示コントローラ12は、CPU9による制御にしたがって、DRAM7やメモリカード15に記憶されているフレーム画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像として、フレーム画像を表示する。
また、液晶表示コントローラ12は、CPU9による制御にしたがって、ROM11などに予め記憶されている各種画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像を表示する。例えば本実施の形態では、各種シーンを特定可能な情報(以下、シーン情報と称する)の画像データがROM11に記憶されている。このため、図4を参照して後述するように、各種シーン情報が液晶ディスプレイ13に適宜表示される。
操作部14は、ユーザから各種ボタンの操作を受け付ける。操作部14は、電源釦、十字釦、決定釦、メニュー釦、レリーズ釦などを備える。操作部14は、ユーザから受け付けた各種ボタンの操作に対応する信号を、CPU9に供給する。CPU9は、操作部14からの信号に基づいてユーザの操作内容を解析し、その操作内容に応じた処理を実行する。
メモリカード15は、DSP8により生成されたフレーム画像データを記録する。測距センサ16は、CPU9による制御にしたがって、被写体までの距離を検出する。測光センサ17は、CPU9による制御にしたがって、被写体の輝度(明るさ)を検出する。
このような構成を有する画像処理装置100の動作モードとしては、撮影モードや再生モードを含む各種モードが存在する。ただし、以下、説明の簡略上、撮影モード時における処理(以下、撮影モード処理と称する)についてのみ説明する。なお、以下、撮影モード処理の主体は主にCPU9であるとする。
次に、図1の画像処理装置100の撮影モード処理のうち、顕著性マップに基づく注目点領域と、顔検出結果とを用いて、ズーム倍率や撮影画角の範囲を調整するまでの一連の処理の概略について説明する。なお、以下、ズーム倍率を調整する処理を、自動ズーミング処理と称する。また、以下、撮影画角の範囲を調整する処理を、自動フレーミング処理と称する。
図2は、自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理の概略を説明する図であって、具体的な処理結果の一例を示す図である。
図1の画像処理装置100のCPU9は、撮影モードを開始させると、CMOSセンサ4による撮影を継続させ、その間にDSP8により逐次生成されるフレーム画像データを、DRAM7に一時的に記憶させる。なお、以下、かかるCPU9の一連の処理を、スルー撮像と称する。
また、CPU9は、液晶表示コントローラ12などを制御して、スルー撮像時にDRAM7に記録された各フレーム画像データを順次読み出して、それぞれに対応するフレーム画像を液晶ディスプレイ13に表示させる。なお、以下、かかるCPU9の一連の処理を、スルー表示と称する。また、スルー表示されているフレーム画像を、スルー画像と称する。
以下の説明では、スルー撮像及びスルー表示により、例えば図2に示されるスルー画像51が液晶ディスプレイ13に表示されているとする。ただし、図2に示されるスルー画像51は、表現の簡略上、実際のフレーム画像を線図化したものである。
この場合、ステップSaにおいて、CPU9は、注目点領域推定処理として、例えば次のような処理を実行する。
すなわち、CPU9は、スルー画像51に対応するフレーム画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成する。なお、以下、このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理を、特徴量マップ作成処理と称する。各特徴量マップ作成処理の詳細例については、図6や図7を参照して後述する。
例えば図2の例では、後述する図7Aのマルチスケールのコントラストの特徴量マップ作成処理の結果、特徴量マップ52Fcが作成されている。また、後述する図7BのCenter−Surroundの色ヒストグラムの特徴量マップ作成処理の結果、特徴量マップ52Fhが作成されている。また、図7Cの色空間分布の特徴量マップ作成処理の結果、特徴量マップ52Fsが作成されている。
次に、CPU9は、複数種類毎の特徴量マップを統合することで、顕著性マップを求める。例えば図2の例では、特徴量マップ52Fc,52Fh,52Fsが統合されて、顕著性マップ53Sが求められている。
次に、CPU9は、顕著性マップを用いて、スルー画像の中から、人間の視覚的注意を引く可能性の高い画像領域(以下、注目点領域と称する)を推定する。例えば図2の例では、顕著性マップ53Sを用いて、スルー画像51の中から注目点領域54,55が推定されている。
以上の一連の処理からなる注目点領域推定処理は、後述する図4のステップS2の処理に対応する。注目点領域推定処理の詳細については、図5乃至図7を参照して後述する。
一方、ステップSbにおいて、CPU9は、スルー画像に含まれる人物の顔を検出する処理、すなわち、顔検出処理を実行する。顔検出処理の結果として、検出された人物の顔を含む領域が得られる。以下、かかる領域を顔検出領域と称する。図2の例では、スルー画像51から顔検出領域56が得られている。
なお、顔の検出手法自体は、特に限定されず、任意の手法を採用できる。また、ここでいう顔検出処理とは、不特定の人物の顔を検出する処理のみならず、特定の人物の顔を認識する顔認識処理も含む広義な概念である。
ステップSbの処理は、後述する図4のステップS3の処理に対応する。
ステップScにおいて、CPU9は、自動ズーミング処理及び自動フレーミング処理として、例えば次のような処理を実行する。
すなわち、CPU9は、光学装置1のズームレンズを広角側又は望遠側に制御したり、デジタルズームを制御することで、ズーム倍率や撮影画角の範囲を自動調整する。なお、ここでいう調整には、トリミング(切り抜き)処理も含むものとする。
例えば、CPU9は、1以上の顔検出領域の全てを撮影画角内に含めるように、ズーム倍率や撮影画角の範囲を自動的に調整する。さらに、CPU9は、1以上の顔検出領域に応じて決定される構図、すなわち、検出された顔の数や配置位置にとって理想的な構図で撮影可能となるように、ズーム倍率や撮影画角の範囲を自動的に調整する。
また例えば、CPU9は、人物の顔以外にも注目点領域が検出された場合には、その注目点領域を、人物の顔とは別の主要被写体領域であると認定する。そして、CPU9は、1以上の顔検出領域の全てに加えて注目点領域の少なくとも一部も同一の撮影画角内に含めるように、ズーム倍率や撮影画角の範囲を自動的に調整する。さらに、CPU9は、1以上の顔検出領域と注目点領域とのうち少なくとも一方に応じて決定される構図、すなわち、検出された顔や注目点領域の数や配置位置にとって理想的な構図で撮影可能になるように、ズーム倍率や撮影画角の範囲を自動的に調整する。
ステップScの処理は、後述する図4のステップS5の処理に対応する。
このようなステップScの自動ズーミング処理及び自動フレーミング処理の後、CPU9は、TG6やDSP8などを制御して、露出及び撮影処理を実行する。すると、CMOSセンサ4により撮影された被写体像(1以上の顔や主要被写体の像など)は、フレーム画像データとしてDRAM7に記憶される。なお、以下、かかるフレーム画像データを撮影画像データと称し、また、撮影画像データにより表現される画像を撮影画像と称する。このようにして得られた撮影画像は、検出された1以上の顔(顔検出領域)の全てが含まれており、必要に応じて人物の顔以外の別の主要被写体も含まれており、かつ、検出された顔や別の主要被写体の数や配置位置にとって理想的な構図の画像となっている。すなわち、撮影画像は、従来と比較してユーザが意図した画像に近いものとなっている。
具体的には例えば、図2の例では、1つの顔検出領域56に加えて、人の胴体に対応する注目点領域55と、馬に対応する注目点領域54が得られている。このため、ステップScの自動ズーミング処理及び自動フレーミング処理の結果、例えば、撮影画像58T、撮影画像58M、若しくは撮影画像58Z、又はそれらのうちの2以上の組合せが得られる。
撮影画像58Tは、顔と注目点領域優先の自動フレーミング撮影の結果得られた画像である。すなわち、顔と注目点領域優先の自動フレーミング撮影として、顔検出領域56と注目点領域54,55とを同一の撮影画角57に含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像58Tが得られる。
撮影画像58Mは、顔優先の自動フレーミング撮影の結果得られた画像である。すなわち、顔優先の自動フレーミング撮影として、顔検出領域56を撮影画角一杯に含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像58Mが得られる。
撮影画像58Zは、顔優先の自動クローズアップ撮影の結果得られた画像である。すなわち、顔優先の自動クローズアップ撮影として、1以上の顔検出領域のうちの少なくとも一部(図2の例では、1つの顔検出領域56のみが検出されたので、結果とし顔検出領域56)を撮影画角に拡大して含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像58Zが得られる。
なお、1回のレリーズ釦操作によって、自動ズーミング処理及び自動フレーミング処理の結果、3枚の撮影画像58T,58M,58Zのうちの所定の1枚が撮影されても良いし、これらの3枚のうちの2枚以上が連続撮影されても良い。
図3は、自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理の概略を説明する図であって、具体的な処理結果の図2の例とは別の例を示す図である。
なお、図3の処理の流れ自体は、図2と基本的に同様であるので、図3に示される処理結果のみ説明する。また、以下の説明では、スルー撮像及びスルー表示により、例えば図3に示されるスルー画像61が液晶ディスプレイ13に表示されているとする。ただし、図3に示されるスルー画像61は、表現の簡略上、実際のフレーム画像を線図化したものである。
この場合、ステップSaの処理の結果、例えば図3の例では、次のような各特徴量マップが作成される。すなわち、後述する図7Aのマルチスケールのコントラストの特徴量マップ作成処理の結果、特徴量マップ62Fcが作成される。また、後述する図7BのCenter−Surroundの色ヒストグラムの特徴量マップ作成処理の結果、特徴量マップ62Fhが作成される。また、図7Cの色空間分布の特徴量マップ作成処理の結果、特徴量マップ62Fsが作成される。次に、これらの特徴量マップ62Fc,62Fh,62Fsが統合されて、顕著性マップ63Sが求められる。そして、顕著性マップ63Sを用いて注目点領域64,65が推定される。
一方、ステップSbの処理の結果、スルー画像61から複数の顔検出領域66が得られる。
ステップScの処理の結果、例えば、撮影画像68T、撮影画像68M、若しくは撮影画像68Z、又はそれらのうちの2以上の組合せが得られる。
撮影画像68Tは、顔と注目点領域優先の自動フレーミング撮影の結果得られた画像である。すなわち、顔と注目点領域優先の自動フレーミング撮影として、複数の顔検出領域66と、建築物(風景)の注目点領域64,65とを同一の撮影画角67に含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像68Tが得られる。
撮影画像68Mは、顔優先の自動フレーミング撮影の結果得られた画像である。すなわち、顔優先の自動フレーミング撮影として、複数の顔検出領域66を撮影画角一杯に含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像68Mが得られる。
撮影画像68Zは、顔優先の自動クローズアップ撮影の結果得られた画像である。すなわち、顔優先の自動クローズアップ撮影として、複数の顔検出領域66のうちの少なくとも一部を撮影画角に拡大して含めるように、かつ、所定条件の構図で撮影可能となるように、自動ズーミング処理及び自動フレーミング処理が実行される。その後、露出及び撮影処理が実行されると、撮影画像68Zが得られる。
なお、図3の例でも図2の例と同様に、1回のレリーズ釦操作によって、自動ズーミング処理及び自動フレーミング処理の結果、3枚の撮影画像68T,68M,68Zのうちの所定の1枚が撮影されても良いし、これらの3枚のうち2枚以上が連続撮影されても良い。
このように、顔検出領域のみならず注目点領域も考慮した自動ズーミング処理及び自動フレーミング処理が実行されることで、次のような効果を奏することが可能になる。すなわち、従来においては、人物の顔の全てが含まれた撮影画像を得ることは可能であったが、人物の顔と別の主要被写体とが適切に含まれた撮影画像を得ることは困難であった。これに対して、図2の撮影画像58Zや図3の撮影画像68Zから明らかなように、人物の顔(顔検出領域)の全てと、ペットや背景などの別の主要被写体(注目点領域)の全て又は多くとが同一の撮影画角に含まれ、かつ適切な構図で撮影された撮影画像を得ることが容易に可能になる。
さらに、このような、人物の顔だけが含まれる撮影画像、及び、人物の顔と別の主要被写体が含まれる撮影画像に加えて、さらに、例えば、一部の人物が所定の構図でかつクローズアップ撮影された撮影画像の3種類の撮影画像を、1回の撮影で一緒に撮影して記録することも容易に可能になる。
以上、図2と図3を参照して、画像処理装置100が実行する自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理の概略について説明した。次に、図4乃至図7を参照して、自動ズーミング処理及び自動フレーミング処理並びにそれらの前処理を含む撮影モード処理全体について説明する。
図4は、撮影モード処理の流れの一例を示すフローチャートである。
撮影モード処理は、ユーザが撮影モードを選択する所定の操作を操作部14に対して行った場合、その操作を契機として開始される。すなわち、次のような処理が実行される。
ステップS1において、CPU9は、スルー撮像とスルー表示を行う。
ステップS2において、CPU9は、注目点領域推定処理を実行する。これにより、図2や図3を参照して上述したように、注目点領域が推定される。注目点領域推定処理については、その概略は図2や図3のステップSaの説明として上述した通りであり、その詳細は図5を参照して後述する。
ステップS3において、CPU9は、顔検出処理を実行する。これにより、図2や図3を参照して上述したように、顔検出領域が得られる。
ステップS4において、CPU9は、レリーズ釦が半押しの状態であるか否かを判定する。
ユーザがレリーズ釦を半押ししていない場合、ステップS4においてNOであると判定され、処理はステップS1に戻され、それ以降の処理が繰り返される。すなわち、ユーザがレリーズ釦を半押しするまでの間、ステップS1乃至S4のループ処理が繰り返し実行される。
その後、ユーザがレリーズ釦を半押しすると、ステップS4においてYESであると判定されて、処理はステップS5に進む。
ステップS5において、CPU9は、図2や図3を参照して上述したように、顔検出領域と注目点領域とを用いて、自動ズーミング処理及び自動フレーミング処理を実行する。
ステップS6において、CPU9は、顔検出領域や注目点領域に対応するAF(Automatic Focus)枠が被写界深度内に入るように、AF処理(オートフォーカス処理)を実行する。ステップS7において、CPU9は、測光処理を実行する。測光処理は、顔検出領域や注目点領域について重点的に実行される。
ステップS8において、CPU9は、レリーズ釦が全押しの状態であるか否かを判定する。
ユーザがレリーズ釦を全押ししていない場合、ステップS8においてNOであると判定され、処理はステップS16に進む。ステップS16において、CPU9は、レリーズ釦が解除されたか否かを判定する。ユーザの指などがレリーズ釦から離された場合、ステップS16においてYESであると判定されて、撮影モード処理は終了となる。これに対して、ユーザの指などがレリーズ釦から離されていない場合、ステップS16においてNOであると判定されて、処理はステップS8に戻され、それ以降の処理が繰り返される。すなわち、レリーズ釦の半押し状態が継続している限り、ステップS8NO,S16NOのループ処理が繰り返し実行される。
その後、ユーザがレリーズ釦を全押しすると、ステップS8においてYESであると判定されて、処理はステップS9に進む。ステップS9において、CPU9は、AWB(Automatic White Balance)処理(オートホワイトバランス処理)を実行する。ステップS10において、CPU9は、AE(Automatic Exposure)処理(自動露出処理)を実行する。すなわち、測光センサ17による測光情報や撮影条件などに基づいて、絞り、露出時間、ストロボ条件などが設定される。
ステップS11において、CPU9は、TG6やDSP8などを制御して、測光センサ17による測光情報や撮影条件などに基づいて露出及び撮影処理を実行する。その結果、撮影画像データがDRAM7に記憶される。
ステップS12において、CPU9は、DSP8などを制御して、撮影画像データに対して補正及び変更処理を施す。すなわち、CPU9は、顔検出領域、注目点領域、撮影条件などに基づいて、撮影画像データに対して、補正又は変更に必要な各種画像処理を適宜施す。
ステップS13において、CPU9は、液晶表示コントローラ12などを制御して、撮影画像のレビュー表示処理を実行する。また、ステップS14において、CPU9は、DSP8などを制御して撮影画像データの圧縮符号化処理を実行する。その結果、符号化画像データが得られることになる。そこで、ステップS15において、CPU9は、符号化画像データの保存記録処理を実行する。これにより、符号化画像データがメモリカード15などに記録され、撮影モード処理が終了となる。
次に、撮影モード処理のうち、ステップS2(図2のステップSa)の注目点領域処理の詳細例について説明する。
上述したように、注目点領域推定処理では、注目点領域の推定のために、顕著性マップが作成される。したがって、注目点領域推定処理に対して、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップを適用することができる。
なお、Treismanの特徴統合理論については、「A.M.Treisman and G.Gelade,“A feature―integration theory of attention”,Cognitive Psychology,Vol.12,No.1,pp.97−136,1980.」を参照すると良い。
また、Itti及びKochらによる顕著性マップについては、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
図5は、Treismanの特徴統合理論やNitti及びKochらによる顕著性マップを適用した場合における、注目点領域推定処理の流れの詳細例を示すフローチャートである。
ステップS41において、CPU9は、スルー撮像により得られたフレーム画像データを、処理対象画像データとして入力する。
ステップS42において、CPU9は、ガウシアン解像度ピラミット(Gaussian Resolution Pyramid)を作成する。具体的には例えば、CPU9は、処理対象画像データ{(x,y)の位置の画素データ}をI(0)=I(x,y)として、ガウシアンフィルタ処理とダウンサンプリング処理とを順次繰り返し実行する。その結果として、階層型のスケール画像データI(L)(例えばL∈{0・・・8})の組が生成される。この階層型のスケール画像データI(L)の組が、ガウシアン解像度ピラミッドと称されている。ここで、スケールL=k(ここではkは1乃至8のうちのいずれかの整数値)の場合、スケール画像データI(k)は、1/2の縮小画像(k=0の場合は原画像)を示す。
ステップS43において、CPU9は、各特徴量マップ作成処理を開始する。すなわち、CPU9は、処理対象画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成することができる。このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理が、ここでは、特徴量マップ作成処理と称されている。各特徴量マップ作成処理の詳細例については、図6や図7を参照して後述する。
ステップS44において、CPU9は、全ての特徴量マップ作成処理が終了したか否かを判定する。各特徴量マップ作成処理のうち1つでも処理が終了していない場合、ステップS44において、NOであると判定されて、処理はステップS44に再び戻される。すなわち、各特徴量マップ作成処理の全処理が終了するまでの間、ステップS44の判定処理が繰り返し実行される。そして、各特徴量マップ作成処理の全処理が終了して、全ての特徴量マップが作成されると、ステップS44においてYESであると判定されて、処理はステップS45に進む。
ステップS45において、CPU9は、各特徴量マップを線形和で結合して、顕著性マップS(Saliency Map)を求める。
ステップS46において、CPU9は、顕著性マップSを用いて、処理対象画像データから注目領域を推定する。すなわち、一般に、主要被写体となる人物や撮影対象(objects)となる物体の多くは、背景(background)領域に比べ、顕著性(saliency)が高いと考えられる。そこで、CPU9は、顕著性マップSを用いて、処理対象画像データから顕著性(saliency)が高い領域を認識する。そして、CPU9は、その認識結果に基づいて、人間の視覚的注意を引く可能性の高い領域、すなわち、注目点領域を推定する。このようにして、注目点領域が推定されると、注目点領域推定処理は終了する。すなわち、図4のステップS2の処理は終了し、処理はステップS3に進む。図2の例でいえば、ステップSaの処理は終了する。そして、ステップSbの処理も終了した段階で、処理はステップScに進む。
次に、各特徴量マップ作成処理の具体例について説明する。
図6は、輝度、色、及び、方向性の特徴量マップ作成処理の流れの一例を示すフローチャートである。
図6Aは、輝度の特徴量マップ作成処理の一例を示している。
ステップS61において、CPU9は、処理対象画像データに対応する各スケール画像から、各注目画素を設定する。例えば各注目画素c∈{2,3,4}が設定されたとして、以下の説明を行う。各注目画素c∈{2,3,4}とは、スケールc∈{2,3,4}のスケール画像データI(c)上の演算対象として設定された画素をいう。
ステップS62において、CPU9は、各注目画素c∈{2,3,4}の各スケール画像の輝度成分を求める。
ステップS63において、CPU9は、各注目画素の周辺画素s=c+δの各スケール画像の輝度成分を求める。各注目画素の周辺画素s=c+δとは、例えばδ∈{3,4}とすると、スケールs=c+δのスケール画像I(s)上の、注目画素(対応点)の周辺に存在する画素をいう。
ステップS64において、CPU9は、各スケール画像について、各注目画素c∈{2,3,4}における輝度コントラストを求める。例えば、CPU9は、各注目画素c∈{2,3,4}と、各注目画素の周辺画素s=c+δ(例えばδ∈{3,4})のスケール間差分を求める。ここで、注目画素cをCenterと呼称し、注目画素の周辺画素sをSurroundと呼称すると、求められたスケール間差分は、輝度のCenter−Surroundスケール間差分と呼称することができる。この輝度のCenter−Surroundスケール間差分は、注目画素cが白で周辺画素sが黒の場合又はその逆の場合には大きな値をとるという性質がある。したがって、輝度のCenter−Surroundスケール間差分は、輝度コントラストを表わすことになる。なお、以下、かかる輝度コントラストをI(c,s)と記述する。
ステップS65において、CPU9は、処理対象画像データに対応する各スケール画像において、注目画素に設定されていない画素が存在するか否かを判定する。そのような画素が存在する場合、ステップS65においてYESであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。
すなわち、処理対象画像データに対応する各スケール画像の各画素に対して、ステップS61乃至S65の処理がそれぞれ施されて、各画素の輝度コントラストI(c,s)が求められる。ここで、各注目画素c∈{2,3,4}、及び、周辺画素s=c+δ(例えばδ∈{3,4})が設定される場合、ステップS61乃至S65の1回の処理で、(注目画素cの3通り)×(周辺画素sの2通り)=6通りの輝度コントラストI(c,s)が求められる。ここで、所定のcと所定のsについて求められた輝度コントラストI(c,s)の画像全体の集合体を、以下、輝度コントラストIの特徴量マップと称する。輝度コントラストIの特徴量マップは、ステップS61乃至S65のループ処理の繰り返しの結果、6通り求められることになる。このようにして、6通りの輝度コントラストIの特徴量マップが求められると、ステップS65においてNOであると判定されて、処理はステップS66に進む。
ステップS66において、CPU9は、輝度コントラストIの各特徴量マップを正規化した上で結合することで、輝度の特徴量マップを作成する。これにより、輝度の特徴量マップ作成処理は終了する。なお、以下、輝度の特徴量マップを、他の特徴量マップと区別すべく、FIと記述する。
図6Bは、色の特徴量マップ作成処理の一例を示している。
図6Bの色の特徴量マップ作成処理は、図6Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図6BのステップS81乃至S86のそれぞれの処理は、図6AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図6Aとは異なるだけである。したがって、図6Bの色の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、図6AのステップS62とS63の処理対象は、輝度成分であったのに対して、図6BのステップS82とS83の処理対象は、色成分である。
また、図6AのステップS64の処理では、輝度のCenter−Surroundスケール間差分が、輝度コントラストI(c,s)として求められた。これに対して、図6BのステップS84の処理では、色相(R/G,B/Y)のCenter−Surroundスケール間差分が、色相コントラストとして求められる。なお、色成分のうち、赤の成分がRで示され、緑の成分がGで示され、青の成分がBで示され、黄の成分がYで示されている。また、以下、色相R/Gについての色相コントラストを、RG(c,s)と記述し、色相B/Yについての色相コントラストを、BY(c,s)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、図6AのステップS61乃至S65のループ処理の結果、6通りの輝度コントラストIの特徴量マップが求められた。これに対して、図6BのステップS81乃至S85のループ処理の結果、6通りの色相コントラストRGの特徴量マップと、6通りの色相コントラストBYの特徴量マップとが求められる。
最終的に、図6AのステップS66の処理で、輝度の特徴量マップFIが求められた。これに対して、図6BのステップS86の処理で、色の特徴量マップが求められる。なお、以下、色の特徴量マップを、他の特徴量マップと区別すべく、FCと記述する。
図6Cは、方向性の特徴量マップ作成処理の一例を示している。
図6Cの方向性の特徴量マップ作成処理は、図6Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図6CのステップS101乃至S106のそれぞれの処理は、図6AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図6Aとは異なるだけである。したがって、図6Cの方向性の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、ステップS102とS1023の処理対象は、方向成分である。ここで、方向成分とは、輝度成分に対してガウスフィルタφを畳み込んだ結果得られる各方向の振幅成分をいう。ここでいう方向とは、ガウスフィルタφのパラメターとして存在する回転角θにより示される方向をいう。例えば回転角θとしては、0°,45°,90°,135°の4方向を採用することができる。
また、ステップS104の処理では、方向性のCenter−Surroundスケール間差分が、方向性コントラストとして求められる。なお、以下、方向性コントラストを、O(c,s,θ)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、ステップS101乃至S105のループ処理の結果、回転角θ毎に、6通りの方向性コントラストOの特徴量マップが求められる。例えば回転角θとして、0°,45°,90°,135°の4方向が採用されている場合には、24通り(=6×4通り)の方向性コントラストOの特徴量マップが求められる。
最終的に、ステップS106の処理で、方向性の特徴量マップが求められる。なお、以下、方向性の特徴量マップを、他の特徴量マップと区別すべく、FOと記述する。
以上説明した図6の特徴量マップ作成処理のより詳細な処理内容については、例えば、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
なお、特徴量マップ作成処理は、図6の例に特に限定されない。例えば、特徴量マップ作成処理として、明度、彩度、色相、及びモーションの各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
また例えば、特徴量マップ作成処理として、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
図7は、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の特徴量マップ作成処理の一例を示すフローチャートである。
図7Aは、マルチスケールのコントラストの特徴量マップ作成処理の一例を示している。
ステップS121において、CPU9は、マルチスケールのコントラストの特徴量マップを求める。これにより、マルチスケールのコントラストの特徴量マップ作成処理は終了となる。
なお、以下、マルチスケールのコントラストの特徴量マップを、他の特徴量マップと区別すべく、Fcと記述する。
図7Bは、Center−Surroundの色ヒストグラムの特徴量マップ作成処理の一例を示している。
ステップS141において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとを求める。アスペクト比自体は、特に限定されず、例えば{0.5,0.75,1.0,1.5,2.0}などを採用することができる。
ステップS142において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとのカイ2乗距離を求める。ステップS143において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを求める。
ステップS144において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを用いて、Center−Surroundの色ヒストグラムの特徴量マップを作成する。これにより、Center−Surroundの色ヒストグラムの特徴量マップ作成処理は終了となる。
なお、以下、Center−Surroundの色ヒストグラムの特徴量マップを、他の特徴量マップと区別すべく、Fhと記述する。
図7Cは、色空間分布の特徴量マップ作成処理の一例を示している。
ステップS161において、CPU9は、色空間分布について、水平方向の分散を計算する。また、ステップS162において、CPU9は、色空間分布について、垂直方向の分散を計算する。そして、ステップS163において、CPU9は、水平方向の分散と垂直方向の分散とを用いて、色の空間的な分散を求める。
ステップS164において、CPU9は、色の空間的な分散を用いて、色空間分布の特徴量マップを作成する。これにより、色空間分布の特徴量マップ作成処理は終了となる。
なお、以下、色空間分布の特徴量マップを、他の特徴量マップと区別すべく、Fsと記述する。
以上説明した図7の特徴量マップ作成処理のより詳細な処理内容については、例えば、「T.Liu,J.Sun,N.Zheng,X.Tang,H.Sum,“Learning to Detect A Salient Object”,CVPR07,pp.1−8,2007.」を参照すると良い。
以上説明したように、本実施形態に係る画像処理装置100は、所定のズーム倍率及び所定の撮影画角で主要被写体を撮影することができる。かかる画像処理装置100のCPU9は、事前に撮影された画像を入力画像(スルー画像)として、その入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定機能を有している。CPU9は、入力画像に主要被写体として含まれる1以上の人物の顔を検出する検出機能を有している。CPU9は、検出機能の発揮により検出された1以上の顔、及び、推定機能の発揮により推定された注目点領域の少なくとも一部を、同一の撮影画角内に含めるように、ズーム倍率と撮影画角の範囲のうちの少なくとも一方を調整する調整機能を有している。
したがって、人物の顔と共に別の被写体も撮影画角内に綺麗に含めて、かつ、理想的な構図で撮影することが可能になる。なお、別の被写体としては、例えば、ペットや動物、観光地の寺院や景勝地の風景などが存在する。
その結果、例えば、次のような現象を回避することが可能になる。すなわち、ユーザにとっては、ピント合わせなどに気をとられて、構図を気にせず撮影したり、人物だけを中央に配置させて撮影してしまう場合がある。このような場合、ユーザにとって、景勝地などの風景の撮り忘れを防いだり、単調な構図や失敗構図で撮影する、という現象が発生する。このような現象を回避することが可能になる。
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。
例えば、上述した実施形態では、本発明が適用される画像処理装置は、デジタルカメラとして構成される例として説明した。しかしながら、本発明は、デジタルカメラに特に限定されず、電子機器一般に適用することができる。具体的には例えば、本発明は、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機などに適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
このようなプログラムを含む記録媒体は、図示はしないが、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM11や、図示せぬハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
100・・・画像処理装置、1・・・光学レンズ装置、2・・・シャッタ装置、3・・・アクチュエータ、4・・・CMOSセンサ、5・・・AFE、6・・・TG、7・・・DRAM、8・・・DSP、9・・・CPU、10・・・RAM、11・・・ROM、12・・・液晶表示コントローラ、13・・・液晶ディスプレイ、14・・・操作部、15・・・メモリカード、16・・・測距センサ、17・・・測光センサ

Claims (5)

  1. 所定のズーム倍率及び所定の撮影画角で主要被写体を撮影する画像処理装置であって、
    事前に前記主要被写体が撮影された画像を入力画像として、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
    前記入力画像に前記主要被写体として含まれる1以上の人物の顔を検出する検出部と、
    前記検出部により検出された前記1以上の顔、及び、前記推定部により推定された前記注目点領域の少なくとも一部を、同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する調整部と、
    を備える画像処理装置。
  2. 前記調整部は、前記推定部により前記注目点領域が推定されなかった場合、さらに、前記検出部により検出された前記1以上の顔を同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する
    請求項1に記載の画像処理装置。
  3. 前記調整部は、前記推定部により前記注目点領域が推定されなかった場合、さらに、前記検出部により検出された前記1以上の顔のうちの一部の顔を拡大して同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する
    請求項1に記載の画像処理装置。
  4. 前記調整部は、さらに、前記顔と前記注目点領域とのうち少なくとも一方に応じて決定される構図で撮影可能となるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する
    請求項1乃至3のうちのいずれかに記載の画像処理装置。
  5. 所定のズーム倍率及び所定の撮影画角で主要被写体を撮影する画像処理装置の画像処理方法であって、
    事前に前記主要被写体が撮影された画像を入力画像として、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、
    前記入力画像に前記主要被写体として含まれる1以上の人物の顔を検出する検出ステップと、
    前記検出ステップの処理により検出された前記1以上の顔、及び、前記推定ステップの処理により推定された前記注目点領域の少なくとも一部を、同一の撮影画角内に含めるように、前記ズーム倍率と前記撮影画角の範囲のうちの少なくとも一方を調整する調整ステップと、
    を含む画像処理方法。
JP2009179550A 2009-07-31 2009-07-31 画像処理装置及び方法 Pending JP2011035634A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179550A JP2011035634A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179550A JP2011035634A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2011035634A true JP2011035634A (ja) 2011-02-17
JP2011035634A5 JP2011035634A5 (ja) 2012-08-30

Family

ID=43764275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179550A Pending JP2011035634A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Country Status (1)

Country Link
JP (1) JP2011035634A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037359A1 (ja) * 2013-09-10 2015-03-19 株式会社Jvcケンウッド 撮像装置および撮像装置の制御方法
JP2017153136A (ja) * 2017-04-27 2017-08-31 株式会社Jvcケンウッド 撮像装置および撮像装置の制御方法
JP2018022360A (ja) * 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム
JP2021182702A (ja) * 2020-05-19 2021-11-25 キヤノン株式会社 撮像制御装置、撮像制御方法、及びプログラム
WO2022239931A1 (ko) * 2021-05-12 2022-11-17 삼성전자 주식회사 전자 장치 및 전자 장치에서 이미지 촬영 방법
US12456278B2 (en) 2021-05-12 2025-10-28 Samsung Electronics Co., Ltd. Electronic device and method for tracking regions of interest in the electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005294951A (ja) * 2004-03-31 2005-10-20 Matsushita Electric Ind Co Ltd デジタル画像印刷システム
JP2006279643A (ja) * 2005-03-30 2006-10-12 Seiko Epson Corp ユーザ負担を低減した画像のトリミング
JP2008028778A (ja) * 2006-07-21 2008-02-07 Sony Corp 画像処理装置、画像処理方法及びそのプログラム
JP2008059534A (ja) * 2006-09-04 2008-03-13 Fujifilm Corp 画像トリミング装置、画像トリミング方法およびそのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005294951A (ja) * 2004-03-31 2005-10-20 Matsushita Electric Ind Co Ltd デジタル画像印刷システム
JP2006279643A (ja) * 2005-03-30 2006-10-12 Seiko Epson Corp ユーザ負担を低減した画像のトリミング
JP2008028778A (ja) * 2006-07-21 2008-02-07 Sony Corp 画像処理装置、画像処理方法及びそのプログラム
JP2008059534A (ja) * 2006-09-04 2008-03-13 Fujifilm Corp 画像トリミング装置、画像トリミング方法およびそのプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037359A1 (ja) * 2013-09-10 2015-03-19 株式会社Jvcケンウッド 撮像装置および撮像装置の制御方法
JP2015056701A (ja) * 2013-09-10 2015-03-23 株式会社Jvcケンウッド 撮像装置および撮像装置の制御方法
US9832371B2 (en) 2013-09-10 2017-11-28 JVC Kenwood Corporation Imaging device and method for controlling imaging device
JP2018022360A (ja) * 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム
JP2017153136A (ja) * 2017-04-27 2017-08-31 株式会社Jvcケンウッド 撮像装置および撮像装置の制御方法
JP2021182702A (ja) * 2020-05-19 2021-11-25 キヤノン株式会社 撮像制御装置、撮像制御方法、及びプログラム
JP7599843B2 (ja) 2020-05-19 2024-12-16 キヤノン株式会社 撮像制御装置、撮像制御方法、及びプログラム
WO2022239931A1 (ko) * 2021-05-12 2022-11-17 삼성전자 주식회사 전자 장치 및 전자 장치에서 이미지 촬영 방법
US12456278B2 (en) 2021-05-12 2025-10-28 Samsung Electronics Co., Ltd. Electronic device and method for tracking regions of interest in the electronic device

Similar Documents

Publication Publication Date Title
JP4844657B2 (ja) 画像処理装置及び方法
CN101320193B (zh) 摄影装置、摄影方法、控制摄影装置的指令的计算机可读介质
JP5394296B2 (ja) 撮像装置及び画像処理方法
US7791668B2 (en) Digital camera
JP4497211B2 (ja) 撮像装置、撮像方法及びプログラム
TWI416945B (zh) 影像處理裝置、影像處理方法及電腦可讀取媒體
US7460782B2 (en) Picture composition guide
JP6863284B2 (ja) 検出装置、検出方法、検出プログラムおよび撮像装置
JP6184189B2 (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
US20150003676A1 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
JP2011035636A (ja) 画像処理装置及び方法
JP2012156644A (ja) 電子カメラ、プログラム及び記録媒体
TWI469085B (zh) 影像處理裝置、影像處理方法及電腦可讀取記憶媒體
JP2015012482A (ja) 画像処理装置及び画像処理方法
JP2011035634A (ja) 画像処理装置及び方法
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP5471130B2 (ja) 画像処理装置及び方法
JP5515492B2 (ja) 画像処理装置及び方法
JP2007129310A (ja) 撮像装置
JP5044472B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5375401B2 (ja) 画像処理装置及び方法
JP2007011200A (ja) 撮像装置
JP2015118274A (ja) 撮像装置、その制御方法及びプログラム
KR20100098122A (ko) 영상 처리 방법 및 장치, 이를 이용한 디지털 촬영 장치
WO2022227040A1 (zh) 视频增稳方法、成像装置、手持云台、可移动平台及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107