[go: up one dir, main page]

JP2013016924A - Image evaluation device - Google Patents

Image evaluation device Download PDF

Info

Publication number
JP2013016924A
JP2013016924A JP2011146705A JP2011146705A JP2013016924A JP 2013016924 A JP2013016924 A JP 2013016924A JP 2011146705 A JP2011146705 A JP 2011146705A JP 2011146705 A JP2011146705 A JP 2011146705A JP 2013016924 A JP2013016924 A JP 2013016924A
Authority
JP
Japan
Prior art keywords
main subject
image data
frame
image
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011146705A
Other languages
Japanese (ja)
Inventor
Yuko Nakata
佑子 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011146705A priority Critical patent/JP2013016924A/en
Publication of JP2013016924A publication Critical patent/JP2013016924A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】主要被写体がフレームアウトしているか否かを画像評価の対象とすることができる画像評価装置を提供する。
【解決手段】画像データを記憶する記憶部16と、前記画像データに基づく画像から主要被写体を含む主要被写体領域を抽出する抽出部10と、前記画像データにおいて前記主要被写体がフレームアウトしているか否かを判定するためのフレームアウト領域を前記画像の少なくとも一つの縁部に沿って設定する設定部10と、前記主要被写体領域の少なくとも一部が前記フレームアウト領域と重なる場合において前記主要被写体がフレームアウトしていると判定する判定部10とを備える。
【選択図】図1
An image evaluation apparatus capable of determining whether a main subject is out of frame or not is an object of image evaluation.
A storage unit that stores image data, an extraction unit that extracts a main subject region including a main subject from an image based on the image data, and whether or not the main subject is out of frame in the image data. A setting unit 10 that sets a frame-out area for determining whether or not the image is to be set along at least one edge of the image, and the main subject is a frame when at least part of the main subject area overlaps the frame-out area. The determination part 10 which determines with having been out is provided.
[Selection] Figure 1

Description

本発明は、画像評価装置に関するものである。   The present invention relates to an image evaluation apparatus.

従来、撮影画像について露出、コントラスト、ボケ等の画像評価を行い、評価値が所定の閾値以下であった画像の画像データを記録媒体から削除する画像撮影装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been known an image photographing apparatus that performs image evaluation such as exposure, contrast, and blur on a photographed image and deletes image data of an image whose evaluation value is equal to or less than a predetermined threshold from a recording medium (for example, Patent Document 1).

特開2006−050494号公報JP 2006-050494 A

しかしながら、上述の画像撮影装置においては、主要被写体がフレームアウトしているか否かについては画像評価の対象とならかった。   However, in the above-described image capturing apparatus, whether or not the main subject is out of frame is not subject to image evaluation.

本発明の目的は、主要被写体がフレームアウトしているか否かを画像評価の対象とすることができる画像評価装置を提供することである。   An object of the present invention is to provide an image evaluation apparatus that can determine whether or not a main subject is out of frame.

本発明の画像評価装置は、画像データを記憶する記憶部と、前記画像データに基づく画像から主要被写体を含む主要被写体領域を抽出する抽出部と、前記画像データにおいて前記主要被写体がフレームアウトしているか否かを判定するためのフレームアウト領域を前記画像の少なくとも一つの縁部に沿って設定する設定部と、前記主要被写体領域の少なくとも一部が前記フレームアウト領域と重なる場合において前記主要被写体がフレームアウトしていると判定する判定部とを備えることを特徴とする。
本発明の画像評価装置は、時系列で取得された複数の画像データを記憶する記憶部と、前記画像データに基づく画像から主要被写体を含む主要被写体領域を抽出する抽出部と、前記画像データにおいて前記主要被写体がフレームアウトしているか否かを判定するためのフレームアウト領域を前記画像の少なくとも一つの縁部に沿って設定する設定部と、前記主要被写体領域の少なくとも一部が前記フレームアウト領域と重なる場合において前記主要被写体がフレームアウトしていると判定する判定部と、前記判定部によりフレームアウトしていると判定した前記画像データの評価値を低下させる評価部とを備えることを特徴とする。
An image evaluation apparatus according to the present invention includes a storage unit that stores image data, an extraction unit that extracts a main subject region including a main subject from an image based on the image data, and the main subject in the image data is framed out. A setting unit for setting a frame-out region for determining whether or not the image is present along at least one edge of the image; and when the main subject is overlapped with the frame-out region, And a determination unit that determines that the frame is out.
An image evaluation apparatus according to the present invention includes a storage unit that stores a plurality of image data acquired in time series, an extraction unit that extracts a main subject region including a main subject from an image based on the image data, and the image data A setting unit for setting a frame-out region for determining whether or not the main subject is out of frame along at least one edge of the image; and at least a part of the main subject region is the frame-out region A determination unit that determines that the main subject is out of frame in a case where the main subject is out of frame, and an evaluation unit that reduces an evaluation value of the image data determined to be out of frame by the determination unit. To do.

本発明の画像評価装置によれば、主要被写体がフレームアウトしているか否かを画像評価の対象とすることができる。   According to the image evaluation apparatus of the present invention, whether or not the main subject is out of frame can be set as the object of image evaluation.

第1の実施の形態に係る電子カメラのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラの処理を示すフローチャートである。It is a flowchart which shows the process of the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにおいて時系列で取得された画像データを示す図である。It is a figure which shows the image data acquired in time series in the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。It is a flowchart which shows the evaluation process of the image data in the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 1st Embodiment. 第1の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 1st Embodiment. 第2の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。It is a flowchart which shows the evaluation process of the image data in the electronic camera which concerns on 2nd Embodiment. 第2の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 2nd Embodiment. 第2の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 2nd Embodiment. 第2の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 2nd Embodiment. 第2の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 2nd Embodiment. 第3の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。It is a flowchart which shows the evaluation process of the image data in the electronic camera which concerns on 3rd Embodiment. 第3の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 3rd Embodiment. 第4の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。It is a flowchart which shows the evaluation process of the image data in the electronic camera which concerns on 4th Embodiment. 第4の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 4th Embodiment. 第4の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 4th Embodiment. 第4の実施の形態に係る電子カメラにより取得された画像データに基づく画像を示す図である。It is a figure which shows the image based on the image data acquired by the electronic camera which concerns on 4th Embodiment. 第5の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。It is a flowchart which shows the evaluation process of the image data in the electronic camera which concerns on 5th Embodiment. 第5の実施の形態に係る電子カメラにより用いられるフレームアウト領域を説明するための図である。It is a figure for demonstrating the frame-out area | region used with the electronic camera which concerns on 5th Embodiment. 第5の実施の形態に係る電子カメラにより主要被写体がフレームアウトしていると判定される場合を示す図である。It is a figure which shows the case where it is determined with the electronic camera which concerns on 5th Embodiment that the main to-be-photographed object has gone out of frame. 第6の実施の形態に係る電子カメラにより用いられるフレームアウト領域を説明するための図である。It is a figure for demonstrating the frame-out area | region used with the electronic camera which concerns on 6th Embodiment. 第6の実施の形態に係る電子カメラにより主要被写体がフレームアウトしていると判定される場合を示す図である。It is a figure which shows the case where it is determined with the electronic camera which concerns on 6th Embodiment that the main to-be-photographed object has gone out of frame. 実施の形態に係る電子カメラにより用いられるフレームアウト領域を説明するための図である。It is a figure for demonstrating the frame-out area | region used by the electronic camera which concerns on embodiment. 実施の形態に係る電子カメラにより主要被写体がフレームアウトしていると判定される場合を示す図である。It is a figure which shows the case where it is determined with the electronic camera which concerns on embodiment that the main to-be-photographed object has gone out of frame. 実施の形態に係る電子カメラにより主要被写体がフレームアウトしていると判定される場合を示す図である。It is a figure which shows the case where it is determined with the electronic camera which concerns on embodiment that the main to-be-photographed object has gone out of frame. 実施の形態に係る電子カメラにより用いられるフレームアウト領域を説明するための図である。It is a figure for demonstrating the frame-out area | region used by the electronic camera which concerns on embodiment. 実施の形態に係る電子カメラにより用いられるフレームアウト領域を説明するための図である。It is a figure for demonstrating the frame-out area | region used by the electronic camera which concerns on embodiment. 第7の実施の形態に係る電子カメラの処理を示すフローチャートである。It is a flowchart which shows the process of the electronic camera which concerns on 7th Embodiment. 第8の実施の形態に係る電子カメラの処理を示すフローチャートである。It is a flowchart which shows the process of the electronic camera which concerns on 8th Embodiment.

以下、図面を参照して、第1の実施の形態に係る画像評価装置としての電子カメラについて説明する。図1は第1の実施の形態に係る電子カメラ2のシステム構成を示すブロック図である。図1に示すように、電子カメラ2は、マイクロプロセッサ等により構成され電子カメラ2の各部を統括的に制御する制御部10を備えている。制御部10には、撮像素子12、LCD表示部14、バッファメモリ16、情報記憶部18、データ記憶部20、プログラムメモリ22、メモリカード24、及び操作部30が接続されている。   Hereinafter, an electronic camera as an image evaluation apparatus according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram showing a system configuration of the electronic camera 2 according to the first embodiment. As shown in FIG. 1, the electronic camera 2 includes a control unit 10 that is configured by a microprocessor or the like and controls each part of the electronic camera 2 in an integrated manner. An imaging device 12, LCD display unit 14, buffer memory 16, information storage unit 18, data storage unit 20, program memory 22, memory card 24, and operation unit 30 are connected to the control unit 10.

撮像素子12は、CMOSイメージセンサ等により構成され、撮影レンズ(図示せず)を介した被写体からの光を撮像し、制御部10に対して撮像信号を出力する。LCD表示部14は、電子カメラ2の背面部に配置され、撮像素子12からの撮像信号に基づくスルー画像等を表示する。バッファメモリ16は、撮像素子12から出力された撮像信号に基づく複数フレームの画像データを一時的に記録する。情報記憶部18は、画像データにおいて主要被写体がフレームアウトしているか否かの判定(以下、フレームアウト判定という。)を行うために必要な情報を記憶する。データ記憶部20は、画像データのファイル名ごとに評価値を記憶する所定のファイル(以下、評価ファイルという。)を記憶する。プログラムメモリ22は、制御部10が電子カメラ2の各部を統括的に制御し、撮像処理、再生処理、画像選択処理などの各処理を実施するためのプログラムを記憶する。メモリカード24は、電子カメラ2に設けられたカードスロット(図示せず)に着脱可能に装着される可搬性を有する記憶媒体であり、例えば、CFカード、SDカード、スマートメディア等である。   The image sensor 12 is configured by a CMOS image sensor or the like, images light from a subject via a photographing lens (not shown), and outputs an image signal to the control unit 10. The LCD display unit 14 is disposed on the back side of the electronic camera 2 and displays a through image or the like based on the imaging signal from the imaging device 12. The buffer memory 16 temporarily records a plurality of frames of image data based on the imaging signal output from the imaging device 12. The information storage unit 18 stores information necessary for determining whether or not the main subject is out of frame in the image data (hereinafter referred to as frame out determination). The data storage unit 20 stores a predetermined file (hereinafter referred to as an evaluation file) that stores an evaluation value for each file name of image data. The program memory 22 stores a program for the control unit 10 to comprehensively control each unit of the electronic camera 2 and to perform each process such as an imaging process, a reproduction process, and an image selection process. The memory card 24 is a portable storage medium that is detachably mounted in a card slot (not shown) provided in the electronic camera 2, and is, for example, a CF card, an SD card, a smart media, or the like.

操作部30は、電子カメラ2の電源をオン/オフする電源スイッチ(図示せず)、シャッタボタンを半押し位置まで押下することによりオンする半押しスイッチSW1、シャッタボタンの全押しによりオンする全押しスイッチSW2を備えている。   The operation unit 30 includes a power switch (not shown) for turning on / off the power of the electronic camera 2, a half-push switch SW1 that is turned on by depressing the shutter button to a half-pressed position, A push switch SW2 is provided.

次に、図2を参照して、第1の実施の形態に係る電子カメラ2における処理について説明する。まず、操作者は、電子カメラ2の図示しないボタンを操作することにより、電子カメラ2の操作モードとして時系列で連続取得した複数の画像データの中から、最適な画像データの選択を行う最適画像選択モードを設定する(ステップS1)。次に、制御部10は、撮像素子12による撮像を開始し、撮像素子12から所定のフレームレート(例えば30fps)で読み出した撮像信号に基づきLCD表示部14にスルー画像の表示を行う。   Next, processing in the electronic camera 2 according to the first embodiment will be described with reference to FIG. First, the operator operates a button (not shown) of the electronic camera 2 to select optimal image data from among a plurality of image data continuously acquired in time series as the operation mode of the electronic camera 2. A selection mode is set (step S1). Next, the control unit 10 starts imaging by the image sensor 12 and displays a through image on the LCD display unit 14 based on the image signal read from the image sensor 12 at a predetermined frame rate (for example, 30 fps).

次に、シャッタボタンが半押し位置まで押下され、半押しスイッチSW1がオン(S1)されると(ステップS2)、制御部10は、露出制御動作(AE)及び焦点調整動作(AF)を開始する(ステップS3)。即ち、撮像素子12から出力される撮像信号に基づいて露出制御動作(AE)を行い、適正露出が得られるようにシャッター速度および絞り値を確定する。例えば、平均測光方式によって被写体の明るさ(輝度)情報を検出する場合には、スルー画像を構成する信号値を平均して得た値を被写体の輝度情報とし、この被写体の輝度情報に基づいて最適露出値を確定してシャッター速度および絞り値を確定する。また、制御部10は、撮像素子12から読出された焦点検出信号を用いて瞳分割による焦点検出処理によりデフォーカス量を求め、図示しない撮影レンズの合焦を行なう。ここで、撮像素子12を構成するCMOSイメージセンサには、瞳分割位相差方式による焦点検出画素が組み込まれているものとする。   Next, when the shutter button is pressed down to the half-pressed position and the half-press switch SW1 is turned on (S1) (step S2), the control unit 10 starts the exposure control operation (AE) and the focus adjustment operation (AF). (Step S3). That is, an exposure control operation (AE) is performed based on the image pickup signal output from the image pickup device 12, and the shutter speed and the aperture value are determined so as to obtain an appropriate exposure. For example, when detecting the brightness (luminance) information of a subject by the average photometry method, a value obtained by averaging the signal values constituting the through image is used as the subject luminance information, and based on the luminance information of the subject. Determine the optimum exposure value and the shutter speed and aperture value. Further, the control unit 10 obtains a defocus amount by focus detection processing by pupil division using the focus detection signal read from the image sensor 12, and performs focusing of a photographing lens (not shown). Here, it is assumed that a focus detection pixel based on a pupil division phase difference method is incorporated in the CMOS image sensor constituting the imaging device 12.

露出制御動作(AE)及び焦点調整動作(AF)が完了すると、制御部10は、画像データのプリキャプチャーを開始する(ステップS4)。即ち、制御部10は、撮像素子12から出力される撮像信号に基づいて複数フレームの画像データをプリキャプチャーの画像データとして連続取得し、取得した複数フレームの画像データをバファメモリ16に記録する。ここで、バファメモリ16に記録する複数フレームの画像データの数は、図3に示すように、プリキャプチャー設定数として、例えば10フレームと定められている。従って、制御部10は、バファメモリ16に記録された画像データの数が10フレームに達した場合には、古い画像データから順に消去する。これにより、プリキャプチャーのために使用するバファメモリ16の容量を節約することができる。   When the exposure control operation (AE) and the focus adjustment operation (AF) are completed, the control unit 10 starts pre-capture of image data (step S4). That is, the control unit 10 continuously acquires image data of a plurality of frames as pre-captured image data based on the imaging signal output from the image sensor 12 and records the acquired image data of the plurality of frames in the buffer memory 16. Here, the number of image data of a plurality of frames to be recorded in the buffer memory 16 is determined to be, for example, 10 frames as the pre-capture setting number as shown in FIG. Therefore, when the number of image data recorded in the buffer memory 16 reaches 10 frames, the control unit 10 deletes the old image data in order. Thereby, the capacity of the buffer memory 16 used for pre-capture can be saved.

次に、制御部10は、レリーズボタンが全押し位置まで押下されて全押しスイッチSW2がオン(S2)されたか否かの判定を行う(ステップS5)。全押しスイッチSW2がオンされなかった場合(ステップS5:No)、画像データのプリキャプチャーを継続する(ステップS4)。   Next, the control unit 10 determines whether or not the release button is pressed down to the fully pressed position and the fully pressed switch SW2 is turned on (S2) (step S5). When the full press switch SW2 is not turned on (step S5: No), the pre-capture of the image data is continued (step S4).

全押しスイッチSW2がオン(S2)された場合(ステップS5:Yes)、制御部10は、画像データのポストキャプチャーを開始する(ステップS6)。即ち、制御部10は、撮像素子12から出力される撮像信号に基づいて全押しスイッチSW2がオンされた時点に撮像された画像データ(以下、基準画像データという。)を含む複数フレームの画像データをポストキャプチャーの画像データとして連続取得し、取得した複数フレームの画像データをバファメモリ16に記録する。ここで、バファメモリ16に記録する複数フレームの画像データの数は、ポストキャプチャー設定数として、例えば、スイッチSW2がオン(S2)された時点に撮像された画像データを含めて10フレームと定められている(図3参照)。   When the full push switch SW2 is turned on (S2) (step S5: Yes), the control unit 10 starts post-capturing of image data (step S6). That is, the control unit 10 includes a plurality of frames of image data including image data (hereinafter referred to as reference image data) captured when the full-press switch SW2 is turned on based on an imaging signal output from the imaging element 12. Are continuously acquired as post-capture image data, and the acquired plural frames of image data are recorded in the buffer memory 16. Here, the number of image data of a plurality of frames to be recorded in the buffer memory 16 is determined as 10 frames including the image data captured at the time when the switch SW2 is turned on (S2), for example, as the post-capture setting number. (See FIG. 3).

ポストキャプチャーが完了すると、制御部10は、バファメモリ16に記録された画像データ(即ち、プリキャプチャーにより取得した10フレームの画像データ及びポストキャプチャーにより取得した基準画像データを含む10フレームの画像データから成る20フレームの画像データ)について評価を行う(ステップS7)。   When the post-capture is completed, the control unit 10 includes image data recorded in the buffer memory 16 (that is, 10-frame image data including 10-frame image data acquired by pre-capture and reference image data acquired by post-capture). Evaluation is performed on 20 frames of image data (step S7).

以下、図4を参照して、第1の実施の形態の電子カメラ2における画像データの評価処理(ステップS7)について説明する。まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS11)、基準画像データ51に基づく画像に含まれる主要被写体(例えば、自動車)を検出する(ステップS12)。ここで、主要被写体の検出は、一般的に知られている被写体認識技術により行われる。   The image data evaluation process (step S7) in the electronic camera 2 of the first embodiment will be described below with reference to FIG. First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S11), and detects a main subject (for example, a car) included in the image based on the reference image data 51 (step S12). . Here, the detection of the main subject is performed by a generally known subject recognition technique.

次に、制御部10は、基準画像データ51に基づく画像から主要被写体の特徴に関する情報(以下、主要被写体情報という。)を抽出する(ステップS13)。例えば、自動車が主要被写体として検出された場合、自動車の大きさや形状などを主要被写体情報として抽出する。次に、制御部10は、主要被写体情報を情報記憶部18に記憶する。なお、情報記憶部18に記憶された主要被写体情報は、他の画像データに基づく画像において主要被写体を検出する場合に用いられる。   Next, the control unit 10 extracts information on the characteristics of the main subject (hereinafter referred to as main subject information) from the image based on the reference image data 51 (step S13). For example, when a car is detected as a main subject, the size and shape of the car are extracted as main subject information. Next, the control unit 10 stores the main subject information in the information storage unit 18. The main subject information stored in the information storage unit 18 is used when a main subject is detected in an image based on other image data.

次に、制御部10は、基準画像データ51に基づく画像において主要被写体を含む領域(以下、主要被写体領域という。)を決定する(ステップS14)。例えば、図5に示すように、主要被写体である自動車を含む矩形の領域を主要被写体領域70として決定する。次に、制御部10は、主要被写体領域70の位置や大きさ等の主要被写体領域に関する情報を情報記憶部18に記憶する。なお、主要被写体領域70は、主要被写体の移動方向を判定するために用いられる。   Next, the control unit 10 determines a region including the main subject (hereinafter referred to as a main subject region) in the image based on the reference image data 51 (step S14). For example, as shown in FIG. 5, a rectangular area including a car that is a main subject is determined as a main subject area 70. Next, the control unit 10 stores information on the main subject region such as the position and size of the main subject region 70 in the information storage unit 18. The main subject area 70 is used for determining the moving direction of the main subject.

次に、制御部10は、基準画像データ51の評価値として主要被写体がフレームアウトしていない場合の評価値(以下、基準評価値という。)をデータ記憶部20の評価ファイルに記憶する(ステップS15)。ここで、基準評価値は、基準画像データ51のファイル名に対応させて評価ファイルに記憶される。なお、図5に示すように、基準画像データ51に基づく画像においては、主要被写体領域70が画像の縁部と接しておらず、主要被写体はフレームアウトしていない。   Next, the control unit 10 stores, as an evaluation value of the reference image data 51, an evaluation value when the main subject is not out of frame (hereinafter referred to as a reference evaluation value) in the evaluation file of the data storage unit 20 (step). S15). Here, the reference evaluation value is stored in the evaluation file in association with the file name of the reference image data 51. As shown in FIG. 5, in the image based on the reference image data 51, the main subject region 70 is not in contact with the edge of the image, and the main subject is not out of frame.

次に、制御部10は、バファメモリ16から基準画像データ51の次に取得された画像データ52(図3参照)を読み出し(ステップS16)、また、情報記憶部18から主要被写体情報を読み出す。そして、主要被写体情報を用いて、画像データ52に基づく画像からステップS12において検出した主要被写体に対応する主要被写体を検出する(ステップS17)。次に、制御部10は、画像データ52に基づく画像において主要被写体領域を決定する(ステップS18)。   Next, the control unit 10 reads the image data 52 (see FIG. 3) acquired next to the reference image data 51 from the buffer memory 16 (step S16), and reads main subject information from the information storage unit 18. Then, the main subject corresponding to the main subject detected in step S12 is detected from the image based on the image data 52 using the main subject information (step S17). Next, the control unit 10 determines a main subject area in the image based on the image data 52 (step S18).

次に、制御部10は、ステップS16において読み出した画像データが基準画像データ51の次に取得された画像データであるか否かの判定を行う(ステップS19)。ここで、画像データ52は基準画像データ51の次に取得された画像データであるため(ステップS19:Yes)、制御部10は、主要被写体の移動方向の判定を行う(ステップS20)。即ち、制御部10は、情報記憶部18から基準画像データ51の主要被写体領域に関する情報を読み出し、ステップS18において決定した主要被写体領域が基準画像データ51に基づく画像の主要被写体領域のいずれの側に位置するかを判定することにより主要被写体の移動方向を判定する。例えば、図6に示すように、画像データ52の主要被写体領域72が基準画像データ51の主要被写体領域70の左下側に位置する場合、左下側の方向を主要被写体の移動方向であると判定する。次に、制御部10は、主要被写体の移動方向に関する情報を情報記憶部18に記憶する。   Next, the control unit 10 determines whether or not the image data read in step S16 is image data acquired next to the reference image data 51 (step S19). Here, since the image data 52 is image data acquired next to the reference image data 51 (step S19: Yes), the control unit 10 determines the moving direction of the main subject (step S20). That is, the control unit 10 reads information on the main subject area of the reference image data 51 from the information storage unit 18, and the main subject area determined in step S 18 is located on either side of the main subject area of the image based on the reference image data 51. The moving direction of the main subject is determined by determining whether it is located. For example, as shown in FIG. 6, when the main subject area 72 of the image data 52 is located on the lower left side of the main subject area 70 of the reference image data 51, the lower left direction is determined as the moving direction of the main subject. . Next, the control unit 10 stores information related to the moving direction of the main subject in the information storage unit 18.

一方、ステップS16において読み出した画像データが基準画像データ51の次に取得された画像データでない場合(ステップS19:No)、主要被写体の移動方向は既に判定されているため、制御部10は新たに移動方向の判定を行わない。   On the other hand, if the image data read in step S16 is not the image data acquired next to the reference image data 51 (step S19: No), the moving direction of the main subject has already been determined, so the control unit 10 newly Does not determine the direction of movement.

次に、制御部10は、画像データ52においてフレームアウト判定を行う(ステップS21)。ここで、フレームアウト判定は、主要被写体領域72の移動方向側の縁部の少なくとも一部が画像の縁部と接しているか否かを判定することにより行う。例えば、主要被写体の移動方向が左下側の方向である場合、図7に示すように、主要被写体領域72の左側の縁部及び下側の縁部が画像の縁部と接している場合、主要被写体がフレームアウトしていると判定する。また、図8に示すように、主要被写体領域72の左側の縁部のみが画像の縁部と接している場合や、主要被写体領域72の下側の縁部のみが画像の縁部と接している場合(図示せず)においても、主要被写体がフレームアウトしていると判定する。一方、主要被写体領域72の左側の縁部及び下側の縁部が共に画像の縁部と接していない場合、主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 performs frame out determination on the image data 52 (step S21). Here, the frame-out determination is performed by determining whether or not at least a part of the edge of the main subject region 72 on the moving direction side is in contact with the edge of the image. For example, when the moving direction of the main subject is the lower left side direction, as shown in FIG. 7, when the left edge and the lower edge of the main subject area 72 are in contact with the edge of the image, It is determined that the subject is out of frame. As shown in FIG. 8, only the left edge of the main subject area 72 is in contact with the edge of the image, or only the lower edge of the main subject area 72 is in contact with the edge of the image. Even if it is present (not shown), it is determined that the main subject is out of frame. On the other hand, when the left edge and the lower edge of the main subject area 72 are not in contact with the edge of the image, it is determined that the main subject is not out of frame.

主要被写体がフレームアウトしていない場合(ステップS21:No)、制御部10は、評価値の変更を行わず、基準評価値を画像データ52のファイル名に対応させて評価ファイルに記憶した後(ステップS22)、バファメモリ16に記録されている画像データの全てについて評価を行ったか否かを判定する(ステップS24)。なお、ポストキャプチャーにより取得した画像データ52について評価を行った場合、プリキャプチャーにより取得した画像データについては評価を行っていないため(ステップS24:No)、ステップS16の処理に戻る。そして、画像データ52の次に取得された画像データ53(図3参照)についてステップS16以降の処理を行う。画像データ53の主要被写体がフレームアウトしていない場合(ステップS21:No)、制御部10は、評価値の変更を行わず、基準評価値を画像データ53のファイル名に対応させて評価ファイルに記憶した後(ステップS22)再びステップS16の処理に戻り(ステップS24:No)、ポストキャプチャーにより取得した画像データについて同様の処理を繰り返す。   When the main subject is not out of frame (step S21: No), the control unit 10 does not change the evaluation value, and stores the reference evaluation value in the evaluation file in association with the file name of the image data 52 ( In step S22), it is determined whether or not all the image data recorded in the buffer memory 16 have been evaluated (step S24). Note that when the image data 52 acquired by the post-capture is evaluated, the image data acquired by the pre-capture is not evaluated (step S24: No), and the process returns to the step S16. And the process after step S16 is performed about the image data 53 (refer FIG. 3) acquired after the image data 52. FIG. When the main subject of the image data 53 is not out of the frame (step S21: No), the control unit 10 does not change the evaluation value and associates the reference evaluation value with the file name of the image data 53 in the evaluation file. After the storage (step S22), the process returns to step S16 again (step S24: No), and the same process is repeated for the image data acquired by post-capture.

一方、主要被写体がフレームアウトしている場合(ステップS21:Yes)、制御部10は、基準評価値よりも低い評価値を画像データ52のファイル名に対応させて評価ファイルに記憶する(ステップS23)。   On the other hand, when the main subject is out of frame (step S21: Yes), the control unit 10 stores an evaluation value lower than the reference evaluation value in the evaluation file in association with the file name of the image data 52 (step S23). ).

本実施の形態のフレームアウト判定において、制御部10は、主要被写体の移動方向を判定し、主要被写体領域の移動方向側の縁部が画像の縁部と接している画像データよりも後に取得された画像データについては、フレームアウト判定を行わず、基準評価値よりも低い評価値を評価ファイルに記憶する。   In the frame-out determination according to the present embodiment, the control unit 10 determines the moving direction of the main subject, and is acquired after the image data in which the moving portion side edge of the main subject region is in contact with the edge of the image. For the image data, the frame out determination is not performed, and an evaluation value lower than the reference evaluation value is stored in the evaluation file.

また、制御部10は、主要被写体の移動方向を判定し、主要被写体領域の移動方向と反対側の縁部が画像の縁部と接している画像データよりも前に取得された画像データについては、フレームアウト判定を行わず、基準評価値よりも低い評価値を評価ファイルに記憶する。   Further, the control unit 10 determines the moving direction of the main subject, and the image data acquired before the image data in which the edge opposite to the moving direction of the main subject region is in contact with the edge of the image is obtained. The evaluation value lower than the reference evaluation value is stored in the evaluation file without performing the frame-out determination.

次に、制御部10は、バファメモリ16に記録されている画像データの全てについて評価を行ったか否かを判定する(ステップS24)。プリキャプチャーにより取得した画像データ等について評価を行っていない場合(ステップS24:No)、ステップS16の処理に戻り、プリキャプチャーにより取得した、例えば、画像データ50(図3参照)についてについてステップS16以降の処理を行う。なお、プリキャプチャーにより取得した画像データについてのフレームアウト判定は、ステップS20により判定した主要被写体領域の移動方向側と反対側の縁部の少なくとも一部(例えば、主要被写体の移動方向が左下側である場合、主要被写体領域の右側及び上側の少なくとも一つ)が画像の縁部と接しているか否かを判定することにより行う。そして、画像データ50の主要被写体がフレームアウトしていない場合(ステップS21:No)、制御部10は、評価値の変更を行わず、基準評価値を画像データ50のファイル名に対応させて評価ファイルに記憶した後(ステップS22)、再びステップS16の処理に戻り(ステップS24:No)、画像データ50以前に取得されたプリキャプチャーの画像データについて同様の処理を繰り返す。   Next, the control unit 10 determines whether or not all of the image data recorded in the buffer memory 16 has been evaluated (step S24). When image data acquired by pre-capture has not been evaluated (step S24: No), the process returns to step S16, and for example, for image data 50 (see FIG. 3) acquired by pre-capture, step S16 and subsequent steps. Perform the process. Note that the frame-out determination for the image data acquired by the pre-capture is performed by at least a part of the edge opposite to the moving direction side of the main subject area determined in step S20 (for example, the moving direction of the main subject is the lower left side) In some cases, the determination is made by determining whether at least one of the right side and the upper side of the main subject area is in contact with the edge of the image. If the main subject of the image data 50 is not out of frame (step S21: No), the control unit 10 does not change the evaluation value, and evaluates the reference evaluation value in association with the file name of the image data 50. After storing in the file (step S22), the process returns to step S16 again (step S24: No), and the same process is repeated for the pre-captured image data acquired before the image data 50.

バファメモリ16に記録された画像データの全てについて評価を行った場合(ステップS24:Yes)、制御部10は、データ記憶部20から評価ファイルを読み出し、画像データの評価処理(図2、ステップS7)を完了する。そして、評価ファイルに基準評価値が記憶されている画像データ(以下、基準評価値の画像データという。)を記録画像として選択してメモリカード24に記録する(図2、ステップS8)。   When all of the image data recorded in the buffer memory 16 has been evaluated (step S24: Yes), the control unit 10 reads the evaluation file from the data storage unit 20, and evaluates the image data (FIG. 2, step S7). To complete. Then, image data in which the reference evaluation value is stored in the evaluation file (hereinafter referred to as image data of the reference evaluation value) is selected as a recorded image and recorded on the memory card 24 (FIG. 2, step S8).

なお、上述の実施形態では、SW2がオンされた時点に撮像された画像データを基準画像データとしているが、プリキャプチャーの先頭画像を基準画像データとしてもよい。また、記録された画像から主要被写体の画面内の位置を検出し、その位置が画面の中央部に位置する画像を基準画像データとし、この基準画像データにより主要被写体を検出するようにしてもよい。このように構成すれば、確実にフレームアウトしていない主要被写体を基準画像データに設定することができ、フレームアウトの判定制度が向上する。   In the above-described embodiment, the image data captured when SW2 is turned on is used as the reference image data. However, the first image of pre-capture may be used as the reference image data. Alternatively, the position of the main subject in the screen may be detected from the recorded image, and an image in which the position is located in the center of the screen is used as reference image data, and the main subject may be detected based on the reference image data. . With this configuration, it is possible to set a main subject that is not out of frame with certainty as reference image data, and the frame out determination system is improved.

この第1の実施の形態に係る電子カメラ2によれば、時系列で取得された複数の画像データについて、主要被写体がフレームアウトしているか否かを画像評価の対象とすることができる。また、主要被写体の移動方向を判定し、主要被写体領域の移動方向側の縁部が画像の縁部と接している画像データよりも後(前)に取得された画像データについては、フレームアウト判定を行わず、基準評価値よりも低い評価値を評価ファイルに記憶する。このため、例えば、電子カメラ2を三脚等に固定した状態で移動方向が明確な主要被写体を撮像した場合等において、効率よく主要被写体がフレームアウトしていない画像データを選択することができる。   According to the electronic camera 2 according to the first embodiment, whether or not the main subject is out of frame can be set as the object of image evaluation for a plurality of pieces of image data acquired in time series. In addition, the moving direction of the main subject is determined, and the image data acquired after (before) the image data in which the edge on the moving direction side of the main subject region is in contact with the edge of the image is determined to be out of frame. The evaluation value lower than the reference evaluation value is stored in the evaluation file. For this reason, for example, when a main subject with a clear movement direction is imaged while the electronic camera 2 is fixed to a tripod or the like, image data in which the main subject is not out of frame can be selected efficiently.

また、上述の実施形態において、主要被写体がフレームアウトしていない状態からフレームアウトしている状態、または主要被写体がフレームアウトしている状態からフレームアウトしていない状態に切り替わる時点の前後でのフレーム画像について、検出された主要被写体の移動方向と主要被写体のフレームアウト位置とに基づいて、画像の後(前)に取得された画像データの判定を行うようにすれば、主要被写体のフレームアウト判定をさらに効率よく行うことができる。   Further, in the above-described embodiment, the frames before and after the time when the main subject is out of the frame and the main subject is switched out of the frame or the main subject is switched out of the frame. If the image data acquired after (before) the image is determined based on the detected moving direction of the main subject and the frame-out position of the main subject, the frame-out determination of the main subject is performed. Can be performed more efficiently.

次に、第2の実施の形態に係る電子カメラの処理について説明する。この第2の実施の形態に係る電子カメラは、第1の実施の形態において、主要被写体の移動方向の判定を行わず、バファメモリ16に記録された全ての画像データについてフレームアウト判定を行うようにしたものである。従って、第2の実施の形態では、第1の実施の形態と異なる部分である画像データの評価処理に関する部分について詳細に説明し、重複する部分については適宜説明を省略する。   Next, processing of the electronic camera according to the second embodiment will be described. In the first embodiment, the electronic camera according to the second embodiment does not determine the moving direction of the main subject but performs frame-out determination for all the image data recorded in the buffer memory 16 in the first embodiment. It is a thing. Therefore, in the second embodiment, a part relating to the image data evaluation process, which is a different part from the first embodiment, will be described in detail, and the description of the overlapping part will be omitted as appropriate.

図9は、第2の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS31)、基準画像データ51に基づく画像に含まれる主要被写体を検出する(ステップS32)。   FIG. 9 is a flowchart showing image data evaluation processing in the electronic camera according to the second embodiment. First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S31), and detects the main subject included in the image based on the reference image data 51 (step S32).

次に、制御部10は、基準画像データ51に基づく画像から主要被写体情報を抽出し(ステップS33)、情報記憶部18に記憶する。次に、制御部10は、基準画像データ51に基づく画像において主要被写体領域を決定し(ステップS34)、画像の縁部と接する主要被写体領域の接辺の数を判定し(ステップS35)、接辺の数に関する情報を情報記憶部18に記憶する。例えば、図10に示すように、基準画像データ51に基づく画像における主要被写体領域80が画像の縁部と接している場合、接辺の数を「1」と判定する。また、図11に示すように、主要被写体領域80が画像の縁部と接していない場合、接辺の数を「0」と判定する。次に、制御部10は、基準評価値を基準画像データ51のファイル名に対応させてデータ記憶部20の評価ファイルに記憶する(ステップS36)。   Next, the control unit 10 extracts main subject information from the image based on the reference image data 51 (step S33) and stores it in the information storage unit 18. Next, the control unit 10 determines the main subject area in the image based on the reference image data 51 (step S34), determines the number of contact sides of the main subject area that touches the edge of the image (step S35), Information related to the number of sides is stored in the information storage unit 18. For example, as shown in FIG. 10, when the main subject region 80 in the image based on the reference image data 51 is in contact with the edge of the image, the number of contact sides is determined as “1”. Also, as shown in FIG. 11, when the main subject region 80 is not in contact with the edge of the image, the number of contact sides is determined as “0”. Next, the control unit 10 stores the reference evaluation value in the evaluation file of the data storage unit 20 in association with the file name of the reference image data 51 (step S36).

次に、制御部10は、バファメモリ16から基準画像データ51の次に取得された画像データ52(図3参照)を読み出し(ステップS37)、また、情報記憶部18から主要被写体情報を読み出す。次に、制御部10は、主要被写体情報を用いて、画像データ52に基づく画像からステップS32において検出した主要被写体に対応する主要被写体を検出する(ステップS38)。次に、制御部10は、画像データ52に基づく画像において主要被写体領域を決定し(ステップS39)、画像の縁部と接する主要被写体領域の接辺の数を判定する(ステップS40)。   Next, the control unit 10 reads the image data 52 (see FIG. 3) acquired next to the reference image data 51 from the buffer memory 16 (step S37), and reads main subject information from the information storage unit 18. Next, the control unit 10 detects the main subject corresponding to the main subject detected in step S32 from the image based on the image data 52 using the main subject information (step S38). Next, the control unit 10 determines a main subject region in the image based on the image data 52 (step S39), and determines the number of contact sides of the main subject region that are in contact with the edge of the image (step S40).

次に、制御部10は、情報記憶部18から基準画像データ51の接辺の数に関する情報を読み出し、基準画像データ51における接辺の数と画像データ52における接辺の数とを比較することにより、画像データ52においてフレームアウト判定を行う(ステップS41)。例えば、図12に示すように、画像データ52における接辺の数が基準画像データ51における接辺の数よりも多い場合、画像データ52において主要被写体がフレームアウトしていると判定する。また、図13(a)に示すように、画像データ52における接辺の数が基準画像データ51における接辺の数よりも少ない場合や、図13(b)に示すように、画像データ52における接辺の数と基準画像データ51における接辺の数とが同一である場合、画像データ52において主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 reads out information on the number of contact sides of the reference image data 51 from the information storage unit 18 and compares the number of contact sides in the reference image data 51 with the number of contact sides in the image data 52. Thus, frame out determination is performed on the image data 52 (step S41). For example, as shown in FIG. 12, when the number of tangent sides in the image data 52 is larger than the number of tangent sides in the reference image data 51, it is determined that the main subject is out of frame in the image data 52. Further, as shown in FIG. 13A, when the number of tangent sides in the image data 52 is smaller than the number of tangent sides in the reference image data 51, or as shown in FIG. When the number of tangent sides is the same as the number of tangent sides in the reference image data 51, it is determined that the main subject is not out of frame in the image data 52.

主要被写体がフレームアウトしていない場合(ステップS41:No)、制御部10は、評価値の変更を行わず、基準評価値を画像データ52のファイル名に対応させて評価ファイルに記憶する(ステップS42)。一方、主要被写体がフレームアウトしている場合(ステップS41:Yes)、制御部10は、基準評価値よりも低い評価値を画像データ52のファイル名に対応させて評価ファイルに記憶する(ステップS43)。   If the main subject is not out of frame (step S41: No), the control unit 10 does not change the evaluation value, and stores the reference evaluation value in the evaluation file in association with the file name of the image data 52 (step). S42). On the other hand, when the main subject is out of frame (step S41: Yes), the control unit 10 stores an evaluation value lower than the reference evaluation value in the evaluation file in association with the file name of the image data 52 (step S43). ).

次に、制御部10は、バファメモリ16に記録されている画像データの全てについて評価を行ったか否かを判定する(ステップS44)。バファメモリ16に記録された画像データの全てについて評価を行っていない場合(ステップS44:No)、ステップS37の処理に戻り、画像データ52の次に取得された画像データ53(図3参照)についてステップS37〜44の処理を行う。以後、制御部10は、ポストキャプチャーにより取得した画像データについてステップS37〜44の処理を繰り返す。ポストキャプチャーにより取得した画像データの全てについて評価が完了すると、制御部10は、プリキャプチャーにより取得した、例えば、画像データ50(図3参照)についてステップS37〜44の処理を行う。以後、画像データ50よりも前に取得されたプリキャプチャーの画像データについてステップS37〜44の処理を繰り返す。   Next, the control unit 10 determines whether or not all of the image data recorded in the buffer memory 16 has been evaluated (step S44). When all the image data recorded in the buffer memory 16 has not been evaluated (step S44: No), the process returns to the process of step S37, and the step is performed for the image data 53 (see FIG. 3) acquired after the image data 52. The process of S37-44 is performed. Thereafter, the control unit 10 repeats the processes of steps S37 to S44 for the image data acquired by post capture. When the evaluation is completed for all the image data acquired by the post-capture, the control unit 10 performs the processes of steps S37 to S44 for the image data 50 (see FIG. 3) acquired by the pre-capture, for example. Thereafter, the processes in steps S37 to S44 are repeated for the pre-captured image data acquired before the image data 50.

バファメモリ16に記録された画像データの全てについて評価を行った場合(ステップS24:Yes)、制御部10は、データ記憶部20から評価ファイルを読み出し、画像データの評価処理(図2、ステップS7)を完了し、基準評価値の画像データを記録画像として選択してメモリカード24に記録する(図2、ステップS8)。   When all of the image data recorded in the buffer memory 16 has been evaluated (step S24: Yes), the control unit 10 reads the evaluation file from the data storage unit 20, and evaluates the image data (FIG. 2, step S7). The image data of the reference evaluation value is selected as a recorded image and recorded on the memory card 24 (FIG. 2, step S8).

この第2の実施の形態に係る電子カメラによれば、バファメモリ16に記録された画像データの全てについて評価を行うため、例えば、動被写体を流し撮りし、画像のみからでは主要被写体の傾向的な移動方向が特定できない場合等においても、主要被写体がフレームアウトしていない画像データを的確に選択することができる。   According to the electronic camera of the second embodiment, since all of the image data recorded in the buffer memory 16 is evaluated, for example, a moving subject is panned and the main subject tends to be seen only from the image. Even when the moving direction cannot be specified, image data in which the main subject is not out of frame can be selected accurately.

次に、第3の実施の形態に係る電子カメラの処理について説明する。この第3の実施の形態に係る電子カメラは、第2の実施の形態において、主要被写体領域の接辺の数を判定することに代えて、主要被写体領域の少なくとも一部が他の被写体の陰に隠れているか否かを判定するようにしたものである。そして、この判定結果に基づいてフレームアウト判定を行うようにしてものである。従って、第3の実施の形態では、第2の実施の形態と異なる処理について詳細に説明し、重複する部分については適宜説明を省略する。   Next, processing of the electronic camera according to the third embodiment will be described. In the electronic camera according to the third embodiment, in the second embodiment, instead of determining the number of tangent sides of the main subject area, at least a part of the main subject area is behind the other subject. It is determined whether it is hidden or not. The frame-out determination is performed based on the determination result. Therefore, in the third embodiment, processing different from that of the second embodiment will be described in detail, and description of overlapping portions will be omitted as appropriate.

図14は、第3の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS51)、基準画像データ51に基づく画像に含まれる主要被写体を検出する(ステップS52)。   FIG. 14 is a flowchart showing image data evaluation processing in the electronic camera according to the third embodiment. First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S51), and detects the main subject included in the image based on the reference image data 51 (step S52).

次に、制御部10は、基準画像データに基づく画像から主要被写体情報を抽出し(ステップS53)、情報記憶部18に記憶する。次に、制御部10は、基準評価値を基準画像データ51のファイル名に対応させてデータ記憶部20の評価ファイルに記憶する(ステップS54)。   Next, the control unit 10 extracts main subject information from the image based on the reference image data (step S53) and stores it in the information storage unit 18. Next, the control unit 10 stores the reference evaluation value in the evaluation file of the data storage unit 20 in association with the file name of the reference image data 51 (step S54).

次に、制御部10は、バファメモリ16から基準画像データ51の次に取得された画像データ52(図3参照)を読み出し(ステップS55)、また、情報記憶部18から主要被写体情報を読み出す。次に、制御部10は、主要被写体情報を用いて、画像データ52に基づく画像からステップS52において検出した主要被写体に対応する主要被写体を検出する(ステップS56)。次に、制御部10は、画像データ52に基づく画像において主要被写体領域を決定する(ステップS57)。   Next, the control unit 10 reads the image data 52 (see FIG. 3) acquired next to the reference image data 51 from the buffer memory 16 (step S55), and reads main subject information from the information storage unit 18. Next, the control unit 10 detects the main subject corresponding to the main subject detected in step S52 from the image based on the image data 52 using the main subject information (step S56). Next, the control unit 10 determines a main subject area in the image based on the image data 52 (step S57).

次に、制御部10は、画像データ52に基づく画像において主要被写体と異なる他の被写体を検出し(ステップS58)、検出結果に基づいて画像データ52においてフレームアウト判定を行う(ステップS59)。例えば、画像データ52に基づく画像において主要被写体と異なる他の被写体を検出した場合、制御部10は、主要被写体領域の少なくとも一部が他の被写体の陰に隠れるか否かの判定を行う。即ち、図15に示すように、画像データ52に基づく画像における主要被写体領域84の一部が他の被写体86の陰に隠れる場合、制御部10は、画像データ52について主要被写体がフレームアウトしていると判定する。一方、主要被写体領域が他の被写体の陰に隠れていない場合や、画像データ52に基づく画像において他の被写体を検出しなかった場合、制御部10は、画像データ52について主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 detects another subject different from the main subject in the image based on the image data 52 (step S58), and performs frame-out determination on the image data 52 based on the detection result (step S59). For example, when another subject different from the main subject is detected in the image based on the image data 52, the control unit 10 determines whether at least a part of the main subject region is hidden behind the other subject. That is, as shown in FIG. 15, when a part of the main subject area 84 in the image based on the image data 52 is hidden behind another subject 86, the control unit 10 frames the main subject out of the image data 52. It is determined that On the other hand, when the main subject area is not hidden behind other subjects or when no other subject is detected in the image based on the image data 52, the control unit 10 frames the main subject out of the image data 52. Judge that it is not.

ステップS60〜62の処理については、第2の実施の形態におけるステップS42〜44の処理と同様であるため説明を省略する。   The processing in steps S60 to 62 is the same as the processing in steps S42 to S44 in the second embodiment, and a description thereof will be omitted.

この第3の実施の形態に係る電子カメラによれば、主要被写体と異なる他の被写体を検出し、主要被写体領域の少なくとも一部が他の被写体の陰に隠れる画像の画像データについて主要被写体がフレームアウトしていると判定するため、主要被写体が明確に表示されている良好な画像の画像データを的確に選択することができる。   According to the electronic camera of the third embodiment, another subject different from the main subject is detected, and the main subject is a frame for image data of an image in which at least a part of the main subject area is hidden behind the other subject. Since it is determined that the main subject is out, it is possible to accurately select image data of a good image in which the main subject is clearly displayed.

次に、第4の実施の形態に係る電子カメラの処理について説明する。この第4の実施の形態に係る電子カメラは、第2の実施の形態において、主要被写体領域の接辺の数を判定することに代えて、一の主要被写体領域の少なくとも一部が他の主要被写体領域と重なるか否かを判定するようにしたものである。そして、この判定結果に基づいてフレームアウト判定を行うようにしたものである。従って、第4の実施の形態では、第2の実施の形態と異なる処理について詳細に説明し、重複する部分については適宜説明を省略する。   Next, processing of the electronic camera according to the fourth embodiment will be described. In the electronic camera according to the fourth embodiment, in the second embodiment, instead of determining the number of tangent sides of the main subject area, at least a part of one main subject area is the other main subject area. It is determined whether or not the subject area overlaps. Then, frame out determination is performed based on the determination result. Therefore, in the fourth embodiment, processing different from that of the second embodiment will be described in detail, and description of overlapping portions will be omitted as appropriate.

図16は、第4の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS71)、基準画像データ51に基づく画像に含まれる複数の主要被写体を検出する(ステップS72)。例えば、図17に示すように、複数の人物が画像に含まれる場合、人物の顔の部分をそれぞれ主要被写体94及び主要被写体96として検出する。   FIG. 16 is a flowchart showing image data evaluation processing in the electronic camera according to the fourth embodiment. First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S71), and detects a plurality of main subjects included in the image based on the reference image data 51 (step S72). For example, as shown in FIG. 17, when a plurality of persons are included in the image, the face portions of the persons are detected as the main subject 94 and the main subject 96, respectively.

次に、制御部10は、基準画像データ51に基づく画像から主要被写体94の主要被写体情報及び主要被写体96の主要被写体情報を抽出し(ステップS73)、情報記憶部18に記憶する。次に、制御部10は、基準評価値を基準画像データ51のファイル名に対応させてデータ記憶部20の評価ファイルに記憶する(ステップS74)。   Next, the control unit 10 extracts the main subject information of the main subject 94 and the main subject information of the main subject 96 from the image based on the reference image data 51 (step S73), and stores them in the information storage unit 18. Next, the control unit 10 stores the reference evaluation value in the evaluation file of the data storage unit 20 in association with the file name of the reference image data 51 (step S74).

次に、制御部10は、バファメモリ16から基準画像データ51の次に取得された画像データ52(図3参照)を読み出し(ステップS75)、また、情報記憶部18から主要被写体94の主要被写体情報、及び主要被写体96の主要被写体情報を読み出す。次に、制御部10は、情報記憶部18から読み出した主要被写体情報を用いて、画像データ52に基づく画像から複数の主要被写体を検出する(ステップS76)。即ち、図18に示すように、主要被写体94に対応する主要被写体97、及び主要被写体96に対応する主要被写体98を検出する。次に、制御部10は、画像データ52に基づく画像において主要被写体97を含む主要被写体領域99、及び主要被写体98を含む主要被写体領域100(図18参照)を決定する(ステップS77)。   Next, the control unit 10 reads the image data 52 (see FIG. 3) acquired next to the reference image data 51 from the buffer memory 16 (step S75), and the main subject information of the main subject 94 from the information storage unit 18. , And main subject information of the main subject 96 is read out. Next, the control unit 10 detects a plurality of main subjects from the image based on the image data 52 using the main subject information read from the information storage unit 18 (step S76). That is, as shown in FIG. 18, a main subject 97 corresponding to the main subject 94 and a main subject 98 corresponding to the main subject 96 are detected. Next, the control unit 10 determines a main subject region 99 including the main subject 97 and a main subject region 100 (see FIG. 18) including the main subject 98 in the image based on the image data 52 (step S77).

次に、制御部10は、画像データ52に基づく画像において一の主要被写体領域の少なくとも一部が他の主要被写体領域と重なるか否かを判定することによりフレームアウト判定を行う(ステップS78)。例えば、図19に示すように、主要被写体領域99の一部が主要被写体領域100と重なる場合、主要被写体がフレームアウトしていると判定する。一方、図18に示すように、主要被写体領域99と主要被写体領域100とが重ならない場合、主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 performs frame-out determination by determining whether or not at least a part of one main subject area overlaps with another main subject area in the image based on the image data 52 (step S78). For example, as shown in FIG. 19, when a part of the main subject region 99 overlaps the main subject region 100, it is determined that the main subject is out of frame. On the other hand, as shown in FIG. 18, when the main subject area 99 and the main subject area 100 do not overlap, it is determined that the main subject is not out of frame.

ステップS79〜81の処理については、第2の実施の形態におけるステップS42〜44の処理と同様であるため説明を省略する。   The processing in steps S79 to 81 is the same as the processing in steps S42 to S44 in the second embodiment, and thus the description thereof is omitted.

この第4の実施の形態に係る電子カメラによれば、主要被写体が複数存在する場合においても良好な画像の画像データを的確に選択することができる。   According to the electronic camera of the fourth embodiment, it is possible to accurately select image data of a good image even when there are a plurality of main subjects.

次に、第5の実施の形態に係る画像データの評価処理について説明する。この第5の実施の形態に係る電子カメラは、第1乃至4の実施の形態において、画像にフレームアウト判定を行うための領域(以下、フレームアウト領域という。)を設定したものである。従って、第1乃至4の実施と異なる部分である、フレームアウト領域の設定に関する部分について詳細に説明し、重複する部分については適宜説明を省略する。   Next, image data evaluation processing according to the fifth embodiment will be described. In the electronic camera according to the fifth embodiment, in the first to fourth embodiments, an area for performing frame-out determination (hereinafter referred to as a frame-out area) is set in an image. Accordingly, the part relating to the setting of the frame-out area, which is a part different from the first to fourth implementations, will be described in detail, and the description of the overlapping part will be omitted as appropriate.

図20は、第5の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS95)、基準画像データ51に基づく画像に含まれる主要被写体(例えば、人の顔)を検出する(ステップS96)。次に、基準画像データ51に基づく画像から主要被写体情報を抽出し(ステップS97)、情報記憶部18に記憶する。ここで、主要被写体情報は、他の画像データに基づく画像において主要被写体を検出する場合に用いられる。   FIG. 20 is a flowchart showing image data evaluation processing in the electronic camera according to the fifth embodiment. First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S95), and detects a main subject (for example, a human face) included in the image based on the reference image data 51 (step S95). S96). Next, main subject information is extracted from the image based on the reference image data 51 (step S97) and stored in the information storage unit 18. Here, the main subject information is used when a main subject is detected in an image based on other image data.

次に、制御部10は、基準画像データ51に基づく画像において主要被写体領域を決定する(ステップS98)。例えば、図21に示すように、主要被写体である人の顔60を含む正方形の領域を主要被写体領域62として決定する。   Next, the control unit 10 determines a main subject area in the image based on the reference image data 51 (step S98). For example, as shown in FIG. 21, a square area including a human face 60 as a main subject is determined as the main subject area 62.

次に、制御部10は、検出した主要被写体の大きさに基づいて、フレームアウト領域の幅を決定する(ステップS99)。例えば、制御部10は、基準画像データ51に基づく画像に表示された人の顔60(図21参照)の面積を計測し、人の顔60の面積が大きいほどフレームアウト領域の幅を広く、人の顔60の面積が小さいほどフレームアウト領域の幅を狭く決定する。   Next, the control unit 10 determines the width of the frame-out area based on the detected size of the main subject (step S99). For example, the control unit 10 measures the area of the person's face 60 (see FIG. 21) displayed in the image based on the reference image data 51, and the larger the area of the person's face 60, the wider the frame-out region, The smaller the area of the human face 60 is, the smaller the width of the frame-out region is determined.

次に、制御部10は、基準画像データ51に基づく画像において、ステップS99で決定した幅のフレームアウト領域を設定する(ステップS100)。例えば、ステップS99で決定したフレームアウト領域の幅が幅Aである場合、図21に示すように、画像の両側の縁部及び下側の縁部に沿った幅Aのコの字型の領域をフレームアウト領域64として設定する。なお、フレームアウト領域64の位置及び形状(幅を除く)は、予め操作者により設定されている。   Next, in the image based on the reference image data 51, the control unit 10 sets the frame-out area having the width determined in step S99 (step S100). For example, when the width of the frame-out area determined in step S99 is the width A, as shown in FIG. 21, a U-shaped area having a width A along both the edge and the lower edge of the image. Is set as the frame-out area 64. Note that the position and shape (excluding the width) of the frame-out region 64 are set in advance by the operator.

次に、制御部10は、主要被写体領域62の少なくとも一部がフレームアウト領域64と重なっているか否かを判定することにより、基準画像データ51においてフレームアウト判定を行う(ステップS101)。例えば、図22に示すように、主要被写体領域62の一部がフレームアウト領域64と重なる場合、制御部10は、主要被写体がフレームアウトしていると判定する。一方、図21に示すように、主要被写体領域62がフレームアウト領域64と重ならない場合、制御部10は、主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 performs frame out determination in the reference image data 51 by determining whether or not at least a part of the main subject region 62 overlaps the frame out region 64 (step S101). For example, as shown in FIG. 22, when a part of the main subject area 62 overlaps the frame-out area 64, the control unit 10 determines that the main subject is out of frame. On the other hand, as shown in FIG. 21, when the main subject area 62 does not overlap the frame-out area 64, the control unit 10 determines that the main subject is not out of frame.

なお、ステップS102〜S104の処理については、第1の実施の形態におけるステップS22〜24の処理と同様であるため説明を省略する。   In addition, about the process of step S102-S104, since it is the same as that of the process of step S22-24 in 1st Embodiment, description is abbreviate | omitted.

この第5の実施の形態に係る電子カメラ2によれば、時系列で取得された複数の画像データについて、主要被写体がフレームアウトしているか否かを画像評価の対象とすることができる。また、主要被写体の面積が大きいほどフレームアウト領域の幅を広くするため、例えば、画像に人の顔が大きく表示されている場合には、顔の位置が画像の中央から離れていれば、主要被写体がフレームアウトしていると判定され易くなる。一方、主要被写体の面積が小さいほどフレームアウト領域の幅を狭くするため、例えば、人の顔が小さく表示されている画像の画像データは、主要被写体がフレームアウトしていると判定され難くなる。これにより、バランスの良い構図の画像データを的確に選択することができる。   According to the electronic camera 2 according to the fifth embodiment, whether or not the main subject is out of frame can be set as the object of image evaluation for a plurality of pieces of image data acquired in time series. Also, in order to increase the width of the frame-out area as the area of the main subject is larger, for example, when a human face is displayed larger in the image, if the face position is far from the center of the image, It is easy to determine that the subject is out of frame. On the other hand, since the width of the frame-out region is narrowed as the area of the main subject is small, for example, image data of an image in which a human face is displayed small is difficult to determine that the main subject is out of frame. Thereby, it is possible to accurately select image data having a well-balanced composition.

次に、第6の実施の形態に係る電子カメラの処理について説明する。この第6の実施の形態に係る電子カメラは、第5の実施の形態において、さらに主要被写体の位置を検出し、主要被写体の位置及び大きさに基づいてフレームアウト領域の幅を決定するようにしたものである。そして、主要被写体の少なくとも一つがフレームアウト領域と重なる場合に主要被写体がフレームアウトしていると判定するようにしたものである。従って、第6の実施の形態では、第5の実施の形態と異なる部分である画像データの評価処理に関する部分を、図20を参照して詳細に説明し、重複する部分については適宜説明を省略する。   Next, processing of the electronic camera according to the sixth embodiment will be described. In the electronic camera according to the sixth embodiment, in the fifth embodiment, the position of the main subject is further detected, and the width of the frame-out area is determined based on the position and size of the main subject. It is a thing. Then, when at least one of the main subjects overlaps the frame-out area, it is determined that the main subject is out of frame. Therefore, in the sixth embodiment, a part related to the image data evaluation process, which is a part different from the fifth embodiment, will be described in detail with reference to FIG. 20, and description of overlapping parts will be omitted as appropriate. To do.

まず、制御部10は、バファメモリ16から基準画像データ51(図3参照)を読み出し(ステップS95)、基準画像データ51に基づく画像に含まれる複数の主要被写体を検出する(ステップS96)。例えば、図23に示すように、複数の人物が画像に含まれる場合、人物の顔の部分をそれぞれ主要被写体72、主要被写体74、及び主要被写体76として検出する。次に、基準画像データ51に基づく画像から主要被写体情報を抽出し(ステップS97)、情報記憶部18に記憶する。   First, the control unit 10 reads the reference image data 51 (see FIG. 3) from the buffer memory 16 (step S95), and detects a plurality of main subjects included in the image based on the reference image data 51 (step S96). For example, as shown in FIG. 23, when a plurality of persons are included in the image, the face portions of the persons are detected as a main subject 72, a main subject 74, and a main subject 76, respectively. Next, main subject information is extracted from the image based on the reference image data 51 (step S97) and stored in the information storage unit 18.

次に、制御部10は、基準画像データ51に基づく画像において、それぞれの主要被写体に対応する主要被写体領域を決定する(ステップS98)。即ち、図23に示すように、主要被写体72に対応する主要被写体領域80、主要被写体74に対応する主要被写体領域82、及び主要被写体76に対応する主要被写体領域84を決定する。   Next, the control unit 10 determines a main subject area corresponding to each main subject in the image based on the reference image data 51 (step S98). That is, as shown in FIG. 23, a main subject region 80 corresponding to the main subject 72, a main subject region 82 corresponding to the main subject 74, and a main subject region 84 corresponding to the main subject 76 are determined.

次に、制御部10は、主要被写体の位置及び大きさに基づいて、フレームアウト領域の幅を決定する(ステップS99)。即ち、制御部10は、まず、画像における主要被写体の位置を検出する。次に、画像のそれぞれの縁部に最も近い主要被写体を判定する。例えば、図23において、画像の左側の縁部に最も近い主要被写体を主要被写体72であると判定する。同様にして、画像の下側の縁部に最も近い主要被写体を主要被写体74であると判定し、画像の右側の縁部に最も近い主要被写体を主要被写体76であると判定する。   Next, the control unit 10 determines the width of the frame-out area based on the position and size of the main subject (step S99). That is, the control unit 10 first detects the position of the main subject in the image. Next, the main subject closest to each edge of the image is determined. For example, in FIG. 23, the main subject closest to the left edge of the image is determined to be the main subject 72. Similarly, the main subject closest to the lower edge of the image is determined to be the main subject 74, and the main subject closest to the right edge of the image is determined to be the main subject 76.

次に、制御部10は、主要被写体の面積を計測し、フレームアウト領域を設定する側の縁部に最も近い主要被写体の面積に基づいて、フレームアウト領域の幅を決定する。例えば、画像の左側の縁部に沿って長方形状のフレームアウト領域86(図23参照)を設定する場合、フレームアウト領域86に最も近い主要被写体72の面積に基づいてフレームアウト領域86の幅Bを決定する。同様にして、画像の下側の縁部に最も近い主要被写体74の面積に基づいてフレームアウト領域88の幅Cを決定し、画像の右側の縁部に最も近い主要被写体76の面積に基づいてフレームアウト領域90の幅Dを決定する。なお、フレームアウト領域の幅は、主要被写体の面積が大きいほど広く、小さいほど狭くなるように決定される。このため、図23に示すように、主要被写体の面積が、主要被写体72、主要被写体76、主要被写体74の順に小さくなる場合、フレームアウト領域の幅は、フレームアウト領域86の幅B、フレームアウト領域90の幅D、フレームアウト領域88の幅Cの順に狭くなる。   Next, the control unit 10 measures the area of the main subject, and determines the width of the frame-out region based on the area of the main subject closest to the edge on the side where the frame-out region is set. For example, when a rectangular frame-out region 86 (see FIG. 23) is set along the left edge of the image, the width B of the frame-out region 86 is based on the area of the main subject 72 closest to the frame-out region 86. To decide. Similarly, the width C of the frame-out region 88 is determined based on the area of the main subject 74 closest to the lower edge of the image, and based on the area of the main subject 76 closest to the right edge of the image. The width D of the frame-out area 90 is determined. Note that the width of the frame-out region is determined so as to increase as the area of the main subject increases and decrease as it decreases. Therefore, as shown in FIG. 23, when the area of the main subject becomes smaller in the order of the main subject 72, the main subject 76, and the main subject 74, the width of the frame-out area is the width B of the frame-out area 86, and the frame-out area. The width becomes narrower in the order of the width D of the area 90 and the width C of the frame-out area 88.

次に、制御部10は、基準画像データ51に基づく画像において、ステップS99で決定した幅のフレームアウト領域を設定する(ステップS100)。即ち、図23に示すように、画像の左側の縁部に沿って幅Bのフレームアウト領域86、画像の下側の縁部に沿って幅Cのフレームアウト領域88、及び画像の右側の縁部に沿って幅Dのフレームアウト領域90を設定する。   Next, in the image based on the reference image data 51, the control unit 10 sets the frame-out area having the width determined in step S99 (step S100). That is, as shown in FIG. 23, a frame-out area 86 having a width B along the left edge of the image, a frame-out area 88 having a width C along the lower edge of the image, and the right edge of the image. A frame-out area 90 having a width D is set along the part.

次に、制御部10は、主要被写体領域80、主要被写体領域82、及び主要被写体領域84の中の少なくとも一つがフレームアウト領域と重なっているか否かを判定することにより、基準画像データ51においてフレームアウト判定を行う(ステップS101)。例えば、図24に示すように、主要被写体領域80の一部がフレームアウト領域86と重なっている場合、制御部10は、主要被写体がフレームアウトしていると判定する。一方、図23に示すように、いずれの主要被写体領域もフレームアウト領域と重なっていない場合、制御部10は、主要被写体がフレームアウトしていないと判定する。   Next, the control unit 10 determines whether or not at least one of the main subject region 80, the main subject region 82, and the main subject region 84 overlaps the frame-out region. Out determination is performed (step S101). For example, as shown in FIG. 24, when a part of the main subject region 80 overlaps the frame-out region 86, the control unit 10 determines that the main subject is out of frame. On the other hand, as shown in FIG. 23, when no main subject area overlaps the frame-out area, the control unit 10 determines that the main subject is not out of frame.

この第6の実施の形態に係る電子カメラによれば、主要被写体が複数存在する場合においてもバランスの良い構図の画像データを的確に選択することができる。   According to the electronic camera of the sixth embodiment, image data with a well-balanced composition can be accurately selected even when there are a plurality of main subjects.

なお、第5の実施の形態において、主要被写体の向きを判定し、主要被写体の向きに基づいてフレームアウト領域の幅を決定するようにしてもよい。例えば、主要被写体の向いている方向のフレームアウト領域の幅を広く、主要被写体の向いていない反対方向のフレームアウト領域の幅を狭くするようにしてもよい。これにより、図25に示すように、右側を向いている人の顔94が画像の左端に位置する場合、画像の左側のフレームアウト領域96の幅Xが狭く決定されるため、主要被写体がフレームアウトしていると判定され難くなる。また、画像の右側のフレームアウト領域97の幅Yが広く決定されるため(図25参照)、右側を向いている人の顔94が画像の右端に位置していれば(図示せず)、主要被写体がフレームアウトしていると判定され易くなる。このため、バランスの良い構図の画像データを的確に選択することができる。   In the fifth embodiment, the orientation of the main subject may be determined, and the width of the frame-out area may be determined based on the orientation of the main subject. For example, the width of the frame-out region in the direction in which the main subject is directed may be widened, and the width of the frame-out region in the opposite direction in which the main subject is not directed may be narrowed. As a result, as shown in FIG. 25, when the face 94 of the person facing the right side is positioned at the left end of the image, the width X of the frame-out area 96 on the left side of the image is determined to be narrow. It becomes difficult to be judged that it is out. Further, since the width Y of the frame-out area 97 on the right side of the image is determined widely (see FIG. 25), if the face 94 of the person facing the right side is located at the right end of the image (not shown), It is easy to determine that the main subject is out of frame. For this reason, it is possible to accurately select image data having a well-balanced composition.

また、第5及び第6の実施の形態において、さらに主要被写体の少なくとも一部がフレームアウト領域と重なっているか否かを判定し、主要被写体の少なくとも一部がフレームアウト領域と重なっている場合においても主要被写体がフレームアウトしていると判定するようにしてもよい。まず、制御部10は、主要被写体領域がフレームアウト領域と重なっているか否かを判定し、図26に示すように、主要被写体領域100の一部がフレームアウト領域102と重なっている場合、主要被写体がフレームアウトしていると判定する。一方、主要被写体領域100がフレームアウト領域102と重なっていない場合、制御部10は、主要被写体98の少なくとも一部がフレームアウト領域と重なっているか否かを判定する。そして、図27に示すように、主要被写体98の一部がフレームアウト領域と重なっている場合、主要被写体がフレームアウトしていると判定する。これにより、主要被写体全体の大きさに対して主要被写体領域の大きさが小さい場合などにおいても、バランスの良い構図の画像データを的確に選択することができる。   In the fifth and sixth embodiments, it is further determined whether or not at least a part of the main subject overlaps the frame-out area, and when at least a part of the main subject overlaps the frame-out area. Alternatively, it may be determined that the main subject is out of frame. First, the control unit 10 determines whether or not the main subject area overlaps the frame-out area. If a part of the main subject area 100 overlaps the frame-out area 102 as shown in FIG. It is determined that the subject is out of frame. On the other hand, when the main subject region 100 does not overlap the frame-out region 102, the control unit 10 determines whether at least a part of the main subject 98 overlaps the frame-out region. As shown in FIG. 27, when a part of the main subject 98 overlaps the frame-out area, it is determined that the main subject is out of frame. Thereby, even when the size of the main subject area is smaller than the size of the entire main subject, image data with a well-balanced composition can be selected accurately.

また、第5及び第6の実施の形態において、主要被写体の個数に基づいてフレームアウト領域の幅を決定するようにしてもよい。まず、制御部10は、画像から検出した主要被写体の個数を判定する。主要被写体の個数が単数である場合、制御部10は、図28に示すように、主要被写体が単数である場合のフレームアウト領域の幅(以下、基準幅という。)をフレームアウト領域106の幅Fとして決定する。一方、主要被写体の個数が複数である場合、制御部10は、例えば、基準幅の値を主要被写体の個数で除算した値をフレームアウト領域の幅として決定する。即ち、図29に示すように、主要被写体が3個である場合、基準幅(即ち、幅F)の1/3の幅をフレームアウト領域108の幅F´として決定する。これにより、主要被写体の個数が多いほどフレームアウト領域の幅が狭くなるようにフレームアウト領域の幅が決定されることから、主要被写体が複数存在する場合においてもバランスの良い構図の画像データを的確に選択することができる。   In the fifth and sixth embodiments, the width of the frame-out area may be determined based on the number of main subjects. First, the control unit 10 determines the number of main subjects detected from the image. When the number of main subjects is singular, the control unit 10 determines the width of the frame-out region (hereinafter referred to as a reference width) when the number of main subjects is singular as shown in FIG. Determine as F. On the other hand, when there are a plurality of main subjects, the control unit 10 determines, for example, a value obtained by dividing the reference width value by the number of main subjects as the width of the frame-out region. That is, as shown in FIG. 29, when there are three main subjects, a width that is 1/3 of the reference width (that is, the width F) is determined as the width F ′ of the frame-out area 108. As a result, the width of the frame-out area is determined so that the larger the number of main subjects, the narrower the frame-out area, so that even when there are a plurality of main subjects, image data with a well-balanced composition can be accurately obtained. Can be selected.

次に、第7の実施の形態に係る画像データの評価処理(図2、ステップS7)について説明する。この第7の実施の形態に係る電子カメラは、第1乃至6の実施の形態においてフレームアウト判定を行った結果、選択される画像データの枚数が所定の枚数になるように構成したものである。従って、第7の実施の形態では、第1乃至6の実施の形態と異なる処理について詳細に説明し、重複する部分については適宜説明を省略する。   Next, the image data evaluation process (FIG. 2, step S7) according to the seventh embodiment will be described. The electronic camera according to the seventh embodiment is configured such that the number of selected image data is a predetermined number as a result of the frame-out determination in the first to sixth embodiments. . Therefore, in the seventh embodiment, processes different from those in the first to sixth embodiments will be described in detail, and description of overlapping parts will be omitted as appropriate.

図30は、第7の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。ここで、図30では、第1の実施の形態に係る電子カメラ2の処理の例を示しているが、第2〜6の実施の形態に係る電子カメラについても本実施の形態を適用できる。   FIG. 30 is a flowchart illustrating image data evaluation processing in the electronic camera according to the seventh embodiment. Here, FIG. 30 shows an example of processing of the electronic camera 2 according to the first embodiment, but the present embodiment can also be applied to the electronic camera according to the second to sixth embodiments.

ステップS111〜123の処理が完了し、バファメモリ16に記録された画像データの全てについて評価が行われると(ステップS124:Yes)、制御部10は、データ記憶部20から評価ファイルを読み出す。そして、基準評価値の画像データが所定の枚数(例えば5フレーム)以下であるか否かの判定を行う(ステップS125)。   When the processing of steps S111 to 123 is completed and all the image data recorded in the buffer memory 16 is evaluated (step S124: Yes), the control unit 10 reads the evaluation file from the data storage unit 20. Then, it is determined whether or not the image data of the reference evaluation value is a predetermined number (for example, 5 frames) or less (step S125).

基準評価値の画像データが所定の枚数以下である場合(ステップS125:Yes)、制御部10は、画像データの評価処理(図2、ステップS7)を完了し、基準評価値の画像データを記録画像として選択してメモリカード24に記録する(図2、ステップS8)。   When the image data of the reference evaluation value is equal to or less than the predetermined number (step S125: Yes), the control unit 10 completes the image data evaluation process (FIG. 2, step S7) and records the image data of the reference evaluation value. It selects as an image and records on the memory card 24 (FIG. 2, step S8).

一方、基準評価値の画像データが所定の枚数以下でない場合(ステップS125:No)、制御部10は、基準評価値の画像データについて再度評価を行う(ステップS126)。例えば、画像データに基づく画像の鮮鋭度を評価し、鮮鋭度に基づいて新たな評価値を決定する。そして、制御部10は、新たな評価値を基準評価値の画像データのファイル名ごとに評価ファイルに記憶し、画像データの評価処理(図2、ステップS7)を完了する。次に、制御部10は、新たな評価値が高い順に所定枚数(例えば5フレーム)の基準評価値の画像データを記録画像として選択してメモリカード24に記録する(図2、ステップS8)。   On the other hand, when the image data of the reference evaluation value is not equal to or smaller than the predetermined number (step S125: No), the control unit 10 performs the evaluation again on the image data of the reference evaluation value (step S126). For example, the sharpness of the image based on the image data is evaluated, and a new evaluation value is determined based on the sharpness. Then, the control unit 10 stores the new evaluation value in the evaluation file for each file name of the image data of the reference evaluation value, and completes the image data evaluation process (FIG. 2, step S7). Next, the control unit 10 selects a predetermined number (for example, 5 frames) of image data of reference evaluation values in order from the highest new evaluation value as a recorded image and records it on the memory card 24 (FIG. 2, step S8).

この第7の実施の形態に係る電子カメラ2によれば、時系列で取得された複数の画像データについて、主要被写体がフレームアウトしているか否かを画像データの評価対象とすることができるとともに、それ以外の評価項目も考慮して画像データを評価し、選択することができる。このため、フレームアウト判定に基づく評価を含む複数の評価項目に基づいて良好な画像の画像データを的確に選択することができる。また、フレームアウト判定に基づく評価以外の評価項目も考慮して画像データの選択を行うので、画像データの枚数を所望の枚数まで絞って選択することができる。   According to the electronic camera 2 according to the seventh embodiment, for a plurality of image data acquired in time series, whether or not the main subject is out of frame can be set as an evaluation target of the image data. The image data can be evaluated and selected in consideration of other evaluation items. For this reason, it is possible to accurately select image data of a good image based on a plurality of evaluation items including evaluation based on frame-out determination. In addition, since image data is selected in consideration of evaluation items other than the evaluation based on the frame-out determination, the number of image data can be selected to a desired number.

なお、第7の実施の形態では、フレームアウト判定に基づく評価以外の評価として鮮鋭度評価を行う場合を例に説明しているが、これに限らず、ブレ評価、合焦度評価等、画像データを評価することができる評価であれば、いかなる評価項目、また評価項目の組合せに基づいて評価を行ってもよい。また、これらの評価項目または評価項目の組合せが、電子カメラに操作者が予め設定するシーンモードごとに自動設定される構成としてもよいし、電子カメラで認識された主要被写体の種類等、撮影された画像の特徴に基づいて設定されるようにしてもよい。さらには、操作者が評価項目を選択できるように構成してもよい。   In the seventh embodiment, the case where the sharpness evaluation is performed as an evaluation other than the evaluation based on the frame-out determination is described as an example. However, the present invention is not limited to this, and an image such as a blur evaluation, an in-focus evaluation, etc. The evaluation may be performed based on any evaluation item or combination of evaluation items as long as the evaluation can evaluate the data. Further, these evaluation items or combinations of evaluation items may be configured to be automatically set for each scene mode preset by the operator in the electronic camera, or the type of main subject recognized by the electronic camera, etc. It may be set based on the characteristics of the image. Furthermore, it may be configured such that the operator can select an evaluation item.

このように、撮影される画像に合わせて最適な評価項目を設定することによって、フレームアウト判定に基づく評価を含む複数の評価項目に基づいて画像データを評価し、シーンごとに最適な記録画像を選択することができる。   In this way, by setting an optimal evaluation item according to the image to be captured, image data is evaluated based on a plurality of evaluation items including evaluation based on frame-out determination, and an optimal recorded image is obtained for each scene. You can choose.

次に、第8の実施の形態に係る画像データの評価処理(図2、ステップS7)について説明する。この第8の実施の形態に係る電子カメラは、第7の実施の形態において、フレームアウト判定に基づく評価と並行して、先鋭度判定、ブレ判定、及び合焦度判定に基づく評価を行い、複数の評価項目に基づく総合的な評価により画像データを選択するように構成したものである。従って、第8の実施の形態では、第7の実施の形態と異なる処理について詳細に説明し、重複する部分については適宜説明を省略する。   Next, the image data evaluation process (FIG. 2, step S7) according to the eighth embodiment will be described. The electronic camera according to the eighth embodiment performs evaluation based on sharpness determination, blur determination, and in-focus determination in parallel with evaluation based on frame-out determination in the seventh embodiment. The image data is selected by comprehensive evaluation based on a plurality of evaluation items. Therefore, in the eighth embodiment, processing different from that in the seventh embodiment will be described in detail, and description of overlapping portions will be omitted as appropriate.

図31は、第8の実施の形態に係る電子カメラにおける画像データの評価処理を示すフローチャートである。ここで、図31では、第1の実施の形態に係る電子カメラ2の処理の例を示しているが、第2〜6の実施の形態に係る電子カメラについても本実施の形態を適用できる。   FIG. 31 is a flowchart showing image data evaluation processing in the electronic camera according to the eighth embodiment. Here, FIG. 31 shows an example of processing of the electronic camera 2 according to the first embodiment, but the present embodiment can also be applied to the electronic camera according to the second to sixth embodiments.

まず、制御部10は、時系列で取得された画像データ(図3参照)について、フレームアウト判定に基づく評価と並行して、先鋭度判定、ブレ判定、及び合焦度判定に基づく評価を行う。   First, the control unit 10 performs evaluation based on sharpness determination, blur determination, and in-focus determination for image data (see FIG. 3) acquired in time series in parallel with evaluation based on frame-out determination. .

次に、バファメモリ16に記録された画像データの全てについて評価が行われると(ステップS144:Yes)、制御部10は、データ記憶部20から評価ファイルを読み出し、フレームアウト判定に基づく評価、先鋭度評価、ブレ評価、及び合焦度評価の4つの評価項目に基づいて総合的に画像データの評価値を決定する(ステップS145)。   Next, when all of the image data recorded in the buffer memory 16 are evaluated (step S144: Yes), the control unit 10 reads the evaluation file from the data storage unit 20, and performs evaluation based on frame-out determination, sharpness The evaluation value of the image data is comprehensively determined based on the four evaluation items of evaluation, blur evaluation, and focus degree evaluation (step S145).

次に、制御部10は、決定された評価値を画像データのファイル名ごとに評価ファイルに記憶し、画像データの評価処理(図2、ステップ7)を完了する。次に、制御部10は、評価値が高い順に(たとえば5フレーム)の画像データを記録画像として選択して、メモリカード24に記録する(図2、ステップS8)。   Next, the control unit 10 stores the determined evaluation value in the evaluation file for each file name of the image data, and completes the image data evaluation process (FIG. 2, step 7). Next, the control unit 10 selects the image data in the descending order of evaluation value (for example, 5 frames) as a recorded image and records it on the memory card 24 (FIG. 2, step S8).

この第8の実施の形態に係る電子カメラ2によれば、時系列で取得された複数の画像データについて、主要被写体がフレームアウトしているか否かを画像データの評価対象とすることができるとともに、それ以外の評価項目も考慮して画像データを評価し、選択することができる。このため、フレームアウト判定に基づく評価を含む複数の評価項目に基づいて、目的に応じた画像を的確に選択することができる。また、フレームアウト判定に基づく評価以外の評価項目も考慮して画像データの選択を行うので、画像データの枚数を所望の枚数まで絞って選択することができる。   According to the electronic camera 2 according to the eighth embodiment, whether or not the main subject is out of frame can be used as the evaluation target of the image data for a plurality of image data acquired in time series. The image data can be evaluated and selected in consideration of other evaluation items. For this reason, the image according to the objective can be selected exactly based on a plurality of evaluation items including the evaluation based on the frame-out determination. In addition, since image data is selected in consideration of evaluation items other than the evaluation based on the frame-out determination, the number of image data can be selected to a desired number.

なお、第8の実施の形態では、フレームアウト判定に基づく評価以外の評価として鮮鋭度評価、ブレ評価、合焦度評価を行う場合を例に説明しているが、これらに限らず、画像データを評価することができる評価であれば、いかなる評価項目、また評価項目の組合せに基づいて評価を行ってもよい。また、これらの評価項目または評価項目の組合せは、電子カメラに操作者が予め設定するシーンモードごとに自動設定される構成としてもよいし、電子カメラで認識された主要被写体の種類等、撮影された画像の特徴に基づいて設定されるように構成してもよい。さらには、操作者が評価項目や評価項目の組合せを選択できるように構成してもよい。   In the eighth embodiment, a case where sharpness evaluation, blur evaluation, and focus degree evaluation are performed as evaluations other than the evaluation based on the frame-out determination is described as an example. The evaluation may be performed based on any evaluation item or combination of evaluation items as long as the evaluation can be evaluated. Further, these evaluation items or combinations of evaluation items may be configured to be automatically set for each scene mode preset by the operator in the electronic camera, or the type of main subject recognized by the electronic camera, etc. It may be configured to be set based on the characteristics of the image. Further, the operator may select an evaluation item or a combination of evaluation items.

このように、撮影される画像に合わせて最適な評価項目を設定することによって、複数の評価項目に基づいて画像データを評価し、シーンごとに最適な記録画像を選択することができる。   As described above, by setting the optimum evaluation item according to the image to be photographed, the image data can be evaluated based on the plurality of evaluation items, and the optimum recorded image can be selected for each scene.

なお、上述の実施の形態においては、主要被写体領域を矩形の領域とする場合を例に説明しているが、フレームアウト判定や主要被写体の移動方向を判定するために用いることができれば、主要被写体領域の形状は問わない。   In the above-described embodiment, the case where the main subject region is a rectangular region has been described as an example. However, if the main subject region can be used to determine the frame-out determination or the moving direction of the main subject, the main subject region The shape of the region does not matter.

また、上述の実施の形態において、電子カメラにおいて画像評価を行う場合を例に説明したが、他の外部機器(例えば、パソコン等)において画像データを評価してもよい。例えば、制御部10は、バファメモリ16に記録されている複数フレームの画像データについてプリキャプチャー及びポストキャプチャーが完了(図2、ステップS6)した後、画像データをメモリカード24に記録する。操作者は、このメモリカード24を電子カメラから抜き取り、パソコンに装着する。そして、パソコンの制御部は、装着されたメモリカード24から画像データを読み出し、上述の実施の形態において説明した方法を用いて画像データの評価及び選択を行うようにしてもよい。   In the above-described embodiment, the case where the image evaluation is performed in the electronic camera has been described as an example. However, the image data may be evaluated in another external device (for example, a personal computer). For example, the control unit 10 records the image data on the memory card 24 after the pre-capture and post-capture are completed for the image data of a plurality of frames recorded in the buffer memory 16 (FIG. 2, step S6). The operator removes the memory card 24 from the electronic camera and attaches it to the personal computer. Then, the control unit of the personal computer may read the image data from the attached memory card 24, and may perform evaluation and selection of the image data using the method described in the above embodiment.

2…電子カメラ、10…制御部、12…撮像素子、14…LCD表示部、16…バッフ
ァメモリ、18…情報記憶部、20…データ記憶部、22…プログラムメモリ、24…メモリカード、30…操作部
DESCRIPTION OF SYMBOLS 2 ... Electronic camera, 10 ... Control part, 12 ... Imaging device, 14 ... LCD display part, 16 ... Buffer memory, 18 ... Information storage part, 20 ... Data storage part, 22 ... Program memory, 24 ... Memory card, 30 ... Operation part

Claims (7)

画像データを記憶する記憶部と、
前記画像データに基づく画像から主要被写体を含む主要被写体領域を抽出する抽出部と、
前記画像データにおいて前記主要被写体がフレームアウトしているか否かを判定するためのフレームアウト領域を前記画像の少なくとも一つの縁部に沿って設定する設定部と、
前記主要被写体領域の少なくとも一部が前記フレームアウト領域と重なる場合において前記主要被写体がフレームアウトしていると判定する判定部と
を備えることを特徴とする画像評価装置。
A storage unit for storing image data;
An extraction unit that extracts a main subject region including a main subject from an image based on the image data;
A setting unit that sets a frame-out region for determining whether or not the main subject is out of frame in the image data, along at least one edge of the image;
An image evaluation apparatus comprising: a determination unit that determines that the main subject is out of frame when at least a part of the main subject region overlaps the frame out region.
前記主要被写体の大きさ、個数、及び向きの中の少なくとも一つに基づいて前記フレームアウト領域の幅を決定する決定部を備えることを特徴とする請求項1記載の画像評価装置。   The image evaluation apparatus according to claim 1, further comprising a determination unit that determines a width of the frame-out area based on at least one of a size, a number, and an orientation of the main subject. 前記決定部は、前記主要被写体が大きいほど前記フレームアウト領域の幅を広く、前記主要被写体が小さいほど前記フレームアウト領域の幅を狭くすることを特徴とする請求項2記載の画像評価装置。   3. The image evaluation apparatus according to claim 2, wherein the determination unit increases the width of the frame-out area as the main subject is larger, and narrows the width of the frame-out area as the main subject is smaller. 前記決定部は、前記主要被写体の個数が多いほど前記フレームアウト領域の幅を狭く、前記主要被写体の個数が少ないほど前記フレームアウト領域の幅を広くすることを特徴とする請求項2記載の画像評価装置。   3. The image according to claim 2, wherein the determination unit narrows the width of the frame-out region as the number of the main subjects increases, and increases the width of the frame-out region as the number of the main subjects decreases. Evaluation device. 前記決定部は、前記主要被写体の向いている方向の前記フレームアウト領域の幅を広く、前記主要被写体の向いていない方向の前記フレームアウト領域の幅を狭くすることを特徴とする請求項2記載の画像評価装置。   The width of the frame-out area in the direction in which the main subject faces is widened, and the width of the frame-out area in the direction in which the main subject is not oriented is narrowed. Image evaluation device. 前記主要被写体は、人の顔であることを特徴とする請求項1〜5のいずれか一項に記載の画像評価装置。   The image evaluation apparatus according to claim 1, wherein the main subject is a human face. 時系列で取得された複数の画像データを記憶する記憶部と、
前記画像データに基づく画像から主要被写体を含む主要被写体領域を抽出する抽出部と、
前記画像データにおいて前記主要被写体がフレームアウトしているか否かを判定するためのフレームアウト領域を前記画像の少なくとも一つの縁部に沿って設定する設定部と、
前記主要被写体領域の少なくとも一部が前記フレームアウト領域と重なる場合において前記主要被写体がフレームアウトしていると判定する判定部と、
前記判定部によりフレームアウトしていると判定した前記画像データの評価値を低下させる評価部と
を備えることを特徴とする画像評価装置。
A storage unit for storing a plurality of image data acquired in time series;
An extraction unit that extracts a main subject region including a main subject from an image based on the image data;
A setting unit that sets a frame-out region for determining whether or not the main subject is out of frame in the image data, along at least one edge of the image;
A determination unit that determines that the main subject is out of frame when at least a part of the main subject region overlaps the frame out region;
An image evaluation apparatus comprising: an evaluation unit that reduces an evaluation value of the image data determined to be out of frame by the determination unit.
JP2011146705A 2011-06-30 2011-06-30 Image evaluation device Pending JP2013016924A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011146705A JP2013016924A (en) 2011-06-30 2011-06-30 Image evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011146705A JP2013016924A (en) 2011-06-30 2011-06-30 Image evaluation device

Publications (1)

Publication Number Publication Date
JP2013016924A true JP2013016924A (en) 2013-01-24

Family

ID=47689183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011146705A Pending JP2013016924A (en) 2011-06-30 2011-06-30 Image evaluation device

Country Status (1)

Country Link
JP (1) JP2013016924A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015008428A (en) * 2013-06-25 2015-01-15 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
WO2016088628A1 (en) * 2014-12-02 2016-06-09 オリンパス株式会社 Image evaluation device, endoscope system, method for operating image evaluation device, and program for operating image evaluation device
JP2024071823A (en) * 2022-11-15 2024-05-27 キヤノン株式会社 Information processing device, information processing method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006324920A (en) * 2005-05-18 2006-11-30 Hitachi Maxell Ltd Electronic camera and control method thereof
JP2008283629A (en) * 2007-05-14 2008-11-20 Sony Corp Imaging apparatus, imaging signal processing method, and program
JP2009212713A (en) * 2008-03-03 2009-09-17 Panasonic Corp Imaging apparatus, imaging apparatus body, and notifying terminal
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program
JP2010198110A (en) * 2009-02-23 2010-09-09 Nikon Corp Image processor and electronic still camera
JP2010199884A (en) * 2009-02-24 2010-09-09 Nikon Corp Imaging device
JP2011229127A (en) * 2010-03-30 2011-11-10 Nikon Corp Image processor and image evaluation program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006324920A (en) * 2005-05-18 2006-11-30 Hitachi Maxell Ltd Electronic camera and control method thereof
JP2008283629A (en) * 2007-05-14 2008-11-20 Sony Corp Imaging apparatus, imaging signal processing method, and program
JP2009212713A (en) * 2008-03-03 2009-09-17 Panasonic Corp Imaging apparatus, imaging apparatus body, and notifying terminal
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program
JP2010198110A (en) * 2009-02-23 2010-09-09 Nikon Corp Image processor and electronic still camera
JP2010199884A (en) * 2009-02-24 2010-09-09 Nikon Corp Imaging device
JP2011229127A (en) * 2010-03-30 2011-11-10 Nikon Corp Image processor and image evaluation program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015008428A (en) * 2013-06-25 2015-01-15 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
WO2016088628A1 (en) * 2014-12-02 2016-06-09 オリンパス株式会社 Image evaluation device, endoscope system, method for operating image evaluation device, and program for operating image evaluation device
JPWO2016088628A1 (en) * 2014-12-02 2017-04-27 オリンパス株式会社 Image evaluation apparatus, endoscope system, operation method of image evaluation apparatus, and operation program of image evaluation apparatus
JP2024071823A (en) * 2022-11-15 2024-05-27 キヤノン株式会社 Information processing device, information processing method, and computer program
JP7802647B2 (en) 2022-11-15 2026-01-20 キヤノン株式会社 Information processing device, information processing method, and computer program

Similar Documents

Publication Publication Date Title
JP4674471B2 (en) Digital camera
JP5088118B2 (en) Focus adjustment device
JP5218508B2 (en) Imaging device
JP5394296B2 (en) Imaging apparatus and image processing method
JP4656331B2 (en) Imaging apparatus and imaging method
JP5447619B2 (en) Imaging device
CN101931752A (en) Camera device, and focusing method
JP5228354B2 (en) Digital camera
WO2010007865A1 (en) Imaging device, imaging method and program
JP5338197B2 (en) Focus detection apparatus and imaging apparatus
JP2006019874A (en) Blur, out of focus informing method and imaging apparatus
JP5367129B2 (en) Imaging apparatus, control apparatus, and control method thereof
JP2010113129A (en) Image tracking device, focusing device, and image capturing apparatus
JP5409483B2 (en) Imaging device
JP2013016924A (en) Image evaluation device
JP5633239B2 (en) Imaging apparatus and image processing program
JP4978724B2 (en) Imaging apparatus and program
JP5853439B2 (en) Image evaluation apparatus and electronic camera
JP4415879B2 (en) Imaging apparatus and imaging method
JP5742282B2 (en) camera
JP5720368B2 (en) Imaging device
JP2007133301A (en) Auto focus camera
JP2006039254A (en) Camera
JP5157528B2 (en) Imaging device
JP5069076B2 (en) Imaging apparatus and continuous imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308