[go: up one dir, main page]

JP2011018989A - Imaging device, image selection method, and program - Google Patents

Imaging device, image selection method, and program Download PDF

Info

Publication number
JP2011018989A
JP2011018989A JP2009160889A JP2009160889A JP2011018989A JP 2011018989 A JP2011018989 A JP 2011018989A JP 2009160889 A JP2009160889 A JP 2009160889A JP 2009160889 A JP2009160889 A JP 2009160889A JP 2011018989 A JP2011018989 A JP 2011018989A
Authority
JP
Japan
Prior art keywords
image data
time lag
correction value
imaging
lag correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009160889A
Other languages
Japanese (ja)
Inventor
Takashi Onoda
孝 小野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009160889A priority Critical patent/JP2011018989A/en
Publication of JP2011018989A publication Critical patent/JP2011018989A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】シャッタータイムラグを考慮した画像を確実に記録できるだけでなく、被写体の状態をも評価した最良な画像を得ることができるようにすることを目的とすること。
【解決手段】デジタルカメラのCPU5は、固体撮像素子13が連続して撮像しているライブビュー処理(ステップS1)の状態において、シャッターボタンの全押し操作を検出すると(ステップS2)、この検出されたタイミングや半押し操作検出時のタイミングでフレーム画像データの蓄積を開始する(ステップS6)。そして蓄積されたフレーム画像データの縮小輝度画像データについて顔検出、目検出、瞬き検出による被写体の評価やタイムラグ補正値を考慮して、前記蓄積された複数のフレーム画像データの中から特定のフレーム画像データを選択する(ステップS9)。
【選択図】図3
An object of the present invention is to not only reliably record an image considering a shutter time lag, but also to obtain the best image that also evaluates the state of a subject.
When a CPU 5 of a digital camera detects a full-press operation of a shutter button in a live view process (step S1) in which a solid-state image sensor 13 is continuously capturing images (step S2), this is detected. Accumulation of frame image data is started at the timing when the half-press operation is detected (step S6). Then, with respect to the reduced luminance image data of the accumulated frame image data, a specific frame image is selected from the plurality of accumulated frame image data in consideration of subject evaluation and time lag correction values by face detection, eye detection, and blink detection. Data is selected (step S9).
[Selection] Figure 3

Description

本発明は、撮像装置、画像選択方法、及び、プログラムに関する。   The present invention relates to an imaging apparatus, an image selection method, and a program.

従来より、ユーザのシャッターボタン操作を検知して被写体を撮影するケースにおいては、ユーザがシャッターチャンスと認識した瞬間と、ユーザがシャッターチャンスと認識してシャッターボタンを操作する時間との間に差が生じることから(これをシャッタータイムラグという)、シャッターチャンスを逃し易いという本質的な問題があった。   Conventionally, in the case of shooting a subject by detecting the user's shutter button operation, there is a difference between the moment when the user recognizes the shutter opportunity and the time when the user recognizes the shutter opportunity and operates the shutter button. Since this occurs (this is called shutter time lag), there is an essential problem that it is easy to miss a photo opportunity.

このような問題を解消するために、シャッターボタンの半押し検出で連写を開始し、連写開始から所定の時間が経過するまでは長い連写間隔で連写撮影を継続し、所定の時間の経過後は短い連写間隔で連続撮影を継続するデジタルカメラが知られている(特許文献1参照)。また、シャッタータイムラグの時間を計測して連写を行い、ユーザがシャッターボタンを押した時に、シャッターボタンを押した時間から事前に計測したシャッタータイムラグ時間を差し引いた時間に撮影された一枚を出力することで、決定的瞬間の一枚を出力することができるデジタルカメラが知られている(特許文献2参照)。   To solve this problem, continuous shooting is started by detecting half-pressing of the shutter button, and continuous shooting is continued at a long continuous shooting interval until a predetermined time has elapsed since the start of continuous shooting. There is known a digital camera that continues continuous shooting at a short continuous shooting interval after the elapse of time (see Patent Document 1). Also, the shutter time lag time is measured and continuous shooting is performed, and when the user presses the shutter button, a single picture taken at the time obtained by subtracting the shutter time lag time measured in advance from the time the shutter button is pressed is output. Thus, there is known a digital camera that can output one piece of a decisive moment (see Patent Document 2).

特開2008−199476号公報JP 2008-199476 A 特開2002−271673号公報JP 2002-271673 A

しかしながら、特許文献1に記載のデジタルカメラでは、決定的瞬間を撮影できる可能性はあるものの、大量に撮影された連写画像の中から、一枚の決定的瞬間の画像を選択するのが煩わしいという問題があった。   However, in the digital camera described in Patent Document 1, although there is a possibility that a decisive moment can be photographed, it is troublesome to select a single decisive moment image from among a large number of continuously shot images. There was a problem.

また、特許文献2に記載のデジタルカメラでは、シャッターチャンスを捉える目的から考えれば最良の撮像画像を記録することができるが、撮像画像における被写体の状態が最良であるとは限らないため、結果として、被写体にとってベストな画像が得ることはできない可能性もあった。   The digital camera described in Patent Document 2 can record the best captured image from the viewpoint of capturing a photo opportunity, but the subject state in the captured image is not always the best, and as a result There is a possibility that the best image for the subject cannot be obtained.

本発明は、上述の従来の課題に鑑みてなされたものであり、シャッタータイムラグを考慮した画像を確実に記録できるだけでなく、被写体の状態をも評価した最良な画像を得ることができるようにすることを目的とする。   The present invention has been made in view of the above-described conventional problems, and is capable of not only reliably recording an image considering a shutter time lag but also obtaining the best image that also evaluates the state of a subject. For the purpose.

請求項1に記載の発明に係る撮像装置は、撮像手段と、この撮像手段に連続して撮像するよう制御する連続撮像制御手段と、前記撮像手段によって撮像される画像の記録指示を検出する記録指示検出手段と、この記録指示検出手段により記録指示が検出されたタイミングに基づいて、前記連続撮像制御手段により撮像された複数の画像データを蓄積する蓄積手段と、この蓄積手段により蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価手段と、タイムラグ補正値を取得するタイムラグ補正値取得手段と、このタイムラグ補正値取得手段により取得されたタイムラグ補正値及び前記評価手段による評価に基づいて、前記蓄積手段により蓄積された複数の画像データの中から特定の画像データを選択する選択手段と、を備えたことを特徴とする。   An imaging apparatus according to a first aspect of the invention includes an imaging unit, a continuous imaging control unit that controls the imaging unit to continuously capture images, and a recording that detects a recording instruction of an image captured by the imaging unit. Based on the timing at which a recording instruction is detected by the recording instruction detecting means, an accumulating means for accumulating a plurality of image data picked up by the continuous imaging control means, and a plurality of data accumulated by the accumulating means Evaluation means for evaluating the imaging state of a subject included in the image data, a time lag correction value acquisition means for acquiring a time lag correction value, a time lag correction value acquired by the time lag correction value acquisition means, and an evaluation by the evaluation means And a selecting means for selecting specific image data from the plurality of image data stored by the storing means. Characterized in that was.

請求項2に記載の発明に係る撮像装置は、前記蓄積手段により蓄積された複数の画像データから前記被写体に含まれる人の顔を検出する顔検出手段と、前記顔検出手段により検出された人の顔から目を検出する目検出手段と、前記目検出手段により検出された目の瞬き度合いを検出する瞬き検出手段と、を更に備え、前記評価手段は、前記瞬き検出手段により検出された瞬き度合いに基づいて、前記被写体の撮像状態として人の顔の撮像状態を評価することを特徴とする。   An imaging apparatus according to a second aspect of the invention includes a face detection unit that detects a human face included in the subject from a plurality of image data stored by the storage unit, and a person detected by the face detection unit. Eye detection means for detecting eyes from the face of the person and blink detection means for detecting the degree of blinking of the eyes detected by the eye detection means, wherein the evaluation means is a blink detected by the blink detection means. Based on the degree, the imaging state of a person's face is evaluated as the imaging state of the subject.

請求項3に記載の発明に係る撮像装置は、前記蓄積手段は、前記記録指示検出手段により記録指示が検出されたタイミングの前後、タイミング以前、又は、タイミング以後の少なくとも何れかにより、複数の画像データの蓄積を開始することを特徴とする。   According to a third aspect of the present invention, in the imaging device, the storage unit includes a plurality of images before and after the timing when the recording instruction is detected by the recording instruction detection unit, at least before the timing, or after the timing. Data accumulation is started.

請求項4に記載の発明に係る撮像装置は、前記選択手段により選択された画像データの表示を制御する表示制御手段を更に備えたことを特徴とする。   According to a fourth aspect of the present invention, there is provided an image pickup apparatus further comprising display control means for controlling display of image data selected by the selection means.

請求項5に記載の発明に係る撮像装置は、前記選択手段により選択された画像データを記録する記録手段を更に備えたことを特徴とする。   The image pickup apparatus according to a fifth aspect of the present invention further includes a recording unit that records the image data selected by the selection unit.

請求項6に記載の発明に係る撮像方法は、撮像部に対し連続して撮像するよう制御する連続撮像制御ステップと、前記撮像部にて撮像される画像の記録指示を検出する記録指示検出ステップと、この記録指示検出ステップにて記録指示が検出されたタイミングに基づいて、前記連続撮像制御ステップにて撮像された複数の画像データを所定のメモリに蓄積する蓄積ステップと、この蓄積ステップにて蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価ステップと、タイムラグ補正値を取得するタイムラグ補正値取得ステップと、このタイムラグ補正値取得ステップにて取得されたタイムラグ補正値及び前記評価ステップにおける評価に基づいて、前記蓄積ステップにて蓄積された複数の画像データの中から特定の画像データを選択する選択ステップと、を含むことを特徴とする。   An imaging method according to an embodiment of the present invention includes a continuous imaging control step for controlling an imaging unit to continuously capture images, and a recording instruction detection step for detecting a recording instruction for an image captured by the imaging unit. A storage step for storing a plurality of image data captured in the continuous imaging control step in a predetermined memory based on the timing at which the recording instruction is detected in the recording instruction detection step; An evaluation step for evaluating the imaging state of a subject included in a plurality of accumulated image data, a time lag correction value acquisition step for acquiring a time lag correction value, a time lag correction value acquired in the time lag correction value acquisition step, and the Based on the evaluation in the evaluation step, a specific image data is selected from the plurality of image data stored in the storage step. Characterized in that it comprises a selection step of selecting the data, the.

請求項7に記載の発明に係る撮像プログラムは、撮像装置が備えるコンピュータを、
連続して撮像するよう制御する連続撮像制御手段、撮像される画像の記録指示を検出する記録指示検出手段、記録指示検出手段によって記録指示が検出されたタイミングに基づいて、前記連続撮像制御手段によって撮像された複数の画像データを所定のメモリに蓄積する蓄積手段、この蓄積手段によって蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価手段、タイムラグ補正値を取得するタイムラグ補正値取得手段、このタイムラグ補正値取得手段によって取得されたタイムラグ補正値及び前記評価手段による評価に基づいて、前記蓄積手段によって蓄積された複数の画像データの中から特定の画像データを選択する選択手段、として機能させることを特徴とする。
According to a seventh aspect of the present invention, there is provided an imaging program comprising: a computer included in the imaging device;
Based on the timing at which the recording instruction is detected by the recording instruction detecting means, the recording instruction detecting means for detecting the recording instruction of the image to be picked up, and the continuous imaging control means by the continuous imaging control means. Storage means for storing a plurality of captured image data in a predetermined memory, evaluation means for evaluating an imaging state of a subject included in the plurality of image data stored by the storage means, and a time lag correction value for acquiring a time lag correction value Selection means for selecting specific image data from a plurality of image data stored by the storage means based on the acquisition means, the time lag correction value acquired by the time lag correction value acquisition means and the evaluation by the evaluation means; It is made to function as.

本発明によれば、シャッタータイムラグを考慮してシャッターチャンス画像を確実に撮像するだけでなく、被写体の状態を評価して、被写体にとってベストな画像を得ることができる。   According to the present invention, it is possible not only to reliably capture a photo opportunity image in consideration of the shutter time lag but also to evaluate the state of the subject and obtain the best image for the subject.

本発明の実施の形態に係るデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 本発明の実施の形態に係るタイムラグ補正処理を説明するフローチャートである。It is a flowchart explaining the time lag correction process which concerns on embodiment of this invention. 本発明の実施の形態に係る選択処理を説明するフローチャートである。It is a flowchart explaining the selection process which concerns on embodiment of this invention. 本発明の実施の形態に係るタイムラグ補正計測処理を説明するフローチャートである。It is a flowchart explaining the time lag correction measurement process which concerns on embodiment of this invention. 本発明の実施の形態に係るタイムラグ補正計測処理を説明する図である。It is a figure explaining the time lag correction measurement process which concerns on embodiment of this invention. 本発明の実施の形態に係るタイムラグ補正計測処理を説明する図である。It is a figure explaining the time lag correction measurement process which concerns on embodiment of this invention. 本発明の実施の形態に係るタイムラグ補正計測処理を説明する図である。It is a figure explaining the time lag correction measurement process which concerns on embodiment of this invention. 本発明の実施の形態に係る選択処理を説明する図である。It is a figure explaining the selection process which concerns on embodiment of this invention.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明の実施の形態に係るデジタルカメラ1のブロック図である。このデジタルカメラ1は、撮像系2、メモリカード3、バス4、CPU(Central Processing Unit)5、RAM(Random Access Memory)6、画像表示部7、ROM(Read Only Memory)8、キー入力部9、検出部17等を有し、撮像系2において所定のフレームレート(例えば、1000fps)で連続して撮像して取得した複数のフレーム画像データをRAM6に一時的に記憶する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of a digital camera 1 according to an embodiment of the present invention. The digital camera 1 includes an imaging system 2, a memory card 3, a bus 4, a CPU (Central Processing Unit) 5, a RAM (Random Access Memory) 6, an image display unit 7, a ROM (Read Only Memory) 8, and a key input unit 9. A plurality of frame image data obtained by continuously capturing images at a predetermined frame rate (for example, 1000 fps) in the imaging system 2 and temporarily acquired in the RAM 6.

撮像系2は、レンズ駆動ブロック10、レンズ11、絞り12、固体撮像素子13、ドライバ14、タイミングジェネレータ(TG:Timing Generator)15、信号処理部16等を有する。   The imaging system 2 includes a lens driving block 10, a lens 11, a diaphragm 12, a solid-state imaging device 13, a driver 14, a timing generator (TG) 15, a signal processing unit 16, and the like.

レンズ駆動ブロック10は、バス4を介したCPU5の制御により、レンズ11のフォーカス、倍率、絞り12を変化させる。レンズ11は、絞り12を介して固体撮像素子13の撮像面に入射光を集光し、被写体の光学像を固体撮像素子13の撮像面に形成する。   The lens driving block 10 changes the focus, magnification, and aperture 12 of the lens 11 under the control of the CPU 5 via the bus 4. The lens 11 condenses incident light on the imaging surface of the solid-state imaging device 13 via the diaphragm 12 and forms an optical image of the subject on the imaging surface of the solid-state imaging device 13.

固体撮像素子13は、例えばCCD(Charge Coupled Device )、CMOS(Complementary Metal−Oxide Semiconductor)等の撮像素子でもよい。固体撮像素子13は、ドライバ14から出力される各種駆動信号に従って動作し、撮像面に形成された光学像の撮像を撮像信号として出力する。固体撮像素子13が撮像するフレームレート、電荷蓄積時間等はCPU5が制御する。撮像系2においてドライバ14は、タイミングジェネレータ15から出力される各種タイミング信号に従って固体撮像素子13の駆動信号を生成する。CPU5はバス4を介してタイミングジェネレータ15を制御する。したがって、ドライバ14に出力するタイミング信号もCPU5によって制御される。   The solid-state imaging device 13 may be an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The solid-state image sensor 13 operates in accordance with various drive signals output from the driver 14 and outputs an image of an optical image formed on the imaging surface as an image signal. The CPU 5 controls the frame rate, charge accumulation time, and the like that are imaged by the solid-state imaging device 13. In the imaging system 2, the driver 14 generates a driving signal for the solid-state imaging device 13 in accordance with various timing signals output from the timing generator 15. The CPU 5 controls the timing generator 15 via the bus 4. Therefore, the timing signal output to the driver 14 is also controlled by the CPU 5.

信号処理部16は、固体撮像素子13から出力される撮像信号を相関二重サンプリング処理(CDS:Correlated Double Sampling)した後、自動利得調整(AGC:Automatic Gain Control)、アナログデジタル変換処理(AD:Analog to Digital converter)し、撮像したフレーム画像データをバス4に出力する。   The signal processing unit 16 performs correlated double sampling processing (CDS: Correlated Double Sampling) on the imaging signal output from the solid-state imaging device 13, and then performs automatic gain adjustment (AGC: Automatic Gain Control), analog-digital conversion processing (AD: Analog to Digital converter) and outputs the captured frame image data to the bus 4.

RAM6は、固体撮像素子13により撮像された後、CPU5によって送られてきたフレーム画像データを一時記憶するバッファメモリとして使用されるとともに、検出部17、CPU5によって処理されるデータ等を一時的に記憶するワーキングメモリとして使用される。   The RAM 6 is used as a buffer memory for temporarily storing frame image data sent by the CPU 5 after being imaged by the solid-state imaging device 13, and temporarily stores data processed by the detection unit 17 and the CPU 5. Used as working memory.

検出部17は、顔検出部18、目検出部19、及び瞬き検出部20によって構成される。また、検出部17は、複数のフレーム画像データの縮小輝度画像データから被写体を検出する機能も有する。   The detection unit 17 includes a face detection unit 18, an eye detection unit 19, and a blink detection unit 20. The detection unit 17 also has a function of detecting a subject from reduced luminance image data of a plurality of frame image data.

顔検出部18は、画像データを構成する複数のフレーム画像データの各々の縮小輝度画像データから所定の顔検出方法を用いて人の顔を検出する。具体的には、顔検出部18は、RAM6に一時的に記憶された縮小輝度画像データに基づいて、各フレーム画像データから顔画像領域を検出し、検出した顔画像領域内の画像情報を顔枠情報として生成する。なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。   The face detection unit 18 detects a human face from a reduced luminance image data of each of a plurality of frame image data constituting the image data using a predetermined face detection method. Specifically, the face detection unit 18 detects a face image area from each frame image data based on the reduced luminance image data temporarily stored in the RAM 6, and the image information in the detected face image area is detected as a face. Generate as frame information. Since the face detection process is a known technique, detailed description thereof is omitted here.

また、顔検出部18により顔が検出されなかったフレーム画像データについては、前後のフレーム画像データのうち、最も直近において顔検出された顔画像領域の座標を元に顔検出されなかったフレーム画像データにて顔枠情報を設定する。つまり、連写撮影は撮像間隔が極めて短時間であることから、何れかの一のフレーム画像データから顔が検出された場合には、その前後のフレーム画像データにも人の顔が存在しているとみなすことができ、顔が検出されたフレーム画像データの顔画像領域の座標(例えば、矩形枠の四隅の座標)を利用して、顔が検出されなかったフレーム画像データにおいても顔枠情報を設定する。   For frame image data in which no face has been detected by the face detection unit 18, frame image data in which face detection has not been performed based on the coordinates of the face image area most recently detected from the previous and subsequent frame image data. To set face frame information. In other words, since continuous shooting has an extremely short imaging interval, when a face is detected from any one of the frame image data, there is a human face in the frame image data before and after that. Face frame information even in frame image data in which no face is detected using the coordinates of the face image area of the frame image data in which the face is detected (for example, the coordinates of the four corners of the rectangular frame). Set.

目検出部19は、顔検出部18によって生成された各フレーム画像データの顔枠情報に基づいて、人の顔の目を検出する。具体的には、目検出部19は、各フレーム画像データの顔枠情報に基づいて、各フレーム画像データの全ての人の左右両目を検出して、その中心座標を算出する。なお、目検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。   The eye detection unit 19 detects the eyes of a human face based on the face frame information of each frame image data generated by the face detection unit 18. Specifically, the eye detection unit 19 detects the left and right eyes of all persons in each frame image data based on the face frame information of each frame image data, and calculates the center coordinates thereof. Since the eye detection process is a known technique, detailed description thereof is omitted here.

また、目検出部19は、信頼度算出部19aと、有効性判定部19bとを具備している。信頼度算出部19aは、目検出部19による目の検出に係る検出信頼度を算出する。具体的には、信頼度算出部19aは、例えば、顔検出枠が不適切である場合や顔が横を向いている場合等に信頼度を低下させるように調整された検出信頼度を算出する。   Further, the eye detection unit 19 includes a reliability calculation unit 19a and an effectiveness determination unit 19b. The reliability calculation unit 19 a calculates the detection reliability related to the eye detection by the eye detection unit 19. Specifically, the reliability calculation unit 19a calculates the detection reliability adjusted to decrease the reliability when, for example, the face detection frame is inappropriate or the face is facing sideways. .

有効性判定部19bは、信頼度算出部19aにより算出された検出信頼度が所定の閾値以下であるか否かに応じて当該信頼度に係る目が検出された顔の有効性を判定する。そして、有効性判定部19bは、検出信頼度が所定の閾値以下である場合には、当該目検出に係る顔をNG判定として、目検出が有効でない顔とすることで、後述の瞬き検出部20における瞬き検出において利用されないようにする。一方、有効性判定部19bは、検出信頼度が所定の閾値よりも大きい場合には、当該目検出に係る顔をOK判定として、目検出が有効である顔とすることで、その後の瞬き検出部20における瞬き検出において利用する。   The validity determination unit 19b determines the validity of the face from which the eye related to the reliability is detected according to whether or not the detection reliability calculated by the reliability calculation unit 19a is equal to or less than a predetermined threshold. Then, when the detection reliability is equal to or less than a predetermined threshold, the effectiveness determination unit 19b determines that the face related to the eye detection is NG determination and sets the face for which the eye detection is not effective, thereby a blink detection unit described later It is not used in blink detection at 20. On the other hand, when the detection reliability is greater than a predetermined threshold, the effectiveness determination unit 19b determines that the face related to the eye detection is OK and sets the face for which eye detection is effective, thereby detecting subsequent blink detection. This is used for blink detection in the unit 20.

瞬き検出部20は、目検出部19により検出された目の瞬き度合いを検出する。具体的には、瞬き検出部20は、連続撮影により生成された全てのフレーム画像データの縮小輝度画像データについて、有効性判定部19bにより有効であると判定された人の顔の左右両目の座標情報に基づいて、縮小輝度画像内での目の瞬き度合いを探索して、目の瞬き度合いに応じて瞬き評価値を算出する。瞬き評価値は、値が大きい程目が開いていることを表すものとする。ここで、瞬き検出部20は、目検出部19により検出された目の瞬き度合いを検出する瞬き検出手段を構成している。   The blink detection unit 20 detects the degree of eye blink detected by the eye detection unit 19. Specifically, the blink detection unit 20 has the coordinates of the left and right eyes of the human face determined to be valid by the validity determination unit 19b for the reduced luminance image data of all the frame image data generated by continuous shooting. Based on the information, the degree of eye blink in the reduced luminance image is searched, and the blink evaluation value is calculated according to the degree of eye blink. The blink evaluation value represents that the larger the value, the more open the eyes. Here, the blink detection unit 20 constitutes a blink detection unit that detects the degree of blinking of the eyes detected by the eye detection unit 19.

画像表示部7は、液晶表示パネル等により構成される表示部であり、再生時、CPU5の制御により、メモリカード3からバス4を介してフレーム画像データを取得して表示する。画像表示部7は、撮像時にも同様に、CPU5の制御により、RAM6からバス4を介してフレーム画像データを取得して表示する。   The image display unit 7 is a display unit configured by a liquid crystal display panel or the like, and acquires and displays frame image data from the memory card 3 via the bus 4 under the control of the CPU 5 during reproduction. Similarly, the image display unit 7 acquires and displays frame image data from the RAM 6 via the bus 4 under the control of the CPU 5 during imaging.

CPU5は、本実施の形態のデジタルカメラ1の動作を制御するコントローラであり、ROM8に格納したプログラムを実行して、キー入力部9で検出されるユーザの操作に応動して、本実施の形態のデジタルカメラ1の各部の動作の制御を行う。   The CPU 5 is a controller that controls the operation of the digital camera 1 according to the present embodiment. The CPU 5 executes a program stored in the ROM 8 and responds to a user operation detected by the key input unit 9 to perform the present embodiment. The operation of each part of the digital camera 1 is controlled.

なお、本実施の形態では、CPU5により実行される下記処理が記述されたプログラムは、ROM8に事前に格納されて提供されるものとして説明するが、本発明はこれに限定されない。例えば、このプログラムをメモリカード等の記録媒体に記録して提供するようにしてもよく、ネットワークを介したダウンロードにより提供するようにしてもよい。   In the present embodiment, a program in which the following processing executed by the CPU 5 is described is described as being stored in advance in the ROM 8 and provided. However, the present invention is not limited to this. For example, the program may be recorded on a recording medium such as a memory card and provided, or may be provided by downloading via a network.

キー入力部9は、半押し全押し可能なシャッターボタン、電源オンオフキー、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU5に出力する。   The key input unit 9 includes a plurality of operation keys such as a shutter button that can be fully pressed halfway, a power on / off key, a mode switching key, a cross key, and a SET key, and outputs an operation signal according to a user key operation to the CPU 5. To do.

CPU5は、ユーザからメモリカード3に記録したフレーム画像データの再生の指示を受けると、CPU5は、メモリカード3から対応するフレーム画像データを順次取得し、この画像データを伸張してRAM6に格納する。更に、CPU5は、フレーム画像データをこのRAM6から画像表示部7に順次転送して画像表示部7に表示させる。こうして、CPU5は、メモリカード3に記録したフレーム画像データから静止画像を再生して画像表示部7で表示させる。   When the CPU 5 receives an instruction to reproduce the frame image data recorded on the memory card 3 from the user, the CPU 5 sequentially acquires the corresponding frame image data from the memory card 3, decompresses this image data, and stores it in the RAM 6. . Further, the CPU 5 sequentially transfers the frame image data from the RAM 6 to the image display unit 7 and causes the image display unit 7 to display the frame image data. Thus, the CPU 5 reproduces a still image from the frame image data recorded on the memory card 3 and causes the image display unit 7 to display it.

また、ユーザから撮影の指示を受けると、CPU5は、撮像系2を制御して取得したフレーム画像データを順次メモリカード3に格納する。また、CPU5は、このフレーム画像データに対して、ガンマ補正処理、デモザイク処理、ホワイトバランス処理等を実行してメモリカード3に格納し直し、この格納し直した一連のフレーム画像データを順次画像表示部7に転送して表示させる。   When receiving a shooting instruction from the user, the CPU 5 sequentially stores the frame image data acquired by controlling the imaging system 2 in the memory card 3. Further, the CPU 5 executes gamma correction processing, demosaic processing, white balance processing, etc. on the frame image data and stores them again in the memory card 3, and sequentially displays the series of the frame image data thus stored. It is transferred to the part 7 and displayed.

<タイムラグ補正処理>
図2は、本発明の実施の形態のタイムラグ補正処理に係るCPU5の処理手順を示すフローチャートである。CPU5は、ユーザのキー入力部9のモード切替キーの操作により静止画撮影モードが設定されると、所定のフレームレート(例えば、1000fps)で固体撮像素子13による撮像を開始させる。そして、固体撮像素子13により順次撮像され、信号処理部16により出力されたフレーム画像データをRAM6に記憶し、該記憶したフレーム画像データに対応する画像を画像表示部7に表示させる、いわゆるスルー画像表示を行うライブビュー処理を開始する(ステップS1)。
<Time lag correction processing>
FIG. 2 is a flowchart showing a processing procedure of the CPU 5 according to the time lag correction processing according to the embodiment of the present invention. When the still image shooting mode is set by the user operating the mode switching key of the key input unit 9, the CPU 5 starts imaging with the solid-state imaging device 13 at a predetermined frame rate (for example, 1000 fps). The frame image data sequentially captured by the solid-state imaging device 13 and output from the signal processing unit 16 is stored in the RAM 6, and an image corresponding to the stored frame image data is displayed on the image display unit 7. The live view process for displaying is started (step S1).

次に、CPU5は、ユーザによってシャッターボタン等のキーが押されたか否かを判断する(ステップS2)。CPU5は、キーが押されていないと判断したときには、ステップS1に戻り、キーが押されるまでステップS1のライブビュー処理を行い待機する。CPU5は、キーが押されたと判断したときには、ユーザによるシャッターボタンの半押し操作を検出したか否かを判断する(ステップS3)。この判断は、シャッターボタンの半押し操作に対応する操作信号がキー入力部9から送られてきたか否かにより判断する。このとき、ユーザがまもなくシャッターチャンスが到来するであろうと思う場合に、シャッターボタンの半押し操作を行う。   Next, the CPU 5 determines whether or not a user has pressed a key such as a shutter button (step S2). When the CPU 5 determines that the key is not pressed, the CPU 5 returns to step S1 and waits for the live view process of step S1 until the key is pressed. When determining that the key has been pressed, the CPU 5 determines whether or not a half-pressing operation of the shutter button by the user has been detected (step S3). This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button has been sent from the key input unit 9. At this time, when the user thinks that a photo opportunity will come soon, a half-press operation of the shutter button is performed.

CPU5は、ユーザによるシャッターボタンの半押し操作を検出したと判断したときには、その他の処理を行う(ステップS4)。その他の処理としては、フレームレート(連写速度)の変更や、撮影シーンの変更処理等である。   When the CPU 5 determines that the half-pressing operation of the shutter button by the user has been detected, the CPU 5 performs other processing (step S4). Other processing includes frame rate (continuous shooting speed) change, shooting scene change processing, and the like.

このとき、ユーザによってフレームレート設定キーが操作され、フレームレート設定キーの操作に対応する操作信号がキー入力部9から送られてきたときには、CPU5は、現在のフレームレートを設定されたフレームレートに変更する。このフレームレートの種別としては、例えば、15fps、30fps、60fps、1000fps等がある。また、このとき、ユーザによって撮影シーン設定キーが操作され、撮影シーン設定キーに対応する操作信号がキー入力部9から送られてきたときには、CPU5は、現在の撮影シーンを設定された撮影シーンに変更する。ユーザが現在の被写体の状況に最も適した撮影シーンの撮影条件で被写体を撮影したい場合には撮影シーン設定モードキーを操作することにより、撮影条件を変更することができる。この撮影シーンとしては、「人物を写す」、「風景を写す」、「子供を写す」、「スポーツを写す」等の複数の撮影シーンがあり、該各撮影シーンに対応する撮影条件も記録されている。CPU5は、半押し操作を検出したと判断したときは、フォーカス処理及び露出計測処理を行う(ステップS5)。なお、このとき、CPU5により被写体の動きが判断されている場合には、被写体が予測される場合と判定し、被写体の動きが判断されていない場合には、被写体が予測できない場合と判定する。   At this time, when the user operates the frame rate setting key and an operation signal corresponding to the operation of the frame rate setting key is sent from the key input unit 9, the CPU 5 sets the current frame rate to the set frame rate. change. Examples of the frame rate type include 15 fps, 30 fps, 60 fps, and 1000 fps. At this time, when the shooting scene setting key is operated by the user and an operation signal corresponding to the shooting scene setting key is sent from the key input unit 9, the CPU 5 changes the current shooting scene to the set shooting scene. change. When the user wants to shoot a subject under the shooting conditions of the shooting scene most suitable for the current subject situation, the shooting conditions can be changed by operating the shooting scene setting mode key. This shooting scene includes a plurality of shooting scenes such as “photographing a person”, “photographing a landscape”, “photographing a child”, “photographing sports”, etc., and the shooting conditions corresponding to each of the shooting scenes are also recorded. ing. When the CPU 5 determines that the half-press operation has been detected, the CPU 5 performs focus processing and exposure measurement processing (step S5). At this time, when the movement of the subject is determined by the CPU 5, it is determined that the subject is predicted, and when the movement of the subject is not determined, it is determined that the subject cannot be predicted.

次に、CPU5は、後述のタイムラグ補正値を加味したフレーム画像データの蓄積を開始する(ステップS6)。タイムラグ補正値とは、ユーザが視覚によって計測用被写体101を認識してから、シャッターボタンの全押しするまでの所定の時間値(期間)のことをいう。このタイムラグ補正値を予め取得することで、ユーザのシャッタータイムラグを補正することができる。このタイムラグ補正値は、ステップS5において、被写体の動きが判断された場合には、被写体の動きが予測された撮影状況のタイムラグ補正値を加味してフレーム画像データの蓄積を開始し、被写体の動きが判断されなかった場合には、被写体の動きが予測できない撮影状況でのタイムラグ補正値を加味してフレーム画像データの蓄積を開始する。この蓄積処理とは、バッファメモリであるRAM6の空き容量がなくなるまで撮像されたフレーム画像データを順次蓄積させていき、バッファメモリの空き容量がなくなると、新たに撮像されたフレーム画像データをバッファメモリに記憶されている複数のフレーム画像データのうち一番古いフレーム画像データの上に上書きしていくことをいう。そしてこの蓄積処理は、シャッターボタンの解放を検出するか、又は、シャッターボタンの全押し操作を検出するまで継続して行われる。これにより、直近に撮像されたフレーム画像データから一定時間前までのフレーム画像データが蓄積されていることになる。なお、この際、フレーム画像データとともに対応する縮小輝度画像データを逐次生成してバッファメモリに順次記憶させて蓄積させ、バッファメモリの空き容量がなくなると、新たに生成された縮小輝度画像データを、バッファメモリに記憶されている複数の縮小輝度画像データのうち一番古い縮小輝度画像データの上に上書きしていく。   Next, the CPU 5 starts accumulating frame image data taking into account a time lag correction value described later (step S6). The time lag correction value is a predetermined time value (period) from when the user visually recognizes the measurement subject 101 to when the shutter button is fully pressed. By acquiring this time lag correction value in advance, the user's shutter time lag can be corrected. When the movement of the subject is determined in step S5, the time lag correction value starts to accumulate frame image data in consideration of the time lag correction value of the shooting situation in which the movement of the subject is predicted. If no determination is made, accumulation of frame image data is started in consideration of a time lag correction value in a shooting situation in which the movement of the subject cannot be predicted. This accumulation process sequentially accumulates the captured frame image data until there is no free space in the RAM 6 serving as a buffer memory. When there is no free space in the buffer memory, the newly captured frame image data is stored in the buffer memory. Is to overwrite the oldest frame image data among the plurality of frame image data stored in. This accumulation process is continuously performed until the release of the shutter button is detected or a full press operation of the shutter button is detected. As a result, the frame image data from the most recently captured frame image data to a certain time before is accumulated. At this time, the corresponding reduced luminance image data is sequentially generated together with the frame image data, stored in the buffer memory sequentially, and accumulated, and when the buffer memory runs out of space, the newly generated reduced luminance image data is Overwriting the oldest reduced luminance image data among the plurality of reduced luminance image data stored in the buffer memory.

次に、CPU5は、シャッターボタンが解放された(ユーザが手を離した)か否かを判断する(ステップS7)。シャッターボタンが解放されたと判断したときには、ステップS6の蓄積処理を終了し、ステップS1のライブビュー処理に戻る。一方で、シャッターボタンが解放されていない判断したときには、ユーザによるシャッターボタンの全押し操作(記録指示)が検出されたか否かを判断する(ステップS8)。   Next, the CPU 5 determines whether or not the shutter button has been released (the user has released his / her hand) (step S7). When it is determined that the shutter button has been released, the accumulation process in step S6 is terminated, and the process returns to the live view process in step S1. On the other hand, when it is determined that the shutter button has not been released, it is determined whether or not a full press operation (recording instruction) of the shutter button by the user has been detected (step S8).

CPU5は、シャッターボタンの全押し操作を検出していないと判断したときには、ステップS5に戻り、シャッターボタンの全押し操作が検出されるまでステップS5〜ステップS8の処理を繰り返し行う。   When the CPU 5 determines that the shutter button full-pressing operation has not been detected, the CPU 5 returns to step S5 and repeats the processes of steps S5 to S8 until the shutter button full-pressing operation is detected.

一方、CPU5は、シャッターボタンの全押し操作が検出されたと判断したときには、後述の図3を参照して説明する選択処理を行う(ステップS9)。この選択処理では、後述の図4を参照して説明するタイムラグ補正計測処理において計測されたタイムラグ補正値及び被写体の瞬き度合いに基づいて、タイムラグ補正値付近の複数の縮小輝度画像データから最良の画像として、被写体の目がつぶっていない輝度縮小画像データに対応するフレーム画像データを選択する処理が行われる。この処理が終了すると、タイムラグ補正処理を終了する。   On the other hand, when the CPU 5 determines that the full pressing operation of the shutter button is detected, the CPU 5 performs a selection process described with reference to FIG. 3 described later (step S9). In this selection process, the best image is obtained from a plurality of reduced luminance image data near the time lag correction value based on the time lag correction value measured in the time lag correction measurement process described with reference to FIG. As described above, a process of selecting frame image data corresponding to the reduced luminance image data in which the subject's eyes are not obstructed is performed. When this process ends, the time lag correction process ends.

<選択処理>
図3は、本発明の実施の形態の選択処理に係るCPU5の処理手順を示すフローチャートである。まず、CPU5は、顔検出部18に、各フレーム画像データの縮小輝度画像データから所定の顔検出方法を用いて人の顔を検出させ、検出された顔画像領域内の画像情報を顔情報として生成する(ステップS11)。
<Selection process>
FIG. 3 is a flowchart illustrating a processing procedure of the CPU 5 according to the selection processing according to the embodiment of this invention. First, the CPU 5 causes the face detection unit 18 to detect a human face from the reduced luminance image data of each frame image data using a predetermined face detection method, and the image information in the detected face image area is used as face information. Generate (step S11).

次に、CPU5は、目検出部19に、顔検出部18により生成された顔枠情報に基づいて、人の左右両目を検出させて、その中心座標を算出させるとともに、目検出部19の信頼度算出部19aに、当該目検出に係る検出信頼度を算出させる(ステップS12)。   Next, the CPU 5 causes the eye detection unit 19 to detect both the left and right eyes of the person based on the face frame information generated by the face detection unit 18, calculates the center coordinates thereof, and the reliability of the eye detection unit 19. The degree calculation unit 19a is made to calculate the detection reliability related to the eye detection (step S12).

次に、CPU5は、目検出部19の有効性判定部19bに、信頼度算出部19aにより算出された検出信頼度が所定の閾値以下であるか否かに応じて当該信頼度に係る目が検出された顔の有効性を判定させる(ステップS13)。具体的には、有効性判定部19bは、検出信頼度が所定の閾値以下である場合には、当該目検出に係る顔をNG判定として、目検出が有効でない顔とする一方で、検出信頼度が所定の閾値よりも大きい場合には、当該目検出に係る顔をOK判定として、目検出が有効であると顔とする。   Next, the CPU 5 causes the validity determination unit 19b of the eye detection unit 19 to check whether the eye related to the reliability depends on whether the detection reliability calculated by the reliability calculation unit 19a is equal to or less than a predetermined threshold. The effectiveness of the detected face is determined (step S13). Specifically, when the detection reliability is equal to or less than a predetermined threshold, the validity determination unit 19b determines that the face related to the eye detection is NG determination and sets the face for which the eye detection is not effective, while detecting reliability When the degree is larger than a predetermined threshold, the face related to the eye detection is determined to be OK, and the face is determined to be valid when the eye detection is effective.

次に、CPU5は、有効性判定部19bによりOK判定とされた人の顔の左右両目の座標情報に基づいて、縮小輝度画像データ内での目の瞬き度合いを探索して、目の瞬き度合いに応じて瞬き評価値を算出する(ステップS14)。   Next, the CPU 5 searches for the degree of blinking in the reduced luminance image data based on the coordinate information of the left and right eyes of the face of the person determined to be OK by the validity determination unit 19b, and the degree of blinking of the eye The blink evaluation value is calculated according to (Step S14).

次に、CPU5は、タイムラグ補正値付近のフレーム画像データから、瞬き評価値に基づき対象となるフレーム画像データを選択する(ステップS15)。この処理では、タイムラグ補正値に基づいて決定した複数のフレーム画像データの中から、ステップS14において算出された瞬き評価値の大きいフレーム画像データを選択する処理が行われる。具体的には、図8を参照して後述する。   Next, the CPU 5 selects target frame image data from the frame image data near the time lag correction value based on the blink evaluation value (step S15). In this process, a process of selecting frame image data having a large blink evaluation value calculated in step S14 from a plurality of frame image data determined based on the time lag correction value is performed. Specifically, it will be described later with reference to FIG.

次に、CPU5は、ステップS15において選択されたフレーム画像データをメモリカード3に記録する(ステップS16)。次に、CPU5は、選択されたフレーム画像データを画像表示部7において表示する(ステップS17)。この処理が終了すると、選択処理を終了する。   Next, the CPU 5 records the frame image data selected in step S15 on the memory card 3 (step S16). Next, the CPU 5 displays the selected frame image data on the image display unit 7 (step S17). When this process ends, the selection process ends.

<タイムラグ補正計測処理>
図4は、本発明の実施の形態のタイムラグ補正計測処理に係るCPU5の処理手順を示すフローチャートである。CPU5は、ユーザのキー入力部9のモード切替キーの操作によりタイムラグ補正計測モードが設定されると、タイムラグ補正計測処理を開始する。CPU5は、はじめに、計測カウンター初期化処理を行う(ステップS21)。この処理では、RAM6に記憶された計測カウンターを0に初期化して、タイムラグ補正値の計測を行う回数に応じた複数の値を計測カウンターにセットする。本実施の形態においては、タイムラグ補正値の計測を3回行うため、計測カウンターに3をセットする処理を行う。
<Time lag correction measurement processing>
FIG. 4 is a flowchart showing a processing procedure of the CPU 5 according to the time lag correction measurement processing according to the embodiment of the present invention. CPU5 will start a time lag correction measurement process, if a time lag correction measurement mode is set by operation of the mode switching key of a user's key input part 9. FIG. First, the CPU 5 performs measurement counter initialization processing (step S21). In this process, the measurement counter stored in the RAM 6 is initialized to 0, and a plurality of values corresponding to the number of times the time lag correction value is measured are set in the measurement counter. In the present embodiment, in order to measure the time lag correction value three times, a process of setting 3 to the measurement counter is performed.

次に、CPU5は、ユーザによってシャッターボタン等が操作されたか否かを判断する(ステップS22)。CPU5は、操作されていないと判断したときには、ステップS21に戻り、操作されるまでステップS21の計測カウンター初期化処理を行い待機する。一方、CPU5は、操作されたと判断したときには、更にシャッターボタンの半押し操作を検出したか否かを判断する(ステップS23)。つまり、ユーザがタイムラグ補正値の計測を行う準備ができたときに、シャッターボタンの半押し操作を行う。   Next, the CPU 5 determines whether or not the shutter button or the like has been operated by the user (step S22). When the CPU 5 determines that it has not been operated, it returns to step S21 and waits for the measurement counter initialization process of step S21 until it is operated. On the other hand, when determining that the operation has been performed, the CPU 5 further determines whether or not a half-press operation of the shutter button has been detected (step S23). That is, when the user is ready to measure the time lag correction value, the shutter button is half-pressed.

CPU5は、上記の操作がシャッターボタンの半押し操作ではないと判断したときには、対応するその他の処理を行う(ステップS24)。この「対応するその他の処理」としては、フレームレートの変更や、撮影シーンの変更処理等である。一方、CPU5は、半押し操作を検出したと判断したときには、シャッターボタンが解放された(ユーザがシャッターボタンから手を離した)か否かを判断する(ステップS25)。CPU5は、シャッターボタンが解放されたと判断したときには、ステップS22に戻り、再びキーの操作検出を待機する。   When the CPU 5 determines that the above operation is not a half-press operation of the shutter button, the CPU 5 performs other corresponding processing (step S24). The “other corresponding processes” include a frame rate change and a shooting scene change process. On the other hand, when determining that the half-press operation has been detected, the CPU 5 determines whether or not the shutter button has been released (the user has released his / her hand from the shutter button) (step S25). When the CPU 5 determines that the shutter button has been released, the CPU 5 returns to step S22 and again waits for key operation detection.

一方で、CPU5は、シャッターボタンが解放されていないと判断したときには、タイムラグ補正値の計測を開始する(ステップS26)。具体的には、計測カウンターに3がセットされているとき、すなわち、1回目のタイムラグ補正値の計測の場合には、図5に示すように、はじめに画像表示部7において何も表示されていない状態(図5Aの状態)から計測用被写体101を表示(図5Bの状態)し、タイムラグ補正値の計測を開始する。この1回目のタイムラグ補正値の計測による計測結果は、被写体の動きが予測できない撮影状況でのタイムラグ補正値として計測される。   On the other hand, when determining that the shutter button is not released, the CPU 5 starts measuring the time lag correction value (step S26). Specifically, when 3 is set in the measurement counter, that is, when the first time lag correction value is measured, as shown in FIG. 5, nothing is displayed on the image display unit 7 first. The measurement subject 101 is displayed from the state (state of FIG. 5A) (state of FIG. 5B), and measurement of the time lag correction value is started. The measurement result obtained by measuring the first time lag correction value is measured as a time lag correction value in a shooting situation in which the movement of the subject cannot be predicted.

また、計測カウンターに2がセットされているとき、すなわち、2回目のタイムラグ補正値の計測の場合には、図6に示すように、はじめに、画像表示部7に計測用被写体101が自由運動するように表示(図6のCの状態)してから、所定時間の経過後、画像表示部7の略中央に設けられた矩形の枠102内に計測用被写体101を表示(図6のDの状態)し、タイムラグ補正値の計測を開始する。2回目のタイムラグ補正値の計測では、計測用被写体101が矩形の枠102内に表示されたタイミングで、シャッターボタンの全押し操作が検出されたか否かを判断する。この2回目のタイムラグ補正値の計測による計測結果は、被写体の動きが予測できない撮影状況でのタイムラグ補正値として計測される。   When 2 is set in the measurement counter, that is, in the case of measuring the second time lag correction value, first, the measurement subject 101 freely moves on the image display unit 7 as shown in FIG. After a predetermined time has elapsed since the display (state C in FIG. 6), the measurement subject 101 is displayed in a rectangular frame 102 provided substantially at the center of the image display unit 7 (D in FIG. 6). State) and start measuring the time lag correction value. In the second measurement of the time lag correction value, it is determined whether or not the shutter button has been fully pressed at the timing when the measurement subject 101 is displayed in the rectangular frame 102. The measurement result obtained by measuring the second time lag correction value is measured as a time lag correction value in a shooting situation in which the movement of the subject cannot be predicted.

また、計測カウンターに1がセットされているとき、すなわち、3回目のタイムラグ補正値の計測の場合には、図7に示すように、はじめに、画像表示部7に計測用被写体101が上下左右に一定の法則をもって移動するように表示(図7のEの状態)してから、所定時間の経過後、画像表示部7の略中央に設けられた矩形の枠102内に計測用被写体101を表示(図7のFの状態)し、タイムラグ補正値の計測を開始する。3回目のタイムラグ補正値の計測では、計測用被写体101が矩形の枠102内に表示されたタイミングで、シャッターボタンの全押し操作が検出されたか否かを判断する。この3回目のタイムラグ補正値の計測による計測結果は、被写体の動きが予測できる撮影状況でのタイムラグ補正値として計測される。   Further, when 1 is set in the measurement counter, that is, in the case of the third time lag correction value measurement, as shown in FIG. Displayed to move with a certain rule (state E in FIG. 7), and after a predetermined time has elapsed, the measurement subject 101 is displayed in a rectangular frame 102 provided substantially at the center of the image display unit 7. (The state of F in FIG. 7) and the measurement of the time lag correction value is started. In the third measurement of the time lag correction value, it is determined whether or not the shutter button has been fully pressed at the timing when the measurement subject 101 is displayed in the rectangular frame 102. The measurement result obtained by measuring the third time lag correction value is measured as a time lag correction value in a shooting situation in which the movement of the subject can be predicted.

次に、CPU5は、上記の判断によりシャッターボタンの全押し操作が検出されたか否かを判断する(ステップS27)。このとき、ユーザは画像表示部7に計測用被写体が表示されたと判断した時に、シャッターボタンを全押し操作する。   Next, the CPU 5 determines whether or not a full press operation of the shutter button has been detected by the above determination (step S27). At this time, when the user determines that the measurement subject is displayed on the image display unit 7, the user fully presses the shutter button.

CPU5は、全押し操作を検出していないと判断したときには、ステップS25に戻り、全押し操作を検出するまでステップS25〜ステップS27の処理を繰り返し行う。一方、CPU5は、全押し操作を検出したと判断したときには、計測処理を行う(ステップS28)。この処理では、ステップS26の処理において、タイムラグ補正値の計測を開始しユーザの視覚による認識からシャッターボタンを押すまでの時間をタイムラグ補正値として予め計測する処理が行われる。この処理は、計測カウンターの残数に応じて複数回行われる。CPU5は、この計測処理を終了すると、計測カウンターから1減算する処理を行う。   When the CPU 5 determines that the full-press operation has not been detected, the CPU 5 returns to step S25 and repeats the processes of steps S25 to S27 until the full-press operation is detected. On the other hand, when it is determined that the full-press operation has been detected, the CPU 5 performs a measurement process (step S28). In this process, in the process of step S26, a process of measuring the time lag correction value in advance and measuring in advance the time from the user's visual recognition to pressing the shutter button as the time lag correction value is performed. This process is performed a plurality of times according to the remaining number of measurement counters. When this measurement process ends, the CPU 5 performs a process of subtracting 1 from the measurement counter.

次に、CPU5は、計測カウンターから1減算した結果、計測カウンターは残り0であるか否かを判断する(ステップS29)。CPU5は、計測カウンターは残り0ではないと判断したときには、ステップS22に戻り、計測カウンターの残数に応じて、2回目のタイムラグ補正値の計測又は3回目のタイムラグ補正値の計測を行う。   Next, the CPU 5 determines whether or not the measurement counter is 0 as a result of subtracting 1 from the measurement counter (step S29). When the CPU 5 determines that the remaining measurement counter is not zero, the CPU 5 returns to step S22 and measures the second time lag correction value or the third time lag correction value according to the remaining number of the measurement counter.

一方で、CPU5は、計測カウンターから1減算した結果、計測カウンターは残り0であると判断したときには、計測集計処理を行う(ステップS30)。この処理では、計測カウンター数分のデータを計測し、被写体の動きが予測される撮影状況(1回目、及び2回目のタイムラグ補正値の計測結果)と予測できない撮影状況(3回目のタイムラグ補正値の計測結果)とで2種類に分けてデータを平均値する。被写体の動きがタイムラグ補正処理内で監視できる場合には、被写体の動きが予測できる撮影状況でのタイムラグ補正値の平均値を用い、また、被写体の動きがタイムラグ補正処理内で監視できない場合には、被写体の動きが予測できない撮影状況でのタイムラグ補正値の平均値を用いることで、タイムラグ補正値の精度をより高めることができる。この処理が終了すると、タイムラグ補正計測処理を終了する。   On the other hand, when the CPU 5 determines that the measurement counter is 0 as a result of subtracting 1 from the measurement counter, the CPU 5 performs a measurement aggregation process (step S30). In this process, data corresponding to the number of measurement counters is measured, and the shooting situation in which the movement of the subject is predicted (measurement results of the first and second time lag correction values) and the shooting situation that cannot be predicted (third time lag correction value). And the average value of the data. If the movement of the subject can be monitored within the time lag correction process, use the average value of the time lag correction value in the shooting situation where the movement of the subject can be predicted, and if the movement of the subject cannot be monitored within the time lag correction process By using the average value of the time lag correction value in a shooting situation in which the movement of the subject cannot be predicted, the accuracy of the time lag correction value can be further increased. When this process ends, the time lag correction measurement process ends.

次に、図8を参照して、本実施の形態における選択処理について詳述する。時間tのときにユーザによるシャッターボタンの半押し操作を検出して撮影準備を行った場合、1000fpsフレームレート、すなわち、0.001秒に1フレームの速度でフレーム画像データの蓄積が開始される。この蓄積された複数のフレーム画像データは、順次RAM6に記憶され蓄積されていく。 Next, the selection process in the present embodiment will be described in detail with reference to FIG. When performing the detection photographing preparing a half-press operation of the shutter button by the user, 1000 fps frame rate, i.e., the frame image data in one frame rate of 0.001 seconds accumulation is started at time t 1 . The plurality of accumulated frame image data are sequentially stored in the RAM 6 and accumulated.

そして、シャッターボタンの全押し操作が検出された時間tのとき、予め求められたタイムラグ補正値が0.01秒である場合には、この時間tからタイムラグ補正値である0.01秒遡ったフレーム画像データが一時的に決定される。本実施の形態においては、時間tからタイムラグ補正値である0.01秒に相当する10フレーム遡ったフレーム画像データaがタイムラグ補正値(0.01秒)のみを勘案したフレーム画像データとなる。 When the time lag correction value obtained in advance is 0.01 seconds at the time t 2 when the full pressing operation of the shutter button is detected, the time lag correction value from the time t 2 is 0.01 seconds. The retroactive frame image data is temporarily determined. In this embodiment, consists of the time t 2 and time lag correction frame image data a back 10 frames, which corresponds to 0.01 seconds which is the consideration of only the time lag correction value (0.01 seconds) frame image data .

そして、タイムラグ補正値のみを勘案したフレーム画像データaを含んだ前後10フレーム(図8の図中b)を取得する。そして、その10フレームの中から、各フレーム画像データの縮小輝度画像データに基づいて、瞬き評価値の大きいフレーム画像データcを選択する。本実施の形態においては、フレーム画像データcの瞬き評価値が、フレーム画像データaの瞬き評価値よりも大きいので、ユーザがシャッターボタンを全押しした時間tから遡って10フレーム前のフレーム画像データaではなく、時間tから遡って6フレーム前のフレーム画像データcが選択される。 Then, 10 frames before and after (b in FIG. 8) including the frame image data a taking into account only the time lag correction value are acquired. Then, frame image data c having a large blink evaluation value is selected from the 10 frames based on the reduced luminance image data of each frame image data. In the present embodiment, the estimated blink value of the frame image data c is, is greater than the estimated blink value of the frame image data a, the user of the previous 10 frames back from the time t 2 fully pressed the shutter button frame image in data a no, the frame image data c of the previous 6 frames back from the time t 2 is selected.

したがって、本実施の形態においては、タイムラグ補正値を予め測定し、タイムラグ補正値を加味した時間から遡ってフレーム画像データの蓄積処理をおこなうことにより、シャッタータイムラグを考慮した画像を確実に記録できるだけでなく、被写体の状態をも考慮した最良の画像を得ることができる。   Therefore, in the present embodiment, the time lag correction value is measured in advance, and the frame image data accumulation process is performed retroactively from the time including the time lag correction value, so that an image in consideration of the shutter time lag can be reliably recorded. In addition, it is possible to obtain the best image in consideration of the state of the subject.

また、選択された一枚の画像をメモリカード3に記憶することにより、ユーザが手動で大量のフレーム画像データから選択するよりも、確実に決定的瞬間が撮影されたフレーム画像データを選択することができる。   In addition, by storing the selected single image in the memory card 3, it is possible to select the frame image data in which the decisive moment is photographed more reliably than when the user manually selects from a large amount of frame image data. Can do.

また、選択された一枚を画像表示部7に表示することにより、大量のフレーム画像データを表示するよりも、確実に決定的瞬間が撮影されたフレーム画像データを表示することができる。   Further, by displaying the selected one on the image display unit 7, it is possible to display the frame image data in which the decisive moment is captured more reliably than displaying a large amount of frame image data.

以上、様々な実施の形態のデジタルカメラ1について説明した。なお、本実施の形態では、被写体の動きが予測される場合と、予測できない場合とのタイムラグ補正値を分けて平均値化したタイムラグ補正値を用いているがこれに限られない。例えば、複数のタイムラグ補正値を一つに集計して平均値として、全ての撮影状態におけるタイムラグ補正値としてもよい。   The digital camera 1 according to various embodiments has been described above. In the present embodiment, the time lag correction value obtained by dividing the time lag correction values for the case where the motion of the subject is predicted and the case where the movement cannot be predicted is averaged is used, but the present invention is not limited to this. For example, a plurality of time lag correction values may be aggregated into one and used as an average value as time lag correction values in all shooting states.

また、本実施の形態においては、瞬き検出部20により検出された被写体の人の瞬き度合いに応じて選択処理を行っているがこれに限られない。例えば、目検出部19で検出された顔の笑顔度合いにより選択処理を行ってもよい。具体的には、デジタルカメラ1の構成に笑顔検出部を備える。そして、この笑顔検出部は、目検出部19により検出された目の位置情報に基づいて、当該目が検出された笑顔度合いを検出する。笑顔検出部は、連続撮影により生成された全てのフレーム画像データの縮小輝度画像データについて、有効性判定部19bにより有効であると判定された人の顔の左右両目の座標情報に基づいて、縮小輝度画像内で口の一を探索して、口角が上がっている度合いに応じて笑顔値を算出する。このようにして算出された笑顔値の値が一番大きいフレーム画像データを最良のフレーム画像データとして、複数枚のフレーム画像データの中から選択するようにしてもよい。   Further, in the present embodiment, the selection process is performed according to the blinking degree of the person of the subject detected by the blink detection unit 20, but the present invention is not limited to this. For example, the selection process may be performed according to the smile level of the face detected by the eye detection unit 19. Specifically, the configuration of the digital camera 1 includes a smile detection unit. Then, based on the position information of the eyes detected by the eye detection unit 19, the smile detection unit detects the smile level at which the eyes are detected. The smile detection unit reduces the reduced luminance image data of all the frame image data generated by the continuous shooting based on the coordinate information of the left and right eyes of the human face determined to be valid by the validity determination unit 19b. One of the mouths is searched in the luminance image, and a smile value is calculated according to the degree to which the mouth corner is raised. The frame image data having the largest smile value calculated in this way may be selected from among a plurality of frame image data as the best frame image data.

また、本実施の形態においては、瞬き検出部20により検出された被写体の人の瞬き度合いに応じて選択処理を行っているがこれに限られない。例えば、蓄積されたフレーム画像データの縮小輝度画像データのうち、有効性判定部19bにより顔が有効であると判定された縮小輝度画像データの各々について、隣り合うものどうしのぶれ量により選択処理を行ってもよい。具体的には、デジタルカメラ1の構成にぶれ検出部を備える。そして、このぶれ検出部は、連写により生成された複数のフレーム画像データの縮小輝度画像データの各々について隣り合うものどうしのぶれ評価値(ぶれ量)を検出する。ぶれ検出部は、連写により生成された複数のフレーム画像データの縮小輝度画像データから顔検出処理にて人の顔が検出されなかった場合や、何れかの縮小輝度画像データから人の顔が検出されたが目検出が有効である顔数が0であった場合に、各縮小輝度画像データ(もしくは各フレーム画像データ)を所定の領域にブロック分割して、各ブロック毎に隣り合うものどうしの同一位置のブロックとの間で差分を算出し、その差分値が全ブロックの中で最大のものをぶれ評価値として算出する。このようにして算出されたぶれ評価値の値が一番小さいものを、複数のフレーム画像データの中から選択するようにしてもよい。   Further, in the present embodiment, the selection process is performed according to the blinking degree of the person of the subject detected by the blink detection unit 20, but the present invention is not limited to this. For example, among the reduced luminance image data of the accumulated frame image data, for each of the reduced luminance image data for which the face is determined to be effective by the validity determination unit 19b, a selection process is performed based on the amount of blur between adjacent ones. You may go. Specifically, the configuration of the digital camera 1 includes a shake detection unit. The blur detection unit detects a blur evaluation value (blur amount) between adjacent ones of the reduced luminance image data of the plurality of frame image data generated by continuous shooting. The blur detection unit detects a human face from the reduced luminance image data of a plurality of frame image data generated by continuous shooting when a human face is not detected in the face detection process, or from one of the reduced luminance image data. When the number of faces that are detected but for which eye detection is effective is 0, each reduced luminance image data (or each frame image data) is divided into predetermined areas, and adjacent ones in each block. The difference between the blocks at the same position is calculated, and the largest difference value among all the blocks is calculated as the blur evaluation value. The image having the smallest blur evaluation value calculated in this way may be selected from a plurality of frame image data.

1 デジタルカメラ
2 撮像系
3 メモリカード
4 バス
5 CPU
6 RAM
7 画像表示部
8 ROM
9 キー入力部
10 レンズ駆動ブロック
11 レンズ
12 絞り
13 固体撮像素子
14 ドライバ
15 タイミングジェネレータ
16 信号処理部
17 検出部
18 顔検出部
19 目検出部
19a 信頼度算出部
19b 有効性判定部
20 瞬き検出部
1 Digital Camera 2 Imaging System 3 Memory Card 4 Bus 5 CPU
6 RAM
7 Image display 8 ROM
DESCRIPTION OF SYMBOLS 9 Key input part 10 Lens drive block 11 Lens 12 Aperture 13 Solid-state image sensor 14 Driver 15 Timing generator 16 Signal processing part 17 Detection part 18 Face detection part 19 Eye detection part 19a Reliability calculation part 19b Effectiveness determination part 20 Blink detection part

Claims (7)

撮像手段と、
この撮像手段に連続して撮像するよう制御する連続撮像制御手段と、
前記撮像手段によって撮像される画像の記録指示を検出する記録指示検出手段と、
この記録指示検出手段により記録指示が検出されたタイミングに基づいて、前記連続撮像制御手段により撮像された複数の画像データを蓄積する蓄積手段と、
この蓄積手段により蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価手段と、
タイムラグ補正値を取得するタイムラグ補正値取得手段と、
このタイムラグ補正値取得手段により取得されたタイムラグ補正値及び前記評価手段による評価に基づいて、前記蓄積手段により蓄積された複数の画像データの中から特定の画像データを選択する選択手段と、
を備えたことを特徴とする撮像装置。
Imaging means;
Continuous imaging control means for controlling the imaging means to continuously capture images;
Recording instruction detecting means for detecting a recording instruction of an image captured by the imaging means;
A storage unit that stores a plurality of image data captured by the continuous imaging control unit based on a timing at which a recording instruction is detected by the recording instruction detection unit;
Evaluation means for evaluating the imaging state of the subject included in the plurality of image data accumulated by the accumulation means;
Time lag correction value acquisition means for acquiring a time lag correction value;
Based on the time lag correction value acquired by the time lag correction value acquisition means and the evaluation by the evaluation means, a selection means for selecting specific image data from the plurality of image data stored by the storage means;
An imaging apparatus comprising:
前記蓄積手段により蓄積された複数の画像データから前記被写体に含まれる人の顔を検出する顔検出手段と、
前記顔検出手段により検出された人の顔から目を検出する目検出手段と、
前記目検出手段により検出された目の瞬き度合いを検出する瞬き検出手段と、
を更に備え、
前記評価手段は、前記瞬き検出手段により検出された瞬き度合いに基づいて、前記被写体の撮像状態として人の顔の撮像状態を評価することを特徴とする請求項1記載の撮像装置。
Face detection means for detecting a human face included in the subject from a plurality of image data stored by the storage means;
Eye detection means for detecting eyes from a human face detected by the face detection means;
Blink detection means for detecting the blink degree of eyes detected by the eye detection means;
Further comprising
The imaging apparatus according to claim 1, wherein the evaluation unit evaluates an imaging state of a human face as an imaging state of the subject based on a blink degree detected by the blink detection unit.
前記蓄積手段は、
前記記録指示検出手段により記録指示が検出されたタイミングの前後、タイミング以前、又は、タイミング以後の少なくとも何れかにより、複数の画像データの蓄積を開始することを特徴とする請求項1又は2記載の撮像装置。
The storage means includes
The accumulation of a plurality of image data is started at least before, before, or after the timing when the recording instruction is detected by the recording instruction detecting unit. Imaging device.
前記選択手段により選択された画像データの表示を制御する表示制御手段を更に備えたことを特徴とする請求項1乃至3の何れかに記載の撮像装置。   The imaging apparatus according to claim 1, further comprising display control means for controlling display of image data selected by the selection means. 前記選択手段により選択された画像データを記録する記録手段を更に備えたことを特徴とする請求項1乃至4の何れかに記載の撮像装置。   5. The imaging apparatus according to claim 1, further comprising a recording unit that records the image data selected by the selection unit. 撮像部に対し連続して撮像するよう制御する連続撮像制御ステップと、
前記撮像部にて撮像される画像の記録指示を検出する記録指示検出ステップと、
この記録指示検出ステップにて記録指示が検出されたタイミングに基づいて、前記連続撮像制御ステップにて撮像された複数の画像データを所定のメモリに蓄積する蓄積ステップと、
この蓄積ステップにて蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価ステップと、
タイムラグ補正値を取得するタイムラグ補正値取得ステップと、
このタイムラグ補正値取得ステップにて取得されたタイムラグ補正値及び前記評価ステップにおける評価に基づいて、前記蓄積ステップにて蓄積された複数の画像データの中から特定の画像データを選択する選択ステップと、
を含むことを特徴とする画像選択方法。
A continuous imaging control step for controlling the imaging unit to continuously capture images;
A recording instruction detection step of detecting a recording instruction of an image captured by the imaging unit;
An accumulation step for accumulating a plurality of image data captured in the continuous imaging control step in a predetermined memory based on the timing at which the recording instruction is detected in the recording instruction detection step;
An evaluation step for evaluating the imaging state of the subject included in the plurality of image data accumulated in the accumulation step;
A time lag correction value acquisition step for acquiring a time lag correction value;
Based on the time lag correction value acquired in the time lag correction value acquisition step and the evaluation in the evaluation step, a selection step of selecting specific image data from the plurality of image data stored in the storage step;
An image selection method comprising:
撮像装置が備えるコンピュータを、
連続して撮像するよう制御する連続撮像制御手段、
撮像される画像の記録指示を検出する記録指示検出手段、
記録指示検出手段によって記録指示が検出されたタイミングに基づいて、前記連続撮像制御手段によって撮像された複数の画像データを所定のメモリに蓄積する蓄積手段、
この蓄積手段によって蓄積された複数の画像データに含まれる被写体の撮像状態を評価する評価手段、
タイムラグ補正値を取得するタイムラグ補正値取得手段、
このタイムラグ補正値取得手段によって取得されたタイムラグ補正値及び前記評価手段による評価に基づいて、前記蓄積手段によって蓄積された複数の画像データの中から特定の画像データを選択する選択手段、
として機能させることを特徴とするプログラム。
A computer provided in the imaging apparatus;
Continuous imaging control means for controlling continuous imaging;
Recording instruction detection means for detecting a recording instruction of an image to be captured;
A storage unit that stores, in a predetermined memory, a plurality of pieces of image data captured by the continuous imaging control unit based on a timing at which a recording command is detected by the recording command detection unit;
Evaluation means for evaluating the imaging state of the subject included in the plurality of image data stored by the storage means;
Time lag correction value acquisition means for acquiring a time lag correction value;
A selection unit that selects specific image data from a plurality of image data stored by the storage unit based on the time lag correction value acquired by the time lag correction value acquisition unit and the evaluation by the evaluation unit;
A program characterized by functioning as
JP2009160889A 2009-07-07 2009-07-07 Imaging device, image selection method, and program Pending JP2011018989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009160889A JP2011018989A (en) 2009-07-07 2009-07-07 Imaging device, image selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009160889A JP2011018989A (en) 2009-07-07 2009-07-07 Imaging device, image selection method, and program

Publications (1)

Publication Number Publication Date
JP2011018989A true JP2011018989A (en) 2011-01-27

Family

ID=43596467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009160889A Pending JP2011018989A (en) 2009-07-07 2009-07-07 Imaging device, image selection method, and program

Country Status (1)

Country Link
JP (1) JP2011018989A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026937A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing method, image processing apparatus, and program
JPWO2021024470A1 (en) * 2019-08-08 2021-02-11
CN112422840A (en) * 2020-10-26 2021-02-26 珠海市一微半导体有限公司 Safe light supplementing method of vision robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271673A (en) * 2001-03-09 2002-09-20 Fuji Photo Film Co Ltd Electronic camera and static image recording method
JP2007049408A (en) * 2005-08-10 2007-02-22 Fujifilm Corp Imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271673A (en) * 2001-03-09 2002-09-20 Fuji Photo Film Co Ltd Electronic camera and static image recording method
JP2007049408A (en) * 2005-08-10 2007-02-22 Fujifilm Corp Imaging device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026937A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing method, image processing apparatus, and program
JPWO2021024470A1 (en) * 2019-08-08 2021-02-11
CN112422840A (en) * 2020-10-26 2021-02-26 珠海市一微半导体有限公司 Safe light supplementing method of vision robot

Similar Documents

Publication Publication Date Title
TWI393434B (en) Image capture device and program storage medium
US8994783B2 (en) Image pickup apparatus that automatically determines shooting mode most suitable for shooting scene, control method therefor, and storage medium
JP5482654B2 (en) Imaging apparatus, imaging method, and program
JP5030022B2 (en) Imaging apparatus and program thereof
JP2006254229A (en) Imaging apparatus, imaging method and imaging program
JP2013123210A (en) Image-capturing apparatus
TWI492618B (en) Image pickup device and computer readable recording medium
JP4952920B2 (en) Subject determination apparatus, subject determination method and program thereof
JP2003307669A (en) camera
WO2007119819A1 (en) Image recording and reproducing device
JP2003114378A (en) camera
JP4468598B2 (en) Image processing apparatus and recording medium storing image processing program
JP5423187B2 (en) Imaging apparatus, image selection method, and program
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP2011018989A (en) Imaging device, image selection method, and program
JP2006163496A (en) Apparatus, method and program for image recording
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2017011513A (en) Imaging device and imaging method
JP2009017427A (en) Imaging device
JP2022170438A (en) Electronic device and its control method
JP4501927B2 (en) Imaging apparatus and program thereof
JP2009182880A (en) Imaging apparatus and program thereof
JP4957461B2 (en) Imaging apparatus and imaging method
JP4487781B2 (en) Electronic camera
JP2009031343A (en) camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131010

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131210