[go: up one dir, main page]

JP2008301355A - Imaging apparatus and program thereof - Google Patents

Imaging apparatus and program thereof Download PDF

Info

Publication number
JP2008301355A
JP2008301355A JP2007147001A JP2007147001A JP2008301355A JP 2008301355 A JP2008301355 A JP 2008301355A JP 2007147001 A JP2007147001 A JP 2007147001A JP 2007147001 A JP2007147001 A JP 2007147001A JP 2008301355 A JP2008301355 A JP 2008301355A
Authority
JP
Japan
Prior art keywords
face
blur
detected
amount
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007147001A
Other languages
Japanese (ja)
Inventor
Keiichi Imamura
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007147001A priority Critical patent/JP2008301355A/en
Publication of JP2008301355A publication Critical patent/JP2008301355A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Image Processing (AREA)

Abstract

【課題】 画質の劣化を抑えるとともに、メイン被写体がブレない良好が画像を得ることができる撮像装置及びそのプログラムを実現する。
【解決手段】 シャッタボタンが半押しされると顔検出処理を行う(S3)。そして、顔検出処理によって複数の顔が検出され(S5でY)、該検出された顔の中に登録された人物の顔があると認識された場合は(S7でY)、該認識された被写体をメイン被写体と判断し、該認識された顔の動きを検出する処理を開始する(S8)。一方、顔検出処理によって1つの顔が検出された場合(S5でN)、複数の顔が検出されたが登録された人物の顔があると認識されなかった場合は(S7でN)、該検出された顔をメイン被写体と判断し、該検出された顔の動きを検出する処理を開始する(S9)。そして、シャッタボタンが全押しされ、検出された動き量が所定量以上であると(S12でY)、感度式ブレ軽減処理を行う(S14)
【選択図】 図2
PROBLEM TO BE SOLVED: To realize an imaging apparatus capable of suppressing deterioration of image quality and obtaining a good image with a main subject not blurring and its program.
When a shutter button is half-pressed, face detection processing is performed (S3). When a plurality of faces are detected by the face detection process (Y in S5) and it is recognized that there is a registered person's face among the detected faces (Y in S7), the faces are recognized. The subject is determined as the main subject, and the process of detecting the recognized face movement is started (S8). On the other hand, when one face is detected by the face detection process (N in S5), when a plurality of faces are detected but it is not recognized that there is a registered person's face (N in S7), The detected face is determined as the main subject, and a process of detecting the detected face motion is started (S9). If the shutter button is fully pressed and the detected amount of motion is greater than or equal to a predetermined amount (Y in S12), sensitivity-type blur reduction processing is performed (S14).
[Selection] Figure 2

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、被写体のブレを抑える撮像装置及びそのプログラムに関する。   The present invention relates to an imaging device and a program thereof, and more particularly, to an imaging device that suppresses blurring of a subject and a program thereof.

近年、撮像装置、例えば、デジタルカメラにおいては、被写体の動きが速い場合には、撮影感度を上昇させ、シャッタスピードを速くすることにより、ブレのない画像データを得るという技術が登場した(特許文献1)。   In recent years, in an imaging apparatus, for example, a digital camera, when a subject moves quickly, a technique has been developed that obtains image data without blurring by increasing the shooting sensitivity and increasing the shutter speed (Patent Literature). 1).

公開特許公報 特開2004−120576JP Patent Publication No. 2004-120576

しかしながら、上記特許文献によれば、ブレのない画像データを得ることはできるが、撮像された何れかの被写体に動きがある場合は撮影感度を上昇させてシャッタ速度を速くしてしまうため、撮影者が真に撮影したいメイン被写体とは何ら関係のない被写体の動きによって、撮影感度が上昇してしまい画質が劣化してしまっていた。   However, according to the above-mentioned patent document, it is possible to obtain image data without blurring. However, if any of the captured subjects moves, the imaging sensitivity is increased to increase the shutter speed. Due to the movement of the subject that has nothing to do with the main subject that the person really wants to shoot, the shooting sensitivity has increased and the image quality has deteriorated.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、画質の劣化を抑えるとともに、メイン被写体がブレない良好な画像を得ることができる撮像装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and an object of the present invention is to provide an imaging apparatus capable of suppressing deterioration in image quality and obtaining a good image in which a main subject is not blurred, and a program therefor. And

上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、
前記撮像手段により撮像された画像データ内に顔があるか否かを検出する顔検出手段と、
前記撮像手段により撮像される画像データに基づいて、前記顔検出手段により検出された顔のブレ量を検出する顔ブレ検出手段と、
前記顔ブレ検出手段により検出されたブレ量に基づいて、ブレ軽減を行なうブレ軽減手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the first aspect of the present invention includes an image pickup means for picking up an image of a subject,
Face detection means for detecting whether or not there is a face in the image data imaged by the imaging means;
A face blur detection unit that detects a blur amount of the face detected by the face detection unit based on image data captured by the imaging unit;
Based on the amount of blur detected by the face blur detection means, blur reduction means for reducing blur,
It is provided with.

また、例えば、請求項2に記載されているように、前記顔検出手段は、
前記撮像手段により撮像された画像データの所定領域内に顔があるか否かを検出するようにしてもよい。
For example, as described in claim 2, the face detection means includes
You may make it detect whether a face exists in the predetermined area | region of the image data imaged by the said imaging means.

また、例えば、請求項3に記載されているように、前記所定領域は、
画角の中央領域、又は、ユーザによって任意に指定された領域であるようにしてもよい。
For example, as described in claim 3, the predetermined region is
You may make it be the center area | region of an angle of view, or the area | region arbitrarily designated by the user.

また、例えば、請求項4に記載されているように、前記ブレ軽減手段は、
撮影感度を上げると共にシャッタ速度を速くするという感度式ブレ軽減を行なうようにしてもよい。
Further, for example, as described in claim 4, the blur reduction means is
Sensitivity-type blur reduction may be performed by increasing the shooting sensitivity and increasing the shutter speed.

また、例えば、請求項5に記載されているように、前記ブレ軽減手段は、
前記顔ブレ検出手段により検出されたブレ量が所定量より多い場合に、ブレ軽減を行なうようにしてもよい。
Further, for example, as described in claim 5, the blur reduction means is
When the amount of blur detected by the face blur detector is larger than a predetermined amount, blur reduction may be performed.

また、例えば、請求項6に記載されているように、前記ブレ軽減手段は、
前記顔ブレ検出手段により検出されたブレ量に応じて、ブレ軽減の度合いを強くするようにしてもよい。
Further, for example, as described in claim 6, the blur reduction means includes:
The degree of blur reduction may be increased according to the amount of blur detected by the face blur detection means.

また、例えば、請求項7に記載されているように、前記顔検出手段は、
前記撮像手段により撮像された画像データ内に、予め登録された人物の顔があるか否かを検出する手段を含み、
前記顔ブレ検出手段は、
前記撮像手段により撮像される画像データに基づいて、前記顔検出手段により検出された予め登録された人物の顔のブレ量を検出するようにしてもよい。
For example, as described in claim 7, the face detection unit includes:
Means for detecting whether or not there is a face of a person registered in advance in the image data imaged by the imaging means;
The face blur detection means includes
Based on the image data picked up by the image pickup means, the blur amount of the face of the person registered in advance detected by the face detection means may be detected.

また、例えば、請求項8に記載されているように、前記顔検出手段は、
前記撮像手段により撮像された画像データ内に複数の顔があると検出された場合のみ、予め登録された人物の顔があるか否かを検出するようにしてもよい。
For example, as described in claim 8, the face detection unit includes:
Only when it is detected that there are a plurality of faces in the image data picked up by the image pickup means, it may be detected whether there is a face of a person registered in advance.

また、例えば、請求項9に記載されているように、前記顔ブレ検出手段は、
前記顔検出手段により予め登録された人物の顔が検出された場合は、該検出された予め登録された人物の顔のブレ量を検出し、前記顔検出手段により予め登録された人物の顔が検出されず、且つ、顔が検出された場合は、該検出された顔のブレ量を検出するようにしてもよい。
Further, for example, as described in claim 9, the face blur detection unit includes:
When a face of a person registered in advance is detected by the face detection means, the amount of blurring of the face of the person registered in advance is detected, and the face of the person registered in advance by the face detection means is detected. If no face is detected and a face is detected, the amount of shake of the detected face may be detected.

また、例えば、請求項10に記載されているように、前記撮像手段により撮像される画像データの所定の領域のブレ量を検出するブレ検出手段を備え、
前記ブレ軽減手段は、
前記顔検出手段により顔が検出されなかった場合は、前記ブレ検出手段により検出された所定の領域のブレ量に基づいて、ブレ軽減を行なうようにしてもよい。
Further, for example, as described in claim 10, the image sensor includes a blur detection unit that detects a blur amount of a predetermined area of image data captured by the imaging unit,
The blur reducing means is
When a face is not detected by the face detection unit, blur reduction may be performed based on a blur amount of a predetermined area detected by the blur detection unit.

また、例えば、請求項11に記載されているように、前記ブレ検出手段は、
画像データの複数の領域のブレ量を検出し、
前記ブレ軽減手段は、
前記顔検出手段により顔が検出されなかった場合は、前記ブレ検出手段により検出された各領域のブレ量に基づいてブレ軽減を行なうようにしてもよい。
Further, for example, as described in claim 11, the blur detection unit includes:
Detect blur amount in multiple areas of image data,
The blur reducing means is
When a face is not detected by the face detection unit, blur reduction may be performed based on the blur amount of each area detected by the blur detection unit.

また、例えば、請求項12に記載されているように、前記顔ブレ検出手段と、前記ブレ検出手段は、
動きベクトルを検出することによりブレ量を検出するようにしてもよい。
Further, for example, as described in claim 12, the face blur detection unit and the blur detection unit include:
You may make it detect blur amount by detecting a motion vector.

また、例えば、請求項13に記載されているように、前記撮像手段を用いて静止画撮影を行なう静止画撮影制御手段を備え、
前記ブレ軽減手段は、
前記静止画撮影制御手段により撮像される静止画像データに対してブレ軽減を行なうようにしてもよい。
Further, for example, as described in claim 13, a still image shooting control unit that performs still image shooting using the imaging unit is provided,
The blur reducing means is
Blur reduction may be performed on still image data captured by the still image capturing control means.

上記目的達成のため、請求項14記載の発明によるプログラムは、被写体を撮像する撮像処理と、
前記撮像処理により撮像された画像データ内に顔があるか否かを検出する顔検出処理と、
前記撮像処理により撮像される画像データに基づいて、前記顔検出処理により検出された顔のブレ量を検出する顔ブレ検出処理と、
前記顔ブレ検出処理により検出されたブレ量に基づいて、ブレ軽減を行なうブレ軽減処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
In order to achieve the above object, a program according to the invention described in claim 14 includes an imaging process for imaging a subject,
Face detection processing for detecting whether or not there is a face in the image data captured by the imaging processing;
A face blur detection process for detecting a blur amount of the face detected by the face detection process based on image data captured by the imaging process;
Based on the blur amount detected by the face blur detection process, the blur reduction process for reducing the blur,
And each of the above processes is executed by a computer.

本発明によれば、画質の劣化を抑えるとともに、メイン被写体がブレない良好な画像を得ることができる。   According to the present invention, it is possible to suppress a deterioration in image quality and obtain a good image in which the main subject is not blurred.

以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り兼用シャッタ4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、動きベクトル検出部15、DMA16、画像生成部17、DMA18、DMA19、表示部20、DMA21、圧縮伸張部22、DMA23、フラッシュメモリ24、バス25を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes a photographic lens 2, a lens driving block 3, an aperture / shutter 4, a CCD 5, a vertical driver 6, a TG (timing generator) 7, a unit circuit 8, a DMA controller (hereinafter referred to as DMA) 9, a CPU 10, and a key input. 11, memory 12, DRAM 13, DMA 14, motion vector detection unit 15, DMA 16, image generation unit 17, DMA 18, DMA 19, display unit 20, DMA 21, compression / decompression unit 22, DMA 23, flash memory 24, and bus 25. .

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズを含む。そして、撮影レンズ2には、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるフォーカスモータ、ズームモータ(図示略)と、CPU10から送られてくる制御信号にしたがって、フォーカスレンズ、ズームレンズを光軸方向に駆動させるフォーカスモータドライバ、ズームモータドライバ(図示略)とから構成されている。   The photographic lens 2 includes a focus lens and a zoom lens that are composed of a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 moves the focus lens and the zoom lens in the optical axis direction in accordance with a focus motor and a zoom motor (not shown) that drive the focus lens and the zoom lens in the optical axis direction, respectively, and a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り兼用シャッタ4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り兼用シャッタ4を動作させる。この絞り兼用シャッタ4は、絞り、シャッタとして機能する。
絞りとは、CCD5に入射される光の量を制御する機構のことをいい、シャッタとは、CCD5に光を当てる時間を制御する機構のことをいい、CCD5に光を当てる時間(露光時間)は、シャッタ速度によって変わってくる。
The diaphragm / shutter 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm / shutter 4 in accordance with a control signal sent from the CPU 10. The aperture / shutter 4 functions as an aperture and shutter.
The diaphragm is a mechanism for controlling the amount of light incident on the CCD 5, and the shutter is a mechanism for controlling the time for which light is applied to the CCD 5, and the time for which light is applied to the CCD 5 (exposure time). Depends on the shutter speed.

CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。   The CCD 5 is scanned and driven by the vertical driver 6, photoelectrically converts the intensity of light of each color of the RGB value of the subject image at a constant period, and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the vertical driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. (Automatic Gain Control) circuit and an A / D converter that converts the analog signal after the automatic gain adjustment into a digital signal. The image pickup signal obtained by the CCD 5 passes through the unit circuit 8 and is then Bayered by the DMA 9 The data is stored in the buffer memory (DRAM 13).

CPU10は、AE処理、AF処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、被写体の顔を検出する顔検出部101、動きベクトル検出部15によって検出された動きベクトル(ブレ量)に応じて感度式ブレ軽減を行なう感度式ブレ軽減部102を含む。この顔検出部101は、人の顔が画像データ内にあるかを検出する顔検出処理と、該検出された顔が具体的に誰の顔であるかを認識する顔認識処理とを行なう。
ここで、感度式ブレ軽減とは、CCDなどの撮像素子の感度を上げ、シャッタ速度を速めることによりブレを軽減するものである。ここで、「感度を上げ」となっているが、要は画像を明るくさせる作用のことをいい、CCD5から出力された撮像信号のゲインを上げることによって感度を上げる方法や、CCD5を画素加算駆動させたり、CCD5から出力された撮像信号に対して画素加算処理を実行することにより感度を上げる方法であってもよい。
The CPU 10 has a function of performing AE processing, AF processing, and the like, and is a one-chip microcomputer that controls each part of the digital camera 1.
In particular, the CPU 10 includes a face detection unit 101 that detects the face of the subject, and a sensitivity type blur reduction unit 102 that performs sensitivity type blur reduction according to the motion vector (blur amount) detected by the motion vector detection unit 15. The face detection unit 101 performs a face detection process for detecting whether a human face is in the image data, and a face recognition process for recognizing who the detected face is.
Here, the sensitivity-type blur reduction is to reduce blur by increasing the sensitivity of an image sensor such as a CCD and increasing the shutter speed. Here, “increased sensitivity” refers to the action of brightening the image. The method increases the sensitivity by increasing the gain of the imaging signal output from the CCD 5, or the CCD 5 is driven to add pixels. Alternatively, the sensitivity may be increased by executing pixel addition processing on the image pickup signal output from the CCD 5.

キー入力部11は、半押し操作全押し操作可能なシャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム(例えば、AE、AF処理に必要なプログラム)、及び必要なデータ(AEプログラム線図等)が記録されており、CPU10は、該プログラムに従い動作する。
The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, and a SET key that can be pressed halfway down, and outputs an operation signal corresponding to a user key operation to the CPU 10.
In the memory 12, a control program (for example, a program necessary for AE and AF processing) necessary for the CPU 10 to control each part of the digital camera 1 and necessary data (AE program diagram, etc.) are recorded. The CPU 10 operates according to the program.

DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。   The DRAM 13 is used as a buffer memory for temporarily storing image data picked up by the CCD 5 and also as a working memory for the CPU 10.

DMA14は、バッファメモリに記憶されているベイヤーデータ若しくは輝度色差信号の画像データを読み出して、動きベクトル検出部15に出力するものである。
動きベクトル検出部15は、フレーム(画像データ)のある領域の動きベクトルを検出するものであり、代表点マッチング法や、ブロックマッチング法などを用いて該画像データの動きベクトル(動き量)を検出する。また、この動きベクトルを検出するには、ある領域を含むフレームと、その後に撮像されたフレームとに基づいて動きベクトルを検出するので、撮像されたフレームを一定時間保持する記憶回路も含む。この検出された動きベクトルは、DMA14を介してCPU10に送られる。これにより、該ある領域のブレ量を良好に検出することができる。
The DMA 14 reads Bayer data or luminance / chrominance signal image data stored in the buffer memory and outputs the data to the motion vector detection unit 15.
The motion vector detection unit 15 detects a motion vector in a certain region of the frame (image data), and detects a motion vector (motion amount) of the image data using a representative point matching method, a block matching method, or the like. To do. In order to detect this motion vector, since the motion vector is detected based on a frame including a certain region and a frame captured after that, a storage circuit that holds the captured frame for a certain time is also included. The detected motion vector is sent to the CPU 10 via the DMA 14. Thereby, the amount of blur in the certain area can be detected well.

DMA16は、バッファメモリ(DRAM13)に記憶されたベイヤーデータの画像データを読み出して画像生成部17に出力するものである。
画像生成部17は、DMA16から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA18は、画像生成部17で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
The DMA 16 reads the image data of the Bayer data stored in the buffer memory (DRAM 13) and outputs it to the image generation unit 17.
The image generation unit 17 performs processing such as pixel interpolation processing, γ correction processing, and white balance processing on the image data sent from the DMA 16, and also generates a luminance color difference signal (YUV data). That is, it is a portion that performs image processing.
The DMA 18 stores the image data (YUV data) of the luminance / color difference signal subjected to image processing by the image generation unit 17 in a buffer memory.

DMA19は、バッファメモリに記憶されているYUVデータの画像データを表示部20に出力するものである。
表示部20は、カラーLCDとその駆動回路を含み、DMA19から出力された画像データの画像を表示させる。
The DMA 19 outputs image data of YUV data stored in the buffer memory to the display unit 20.
The display unit 20 includes a color LCD and its drive circuit, and displays an image of the image data output from the DMA 19.

DMA21は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部22に出力したり、圧縮伸張部22により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部22は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA23は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ24に記録させたり、フラッシュメモリ24に記録された圧縮画像データをバッファメモリに記憶させるものである。
The DMA 21 outputs the YUV data image data and compressed image data stored in the buffer memory to the compression / decompression unit 22, and buffers the image data compressed by the compression / decompression unit 22 and the decompressed image data. It is stored in memory.
The compression / decompression unit 22 is a part that performs compression / decompression of image data (for example, compression / decompression in JPEG or MPEG format).
The DMA 23 reads compressed image data stored in the buffer memory and records it in the flash memory 24, or stores the compressed image data recorded in the flash memory 24 in the buffer memory.

B.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートにしたがって説明する。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.

ユーザのキー入力部11のモード切替キーの操作により撮影モードに設定されると、ステップS1で、CPU10は、CCD5により被写体の撮像を開始させ、画像生成部17によって順次生成されてバッファメモリ(DRAM13)に記憶された輝度色差信号の画像データを表示部20に表示させていく、といういわゆるスルー画像表示を開始する。
次いで、ステップS2で、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
When the photographing mode is set by the user operating the mode switching key of the key input unit 11, in step S <b> 1, the CPU 10 starts imaging of the subject by the CCD 5, and is sequentially generated by the image generation unit 17 and buffer memory (DRAM 13 The so-called through image display is started in which the image data of the luminance color difference signal stored in () is displayed on the display unit 20.
Next, in step S2, the CPU 10 determines whether or not the shutter button is half-pressed by the user. This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button is sent from the key input unit 11.

ステップS2で、シャッタボタンが半押しされていないと判断すると、半押しされるまでステップS2に留まり、シャッタボタンが半押しされたと判断すると、ステップS3に進み、CPU10の顔検出部101は、シャッタボタン半押し直前、又は直後に撮像された画像データに基づいて顔検出処理を行う。つまり、画像データ内に人の顔があるか否かを検出する処理を行う。この顔検出処理は、撮像された画像データの画角の中央領域内の画像データに対して行なう。つまり、撮像された画像データに顔がある場合であっても、該中央領域内に位置しない顔は検出されることはない。
このとき、CPU10は、シャッタボタンが半押しされると、動きベクトル検出部15に、シャッタボタン半押し直前、又は直後に撮像されたフレーム画像データを出力すると共に、その後CCD5により撮像されたフレーム画像データも取得させていく。
If it is determined in step S2 that the shutter button is not half-pressed, the process stays in step S2 until the shutter button is half-pressed. If it is determined that the shutter button is half-pressed, the process proceeds to step S3. Face detection processing is performed based on image data captured immediately before or after the button is pressed halfway. That is, processing for detecting whether or not there is a human face in the image data is performed. This face detection process is performed on the image data in the central region of the angle of view of the captured image data. That is, even when the captured image data includes a face, a face that is not located in the central region is not detected.
At this time, when the shutter button is half-pressed, the CPU 10 outputs the frame image data imaged immediately before or immediately after the shutter button half-press to the motion vector detection unit 15 and then the frame image imaged by the CCD 5. We will also acquire data.

図3(a)は、顔検出処理の対象となる画角の中央領域の様子の一例を示す図である。
21は、CCD5によって撮像された全画像データの画角を示し、22は、顔検出処理の対象となる中央領域の画角を示している。通常、撮影者は、撮影したいメインとなる被写体を画角の中央に持ってくるので、端のほうにある顔はメイン被写体でないと判断して、画角の中央に位置する所定領域に対してのみ顔検出処理を行うことになる。これにより、顔検出処理の負担を軽減することができると共に、メイン被写体でない顔を検出するという誤検出の発生を抑えることができる。
FIG. 3A is a diagram illustrating an example of the state of the central region of the field angle that is the target of the face detection process.
Reference numeral 21 denotes an angle of view of all image data picked up by the CCD 5, and reference numeral 22 denotes an angle of view of a central area to be subjected to face detection processing. Usually, the photographer brings the main subject to be photographed to the center of the angle of view, so the face near the edge is determined not to be the main subject, and the predetermined area located at the center of the angle of view is determined. Only face detection processing is performed. Thereby, it is possible to reduce the burden of the face detection process, and it is possible to suppress the occurrence of erroneous detection of detecting a face that is not the main subject.

また、この顔検出処理は、周知技術なので詳しく説明しないが、例えば、予め記憶されている一般的な人の顔の特徴データ(目、眉毛、鼻、口、耳等の特徴データ)と撮像された画像データとを比較照合することにより、撮像された該画像データの中に人の顔の画像データがあるか否かを検出する方法であってもよいし、他の方法であってもよい。要は、人の顔を検出する方法であればよい。この顔検出処理は、人の顔の輪郭、目や口など、大まかに人の顔であると認識する程度であり、その顔が誰の顔であるかを具体的に認識する必要は全くない。   Since this face detection process is a well-known technique and will not be described in detail, for example, it is imaged with pre-stored general human face feature data (feature data of eyes, eyebrows, nose, mouth, ears, etc.). It may be a method for detecting whether or not there is image data of a human face in the captured image data by comparing and collating the obtained image data, or another method may be used. . In short, any method for detecting a human face may be used. This face detection process is such that it roughly recognizes a person's face, such as the outline of a person's face, eyes and mouth, and there is no need to specifically recognize who the face is. .

次いで、ステップS4で、CPU10は、顔検出部101による顔検出処理によって顔が検出されたか否かを判断する。
ステップS4で、顔検出処理により顔が検出されたと判断すると、ステップS5に進み、CPU10は、複数の顔が検出されたか否かを判断する。
ステップS5で、複数の顔が検出されたと判断すると、ステップS6に進み、CPU10の顔検出部101は、該検出された顔の中に、登録された人物の顔があるかを認識する顔認識処理を行う。
Next, in step S <b> 4, the CPU 10 determines whether or not a face has been detected by the face detection process by the face detection unit 101.
If it is determined in step S4 that a face has been detected by the face detection process, the process proceeds to step S5, and the CPU 10 determines whether or not a plurality of faces have been detected.
If it is determined in step S5 that a plurality of faces have been detected, the process proceeds to step S6, where the face detection unit 101 of the CPU 10 recognizes whether there is a registered person's face among the detected faces. Process.

この顔認識処理は、単に人の顔が画像内にあるかどうかを検出することだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。例えば、目の位置、口の位置、鼻の位置等の認識、及びそれらの位置関係なども認識し、それらを数値化して数値データ(顔特徴データ)を算出し、登録されている人物の顔の顔特徴データと比較照合することにより顔認識を行なう。この顔検出処理により、検出された顔の画像データ上の位置、大きさも分かる。この顔の位置、大きさに基づいて顔領域が定まる。
ここで、ユーザは、顔登録モード等において、人物の顔を登録することができる。この顔登録モード等においては、ユーザが登録したい人物の顔画像を指定すると、CPU10は、該人物の顔画像から顔認識により算出された数値データ(顔特徴データ)を登録する。この登録された顔特徴データはメモリ12に記録される。
This face recognition process not only detects whether a person's face is in the image, but also specifically recognizes who the subject's face is. For example, recognition of eye position, mouth position, nose position, etc., and their positional relationship, etc. are digitized to calculate numerical data (face feature data), and the face of a registered person Face recognition is performed by comparing with the face feature data. By this face detection process, the position and size of the detected face on the image data are also known. The face area is determined based on the position and size of the face.
Here, the user can register a person's face in the face registration mode or the like. In this face registration mode or the like, when the user designates a face image of a person to be registered, the CPU 10 registers numerical data (face feature data) calculated by face recognition from the face image of the person. The registered face feature data is recorded in the memory 12.

次いで、ステップS7で、CPU10は、顔認識処理による認識結果に基づいて登録された顔が画像データ内に有るか否かを判断する。なお、1つも顔が登録されていない場合は、登録された顔が画像データ内に無いと判断することになる。   Next, in step S7, the CPU 10 determines whether or not a registered face exists in the image data based on the recognition result obtained by the face recognition process. If no face is registered, it is determined that there is no registered face in the image data.

ステップS7で、登録された顔が画像データ内にあると判断すると(顔認識された顔があると判断すると)、該顔がメイン被写体と判断して、ステップS8に進み、CPU10は、動きベクトル検出部15に、順次撮像されるフレーム画像データに基づいて、該顔認識された登録されている顔の動き量を検出していく処理を開始させて、ステップS11に進む。このとき、該顔認識した顔の画像データ上の位置、大きさ(検出された顔の顔領域情報)も動きベクトル検出部15に送られ、それに基づいて該顔の動き量が検出される。この検出された動き量がメイン被写体のブレ量ということになり、動き量が大きくなればなるほどブレ量が多くなる。このブレ量は被写体の動きによって生じる場合とデジタルカメラ1の動きによって生じる場合とがある。
また、動きベクトル検出部15は、認識された顔が複数ある場合は、該認識された各顔の動き量(ブレ量)を平行してそれぞれ検出する。
If it is determined in step S7 that the registered face is in the image data (if it is determined that there is a face recognized face), the face is determined to be the main subject, and the process proceeds to step S8. Based on the frame image data sequentially captured, the detection unit 15 starts processing for detecting the amount of movement of the registered face that has been face-recognized, and the process proceeds to step S11. At this time, the position and size (face area information of the detected face) of the face recognized for the face are also sent to the motion vector detection unit 15, and the amount of motion of the face is detected based on the position and size. The detected amount of motion is the amount of blurring of the main subject, and the amount of motion increases as the amount of motion increases. This blur amount may be caused by movement of the subject or may be caused by movement of the digital camera 1.
In addition, when there are a plurality of recognized faces, the motion vector detection unit 15 detects the motion amount (blur amount) of each recognized face in parallel.

この動きベクトル検出部15の動作を簡単に説明すると、顔認識の対象となったフレーム画像データのうち、該顔認識された顔領域の画像データと、CCD5によって次に撮像されたフレーム画像データとに基づいて、ブロックマッチング法等により、該認識された顔の動き量(動きベクトル)を検出する。つまり、ブロックマッチング法等により次に撮像されたフレーム画像データ内のどこに該認識された顔領域の画像データがあるかを検出することにより該認識された顔の動き量を検出する。そして、新たにフレーム画像データが撮像されると、該検出された顔領域の画像データと、新たに撮像されたフレーム画像データとに基づいてブロックマッチング等により、動きベクトルを検出する。   The operation of the motion vector detection unit 15 will be briefly described. Among the frame image data subjected to face recognition, the image data of the face area recognized by the face, the frame image data captured next by the CCD 5, and Based on the above, the recognized face motion amount (motion vector) is detected by a block matching method or the like. That is, the amount of motion of the recognized face is detected by detecting where the image data of the recognized face area is in the frame image data captured next by the block matching method or the like. When frame image data is newly captured, a motion vector is detected by block matching or the like based on the detected face region image data and the newly captured frame image data.

なお、CCD5によって、次に撮像されたフーム画像データに対しても顔認識処理を行うことにより、該認識した顔がどこにあるか否かを検出して、該顔の動き量を検出するようにしてもよく、要は、認識された顔がどこにあるか、若しくは認識された顔の動きを検出する方法であればよい。   The CCD 5 also performs face recognition processing on the next captured image of the foam image, thereby detecting where the recognized face is and detecting the amount of movement of the face. In short, any method may be used as long as the recognized face is located or the movement of the recognized face is detected.

一方、ステップS5で、複数の顔が検出されていないと判断された場合、ステップS7で、複数の顔が検出されたが登録された顔が画像データ内に無いと判断された場合は、検出された顔がメイン被写体と判断して、ステップS9に進み、CPU10は、動きベクトル検出部15に、順次撮像されるフレーム画像データに基づいて、ステップS3の顔検出処理により検出された顔の動き量を検出していく処理を開始させて、ステップS11に進む。このとき、該検出した顔の位置、大きさ(検出された顔の顔領域情報)が動きベクトル検出部15に送られ、それに基づいて該顔の動き量が検出される。この検出された動き量がメイン被写体のブレ量ということになる。
また、動きベクトル検出部15は、検出された顔が複数である場合(ステップS7でNO)は、該検出された各顔の動き量(ブレ量)を平行してそれぞれ検出する。
On the other hand, if it is determined in step S5 that a plurality of faces are not detected, or if it is determined in step S7 that a plurality of faces are detected but no registered face is present in the image data, detection is performed. The determined face is determined to be the main subject, and the process proceeds to step S9. The CPU 10 causes the motion vector detection unit 15 to detect the face motion detected by the face detection process in step S3 based on the frame image data sequentially captured. The process of detecting the amount is started, and the process proceeds to step S11. At this time, the position and size of the detected face (face area information of the detected face) are sent to the motion vector detection unit 15, and the amount of motion of the face is detected based on the detected position and size. This detected amount of movement is the amount of blurring of the main subject.
In addition, when there are a plurality of detected faces (NO in step S7), the motion vector detection unit 15 detects the detected motion amount (blur amount) of each face in parallel.

この動き検出処理は、上述したように、ブロックマッチング法等により、ステップS3で検出された顔領域の画像データと、その次に撮像されたフレーム画像データとに基づいて、該検出された顔の動き量を検出するが、検出された顔が1つの場合は、その後に撮像されるフレーム画像データに対しても顔検出処理を行なうことにより、該顔の動き量を検出するようにしてもよい。また、検出された顔が複数の場合は、該検出された各顔を顔認識し、その後に撮像されるフレーム画像データに対しても顔認識を行なうことにより、該検出された各顔が撮像されたフレーム画像データ内のどこにあるかを検出して、該検出された各顔の動き量を検出するようにしてもよい。要は、検出された顔がどこにあるか、若しくは検出された顔の動きを検出する方法であればよい。   As described above, this motion detection processing is performed based on the image data of the face area detected in step S3 by the block matching method or the like and the frame image data captured next. Although the amount of motion is detected, when there is one detected face, the amount of motion of the face may be detected by performing face detection processing on the frame image data captured thereafter. . When there are a plurality of detected faces, each detected face is imaged by recognizing each detected face and performing face recognition on the frame image data captured thereafter. It is also possible to detect where the detected frame image data is and to detect the amount of movement of each detected face. In short, any method may be used as long as the detected face is located or the motion of the detected face is detected.

一方、ステップS4で、顔検出処理により顔が検出されていないと判断すると、ステップS10に進み、CPU10は、顔検出処理の対象となったフレーム画像データに多数のサンプルポイントを設定し、動きベクトル検出部15に、順次撮像されるフレーム画像データに基づいて、該設定したサンプルポイントの動き量を検出していく処理を開始させて、ステップS11に進む。このとき、該設定した各サンプルポイントの位置、大きさ(サンプル領域情報)も動きベクトル検出部15に送られ、それに基づいて各サンプルポイントの動き量が検出される。
また、動きベクトル検出部15は、各サンプルポイントの動き量(ブレ量)を平行してそれぞれ検出する。
これにより、画像のブレを検出することができる。
On the other hand, if it is determined in step S4 that no face has been detected by the face detection process, the process proceeds to step S10, where the CPU 10 sets a number of sample points in the frame image data that is the target of the face detection process, and the motion vector. Based on the frame image data sequentially captured, the detection unit 15 starts processing for detecting the amount of movement of the set sample points, and the process proceeds to step S11. At this time, the position and size (sample area information) of each set sample point are also sent to the motion vector detection unit 15, and based on this, the amount of motion of each sample point is detected.
In addition, the motion vector detection unit 15 detects the amount of motion (blur amount) of each sample point in parallel.
Thereby, it is possible to detect image blur.

図3(b)は、サンプルポイントの様子を示す図である。23は、各サンプルポイントを示し、このサンプルポイントは一定の領域を有している。そして、この各サンプルポイント23の画像データが、次に撮像されたフレーム画像データ内のどこにあるか否かをブロックマッチング法等により検出することにより、各サンプルポイント23の動き量を検出する。   FIG. 3B is a diagram illustrating a state of sample points. Reference numeral 23 denotes each sample point, and this sample point has a certain area. Then, the amount of motion of each sample point 23 is detected by detecting where the image data of each sample point 23 is in the next captured frame image data by the block matching method or the like.

ステップS11に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS11で、シャッタボタンが全押しされていないと判断すると、シャッタボタンが全押しされるまでステップS11に留まり、シャッタボタンが全押しされたと判断すると、ステップS12に進み、CPU10は、該検出された動き量が所定量以上であるか否かを判断する。この判断は、シャッタボタン全押し直前に検出された動き量(複数の動き量が検出されている場合は、最も大きい動き量)が所定量以上であるか否かを判断する。
In step S11, the CPU 10 determines whether or not the shutter button has been fully pressed by the user.
If it is determined in step S11 that the shutter button is not fully pressed, the process stays in step S11 until the shutter button is fully pressed. If it is determined that the shutter button is fully pressed, the process proceeds to step S12, and the CPU 10 detects the detection. It is determined whether or not the amount of movement is greater than or equal to a predetermined amount. This determination is made as to whether or not the amount of motion detected immediately before the shutter button is fully pressed (the largest amount of motion when a plurality of motion amounts are detected) is equal to or greater than a predetermined amount.

ステップS12で、検出された動き量が所定量以上でないと判断すると、ステップS13に進み、CPU10は、通常のAE処理を行ってステップS15に進む。つまり、感度式ブレ軽減を行なわないことになる。これにより、検出された動き量が所定量以上で無い場合は、画質を劣化させることはない。検出された動き量が所定量以上でない場合には、画質を劣化させてまでもブレを軽減させるほどのブレではないからである。
この通常のAE処理とは、適正露出量となるように、適切なシャッタ速度、絞り値、感度を設定することをいい、静止画撮影用の普通のAEプログラム線図(動き量を考慮していないAEプログラム線図)に基づいて行なう。
If it is determined in step S12 that the detected motion amount is not greater than or equal to the predetermined amount, the process proceeds to step S13, and the CPU 10 performs a normal AE process and proceeds to step S15. That is, sensitivity-type blur reduction is not performed. Thereby, when the detected amount of motion is not equal to or greater than the predetermined amount, the image quality is not deteriorated. This is because if the detected amount of motion is not greater than or equal to the predetermined amount, it is not a blur that reduces blur even if the image quality is degraded.
This normal AE process is to set an appropriate shutter speed, aperture value, and sensitivity so that an appropriate exposure amount is obtained. A normal AE program diagram for taking a still image (considering the amount of motion). No AE program diagram).

一方、ステップS12で、検出された動きが所定量以上であると判断すると、ステップS14に進み、CPU10の感度式ブレ軽減部102は、感度を高めに設定し、シャッタ速度を速めにしたAE処理を行ってステップS15に進む。これにより、ブレを軽減しなければならないブレがある場合のみブレ軽減を行なうことができ、画質の劣化を抑えながらメイン被写体のブレを軽減することができる。
このAE処理は、適正露出量となるように、通常のAE処理により設定される感度より高く感度を設定すると共に、通常のAE処理により設定されるシャッタ速度よりもシャッタ速度を速く設定する。このときは、静止画撮影用の動き量を考慮したAEプログラム線図に基づいて行なう。つまり、感度式ブレ軽減を行なうことになる。なお、通常のAE処理に基づいてシャッタ速度等を設定し、該設定されたシャッタ速度を速めにすると共に、感度を高めに再設定するようにしてもよい。
On the other hand, if it is determined in step S12 that the detected movement is greater than or equal to the predetermined amount, the process proceeds to step S14, where the sensitivity-type blur reduction unit 102 of the CPU 10 sets the sensitivity to a higher value and increases the shutter speed. To go to step S15. Accordingly, it is possible to reduce the blur only when there is a blur that needs to be reduced, and it is possible to reduce the blur of the main subject while suppressing the deterioration of the image quality.
In this AE process, the sensitivity is set higher than the sensitivity set by the normal AE process and the shutter speed is set faster than the shutter speed set by the normal AE process so that the appropriate exposure amount is obtained. At this time, it is performed based on an AE program diagram in consideration of the amount of motion for still image shooting. That is, sensitivity-type blur reduction is performed. It should be noted that the shutter speed or the like may be set based on normal AE processing so that the set shutter speed is increased and the sensitivity is reset again.

また、この感度式ブレ軽減は、シャッタボタン全押し直前に検出された動き量(検出された動き量が複数ある場合は最も大きい動き量)に応じてブレ軽減の強度(度合い)を変えるようにする。検出された動き量と所定量との差分が少ない場合は、感度式ブレ軽減の強度を弱くし、検出された動き量と所定量との差分が多い場合は、感度式ブレ軽減の強度を強くする。なぜならば、検出された動きが所定量より遥かに大きい場合には、感度、シャッタ速度をかなり高く、速く設定しなければ(ブレ軽減の強度を強くしなければ)ブレを無くすことができないのに対し、検出された動きが所定量より少しだけ大きい場合には、感度、シャッタ速度を少しだけ高く、速く設定すれば(ブレ軽減の強度を弱くしても)ブレを無くすことができるからである。これにより、画質の劣化を抑えながらメイン被写体のブレを軽減することができる。
なお、検出された動き量が所定量以上であれば、ブレ軽減の強度を一律にしてもよい。
In addition, this sensitivity-type blur reduction changes the intensity (degree) of blur reduction according to the amount of motion detected immediately before the shutter button is fully pressed (the largest amount of motion when there are a plurality of detected motion amounts). To do. When the difference between the detected motion amount and the predetermined amount is small, the sensitivity blur reduction strength is weakened. When the difference between the detected motion amount and the predetermined amount is large, the sensitivity blur reduction strength is increased. To do. This is because if the detected motion is much larger than the predetermined amount, the sensitivity and shutter speed are considerably high, and the blur cannot be eliminated unless it is set fast (the intensity of blur reduction is not increased). On the other hand, if the detected motion is slightly larger than the predetermined amount, blurring can be eliminated by setting the sensitivity and shutter speed slightly higher and faster (even if the blur reduction intensity is reduced). . Thereby, it is possible to reduce blurring of the main subject while suppressing deterioration in image quality.
If the detected amount of motion is equal to or greater than a predetermined amount, the blur reduction intensity may be uniform.

このように、上記実施の形態においては、画角の中央領域内に人の顔が検出されると、該検出された顔の動き量を検出していき、該顔の動き量に応じて感度式ブレ軽減を行なうので、メイン被写体でない他の被写体の動き量が感度式ブレ軽減に悪影響を与えることがない。   As described above, in the above embodiment, when a human face is detected in the central area of the angle of view, the detected amount of movement of the face is detected, and the sensitivity is determined according to the amount of movement of the face. Since the motion blur reduction is performed, the movement amount of other subjects other than the main subject does not adversely affect the sensitivity motion blur reduction.

図4(a)は、シャッタボタン半押し直前、又は直後に撮像された画像データ及び検出される顔の様子の一例を示す図であり、検出される顔が1つの場合の時を例にしている。
図4(a)の22は、顔検出処理の対象となる中央領域の画角を示しており、被写体として、ポーズをとっている人物31と、左方向に走っている車32が撮像されたのが分かる。このような構図において、撮影者は車32を撮影したいのではなく、人物31を撮影したいということが分かる。つまり、真の撮影者(メイン被写体)は人物31ということになる。
FIG. 4A is a diagram illustrating an example of image data captured immediately before or after the shutter button is half-pressed and a state of a detected face, taking as an example a case where the number of detected faces is one. Yes.
Reference numeral 22 in FIG. 4A shows the angle of view of the central area that is the target of the face detection process. As a subject, a person 31 posing and a car 32 running in the left direction are captured. I understand. In such a composition, it is understood that the photographer does not want to photograph the car 32 but wants to photograph the person 31. That is, the true photographer (main subject) is the person 31.

従来は、このような場合であっても、走行している車32の動き量までも検出してしまい、該検出した動き量に応じて感度式ブレ軽減を行なっていた。つまり、車32がブレないように、撮影感度を上昇させ、シャッタ速度を速めていた。したがって、メイン被写体である人物31の動きが少ない、若しくは全く無いのにもかかわらず、撮影感度が必要以上に上昇し、それに伴い画質が劣化していたため良好な画像が得られなかった。
これに対して、画角の中央領域に顔が検出されると、つまり、人物31の顔が検出されると、該検出された顔の動き量に応じて感度式ブレ軽減処理を行うので、無駄に感度を上げる必要が無く、メイン被写体である人物31のブレを軽減することができる。したがって、メイン被写体のブレが無い良好な画像を得ることができる。
Conventionally, even in such a case, the amount of movement of the traveling car 32 is also detected, and sensitivity-type blur reduction is performed according to the detected amount of movement. That is, the photographing sensitivity is increased and the shutter speed is increased so that the car 32 does not blur. Therefore, despite the small or no movement of the person 31 as the main subject, the photographing sensitivity has increased more than necessary, and the image quality has deteriorated accordingly, so that a good image cannot be obtained.
On the other hand, when a face is detected in the center area of the angle of view, that is, when the face of the person 31 is detected, the sensitivity-type blur reduction process is performed according to the detected amount of movement of the face. There is no need to increase sensitivity unnecessarily, and blurring of the person 31 as the main subject can be reduced. Therefore, it is possible to obtain a good image without blurring of the main subject.

また、図4(b)は、シャッタボタン半押し直前、又は直後に撮像された画像データ及び検出、認識される顔の様子の一例を示す図であり、検出される顔が複数の場合を例にしている。
図4(b)の22は、同様に、顔検出処理の対象となる中央領域の画角を示しており、被写体として、ポーズをとっている人物31と、左方向に走っている女の子33と、その背景が撮像されたのがわかる。このような構図において、撮影者は女の子33を撮影したいのではなく、人物31を撮影したいということが分かる。つまり、真の撮影者は人物31ということになる。
FIG. 4B is a diagram illustrating an example of image data captured immediately before or after the shutter button is half-pressed and a state of a face that is detected and recognized, and an example in which a plurality of faces are detected is illustrated. I have to.
Similarly, reference numeral 22 in FIG. 4B shows the angle of view of the central region that is the target of the face detection process. As subjects, a person 31 posing and a girl 33 running leftward You can see that the background was imaged. In such a composition, it can be seen that the photographer does not want to photograph the girl 33 but wants to photograph the person 31. That is, the true photographer is the person 31.

しかしながら、このように複数の顔がある場合は、検出される顔が複数となり、メイン被写体でない女の子33の動きがブレ軽減処理に悪影響を与えてしまう。つまり、走っている女の子33がブレないように、感度を上昇させ、シャッタ速度を速めるため、感度が必要以上に上昇し、それに伴い画質が劣化してしまう。
したがって、予め人物31の顔を登録しておくことにより、検出された顔が複数であっても(ここでは、人物31の顔と女の子33の顔)、登録された人物(メイン被写体)の顔の動き量に基づいて感度式ブレ軽減処理を行うので、無駄に感度を上げる必要が無く、メイン被写体である人物31のブレを軽減することができる。したがって、画質の劣化を抑えてメイン被写体のブレが無い良好な画像を得ることができる。
However, when there are a plurality of faces as described above, a plurality of faces are detected, and the movement of the girl 33 that is not the main subject adversely affects the blur reduction process. In other words, the sensitivity is increased and the shutter speed is increased so that the running girl 33 does not blur, so the sensitivity increases more than necessary, and the image quality deteriorates accordingly.
Therefore, by registering the face of the person 31 in advance, even if there are a plurality of detected faces (here, the face of the person 31 and the face of the girl 33), the face of the registered person (main subject) Since the sensitivity-type blur reduction process is performed based on the amount of movement, it is not necessary to increase the sensitivity unnecessarily, and the blur of the person 31 as the main subject can be reduced. Therefore, it is possible to obtain a good image without blurring of the main subject while suppressing deterioration in image quality.

なお、図4(a)、(b)を例にして説明したが、例えば、移動しているメイン被写体である人が中央に位置するように撮影者がカメラをパンニングした場合、メイン被写体の動きは少なくなり、逆に山やビル、人等の背景の動きが大きくなるが、このような場合であっても、背景の動きが感度式ブレ軽減処理に影響を与えることはない。   4A and 4B have been described as an example. For example, when the photographer pans the camera so that the person who is the moving main subject is located in the center, the movement of the main subject Conversely, the background movement of mountains, buildings, people, etc. increases, but even in such a case, the background movement does not affect the sensitivity-type blur reduction process.

ステップS15に進むと、CPU10は、AE処理で設定された露出条件で静止画撮影処理を行い、画像生成部17により画像処理が施され、圧縮伸張部22により圧縮されてバッファメモリに記憶された静止画像データをフラッシュメモリ24に記録する。これにより、画質の劣化を抑えながらメイン被写体がブレない良好な静止画像を得ることができる。   In step S15, the CPU 10 performs still image shooting processing under the exposure conditions set in the AE processing, is subjected to image processing by the image generation unit 17, is compressed by the compression / decompression unit 22, and is stored in the buffer memory. Still image data is recorded in the flash memory 24. As a result, it is possible to obtain a good still image in which the main subject is not blurred while suppressing deterioration in image quality.

以上のように、実施の形態においては、顔が検出されると該検出された顔がメイン被写体であると判断し、該検出された顔の動き量に応じて感度式ブレ軽減を行なうので、無駄に感度を上昇させることなく、メイン被写体のブレを軽減することができ、画質の劣化を抑えながらメイン被写体がブレない良好な画像を得ることができる。
また、登録された人物(メイン被写体)の顔が画像データ内にある場合は、該登録された人物の顔の動き量に基づいて感度式ブレ軽減を行なうようにしたので、顔が複数検出された場合であっても、無駄に感度を上昇させることなく、メイン被写体のブレを軽減することができ、画質の劣化を抑えながらブレのない良好な画像を得ることができる。
また、検出された顔が複数ある場合に顔認識処理を行なうので、無駄に顔認識処理を行うことがなく、処理負担を軽減させることができる。つまり、顔検出処理よりも負担の大きい顔認識処理を無駄に行うことがない。
また、顔検出処理の対象なる範囲は、画角の中央領域なので、メイン被写体である可能性の低い顔を検出することがなく、顔検出処理の負担を軽減させることができる。
また、顔が検出されなかった場合は、複数のサンプルポイントの動き量を検出し、該検出された動き量に基づいてブレを軽減するので、画像のブレを検出することができ、画像のブレを軽減することができる。
As described above, in the embodiment, when a face is detected, it is determined that the detected face is the main subject, and sensitivity-type blur reduction is performed according to the detected amount of movement of the face. The blurring of the main subject can be reduced without unnecessarily increasing the sensitivity, and a good image without blurring of the main subject can be obtained while suppressing deterioration in image quality.
In addition, when the face of a registered person (main subject) is in the image data, sensitivity-type blur reduction is performed based on the amount of movement of the registered person's face, so that multiple faces are detected. Even in such a case, it is possible to reduce blurring of the main subject without unnecessarily increasing sensitivity, and it is possible to obtain a good image without blurring while suppressing deterioration in image quality.
Further, since the face recognition process is performed when there are a plurality of detected faces, the face recognition process is not performed unnecessarily, and the processing load can be reduced. That is, face recognition processing that is more burdensome than face detection processing is not performed wastefully.
In addition, since the target area for the face detection process is the center area of the angle of view, a face that is unlikely to be the main subject is not detected, and the burden of the face detection process can be reduced.
In addition, when a face is not detected, the amount of motion of a plurality of sample points is detected, and blurring is reduced based on the detected amount of motion, so that it is possible to detect image blurring, and image blurring is detected. Can be reduced.

[変形例]
上記実施の形態は、以下のような変形例も可能である。
[Modification]
The above-described embodiment can be modified as follows.

(01)また、上記実施の形態においては、ステップS8、ステップS9の動き検出処理は、顔が画像データ内のどこに移動しようがその顔の動きを検出するようにしたが、動き検出の対象となっている顔が、画角の中央領域から外れた場合は、以後、該顔の動き量の検出を中止するようにしてもよい。
ユーザは、メイン被写体が中央に位置するようにカメラをパンニングするのが通常であり、画角の中央領域から外れた顔はメイン被写体でないと考えられるからであり、メイン被写体でない顔の動きが感度式ブレ軽減に悪影響を与えることを防ぐことができる。
(01) In the above embodiment, the motion detection process in steps S8 and S9 detects the movement of the face wherever the face moves in the image data. In the case where the face that is out of the center area of the angle of view deviates, detection of the amount of movement of the face may be stopped thereafter.
This is because the user usually pans the camera so that the main subject is located in the center, and it is considered that the face outside the center area of the angle of view is not the main subject, and the movement of the face that is not the main subject is sensitive. It can prevent adversely affecting the expression blur reduction.

(02)また、上記実施の形態においては、静止画撮影により得られる静止画像データのブレを軽減するようにしたが、動画撮像中(スルー画像表示中、動画撮影記録時)にも適用するようにしてもよい。
この場合は、動画撮像用の普通のAEプログラム線図、動画撮像用の動き量を考慮したAEプログラム線図を用いて、感度、シャッタ速度、及び、絞りを設定する。
(02) In the above-described embodiment, the blurring of still image data obtained by still image shooting is reduced. However, the present invention is also applied during moving image shooting (during live image display and moving image shooting recording). It may be.
In this case, the sensitivity, shutter speed, and aperture are set using a normal AE program diagram for moving image capturing and an AE program diagram considering the amount of motion for moving image capturing.

なお、動画撮像中にブレを軽減する場合は、感度式ブレ軽減でなく、トリミングによりブレを補正するようにしてもよい。このときは、検出された顔の動きベクトルに応じてトリミング位置を変えることによりブレを補正することによりブレを軽減してもよい。
また、静止画撮影の場合も感度式ブレ軽減でなく、トリミングによりブレ補正を行なうようにしてもよい。この場合は、連写撮影を行い(連続して静止画撮影を複数回行い)、該得られた複数の静止画像データをブレ量に応じてそれぞれトリミングして合成することによりブレを補正する。
In addition, when reducing blur during moving image capturing, blur may be corrected not by sensitivity-type blur reduction but by trimming. At this time, the blur may be reduced by correcting the blur by changing the trimming position according to the detected face motion vector.
Also, in the case of still image shooting, blur correction may be performed by trimming instead of sensitivity-type blur reduction. In this case, continuous shooting is performed (sequential still image shooting is performed a plurality of times), and the obtained still image data is trimmed and combined according to the amount of blur to correct the blur.

また、静止画撮影、動画撮影の何れの場合にも、感度式ブレ軽減に代えて、CCD5の前に補正レンズを設け、該補正レンズを移動(シフト)させることにより、補正レンズがない場合はCCD5を移動(シフト)させることによりブレを補正するようにしてもよい。このときも、検出された顔の動きベクトルに応じた補正レンズ又はCCD5を移動させる。
このようなトリミングによりブレを補正する構成や、CCD5又は補正レンズをシフトして補正する構成にすれば、画質を劣化させることなく適切にメイン被写体のブレを補正することができる。
In either case of still image shooting or moving image shooting, if a correction lens is provided in front of the CCD 5 instead of the sensitivity-type blur reduction and the correction lens is moved (shifted), there is no correction lens. Blur may be corrected by moving (shifting) the CCD 5. Also at this time, the correction lens or the CCD 5 is moved in accordance with the detected face motion vector.
If a configuration for correcting blur by such trimming or a configuration for correcting by shifting the CCD 5 or the correction lens, it is possible to appropriately correct the blur of the main subject without degrading the image quality.

(03)また、上記実施の形態においては、顔検出処理により検出された顔に基づいて顔認識処理を行うようにしたが、登録された人物の顔が画像データ内にあるかを具体的に認識して検出するという顔認識処理を一気に行うようにしてもよい。つまり、顔検出処理による検出結果を用いることなく顔認識処理を行うようにしてもよい。また、顔検出処理を行わずに、この顔認識処理のみを行うようにしてもよい。顔認識処理によっても当然に顔を検出することはできるからである。
この場合の顔認識処理は、画角の中央領域内の画像データに対してのみ行なう。つまり、画角の中央領域内に、登録された人物の顔があるかを具体的に認識して検出する。
(03) In the above embodiment, the face recognition process is performed based on the face detected by the face detection process. Specifically, it is determined whether the registered person's face is in the image data. The face recognition process of recognizing and detecting may be performed at once. That is, the face recognition process may be performed without using the detection result of the face detection process. Further, only the face recognition process may be performed without performing the face detection process. This is because the face can naturally be detected also by the face recognition process.
In this case, the face recognition process is performed only on the image data in the center area of the angle of view. That is, it specifically recognizes and detects whether there is a registered person's face in the central area of the angle of view.

(04)また、上記実施の形態において、少なくとも顔検出モード、顔認識モードというモードを設け、ユーザによって顔検出モードが選択された場合は、顔検出処理を行い、顔認識モードが選択された場合は、顔認識処理を行うようにしてもよい。つまり、顔検出処理と顔認識処理とを2者択一的に行なうようにしてもよい。   (04) In the above embodiment, when at least the face detection mode and the face recognition mode are provided, and the face detection mode is selected by the user, the face detection process is performed and the face recognition mode is selected. May perform face recognition processing. That is, the face detection process and the face recognition process may be performed alternatively.

(05)また、上記実施の形態において、複数の顔が検出されたと判断され(ステップS5でY)、登録済みの顔がないと判断された場合の(ステップS7でY)、ステップS9の動作は、検出された各顔の動き量を単に平行して検出していくようにしたが、検出された各顔の動き量のうち、最も大きい動き量を1つ検出していくようにしてもよいし、検出された各顔の動き量の平均値を動き量とするようにしてもよいし、更に、検出された各顔の中から、顔の画角の中央からの近さ、顔の大きさを総合判断して1つの顔を特定し、該特定した顔の動き量のみを検出するようにしてもよい。画角の中央に近い顔ほど、また、大きい顔ほどメイン被写体と考えられるからである。ユーザは通常、メイン被写体を画角の中央付近となるように撮像し、また、メイン被写体の顔がある程度大きくなるように撮像するからである。
また、顔の画角の中央からの近さ、顔の大きさを総合判断して検出された各顔の動き量の重み付け度合いを決定し、その重み付け度合いに応じて動き量の平均値を算出するようにしてもよい。
(05) In the above embodiment, when it is determined that a plurality of faces are detected (Y in step S5), and it is determined that there is no registered face (Y in step S7), the operation in step S9 In this example, the detected amount of movement of each face is simply detected in parallel, but the largest amount of movement among the detected amounts of movement of each face may be detected. Alternatively, the average value of the detected amount of movement of each face may be used as the amount of movement, and further, from among each detected face, the proximity from the center of the angle of view of the face, One face may be specified by comprehensively determining the size, and only the amount of movement of the specified face may be detected. This is because the face closer to the center of the angle of view and the larger face are considered as the main subject. This is because the user usually images the main subject so that it is near the center of the angle of view, and also images the main subject so that the face of the main subject becomes large to some extent.
Also, the degree of weighting of the amount of motion detected for each face is determined by comprehensively determining the proximity of the face angle of view from the center and the size of the face, and the average value of the amount of motion is calculated according to the weighting degree. You may make it do.

また、ステップS6の顔認識処理により登録された顔が複数ある場合のステップS8の動作も同様に、顔認識された各顔の動き量のうち、最も大きい動き量を1つ検出するようにしてもよいし、顔認識された各顔の動き量の平均値を動き量とするようにしてもよいし、更に、顔認識された各顔の中から、顔の画角の中央からの近さ、顔の大きさを総合判断して1つの顔を特定し、該特定した顔の動き量のみを検出するようにしてもよい。また、顔の画角の中央からの近さ、顔の大きさを総合判断して顔認識された各顔の動き量の重み付け度合いを決定し、その重み付け度合いに応じて動き量の平均値を算出するようにしてもよい。   Similarly, the operation in step S8 when there are a plurality of faces registered by the face recognition process in step S6 is to detect one of the largest amount of movement among the movement amounts of each face recognized. Alternatively, the average value of the amount of movement of each face recognized face may be used as the amount of movement, and further, the proximity from the center of the angle of view of the face among each face recognized face. Alternatively, one face may be specified by comprehensively determining the size of the face, and only the amount of movement of the specified face may be detected. Also, the degree of weighting of the amount of motion of each face recognized is determined by comprehensively judging the proximity from the center of the angle of view of the face and the size of the face, and the average value of the amount of motion is determined according to the degree of weighting. You may make it calculate.

検出された顔が1つもない場合のステップS10の動作においても、各サンプルポイントのうち最も大きい動き量を1つ検出するようにしてもよいし、該検出された各サンプルポイントの動き量の平均値を動き量とするようにしてもよい。   Even in the operation of step S10 in the case where there is no detected face, one of the largest motion amounts among the sample points may be detected, or the average motion amount of the detected sample points may be detected. The value may be the amount of movement.

(06)また、上記実施の形態において、シャッタボタン半押し後に、ステップS3〜ステップS10までの動作を行なうようにしたが、シャッタボタン半押し前のスルー画像表示中において、ステップS3〜ステップS10の動作を行い、シャッタボタンが半押しされると、ステップS12〜ステップS14の動作を行い、シャッタボタン全押し後に、ステップS15の動作を行なうようにしてもよい。   (06) In the above embodiment, the operation from step S3 to step S10 is performed after the shutter button is half-pressed. However, during the through image display before the shutter button is half-pressed, the operation from step S3 to step S10 is performed. When the operation is performed and the shutter button is half-pressed, the operations in steps S12 to S14 may be performed, and the operation in step S15 may be performed after the shutter button is fully pressed.

(07)また、上記実施の形態において、顔検出処理、顔認識処理を1回行うようにしたが、シャッタボタンが全押しされるまでは周期的に行なうようにしてもよい。時間の経過と共に、新たな顔が撮像される場合もあり、また、撮影者の撮影技術不足によってメイン被写体である人物が一端画角の中央領域から外れてしまう可能性もあり、このような場合は、メイン被写体として判断されなくなってしまうので、周期的に顔検出処理、顔認識処理を行なうことによりこのような不具合を是正することができ、メイン被写体である顔の動きを確実に検出することができる。   (07) In the above embodiment, the face detection process and the face recognition process are performed once, but may be performed periodically until the shutter button is fully pressed. A new face may be captured over time, and the person who is the main subject may be out of the central area of the angle of view due to the lack of the photographer's shooting technology. Can no longer be determined as the main subject, so it is possible to correct such problems by periodically performing face detection processing and face recognition processing, and to reliably detect the movement of the face that is the main subject. Can do.

(08)また、上記実施の形態において、顔検出処理は、画角の中央領域内にある顔を検出するようにしたが、画角の中央以外の領域内にある顔を検出するようにしてもよいし、ユーザによって指定された領域内にある顔を検出するようにしてもよい。要は、画像データの全領域のうち、1部の領域(所定の領域)内にある顔を検出するものであればよい。これにより、顔検出処理の処理負担を軽減することができるからである。また、ユーザによって指定された領域に対して顔検出を行なう場合は、メイン被写体である顔を効果的に検出することができる。
なお、画像データの全範囲内に顔があるか否かを検出するようにしてもよい。
(08) In the above embodiment, the face detection process detects a face in the center area of the angle of view, but detects a face in an area other than the center of the angle of view. Alternatively, a face in the area designated by the user may be detected. In short, any face may be used as long as it detects a face in one area (predetermined area) out of the entire area of the image data. This is because the processing load of the face detection process can be reduced. Further, when face detection is performed on an area designated by the user, the face that is the main subject can be effectively detected.
Note that it may be detected whether or not there is a face within the entire range of the image data.

(09)また、上記実施の形態において、シャッタボタン全押し直前に検出された動き量が所定量以上の場合は、感度式ブレ軽減を行なうようにしたが、検出された動き量が所定量以上か否かにかかわらず、ブレ軽減処理を行うようにしてもよい。
この場合は、シャッタボタン全押し直前に検出された動き量(複数の動き量が検出された場合は最も大きい動き量)に応じて感度式ブレ軽減処理を行うことになる。つまり、検出された動き量が小さい場合は感度式ブレ軽減処理の強度を弱くして行い、検出された動き量が大きい場合は感度式ブレ軽減処理の強度を強くして行なう。これにより、画質の劣化を抑えながらメイン被写体のブレを軽減することができる。
(09) In the above embodiment, when the amount of motion detected immediately before the shutter button is fully pressed is greater than or equal to the predetermined amount, sensitivity-type blur reduction is performed. However, the detected amount of motion is greater than or equal to the predetermined amount. Regardless of whether or not, blur reduction processing may be performed.
In this case, the sensitivity-type blur reduction process is performed according to the amount of motion detected immediately before the shutter button is fully pressed (the largest amount of motion when a plurality of motion amounts are detected). That is, when the detected amount of motion is small, the sensitivity-type blur reduction process is performed with a low intensity, and when the detected amount of motion is large, the sensitivity-type blur reduction process is performed with a high intensity. Thereby, it is possible to reduce blurring of the main subject while suppressing deterioration in image quality.

(10)また、上記実施の形態においては、顔検出処理を必ず行うようにしたが、顔認識処理のみ行なうようにしてもよい。この場合、ステップS2でシャッタボタンが半押しされると、顔認識処理を行い、顔認識処理によって登録済みの顔が認識された場合はステップS8に進み、登録済みの顔が認識されなかった場合はステップS10に進むようにする。   (10) In the above embodiment, the face detection process is always performed, but only the face recognition process may be performed. In this case, when the shutter button is half-pressed in step S2, face recognition processing is performed. If a registered face is recognized by the face recognition processing, the process proceeds to step S8, and a registered face is not recognized. Advances to step S10.

(11)また、上記実施の形態においては、顔が検出されなかった場合は(ステップS4でNO)、多数のサンプルポイントを設定したが、設定するサンプルポイントは1つであってもよい。例えば、画角の中央に位置する領域やユーザによって指定された領域をサンプルポイントとして設定するようにしてよい。要は、検出、認識された顔に基かない領域の動き量を検出すればよく、選択するサンプルポイントの数や位置は上記実施の形態に限定されない。これにより、画像のブレを検出することができ、画像のブレを軽減することができる。   (11) In the above embodiment, when a face is not detected (NO in step S4), a large number of sample points are set. However, one sample point may be set. For example, an area located at the center of the angle of view or an area designated by the user may be set as the sample point. In short, it is only necessary to detect the amount of movement in a region that is not based on the detected and recognized face, and the number and position of sample points to be selected are not limited to the above embodiment. As a result, image blur can be detected, and image blur can be reduced.

(12)また、上記実施の形態においては、シャッタボタン全押し直前に検出された動き量(動き量が複数ある場合は最も大きい動き量)が所定量以上であるか否かを判断するようにしたが、動きを検出する処理の開始からシャッタボタン全押し直前までに、検出されてきた複数の動き量のうち最も大きい動き量が所定量以上であるか否かを判断するようにしてもよい。そして、該最も大きい動き量が所定量以上である場合は、該最も大きい動く量に応じてブレ軽減処理を行う。   (12) In the above embodiment, it is determined whether or not the amount of motion detected immediately before the shutter button is fully pressed (the largest amount of motion when there are a plurality of motion amounts) is a predetermined amount or more. However, it may be determined whether the largest motion amount among the plurality of motion amounts detected from the start of the motion detection process to immediately before the shutter button is fully pressed is greater than or equal to a predetermined amount. . If the largest amount of movement is greater than or equal to a predetermined amount, blur reduction processing is performed according to the largest amount of movement.

(13)また、上記実施の形態、上記変形例(01)乃至(12)を任意に組み合わせた態様であってもよい。   (13) Moreover, the aspect which combined the said embodiment and said modification (01) thru | or (12) arbitrarily may be sufficient.

(14)また、本発明の上記実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(14) The above-described embodiments and modifications of the present invention are merely examples as the best embodiments, so that the principle and structure of the present invention can be better understood. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体のブレを軽減することができる機器であれば適用可能である。   Lastly, in each of the above embodiments, the case where the imaging apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above embodiment, and the main point is to reduce subject blurring. Any device that can do this is applicable.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of embodiment. 顔検出処理の対象となる画角の中央領域及びサンプルポイントの様子を示す図である。It is a figure which shows the center area | region of the angle of view used as the object of a face detection process, and the mode of a sample point. シャッタボタン半押し直前、又は直後に撮像された画像データ及び検出、認識される顔の様子の一例を示す図である。It is a figure which shows an example of the mode of the face of the image data imaged immediately before shutter button half-pressing, or immediately after detection and recognition.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り兼用シャッタ
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 動きベクトル検出部
16 DMA
17 画像生成部
18 DMA
19 DMA
20 表示部
21 DMA
22 圧縮伸張部
23 DMA
24 フラッシュメモリ
25 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Shutter / Shutter 5 CCD
6 Vertical driver 7 TG
8 Unit circuit 9 DMA
10 CPU
11 Key input section 12 Memory 13 DRAM
14 DMA
15 motion vector detector 16 DMA
17 Image generator 18 DMA
19 DMA
20 Display unit 21 DMA
22 Compression / decompression unit 23 DMA
24 flash memory 25 bus

Claims (14)

被写体を撮像する撮像手段と、
前記撮像手段により撮像された画像データ内に顔があるか否かを検出する顔検出手段と、
前記撮像手段により撮像される画像データに基づいて、前記顔検出手段により検出された顔のブレ量を検出する顔ブレ検出手段と、
前記顔ブレ検出手段により検出されたブレ量に基づいて、ブレ軽減を行なうブレ軽減手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
Face detection means for detecting whether or not there is a face in the image data imaged by the imaging means;
A face blur detection unit that detects a blur amount of the face detected by the face detection unit based on image data captured by the imaging unit;
Based on the amount of blur detected by the face blur detection means, blur reduction means for reducing blur,
An imaging apparatus comprising:
前記顔検出手段は、
前記撮像手段により撮像された画像データの所定領域内に顔があるか否かを検出することを特徴とする請求項1記載の撮像装置。
The face detection means includes
The image pickup apparatus according to claim 1, wherein the image pickup apparatus detects whether or not there is a face in a predetermined area of the image data picked up by the image pickup means.
前記所定領域は、
画角の中央領域、又は、ユーザによって任意に指定された領域であることを特徴とする請求項2記載の撮像装置。
The predetermined area is:
The imaging apparatus according to claim 2, wherein the imaging apparatus is a central area of an angle of view or an area arbitrarily designated by a user.
前記ブレ軽減手段は、
撮影感度を上げると共にシャッタ速度を速くするという感度式ブレ軽減を行なうことを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The blur reducing means is
4. The image pickup apparatus according to claim 1, wherein sensitivity-type blur reduction is performed such that shooting sensitivity is increased and shutter speed is increased.
前記ブレ軽減手段は、
前記顔ブレ検出手段により検出されたブレ量が所定量より多い場合に、ブレ軽減を行なうことを特徴とする請求項1乃至4の何れかに記載の撮像装置。
The blur reducing means is
5. The imaging apparatus according to claim 1, wherein blur reduction is performed when a blur amount detected by the face blur detection unit is larger than a predetermined amount.
前記ブレ軽減手段は、
前記顔ブレ検出手段により検出されたブレ量に応じて、ブレ軽減の度合いを強くすることを特徴とする請求項1乃至5の何れかに記載の撮像装置。
The blur reducing means is
6. The imaging apparatus according to claim 1, wherein a degree of blur reduction is increased in accordance with a blur amount detected by the face blur detection unit.
前記顔検出手段は、
前記撮像手段により撮像された画像データ内に、予め登録された人物の顔があるか否かを検出する手段を含み、
前記顔ブレ検出手段は、
前記撮像手段により撮像される画像データに基づいて、前記顔検出手段により検出された予め登録された人物の顔のブレ量を検出することを特徴とする請求項1乃至6の何れかに記載の撮像装置。
The face detection means includes
Means for detecting whether or not there is a face of a person registered in advance in the image data imaged by the imaging means;
The face blur detection means includes
The blur amount of a face of a person registered in advance detected by the face detection unit is detected based on image data captured by the imaging unit. Imaging device.
前記顔検出手段は、
前記撮像手段により撮像された画像データ内に複数の顔があると検出された場合のみ、予め登録された人物の顔があるか否かを検出することを特徴とする請求項7記載の撮像装置。
The face detection means includes
8. The imaging apparatus according to claim 7, wherein it is detected whether or not there is a face of a person registered in advance only when it is detected that there are a plurality of faces in the image data imaged by the imaging means. .
前記顔ブレ検出手段は、
前記顔検出手段により予め登録された人物の顔が検出された場合は、該検出された予め登録された人物の顔のブレ量を検出し、前記顔検出手段により予め登録された人物の顔が検出されず、且つ、顔が検出された場合は、該検出された顔のブレ量を検出することを特徴とする請求項7記載の撮像装置。
The face blur detection means includes
When a face of a person registered in advance is detected by the face detection means, the amount of blurring of the face of the person registered in advance is detected, and the face of the person registered in advance by the face detection means is detected. 8. The imaging apparatus according to claim 7, wherein when the face is not detected and the face is detected, the amount of blurring of the detected face is detected.
前記撮像手段により撮像される画像データの所定の領域のブレ量を検出するブレ検出手段を備え、
前記ブレ軽減手段は、
前記顔検出手段により顔が検出されなかった場合は、前記ブレ検出手段により検出された所定の領域のブレ量に基づいて、ブレ軽減を行なうことを特徴とする請求項1乃至9の何れかに記載の撮像装置。
A blur detection unit that detects a blur amount of a predetermined area of the image data captured by the imaging unit;
The blur reducing means is
The blur reduction is performed based on a blur amount of a predetermined area detected by the blur detection unit when a face is not detected by the face detection unit. The imaging device described.
前記ブレ検出手段は、
画像データの複数の領域のブレ量を検出し、
前記ブレ軽減手段は、
前記顔検出手段により顔が検出されなかった場合は、前記ブレ検出手段により検出された各領域のブレ量に基づいてブレ軽減を行なうことを特徴とする請求項10記載の撮像装置。
The blur detection means includes
Detect blur amount in multiple areas of image data,
The blur reducing means is
The image pickup apparatus according to claim 10, wherein when a face is not detected by the face detection unit, blur reduction is performed based on a blur amount of each area detected by the blur detection unit.
前記顔ブレ検出手段と、前記ブレ検出手段は、
動きベクトルを検出することによりブレ量を検出することを特徴とする請求項1乃至11の何れかに記載の撮像装置。
The face shake detection means and the shake detection means are:
The imaging apparatus according to claim 1, wherein a blur amount is detected by detecting a motion vector.
前記撮像手段を用いて静止画撮影を行なう静止画撮影制御手段を備え、
前記ブレ軽減手段は、
前記静止画撮影制御手段により撮像される静止画像データに対してブレ軽減を行なうことを特徴とする請求項1乃至12の何れかに記載の撮像装置。
Still image shooting control means for taking a still image using the imaging means,
The blur reducing means is
The imaging apparatus according to claim 1, wherein blur reduction is performed on still image data captured by the still image capturing control unit.
被写体を撮像する撮像処理と、
前記撮像処理により撮像された画像データ内に顔があるか否かを検出する顔検出処理と、
前記撮像処理により撮像される画像データに基づいて、前記顔検出処理により検出された顔のブレ量を検出する顔ブレ検出処理と、
前記顔ブレ検出処理により検出されたブレ量に基づいて、ブレ軽減を行なうブレ軽減処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。

Imaging processing for imaging a subject;
Face detection processing for detecting whether or not there is a face in the image data captured by the imaging processing;
A face blur detection process for detecting a blur amount of the face detected by the face detection process based on image data captured by the imaging process;
Based on the blur amount detected by the face blur detection process, the blur reduction process for reducing the blur,
A program characterized by causing a computer to execute the processes described above.

JP2007147001A 2007-06-01 2007-06-01 Imaging apparatus and program thereof Pending JP2008301355A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007147001A JP2008301355A (en) 2007-06-01 2007-06-01 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007147001A JP2008301355A (en) 2007-06-01 2007-06-01 Imaging apparatus and program thereof

Publications (1)

Publication Number Publication Date
JP2008301355A true JP2008301355A (en) 2008-12-11

Family

ID=40174409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007147001A Pending JP2008301355A (en) 2007-06-01 2007-06-01 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP2008301355A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137675A (en) * 2010-12-27 2012-07-19 Canon Inc Image processor, control method thereof, program, and memory medium
JP5331128B2 (en) * 2008-12-26 2013-10-30 パナソニック株式会社 Imaging device
JP5393877B2 (en) * 2010-04-16 2014-01-22 パナソニック株式会社 Imaging device and integrated circuit
JP2020034762A (en) * 2018-08-30 2020-03-05 株式会社タムロン Image blur correction device, lens unit including the same, imaging apparatus, and image blur correction method
JPWO2019003360A1 (en) * 2017-06-28 2020-04-16 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
WO2022091464A1 (en) * 2020-10-29 2022-05-05 ソニーグループ株式会社 Information processing device, information processing method, and program
US12219253B2 (en) 2022-02-22 2025-02-04 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5331128B2 (en) * 2008-12-26 2013-10-30 パナソニック株式会社 Imaging device
US8830374B2 (en) 2008-12-26 2014-09-09 Panasonic Intellectual Property Corporation Of America Image capture device with first and second detecting sections for detecting features
JP5393877B2 (en) * 2010-04-16 2014-01-22 パナソニック株式会社 Imaging device and integrated circuit
US8817127B2 (en) 2010-04-16 2014-08-26 Panasonic Corporation Image correction device for image capture device and integrated circuit for image correction device
JP2012137675A (en) * 2010-12-27 2012-07-19 Canon Inc Image processor, control method thereof, program, and memory medium
JPWO2019003360A1 (en) * 2017-06-28 2020-04-16 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
JP2020034762A (en) * 2018-08-30 2020-03-05 株式会社タムロン Image blur correction device, lens unit including the same, imaging apparatus, and image blur correction method
JP7116639B2 (en) 2018-08-30 2022-08-10 株式会社タムロン IMAGE STABILIZATION DEVICE, LENS UNIT INCLUDING THE SAME, IMAGING DEVICE, AND IMAGE STABILIZATION METHOD
WO2022091464A1 (en) * 2020-10-29 2022-05-05 ソニーグループ株式会社 Information processing device, information processing method, and program
US12418715B2 (en) 2020-10-29 2025-09-16 Sony Group Corporation Information processing device, information processing method, and program
US12219253B2 (en) 2022-02-22 2025-02-04 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium

Similar Documents

Publication Publication Date Title
JP4766320B2 (en) Imaging apparatus and program thereof
JP4986175B2 (en) Imaging apparatus and program
JP4438099B2 (en) Imaging apparatus and program thereof
JP4441919B2 (en) Imaging apparatus and program thereof
KR101044033B1 (en) Image capturing apparatus, face area detecting method and program recording medium
JP4825093B2 (en) Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program
JP2008009263A (en) Imaging apparatus and program thereof
JP2001103366A (en) Camera
KR101423432B1 (en) Imaging apparatus, imaging method and storage medium
JP2008301355A (en) Imaging apparatus and program thereof
JP2009147574A (en) Imaging apparatus and program thereof
JP2008299784A (en) Subject determination device and program thereof
JP4998122B2 (en) Imaging apparatus and program thereof
JP6090494B2 (en) Movie shooting apparatus, moving image shake correction method, and program
JP5067475B2 (en) Imaging apparatus and program thereof
JP5910565B2 (en) Movie shooting apparatus, moving image shake correction method, and program
JP5179859B2 (en) Imaging apparatus and imaging method
JP2009182880A (en) Imaging apparatus and program thereof
JP2019080261A (en) Imaging apparatus
JP2006287814A (en) Imaging apparatus and method of determining motion vector
JP2007189295A (en) Imaging apparatus and program thereof
JP2007318292A (en) Motion vector detection apparatus and program thereof
JP2010104005A (en) Imaging apparatus and program thereof
JP5105298B2 (en) Imaging apparatus and program thereof
JP5761387B2 (en) Imaging apparatus and program