[go: up one dir, main page]

JP2012060292A - Image processor, image selection method, and program - Google Patents

Image processor, image selection method, and program Download PDF

Info

Publication number
JP2012060292A
JP2012060292A JP2010199695A JP2010199695A JP2012060292A JP 2012060292 A JP2012060292 A JP 2012060292A JP 2010199695 A JP2010199695 A JP 2010199695A JP 2010199695 A JP2010199695 A JP 2010199695A JP 2012060292 A JP2012060292 A JP 2012060292A
Authority
JP
Japan
Prior art keywords
image
face
unit
evaluation value
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010199695A
Other languages
Japanese (ja)
Other versions
JP2012060292A5 (en
Inventor
Koichi Saito
孝一 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010199695A priority Critical patent/JP2012060292A/en
Publication of JP2012060292A publication Critical patent/JP2012060292A/en
Publication of JP2012060292A5 publication Critical patent/JP2012060292A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行う。
【解決手段】撮像装置100であって、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する画像取得部6aと、特定の人物が有する特徴部(顔画像)を優先度と対応付けて複数の人物について記憶した人物登録DB7(第1登録テーブルT1)と、画像取得部により取得された複数の画像において、人物登録に記憶された優先度に基づいて特徴部(顔画像)を夫々検出する顔検出部5と、この顔検出部によって夫々検出された特徴部(顔画像)を、第1登録テーブルに記憶されている特徴部(顔画像)に基づいて夫々笑顔度を評価し、評価値を算出する評価値算出部b1と、この評価値算出部によって算出された評価値に基づいて記録すべき撮像画像を選択する画像選択部6bとを備える。
【選択図】図1
An object of the present invention is to appropriately perform selection processing of an image in which a specific person exists in a plurality of images captured continuously.
An imaging apparatus 100 includes an image acquisition unit 6a that acquires a plurality of images including a plurality of persons including a specific person in succession, and a characteristic section (face image) of the specific person. ) And a person registration DB 7 (first registration table T1) stored for a plurality of persons in association with priorities, and a plurality of images acquired by the image acquisition unit based on the priority stored in the person registration The face detection unit 5 that detects each part (face image) and the feature parts (face images) detected by the face detection unit based on the feature parts (face images) stored in the first registration table Each includes an evaluation value calculation unit b1 that evaluates a smile level and calculates an evaluation value, and an image selection unit 6b that selects a captured image to be recorded based on the evaluation value calculated by the evaluation value calculation unit.
[Selection] Figure 1

Description

本発明は、画像処理装置、画像選択方法、及び、プログラムに関し、特に連続的に撮影された画像から記録に適する画像の選択技術に関する。   The present invention relates to an image processing apparatus, an image selection method, and a program, and more particularly, to an image selection technique suitable for recording from continuously captured images.

複数の顔が存在する画像の撮像を試みる場合、全てが瞬きをせず、且つ、笑顔となっている状態の撮像は容易ではない。そこで、従来技術として連続して撮像されている複数の画像の中で各人ごとに最も良い顔の画像を選択して、それらを一枚に合成する技術が知られている(例えば、特許文献1及び2参照)。   When attempting to capture an image having a plurality of faces, it is not easy to capture an image in which all of the faces do not blink and are smiling. Therefore, as a conventional technique, a technique is known in which the best face image is selected for each person from a plurality of images that are continuously captured, and these are combined into one sheet (for example, Patent Documents). 1 and 2).

特開2008−198062号公報JP 2008-198062 A 特開2002−199202号公報JP 2002-199202 A

しかしながら、上記特許文献1、2の技術にあっては、一の画像内に存在する全ての人について満足度の高い画像を得ようとすると、人数が増えるに従って連続撮像枚数が増加してしまう虞がある。そしてこのような場合、連続して撮像された画像を一時的に記憶するためのメモリの容量を十分に確保しなくてはならないといった問題もある。   However, in the techniques of Patent Documents 1 and 2, if an image with a high degree of satisfaction is obtained for all persons existing in one image, the number of consecutive images may increase as the number of persons increases. There is. In such a case, there is also a problem that a sufficient memory capacity must be ensured for temporarily storing continuously captured images.

そこで、本願発明は、上記問題点に鑑みてなされたものであり、連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行うことができる画像処理装置、画像選択方法、及び、プログラムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and an image processing apparatus and an image that can appropriately perform selection processing of an image in which a specific person exists in a plurality of images captured continuously. It is an object to provide a selection method and a program.

上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段と、前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶した特徴部記憶手段と、前記取得手段により取得された複数の画像において、前記特徴部記憶手段に記憶された優先度に基づいて特徴部を夫々検出する検出手段と、この検出手段によって夫々検出された特徴部を、前記記憶手段に記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段と、この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段と、を備えたことを特徴としている。
In order to solve the above problem, an image processing apparatus according to claim 1 is provided.
Acquiring means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images, and a characteristic unit that stores a plurality of persons in association with a priority of a characteristic unit of the specific person A storage unit; a detection unit that detects each of the feature parts based on the priority stored in the feature unit storage unit in the plurality of images acquired by the acquisition unit; and a feature unit that is detected by the detection unit. Calculating means for calculating the evaluation value based on the characteristic part stored in the storage means, and selecting means for selecting the captured image to be recorded based on the evaluation value calculated by the calculation means It is characterized by having.

請求項2に記載の発明は、請求項1記載の画像処理装置において、
前記算出手段は、前記特徴部記憶手段に記憶された複数の人物毎に評価値を算出し、前記選択手段は、この算出された評価値に基づいて、前記夫々の撮像画像から人物を含む画像領域を抽出する抽出手段と、この抽出手段によって抽出された画像領域を合成する画像合成手段と、を含むことにより、記録すべき撮像画像を選択することを特徴としている。
The invention according to claim 2 is the image processing apparatus according to claim 1,
The calculating means calculates an evaluation value for each of a plurality of persons stored in the feature storage means, and the selecting means is an image including a person from each captured image based on the calculated evaluation values. It is characterized by selecting a captured image to be recorded by including an extracting means for extracting an area and an image synthesizing means for synthesizing the image areas extracted by the extracting means.

請求項3に記載の発明の画像選択方法は、
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得ステップと、予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリから優先度を読出し、前記取得ステップにて取得された複数の画像において、この優先度に基づいて特徴部を夫々検出する検出ステップと、この検出ステップにて夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出ステップと、この算出ステップにて算出された評価値に基づいて記録すべき撮像画像を選択する選択ステップと、を含むことを特徴としている。
The image selection method of the invention described in claim 3 is:
An acquisition step of acquiring a plurality of images including a specific person by continuously capturing a plurality of images, and a memory that stores in advance a feature portion of the specific person associated with a priority and stored for the plurality of persons The detection step of detecting the feature portion based on the priority in the plurality of images acquired in the acquisition step, and the feature portion detected in the detection step respectively in the memory And a calculation step for calculating an evaluation value and a selection step for selecting a captured image to be recorded based on the evaluation value calculated in the calculation step. It is characterized by that.

請求項4に記載の発明のプログラムは、
予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリを備える画像処理装置のコンピュータを、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段、この取得手段により取得された複数の画像において、前記メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段、この検出手段によって夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段、この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段、として機能させることを特徴としている。
The program of the invention according to claim 4 is:
A computer of an image processing apparatus including a memory in which a feature portion of the specific person is previously associated with a priority and stored for the plurality of persons is continuously picked up by a plurality of images including the plurality of persons including the specific person. Acquisition means for acquiring the detection means, detection means for detecting the characteristic portions based on the priority stored in the memory in the plurality of images acquired by the acquisition means, and the characteristic portions detected by the detection means, respectively. Are calculated based on the characteristic parts stored in the memory, and a calculation means for calculating an evaluation value, a selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means, It is characterized by functioning.

本発明によれば、連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the selection process of the image which a specific person exists in the several image imaged continuously can be performed appropriately.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置に記録されている第1登録テーブルの一例を模式的に示す図である。FIG. 2 is a diagram schematically illustrating an example of a first registration table recorded in the imaging apparatus in FIG. 1. 図1の撮像装置による連続撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to continuous imaging processing by the imaging apparatus of FIG. 1. 図3の連続撮像処理に係る撮像画像の一例を模式的に示す図である。It is a figure which shows typically an example of the captured image which concerns on the continuous imaging process of FIG. 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 2 to which this invention is applied. 図5の撮像装置に記録されている第2登録テーブルの一例を模式的に示す図である。It is a figure which shows typically an example of the 2nd registration table currently recorded on the imaging device of FIG. 図5の撮像装置による連続撮像処理に係る動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation related to continuous imaging processing by the imaging apparatus of FIG. 5. 図7の連続撮像処理に係る撮像画像の一例を模式的に示す図である。It is a figure which shows typically an example of the captured image which concerns on the continuous imaging process of FIG. 図7の連続撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the continuous imaging process of FIG. 変形例1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of the modification 1.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
実施形態1の撮像装置100は、連続して撮像された複数の撮像画像の中で、予め用意された人物登録データベースに登録されている特定の人物の特徴部(顔)の評価値が高い撮像画像を選択し、この選択された撮像画像を記録画像として記録媒体に記録させる。
以下、上記の方法を具体的に記載する。
図1は、実施形態1における撮像装置100の概略構成を示すブロック図である。同図に示すように、撮像装置100は、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、顔検出部5と、画像処理部6と、人物登録データベース(DB)7と、記録制御部8と、表示制御部9と、表示部10と、操作入力部11と、中央制御部12とを備えている。
[Embodiment 1]
The imaging apparatus 100 according to the first embodiment has a high evaluation value of a characteristic portion (face) of a specific person registered in a person registration database prepared in advance among a plurality of continuously captured images. An image is selected, and the selected captured image is recorded as a recorded image on a recording medium.
The above method will be specifically described below.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment. As shown in the figure, the imaging apparatus 100 includes an imaging unit 1, an imaging control unit 2, an image data generation unit 3, a memory 4, a face detection unit 5, an image processing unit 6, and a person registration database ( DB) 7, recording control unit 8, display control unit 9, display unit 10, operation input unit 11, and central control unit 12.

撮像部1は、レンズ部1aと、電子撮像部1bとを備えている。
レンズ部1aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部1bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部1は、レンズ部1aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 1 includes a lens unit 1a and an electronic imaging unit 1b.
The lens unit 1a includes a plurality of lenses such as a zoom lens and a focus lens.
The electronic imaging unit 1b is composed of, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), and converts an optical image that has passed through various lenses of the lens unit 1a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 1 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 1a.

撮像制御部2は、撮像部1による被写体の撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部1bを走査駆動して、所定周期毎に光学像を電子撮像部1bにより二次元の画像信号に変換させ、当該電子撮像部1bの撮像領域から1画面分ずつ画像フレーム(撮像画像P)を読み出して画像データ生成部3に出力させる。
ここで、被写体とは、所定の背景内に存する特定の人物を含む複数の人(図4(a)等参照)のことである。具体的には、人物登録DB7に登録されている第1登録テーブルT1(図2参照)の顔登録フラグが「ON」となっている人物(例えば、「A」や「B」等)を特定の人物とし、当該特定の人物の少なくとも一人と特定の人物以外の少なくとも一人(例えば、「C」、「D」等)とを被写体としている。
The imaging control unit 2 controls the imaging of the subject by the imaging unit 1. That is, the imaging control unit 2 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 2 scans and drives the electronic imaging unit 1b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 1b at a predetermined period, and the electronic imaging unit 1b. The image frame (captured image P) is read out from the imaging region for each screen and is output to the image data generation unit 3.
Here, the subject means a plurality of persons (see FIG. 4A, etc.) including a specific person existing in a predetermined background. Specifically, a person whose face registration flag is “ON” in the first registration table T1 (see FIG. 2) registered in the person registration DB 7 (for example, “A”, “B”, etc.) is specified. The subject is at least one of the specific persons and at least one other than the specific person (for example, “C”, “D”, etc.).

このように、撮像部1及び撮像制御部2は、背景内に特定の人物を含む複数の人が存する画像を連続して撮像して、複数(例えば、n枚;nは自然数)の撮像画像Pa1〜Pan(図4(a)〜図4(d)等参照)の画像フレームを逐次生成する。
なお、撮像画像Pa1〜Panは、複数の静止画像であっても良いし、動画像を構成する複数の画像フレームであっても良い。
As described above, the imaging unit 1 and the imaging control unit 2 continuously capture images including a plurality of persons including a specific person in the background, and a plurality of (for example, n images; n is a natural number) captured images. Image frames of Pa1 to Pan (see FIGS. 4A to 4D, etc.) are sequentially generated.
Note that the captured images Pa1 to Pan may be a plurality of still images or a plurality of image frames constituting a moving image.

また、撮像制御部2は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
ここで、撮像画像Pの画像フレーム内から人の顔が検出された場合には、撮像制御部2は、当該顔が含まれる領域をAF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)の基準領域として、AF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)等を行うようにしても良い。
Further, the imaging control unit 2 may perform adjustment control of conditions when imaging an object such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.
Here, when a human face is detected from the image frame of the captured image P, the imaging control unit 2 performs AF (automatic focus processing), AE (automatic exposure processing) As a reference area for AWB (automatic white balance), AF (automatic focusing processing), AE (automatic exposure processing), AWB (automatic white balance), or the like may be performed.

画像データ生成部3は、電子撮像部1bから転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
The image data generation unit 3 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 1b, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a memory 4 used as a buffer memory via a DMA controller (not shown).

メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、顔検出部5、画像処理部6、中央制御部12等によって処理されるデータ等を一時記憶する。   The memory 4 is constituted by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the face detection unit 5, the image processing unit 6, the central control unit 12, and the like.

顔検出部5は、撮像部1により連続して撮像された複数の撮像画像P、…の各々から、所定の顔検出方法を用いて特定の人物の顔を検出する。
即ち、顔検出部5は、複数(例えば、n枚)の撮像画像Pa1〜Panの画像フレームの各々について、当該画像フレーム内から特定の人物を含む複数の人の顔を特徴部として検出する。具体的には、例えば、顔検出部5は、撮像部1によるライブビュー画像の撮像により生成された複数の撮像画像P、…の画像フレームをメモリ4から逐次取得して、各画像フレーム内から顔画像領域を検出し、検出された各領域内から目、鼻、口等に相当する顔パーツを逐次検出する。なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
そして、顔検出部5は、各撮像画像P(例えば、撮像画像Pa1等)から検出された人の顔が、人物登録DB7の第1登録テーブルT1に顔登録フラグが登録されている特定の人物(例えば、「A」等)の顔画像と一致するか否かを判定する。具体的には、顔検出部5は、例えば、第1登録テーブルT1を参照して、顔登録フラグが登録されている特定の人物の顔画像をテンプレートとして取得する。そして、顔検出部5は、複数の撮像画像P、…の各々について、特定の人物のテンプレートとして取得した顔画像が検出された顔と一致するか否かを判定する。顔検出部5は、当該判定の結果、テンプレートとして取得した顔画像と一致すると判定された顔を特定の人物の顔と認識する。
このように、顔検出部5は、撮像部1により連続して撮像された複数の撮像画像P、…の各々から、顔登録フラグ(記録指示情報)が登録されている特定の人物の顔を特徴部として検出する。
The face detection unit 5 detects a face of a specific person from each of a plurality of captured images P,... Continuously captured by the imaging unit 1 using a predetermined face detection method.
That is, the face detection unit 5 detects, for each of a plurality (for example, n) of image frames of the captured images Pa1 to Pan, a plurality of human faces including a specific person from the image frame as a feature portion. Specifically, for example, the face detection unit 5 sequentially acquires image frames of a plurality of captured images P,... Generated by capturing a live view image by the imaging unit 1 from the memory 4, and from within each image frame. A face image area is detected, and face parts corresponding to eyes, nose, mouth, and the like are sequentially detected from within each detected area. Since the face detection process is a known technique, detailed description thereof is omitted here.
Then, the face detection unit 5 detects a person's face detected from each captured image P (for example, the captured image Pa1) as a specific person whose face registration flag is registered in the first registration table T1 of the person registration DB 7. It is determined whether or not the face image matches (for example, “A” or the like). Specifically, the face detection unit 5 refers to, for example, the first registration table T1 and acquires a face image of a specific person with a registered face registration flag as a template. Then, the face detection unit 5 determines whether or not the face image acquired as a template of a specific person matches the detected face for each of the plurality of captured images P,. As a result of the determination, the face detection unit 5 recognizes the face determined to match the face image acquired as a template as the face of a specific person.
In this way, the face detection unit 5 detects the face of a specific person whose face registration flag (recording instruction information) is registered from each of the plurality of captured images P,... Continuously captured by the imaging unit 1. Detect as feature.

画像処理部6は、画像取得部6aと、画像選択部6bとを具備している。   The image processing unit 6 includes an image acquisition unit 6a and an image selection unit 6b.

画像取得部6aは、連続して撮像された複数の撮像画像P、…を取得する。
即ち、画像取得部6aは、撮像部1により所定の撮像フレームレートで撮像された複数の撮像画像P、…をそれぞれ取得する。具体的には、撮像部1によって所定の背景内に存する特定の人物(例えば、「A」等)を含む複数の人(図4(a)等参照)を被写体として、連続して撮像された複数(例えば、n枚)の撮像画像Pa1〜Panの画像フレームのYUVデータを取得する。
このように、画像取得部6aは、連続して撮像された背景内に特定の人物を含む複数の人が存する複数の撮像画像P、…を取得する。
The image acquisition unit 6a acquires a plurality of captured images P,.
That is, the image acquisition unit 6a acquires a plurality of captured images P,... Captured by the imaging unit 1 at a predetermined imaging frame rate. Specifically, the imaging unit 1 continuously captures images of a plurality of persons (see FIG. 4A, etc.) including a specific person (for example, “A”) existing in a predetermined background. YUV data of image frames of a plurality (for example, n) of captured images Pa1 to Pan is acquired.
In this way, the image acquisition unit 6a acquires a plurality of captured images P,... In which a plurality of persons including a specific person exist in the continuously captured background.

画像選択部6bは、画像取得部6aにより取得された複数の撮像画像P、…の中で、特定の人物(例えば、「A」等)について顔(特徴部)の評価値が高い撮像画像Pを選択する。具体的には、画像選択部6bは、特定の人物について顔の笑顔度を評価値として算出する評価値算出部b1を具備しており、複数の撮像画像P、…の中で、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。   The image selection unit 6b has a high evaluation value of a face (characteristic unit) for a specific person (for example, “A”) among the plurality of captured images P acquired by the image acquisition unit 6a. Select. Specifically, the image selection unit 6b includes an evaluation value calculation unit b1 that calculates the smile level of a face as an evaluation value for a specific person, and calculates an evaluation value among a plurality of captured images P,. A captured image P having a high smile level of the face calculated by the part b1 is selected.

評価値算出部b1は、画像取得部6aにより取得された複数の撮像画像P、…内に存する特定の人物について顔の笑顔度を評価値として算出する。
即ち、評価値算出部b1は、複数の撮像画像P、…のうち、顔検出部5により特定の人物(例えば、「A」等)の顔が検出された撮像画像Pについて、当該特定の人物の顔の笑顔度を評価値として算出する。具体的には、例えば、評価値算出部b1は、特定の人物の顔から目を検出して、黒目の顔全体に対する大きさに応じて笑顔度を数値化する。また、例えば、評価値算出部b1は、特定の人物の顔から口を検出して、口角の上がり具合いや口の開き具合い等に応じて笑顔度を数値化する。そして、評価値算出部b1は、黒目や口角について数値化された笑顔度を統合して、特定の人物の顔の総合的な笑顔度を算出する。
なお、評価値算出部b1による特定の人物の顔(特徴部)の評価値の算出方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、目や口の他に、眉毛の傾き度合い、眉間や目尻の皺の寄せ度合い等を利用して、特定の人物の顔の評価値を算出しても良い。また、顔の笑顔度を評価値として算出するようにしたが、評価内容は一例であってこれに限られるものではなく、適宜任意に変更可能である。
このように、評価値算出部b1は、特定の人物について顔の笑顔度を評価値として算出する。
The evaluation value calculation unit b1 calculates the smile level of the face as an evaluation value for a specific person existing in the plurality of captured images P acquired by the image acquisition unit 6a.
That is, the evaluation value calculation unit b1 selects the specific person with respect to the captured image P in which the face of the specific person (for example, “A”) is detected by the face detection unit 5 among the plurality of captured images P,. Is calculated as an evaluation value. Specifically, for example, the evaluation value calculation unit b1 detects eyes from the face of a specific person, and digitizes the smile degree according to the size of the entire face of the black eye. For example, the evaluation value calculation unit b1 detects the mouth from the face of a specific person, and quantifies the degree of smile according to how the mouth corners rise or how the mouth opens. Then, the evaluation value calculation unit b1 calculates the total smile level of the face of a specific person by integrating the smile levels digitized for the black eyes and the mouth corners.
Note that the method of calculating the evaluation value of the face (feature part) of a specific person by the evaluation value calculation unit b1 is an example, and is not limited thereto, and can be arbitrarily changed as appropriate. For example, the evaluation value of the face of a specific person may be calculated using the degree of inclination of eyebrows, the degree of eyebrows between the eyebrows and the corners of the corners of the eye in addition to the eyes and mouth. Further, the smile level of the face is calculated as the evaluation value. However, the evaluation content is an example and is not limited to this, and can be arbitrarily changed as appropriate.
As described above, the evaluation value calculation unit b1 calculates the smile level of the face for the specific person as the evaluation value.

そして、画像選択部6bは、評価値算出部b1による評価結果に基づいて、複数の撮像画像P、…の中で、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。具体的には、第1登録テーブルT1に特定の人物が一人登録されている場合には、画像選択部6bは、顔検出部5により特定の人物の顔が検出された撮像画像Pの中で、評価値算出部b1により算出された笑顔度が最も高い撮像画像Pを選択する。即ち、画像選択部6bは、記録媒体Mに記録される記録画像として、評価値算出部b1により算出された笑顔度が最も高い撮像画像Pを選択する。   Then, based on the evaluation result by the evaluation value calculation unit b1, the image selection unit 6b selects a captured image P having a high facial smile calculated by the evaluation value calculation unit b1 among the plurality of captured images P,. select. Specifically, when one specific person is registered in the first registration table T1, the image selection unit 6b includes the captured image P in which the face of the specific person is detected by the face detection unit 5. The captured image P with the highest smile level calculated by the evaluation value calculation unit b1 is selected. That is, the image selection unit 6b selects the captured image P having the highest smile level calculated by the evaluation value calculation unit b1 as the recorded image recorded on the recording medium M.

また、画像選択部6bは、第1登録テーブルT1に顔登録フラグと対応付けて登録されている優先度に基づいて、複数の特定の人物のうち、何れか一の特定の人物の顔の評価値が高い撮像画像Pを選択する。即ち、第1登録テーブルT1に複数の特定の人物が登録されている場合には、画像選択部6bは、顔登録フラグと対応付けて登録されている優先度を参照して、複数の特定の人物のうち、当該優先度の最も高い特定の人物(例えば、「A」)について顔の笑顔度が最も高い撮像画像Pを選択する。
なお、優先度が次に高い特定の人物(例えば、「B」)については、例えば、優先度の最も高い特定の人物について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、優先度が次に高い特定の人物について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。
In addition, the image selection unit 6b evaluates the face of any one of a plurality of specific persons based on the priority registered in the first registration table T1 in association with the face registration flag. A captured image P having a high value is selected. That is, when a plurality of specific persons are registered in the first registration table T1, the image selection unit 6b refers to the priority registered in association with the face registration flag, and specifies a plurality of specific persons. Among the persons, the captured image P having the highest face smile degree is selected for a specific person (for example, “A”) having the highest priority.
For a specific person with the second highest priority (for example, “B”), for example, for a specific person with the highest priority, a plurality of captured images P having a face smile degree of a predetermined value or more are selected. ... Among the plurality of captured images P,..., The captured image P having the highest face smile degree may be selected for a specific person having the second highest priority.

さらに、特定の人物以外の人(例えば、「C」や「D」)についても、同様に、例えば、特定の人物について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、特定の人物以外の人のうち、優先度が最も高い人について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。また、第1登録テーブルT1に特定の人物以外の人が複数登録されている場合には、当該特定の人物以外の人の中で、優先度が最も高い人について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、特定の人物以外の人のうち、優先度が次に高い人について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。   Further, for a person other than a specific person (for example, “C” and “D”), for example, for a specific person, a plurality of captured images P having a face smile degree of a predetermined value or more are selected. Among the plurality of picked-up images P,..., A picked-up image P having the highest face smile degree may be selected for the person with the highest priority among persons other than the specific person. When a plurality of people other than the specific person are registered in the first registration table T1, the smile level of the face is greater than or equal to a predetermined value for the person with the highest priority among those other than the specific person. A plurality of captured images P are selected, and among the plurality of captured images P,..., The captured image P having the highest face smile degree for a person with the second highest priority among persons other than a specific person. May be selected.

このように、画像選択部6bは、複数の撮像画像P、…の中で、顔登録フラグが登録されている特定の人物について顔検出部5により検出された顔(特徴部)の評価値が高い撮像画像Pを選択する。   As described above, the image selection unit 6b has the evaluation value of the face (feature portion) detected by the face detection unit 5 for a specific person with the face registration flag registered among the plurality of captured images P,. Select a high captured image P.

人物登録DB7は、特定の人物の顔登録フラグを登録する第1登録テーブルT1(図2参照)を記憶している。
ここで、第1登録テーブルT1について図2を参照して説明する。
The person registration DB 7 stores a first registration table T1 (see FIG. 2) for registering a face registration flag of a specific person.
Here, the first registration table T1 will be described with reference to FIG.

図2に示すように、第1登録テーブルT1は、人物の名前(例えば、「A」、「B」、「C」、「D」等)と、各人物の顔画像(実体の画像データ)f1〜f4と、顔登録フラグと、優先度とを対応付けて記憶している。
顔登録フラグとは、背景内に特定の人物の存する撮像画像Pの記録指示に係る記録指示情報である。即ち、顔登録フラグは、連続して撮像された複数の撮像画像P、…の中で、背景内に特定の人物の存する撮像画像Pを他の撮像画像Pに対して優先的に記録媒体Mに記録させる指示情報である。また、顔登録フラグは、複数の特定の人物と対応付けて登録されている。具体的には、例えば、「A」及び「B」の顔登録フラグが「ON」に設定され、当該人物が特定の人物となる。これにより、複数の撮像画像P、…の中で、特定の人物である「A」や「B」の顔画像f1、f2が存する撮像画像Pの他の撮像画像Pに対する優先的な記録が指示される。
また、例えば、「C」及び「D」の顔登録フラグは「OFF」に設定され、当該人物は特定の人物以外の人となる。これにより、当該特定の人物以外の人である「C」や「D」のの顔画像f3、f4が存する撮像画像Pの他の撮像画像Pに対する優先的な記録は指示されていない。
なお、特定の人物として、例えば、「A」及び「B」の二人を例示したが、特定の人物の数は一例であってこれに限られるものではなく、少なくとも一人設定されていれば適宜任意に変更可能である。同様に、特定の人物以外の人として、例えば、「C」及び「D」の二人を例示したが、特定の人物以外の人の数は一例であってこれに限られるものではなく、少なくとも一人設定されていれば適宜任意に変更可能である。
As shown in FIG. 2, the first registration table T <b> 1 includes names of persons (for example, “A”, “B”, “C”, “D”, etc.) and face images of each person (substance image data). f1 to f4, face registration flags, and priorities are stored in association with each other.
The face registration flag is recording instruction information related to an instruction to record a captured image P having a specific person in the background. That is, the face registration flag preferentially records a captured image P having a specific person in the background among other captured images P,... Is instruction information to be recorded. The face registration flag is registered in association with a plurality of specific persons. Specifically, for example, “A” and “B” face registration flags are set to “ON”, and the person becomes a specific person. Accordingly, preferential recording of the captured image P in which the face images f1 and f2 of the specific person “A” and “B” exist among the plurality of captured images P,. Is done.
For example, the face registration flags “C” and “D” are set to “OFF”, and the person is a person other than the specific person. As a result, preferential recording on the other captured image P of the captured image P in which the face images f3 and f4 of “C” and “D” that are people other than the specific person exist is not instructed.
In addition, although two persons of “A” and “B” are illustrated as specific persons, for example, the number of specific persons is not limited to this, and may be appropriately set if at least one person is set. It can be changed arbitrarily. Similarly, as the person other than the specific person, for example, two people of “C” and “D” are illustrated, but the number of persons other than the specific person is an example and is not limited to this. If one person is set, it can be arbitrarily changed.

また、優先度とは、撮像画像Pの記録媒体Mに対する記録の人物毎の優先度を表すものである。例えば、優先度は、第1登録テーブルT1に登録されている全ての人物、即ち、特定の人物及びそれ以外の人物について、各人物の存する撮像画像Pの記録媒体Mに対する記録の優先度を表している。具体的には、例えば、数値が大きいほど優先度が高くなっており、図2にあっては、「A」の顔画像f1の存する撮像画像Pの記録が最も優先され、次いで、「B」の顔画像f2の存する撮像画像P、「D」の顔画像f4の存する撮像画像P、「C」の顔画像f3の存する撮像画像Pの順となっている。
なお、第1登録テーブルT1に登録されている全ての人物について優先度が登録されたものを例示したが、一例であってこれに限られるものではなく、少なくとも特定の人物について登録されていれば良い。
The priority represents the priority for each person who records the captured image P on the recording medium M. For example, the priority represents the priority of recording on the recording medium M of the captured image P in which each person exists for all persons registered in the first registration table T1, that is, a specific person and other persons. ing. Specifically, for example, the higher the numerical value, the higher the priority. In FIG. 2, the highest priority is given to the recording of the captured image P in which the face image f1 of “A” exists, and then “B”. The captured image P in which the face image f2 exists, the captured image P in which the face image f4 “D” exists, and the captured image P in which the face image f3 “C” exists exist in this order.
In addition, although what registered the priority about all the persons registered into 1st registration table T1 was illustrated, it is an example and it is not restricted to this, If it is registered about at least a specific person good.

このように、人物登録DB7は、特定の人物の顔画像の画像データが存する撮像画像Pの記録指示に係る顔登録フラグ(記録指示情報)を登録している。
なお、第1登録テーブルT1の各人物の顔画像f1〜f4は、顔検出処理や顔認識処理に利用されても良い。
As described above, the person registration DB 7 registers the face registration flag (recording instruction information) related to the recording instruction of the captured image P in which the image data of the face image of a specific person exists.
The face images f1 to f4 of each person in the first registration table T1 may be used for face detection processing and face recognition processing.

記録制御部8は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
具体的には、記録制御部8は、連続して撮像された複数の撮像画像P1、P2、P3…の中で、画像選択部6bにより選択されたもの、即ち、顔登録フラグが登録されている特定の人物(例えば、「A」等)について顔の笑顔度(評価値)が高いものを記録画像として選択し、記録媒体Mに記録させる。
このように、記録制御部8は、画像選択部6bにより選択された撮像画像Pを記録画像として記録媒体Mに記録させる。
The recording control unit 8 is configured so that the recording medium M is detachable, and controls reading of data from the loaded recording medium M and writing of data to the recording medium M.
Specifically, the recording control unit 8 selects the image selected by the image selection unit 6b among the plurality of captured images P1, P2, P3,... A specific person (for example, “A”) having a high facial smile (evaluation value) is selected as a recorded image and recorded on the recording medium M.
As described above, the recording control unit 8 records the captured image P selected by the image selection unit 6b on the recording medium M as a recording image.

なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。   The recording medium M is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium M is an example and is not limited to this, and can be arbitrarily changed as appropriate.

表示制御部9は、メモリ4に一時的に記憶されている表示用の画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている(何れも図示略)。そして、デジタルビデオエンコーダは、中央制御部12の制御下にてメモリ4から読み出されてVRAMに記録されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
The display control unit 9 performs control for reading display image data temporarily stored in the memory 4 and displaying the read image data on the display unit 10.
Specifically, the display control unit 9 includes a VRAM, a VRAM controller, a digital video encoder, and the like (all not shown). The digital video encoder periodically reads the luminance signal Y and the color difference signals Cb, Cr read from the memory 4 and recorded in the VRAM under the control of the central control unit 12 from the VRAM via the VRAM controller. It reads out, generates a video signal based on these data, and outputs it to the display unit 10.

表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいて電子撮像部1bにより撮像された画像などを表示画面に表示する。具体的には、表示部10は、静止画撮像モードや動画撮像モードにて、撮像部1による被写体の撮像により生成された複数の画像フレームを所定のフレームレートで逐次更新しながらライブビュー画像を表示する。   The display unit 10 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit 1b based on a video signal from the display control unit 9 on a display screen. Specifically, the display unit 10 updates the live view image while sequentially updating a plurality of image frames generated by imaging the subject by the imaging unit 1 at a predetermined frame rate in the still image capturing mode or the moving image capturing mode. indicate.

操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定用ボタン、ズーム量の調整指示に係るズームボタン等を備え(何れも図示略)、これらのボタンの操作に応じて所定の操作信号を中央制御部12に出力する。   The operation input unit 11 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 11 includes a shutter button related to an imaging instruction of a subject, a selection determination button related to an instruction to select an imaging mode or a function, a zoom button related to an instruction to adjust the zoom amount, etc. A predetermined operation signal is output to the central control unit 12 in response to the operation of these buttons.

中央制御部12は、撮像装置100の各部を制御するものである。具体的には、中央制御部12は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 12 controls each unit of the imaging apparatus 100. Specifically, although not shown, the central control unit 12 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and includes various processing programs for the imaging apparatus 100 ( Various control operations are performed according to (not shown).

次に、撮像装置100による連続撮像処理について、図3及び図4を参照して説明する。
図3は、連続撮像処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(d)は、連続撮像処理に係る撮像画像Pa1〜Panの一例を模式的に示す図である。
Next, the continuous imaging process by the imaging device 100 will be described with reference to FIGS.
FIG. 3 is a flowchart illustrating an example of an operation related to continuous imaging processing. FIGS. 4A to 4D are diagrams schematically illustrating examples of captured images Pa1 to Pan related to the continuous imaging process.

連続撮像処理は、ユーザによる操作入力部11の選択決定用ボタン(図示略)の所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から連続撮像モードが選択指示された場合に実行される処理である。
なお、以下に説明する連続撮像処理にあっては、「A」、「B」、「C」及び「D」を被写体として撮像するものとする。また、「A」及び「B」は第1登録テーブルT1の顔登録フラグが「ON」に設定されているものとする(図2参照)。
The continuous imaging process is performed when a continuous imaging mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of a selection determination button (not shown) of the operation input unit 11 by the user. It is a process to be executed.
In the continuous imaging process described below, “A”, “B”, “C”, and “D” are imaged as subjects. In addition, “A” and “B” assume that the face registration flag of the first registration table T1 is set to “ON” (see FIG. 2).

図3に示すように、先ず、表示制御部9は、撮像部1及び撮像制御部2による撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させる(ステップS1)。
次に、顔検出部5は、撮像部1によるライブビュー画像の撮像により生成された複数の撮像画像P1、P2、P3、…の画像フレームをメモリ4から逐次取得して、各画像フレーム内から所定の顔検出方法を用いて人の顔画像を検出する(ステップS2)。続けて、顔検出部5は、各撮像画像Pから検出された人の顔画像から、第1登録テーブルT1に顔登録フラグが「ON」で登録されている顔画像、すなわち、特定の人物として登録されている顔画像が検出されたか否かを判定する(ステップS3)。
As shown in FIG. 3, first, the display control unit 9 displays a live view image on the display screen of the display unit 10 based on a plurality of image frames generated by imaging by the imaging unit 1 and the imaging control unit 2 ( Step S1).
Next, the face detection unit 5 sequentially acquires image frames of a plurality of captured images P1, P2, P3,... Generated by capturing the live view image by the image capturing unit 1 from the memory 4, and from within each image frame. A human face image is detected using a predetermined face detection method (step S2). Subsequently, the face detection unit 5 detects a face image registered with the face registration flag “ON” in the first registration table T1 from the face image of the person detected from each captured image P, that is, as a specific person. It is determined whether or not a registered face image has been detected (step S3).

ステップS3にて、特定の人物の顔画像が検出されたと判定されると(ステップS3;YES)、表示制御部9は、第1登録テーブルT1を参照して、この顔画像と対応付けられて登録されている人物の名前(例えば、「A」、「B」等)をライブビュー画像と共に表示させる(ステップS4)。
その後、中央制御部12は、ユーザによる操作入力部11のシャッタボタン(図示略)の所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。また、ステップS3にて、特定の人物の顔画像が検出されていないと判定された場合(ステップS3;NO)にも、中央制御部12は、処理をステップS5に移行して、撮像指示が入力されたか否かを判定する(ステップS5)。
If it is determined in step S3 that a face image of a specific person has been detected (step S3; YES), the display control unit 9 refers to the first registration table T1 and is associated with this face image. The names of registered persons (for example, “A”, “B”, etc.) are displayed together with the live view image (step S4).
Thereafter, the central control unit 12 determines whether or not an imaging instruction is input based on a predetermined operation of a shutter button (not shown) of the operation input unit 11 by the user (step S5). Also, if it is determined in step S3 that a face image of a specific person has not been detected (step S3; NO), the central control unit 12 moves the process to step S5 and issues an imaging instruction. It is determined whether or not an input has been made (step S5).

ステップS5にて、撮像指示が入力されていないと判定されると(ステップS5;NO)、中央制御部12は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、ステップS5にて、撮像指示が入力されたと判定されると(ステップS5;YES)、撮像制御部2は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整して、被写体の光学像を電子撮像部1bに所定の撮像フレームレートで連続して撮像させる(ステップS6)。続けて、画像データ生成部3は、連続撮像により電子撮像部1bから逐次転送された複数(例えば、n枚)の撮像画像Pa1〜Panの各々のYUVデータを生成する(ステップS7)。
If it is determined in step S5 that an imaging instruction has not been input (step S5; NO), the central control unit 12 shifts the process to step S2 and executes the subsequent processes.
On the other hand, if it is determined in step S5 that an imaging instruction has been input (step S5; YES), the imaging control unit 2 determines the focus lens focus position and exposure conditions (shutter speed, aperture, amplification factor, etc.) Conditions such as white balance are adjusted, and the optical image of the subject is continuously captured by the electronic imaging unit 1b at a predetermined imaging frame rate (step S6). Subsequently, the image data generation unit 3 generates YUV data for each of a plurality of (for example, n) captured images Pa1 to Pan sequentially transferred from the electronic imaging unit 1b by continuous imaging (step S7).

次に、画像処理部6の画像取得部6aは、生成された複数の撮像画像Pa1〜PanのYUVデータを取得した後、画像選択部6bの評価値算出部b1は、複数の撮像画像Pa1〜Panのうち、顔検出部5により特定の人物の顔画像が検出されたもの(複数)について、当該顔画像の画像データにおける笑顔度を評価値として夫々算出する(ステップS8)。具体的には、評価値算出部b1は、例えば、顔検出部5により特定の人物である「A」及び「B」の顔画像が検出された複数の撮像画像Pa1〜Panについて、当該特定の人物の顔の笑顔度を夫々算出する。   Next, after the image acquisition unit 6a of the image processing unit 6 acquires the YUV data of the generated plurality of captured images Pa1 to Pan, the evaluation value calculation unit b1 of the image selection unit 6b includes the plurality of captured images Pa1 to Pa1. Of the Pans (a plurality) of which the face image of the specific person is detected by the face detection unit 5, the smile degree in the image data of the face image is calculated as an evaluation value (step S8). Specifically, the evaluation value calculation unit b1 specifies, for example, the plurality of captured images Pa1 to Pan in which face images of “A” and “B”, which are specific persons, are detected by the face detection unit 5. The smile level of each person's face is calculated.

次に、画像選択部6bは、第1登録テーブルT1の顔登録フラグと対応付けて登録されている優先度を参照して、優先度の最も高い特定の人物(例えば、「A」)について顔画像における笑顔度が最も高い撮像画像Pを複数選択する(ステップS9)。ここで、本実施形態1では、図2を参照すると第1登録テーブルT1に顔登録フラグが「ON」に設定されている人数は二人(すなわち複数)なので、優先度の最も高い人物について顔画像の笑顔度が所定値以上の複数の撮像画像Pを候補として先ず選択しておき、この複数選択された撮像画像Pの中から当該複数の撮像画像Pa1〜Panの中で、優先度が次に高い特定の人物(例えば、「B」)について顔画像の笑顔度が最も高い撮像画像Pを選択する。   Next, the image selection unit 6b refers to the priority registered in association with the face registration flag in the first registration table T1, and determines the face of the specific person with the highest priority (for example, “A”). A plurality of captured images P having the highest smile level in the image are selected (step S9). Here, in the first embodiment, referring to FIG. 2, the number of people whose face registration flag is set to “ON” in the first registration table T1 is two (that is, a plurality of people). First, a plurality of captured images P having a smile level of an image equal to or greater than a predetermined value are selected as candidates, and the priority is the next among the plurality of captured images P1 to Pan among the selected captured images P. The captured image P having the highest smile level of the face image is selected for a specific person (for example, “B”) that is very high.

例えば、1枚目の撮像画像Pa1(図4(a)参照)にあっては、「A」の顔画像の笑顔度が所定値以上であると評価されるが、特定の人物である「B」の顔画像の笑顔度が所定値未満であると評価される。また、2枚目の撮像画像Pa2(図4(b)参照)及びn枚目の撮像画像Pan(図4(d)参照)にあっては、特定の人物である「A」及び「B」の顔画像の笑顔度がともに所定値以上であると評価される。また、3枚目の撮像画像Pa3(図4(c)参照)にあっては、特定の人物である「A」の顔画像の笑顔度が所定値未満であり、特定の人物である「B」の顔画像の笑顔度が所定値以上であると評価される。
一方、特定の人物以外の人(例えば、「C」、「D」等)については、優先度のみを考慮して撮像画像Pを選択する。つまり、3枚目の撮像画像Pa3は、顔画像の笑顔度がともに所定値以上であると評価されているが、特定の人物については笑顔度が所定値未満であるため選択されない。
このように上記の場合には、特定の人物であり且つ優先度の最も高い「A」の顔の笑顔度が所定値以上であり、特定の人物である「B」の顔の笑顔度が所定値以上である撮像画像Pa2及びn枚目の撮像画像Panが候補として選択され、更に、これらの候補のうち、上記特定の人物以外の人の中で優先度の最も高い「D」の笑顔度が所定値以上である撮像画像Pa2が、画像選択部6bにより選択される。
For example, in the first captured image Pa1 (see FIG. 4A), the smile degree of the face image “A” is evaluated to be greater than or equal to a predetermined value, but the specific person “B” Is evaluated to be less than a predetermined value. In the second captured image Pa2 (see FIG. 4B) and the nth captured image Pan (see FIG. 4D), “A” and “B” which are specific persons. It is evaluated that both the smile levels of the face images are greater than or equal to a predetermined value. Further, in the third captured image Pa3 (see FIG. 4C), the smile degree of the face image of the specific person “A” is less than a predetermined value, and the specific person “B” It is evaluated that the smile degree of the face image “” is greater than or equal to a predetermined value.
On the other hand, for a person other than a specific person (for example, “C”, “D”, etc.), the captured image P is selected considering only the priority. That is, the third captured image Pa3 is evaluated not to be selected because the smile level of the face image is both equal to or higher than a predetermined value, but the smile level is less than the predetermined value for a specific person.
As described above, in the above case, the smile level of the face “A” that is a specific person and has the highest priority is equal to or higher than a predetermined value, and the smile level of the face “B” that is the specific person is predetermined. The picked-up image Pa2 and the n-th picked-up image Pan that are greater than or equal to the value are selected as candidates, and among these candidates, the smile level of “D” having the highest priority among those other than the specific person The picked-up image Pa2 in which is equal to or greater than a predetermined value is selected by the image selection unit 6b.

その後、記録制御部8は、画像選択部6bにより選択された2枚目の撮像画像Pa2を記録画像として、記録媒体Mの所定の記録領域に記録させる(ステップS12)。
これにより、連続撮像処理を終了する。
Thereafter, the recording control unit 8 records the second captured image Pa2 selected by the image selection unit 6b as a recording image in a predetermined recording area of the recording medium M (step S12).
Thus, the continuous imaging process is finished.

以上のように、実施形態1の撮像装置100によれば、連続して撮像された複数の撮像画像中で、顔登録フラグが人物登録データベース7に登録されている特定の人物の特徴部(顔)の評価値が高い撮像画像を選択するので、一の撮像画像内に存する複数の人のうち、少なくとも特定の人物(例えば、「A」等)について良い表情が得られ、且つ、他の人物についても比較的良い表情の撮像画像Pを選択することができる。また、笑顔(良い表情)であるか否かを厳密に重視しなくても良い特定の人物以外の人については、特徴部(顔)の評価を行う必要がなくなるので、連続撮像枚数の増加を招くことが無い。   As described above, according to the imaging device 100 of the first embodiment, the feature portion (face) of a specific person whose face registration flag is registered in the person registration database 7 among a plurality of continuously captured images. ) Is selected, a good facial expression is obtained for at least a specific person (for example, “A”, etc.) among a plurality of persons existing in one captured image, and other persons are selected. The picked-up image P with a relatively good expression can be selected. In addition, since it is not necessary to evaluate the feature (face) for people other than a specific person who does not need to place strict emphasis on smiles (good expressions), it is possible to increase the number of consecutive images. There is no invitation.

[実施形態2]
以下に、実施形態2の撮像装置200について図5〜図9を参照して説明する。
実施形態2は、複数の特定の人物の各々について顔(特徴部)の評価値が高い撮像画像を選択し、当該撮像画像の各々から、各特定の人物が含まれる画像領域をそれぞれ抽出して、抽出された複数の画像領域同士を合成して一の合成画像を生成し記録媒体に記録させる。
なお、実施形態2の撮像装置200は、以下に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。
[Embodiment 2]
Hereinafter, the imaging apparatus 200 according to the second embodiment will be described with reference to FIGS.
In the second embodiment, a captured image with a high evaluation value of a face (feature part) is selected for each of a plurality of specific persons, and an image region including each specific person is extracted from each of the captured images. Then, the plurality of extracted image areas are synthesized with each other to generate one synthesized image and record it on the recording medium.
Note that the imaging apparatus 200 according to the second embodiment has substantially the same configuration as the imaging apparatus 100 according to the first embodiment except for the points described below, and the description thereof is omitted.

図5は、本発明を適用した実施形態2の撮像装置200の概略構成を示すブロック図である。
図5に示すように、実施形態2の撮像装置200は、人物登録DB7に第2登録テーブルT2(図6参照)が記憶されている。
FIG. 5 is a block diagram illustrating a schematic configuration of the imaging apparatus 200 according to the second embodiment to which the present invention is applied.
As illustrated in FIG. 5, in the imaging device 200 according to the second embodiment, a second registration table T2 (see FIG. 6) is stored in the person registration DB 7.

第2登録テーブルT2は、図6に示すように、人物の名前(例えば、「E」、「F」及び「G」等)と、各人物の顔画像(実体は画像データ)f5〜f7と、顔登録フラグとを対応付けて記憶している。
顔登録フラグは、複数の特定の人物の顔画像f5〜f7と対応付けて登録されている。具体的には、例えば、「E」、「F」及び「G」の顔登録フラグが「ON」に設定され、当該人物が特定の人物となる。これにより、複数の撮像画像P、…の中で、特定の人物である「E」、「F」及び「G」の存する撮像画像については、他の撮像画像と比較して優先的に記録するよう指示される。
As shown in FIG. 6, the second registration table T2 includes names of persons (for example, “E”, “F”, “G”, etc.), face images (substances are image data) f5 to f7 of each person. The face registration flag is stored in association with each other.
The face registration flag is registered in association with face images f5 to f7 of a plurality of specific persons. Specifically, for example, “E”, “F”, and “G” face registration flags are set to “ON”, and the person becomes a specific person. As a result, among the plurality of captured images P,..., The captured images having the specific persons “E”, “F”, and “G” are preferentially recorded as compared with the other captured images. Is instructed.

また、画像処理部6は、画像取得部6aと、画像選択部6bとに加えて、領域抽出部6cと、画像生成部6dとを具備している。   In addition to the image acquisition unit 6a and the image selection unit 6b, the image processing unit 6 includes a region extraction unit 6c and an image generation unit 6d.

画像選択部6bは、第2登録テーブルT2に顔登録フラグ(記録指示情報)が登録されている複数の特定の人物の各々について、画像取得部6aにより取得された複数の撮像画像P、…の中で、顔(特徴部)の評価値が高い撮像画像Pをそれぞれ選択する。
即ち、画像選択部6bの評価値算出部b1は、画像取得部6aにより取得された複数の撮像画像P、…内に存する特定の人物について顔の笑顔度を評価値として算出する。なお、評価値算出部b1による特定の人物の顔の評価値の算出方法は、上記実施形態1と同様であり、その詳細な説明は省略する。
そして、画像選択部6bは、評価値算出部b1による評価結果に基づいて、複数の撮像画像P、…の中で、顔登録フラグが「ON」に設定されている複数の特定の人物の各々について、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。例えば、画像選択部6bは、「E」の顔の笑顔度が所定値以上の撮像画像Pとして、n枚目の撮像画像Pbn(図8(d)参照)を選択し、また、「F」の顔の笑顔度が所定値以上の撮像画像Pとして、1枚目の撮像画像Pb1(図8(a)参照)を選択し、「G」の顔の笑顔度が所定値以上の撮像画像Pとして、1枚目の撮像画像Pb1(図8(a)参照)及び2枚目の撮像画像Pb2(図8(b)参照)を選択する。
For each of a plurality of specific persons whose face registration flags (recording instruction information) are registered in the second registration table T2, the image selection unit 6b receives a plurality of captured images P,... Acquired by the image acquisition unit 6a. Among them, each of the captured images P having a high evaluation value of the face (feature portion) is selected.
That is, the evaluation value calculation unit b1 of the image selection unit 6b calculates the smile level of a face as an evaluation value for a specific person existing in the plurality of captured images P,... Acquired by the image acquisition unit 6a. Note that the method of calculating the evaluation value of the face of a specific person by the evaluation value calculation unit b1 is the same as in the first embodiment, and a detailed description thereof will be omitted.
Then, based on the evaluation result by the evaluation value calculation unit b1, the image selection unit 6b includes a plurality of specific persons whose face registration flag is set to “ON” among the plurality of captured images P,. The picked-up image P with a high face smile degree calculated by the evaluation value calculation unit b1 is selected. For example, the image selection unit 6b selects the n-th captured image Pbn (see FIG. 8D) as the captured image P with the smile degree of the face “E” equal to or greater than a predetermined value, and “F”. The first captured image Pb1 (see FIG. 8A) is selected as the captured image P having a smile level of the face of “G”, and the captured image P having the smile level of “G” is greater than or equal to the predetermined value. As a result, the first captured image Pb1 (see FIG. 8A) and the second captured image Pb2 (see FIG. 8B) are selected.

領域抽出部6cは、複数の特定の人物の各々について、顔の評価値が高い撮像画像Pの各々から、当該人物が含まれる画像領域Aをそれぞれトリミングして抽出する。
即ち、領域抽出部6cは、複数の特定の人物の各々について、画像選択部6bにより選択された顔の評価値が高い撮像画像Pの各々から、各人物が含まれる画像領域Aを選択して、当該画像領域Aをトリミングして抽出する。具体的には、領域抽出部6cは、例えば、各特定の人物(例えば、「E」、「F」及び「G」等)の顔(特徴部)の中心の座標を基準として、互いに重なり合わないように切り取る範囲を設定し、この設定された範囲(トリミング領域)を抽出する。なお、各特定の人物どうしが上下方向や水平方向に重なり合っている場合には、領域抽出部6cは、顔(特徴部)の中心の座標を基準として、特定の人物どうしの中間位置を、当該中間位置で区切られるように切り取る範囲(トリミング領域)を抽出しても良い。
例えば、「E」の場合、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定されたn枚目の撮像画像Pbnから、「E」が含まれる第1画像領域A1(図9(a)参照)をトリミングして抽出する。また、例えば、「F」の場合は、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定された1枚目の撮像画像Pb1から、「F」が含まれる第2画像領域A2(図9(b)参照)をトリミングして抽出する。また、例えば、「G」の場合、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定された1枚目の撮像画像Pb1若しくは2枚目の撮像画像Pb2から、「G」が含まれる第3画像領域A3(図9(c)参照)をトリミングして抽出する。
For each of a plurality of specific persons, the area extracting unit 6c trims and extracts the image area A including the person from each of the captured images P having a high face evaluation value.
That is, for each of a plurality of specific persons, the area extraction unit 6c selects an image area A including each person from each of the captured images P having a high face evaluation value selected by the image selection unit 6b. Then, the image area A is trimmed and extracted. Specifically, for example, the region extraction unit 6c overlaps each other based on the coordinates of the center of the face (feature part) of each specific person (for example, “E”, “F”, “G”, etc.). A range to be cut out is set so as not to be extracted, and the set range (trimming region) is extracted. If each specific person overlaps in the vertical direction or the horizontal direction, the region extraction unit 6c uses the coordinates of the center of the face (characteristic part) as a reference to determine the intermediate position between the specific persons. A range (trimming region) to be cut out so as to be divided at the intermediate position may be extracted.
For example, in the case of “E”, the region extraction unit 6c includes “E” from the n-th captured image Pbn specified by the image selection unit 6b as the captured image P whose face smile degree is a predetermined value or more. The first image area A1 (see FIG. 9A) is trimmed and extracted. For example, in the case of “F”, the region extraction unit 6c determines “F” from the first captured image Pb1 that is specified as the captured image P having a face smile degree of a predetermined value or more by the image selection unit 6b. Is extracted by trimming the second image area A2 (see FIG. 9B). For example, in the case of “G”, the region extraction unit 6c captures the first captured image Pb1 or the second captured image specified by the image selection unit 6b as the captured image P having a face smile degree of a predetermined value or more. A third image region A3 (see FIG. 9C) including “G” is trimmed and extracted from the image Pb2.

なお、領域抽出部6cによる特定の人物が含まれる画像領域Aのトリミング方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、各人物毎に画像領域Aをトリミングするようにしたが、例えば、「F」と「G」のように、1枚目の撮像画像Pb1が顔の笑顔度が所定値以上の撮像画像Pとして選択されている場合には、「F」と「G」がともに含まれる一の画像領域Aをトリミングして抽出するようにしても良い。
このように、領域抽出部6cは、画像選択部6bにより選択された複数の特定の人物の各々についての顔(特徴部)の評価値が高い撮像画像Pの各々から、当該人物が含まれる画像領域Aをそれぞれトリミングして抽出する。
Note that the trimming method of the image area A including the specific person by the area extracting unit 6c is an example, and is not limited to this, and can be arbitrarily changed as appropriate. For example, the image area A is trimmed for each person. For example, as shown in “F” and “G”, the first captured image Pb1 is a captured image P whose face smile degree is a predetermined value or more. May be extracted by trimming one image area A including both “F” and “G”.
As described above, the region extraction unit 6c includes an image including the person from each of the captured images P having a high evaluation value of the face (characteristic part) for each of the plurality of specific persons selected by the image selection unit 6b. Each area A is trimmed and extracted.

画像生成部6dは、各人物毎に抽出された複数の画像領域A、…を合成して一の合成画像Gを生成する。
具体的には、例えば、画像生成部6dは、領域抽出部6cにより抽出された「E」が含まれる第1画像領域A1(図9(a)参照)と、「F」が含まれる第2画像領域A2(図9(b)参照)と、「G」が含まれる第3画像領域A3(図9(c)参照)とを合成して、一の合成画像G(図9(d)参照)を生成する。
このように、画像生成部6dは、領域抽出部6cにより各人物毎に抽出された複数の画像領域A、…どうしを合成して一の合成画像Gを生成する。
The image generation unit 6d generates a single composite image G by combining a plurality of image areas A,... Extracted for each person.
Specifically, for example, the image generation unit 6d includes a first image region A1 (see FIG. 9A) including “E” extracted by the region extraction unit 6c and a second image including “F”. The image area A2 (see FIG. 9B) and the third image area A3 including “G” (see FIG. 9C) are combined to form one composite image G (see FIG. 9D). ) Is generated.
In this way, the image generation unit 6d generates a single composite image G by combining a plurality of image regions A,... Extracted for each person by the region extraction unit 6c.

記録制御部8は、画像生成部6dにより生成された一の合成画像G(図9(d)参照)を記録画像として記録媒体Mに記録させる。   The recording control unit 8 records one composite image G (see FIG. 9D) generated by the image generation unit 6d on the recording medium M as a recording image.

次に、撮像装置200による連続撮像処理について、図7〜図9を参照して説明する。
図7は、連続撮像処理に係る動作の一例を示すフローチャートである。但し、処理の流れとしては上記第1実施形態における図3のステップS8と同じであるので、図面において上記第1実施形態と異なる点のみ説明することで省略する。
図8(a)〜図8(d)は、連続撮像処理に係る撮像画像Pb1〜Pbnの一例を模式的に示す図である。また、図9(a)〜図9(c)は、特定の人物について抽出された第1〜第3画像領域A1〜A3を模式的に表し、図9(d)は、合成された合成画像Gを模式的に示す図である。
また、以下に説明する連続撮像処理にあっては、「E」、「F」及び「G」を特定の人物として、第2登録テーブルT2の顔登録フラグが「ON」に設定されているものとし(図6参照)、「E」、「F」及び「G」の前を横切る特定の人物以外の人を単なる通行人Jとして表す。
Next, continuous imaging processing by the imaging apparatus 200 will be described with reference to FIGS.
FIG. 7 is a flowchart illustrating an example of an operation related to continuous imaging processing. However, since the processing flow is the same as that in step S8 of FIG. 3 in the first embodiment, only the differences from the first embodiment will be described in the drawings, and the description will be omitted.
Fig.8 (a)-FIG.8 (d) are figures which show typically an example of the captured images Pb1-Pbn which concern on a continuous imaging process. FIGS. 9A to 9C schematically show the first to third image areas A1 to A3 extracted for a specific person, and FIG. 9D shows a synthesized composite image. It is a figure which shows G typically.
In the continuous imaging process described below, “E”, “F”, and “G” are specific persons, and the face registration flag of the second registration table T2 is set to “ON”. (Refer to FIG. 6), a person other than a specific person crossing in front of “E”, “F”, and “G” is simply represented as a passerby J.

ステップS8において顔検出部5により特定の人物の顔画像の笑顔度を評価値として算出すると、画像選択部6bは、複数の撮像画像P、…の中で、複数の特定の人物の各々について、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pをそれぞれ選択する(ステップS21)。
例えば、図8(a)〜(d)において、「E」、「F」及び「G」を被写体として撮像する際に、当該「E」、「F」及び「G」の前を通行人Jが横切ってしまった場合、特定の人物である「E」については、1枚目〜3枚目の撮像画像Pb1〜Pb3は、顔の笑顔度が所定値未満である。また、同様に、特定の人物である「F」については、2枚目〜n枚目の撮像画像Pb2〜Pbnは、顔の笑顔度が所定値未満である。また、同様に、特定の人物である「G」については、3枚目の撮像画像Pb3及びn枚目の撮像画像Pbnは、顔の笑顔度が所定値未満である。
そこで、画像選択部6bは、「E」の顔の笑顔度が所定値以上の撮像画像としてn枚目の撮像画像Pbn(図8(d)参照)を選択し、また、「F」の顔の笑顔度が所定値以上の撮像画像として1枚目の撮像画像Pb1(図8(a)参照)を選択し、「G」の顔の笑顔度が所定値以上の撮像画像として、1枚目の撮像画像Pb1(図8(a)参照)及び2枚目の撮像画像Pb2(図8(b)参照)を選択する。
When the smile level of the face image of a specific person is calculated as an evaluation value by the face detection unit 5 in step S8, the image selection unit 6b is configured for each of the plurality of specific persons in the plurality of captured images P,. A captured image P having a high smile level of the face calculated by the evaluation value calculation unit b1 is selected (step S21).
For example, in FIGS. 8A to 8D, when “E”, “F”, and “G” are imaged as subjects, a passerby J in front of “E”, “F”, and “G” is used. When “E” is a specific person, the first to third captured images Pb1 to Pb3 of the specific person “E” have a face smile level less than a predetermined value. Similarly, for “F”, which is a specific person, the second to n-th captured images Pb2 to Pbn have facial smiles less than a predetermined value. Similarly, for the specific person “G”, the third captured image Pb3 and the n-th captured image Pbn have face smiles less than a predetermined value.
Therefore, the image selection unit 6b selects the n-th captured image Pbn (see FIG. 8D) as the captured image with the smile degree of the face “E” being a predetermined value or more, and also the face “F”. The first captured image Pb1 (see FIG. 8A) is selected as a captured image having a smile level of “G” greater than or equal to a predetermined value, and the first image is selected as a captured image having a smile level of “G”. The captured image Pb1 (see FIG. 8A) and the second captured image Pb2 (see FIG. 8B) are selected.

続けて、領域抽出部6cは、複数の特定の人物の各々について、画像選択部6bにより選択された顔の笑顔度が高い撮像画像の各々から、各人物が含まれる画像領域Aをそれぞれ選択して、当該各画像領域Aをトリミングして抽出する(ステップS22)。
例えば、領域抽出部6cは、特定の人物である「E」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択されたn枚目の撮像画像Pbnから、「E」が含まれる第1画像領域A1(図9(a)参照)を選択して当該画像領域A1をトリミングする。また、領域抽出部6cは、例えば、特定の人物である「F」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択された1枚目の撮像画像Pb1から、「F」が含まれる第2画像領域A2(図9(b)参照)を選択して当該画像領域A2をトリミングする。また、領域抽出部6cは、例えば、特定の人物である「G」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択された1枚目の撮像画像Pb1若しくは2枚目の撮像画像Pb2から、「G」が含まれる第3画像領域A3(図9(c)参照)を選択して当該画像領域A3をトリミングする。
Subsequently, the area extraction unit 6c selects, for each of a plurality of specific persons, an image area A including each person from each of the captured images selected by the image selection unit 6b and having a high degree of smile on the face. Then, each image area A is trimmed and extracted (step S22).
For example, the region extraction unit 6c calculates “E” from the n-th captured image Pbn selected as the captured image P having a face smile degree of a predetermined value or more by the image selection unit 6b for the specific person “E”. The first image area A1 including “” (see FIG. 9A) is selected and the image area A1 is trimmed. In addition, for example, for the specific person “F”, the region extraction unit 6c uses, from the first captured image Pb1 selected as the captured image P having a face smile degree of a predetermined value or more by the image selection unit 6b. The second image area A2 (see FIG. 9B) including “F” is selected and the image area A2 is trimmed. Further, for example, for the specific person “G”, the region extraction unit 6c selects the first captured image Pb1 or 2 selected as the captured image P having a face smile degree of a predetermined value or more by the image selection unit 6b. A third image area A3 (see FIG. 9C) including “G” is selected from the first captured image Pb2, and the image area A3 is trimmed.

次に、画像生成部6dは、領域抽出部6cにより抽出された複数の画像領域A、…を合成して一の合成画像Gを生成する(ステップS23)。具体的には、画像生成部6dは、「Eさん」が含まれる第1画像領域A1(図9(a)参照)と、「F」が含まれる第2画像領域A2(図9(b)参照)と、「G」が含まれる第3画像領域A3(図9(c)参照)とを合成して、一の合成画像G(図9(d)参照)を生成する。
その後、記録制御部8は、画像生成部6dにより生成された一の合成画像Gを記録画像として、記録媒体Mの所定の記録領域に記録させる(ステップS24)。
これにより、連続撮像処理を終了する。
Next, the image generation unit 6d generates a single combined image G by combining the plurality of image regions A extracted by the region extraction unit 6c (step S23). Specifically, the image generation unit 6d includes a first image area A1 including “Mr. E” (see FIG. 9A) and a second image area A2 including “F” (FIG. 9B). Reference) and the third image region A3 (see FIG. 9C) including “G” are combined to generate one composite image G (see FIG. 9D).
Thereafter, the recording control unit 8 records the single composite image G generated by the image generation unit 6d as a recording image in a predetermined recording area of the recording medium M (step S24).
Thus, the continuous imaging process is finished.

以上のように、実施形態2の撮像装置200によれば、複数の特定の人物の各々について顔(特徴部)の評価値が高い撮像画像を選択し、当該撮像画像の各々から、各特定の人物が含まれる画像領域をそれぞれトリミングして抽出し、この抽出された複数の画像領域同士を合成して一の合成画像を生成するので、複数の特定の人物の各々について満足度の高い画像を記録画像として記録媒体Mに記録させることができる。   As described above, according to the imaging apparatus 200 of the second embodiment, a captured image having a high face (characteristic) evaluation value is selected for each of a plurality of specific persons, and each specific image is selected from each of the captured images. Each image area including a person is trimmed and extracted, and a plurality of extracted image areas are combined to generate a single composite image. Therefore, an image with a high degree of satisfaction is obtained for each of a plurality of specific persons. It can be recorded on the recording medium M as a recorded image.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、連続撮像処理にて撮像された複数の撮像画像P、…のうち、特定の人物の顔が検出されなかった撮像画像Pを画像処理部6の処理対象から除くようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, among the plurality of captured images P,... Captured by the continuous imaging process, the captured image P in which the face of a specific person is not detected may be excluded from the processing target of the image processing unit 6.

即ち、図10に示すように、変形例1の撮像装置100は、連続撮像処理にて撮像された複数の撮像画像P、…の中で、顔登録フラグ(記録指示情報)が登録されている特定の人物の顔が顔検出部5により検出されなかった撮像画像Pを指定する非検出画像指定部6eを画像処理部6に具備している。そして、画像取得部6aは、複数の撮像画像P、…のうち、非検出画像指定部6eにより指定された特定の人物の顔が検出されなかった撮像画像Pを取得しないようになっている。
なお、この変形例1の撮像装置100は、上記した以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。また、当該変形例1は、実施形態1の撮像装置100の変形例として例示したが、実施形態2の撮像装置200の変形例としても良い。
That is, as illustrated in FIG. 10, the imaging apparatus 100 according to the first modification has registered a face registration flag (recording instruction information) among a plurality of captured images P,. The image processing unit 6 includes a non-detected image designating unit 6 e that designates a captured image P in which a face of a specific person has not been detected by the face detecting unit 5. And the image acquisition part 6a does not acquire the captured image P from which the face of the specific person designated by the non-detection image designation | designated part 6e was not detected among the some captured images P ....
Note that the imaging apparatus 100 of the first modification has substantially the same configuration as that of the imaging apparatus 100 of the first embodiment except for the points described above, and a description thereof will be omitted. Moreover, although the said modification 1 was illustrated as a modification of the imaging device 100 of Embodiment 1, it is good also as a modification of the imaging device 200 of Embodiment 2. FIG.

従って、変形例1の撮像装置100によれば、複数の撮像画像P、…の中で、顔登録フラグが登録されている特定の人物の顔が検出されなかった撮像画像Pを画像処理の処理対象として取得しないので、当該画像処理にかかる負荷の軽減や処理速度の向上を図ることができる。   Therefore, according to the imaging apparatus 100 of the first modification, the captured image P in which the face of a specific person whose face registration flag is registered is not detected among the plurality of captured images P,. Since it is not acquired as a target, it is possible to reduce the load on the image processing and improve the processing speed.

また、上記変形例1にあっては、複数の撮像画像P、…の中で、顔登録フラグが登録されていない人(例えば、通行人J等)が特定の人物の前に重なった撮像画像Pを指定して、当該撮像画像Pを画像取得部6aが取得しないようにしても良い。即ち、顔登録フラグが登録されている特定の人物が顔検出部5により検出されずに、顔登録フラグが登録されていない人が顔検出部5により検出された撮像画像Pについては、画像取得部6aは、画像処理部6の処理対象から除くようにしても良い。
このような構成としても、上記変形例1と同様に、当該画像処理にかかる負荷の軽減や処理速度の向上を図ることができる。
Moreover, in the said modification 1, among the some captured images P, ..., the captured image in which the person (for example, passerby J etc.) to whom the face registration flag is not registered overlapped before the specific person. P may be specified so that the captured image P is not acquired by the image acquisition unit 6a. That is, for a captured image P in which a specific person with a registered face registration flag is not detected by the face detecting unit 5 and a person with no registered face registration flag is detected with the face detecting unit 5, image acquisition is performed. The unit 6a may be excluded from the processing target of the image processing unit 6.
Even with such a configuration, similar to the first modification, it is possible to reduce the load on the image processing and improve the processing speed.

また、上記実施形態1、2及び変形例1にあっては、人の特徴部として顔を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、顔の一部のパーツ(例えば、目や口等)や人の体全体を特徴部として評価するようにしても良い。   In the first and second embodiments and the first modification, the face is exemplified as the human characteristic portion. However, the face is an example, and the present invention is not limited thereto, and can be arbitrarily changed as appropriate. For example, a part of the face (for example, eyes and mouth) or the whole human body may be evaluated as the characteristic part.

また、撮像装置100、200の構成は、上記実施形態1、2に例示したものは一例であり、これらに限られるものではない。例えば、撮像画像Pは、当該撮像装置100、200とは異なる外部装置(図示略)で生成し、外部装置から所定の通信回線を介して送信されることで当該撮像装置100、200が取得して特徴部(例えば、顔)の評価値の高い撮像画像Pを選択して記録させる構成としても良い。   In addition, the configurations of the imaging devices 100 and 200 are merely examples illustrated in the first and second embodiments, and are not limited thereto. For example, the captured image P is generated by an external device (not shown) that is different from the imaging devices 100 and 200, and is transmitted from the external device via a predetermined communication line. The captured image P having a high evaluation value of the characteristic part (for example, face) may be selected and recorded.

加えて、上記実施形態にあっては、取得手段、検出手段、算出手段、選択手段としての機能を、中央制御部12の制御下にて、顔検出部5、画像処理部6が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部12によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、検出処理ルーチン、算出処理ルーチン及び選択処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部12のCPUを、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部12のCPUを、取得手段により取得された複数の画像において、メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段として機能させるようにしても良い。また、算出処理ルーチンにより中央制御部12のCPUを、検出手段によって夫々検出された特徴部を、メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段として機能させるようにしても良い。また、選択処理ルーチンにより中央制御部12のCPUを、算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions of the acquisition unit, the detection unit, the calculation unit, and the selection unit are driven by the face detection unit 5 and the image processing unit 6 under the control of the central control unit 12. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 12.
That is, a program memory (not shown) that stores a program stores a program including an acquisition process routine, a detection process routine, a calculation process routine, and a selection process routine. Then, the CPU of the central control unit 12 may function as an acquisition unit that acquires by continuously capturing a plurality of images including a plurality of persons including a specific person by an acquisition process routine. In addition, the CPU of the central control unit 12 may be caused to function as a detection unit that detects each of the feature portions based on the priority stored in the memory in the plurality of images acquired by the acquisition unit by the detection processing routine. good. Further, the CPU of the central control unit 12 is caused to function as a calculation unit that evaluates the feature portions detected by the detection unit based on the feature units stored in the memory and calculates an evaluation value by the calculation processing routine. You may do it. In addition, the CPU of the central control unit 12 may function as a selection unit that selects a captured image to be recorded based on the evaluation value calculated by the calculation unit by a selection processing routine.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

100、200 撮像装置
1 撮像部
2 撮像制御部
5 顔検出部
6 画像処理部
6a 画像取得部
6b 画像選択部
b1 評価値算出部
6c 領域抽出部
6d 画像生成部
6e 非検出画像指定部
7 人物登録データベース
8 記録制御部
12 中央制御部
M 記録媒体
100, 200 Imaging device 1 Imaging unit 2 Imaging control unit 5 Face detection unit 6 Image processing unit 6a Image acquisition unit 6b Image selection unit b1 Evaluation value calculation unit 6c Area extraction unit 6d Image generation unit 6e Non-detection image designation unit 7 Person registration Database 8 Recording control unit 12 Central control unit M Recording medium

Claims (4)

特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段と、
前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶した特徴部記憶手段と、
前記取得手段により取得された複数の画像において、前記特徴部記憶手段に記憶された優先度に基づいて特徴部を夫々検出する検出手段と、
この検出手段によって夫々検出された特徴部を、前記記憶手段に記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段と、
この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段と、
を備えたことを特徴とする画像処理装置。
An acquisition means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
A feature storage unit that stores a plurality of people in association with the priority of the feature of the specific person;
Detecting means for detecting each of the feature parts based on the priority stored in the feature part storage means in the plurality of images obtained by the obtaining means;
Calculating means for evaluating each of the characteristic portions detected by the detecting means based on the characteristic portions stored in the storage means and calculating an evaluation value;
Selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means;
An image processing apparatus comprising:
前記算出手段は、前記特徴部記憶手段に記憶された複数の人物毎に評価値を算出し、
前記選択手段は、
この算出された評価値に基づいて、前記夫々の撮像画像から人物を含む画像領域を抽出する抽出手段と、
この抽出手段によって抽出された画像領域を合成する画像合成手段と、
を含むことにより、記録すべき撮像画像を選択することを特徴とする請求項1記載の画像処理装置。
The calculation means calculates an evaluation value for each of a plurality of persons stored in the feature storage means,
The selection means includes
Extraction means for extracting an image region including a person from each captured image based on the calculated evaluation value;
Image synthesizing means for synthesizing the image areas extracted by the extracting means;
The image processing apparatus according to claim 1, wherein a captured image to be recorded is selected.
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得ステップと、
予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリから優先度を読出し、前記取得ステップにて取得された複数の画像において、この優先度に基づいて特徴部を夫々検出する検出ステップと、
この検出ステップにて夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出ステップと、
この算出ステップにて算出された評価値に基づいて記録すべき撮像画像を選択する選択ステップと、
を含むことを特徴とする画像選択方法。
An acquisition step of acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
The priority is read from a memory in which a feature portion of the specific person is associated with a priority in advance and stored for a plurality of people, and the feature portion is based on the priority in the plurality of images acquired in the acquisition step. Detecting step for detecting each of
A calculation step for evaluating each of the feature portions detected in the detection step based on the feature portions stored in the memory and calculating an evaluation value;
A selection step for selecting a captured image to be recorded based on the evaluation value calculated in the calculation step;
An image selection method comprising:
予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリを備える画像処理装置のコンピュータを、
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段、
この取得手段により取得された複数の画像において、前記メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段、
この検出手段によって夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段、
この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段、
として機能させることを特徴とするプログラム。
A computer of an image processing apparatus including a memory that stores a plurality of persons in association with a priority, and a feature portion of the specific person in advance.
An acquisition means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
In the plurality of images acquired by the acquisition means, detection means for detecting the characteristic portions based on the priorities stored in the memory,
Calculating means for evaluating each of the characteristic portions detected by the detecting means based on the characteristic portions stored in the memory and calculating an evaluation value;
Selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means;
A program characterized by functioning as
JP2010199695A 2010-09-07 2010-09-07 Image processor, image selection method, and program Pending JP2012060292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010199695A JP2012060292A (en) 2010-09-07 2010-09-07 Image processor, image selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199695A JP2012060292A (en) 2010-09-07 2010-09-07 Image processor, image selection method, and program

Publications (2)

Publication Number Publication Date
JP2012060292A true JP2012060292A (en) 2012-03-22
JP2012060292A5 JP2012060292A5 (en) 2013-10-17

Family

ID=46056884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199695A Pending JP2012060292A (en) 2010-09-07 2010-09-07 Image processor, image selection method, and program

Country Status (1)

Country Link
JP (1) JP2012060292A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120044384A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium
CN111382681A (en) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 Face registration method, device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045600A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2007274264A (en) * 2006-03-31 2007-10-18 Casio Comput Co Ltd Camera, best shot shooting method, program
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010028773A (en) * 2008-07-24 2010-02-04 Canon Inc Image processing apparatus, image processing method and program
JP2010034685A (en) * 2008-07-25 2010-02-12 Nikon Corp Digital camera
JP2010045421A (en) * 2008-08-08 2010-02-25 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2010187208A (en) * 2009-02-12 2010-08-26 Nikon Corp Electronic still camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045600A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2007274264A (en) * 2006-03-31 2007-10-18 Casio Comput Co Ltd Camera, best shot shooting method, program
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010028773A (en) * 2008-07-24 2010-02-04 Canon Inc Image processing apparatus, image processing method and program
JP2010034685A (en) * 2008-07-25 2010-02-12 Nikon Corp Digital camera
JP2010045421A (en) * 2008-08-08 2010-02-25 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2010187208A (en) * 2009-02-12 2010-08-26 Nikon Corp Electronic still camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120044384A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium
US8625000B2 (en) * 2010-08-18 2014-01-07 Canon Kabushiki Kaisha Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium
US9060158B2 (en) 2010-08-18 2015-06-16 Canon Kabushiki Kaisha Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium
CN111382681A (en) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 Face registration method, device and storage medium
CN111382681B (en) * 2020-02-28 2023-11-14 浙江大华技术股份有限公司 Face registration method, device and storage medium

Similar Documents

Publication Publication Date Title
JP5939705B2 (en) Subject determination device, subject determination method, and program
JP5880182B2 (en) Image generating apparatus, image generating method, and program
JP4902562B2 (en) Imaging apparatus, image processing apparatus, control method, and program
US8989504B2 (en) Image processing device that renews identification information of specific subject
JP5966778B2 (en) Imaging apparatus, imaging method, and program
US20100188520A1 (en) Imaging device and storage medium storing program
JP4868046B2 (en) Image processing apparatus, image processing method, and program
JP5949030B2 (en) Image generating apparatus, image generating method, and program
CN102542251B (en) Object detection device and subject detection method
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2019169985A (en) Image processing apparatus
JP5272797B2 (en) Digital camera
JP2012060292A (en) Image processor, image selection method, and program
JP5530548B2 (en) Facial expression database registration method and facial expression database registration apparatus
JP5029765B2 (en) Image data generation apparatus and image data generation method
JP5740934B2 (en) Subject detection apparatus, subject detection method, and program
JP5807695B2 (en) Subject detection apparatus, subject detection method, and program
JP2010226485A (en) Image processing apparatus and digital camera
JP5927972B2 (en) Image generating apparatus, image generating method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2013201662A (en) Image reproduction device and imaging device
JP2012009980A (en) Image processing apparatus, image processing method and program
JP2013157030A (en) Imaging method and imaging apparatus
JP2014186404A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007