JP2012060292A - Image processor, image selection method, and program - Google Patents
Image processor, image selection method, and program Download PDFInfo
- Publication number
- JP2012060292A JP2012060292A JP2010199695A JP2010199695A JP2012060292A JP 2012060292 A JP2012060292 A JP 2012060292A JP 2010199695 A JP2010199695 A JP 2010199695A JP 2010199695 A JP2010199695 A JP 2010199695A JP 2012060292 A JP2012060292 A JP 2012060292A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- unit
- evaluation value
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行う。
【解決手段】撮像装置100であって、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する画像取得部6aと、特定の人物が有する特徴部(顔画像)を優先度と対応付けて複数の人物について記憶した人物登録DB7(第1登録テーブルT1)と、画像取得部により取得された複数の画像において、人物登録に記憶された優先度に基づいて特徴部(顔画像)を夫々検出する顔検出部5と、この顔検出部によって夫々検出された特徴部(顔画像)を、第1登録テーブルに記憶されている特徴部(顔画像)に基づいて夫々笑顔度を評価し、評価値を算出する評価値算出部b1と、この評価値算出部によって算出された評価値に基づいて記録すべき撮像画像を選択する画像選択部6bとを備える。
【選択図】図1An object of the present invention is to appropriately perform selection processing of an image in which a specific person exists in a plurality of images captured continuously.
An imaging apparatus 100 includes an image acquisition unit 6a that acquires a plurality of images including a plurality of persons including a specific person in succession, and a characteristic section (face image) of the specific person. ) And a person registration DB 7 (first registration table T1) stored for a plurality of persons in association with priorities, and a plurality of images acquired by the image acquisition unit based on the priority stored in the person registration The face detection unit 5 that detects each part (face image) and the feature parts (face images) detected by the face detection unit based on the feature parts (face images) stored in the first registration table Each includes an evaluation value calculation unit b1 that evaluates a smile level and calculates an evaluation value, and an image selection unit 6b that selects a captured image to be recorded based on the evaluation value calculated by the evaluation value calculation unit.
[Selection] Figure 1
Description
本発明は、画像処理装置、画像選択方法、及び、プログラムに関し、特に連続的に撮影された画像から記録に適する画像の選択技術に関する。 The present invention relates to an image processing apparatus, an image selection method, and a program, and more particularly, to an image selection technique suitable for recording from continuously captured images.
複数の顔が存在する画像の撮像を試みる場合、全てが瞬きをせず、且つ、笑顔となっている状態の撮像は容易ではない。そこで、従来技術として連続して撮像されている複数の画像の中で各人ごとに最も良い顔の画像を選択して、それらを一枚に合成する技術が知られている(例えば、特許文献1及び2参照)。 When attempting to capture an image having a plurality of faces, it is not easy to capture an image in which all of the faces do not blink and are smiling. Therefore, as a conventional technique, a technique is known in which the best face image is selected for each person from a plurality of images that are continuously captured, and these are combined into one sheet (for example, Patent Documents). 1 and 2).
しかしながら、上記特許文献1、2の技術にあっては、一の画像内に存在する全ての人について満足度の高い画像を得ようとすると、人数が増えるに従って連続撮像枚数が増加してしまう虞がある。そしてこのような場合、連続して撮像された画像を一時的に記憶するためのメモリの容量を十分に確保しなくてはならないといった問題もある。
However, in the techniques of
そこで、本願発明は、上記問題点に鑑みてなされたものであり、連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行うことができる画像処理装置、画像選択方法、及び、プログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, and an image processing apparatus and an image that can appropriately perform selection processing of an image in which a specific person exists in a plurality of images captured continuously. It is an object to provide a selection method and a program.
上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段と、前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶した特徴部記憶手段と、前記取得手段により取得された複数の画像において、前記特徴部記憶手段に記憶された優先度に基づいて特徴部を夫々検出する検出手段と、この検出手段によって夫々検出された特徴部を、前記記憶手段に記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段と、この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段と、を備えたことを特徴としている。
In order to solve the above problem, an image processing apparatus according to
Acquiring means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images, and a characteristic unit that stores a plurality of persons in association with a priority of a characteristic unit of the specific person A storage unit; a detection unit that detects each of the feature parts based on the priority stored in the feature unit storage unit in the plurality of images acquired by the acquisition unit; and a feature unit that is detected by the detection unit. Calculating means for calculating the evaluation value based on the characteristic part stored in the storage means, and selecting means for selecting the captured image to be recorded based on the evaluation value calculated by the calculation means It is characterized by having.
請求項2に記載の発明は、請求項1記載の画像処理装置において、
前記算出手段は、前記特徴部記憶手段に記憶された複数の人物毎に評価値を算出し、前記選択手段は、この算出された評価値に基づいて、前記夫々の撮像画像から人物を含む画像領域を抽出する抽出手段と、この抽出手段によって抽出された画像領域を合成する画像合成手段と、を含むことにより、記録すべき撮像画像を選択することを特徴としている。
The invention according to
The calculating means calculates an evaluation value for each of a plurality of persons stored in the feature storage means, and the selecting means is an image including a person from each captured image based on the calculated evaluation values. It is characterized by selecting a captured image to be recorded by including an extracting means for extracting an area and an image synthesizing means for synthesizing the image areas extracted by the extracting means.
請求項3に記載の発明の画像選択方法は、
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得ステップと、予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリから優先度を読出し、前記取得ステップにて取得された複数の画像において、この優先度に基づいて特徴部を夫々検出する検出ステップと、この検出ステップにて夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出ステップと、この算出ステップにて算出された評価値に基づいて記録すべき撮像画像を選択する選択ステップと、を含むことを特徴としている。
The image selection method of the invention described in
An acquisition step of acquiring a plurality of images including a specific person by continuously capturing a plurality of images, and a memory that stores in advance a feature portion of the specific person associated with a priority and stored for the plurality of persons The detection step of detecting the feature portion based on the priority in the plurality of images acquired in the acquisition step, and the feature portion detected in the detection step respectively in the memory And a calculation step for calculating an evaluation value and a selection step for selecting a captured image to be recorded based on the evaluation value calculated in the calculation step. It is characterized by that.
請求項4に記載の発明のプログラムは、
予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリを備える画像処理装置のコンピュータを、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段、この取得手段により取得された複数の画像において、前記メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段、この検出手段によって夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段、この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段、として機能させることを特徴としている。
The program of the invention according to
A computer of an image processing apparatus including a memory in which a feature portion of the specific person is previously associated with a priority and stored for the plurality of persons is continuously picked up by a plurality of images including the plurality of persons including the specific person. Acquisition means for acquiring the detection means, detection means for detecting the characteristic portions based on the priority stored in the memory in the plurality of images acquired by the acquisition means, and the characteristic portions detected by the detection means, respectively. Are calculated based on the characteristic parts stored in the memory, and a calculation means for calculating an evaluation value, a selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means, It is characterized by functioning.
本発明によれば、連続して撮像された複数の画像において、特定の人物の存する画像の選択処理を適正に行うことができる。 ADVANTAGE OF THE INVENTION According to this invention, the selection process of the image which a specific person exists in the several image imaged continuously can be performed appropriately.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
実施形態1の撮像装置100は、連続して撮像された複数の撮像画像の中で、予め用意された人物登録データベースに登録されている特定の人物の特徴部(顔)の評価値が高い撮像画像を選択し、この選択された撮像画像を記録画像として記録媒体に記録させる。
以下、上記の方法を具体的に記載する。
図1は、実施形態1における撮像装置100の概略構成を示すブロック図である。同図に示すように、撮像装置100は、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、顔検出部5と、画像処理部6と、人物登録データベース(DB)7と、記録制御部8と、表示制御部9と、表示部10と、操作入力部11と、中央制御部12とを備えている。
[Embodiment 1]
The
The above method will be specifically described below.
FIG. 1 is a block diagram illustrating a schematic configuration of an
撮像部1は、レンズ部1aと、電子撮像部1bとを備えている。
レンズ部1aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部1bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部1は、レンズ部1aを通過する光の量を調整する絞りを備えていても良い。
The
The
The
In addition, although illustration is abbreviate | omitted, the
撮像制御部2は、撮像部1による被写体の撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部1bを走査駆動して、所定周期毎に光学像を電子撮像部1bにより二次元の画像信号に変換させ、当該電子撮像部1bの撮像領域から1画面分ずつ画像フレーム(撮像画像P)を読み出して画像データ生成部3に出力させる。
ここで、被写体とは、所定の背景内に存する特定の人物を含む複数の人(図4(a)等参照)のことである。具体的には、人物登録DB7に登録されている第1登録テーブルT1(図2参照)の顔登録フラグが「ON」となっている人物(例えば、「A」や「B」等)を特定の人物とし、当該特定の人物の少なくとも一人と特定の人物以外の少なくとも一人(例えば、「C」、「D」等)とを被写体としている。
The
Here, the subject means a plurality of persons (see FIG. 4A, etc.) including a specific person existing in a predetermined background. Specifically, a person whose face registration flag is “ON” in the first registration table T1 (see FIG. 2) registered in the person registration DB 7 (for example, “A”, “B”, etc.) is specified. The subject is at least one of the specific persons and at least one other than the specific person (for example, “C”, “D”, etc.).
このように、撮像部1及び撮像制御部2は、背景内に特定の人物を含む複数の人が存する画像を連続して撮像して、複数(例えば、n枚;nは自然数)の撮像画像Pa1〜Pan(図4(a)〜図4(d)等参照)の画像フレームを逐次生成する。
なお、撮像画像Pa1〜Panは、複数の静止画像であっても良いし、動画像を構成する複数の画像フレームであっても良い。
As described above, the
Note that the captured images Pa1 to Pan may be a plurality of still images or a plurality of image frames constituting a moving image.
また、撮像制御部2は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
ここで、撮像画像Pの画像フレーム内から人の顔が検出された場合には、撮像制御部2は、当該顔が含まれる領域をAF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)の基準領域として、AF(自動合焦処理)やAE(自動露出処理)やAWB(自動ホワイトバランス)等を行うようにしても良い。
Further, the
Here, when a human face is detected from the image frame of the captured image P, the
画像データ生成部3は、電子撮像部1bから転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a
メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、顔検出部5、画像処理部6、中央制御部12等によって処理されるデータ等を一時記憶する。
The
顔検出部5は、撮像部1により連続して撮像された複数の撮像画像P、…の各々から、所定の顔検出方法を用いて特定の人物の顔を検出する。
即ち、顔検出部5は、複数(例えば、n枚)の撮像画像Pa1〜Panの画像フレームの各々について、当該画像フレーム内から特定の人物を含む複数の人の顔を特徴部として検出する。具体的には、例えば、顔検出部5は、撮像部1によるライブビュー画像の撮像により生成された複数の撮像画像P、…の画像フレームをメモリ4から逐次取得して、各画像フレーム内から顔画像領域を検出し、検出された各領域内から目、鼻、口等に相当する顔パーツを逐次検出する。なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
そして、顔検出部5は、各撮像画像P(例えば、撮像画像Pa1等)から検出された人の顔が、人物登録DB7の第1登録テーブルT1に顔登録フラグが登録されている特定の人物(例えば、「A」等)の顔画像と一致するか否かを判定する。具体的には、顔検出部5は、例えば、第1登録テーブルT1を参照して、顔登録フラグが登録されている特定の人物の顔画像をテンプレートとして取得する。そして、顔検出部5は、複数の撮像画像P、…の各々について、特定の人物のテンプレートとして取得した顔画像が検出された顔と一致するか否かを判定する。顔検出部5は、当該判定の結果、テンプレートとして取得した顔画像と一致すると判定された顔を特定の人物の顔と認識する。
このように、顔検出部5は、撮像部1により連続して撮像された複数の撮像画像P、…の各々から、顔登録フラグ(記録指示情報)が登録されている特定の人物の顔を特徴部として検出する。
The
That is, the
Then, the
In this way, the
画像処理部6は、画像取得部6aと、画像選択部6bとを具備している。
The
画像取得部6aは、連続して撮像された複数の撮像画像P、…を取得する。
即ち、画像取得部6aは、撮像部1により所定の撮像フレームレートで撮像された複数の撮像画像P、…をそれぞれ取得する。具体的には、撮像部1によって所定の背景内に存する特定の人物(例えば、「A」等)を含む複数の人(図4(a)等参照)を被写体として、連続して撮像された複数(例えば、n枚)の撮像画像Pa1〜Panの画像フレームのYUVデータを取得する。
このように、画像取得部6aは、連続して撮像された背景内に特定の人物を含む複数の人が存する複数の撮像画像P、…を取得する。
The
That is, the
In this way, the
画像選択部6bは、画像取得部6aにより取得された複数の撮像画像P、…の中で、特定の人物(例えば、「A」等)について顔(特徴部)の評価値が高い撮像画像Pを選択する。具体的には、画像選択部6bは、特定の人物について顔の笑顔度を評価値として算出する評価値算出部b1を具備しており、複数の撮像画像P、…の中で、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。
The
評価値算出部b1は、画像取得部6aにより取得された複数の撮像画像P、…内に存する特定の人物について顔の笑顔度を評価値として算出する。
即ち、評価値算出部b1は、複数の撮像画像P、…のうち、顔検出部5により特定の人物(例えば、「A」等)の顔が検出された撮像画像Pについて、当該特定の人物の顔の笑顔度を評価値として算出する。具体的には、例えば、評価値算出部b1は、特定の人物の顔から目を検出して、黒目の顔全体に対する大きさに応じて笑顔度を数値化する。また、例えば、評価値算出部b1は、特定の人物の顔から口を検出して、口角の上がり具合いや口の開き具合い等に応じて笑顔度を数値化する。そして、評価値算出部b1は、黒目や口角について数値化された笑顔度を統合して、特定の人物の顔の総合的な笑顔度を算出する。
なお、評価値算出部b1による特定の人物の顔(特徴部)の評価値の算出方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、目や口の他に、眉毛の傾き度合い、眉間や目尻の皺の寄せ度合い等を利用して、特定の人物の顔の評価値を算出しても良い。また、顔の笑顔度を評価値として算出するようにしたが、評価内容は一例であってこれに限られるものではなく、適宜任意に変更可能である。
このように、評価値算出部b1は、特定の人物について顔の笑顔度を評価値として算出する。
The evaluation value calculation unit b1 calculates the smile level of the face as an evaluation value for a specific person existing in the plurality of captured images P acquired by the
That is, the evaluation value calculation unit b1 selects the specific person with respect to the captured image P in which the face of the specific person (for example, “A”) is detected by the
Note that the method of calculating the evaluation value of the face (feature part) of a specific person by the evaluation value calculation unit b1 is an example, and is not limited thereto, and can be arbitrarily changed as appropriate. For example, the evaluation value of the face of a specific person may be calculated using the degree of inclination of eyebrows, the degree of eyebrows between the eyebrows and the corners of the corners of the eye in addition to the eyes and mouth. Further, the smile level of the face is calculated as the evaluation value. However, the evaluation content is an example and is not limited to this, and can be arbitrarily changed as appropriate.
As described above, the evaluation value calculation unit b1 calculates the smile level of the face for the specific person as the evaluation value.
そして、画像選択部6bは、評価値算出部b1による評価結果に基づいて、複数の撮像画像P、…の中で、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。具体的には、第1登録テーブルT1に特定の人物が一人登録されている場合には、画像選択部6bは、顔検出部5により特定の人物の顔が検出された撮像画像Pの中で、評価値算出部b1により算出された笑顔度が最も高い撮像画像Pを選択する。即ち、画像選択部6bは、記録媒体Mに記録される記録画像として、評価値算出部b1により算出された笑顔度が最も高い撮像画像Pを選択する。
Then, based on the evaluation result by the evaluation value calculation unit b1, the
また、画像選択部6bは、第1登録テーブルT1に顔登録フラグと対応付けて登録されている優先度に基づいて、複数の特定の人物のうち、何れか一の特定の人物の顔の評価値が高い撮像画像Pを選択する。即ち、第1登録テーブルT1に複数の特定の人物が登録されている場合には、画像選択部6bは、顔登録フラグと対応付けて登録されている優先度を参照して、複数の特定の人物のうち、当該優先度の最も高い特定の人物(例えば、「A」)について顔の笑顔度が最も高い撮像画像Pを選択する。
なお、優先度が次に高い特定の人物(例えば、「B」)については、例えば、優先度の最も高い特定の人物について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、優先度が次に高い特定の人物について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。
In addition, the
For a specific person with the second highest priority (for example, “B”), for example, for a specific person with the highest priority, a plurality of captured images P having a face smile degree of a predetermined value or more are selected. ... Among the plurality of captured images P,..., The captured image P having the highest face smile degree may be selected for a specific person having the second highest priority.
さらに、特定の人物以外の人(例えば、「C」や「D」)についても、同様に、例えば、特定の人物について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、特定の人物以外の人のうち、優先度が最も高い人について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。また、第1登録テーブルT1に特定の人物以外の人が複数登録されている場合には、当該特定の人物以外の人の中で、優先度が最も高い人について顔の笑顔度が所定値以上の撮像画像Pを複数選択しておき、当該複数の撮像画像P、…の中で、特定の人物以外の人のうち、優先度が次に高い人について顔の笑顔度が最も高い撮像画像Pを選択するようにしても良い。 Further, for a person other than a specific person (for example, “C” and “D”), for example, for a specific person, a plurality of captured images P having a face smile degree of a predetermined value or more are selected. Among the plurality of picked-up images P,..., A picked-up image P having the highest face smile degree may be selected for the person with the highest priority among persons other than the specific person. When a plurality of people other than the specific person are registered in the first registration table T1, the smile level of the face is greater than or equal to a predetermined value for the person with the highest priority among those other than the specific person. A plurality of captured images P are selected, and among the plurality of captured images P,..., The captured image P having the highest face smile degree for a person with the second highest priority among persons other than a specific person. May be selected.
このように、画像選択部6bは、複数の撮像画像P、…の中で、顔登録フラグが登録されている特定の人物について顔検出部5により検出された顔(特徴部)の評価値が高い撮像画像Pを選択する。
As described above, the
人物登録DB7は、特定の人物の顔登録フラグを登録する第1登録テーブルT1(図2参照)を記憶している。
ここで、第1登録テーブルT1について図2を参照して説明する。
The
Here, the first registration table T1 will be described with reference to FIG.
図2に示すように、第1登録テーブルT1は、人物の名前(例えば、「A」、「B」、「C」、「D」等)と、各人物の顔画像(実体の画像データ)f1〜f4と、顔登録フラグと、優先度とを対応付けて記憶している。
顔登録フラグとは、背景内に特定の人物の存する撮像画像Pの記録指示に係る記録指示情報である。即ち、顔登録フラグは、連続して撮像された複数の撮像画像P、…の中で、背景内に特定の人物の存する撮像画像Pを他の撮像画像Pに対して優先的に記録媒体Mに記録させる指示情報である。また、顔登録フラグは、複数の特定の人物と対応付けて登録されている。具体的には、例えば、「A」及び「B」の顔登録フラグが「ON」に設定され、当該人物が特定の人物となる。これにより、複数の撮像画像P、…の中で、特定の人物である「A」や「B」の顔画像f1、f2が存する撮像画像Pの他の撮像画像Pに対する優先的な記録が指示される。
また、例えば、「C」及び「D」の顔登録フラグは「OFF」に設定され、当該人物は特定の人物以外の人となる。これにより、当該特定の人物以外の人である「C」や「D」のの顔画像f3、f4が存する撮像画像Pの他の撮像画像Pに対する優先的な記録は指示されていない。
なお、特定の人物として、例えば、「A」及び「B」の二人を例示したが、特定の人物の数は一例であってこれに限られるものではなく、少なくとも一人設定されていれば適宜任意に変更可能である。同様に、特定の人物以外の人として、例えば、「C」及び「D」の二人を例示したが、特定の人物以外の人の数は一例であってこれに限られるものではなく、少なくとも一人設定されていれば適宜任意に変更可能である。
As shown in FIG. 2, the first registration table T <b> 1 includes names of persons (for example, “A”, “B”, “C”, “D”, etc.) and face images of each person (substance image data). f1 to f4, face registration flags, and priorities are stored in association with each other.
The face registration flag is recording instruction information related to an instruction to record a captured image P having a specific person in the background. That is, the face registration flag preferentially records a captured image P having a specific person in the background among other captured images P,... Is instruction information to be recorded. The face registration flag is registered in association with a plurality of specific persons. Specifically, for example, “A” and “B” face registration flags are set to “ON”, and the person becomes a specific person. Accordingly, preferential recording of the captured image P in which the face images f1 and f2 of the specific person “A” and “B” exist among the plurality of captured images P,. Is done.
For example, the face registration flags “C” and “D” are set to “OFF”, and the person is a person other than the specific person. As a result, preferential recording on the other captured image P of the captured image P in which the face images f3 and f4 of “C” and “D” that are people other than the specific person exist is not instructed.
In addition, although two persons of “A” and “B” are illustrated as specific persons, for example, the number of specific persons is not limited to this, and may be appropriately set if at least one person is set. It can be changed arbitrarily. Similarly, as the person other than the specific person, for example, two people of “C” and “D” are illustrated, but the number of persons other than the specific person is an example and is not limited to this. If one person is set, it can be arbitrarily changed.
また、優先度とは、撮像画像Pの記録媒体Mに対する記録の人物毎の優先度を表すものである。例えば、優先度は、第1登録テーブルT1に登録されている全ての人物、即ち、特定の人物及びそれ以外の人物について、各人物の存する撮像画像Pの記録媒体Mに対する記録の優先度を表している。具体的には、例えば、数値が大きいほど優先度が高くなっており、図2にあっては、「A」の顔画像f1の存する撮像画像Pの記録が最も優先され、次いで、「B」の顔画像f2の存する撮像画像P、「D」の顔画像f4の存する撮像画像P、「C」の顔画像f3の存する撮像画像Pの順となっている。
なお、第1登録テーブルT1に登録されている全ての人物について優先度が登録されたものを例示したが、一例であってこれに限られるものではなく、少なくとも特定の人物について登録されていれば良い。
The priority represents the priority for each person who records the captured image P on the recording medium M. For example, the priority represents the priority of recording on the recording medium M of the captured image P in which each person exists for all persons registered in the first registration table T1, that is, a specific person and other persons. ing. Specifically, for example, the higher the numerical value, the higher the priority. In FIG. 2, the highest priority is given to the recording of the captured image P in which the face image f1 of “A” exists, and then “B”. The captured image P in which the face image f2 exists, the captured image P in which the face image f4 “D” exists, and the captured image P in which the face image f3 “C” exists exist in this order.
In addition, although what registered the priority about all the persons registered into 1st registration table T1 was illustrated, it is an example and it is not restricted to this, If it is registered about at least a specific person good.
このように、人物登録DB7は、特定の人物の顔画像の画像データが存する撮像画像Pの記録指示に係る顔登録フラグ(記録指示情報)を登録している。
なお、第1登録テーブルT1の各人物の顔画像f1〜f4は、顔検出処理や顔認識処理に利用されても良い。
As described above, the
The face images f1 to f4 of each person in the first registration table T1 may be used for face detection processing and face recognition processing.
記録制御部8は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
具体的には、記録制御部8は、連続して撮像された複数の撮像画像P1、P2、P3…の中で、画像選択部6bにより選択されたもの、即ち、顔登録フラグが登録されている特定の人物(例えば、「A」等)について顔の笑顔度(評価値)が高いものを記録画像として選択し、記録媒体Mに記録させる。
このように、記録制御部8は、画像選択部6bにより選択された撮像画像Pを記録画像として記録媒体Mに記録させる。
The
Specifically, the
As described above, the
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。 The recording medium M is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium M is an example and is not limited to this, and can be arbitrarily changed as appropriate.
表示制御部9は、メモリ4に一時的に記憶されている表示用の画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている(何れも図示略)。そして、デジタルビデオエンコーダは、中央制御部12の制御下にてメモリ4から読み出されてVRAMに記録されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
The
Specifically, the
表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいて電子撮像部1bにより撮像された画像などを表示画面に表示する。具体的には、表示部10は、静止画撮像モードや動画撮像モードにて、撮像部1による被写体の撮像により生成された複数の画像フレームを所定のフレームレートで逐次更新しながらライブビュー画像を表示する。
The
操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定用ボタン、ズーム量の調整指示に係るズームボタン等を備え(何れも図示略)、これらのボタンの操作に応じて所定の操作信号を中央制御部12に出力する。
The
中央制御部12は、撮像装置100の各部を制御するものである。具体的には、中央制御部12は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による連続撮像処理について、図3及び図4を参照して説明する。
図3は、連続撮像処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(d)は、連続撮像処理に係る撮像画像Pa1〜Panの一例を模式的に示す図である。
Next, the continuous imaging process by the
FIG. 3 is a flowchart illustrating an example of an operation related to continuous imaging processing. FIGS. 4A to 4D are diagrams schematically illustrating examples of captured images Pa1 to Pan related to the continuous imaging process.
連続撮像処理は、ユーザによる操作入力部11の選択決定用ボタン(図示略)の所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から連続撮像モードが選択指示された場合に実行される処理である。
なお、以下に説明する連続撮像処理にあっては、「A」、「B」、「C」及び「D」を被写体として撮像するものとする。また、「A」及び「B」は第1登録テーブルT1の顔登録フラグが「ON」に設定されているものとする(図2参照)。
The continuous imaging process is performed when a continuous imaging mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of a selection determination button (not shown) of the
In the continuous imaging process described below, “A”, “B”, “C”, and “D” are imaged as subjects. In addition, “A” and “B” assume that the face registration flag of the first registration table T1 is set to “ON” (see FIG. 2).
図3に示すように、先ず、表示制御部9は、撮像部1及び撮像制御部2による撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させる(ステップS1)。
次に、顔検出部5は、撮像部1によるライブビュー画像の撮像により生成された複数の撮像画像P1、P2、P3、…の画像フレームをメモリ4から逐次取得して、各画像フレーム内から所定の顔検出方法を用いて人の顔画像を検出する(ステップS2)。続けて、顔検出部5は、各撮像画像Pから検出された人の顔画像から、第1登録テーブルT1に顔登録フラグが「ON」で登録されている顔画像、すなわち、特定の人物として登録されている顔画像が検出されたか否かを判定する(ステップS3)。
As shown in FIG. 3, first, the
Next, the
ステップS3にて、特定の人物の顔画像が検出されたと判定されると(ステップS3;YES)、表示制御部9は、第1登録テーブルT1を参照して、この顔画像と対応付けられて登録されている人物の名前(例えば、「A」、「B」等)をライブビュー画像と共に表示させる(ステップS4)。
その後、中央制御部12は、ユーザによる操作入力部11のシャッタボタン(図示略)の所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。また、ステップS3にて、特定の人物の顔画像が検出されていないと判定された場合(ステップS3;NO)にも、中央制御部12は、処理をステップS5に移行して、撮像指示が入力されたか否かを判定する(ステップS5)。
If it is determined in step S3 that a face image of a specific person has been detected (step S3; YES), the
Thereafter, the
ステップS5にて、撮像指示が入力されていないと判定されると(ステップS5;NO)、中央制御部12は、処理をステップS2に移行して、それ以降の処理を実行する。
一方、ステップS5にて、撮像指示が入力されたと判定されると(ステップS5;YES)、撮像制御部2は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整して、被写体の光学像を電子撮像部1bに所定の撮像フレームレートで連続して撮像させる(ステップS6)。続けて、画像データ生成部3は、連続撮像により電子撮像部1bから逐次転送された複数(例えば、n枚)の撮像画像Pa1〜Panの各々のYUVデータを生成する(ステップS7)。
If it is determined in step S5 that an imaging instruction has not been input (step S5; NO), the
On the other hand, if it is determined in step S5 that an imaging instruction has been input (step S5; YES), the
次に、画像処理部6の画像取得部6aは、生成された複数の撮像画像Pa1〜PanのYUVデータを取得した後、画像選択部6bの評価値算出部b1は、複数の撮像画像Pa1〜Panのうち、顔検出部5により特定の人物の顔画像が検出されたもの(複数)について、当該顔画像の画像データにおける笑顔度を評価値として夫々算出する(ステップS8)。具体的には、評価値算出部b1は、例えば、顔検出部5により特定の人物である「A」及び「B」の顔画像が検出された複数の撮像画像Pa1〜Panについて、当該特定の人物の顔の笑顔度を夫々算出する。
Next, after the
次に、画像選択部6bは、第1登録テーブルT1の顔登録フラグと対応付けて登録されている優先度を参照して、優先度の最も高い特定の人物(例えば、「A」)について顔画像における笑顔度が最も高い撮像画像Pを複数選択する(ステップS9)。ここで、本実施形態1では、図2を参照すると第1登録テーブルT1に顔登録フラグが「ON」に設定されている人数は二人(すなわち複数)なので、優先度の最も高い人物について顔画像の笑顔度が所定値以上の複数の撮像画像Pを候補として先ず選択しておき、この複数選択された撮像画像Pの中から当該複数の撮像画像Pa1〜Panの中で、優先度が次に高い特定の人物(例えば、「B」)について顔画像の笑顔度が最も高い撮像画像Pを選択する。
Next, the
例えば、1枚目の撮像画像Pa1(図4(a)参照)にあっては、「A」の顔画像の笑顔度が所定値以上であると評価されるが、特定の人物である「B」の顔画像の笑顔度が所定値未満であると評価される。また、2枚目の撮像画像Pa2(図4(b)参照)及びn枚目の撮像画像Pan(図4(d)参照)にあっては、特定の人物である「A」及び「B」の顔画像の笑顔度がともに所定値以上であると評価される。また、3枚目の撮像画像Pa3(図4(c)参照)にあっては、特定の人物である「A」の顔画像の笑顔度が所定値未満であり、特定の人物である「B」の顔画像の笑顔度が所定値以上であると評価される。
一方、特定の人物以外の人(例えば、「C」、「D」等)については、優先度のみを考慮して撮像画像Pを選択する。つまり、3枚目の撮像画像Pa3は、顔画像の笑顔度がともに所定値以上であると評価されているが、特定の人物については笑顔度が所定値未満であるため選択されない。
このように上記の場合には、特定の人物であり且つ優先度の最も高い「A」の顔の笑顔度が所定値以上であり、特定の人物である「B」の顔の笑顔度が所定値以上である撮像画像Pa2及びn枚目の撮像画像Panが候補として選択され、更に、これらの候補のうち、上記特定の人物以外の人の中で優先度の最も高い「D」の笑顔度が所定値以上である撮像画像Pa2が、画像選択部6bにより選択される。
For example, in the first captured image Pa1 (see FIG. 4A), the smile degree of the face image “A” is evaluated to be greater than or equal to a predetermined value, but the specific person “B” Is evaluated to be less than a predetermined value. In the second captured image Pa2 (see FIG. 4B) and the nth captured image Pan (see FIG. 4D), “A” and “B” which are specific persons. It is evaluated that both the smile levels of the face images are greater than or equal to a predetermined value. Further, in the third captured image Pa3 (see FIG. 4C), the smile degree of the face image of the specific person “A” is less than a predetermined value, and the specific person “B” It is evaluated that the smile degree of the face image “” is greater than or equal to a predetermined value.
On the other hand, for a person other than a specific person (for example, “C”, “D”, etc.), the captured image P is selected considering only the priority. That is, the third captured image Pa3 is evaluated not to be selected because the smile level of the face image is both equal to or higher than a predetermined value, but the smile level is less than the predetermined value for a specific person.
As described above, in the above case, the smile level of the face “A” that is a specific person and has the highest priority is equal to or higher than a predetermined value, and the smile level of the face “B” that is the specific person is predetermined. The picked-up image Pa2 and the n-th picked-up image Pan that are greater than or equal to the value are selected as candidates, and among these candidates, the smile level of “D” having the highest priority among those other than the specific person The picked-up image Pa2 in which is equal to or greater than a predetermined value is selected by the
その後、記録制御部8は、画像選択部6bにより選択された2枚目の撮像画像Pa2を記録画像として、記録媒体Mの所定の記録領域に記録させる(ステップS12)。
これにより、連続撮像処理を終了する。
Thereafter, the
Thus, the continuous imaging process is finished.
以上のように、実施形態1の撮像装置100によれば、連続して撮像された複数の撮像画像中で、顔登録フラグが人物登録データベース7に登録されている特定の人物の特徴部(顔)の評価値が高い撮像画像を選択するので、一の撮像画像内に存する複数の人のうち、少なくとも特定の人物(例えば、「A」等)について良い表情が得られ、且つ、他の人物についても比較的良い表情の撮像画像Pを選択することができる。また、笑顔(良い表情)であるか否かを厳密に重視しなくても良い特定の人物以外の人については、特徴部(顔)の評価を行う必要がなくなるので、連続撮像枚数の増加を招くことが無い。
As described above, according to the
[実施形態2]
以下に、実施形態2の撮像装置200について図5〜図9を参照して説明する。
実施形態2は、複数の特定の人物の各々について顔(特徴部)の評価値が高い撮像画像を選択し、当該撮像画像の各々から、各特定の人物が含まれる画像領域をそれぞれ抽出して、抽出された複数の画像領域同士を合成して一の合成画像を生成し記録媒体に記録させる。
なお、実施形態2の撮像装置200は、以下に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。
[Embodiment 2]
Hereinafter, the
In the second embodiment, a captured image with a high evaluation value of a face (feature part) is selected for each of a plurality of specific persons, and an image region including each specific person is extracted from each of the captured images. Then, the plurality of extracted image areas are synthesized with each other to generate one synthesized image and record it on the recording medium.
Note that the
図5は、本発明を適用した実施形態2の撮像装置200の概略構成を示すブロック図である。
図5に示すように、実施形態2の撮像装置200は、人物登録DB7に第2登録テーブルT2(図6参照)が記憶されている。
FIG. 5 is a block diagram illustrating a schematic configuration of the
As illustrated in FIG. 5, in the
第2登録テーブルT2は、図6に示すように、人物の名前(例えば、「E」、「F」及び「G」等)と、各人物の顔画像(実体は画像データ)f5〜f7と、顔登録フラグとを対応付けて記憶している。
顔登録フラグは、複数の特定の人物の顔画像f5〜f7と対応付けて登録されている。具体的には、例えば、「E」、「F」及び「G」の顔登録フラグが「ON」に設定され、当該人物が特定の人物となる。これにより、複数の撮像画像P、…の中で、特定の人物である「E」、「F」及び「G」の存する撮像画像については、他の撮像画像と比較して優先的に記録するよう指示される。
As shown in FIG. 6, the second registration table T2 includes names of persons (for example, “E”, “F”, “G”, etc.), face images (substances are image data) f5 to f7 of each person. The face registration flag is stored in association with each other.
The face registration flag is registered in association with face images f5 to f7 of a plurality of specific persons. Specifically, for example, “E”, “F”, and “G” face registration flags are set to “ON”, and the person becomes a specific person. As a result, among the plurality of captured images P,..., The captured images having the specific persons “E”, “F”, and “G” are preferentially recorded as compared with the other captured images. Is instructed.
また、画像処理部6は、画像取得部6aと、画像選択部6bとに加えて、領域抽出部6cと、画像生成部6dとを具備している。
In addition to the
画像選択部6bは、第2登録テーブルT2に顔登録フラグ(記録指示情報)が登録されている複数の特定の人物の各々について、画像取得部6aにより取得された複数の撮像画像P、…の中で、顔(特徴部)の評価値が高い撮像画像Pをそれぞれ選択する。
即ち、画像選択部6bの評価値算出部b1は、画像取得部6aにより取得された複数の撮像画像P、…内に存する特定の人物について顔の笑顔度を評価値として算出する。なお、評価値算出部b1による特定の人物の顔の評価値の算出方法は、上記実施形態1と同様であり、その詳細な説明は省略する。
そして、画像選択部6bは、評価値算出部b1による評価結果に基づいて、複数の撮像画像P、…の中で、顔登録フラグが「ON」に設定されている複数の特定の人物の各々について、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pを選択する。例えば、画像選択部6bは、「E」の顔の笑顔度が所定値以上の撮像画像Pとして、n枚目の撮像画像Pbn(図8(d)参照)を選択し、また、「F」の顔の笑顔度が所定値以上の撮像画像Pとして、1枚目の撮像画像Pb1(図8(a)参照)を選択し、「G」の顔の笑顔度が所定値以上の撮像画像Pとして、1枚目の撮像画像Pb1(図8(a)参照)及び2枚目の撮像画像Pb2(図8(b)参照)を選択する。
For each of a plurality of specific persons whose face registration flags (recording instruction information) are registered in the second registration table T2, the
That is, the evaluation value calculation unit b1 of the
Then, based on the evaluation result by the evaluation value calculation unit b1, the
領域抽出部6cは、複数の特定の人物の各々について、顔の評価値が高い撮像画像Pの各々から、当該人物が含まれる画像領域Aをそれぞれトリミングして抽出する。
即ち、領域抽出部6cは、複数の特定の人物の各々について、画像選択部6bにより選択された顔の評価値が高い撮像画像Pの各々から、各人物が含まれる画像領域Aを選択して、当該画像領域Aをトリミングして抽出する。具体的には、領域抽出部6cは、例えば、各特定の人物(例えば、「E」、「F」及び「G」等)の顔(特徴部)の中心の座標を基準として、互いに重なり合わないように切り取る範囲を設定し、この設定された範囲(トリミング領域)を抽出する。なお、各特定の人物どうしが上下方向や水平方向に重なり合っている場合には、領域抽出部6cは、顔(特徴部)の中心の座標を基準として、特定の人物どうしの中間位置を、当該中間位置で区切られるように切り取る範囲(トリミング領域)を抽出しても良い。
例えば、「E」の場合、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定されたn枚目の撮像画像Pbnから、「E」が含まれる第1画像領域A1(図9(a)参照)をトリミングして抽出する。また、例えば、「F」の場合は、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定された1枚目の撮像画像Pb1から、「F」が含まれる第2画像領域A2(図9(b)参照)をトリミングして抽出する。また、例えば、「G」の場合、領域抽出部6cは、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして特定された1枚目の撮像画像Pb1若しくは2枚目の撮像画像Pb2から、「G」が含まれる第3画像領域A3(図9(c)参照)をトリミングして抽出する。
For each of a plurality of specific persons, the area extracting unit 6c trims and extracts the image area A including the person from each of the captured images P having a high face evaluation value.
That is, for each of a plurality of specific persons, the area extraction unit 6c selects an image area A including each person from each of the captured images P having a high face evaluation value selected by the
For example, in the case of “E”, the region extraction unit 6c includes “E” from the n-th captured image Pbn specified by the
なお、領域抽出部6cによる特定の人物が含まれる画像領域Aのトリミング方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、各人物毎に画像領域Aをトリミングするようにしたが、例えば、「F」と「G」のように、1枚目の撮像画像Pb1が顔の笑顔度が所定値以上の撮像画像Pとして選択されている場合には、「F」と「G」がともに含まれる一の画像領域Aをトリミングして抽出するようにしても良い。
このように、領域抽出部6cは、画像選択部6bにより選択された複数の特定の人物の各々についての顔(特徴部)の評価値が高い撮像画像Pの各々から、当該人物が含まれる画像領域Aをそれぞれトリミングして抽出する。
Note that the trimming method of the image area A including the specific person by the area extracting unit 6c is an example, and is not limited to this, and can be arbitrarily changed as appropriate. For example, the image area A is trimmed for each person. For example, as shown in “F” and “G”, the first captured image Pb1 is a captured image P whose face smile degree is a predetermined value or more. May be extracted by trimming one image area A including both “F” and “G”.
As described above, the region extraction unit 6c includes an image including the person from each of the captured images P having a high evaluation value of the face (characteristic part) for each of the plurality of specific persons selected by the
画像生成部6dは、各人物毎に抽出された複数の画像領域A、…を合成して一の合成画像Gを生成する。
具体的には、例えば、画像生成部6dは、領域抽出部6cにより抽出された「E」が含まれる第1画像領域A1(図9(a)参照)と、「F」が含まれる第2画像領域A2(図9(b)参照)と、「G」が含まれる第3画像領域A3(図9(c)参照)とを合成して、一の合成画像G(図9(d)参照)を生成する。
このように、画像生成部6dは、領域抽出部6cにより各人物毎に抽出された複数の画像領域A、…どうしを合成して一の合成画像Gを生成する。
The image generation unit 6d generates a single composite image G by combining a plurality of image areas A,... Extracted for each person.
Specifically, for example, the image generation unit 6d includes a first image region A1 (see FIG. 9A) including “E” extracted by the region extraction unit 6c and a second image including “F”. The image area A2 (see FIG. 9B) and the third image area A3 including “G” (see FIG. 9C) are combined to form one composite image G (see FIG. 9D). ) Is generated.
In this way, the image generation unit 6d generates a single composite image G by combining a plurality of image regions A,... Extracted for each person by the region extraction unit 6c.
記録制御部8は、画像生成部6dにより生成された一の合成画像G(図9(d)参照)を記録画像として記録媒体Mに記録させる。
The
次に、撮像装置200による連続撮像処理について、図7〜図9を参照して説明する。
図7は、連続撮像処理に係る動作の一例を示すフローチャートである。但し、処理の流れとしては上記第1実施形態における図3のステップS8と同じであるので、図面において上記第1実施形態と異なる点のみ説明することで省略する。
図8(a)〜図8(d)は、連続撮像処理に係る撮像画像Pb1〜Pbnの一例を模式的に示す図である。また、図9(a)〜図9(c)は、特定の人物について抽出された第1〜第3画像領域A1〜A3を模式的に表し、図9(d)は、合成された合成画像Gを模式的に示す図である。
また、以下に説明する連続撮像処理にあっては、「E」、「F」及び「G」を特定の人物として、第2登録テーブルT2の顔登録フラグが「ON」に設定されているものとし(図6参照)、「E」、「F」及び「G」の前を横切る特定の人物以外の人を単なる通行人Jとして表す。
Next, continuous imaging processing by the
FIG. 7 is a flowchart illustrating an example of an operation related to continuous imaging processing. However, since the processing flow is the same as that in step S8 of FIG. 3 in the first embodiment, only the differences from the first embodiment will be described in the drawings, and the description will be omitted.
Fig.8 (a)-FIG.8 (d) are figures which show typically an example of the captured images Pb1-Pbn which concern on a continuous imaging process. FIGS. 9A to 9C schematically show the first to third image areas A1 to A3 extracted for a specific person, and FIG. 9D shows a synthesized composite image. It is a figure which shows G typically.
In the continuous imaging process described below, “E”, “F”, and “G” are specific persons, and the face registration flag of the second registration table T2 is set to “ON”. (Refer to FIG. 6), a person other than a specific person crossing in front of “E”, “F”, and “G” is simply represented as a passerby J.
ステップS8において顔検出部5により特定の人物の顔画像の笑顔度を評価値として算出すると、画像選択部6bは、複数の撮像画像P、…の中で、複数の特定の人物の各々について、評価値算出部b1により算出された顔の笑顔度が高い撮像画像Pをそれぞれ選択する(ステップS21)。
例えば、図8(a)〜(d)において、「E」、「F」及び「G」を被写体として撮像する際に、当該「E」、「F」及び「G」の前を通行人Jが横切ってしまった場合、特定の人物である「E」については、1枚目〜3枚目の撮像画像Pb1〜Pb3は、顔の笑顔度が所定値未満である。また、同様に、特定の人物である「F」については、2枚目〜n枚目の撮像画像Pb2〜Pbnは、顔の笑顔度が所定値未満である。また、同様に、特定の人物である「G」については、3枚目の撮像画像Pb3及びn枚目の撮像画像Pbnは、顔の笑顔度が所定値未満である。
そこで、画像選択部6bは、「E」の顔の笑顔度が所定値以上の撮像画像としてn枚目の撮像画像Pbn(図8(d)参照)を選択し、また、「F」の顔の笑顔度が所定値以上の撮像画像として1枚目の撮像画像Pb1(図8(a)参照)を選択し、「G」の顔の笑顔度が所定値以上の撮像画像として、1枚目の撮像画像Pb1(図8(a)参照)及び2枚目の撮像画像Pb2(図8(b)参照)を選択する。
When the smile level of the face image of a specific person is calculated as an evaluation value by the
For example, in FIGS. 8A to 8D, when “E”, “F”, and “G” are imaged as subjects, a passerby J in front of “E”, “F”, and “G” is used. When “E” is a specific person, the first to third captured images Pb1 to Pb3 of the specific person “E” have a face smile level less than a predetermined value. Similarly, for “F”, which is a specific person, the second to n-th captured images Pb2 to Pbn have facial smiles less than a predetermined value. Similarly, for the specific person “G”, the third captured image Pb3 and the n-th captured image Pbn have face smiles less than a predetermined value.
Therefore, the
続けて、領域抽出部6cは、複数の特定の人物の各々について、画像選択部6bにより選択された顔の笑顔度が高い撮像画像の各々から、各人物が含まれる画像領域Aをそれぞれ選択して、当該各画像領域Aをトリミングして抽出する(ステップS22)。
例えば、領域抽出部6cは、特定の人物である「E」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択されたn枚目の撮像画像Pbnから、「E」が含まれる第1画像領域A1(図9(a)参照)を選択して当該画像領域A1をトリミングする。また、領域抽出部6cは、例えば、特定の人物である「F」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択された1枚目の撮像画像Pb1から、「F」が含まれる第2画像領域A2(図9(b)参照)を選択して当該画像領域A2をトリミングする。また、領域抽出部6cは、例えば、特定の人物である「G」について、画像選択部6bにより顔の笑顔度が所定値以上の撮像画像Pとして選択された1枚目の撮像画像Pb1若しくは2枚目の撮像画像Pb2から、「G」が含まれる第3画像領域A3(図9(c)参照)を選択して当該画像領域A3をトリミングする。
Subsequently, the area extraction unit 6c selects, for each of a plurality of specific persons, an image area A including each person from each of the captured images selected by the
For example, the region extraction unit 6c calculates “E” from the n-th captured image Pbn selected as the captured image P having a face smile degree of a predetermined value or more by the
次に、画像生成部6dは、領域抽出部6cにより抽出された複数の画像領域A、…を合成して一の合成画像Gを生成する(ステップS23)。具体的には、画像生成部6dは、「Eさん」が含まれる第1画像領域A1(図9(a)参照)と、「F」が含まれる第2画像領域A2(図9(b)参照)と、「G」が含まれる第3画像領域A3(図9(c)参照)とを合成して、一の合成画像G(図9(d)参照)を生成する。
その後、記録制御部8は、画像生成部6dにより生成された一の合成画像Gを記録画像として、記録媒体Mの所定の記録領域に記録させる(ステップS24)。
これにより、連続撮像処理を終了する。
Next, the image generation unit 6d generates a single combined image G by combining the plurality of image regions A extracted by the region extraction unit 6c (step S23). Specifically, the image generation unit 6d includes a first image area A1 including “Mr. E” (see FIG. 9A) and a second image area A2 including “F” (FIG. 9B). Reference) and the third image region A3 (see FIG. 9C) including “G” are combined to generate one composite image G (see FIG. 9D).
Thereafter, the
Thus, the continuous imaging process is finished.
以上のように、実施形態2の撮像装置200によれば、複数の特定の人物の各々について顔(特徴部)の評価値が高い撮像画像を選択し、当該撮像画像の各々から、各特定の人物が含まれる画像領域をそれぞれトリミングして抽出し、この抽出された複数の画像領域同士を合成して一の合成画像を生成するので、複数の特定の人物の各々について満足度の高い画像を記録画像として記録媒体Mに記録させることができる。
As described above, according to the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、連続撮像処理にて撮像された複数の撮像画像P、…のうち、特定の人物の顔が検出されなかった撮像画像Pを画像処理部6の処理対象から除くようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, among the plurality of captured images P,... Captured by the continuous imaging process, the captured image P in which the face of a specific person is not detected may be excluded from the processing target of the
即ち、図10に示すように、変形例1の撮像装置100は、連続撮像処理にて撮像された複数の撮像画像P、…の中で、顔登録フラグ(記録指示情報)が登録されている特定の人物の顔が顔検出部5により検出されなかった撮像画像Pを指定する非検出画像指定部6eを画像処理部6に具備している。そして、画像取得部6aは、複数の撮像画像P、…のうち、非検出画像指定部6eにより指定された特定の人物の顔が検出されなかった撮像画像Pを取得しないようになっている。
なお、この変形例1の撮像装置100は、上記した以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。また、当該変形例1は、実施形態1の撮像装置100の変形例として例示したが、実施形態2の撮像装置200の変形例としても良い。
That is, as illustrated in FIG. 10, the
Note that the
従って、変形例1の撮像装置100によれば、複数の撮像画像P、…の中で、顔登録フラグが登録されている特定の人物の顔が検出されなかった撮像画像Pを画像処理の処理対象として取得しないので、当該画像処理にかかる負荷の軽減や処理速度の向上を図ることができる。
Therefore, according to the
また、上記変形例1にあっては、複数の撮像画像P、…の中で、顔登録フラグが登録されていない人(例えば、通行人J等)が特定の人物の前に重なった撮像画像Pを指定して、当該撮像画像Pを画像取得部6aが取得しないようにしても良い。即ち、顔登録フラグが登録されている特定の人物が顔検出部5により検出されずに、顔登録フラグが登録されていない人が顔検出部5により検出された撮像画像Pについては、画像取得部6aは、画像処理部6の処理対象から除くようにしても良い。
このような構成としても、上記変形例1と同様に、当該画像処理にかかる負荷の軽減や処理速度の向上を図ることができる。
Moreover, in the said
Even with such a configuration, similar to the first modification, it is possible to reduce the load on the image processing and improve the processing speed.
また、上記実施形態1、2及び変形例1にあっては、人の特徴部として顔を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、顔の一部のパーツ(例えば、目や口等)や人の体全体を特徴部として評価するようにしても良い。 In the first and second embodiments and the first modification, the face is exemplified as the human characteristic portion. However, the face is an example, and the present invention is not limited thereto, and can be arbitrarily changed as appropriate. For example, a part of the face (for example, eyes and mouth) or the whole human body may be evaluated as the characteristic part.
また、撮像装置100、200の構成は、上記実施形態1、2に例示したものは一例であり、これらに限られるものではない。例えば、撮像画像Pは、当該撮像装置100、200とは異なる外部装置(図示略)で生成し、外部装置から所定の通信回線を介して送信されることで当該撮像装置100、200が取得して特徴部(例えば、顔)の評価値の高い撮像画像Pを選択して記録させる構成としても良い。
In addition, the configurations of the
加えて、上記実施形態にあっては、取得手段、検出手段、算出手段、選択手段としての機能を、中央制御部12の制御下にて、顔検出部5、画像処理部6が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部12によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、検出処理ルーチン、算出処理ルーチン及び選択処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部12のCPUを、特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部12のCPUを、取得手段により取得された複数の画像において、メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段として機能させるようにしても良い。また、算出処理ルーチンにより中央制御部12のCPUを、検出手段によって夫々検出された特徴部を、メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段として機能させるようにしても良い。また、選択処理ルーチンにより中央制御部12のCPUを、算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions of the acquisition unit, the detection unit, the calculation unit, and the selection unit are driven by the
That is, a program memory (not shown) that stores a program stores a program including an acquisition process routine, a detection process routine, a calculation process routine, and a selection process routine. Then, the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
100、200 撮像装置
1 撮像部
2 撮像制御部
5 顔検出部
6 画像処理部
6a 画像取得部
6b 画像選択部
b1 評価値算出部
6c 領域抽出部
6d 画像生成部
6e 非検出画像指定部
7 人物登録データベース
8 記録制御部
12 中央制御部
M 記録媒体
100, 200
Claims (4)
前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶した特徴部記憶手段と、
前記取得手段により取得された複数の画像において、前記特徴部記憶手段に記憶された優先度に基づいて特徴部を夫々検出する検出手段と、
この検出手段によって夫々検出された特徴部を、前記記憶手段に記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段と、
この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段と、
を備えたことを特徴とする画像処理装置。 An acquisition means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
A feature storage unit that stores a plurality of people in association with the priority of the feature of the specific person;
Detecting means for detecting each of the feature parts based on the priority stored in the feature part storage means in the plurality of images obtained by the obtaining means;
Calculating means for evaluating each of the characteristic portions detected by the detecting means based on the characteristic portions stored in the storage means and calculating an evaluation value;
Selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means;
An image processing apparatus comprising:
前記選択手段は、
この算出された評価値に基づいて、前記夫々の撮像画像から人物を含む画像領域を抽出する抽出手段と、
この抽出手段によって抽出された画像領域を合成する画像合成手段と、
を含むことにより、記録すべき撮像画像を選択することを特徴とする請求項1記載の画像処理装置。 The calculation means calculates an evaluation value for each of a plurality of persons stored in the feature storage means,
The selection means includes
Extraction means for extracting an image region including a person from each captured image based on the calculated evaluation value;
Image synthesizing means for synthesizing the image areas extracted by the extracting means;
The image processing apparatus according to claim 1, wherein a captured image to be recorded is selected.
予め前記特定の人物が有する特徴部を優先度と対応付けて複数の人物について記憶したメモリから優先度を読出し、前記取得ステップにて取得された複数の画像において、この優先度に基づいて特徴部を夫々検出する検出ステップと、
この検出ステップにて夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出ステップと、
この算出ステップにて算出された評価値に基づいて記録すべき撮像画像を選択する選択ステップと、
を含むことを特徴とする画像選択方法。 An acquisition step of acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
The priority is read from a memory in which a feature portion of the specific person is associated with a priority in advance and stored for a plurality of people, and the feature portion is based on the priority in the plurality of images acquired in the acquisition step. Detecting step for detecting each of
A calculation step for evaluating each of the feature portions detected in the detection step based on the feature portions stored in the memory and calculating an evaluation value;
A selection step for selecting a captured image to be recorded based on the evaluation value calculated in the calculation step;
An image selection method comprising:
特定の人物を含む複数の人が存する複数の画像を連続して撮像することにより取得する取得手段、
この取得手段により取得された複数の画像において、前記メモリに記憶された優先度に基づいて特徴部を夫々検出する検出手段、
この検出手段によって夫々検出された特徴部を、前記メモリに記憶されている特徴部に基づいて夫々評価し、評価値を算出する算出手段、
この算出手段によって算出された評価値に基づいて記録すべき撮像画像を選択する選択手段、
として機能させることを特徴とするプログラム。 A computer of an image processing apparatus including a memory that stores a plurality of persons in association with a priority, and a feature portion of the specific person in advance.
An acquisition means for acquiring a plurality of images including a specific person by continuously capturing a plurality of images;
In the plurality of images acquired by the acquisition means, detection means for detecting the characteristic portions based on the priorities stored in the memory,
Calculating means for evaluating each of the characteristic portions detected by the detecting means based on the characteristic portions stored in the memory and calculating an evaluation value;
Selection means for selecting a captured image to be recorded based on the evaluation value calculated by the calculation means;
A program characterized by functioning as
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010199695A JP2012060292A (en) | 2010-09-07 | 2010-09-07 | Image processor, image selection method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010199695A JP2012060292A (en) | 2010-09-07 | 2010-09-07 | Image processor, image selection method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012060292A true JP2012060292A (en) | 2012-03-22 |
| JP2012060292A5 JP2012060292A5 (en) | 2013-10-17 |
Family
ID=46056884
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010199695A Pending JP2012060292A (en) | 2010-09-07 | 2010-09-07 | Image processor, image selection method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012060292A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120044384A1 (en) * | 2010-08-18 | 2012-02-23 | Canon Kabushiki Kaisha | Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium |
| CN111382681A (en) * | 2020-02-28 | 2020-07-07 | 浙江大华技术股份有限公司 | Face registration method, device and storage medium |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005045600A (en) * | 2003-07-23 | 2005-02-17 | Casio Comput Co Ltd | Image photographing apparatus and program |
| JP2007274264A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Camera, best shot shooting method, program |
| JP2009147574A (en) * | 2007-12-13 | 2009-07-02 | Casio Comput Co Ltd | Imaging apparatus and program thereof |
| JP2010028773A (en) * | 2008-07-24 | 2010-02-04 | Canon Inc | Image processing apparatus, image processing method and program |
| JP2010034685A (en) * | 2008-07-25 | 2010-02-12 | Nikon Corp | Digital camera |
| JP2010045421A (en) * | 2008-08-08 | 2010-02-25 | Casio Comput Co Ltd | Imaging apparatus, image processing method, and program |
| JP2010187208A (en) * | 2009-02-12 | 2010-08-26 | Nikon Corp | Electronic still camera |
-
2010
- 2010-09-07 JP JP2010199695A patent/JP2012060292A/en active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005045600A (en) * | 2003-07-23 | 2005-02-17 | Casio Comput Co Ltd | Image photographing apparatus and program |
| JP2007274264A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Camera, best shot shooting method, program |
| JP2009147574A (en) * | 2007-12-13 | 2009-07-02 | Casio Comput Co Ltd | Imaging apparatus and program thereof |
| JP2010028773A (en) * | 2008-07-24 | 2010-02-04 | Canon Inc | Image processing apparatus, image processing method and program |
| JP2010034685A (en) * | 2008-07-25 | 2010-02-12 | Nikon Corp | Digital camera |
| JP2010045421A (en) * | 2008-08-08 | 2010-02-25 | Casio Comput Co Ltd | Imaging apparatus, image processing method, and program |
| JP2010187208A (en) * | 2009-02-12 | 2010-08-26 | Nikon Corp | Electronic still camera |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120044384A1 (en) * | 2010-08-18 | 2012-02-23 | Canon Kabushiki Kaisha | Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium |
| US8625000B2 (en) * | 2010-08-18 | 2014-01-07 | Canon Kabushiki Kaisha | Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium |
| US9060158B2 (en) | 2010-08-18 | 2015-06-16 | Canon Kabushiki Kaisha | Image pickup apparatus that continuously takes images to obtain multiple images, control method therefor, and storage medium |
| CN111382681A (en) * | 2020-02-28 | 2020-07-07 | 浙江大华技术股份有限公司 | Face registration method, device and storage medium |
| CN111382681B (en) * | 2020-02-28 | 2023-11-14 | 浙江大华技术股份有限公司 | Face registration method, device and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5939705B2 (en) | Subject determination device, subject determination method, and program | |
| JP5880182B2 (en) | Image generating apparatus, image generating method, and program | |
| JP4902562B2 (en) | Imaging apparatus, image processing apparatus, control method, and program | |
| US8989504B2 (en) | Image processing device that renews identification information of specific subject | |
| JP5966778B2 (en) | Imaging apparatus, imaging method, and program | |
| US20100188520A1 (en) | Imaging device and storage medium storing program | |
| JP4868046B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5949030B2 (en) | Image generating apparatus, image generating method, and program | |
| CN102542251B (en) | Object detection device and subject detection method | |
| JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
| JP2019169985A (en) | Image processing apparatus | |
| JP5272797B2 (en) | Digital camera | |
| JP2012060292A (en) | Image processor, image selection method, and program | |
| JP5530548B2 (en) | Facial expression database registration method and facial expression database registration apparatus | |
| JP5029765B2 (en) | Image data generation apparatus and image data generation method | |
| JP5740934B2 (en) | Subject detection apparatus, subject detection method, and program | |
| JP5807695B2 (en) | Subject detection apparatus, subject detection method, and program | |
| JP2010226485A (en) | Image processing apparatus and digital camera | |
| JP5927972B2 (en) | Image generating apparatus, image generating method, and program | |
| JP6668646B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2013201662A (en) | Image reproduction device and imaging device | |
| JP2012009980A (en) | Image processing apparatus, image processing method and program | |
| JP2013157030A (en) | Imaging method and imaging apparatus | |
| JP2014186404A (en) | Image processing apparatus, image processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130904 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140515 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140527 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141007 |