JP2008242694A - Image processing apparatus and program thereof - Google Patents
Image processing apparatus and program thereof Download PDFInfo
- Publication number
- JP2008242694A JP2008242694A JP2007080582A JP2007080582A JP2008242694A JP 2008242694 A JP2008242694 A JP 2008242694A JP 2007080582 A JP2007080582 A JP 2007080582A JP 2007080582 A JP2007080582 A JP 2007080582A JP 2008242694 A JP2008242694 A JP 2008242694A
- Authority
- JP
- Japan
- Prior art keywords
- person
- face recognition
- face
- image
- recognition target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000008569 process Effects 0.000 claims abstract description 39
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000009966 trimming Methods 0.000 claims description 3
- 230000015654 memory Effects 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000001815 facial effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000872 buffer Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置及びそのプログラムに係り、詳しくは、被写体の顔を認識することができる画像処理装置及びそのプログラムに関する。 The present invention relates to an image processing apparatus and a program thereof, and more particularly to an image processing apparatus and a program thereof that can recognize a face of a subject.
近年、画像検索等を行なう画像処理装置においては、複数の顔画像を選択し、該選択した顔画像を含む画像データを画像認識、例えば、顔の特徴量を算出することにより検索することができる技術が登場した(特許文献1)。 2. Description of the Related Art In recent years, an image processing apparatus that performs image search or the like can search by selecting a plurality of face images and recognizing image data including the selected face images, for example, by calculating facial feature amounts. Technology has appeared (Patent Document 1).
しかしながら、従来の技術によれば、複数の顔画像を検索対象、顔認識対象として設定しようとした場合、顔画像を1つ1つ手動選択していく必要があるので、顔画像の選択操作が大変であり、また、どの顔画像を選択したら良いのかを考えながら顔画像を選択していく必要があり手間がかかる。 However, according to the conventional technique, when a plurality of face images are to be set as search targets and face recognition targets, it is necessary to manually select the face images one by one. It is difficult, and it is necessary to select a face image while considering which face image should be selected.
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、簡易に且つ適切に複数の人物の顔を顔認識対象として設定することができる画像処理装置及びそのプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such conventional problems, and provides an image processing apparatus and a program thereof capable of easily and appropriately setting a plurality of human faces as face recognition targets. Objective.
上記目的達成のため、請求項1記載の発明による画像処理装置は、基準人物との親密度を各人物毎に設定した親密度テーブルを記憶した記憶手段と、
前記基準人物との親密度を設定する設定手段と、
前記記憶手段に記憶されている親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定手段と、
画像データを取得する画像取得手段と、
前記顔認識対象特定手段により顔認識対象として特定された人物の顔に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なう顔認識制御手段と、
を備えたことを特徴とする。
To achieve the above object, the image processing apparatus according to the first aspect of the present invention includes a storage unit that stores a closeness table in which a closeness with a reference person is set for each person,
Setting means for setting intimacy with the reference person;
Using a closeness table stored in the storage means, a face recognition target specifying means for specifying a face of a person having a closeness set by the reference person and the setting means as a face recognition target;
Image acquisition means for acquiring image data;
Face recognition control means for performing face recognition processing on the image data acquired by the image acquisition means based on the face of the person specified as the face recognition target by the face recognition target specifying means;
It is provided with.
また、例えば、請求項2に記載されているように、前記親密度テーブルは、
各人物の顔画像を設定しており、
前記顔認識制御手段は、
前記顔認識対象特定手段により顔認識対象として特定された人物に対応する顔画像データに基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なうようにしてもよい。
Also, for example, as described in
Each person ’s face image is set,
The face recognition control means includes
The face recognition process may be performed on the image data acquired by the image acquisition unit based on the face image data corresponding to the person specified as the face recognition target by the face recognition target specifying unit.
また、例えば、請求項3に記載されているように、ユーザが親密度を指定するための親密度指定手段を備え、
前記設定手段は、
前記親密度指定手段により指定された親密度に基づいて、親密度を設定するようにしてもよい。
Further, for example, as described in
The setting means includes
The closeness may be set based on the closeness specified by the closeness specifying means.
また、例えば、請求項4に記載されているように、前記設定手段は、
前記親密度指定手段により指定された親密度以上の親密度を、又は、指定された親密度を、又は、指定された親密度以下の親密度を、設定するようにしてもよい。
For example, as described in
You may make it set the familiarity more than the familiarity designated by the familiarity designation | designated means, the designated familiarity, or the familiarity below the designated familiarity.
また、例えば、請求項5に記載されているように、ユーザが任意のグループを指定するためのグループ指定手段を備え、
前記記憶手段は、
前記親密度テーブルをグループ毎に記憶しており、
前記顔認識対象特定手段は、
前記グループ指定手段により指定されたグループの親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定するようにしてもよい。
Further, for example, as described in
The storage means
The intimacy table is stored for each group,
The face recognition target specifying means includes
The reference person and the face of the person having the closeness set by the setting means may be specified as a face recognition target using the closeness table of the group specified by the group specifying means.
また、例えば、請求項6に記載されているように、ユーザが中心人物を指定する人物指定手段を備え、
前記親密度テーブルは、
更に、前記各人物を基準人物とし、それらの人物相互間の親密度を互いに設定しており、
前記顔認識対象特定手段は、
前記人物指定手段により指定された中心人物を基準人物とし、該基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定するようにしてもよい。
Further, for example, as described in
The intimacy table is
Further, each person is set as a reference person, and the closeness between the persons is set to each other.
The face recognition target specifying means includes
The central person specified by the person specifying means may be a reference person, and the face of the reference person and the person having the familiarity set by the setting means may be specified as a face recognition target.
また、例えば、請求項7に記載されているように、前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいて、被写体のトリミング制御、被写体位置を示す表示制御、被写体画像の拡大表示制御、被写体の画像加工制御のうち、少なくとも1つ以上の制御を行なう制御手段を備えるようにしてもよい。 Further, for example, as described in claim 7, when a face specified as a face recognition target by the face recognition target specifying unit is recognized by the face recognition processing by the face recognition control unit, the recognition is performed. Control means for performing at least one control among trimming control of the subject, display control indicating the subject position, enlargement display control of the subject image, and image processing control of the subject based on the face position may be provided. Good.
また、例えば、請求項8に記載されているように、前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の数に応じて、印刷枚数を設定する設定手段を備えるようにしてもよい。
For example, as described in
また、例えば、請求項9に記載されているように、画像データを記録保持するための記録手段又は被写体の光を光電変換する撮像素子を備え、
前記画像取得手段は、
前記記録手段に記録されている画像データ、又は、前記撮像素子により光電変換された画像データを取得するようにしてもよい。
Further, for example, as described in
The image acquisition means includes
You may make it acquire the image data currently recorded on the said recording means, or the image data photoelectrically converted by the said image pick-up element.
また、例えば、請求項10に記載されているように、被写体の光を光電変換する撮像素子と、
前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいてオートフォーカス制御及び/又は露出制御を行なう制御手段と、
を備え、
前記画像取得手段は、
前記撮像素子により光電変換された画像データを取得するようにしてもよい。
Further, for example, as described in
When a face identified as a face recognition target by the face recognition target specifying means is recognized by the face recognition processing by the face recognition control means, autofocus control and / or exposure control is performed based on the position of the recognized face. Control means to perform;
With
The image acquisition means includes
You may make it acquire the image data photoelectrically converted by the said image pick-up element.
また、例えば、請求項11に記載されているように、画像データを記録保持するための記録手段を備え、
前記画像取得手段は、
前記記録手段により記録されている画像データを順次取得していき、
前記顔認識制御手段は、
前記画像取得手段により順次取得された画像データに対して、顔認識処理を行うことにより、前記顔認識対象特定手段により顔認識対象として特定された顔を含む画像データを検索していく検索手段を含むようにしてもよい。
Further, for example, as described in
The image acquisition means includes
Sequentially obtaining the image data recorded by the recording means,
The face recognition control means includes
Retrieval means for retrieving image data including a face specified as a face recognition target by the face recognition target specifying means by performing face recognition processing on the image data sequentially acquired by the image acquisition means. It may be included.
上記目的達成のため、請求項12記載の発明によるプログラムは、コンピュータに、
前記基準人物との親密度を設定する設定処理と、
前記基準人物との親密度を各人物毎に記憶した親密度テーブルを用いて、前記基準人物と前記設定処理により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定処理と、
画像データを取得する画像取得処理と、
前記顔認識対象特定処理により顔認識対象として特定された人物の顔に基づいて、前記取得処理により取得された画像データに対して顔認識処理を行なう顔認識制御処理と、
を実行させることを特徴とする。
In order to achieve the above object, a program according to
A setting process for setting intimacy with the reference person;
Using a familiarity table that stores the familiarity with the reference person for each person, the face recognition target specification that identifies the face of the reference person and the person having the familiarity set by the setting process as a face recognition target Processing,
Image acquisition processing for acquiring image data;
A face recognition control process for performing a face recognition process on the image data acquired by the acquisition process based on the face of the person specified as a face recognition target by the face recognition target specifying process;
Is executed.
本願発明によれば、簡易に且つ適切に顔認識させたい人物の顔を特定させることができる。 According to the present invention, it is possible to easily and appropriately specify the face of a person whose face is to be recognized.
以下、本実施の形態について、本発明の画像処理装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の画像処理装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the image processing apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a
The
撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
The photographing
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The
The
CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。
The
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。
A TG 7 is connected to the
画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。
The
CPU10は、CCD5への撮像制御、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。
特に、CPU10は、顔認識対象として1以上の顔画像を特定する機能、該特定された顔画像に基づいて画像データに対して顔認識処理を行なう機能を有する。
The
In particular, the
キー入力部11は、シャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータ(相関データテーブル)が記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
The
The
DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
The
The
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
The
B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図2のフローチャートに従って説明する。
ユーザのキー入力部11の操作により顔認識モードに設定されると、ステップS1で、CPU10は、登録顔写真を画像表示部15に一覧表示させる。
この登録顔写真は、メモリ12の相関データテーブルに記録されており、該相関データテーブルに記録されている登録顔写真を読み出して一覧表示させる。
B. Operation of
When the face recognition mode is set by the user's operation of the
The registered face photo is recorded in the correlation data table of the
ここで、図3(a)は、メモリ12に記録されている相関データテーブル21の内容の例を示す図である。
相関データテーブル21は、人物毎にレコード(R1、R2、R3、・・・、Rn)を備えており、各レコードは、人物名フィールド21a、顔写真フィールド21b、リンク先人物名フィールド群21cを含む。そして、リンク先人物名フィールド群21cは、全ての人物に対応した個別人物名フィールド21c−1、21c−2、21c−3、・・・、21c−nを含む。
Here, FIG. 3A is a diagram showing an example of the contents of the correlation data table 21 recorded in the
The correlation data table 21 includes records (R1, R2, R3,..., Rn) for each person, and each record includes a
人物名フィールド21aには人物の名称が格納され、顔写真フィールド21bにはその人物に対応する顔写真が格納される。この顔写真フィールド21bに格納されている顔写真が上記登録顔写真となる。また、リンク先人物名フィールド群21cの各々の個別人物名フィールド21c−1、21c−2、21c−3、・・・、21c−nには、全ての人物名、つまり、人物名フィールド21aに格納されている人物名が格納される。
The name of the person is stored in the
人物名フィールド21aと、リンク先人物名フィールド群21cの各個別人物名フィールド21c−1、21c−2、・・・21c−nとの交点のうち、同一の人物名同士の交点(斜線入りの交点)を除く各交点(交差部分)は、親密度を表す「相関値」を格納するためのエリアである。すなわち、これらの交点は、交差する互いの人物同士の親しさ(親密度)を表す「相関値(親密度値)」が格納されている。この相関値が低ければ低いほど交差する互いの人物同士の親密度が高くなり、相関値が高いほど交差する互いの人物同士の親密度は低くなる(親しくなくなる)。
Of the intersections of the
例えば、人物Aと人物B、及び、人物Aと人物Cとの相関値は「1」であるので、人物Aと人物B、人物Aと人物Cとはかなり親しい関係となる。また、人物Aと人物Fとの相関値は「4」であるので、人物Aと人物Fとはそれほど親しい関係でないことが分かる。
ユーザが自由にこの相関データテーブル21を作成することができ、ユーザは、人物名フィールド21aに人物の名称を、顔写真フィールド21bに人物名フィールド21aの顔写真を記録し、リンク先人物名フィールド群21cの各個別人物名フィールド21c−1、21c−2、・・・には、該人物名フィールド21aに記録された人物名が自動的に記録される。そして、各レコードおいて、人物名フィールド21aの人物と、リンク先人物名フィールド群21cの各個別人物フィールドの人物との相関値をユーザがそれぞれ入力することになる。つまり、各人物相互間の相関値をユーザが入力することになる。
For example, since the correlation value between the person A and the person B and between the person A and the person C is “1”, the person A and the person B, and the person A and the person C are in a very close relationship. Further, since the correlation value between the person A and the person F is “4”, it can be seen that the person A and the person F are not so close.
The user can freely create this correlation data table 21, and the user records the person's name in the
なお、あるレコードにおいて、例えば、人物Aのレコードにおいて、人物名フィールド21aとリンク先人物名フィールド群21cの各個別人物名フィールド21c−n、例えば、人物Bの各個別人物名フィールド21c−2との交点に相関値「1」が記録されると、該記録された相関値が、リンク先人物名フィールド21cの各個別人物名フィールド21c−nの人物に対応するレコード、つまり、各個別人物名フィールド21c−2の人物Bのレコードにおいても、人物Aに対応する各個別人物名フィールド21c−1との交点に自動的に記録されることになる。
In a certain record, for example, in the record of the person A, the individual
また、図4(a)は、一覧表示された登録顔写真の様子の一例を示す図である。
図4(a)を見ると、図3(a)の顔写真フィールド21bに格納されている顔画像が表示されているのが分かる。なお、一覧表示する際は、CPU10は、所定の顔写真を選択した状態にし、該選択した登録顔写真を識別表示させる。ここでは、人物名Aの顔写真が選択され、該選択された該人物名Aの顔写真が太枠で表示されることにより差別表示されているのが分かる。
FIG. 4A is a diagram illustrating an example of a registered face photograph displayed as a list.
4A shows that the face image stored in the
登録顔写真の一覧表示を行うと、ステップS2で、CPU10は、ユーザによって十字キーの操作が行なわれたか否かを判断する。この判断は、十字キーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS2で、十字キーの操作に対応する操作信号がキー入力部11から送られてきたと判断すると、CPU10は、該操作に従って登録顔写真を新たに選択した後(ステップS3)、ステップS4に進む。つまり、選択されている登録顔写真を変更することになる。このときは、変更後に選択された登録顔写真を差別表示させる。
When the list of registered face photos is displayed, in step S2, the
If it is determined in step S2 that an operation signal corresponding to the operation of the cross key is sent from the
例えば、図4(a)に示すような状態で十字キーの「→」キーが操作されると、選択される登録顔写真が人物名Aのもから人物名Bのものになり、また、図4(a)に示すような状態で十字キーの「↓」キーが操作されると、選択される登録顔写真が人物名Aのもから人物名Eのものになる。
一方、ステップS2で、十字キーの操作に対応する操作信号がキー入力部11から送られてきていないと判断するとそのままステップS4に進む。
For example, when the “→” key of the cross key is operated in the state as shown in FIG. 4A, the selected registered face photo changes from the person name A to the person name B. When the “↓” key of the cross key is operated in the state as shown in FIG. 4A, the registered face photo to be selected changes from the person name A to the person name E.
On the other hand, if it is determined in step S2 that an operation signal corresponding to the operation of the cross key is not sent from the
ステップS4に進むと、CPU10は、ユーザによってSETキーの操作が行なわれたか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは現在選択している顔写真の人物を中心人物として決定したいと思う場合はSETキーの操作を行なう。中心人物とは、各人物の親密度を得る上で基準となる人物のことを指し、この中心人物を基準にして、各人物の親密度が定まることになる。基準となる人物が異なれば各人物の親密度も変わるからである。
In step S4, the
At this time, when the user wants to determine the person of the currently selected facial photograph as the central person, the user operates the SET key. The central person refers to a person serving as a reference in obtaining the familiarity of each person, and the familiarity of each person is determined based on the central person. This is because the intimacy of each person changes if the reference person is different.
図3(b)は、中心人物を人物Aにしたときの各人物との親密度を相関データテーブル21を用いて表した図である。この円のうち、中心にある円は中心人物を表し、この円を中心に何層にも亘って円が重なっているのがわかる。このそれぞれの円は、中心人物Aとの親密度(相関値)を表しており、中心の円から離れれば離れるほど、親密度は低くなる。
ここでは、人物はA〜Lまでおり(G〜Lは図3(a)で記載を省略している)、中心人物Aと、各人物(B〜L)との親密度がわかる。このように、図3(a)に示すような相関データテーブル21を用いれば、各人物との親密度が用意に導けだせる。
FIG. 3B is a diagram showing the intimacy with each person using the correlation data table 21 when the person A is the central person. Of these circles, the circle at the center represents the central person, and it can be seen that the circles are stacked over several layers around this circle. Each of these circles represents the familiarity (correlation value) with the central person A, and the further away from the central circle, the lower the familiarity.
Here, there are persons A to L (G to L are not shown in FIG. 3A), and the familiarity between the central person A and each person (B to L) is known. As described above, by using the correlation data table 21 as shown in FIG. 3A, the familiarity with each person can be easily derived.
ステップS4で、SETキーの操作に対応する操作信号が送られてきていないと判断するとステップS2に戻り、ステップS4で、SETキーの操作に対応する操作信号が送られてきたと判断すると、ステップS5に進み、CPU10は、SETキーの操作に対応する操作信号が送られてきたときに選択されている人物を中心人物として設定する。
If it is determined in step S4 that an operation signal corresponding to the operation of the SET key has not been sent, the process returns to step S2, and if it is determined in step S4 that an operation signal corresponding to the operation of the SET key has been sent, step S5 is performed. The
次いで、ステップS6に進み、CPU10は、親密度情報設定画面を画像表示部15に表示させる。
図4(b)は、表示される親密度情報設定画面の様子の一例を示す図である。
図4(b)を見ると、『親密度値 3 までの 顔を認識します』という文章が表示されているのがわかる。
Next, in step S6, the
FIG. 4B is a diagram illustrating an example of the displayed familiarity information setting screen.
Looking at FIG. 4 (b), it can be seen that the text “Recognize faces up to
次いで、ステップS7で、CPU10は、親密度値(相関値)の指定操作が行なわれたか否かを判断する。この判断は、ユーザの十字キーの操作などにより「3」の欄(親密度値指定欄)が選択されたか否かを判断する。このとき、ユーザは「3」の欄を選択し、十字キーを操作することにより指定する親密度値を変更することができる。例えば、十字キーの「↑」キーを操作すると、親密度値は、「3」から「4」、「5」と数字が大きくなり、十字キーの「↓」キーを操作すると、親密度値は、「3」、「2」、「1」と数字が小さくなる。
Next, in step S <b> 7, the
ステップS7で、親密度値の指定操作が行なわれたと判断すると、ステップS8に進み、CPU10は、該指定操作に従って親密度値を変更させて、ステップS9に進む。
一方、ステップS7で、親密度値の指定操作が行なわれていないと判断するとそのままステップS9に進む。
If it is determined in step S7 that a closeness value designation operation has been performed, the process proceeds to step S8, and the
On the other hand, if it is determined in step S7 that the intimacy value designation operation has not been performed, the process proceeds directly to step S9.
ステップS9に進むと、CPU10は、親密度範囲の指定が行なわれたか否かを判断する。この判断は、ユーザの十字キーの操作などにより「までの」の欄(親密度範囲指定欄)が選択されたか否かを判断する。このとき、ユーザが「までの」の欄を選択すると、図4(b)に示すような「までの」か「からの」か「の」の何れかの範囲を指定させるための小画面が表示され、ユーザは該小画面を見ながら十字キーを操作することにより任意の範囲を指定することができる。
In step S9, the
ここで、「までの」とは、指定された親密度以上のことを指し(指定された親密度及び該指定された親密度より高い親密度のことを指し、つまり、指定された親密度値以下の親密度値のことを指す)、たとえば、親密度値(相関値)として3が指定されている場合は、親密度値(相関度)「3」、「2」、「1」の範囲を指す。
また、「からの」とは、指定された親密度以下のことを指し(指定された親密度及び該指定された親密度より低い親密度のことを指し、つまり、指定された親密度値以上の親密度値を指す)、例えば、親密度値として3が指定されている場合は、親密度値「3」、「4」、「5」・・・の範囲を指す。
また、「の」とは、指定された親密度値のことを指し、例えば、親密度値として3が指定されている場合は、親密度値「3」のみを指す。
Here, “until” refers to the specified intimacy or higher (refers to the specified intimacy and the intimacy higher than the specified intimacy, that is, the specified intimacy value) For example, when 3 is specified as the intimacy value (correlation value), the intimacy value (correlation degree) ranges from “3”, “2”, and “1”. Point to.
“From” refers to the specified intimacy or lower (refers to the specified intimacy and the intimacy lower than the specified intimacy, that is, the specified intimacy value or more. For example, when 3 is specified as the familiarity value, it indicates a range of familiarity values “3”, “4”, “5”.
“No” refers to the designated familiarity value. For example, when “3” is designated as the familiarity value, only the familiarity value “3” is indicated.
ステップS9で、親密度範囲の指定が行なわれたと判断すると、ステップS10に進み、CPU10が、該指定にしたがって親密度範囲を変更させてステップS11に進む。
一方、ステップS9で、親密度範囲の指定が行なわれていないと判断するとそのままステップS11に進む。
If it is determined in step S9 that the familiarity range has been designated, the process proceeds to step S10, and the
On the other hand, if it is determined in step S9 that the closeness range is not designated, the process proceeds directly to step S11.
ステップS11に進むと、CPU10は、SETキーの操作が行なわれたか否かを判断する。このとき、ユーザは指定した親密度値及び親密度範囲で良いと思う場合はSETキーの操作を行なう。
ステップS11で、SETキーの操作が行なわれていないと判断するとステップS7に戻り上記した動作を繰り返す。これにより、SETキーの操作を行なうまでは、親密度値、親密度範囲を自由に変更することができる。
In step S11, the
If it is determined in step S11 that the SET key has not been operated, the process returns to step S7 to repeat the above operation. Thereby, the intimacy value and the intimacy range can be freely changed until the SET key is operated.
一方、ステップS11で、SETキーの操作が行なわれたと判断すると、ステップS12に進み、CPU10は、現在指定されている親密度値、親密度範囲に基づいて親密度を設定する。例えば、設定された親密度値が「2」、設定された親密度範囲が「までの」の場合は、設定される親密度は親密度値「1」及び「2」となり、設定された親密度値が「3」、設定された親密度値が「からの」の場合は、設定される親密度は、親密度値「3」、「4」、「5」、・・・・となる。
これにより、ユーザが所望する親密度を設定することができる。
On the other hand, if it is determined in step S11 that the SET key has been operated, the process proceeds to step S12, and the
Thereby, it is possible to set the intimacy desired by the user.
次いで、ステップS13に進み、CPU10は、該設定した中心人物及び親密度に基づいて、相関データテーブル21に記録されている人物の中から、顔認識対象となる人物の顔画像を特定する。つまり、設定した中心人物と、該設定した親密度を有する人物の顔画像を特定する。
例えば、設定した中心人物を人物A、設定した親密度値を「2」、親密度範囲を「までの」とした場合は、特定される人物の顔画像は、人物Aと親密度値が「1」、「2」となる人物、つまり、人物B、人物C、人物D、人物E、人物K(図3参照)の顔画像がそれぞれ特定されることになる。
Next, the process proceeds to step S13, and the
For example, when the set central person is the person A, the set intimacy value is “2”, and the intimacy range is “to”, the face image of the specified person has the person A and the intimacy value “ The face images of the persons who become “1” and “2”, that is, person B, person C, person D, person E, and person K (see FIG. 3) are specified.
次いで、ステップS14で、CPU10は、所定のフレームレート(例えば、30fps)でCCD5による撮像を開始し、該CCD5により順次撮像され、画像生成部9によって順次生成された輝度色差信号の画像データをバッファメモリ(DRAM13)に記憶し、該記憶した画像データを画像表示部15に表示させるという、いわゆるスルー画像表示を開始する。
Next, in step S14, the
次いで、ステップS15で、CPU10は、該CCD5により順次撮像されるフレーム画像データ毎に顔認識処理を行う。この顔認識は、単に画像内に顔があるかどうかを認識するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。例えば、肌の色、髪の毛の色、目の位置、鼻の位置、口の位置等の認識、及びそれらの位置関係なども認識し、それらを数値化して数値データ(顔特徴数値データ)を算出する。なお、顔認識処理の方法は、他にも既に著名な方法が複数あるので、ここでは詳細に説明しない。
Next, in step S15, the
(もう少し具体的に説明してください。相関データテーブル21に記憶されている、ステップS13で特定した人物の画像データ(数値データ)とステップS15で算出された数値データとを照合する。)
次いで、ステップS16で、CPU10は、該特定した顔画像に基づいて、ステップS13で特定した人物(特定人物)の何れかの顔を認識したか否かを判断する。具体的に説明すると、ステップS13で特定した顔画像データに基づいて、特定した顔画像の人物の顔特徴データを算出する。この顔特徴データの算出は、肌の色、髪の毛の色、目の位置、鼻の位置、口の位置等の認識、及びそれらの位置関係なども認識し、それらを数値化して顔特徴データを算出する。そして、該算出した顔特徴データと、ステップS15で算出された数値データを照合し、一致する顔特徴データがあるか否かを判断することになる。
(Please explain in more detail. The image data (numerical data) of the person specified in step S13 stored in the correlation data table 21 is collated with the numerical data calculated in step S15.)
Next, in step S16, the
ここでは、人物B、人物C、人物D、人物E、人物Kを特定したので、該特定した人物の顔特徴データを算出し、該人物B、人物C、人物D、人物E、人物Kの顔特徴データとステップS15の画像認識処理により算出された数値データとを照合することにより、何れかの人物の顔特徴データと顔認識処理に算出された数値データとが一致するか否かを判断する。
なお、相関データテーブル21に、人物の顔画像データの他に、該人物の顔の顔特徴データを予め記憶させるようにしてもよい。この記憶は、人物の顔画像データが相関データテーブルに記憶されると、該顔画像データに基づいて自動的に顔特徴データを算出し、該算出した顔特徴データを該人物の顔画像データと関連付けて記憶させるようにする。
Here, since the person B, the person C, the person D, the person E, and the person K are specified, the facial feature data of the specified person is calculated, and the person B, the person C, the person D, the person E, and the person K are calculated. By comparing the face feature data with the numerical data calculated by the image recognition processing in step S15, it is determined whether or not the facial feature data of any person matches the numerical data calculated in the face recognition processing. To do.
In addition to the human face image data, the human face image feature data may be stored in the correlation data table 21 in advance. In this storage, when face image data of a person is stored in the correlation data table, face feature data is automatically calculated based on the face image data, and the calculated face feature data is used as the face image data of the person. Relate to remember.
ステップS16で該特定人物の何れの顔も認識していないと判断すると、認識するまでステップS16に留まり、ステップS16で該特定人物の何れかの顔を認識したと判断するとステップS17に進み、該認識した1乃至複数の特定人物の顔に対してコントラスト検出方式のオートフォーカス処理を行う。つまり、レンズ駆動ブロック3を介してフォーカスレンズを駆動させていき、認識した特定人物の顔の画像データに基づいて、AF評価値が最も高くなるレンズ位置にフォーカスレンズを移動させる。これにより、ユーザが撮影した人物に簡単にオートフォーカスを行なうことができる。
なお、コントラスト検出方式以外の方式でオートフォーカスを行なうようにしてもよい。
次いで、ステップS18で、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録し、ステップS1に戻る。
If it is determined in step S16 that no face of the specific person is recognized, the process stays in step S16 until it is recognized. If it is determined in step S16 that any face of the specific person is recognized, the process proceeds to step S17. Contrast detection type autofocus processing is performed on the recognized faces of one or more specific persons. In other words, the focus lens is driven through the
Note that autofocus may be performed by a method other than the contrast detection method.
Next, in step S18, the
C.以上のように、実施の形態においては、ユーザによって指定された親密度値及び親密度範囲に基づいて親密度を設定し、中心人物と該設定した親密度を有する人物の顔画像を顔認識対象として特定するので、簡易に且つ適切に顔認識させたい人物の顔を特定させることができる。
また、相関データテーブルは、複数の人物の顔画像及び該複数の人物相互間の親密度値を記憶させ、ユーザが任意の人物の顔画像を中心人物として設定することができるので、ユーザが顔認識対象の顔画像としたい基準となる人物を自由に変更することができ、顔認識させたい顔画像の特定の精度、自由度が向上する。
C. As described above, in the embodiment, the closeness is set based on the closeness value and closeness range specified by the user, and the face image of the central person and the person having the set closeness is the face recognition target. Therefore, it is possible to easily and appropriately specify the face of a person whose face is to be recognized.
In addition, the correlation data table stores the face images of a plurality of persons and the closeness value between the plurality of persons, and the user can set the face image of any person as the central person, so that the user can The reference person who wants to be the face image to be recognized can be freely changed, and the accuracy and the degree of freedom of the face image to be recognized are improved.
[変形例]
H.上記実施の形態は以下のような態様でもよい。
[Modification]
H. The above embodiment may be the following modes.
(01)上記実施の形態においては、図3(a)に示すように各人物毎(A、B、C〜)に、人物間相互の親密度値(リンク先人物名)を記録させるようにしたが、つまり、R1、R2と複数のレコードを設けるようにしたが、1人(例えば自分)を基準とした人物間相互の親密度値を記録させるようにしてよい。つまり、図3(a)の相関データテーブル21を用いて参照すると、レコードを1つにするようにしても良い。 (01) In the above embodiment, as shown in FIG. 3A, the closeness value (link destination person name) between persons is recorded for each person (A, B, C˜). In other words, R1 and R2 and a plurality of records are provided, but mutual closeness values between persons based on one person (for example, oneself) may be recorded. That is, referring to the correlation data table 21 in FIG. 3A, one record may be used.
(02)また、上記実施の形態においては、相関データテーブル21は1つしか備えていなかったが、ユーザ(グループ)別(たとえば、父、母、息子、娘等のユーザ別)に相関データテーブル21を複数備えるようにしてもよい。この場合は、まず、ユーザを選択してから中心人物や親密度値を設定することになる。
これにより、個々の使用者に対応した人物の顔を特定することでき、使用者が複数いる場合であっても対応することができる。
(02) In the above embodiment, only one correlation data table 21 is provided. However, the correlation data table is classified by user (group) (for example, by father, mother, son, daughter, etc.). A plurality of 21 may be provided. In this case, first, after selecting the user, the central person and the familiarity value are set.
Thereby, the face of the person corresponding to each user can be specified, and even when there are a plurality of users, it is possible to cope with it.
(03)また、上記実施の形態においては、相関データテーブル21は1つしか備えていなかったが、グループ別(例えば、職場、友達、クラブ等のグループ別)に相関データテーブル21を複数備えるようにしてもよい。この場合は、まず、グループを選択してから中心人物や親密度値を設定することになる。
これにより、撮影対象となる人物が属するグループをユーザが選択することができ、所望するグループの人物の顔を特定することができる。
(03) In the above embodiment, only one correlation data table 21 is provided. However, a plurality of correlation data tables 21 are provided for each group (for example, for each group such as a workplace, a friend, and a club). It may be. In this case, first, after selecting a group, the central person and the familiarity value are set.
Thereby, the user can select the group to which the person to be photographed belongs, and the face of the person in the desired group can be specified.
(04)また、上記実施の形態においては、人物との相関値は、図3(a)に示すようなテーブルによって記録させるようにしたが、相関系図のように記録させておくようにしても良い。
図5は、相関系図の内容の例を示す図である。
図を見ると、人物A〜人物Lまでおり(この人物は図3(b)に示す人物と同一人物である)、各人物の人間関係が分かる。ここでは、夫婦及び直系は相関値を「1」をとし、友人は「2」、恋人は「1」としている。
(04) In the above embodiment, the correlation value with the person is recorded by the table as shown in FIG. 3A. However, the correlation value may be recorded as in the correlation diagram. good.
FIG. 5 is a diagram showing an example of the contents of the correlation diagram.
Looking at the figure, there are person A to person L (this person is the same person as the person shown in FIG. 3B), and the human relationship of each person can be understood. Here, the couple and the direct line have a correlation value “1”, a friend “2”, and a lover “1”.
例えば、妻Aを中心(基準)に考えると、夫B及び子Cとの関係では相関値が「1」となり、子Cの恋人Eとの関係では、妻と子Cの相関値が「1」と子Cと恋人Eの相関値が「1」であるので、1+1となり、相関値が「2」となる。
また、友人D及び友人Kとの関係では相関値が「2」となり、友人Dの夫Jとの関係では、友人Dと夫Jとの相関値が「1」であるので、2+1となり、相関値が「3」ということになり、この各人物との相関値は図3(b)のような相関値となる。
For example, considering wife A as the center (reference), the correlation value between the husband B and the child C is “1”, and the relationship between the child C and the lover E is “1”. ”, Child C, and lover E have a correlation value of“ 1 ”, so that the correlation value is 1 + 1 and the correlation value is“ 2 ”.
In addition, the correlation value is “2” in the relationship between the friend D and the friend K, and the correlation value between the friend D and the husband J is “1” in the relationship with the friend D. The value is “3”, and the correlation value with each person is a correlation value as shown in FIG.
このように、相関値を相関系図のように記録させることで、各人物間の人間関係が一目瞭然となるとともに、それぞれの人物相互間の相関値を記録させる必要がなくなる。
なお、ここでは、例えば、友人の相関値を一律「2」としたが、同じ友人同士でも親密度は変わってくるので、相関値を一律にする必要はなく、人物毎に相関値を変えるようにしてもよい。
In this way, by recording the correlation values as in the correlation system diagram, the human relationship between the individual persons becomes clear at a glance, and it is not necessary to record the correlation values between the individual persons.
Here, for example, the correlation value of friends is uniformly “2”. However, since the intimacy changes among the same friends, the correlation value does not need to be uniform, and the correlation value is changed for each person. It may be.
(05)また、上記実施の形態においては、顔認識対象として特定した顔画像を認識すると、該認識した顔に対してAF処理を行うようにしたが、該認識した顔(顔の人物)に基づいてAE処理を行うようにしても良い。 (05) In the above embodiment, when a face image specified as a face recognition target is recognized, AF processing is performed on the recognized face. An AE process may be performed based on this.
(06)また、上記実施の形態においては、顔認識対象として特定した顔画像を認識すると、静止画撮影を行なうようにしたが、これに限られず、該特定した顔画像を用いて顔認識を行ない、該認識結果を利用するものであればよい。この場合は、デジタルカメラ等の撮像装置に限らず、画像を処理する装置であればよい。これにより、画像認識処理による特定された人物の顔の認識結果を多肢に亘り活用することができる。
例えば、該認識した顔の位置に基づいてトリミング処理を行ったり、該認識した顔の位置に基づいて拡大処理(ズーム処理)を行なったり、該認識した顔の位置(若しくは、顔に位置に基づく被写体の位置)をユーザに対して視認させるように表示させるようにしてもよい。この被写体表示は、人ごみの中で撮影された画像に対して有効である。
(06) In the above embodiment, when a face image specified as a face recognition target is recognized, still image shooting is performed. However, the present invention is not limited to this, and face recognition is performed using the specified face image. It is sufficient that the recognition result is used. In this case, the image processing apparatus is not limited to an imaging apparatus such as a digital camera, and any apparatus that processes images may be used. Thereby, the recognition result of the face of the specified person by the image recognition process can be utilized over many limbs.
For example, the trimming process is performed based on the recognized face position, the enlargement process (zoom process) is performed based on the recognized face position, or the recognized face position (or based on the face position). You may make it display so that a user may visually recognize the position of a to-be-photographed object. This subject display is effective for images taken in a crowd.
また、該認識した顔に対して、若しくは該認識した顔の位置に基づく被写体に対して、画像加工処理を行うようにしてもよい。
また、該認識した顔の数に応じて印刷枚数を設定するようにしてもよい。この場合は、写真の焼きまわしなどにおいてユーザが写真を配る人数をわざわざ数えなくて済むという利点もある。
また、記録媒体に記録されている大量の画像データの中から、該特定した顔画像を含む画像データを検索させるようにしてもよい。この場合は、特定した顔画像の全てを含む画像データを検索するか、特定した顔画像のうち少なくとも1つ以上若しくは所定数以上の顔画像を含む画像データを検索するかを選択なり、指定なりすることができるようにしてもよい。これにより、検索対象となる人物を簡単に複数選択することができ、該検索したい人物を含む画像を簡単に検索することができる。
Further, image processing may be performed on the recognized face or on a subject based on the position of the recognized face.
Further, the number of printed sheets may be set according to the number of recognized faces. In this case, there is also an advantage that the user does not have to count the number of people who distribute the photos.
Further, image data including the specified face image may be searched from a large amount of image data recorded on the recording medium. In this case, whether to search for image data including all of the specified face images or to search for image data including at least one of the specified face images or a predetermined number of face images is specified. You may be able to do that. Thereby, a plurality of persons to be searched can be easily selected, and an image including the person to be searched can be easily searched.
(07)また、上記実施の形態においては、基準人物と親密度値1までのグループ、親密度値2までのグループ、親密度3までのグループといった相関データテーブルを備えるようにしてもよい。
この場合は、例えば、親密度値2までのグループが選択されると、親密度値「1」、親密度値「2」の顔画像が特定されることになる。
(07) In the above embodiment, a correlation data table including a reference person and a group up to a
In this case, for example, when a group up to the
(08)また、上記実施の形態においては、ステップS12で指定された親密度値と指定された親密度範囲に基づいて親密度を設定するようにしたが、ユーザによる2つの親密度値の指定を可能し、該指定された2つの親密度値に基づいて親密度を設定するようにしてもよい。例えば、指定された親密度値が「2」、「4」の場合は、親密度値「2」〜「4」の親密度値を親密度として設定してもよいし、親密度値「2」まで、及び、親密度値「4」からの親密度値を親密度として設定するようにしてもよい。 (08) In the above embodiment, the closeness is set based on the closeness value specified in step S12 and the specified closeness range. However, the user specifies two closeness values. The closeness may be set based on the two specified closeness values. For example, when the designated closeness values are “2” and “4”, the closeness values of the closeness values “2” to “4” may be set as closeness values, or the closeness value “2” ”And the familiarity value from the familiarity value“ 4 ”may be set as the familiarity.
(09)また、上記実施の形態において、ステップS14で、スルー画像表示を開始すると、画像認識処理を開始するようにしたが(ステップS15)、スルー画像表示開始後、ユーザによってシャッタボタンが半押しされると(撮影準備が指示されると)、ステップS15に進むようにしてもよい。
また、ステップS16で、特定した顔が認識されたと判断すると、該認識した顔に対してAF処理を行い(ステップS17)、静止画撮影処理を行うようにしたが、ステップS17のAF処理後、ユーザによってシャッタボタンが全押しされると(撮影が指示されると)、ステップS18に進み、静止画撮影を行なうようにしてもよい。
(09) In the above embodiment, when the through image display is started in step S14, the image recognition process is started (step S15). After the through image display starts, the shutter button is half-pressed by the user. If it is done (when shooting preparation is instructed), the process may proceed to step S15.
If it is determined in step S16 that the identified face has been recognized, AF processing is performed on the recognized face (step S17), and still image shooting processing is performed. After AF processing in step S17, When the shutter button is fully pressed by the user (when shooting is instructed), the process proceeds to step S18, and still image shooting may be performed.
(10)また、上記実施の形態において、ステップS16では、ステップS13で特定された何れかの顔画像が認識されると、ステップS17に進むようにしたが、ステップS13で特定された全ての顔画像が認識されるとステップS17に進むようにしてもよい。 (10) In the above embodiment, in step S16, if any face image specified in step S13 is recognized, the process proceeds to step S17. However, all the faces specified in step S13 When the image is recognized, the process may proceed to step S17.
(11)また、上記実施の形態においては、相関データテーブル21に人物の顔画像を記録させるようにしたが、顔画像に替えて顔特徴データを記憶させるようにしてもよい。この場合は、図2のステップS1の登録顔写真の一覧表示は、登録顔画像を表示させるのではなく、人物名を一覧表示させるようする。
また、相関データテーブル21には、人物名とその顔画像を記憶させるようにしたが、人物名を記憶させないようにしてもよい。つまり、人物名フィールド21aの記憶領域をなくすようにしてもよい。顔画像を見れば誰だか特定することができるからである。
(11) In the above embodiment, the face image of a person is recorded in the correlation data table 21, but the face feature data may be stored instead of the face image. In this case, the list display of registered face photos in step S1 of FIG. 2 does not display the registered face images but displays a list of person names.
Further, although the person name and the face image are stored in the correlation data table 21, the person name may not be stored. That is, the storage area of the
(12)また、上記変形例(01)〜(11)を矛盾が生じない範囲内で任意に組み合わせるような態様であってもよい。 (12) Moreover, the aspect which combines arbitrarily the said modification (01)-(11) within the range which does not produce contradiction may be sufficient.
(13)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(13) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.
最後に、上記各実施の形態においては、本発明の画像処理装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、画像を処理することができる機器であれば適用可能である。
Finally, in each of the above-described embodiments, the case where the image processing apparatus of the present invention is applied to the
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1
6 Driver 7 TG
8
11
14
Claims (12)
前記基準人物との親密度を設定する設定手段と、
前記記憶手段に記憶されている親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定手段と、
画像データを取得する画像取得手段と、
前記顔認識対象特定手段により顔認識対象として特定された人物の顔に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なう顔認識制御手段と、
を備えたことを特徴とする画像処理装置。 Storage means for storing a familiarity table in which the familiarity with the reference person is set for each person;
Setting means for setting intimacy with the reference person;
Using a closeness table stored in the storage means, a face recognition target specifying means for specifying a face of a person having a closeness set by the reference person and the setting means as a face recognition target;
Image acquisition means for acquiring image data;
Face recognition control means for performing face recognition processing on the image data acquired by the image acquisition means based on the face of the person specified as the face recognition target by the face recognition target specifying means;
An image processing apparatus comprising:
各人物の顔画像を設定しており、
前記顔認識制御手段は、
前記顔認識対象特定手段により顔認識対象として特定された人物に対応する顔画像に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なうことを特徴とする請求項1記載の画像処理装置。 The intimacy table is
Each person ’s face image is set,
The face recognition control means includes
2. The face recognition process is performed on the image data acquired by the image acquisition unit based on a face image corresponding to a person specified as a face recognition target by the face recognition target specifying unit. The image processing apparatus described.
前記設定手段は、
前記親密度指定手段により指定された親密度に基づいて、親密度を設定することを特徴とする請求項1記載の画像処理装置。 A user has a closeness specifying means for specifying closeness,
The setting means includes
The image processing apparatus according to claim 1, wherein the intimacy is set based on the intimacy specified by the intimacy specifying means.
前記親密度指定手段により指定された親密度以上の親密度を、又は、指定された親密度を、又は、指定された親密度以下の親密度を、設定することを特徴とする請求項3記載の画像処理装置。 The setting means includes
The intimacy greater than or equal to the intimacy specified by the intimacy specifying means, or the intimacy specified, or the intimacy less than or equal to the specified intimacy is set. Image processing apparatus.
前記記憶手段は、
前記親密度テーブルをグループ毎に記憶しており、
前記顔認識対象特定手段は、
前記グループ指定手段により指定されたグループの親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定することを特徴する請求項1乃至4の何れかに記載の画像処理装置。 A group specifying means for the user to specify an arbitrary group is provided,
The storage means
The intimacy table is stored for each group,
The face recognition target specifying means includes
The face of the person having the familiarity set by the reference person and the setting means is specified as a face recognition target using the familiarity table of the group designated by the group designation means. 5. The image processing apparatus according to any one of 4.
前記親密度テーブルは、
更に、前記各人物を基準人物とし、それらの人物相互間の親密度を互いに設定しており、
前記顔認識対象特定手段は、
前記人物指定手段により指定された中心人物を基準人物とし、該基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定することを特徴とする請求項1乃至5の何れかに記載の画像処理装置。 A user specifying means for the user to specify a central person,
The intimacy table is
Further, each person is set as a reference person, and the closeness between the persons is set to each other.
The face recognition target specifying means includes
6. The central person specified by the person specifying means is used as a reference person, and the face of the person having the familiarity set by the reference person and the setting means is specified as a face recognition target. An image processing apparatus according to any one of the above.
前記画像取得手段は、
前記記録手段に記録されている画像データ、又は、前記撮像素子により光電変換された画像データを取得することを特徴とする請求項1乃至8の何れかに記載の画像処理装置。 A recording means for recording and holding image data or an image sensor that photoelectrically converts light of a subject,
The image acquisition means includes
The image processing apparatus according to claim 1, wherein the image data recorded in the recording unit or image data photoelectrically converted by the imaging device is acquired.
前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいてオートフォーカス制御及び/又は露出制御を行なう制御手段と、
を備え、
前記画像取得手段は、
前記撮像素子により光電変換された画像データを取得することを特徴とする請求項1乃至6の何れかに記載の画像処理装置。 An image sensor that photoelectrically converts the light of the subject;
When a face identified as a face recognition target by the face recognition target specifying means is recognized by the face recognition processing by the face recognition control means, autofocus control and / or exposure control is performed based on the position of the recognized face. Control means to perform;
With
The image acquisition means includes
The image processing apparatus according to claim 1, wherein the image data photoelectrically converted by the imaging element is acquired.
前記画像取得手段は、
前記記録手段により記録されている画像データを順次取得していき、
前記顔認識制御手段は、
前記画像取得手段により順次取得された画像データに対して、顔認識処理を行うことにより、前記顔認識対象特定手段により顔認識対象として特定された顔を含む画像データを検索していく検索手段を含むことを特徴とする請求項1乃至6の何れかに記載の画像処理装置。 Comprising recording means for recording and holding image data;
The image acquisition means includes
Sequentially obtaining the image data recorded by the recording means,
The face recognition control means includes
Retrieval means for retrieving image data including a face specified as a face recognition target by the face recognition target specifying means by performing face recognition processing on the image data sequentially acquired by the image acquisition means. The image processing apparatus according to claim 1, further comprising:
前記基準人物との親密度を設定する設定処理と、
前記基準人物との親密度を各人物毎に記憶した親密度テーブルを用いて、前記基準人物と前記設定処理により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定処理と、
画像データを取得する画像取得処理と、
前記顔認識対象特定処理により顔認識対象として特定された人物の顔に基づいて、前記取得処理により取得された画像データに対して顔認識処理を行なう顔認識制御処理と、
を実行させることを特徴とするプログラム。
On the computer,
A setting process for setting intimacy with the reference person;
Using a familiarity table that stores the familiarity with the reference person for each person, the face recognition target specification that identifies the face of the reference person and the person having the familiarity set by the setting process as a face recognition target Processing,
Image acquisition processing for acquiring image data;
A face recognition control process for performing a face recognition process on the image data acquired by the acquisition process based on the face of the person specified as a face recognition target by the face recognition target specifying process;
A program characterized in that is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007080582A JP4895205B2 (en) | 2007-03-27 | 2007-03-27 | Image processing apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007080582A JP4895205B2 (en) | 2007-03-27 | 2007-03-27 | Image processing apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008242694A true JP2008242694A (en) | 2008-10-09 |
JP4895205B2 JP4895205B2 (en) | 2012-03-14 |
Family
ID=39913984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007080582A Expired - Fee Related JP4895205B2 (en) | 2007-03-27 | 2007-03-27 | Image processing apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4895205B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011082913A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Imaging apparatus, imaging method and imaging program |
JP2011082915A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Information processor, image extraction method and image extraction program |
JP2014506701A (en) * | 2011-02-18 | 2014-03-17 | グーグル・インコーポレーテッド | Affinity-based ranking for search and display |
JP5674670B2 (en) * | 2010-03-18 | 2015-02-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Data processing apparatus and data processing method |
US10028448B2 (en) | 2012-07-10 | 2018-07-24 | Once Innovations, Inc. | Light sources adapted to spectral sensitivity of plants |
US10212892B2 (en) | 2012-07-10 | 2019-02-26 | Once Innovatians, Inc. | Light sources adapted to spectral sensitivity of plant |
US10244595B2 (en) | 2014-07-21 | 2019-03-26 | Once Innovations, Inc. | Photonic engine system for actuating the photosynthetic electron transport chain |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003219329A (en) * | 2002-01-28 | 2003-07-31 | Canon Inc | Printer integrated camera |
JP2006079460A (en) * | 2004-09-10 | 2006-03-23 | Fuji Photo Film Co Ltd | System, method and program for displaying electronic album and device, method, and program for classifying image |
-
2007
- 2007-03-27 JP JP2007080582A patent/JP4895205B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003219329A (en) * | 2002-01-28 | 2003-07-31 | Canon Inc | Printer integrated camera |
JP2006079460A (en) * | 2004-09-10 | 2006-03-23 | Fuji Photo Film Co Ltd | System, method and program for displaying electronic album and device, method, and program for classifying image |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011082913A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Imaging apparatus, imaging method and imaging program |
JP2011082915A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Information processor, image extraction method and image extraction program |
JP5674670B2 (en) * | 2010-03-18 | 2015-02-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Data processing apparatus and data processing method |
US9113173B2 (en) | 2010-03-18 | 2015-08-18 | Panasonic Intellectual Property Corporation Of America | Data processing device and data processing method which compresses image data |
JP2014506701A (en) * | 2011-02-18 | 2014-03-17 | グーグル・インコーポレーテッド | Affinity-based ranking for search and display |
JP2016157476A (en) * | 2011-02-18 | 2016-09-01 | グーグル インコーポレイテッド | Affinity based ranking for search and display |
US10028448B2 (en) | 2012-07-10 | 2018-07-24 | Once Innovations, Inc. | Light sources adapted to spectral sensitivity of plants |
US10212892B2 (en) | 2012-07-10 | 2019-02-26 | Once Innovatians, Inc. | Light sources adapted to spectral sensitivity of plant |
US10524426B2 (en) | 2012-07-10 | 2020-01-07 | Signify Holding B.V. | Light sources adapted to spectral sensitivity of plant |
US10973173B2 (en) | 2012-07-10 | 2021-04-13 | Signify North America Corporation | Light sources adapted to spectral sensitivity of plants |
US10244595B2 (en) | 2014-07-21 | 2019-03-26 | Once Innovations, Inc. | Photonic engine system for actuating the photosynthetic electron transport chain |
US10813183B2 (en) | 2014-07-21 | 2020-10-20 | Signify North America Corporation | Photonic engine system for actuating the photosynthetic electron transport chain |
Also Published As
Publication number | Publication date |
---|---|
JP4895205B2 (en) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5056061B2 (en) | Imaging device | |
US7672580B2 (en) | Imaging apparatus and method for controlling display device | |
EP1737216B1 (en) | Object determination device, imaging device and monitor | |
JP5128880B2 (en) | Image handling device | |
US8077216B2 (en) | Image pickup apparatus with a human face detecting function, method and program product for detecting a human face | |
JP5293206B2 (en) | Image search apparatus, image search method and program | |
JP4895205B2 (en) | Image processing apparatus and program thereof | |
JP2010010936A (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
US9131138B2 (en) | Photographing apparatus | |
JP2005110097A (en) | Imaging apparatus and image pickup method | |
JP4315212B2 (en) | Imaging apparatus, imaging control program, and imaging control method | |
JP5540762B2 (en) | Imaging device, image display device, and image display program | |
JP2008099192A (en) | Imaging apparatus and program thereof | |
KR101046041B1 (en) | Imaging device | |
CN108471503A (en) | Picture pick-up device and its control method | |
JP2006203811A (en) | Imaging apparatus and program thereof | |
JP2011061703A (en) | Image capturing apparatus and method of manufacturing the same | |
JP5181841B2 (en) | Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program | |
US20180077298A1 (en) | Image-capturing assistance device and image-capturing device | |
JP2011128938A (en) | Image display device and image display program | |
JP5675922B2 (en) | Shooting display device | |
JP5293769B2 (en) | Imaging apparatus and program thereof | |
JP2004349832A (en) | Imaging equipment | |
JP2010183565A (en) | Image capturing apparatus, image retrieval device, and program | |
JP6357922B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4895205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |