[go: up one dir, main page]

JP2008242694A - Image processing apparatus and program thereof - Google Patents

Image processing apparatus and program thereof Download PDF

Info

Publication number
JP2008242694A
JP2008242694A JP2007080582A JP2007080582A JP2008242694A JP 2008242694 A JP2008242694 A JP 2008242694A JP 2007080582 A JP2007080582 A JP 2007080582A JP 2007080582 A JP2007080582 A JP 2007080582A JP 2008242694 A JP2008242694 A JP 2008242694A
Authority
JP
Japan
Prior art keywords
person
face recognition
face
image
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007080582A
Other languages
Japanese (ja)
Other versions
JP4895205B2 (en
Inventor
Takeshi Tanaka
剛 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007080582A priority Critical patent/JP4895205B2/en
Publication of JP2008242694A publication Critical patent/JP2008242694A/en
Application granted granted Critical
Publication of JP4895205B2 publication Critical patent/JP4895205B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and its program capable of easily and appropriately setting the faces of a plurality of persons as the subjects of face recognition. <P>SOLUTION: The image processing apparatus has a correlation data table that records the face images of a plurality of persons and stores affinity values between the plurality of persons. Based on user-designated affinity values and affinity range, an affinity is set (S6 to 12). The face image of the person who has the set affinity to a central person is set as the subject of face recognition (S13), and a face recognition process is executed (S15), whereby a determination is made as to whether or not the face image specified is included in image data (S16). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置及びそのプログラムに係り、詳しくは、被写体の顔を認識することができる画像処理装置及びそのプログラムに関する。   The present invention relates to an image processing apparatus and a program thereof, and more particularly to an image processing apparatus and a program thereof that can recognize a face of a subject.

近年、画像検索等を行なう画像処理装置においては、複数の顔画像を選択し、該選択した顔画像を含む画像データを画像認識、例えば、顔の特徴量を算出することにより検索することができる技術が登場した(特許文献1)。   2. Description of the Related Art In recent years, an image processing apparatus that performs image search or the like can search by selecting a plurality of face images and recognizing image data including the selected face images, for example, by calculating facial feature amounts. Technology has appeared (Patent Document 1).

公開特許公報 特開2006−163527JP Patent Publication No. 2006-163527

しかしながら、従来の技術によれば、複数の顔画像を検索対象、顔認識対象として設定しようとした場合、顔画像を1つ1つ手動選択していく必要があるので、顔画像の選択操作が大変であり、また、どの顔画像を選択したら良いのかを考えながら顔画像を選択していく必要があり手間がかかる。   However, according to the conventional technique, when a plurality of face images are to be set as search targets and face recognition targets, it is necessary to manually select the face images one by one. It is difficult, and it is necessary to select a face image while considering which face image should be selected.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、簡易に且つ適切に複数の人物の顔を顔認識対象として設定することができる画像処理装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and provides an image processing apparatus and a program thereof capable of easily and appropriately setting a plurality of human faces as face recognition targets. Objective.

上記目的達成のため、請求項1記載の発明による画像処理装置は、基準人物との親密度を各人物毎に設定した親密度テーブルを記憶した記憶手段と、
前記基準人物との親密度を設定する設定手段と、
前記記憶手段に記憶されている親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定手段と、
画像データを取得する画像取得手段と、
前記顔認識対象特定手段により顔認識対象として特定された人物の顔に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なう顔認識制御手段と、
を備えたことを特徴とする。
To achieve the above object, the image processing apparatus according to the first aspect of the present invention includes a storage unit that stores a closeness table in which a closeness with a reference person is set for each person,
Setting means for setting intimacy with the reference person;
Using a closeness table stored in the storage means, a face recognition target specifying means for specifying a face of a person having a closeness set by the reference person and the setting means as a face recognition target;
Image acquisition means for acquiring image data;
Face recognition control means for performing face recognition processing on the image data acquired by the image acquisition means based on the face of the person specified as the face recognition target by the face recognition target specifying means;
It is provided with.

また、例えば、請求項2に記載されているように、前記親密度テーブルは、
各人物の顔画像を設定しており、
前記顔認識制御手段は、
前記顔認識対象特定手段により顔認識対象として特定された人物に対応する顔画像データに基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なうようにしてもよい。
Also, for example, as described in claim 2, the closeness table is:
Each person ’s face image is set,
The face recognition control means includes
The face recognition process may be performed on the image data acquired by the image acquisition unit based on the face image data corresponding to the person specified as the face recognition target by the face recognition target specifying unit.

また、例えば、請求項3に記載されているように、ユーザが親密度を指定するための親密度指定手段を備え、
前記設定手段は、
前記親密度指定手段により指定された親密度に基づいて、親密度を設定するようにしてもよい。
Further, for example, as described in claim 3, a user is provided with a closeness specifying means for specifying closeness,
The setting means includes
The closeness may be set based on the closeness specified by the closeness specifying means.

また、例えば、請求項4に記載されているように、前記設定手段は、
前記親密度指定手段により指定された親密度以上の親密度を、又は、指定された親密度を、又は、指定された親密度以下の親密度を、設定するようにしてもよい。
For example, as described in claim 4, the setting unit includes:
You may make it set the familiarity more than the familiarity designated by the familiarity designation | designated means, the designated familiarity, or the familiarity below the designated familiarity.

また、例えば、請求項5に記載されているように、ユーザが任意のグループを指定するためのグループ指定手段を備え、
前記記憶手段は、
前記親密度テーブルをグループ毎に記憶しており、
前記顔認識対象特定手段は、
前記グループ指定手段により指定されたグループの親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定するようにしてもよい。
Further, for example, as described in claim 5, the apparatus includes a group specifying unit for the user to specify an arbitrary group,
The storage means
The intimacy table is stored for each group,
The face recognition target specifying means includes
The reference person and the face of the person having the closeness set by the setting means may be specified as a face recognition target using the closeness table of the group specified by the group specifying means.

また、例えば、請求項6に記載されているように、ユーザが中心人物を指定する人物指定手段を備え、
前記親密度テーブルは、
更に、前記各人物を基準人物とし、それらの人物相互間の親密度を互いに設定しており、
前記顔認識対象特定手段は、
前記人物指定手段により指定された中心人物を基準人物とし、該基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定するようにしてもよい。
Further, for example, as described in claim 6, a user specifying means for the user to specify a central person is provided,
The intimacy table is
Further, each person is set as a reference person, and the closeness between the persons is set to each other.
The face recognition target specifying means includes
The central person specified by the person specifying means may be a reference person, and the face of the reference person and the person having the familiarity set by the setting means may be specified as a face recognition target.

また、例えば、請求項7に記載されているように、前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいて、被写体のトリミング制御、被写体位置を示す表示制御、被写体画像の拡大表示制御、被写体の画像加工制御のうち、少なくとも1つ以上の制御を行なう制御手段を備えるようにしてもよい。   Further, for example, as described in claim 7, when a face specified as a face recognition target by the face recognition target specifying unit is recognized by the face recognition processing by the face recognition control unit, the recognition is performed. Control means for performing at least one control among trimming control of the subject, display control indicating the subject position, enlargement display control of the subject image, and image processing control of the subject based on the face position may be provided. Good.

また、例えば、請求項8に記載されているように、前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の数に応じて、印刷枚数を設定する設定手段を備えるようにしてもよい。   For example, as described in claim 8, when a face identified as a face recognition target by the face recognition target identification unit is recognized by the face recognition processing by the face recognition control unit, the recognition is performed. You may make it provide the setting means to set the number of printed sheets according to the number of faces.

また、例えば、請求項9に記載されているように、画像データを記録保持するための記録手段又は被写体の光を光電変換する撮像素子を備え、
前記画像取得手段は、
前記記録手段に記録されている画像データ、又は、前記撮像素子により光電変換された画像データを取得するようにしてもよい。
Further, for example, as described in claim 9, a recording unit for recording and holding image data or an image sensor that photoelectrically converts light of a subject,
The image acquisition means includes
You may make it acquire the image data currently recorded on the said recording means, or the image data photoelectrically converted by the said image pick-up element.

また、例えば、請求項10に記載されているように、被写体の光を光電変換する撮像素子と、
前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいてオートフォーカス制御及び/又は露出制御を行なう制御手段と、
を備え、
前記画像取得手段は、
前記撮像素子により光電変換された画像データを取得するようにしてもよい。
Further, for example, as described in claim 10, an image sensor that photoelectrically converts light of a subject;
When a face identified as a face recognition target by the face recognition target specifying means is recognized by the face recognition processing by the face recognition control means, autofocus control and / or exposure control is performed based on the position of the recognized face. Control means to perform;
With
The image acquisition means includes
You may make it acquire the image data photoelectrically converted by the said image pick-up element.

また、例えば、請求項11に記載されているように、画像データを記録保持するための記録手段を備え、
前記画像取得手段は、
前記記録手段により記録されている画像データを順次取得していき、
前記顔認識制御手段は、
前記画像取得手段により順次取得された画像データに対して、顔認識処理を行うことにより、前記顔認識対象特定手段により顔認識対象として特定された顔を含む画像データを検索していく検索手段を含むようにしてもよい。
Further, for example, as described in claim 11, a recording unit for recording and holding image data is provided,
The image acquisition means includes
Sequentially obtaining the image data recorded by the recording means,
The face recognition control means includes
Retrieval means for retrieving image data including a face specified as a face recognition target by the face recognition target specifying means by performing face recognition processing on the image data sequentially acquired by the image acquisition means. It may be included.

上記目的達成のため、請求項12記載の発明によるプログラムは、コンピュータに、
前記基準人物との親密度を設定する設定処理と、
前記基準人物との親密度を各人物毎に記憶した親密度テーブルを用いて、前記基準人物と前記設定処理により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定処理と、
画像データを取得する画像取得処理と、
前記顔認識対象特定処理により顔認識対象として特定された人物の顔に基づいて、前記取得処理により取得された画像データに対して顔認識処理を行なう顔認識制御処理と、
を実行させることを特徴とする。
In order to achieve the above object, a program according to claim 12 is stored in a computer.
A setting process for setting intimacy with the reference person;
Using a familiarity table that stores the familiarity with the reference person for each person, the face recognition target specification that identifies the face of the reference person and the person having the familiarity set by the setting process as a face recognition target Processing,
Image acquisition processing for acquiring image data;
A face recognition control process for performing a face recognition process on the image data acquired by the acquisition process based on the face of the person specified as a face recognition target by the face recognition target specifying process;
Is executed.

本願発明によれば、簡易に且つ適切に顔認識させたい人物の顔を特定させることができる。   According to the present invention, it is possible to easily and appropriately specify the face of a person whose face is to be recognized.

以下、本実施の形態について、本発明の画像処理装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の画像処理装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the image processing apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the image processing apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, an aperture 4, a CCD 5, a driver 6, a TG (timing generator) 7, a unit circuit 8, an image generation unit 9, a CPU 10, a key input unit 11, a memory 12, a DRAM 13, A flash memory 14, an image display unit 15, and a bus 16 are provided.

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。   The photographing lens 2 includes a focus lens, a zoom lens, and the like that are constituted by a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 includes a focus motor and a zoom motor that drive the focus lens and the zoom lens along the optical axis direction, respectively, and a focus motor driver that drives the focus motor and the zoom motor according to a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 10.
The diaphragm 4 is a mechanism that controls the amount of light that enters from the photographing lens 2.

CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is driven by the driver 6 and photoelectrically converts the intensity of light of each color of the RGB value of the subject image for every fixed period and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. An (Automatic Gain Control) circuit and an A / D converter that converts an analog image pickup signal after the automatic gain adjustment into a digital signal, the image pickup signal output from the CCD 5 passes through the unit circuit 8 as a digital signal. It is sent to the image generator 9.

画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。   The image generation unit 9 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 8, generates a luminance color difference signal (YUV data), and generates the generated luminance color difference. The image data of the signal is stored in the DRAM 13 (buffer memory). That is, the image generation unit 9 performs image processing on the image data output from the CCD 5.

CPU10は、CCD5への撮像制御、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。
特に、CPU10は、顔認識対象として1以上の顔画像を特定する機能、該特定された顔画像に基づいて画像データに対して顔認識処理を行なう機能を有する。
The CPU 10 is a one-chip microcomputer that has functions of performing imaging control on the CCD 5, recording processing on the flash memory 14, and display processing of image data, and controls each part of the digital camera 1. Further, the CPU 10 includes a clock circuit and has a function as a timer.
In particular, the CPU 10 has a function of specifying one or more face images as face recognition targets, and a function of performing face recognition processing on image data based on the specified face images.

キー入力部11は、シャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータ(相関データテーブル)が記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, and a SET key, and outputs an operation signal corresponding to the user's key operation to the CPU 10.
The memory 12 stores a control program and necessary data (correlation data table) necessary for the CPU 10 to control each unit, and the CPU 10 operates according to the program. The memory 12 is a rewritable nonvolatile memory.

DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
The DRAM 13 is used as a buffer memory for temporarily storing image data sent to the CPU 10 after being imaged by the CCD 5 and also as a working memory for the CPU 10.
The flash memory 14 is a recording medium that stores compressed image data.

画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。   The image display unit 15 includes a color LCD and its drive circuit, and displays the subject imaged by the CCD 5 as a through image when in a shooting standby state, and is read out from the flash memory 14 and decompressed when a recorded image is reproduced. Display the recorded image.

B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図2のフローチャートに従って説明する。
ユーザのキー入力部11の操作により顔認識モードに設定されると、ステップS1で、CPU10は、登録顔写真を画像表示部15に一覧表示させる。
この登録顔写真は、メモリ12の相関データテーブルに記録されており、該相関データテーブルに記録されている登録顔写真を読み出して一覧表示させる。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described with reference to the flowchart of FIG.
When the face recognition mode is set by the user's operation of the key input unit 11, the CPU 10 causes the image display unit 15 to display a list of registered face photos in step S1.
The registered face photo is recorded in the correlation data table of the memory 12, and the registered face photo recorded in the correlation data table is read and displayed as a list.

ここで、図3(a)は、メモリ12に記録されている相関データテーブル21の内容の例を示す図である。
相関データテーブル21は、人物毎にレコード(R1、R2、R3、・・・、Rn)を備えており、各レコードは、人物名フィールド21a、顔写真フィールド21b、リンク先人物名フィールド群21cを含む。そして、リンク先人物名フィールド群21cは、全ての人物に対応した個別人物名フィールド21c−1、21c−2、21c−3、・・・、21c−nを含む。
Here, FIG. 3A is a diagram showing an example of the contents of the correlation data table 21 recorded in the memory 12.
The correlation data table 21 includes records (R1, R2, R3,..., Rn) for each person, and each record includes a person name field 21a, a face photo field 21b, and a linked person name field group 21c. Including. The linked person name field group 21c includes individual person name fields 21c-1, 21c-2, 21c-3,..., 21c-n corresponding to all persons.

人物名フィールド21aには人物の名称が格納され、顔写真フィールド21bにはその人物に対応する顔写真が格納される。この顔写真フィールド21bに格納されている顔写真が上記登録顔写真となる。また、リンク先人物名フィールド群21cの各々の個別人物名フィールド21c−1、21c−2、21c−3、・・・、21c−nには、全ての人物名、つまり、人物名フィールド21aに格納されている人物名が格納される。   The name of the person is stored in the person name field 21a, and the face picture corresponding to the person is stored in the face picture field 21b. The face photo stored in the face photo field 21b is the registered face photo. In addition, in the individual person name fields 21c-1, 21c-2, 21c-3,..., 21c-n of the link destination person name field group 21c, all person names, that is, the person name field 21a are displayed. Stored person name is stored.

人物名フィールド21aと、リンク先人物名フィールド群21cの各個別人物名フィールド21c−1、21c−2、・・・21c−nとの交点のうち、同一の人物名同士の交点(斜線入りの交点)を除く各交点(交差部分)は、親密度を表す「相関値」を格納するためのエリアである。すなわち、これらの交点は、交差する互いの人物同士の親しさ(親密度)を表す「相関値(親密度値)」が格納されている。この相関値が低ければ低いほど交差する互いの人物同士の親密度が高くなり、相関値が高いほど交差する互いの人物同士の親密度は低くなる(親しくなくなる)。   Of the intersections of the person name field 21a and the individual person name fields 21c-1, 21c-2,... 21c-n of the linked person name field group 21c, the intersections of the same person names (with hatched lines) Each intersection (intersection) except for (intersection) is an area for storing a “correlation value” representing intimacy. That is, at these intersections, “correlation values (intimacy values)” representing the closeness (intimacy) between the intersecting persons are stored. The lower the correlation value, the higher the closeness between the intersecting persons, and the higher the correlation value, the lower the closeness between the intersecting persons (becomes unfriendly).

例えば、人物Aと人物B、及び、人物Aと人物Cとの相関値は「1」であるので、人物Aと人物B、人物Aと人物Cとはかなり親しい関係となる。また、人物Aと人物Fとの相関値は「4」であるので、人物Aと人物Fとはそれほど親しい関係でないことが分かる。
ユーザが自由にこの相関データテーブル21を作成することができ、ユーザは、人物名フィールド21aに人物の名称を、顔写真フィールド21bに人物名フィールド21aの顔写真を記録し、リンク先人物名フィールド群21cの各個別人物名フィールド21c−1、21c−2、・・・には、該人物名フィールド21aに記録された人物名が自動的に記録される。そして、各レコードおいて、人物名フィールド21aの人物と、リンク先人物名フィールド群21cの各個別人物フィールドの人物との相関値をユーザがそれぞれ入力することになる。つまり、各人物相互間の相関値をユーザが入力することになる。
For example, since the correlation value between the person A and the person B and between the person A and the person C is “1”, the person A and the person B, and the person A and the person C are in a very close relationship. Further, since the correlation value between the person A and the person F is “4”, it can be seen that the person A and the person F are not so close.
The user can freely create this correlation data table 21, and the user records the person's name in the person name field 21a, the face photo in the person name field 21a in the face photo field 21b, and the linked person name field. In the individual person name fields 21c-1, 21c-2,... Of the group 21c, the person names recorded in the person name field 21a are automatically recorded. In each record, the user inputs a correlation value between the person in the person name field 21a and the person in each individual person field of the linked person name field group 21c. That is, the user inputs a correlation value between each person.

なお、あるレコードにおいて、例えば、人物Aのレコードにおいて、人物名フィールド21aとリンク先人物名フィールド群21cの各個別人物名フィールド21c−n、例えば、人物Bの各個別人物名フィールド21c−2との交点に相関値「1」が記録されると、該記録された相関値が、リンク先人物名フィールド21cの各個別人物名フィールド21c−nの人物に対応するレコード、つまり、各個別人物名フィールド21c−2の人物Bのレコードにおいても、人物Aに対応する各個別人物名フィールド21c−1との交点に自動的に記録されることになる。   In a certain record, for example, in the record of the person A, the individual person name field 21c-n of the person name field 21a and the linked person name field group 21c, for example, the individual person name field 21c-2 of the person B, When the correlation value “1” is recorded at the intersection, the recorded correlation value is a record corresponding to the person in each individual person name field 21c-n of the linked person name field 21c, that is, each individual person name. The record of the person B in the field 21c-2 is automatically recorded at the intersection with each individual person name field 21c-1 corresponding to the person A.

また、図4(a)は、一覧表示された登録顔写真の様子の一例を示す図である。
図4(a)を見ると、図3(a)の顔写真フィールド21bに格納されている顔画像が表示されているのが分かる。なお、一覧表示する際は、CPU10は、所定の顔写真を選択した状態にし、該選択した登録顔写真を識別表示させる。ここでは、人物名Aの顔写真が選択され、該選択された該人物名Aの顔写真が太枠で表示されることにより差別表示されているのが分かる。
FIG. 4A is a diagram illustrating an example of a registered face photograph displayed as a list.
4A shows that the face image stored in the face photo field 21b of FIG. 3A is displayed. When displaying a list, the CPU 10 selects a predetermined face photo and identifies and displays the selected registered face photo. Here, it can be seen that the face photo of the person name A is selected, and the selected face photo of the person name A is displayed in a thick frame so as to be discriminated.

登録顔写真の一覧表示を行うと、ステップS2で、CPU10は、ユーザによって十字キーの操作が行なわれたか否かを判断する。この判断は、十字キーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS2で、十字キーの操作に対応する操作信号がキー入力部11から送られてきたと判断すると、CPU10は、該操作に従って登録顔写真を新たに選択した後(ステップS3)、ステップS4に進む。つまり、選択されている登録顔写真を変更することになる。このときは、変更後に選択された登録顔写真を差別表示させる。
When the list of registered face photos is displayed, in step S2, the CPU 10 determines whether or not the cross key has been operated by the user. This determination is made based on whether or not an operation signal corresponding to the operation of the cross key is sent from the key input unit 11.
If it is determined in step S2 that an operation signal corresponding to the operation of the cross key is sent from the key input unit 11, the CPU 10 newly selects a registered face photo according to the operation (step S3), and then proceeds to step S4. . That is, the selected registered face photo is changed. At this time, the registered face photo selected after the change is discriminated and displayed.

例えば、図4(a)に示すような状態で十字キーの「→」キーが操作されると、選択される登録顔写真が人物名Aのもから人物名Bのものになり、また、図4(a)に示すような状態で十字キーの「↓」キーが操作されると、選択される登録顔写真が人物名Aのもから人物名Eのものになる。
一方、ステップS2で、十字キーの操作に対応する操作信号がキー入力部11から送られてきていないと判断するとそのままステップS4に進む。
For example, when the “→” key of the cross key is operated in the state as shown in FIG. 4A, the selected registered face photo changes from the person name A to the person name B. When the “↓” key of the cross key is operated in the state as shown in FIG. 4A, the registered face photo to be selected changes from the person name A to the person name E.
On the other hand, if it is determined in step S2 that an operation signal corresponding to the operation of the cross key is not sent from the key input unit 11, the process proceeds to step S4 as it is.

ステップS4に進むと、CPU10は、ユーザによってSETキーの操作が行なわれたか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは現在選択している顔写真の人物を中心人物として決定したいと思う場合はSETキーの操作を行なう。中心人物とは、各人物の親密度を得る上で基準となる人物のことを指し、この中心人物を基準にして、各人物の親密度が定まることになる。基準となる人物が異なれば各人物の親密度も変わるからである。
In step S4, the CPU 10 determines whether or not the user has operated the SET key. This determination is made based on whether or not an operation signal corresponding to the operation of the SET key is sent from the key input unit 11.
At this time, when the user wants to determine the person of the currently selected facial photograph as the central person, the user operates the SET key. The central person refers to a person serving as a reference in obtaining the familiarity of each person, and the familiarity of each person is determined based on the central person. This is because the intimacy of each person changes if the reference person is different.

図3(b)は、中心人物を人物Aにしたときの各人物との親密度を相関データテーブル21を用いて表した図である。この円のうち、中心にある円は中心人物を表し、この円を中心に何層にも亘って円が重なっているのがわかる。このそれぞれの円は、中心人物Aとの親密度(相関値)を表しており、中心の円から離れれば離れるほど、親密度は低くなる。
ここでは、人物はA〜Lまでおり(G〜Lは図3(a)で記載を省略している)、中心人物Aと、各人物(B〜L)との親密度がわかる。このように、図3(a)に示すような相関データテーブル21を用いれば、各人物との親密度が用意に導けだせる。
FIG. 3B is a diagram showing the intimacy with each person using the correlation data table 21 when the person A is the central person. Of these circles, the circle at the center represents the central person, and it can be seen that the circles are stacked over several layers around this circle. Each of these circles represents the familiarity (correlation value) with the central person A, and the further away from the central circle, the lower the familiarity.
Here, there are persons A to L (G to L are not shown in FIG. 3A), and the familiarity between the central person A and each person (B to L) is known. As described above, by using the correlation data table 21 as shown in FIG. 3A, the familiarity with each person can be easily derived.

ステップS4で、SETキーの操作に対応する操作信号が送られてきていないと判断するとステップS2に戻り、ステップS4で、SETキーの操作に対応する操作信号が送られてきたと判断すると、ステップS5に進み、CPU10は、SETキーの操作に対応する操作信号が送られてきたときに選択されている人物を中心人物として設定する。   If it is determined in step S4 that an operation signal corresponding to the operation of the SET key has not been sent, the process returns to step S2, and if it is determined in step S4 that an operation signal corresponding to the operation of the SET key has been sent, step S5 is performed. The CPU 10 sets the person selected when the operation signal corresponding to the operation of the SET key is sent as the central person.

次いで、ステップS6に進み、CPU10は、親密度情報設定画面を画像表示部15に表示させる。
図4(b)は、表示される親密度情報設定画面の様子の一例を示す図である。
図4(b)を見ると、『親密度値 3 までの 顔を認識します』という文章が表示されているのがわかる。
Next, in step S6, the CPU 10 causes the image display unit 15 to display a closeness information setting screen.
FIG. 4B is a diagram illustrating an example of the displayed familiarity information setting screen.
Looking at FIG. 4 (b), it can be seen that the text “Recognize faces up to intimacy value 3” is displayed.

次いで、ステップS7で、CPU10は、親密度値(相関値)の指定操作が行なわれたか否かを判断する。この判断は、ユーザの十字キーの操作などにより「3」の欄(親密度値指定欄)が選択されたか否かを判断する。このとき、ユーザは「3」の欄を選択し、十字キーを操作することにより指定する親密度値を変更することができる。例えば、十字キーの「↑」キーを操作すると、親密度値は、「3」から「4」、「5」と数字が大きくなり、十字キーの「↓」キーを操作すると、親密度値は、「3」、「2」、「1」と数字が小さくなる。   Next, in step S <b> 7, the CPU 10 determines whether or not an operation for specifying the familiarity value (correlation value) has been performed. This determination is made as to whether or not the column “3” (intimacy value designation column) is selected by the user's operation of the cross key or the like. At this time, the user can change the intimacy value designated by selecting the column “3” and operating the cross key. For example, when the “↑” key of the cross key is operated, the familiarity value increases from “3” to “4” and “5”, and when the “↓” key of the cross key is operated, the familiarity value is , “3”, “2”, “1”, the numbers become smaller.

ステップS7で、親密度値の指定操作が行なわれたと判断すると、ステップS8に進み、CPU10は、該指定操作に従って親密度値を変更させて、ステップS9に進む。
一方、ステップS7で、親密度値の指定操作が行なわれていないと判断するとそのままステップS9に進む。
If it is determined in step S7 that a closeness value designation operation has been performed, the process proceeds to step S8, and the CPU 10 changes the familiarity value in accordance with the designation operation, and then proceeds to step S9.
On the other hand, if it is determined in step S7 that the intimacy value designation operation has not been performed, the process proceeds directly to step S9.

ステップS9に進むと、CPU10は、親密度範囲の指定が行なわれたか否かを判断する。この判断は、ユーザの十字キーの操作などにより「までの」の欄(親密度範囲指定欄)が選択されたか否かを判断する。このとき、ユーザが「までの」の欄を選択すると、図4(b)に示すような「までの」か「からの」か「の」の何れかの範囲を指定させるための小画面が表示され、ユーザは該小画面を見ながら十字キーを操作することにより任意の範囲を指定することができる。   In step S9, the CPU 10 determines whether or not a closeness range has been designated. This determination is made as to whether or not the “until” column (intimacy range designation column) has been selected by the user's operation of the cross key or the like. At this time, when the user selects the “until” column, a small screen for designating a range of “until”, “from” or “no” as shown in FIG. The user can specify an arbitrary range by operating the cross key while looking at the small screen.

ここで、「までの」とは、指定された親密度以上のことを指し(指定された親密度及び該指定された親密度より高い親密度のことを指し、つまり、指定された親密度値以下の親密度値のことを指す)、たとえば、親密度値(相関値)として3が指定されている場合は、親密度値(相関度)「3」、「2」、「1」の範囲を指す。
また、「からの」とは、指定された親密度以下のことを指し(指定された親密度及び該指定された親密度より低い親密度のことを指し、つまり、指定された親密度値以上の親密度値を指す)、例えば、親密度値として3が指定されている場合は、親密度値「3」、「4」、「5」・・・の範囲を指す。
また、「の」とは、指定された親密度値のことを指し、例えば、親密度値として3が指定されている場合は、親密度値「3」のみを指す。
Here, “until” refers to the specified intimacy or higher (refers to the specified intimacy and the intimacy higher than the specified intimacy, that is, the specified intimacy value) For example, when 3 is specified as the intimacy value (correlation value), the intimacy value (correlation degree) ranges from “3”, “2”, and “1”. Point to.
“From” refers to the specified intimacy or lower (refers to the specified intimacy and the intimacy lower than the specified intimacy, that is, the specified intimacy value or more. For example, when 3 is specified as the familiarity value, it indicates a range of familiarity values “3”, “4”, “5”.
“No” refers to the designated familiarity value. For example, when “3” is designated as the familiarity value, only the familiarity value “3” is indicated.

ステップS9で、親密度範囲の指定が行なわれたと判断すると、ステップS10に進み、CPU10が、該指定にしたがって親密度範囲を変更させてステップS11に進む。
一方、ステップS9で、親密度範囲の指定が行なわれていないと判断するとそのままステップS11に進む。
If it is determined in step S9 that the familiarity range has been designated, the process proceeds to step S10, and the CPU 10 changes the familiarity range in accordance with the designation and proceeds to step S11.
On the other hand, if it is determined in step S9 that the closeness range is not designated, the process proceeds directly to step S11.

ステップS11に進むと、CPU10は、SETキーの操作が行なわれたか否かを判断する。このとき、ユーザは指定した親密度値及び親密度範囲で良いと思う場合はSETキーの操作を行なう。
ステップS11で、SETキーの操作が行なわれていないと判断するとステップS7に戻り上記した動作を繰り返す。これにより、SETキーの操作を行なうまでは、親密度値、親密度範囲を自由に変更することができる。
In step S11, the CPU 10 determines whether or not the SET key has been operated. At this time, if the user thinks that the specified familiarity value and familiarity range are acceptable, the user operates the SET key.
If it is determined in step S11 that the SET key has not been operated, the process returns to step S7 to repeat the above operation. Thereby, the intimacy value and the intimacy range can be freely changed until the SET key is operated.

一方、ステップS11で、SETキーの操作が行なわれたと判断すると、ステップS12に進み、CPU10は、現在指定されている親密度値、親密度範囲に基づいて親密度を設定する。例えば、設定された親密度値が「2」、設定された親密度範囲が「までの」の場合は、設定される親密度は親密度値「1」及び「2」となり、設定された親密度値が「3」、設定された親密度値が「からの」の場合は、設定される親密度は、親密度値「3」、「4」、「5」、・・・・となる。
これにより、ユーザが所望する親密度を設定することができる。
On the other hand, if it is determined in step S11 that the SET key has been operated, the process proceeds to step S12, and the CPU 10 sets the familiarity based on the currently designated familiarity value and familiarity range. For example, when the set intimacy value is “2” and the set intimacy range is “up to”, the set intimacy is the intimacy values “1” and “2”. When the density value is “3” and the set familiarity value is “from”, the set familiarity is the familiarity value “3”, “4”, “5”,... .
Thereby, it is possible to set the intimacy desired by the user.

次いで、ステップS13に進み、CPU10は、該設定した中心人物及び親密度に基づいて、相関データテーブル21に記録されている人物の中から、顔認識対象となる人物の顔画像を特定する。つまり、設定した中心人物と、該設定した親密度を有する人物の顔画像を特定する。
例えば、設定した中心人物を人物A、設定した親密度値を「2」、親密度範囲を「までの」とした場合は、特定される人物の顔画像は、人物Aと親密度値が「1」、「2」となる人物、つまり、人物B、人物C、人物D、人物E、人物K(図3参照)の顔画像がそれぞれ特定されることになる。
Next, the process proceeds to step S13, and the CPU 10 specifies a face image of a person who is a face recognition target from the persons recorded in the correlation data table 21 based on the set central person and familiarity. That is, the set central person and the face image of the person having the set closeness are specified.
For example, when the set central person is the person A, the set intimacy value is “2”, and the intimacy range is “to”, the face image of the specified person has the person A and the intimacy value “ The face images of the persons who become “1” and “2”, that is, person B, person C, person D, person E, and person K (see FIG. 3) are specified.

次いで、ステップS14で、CPU10は、所定のフレームレート(例えば、30fps)でCCD5による撮像を開始し、該CCD5により順次撮像され、画像生成部9によって順次生成された輝度色差信号の画像データをバッファメモリ(DRAM13)に記憶し、該記憶した画像データを画像表示部15に表示させるという、いわゆるスルー画像表示を開始する。   Next, in step S14, the CPU 10 starts imaging by the CCD 5 at a predetermined frame rate (for example, 30 fps), and sequentially buffers the image data of the luminance color difference signals sequentially captured by the CCD 5 and sequentially generated by the image generating unit 9. A so-called through image display is started in which the image data is stored in the memory (DRAM 13) and the stored image data is displayed on the image display unit 15.

次いで、ステップS15で、CPU10は、該CCD5により順次撮像されるフレーム画像データ毎に顔認識処理を行う。この顔認識は、単に画像内に顔があるかどうかを認識するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。例えば、肌の色、髪の毛の色、目の位置、鼻の位置、口の位置等の認識、及びそれらの位置関係なども認識し、それらを数値化して数値データ(顔特徴数値データ)を算出する。なお、顔認識処理の方法は、他にも既に著名な方法が複数あるので、ここでは詳細に説明しない。   Next, in step S15, the CPU 10 performs face recognition processing for each frame image data sequentially captured by the CCD 5. This face recognition not only recognizes whether or not there is a face in the image, but also performs a process of specifically recognizing who the subject's face is. For example, it recognizes skin color, hair color, eye position, nose position, mouth position, etc., and their positional relationship, and numerically calculates them to calculate numerical data (facial feature numerical data) To do. Since there are a plurality of other well-known methods for face recognition processing, they will not be described in detail here.

(もう少し具体的に説明してください。相関データテーブル21に記憶されている、ステップS13で特定した人物の画像データ(数値データ)とステップS15で算出された数値データとを照合する。)
次いで、ステップS16で、CPU10は、該特定した顔画像に基づいて、ステップS13で特定した人物(特定人物)の何れかの顔を認識したか否かを判断する。具体的に説明すると、ステップS13で特定した顔画像データに基づいて、特定した顔画像の人物の顔特徴データを算出する。この顔特徴データの算出は、肌の色、髪の毛の色、目の位置、鼻の位置、口の位置等の認識、及びそれらの位置関係なども認識し、それらを数値化して顔特徴データを算出する。そして、該算出した顔特徴データと、ステップS15で算出された数値データを照合し、一致する顔特徴データがあるか否かを判断することになる。
(Please explain in more detail. The image data (numerical data) of the person specified in step S13 stored in the correlation data table 21 is collated with the numerical data calculated in step S15.)
Next, in step S16, the CPU 10 determines whether any face of the person (specific person) specified in step S13 has been recognized based on the specified face image. More specifically, based on the face image data specified in step S13, the face feature data of the person of the specified face image is calculated. This facial feature data is calculated by recognizing skin color, hair color, eye position, nose position, mouth position, etc., and their positional relationship, etc. calculate. Then, the calculated face feature data and the numerical data calculated in step S15 are collated to determine whether there is matching face feature data.

ここでは、人物B、人物C、人物D、人物E、人物Kを特定したので、該特定した人物の顔特徴データを算出し、該人物B、人物C、人物D、人物E、人物Kの顔特徴データとステップS15の画像認識処理により算出された数値データとを照合することにより、何れかの人物の顔特徴データと顔認識処理に算出された数値データとが一致するか否かを判断する。
なお、相関データテーブル21に、人物の顔画像データの他に、該人物の顔の顔特徴データを予め記憶させるようにしてもよい。この記憶は、人物の顔画像データが相関データテーブルに記憶されると、該顔画像データに基づいて自動的に顔特徴データを算出し、該算出した顔特徴データを該人物の顔画像データと関連付けて記憶させるようにする。
Here, since the person B, the person C, the person D, the person E, and the person K are specified, the facial feature data of the specified person is calculated, and the person B, the person C, the person D, the person E, and the person K are calculated. By comparing the face feature data with the numerical data calculated by the image recognition processing in step S15, it is determined whether or not the facial feature data of any person matches the numerical data calculated in the face recognition processing. To do.
In addition to the human face image data, the human face image feature data may be stored in the correlation data table 21 in advance. In this storage, when face image data of a person is stored in the correlation data table, face feature data is automatically calculated based on the face image data, and the calculated face feature data is used as the face image data of the person. Relate to remember.

ステップS16で該特定人物の何れの顔も認識していないと判断すると、認識するまでステップS16に留まり、ステップS16で該特定人物の何れかの顔を認識したと判断するとステップS17に進み、該認識した1乃至複数の特定人物の顔に対してコントラスト検出方式のオートフォーカス処理を行う。つまり、レンズ駆動ブロック3を介してフォーカスレンズを駆動させていき、認識した特定人物の顔の画像データに基づいて、AF評価値が最も高くなるレンズ位置にフォーカスレンズを移動させる。これにより、ユーザが撮影した人物に簡単にオートフォーカスを行なうことができる。
なお、コントラスト検出方式以外の方式でオートフォーカスを行なうようにしてもよい。
次いで、ステップS18で、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録し、ステップS1に戻る。
If it is determined in step S16 that no face of the specific person is recognized, the process stays in step S16 until it is recognized. If it is determined in step S16 that any face of the specific person is recognized, the process proceeds to step S17. Contrast detection type autofocus processing is performed on the recognized faces of one or more specific persons. In other words, the focus lens is driven through the lens driving block 3 and the focus lens is moved to the lens position where the AF evaluation value is highest based on the recognized face image data of the specific person. Thereby, it is possible to easily perform autofocus on a person photographed by the user.
Note that autofocus may be performed by a method other than the contrast detection method.
Next, in step S18, the CPU 10 performs still image shooting processing, compresses still image data obtained by the shooting processing and records it in the flash memory 14, and returns to step S1.

C.以上のように、実施の形態においては、ユーザによって指定された親密度値及び親密度範囲に基づいて親密度を設定し、中心人物と該設定した親密度を有する人物の顔画像を顔認識対象として特定するので、簡易に且つ適切に顔認識させたい人物の顔を特定させることができる。
また、相関データテーブルは、複数の人物の顔画像及び該複数の人物相互間の親密度値を記憶させ、ユーザが任意の人物の顔画像を中心人物として設定することができるので、ユーザが顔認識対象の顔画像としたい基準となる人物を自由に変更することができ、顔認識させたい顔画像の特定の精度、自由度が向上する。
C. As described above, in the embodiment, the closeness is set based on the closeness value and closeness range specified by the user, and the face image of the central person and the person having the set closeness is the face recognition target. Therefore, it is possible to easily and appropriately specify the face of a person whose face is to be recognized.
In addition, the correlation data table stores the face images of a plurality of persons and the closeness value between the plurality of persons, and the user can set the face image of any person as the central person, so that the user can The reference person who wants to be the face image to be recognized can be freely changed, and the accuracy and the degree of freedom of the face image to be recognized are improved.

[変形例]
H.上記実施の形態は以下のような態様でもよい。
[Modification]
H. The above embodiment may be the following modes.

(01)上記実施の形態においては、図3(a)に示すように各人物毎(A、B、C〜)に、人物間相互の親密度値(リンク先人物名)を記録させるようにしたが、つまり、R1、R2と複数のレコードを設けるようにしたが、1人(例えば自分)を基準とした人物間相互の親密度値を記録させるようにしてよい。つまり、図3(a)の相関データテーブル21を用いて参照すると、レコードを1つにするようにしても良い。   (01) In the above embodiment, as shown in FIG. 3A, the closeness value (link destination person name) between persons is recorded for each person (A, B, C˜). In other words, R1 and R2 and a plurality of records are provided, but mutual closeness values between persons based on one person (for example, oneself) may be recorded. That is, referring to the correlation data table 21 in FIG. 3A, one record may be used.

(02)また、上記実施の形態においては、相関データテーブル21は1つしか備えていなかったが、ユーザ(グループ)別(たとえば、父、母、息子、娘等のユーザ別)に相関データテーブル21を複数備えるようにしてもよい。この場合は、まず、ユーザを選択してから中心人物や親密度値を設定することになる。
これにより、個々の使用者に対応した人物の顔を特定することでき、使用者が複数いる場合であっても対応することができる。
(02) In the above embodiment, only one correlation data table 21 is provided. However, the correlation data table is classified by user (group) (for example, by father, mother, son, daughter, etc.). A plurality of 21 may be provided. In this case, first, after selecting the user, the central person and the familiarity value are set.
Thereby, the face of the person corresponding to each user can be specified, and even when there are a plurality of users, it is possible to cope with it.

(03)また、上記実施の形態においては、相関データテーブル21は1つしか備えていなかったが、グループ別(例えば、職場、友達、クラブ等のグループ別)に相関データテーブル21を複数備えるようにしてもよい。この場合は、まず、グループを選択してから中心人物や親密度値を設定することになる。
これにより、撮影対象となる人物が属するグループをユーザが選択することができ、所望するグループの人物の顔を特定することができる。
(03) In the above embodiment, only one correlation data table 21 is provided. However, a plurality of correlation data tables 21 are provided for each group (for example, for each group such as a workplace, a friend, and a club). It may be. In this case, first, after selecting a group, the central person and the familiarity value are set.
Thereby, the user can select the group to which the person to be photographed belongs, and the face of the person in the desired group can be specified.

(04)また、上記実施の形態においては、人物との相関値は、図3(a)に示すようなテーブルによって記録させるようにしたが、相関系図のように記録させておくようにしても良い。
図5は、相関系図の内容の例を示す図である。
図を見ると、人物A〜人物Lまでおり(この人物は図3(b)に示す人物と同一人物である)、各人物の人間関係が分かる。ここでは、夫婦及び直系は相関値を「1」をとし、友人は「2」、恋人は「1」としている。
(04) In the above embodiment, the correlation value with the person is recorded by the table as shown in FIG. 3A. However, the correlation value may be recorded as in the correlation diagram. good.
FIG. 5 is a diagram showing an example of the contents of the correlation diagram.
Looking at the figure, there are person A to person L (this person is the same person as the person shown in FIG. 3B), and the human relationship of each person can be understood. Here, the couple and the direct line have a correlation value “1”, a friend “2”, and a lover “1”.

例えば、妻Aを中心(基準)に考えると、夫B及び子Cとの関係では相関値が「1」となり、子Cの恋人Eとの関係では、妻と子Cの相関値が「1」と子Cと恋人Eの相関値が「1」であるので、1+1となり、相関値が「2」となる。
また、友人D及び友人Kとの関係では相関値が「2」となり、友人Dの夫Jとの関係では、友人Dと夫Jとの相関値が「1」であるので、2+1となり、相関値が「3」ということになり、この各人物との相関値は図3(b)のような相関値となる。
For example, considering wife A as the center (reference), the correlation value between the husband B and the child C is “1”, and the relationship between the child C and the lover E is “1”. ”, Child C, and lover E have a correlation value of“ 1 ”, so that the correlation value is 1 + 1 and the correlation value is“ 2 ”.
In addition, the correlation value is “2” in the relationship between the friend D and the friend K, and the correlation value between the friend D and the husband J is “1” in the relationship with the friend D. The value is “3”, and the correlation value with each person is a correlation value as shown in FIG.

このように、相関値を相関系図のように記録させることで、各人物間の人間関係が一目瞭然となるとともに、それぞれの人物相互間の相関値を記録させる必要がなくなる。
なお、ここでは、例えば、友人の相関値を一律「2」としたが、同じ友人同士でも親密度は変わってくるので、相関値を一律にする必要はなく、人物毎に相関値を変えるようにしてもよい。
In this way, by recording the correlation values as in the correlation system diagram, the human relationship between the individual persons becomes clear at a glance, and it is not necessary to record the correlation values between the individual persons.
Here, for example, the correlation value of friends is uniformly “2”. However, since the intimacy changes among the same friends, the correlation value does not need to be uniform, and the correlation value is changed for each person. It may be.

(05)また、上記実施の形態においては、顔認識対象として特定した顔画像を認識すると、該認識した顔に対してAF処理を行うようにしたが、該認識した顔(顔の人物)に基づいてAE処理を行うようにしても良い。   (05) In the above embodiment, when a face image specified as a face recognition target is recognized, AF processing is performed on the recognized face. An AE process may be performed based on this.

(06)また、上記実施の形態においては、顔認識対象として特定した顔画像を認識すると、静止画撮影を行なうようにしたが、これに限られず、該特定した顔画像を用いて顔認識を行ない、該認識結果を利用するものであればよい。この場合は、デジタルカメラ等の撮像装置に限らず、画像を処理する装置であればよい。これにより、画像認識処理による特定された人物の顔の認識結果を多肢に亘り活用することができる。
例えば、該認識した顔の位置に基づいてトリミング処理を行ったり、該認識した顔の位置に基づいて拡大処理(ズーム処理)を行なったり、該認識した顔の位置(若しくは、顔に位置に基づく被写体の位置)をユーザに対して視認させるように表示させるようにしてもよい。この被写体表示は、人ごみの中で撮影された画像に対して有効である。
(06) In the above embodiment, when a face image specified as a face recognition target is recognized, still image shooting is performed. However, the present invention is not limited to this, and face recognition is performed using the specified face image. It is sufficient that the recognition result is used. In this case, the image processing apparatus is not limited to an imaging apparatus such as a digital camera, and any apparatus that processes images may be used. Thereby, the recognition result of the face of the specified person by the image recognition process can be utilized over many limbs.
For example, the trimming process is performed based on the recognized face position, the enlargement process (zoom process) is performed based on the recognized face position, or the recognized face position (or based on the face position). You may make it display so that a user may visually recognize the position of a to-be-photographed object. This subject display is effective for images taken in a crowd.

また、該認識した顔に対して、若しくは該認識した顔の位置に基づく被写体に対して、画像加工処理を行うようにしてもよい。
また、該認識した顔の数に応じて印刷枚数を設定するようにしてもよい。この場合は、写真の焼きまわしなどにおいてユーザが写真を配る人数をわざわざ数えなくて済むという利点もある。
また、記録媒体に記録されている大量の画像データの中から、該特定した顔画像を含む画像データを検索させるようにしてもよい。この場合は、特定した顔画像の全てを含む画像データを検索するか、特定した顔画像のうち少なくとも1つ以上若しくは所定数以上の顔画像を含む画像データを検索するかを選択なり、指定なりすることができるようにしてもよい。これにより、検索対象となる人物を簡単に複数選択することができ、該検索したい人物を含む画像を簡単に検索することができる。
Further, image processing may be performed on the recognized face or on a subject based on the position of the recognized face.
Further, the number of printed sheets may be set according to the number of recognized faces. In this case, there is also an advantage that the user does not have to count the number of people who distribute the photos.
Further, image data including the specified face image may be searched from a large amount of image data recorded on the recording medium. In this case, whether to search for image data including all of the specified face images or to search for image data including at least one of the specified face images or a predetermined number of face images is specified. You may be able to do that. Thereby, a plurality of persons to be searched can be easily selected, and an image including the person to be searched can be easily searched.

(07)また、上記実施の形態においては、基準人物と親密度値1までのグループ、親密度値2までのグループ、親密度3までのグループといった相関データテーブルを備えるようにしてもよい。
この場合は、例えば、親密度値2までのグループが選択されると、親密度値「1」、親密度値「2」の顔画像が特定されることになる。
(07) In the above embodiment, a correlation data table including a reference person and a group up to a familiarity value 1, a group up to a familiarity value 2, and a group up to a familiarity value 3 may be provided.
In this case, for example, when a group up to the familiarity value 2 is selected, face images having the familiarity value “1” and the familiarity value “2” are specified.

(08)また、上記実施の形態においては、ステップS12で指定された親密度値と指定された親密度範囲に基づいて親密度を設定するようにしたが、ユーザによる2つの親密度値の指定を可能し、該指定された2つの親密度値に基づいて親密度を設定するようにしてもよい。例えば、指定された親密度値が「2」、「4」の場合は、親密度値「2」〜「4」の親密度値を親密度として設定してもよいし、親密度値「2」まで、及び、親密度値「4」からの親密度値を親密度として設定するようにしてもよい。   (08) In the above embodiment, the closeness is set based on the closeness value specified in step S12 and the specified closeness range. However, the user specifies two closeness values. The closeness may be set based on the two specified closeness values. For example, when the designated closeness values are “2” and “4”, the closeness values of the closeness values “2” to “4” may be set as closeness values, or the closeness value “2” ”And the familiarity value from the familiarity value“ 4 ”may be set as the familiarity.

(09)また、上記実施の形態において、ステップS14で、スルー画像表示を開始すると、画像認識処理を開始するようにしたが(ステップS15)、スルー画像表示開始後、ユーザによってシャッタボタンが半押しされると(撮影準備が指示されると)、ステップS15に進むようにしてもよい。
また、ステップS16で、特定した顔が認識されたと判断すると、該認識した顔に対してAF処理を行い(ステップS17)、静止画撮影処理を行うようにしたが、ステップS17のAF処理後、ユーザによってシャッタボタンが全押しされると(撮影が指示されると)、ステップS18に進み、静止画撮影を行なうようにしてもよい。
(09) In the above embodiment, when the through image display is started in step S14, the image recognition process is started (step S15). After the through image display starts, the shutter button is half-pressed by the user. If it is done (when shooting preparation is instructed), the process may proceed to step S15.
If it is determined in step S16 that the identified face has been recognized, AF processing is performed on the recognized face (step S17), and still image shooting processing is performed. After AF processing in step S17, When the shutter button is fully pressed by the user (when shooting is instructed), the process proceeds to step S18, and still image shooting may be performed.

(10)また、上記実施の形態において、ステップS16では、ステップS13で特定された何れかの顔画像が認識されると、ステップS17に進むようにしたが、ステップS13で特定された全ての顔画像が認識されるとステップS17に進むようにしてもよい。   (10) In the above embodiment, in step S16, if any face image specified in step S13 is recognized, the process proceeds to step S17. However, all the faces specified in step S13 When the image is recognized, the process may proceed to step S17.

(11)また、上記実施の形態においては、相関データテーブル21に人物の顔画像を記録させるようにしたが、顔画像に替えて顔特徴データを記憶させるようにしてもよい。この場合は、図2のステップS1の登録顔写真の一覧表示は、登録顔画像を表示させるのではなく、人物名を一覧表示させるようする。
また、相関データテーブル21には、人物名とその顔画像を記憶させるようにしたが、人物名を記憶させないようにしてもよい。つまり、人物名フィールド21aの記憶領域をなくすようにしてもよい。顔画像を見れば誰だか特定することができるからである。
(11) In the above embodiment, the face image of a person is recorded in the correlation data table 21, but the face feature data may be stored instead of the face image. In this case, the list display of registered face photos in step S1 of FIG. 2 does not display the registered face images but displays a list of person names.
Further, although the person name and the face image are stored in the correlation data table 21, the person name may not be stored. That is, the storage area of the person name field 21a may be eliminated. This is because the person can be identified by looking at the face image.

(12)また、上記変形例(01)〜(11)を矛盾が生じない範囲内で任意に組み合わせるような態様であってもよい。   (12) Moreover, the aspect which combines arbitrarily the said modification (01)-(11) within the range which does not produce contradiction may be sufficient.

(13)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(13) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の画像処理装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、画像を処理することができる機器であれば適用可能である。   Finally, in each of the above-described embodiments, the case where the image processing apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above-described embodiment. Any device can be applied.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of embodiment. メモリ12に記録されている相関データテーブル21の内容の例を示す図、及び、中心人物を人物Aにしたときの各人物との親密度を相関データテーブル21を用いて表した図である。FIG. 4 is a diagram showing an example of the contents of a correlation data table 21 recorded in the memory 12 and a diagram showing the familiarity with each person when the central person is a person A using the correlation data table 21. 一覧表示された登録顔写真の様子の一例を示す図、及び、表示される親密度情報設定画面の様子の一例を示す図である。It is a figure which shows an example of the mode of the registered face photograph displayed as a list, and a figure which shows an example of the mode of the familiarity information setting screen displayed. 相関系図の内容の例を示す図である。It is a figure which shows the example of the content of a correlation system diagram.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Driver 7 TG
8 Unit circuit 9 Image generator 10 CPU
11 Key input section 12 Memory 13 DRAM
14 Flash memory 15 Image display unit 16 Bus

Claims (12)

基準人物との親密度を各人物毎に設定した親密度テーブルを記憶した記憶手段と、
前記基準人物との親密度を設定する設定手段と、
前記記憶手段に記憶されている親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定手段と、
画像データを取得する画像取得手段と、
前記顔認識対象特定手段により顔認識対象として特定された人物の顔に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なう顔認識制御手段と、
を備えたことを特徴とする画像処理装置。
Storage means for storing a familiarity table in which the familiarity with the reference person is set for each person;
Setting means for setting intimacy with the reference person;
Using a closeness table stored in the storage means, a face recognition target specifying means for specifying a face of a person having a closeness set by the reference person and the setting means as a face recognition target;
Image acquisition means for acquiring image data;
Face recognition control means for performing face recognition processing on the image data acquired by the image acquisition means based on the face of the person specified as the face recognition target by the face recognition target specifying means;
An image processing apparatus comprising:
前記親密度テーブルは、
各人物の顔画像を設定しており、
前記顔認識制御手段は、
前記顔認識対象特定手段により顔認識対象として特定された人物に対応する顔画像に基づいて、前記画像取得手段により取得された画像データに対して顔認識処理を行なうことを特徴とする請求項1記載の画像処理装置。
The intimacy table is
Each person ’s face image is set,
The face recognition control means includes
2. The face recognition process is performed on the image data acquired by the image acquisition unit based on a face image corresponding to a person specified as a face recognition target by the face recognition target specifying unit. The image processing apparatus described.
ユーザが親密度を指定するための親密度指定手段を備え、
前記設定手段は、
前記親密度指定手段により指定された親密度に基づいて、親密度を設定することを特徴とする請求項1記載の画像処理装置。
A user has a closeness specifying means for specifying closeness,
The setting means includes
The image processing apparatus according to claim 1, wherein the intimacy is set based on the intimacy specified by the intimacy specifying means.
前記設定手段は、
前記親密度指定手段により指定された親密度以上の親密度を、又は、指定された親密度を、又は、指定された親密度以下の親密度を、設定することを特徴とする請求項3記載の画像処理装置。
The setting means includes
The intimacy greater than or equal to the intimacy specified by the intimacy specifying means, or the intimacy specified, or the intimacy less than or equal to the specified intimacy is set. Image processing apparatus.
ユーザが任意のグループを指定するためのグループ指定手段を備え、
前記記憶手段は、
前記親密度テーブルをグループ毎に記憶しており、
前記顔認識対象特定手段は、
前記グループ指定手段により指定されたグループの親密度テーブルを用いて、前記基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定することを特徴する請求項1乃至4の何れかに記載の画像処理装置。
A group specifying means for the user to specify an arbitrary group is provided,
The storage means
The intimacy table is stored for each group,
The face recognition target specifying means includes
The face of the person having the familiarity set by the reference person and the setting means is specified as a face recognition target using the familiarity table of the group designated by the group designation means. 5. The image processing apparatus according to any one of 4.
ユーザが中心人物を指定する人物指定手段を備え、
前記親密度テーブルは、
更に、前記各人物を基準人物とし、それらの人物相互間の親密度を互いに設定しており、
前記顔認識対象特定手段は、
前記人物指定手段により指定された中心人物を基準人物とし、該基準人物と前記設定手段により設定された親密度を有する人物の顔を顔認識対象として特定することを特徴とする請求項1乃至5の何れかに記載の画像処理装置。
A user specifying means for the user to specify a central person,
The intimacy table is
Further, each person is set as a reference person, and the closeness between the persons is set to each other.
The face recognition target specifying means includes
6. The central person specified by the person specifying means is used as a reference person, and the face of the person having the familiarity set by the reference person and the setting means is specified as a face recognition target. An image processing apparatus according to any one of the above.
前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいて、被写体のトリミング制御、被写体位置を示す表示制御、被写体画像の拡大表示制御、被写体の画像加工制御のうち、少なくとも1つ以上の制御を行なう制御手段を備えたことを特徴とする請求項1乃至6の何れかに記載の画像処理装置。 When a face identified as a face recognition target by the face recognition target identification means is recognized by the face recognition processing by the face recognition control means, subject trimming control, subject position is determined based on the recognized face position. 7. The image processing according to claim 1, further comprising a control unit that performs at least one of display control, display enlargement display control of the subject image, and image processing control of the subject. apparatus. 前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の数に応じて、印刷枚数を設定する設定手段を備えたことを特徴とする請求項1乃至7の何れかに記載の画像処理装置。 When a face identified as a face recognition target by the face recognition target identification unit is recognized by the face recognition process by the face recognition control unit, a setting unit that sets the number of prints according to the number of recognized faces The image processing apparatus according to claim 1, further comprising: an image processing apparatus according to claim 1. 画像データを記録保持するための記録手段又は被写体の光を光電変換する撮像素子を備え、
前記画像取得手段は、
前記記録手段に記録されている画像データ、又は、前記撮像素子により光電変換された画像データを取得することを特徴とする請求項1乃至8の何れかに記載の画像処理装置。
A recording means for recording and holding image data or an image sensor that photoelectrically converts light of a subject,
The image acquisition means includes
The image processing apparatus according to claim 1, wherein the image data recorded in the recording unit or image data photoelectrically converted by the imaging device is acquired.
被写体の光を光電変換する撮像素子と、
前記顔認識制御手段による顔認識処理により前記顔認識対象特定手段により顔認識対象として特定された顔が認識された場合は、該認識した顔の位置に基づいてオートフォーカス制御及び/又は露出制御を行なう制御手段と、
を備え、
前記画像取得手段は、
前記撮像素子により光電変換された画像データを取得することを特徴とする請求項1乃至6の何れかに記載の画像処理装置。
An image sensor that photoelectrically converts the light of the subject;
When a face identified as a face recognition target by the face recognition target specifying means is recognized by the face recognition processing by the face recognition control means, autofocus control and / or exposure control is performed based on the position of the recognized face. Control means to perform;
With
The image acquisition means includes
The image processing apparatus according to claim 1, wherein the image data photoelectrically converted by the imaging element is acquired.
画像データを記録保持するための記録手段を備え、
前記画像取得手段は、
前記記録手段により記録されている画像データを順次取得していき、
前記顔認識制御手段は、
前記画像取得手段により順次取得された画像データに対して、顔認識処理を行うことにより、前記顔認識対象特定手段により顔認識対象として特定された顔を含む画像データを検索していく検索手段を含むことを特徴とする請求項1乃至6の何れかに記載の画像処理装置。
Comprising recording means for recording and holding image data;
The image acquisition means includes
Sequentially obtaining the image data recorded by the recording means,
The face recognition control means includes
Retrieval means for retrieving image data including a face specified as a face recognition target by the face recognition target specifying means by performing face recognition processing on the image data sequentially acquired by the image acquisition means. The image processing apparatus according to claim 1, further comprising:
コンピュータに、
前記基準人物との親密度を設定する設定処理と、
前記基準人物との親密度を各人物毎に記憶した親密度テーブルを用いて、前記基準人物と前記設定処理により設定された親密度を有する人物の顔を顔認識対象として特定する顔認識対象特定処理と、
画像データを取得する画像取得処理と、
前記顔認識対象特定処理により顔認識対象として特定された人物の顔に基づいて、前記取得処理により取得された画像データに対して顔認識処理を行なう顔認識制御処理と、
を実行させることを特徴とするプログラム。
On the computer,
A setting process for setting intimacy with the reference person;
Using a familiarity table that stores the familiarity with the reference person for each person, the face recognition target specification that identifies the face of the reference person and the person having the familiarity set by the setting process as a face recognition target Processing,
Image acquisition processing for acquiring image data;
A face recognition control process for performing a face recognition process on the image data acquired by the acquisition process based on the face of the person specified as a face recognition target by the face recognition target specifying process;
A program characterized in that is executed.
JP2007080582A 2007-03-27 2007-03-27 Image processing apparatus and program thereof Expired - Fee Related JP4895205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007080582A JP4895205B2 (en) 2007-03-27 2007-03-27 Image processing apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007080582A JP4895205B2 (en) 2007-03-27 2007-03-27 Image processing apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2008242694A true JP2008242694A (en) 2008-10-09
JP4895205B2 JP4895205B2 (en) 2012-03-14

Family

ID=39913984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007080582A Expired - Fee Related JP4895205B2 (en) 2007-03-27 2007-03-27 Image processing apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4895205B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082913A (en) * 2009-10-09 2011-04-21 Sony Corp Imaging apparatus, imaging method and imaging program
JP2011082915A (en) * 2009-10-09 2011-04-21 Sony Corp Information processor, image extraction method and image extraction program
JP2014506701A (en) * 2011-02-18 2014-03-17 グーグル・インコーポレーテッド Affinity-based ranking for search and display
JP5674670B2 (en) * 2010-03-18 2015-02-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Data processing apparatus and data processing method
US10028448B2 (en) 2012-07-10 2018-07-24 Once Innovations, Inc. Light sources adapted to spectral sensitivity of plants
US10212892B2 (en) 2012-07-10 2019-02-26 Once Innovatians, Inc. Light sources adapted to spectral sensitivity of plant
US10244595B2 (en) 2014-07-21 2019-03-26 Once Innovations, Inc. Photonic engine system for actuating the photosynthetic electron transport chain

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219329A (en) * 2002-01-28 2003-07-31 Canon Inc Printer integrated camera
JP2006079460A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd System, method and program for displaying electronic album and device, method, and program for classifying image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219329A (en) * 2002-01-28 2003-07-31 Canon Inc Printer integrated camera
JP2006079460A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd System, method and program for displaying electronic album and device, method, and program for classifying image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082913A (en) * 2009-10-09 2011-04-21 Sony Corp Imaging apparatus, imaging method and imaging program
JP2011082915A (en) * 2009-10-09 2011-04-21 Sony Corp Information processor, image extraction method and image extraction program
JP5674670B2 (en) * 2010-03-18 2015-02-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Data processing apparatus and data processing method
US9113173B2 (en) 2010-03-18 2015-08-18 Panasonic Intellectual Property Corporation Of America Data processing device and data processing method which compresses image data
JP2014506701A (en) * 2011-02-18 2014-03-17 グーグル・インコーポレーテッド Affinity-based ranking for search and display
JP2016157476A (en) * 2011-02-18 2016-09-01 グーグル インコーポレイテッド Affinity based ranking for search and display
US10028448B2 (en) 2012-07-10 2018-07-24 Once Innovations, Inc. Light sources adapted to spectral sensitivity of plants
US10212892B2 (en) 2012-07-10 2019-02-26 Once Innovatians, Inc. Light sources adapted to spectral sensitivity of plant
US10524426B2 (en) 2012-07-10 2020-01-07 Signify Holding B.V. Light sources adapted to spectral sensitivity of plant
US10973173B2 (en) 2012-07-10 2021-04-13 Signify North America Corporation Light sources adapted to spectral sensitivity of plants
US10244595B2 (en) 2014-07-21 2019-03-26 Once Innovations, Inc. Photonic engine system for actuating the photosynthetic electron transport chain
US10813183B2 (en) 2014-07-21 2020-10-20 Signify North America Corporation Photonic engine system for actuating the photosynthetic electron transport chain

Also Published As

Publication number Publication date
JP4895205B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP5056061B2 (en) Imaging device
US7672580B2 (en) Imaging apparatus and method for controlling display device
EP1737216B1 (en) Object determination device, imaging device and monitor
JP5128880B2 (en) Image handling device
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
JP5293206B2 (en) Image search apparatus, image search method and program
JP4895205B2 (en) Image processing apparatus and program thereof
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US9131138B2 (en) Photographing apparatus
JP2005110097A (en) Imaging apparatus and image pickup method
JP4315212B2 (en) Imaging apparatus, imaging control program, and imaging control method
JP5540762B2 (en) Imaging device, image display device, and image display program
JP2008099192A (en) Imaging apparatus and program thereof
KR101046041B1 (en) Imaging device
CN108471503A (en) Picture pick-up device and its control method
JP2006203811A (en) Imaging apparatus and program thereof
JP2011061703A (en) Image capturing apparatus and method of manufacturing the same
JP5181841B2 (en) Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program
US20180077298A1 (en) Image-capturing assistance device and image-capturing device
JP2011128938A (en) Image display device and image display program
JP5675922B2 (en) Shooting display device
JP5293769B2 (en) Imaging apparatus and program thereof
JP2004349832A (en) Imaging equipment
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP6357922B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111215

R150 Certificate of patent or registration of utility model

Ref document number: 4895205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees