JP2003030647A - Image processor, image processing method and program - Google Patents
Image processor, image processing method and programInfo
- Publication number
- JP2003030647A JP2003030647A JP2001210743A JP2001210743A JP2003030647A JP 2003030647 A JP2003030647 A JP 2003030647A JP 2001210743 A JP2001210743 A JP 2001210743A JP 2001210743 A JP2001210743 A JP 2001210743A JP 2003030647 A JP2003030647 A JP 2003030647A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- red
- eye
- flash
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 241000593989 Scardinius erythrophthalmus Species 0.000 claims abstract description 193
- 239000000284 extract Substances 0.000 claims abstract description 6
- 201000005111 ocular hyperemia Diseases 0.000 claims description 186
- 238000012545 processing Methods 0.000 claims description 146
- 238000001514 detection method Methods 0.000 abstract description 43
- 238000000034 method Methods 0.000 abstract description 25
- 238000010586 diagram Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 19
- 238000012937 correction Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- -1 silver halide Chemical class 0.000 description 2
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100280298 Homo sapiens FAM162A gene Proteins 0.000 description 1
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 101100402621 Homo sapiens MSANTD4 gene Proteins 0.000 description 1
- 102100031642 Myb/SANT-like DNA-binding domain-containing protein 4 Human genes 0.000 description 1
- 102100023788 Protein FAM162A Human genes 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像中の人物を検
出する技術に関する。TECHNICAL FIELD The present invention relates to a technique for detecting a person in an image.
【0002】[0002]
【従来の技術】従来より、デジタルスチルカメラ(以
下、「デジタルカメラ」という。)等にて撮影すること
により、あるいは、出力された画像をスキャナ等にて取
り込むことにより取得されたデジタル画像に対して処理
を施し、主被写体となる画像中の人物を検出する技術が
提案されている。2. Description of the Related Art Conventionally, a digital image obtained by photographing with a digital still camera (hereinafter referred to as "digital camera") or by capturing an output image with a scanner is used. A technique has been proposed in which a person in an image serving as a main subject is detected by performing the above processing.
【0003】画像中の人物を検出する一般的な技術とし
ては、画像中における人間の肌の色に近似する領域(以
下、「肌色領域」という。)を抽出し、当該肌色領域を
人物の領域(以下、「人物領域」という。)として検出
するといった処理が知られている。ところが、画像に対
してこのように単純に肌色領域を抽出しただけは、肌色
に近い色を持つ物体や建造物までもが人物領域として検
出されてしまうおそれがある。As a general technique for detecting a person in an image, an area (hereinafter, referred to as "skin color area") that is close to the human skin color in the image is extracted, and the skin color area is extracted as a person area. There is known a process of detecting as (hereinafter, referred to as “person area”). However, if the skin color region is simply extracted from the image in this way, there is a possibility that even an object or a building having a color close to the skin color may be detected as a human region.
【0004】これに対応するため、抽出された肌色領域
の形状が人物の顔等の形状に酷似するかの形状判定処理
を行い、酷似した場合にのみ当該肌色領域を人物領域と
して検出する技術が知られている。In order to deal with this, there is a technique of performing shape determination processing to determine whether the shape of the extracted skin color area is very similar to the shape of a person's face or the like, and detecting the skin color area as a person area only when the shape is very similar. Are known.
【0005】また、フラッシュ発光時の画像であれば主
被写体(人物)には赤目現象が発生すると想定し、抽出
された肌色領域内から赤色の領域を検出し、赤色の領域
が存在すれば当該肌色領域を人物領域として検出する技
術が知られている。Further, assuming that a red-eye effect will occur in the main subject (person) in the case of an image at the time of flash emission, a red area is detected from the extracted skin color area, and if there is a red area, it is detected. A technique for detecting a skin color region as a human region is known.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記の
ように形状判定を行う場合は、複雑な処理となるため多
大な処理時間を要してしまうといった問題がある。特
に、画像処理時間の短縮の要望が強いデジタルカメラな
どにおいては、このような形状判定処理を適用すること
は困難である。However, when the shape determination is performed as described above, there is a problem that a large amount of processing time is required because of complicated processing. In particular, it is difficult to apply such shape determination processing to a digital camera or the like in which there is a strong demand for shortening the image processing time.
【0007】また、上記のように赤色の領域を検出する
場合は、例えば、肌色に近い色を持つ建造物の領域内に
赤色の照明光源等があるときは当該建造物の領域までも
人物領域として検出してしまう可能性があり、十分な精
度で人物領域を検出できるわけではなかった。Further, in the case of detecting the red area as described above, for example, when there is a red illumination light source in the area of a building having a color close to the skin color, the area of the building is also a person area. However, the human region cannot be detected with sufficient accuracy.
【0008】本発明は、上記課題に鑑みてなされたもの
であり、比較的短時間の処理速度を実現しつつ、画像中
から人物領域のみを検出することのできる技術を提供す
ることを目的とする。The present invention has been made in view of the above problems, and an object thereof is to provide a technique capable of detecting only a human region in an image while realizing a processing speed of a relatively short time. To do.
【0009】[0009]
【課題を解決するための手段】上記課題を解決するた
め、請求項1の発明は、画像処理装置であって、同一の
被写体に対して、フラッシュを発光しないで撮影された
第1画像と、フラッシュを発光して撮影された第2画像
とを用いて、前記第2画像中の赤目領域を検出する赤目
領域検出手段と、前記第2画像中の前記赤目領域の近傍
の肌色領域を人物領域として検出する人物領域検出手段
と、を備えている。In order to solve the above-mentioned problems, an invention according to claim 1 is an image processing apparatus, wherein a first image taken without emitting a flash to the same subject, A red-eye region detecting means for detecting a red-eye region in the second image, and a skin-color region in the vicinity of the red-eye region in the second image by using a second image captured by emitting a flash. And a person area detecting unit that detects the person area.
【0010】また、請求項2の発明は、請求項1に記載
の画像処理装置において、前記赤目領域検出手段は、前
記第1画像及び前記第2画像それぞれの前記赤目領域の
候補となる赤目候補領域を抽出する候補領域抽出手段
と、前記第1画像の赤目候補領域と前記第2画像の赤目
候補領域とを比較し、前記第2画像のみにある赤目候補
領域を前記赤目領域とする候補領域比較手段と、を備え
ている。According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the red-eye area detecting means is a red-eye candidate which is a candidate for the red-eye area of each of the first image and the second image. A candidate area extracting unit that extracts an area and a red eye candidate area of the first image and a red eye candidate area of the second image are compared, and a red eye candidate area only in the second image is set as the red eye area. And a comparison means.
【0011】また、請求項3の発明は、請求項2に記載
の画像処理装置において、前記赤目領域検出手段は、前
記被写体の赤目現象が発生する赤目発生率を算出する発
生率算出手段と、前記候補領域抽出手段が前記赤目候補
領域を抽出するための判定基準を、前記赤目発生率に応
じて変更する判定基準変更手段と、をさらに備えてい
る。According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, the red-eye area detecting means includes an occurrence rate calculating means for calculating a red-eye occurrence rate at which the red-eye phenomenon of the subject occurs. The method further includes: a criterion changing unit that changes the criterion for extracting the red eye candidate region by the candidate region extracting unit according to the red eye occurrence rate.
【0012】また、請求項4の発明は、請求項1ないし
3のいずれかに記載の画像処理装置において、前記被写
体を撮像する撮像手段と、前記人物領域検出手段によっ
て検出された前記人物領域に基づいて画像処理の条件及
び/または前記撮像手段の撮像条件を設定する画像処理
条件設定手段と、をさらに備えている。According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, an image pickup means for picking up the subject and the person area detected by the person area detecting means are provided. Image processing condition setting means for setting image processing conditions and / or imaging conditions of the imaging means based on the image processing conditions.
【0013】また、請求項5の発明は、画像処理方法で
あって、同一の被写体に対して、フラッシュを発光しな
いで撮影された第1画像と、フラッシュを発光して撮影
された第2画像とを用いて、前記第2画像中の赤目領域
を検出する赤目領域検出工程と、前記第2画像中の前記
赤目領域の近傍の肌色領域を人物領域として検出する人
物領域検出工程と、を備えている。According to a fifth aspect of the present invention, there is provided an image processing method, wherein the same subject is photographed without emitting a flash and a second image photographed with a flash. And a red-eye region detecting step of detecting a red-eye region in the second image, and a human-region detecting step of detecting a skin-color region near the red-eye region in the second image as a human region. ing.
【0014】また、請求項6の発明は、プログラムであ
って、コンピュータを、同一の被写体に対して、フラッ
シュを発光しないで撮影された第1画像と、フラッシュ
を発光して撮影された第2画像とを用いて、前記第2画
像中の赤目領域を検出する赤目領域検出手段と、前記第
2画像中の前記赤目領域の近傍の肌色領域を人物領域と
して検出する人物領域検出手段と、を備える画像処理装
置として機能させる。According to a sixth aspect of the present invention, there is provided a program, which causes a computer to take a first image of a same subject photographed without emitting a flash and a second image photographed by emitting a flash. A red-eye area detecting unit that detects a red-eye area in the second image using the image; and a human-area detecting unit that detects a skin-color area near the red-eye area in the second image as a human area. It functions as an image processing apparatus provided.
【0015】[0015]
【発明の実施の形態】以下、図面を参照しつつ本発明の
実施の形態について説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0016】<1.第1の実施の形態>
<1−1.デジタルカメラの構成>図1ないし図3は、
画像をデジタルデータとして取得する画像処理装置であ
るデジタルカメラ1の外観構成の一例を示す図であり、
図1は正面図、図2は背面図、図3は底面図である。図
1に示すように、デジタルカメラ1は、箱型のカメラ本
体部2と直方体状の撮像部3とから構成されている。<1. First Embodiment><1-1. Structure of Digital Camera> FIG. 1 to FIG.
FIG. 1 is a diagram showing an example of an external configuration of a digital camera 1 which is an image processing device that acquires an image as digital data,
1 is a front view, FIG. 2 is a rear view, and FIG. 3 is a bottom view. As shown in FIG. 1, the digital camera 1 is composed of a box-shaped camera body 2 and a rectangular parallelepiped imaging unit 3.
【0017】撮像部3の前面側には、撮影レンズである
マクロ機能付きズームレンズ301が設けられるととも
に、銀塩レンズシャッターカメラと同様に、被写体から
のフラッシュ光の反射光を受光する調光センサ305が
設けられる。A zoom lens 301 with a macro function, which is a taking lens, is provided on the front side of the image pickup section 3, and a light control sensor for receiving the reflected light of the flash light from the object, like a silver halide lens shutter camera. 305 is provided.
【0018】カメラ本体部2の前面側には左端部にグリ
ップ部4、中央上部に内蔵フラッシュ5、および上面側
にはシャッタボタン8が設けられている。シャッタボタ
ン8は、銀塩カメラで採用されているような半押し状態
(S1)と全押し状態(S2)とが検出可能な2段階ス
イッチになっている。On the front side of the camera body 2, a grip part 4 is provided at the left end, a built-in flash 5 is provided at the upper center, and a shutter button 8 is provided on the top side. The shutter button 8 is a two-step switch that can detect a half-pressed state (S1) and a full-pressed state (S2) as used in a silver halide camera.
【0019】一方、図2に示すように、カメラ本体部2
の背面側には、略中央に撮影画像のモニタ表示、記録画
像の再生表示等を行うための液晶ディスプレイ(LC
D:Liquid Crystal Display)10が設けられている。
また、LCD10の下方に、デジタルカメラ1の操作を
行うキースイッチ群221〜226および電源スイッチ
227が設けられる。On the other hand, as shown in FIG.
On the rear side of the LCD, a liquid crystal display (LC
D: Liquid Crystal Display) 10 is provided.
Further, below the LCD 10, key switch groups 221 to 226 for operating the digital camera 1 and a power switch 227 are provided.
【0020】さらに、カメラ本体部2の背面側には、
「撮影」と「再生」との間でカメラの動作モードを切り
替える動作切替スイッチ14が設けられる。動作モード
が「撮影」に設定されると写真撮影を行って被写体に関
する画像を生成することが可能とされ、動作モードが
「再生」に設定されるとメモリカードに記録された画像
が読み出されてLCD10に再生される。動作切替スイ
ッチ14は2接点のスライドスイッチであり、下方位置
にスライドセットすると動作モードが「撮影」となり、
上方位置にスライドセットすると動作モードが「再生」
となる。Further, on the rear side of the camera body 2,
An operation changeover switch 14 for switching the operation mode of the camera between “shooting” and “playback” is provided. When the operation mode is set to "shoot", it is possible to take a picture and generate an image of the subject, and when the operation mode is set to "play", the image recorded on the memory card is read. Is reproduced on the LCD 10. The operation changeover switch 14 is a two-contact slide switch, and when it is slide-set to the lower position, the operation mode becomes “shooting”,
When slide set to the upper position, the operation mode is "Play"
Becomes
【0021】また、カメラ背面右側には、4連スイッチ
230が設けられ、各種操作を行うことが可能となって
いる。例えば、動作モードが「撮影」の際にはボタン2
31,232を押すことによりズーミング倍率の変更が
行われる。Further, a quad switch 230 is provided on the right side of the rear surface of the camera so that various operations can be performed. For example, when the operation mode is “shooting”, button 2
By pressing 31, 32, the zooming magnification is changed.
【0022】撮像部3の背面には、図2に示すように、
電子ビューファインダ(EVF:Electric View Finde
r)31が設けられている。EVF31は、接眼レンズ
を介して電子的に被写体の表示が可能となっている。撮
影者は、LCD10またはEVF31のいずれかにより
被写体を確認しつつ撮影を行うことが可能となってい
る。On the back surface of the image pickup unit 3, as shown in FIG.
Electronic View Finder (EVF)
r) 31 is provided. The EVF 31 can electronically display a subject through an eyepiece lens. The photographer can take a photograph while checking the subject using either the LCD 10 or the EVF 31.
【0023】また、EVF31の下部には、LCD10
をオン/オフさせるためのLCDボタン321ととも
に、人物検出モード切替ボタン322が設けられる。デ
ジタルカメラ1の撮影モードには、標準的な制御によっ
て通常の撮影を行う通常撮影モードとともに、画像中の
人物を検出する人物検出モードが含まれている。人物検
出モード切替ボタン322を押下することにより、撮影
モードを通常撮影モードと人物検出モードとを切り替え
ることが可能となっている。The LCD 10 is provided below the EVF 31.
A person detection mode switching button 322 is provided together with an LCD button 321 for turning on / off. The shooting modes of the digital camera 1 include a normal shooting mode in which normal shooting is performed by standard control, and a person detection mode in which a person in an image is detected. By pressing the person detection mode switching button 322, the photographing mode can be switched between the normal photographing mode and the person detection mode.
【0024】カメラ本体部2の底面には、図3に示すよ
うに、カードスロット17が設けられる。カードスロッ
ト17は、撮影された画像等を記録するための着脱自在
なメモリカード91等を装填することができる。As shown in FIG. 3, a card slot 17 is provided on the bottom surface of the camera body 2. The card slot 17 can be loaded with a removable memory card 91 or the like for recording captured images and the like.
【0025】<1−2.デジタルカメラの内部構成>次
に、デジタルカメラ1の内部構成について説明する。図
4は撮像部3における各構成の配置の概略を示す図であ
る。また、図5はデジタルカメラ1の構成を示すブロッ
ク図である。<1-2. Internal Configuration of Digital Camera> Next, the internal configuration of the digital camera 1 will be described. FIG. 4 is a diagram showing an outline of the arrangement of each component in the image pickup unit 3. FIG. 5 is a block diagram showing the configuration of the digital camera 1.
【0026】図4に示すように、撮像部3におけるズー
ムレンズ301の後方位置の適所にはCCD303を備
えた撮像回路が設けられている。また、撮像部3の内部
には、ズームレンズ301のズーム比の変更と収容位
置、撮像位置間のレンズ移動を行うためのズームモータ
M1、フォーカスの調整を行うためにズームレンズ30
1内のフォーカスレンズ311を移動させるフォーカス
モータM2、ズームレンズ301内に設けられた絞り3
02の開口径を調整するための絞りモータM3とが設け
られている。As shown in FIG. 4, an image pickup circuit having a CCD 303 is provided at an appropriate position behind the zoom lens 301 in the image pickup section 3. Further, inside the image pickup unit 3, a zoom motor M1 for changing the zoom ratio of the zoom lens 301 and for moving the lens between the storage position and the image pickup position, and a zoom lens 30 for adjusting the focus.
1, a focus motor M2 for moving the focus lens 311 in the first lens unit 3 and a diaphragm 3 provided in the zoom lens 301.
And a diaphragm motor M3 for adjusting the opening diameter of No. 02.
【0027】図5に示すように、ズームモータM1、フ
ォーカスモータM2、絞りモータM3は、カメラ本体部
2に設けられたズームモータ駆動回路215、フォーカ
スモータ駆動回路214、絞りモータ駆動回路216に
よってそれぞれ駆動される。また、各駆動回路214〜
216はカメラ本体部2の全体制御部270から与えら
れる制御信号に基づいて各モータM1〜M3を駆動す
る。As shown in FIG. 5, the zoom motor M1, the focus motor M2, and the aperture motor M3 are respectively driven by the zoom motor drive circuit 215, the focus motor drive circuit 214, and the aperture motor drive circuit 216 provided in the camera body 2. Driven. In addition, each drive circuit 214-
Reference numeral 216 drives each of the motors M1 to M3 based on a control signal provided from the overall control unit 270 of the camera body unit 2.
【0028】CCD303は、ズームレンズ301によ
って結像された被写体の光像を、R(赤)、G(緑)、
B(青)の色成分の画像信号(各画素で受光された画素
信号の信号列からなる信号)に光電変換して出力する。The CCD 303 converts the optical image of the subject formed by the zoom lens 301 into R (red), G (green),
An image signal of a B (blue) color component (a signal composed of a signal sequence of pixel signals received by each pixel) is photoelectrically converted and output.
【0029】タイミングジェネレータ314は、カメラ
本体部2のタイミング制御回路202から送信される基
準クロックに基づきCCD303の駆動制御信号を生成
するものである。タイミングジェネレータ314は、例
えば、積分開始/終了(露出開始/終了)のタイミング
信号、各画素の受光信号の読出制御信号(水平同期信
号、垂直同期信号、転送信号等)等のクロック信号を生
成し、CCD303に出力する。The timing generator 314 generates a drive control signal for the CCD 303 based on the reference clock transmitted from the timing control circuit 202 of the camera body 2. The timing generator 314 generates, for example, a clock signal such as a timing signal for starting / ending integration (starting / ending exposure), a read control signal (a horizontal synchronizing signal, a vertical synchronizing signal, a transfer signal, etc.) for a light receiving signal of each pixel. , To the CCD 303.
【0030】信号処理回路313は、CCD303から
出力される画像信号(アナログ信号)に所定のアナログ
信号処理を施すものである。信号処理回路313は、C
DS(相関二重サンプリング)回路とAGC(オートゲ
インコントロール)回路とを有し、CDS回路により画
像信号のノイズの低減を行い、AGC回路でゲインを調
整することにより画像信号のレベル調整を行う。The signal processing circuit 313 subjects the image signal (analog signal) output from the CCD 303 to predetermined analog signal processing. The signal processing circuit 313 is C
It has a DS (correlated double sampling) circuit and an AGC (auto gain control) circuit, the noise of the image signal is reduced by the CDS circuit, and the level of the image signal is adjusted by adjusting the gain by the AGC circuit.
【0031】調光回路304は、フラッシュ撮影におけ
る内蔵フラッシュ5の発光量を全体制御部270により
設定された所定の発光量に制御するものである。フラッ
シュ撮影時には、露出開始と同時に被写体からのフラッ
シュ光の反射光が調光センサ305により受光され、こ
の受光量が所定の発光量に達すると、調光回路304か
ら発光停止信号が出力される。発光停止信号はカメラ本
体部2に設けられた全体制御部270を介してフラッシ
ュ制御回路217に導かれ、フラッシュ制御回路217
はこの発光停止信号に応答して内蔵フラッシュ5の発光
を強制的に停止し、これにより内蔵フラッシュ5の発光
量が所定の発光量に制御される。The dimming circuit 304 controls the light emission amount of the built-in flash 5 during flash photography to a predetermined light emission amount set by the overall control unit 270. During flash photography, the flash light reflected from the subject is received by the dimming sensor 305 simultaneously with the start of exposure, and when the amount of received light reaches a predetermined amount of light emission, the dimming circuit 304 outputs a light emission stop signal. The light emission stop signal is guided to the flash control circuit 217 via the overall control unit 270 provided in the camera body unit 2, and the flash control circuit 217.
In response to the light emission stop signal, the light emission of the built-in flash 5 is forcibly stopped, whereby the light emission amount of the built-in flash 5 is controlled to a predetermined light emission amount.
【0032】カメラ本体部2内において、A/D変換器
205は、画像の各画素の信号を例えば10ビットのデ
ジタル信号に変換(A/D変換)するものである。A/
D変換器205は、タイミング制御回路202から入力
されるA/D変換用の基準クロックに基づいて各画素信
号(アナログ信号)をデジタル信号に変換する。In the camera body 2, the A / D converter 205 converts (A / D-converts) the signal of each pixel of the image into, for example, a 10-bit digital signal. A /
The D converter 205 converts each pixel signal (analog signal) into a digital signal based on the A / D conversion reference clock input from the timing control circuit 202.
【0033】タイミング制御回路202は、基準クロッ
ク、タイミングジェネレータ314、A/D変換器20
5に対するクロックを生成するように構成されている。
タイミング制御回路202は、全体制御部270によっ
て制御される。The timing control circuit 202 includes a reference clock, a timing generator 314, and an A / D converter 20.
It is configured to generate a clock for 5.
The timing control circuit 202 is controlled by the overall control unit 270.
【0034】A/D変換器205によって変換されたデ
ジタル信号は、第1画像処理部240及び全体制御部2
70にそれぞれ入力される。第1画像処理部240に入
力されるデジタル信号は、第1画像処理部240におい
て各種画像処理が施され、撮影画像としてメモリカード
91へ記憶されたり、ライブビュー表示画像として利用
される。一方、全体制御部270に入力されるデジタル
信号は、全体制御部270が被写体の輝度、コントラス
ト、色バランス等を演算するために利用される。The digital signal converted by the A / D converter 205 is sent to the first image processing section 240 and the overall control section 2.
70 respectively. The digital signal input to the first image processing unit 240 is subjected to various image processing in the first image processing unit 240, stored in the memory card 91 as a captured image, or used as a live view display image. On the other hand, the digital signal input to the overall control unit 270 is used by the overall control unit 270 to calculate the brightness, contrast, color balance, etc. of the subject.
【0035】第1画像処理部240は、例えば1チップ
のIC(Integrated Circuit)として実現されており、
A/D変換器205によってデジタル信号とされた画像
に対して、黒レベル補正処理、ホワイトバランス補正処
理、ガンマ補正処理、画素補間処理等の複数種類の画像
処理を施す。これらの画像処理の処理内容は、全体制御
部270によって画像ごとに設定される。例えば、ホワ
イトバランス補正処理に関しては、全体制御部270か
ら画像ごとに設定されたホワイトバランス調整値が入力
される。画像の各画素データは、第1画像処理部240
の画素補間処理により欠落色画素の補間が行われRGB
3色のデータを有することとなる。The first image processing section 240 is realized as, for example, a one-chip IC (Integrated Circuit),
A plurality of types of image processing such as black level correction processing, white balance correction processing, gamma correction processing, and pixel interpolation processing are performed on the image converted into a digital signal by the A / D converter 205. The processing contents of these image processings are set for each image by the overall control unit 270. For example, regarding the white balance correction processing, the white balance adjustment value set for each image is input from the overall control unit 270. Each pixel data of the image is stored in the first image processing unit 240.
Pixel interpolation processing is performed to interpolate missing color pixels
It will have three color data.
【0036】画像メモリ209は、第1画像処理部24
0から出力される画像のデータを記憶するメモリであ
る。画像メモリ209は、少なくとも2フレーム分の画
像を記憶し得る容量を有している。The image memory 209 includes a first image processing section 24.
This is a memory that stores image data output from 0. The image memory 209 has a capacity capable of storing at least two frames of images.
【0037】VRAM(ビデオRAM)210は、LC
D10に再生表示される画像のバッファメモリである。
また、VRAM211は、EVF31に表示される画像
のバッファメモリである。VRAM210はLCD10
の画素数に対応した画像データを、VRAM211はE
VF31の画素数に対応した画像データをそれぞれ格納
することが可能な記憶容量を有している。The VRAM (video RAM) 210 is an LC
It is a buffer memory of an image reproduced and displayed in D10.
Further, the VRAM 211 is a buffer memory for an image displayed on the EVF 31. The VRAM 210 is the LCD 10
Image data corresponding to the number of pixels of
It has a storage capacity capable of storing image data corresponding to the number of pixels of the VF 31.
【0038】動作モードが「撮影」の際の撮影待機状態
においては、撮像部3により例えば1/30秒毎に画像
が撮影され、A/D変換器205によってデジタル信号
に変換される。そして、第1画像処理部240により所
定の信号処理を施された後に、画像メモリ209に一時
記憶されるとともに、全体制御部270を介してVRA
M210、210に転送され、LCD10およびEVF
20に表示される(ライブビュー表示)。これによっ
て、ユーザは被写体像を視認することができる。In the shooting standby state when the operation mode is "shooting", the image pickup unit 3 shoots an image, for example, every 1/30 seconds, and the A / D converter 205 converts the image into a digital signal. Then, after predetermined signal processing is performed by the first image processing unit 240, it is temporarily stored in the image memory 209, and VRA is also transmitted via the overall control unit 270.
M210, transferred to 210, LCD10 and EVF
20 (live view display). This allows the user to visually recognize the subject image.
【0039】また、動作モードが「再生」の場合、メモ
リカード91から読み出された画像が全体制御部270
で所定の信号処理が施された後、LCDVRAM210
に転送され、LCD10に再生表示される。EVF20
でも同様の表示が行われる。When the operation mode is "reproduction", the image read from the memory card 91 is the overall control section 270.
After the predetermined signal processing is performed by the LCD VRAM 210
And is reproduced and displayed on the LCD 10. EVF20
However, the same display is performed.
【0040】カードインターフェース212は、カード
スロット17を介してメモリカード91への画像の書き
込みおよび読み出しを行うためのインターフェイスであ
る。The card interface 212 is an interface for writing and reading images to and from the memory card 91 via the card slot 17.
【0041】フラッシュ制御回路217は、内蔵フラッ
シュ5の発光を制御する回路であり、全体制御部270
からの制御信号に基づいて内蔵フラッシュ5を発光させ
る一方、既述の発光停止信号に基づいて内蔵フラッシュ
5の発光を停止させる。The flash control circuit 217 is a circuit for controlling the light emission of the built-in flash 5, and the overall control section 270.
While the built-in flash 5 is caused to emit light based on the control signal from, the light emission of the built-in flash 5 is stopped based on the above-mentioned light emission stop signal.
【0042】操作部250は、上述した、各種スイッ
チ、ボタンを包括するものであり、ユーザによって操作
入力される情報は、操作部250を介して全体制御部2
70に伝達される。The operation unit 250 includes the above-mentioned various switches and buttons, and information input by a user is input via the operation unit 250 to the overall control unit 2.
70 is transmitted.
【0043】全体制御部270は、CPUを備えたマイ
クロコンピュータから構成され、撮影機能及び再生機能
を集中制御するものである。全体制御部270には、デ
ジタルカメラ1の上述した各部材の駆動を制御したり取
得された画像を処理するための制御プログラムが記憶さ
れたROM261と、制御プログラムに従って数々の演
算作業を行うための作業領域となるRAM262とが電
気的に接続されている。なお、記録媒体であるメモリカ
ード91に記録されているプログラムデータをカードイ
ンターフェース212を介して読み出しROM261に
格納することができる。すなわち、制御プログラムは、
メモリカード91からデジタルカメラ1中にインストー
ルされることが可能となっている。The overall control unit 270 is composed of a microcomputer having a CPU, and centrally controls the photographing function and the reproducing function. The overall control unit 270 stores a ROM 261 that stores a control program for controlling the driving of the above-described members of the digital camera 1 and processing the acquired images, and a number of arithmetic operations according to the control program. A RAM 262, which is a work area, is electrically connected. The program data recorded in the memory card 91 which is a recording medium can be read out via the card interface 212 and stored in the ROM 261. That is, the control program is
It can be installed in the digital camera 1 from the memory card 91.
【0044】図5において、AF制御部271、露出制
御部272、画像処理制御部273および画像記録部2
74は、ROM261に記憶された制御プログラムに従
って全体制御部270のCPU等によって演算処理され
ることにより実現される機能を示す。In FIG. 5, an AF control section 271, an exposure control section 272, an image processing control section 273 and an image recording section 2 are shown.
Reference numeral 74 denotes a function realized by being arithmetically processed by the CPU or the like of the overall control unit 270 according to the control program stored in the ROM 261.
【0045】AF制御部271は、いわゆるAF(オー
トフォーカス)制御を行うものである。AF制御部27
1は、A/D変換器205から入力された画像信号のコ
ントラストを評価し、このコントラストが最も高くなる
ようにフォーカスレンズ311の位置を駆動させる。こ
れにより、ズームレンズ301により形成される像の位
置がCCD303の撮像面に一致される。The AF control section 271 performs so-called AF (autofocus) control. AF control unit 27
1 evaluates the contrast of the image signal input from the A / D converter 205, and drives the position of the focus lens 311 so that this contrast becomes the highest. As a result, the position of the image formed by the zoom lens 301 is matched with the image pickup surface of the CCD 303.
【0046】露出制御部272は、露出条件の設定およ
び露出制御を行うものである。具体的には、A/D変換
器205から入力された画像信号から被写体の輝度を算
出し、絞り値と、シャッタースピード(正確にはCCD
303の電荷蓄積時間)とを設定する。また、絞り値と
シャッタースピードとの調整によっても適切な露光量が
得られない場合などは、内蔵フラッシュ5を発光させる
設定を行う。設定した露出条件に従って、タイミング制
御回路202、絞りモータ駆動回路216およびフラッ
シュ制御回路217に制御信号を送信して露出制御を行
う。The exposure control unit 272 sets exposure conditions and controls exposure. Specifically, the brightness of the subject is calculated from the image signal input from the A / D converter 205, and the aperture value and shutter speed (to be exact, CCD
(Charge accumulation time of 303). Further, when the appropriate exposure amount cannot be obtained even by adjusting the aperture value and the shutter speed, the built-in flash 5 is set to emit light. According to the set exposure condition, a control signal is transmitted to the timing control circuit 202, the aperture motor drive circuit 216, and the flash control circuit 217 to perform exposure control.
【0047】画像処理制御部273は、A/D変換器2
05から出力された画像に対して画像処理を行う第1画
像処理部240、および、画像メモリ209に記憶され
た画像に対してソフトウェア的に画像処理を行う第2画
像処理部283(図6参照)に関する画像処理条件の設
定を行う。例えば、A/D変換器205から入力された
画像信号の色バランスを算出し、算出された色バランス
に応じてホワイトバランス調整値を設定する。The image processing control unit 273 has the A / D converter 2
The first image processing unit 240 that performs image processing on the image output from 05 and the second image processing unit 283 that performs image processing on the image stored in the image memory 209 by software (see FIG. 6). ) Related image processing conditions are set. For example, the color balance of the image signal input from the A / D converter 205 is calculated, and the white balance adjustment value is set according to the calculated color balance.
【0048】画像記録部274は、動作モードが「撮
影」の際にシャッタボタン8により撮影が指示される
と、画像メモリ209に取り込まれた画像のサムネイル
画像と操作部250に含まれるスイッチから設定入力さ
れた圧縮率によりJPEG方式で圧縮された圧縮画像と
を生成し、撮影画像に関するタグ情報(コマ番号、露出
値、シャッタスピード、圧縮率、撮影日、撮影時のフラ
ッシュのオンオフのデータ、撮影距離、シーン情報等の
情報)とともに両画像をメモリカード91に記憶する。The image recording section 274 is set from the thumbnail image of the image captured in the image memory 209 and the switch included in the operation section 250 when the shutter button 8 instructs the image recording section 274 when the operation mode is "photographing". A compressed image compressed in JPEG format is generated according to the input compression rate, and tag information (frame number, exposure value, shutter speed, compression rate, shooting date, flash on / off data at the time of shooting, shooting Both images are stored in the memory card 91 together with information such as distance and scene information).
【0049】<1−3.デジタルカメラの動作>さら
に、全体制御部270は、撮影モードが人物検出モード
である場合は、撮影時において画像中の人物領域を検出
する人物検出処理を行うようになっている。図6は、人
物検出処理に係るデジタルカメラ1の機能を示すブロッ
ク図である。図6において、赤目検出部281、人物検
出部282、第2画像処理部283及び距離演算部28
4は、ROM261に記憶された制御プログラムに従っ
て全体制御部270のCPU等によって演算処理される
ことにより実現される機能を示す。<1-3. Operation of Digital Camera> Further, when the shooting mode is the person detection mode, the overall control unit 270 is configured to perform a person detection process for detecting a person area in an image at the time of shooting. FIG. 6 is a block diagram showing the functions of the digital camera 1 relating to the person detection processing. In FIG. 6, the red-eye detection unit 281, the person detection unit 282, the second image processing unit 283, and the distance calculation unit 28.
Reference numeral 4 denotes a function realized by being arithmetically processed by the CPU or the like of the overall control unit 270 according to the control program stored in the ROM 261.
【0050】赤目検出部281は、画像メモリ209に
記憶された画像中の赤目領域を検出する。赤目領域を検
出する際には、内蔵フラッシュ5を発光しないで撮影さ
れた第1画像(以下、「非フラッシュ発光画像」とい
う。)と、フラッシュを発光して撮影された第2画像
(以下、「フラッシュ発光画像」という。)とを用い
る。The red-eye detecting section 281 detects the red-eye area in the image stored in the image memory 209. When detecting the red-eye area, a first image (hereinafter, referred to as “non-flash light emission image”) captured without emitting the built-in flash 5 and a second image (hereinafter, referred to as “non-flash emission image”) are emitted. "Flash emission image").
【0051】人物検出部282は、赤目検出部281に
よって検出された赤目領域の近傍の肌色領域を、画像中
の人物領域として検出する。第2画像処理部283は、
検出された画像中の赤目領域の補正などの画像処理をソ
フトウェア的に実現する。また、距離演算部284は、
AF制御部271からフォーカスレンズ311の合焦す
る位置情報を取得し、当該位置情報から主被写体(人
物)までの距離を撮影距離として算出する。The person detecting section 282 detects a skin color area near the red-eye area detected by the red-eye detecting section 281 as a person area in the image. The second image processing unit 283
Image processing such as correction of the red-eye area in the detected image is realized by software. Further, the distance calculation unit 284 is
The focus position information of the focus lens 311 is acquired from the AF control unit 271 and the distance from the position information to the main subject (person) is calculated as the shooting distance.
【0052】図7は、赤目検出部281の機能構成を示
すブロック図である。発生率算出部291は、画像中の
被写体の赤目現象が発生する確率を赤目発生率として算
出する。候補領域抽出部293は、非フラッシュ画像及
びフラッシュ画像それぞれの画素値を用いて、赤色の領
域を赤目領域の候補となる領域(以下、「赤目候補領
域」という。)として抽出する。判定基準変更部292
は、候補領域抽出部293が赤目候補領域を抽出するた
めの判定基準を、発生率算出部291によって算出され
た赤目発生率に応じて変更する。また、候補領域比較部
294は、非フラッシュ画像とのフラッシュ画像との赤
目候補領域を比較し、フラッシュ画像のみにある赤目候
補領域を赤目領域として検出する。これらの機能の詳細
については後述する。FIG. 7 is a block diagram showing the functional arrangement of the red-eye detector 281. The occurrence rate calculation unit 291 calculates the probability of occurrence of the red-eye phenomenon of the subject in the image as the red-eye occurrence rate. The candidate area extraction unit 293 uses the pixel values of the non-flash image and the flash image, respectively, and extracts the red area as an area that is a candidate for a red eye area (hereinafter, referred to as a “red eye candidate area”). Judgment standard changing unit 292
Changes the criterion for the candidate area extraction unit 293 to extract the red-eye candidate area according to the red-eye occurrence rate calculated by the occurrence rate calculation unit 291. Further, the candidate area comparison unit 294 compares the red-eye candidate area between the non-flash image and the flash image, and detects the red-eye candidate area only in the flash image as the red-eye area. Details of these functions will be described later.
【0053】図8および図9は、人物検出モードにおけ
るデジタルカメラ1の撮影時の動作の流れを示す図であ
る。以下、図6ないし図9を参照してデジタルカメラ1
の人物検出モードにおける撮影動作について説明する。FIG. 8 and FIG. 9 are diagrams showing the flow of the operation of the digital camera 1 during shooting in the person detection mode. Hereinafter, the digital camera 1 will be described with reference to FIGS. 6 to 9.
The shooting operation in the person detection mode will be described.
【0054】まず、シャッタボタン8が半押し(S1状
態)される(ステップST11)と画像撮影のための準
備がなされる。すなわち、AF制御部271によりフォ
ーカスレンズ311が駆動され、ズームレンズ301に
より形成される像の位置がCCD303の撮像面に一致
される。(ステップST12)。First, when the shutter button 8 is half-pressed (S1 state) (step ST11), preparation for image capturing is made. That is, the focus lens 311 is driven by the AF control unit 271, and the position of the image formed by the zoom lens 301 is matched with the image pickup surface of the CCD 303. (Step ST12).
【0055】次に、露出制御部272が、被写体の輝度
に基づいて露出条件の設定を行う。すなわち、絞り値、
シャッタースピードおよび内蔵フラッシュ5を発光する
(発光設定)か否か(非発光設定)の設定がなされる
(ステップST13)。さらに、画像処理制御部273
が、被写体の色バランスに基づいてホワイトバランス調
整値の設定を行う(ステップST14)。Next, the exposure control unit 272 sets the exposure conditions based on the brightness of the subject. That is, the aperture value,
The shutter speed and whether or not the built-in flash 5 emits light (emission setting) (non-emission setting) are set (step ST13). Furthermore, the image processing control unit 273
However, the white balance adjustment value is set based on the color balance of the subject (step ST14).
【0056】以上のようにして撮影のための準備が終了
するとレリーズ許可がなされる。すなわちシャッタボタ
ン8のロックが外れ、全押し(S2状態)することが可
能な状態となる(ステップST15)。この状態でシャ
ッタボタン8が所定時間操作されない場合(ステップS
T16にてNo)は、ステップST11に戻ることとな
る。一方、シャッタボタン8が全押しされた場合(ステ
ップST16にてYes)は図9のステップST21に
進む。When the preparation for photographing is completed as described above, the release permission is given. That is, the shutter button 8 is unlocked, and the shutter button 8 can be fully pressed (S2 state) (step ST15). If the shutter button 8 is not operated for a predetermined time in this state (step S
If No in T16, the process returns to step ST11. On the other hand, if the shutter button 8 is fully pressed (Yes in step ST16), the process proceeds to step ST21 in FIG.
【0057】内蔵フラッシュ5の発光設定時(ステップ
ST21にてYes)は、続いて、内蔵フラッシュ5を
発光せずにCCD303が設定された露光時間だけ露光
して被写体の画像が非フラッシュ画像として取り込まれ
る。露光の後、CCD303から出力される画像信号
は、信号処理回路313、A/D変換器205および第
1画像処理部240において所定の処理が施されて画像
メモリ209に記憶される。この非フラッシュ画像は、
内蔵フラッシュ5を発光しないで撮影された画像である
ため、輝度の比較的低い画像となる(ステップST2
2)。When the light emission of the built-in flash 5 is set (Yes in step ST21), subsequently, the built-in flash 5 is not emitted and the CCD 303 is exposed for the set exposure time to capture the image of the subject as a non-flash image. Be done. After the exposure, the image signal output from the CCD 303 is subjected to predetermined processing in the signal processing circuit 313, the A / D converter 205 and the first image processing unit 240, and stored in the image memory 209. This non-flash image is
Since the image is captured without the built-in flash 5 emitting light, the image has relatively low brightness (step ST2).
2).
【0058】次に、内蔵フラッシュ5を発光して(ステ
ップST23)、CCD303が設定された露光時間だ
け露光して、上記非フラッシュ画像と同一の被写体の画
像がフラッシュ画像として取り込まれる。露光の後、C
CD303から出力される画像信号は、信号処理回路3
13、A/D変換器205及び第1画像処理部240に
おいて所定の処理が施されて画像メモリ209に同様に
記憶される。このフラッシュ画像は、内蔵フラッシュ5
を発光して撮影されたであるため輝度が比較的高い(適
正露光)画像となる(ステップST24)。Next, the built-in flash 5 is emitted (step ST23), the CCD 303 is exposed for a set exposure time, and the image of the same subject as the non-flash image is captured as a flash image. After exposure, C
The image signal output from the CD 303 is the signal processing circuit 3
13, predetermined processing is performed in the A / D converter 205 and the first image processing unit 240 and similarly stored in the image memory 209. This flash image shows the built-in flash 5.
Since it was photographed by emitting light, the image has a relatively high brightness (appropriate exposure) (step ST24).
【0059】図10は非フラッシュ画像の一例を示す図
であり、図11は図10と同一の被写体に対するフラッ
シュ画像の一例を示す図である。これらの図に示すよう
に非フラッシュ画像P1はフラッシュ画像P2と比較し
て暗い画像となる。FIG. 10 is a diagram showing an example of a non-flash image, and FIG. 11 is a diagram showing an example of a flash image for the same subject as in FIG. As shown in these figures, the non-flash image P1 becomes a darker image than the flash image P2.
【0060】画像P1,P2中には、被写体として二人
の人物PS1,PS2と、肌色に近似する色を有する建
造物PS3とが含まれている。また、人物PS1は赤色
のアクセサリーR1を身につけ、人物PS2の衣服は赤
色のボタンR2を有している。また、建造物PS3には
赤色の照明光源R3が存在している。なお、図11のフ
ラッシュ画像における人物PS1,PS2の目領域E
1,E2には、赤目現象が発生している。The images P1 and P2 include two persons PS1 and PS2 as subjects and a building PS3 having a color close to the skin color. Also, the person PS1 wears a red accessory R1 and the person PS2's clothes have a red button R2. A red illumination light source R3 exists in the building PS3. The eye area E of the persons PS1 and PS2 in the flash image of FIG.
1 and E2 have a red-eye effect.
【0061】次に、赤目検出部281が、上記のように
して画像メモリ209に記憶された二枚の画像を用い
て、フラッシュ画像中の赤目領域を検出する赤目検出処
理を行う(ステップST25)。Next, the red-eye detecting section 281 performs the red-eye detecting process for detecting the red-eye area in the flash image by using the two images stored in the image memory 209 as described above (step ST25). .
【0062】図12は、赤目検出部281の赤目検出処
理の流れを示す図である。まず、発生率算出部291
が、赤目発生率Pを算出する(ステップST101)。
赤目発生率Pは、撮影距離D、フラッシュ画像と非フラ
ッシュ画像との輝度差Brdおよび所定の定数Aを用い
て、次の数1によって算出することができる。FIG. 12 is a diagram showing the flow of the red-eye detection processing of the red-eye detection section 281. First, the occurrence rate calculation unit 291
Calculates the red-eye occurrence rate P (step ST101).
The red-eye occurrence rate P can be calculated by the following equation 1 using the shooting distance D, the brightness difference Brd between the flash image and the non-flash image, and the predetermined constant A.
【0063】[0063]
【数1】 [Equation 1]
【0064】ここで、撮影距離Dは距離演算部284に
よって算出される。また、輝度差Brdはフラッシュ画
像の輝度Br2と非フラッシュ画像の輝度Br1との差
分であり、輝度Br1,Br2は画像中の画素データの
RGB値の平均値を使用する。なお、輝度Br1,Br
2は、Gの値のみの平均値や、YCrCbへ変換しYの
値の平均値などを使用してもよい。さらに、輝度差Br
dの算出に当たっては、内蔵フラッシュ5の発光量に基
づいて算出されてもよい。Here, the photographing distance D is calculated by the distance calculation unit 284. The brightness difference Brd is the difference between the brightness Br2 of the flash image and the brightness Br1 of the non-flash image, and the brightness Br1 and Br2 use the average value of the RGB values of the pixel data in the image. Note that the brightness Br1, Br
For 2, the average value of only the G value, or the average value of the Y values converted into YCrCb may be used. Furthermore, the brightness difference Br
The value of d may be calculated based on the light emission amount of the built-in flash 5.
【0065】次に、フラッシュ画像と非フラッシュ画像
の赤目候補領域を抽出する前処理として、判定基準変更
部292が赤目候補領域として判定するための判定基準
を赤目発生率Pに応じて変更設定する(ステップST1
02)。Next, as preprocessing for extracting the red-eye candidate areas of the flash image and the non-flash image, the judgment criterion changing unit 292 changes and sets the judgment criterion for judging the red-eye candidate area as the red-eye candidate area. (Step ST1
02).
【0066】本実施の形態においては、フラッシュ画像
と非フラッシュ画像とには輝度の差があるため、画素デ
ータのRGB値から輝度の影響を受けない色度u’,
v’を算出し、色度u’,v’が「CIE 1976 U
CS色度図」の特定領域内にあるか否かで赤目候補領域
が判定される。なお、色度u’,v’は以下の数2,数
3で算出することができる。In this embodiment, since there is a difference in brightness between the flash image and the non-flash image, the chromaticity u ', which is not affected by the brightness from the RGB value of the pixel data,
v ′ is calculated, and the chromaticity u ′ and v ′ are “CIE 1976 U”.
The red-eye candidate area is determined by whether or not it is within the specific area of the "CS chromaticity diagram". The chromaticity u ′ and v ′ can be calculated by the following equations 2 and 3.
【0067】[0067]
【数2】 [Equation 2]
【0068】[0068]
【数3】 [Equation 3]
【0069】図13は「CIE 1976 UCS色度
図」の簡略図である。図13において符号RPで示す点
は、予め計測などによって設定された赤目現象時の理想
の赤色となる赤色基準点を示している。また、赤色基準
点RPからプラスおよびマイナスu’方向にそれぞれL
u、プラスおよびマイナスv’方向にそれぞれLvの幅
を持たせた矩形領域を赤色判定基準領域RAとして示し
ている。画素データの色度u’,v’が上記赤色判定基
準領域RA内にあれば、当該画素データは赤目候補領域
であると判定する。つまり、赤色判定基準領域RAの大
きさ(面積)を変更すれば、赤目候補領域を抽出するた
めの判定基準を変更することとなる。FIG. 13 is a simplified diagram of "CIE 1976 UCS Chromaticity Diagram". In FIG. 13, a point indicated by reference symbol RP indicates a red reference point which is set in advance by measurement or the like and which is an ideal red color at the time of the red eye phenomenon. Also, from the red reference point RP in the plus and minus u'directions, respectively, L
A rectangular area having a width of Lv in the u, plus, and minus v ′ directions is shown as a red determination reference area RA. If the chromaticities u ′ and v ′ of the pixel data are within the red determination reference area RA, it is determined that the pixel data is a red eye candidate area. That is, if the size (area) of the red determination reference area RA is changed, the determination reference for extracting the red eye candidate area will be changed.
【0070】ここで、赤色判定基準領域RAの面積はL
uの2倍とLvの2倍との乗算で算出できる。そして、
赤色判定基準領域RAの幅Lu,Lvを予め設定された
初期値Lu0,Lv0と赤目発生率Pとに基づいて、以
下の数4および数5のように設定する。Here, the area of the red judgment reference area RA is L
It can be calculated by multiplying twice u and twice Lv. And
The widths Lu and Lv of the red determination reference area RA are set as in the following Expressions 4 and 5 based on the preset initial values Lu0 and Lv0 and the red-eye occurrence rate P.
【0071】[0071]
【数4】 [Equation 4]
【0072】[0072]
【数5】 [Equation 5]
【0073】これにより、赤目発生率Pが高いほど赤色
判定基準領域RAの大きさは狭く、赤目発生率Pが低い
ほど赤色判定基準領域RAの大きさは広く設定すること
ができる。すなわち、赤目発生率Pに応じて赤色判定基
準領域RAの大きさを変更するため、赤目領域として確
率の高い領域のみを赤目候補領域として抽出することが
できる。As a result, the size of the red judgment reference area RA can be set smaller as the red-eye occurrence rate P is higher, and the size of the red judgment reference area RA can be set larger as the red-eye occurrence rate P is lower. That is, since the size of the red determination reference area RA is changed according to the red-eye occurrence rate P, only an area having a high probability as a red-eye area can be extracted as a red-eye candidate area.
【0074】続いて、候補領域抽出部293が、上記の
ように各画素データの色度u’,V’が赤色判定基準領
域RA内に含まれるか否かを判定して、フラッシュ画像
中の赤目候補領域を抽出する(ステップST103)。
このとき、フラッシュ画像中に赤目候補領域が1つも抽
出されない場合(ステップST104にてNo)は、赤
目領域無し(ステップST109)と判断される。Subsequently, the candidate area extracting unit 293 determines whether or not the chromaticity u ', V'of each pixel data is included in the red determination reference area RA as described above, and the candidate area in the flash image A red eye candidate area is extracted (step ST103).
At this time, if no red-eye candidate area is extracted from the flash image (No in step ST104), it is determined that there is no red-eye area (step ST109).
【0075】一方、フラッシュ画像中に少なくとも1つ
の赤目候補領域が抽出された場合(ステップST104
にてYes)は、同様に非フラッシュ画像中の赤目候補
領域を抽出する(ステップST105)。On the other hand, if at least one red-eye candidate area is extracted from the flash image (step ST104).
If Yes, the red-eye candidate area in the non-flash image is similarly extracted (step ST105).
【0076】図14は図10の非フラッシュ画像P1中
の抽出された赤目候補領域を示す図であり、図15は図
11のフラッシュ画像P2中の抽出された赤目候補領域
を示す図である。非フラッシュ画像P1においては、図
14に示すように、アクセサリーR1、ボタンR2およ
び照明光源R3が赤目候補領域として抽出されている。
一方、フラッシュ画像P2においては、図15に示すよ
うに、アクセサリーR1、ボタンR2および照明光源R
3に加え、人物PS1,PS2の目領域E1,E2が赤
目候補領域として抽出されている。つまり、赤目領域は
フラッシュ画像P2においてのみ赤目候補領域として抽
出されている。FIG. 14 is a diagram showing the extracted red-eye candidate regions in the non-flash image P1 in FIG. 10, and FIG. 15 is a diagram showing the extracted red-eye candidate regions in the flash image P2 in FIG. In the non-flash image P1, as shown in FIG. 14, the accessory R1, the button R2, and the illumination light source R3 are extracted as the red eye candidate area.
On the other hand, in the flash image P2, as shown in FIG. 15, the accessory R1, the button R2, and the illumination light source R
In addition to 3, the eye areas E1 and E2 of the persons PS1 and PS2 are extracted as red eye candidate areas. That is, the red-eye area is extracted as the red-eye candidate area only in the flash image P2.
【0077】次に、候補領域比較部294が、非フラッ
シュ画像およびフラッシュ画像それぞれにおいて抽出さ
れた赤目候補領域の比較を行う(ステップST10
6)。そして、フラッシュ画像にのみ存在する赤目候補
領域が存在した場合(ステップST107でYes)
は、フラッシュ画像中の当該赤目候補領域を赤目領域と
して検出する(ステップST108)。これは、赤目現
象は内蔵フラッシュ5を発光した場合にのみ発生するた
め、フラッシュ画像のみにある赤目候補領域を赤目領域
と判断することができるためである。これにより、他の
赤目候補領域は赤目領域として検出されることはなく、
確実に赤目領域のみを検出することができる。Next, the candidate area comparison unit 294 compares the red-eye candidate areas extracted in each of the non-flash image and the flash image (step ST10).
6). When there is a red-eye candidate area that exists only in the flash image (Yes in step ST107)
Detects the red-eye candidate area in the flash image as a red-eye area (step ST108). This is because the red-eye phenomenon occurs only when the built-in flash 5 emits light, and thus the red-eye candidate area only in the flash image can be determined as the red-eye area. As a result, other red eye candidate areas are not detected as red eye areas,
Only the red-eye area can be surely detected.
【0078】図16は、非フラッシュ画像P1(図14
参照)およびフラッシュ画像P2(図15参照)を比較
することにより赤目領域として検出された領域を示して
いる。図に示すように、人物の目領域E1,E2のみが
赤目領域として検出される。FIG. 16 shows the non-flash image P1 (see FIG.
(See FIG. 15) and the flash image P2 (see FIG. 15) are compared with each other to indicate an area detected as a red eye area. As shown in the figure, only the human eye areas E1 and E2 are detected as red eye areas.
【0079】なお、フラッシュ画像にのみ存在する赤目
候補領域が存在しない場合(ステップST107でN
o)は、赤目領域無し(ステップST109)と判断さ
れる。If there is no red-eye candidate area that exists only in the flash image (N in step ST107)
o), it is determined that there is no red-eye area (step ST109).
【0080】以上のようにしてフラッシュ画像中の赤目
領域の検出を行うと、次に、人物検出部282が、人物
領域を検出するためにフラッシュ画像中の肌色領域を抽
出する(図9、ステップST26)。肌色領域の抽出
は、赤目候補領域の抽出と同様に、フラッシュ画像中の
画素データの色度u’,v’が「CIE 1976 UC
S色度図」の人物の肌色として判定するための予め設定
された領域内に含まれているか否かで判定する。When the red-eye area in the flash image is detected as described above, the person detecting unit 282 next extracts the skin color area in the flash image in order to detect the person area (FIG. 9, step). ST26). The extraction of the skin color area is similar to the extraction of the red eye candidate area, and the chromaticity u ′, v ′ of the pixel data in the flash image is “CIE 1976 UC”.
It is determined whether or not it is included in a preset area for determining the skin color of the person in the “S chromaticity diagram”.
【0081】このとき、上記赤目領域の近傍の画素デー
タから上記肌色領域の判定を行うことにより、赤目領域
の近傍の肌色領域のみを抽出する。そして、抽出された
肌色領域を人物領域として検出する。これは、赤目領域
は人物の顔の領域に必ず含まれるため、赤目領域の近傍
の肌色領域は人物領域(顔領域)であると判断できるた
めである。これにより、肌色に近似する色を有する建築
物などは肌色領域として抽出されることはなく、確実に
人物領域となる肌色領域のみを抽出することができる。
また、フラッシュ画像中の全ての画素データに対して肌
色領域の判定を行う必要がなく、処理速度を向上させる
ことができる。At this time, only the skin color area in the vicinity of the red eye area is extracted by determining the skin color area from the pixel data in the vicinity of the red eye area. Then, the extracted skin color area is detected as a person area. This is because the red-eye area is always included in the person's face area, and thus the skin-colored area near the red-eye area can be determined to be the person area (face area). As a result, a building or the like having a color similar to the skin color is not extracted as the skin color region, and only the skin color region that is the person region can be reliably extracted.
Further, it is not necessary to determine the skin color area for all pixel data in the flash image, and the processing speed can be improved.
【0082】図17は、フラッシュ画像P2(図15)
において人物領域として検出された領域を示している。
図に示すように、赤目領域E1,E2近傍の肌色領域の
みが人物領域PAとして検出されており、肌色に近似す
る色を有する建造物PS3は人物領域PAとして検出さ
れることはない。FIG. 17 shows a flash image P2 (FIG. 15).
The area detected as the person area in FIG.
As shown in the figure, only the skin color areas near the red-eye areas E1 and E2 are detected as the person area PA, and the building PS3 having a color close to the skin color is not detected as the person area PA.
【0083】なお、上記赤目検出処理において、赤目領
域無し(図12、ステップST109)と判断された場
合は画像中に人物は無いとみなし、人物領域の検出は行
われない。In the red eye detection process, if it is determined that there is no red eye area (FIG. 12, step ST109), it is considered that there is no person in the image, and the person area is not detected.
【0084】次に、検出された人物領域および赤目領域
の情報に基づいて画像処理制御部273は第2画像処理
部283による画像処理条件を設定する。そして、第2
画像処理部283は、設定された条件に基づいてフラッ
シュ画像に対して画像処理を行う。これにより、人物領
域および赤目領域に基づいた画像処理をフラッシュ画像
に対して行うことができる(ステップST27)。Next, the image processing control unit 273 sets the image processing conditions for the second image processing unit 283 based on the information on the detected person area and red eye area. And the second
The image processing unit 283 performs image processing on the flash image based on the set conditions. As a result, image processing based on the person area and the red eye area can be performed on the flash image (step ST27).
【0085】例えば、人物領域が特定されているため、
人物領域(顔領域)のみに対して輝度や彩度を最適に調
整する処理や、人物領域以外の領域をぼけさせて人物の
みを美しく引き立たせる処理など、人物領域と人物領域
以外の領域とで処理内容を相違させて画像処理を行うこ
とができる。また、赤目領域が特定されているため、赤
目領域をグレーなどの色に置換する赤目補正処理を容易
に行うことができる。さらに、人物領域の数から「風
景」「ポートレート」などの撮影シーンを判定し、撮影
シーンに応じた画像処理を行うことも可能となる。For example, since the person area is specified,
There is a difference between the human and non-human areas, such as the process of optimally adjusting the brightness and saturation of the human area (face area) only, or the process of blurring the non-human areas to make the person stand out beautifully. Image processing can be performed with different processing contents. Further, since the red-eye area is specified, it is possible to easily perform the red-eye correction processing for replacing the red-eye area with a color such as gray. Furthermore, it is possible to determine a shooting scene such as “landscape” or “portrait” from the number of person areas and perform image processing according to the shooting scene.
【0086】画像処理の施されたフラッシュ画像は、画
像記録部274によってその圧縮画像とサムネイル画像
とが生成され、タグ情報とともにメモリカード91に記
憶される(ステップST28)。A compressed image and a thumbnail image of the flash image subjected to the image processing are generated by the image recording unit 274 and stored in the memory card 91 together with the tag information (step ST28).
【0087】ところで、内蔵フラッシュ5の非発光設定
時(ステップST21にてNo)は、内蔵フラッシュ5
を発光しなくても適正露光の画像が取得できるため、内
蔵フラッシュ5を使用せずに被写体の画像が取り込ま
れ、所定の処理が施されて画像メモリ209に記憶され
る(ステップST31)。このとき取り込まれた画像に
おいては赤目現象は発生しないため赤目検出処理は行わ
れず、赤目領域とは無関係に肌色領域を抽出して、該肌
色領域を人物領域として検出する(ステップST3
2)。そして、ステップST27と同様に検出された人
物領域に基づいた画像処理が施される(ステップST3
3)。なお、赤目現象は発生しないため赤目補正処理は
行われない。画像処理が行われると、上記と同様にメモ
リカード91に記憶されることとなる(ステップST2
8)。By the way, when the built-in flash 5 is set to emit no light (No in step ST21), the built-in flash 5
Since an image with proper exposure can be obtained without emitting light, the image of the subject is captured without using the built-in flash 5, is subjected to predetermined processing, and is stored in the image memory 209 (step ST31). Since the red-eye phenomenon does not occur in the image captured at this time, the red-eye detection processing is not performed, the skin-color area is extracted regardless of the red-eye area, and the skin-color area is detected as a human area (step ST3).
2). Then, similar to step ST27, image processing based on the detected person area is performed (step ST3).
3). Since the red-eye phenomenon does not occur, the red-eye correction process is not performed. When the image processing is performed, it is stored in the memory card 91 in the same manner as described above (step ST2).
8).
【0088】なお、本実施の形態においては、被写体の
輝度に基づいて内蔵フラッシュ5の発光及び非発光の設
定が自動的になされていたが、ユーザによりこれらを設
定できるようになっていてもよい。In the present embodiment, the built-in flash 5 is automatically set to emit light or not to emit light based on the brightness of the subject, but the user may be able to set these. .
【0089】以上、第1の実施の形態について説明を行
ったが、本実施の形態においては、非フラッシュ画像と
フラッシュ画像とを用いて、赤目現象はフラッシュを発
光した場合のみ発生するものであるためフラッシュ画像
のみにある赤目候補領域を赤目領域として検出すること
から、赤目領域を確実に検出することが可能となる。Although the first embodiment has been described above, in the present embodiment, the red-eye phenomenon occurs only when the flash is emitted by using the non-flash image and the flash image. Therefore, the red-eye candidate area only in the flash image is detected as the red-eye area, so that the red-eye area can be surely detected.
【0090】また、検出された赤目領域の近傍の肌色領
域を人物領域として検出するため、人物領域のみを確実
に検出することができる。さらに、肌色領域の形状判定
などの複雑な処理を行う必要がないため、比較的高速に
人物領域を検出することができる。Further, since the skin color area in the vicinity of the detected red-eye area is detected as the human area, only the human area can be surely detected. Further, since it is not necessary to perform complicated processing such as shape determination of the skin color area, the human area can be detected relatively quickly.
【0091】また、人物領域に基づいて画像処理の条件
が設定されるため、人物領域と人物領域以外の領域とで
処理内容を相違させて画像処理を行うことや、人物領域
に最適な画像処理を行うことができる。また、赤目領域
が特定されているため赤目補正処理を容易に行うことが
できる。Further, since the image processing condition is set based on the person area, the image processing is performed with different processing contents for the person area and the area other than the person area, and the image processing optimal for the person area is performed. It can be performed. Further, since the red-eye area is specified, the red-eye correction process can be easily performed.
【0092】<2.第2の実施の形態>次に、本発明の
第2の実施の形態について説明する。第1の実施の形態
においては、人物領域を検出して当該人物領域に基づい
て画像処理条件の設定を行っていたが、本実施の形態で
はさらに人物領域に基づいて撮像条件の設定を行うよう
になっている。本実施の形態における画像処理装置であ
るデジタルカメラ1は、図1ないし図5に示す構成と同
様の構成である。<2. Second Embodiment> Next, a second embodiment of the present invention will be described. In the first embodiment, the human area is detected and the image processing condition is set based on the human area. However, in the present embodiment, the imaging condition is further set based on the human area. It has become. The digital camera 1 which is the image processing apparatus according to the present embodiment has the same configuration as that shown in FIGS. 1 to 5.
【0093】また、図18は本実施の形態における人物
検出処理に係るデジタルカメラ1の機能を示すブロック
図である。赤目検出部281の機能構成は図7に示す構
成と同様である。第1の実施の形態と同様の機能を有す
るものに関しては、同一の符号を付しているため詳細な
説明は省略する。図18において、赤目発生判定部28
5は、ROM261に記憶された制御プログラムに従っ
て全体制御部270のCPU等によって演算処理される
ことにより実現される機能を示す。赤目発生判定部28
5は撮影動作前に被写体の輝度と撮影距離とから、赤目
現象が発生するか否かを判定する。赤目発生判定部28
5の機能の詳細については後述する。FIG. 18 is a block diagram showing the functions of the digital camera 1 relating to the person detection processing in this embodiment. The functional configuration of the red-eye detecting unit 281 is similar to that shown in FIG. Components having the same functions as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted. In FIG. 18, the red eye occurrence determination unit 28
Reference numeral 5 denotes a function realized by being arithmetically processed by the CPU or the like of the overall control unit 270 according to the control program stored in the ROM 261. Red eye occurrence determination unit 28
Reference numeral 5 determines whether or not the red-eye phenomenon occurs based on the brightness of the subject and the shooting distance before the shooting operation. Red eye occurrence determination unit 28
Details of the function of 5 will be described later.
【0094】図19ないし図21は、本実施の形態の人
物検出モードにおけるデジタルカメラ1の撮影時の動作
の流れを示す図である。以下、図18ないし図21を参
照して本実施の形態におけるデジタルカメラ1の人物検
出モードにおける撮影動作について説明する。19 to 21 are diagrams showing the flow of the operation of the digital camera 1 at the time of photographing in the person detection mode of the present embodiment. Hereinafter, the photographing operation of the digital camera 1 in the present embodiment in the human detection mode will be described with reference to FIGS. 18 to 21.
【0095】まず、シャッタボタン8が半押し(S1状
態)される(ステップST51)と、赤目発生判定部2
85が、A/D変換器205から入力される画像信号か
ら被写体輝度Brを算出し、算出した被写体輝度Brと
距離演算部284から入力される撮影距離Dとに基づい
て、内蔵フラッシュ5を発光した場合に赤目現象が発生
するか否かを判定する赤目発生判定処理を行う(ステッ
プST52)。First, when the shutter button 8 is half-pressed (S1 state) (step ST51), the red-eye occurrence determination unit 2
85 calculates the subject brightness Br from the image signal input from the A / D converter 205, and emits the built-in flash 5 based on the calculated subject brightness Br and the shooting distance D input from the distance calculation unit 284. If so, a red-eye occurrence determination process is performed to determine whether the red-eye effect occurs (step ST52).
【0096】図22は、赤目発生判定処理に使用する判
定関数を示す図である。図において、横軸は被写体輝度
Brを、縦軸は撮影距離Dを示している。符号FAで示
す領域は内蔵フラッシュ5を発光すれば赤目現象が発生
する赤目発生領域であり、赤目発生領域FA以外の領域
は内蔵フラッシュ5を発光しても赤目現象が発生しない
領域である。この赤目発生領域FAは予め計測などによ
って設定されている。赤目発生判定部285は、被写体
輝度Brと撮影距離Dとで決定される点が赤目発生領域
FA内であれば赤目現象が発生すると判定することとな
る。FIG. 22 is a diagram showing a judgment function used in the red eye occurrence judgment processing. In the figure, the horizontal axis represents subject brightness Br and the vertical axis represents shooting distance D. An area indicated by a symbol FA is a red-eye generating area in which the red-eye phenomenon occurs when the built-in flash 5 emits light, and an area other than the red-eye generating area FA is an area in which the red-eye phenomenon does not occur even when the built-in flash 5 emits light. This red-eye generation area FA is preset by measurement or the like. The red-eye occurrence determination unit 285 determines that the red-eye phenomenon will occur if the point determined by the subject brightness Br and the shooting distance D is within the red-eye occurrence area FA.
【0097】赤目現象が発生すると判定された場合(ス
テップST52においてYes)は、ステップST53
へ進む。ステップST53〜ST57における処理は、
図9のステップST22〜ST26の処理と同様であ
る。すなわち、非フラッシュ画像とフラッシュ画像とを
取込み(ステップST53〜ST55)、両画像を使用
しての赤目検出処理により赤目領域を検出し(ステップ
ST56)、該赤目領域の近傍の肌色領域を抽出して該
肌色領域を人物領域として検出する(ステップST5
7)。If it is determined that the red eye phenomenon occurs (Yes in step ST52), step ST53.
Go to. The processing in steps ST53 to ST57 is
This is the same as the processing in steps ST22 to ST26 in FIG. That is, the non-flash image and the flash image are captured (steps ST53 to ST55), the red-eye region is detected by the red-eye detection process using both images (step ST56), and the skin color region near the red-eye region is extracted. The skin color area is detected as a human area (step ST5).
7).
【0098】一方、赤目現象が発生しないと判定された
場合(ステップST52においてNo)は、ステップS
T58へ進む。ステップST58,ST59における処
理は、図9のステップST31,ST32と同様であ
る。すなわち、内蔵フラッシュ5を使用せずに被写体の
画像を取込み(ステップST31)、赤目検出処理を行
わずに肌色領域を抽出して該肌色領域を人物領域として
検出する(ステップST59)。On the other hand, when it is determined that the red-eye effect does not occur (No in step ST52), step S
Proceed to T58. The processes in steps ST58 and ST59 are the same as steps ST31 and ST32 in FIG. That is, the image of the subject is captured without using the built-in flash 5 (step ST31), the skin color region is extracted without performing the red-eye detection process, and the skin color region is detected as a human region (step ST59).
【0099】次に、人物検出部282は、上記のように
して検出された人物領域を囲む制御領域を設定する(図
20、ステップST61)。図23は、設定された制御
領域CAの一例を示す図である。図に示すように制御領
域CAは、検出された人物領域PAを囲む最小面積の矩
形領域が設定される。Next, the person detecting section 282 sets a control area surrounding the person area detected as described above (FIG. 20, step ST61). FIG. 23 is a diagram showing an example of the set control area CA. As shown in the figure, the control area CA is set to a rectangular area having a minimum area surrounding the detected person area PA.
【0100】制御領域CAは、以降の処理において被写
体の輝度、コントラスト、色バランス等を演算するため
の領域として使用される。すなわち、人物領域を含む制
御領域CAに基づいて、露出条件を含む撮像条件や、ホ
ワイトバランス調整値などの画像処理条件の設定がなさ
れることとなる。The control area CA is used as an area for calculating the brightness, contrast, color balance, etc. of the subject in the subsequent processing. That is, based on the control area CA including the person area, the imaging condition including the exposure condition and the image processing condition such as the white balance adjustment value are set.
【0101】制御領域CAが設定されると、図24の如
く制御領域CAに相当する領域CA1がEVF31に表
示される(ステップST62)。領域CA1は、図24
に示すようにライブビュー表示されている被写体像と同
一画面上に表示される。これにより、ユーザに撮像条件
や画像処理条件の設定に利用する領域を確認させること
ができ、ユーザに対して安心感を与えることができる。
なお、LCD10においても、EVF31と同様の表示
がなされるようになっていてもよい。When the control area CA is set, the area CA1 corresponding to the control area CA is displayed on the EVF 31 as shown in FIG. 24 (step ST62). The area CA1 is shown in FIG.
As shown in, the subject image displayed in live view is displayed on the same screen. This allows the user to check the area used for setting the imaging condition and the image processing condition, and gives the user a sense of security.
It should be noted that the LCD 10 may also display the same as the EVF 31.
【0102】次に、AF制御部271が制御領域CAに
基づいてAF制御を行いフォーカスレンズ311の駆動
を行う(ステップST63)。具体的には、A/D変換
器205から入力された画像信号のうち制御領域CAに
相当する領域のみのコントラストが評価され、このコン
トラストが最も高くなるようにフォーカスレンズ311
の位置を駆動させる。これにより、主被写体となる人物
領域に最もピントが合った状態とすることができる。Next, the AF control section 271 performs AF control based on the control area CA to drive the focus lens 311 (step ST63). Specifically, the contrast of only the area corresponding to the control area CA in the image signal input from the A / D converter 205 is evaluated, and the focus lens 311 is set so that this contrast becomes the highest.
Drive the position of. This makes it possible to bring the person area, which is the main subject, into the most focused state.
【0103】次に、露出制御部272が制御領域CAに
基づいて露出条件の設定を行う。具体的には、A/D変
換器205から入力された画像信号のうち制御領域CA
に相当する領域のみの輝度に基づいて、絞り値、シャッ
タースピードおよび内蔵フラッシュ5を発光する(発光
設定)か否か(非発光設定)の設定がなされる(ステッ
プST64)。Next, the exposure control unit 272 sets the exposure conditions based on the control area CA. Specifically, of the image signals input from the A / D converter 205, the control area CA
Based on the brightness of only the area corresponding to, the aperture value, shutter speed, and whether or not the built-in flash 5 emits light (emission setting) (non-emission setting) are set (step ST64).
【0104】次に、画像処理制御部273が制御領域C
Aに基づいてホワイトバランス調整値の設定を行う。具
体的には、A/D変換器205から入力された画像信号
のうち制御領域CAに相当する領域のみの色バランスに
基づいて、ホワイトバランス調整値の設定がなされる
(ステップST65)。Next, the image processing controller 273 controls the control area C.
The white balance adjustment value is set based on A. Specifically, the white balance adjustment value is set based on the color balance of only the area corresponding to the control area CA in the image signal input from the A / D converter 205 (step ST65).
【0105】以上のようにして制御領域CAに基づいた
撮像条件および画像処理条件の設定が終了するとレリー
ズ許可がなされる(ステップST66)。この状態でシ
ャッタボタン8が所定時間操作されない場合(ステップ
ST67にてNo)は、図19のステップST11に戻
ることとなる。When the setting of the image pickup condition and the image processing condition based on the control area CA is completed as described above, the release is permitted (step ST66). If the shutter button 8 is not operated for a predetermined time in this state (No in step ST67), the process returns to step ST11 in FIG.
【0106】一方、シャッタボタン8が全押しされた場
合(ステップST67にてYes)は図21のステップ
ST71に進む。そして、内蔵フラッシュ5の発光設定
時(ステップST71にてYes)は、内蔵フラッシュ
5が発光されて(ステップST72)撮影画像が取り込
まれる(ステップST73)。一方、内蔵フラッシュ5
の非発光設定時(ステップST71にてNo)は、内蔵
フラッシュ5を発光せずに撮影画像が取り込まれる(ス
テップST73)。撮影画像の取込時の露出条件は制御
領域CAに基づいて設定されているため、主被写体とな
る人物領域に対して適正露出とすることができる。On the other hand, if the shutter button 8 is fully pressed (Yes in step ST67), the process proceeds to step ST71 in FIG. Then, when the built-in flash 5 is set to emit light (Yes in step ST71), the built-in flash 5 emits light (step ST72) and a captured image is captured (step ST73). On the other hand, built-in flash 5
When the non-light emission is set (No in step ST71), the captured image is captured without the built-in flash 5 emitting light (step ST73). Since the exposure condition at the time of capturing the captured image is set based on the control area CA, it is possible to obtain the proper exposure for the person area which is the main subject.
【0107】なお、内蔵フラッシュ5を発光した場合で
あっても、撮影画像中の被写体には赤目現象は発生しな
い。これは、赤目現象が発生すると判定された場合は、
図19のステップST54において内蔵フラッシュ5が
発光されており、この発光が赤目現象防止のプリ発光と
して機能するためである。Even when the built-in flash 5 emits light, the red-eye phenomenon does not occur in the subject in the photographed image. If it is determined that red eye phenomenon will occur,
This is because the built-in flash 5 is emitting light in step ST54 of FIG. 19 and this light emission functions as pre-light emission for preventing red-eye effect.
【0108】次に、取り込まれた撮影画像は信号処理回
路313およびA/D変換器205において所定の処理
が施され、さらに第1画像処理部240においてホワイ
トバランス補正処理を含む画像処理が施される(ステッ
プST74)。このとき、ホワイトバランス調整値は制
御領域CAに基づいて設定されているため、主被写体と
なる人物領域が適切なホワイトバランスとなるように画
像処理が行われる。Next, the captured image taken in is subjected to predetermined processing in the signal processing circuit 313 and the A / D converter 205, and further subjected to image processing including white balance correction processing in the first image processing section 240. (Step ST74). At this time, since the white balance adjustment value is set based on the control area CA, image processing is performed so that the human area as the main subject has an appropriate white balance.
【0109】第1画像処理部240によって画像処理が
施された撮影画像は、画像メモリ209に記憶される。
このとき、第1の実施の形態と同様に、画像メモリ20
9に記憶された撮影画像に対して人物領域と人物領域以
外の領域とで処理内容を相違させるような画像処理を第
2画像処理部283が行うことも可能である。The photographed image subjected to the image processing by the first image processing section 240 is stored in the image memory 209.
At this time, similarly to the first embodiment, the image memory 20
It is also possible for the second image processing unit 283 to perform image processing for the captured image stored in 9 such that the processing content differs between the person area and the area other than the person area.
【0110】画像処理の施された撮影画像は、画像記録
部274によってその圧縮画像とサムネイル画像とが生
成され、タグ情報とともにメモリカード91に記憶され
る(ステップST75)。A compressed image and a thumbnail image of the photographed image subjected to the image processing are generated by the image recording section 274 and stored in the memory card 91 together with the tag information (step ST75).
【0111】以上、第2の実施の形態について説明を行
ったが、本実施の形態においては、検出された人物領域
を含む制御領域CAに基づいて撮像条件や画像処理条件
の設定がなされるため、主被写体となる人物領域に最適
な制御で撮影された画像を取得することができる。Although the second embodiment has been described above, in the present embodiment, the imaging condition and the image processing condition are set based on the control area CA including the detected person area. It is possible to obtain an image shot with the optimal control for the person area that is the main subject.
【0112】<3.第3の実施の形態>次に、本発明の
第3の実施の形態について説明する。第1の実施の形態
においては、デジタルカメラ1内部にて赤目領域の検出
や人物領域の検出を行っていたが、このような画像の取
得以外の処理はコンピュータにより行われてもよい。<3. Third Embodiment> Next, a third embodiment of the present invention will be described. In the first embodiment, the detection of the red-eye area and the detection of the human area are performed inside the digital camera 1. However, processing other than such image acquisition may be performed by a computer.
【0113】図25はこのような場合の画像処理システ
ム7の構成を示す図である。画像処理システム7は、非
フラッシュ画像およびフラッシュ画像を取得するデジタ
ルカメラ71、および、デジタルカメラ71にて得られ
た画像を処理するコンピュータ72を有する。FIG. 25 is a diagram showing the configuration of the image processing system 7 in such a case. The image processing system 7 includes a digital camera 71 that acquires a non-flash image and a flash image, and a computer 72 that processes an image obtained by the digital camera 71.
【0114】デジタルカメラ71は、上記実施の形態の
デジタルカメラ1と同様の構成のものを使用することが
できる。デジタルカメラ71は、図8および図9に示す
処理のうちステップST11〜ST16、ST21〜S
T24およびST28の処理を行う。すなわち、非フラ
ッシュ画像とフラッシュ画像を撮影し、赤目検出処理、
人物検出処理および人物領域に基づく画像処理を行わず
にそのまま両画像をメモリカードに保存する。メモリカ
ード保存時に生成されるタグ情報には、少なくとも非フ
ラッシュ画像とフラッシュ画像とのいずれであるかの情
報と、撮影距離の情報が含まれるようにする。As the digital camera 71, the same structure as the digital camera 1 of the above-mentioned embodiment can be used. The digital camera 71 includes steps ST11 to ST16 and ST21 to S16 of the processing shown in FIGS. 8 and 9.
The processing of T24 and ST28 is performed. That is, a non-flash image and a flash image are taken, red-eye detection processing,
Both images are directly stored in the memory card without performing the person detection processing and the image processing based on the person area. The tag information generated when the memory card is stored should include at least information indicating whether the image is a non-flash image or a flash image, and information on the shooting distance.
【0115】デジタルカメラ71によって取得された非
フラッシュ画像およびフラッシュ画像は、メモリカード
を介してコンピュータ72に転送される。なお、コンピ
ュータ72に伝送ケーブル等を介して転送するようにな
っていてもよい。The non-flash image and the flash image acquired by the digital camera 71 are transferred to the computer 72 via the memory card. The data may be transferred to the computer 72 via a transmission cable or the like.
【0116】コンピュータ72は、CPU、ROM、R
AM、記憶装置、ディスプレイ、メモリカード読取装置
等を備えた汎用のコンピュータで構成される。コンピュ
ータ72には、予め磁気ディスク、光ディスク、光磁気
ディスク等の記録媒体73を介してプログラムが内部に
インストールされている。これにより、汎用のコンピュ
ータ72が本発明に係る処理を行う画像処理装置として
利用することが可能となる。The computer 72 includes a CPU, ROM and R
It is composed of a general-purpose computer including an AM, a storage device, a display, a memory card reader, and the like. A program is installed in the computer 72 in advance via a recording medium 73 such as a magnetic disk, an optical disk, or a magneto-optical disk. As a result, the general-purpose computer 72 can be used as an image processing device that performs the processing according to the present invention.
【0117】すなわち、コンピュータ72のCPU等が
図6に示す赤目検出部281、人物検出部282、画像
処理制御部273および第2画像処理部283として動
作することにより非フラッシュ画像およびフラッシュ画
像から、フラッシュ画像中の赤目領域を検出し当該赤目
領域に基づいて人物領域を検出する。さらに、検出され
た人物領域に基づいて、人物領域と人物領域以外の領域
とで処理内容を相違させるような画像処理を第2画像処
理部283が行う。That is, the CPU or the like of the computer 72 operates as the red-eye detection unit 281, the person detection unit 282, the image processing control unit 273, and the second image processing unit 283 shown in FIG. A red eye area in the flash image is detected, and a person area is detected based on the red eye area. Further, based on the detected person area, the second image processing unit 283 performs image processing such that the processing contents are different between the person area and the area other than the person area.
【0118】以上のようにすれば、赤目検出処理、人物
検出処理および人物領域に基づく画像処理はコンピュー
タ72により行うことも可能であり、この場合、デジタ
ルカメラ71における処理の負担が大幅に軽減される。As described above, the red-eye detection processing, the person detection processing, and the image processing based on the person area can be performed by the computer 72. In this case, the processing load on the digital camera 71 is greatly reduced. It
【0119】<4.変形例>以上、本発明の実施の形態
について説明したが、この発明は上記実施の形態に限定
されるものではない。<4. Modifications> Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments.
【0120】例えば、上記第1および第2の実施の形態
のデジタルカメラ1の全体制御部270によるソフトウ
ェア処理で実現されている機能のうちの一部または全部
を専用の回路により実現されてもよい。また逆に、デジ
タルカメラ1の第1画像処理部240等の専用の回路に
よって実現されている機能のうち一部または全部を全体
制御部270によるソフトウェア処理で実現されてもよ
い。For example, some or all of the functions realized by the software processing by the overall controller 270 of the digital camera 1 of the first and second embodiments may be realized by a dedicated circuit. . Conversely, some or all of the functions implemented by the dedicated circuit such as the first image processing unit 240 of the digital camera 1 may be implemented by software processing by the overall control unit 270.
【0121】また、画素データの色度u’,v’を用い
て赤目候補領域を判定していたが、XYZ表色系におけ
る色度や、HLS表色系における色相や彩度など、色度
u’,v’以外の値を赤目候補領域の判定に利用しても
よい。このような場合においても、利用する表色系にお
ける判定基準を予め設定しておき、赤目発生率Pに応じ
て当該判定基準を変更するようにすれば、赤目領域とし
て確率の高い領域のみを赤目候補領域として抽出するこ
とができる。Although the red-eye candidate area is determined by using the chromaticities u ′ and v ′ of the pixel data, the chromaticity such as the chromaticity in the XYZ color system, the hue and the saturation in the HLS color system, and the like. Values other than u ′ and v ′ may be used for the determination of the red eye candidate area. Even in such a case, if the determination standard in the color system to be used is set in advance and the determination standard is changed according to the red-eye occurrence rate P, only the region with a high probability as the red-eye region is red-eye. It can be extracted as a candidate area.
【0122】また、赤色判定基準領域RAの形状は、矩
形領域であるとして説明を行ったがこれに限定されるも
のではなく、例えば、赤色基準点RPからプラスおよび
マイナスu’方向にそれぞれLu、プラスおよびマイナ
スv’方向にそれぞれLvの幅を持たせた楕円形状等で
あってもよい。また、u’,v’の両方向に幅を持たせ
る必要はなく、いずれか一方にのみ幅を持たせた直線で
あってもよい。The shape of the red determination reference area RA has been described as a rectangular area, but the shape is not limited to this. For example, the shape of the red reference point RP may be Lu in the plus and minus u'directions, respectively. It may be an elliptical shape or the like having a width of Lv in each of the plus and minus v ′ directions. Further, it is not necessary to have a width in both u ′ and v ′ directions, and a straight line having a width in only one of them may be used.
【0123】また、上記第2の実施の形態において、人
物領域を囲む矩形の制御領域CAを設定していたが、人
物領域をそのまま制御領域として利用してもよい。この
ように、人物領域をそのまま制御領域とすることで、さ
らに人物領域に応じて最適な制御で撮影された画像を取
得することが可能となる。In the second embodiment, the rectangular control area CA surrounding the person area is set, but the person area may be used as it is as the control area. In this way, by setting the person area as the control area as it is, it is possible to acquire an image captured by optimal control according to the person area.
【0124】[0124]
【発明の効果】以上、説明したように、請求項1ないし
6の発明によれば、フラッシュを発光しないで撮影され
た第1画像と、フラッシュを発光して撮影された第2画
像とを用いることにより、第2画像中の赤目領域の検出
確率が向上する。また、赤目領域を検出してから人物領
域を検出するために、人物領域のみを検出することがで
きるとともに、形状判定などの複雑な処理が必要なく処
理速度を向上させることができる。As described above, according to the first to sixth aspects of the present invention, the first image taken without the flash and the second image taken with the flash are used. This improves the detection probability of the red-eye area in the second image. In addition, since the human area is detected after the red-eye area is detected, only the human area can be detected, and the processing speed can be improved without requiring complicated processing such as shape determination.
【0125】また、請求項2の発明によれば、赤目現象
はフラッシュを発光した場合のみ発生するものであるた
め、フラッシュ発光時の第2画像のみにある赤目候補領
域を赤目領域として検出することによって、容易かつ確
実に赤目領域を検出することができる。According to the second aspect of the present invention, the red-eye phenomenon occurs only when the flash is fired. Therefore, the red-eye candidate area in only the second image when the flash is fired is detected as the red-eye area. Thus, the red-eye area can be detected easily and reliably.
【0126】また、請求項3の発明によれば、赤目発生
率に応じて判定基準を変更するため、赤目領域として確
率の高い領域のみを赤目候補領域として検出することが
できる。Further, according to the third aspect of the present invention, since the determination criterion is changed according to the red eye occurrence rate, only a region having a high probability as a red eye region can be detected as a red eye candidate region.
【0127】また、請求項4の発明によれば、人物領域
に基づいて画像処理の条件が設定されるため、人物領域
と人物領域以外の領域とで処理内容を相違させて画像処
理を行うことや、人物領域に最適な画像処理を行うこと
ができる。また、人物領域に応じて撮像条件を設定でき
るため、人物領域に応じて最適な撮影を行うことができ
る。According to the fourth aspect of the present invention, the image processing condition is set based on the person area, so that the image processing is performed with different processing contents for the person area and the area other than the person area. Alternatively, it is possible to perform optimal image processing for the person area. Further, since the imaging condition can be set according to the person area, it is possible to perform the optimum shooting according to the person area.
【図1】本発明に係る画像処理装置であるデジタルカメ
ラの正面図である。FIG. 1 is a front view of a digital camera that is an image processing apparatus according to the present invention.
【図2】デジタルカメラの背面図である。FIG. 2 is a rear view of the digital camera.
【図3】デジタルカメラの底面図である。FIG. 3 is a bottom view of the digital camera.
【図4】撮像部における各構成の配置の概略を示す図で
ある。FIG. 4 is a diagram showing an outline of arrangement of respective components in an imaging unit.
【図5】デジタルカメラの構成を示すブロック図であ
る。FIG. 5 is a block diagram showing a configuration of a digital camera.
【図6】第1の実施の形態における人物検出処理に係る
デジタルカメラの機能を示すブロック図である。FIG. 6 is a block diagram showing functions of a digital camera relating to person detection processing according to the first embodiment.
【図7】赤目検出部の機能構成を示すブロック図であ
る。FIG. 7 is a block diagram showing a functional configuration of a red-eye detection unit.
【図8】第1の実施の形態における人物検出モードのデ
ジタルカメラの撮影時の動作の流れを示す図である。FIG. 8 is a diagram showing a flow of operations at the time of shooting by the digital camera in the human detection mode in the first embodiment.
【図9】第1の実施の形態における人物検出モードのデ
ジタルカメラの撮影時の動作の流れを示す図である。FIG. 9 is a diagram showing a flow of operations at the time of shooting by the digital camera in the human detection mode according to the first embodiment.
【図10】非フラッシュ画像の一例を示す図である。FIG. 10 is a diagram showing an example of a non-flash image.
【図11】フラッシュ画像の一例を示す図である。FIG. 11 is a diagram showing an example of a flash image.
【図12】赤目検出部の赤目検出処理の流れを示す図で
ある。FIG. 12 is a diagram showing a flow of red-eye detection processing of a red-eye detection unit.
【図13】CIE 1976 UCS色度図の簡略図であ
る。FIG. 13 is a simplified diagram of a CIE 1976 UCS chromaticity diagram.
【図14】非フラッシュ画像中の抽出された赤目候補領
域を示す図である。FIG. 14 is a diagram showing extracted red-eye candidate regions in a non-flash image.
【図15】フラッシュ画像中の抽出された赤目候補領域
を示す図である。FIG. 15 is a diagram showing extracted red-eye candidate regions in a flash image.
【図16】フラッシュ画像中の赤目領域として検出され
た領域を示す図である。FIG. 16 is a diagram showing a region detected as a red-eye region in a flash image.
【図17】フラッシュ画像中の人物領域として検出され
た領域を示す図である。FIG. 17 is a diagram showing an area detected as a person area in a flash image.
【図18】第2の実施の形態における人物検出処理に係
るデジタルカメラの機能を示すブロック図である。FIG. 18 is a block diagram showing functions of a digital camera relating to person detection processing according to the second embodiment.
【図19】第2の実施の形態における人物検出モードの
デジタルカメラの撮影時の動作の流れを示す図である。FIG. 19 is a diagram showing a flow of operations at the time of shooting by the digital camera in the human detection mode according to the second embodiment.
【図20】第2の実施の形態における人物検出モードの
デジタルカメラの撮影時の動作の流れを示す図である。FIG. 20 is a diagram showing a flow of operations at the time of shooting by the digital camera in the person detection mode according to the second embodiment.
【図21】第2の実施の形態における人物検出モードの
デジタルカメラの撮影時の動作の流れを示す図である。FIG. 21 is a diagram showing a flow of operations at the time of shooting by the digital camera in the human detection mode according to the second embodiment.
【図22】赤目発生判定処理に使用する判定関数を示す
図である。FIG. 22 is a diagram showing a determination function used in red-eye occurrence determination processing.
【図23】制御領域の一例を示す図である。FIG. 23 is a diagram showing an example of a control area.
【図24】EVFの表示の一例を示す図である。FIG. 24 is a diagram showing an example of EVF display.
【図25】画像処理システムの構成を示す図である。FIG. 25 is a diagram showing a configuration of an image processing system.
1 デジタルカメラ 5 内蔵フラッシュ 7 画像処理システム 91 メモリカード 270 全体制御部 281 赤目検出部 282 人物検出部 301 ズームレンズ 302 絞り 304 調光回路 322 人物検出モード切替ボタン 1 digital camera 5 built-in flash 7 Image processing system 91 memory card 270 Overall control unit 281 Red-eye detector 282 person detection unit 301 zoom lens 302 aperture 304 dimming circuit 322 Person detection mode switching button
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 9/64 H04N 1/46 Z Fターム(参考) 5B057 AA01 CA01 CA08 CA12 CB01 CB08 CB12 CC03 CE16 CH01 CH11 DA08 DB02 DB06 DB09 DC16 DC25 5C022 AA13 AC42 AC69 5C066 AA01 GA01 GA02 GB03 5C079 HB01 JA17 JA25 LA02 MA01 MA11 NA11 5L096 AA02 AA06 BA20 CA02 DA01 FA15 GA41 HA08 LA05 MA03─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 9/64 H04N 1/46 ZF term (reference) 5B057 AA01 CA01 CA08 CA12 CB01 CB08 CB12 CC03 CE16 CH01 CH11 DA08 DB02 DB06 DB09 DC16 DC25 5C022 AA13 AC42 AC69 5C066 AA01 GA01 GA02 GB03 5C079 HB01 JA17 JA25 LA02 MA01 MA11 NA11 5L096 AA02 AA06 BA20 CA02 DA01 FA15 GA41 HA08 LA05 MA03
Claims (6)
された第1画像と、フラッシュを発光して撮影された第
2画像とを用いて、前記第2画像中の赤目領域を検出す
る赤目領域検出手段と、 前記第2画像中の前記赤目領域の近傍の肌色領域を人物
領域として検出する人物領域検出手段と、を備えること
を特徴とする画像処理装置。1. An image processing apparatus, wherein the same subject is photographed using a first image photographed without a flash and a second image photographed with a flash. Image processing, comprising: red-eye area detecting means for detecting a red-eye area in the two images; and person area detecting means for detecting a skin color area near the red-eye area in the second image as a human area. apparatus.
て、 前記赤目領域検出手段は、 前記第1画像及び前記第2画像それぞれの前記赤目領域
の候補となる赤目候補領域を抽出する候補領域抽出手段
と、 前記第1画像の赤目候補領域と前記第2画像の赤目候補
領域とを比較し、前記第2画像のみにある赤目候補領域
を前記赤目領域とする候補領域比較手段と、を備えるこ
とを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein the red-eye area detecting unit extracts a candidate red-eye area that is a candidate for the red-eye area of each of the first image and the second image. Means for comparing the red-eye candidate area of the first image with a red-eye candidate area of the second image, and a candidate-area comparing means for setting the red-eye candidate area only in the second image as the red-eye area. An image processing device characterized by:
て、 前記赤目領域検出手段は、 前記被写体の赤目現象が発生する赤目発生率を算出する
発生率算出手段と、 前記候補領域抽出手段が前記赤目候補領域を抽出するた
めの判定基準を、前記赤目発生率に応じて変更する判定
基準変更手段と、をさらに備えることを特徴とする画像
処理装置。3. The image processing apparatus according to claim 2, wherein the red-eye area detecting means includes an occurrence rate calculating means for calculating a red-eye occurrence rate at which the red-eye phenomenon of the subject occurs, and the candidate area extracting means. An image processing apparatus, further comprising: a determination criterion changing unit that changes a determination criterion for extracting a red eye candidate region according to the red eye occurrence rate.
像処理装置において、 前記被写体を撮像する撮像手段と、 前記人物領域検出手段によって検出された前記人物領域
に基づいて画像処理の条件及び/または前記撮像手段の
撮像条件を設定する画像処理条件設定手段と、をさらに
備えることを特徴とする画像処理装置。4. The image processing apparatus according to claim 1, further comprising: an image pickup unit for picking up the subject, an image processing condition based on the person area detected by the person area detecting unit, and And / or an image processing condition setting unit that sets an image capturing condition of the image capturing unit.
光しないで撮影された第1画像と、フラッシュを発光し
て撮影された第2画像とを用いて、前記第2画像中の赤
目領域を検出する赤目領域検出工程と、 前記第2画像中の前記赤目領域の近傍の肌色領域を人物
領域として検出する人物領域検出工程と、を備えること
を特徴とする画像処理方法。5. A red-eye region in the second image is captured by using a first image captured without flash emission and a second image captured with flash emission for the same subject. An image processing method, comprising: a red-eye area detecting step of detecting; and a human area detecting step of detecting a skin color area in the vicinity of the red-eye area in the second image as a human area.
された第1画像と、フラッシュを発光して撮影された第
2画像とを用いて、前記第2画像中の赤目領域を検出す
る赤目領域検出手段と、 前記第2画像中の前記赤目領域の近傍の肌色領域を人物
領域として検出する人物領域検出手段と、を備える画像
処理装置として機能させるためのプログラム。6. A computer using a first image captured without flash emission and a second image captured with flash emission for the same subject, in the second image A program for functioning as an image processing apparatus, comprising: a red-eye area detecting unit that detects a red-eye area; and a human-area detecting unit that detects a skin-colored area near the red-eye area in the second image as a human area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001210743A JP2003030647A (en) | 2001-07-11 | 2001-07-11 | Image processor, image processing method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001210743A JP2003030647A (en) | 2001-07-11 | 2001-07-11 | Image processor, image processing method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2003030647A true JP2003030647A (en) | 2003-01-31 |
Family
ID=19046163
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001210743A Pending JP2003030647A (en) | 2001-07-11 | 2001-07-11 | Image processor, image processing method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003030647A (en) |
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006012062A (en) * | 2004-06-29 | 2006-01-12 | Canon Inc | Image processor and its method, program and imaging device |
| JP2006067561A (en) * | 2004-07-06 | 2006-03-09 | Microsoft Corp | Digital photography with flash/no flash extension |
| JP2006285956A (en) * | 2005-03-11 | 2006-10-19 | Fuji Photo Film Co Ltd | Red-eye detection method, apparatus, and program |
| KR100773201B1 (en) * | 2005-06-14 | 2007-11-02 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, computer program, and storage medium |
| JP2008048069A (en) * | 2006-08-11 | 2008-02-28 | Olympus Imaging Corp | Image photographing device, control method of image photographing device and control program of image photographing device |
| JP2008541509A (en) * | 2005-04-28 | 2008-11-20 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Method and apparatus for incorporating iris color in red-eye correction |
| WO2008141581A1 (en) * | 2007-05-17 | 2008-11-27 | Spreadtrum Communications (Shanghai) Co., Ltd. | A method of detecting and rectifying red-eyes automatically when taking photos |
| US20080317339A1 (en) * | 2004-10-28 | 2008-12-25 | Fotonation Ireland Limited | Method and apparatus for red-eye detection using preview or other reference images |
| US20090003708A1 (en) * | 2003-06-26 | 2009-01-01 | Fotonation Ireland Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US7656435B2 (en) | 2004-01-07 | 2010-02-02 | Canon Kabushiki Kaisha | Image processing apparatus and pixel-extraction method therefor |
| CN1731419B (en) * | 2004-08-06 | 2010-05-05 | 佳能株式会社 | Method and apparatus for detecting pinkeye in image |
| US7738015B2 (en) * | 1997-10-09 | 2010-06-15 | Fotonation Vision Limited | Red-eye filter method and apparatus |
| US8045001B2 (en) | 2005-12-26 | 2011-10-25 | Funai Electric Co., Ltd. | Compound-eye imaging device |
| US8120664B2 (en) | 2004-02-06 | 2012-02-21 | Nikon Corporation | Digital camera |
| CN102483851A (en) * | 2009-06-22 | 2012-05-30 | 株式会社S1 | Method and apparatus for prominent facial feature recognition |
| US8290267B2 (en) | 2007-11-08 | 2012-10-16 | DigitalOptics Corporation Europe Limited | Detecting redeye defects in digital images |
| US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
| CN103116885A (en) * | 2013-01-24 | 2013-05-22 | 天津大学 | Foreground area extraction method using flash lamp image |
| US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
| US8503818B2 (en) | 2007-09-25 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Eye defect detection in international standards organization images |
| US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
| US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
| US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| JP2017201734A (en) * | 2016-05-02 | 2017-11-09 | 三菱電機株式会社 | Print system |
-
2001
- 2001-07-11 JP JP2001210743A patent/JP2003030647A/en active Pending
Cited By (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7738015B2 (en) * | 1997-10-09 | 2010-06-15 | Fotonation Vision Limited | Red-eye filter method and apparatus |
| US7787022B2 (en) * | 1997-10-09 | 2010-08-31 | Fotonation Vision Limited | Red-eye filter method and apparatus |
| US7746385B2 (en) * | 1997-10-09 | 2010-06-29 | Fotonation Vision Limited | Red-eye filter method and apparatus |
| US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US20090003708A1 (en) * | 2003-06-26 | 2009-01-01 | Fotonation Ireland Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
| US7656435B2 (en) | 2004-01-07 | 2010-02-02 | Canon Kabushiki Kaisha | Image processing apparatus and pixel-extraction method therefor |
| US8830343B2 (en) | 2004-02-06 | 2014-09-09 | Nikon Corporation | Digital camera |
| US8120664B2 (en) | 2004-02-06 | 2012-02-21 | Nikon Corporation | Digital camera |
| JP2006012062A (en) * | 2004-06-29 | 2006-01-12 | Canon Inc | Image processor and its method, program and imaging device |
| JP2006067561A (en) * | 2004-07-06 | 2006-03-09 | Microsoft Corp | Digital photography with flash/no flash extension |
| KR101086099B1 (en) | 2004-07-06 | 2011-11-25 | 마이크로소프트 코포레이션 | Digital photography with flash on / flash off expansion |
| CN1731419B (en) * | 2004-08-06 | 2010-05-05 | 佳能株式会社 | Method and apparatus for detecting pinkeye in image |
| US8320641B2 (en) * | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
| US20080317339A1 (en) * | 2004-10-28 | 2008-12-25 | Fotonation Ireland Limited | Method and apparatus for red-eye detection using preview or other reference images |
| JP2006285956A (en) * | 2005-03-11 | 2006-10-19 | Fuji Photo Film Co Ltd | Red-eye detection method, apparatus, and program |
| JP4834725B2 (en) * | 2005-04-28 | 2011-12-14 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Method and apparatus for incorporating iris color in red-eye correction |
| JP2008541509A (en) * | 2005-04-28 | 2008-11-20 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Method and apparatus for incorporating iris color in red-eye correction |
| KR100773201B1 (en) * | 2005-06-14 | 2007-11-02 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, computer program, and storage medium |
| US8045001B2 (en) | 2005-12-26 | 2011-10-25 | Funai Electric Co., Ltd. | Compound-eye imaging device |
| US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
| JP2008048069A (en) * | 2006-08-11 | 2008-02-28 | Olympus Imaging Corp | Image photographing device, control method of image photographing device and control program of image photographing device |
| US8311325B2 (en) | 2007-05-17 | 2012-11-13 | Spreadtrum Communications (Shanghai) Co., Ltd. | Method of detecting and rectifying red-eyes automatically when taking photos |
| WO2008141581A1 (en) * | 2007-05-17 | 2008-11-27 | Spreadtrum Communications (Shanghai) Co., Ltd. | A method of detecting and rectifying red-eyes automatically when taking photos |
| US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
| US9767539B2 (en) | 2007-06-21 | 2017-09-19 | Fotonation Limited | Image capture device with contemporaneous image correction mechanism |
| US8503818B2 (en) | 2007-09-25 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Eye defect detection in international standards organization images |
| US8290267B2 (en) | 2007-11-08 | 2012-10-16 | DigitalOptics Corporation Europe Limited | Detecting redeye defects in digital images |
| US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
| US8698914B2 (en) * | 2009-06-22 | 2014-04-15 | S1 Corporation | Method and apparatus for recognizing a protrusion on a face |
| CN102483851A (en) * | 2009-06-22 | 2012-05-30 | 株式会社S1 | Method and apparatus for prominent facial feature recognition |
| US20120140091A1 (en) * | 2009-06-22 | 2012-06-07 | S1 Corporation | Method and apparatus for recognizing a protrusion on a face |
| CN103116885A (en) * | 2013-01-24 | 2013-05-22 | 天津大学 | Foreground area extraction method using flash lamp image |
| JP2017201734A (en) * | 2016-05-02 | 2017-11-09 | 三菱電機株式会社 | Print system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2003030647A (en) | Image processor, image processing method and program | |
| JP4217698B2 (en) | Imaging apparatus and image processing method | |
| US8723976B2 (en) | Imaging device and storage medium | |
| CN101753841B (en) | Image capturing apparatus and face area detecting method | |
| KR100942766B1 (en) | Photographing apparatus and method, and program recording medium | |
| US20060171697A1 (en) | Imaging apparatus, image storage apparatus, imaging method, storage method, recording medium recording imaging program, and recording medium recording storage program | |
| JP5180349B2 (en) | Imaging apparatus, method, and program | |
| JP5027580B2 (en) | Imaging apparatus, method, and program | |
| JP4818999B2 (en) | Imaging apparatus, method, and program | |
| JP4911645B2 (en) | Camera with strobe | |
| JP3927802B2 (en) | Image processing device | |
| JP2003179807A (en) | Image pickup device | |
| JP3613741B2 (en) | Digital still camera and video conference system | |
| JP4726251B2 (en) | Imaging apparatus and image processing method | |
| JP4998122B2 (en) | Imaging apparatus and program thereof | |
| JP4178017B2 (en) | Image processing method and digital camera | |
| JP2006163496A (en) | Apparatus, method and program for image recording | |
| JP2002040321A (en) | Electronic camera | |
| JP2002209125A (en) | Digital camera | |
| JP2002044516A (en) | Electronic camera | |
| JP2002044510A (en) | Electronic camera | |
| JP2001148800A (en) | Digital camera and image processing method | |
| JP3493453B2 (en) | Electronic camera | |
| JP4122765B2 (en) | Still image pickup device | |
| JP2010134176A (en) | Photographing device and photographing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040412 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040420 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040618 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040621 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040817 |