[go: up one dir, main page]

JP2006262000A - Image processing apparatus and its processing method - Google Patents

Image processing apparatus and its processing method Download PDF

Info

Publication number
JP2006262000A
JP2006262000A JP2005075867A JP2005075867A JP2006262000A JP 2006262000 A JP2006262000 A JP 2006262000A JP 2005075867 A JP2005075867 A JP 2005075867A JP 2005075867 A JP2005075867 A JP 2005075867A JP 2006262000 A JP2006262000 A JP 2006262000A
Authority
JP
Japan
Prior art keywords
correction
information
current frame
correction target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005075867A
Other languages
Japanese (ja)
Other versions
JP4680639B2 (en
Inventor
Itou Cho
貽▲トウ▼ 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005075867A priority Critical patent/JP4680639B2/en
Publication of JP2006262000A publication Critical patent/JP2006262000A/en
Application granted granted Critical
Publication of JP4680639B2 publication Critical patent/JP4680639B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and its processing method by which a color-conditioned motion picture quality can be stably displayed. <P>SOLUTION: An imaging apparatus 10 implements the following operations of; performing control by a control signal 46 output from a CPU 16, inputting present frame image data 36 to a correction object detector 38 of a signal processor 14, retrieving past correction target information 48 contained in a first correction information output from a memory of the CPU 16, detecting a correction object in the correction object detector 38 based on the past correction target information 48, detecting a correction object to calculate image correction information of the present frame image data 36 for serving as a second correction information according to the result detected, supplying image correction information 50 calculated to a digital processor 40, and correcting the present frame image by using at least one of parameters of a gradation sequence and color correction of the image correction information 50 in the digital processor 40. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置およびその処理方法に関するものである。本発明の画像処理装置は、ディジタルカメラやビデオカメラ等の撮影した動画像に対する色変換に関するものである。また、本発明の画像処理方法は、撮影した動画像や記録済の動画像の再生等に適用する方法に関するものである。   The present invention relates to an image processing apparatus and a processing method thereof. The image processing apparatus of the present invention relates to color conversion for a moving image taken by a digital camera or a video camera. The image processing method of the present invention also relates to a method applied to reproduction of captured moving images and recorded moving images.

写真ネガフィルムやリバーサルフィルムのような銀塩フィルムに記録された画像をカラープリントする場合、撮影された画像には撮影時におけるシーンと同様になるように色変換が施される。しかしながら、撮像素子により記録されたディジタル画像をプリントすると、光源、周辺の色により色が偏ってしまう現象が生じることがある。   When an image recorded on a silver salt film such as a photographic negative film or a reversal film is color-printed, the captured image is subjected to color conversion so as to be similar to the scene at the time of shooting. However, when a digital image recorded by the image sensor is printed, a phenomenon may occur in which colors are biased by the light source and surrounding colors.

特許文献1の画像処理装置は、特定な被写体としてたとえば、画像の中から顔等を検出し検出した顔の色を所望の色になるように補正パラメータを算出する。この算出した補正パラメータを用いてディジタル画像全体を補正し画質を改良する。   The image processing apparatus of Patent Document 1 detects a face or the like from an image as a specific subject, and calculates a correction parameter so that the detected face color becomes a desired color. Using this calculated correction parameter, the entire digital image is corrected to improve the image quality.

また、特許文献2の画像処理装置は、ディジタル画像全体の改良における困難さから顔領域が適正な色や濃度となるように、言い換えると顔領域周辺の色濃度に影響されないように顔領域の色濃度を調整する。
特開2000−182043号公報 特開2000−242775号公報 特開平5−307605号公報
In addition, the image processing apparatus disclosed in Patent Document 2 is arranged so that the face area has an appropriate color and density due to difficulty in improving the entire digital image, in other words, the face area color is not affected by the color density around the face area. Adjust the density.
JP 2000-182043 JP 2000-242775 A JP-A-5-307605

ところで、これらの調整は静止画に対する画質の改良である。この画質改良を動画に適用した場合、特定の被写体すなわち、顔の検出ができるときとできないときが生じる。動画では、この検出の可否それぞれに応じて2つの色調整または色変換が行われる。   By the way, these adjustments are improvements in image quality for still images. When this image quality improvement is applied to a moving image, there are times when a specific subject, that is, a face can be detected and when it cannot be detected. In a moving image, two color adjustments or color conversions are performed depending on whether or not this detection is possible.

第1に顔検出できた場合、所望の色、たとえば肌色を基準にしてフレーム画像の色を調整し、第2に顔検出できなかった場合の一部フレーム画像に対して別な基準に基づく色で調整する。この結果、2つの方法により色調整した動画を表示装置に表示すると、時系列的に画質にバラツキがあり色表現の上で急激な変動が生じ動画に不安定感を持たせてしまう。   First, if the face can be detected, the color of the frame image is adjusted based on a desired color, for example, skin color, and second, the color based on another standard for the partial frame image when the face cannot be detected Adjust with. As a result, when a moving image color-adjusted by the two methods is displayed on the display device, the image quality varies in time series, causing abrupt fluctuations in color expression and making the moving image feel unstable.

検出の可否は、たとえば連続フレーム画像中に撮影された顔の位置や顔のサイズが微妙に変化することだけで生じると考えられる。   It can be considered that detection is possible only by a slight change in the position of the face and the size of the face taken in the continuous frame image, for example.

本発明はこのような従来技術の欠点を解消し、色調整した動画像の画質を安定に見せることができる画像処理装置およびその処理方法を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and a processing method therefor that can solve such drawbacks of the prior art and can stably display the quality of a color-adjusted moving image.

本発明は上述の課題を解決するために、ディジタル動画像の現フレーム画像に画像処理する画像処理装置において、この装置は、現フレーム画像に対応する過去のフレーム画像から得られたこの現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段と、現フレーム画像に含まれる補正対象を検出しこの補正対象に対する補正対象情報を求める補正対象検出手段と、この補正対象検出手段によって得られた現フレーム画像における補正対象情報および第1の補正情報に基づいて、現フレーム画像を補正する第2の補正情報を算出する補正情報算出手段と、第2の補正情報に基づいて現フレーム画像を補正する画像補正手段とを含むことを特徴とする。   In order to solve the above-described problems, the present invention provides an image processing apparatus for performing image processing on a current frame image of a digital moving image, wherein the apparatus is a current frame image obtained from a past frame image corresponding to the current frame image. Correction information storage means for storing first correction information relating to the correction object, correction object detection means for detecting a correction object included in the current frame image and obtaining correction object information for the correction object, and correction object detection means Correction information calculating means for calculating second correction information for correcting the current frame image based on the correction object information and the first correction information in the obtained current frame image; and the current frame based on the second correction information. Image correction means for correcting the image.

本発明の画像処理装置は、補正対象検出手段に現フレーム画像を入力し、情報格納手段から第1の補正情報を読み出し、補正対象検出手段で補正対象を検出しこの検出結果に応じて補正対象情報を求め、得られた現フレーム画像における補正対象情報および第1の補正情報に基づいて現フレーム画像における第2の補正情報を算出し、算出した第2の補正情報を画像補正手段に供給し画像補正手段で第2の補正情報を用いて現フレーム画像を補正することにより、動画像の画質を安定に表示させることができる。   The image processing apparatus of the present invention inputs the current frame image to the correction target detection unit, reads the first correction information from the information storage unit, detects the correction target by the correction target detection unit, and detects the correction target according to the detection result. Information is obtained, second correction information in the current frame image is calculated based on the correction target information and the first correction information in the obtained current frame image, and the calculated second correction information is supplied to the image correction means. By correcting the current frame image using the second correction information by the image correction means, the image quality of the moving image can be displayed stably.

また、本発明は上述の課題を解決するために、ディジタル動画像の現フレーム画像に画像処理する画像処理方法において、この方法は、現フレーム画像に対応する過去のフレーム画像から得られたこの現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段から第1の補正情報を読み出す第1の工程と、現フレーム画像に含まれる補正対象を検出しこの補正対象に対する補正対象情報を求める第2の工程と、現フレーム画像における補正対象情報および第1の補正情報に基づいて、現フレーム画像を補正する第2の補正情報を算出する第3の工程と、第2の補正情報に基づいて現フレーム画像を補正する第4の工程とを含むことを特徴とする。   In order to solve the above-described problems, the present invention provides an image processing method for performing image processing on a current frame image of a digital moving image, wherein the method is the current frame image obtained from a past frame image corresponding to the current frame image. A first step of reading the first correction information from the correction information storing means for storing the first correction information relating to the correction target of the frame image; and the correction target information for the correction target detected by detecting the correction target included in the current frame image A second step of calculating the second correction information for correcting the current frame image based on the correction target information and the first correction information in the current frame image, and a second correction information And a fourth step of correcting the current frame image based on the above.

本発明の画像処理方法は、現フレーム画像を入力し第1の補正情報を読み出し、現フレーム画像に含まれる補正対象を検出しこの検出に応じて補正対象情報を求め、補正対象情報および第1の補正情報から現フレーム画像に対する第2の補正情報を算出し第2の補正情報で現フレーム画像を補正することにより、動画像の画質を安定にし、第1および第2の補正情報を保存すれば次のフレーム画像の補正にも大いに寄与することができる。   According to the image processing method of the present invention, the current frame image is input, the first correction information is read, the correction target included in the current frame image is detected, the correction target information is obtained according to this detection, and the correction target information and the first correction information are obtained. By calculating the second correction information for the current frame image from the correction information and correcting the current frame image with the second correction information, the image quality of the moving image is stabilized, and the first and second correction information are saved. This can greatly contribute to the correction of the next frame image.

本発明によればまた、次のようなディジタルカメラが提供される。すなわち、このディジタルカメラは、被写界を撮像してディジタル動画像の映像信号を形成する撮像手段と、映像信号を受けて、ディジタル動画像の現フレーム画像に対応する過去のフレーム画像から得られた現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段と、現フレーム画像に含まれる補正対象を検出し、この補正対象に対する補正対象情報を求める補正対象検出手段と、補正対象検出手段によって得られた現フレーム画像における補正対象情報および第1の補正情報に基づいて、現フレーム画像を補正する第2の補正情報を算出する補正情報算出手段と、第2の補正情報に基づいて現フレーム画像を補正する画像補正手段とを含み、これによって現フレーム画像に画像処理を行なうことを特徴とする。   The present invention also provides the following digital camera. That is, this digital camera is obtained from an imaging means for imaging a scene to form a video signal of a digital moving image and a past frame image corresponding to the current frame image of the digital moving image upon receiving the video signal. Correction information storage means for storing first correction information relating to a correction target of the current frame image, correction target detection means for detecting a correction target included in the current frame image and obtaining correction target information for the correction target, correction Correction information calculating means for calculating second correction information for correcting the current frame image based on the correction target information and the first correction information in the current frame image obtained by the target detection means; And an image correcting means for correcting the current frame image based on the image processing unit, thereby performing image processing on the current frame image.

次に添付図面を参照して本発明による画像処理装置の一実施例を詳細に説明する。   Next, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

本実施例は、被写界を撮像してディジタル動画像の映像信号を形成する、たとえばディジタルビデオカメラや動画撮影機能のあるディジタル電子スチルカメラなどを包含する撮像装置10に、本発明の画像処理装置を適用したものである。本発明と直接関係のない部分について図示および説明を省略する。以下の説明で、信号はその現れる接続線の参照番号で指示する。   In this embodiment, the image processing according to the present invention is applied to an imaging apparatus 10 that captures an object scene and forms a video signal of a digital moving image, for example, including a digital video camera or a digital electronic still camera having a moving image shooting function. The device is applied. The illustration and description of parts not directly related to the present invention are omitted. In the following description, the signal is indicated by the reference number of the connecting line in which it appears.

本実施例の撮像装置10は、図1に示すように、画像入力部12、信号処理部14、中央演算ユニット(CPU: Central Process Unit)16、メモリ18、ドライバ20、メモリカードインタフェース(IF: InterFace)部22、表示制御部24、メモリカード26、モニタ28および操作部30を含む。   As shown in FIG. 1, the imaging apparatus 10 of the present embodiment includes an image input unit 12, a signal processing unit 14, a central processing unit (CPU) 16, a memory 18, a driver 20, and a memory card interface (IF: InterFace) unit 22, display control unit 24, memory card 26, monitor 28, and operation unit 30.

画像入力部12は、レンズの絞り32および撮像素子34を含む。レンズの絞り32は被写界からの入射光を所定の光量に設定する。撮像素子34には、レンズの絞り32により絞られた入射光が図示しない、たとえば単板のカラーフィルタを透過し送られる。本実施例のカラーフィルタは、三原色RGBのフィルタセグメントが所定のパターンに配列するように形成されている。フィルタセグメントは後述する受光素子と一対一に対応させている。画像入力部12では、光学像が撮像素子34で結像するように調整される。撮像素子34は、光電変換する受光素子を2次元配列し、設定された露光時間にわたって受光素子に蓄積された信号電荷を色の属性を有する画素として読み出す。撮像素子34はこの読出しにより2次元画像信号を生成する。画像入力部12は、2次元画像信号から、図示しないが信号ノイズを除去しディジタル化し画像データを生成する。画像入力部12はこのように入射光から画像データ36を生成し生成した画像データ36を信号処理部14およびCPU 16に出力する。   The image input unit 12 includes a lens stop 32 and an image sensor 34. The lens diaphragm 32 sets incident light from the object scene to a predetermined light amount. Incident light focused by the lens diaphragm 32 is transmitted to the image sensor 34 through a color filter (not shown), for example. The color filter of this embodiment is formed so that filter segments of the three primary colors RGB are arranged in a predetermined pattern. The filter segment has a one-to-one correspondence with a light receiving element described later. In the image input unit 12, the optical image is adjusted so as to be formed by the image sensor 34. The image sensor 34 two-dimensionally arranges light receiving elements for photoelectric conversion, and reads out signal charges accumulated in the light receiving elements over a set exposure time as pixels having color attributes. The image sensor 34 generates a two-dimensional image signal by this reading. The image input unit 12 removes signal noise (not shown) from the two-dimensional image signal, digitizes it, and generates image data. The image input unit 12 generates the image data 36 from the incident light in this way and outputs the generated image data 36 to the signal processing unit 14 and the CPU 16.

信号処理部14は、画像データに対し適切に画像処理し、とくに補正対象の色がシーンに合った適正な表現の画像として表示されるように処理する機能を有する。信号処理部14は、補正対象検出部38およびディジタル処理部40を含む。補正対象検出部38は、画像データ36に補正対象が含まれるか否かの検出機能および補正情報の算出機能を有する。補正対象検出部38は、これらの機能に合わせて図2に示すように、対象検出機能部42および補正情報算出機能部44を有する。補正対象検出部38は、CPU 16からの制御信号46に応じて動作する。   The signal processing unit 14 has a function of appropriately performing image processing on the image data, and in particular, processing so that the color to be corrected is displayed as an image having a proper expression suitable for the scene. The signal processing unit 14 includes a correction target detection unit 38 and a digital processing unit 40. The correction target detection unit 38 has a function of detecting whether or not a correction target is included in the image data 36 and a function of calculating correction information. The correction target detection unit 38 includes a target detection function unit 42 and a correction information calculation function unit 44 as shown in FIG. 2 in accordance with these functions. The correction target detection unit 38 operates according to the control signal 46 from the CPU 16.

この実施の形態では補正対象を顔とした場合を例に挙げて説明するが、補正対象はこの他、目、肌とすることができる。補正対象は複数の人物中のひとりを対象としてもよい。また、補正対象情報とは、たとえば補正対象の明るさ、補正対象の領域位置やサイズあるいは補正対象の顔らしさを表す確率を示す検出スコアや顔らしさの評価値を含む情報である。また、補正情報とは、たとえば色補正パラメータ、階調パラメータ、レンズの絞り(値)およびシャッタ速度を含む情報である。この情報には、上述した情報の少なくとも一つが含まれる。   In this embodiment, the case where the correction target is a face will be described as an example, but the correction target may be eyes and skin. The correction target may be one of a plurality of persons. The correction target information is information including, for example, the detection score indicating the probability of representing the brightness of the correction target, the region position and size of the correction target, or the facial appearance of the correction target, and the evaluation value of the facial appearance. The correction information is information including color correction parameters, gradation parameters, lens aperture (value), and shutter speed, for example. This information includes at least one of the above-described information.

対象検出機能部40は、たとえば特許文献3の画像処理方法を用いた構成要素を有することが好ましい。この方法を用いれば、所定の被写体候補を高精度に抽出することから、次段での検出における負担を著しく軽減でき、適用したシステムの能力を向上させることができる。   The object detection function unit 40 preferably includes components using the image processing method disclosed in Patent Document 3, for example. If this method is used, a predetermined subject candidate is extracted with high accuracy, so that the burden of detection in the next stage can be remarkably reduced, and the performance of the applied system can be improved.

対象検出機能部42は、上述した構成要素を含み、画像データ36を入力する。対象検出機能部42は、過去の補正対象情報48をCPU 16内のメモリから読み出す。対象検出機能部42は、検出可能領域算出機能部42aおよびスコア算出機能部42bを含む。検出可能領域算出機能部42aは入力した画像データ34が表す画像の中から過去の補正対象情報48を用いて補正対象を算出する。スコア算出機能部42bは算出した補正対象に応じて現フレームにおける検出スコアSnを求め仮の補正情報Qn, Rnを算出する機能を有する。 The object detection function unit 42 includes the above-described components and inputs image data 36. The target detection function unit 42 reads the past correction target information 48 from the memory in the CPU 16. The object detection function unit 42 includes a detectable area calculation function unit 42a and a score calculation function unit 42b. The detectable area calculation function unit 42a calculates a correction target using the past correction target information 48 from the image represented by the input image data 34. Score calculation function unit 42b includes correction information Q n provisional seeking detection score S n in the current frame in accordance with the corrected calculated, a function of calculating the R n.

ここで、CPU 16に格納する情報、すなわち過去の補正対象情報および過去の補正情報は、並列的なデータ構造で格納されている。読み出す信号線が同じであるから参照符号も同じに記載される。   Here, information stored in the CPU 16, that is, past correction target information and past correction information are stored in a parallel data structure. Since the signal lines to be read are the same, the reference numerals are also described in the same way.

補正情報算出機能部44は、過去の補正情報、検出スコアおよび重み係数を用い、これらから現フレーム画像に対する画像補正情報を算出する機能を有する。過去の補正情報48は、たとえばCPU 16から読み出される。補正情報算出機能部44もCPU 16の制御信号46に応じて動作する。補正情報算出機能部44は、現フレーム画像の画像補正情報Pnを線形結合および非線形結合のいずれかのアルゴリズムを用いる。具体的な算出は後段にてさらに示す。補正情報算出機能部44は、算出した現フレーム画像に対する画像補正情報50をディジタル処理部40に出力する。画像補正情報50は、階調補正パラメータおよび色補正パラメータの少なくとも一つを含む。また、CPU 16には、画像補正情報50におけるレンズの絞りおよびシャッタ速度が補正情報算出機能部44から信号線48を介して送られる。 The correction information calculation function unit 44 has a function of calculating image correction information for the current frame image from the past correction information, detection score, and weighting coefficient. The past correction information 48 is read from the CPU 16, for example. The correction information calculation function unit 44 also operates according to the control signal 46 of the CPU 16. The correction information calculation function unit 44 uses either linear combination or non-linear combination algorithm for the image correction information P n of the current frame image. Specific calculation will be further described later. The correction information calculation function unit 44 outputs the image correction information 50 for the calculated current frame image to the digital processing unit 40. The image correction information 50 includes at least one of a gradation correction parameter and a color correction parameter. Further, the lens aperture and shutter speed in the image correction information 50 are sent to the CPU 16 from the correction information calculation function unit 44 via the signal line 48.

なお、補正情報算出機能部44は、補正対象検出部38に設けず、CPU 16にて算出するようにしてもよい。この場合、補正対象検出部38には、求めた検出スコアが信号線48を介してCPU 16に供給される。CPU 16は、算出した結果、すなわち現フレーム画像の補正情報が信号線48を介して補正対象検出部38に送る。   The correction information calculation function unit 44 may be calculated by the CPU 16 without being provided in the correction target detection unit 38. In this case, the detected detection score is supplied to the correction target detection unit 38 via the signal line 48 to the CPU 16. The CPU 16 sends the calculated result, that is, the correction information of the current frame image to the correction target detection unit 38 via the signal line 48.

ディジタル処理部40は、図3に示すように、画像補正機能部52を含む。画像補正機能部52は、制御信号46に応じて動作させ、画像補正情報50を基に画像データ36を補正する。ディジタル処理部40は、画像データ36を最適な色に表現されるように色変換する。ディジタル処理部40は、たとえば同時化等も行なう。信号処理部14は、ディジタル処理部40の処理結果である画像データ54をメモリ18に出力する。   As shown in FIG. 3, the digital processing unit 40 includes an image correction function unit 52. The image correction function unit 52 is operated according to the control signal 46 and corrects the image data 36 based on the image correction information 50. The digital processing unit 40 performs color conversion so that the image data 36 is expressed in an optimum color. The digital processing unit 40 also performs, for example, synchronization. The signal processing unit 14 outputs image data 54 that is a processing result of the digital processing unit 40 to the memory 18.

図1に戻って、CPU 16は、図示しないが演算機能部、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む。ROMには撮像装置10を動作させる手順、すなわちプログラムが書かれ、RAMにはたとえば過去の補正情報を格納される。CPU 16には、画像データ36および操作の指示データ56が入力される。また、CPU 16は、過去の補正情報48を出力し現フレームの補正情報48を入力する。CPU 16は、上述した入力とプログラムに基づき制御信号46および58を出力する。CPU 16は、画像データ36を基にレンズの絞りおよびシャッタ速度をどのくらいの値にするか演算し演算した結果にて動作させる制御信号58を生成する。CPU 16は現フレームの補正情報48におけるレンズの絞りおよびシャッタ速度が供給されている場合、この補正情報に基づく制御信号58をドライバ20に出力する。   Returning to FIG. 1, the CPU 16 includes an arithmetic function unit, a ROM (Read Only Memory), and a RAM (Random Access Memory) (not shown). A procedure for operating the imaging apparatus 10, that is, a program is written in the ROM, and past correction information is stored in the RAM, for example. Image data 36 and operation instruction data 56 are input to the CPU 16. The CPU 16 outputs past correction information 48 and inputs correction information 48 for the current frame. The CPU 16 outputs control signals 46 and 58 based on the above-described input and program. The CPU 16 calculates how much the lens aperture and shutter speed should be based on the image data 36 and generates a control signal 58 that operates according to the calculated result. When the lens aperture and shutter speed in the correction information 48 of the current frame are supplied, the CPU 16 outputs a control signal 58 based on this correction information to the driver 20.

メモリ18は、画像データ54を制御信号46に応じて入出力するバッファ機能を有する。メモリ18は、信号処理部14、メモリIF部22および表示制御部24と接続されている。メモリ18は、撮像された画像データやメモリカード26からの再生した画像データを扱う。   The memory 18 has a buffer function for inputting and outputting the image data 54 in accordance with the control signal 46. The memory 18 is connected to the signal processing unit 14, the memory IF unit 22, and the display control unit 24. The memory 18 handles captured image data and image data reproduced from the memory card 26.

ドライバ20は、画像入力部12におけるレンズの絞り32および撮像素子34に対する駆動信号60および62を生成する。ドライバ20は、レンズの絞り32の機構に駆動信号60を供給する。また、ドライバ20は、撮像素子34に露出時間を規定し露出にともない蓄積した信号電荷を読み出す駆動信号62を出力する。   The driver 20 generates drive signals 60 and 62 for the lens diaphragm 32 and the image sensor 34 in the image input unit 12. The driver 20 supplies a drive signal 60 to the mechanism of the lens diaphragm 32. In addition, the driver 20 outputs a drive signal 62 that defines the exposure time to the image sensor 34 and reads the signal charges accumulated with the exposure.

メモリIF部22は、メモリ18の画像データ54とメモリカード26の画像データ64を入出力するインタフェースである。   The memory IF unit 22 is an interface for inputting and outputting image data 54 of the memory 18 and image data 64 of the memory card 26.

表示制御部24は、画像データ54をモニタ28に対する表示データ66に変換する。メモリカード26は、着脱自在な半導体メモリである。モニタ28は、表示データ66を表示する機能を有する。   The display control unit 24 converts the image data 54 into display data 66 for the monitor 28. The memory card 26 is a detachable semiconductor memory. The monitor 28 has a function of displaying the display data 66.

操作部30は、電源投入スイッチ、モード設定、モニタ表示スイッチおよびレリーズシャッタボタン等を含む。操作部30は、レリーズシャッタボタンに対する押圧状態に応じた指示データ56を出力する。指示データ56は、押圧していない状態をS0、半押し状態をS1および全押し状態をS2とする。モニタ28には、たとえば電源投入後からスルー画が表示される。状態S1は予備撮像状態である。状態S2は、静止画モードで本撮像タイミングであり、動画モードでは撮影開始と終了のタイミングである。操作部30は、CPU 16にこれらのモードにおけるタイミングを指示データ56として出力する。   The operation unit 30 includes a power-on switch, mode setting, a monitor display switch, a release shutter button, and the like. The operation unit 30 outputs instruction data 56 corresponding to the pressed state of the release shutter button. In the instruction data 56, the state of not pressing is S0, the half-pressed state is S1, and the fully-pressed state is S2. For example, a through image is displayed on the monitor 28 after the power is turned on. State S1 is a preliminary imaging state. The state S2 is the actual imaging timing in the still image mode, and the imaging start and end timing in the moving image mode. The operation unit 30 outputs the timing in these modes as instruction data 56 to the CPU 16.

次に本発明の画像処理装置を適用した撮像装置10における画像処理方法を説明する。本実施例は、画像に含まれる対象の有無に応じた動画像処理について開示する。動画像処理は、電源投入ボタンがオン状態に操作され、モニタ表示スイッチがオンになったとき、画像データ36に対して処理する。モニタ表示スイッチの状態をチェックすることにより無駄なモニタ表示の電力を抑制することができる。電源が投入されモニタ表示スイッチがオンの場合、レリーズシャッタボタンが状態S0およびS1でも撮像装置10は動画像処理した画像をモニタ28に表示する。この状態がスルー画表示である。また、撮像装置10は、静止画モードでスルー画表示する場合や記録する撮影画像のモニタ表示する場合も動画像処理を行なう。   Next, an image processing method in the imaging apparatus 10 to which the image processing apparatus of the present invention is applied will be described. The present embodiment discloses moving image processing according to the presence or absence of a target included in an image. The moving image processing is performed on the image data 36 when the power-on button is turned on and the monitor display switch is turned on. By checking the state of the monitor display switch, useless power for monitor display can be suppressed. When the power is turned on and the monitor display switch is turned on, the imaging device 10 displays the moving image processed image on the monitor 28 even when the release shutter button is in the states S0 and S1. This state is a through image display. The imaging device 10 also performs moving image processing when displaying a through image in the still image mode or when displaying a captured image to be recorded on a monitor.

動画モードで動画像処理は、動画像のモニタ表示に関わらず行なう。操作部30でモードを動画に設定し操作部30におけるレリーズシャッタボタンが状態S2、すなわち全押しされると、撮像装置10は、CPU 16の制御により記録用の動画撮影を開始する。再びレリーズシャッタボタンが全押しされると、撮像装置10は動画の記録を終了する。   The moving image processing in the moving image mode is performed regardless of the moving image monitor display. When the operation unit 30 sets the mode to moving image and the release shutter button in the operation unit 30 is in the state S2, that is, fully pressed, the imaging device 10 starts recording moving image shooting under the control of the CPU 16. When the release shutter button is fully pressed again, the imaging device 10 ends the recording of the moving image.

撮像装置10は、上述した各モードでの条件の下、動画像処理を含む画像処理を行なう。一例として撮像素子34からの画像データ36をモニタ28に表示する場合の画像処理を説明する。この画像処理の手順を図4に示す。撮像素子34から供給される画像データ36に対して補正対象検出部38の対象検出機能部40で補正対象を検出する(サブルーチンSUB1)。ここでの検出とは、補正対象を求め対象における検出スコアを求めることである。検出についてはさらに後段で説明する。   The imaging device 10 performs image processing including moving image processing under the conditions in each mode described above. As an example, image processing when image data 36 from the image sensor 34 is displayed on the monitor 28 will be described. This image processing procedure is shown in FIG. A correction target is detected by the target detection function unit 40 of the correction target detection unit 38 with respect to the image data 36 supplied from the image sensor 34 (subroutine SUB1). The detection here refers to obtaining a correction target and obtaining a detection score in the target. The detection will be further described later.

次にCPU 16から過去の補正情報48を読み出す(ステップS10)。過去の補正情報46は、現フレームから少なくとも、過去k=10サンプル程度の補正対象における色補正パラメータおよび階調パラメータの少なくとも一つを表す情報であり、後述するパラメータP, QおよびRが対応している。また、サンプリング間隔は、複数のフレームの時間になる。これは、対象検出に多大の時間を要すためである。CPU 16は、読み出した過去の補正情報48を補正情報算出機能部42に出力する。   Next, the past correction information 48 is read from the CPU 16 (step S10). The past correction information 46 is information representing at least one of a color correction parameter and a gradation parameter in a correction target of at least about the past k = 10 samples from the current frame, and corresponds to parameters P, Q, and R described later. ing. The sampling interval is a time of a plurality of frames. This is because it takes a lot of time to detect the object. The CPU 16 outputs the read past correction information 48 to the correction information calculation function unit 42.

補正情報算出機能部42では、現フレームにおける画像補正情報50を対象の検出の有無に応じて算出する(サブルーチンSUB2)。算出した現フレームにおける画像補正情報50がディジタル処理部40およびCPU 16にそれぞれ、供給される。   The correction information calculation function unit 42 calculates the image correction information 50 in the current frame in accordance with the presence or absence of target detection (subroutine SUB2). The calculated image correction information 50 in the current frame is supplied to the digital processing unit 40 and the CPU 16, respectively.

ディジタル処理部40では、画像補正情報50に応じて画像データ36を補正する(サブルーチンSUB3)。この補正後、撮像装置10は、CPU 16に現フレームの画像補正情報50と同じ情報を保存する(ステップS12)。この保存後、動画像処理を終了するか否かを判断する(ステップS14)。判断は、CPU 16で行なう。CPU 16は、操作部30から供給される指示データ56の値で判断する。動画像処理は、ユーザが操作部30のモードに関わらず、電源投入ボタンがオン状態で、モニタ表示ボタンがオンにある場合や動画モードで記録中の場合に継続させる(NO:サブルーチンSUB1へ)。また、これ以外の場合(YES)、とくに電源投入ボタンがオフ状態を示す指示データ56がCPU 16に供給されると、撮像装置10は終了に進んで動作を停止させる。   The digital processing unit 40 corrects the image data 36 according to the image correction information 50 (subroutine SUB3). After this correction, the imaging apparatus 10 stores the same information as the image correction information 50 for the current frame in the CPU 16 (step S12). After this saving, it is determined whether or not to end the moving image processing (step S14). The determination is made by the CPU 16. The CPU 16 makes a determination based on the value of the instruction data 56 supplied from the operation unit 30. Regardless of the mode of the operation unit 30, the moving image processing is continued when the power-on button is on and the monitor display button is on or when recording is in the moving image mode (NO: to subroutine SUB1) . In other cases (YES), in particular, when the instruction data 56 indicating that the power-on button is in the OFF state is supplied to the CPU 16, the imaging apparatus 10 proceeds to the end and stops its operation.

次に補正対象の検出処理(サブルーチンSUB1)について説明する。図5に示すように画像データ36のフレーム画像に対して過去の補正対象情報48をCPU 16から読み出す(サブステップSS10)。過去の補正対象情報48は、検出対象の位置、サイズおよび検出スコアまたは評価値である。繰り返すが、過去の補正対象情報48は、過去の補正情報48、すなわち色補正パラメータ、階調パラメータ、レンズの絞りおよびシャッタ速度の少なくとも一つである、補正対象部分だけで算出した補正情報Q: Qn-k, Qn-k+1, ・・・, Qn-1, 画像全体から算出した補正情報R: Rn-k, Rn-k+1, ・・・, Rn-1および画像補正情報P: Pn-k, Pn-k+1, ・・・, Pn-1とたとえば並列的に記録される情報であるが情報内容は異なる点に注意する。過去の補正対象情報48は、検出スコアとしてフレーム画像に含まれる顔らしさの確率または評価値をS: Sn-k, Sn-k+1, ・・・, Sn-1でもある。 Next, the correction target detection process (subroutine SUB1) will be described. As shown in FIG. 5, the past correction target information 48 is read from the CPU 16 with respect to the frame image of the image data 36 (substep SS10). The past correction target information 48 is the position, size and detection score or evaluation value of the detection target. Again, the past correction target information 48 is the past correction information 48, that is, correction information Q calculated only at the correction target portion, which is at least one of color correction parameters, gradation parameters, lens aperture and shutter speed. Q nk , Q n-k + 1 , ..., Q n-1 , correction information calculated from the entire image R: R nk , R n-k + 1 , ..., R n-1 and image correction information Note that P: P nk , P n−k + 1 ,..., P n−1 is information recorded in parallel, for example, but the information content is different. Past corrected information 48, the probability or evaluation value of the face likeliness included in the frame image as a detection score S: is S nk, S nk + 1, ···, even S n-1.

ここで、検出スコアがゼロならば、未検出を表す。また、過去の補正対象情報48における検出スコアがゼロでない個数jを求める。   Here, if the detection score is zero, it indicates that no detection has been performed. Also, the number j of detection scores in the past correction target information 48 that are not zero is obtained.

次に求めた個数jが検出スコアのゼロでない個数の閾値i以上か否かを比較する(サブステップSS12)。個数jが閾値i以上のとき(YES)、領域の算出処理に進む(サブステップSS14へ)。また、個数jが閾値iより小さいとき(NO)、補正対象における検出処理に進む(サブステップSS16へ)。この比較により領域に対する検出を回避できるので、検出の高速化および省電力化することができる。   Next, it is compared whether or not the obtained number j is equal to or greater than the threshold number i of the number of detection scores that is not zero (sub step SS12). When the number j is equal to or greater than the threshold value i (YES), the process proceeds to region calculation processing (go to sub-step SS14). When the number j is smaller than the threshold value i (NO), the process proceeds to the detection process for the correction target (go to sub-step SS16). This comparison can avoid detection of the region, so that detection can be speeded up and power can be saved.

サブステップSS14では、過去の補正対象情報に含まれる位置およびサイズを基に対象の検出が可能な領域を算出する。検出可能領域の算出では、たとえば位置およびサイズの差分で対象の移動量と位置の変化から移動方向を求める。これにより対象検出機能部42では現フレームにおける補正対象の検出可能な領域、位置およびサイズを求める。これにより検出可能な領域の有無がわかる。   In sub-step SS14, an area where the target can be detected is calculated based on the position and size included in the past correction target information. In the calculation of the detectable region, for example, the moving direction is obtained from the amount of movement of the target and the change in the position based on the difference in position and size. As a result, the object detection function unit 42 obtains the detectable area, position, and size of the correction object in the current frame. As a result, the presence or absence of a detectable region is known.

次に現フレームにおける補正対象を検出する(サブステップSS16)。検出により現フレームにおける検出スコアSnを求める。検出スコアの算出には、前述した特許文献3の検出方法を用いる。この検出ルーチンでは検出可能な領域の有無に応じてさらに、仮の補正情報を算出する。すなわち、この領域を基に検出スコアSnが求められた場合、現フレームにおける仮の補正情報Qnも算出する。また、可能な領域が得られなかった検出スコアSn=0に対して画像全体から仮の補正情報Rnを算出する。 Next, a correction target in the current frame is detected (substep SS16). Obtaining a detection score S n in the current frame by the detection. The detection method of the patent document 3 mentioned above is used for calculation of a detection score. In this detection routine, provisional correction information is further calculated according to the presence or absence of a detectable region. That is, if the detection score S n obtained on the basis of this region, it is also calculated correction information Q n provisional in the current frame. Further, provisional correction information R n is calculated from the entire image for a detection score S n = 0 where a possible area was not obtained.

このようにして現フレームにおける検出結果を保存する(サブステップSS18)。ここでの検出結果とは、検出対象の有無、対象が検出された場合に得られた検出位置、サイズである。検出スコアS、レンズの絞り、シャッタ速度、仮の補正情報Qn,およびRnである。この後、リターンに進んでサブルーチンSUB1を終える。 In this way, the detection result in the current frame is stored (substep SS18). Here, the detection result is the presence / absence of the detection target, the detection position and the size obtained when the target is detected. Detection score S, lens aperture, shutter speed, provisional correction information Q n , and R n . Thereafter, the process proceeds to RETURN and ends the subroutine SUB1.

次に補正対象の算出処理(サブルーチンSUB2)について説明する。この算出は補正情報算出機能部44で行なう。まず、算出は、図6に示すように検出対象が有ったか否か判断する(サブステップSS20)。現フレームにおける補正対象が検出された場合(YES)、検出に対応した補正情報の算出に進む(サブルーチンSUB4)。また、現フレームにおける補正対象が検出されなかった場合(NO)、非検出に対応した補正情報の算出に進む(サブルーチンSUB5)。補正情報には、画像補正情報が含まれる。画像補正情報には階調補正パラメータ、色補正パラメータ、レンズの絞りおよびシャッタ速度の少なくとも一つが含まれる。   Next, correction target calculation processing (subroutine SUB2) will be described. This calculation is performed by the correction information calculation function unit 44. First, in the calculation, it is determined whether or not there is a detection target as shown in FIG. 6 (substep SS20). When the correction target in the current frame is detected (YES), the process proceeds to calculation of correction information corresponding to the detection (subroutine SUB4). If the correction target in the current frame is not detected (NO), the process proceeds to calculation of correction information corresponding to non-detection (subroutine SUB5). The correction information includes image correction information. The image correction information includes at least one of a gradation correction parameter, a color correction parameter, a lens aperture, and a shutter speed.

これら一方の算出後、リターンに進んでサブルーチンSUB2を終了する。   After one of these calculations, the process proceeds to return to end the subroutine SUB2.

次に検出に対応した補正情報の算出について図7を参照しながら説明する。現フレームにおいて検出された補正対象領域だけを用いて好ましい補正情報を算出する(サブステップSS40)。ここでの好ましい補正情報とは、現フレームにおける検出スコアSnおよび補正対象部分だけで算出するQnである。補正情報Qnは、検出成功だけの場合に算出する。 Next, calculation of correction information corresponding to detection will be described with reference to FIG. The preferred correction information is calculated using only the correction target area detected in the current frame (sub-step SS40). And here the preferred correction information, a Q n to calculate only the detection score S n and corrected part in the current frame. The correction information Q n is calculated only when the detection is successful.

次に過去の補正情報を読み出す(サブステップSS42)。読み出す過去の補正情報は、とくに、過去の補正対象情報である検出スコアSを含む、補正情報Q, RおよびPである。   Next, past correction information is read (substep SS42). The past correction information to be read out is correction information Q, R, and P including the detection score S that is past correction target information.

次に総合した現フレームにおける画像補正情報Pnを算出する(サブステップSS44)。算出には、線形結合と非線形結合のいずれかが用いられる。線形結合による算出では、画像補正情報Pnを検出スコアに応じた重み係数Wを補正情報Q, Pに乗算する。線形結合は、式(1)で表す。また、重み係数Wは、検出スコアが大きいほど大きい値にすることが望ましく、時系列的には現フレームに近いほど大きい値にすることが好ましい。 Next, the combined image correction information P n in the current frame is calculated (substep SS44). For the calculation, either linear combination or non-linear combination is used. In the calculation by linear combination, the correction information Q and P are multiplied by the weight coefficient W corresponding to the detection score by the image correction information Pn . The linear combination is expressed by equation (1). Further, the weighting factor W is desirably a larger value as the detection score is larger, and is preferably larger as the detection score is closer to the current frame.

現フレームにおける画像補正情報Pnは、式(1)
Pn=Wn(Sn)Qn+Wn-1(Sn)Pn-1+・・・+Wn-k(Sn)Pn-k ・・・(1)
により算出される。
The image correction information P n in the current frame is expressed by equation (1)
P n = W n (S n ) Q n + W n-1 (S n ) P n-1 + ... + W nk (S n ) P nk ... (1)
Is calculated by

また、現フレームにおける画像補正情報Pnは、式(1)だけに限定されるものでなく、非線形結合を表す式(2)で行なうようにしてもよい。式(2)は、
Pn=fD(Sn, Qn, Pn-1, Pn-2, ・・・, Pn-k) ・・・(2)
で表される。ここで、fDは対象検出における多次元非線形関数である。このように算出した後、リターンに進みサブルーチンSUB4を終了する。
Further, the image correction information P n in the current frame is not limited to the equation (1), but may be performed by the equation (2) representing nonlinear coupling. Equation (2) is
P n = f D (S n , Q n , P n-1 , P n-2 , ..., P nk ) (2)
It is represented by Here, f D is a multi-dimensional non-linear function in a subject detection. After calculating in this way, the process proceeds to return and the subroutine SUB4 is terminated.

次に非検出に対応した補正情報の算出について図8を参照しながら説明する。現フレームにおいて補正対象が非検出の場合、現フレームの画像全体からバランスのよい補正情報を算出する(サブステップSS50)。ここでのバランスよい補正情報とは、現フレームにおける検出スコアSn=0と画像全体から算出するRnである。 Next, calculation of correction information corresponding to non-detection will be described with reference to FIG. If the correction target is not detected in the current frame, balanced correction information is calculated from the entire image of the current frame (substep SS50). The well-balanced correction information here is the detection score S n = 0 in the current frame and R n calculated from the entire image.

次に過去の補正情報を読み出す(サブステップSS52)。ここでも読み出す過去の補正情報は、とくに、過去の補正対象情報である検出スコアSを含む、補正情報Q, RおよびPである。   Next, past correction information is read (substep SS52). The past correction information read out here is also correction information Q, R, and P including the detection score S that is past correction target information.

次に総合した現フレームにおける画像補正情報Pnを算出する(サブステップSS54)。算出には、線形結合と非線形結合のいずれかが用いられる。線形結合による算出では、画像補正情報Pnを検出スコアに応じた重み係数Wおよび固定値Cを情報P, Rに乗算する。この場合の線形結合を式(3)に示す。また、重み係数Wは、上述したように検出スコアが大きいほど大きい値にすることが望ましく、時系列的には現フレームに近いほど大きい値にすることが好ましい。 Next, the combined image correction information P n in the current frame is calculated (substep SS54). For the calculation, either linear combination or non-linear combination is used. In the calculation by linear combination, the image correction information Pn is multiplied by the weighting factor W corresponding to the detection score and the fixed value C by the information P and R. The linear combination in this case is shown in Equation (3). Further, as described above, the weighting factor W is preferably set to a larger value as the detection score is larger, and is preferably set to a larger value as it is closer to the current frame in time series.

現フレームにおける画像補正情報Pnは、式(3)
Pn=C(0)Rn+Wn-1(Sn-1)Pn-1+・・・+Wn-k(Sn-k)Pn-k ・・・(3)
により算出される。
The image correction information P n in the current frame is expressed by equation (3)
P n = C (0) R n + W n-1 (S n-1 ) P n-1 + ... + W nk (S nk ) P nk ... (3)
Is calculated by

また、非検出での現フレームにおける画像補正情報Pnは、式(3)だけに限定されるものでなく、非線形結合を表す式(4)で行なうようにしてもよい。式(4)は、
Pn=fND(Rn, Pn-1, Pn-2, ・・・, Pn-k) ・・・(4)
で表される。ここで、fNDは対象の非検出における多次元非線形関数である。このように算出した後、リターンに進みサブルーチンSUB5を終了する。
Further, the image correction information P n in the current frame in the non-detection is not limited to the equation (3), but may be performed by the equation (4) representing nonlinear coupling. Equation (4) is
P n = f ND (R n , P n-1 , P n-2 , ..., P nk ) (4)
It is represented by Here, f ND is a multidimensional nonlinear function in non-detection of an object. After calculating in this way, the process proceeds to return and the subroutine SUB5 is terminated.

このようにして補正情報算出機能部44では、補正対象の検出や非検出に対応した現フレームにおける画像補正情報Pnが算出される。算出した画像補正情報PnがCPU 16およびディジタル処理部40に供給される。CPU 16は、算出した画像補正情報Pnを基に次のフレームに対するレンズの絞りおよびシャッタ速度も算出する。CPU 16はここで算出したレンズの絞りおよびシャッタ速度で制御信号58を生成するとよい。 In this way, the correction information calculation function unit 44 calculates the image correction information P n in the current frame corresponding to detection or non-detection of the correction target. The calculated image correction information P n is supplied to the CPU 16 and the digital processing unit 40. The CPU 16 also calculates the lens aperture and shutter speed for the next frame based on the calculated image correction information Pn . The CPU 16 may generate the control signal 58 with the lens aperture and shutter speed calculated here.

次に算出した画像補正情報Pn (50)を用いて、現フレームにおける画像データ36を補正する(サブルーチンSUB3)。この補正は、図9に示すように、画像データ36の現フレーム画像に対して画像補正情報Pn (50)で色補正する(サブステップSS30)。 Next, using the calculated image correction information P n (50), the image data 36 in the current frame is corrected (subroutine SUB3). In this correction, as shown in FIG. 9, the current frame image of the image data 36 is color-corrected with image correction information P n (50) (substep SS30).

このように時系列的にサンプリングした画像データ36に対する補正を補正対象の有無に応じたアルゴリズムにより行なうように補正情報を算出しこの補正情報で階調補正および色補正することから、時系列的にフレーム画像のそれぞれが補正対象の有無で急激な動画像の変動なく、適切な動画像を得ることができる。本発明は動画像だけでなく、静止画の本撮像においても適用できる。   Since correction information is calculated so that correction for the image data 36 sampled in time series is performed by an algorithm according to the presence or absence of a correction target, and tone correction and color correction are performed with this correction information, time series An appropriate moving image can be obtained without abrupt fluctuation of the moving image depending on whether or not each of the frame images has a correction target. The present invention can be applied not only to moving images but also to actual imaging of still images.

なお、前述した動画処理の手順や構成要素の動作は、プログラムを用いたソフトウェアで実現できることは言うまでもない。   Needless to say, the above-described moving image processing procedures and component operations can be realized by software using a program.

本発明の画像処理装置を適用した実施例における撮像装置の概略的な構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus in an embodiment to which an image processing apparatus of the present invention is applied. 図1の補正対象検出部における概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure in the correction target detection part of FIG. 図1のディジタル処理部における概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure in the digital processing part of FIG. 図1の画像処理装置における動作を説明するフローチャートである。2 is a flowchart for explaining an operation in the image processing apparatus of FIG. 1. 図4の対象検出ルーチンにおけるフローチャートである。6 is a flowchart in the object detection routine of FIG. 図4の補正対象に基づく現フレーム画像における補正情報を算出するフローチャートである。5 is a flowchart for calculating correction information in a current frame image based on the correction target in FIG. 4. 図6の補正対象の検出に基づく補正情報の算出手順を説明するフローチャートである。It is a flowchart explaining the calculation procedure of the correction information based on the detection of the correction object of FIG. 図6の補正対象の非検出に基づく補正情報の算出手順を説明するフローチャートである。It is a flowchart explaining the calculation procedure of the correction information based on the non-detection of the correction target of FIG. 図4の色補正ルーチンにおけるフローチャートである。5 is a flowchart in the color correction routine of FIG.

符号の説明Explanation of symbols

10 撮像装置
12 画像入力部
14 信号処理部
16 CPU
18 メモリ
20 ドライバ
22 メモリIF部
24 表示制御部
26 メモリカード
28 モニタ
30 操作部
10 Imaging device
12 Image input section
14 Signal processor
16 CPU
18 memory
20 drivers
22 Memory IF section
24 Display controller
26 Memory card
28 Monitor
30 Operation unit

Claims (24)

ディジタル動画像の現フレーム画像に画像処理を行なう画像処理装置において、該装置は、
前記現フレーム画像に対応する過去のフレーム画像から得られた該現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段と、
前記現フレーム画像に含まれる前記補正対象を検出し該補正対象に対する補正対象情報を求める補正対象検出手段と、
該補正対象検出手段によって得られた前記現フレーム画像における前記補正対象情報および第1の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する補正情報算出手段と、
第2の補正情報に基づいて前記現フレーム画像を補正する画像補正手段とを含むことを特徴とする画像処理装置。
In an image processing apparatus that performs image processing on a current frame image of a digital moving image, the apparatus includes:
Correction information storage means for storing first correction information relating to a correction target of the current frame image obtained from a past frame image corresponding to the current frame image;
Correction target detection means for detecting the correction target included in the current frame image and obtaining correction target information for the correction target;
Correction information calculating means for calculating second correction information for correcting the current frame image based on the correction target information and the first correction information in the current frame image obtained by the correction target detecting means;
And an image correction unit for correcting the current frame image based on second correction information.
請求項1に記載の装置において、前記補正情報算出手段は、前記現フレーム画像における前記補正対象情報に基づいて、前記現フレームに対する仮の補正情報を算出する第1の補正情報算出手段と、
第1の補正情報および前記仮の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する第2の補正情報算出手段とを含むことを特徴とする画像処理装置。
The apparatus according to claim 1, wherein the correction information calculation unit is configured to calculate temporary correction information for the current frame based on the correction target information in the current frame image;
An image processing apparatus comprising: second correction information calculating means for calculating second correction information for correcting the current frame image based on the first correction information and the provisional correction information.
請求項1または2に記載の装置において、前記補正対象検出手段は、第1の補正情報に対する前記過去のフレーム画像における補正対象情報を過去情報として読み出す読出し手段と、
該過去情報に基づいて、前記現フレーム画像における前記補正対象の検出可能な領域を算出する領域算出手段と、
前記検出可能な領域から前記現フレーム画像の補正対象を検出し該補正対象に対する補正対象情報を算出する情報算出手段とを含むことを特徴とする画像処理装置。
The apparatus according to claim 1, wherein the correction target detection unit reads out correction target information in the past frame image for the first correction information as past information;
Based on the past information, an area calculating means for calculating a detectable area of the correction target in the current frame image;
An image processing apparatus comprising: an information calculation unit that detects a correction target of the current frame image from the detectable region and calculates correction target information for the correction target.
請求項1、2または3に記載の装置において、前記補正対象は、顔、目および肌色領域のうちの少なくとも一つを含むことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the correction target includes at least one of a face, an eye, and a skin color region. 請求項1ないし4のいずれか一項に記載の装置において、前記補正対象情報は、顔、目および肌色領域に関する情報、ならびに前記補正対象の検出における確からしさを示す評価値のうちの少なくとも一つを含むことを特徴とする画像処理装置。   5. The apparatus according to claim 1, wherein the correction target information is at least one of information related to a face, eyes, and a skin color region, and an evaluation value that indicates a probability of detection of the correction target. An image processing apparatus comprising: 請求項1ないし5のいずれか一項に記載の装置において、前記補正情報算出手段は、前記現フレーム画像に前記補正対象が検出されたか否かの結果に応じて前記現フレーム画像に対する前記仮の補正情報を算出することを特徴とする画像処理装置。   6. The apparatus according to claim 1, wherein the correction information calculation unit is configured to determine the temporary information for the current frame image according to a result of whether or not the correction target is detected in the current frame image. An image processing apparatus that calculates correction information. 請求項1ないし6のいずれか一項に記載の装置において、第1および第2の画像補正情報は、階調補正パラメータ、色補正パラメータ、レンズの絞りおよびシャッタ速度のうちの少なくとも一つを含むことを特徴とする画像処理装置。   7. The apparatus according to claim 1, wherein the first and second image correction information includes at least one of a gradation correction parameter, a color correction parameter, a lens diaphragm, and a shutter speed. An image processing apparatus. 請求項1ないし7のいずれか一項に記載の装置において、該装置は、前記補正対象検出手段、前記補正情報算出手段および前記画像補正手段の機能をプログラムで実現させることを特徴とする画像処理装置。   8. The apparatus according to claim 1, wherein the apparatus realizes the functions of the correction target detection unit, the correction information calculation unit, and the image correction unit by a program. apparatus. ディジタル動画像の現フレーム画像に画像処理を行なう画像処理方法において、該方法は、
前記現フレーム画像に対応する過去のフレーム画像から得られた該現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段から第1の補正情報を読み出す第1の工程と、
前記現フレーム画像に含まれる前記補正対象を検出し該補正対象に対する補正対象情報を求める第2の工程と、
前記現フレーム画像における前記補正対象情報および第1の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する第3の工程と、
第2の補正情報に基づいて前記現フレーム画像を補正する第4の工程とを含むことを特徴とする画像処理方法。
In an image processing method for performing image processing on a current frame image of a digital moving image, the method includes:
A first step of reading first correction information from correction information storage means for storing first correction information relating to a correction target of the current frame image obtained from a past frame image corresponding to the current frame image;
A second step of detecting the correction target included in the current frame image and obtaining correction target information for the correction target;
A third step of calculating second correction information for correcting the current frame image based on the correction target information and the first correction information in the current frame image;
And a fourth step of correcting the current frame image based on second correction information.
請求項9に記載の方法において、第2の工程は、第1の補正情報に対する前記過去のフレーム画像における補正対象情報を過去情報として読み出す第5の工程と、
該過去情報に基づいて、前記現フレーム画像における前記補正対象の検出可能な領域を算出する第6の工程と、
前記検出可能な領域から前記現フレーム画像の補正対象を検出し該補正対象に対する補正対象情報を算出する第7の工程とを含むことを特徴とする画像処理方法。
The method according to claim 9, wherein the second step is a fifth step of reading out correction target information in the past frame image for the first correction information as past information;
A sixth step of calculating a detectable region of the correction target in the current frame image based on the past information;
A seventh step of detecting a correction target of the current frame image from the detectable region and calculating correction target information for the correction target.
請求項9または10に記載の方法において、第3の工程は、第2の工程での処理結果が前記補正対象の存在を示す場合、前記現フレーム画像における前記補正対象情報に基づいて前記現フレーム画像に対する仮の補正情報を算出する第8の工程と、
第1の補正情報および前記仮の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する第9の工程とを含むことを特徴とする画像処理方法。
The method according to claim 9 or 10, wherein the third step includes the step of changing the current frame based on the correction target information in the current frame image when the processing result in the second step indicates the presence of the correction target. An eighth step of calculating provisional correction information for the image;
And a ninth step of calculating second correction information for correcting the current frame image based on the first correction information and the provisional correction information.
請求項9または10に記載の方法において、第3の工程は、第2の工程での処理結果が前記補正対象の存在を示さない場合、前記現フレーム画像全体に基づいて前記現フレーム画像に対する仮の補正情報を算出する第10の工程と、
第1の補正情報および前記仮の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する第11の工程とを含むことを特徴とする画像処理方法。
The method according to claim 9 or 10, wherein the third step is a provisional process for the current frame image based on the entire current frame image when the processing result in the second step does not indicate the presence of the correction target. A tenth step of calculating correction information of
And an eleventh step of calculating second correction information for correcting the current frame image based on the first correction information and the provisional correction information.
請求項9ないし12のいずれか一項に記載の方法において、該方法は、前記補正対象として、顔、目および肌色領域のうちの少なくとも一つを含むことを特徴とする画像処理方法。   13. The image processing method according to claim 9, wherein the correction target includes at least one of a face, an eye, and a skin color region as the correction target. 請求項9ないし13のいずれか一項に記載の方法において、該方法は、前記補正対象情報として、顔、目および肌色領域に関する情報、ならびに前記補正対象の検出における確からしさを示す評価値のうちの少なくとも一つを含むことを特徴とする画像処理方法。   The method according to any one of claims 9 to 13, wherein the method includes, as the correction target information, information relating to a face, eyes, and a skin color area, and an evaluation value indicating a probability in detecting the correction target. An image processing method comprising at least one of the following. 請求項14に記載の方法において、第3の工程は、前記補正対象情報を、前記補正対象の検出における確からしさを示す評価値とし、
第2の工程での処理結果が前記現フレーム画像に前記補正対象の存在を示す場合、該場合における前記仮の補正情報および前記評価値に基づく重み係数の乗算結果と、第1の補正情報および前記評価値に基づく重み係数の乗算結果とを線形結合し該線形結合に基づいて第2の補正情報を算出することを特徴とする画像処理方法。
15. The method according to claim 14, wherein in the third step, the correction target information is an evaluation value indicating a probability in the detection of the correction target,
When the processing result in the second step indicates the presence of the correction target in the current frame image, the provisional correction information in this case and the multiplication result of the weighting factor based on the evaluation value, the first correction information, An image processing method characterized by linearly combining a multiplication result of weighting factors based on the evaluation value and calculating second correction information based on the linear combination.
請求項14に記載の方法において、第3の工程は、前記補正対象情報を、前記補正対象の検出における確からしさを示す評価値とし、
第2の工程での処理結果が前記現フレーム画像に前記補正対象の存在を示さない場合、該場合における前記仮の補正情報および固定した重み係数の乗算結果と、第1の補正情報および前記評価値に基づく重み係数の乗算結果とを線形結合し該線形結合に基づいて第2の補正情報を算出することを特徴とする画像処理方法。
15. The method according to claim 14, wherein in the third step, the correction target information is an evaluation value indicating a probability in the detection of the correction target,
If the processing result in the second step does not indicate the presence of the correction target in the current frame image, the provisional correction information and the multiplication result of the fixed weighting factor in that case, the first correction information, and the evaluation An image processing method characterized by linearly combining a multiplication result of weighting factors based on values and calculating second correction information based on the linear combination.
請求項14に記載の方法において、第3の工程は、前記補正対象情報を、前記補正対象の検出における確からしさを示す評価値とし、
第2の工程での処理結果が前記現フレーム画像に前記補正対象の存在を示す場合、該場合の前記仮の補正情報、前記現フレーム画像に対する評価値および第1の補正情報のそれぞれを従属変数とする多次元非線形関数により第2の補正情報を算出することを特徴とする画像処理方法。
15. The method according to claim 14, wherein in the third step, the correction target information is an evaluation value indicating the probability of detection of the correction target,
When the processing result in the second step indicates the presence of the correction target in the current frame image, the provisional correction information, the evaluation value for the current frame image, and the first correction information in that case are respectively used as dependent variables. An image processing method characterized in that the second correction information is calculated by a multidimensional nonlinear function.
請求項14に記載の方法において、第3の工程は、前記補正対象情報を、前記補正対象の検出における確からしさを示す評価値とし、
第2の工程での処理結果が前記現フレーム画像に前記補正対象の存在を示さない場合、該場合の前記仮の補正情報および第1の補正情報のそれぞれを従属変数とする多次元非線形関数により前記現画像補正情報を算出することを特徴とする画像処理方法。
15. The method according to claim 14, wherein in the third step, the correction target information is an evaluation value indicating a probability in the detection of the correction target,
When the processing result in the second step does not indicate the presence of the correction target in the current frame image, a multidimensional nonlinear function using each of the temporary correction information and the first correction information in that case as dependent variables An image processing method comprising calculating the current image correction information.
請求項9ないし18のいずれか一項に記載の方法において、第1および第2の補正情報は、階調補正パラメータ、色補正パラメータレンズの絞りおよびシャッタ速度のうちの少なくとも一つを含むことを特徴とする画像処理方法。   The method according to any one of claims 9 to 18, wherein the first and second correction information includes at least one of a gradation correction parameter, a color correction parameter lens aperture, and a shutter speed. A featured image processing method. 請求項11ないし18のいずれか一項に記載の方法において、該方法は、前記仮の補正情報として、第2の工程で複数検出された前記補正対象のうちの一つを選択し該選択した補正対象に対して前記仮の補正情報を算出することを特徴とする画像処理方法。   The method according to any one of claims 11 to 18, wherein the method selects and selects one of the correction targets detected in a second step as the temporary correction information. An image processing method comprising calculating the provisional correction information for a correction target. 請求項11ないし18のいずれか一項に記載の方法において、該方法は、前記仮の補正情報として、第2の工程で複数検出された前記補正対象のうちの2つ以上を選択し該選択した補正対象に対して前記仮の補正情報を算出することを特徴とする画像処理方法。   The method according to any one of claims 11 to 18, wherein the method selects two or more of the correction targets detected in a second step as the temporary correction information, and selects the selected correction target. An image processing method characterized in that the provisional correction information is calculated for the corrected object. 請求項20または21に記載の方法において、該方法は、前記補正対象を、該補正対象の明るさ、サイズ、位置および評価値のうちの少なくとも一つに基づいて選択することを特徴とする画像処理方法。   The method according to claim 20 or 21, wherein the method selects the correction target based on at least one of brightness, size, position, and evaluation value of the correction target. Processing method. 請求項9ないし22に記載の方法において、該方法は、静止画の本撮像においても用いることを特徴とする画像処理方法。   23. The image processing method according to claim 9, wherein the method is also used in actual imaging of a still image. 被写界を撮像してディジタル動画像の映像信号を形成する撮像手段と、
該映像信号を受けて、前記ディジタル動画像の現フレーム画像に対応する過去のフレーム画像から得られた該現フレーム画像の補正対象に関する第1の補正情報を格納する補正情報格納手段と、
前記現フレーム画像に含まれる前記補正対象を検出し、該補正対象に対する補正対象情報を求める補正対象検出手段と、
該補正対象検出手段によって得られた前記現フレーム画像における前記補正対象情報および第1の補正情報に基づいて、前記現フレーム画像を補正する第2の補正情報を算出する補正情報算出手段と、
第2の補正情報に基づいて前記現フレーム画像を補正する画像補正手段とを含み、これによって現フレーム画像に画像処理を行なうことを特徴とするディジタルカメラ。
Imaging means for imaging a scene to form a video signal of a digital moving image;
Correction information storage means for receiving the video signal and storing first correction information relating to a correction target of the current frame image obtained from a past frame image corresponding to the current frame image of the digital moving image;
Correction target detection means for detecting the correction target included in the current frame image and obtaining correction target information for the correction target;
Correction information calculating means for calculating second correction information for correcting the current frame image based on the correction target information and the first correction information in the current frame image obtained by the correction target detecting means;
An image correction means for correcting the current frame image based on second correction information, thereby performing image processing on the current frame image.
JP2005075867A 2005-03-16 2005-03-16 Image processing apparatus and processing method thereof Expired - Fee Related JP4680639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005075867A JP4680639B2 (en) 2005-03-16 2005-03-16 Image processing apparatus and processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005075867A JP4680639B2 (en) 2005-03-16 2005-03-16 Image processing apparatus and processing method thereof

Publications (2)

Publication Number Publication Date
JP2006262000A true JP2006262000A (en) 2006-09-28
JP4680639B2 JP4680639B2 (en) 2011-05-11

Family

ID=37100751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005075867A Expired - Fee Related JP4680639B2 (en) 2005-03-16 2005-03-16 Image processing apparatus and processing method thereof

Country Status (1)

Country Link
JP (1) JP4680639B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141980A1 (en) * 2008-05-21 2009-11-26 パナソニック株式会社 Video signal display device, video signal display method, program, and integrated circuit
CN101923827A (en) * 2009-06-16 2010-12-22 索尼公司 Self-luminous display device, method and program for reducing power consumption
JP2012142980A (en) * 2012-03-05 2012-07-26 Canon Inc Image processing apparatus, control method for image processing apparatus, program, and storage medium
JP2012191641A (en) * 2012-05-14 2012-10-04 Seiko Epson Corp Image processing apparatus and image processing program
JP2013138501A (en) * 2013-03-01 2013-07-11 Canon Inc White balance control device, imaging apparatus employing the same and white balance control method
KR20130125111A (en) * 2012-05-08 2013-11-18 현대모비스 주식회사 Around view system and the method for image brightness correction thereof
US8861843B2 (en) 2009-12-25 2014-10-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568262A (en) * 1991-03-13 1993-03-19 Olympus Optical Co Ltd Video id photo printer and face color converter
JP2000134638A (en) * 1998-10-22 2000-05-12 Matsushita Electric Ind Co Ltd Image processing device
JP2003069846A (en) * 2001-08-27 2003-03-07 Fujitsu Ltd Image processing program
JP2003230156A (en) * 2002-02-01 2003-08-15 Nikon Corp Electronic camera
JP2005012397A (en) * 2003-06-18 2005-01-13 Casio Comput Co Ltd Imaging apparatus and image control method thereof
JP2006074483A (en) * 2004-09-02 2006-03-16 Nikon Corp Imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568262A (en) * 1991-03-13 1993-03-19 Olympus Optical Co Ltd Video id photo printer and face color converter
JP2000134638A (en) * 1998-10-22 2000-05-12 Matsushita Electric Ind Co Ltd Image processing device
JP2003069846A (en) * 2001-08-27 2003-03-07 Fujitsu Ltd Image processing program
JP2003230156A (en) * 2002-02-01 2003-08-15 Nikon Corp Electronic camera
JP2005012397A (en) * 2003-06-18 2005-01-13 Casio Comput Co Ltd Imaging apparatus and image control method thereof
JP2006074483A (en) * 2004-09-02 2006-03-16 Nikon Corp Imaging device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141980A1 (en) * 2008-05-21 2009-11-26 パナソニック株式会社 Video signal display device, video signal display method, program, and integrated circuit
US8189951B2 (en) 2008-05-21 2012-05-29 Panasonic Corporation Video signal display device, video signal display method, storage medium, and integrated circuit
JP5259628B2 (en) * 2008-05-21 2013-08-07 パナソニック株式会社 Video signal display device, video signal display method, program, and integrated circuit
CN101923827A (en) * 2009-06-16 2010-12-22 索尼公司 Self-luminous display device, method and program for reducing power consumption
US8861843B2 (en) 2009-12-25 2014-10-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP2012142980A (en) * 2012-03-05 2012-07-26 Canon Inc Image processing apparatus, control method for image processing apparatus, program, and storage medium
KR20130125111A (en) * 2012-05-08 2013-11-18 현대모비스 주식회사 Around view system and the method for image brightness correction thereof
JP2012191641A (en) * 2012-05-14 2012-10-04 Seiko Epson Corp Image processing apparatus and image processing program
JP2013138501A (en) * 2013-03-01 2013-07-11 Canon Inc White balance control device, imaging apparatus employing the same and white balance control method

Also Published As

Publication number Publication date
JP4680639B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
US7873221B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method
US8073207B2 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
JP5126344B2 (en) Imaging apparatus, imaging method, and program
CN101674411A (en) Image capturing apparatus, method of determining presence or absence of image area, and recording medium
KR20100067408A (en) Method and apparatus for correcting skin color, and digital photographing apparatus using thereof
JP4732303B2 (en) Imaging device
JP4680639B2 (en) Image processing apparatus and processing method thereof
KR101538654B1 (en) Digital photographing apparatus for controlling hand shake correction operation and control method therefor
JP2008236672A (en) Camera, and image correction value calculation method
JP7403995B2 (en) Information processing device, control method and program
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP2009017427A (en) Imaging device
JP2007165947A (en) Imaging device, backlight correction device for subject image, target image detection device, and control method therefor
JP4953770B2 (en) Imaging device
JP5561389B2 (en) Image processing program, image processing apparatus, electronic camera, and image processing method
JP5393189B2 (en) Imaging apparatus and image processing method
CN102449998B (en) System and method for the profiling and calibration of film scanners
JP2021086269A (en) Image processing device, control method of the same, and program
US20090086053A1 (en) Digital photographing apparatus, and method and program for controlling the same
JP2006157101A (en) Imaging apparatus
JP4760484B2 (en) Camera shake correction apparatus, camera shake correction method, and program
JP2009088933A (en) Image recording apparatus, image correcting apparatus and image pickup apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4680639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees