[go: up one dir, main page]

JP2009151350A - Image correction method and device - Google Patents

Image correction method and device Download PDF

Info

Publication number
JP2009151350A
JP2009151350A JP2007326081A JP2007326081A JP2009151350A JP 2009151350 A JP2009151350 A JP 2009151350A JP 2007326081 A JP2007326081 A JP 2007326081A JP 2007326081 A JP2007326081 A JP 2007326081A JP 2009151350 A JP2009151350 A JP 2009151350A
Authority
JP
Japan
Prior art keywords
input image
image
correction
correction amount
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007326081A
Other languages
Japanese (ja)
Other versions
JP5104282B2 (en
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007326081A priority Critical patent/JP5104282B2/en
Publication of JP2009151350A publication Critical patent/JP2009151350A/en
Application granted granted Critical
Publication of JP5104282B2 publication Critical patent/JP5104282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for finding efficiently a correction amount according to the preference of the human being who judges the correction precision of an image. <P>SOLUTION: A correction device is provided with a means 5 for calculating a feature amount of an input image, means 2, 4 for assigning a classification attribute and the correction amount about the input image, a means 7 for calculating a classification coefficient for classifying the input image, by a learning method of a neural network using the feature amount and the assigned classification attribute, a means 8 for classifying the input image into a category by the learning processing of the neural network using the classification coefficient, a means 9 for calculating a correction amount coefficient of the category-classified input image, by the learning processing of the neural network using the feature amount and the assigned correction amount, and a means 11 for estimating the correction amount to be applied to the input image, by the learning processing of the neural network using the correction amount coefficient. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像を補正する技術に関し、特に、その補正量の算出にニューラルネットワークの学習処理を利用する技術に関する。   The present invention relates to a technique for correcting an image, and more particularly to a technique that uses a learning process of a neural network for calculating the correction amount.

色補正や階調補正などの画像補正における補正量は、画像に応じて最適な値に設定する必要がある。この最適値は、画像内容に依存し、また、見る人の好みにも依存する。従って、理想的な画像補正のためには、その画像に対し、人間が手動で補正量を調整することが望ましい。しかしながら、手動で大量の画像補正を行うには、莫大な工数を必要とする。   The correction amount in image correction such as color correction and gradation correction needs to be set to an optimum value according to the image. This optimum value depends on the image content and also on the viewer's preference. Therefore, for ideal image correction, it is desirable for a human to manually adjust the correction amount for the image. However, enormous man-hours are required to manually perform a large amount of image correction.

手動での煩雑な画像補正に替えて、自動的に補正量を制御する方法として、例えば、後述の非特許文献1に記載されているような、ヒストグラム解析を利用した自動画像補正方式がある。   As a method for automatically controlling the correction amount in place of the complicated manual image correction, for example, there is an automatic image correction method using histogram analysis as described in Non-Patent Document 1 described later.

また、自動補正に関する他の方法として、近年、ニューラルネットワーク(Neural Network)による学習処理を用いて画像補正量を算出する方法が提案されている。ニューラルネットワークに対し画像の入力データと教師データとを与えることにより、画像に表われる複雑な現象をニューロンの係数として学習することが可能となる。ここで、入力データおよび教師データの組み合わせを訓練データと呼び、入力データと教師データとを用いてニューラルネットワークの係数を算出することを学習と呼ぶ。   As another method related to automatic correction, a method for calculating an image correction amount using a learning process using a neural network has been proposed in recent years. By providing image input data and teacher data to the neural network, it becomes possible to learn complex phenomena appearing in the image as neuron coefficients. Here, a combination of input data and teacher data is called training data, and calculating a coefficient of a neural network using the input data and teacher data is called learning.

ニューラルネットワークの係数を学習する方法として、画像の特徴量を入力データとし、画像補正量を教師データとして用いるという方法がある。例えば、後述の特許文献1には、画像信号を入力とし、オペレータが与えた補正値を教師値として学習した係数を画像補正に用いる技術が記載されている。この技術では、ハイライト値、ミドル値、シャドー値、トナー濃度、湿度などをニューラルネットワークへの入力とし、階調補正の係数がニューラルネットワークの出力として学習が行われる。   As a method for learning a coefficient of a neural network, there is a method in which an image feature amount is used as input data and an image correction amount is used as teacher data. For example, Patent Document 1 described below describes a technique in which an image signal is input and a coefficient learned using an operator-supplied correction value as a teacher value is used for image correction. In this technique, highlight value, middle value, shadow value, toner density, humidity, and the like are input to the neural network, and the gradation correction coefficient is learned as the output of the neural network.

また、後述の特許文献2には、入力画像から画質特性値を算出し、ニューラルネットワークを用いて階調補正パラメータを学習する方法が記載されている。この文献には、さらに、オペレータ指示により追加学習を行い、追加学習後の新しいニューラルネットワークの誤差が古いネットワークの誤差よりも小さい時にはネットワークを置き換えることが記載されている。   Patent Document 2 described later describes a method of calculating image quality characteristic values from an input image and learning gradation correction parameters using a neural network. This document further describes that additional learning is performed according to an operator instruction, and the network is replaced when the error of the new neural network after the additional learning is smaller than the error of the old network.

このように、特許文献1及び2に記載の方法は、いずれも、画像から検出された特徴量をニューラルネットワークにより学習し、その学習結果を画像の補正に適用するというものである。   As described above, the methods described in Patent Documents 1 and 2 both learn feature quantities detected from an image using a neural network, and apply the learning result to image correction.

ここで、図12に、画像補正量を算出する一般的な装置の構成を模式的に示す。装置100は、入力画像に対して補正を行う画像補正部101と、オペレータが補正量を指定するための補正量指定部102と、画像を表示するモニタ103と、入力画像から特徴量を抽出する特徴抽出部104と、特徴量および補正量を蓄積する蓄積部105と、特徴量と補正量との関係をニューラルネットワークの係数として学習する係数学習部106と、学習された係数を用いて入力画像に対する補正量を推定する補正量推定部107とからなる。   Here, FIG. 12 schematically shows a configuration of a general apparatus for calculating the image correction amount. The apparatus 100 extracts an amount of features from an input image, an image correction unit 101 that corrects an input image, a correction amount specification unit 102 for an operator to specify a correction amount, a monitor 103 that displays an image, and the like. Feature extraction unit 104, storage unit 105 that accumulates feature amounts and correction amounts, coefficient learning unit 106 that learns the relationship between feature amounts and correction amounts as a coefficient of a neural network, and an input image using the learned coefficients And a correction amount estimation unit 107 for estimating a correction amount for.

画像補正部101の一例として、γ補正のような階調補正がある。補正量指定部102の一例として、γ値をキーボードで指定する方法がある。特徴抽出部104の一例として、画像中のRGB値のヒストグラムを作成し、それぞれの最大値、最小値、平均値を抽出するという方法がある。蓄積部105の一例として、HDDや不揮発メモリ等がある。係数学習部106の一例としては、3層ニューラルネットワークにおける誤差伝播法による係数算出処理を実行する方法がある。
特開平09−18716号公報 特開2006−31440号公報 A. Inoue and J. Tajima、“Adaptive Quality Improvement Method for Color Images”、Proc. of SPIE, Vol. 2179、pp.429-439、1994
An example of the image correction unit 101 is gradation correction such as γ correction. As an example of the correction amount specifying unit 102, there is a method of specifying a γ value with a keyboard. As an example of the feature extraction unit 104, there is a method of creating a histogram of RGB values in an image and extracting the maximum value, minimum value, and average value of each. Examples of the storage unit 105 include an HDD and a nonvolatile memory. As an example of the coefficient learning unit 106, there is a method of executing coefficient calculation processing by an error propagation method in a three-layer neural network.
Japanese Patent Laid-Open No. 09-18716 JP 2006-31440 A A. Inoue and J. Tajima, “Adaptive Quality Improvement Method for Color Images”, Proc. Of SPIE, Vol. 2179, pp.429-439, 1994

しかしながら、前述の特許文献1及び2に記載の方法のように、画像から得られた特徴量のみを補正量の学習に用いるという方法には、次のような問題点がある。   However, as in the methods described in Patent Documents 1 and 2, the method of using only the feature amount obtained from the image for learning the correction amount has the following problems.

まず、特徴量のみによる学習では、画像の補正精度を向上させ難い。なぜなら、モニタに表示された画像に対する補正精度の判断には、人間の主観的な感覚が影響するからである。よって、入力画像から定量的に得られた特徴量のみを補正に用いても、人間の主観に依存する補正精度を高めることは困難である。   First, it is difficult to improve the correction accuracy of an image by learning using only feature amounts. This is because the subjective sense of human influences the determination of the correction accuracy for the image displayed on the monitor. Therefore, even if only the feature amount quantitatively obtained from the input image is used for correction, it is difficult to increase the correction accuracy depending on human subjectivity.

一方で、補正量係数の最適化には、ニューラルネットワークの学習回数を増やすことが有益である。よって、前述の技術の場合、係数学習部106(図12)の学習回数を増やすことにより精度が上がると考えられる。しかしながら、学習の履歴が蓄積されるにつれて、演算が煩雑になることから、係数学習部106に多大な処理負荷が掛かり、また、処理時間が長引くという問題が生じる。   On the other hand, to optimize the correction amount coefficient, it is beneficial to increase the number of times the neural network is learned. Therefore, in the case of the above-described technique, it is considered that the accuracy is improved by increasing the number of learnings of the coefficient learning unit 106 (FIG. 12). However, as the learning history is accumulated, the calculation becomes complicated, which causes a problem that a large processing load is applied to the coefficient learning unit 106 and the processing time is prolonged.

本発明は、上記課題に鑑みてなされたものであり、その目的は、画像の補正精度を判断する人間の趣向に沿った補正量を効率よく求める技術を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently obtaining a correction amount according to a human preference for determining the correction accuracy of an image.

本発明に係る画像補正方法は、入力画像の特徴量を算出し、前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出し、前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類し、前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出し、前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定するという方法である。   An image correction method according to the present invention calculates a feature amount of an input image, and classifies the input image by a neural network learning process using the feature amount and a classification attribute specified for the input image. A classification coefficient is calculated, the input image is classified into categories by a neural network learning process using the classification coefficient, and a neural network learning process using the feature amount and a correction amount specified for the input image. The correction amount coefficient of the input image classified into the category is calculated, and the correction amount to be applied to the input image is estimated by a neural network learning process using the correction amount coefficient.

本発明に係る画像補正装置は、入力画像の特徴量を算出する手段と、前記入力画像に関し分類属性および補正量を指定する手段と、前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出する手段と、前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類する手段と、前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出する手段と、前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定する手段とを備える。   An image correction apparatus according to the present invention comprises: means for calculating a feature amount of an input image; means for specifying a classification attribute and a correction amount for the input image; and a classification attribute specified for the feature amount and the input image. Means for calculating a classification coefficient for classifying the input image by learning processing of the used neural network; means for classifying the input image into categories by learning processing of the neural network using the classification coefficient; Means for calculating a correction amount coefficient of the input image classified into the category by a learning process of a neural network using the amount and a correction amount specified for the input image, and a neural network using the correction amount coefficient Means for estimating a correction amount to be applied to the input image.

本発明に係るプログラムは、コンピュータを上記画像補正装置として機能させるものである。   A program according to the present invention causes a computer to function as the image correction apparatus.

本発明によれば、入力画像に対し指定された情報に見合った補正量を求めることができる。また、補正量係数が入力画像のカテゴリ別に学習されることから、1つの補正量係数を得るための演算量が抑えられる。したがって、画像の補正精度の向上、及び、補正処理の効率化を図ることができる。   According to the present invention, it is possible to obtain a correction amount commensurate with information specified for an input image. Further, since the correction amount coefficient is learned for each category of the input image, the calculation amount for obtaining one correction amount coefficient can be suppressed. Therefore, it is possible to improve the correction accuracy of the image and increase the efficiency of the correction process.

図1に、本発明の第1の実施形態の構成を示す。本実施形態の画像補正装置101は、入力された訓練画像に対して画像処理による補正を行う画像補正部1と、オペレータが補正の強度(補正量)を指定するための補正量指定部2と、画像を表示するモニタ3と、オペレータが入力画像の分類属性を指定するための分類属性指定部4と、入力画像から特徴量を抽出する特徴抽出部5と、抽出した特徴量と指定された補正量及び分類属性とを蓄積する蓄積部6と、蓄積部6にある分類属性と特徴量とを用いて分類係数を算出する分類係数学習部7と、分類係数を用いて入力画像をカテゴリに自動分類する自動分類部8と、カテゴリに分類された入力画像の特徴量と補正量とを用いて、補正量係数を算出するカテゴリ別係数学習部9と、補正量係数を用いて入力画像に対する補正量を推定する補正量推定部11とを備える。   FIG. 1 shows the configuration of the first embodiment of the present invention. The image correction apparatus 101 according to the present embodiment includes an image correction unit 1 that performs correction by image processing on an input training image, and a correction amount designation unit 2 for an operator to specify a correction intensity (correction amount). The monitor 3 for displaying the image, the classification attribute specifying unit 4 for the operator to specify the classification attribute of the input image, the feature extracting unit 5 for extracting the feature quantity from the input image, and the extracted feature quantity specified An accumulation unit 6 that accumulates correction amounts and classification attributes, a classification coefficient learning unit 7 that calculates classification coefficients using the classification attributes and feature amounts stored in the accumulation unit 6, and an input image using the classification coefficients as a category An automatic classification unit 8 that performs automatic classification, a category-specific coefficient learning unit 9 that calculates a correction amount coefficient using the feature amount and correction amount of an input image classified into a category, and an input image using a correction amount coefficient And a correction amount estimation unit 11 for estimating the correction amount. That.

カテゴリ別係数学習部9は、分類上のN番目(N=1,2,…,n)のカテゴリの補正量係数を学習するカテゴリN係数学習部10を含む。   The category-specific coefficient learning unit 9 includes a category N coefficient learning unit 10 that learns correction amount coefficients of the Nth category (N = 1, 2,..., N) in classification.

画像補正部1の一例として、γ補正や明度補正などの階調補正部や、彩度強調などの色補正部がある。補正量指定部2の一例として、端末から彩度強調量や、明度補正量、γ値などをキーボードで指定するという方法がある。蓄積部6の一例として、HDDや不揮発メモリ等がある。   Examples of the image correction unit 1 include a gradation correction unit such as γ correction and brightness correction, and a color correction unit such as saturation enhancement. As an example of the correction amount specifying unit 2, there is a method of specifying a saturation emphasis amount, a lightness correction amount, a γ value, and the like from a terminal using a keyboard. Examples of the storage unit 6 include an HDD and a non-volatile memory.

分類属性指定部4の一例として、図2に示すような画面を用いてオペレータが指定するという方法がある。図示の分類属性指定画面31は、入力画像表示領域32と、注目領域指定33と、照明指定34と、被写体指定35とからなる。注目領域指定33では、その画像の、どの領域に重点をおいて補正処理を行うべきかが指定される。照明指定34では、その画像がどのような環境下で撮影されたかが指定される。被写体指定33では、その画像における被写体の種別が指定される。これらの分類属性(33,34,35)は、補正後の画像品質に及ぼす物理的および心理的な要因を反映したものである。   As an example of the classification attribute specifying unit 4, there is a method in which an operator specifies using a screen as shown in FIG. The illustrated classification attribute designation screen 31 includes an input image display area 32, an attention area designation 33, an illumination designation 34, and a subject designation 35. In the attention area designation 33, it is designated which area of the image is to be corrected. In the lighting designation 34, it is designated under which environment the image is taken. In subject designation 33, the type of subject in the image is designated. These classification attributes (33, 34, 35) reflect physical and psychological factors affecting the image quality after correction.

上記の分類属性に関し、まず、注目領域指定33について説明する。人間は、対象となる入力画像において、注目する領域だけを重点的に見るものと考えられる。例えば、中心に人物が写っており且つ背景が単調な風景という画像の場合、人物にのみに注目することが多い。この場合、背景の色が多少悪くても視覚的にはほとんど影響はなく、中央の人物領域の画質が、画像の総合的な品質を決定する要因となる。このような、人間の「注目する」という心理的活動についての情報を、分類属性の一つとして付与することにより、最適な画像補正量を算出することが可能となる。   Regarding the above classification attribute, first, the attention area designation 33 will be described. It is considered that humans focus on only the region of interest in the target input image. For example, in the case of an image of a landscape with a person in the center and a monotonous background, attention is often focused only on the person. In this case, even if the background color is somewhat bad, there is almost no visual effect, and the image quality of the central person area is a factor that determines the overall quality of the image. By assigning such information about a person's “attention” psychological activity as one of the classification attributes, an optimal image correction amount can be calculated.

図3に注目領域指定33の具体例を示す。第1の注目領域指定41は、画面全体を指定するものである。これは、その画面の全体を均等に補正するよう指示することを示す。第2の注目領域指定42は、画像の中心付近を指定するものである。これは、その画像の中心付近を重点的に補正するよう指示することを示す。第3の注目領域指定43は、画像に映されている人物の頭部付近を指定するものである。これは、人物領域を重点的に補正するよう指示することを示す。   FIG. 3 shows a specific example of the attention area designation 33. The first attention area designation 41 designates the entire screen. This indicates that an instruction is given to correct the entire screen equally. The second attention area designation 42 designates the vicinity of the center of the image. This indicates that an instruction is given to intensively correct the vicinity of the center of the image. The third attention area designation 43 designates the vicinity of the head of the person shown in the image. This indicates that the person area is instructed to be corrected mainly.

次に、照明指定34および被写体指定35について説明する。画像の補正量は、注目領域(図3)に、何が、どのような環境で撮影されているのかに影響される。人間が観測する物体色は、照明の分光分布と、物体の反射率と、人間の視覚感度分布との積分によって算出される。人間の視覚感度が一定であるとすると、物体色は、照明光と物体の反射率とによって決まると考えられている。しかしながら、デジタルカメラによる撮影には、さらに、CCDの分光特性、ガンマ補正、AWB影響等が加わることから、人間の見た目と差分が生ずる。そこで、分類属性として、照明及び被写体の種類を指定することで、補正量の学習に一定の制約が与えられ、これにより最適値算出を容易にすることができる。   Next, the illumination designation 34 and the subject designation 35 will be described. The correction amount of the image is affected by what is captured in the environment of interest (FIG. 3) and in what environment. The object color observed by a human is calculated by integrating the spectral distribution of illumination, the reflectance of the object, and the human visual sensitivity distribution. If the human visual sensitivity is constant, the object color is considered to be determined by the illumination light and the reflectance of the object. However, photographing with a digital camera further adds CCD spectral characteristics, gamma correction, AWB influence, and the like, and thus there is a difference from human appearance. Therefore, by specifying the type of the illumination and the subject as the classification attribute, a certain restriction is given to the learning of the correction amount, thereby making it possible to easily calculate the optimum value.

図4に、照明指定(34)の際に用いるメニュー51を示す。図示のメニュー51には、「環境光」と、物体に照射されている「物体入射光」と、逆光・順光といった光の相互作用である「状態」の3種類がある。また、それぞれの下位層には、具体的な選択肢がメニュー形式で表示されている。照明指定(34)の一例として、オペレータが、入力画像に該当する項目をメニュー51から選択し、それを指示入力するという方法がある。   FIG. 4 shows a menu 51 used for specifying the illumination (34). In the illustrated menu 51, there are three types of “environment light”, “object incident light” irradiated on an object, and “state” which is an interaction of light such as backlight and forward light. Each lower layer displays specific options in a menu format. As an example of the illumination designation (34), there is a method in which the operator selects an item corresponding to the input image from the menu 51, and inputs the instruction.

図5に、被写体指定(35)の際に用いるメニュー61を示す。図示のメニュー61は、「人物」、「自然物」、「人工物」の3種類の項目がある。それぞれの下位層には、選択肢としての「顔」、「花」、「自動車」といった具体的な物体名がメニュー形式で表示されている。被写体指定(35)の一例として、オペレータが、入力画像に該当する項目をメニュー61から選択し、それを指示入力するという方法がある。   FIG. 5 shows a menu 61 used for subject designation (35). The illustrated menu 61 has three types of items, “person”, “natural object”, and “artificial object”. In each lower layer, specific object names such as “face”, “flower”, and “car” as options are displayed in a menu format. As an example of the subject designation (35), there is a method in which the operator selects an item corresponding to the input image from the menu 61 and inputs the instruction.

図1の特徴抽出部5の一例としては、画像のRGB値のヒストグラムを作成し、それぞれの最大値、最小値、平均値を抽出するという方法がある。また、図6に示すように、画像を複数の部分領域に分割してもよい。すなわち、画像の部分領域からヒストグラム81を作成し、各部分領域におけるRGBの最大値、最小値、平均値や、部分領域における彩度の最大値、最小値、平均値や、部分領域における輝度の最大値、最小値、平均値などを抽出して、それらを特徴量とする方法である。   As an example of the feature extraction unit 5 in FIG. 1, there is a method of creating a histogram of RGB values of an image and extracting the maximum value, minimum value, and average value of each. Further, as shown in FIG. 6, the image may be divided into a plurality of partial areas. That is, a histogram 81 is created from the partial areas of the image, and the RGB maximum, minimum, and average values in each partial area, and the maximum, minimum, and average values of saturation in the partial areas and the luminance in the partial areas are displayed. In this method, the maximum value, minimum value, average value, etc. are extracted and used as feature amounts.

分類係数学習部7は、ニューラルネットワークにより、画像補正の傾向が類似する入力画像を分類するための分類係数を学習する。なお、この分類係数を用いた実際の分類処理は、後段の自動分類部8により行われる。入力画像に対し、補正の傾向が類似すると思われるカテゴリとして、例えば、風景、人物、人工物、花、夜景などがある。分類係数学習部7は、分類係数の学習の前に、分類属性指定部4によって指定された項目を用いて、入力画像に教師カテゴリ番号を付与する。   The classification coefficient learning unit 7 learns a classification coefficient for classifying input images having similar image correction tendencies using a neural network. The actual classification process using this classification coefficient is performed by the automatic classification unit 8 at the subsequent stage. Examples of categories in which the correction tendency seems to be similar to the input image include landscapes, people, artifacts, flowers, and night views. The classification coefficient learning unit 7 assigns a teacher category number to the input image using the item specified by the classification attribute specifying unit 4 before learning the classification coefficient.

教師カテゴリ番号とは、上記の分類係数を学習する際の教師データとなるカテゴリの番号である。教師カテゴリ番号は、分類属性指定の項目(図3〜図5)の一部あるいは全てを使って、あらかじめ決められた規則に従って付与される。   The teacher category number is a number of a category that becomes teacher data when learning the classification coefficient. The teacher category number is assigned according to a predetermined rule using a part or all of the classification attribute designation items (FIGS. 3 to 5).

教師カテゴリ番号を付与する方法の一例として、照明指定メニュー51(図4)の「環境光」及び「状態」についての選択結果を利用するという方法がある。この場合は、「(晴天、曇天、日陰、夜景、蛍光灯、タングステン、その他)×(順光、逆光)」により、14種類(7x2=14)のカテゴリが形成される。そして、入力画像に、「1」〜「14」のうちのいずれかの番号が付与される。さらに、同じ照明指定メニュー51における「物体入射光」の配下の7種類を加えた場合は、98種類(7x7x2=98)のカテゴリが形成されることになる。   As an example of a method of assigning a teacher category number, there is a method of using a selection result for “ambient light” and “state” in the illumination designation menu 51 (FIG. 4). In this case, 14 types (7 × 2 = 14) of categories are formed by “(clear sky, cloudy, shade, night view, fluorescent lamp, tungsten, etc.) × (forward light, backlight)”. Then, any number of “1” to “14” is assigned to the input image. Furthermore, when seven types under the “object incident light” in the same illumination designation menu 51 are added, 98 types (7 × 7 × 2 = 98) categories are formed.

上記の例は、カテゴリの形成に照明指定(34)を利用したものであったが、この他に、注目領域指定(33)や被写体指定(35)をそれぞれ単独で、あるいは、照明指定を含めた組み合わせで利用することもできる。なお、カテゴリ数を増やしすぎると、訓練データ、すなわち入力データと教師データとの組み合わせが大量に必要となる。よって、例えば、照明指定および被写体指定をそれぞれ4種類程度用いるのが実用的である。   In the above example, the lighting specification (34) was used to form the category, but in addition to this, the attention area specification (33) and the subject specification (35) were each independently or included the lighting specification. It can also be used in combination. If the number of categories is increased too much, a large amount of training data, that is, a combination of input data and teacher data is required. Therefore, for example, it is practical to use about four types of illumination designation and subject designation.

図7に、カテゴリの構成例を示す。図示のカテゴリ番号リスト91は、カテゴリの形成に照明指定(34)と被写体指定(35)との組み合わせを用いたものである。例えば、照明として「屋外」が指定され、被写体として「夜景」が指定された入力画像に対しては、教師カテゴリ番号「3」が付与される。   FIG. 7 shows a configuration example of categories. The category number list 91 shown in the figure uses a combination of illumination designation (34) and subject designation (35) for forming a category. For example, a teacher category number “3” is assigned to an input image in which “outdoor” is designated as the illumination and “night view” is designated as the subject.

図1の分類係数学習部7を実現する方法としては、例えば、単層パーセプトロン(Single-layer Perceptron)、多層パーセプトロン(Multi-layer Perceptron)、RBFネットワーク(Radical Basis Function Network)といったニューラルネットワークの係数を学習するという方法がある。   As a method for realizing the classification coefficient learning unit 7 in FIG. 1, for example, the coefficients of a neural network such as a single-layer perceptron, a multi-layer perceptron, and an RBF network (Radical Basis Function Network) are used. There is a way to learn.

単層パーセプトロンについて説明する。単層パーセプトロンは、次の式(1)によって判別を行うニューラルネットワークである。   A single layer perceptron will be described. The single-layer perceptron is a neural network that performs discrimination according to the following equation (1).

Figure 2009151350
式(1)において、「xi」(i=1,2,…,n)はn次元の特徴量を表し、「ai」(i=1,2, …,n)は係数を表し、「y」は推定量を表す。通常、ニューラルネットワークのモデルでは、係数「ai」の他にオフセット値「a0」が必要であるが、値が常に「1」である特徴量を「xi」に含めることにより、上記の式(1)を、オフセット値を含むものとして取り扱うことができる。また、関数U(x)は、出力関数と呼ばれ、例えば、しきい値t以上の場合は「1」を出力し、t未満の場合には「−1」を出力する関数である。
Figure 2009151350
In Expression (1), “x i ” (i = 1, 2,..., N) represents an n-dimensional feature quantity, “a i ” (i = 1, 2,..., N) represents a coefficient, “Y” represents an estimated amount. Normally, a neural network model requires an offset value “a 0 ” in addition to the coefficient “a i ”. However, by including a feature value whose value is always “1” in “x i ” Equation (1) can be treated as including an offset value. The function U (x) is called an output function. For example, the function U (x) outputs “1” when it is equal to or greater than the threshold value t, and outputs “−1” when it is less than t.

分類係数学習部7における学習処理において、式(1)の「y」には入力画像に対する教師カテゴリ番号を与える。そして、「xi」は入力画像のn次元の特徴量である。分類係数学習部7における学習とは、すなわち、複数の入力画像の「xi」(特徴量)及び「y」(教師カテゴリ番号)の組み合わせを基に、分類係数「ai」を求めることを指す。 In the learning process in the classification coefficient learning unit 7, the teacher category number for the input image is given to “y” in equation (1). “X i ” is an n-dimensional feature amount of the input image. The learning in the classification coefficient learning unit 7 is to obtain the classification coefficient “a i ” based on a combination of “x i ” (feature amount) and “y” (teacher category number) of a plurality of input images. Point to.

ここで、関数U(x)を「U(x)=x」と考えた場合、式(1)は線形判別関数である。これを行列形式で表すと式(2)のようになる。   Here, when the function U (x) is considered as “U (x) = x”, Expression (1) is a linear discriminant function. This can be expressed in matrix form as shown in equation (2).

Figure 2009151350
式(2)において、行列「X」は、複数の入力画像から得られた特徴量「xi」の集合を表す。行列「Y」は、それら入力画像に対応する「y」の集合を表す。ベクトル「a」は、係数「ai」を表す。これを解くと、次の式(3)の行列演算によって係数「ai」を求めることができる。
Figure 2009151350
In Equation (2), the matrix “X” represents a set of feature quantities “x i ” obtained from a plurality of input images. The matrix “Y” represents a set of “y” corresponding to the input images. The vector “a” represents the coefficient “a i ”. When this is solved, the coefficient “a i ” can be obtained by the matrix operation of the following equation (3).

Figure 2009151350
式(3)により求められた係数「a」を用いて式(3)の演算を行うことで、後述の画像分類処理や、補正量の推定を行うことができる。
Figure 2009151350
By performing the calculation of Expression (3) using the coefficient “a” obtained by Expression (3), it is possible to perform image classification processing, which will be described later, and estimation of the correction amount.

多層パーセプトロンについて説明する。図8に、3層の多層パーセプトロンである3層ニューラルネットワーク71を示す。3層ニューラルネットワーク71は、特徴量「xi」を入力層、分類カテゴリを出力層とし、中間層として1層を持つニューラルネットワークである。3層ニューラルネットワークは、次の式(4)によって表すことができる。 A multilayer perceptron will be described. FIG. 8 shows a three-layer neural network 71 that is a three-layer multilayer perceptron. The three-layer neural network 71 is a neural network having a feature amount “x i ” as an input layer, a classification category as an output layer, and one layer as an intermediate layer. The three-layer neural network can be expressed by the following equation (4).

Figure 2009151350
式(4)において、「xi」(i=1,2,…,n)はn次元の特徴量を表し、「ai」(i=1,2,…,n)及び「bj」(j=1,2,…,m)は係数を表し、「y」は推定量を表す。関数f(x)としては、次の式(5)のシグモイド(Sigmoid)関数を利用することができる。
Figure 2009151350
In Expression (4), “x i ” (i = 1, 2,..., N) represents an n-dimensional feature quantity, and “a i ” (i = 1, 2,..., N) and “b j ” (J = 1, 2,..., M) represents a coefficient, and “y” represents an estimated amount. As the function f (x), the sigmoid function of the following equation (5) can be used.

Figure 2009151350
なお、3層ニューラルネットワーク71のような多層パーセプトロンは、一般に、バックプロパゲーション法(Backpropergation:誤差逆伝播法)という逐次計算によって係数学習を行うことができる。
Figure 2009151350
In general, a multilayer perceptron such as the three-layer neural network 71 can perform coefficient learning by a sequential calculation called a back propagation method (Backpropergation).

RBFネットワークについて説明する。RBFネットワークは、次の式(6)で表すことができる。   The RBF network will be described. The RBF network can be expressed by the following equation (6).

Figure 2009151350
式(6)において、「xi」(i=1,2,…,n)はn次元の特徴量を表し、「ci」(i=1,2,…,m)は係数を表し、「zj」(j=1,2,…,m)は中間ユニットを表す。関数「φ」には、式(7)が利用される。
Figure 2009151350
In Expression (6), “x i ” (i = 1, 2,..., N) represents an n-dimensional feature quantity, “c i ” (i = 1, 2,..., M) represents a coefficient, “Z j ” (j = 1, 2,..., M) represents an intermediate unit. Expression (7) is used for the function “φ”.

Figure 2009151350
RBFネットワークは、中間ユニット「zj」として、訓練サンプル近傍の値を採用することができる。従って、「zj」を訓練サンプルの分布に応じて予め決めておくことができ、極端な場合は全ての入力特徴量を「zj」として用いることもできるので、実際に推定するのは、係数「cj」(j=1,2,…,m)だけである。
Figure 2009151350
The RBF network can employ values near the training sample as the intermediate unit “z j ”. Therefore, “z j ” can be determined in advance according to the distribution of the training sample, and in the extreme case, all input feature values can be used as “z j ”. Only the coefficient “c j ” (j = 1, 2,..., M).

また、式(6)において、関数U(x)を「U(x)=x」と考えた場合、係数「cj」は、式(8)により得ることができる。

Figure 2009151350
Further, in the equation (6), when the function U (x) is considered as “U (x) = x”, the coefficient “c j ” can be obtained by the equation (8).
Figure 2009151350

式(8)において、行列「S」は、中間ユニット出力「sj」の集合を表す。行列「Y」は、サンプルに対応する推定量「y」の集合を表す。ベクトル「c」は、係数「cj」(j=1,2,…,m)を表す。これを解くと、次の式(9)の行列演算によって係数「cj」を求めることができる。 In equation (8), the matrix “S” represents the set of intermediate unit outputs “s j ”. The matrix “Y” represents a set of estimators “y” corresponding to the samples. The vector “c” represents the coefficient “c j ” (j = 1, 2,..., M). When this is solved, the coefficient “c j ” can be obtained by the matrix operation of the following equation (9).

Figure 2009151350
なお、分類係数学習部7における学習において、オペレータから指定される分類属性(図2)の情報を、入力画像の特徴量に対する重み付けに利用することができる。例えば、分類属性のうちの注目領域に対しては、照明や被写体といった他の属性の2倍の重みをつけて学習するというものである。
Figure 2009151350
In the learning by the classification coefficient learning unit 7, the classification attribute information (FIG. 2) specified by the operator can be used for weighting the feature amount of the input image. For example, the attention area of the classification attribute is learned with a weight twice that of other attributes such as illumination and subject.

図1の自動分類部8は、分類係数学習部7で得られた分類係数を用いたニューラルネットワークの学習処理により、入力画像をカテゴリに分類する。この自動分類部8でのニューラルネットワークの例として、単層パーセプトロン、多層パーセプトロン、RBFネットワークなどがある。自動分類部8に適用するニューラルネットワークには、分類係数学習部7と同じ形式のものを用いる。これら3種類のニューラルネットワークによる自動分類の演算は、入力画像の特徴量を用いて、前述の式(1)または式(4)あるいは式(6)によって行うことができる。   The automatic classification unit 8 in FIG. 1 classifies input images into categories by a neural network learning process using the classification coefficient obtained by the classification coefficient learning unit 7. Examples of the neural network in the automatic classification unit 8 include a single layer perceptron, a multilayer perceptron, and an RBF network. As the neural network applied to the automatic classification unit 8, the same type as the classification coefficient learning unit 7 is used. The calculation of automatic classification by these three types of neural networks can be performed by the above-described equation (1), equation (4), or equation (6) using the feature amount of the input image.

なお、自動分類部8による入力画像の分類結果、すなわち入力画像に付与されるカテゴリ番号は、必ずしも、指定された分類属性に基づく教師カテゴリ番号(図7)と一致するとは限らない。なぜなら、分類学習に用いる分類係数が、式(1)のような数学モデル(ニューラルネットワーク)から得られる値だからである。   Note that the classification result of the input image by the automatic classification unit 8, that is, the category number given to the input image does not necessarily match the teacher category number (FIG. 7) based on the designated classification attribute. This is because the classification coefficient used for classification learning is a value obtained from a mathematical model (neural network) such as Equation (1).

図1のカテゴリ別係数学習部9は、分類されたカテゴリ別に、カテゴリN係数学習部10により補正量を学習し、カテゴリ別に最適な補正量係数を算出する。カテゴリ別係数学習部9での学習方法の一例として、分類係数学習部7で用いたニューラルネットワークを用いることができる。カテゴリ別係数学習部9で実行される学習処理において、「xi」は入力画像のn次元の特徴量であり、「y」は入力画像に対してオペレータから指定された補正量である。 The category-specific coefficient learning unit 9 in FIG. 1 learns the correction amount by the category N coefficient learning unit 10 for each classified category, and calculates the optimal correction amount coefficient for each category. As an example of the learning method in the category-specific coefficient learning unit 9, the neural network used in the classification coefficient learning unit 7 can be used. In the learning process executed by the category-specific coefficient learning unit 9, “x i ” is an n-dimensional feature amount of the input image, and “y” is a correction amount designated by the operator for the input image.

補正量推定部11は、カテゴリ別係数学習部9で得られる補正量係数を用いた学習処理により、入力画像に適用すべき最適な補正量を推定する。補正量推定部11の学習処理にも、分類係数学習部7でのニューラルネットワークを用いることができる。この補正量推定部11により得られた補正量を画像補正部1に与えることにより、補正結果の画像がモニタ3に表示される。オペレータは、モニタ3の画像を閲覧することにより、補正精度を確認することができる。   The correction amount estimation unit 11 estimates an optimal correction amount to be applied to the input image by a learning process using the correction amount coefficient obtained by the category-specific coefficient learning unit 9. The neural network in the classification coefficient learning unit 7 can also be used for the learning process of the correction amount estimation unit 11. By giving the correction amount obtained by the correction amount estimation unit 11 to the image correction unit 1, an image of the correction result is displayed on the monitor 3. The operator can check the correction accuracy by viewing the image on the monitor 3.

図9に示すフローチャートを参照して、上記構成による画像補正装置101の一連の動作を説明する。まず、補正対象の画像が入力されると(ステップS1)、その入力画像が画像補正部1および特徴抽出部5へ供給される。特徴抽出部5は、入力画像の特徴量を算出し、結果を画像IDと共に蓄積部6へ格納する(ステップS2)。   A series of operations of the image correction apparatus 101 configured as described above will be described with reference to a flowchart shown in FIG. First, when an image to be corrected is input (step S1), the input image is supplied to the image correction unit 1 and the feature extraction unit 5. The feature extraction unit 5 calculates the feature amount of the input image, and stores the result together with the image ID in the storage unit 6 (step S2).

一方、上記の入力画像を画像補正部1がモニタ3に出力すると、それを閲覧したオペレータが、所望の補正量を指定すると共に、図2のような画面上で分類属性を指定する。指定された情報は、補正量指定部2および分類属性指定部4により入力され、蓄積部6に格納される(ステップS3)。蓄積部6では、格納された特徴量や分類属性が、それぞれに対応する入力画像の識別情報(ID)と共に保存される。   On the other hand, when the image correction unit 1 outputs the input image to the monitor 3, the operator who has viewed the input image specifies a desired correction amount and also specifies a classification attribute on the screen as shown in FIG. The designated information is input by the correction amount designation unit 2 and the classification attribute designation unit 4 and stored in the storage unit 6 (step S3). In the storage unit 6, the stored feature amounts and classification attributes are stored together with the identification information (ID) of the corresponding input image.

分類係数学習部7は、蓄積部6から入力画像の特徴量と分類属性とを読み出し、読み出した分類属性に対応する教師カテゴリ番号を、リスト91(図7)のような規定の情報に基づき決定する。そして、決定した教師カテゴリ番号と、読み出した特徴量とをニューラルネットワークに与えることにより、分類係数を算出する(ステップS4)。   The classification coefficient learning unit 7 reads the feature amount and the classification attribute of the input image from the storage unit 6, and determines the teacher category number corresponding to the read classification attribute based on the prescribed information such as the list 91 (FIG. 7). To do. Then, the classification coefficient is calculated by giving the determined teacher category number and the read feature quantity to the neural network (step S4).

自動分類部8は、分類係数学習部7が算出した分類係数をニューラルネットワークに与えることにより、入力画像をカテゴリに分類する(ステップS5)。これにより、入力画像にカテゴリ番号が付与される。   The automatic classification unit 8 classifies the input image into categories by giving the neural network the classification coefficient calculated by the classification coefficient learning unit 7 (step S5). Thereby, a category number is assigned to the input image.

カテゴリ別係数学習部9は、入力画像の特徴量と、オペレータから指定された補正量と、自動分類部8が算出したカテゴリ番号とを認識すると、そのカテゴリ番号(N)に対応するカテゴリN係数学習部10が、ニューラルネットワークにより補正量係数を算出する(ステップS6)。   When the category-specific coefficient learning unit 9 recognizes the feature amount of the input image, the correction amount specified by the operator, and the category number calculated by the automatic classification unit 8, the category N coefficient corresponding to the category number (N) The learning unit 10 calculates a correction amount coefficient using a neural network (step S6).

補正量推定部11は、カテゴリN係数学習部10からの補正量係数をニューラルネットワークに与えることにより、入力画像に適用すべき最適な補正量を推定する(ステップS7)。   The correction amount estimation unit 11 estimates the optimum correction amount to be applied to the input image by giving the correction amount coefficient from the category N coefficient learning unit 10 to the neural network (step S7).

画像補正部1は、推定された補正量を用いて、対応する入力画像を補正し(ステップS8)、その画像をモニタ3へ供給する。これにより、モニタ3に、補正結果となる画像が表示され(ステップS9)、オペレータがその画像を確認する。   The image correction unit 1 corrects the corresponding input image using the estimated correction amount (step S8), and supplies the image to the monitor 3. As a result, an image as a correction result is displayed on the monitor 3 (step S9), and the operator confirms the image.

このように、本実施形態では、入力画像に関しオペレータから指定された情報がニューラルネットワークの学習処理に反映される。これにより、オペレータが指定した情報に見合った補正量を求めることができる。また、入力画像を、補正の傾向が類似するカテゴリに分類し、それらのカテゴリ別に補正量係数を学習するため、学習すべき分布形状が単純化される。よって、1つの補正量係数を得るための演算量が抑えられるので、画像の補正処理を効率化することができる。   Thus, in this embodiment, information specified by the operator regarding the input image is reflected in the learning process of the neural network. Thereby, the correction amount suitable for the information designated by the operator can be obtained. In addition, since the input image is classified into categories with similar correction tendencies and the correction amount coefficient is learned for each category, the distribution shape to be learned is simplified. Accordingly, the amount of calculation for obtaining one correction amount coefficient can be suppressed, so that the image correction processing can be made more efficient.

次に、本発明の他の実施形態について図面を参照して詳細に説明する。図10に、本実施形態における画像補正装置102の構成を示す。本実施形態において、前述の実施形態(図1)との構成上の差異は、補正量分布解析部12が付加された点である。補正量分布解析部12は、各カテゴリについて補正量推定部11から得られる補正量からその分布を解析し、解析の結果に基づいて、カテゴリの統合または分離の要否を判定する。   Next, another embodiment of the present invention will be described in detail with reference to the drawings. FIG. 10 shows a configuration of the image correction apparatus 102 in the present embodiment. In the present embodiment, a structural difference from the above-described embodiment (FIG. 1) is that a correction amount distribution analysis unit 12 is added. The correction amount distribution analysis unit 12 analyzes the distribution from the correction amount obtained from the correction amount estimation unit 11 for each category, and determines whether or not the categories need to be integrated or separated based on the analysis result.

図11に示すフローチャートを参照して、本実施形態の動作を説明する。ここでは、主に、前述の実施形態での動作(図9)との差異を述べる。   The operation of this embodiment will be described with reference to the flowchart shown in FIG. Here, the difference from the operation (FIG. 9) in the above-described embodiment will be mainly described.

補正量分布解析部12は、補正量推定部11から得られた補正量について、カテゴリ別に平均値を求め、それらをカテゴリ間で比較する(ステップS11)。比較の結果、補正量の平均値が近似するカテゴリの組み合わせが検出された場合(ステップS12:Yes)、その組み合わせのカテゴリを統合すべきと判定する(ステップS13)。なお、統合されるカテゴリ数は、2つに限らず、3つ以上であってもよい。   The correction amount distribution analysis unit 12 obtains an average value for each category of the correction amounts obtained from the correction amount estimation unit 11, and compares them between the categories (step S11). As a result of the comparison, when a combination of categories that approximate the average value of the correction amounts is detected (step S12: Yes), it is determined that the categories of the combination should be integrated (step S13). Note that the number of categories to be integrated is not limited to two, and may be three or more.

また、補正量分布解析部12は、各カテゴリにおける補正量の分布幅を求め、それらを規定の分布幅と比較する(ステップS14)。比較の結果、規定幅を上回る分布幅を示すカテゴリが検出された場合(ステップS15:Yes)、そのカテゴリを複数に分割すべきと判断する(ステップS16)。分割数は、2分割といった固定値に限らず、算出された分布幅の大きさに応じて変動してもよい。後者の場合は、変動のための閾値を予め設定しておく。   Further, the correction amount distribution analysis unit 12 obtains the distribution width of the correction amount in each category, and compares them with the specified distribution width (step S14). As a result of the comparison, if a category showing a distribution width exceeding the specified width is detected (step S15: Yes), it is determined that the category should be divided into a plurality of categories (step S16). The number of divisions is not limited to a fixed value such as two divisions, and may vary according to the calculated distribution width. In the latter case, a threshold for fluctuation is set in advance.

一方、補正量の平均値が近似するカテゴリの組み合わせが検出されず(ステップS12:No)、規定幅を上回る分布幅のカテゴリも検出されない場合(ステップS15:No)、現時点ではカテゴリの統合または分割が不要であると判断する(ステップS17)。   On the other hand, if a combination of categories that approximate the average value of the correction amount is not detected (step S12: No), and a category with a distribution width that exceeds the specified width is not detected (step S15: No), the categories are currently combined or divided. Is determined to be unnecessary (step S17).

カテゴリの統合または分割が発生する場合、補正量分布解析部12は、分類係数学習部7に対し、教師カテゴリ番号の統合または分割を指示する。また、入力画像に付与すべき新たな教師カテゴリ番号を算出し(ステップS18)、それを分類係数学習部7に指定する。   When category integration or division occurs, the correction amount distribution analysis unit 12 instructs the classification coefficient learning unit 7 to integrate or divide teacher category numbers. Also, a new teacher category number to be assigned to the input image is calculated (step S18), and designated to the classification coefficient learning unit 7.

新たな教師カテゴリ番号の算出方法には、例えば、一般的に知られているK-means法などのクラスタ分析法を用いることができる。K-means法によれば、補正量の分布から自動的にK個のクラスタに分類することができる。このK-means法を用いる場合、補正量分布解析部12は、クラスタ分析で得られたクラスタ番号を新たな教師カテゴリ番号として分類係数学習部7に指示する。   As a new teacher category number calculation method, for example, a generally known cluster analysis method such as a K-means method can be used. According to the K-means method, it is possible to automatically classify into K clusters from the correction amount distribution. When this K-means method is used, the correction amount distribution analysis unit 12 instructs the classification coefficient learning unit 7 as a new teacher category number using the cluster number obtained by the cluster analysis.

分類係数学習部7は、補正量分布解析部12から上記指示を受けると、入力画像に新たな教師カテゴリ番号を付与する。そして、新たな教師カテゴリ番号を用いて、前述の実施形態と同様な学習処理(図9:S4)により、新たな分類係数を算出する(ステップS19)。   Upon receiving the above instruction from the correction amount distribution analysis unit 12, the classification coefficient learning unit 7 gives a new teacher category number to the input image. Then, using the new teacher category number, a new classification coefficient is calculated by the same learning process (FIG. 9: S4) as in the previous embodiment (step S19).

自動分類部8は、分類係数学習部7からの新たな分類係数を用いて、前述の実施形態と同様な学習処理(図9:S5)により、入力画像をカテゴリ分けする(ステップS20)。分類係数が変更されたことにより、入力画像の分類結果も変わる。そのため、カテゴリ別係数学習部9が、自動分類部8からの新たな分類結果(カテゴリ番号N)を用いて、前述の実施形態と同様な学習処理(図9:S6)により、補正量係数を算出する(ステップS21)。このようにして、補正量分布解析部12が、カテゴリの統合または分割が不要と判断するまで(ステップS17)、分類係数学習と補正量係数学習とを繰り返す。   The automatic classification unit 8 uses the new classification coefficient from the classification coefficient learning unit 7 to categorize the input image by the learning process (FIG. 9: S5) similar to the above-described embodiment (step S20). When the classification coefficient is changed, the classification result of the input image also changes. For this reason, the category-specific coefficient learning unit 9 uses the new classification result (category number N) from the automatic classification unit 8 to calculate the correction amount coefficient by a learning process (FIG. 9: S6) similar to the above-described embodiment. Calculate (step S21). In this way, the classification coefficient learning and the correction amount coefficient learning are repeated until the correction amount distribution analysis unit 12 determines that the integration or division of the categories is unnecessary (step S17).

本実施形態によれば、分類に用いるカテゴリを、推定補正量の学習結果を用いて修正することができるので、補正量の推定の精度を一層高めることができる。   According to the present embodiment, since the category used for classification can be corrected using the learning result of the estimated correction amount, the accuracy of the correction amount estimation can be further improved.

本発明は、上記の各実施形態に限らず、それらの動作に対応したコンピュータプログラム、あるいは、そのプログラムを記憶した記録媒体として実施してもよい。   The present invention is not limited to the above embodiments, and may be implemented as a computer program corresponding to these operations or a recording medium storing the program.

本発明の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of this invention. 本発明の実施形態に係る分類属性の指定に関する説明図である。It is explanatory drawing regarding designation | designated of the classification attribute which concerns on embodiment of this invention. 本発明の実施形態に係る注目領域指定に関する説明図である。It is explanatory drawing regarding attention area specification which concerns on embodiment of this invention. 本発明の実施形態に係る照明指定に関する説明図である。It is explanatory drawing regarding the illumination designation | designated which concerns on embodiment of this invention. 本発明の実施形態に係る被写体指定に関する説明図である。It is explanatory drawing regarding subject specification which concerns on embodiment of this invention. 本発明の実施形態に係る画像特徴量の抽出に関する説明図である。It is explanatory drawing regarding extraction of the image feature-value which concerns on embodiment of this invention. 本発明の実施形態に係る教師カテゴリの付与に関する説明図である。It is explanatory drawing regarding provision of the teacher category which concerns on embodiment of this invention. 本発明の実施形態に係る3層ニューラルネットワークに関する説明図である。It is explanatory drawing regarding the 3 layer neural network which concerns on embodiment of this invention. 本発明の実施形態の動作に関するフローチャートである。It is a flowchart regarding operation | movement of embodiment of this invention. 本発明の他の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of this invention. 本発明の他の実施形態の動作に関するフローチャートである。It is a flowchart regarding operation | movement of other embodiment of this invention. 一般的な画像補正装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a general image correction apparatus.

符号の説明Explanation of symbols

101,102 画像補正装置
1 画像補正部
2 補正量指定部
3 モニタ
4 分類属性指定部
5 特徴抽出部
6 蓄積部
7 分類係数学習部
8 自動分類部
9 カテゴリ別係数学習部
10 カテゴリN係数学習部
11 補正量推定部
12 補正量分布解析部
101,102 Image correction device
1 Image correction section
2 Correction amount specification section
3 Monitor
4 Classification attribute specification part
5 Feature extraction unit
6 Accumulator
7 Classification coefficient learning unit
8 Automatic classification part
9 Coefficient learning section by category
10 Category N coefficient learning section
11 Correction amount estimation unit
12 Correction amount distribution analysis unit

Claims (11)

入力画像の特徴量を算出し、
前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出し、
前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類し、
前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出し、
前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定することを特徴とする画像補正方法。
Calculate the feature value of the input image,
By a neural network learning process using the feature amount and the classification attribute specified for the input image, a classification coefficient for classifying the input image is calculated,
The input image is classified into categories by a neural network learning process using the classification coefficient,
A neural network learning process using the feature amount and the correction amount specified for the input image calculates a correction amount coefficient of the input image classified into the category,
An image correction method, wherein a correction amount to be applied to the input image is estimated by a neural network learning process using the correction amount coefficient.
さらに、推定した補正量に関するカテゴリ内の平均値を複数のカテゴリ間で比較し、平均値が近似する複数のカテゴリを統合することを特徴とする請求項1記載の画像補正方法。   The image correction method according to claim 1, further comprising: comparing an average value in a category related to the estimated correction amount between a plurality of categories, and integrating a plurality of categories that approximate the average value. さらに、推定した補正量に関するカテゴリ内の分布幅を算出し、前記分布幅が規定幅を超えるカテゴリを複数のカテゴリに分割することを特徴とする請求項1又は2記載の画像補正方法。   The image correction method according to claim 1, further comprising: calculating a distribution width within a category related to the estimated correction amount, and dividing a category in which the distribution width exceeds a specified width into a plurality of categories. 前記分類属性が、前記入力画像に対する注目領域、照明種別および被写体種別のうちの一部または全てについて指定された情報であることを特徴とする請求項1乃至3のいずれか1項に記載の画像補正方法。   The image according to any one of claims 1 to 3, wherein the classification attribute is information specified for some or all of a region of interest, an illumination type, and a subject type for the input image. Correction method. 前記各ニューラルネットワークが、単層パーセプトロン、多層パーセプトロンおよびRBFパーセプトロンのいずれかであることを特徴とする請求項1乃至4のいずれか1項に記載の画像補正方法。   5. The image correction method according to claim 1, wherein each of the neural networks is any one of a single-layer perceptron, a multi-layer perceptron, and an RBF perceptron. 入力画像の特徴量を算出する手段と、
前記入力画像に関し分類属性および補正量を指定する手段と、
前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出する手段と、
前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類する手段と、
前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出する手段と、
前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定する手段とを備えることを特徴とする画像補正装置。
Means for calculating a feature amount of the input image;
Means for specifying a classification attribute and a correction amount for the input image;
Means for calculating a classification coefficient for classifying the input image by a learning process of a neural network using the feature quantity and a classification attribute designated for the input image;
Means for classifying the input image into categories by a neural network learning process using the classification coefficient;
Means for calculating a correction amount coefficient of the input image classified into the category by a learning process of a neural network using the feature amount and a correction amount specified for the input image;
An image correction apparatus comprising: means for estimating a correction amount to be applied to the input image by a neural network learning process using the correction amount coefficient.
さらに、推定した補正量に関するカテゴリ内の平均値を複数のカテゴリ間で比較し、平均値が近似する複数のカテゴリを統合する手段を備えることを特徴とする請求項6記載の画像補正装置。   7. The image correction apparatus according to claim 6, further comprising means for comparing an average value in a category relating to the estimated correction amount between a plurality of categories and integrating a plurality of categories whose average values approximate. さらに、推定した補正量に関するカテゴリ内の分布幅を算出し、前記分布幅が規定幅を超えるカテゴリを複数のカテゴリに分割する手段を備えることを特徴とする請求項6又は7記載の画像補正装置。   8. The image correction apparatus according to claim 6, further comprising means for calculating a distribution width within a category relating to the estimated correction amount and dividing the category having the distribution width exceeding a specified width into a plurality of categories. . 前記分類属性が、前記入力画像に対する注目領域、照明種別および被写体種別のうちの一部または全てについて指定された情報であることを特徴とする請求項6乃至8のいずれか1項に記載の画像補正装置。   The image according to any one of claims 6 to 8, wherein the classification attribute is information specified for some or all of a region of interest, an illumination type, and a subject type for the input image. Correction device. 前記各ニューラルネットワークが、単層パーセプトロン、多層パーセプトロンおよびRBFパーセプトロンのいずれかであることを特徴とする請求項6乃至9のいずれか1項に記載の画像補正装置。   The image correction apparatus according to claim 6, wherein each of the neural networks is any one of a single layer perceptron, a multilayer perceptron, and an RBF perceptron. コンピュータを請求項6乃至10のいずれか1項に記載の画像補正装置として機能させることを特徴とするプログラム。   A program for causing a computer to function as the image correction apparatus according to any one of claims 6 to 10.
JP2007326081A 2007-12-18 2007-12-18 Image correction method and an image correction device Active JP5104282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007326081A JP5104282B2 (en) 2007-12-18 2007-12-18 Image correction method and an image correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007326081A JP5104282B2 (en) 2007-12-18 2007-12-18 Image correction method and an image correction device

Publications (2)

Publication Number Publication Date
JP2009151350A true JP2009151350A (en) 2009-07-09
JP5104282B2 JP5104282B2 (en) 2012-12-19

Family

ID=40920475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007326081A Active JP5104282B2 (en) 2007-12-18 2007-12-18 Image correction method and an image correction device

Country Status (1)

Country Link
JP (1) JP5104282B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114176A (en) * 2017-12-26 2019-07-11 株式会社Preferred Networks Information processing apparatus, information processing program, and information processing method
US10491831B2 (en) 2018-03-05 2019-11-26 Jvckenwood Corporation Image pickup apparatus, image pickup method, and recording medium
WO2020075719A1 (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program
JP2020058800A (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing apparatus, image processing method and program
JPWO2019008935A1 (en) * 2017-07-05 2020-05-21 コニカミノルタ株式会社 Image processing apparatus, image processing method, and pathological diagnosis support system using the same
JP2020530920A (en) * 2018-07-27 2020-10-29 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Image lighting methods, devices, electronics and storage media
CN115437332A (en) * 2022-10-21 2022-12-06 山东电力工程咨询院有限公司 Optimization Method of Steam Turbine Operating Pressure Based on Data Completion
JPWO2022259323A1 (en) * 2021-06-07 2022-12-15

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04144361A (en) * 1990-10-04 1992-05-18 Dainippon Screen Mfg Co Ltd Method for correcting setup parameter determining characteristic and automatic setup device
JP2002222419A (en) * 2001-01-29 2002-08-09 Olympus Optical Co Ltd Image area dividing apparatus and method and recording medium on which processing program is recorded
JP2003018453A (en) * 2001-07-02 2003-01-17 Minolta Co Ltd Image processing unit, image quality control method, program and recording medium
JP2003060980A (en) * 2001-08-21 2003-02-28 Olympus Optical Co Ltd Image processing system
JP2006031440A (en) * 2004-07-16 2006-02-02 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus, image processing program and image processing system
JP2006259974A (en) * 2005-03-16 2006-09-28 Fuji Photo Film Co Ltd Image-processing method and device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04144361A (en) * 1990-10-04 1992-05-18 Dainippon Screen Mfg Co Ltd Method for correcting setup parameter determining characteristic and automatic setup device
JP2002222419A (en) * 2001-01-29 2002-08-09 Olympus Optical Co Ltd Image area dividing apparatus and method and recording medium on which processing program is recorded
JP2003018453A (en) * 2001-07-02 2003-01-17 Minolta Co Ltd Image processing unit, image quality control method, program and recording medium
JP2003060980A (en) * 2001-08-21 2003-02-28 Olympus Optical Co Ltd Image processing system
JP2006031440A (en) * 2004-07-16 2006-02-02 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus, image processing program and image processing system
JP2006259974A (en) * 2005-03-16 2006-09-28 Fuji Photo Film Co Ltd Image-processing method and device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019008935A1 (en) * 2017-07-05 2020-05-21 コニカミノルタ株式会社 Image processing apparatus, image processing method, and pathological diagnosis support system using the same
JP7215418B2 (en) 2017-07-05 2023-01-31 コニカミノルタ株式会社 Image processing apparatus, image processing method, and pathological diagnosis support system using the same
US11238268B2 (en) * 2017-07-05 2022-02-01 Konica Minolta, Inc. Image processing device, image processing method, and pathological diagnosis assistance system using same
JP7213616B2 (en) 2017-12-26 2023-01-27 株式会社Preferred Networks Information processing device, information processing program, and information processing method.
JP2019114176A (en) * 2017-12-26 2019-07-11 株式会社Preferred Networks Information processing apparatus, information processing program, and information processing method
US10491831B2 (en) 2018-03-05 2019-11-26 Jvckenwood Corporation Image pickup apparatus, image pickup method, and recording medium
US11455516B2 (en) 2018-07-27 2022-09-27 Shenzhen Sensetime Technology Co., Ltd. Image lighting methods and apparatuses, electronic devices, and storage media
JP2020530920A (en) * 2018-07-27 2020-10-29 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Image lighting methods, devices, electronics and storage media
WO2020075719A1 (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program
JP2020058800A (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing apparatus, image processing method and program
CN112822972A (en) * 2018-10-10 2021-05-18 佳能株式会社 Image processing apparatus, image processing method, and program
JP7250653B2 (en) 2018-10-10 2023-04-03 キヤノン株式会社 Image processing device, image processing method and program
US11935241B2 (en) 2018-10-10 2024-03-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable medium for improving image quality
JPWO2022259323A1 (en) * 2021-06-07 2022-12-15
WO2022259323A1 (en) * 2021-06-07 2022-12-15 三菱電機株式会社 Image processing device, image processing method, and image processing program
JP7496935B2 (en) 2021-06-07 2024-06-07 三菱電機株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
CN115437332A (en) * 2022-10-21 2022-12-06 山东电力工程咨询院有限公司 Optimization Method of Steam Turbine Operating Pressure Based on Data Completion

Also Published As

Publication number Publication date
JP5104282B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5104282B2 (en) Image correction method and an image correction device
Rahman et al. Retinex processing for automatic image enhancement
JP4519708B2 (en) Imaging apparatus and method, and program
Bychkovsky et al. Learning photographic global tonal adjustment with a database of input/output image pairs
US9292911B2 (en) Automatic image adjustment parameter correction
US8280179B2 (en) Image processing apparatus using the difference among scaled images as a layered image and method thereof
CN108898579A (en) A kind of image definition recognition methods, device and storage medium
US20070071316A1 (en) Image correcting method and image correcting system
US8666148B2 (en) Image adjustment
US12249047B2 (en) Methods and systems for denoising media using contextual information of the media
JP2013506198A (en) Estimating the aesthetic quality of digital images
US12198311B2 (en) Method and electronic device for managing artifacts of image
JP2005277981A (en) Selecting target images for image processing
CN109478316A (en) Real-time adaptive shadow and highlight enhancement
El Khoury et al. Color and sharpness assessment of single image dehazing
US20200327709A1 (en) System and method for rendering an image
US12307817B2 (en) Method and system for automatically capturing and processing an image of a user
JP2006031440A (en) Image processing method, image processing apparatus, image processing program and image processing system
JP2006301779A (en) Image processing system, image processing method, and image processing program
US20070127783A1 (en) Image processing apparatus, method and program for controlling flesh color of image
CN114255193A (en) Board card image enhancement method, device, equipment and readable storage medium
Serrano-Lozano et al. Namedcurves: Learned image enhancement via color naming
JP2003248825A (en) Image processing apparatus, image processing method, image processing program, and storage medium
CN116433920A (en) An image generation method, device and storage medium based on deep feature guidance
JP4359662B2 (en) Color image exposure compensation method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Ref document number: 5104282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3