JP2009151350A - Image correction method and device - Google Patents
Image correction method and device Download PDFInfo
- Publication number
- JP2009151350A JP2009151350A JP2007326081A JP2007326081A JP2009151350A JP 2009151350 A JP2009151350 A JP 2009151350A JP 2007326081 A JP2007326081 A JP 2007326081A JP 2007326081 A JP2007326081 A JP 2007326081A JP 2009151350 A JP2009151350 A JP 2009151350A
- Authority
- JP
- Japan
- Prior art keywords
- input image
- image
- correction
- correction amount
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000003702 image correction Methods 0.000 title claims description 40
- 230000013016 learning Effects 0.000 claims abstract description 88
- 238000013528 artificial neural network Methods 0.000 claims abstract description 56
- 238000005286 illumination Methods 0.000 claims description 16
- 239000010410 layer Substances 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 239000002356 single layer Substances 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像を補正する技術に関し、特に、その補正量の算出にニューラルネットワークの学習処理を利用する技術に関する。 The present invention relates to a technique for correcting an image, and more particularly to a technique that uses a learning process of a neural network for calculating the correction amount.
色補正や階調補正などの画像補正における補正量は、画像に応じて最適な値に設定する必要がある。この最適値は、画像内容に依存し、また、見る人の好みにも依存する。従って、理想的な画像補正のためには、その画像に対し、人間が手動で補正量を調整することが望ましい。しかしながら、手動で大量の画像補正を行うには、莫大な工数を必要とする。 The correction amount in image correction such as color correction and gradation correction needs to be set to an optimum value according to the image. This optimum value depends on the image content and also on the viewer's preference. Therefore, for ideal image correction, it is desirable for a human to manually adjust the correction amount for the image. However, enormous man-hours are required to manually perform a large amount of image correction.
手動での煩雑な画像補正に替えて、自動的に補正量を制御する方法として、例えば、後述の非特許文献1に記載されているような、ヒストグラム解析を利用した自動画像補正方式がある。
As a method for automatically controlling the correction amount in place of the complicated manual image correction, for example, there is an automatic image correction method using histogram analysis as described in Non-Patent
また、自動補正に関する他の方法として、近年、ニューラルネットワーク(Neural Network)による学習処理を用いて画像補正量を算出する方法が提案されている。ニューラルネットワークに対し画像の入力データと教師データとを与えることにより、画像に表われる複雑な現象をニューロンの係数として学習することが可能となる。ここで、入力データおよび教師データの組み合わせを訓練データと呼び、入力データと教師データとを用いてニューラルネットワークの係数を算出することを学習と呼ぶ。 As another method related to automatic correction, a method for calculating an image correction amount using a learning process using a neural network has been proposed in recent years. By providing image input data and teacher data to the neural network, it becomes possible to learn complex phenomena appearing in the image as neuron coefficients. Here, a combination of input data and teacher data is called training data, and calculating a coefficient of a neural network using the input data and teacher data is called learning.
ニューラルネットワークの係数を学習する方法として、画像の特徴量を入力データとし、画像補正量を教師データとして用いるという方法がある。例えば、後述の特許文献1には、画像信号を入力とし、オペレータが与えた補正値を教師値として学習した係数を画像補正に用いる技術が記載されている。この技術では、ハイライト値、ミドル値、シャドー値、トナー濃度、湿度などをニューラルネットワークへの入力とし、階調補正の係数がニューラルネットワークの出力として学習が行われる。
As a method for learning a coefficient of a neural network, there is a method in which an image feature amount is used as input data and an image correction amount is used as teacher data. For example,
また、後述の特許文献2には、入力画像から画質特性値を算出し、ニューラルネットワークを用いて階調補正パラメータを学習する方法が記載されている。この文献には、さらに、オペレータ指示により追加学習を行い、追加学習後の新しいニューラルネットワークの誤差が古いネットワークの誤差よりも小さい時にはネットワークを置き換えることが記載されている。
このように、特許文献1及び2に記載の方法は、いずれも、画像から検出された特徴量をニューラルネットワークにより学習し、その学習結果を画像の補正に適用するというものである。
As described above, the methods described in
ここで、図12に、画像補正量を算出する一般的な装置の構成を模式的に示す。装置100は、入力画像に対して補正を行う画像補正部101と、オペレータが補正量を指定するための補正量指定部102と、画像を表示するモニタ103と、入力画像から特徴量を抽出する特徴抽出部104と、特徴量および補正量を蓄積する蓄積部105と、特徴量と補正量との関係をニューラルネットワークの係数として学習する係数学習部106と、学習された係数を用いて入力画像に対する補正量を推定する補正量推定部107とからなる。
Here, FIG. 12 schematically shows a configuration of a general apparatus for calculating the image correction amount. The
画像補正部101の一例として、γ補正のような階調補正がある。補正量指定部102の一例として、γ値をキーボードで指定する方法がある。特徴抽出部104の一例として、画像中のRGB値のヒストグラムを作成し、それぞれの最大値、最小値、平均値を抽出するという方法がある。蓄積部105の一例として、HDDや不揮発メモリ等がある。係数学習部106の一例としては、3層ニューラルネットワークにおける誤差伝播法による係数算出処理を実行する方法がある。
しかしながら、前述の特許文献1及び2に記載の方法のように、画像から得られた特徴量のみを補正量の学習に用いるという方法には、次のような問題点がある。
However, as in the methods described in
まず、特徴量のみによる学習では、画像の補正精度を向上させ難い。なぜなら、モニタに表示された画像に対する補正精度の判断には、人間の主観的な感覚が影響するからである。よって、入力画像から定量的に得られた特徴量のみを補正に用いても、人間の主観に依存する補正精度を高めることは困難である。 First, it is difficult to improve the correction accuracy of an image by learning using only feature amounts. This is because the subjective sense of human influences the determination of the correction accuracy for the image displayed on the monitor. Therefore, even if only the feature amount quantitatively obtained from the input image is used for correction, it is difficult to increase the correction accuracy depending on human subjectivity.
一方で、補正量係数の最適化には、ニューラルネットワークの学習回数を増やすことが有益である。よって、前述の技術の場合、係数学習部106(図12)の学習回数を増やすことにより精度が上がると考えられる。しかしながら、学習の履歴が蓄積されるにつれて、演算が煩雑になることから、係数学習部106に多大な処理負荷が掛かり、また、処理時間が長引くという問題が生じる。
On the other hand, to optimize the correction amount coefficient, it is beneficial to increase the number of times the neural network is learned. Therefore, in the case of the above-described technique, it is considered that the accuracy is improved by increasing the number of learnings of the coefficient learning unit 106 (FIG. 12). However, as the learning history is accumulated, the calculation becomes complicated, which causes a problem that a large processing load is applied to the
本発明は、上記課題に鑑みてなされたものであり、その目的は、画像の補正精度を判断する人間の趣向に沿った補正量を効率よく求める技術を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently obtaining a correction amount according to a human preference for determining the correction accuracy of an image.
本発明に係る画像補正方法は、入力画像の特徴量を算出し、前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出し、前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類し、前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出し、前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定するという方法である。 An image correction method according to the present invention calculates a feature amount of an input image, and classifies the input image by a neural network learning process using the feature amount and a classification attribute specified for the input image. A classification coefficient is calculated, the input image is classified into categories by a neural network learning process using the classification coefficient, and a neural network learning process using the feature amount and a correction amount specified for the input image. The correction amount coefficient of the input image classified into the category is calculated, and the correction amount to be applied to the input image is estimated by a neural network learning process using the correction amount coefficient.
本発明に係る画像補正装置は、入力画像の特徴量を算出する手段と、前記入力画像に関し分類属性および補正量を指定する手段と、前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出する手段と、前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類する手段と、前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出する手段と、前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定する手段とを備える。 An image correction apparatus according to the present invention comprises: means for calculating a feature amount of an input image; means for specifying a classification attribute and a correction amount for the input image; and a classification attribute specified for the feature amount and the input image. Means for calculating a classification coefficient for classifying the input image by learning processing of the used neural network; means for classifying the input image into categories by learning processing of the neural network using the classification coefficient; Means for calculating a correction amount coefficient of the input image classified into the category by a learning process of a neural network using the amount and a correction amount specified for the input image, and a neural network using the correction amount coefficient Means for estimating a correction amount to be applied to the input image.
本発明に係るプログラムは、コンピュータを上記画像補正装置として機能させるものである。 A program according to the present invention causes a computer to function as the image correction apparatus.
本発明によれば、入力画像に対し指定された情報に見合った補正量を求めることができる。また、補正量係数が入力画像のカテゴリ別に学習されることから、1つの補正量係数を得るための演算量が抑えられる。したがって、画像の補正精度の向上、及び、補正処理の効率化を図ることができる。 According to the present invention, it is possible to obtain a correction amount commensurate with information specified for an input image. Further, since the correction amount coefficient is learned for each category of the input image, the calculation amount for obtaining one correction amount coefficient can be suppressed. Therefore, it is possible to improve the correction accuracy of the image and increase the efficiency of the correction process.
図1に、本発明の第1の実施形態の構成を示す。本実施形態の画像補正装置101は、入力された訓練画像に対して画像処理による補正を行う画像補正部1と、オペレータが補正の強度(補正量)を指定するための補正量指定部2と、画像を表示するモニタ3と、オペレータが入力画像の分類属性を指定するための分類属性指定部4と、入力画像から特徴量を抽出する特徴抽出部5と、抽出した特徴量と指定された補正量及び分類属性とを蓄積する蓄積部6と、蓄積部6にある分類属性と特徴量とを用いて分類係数を算出する分類係数学習部7と、分類係数を用いて入力画像をカテゴリに自動分類する自動分類部8と、カテゴリに分類された入力画像の特徴量と補正量とを用いて、補正量係数を算出するカテゴリ別係数学習部9と、補正量係数を用いて入力画像に対する補正量を推定する補正量推定部11とを備える。
FIG. 1 shows the configuration of the first embodiment of the present invention. The
カテゴリ別係数学習部9は、分類上のN番目(N=1,2,…,n)のカテゴリの補正量係数を学習するカテゴリN係数学習部10を含む。
The category-specific
画像補正部1の一例として、γ補正や明度補正などの階調補正部や、彩度強調などの色補正部がある。補正量指定部2の一例として、端末から彩度強調量や、明度補正量、γ値などをキーボードで指定するという方法がある。蓄積部6の一例として、HDDや不揮発メモリ等がある。
Examples of the
分類属性指定部4の一例として、図2に示すような画面を用いてオペレータが指定するという方法がある。図示の分類属性指定画面31は、入力画像表示領域32と、注目領域指定33と、照明指定34と、被写体指定35とからなる。注目領域指定33では、その画像の、どの領域に重点をおいて補正処理を行うべきかが指定される。照明指定34では、その画像がどのような環境下で撮影されたかが指定される。被写体指定33では、その画像における被写体の種別が指定される。これらの分類属性(33,34,35)は、補正後の画像品質に及ぼす物理的および心理的な要因を反映したものである。
As an example of the classification
上記の分類属性に関し、まず、注目領域指定33について説明する。人間は、対象となる入力画像において、注目する領域だけを重点的に見るものと考えられる。例えば、中心に人物が写っており且つ背景が単調な風景という画像の場合、人物にのみに注目することが多い。この場合、背景の色が多少悪くても視覚的にはほとんど影響はなく、中央の人物領域の画質が、画像の総合的な品質を決定する要因となる。このような、人間の「注目する」という心理的活動についての情報を、分類属性の一つとして付与することにより、最適な画像補正量を算出することが可能となる。
Regarding the above classification attribute, first, the
図3に注目領域指定33の具体例を示す。第1の注目領域指定41は、画面全体を指定するものである。これは、その画面の全体を均等に補正するよう指示することを示す。第2の注目領域指定42は、画像の中心付近を指定するものである。これは、その画像の中心付近を重点的に補正するよう指示することを示す。第3の注目領域指定43は、画像に映されている人物の頭部付近を指定するものである。これは、人物領域を重点的に補正するよう指示することを示す。
FIG. 3 shows a specific example of the
次に、照明指定34および被写体指定35について説明する。画像の補正量は、注目領域(図3)に、何が、どのような環境で撮影されているのかに影響される。人間が観測する物体色は、照明の分光分布と、物体の反射率と、人間の視覚感度分布との積分によって算出される。人間の視覚感度が一定であるとすると、物体色は、照明光と物体の反射率とによって決まると考えられている。しかしながら、デジタルカメラによる撮影には、さらに、CCDの分光特性、ガンマ補正、AWB影響等が加わることから、人間の見た目と差分が生ずる。そこで、分類属性として、照明及び被写体の種類を指定することで、補正量の学習に一定の制約が与えられ、これにより最適値算出を容易にすることができる。
Next, the
図4に、照明指定(34)の際に用いるメニュー51を示す。図示のメニュー51には、「環境光」と、物体に照射されている「物体入射光」と、逆光・順光といった光の相互作用である「状態」の3種類がある。また、それぞれの下位層には、具体的な選択肢がメニュー形式で表示されている。照明指定(34)の一例として、オペレータが、入力画像に該当する項目をメニュー51から選択し、それを指示入力するという方法がある。
FIG. 4 shows a
図5に、被写体指定(35)の際に用いるメニュー61を示す。図示のメニュー61は、「人物」、「自然物」、「人工物」の3種類の項目がある。それぞれの下位層には、選択肢としての「顔」、「花」、「自動車」といった具体的な物体名がメニュー形式で表示されている。被写体指定(35)の一例として、オペレータが、入力画像に該当する項目をメニュー61から選択し、それを指示入力するという方法がある。
FIG. 5 shows a
図1の特徴抽出部5の一例としては、画像のRGB値のヒストグラムを作成し、それぞれの最大値、最小値、平均値を抽出するという方法がある。また、図6に示すように、画像を複数の部分領域に分割してもよい。すなわち、画像の部分領域からヒストグラム81を作成し、各部分領域におけるRGBの最大値、最小値、平均値や、部分領域における彩度の最大値、最小値、平均値や、部分領域における輝度の最大値、最小値、平均値などを抽出して、それらを特徴量とする方法である。
As an example of the
分類係数学習部7は、ニューラルネットワークにより、画像補正の傾向が類似する入力画像を分類するための分類係数を学習する。なお、この分類係数を用いた実際の分類処理は、後段の自動分類部8により行われる。入力画像に対し、補正の傾向が類似すると思われるカテゴリとして、例えば、風景、人物、人工物、花、夜景などがある。分類係数学習部7は、分類係数の学習の前に、分類属性指定部4によって指定された項目を用いて、入力画像に教師カテゴリ番号を付与する。
The classification
教師カテゴリ番号とは、上記の分類係数を学習する際の教師データとなるカテゴリの番号である。教師カテゴリ番号は、分類属性指定の項目(図3〜図5)の一部あるいは全てを使って、あらかじめ決められた規則に従って付与される。 The teacher category number is a number of a category that becomes teacher data when learning the classification coefficient. The teacher category number is assigned according to a predetermined rule using a part or all of the classification attribute designation items (FIGS. 3 to 5).
教師カテゴリ番号を付与する方法の一例として、照明指定メニュー51(図4)の「環境光」及び「状態」についての選択結果を利用するという方法がある。この場合は、「(晴天、曇天、日陰、夜景、蛍光灯、タングステン、その他)×(順光、逆光)」により、14種類(7x2=14)のカテゴリが形成される。そして、入力画像に、「1」〜「14」のうちのいずれかの番号が付与される。さらに、同じ照明指定メニュー51における「物体入射光」の配下の7種類を加えた場合は、98種類(7x7x2=98)のカテゴリが形成されることになる。
As an example of a method of assigning a teacher category number, there is a method of using a selection result for “ambient light” and “state” in the illumination designation menu 51 (FIG. 4). In this case, 14 types (7 × 2 = 14) of categories are formed by “(clear sky, cloudy, shade, night view, fluorescent lamp, tungsten, etc.) × (forward light, backlight)”. Then, any number of “1” to “14” is assigned to the input image. Furthermore, when seven types under the “object incident light” in the same
上記の例は、カテゴリの形成に照明指定(34)を利用したものであったが、この他に、注目領域指定(33)や被写体指定(35)をそれぞれ単独で、あるいは、照明指定を含めた組み合わせで利用することもできる。なお、カテゴリ数を増やしすぎると、訓練データ、すなわち入力データと教師データとの組み合わせが大量に必要となる。よって、例えば、照明指定および被写体指定をそれぞれ4種類程度用いるのが実用的である。 In the above example, the lighting specification (34) was used to form the category, but in addition to this, the attention area specification (33) and the subject specification (35) were each independently or included the lighting specification. It can also be used in combination. If the number of categories is increased too much, a large amount of training data, that is, a combination of input data and teacher data is required. Therefore, for example, it is practical to use about four types of illumination designation and subject designation.
図7に、カテゴリの構成例を示す。図示のカテゴリ番号リスト91は、カテゴリの形成に照明指定(34)と被写体指定(35)との組み合わせを用いたものである。例えば、照明として「屋外」が指定され、被写体として「夜景」が指定された入力画像に対しては、教師カテゴリ番号「3」が付与される。
FIG. 7 shows a configuration example of categories. The
図1の分類係数学習部7を実現する方法としては、例えば、単層パーセプトロン(Single-layer Perceptron)、多層パーセプトロン(Multi-layer Perceptron)、RBFネットワーク(Radical Basis Function Network)といったニューラルネットワークの係数を学習するという方法がある。
As a method for realizing the classification
単層パーセプトロンについて説明する。単層パーセプトロンは、次の式(1)によって判別を行うニューラルネットワークである。 A single layer perceptron will be described. The single-layer perceptron is a neural network that performs discrimination according to the following equation (1).
分類係数学習部7における学習処理において、式(1)の「y」には入力画像に対する教師カテゴリ番号を与える。そして、「xi」は入力画像のn次元の特徴量である。分類係数学習部7における学習とは、すなわち、複数の入力画像の「xi」(特徴量)及び「y」(教師カテゴリ番号)の組み合わせを基に、分類係数「ai」を求めることを指す。
In the learning process in the classification
ここで、関数U(x)を「U(x)=x」と考えた場合、式(1)は線形判別関数である。これを行列形式で表すと式(2)のようになる。 Here, when the function U (x) is considered as “U (x) = x”, Expression (1) is a linear discriminant function. This can be expressed in matrix form as shown in equation (2).
多層パーセプトロンについて説明する。図8に、3層の多層パーセプトロンである3層ニューラルネットワーク71を示す。3層ニューラルネットワーク71は、特徴量「xi」を入力層、分類カテゴリを出力層とし、中間層として1層を持つニューラルネットワークである。3層ニューラルネットワークは、次の式(4)によって表すことができる。
A multilayer perceptron will be described. FIG. 8 shows a three-layer
RBFネットワークについて説明する。RBFネットワークは、次の式(6)で表すことができる。 The RBF network will be described. The RBF network can be expressed by the following equation (6).
また、式(6)において、関数U(x)を「U(x)=x」と考えた場合、係数「cj」は、式(8)により得ることができる。
式(8)において、行列「S」は、中間ユニット出力「sj」の集合を表す。行列「Y」は、サンプルに対応する推定量「y」の集合を表す。ベクトル「c」は、係数「cj」(j=1,2,…,m)を表す。これを解くと、次の式(9)の行列演算によって係数「cj」を求めることができる。 In equation (8), the matrix “S” represents the set of intermediate unit outputs “s j ”. The matrix “Y” represents a set of estimators “y” corresponding to the samples. The vector “c” represents the coefficient “c j ” (j = 1, 2,..., M). When this is solved, the coefficient “c j ” can be obtained by the matrix operation of the following equation (9).
図1の自動分類部8は、分類係数学習部7で得られた分類係数を用いたニューラルネットワークの学習処理により、入力画像をカテゴリに分類する。この自動分類部8でのニューラルネットワークの例として、単層パーセプトロン、多層パーセプトロン、RBFネットワークなどがある。自動分類部8に適用するニューラルネットワークには、分類係数学習部7と同じ形式のものを用いる。これら3種類のニューラルネットワークによる自動分類の演算は、入力画像の特徴量を用いて、前述の式(1)または式(4)あるいは式(6)によって行うことができる。
The
なお、自動分類部8による入力画像の分類結果、すなわち入力画像に付与されるカテゴリ番号は、必ずしも、指定された分類属性に基づく教師カテゴリ番号(図7)と一致するとは限らない。なぜなら、分類学習に用いる分類係数が、式(1)のような数学モデル(ニューラルネットワーク)から得られる値だからである。
Note that the classification result of the input image by the
図1のカテゴリ別係数学習部9は、分類されたカテゴリ別に、カテゴリN係数学習部10により補正量を学習し、カテゴリ別に最適な補正量係数を算出する。カテゴリ別係数学習部9での学習方法の一例として、分類係数学習部7で用いたニューラルネットワークを用いることができる。カテゴリ別係数学習部9で実行される学習処理において、「xi」は入力画像のn次元の特徴量であり、「y」は入力画像に対してオペレータから指定された補正量である。
The category-specific
補正量推定部11は、カテゴリ別係数学習部9で得られる補正量係数を用いた学習処理により、入力画像に適用すべき最適な補正量を推定する。補正量推定部11の学習処理にも、分類係数学習部7でのニューラルネットワークを用いることができる。この補正量推定部11により得られた補正量を画像補正部1に与えることにより、補正結果の画像がモニタ3に表示される。オペレータは、モニタ3の画像を閲覧することにより、補正精度を確認することができる。
The correction
図9に示すフローチャートを参照して、上記構成による画像補正装置101の一連の動作を説明する。まず、補正対象の画像が入力されると(ステップS1)、その入力画像が画像補正部1および特徴抽出部5へ供給される。特徴抽出部5は、入力画像の特徴量を算出し、結果を画像IDと共に蓄積部6へ格納する(ステップS2)。
A series of operations of the
一方、上記の入力画像を画像補正部1がモニタ3に出力すると、それを閲覧したオペレータが、所望の補正量を指定すると共に、図2のような画面上で分類属性を指定する。指定された情報は、補正量指定部2および分類属性指定部4により入力され、蓄積部6に格納される(ステップS3)。蓄積部6では、格納された特徴量や分類属性が、それぞれに対応する入力画像の識別情報(ID)と共に保存される。
On the other hand, when the
分類係数学習部7は、蓄積部6から入力画像の特徴量と分類属性とを読み出し、読み出した分類属性に対応する教師カテゴリ番号を、リスト91(図7)のような規定の情報に基づき決定する。そして、決定した教師カテゴリ番号と、読み出した特徴量とをニューラルネットワークに与えることにより、分類係数を算出する(ステップS4)。
The classification
自動分類部8は、分類係数学習部7が算出した分類係数をニューラルネットワークに与えることにより、入力画像をカテゴリに分類する(ステップS5)。これにより、入力画像にカテゴリ番号が付与される。
The
カテゴリ別係数学習部9は、入力画像の特徴量と、オペレータから指定された補正量と、自動分類部8が算出したカテゴリ番号とを認識すると、そのカテゴリ番号(N)に対応するカテゴリN係数学習部10が、ニューラルネットワークにより補正量係数を算出する(ステップS6)。
When the category-specific
補正量推定部11は、カテゴリN係数学習部10からの補正量係数をニューラルネットワークに与えることにより、入力画像に適用すべき最適な補正量を推定する(ステップS7)。
The correction
画像補正部1は、推定された補正量を用いて、対応する入力画像を補正し(ステップS8)、その画像をモニタ3へ供給する。これにより、モニタ3に、補正結果となる画像が表示され(ステップS9)、オペレータがその画像を確認する。
The
このように、本実施形態では、入力画像に関しオペレータから指定された情報がニューラルネットワークの学習処理に反映される。これにより、オペレータが指定した情報に見合った補正量を求めることができる。また、入力画像を、補正の傾向が類似するカテゴリに分類し、それらのカテゴリ別に補正量係数を学習するため、学習すべき分布形状が単純化される。よって、1つの補正量係数を得るための演算量が抑えられるので、画像の補正処理を効率化することができる。 Thus, in this embodiment, information specified by the operator regarding the input image is reflected in the learning process of the neural network. Thereby, the correction amount suitable for the information designated by the operator can be obtained. In addition, since the input image is classified into categories with similar correction tendencies and the correction amount coefficient is learned for each category, the distribution shape to be learned is simplified. Accordingly, the amount of calculation for obtaining one correction amount coefficient can be suppressed, so that the image correction processing can be made more efficient.
次に、本発明の他の実施形態について図面を参照して詳細に説明する。図10に、本実施形態における画像補正装置102の構成を示す。本実施形態において、前述の実施形態(図1)との構成上の差異は、補正量分布解析部12が付加された点である。補正量分布解析部12は、各カテゴリについて補正量推定部11から得られる補正量からその分布を解析し、解析の結果に基づいて、カテゴリの統合または分離の要否を判定する。
Next, another embodiment of the present invention will be described in detail with reference to the drawings. FIG. 10 shows a configuration of the
図11に示すフローチャートを参照して、本実施形態の動作を説明する。ここでは、主に、前述の実施形態での動作(図9)との差異を述べる。 The operation of this embodiment will be described with reference to the flowchart shown in FIG. Here, the difference from the operation (FIG. 9) in the above-described embodiment will be mainly described.
補正量分布解析部12は、補正量推定部11から得られた補正量について、カテゴリ別に平均値を求め、それらをカテゴリ間で比較する(ステップS11)。比較の結果、補正量の平均値が近似するカテゴリの組み合わせが検出された場合(ステップS12:Yes)、その組み合わせのカテゴリを統合すべきと判定する(ステップS13)。なお、統合されるカテゴリ数は、2つに限らず、3つ以上であってもよい。
The correction amount
また、補正量分布解析部12は、各カテゴリにおける補正量の分布幅を求め、それらを規定の分布幅と比較する(ステップS14)。比較の結果、規定幅を上回る分布幅を示すカテゴリが検出された場合(ステップS15:Yes)、そのカテゴリを複数に分割すべきと判断する(ステップS16)。分割数は、2分割といった固定値に限らず、算出された分布幅の大きさに応じて変動してもよい。後者の場合は、変動のための閾値を予め設定しておく。
Further, the correction amount
一方、補正量の平均値が近似するカテゴリの組み合わせが検出されず(ステップS12:No)、規定幅を上回る分布幅のカテゴリも検出されない場合(ステップS15:No)、現時点ではカテゴリの統合または分割が不要であると判断する(ステップS17)。 On the other hand, if a combination of categories that approximate the average value of the correction amount is not detected (step S12: No), and a category with a distribution width that exceeds the specified width is not detected (step S15: No), the categories are currently combined or divided. Is determined to be unnecessary (step S17).
カテゴリの統合または分割が発生する場合、補正量分布解析部12は、分類係数学習部7に対し、教師カテゴリ番号の統合または分割を指示する。また、入力画像に付与すべき新たな教師カテゴリ番号を算出し(ステップS18)、それを分類係数学習部7に指定する。
When category integration or division occurs, the correction amount
新たな教師カテゴリ番号の算出方法には、例えば、一般的に知られているK-means法などのクラスタ分析法を用いることができる。K-means法によれば、補正量の分布から自動的にK個のクラスタに分類することができる。このK-means法を用いる場合、補正量分布解析部12は、クラスタ分析で得られたクラスタ番号を新たな教師カテゴリ番号として分類係数学習部7に指示する。
As a new teacher category number calculation method, for example, a generally known cluster analysis method such as a K-means method can be used. According to the K-means method, it is possible to automatically classify into K clusters from the correction amount distribution. When this K-means method is used, the correction amount
分類係数学習部7は、補正量分布解析部12から上記指示を受けると、入力画像に新たな教師カテゴリ番号を付与する。そして、新たな教師カテゴリ番号を用いて、前述の実施形態と同様な学習処理(図9:S4)により、新たな分類係数を算出する(ステップS19)。
Upon receiving the above instruction from the correction amount
自動分類部8は、分類係数学習部7からの新たな分類係数を用いて、前述の実施形態と同様な学習処理(図9:S5)により、入力画像をカテゴリ分けする(ステップS20)。分類係数が変更されたことにより、入力画像の分類結果も変わる。そのため、カテゴリ別係数学習部9が、自動分類部8からの新たな分類結果(カテゴリ番号N)を用いて、前述の実施形態と同様な学習処理(図9:S6)により、補正量係数を算出する(ステップS21)。このようにして、補正量分布解析部12が、カテゴリの統合または分割が不要と判断するまで(ステップS17)、分類係数学習と補正量係数学習とを繰り返す。
The
本実施形態によれば、分類に用いるカテゴリを、推定補正量の学習結果を用いて修正することができるので、補正量の推定の精度を一層高めることができる。 According to the present embodiment, since the category used for classification can be corrected using the learning result of the estimated correction amount, the accuracy of the correction amount estimation can be further improved.
本発明は、上記の各実施形態に限らず、それらの動作に対応したコンピュータプログラム、あるいは、そのプログラムを記憶した記録媒体として実施してもよい。 The present invention is not limited to the above embodiments, and may be implemented as a computer program corresponding to these operations or a recording medium storing the program.
101,102 画像補正装置
1 画像補正部
2 補正量指定部
3 モニタ
4 分類属性指定部
5 特徴抽出部
6 蓄積部
7 分類係数学習部
8 自動分類部
9 カテゴリ別係数学習部
10 カテゴリN係数学習部
11 補正量推定部
12 補正量分布解析部
101,102 Image correction device
1 Image correction section
2 Correction amount specification section
3 Monitor
4 Classification attribute specification part
5 Feature extraction unit
6 Accumulator
7 Classification coefficient learning unit
8 Automatic classification part
9 Coefficient learning section by category
10 Category N coefficient learning section
11 Correction amount estimation unit
12 Correction amount distribution analysis unit
Claims (11)
前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出し、
前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類し、
前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出し、
前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定することを特徴とする画像補正方法。 Calculate the feature value of the input image,
By a neural network learning process using the feature amount and the classification attribute specified for the input image, a classification coefficient for classifying the input image is calculated,
The input image is classified into categories by a neural network learning process using the classification coefficient,
A neural network learning process using the feature amount and the correction amount specified for the input image calculates a correction amount coefficient of the input image classified into the category,
An image correction method, wherein a correction amount to be applied to the input image is estimated by a neural network learning process using the correction amount coefficient.
前記入力画像に関し分類属性および補正量を指定する手段と、
前記特徴量と前記入力画像に関し指定された分類属性とを用いたニューラルネットワークの学習処理により、前記入力画像を分類するための分類係数を算出する手段と、
前記分類係数を用いたニューラルネットワークの学習処理により前記入力画像をカテゴリに分類する手段と、
前記特徴量と前記入力画像に関し指定された補正量とを用いたニューラルネットワークの学習処理により、前記カテゴリに分類された前記入力画像の補正量係数を算出する手段と、
前記補正量係数を用いたニューラルネットワークの学習処理により、前記入力画像に適用すべき補正量を推定する手段とを備えることを特徴とする画像補正装置。 Means for calculating a feature amount of the input image;
Means for specifying a classification attribute and a correction amount for the input image;
Means for calculating a classification coefficient for classifying the input image by a learning process of a neural network using the feature quantity and a classification attribute designated for the input image;
Means for classifying the input image into categories by a neural network learning process using the classification coefficient;
Means for calculating a correction amount coefficient of the input image classified into the category by a learning process of a neural network using the feature amount and a correction amount specified for the input image;
An image correction apparatus comprising: means for estimating a correction amount to be applied to the input image by a neural network learning process using the correction amount coefficient.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007326081A JP5104282B2 (en) | 2007-12-18 | 2007-12-18 | Image correction method and an image correction device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007326081A JP5104282B2 (en) | 2007-12-18 | 2007-12-18 | Image correction method and an image correction device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2009151350A true JP2009151350A (en) | 2009-07-09 |
| JP5104282B2 JP5104282B2 (en) | 2012-12-19 |
Family
ID=40920475
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007326081A Active JP5104282B2 (en) | 2007-12-18 | 2007-12-18 | Image correction method and an image correction device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5104282B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019114176A (en) * | 2017-12-26 | 2019-07-11 | 株式会社Preferred Networks | Information processing apparatus, information processing program, and information processing method |
| US10491831B2 (en) | 2018-03-05 | 2019-11-26 | Jvckenwood Corporation | Image pickup apparatus, image pickup method, and recording medium |
| WO2020075719A1 (en) * | 2018-10-10 | 2020-04-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2020058800A (en) * | 2018-10-10 | 2020-04-16 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
| JPWO2019008935A1 (en) * | 2017-07-05 | 2020-05-21 | コニカミノルタ株式会社 | Image processing apparatus, image processing method, and pathological diagnosis support system using the same |
| JP2020530920A (en) * | 2018-07-27 | 2020-10-29 | シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd | Image lighting methods, devices, electronics and storage media |
| CN115437332A (en) * | 2022-10-21 | 2022-12-06 | 山东电力工程咨询院有限公司 | Optimization Method of Steam Turbine Operating Pressure Based on Data Completion |
| JPWO2022259323A1 (en) * | 2021-06-07 | 2022-12-15 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04144361A (en) * | 1990-10-04 | 1992-05-18 | Dainippon Screen Mfg Co Ltd | Method for correcting setup parameter determining characteristic and automatic setup device |
| JP2002222419A (en) * | 2001-01-29 | 2002-08-09 | Olympus Optical Co Ltd | Image area dividing apparatus and method and recording medium on which processing program is recorded |
| JP2003018453A (en) * | 2001-07-02 | 2003-01-17 | Minolta Co Ltd | Image processing unit, image quality control method, program and recording medium |
| JP2003060980A (en) * | 2001-08-21 | 2003-02-28 | Olympus Optical Co Ltd | Image processing system |
| JP2006031440A (en) * | 2004-07-16 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Image processing method, image processing apparatus, image processing program and image processing system |
| JP2006259974A (en) * | 2005-03-16 | 2006-09-28 | Fuji Photo Film Co Ltd | Image-processing method and device |
-
2007
- 2007-12-18 JP JP2007326081A patent/JP5104282B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04144361A (en) * | 1990-10-04 | 1992-05-18 | Dainippon Screen Mfg Co Ltd | Method for correcting setup parameter determining characteristic and automatic setup device |
| JP2002222419A (en) * | 2001-01-29 | 2002-08-09 | Olympus Optical Co Ltd | Image area dividing apparatus and method and recording medium on which processing program is recorded |
| JP2003018453A (en) * | 2001-07-02 | 2003-01-17 | Minolta Co Ltd | Image processing unit, image quality control method, program and recording medium |
| JP2003060980A (en) * | 2001-08-21 | 2003-02-28 | Olympus Optical Co Ltd | Image processing system |
| JP2006031440A (en) * | 2004-07-16 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Image processing method, image processing apparatus, image processing program and image processing system |
| JP2006259974A (en) * | 2005-03-16 | 2006-09-28 | Fuji Photo Film Co Ltd | Image-processing method and device |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2019008935A1 (en) * | 2017-07-05 | 2020-05-21 | コニカミノルタ株式会社 | Image processing apparatus, image processing method, and pathological diagnosis support system using the same |
| JP7215418B2 (en) | 2017-07-05 | 2023-01-31 | コニカミノルタ株式会社 | Image processing apparatus, image processing method, and pathological diagnosis support system using the same |
| US11238268B2 (en) * | 2017-07-05 | 2022-02-01 | Konica Minolta, Inc. | Image processing device, image processing method, and pathological diagnosis assistance system using same |
| JP7213616B2 (en) | 2017-12-26 | 2023-01-27 | 株式会社Preferred Networks | Information processing device, information processing program, and information processing method. |
| JP2019114176A (en) * | 2017-12-26 | 2019-07-11 | 株式会社Preferred Networks | Information processing apparatus, information processing program, and information processing method |
| US10491831B2 (en) | 2018-03-05 | 2019-11-26 | Jvckenwood Corporation | Image pickup apparatus, image pickup method, and recording medium |
| US11455516B2 (en) | 2018-07-27 | 2022-09-27 | Shenzhen Sensetime Technology Co., Ltd. | Image lighting methods and apparatuses, electronic devices, and storage media |
| JP2020530920A (en) * | 2018-07-27 | 2020-10-29 | シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd | Image lighting methods, devices, electronics and storage media |
| WO2020075719A1 (en) * | 2018-10-10 | 2020-04-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2020058800A (en) * | 2018-10-10 | 2020-04-16 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
| CN112822972A (en) * | 2018-10-10 | 2021-05-18 | 佳能株式会社 | Image processing apparatus, image processing method, and program |
| JP7250653B2 (en) | 2018-10-10 | 2023-04-03 | キヤノン株式会社 | Image processing device, image processing method and program |
| US11935241B2 (en) | 2018-10-10 | 2024-03-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and computer-readable medium for improving image quality |
| JPWO2022259323A1 (en) * | 2021-06-07 | 2022-12-15 | ||
| WO2022259323A1 (en) * | 2021-06-07 | 2022-12-15 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
| JP7496935B2 (en) | 2021-06-07 | 2024-06-07 | 三菱電機株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
| CN115437332A (en) * | 2022-10-21 | 2022-12-06 | 山东电力工程咨询院有限公司 | Optimization Method of Steam Turbine Operating Pressure Based on Data Completion |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5104282B2 (en) | 2012-12-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5104282B2 (en) | Image correction method and an image correction device | |
| Rahman et al. | Retinex processing for automatic image enhancement | |
| JP4519708B2 (en) | Imaging apparatus and method, and program | |
| Bychkovsky et al. | Learning photographic global tonal adjustment with a database of input/output image pairs | |
| US9292911B2 (en) | Automatic image adjustment parameter correction | |
| US8280179B2 (en) | Image processing apparatus using the difference among scaled images as a layered image and method thereof | |
| CN108898579A (en) | A kind of image definition recognition methods, device and storage medium | |
| US20070071316A1 (en) | Image correcting method and image correcting system | |
| US8666148B2 (en) | Image adjustment | |
| US12249047B2 (en) | Methods and systems for denoising media using contextual information of the media | |
| JP2013506198A (en) | Estimating the aesthetic quality of digital images | |
| US12198311B2 (en) | Method and electronic device for managing artifacts of image | |
| JP2005277981A (en) | Selecting target images for image processing | |
| CN109478316A (en) | Real-time adaptive shadow and highlight enhancement | |
| El Khoury et al. | Color and sharpness assessment of single image dehazing | |
| US20200327709A1 (en) | System and method for rendering an image | |
| US12307817B2 (en) | Method and system for automatically capturing and processing an image of a user | |
| JP2006031440A (en) | Image processing method, image processing apparatus, image processing program and image processing system | |
| JP2006301779A (en) | Image processing system, image processing method, and image processing program | |
| US20070127783A1 (en) | Image processing apparatus, method and program for controlling flesh color of image | |
| CN114255193A (en) | Board card image enhancement method, device, equipment and readable storage medium | |
| Serrano-Lozano et al. | Namedcurves: Learned image enhancement via color naming | |
| JP2003248825A (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
| CN116433920A (en) | An image generation method, device and storage medium based on deep feature guidance | |
| JP4359662B2 (en) | Color image exposure compensation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20100817 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100817 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101108 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110929 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120507 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120705 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5104282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |