JP2010066925A - Learning apparatus, image processing apparatus, learning method, image processing method, and program - Google Patents
Learning apparatus, image processing apparatus, learning method, image processing method, and program Download PDFInfo
- Publication number
- JP2010066925A JP2010066925A JP2008231429A JP2008231429A JP2010066925A JP 2010066925 A JP2010066925 A JP 2010066925A JP 2008231429 A JP2008231429 A JP 2008231429A JP 2008231429 A JP2008231429 A JP 2008231429A JP 2010066925 A JP2010066925 A JP 2010066925A
- Authority
- JP
- Japan
- Prior art keywords
- image
- class
- pixel
- prediction
- target pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】画素位置に応じたイメージセンサの特性を考慮して撮像画像を高画質化すること。
【解決手段】第1画像に含まれる複数の画素であって、当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、を備える学習装置を提供する。
【選択図】図7
An image pickup image is improved in image quality in consideration of characteristics of an image sensor corresponding to a pixel position.
A plurality of pixels included in a first image, and a plurality of pixels corresponding to pixel positions in the vicinity of the pixel of interest in the second image of higher quality than the first image are used as prediction taps. A prediction tap extraction unit to extract; a class classification unit that determines a class of the pixel of interest according to a pixel position of the pixel of interest in the second image; and a pre-acquired teacher image having the image quality of the second image And the student image having the image quality of the first image generated by applying different filters to the teacher image according to the pixel position, and predicting the pixel value of the target pixel from the pixel value of the prediction tap And a coefficient calculation unit that calculates a prediction coefficient used for each class determined by the class classification unit.
[Selection] Figure 7
Description
本発明は、学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムに関する。 The present invention relates to a learning device, an image processing device, a learning method, an image processing method, and a program.
デジタルカメラなどに搭載されるイメージセンサを用いて実世界の光を撮像する過程においては、撮像の結果として得られる画像信号の品質を低下させる様々な要因が存在する。例えば、フォーカスのずれや被写体の動き、イメージセンサのノイズ、又はベイヤ配列などの画素配列に応じた信号変換などは、画像信号の品質を低下させる要因の一例である。 In the process of imaging light in the real world using an image sensor mounted on a digital camera or the like, there are various factors that degrade the quality of an image signal obtained as a result of imaging. For example, focus shift, subject movement, image sensor noise, or signal conversion in accordance with a pixel array such as a Bayer array are examples of factors that degrade the quality of an image signal.
そこで、従来、カメラ内部の画像処理によって画像信号に含まれるノイズを除去し、又は画質を改善させるための技術開発が進められている。例えば、下記特許文献1では、画像信号の性質に応じて分類したクラスごとに適応的に画像信号の品質を向上させる、クラス分類適応処理と呼ばれる手法が開示されている。
Therefore, technology development for removing noise included in the image signal or improving the image quality by image processing inside the camera has been in progress. For example,
しかしながら、従来の手法では、例えば装置のノイズ特性が適応的に学習され、それにより高画質化が図られる場合はあったが、パラメータ・チューニングによって試行錯誤的に画質を向上させる場合を除き、イメージセンサ内の画素位置に応じたセンサ特性が適切に考慮された例は存在しなかった。例えば、イメージセンサの集光特性は、画素の開口率と密接な関係にあり、同一受光面内においても、画素の位置によってイメージセンサの集光特性は異なる。 However, in the conventional method, for example, the noise characteristics of the device are adaptively learned, and thereby high image quality can be achieved. However, unless the image quality is improved by trial and error through parameter tuning, There has been no example in which the sensor characteristics according to the pixel position in the sensor are appropriately considered. For example, the condensing characteristic of the image sensor is closely related to the aperture ratio of the pixel, and the condensing characteristic of the image sensor differs depending on the position of the pixel even within the same light receiving surface.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画素位置に応じたイメージセンサの特性を考慮し、撮像画像を高画質化することのできる、新規かつ改良された学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to improve the image quality of a captured image in consideration of the characteristics of the image sensor according to the pixel position. A new and improved learning device, image processing device, learning method, image processing method, and program are provided.
上記課題を解決するために、本発明のある観点によれば、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、を備える学習装置が提供される。 In order to solve the above-described problem, according to one aspect of the present invention, a different filter is applied to a pre-acquired teacher image having a second image quality higher than that of the first image according to the pixel position. A student image generation unit that generates a student image having the image quality of the first image, and a plurality of pixels included in the student image, the pixels in the vicinity of the target pixel to be noted when the teacher image is predicted From a prediction tap extraction unit that extracts a plurality of pixels corresponding to positions as prediction taps, a class classification unit that determines a class of the pixel of interest according to the pixel position of the pixel of interest, and a pixel value of the prediction tap A learning device comprising: a coefficient calculation unit that calculates a prediction coefficient used for predicting a pixel value of the target pixel in the teacher image for each of the classes determined by the class classification unit. It is provided.
また、前記クラス分類部は、前記教師画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定してもよい。 The class classification unit may determine the class according to a distance from a center position of the teacher image to a pixel position of the target pixel.
また、前記第1画像は、イメージセンサにより撮像される撮像画像であって、前記生徒画像生成部は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用することにより、前記生徒画像を生成してもよい。 In addition, the first image is a captured image captured by an image sensor, and the student image generation unit uses a filter that reflects a specific light collection characteristic of the image sensor according to a pixel position as the teacher image. The student image may be generated by applying to the above.
また、前記生徒画像生成部は、前記フィルタの特性を画素位置に応じて連続的に変化させて前記生徒画像を生成してもよい。 The student image generation unit may generate the student image by continuously changing the characteristics of the filter according to pixel positions.
また、前記係数算出部は、さらに、前記クラスごとに算出された前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出してもよい。 Further, the coefficient calculation unit may further calculate a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation using the prediction coefficient calculated for each class. Good.
また、前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、前記クラス分類部は、さらに、前記教師画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定してもよい。 The first image may be a captured image captured using a camera including an image sensor, and the class classification unit may further include characteristics of the camera when the teacher image is captured by the camera, or The class may be determined according to camera parameters representing the state.
また、前記学習装置は、前記生徒画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定してもよい。 The learning apparatus further includes a class tap extraction unit that extracts a plurality of pixels included in the student image and corresponding to a pixel position in the vicinity of the target pixel as a class tap, The class classification unit may determine the class according to a pixel value pattern of the class tap and a pixel position of the target pixel.
上記課題を解決するために、本発明の別の観点によれば、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と、前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と、を備える画像処理装置が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a plurality of pixels included in a first image and the vicinity of a target pixel noted in a second image having a higher quality than the first image. A prediction tap extraction unit that extracts a plurality of pixels corresponding to the pixel position of the target pixel as a prediction tap; a class classification unit that determines a class of the target pixel according to a pixel position in the second image of the target pixel; A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters, a pixel value of the prediction tap, and the Record By the obtained the prediction coefficients for linear combination from parts, the prediction arithmetic unit for calculating a predicted value corresponding to the pixel value of the target pixel, the image processing apparatus comprising a are provided.
また、前記クラス分類部は、前記第2画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定してもよい。 The class classification unit may determine the class according to a distance from a center position of the second image to a pixel position of the target pixel.
また、前記第1画像は、イメージセンサにより撮像された撮像画像であって、前記生徒画像は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用して生成された画像であってもよい。 In addition, the first image is a captured image captured by an image sensor, and the student image is applied to the teacher image a filter reflecting a specific light collection characteristic of the image sensor according to a pixel position. An image generated in this manner may be used.
また、前記生徒画像は、画素位置に応じて連続的に特性の変化するフィルタを前記教師画像に適用して生成された画像であってもよい。 The student image may be an image generated by applying a filter whose characteristics continuously change according to a pixel position to the teacher image.
また、前記予測演算部は、さらに、前記記憶部から取得された前記クラスごとの前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出してもよい。 Further, the prediction calculation unit further uses a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation, using the prediction coefficient for each class acquired from the storage unit. It may be calculated.
また、前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、前記クラス分類部は、さらに、前記第1画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定してもよい。 In addition, the first image is a captured image captured using a camera including an image sensor, and the class classification unit further includes characteristics of the camera when the first image is captured by the camera. Or you may determine the said class according to the camera parameter showing a state.
また、前記画像処理装置は、前記第1画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定してもよい。 The image processing apparatus further includes a class tap extraction unit that extracts a plurality of pixels included in the first image and corresponding to pixel positions in the vicinity of the target pixel as class taps. The class classification unit may determine the class according to a pixel value pattern of the class tap and a pixel position of the target pixel.
上記課題を解決するために、本発明の別の観点によれば、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成ステップと、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類ステップにおいて決定された前記クラスごとに算出する係数算出ステップと、を含む学習方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a different filter is applied to a pre-acquired teacher image having a second image quality higher than that of the first image according to the pixel position. Thus, a student image generation step for generating a student image having the image quality of the first image, and a plurality of pixels included in the student image, in the vicinity of the target pixel that is noticed when the teacher image is predicted. A prediction tap extracting step of extracting a plurality of pixels corresponding to the pixel position as a prediction tap; a class classification step of determining a class of the target pixel according to the pixel position of the target pixel; and a pixel value of the prediction tap To calculate a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image for each class determined in the class classification step Learning method comprising the steps out, it is provided.
上記課題を解決するために、本発明の別の観点によれば、学習装置を制御するコンピュータを、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、として機能させるためのプログラムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a computer that controls the learning apparatus is configured to store a pixel position in a teacher image that is acquired in advance and has a second image quality higher than that of the first image. A student image generation unit that generates a student image having the image quality of the first image by applying different filters according to the method, and a plurality of pixels included in the student image when predicting the teacher image A prediction tap extraction unit that extracts a plurality of pixels corresponding to pixel positions in the vicinity of the target pixel of interest as a prediction tap, and a class classification unit that determines a class of the target pixel according to the pixel position of the target pixel And a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit. A coefficient calculation unit that, a program to function as is provided.
上記課題を解決するために、本発明の別の観点によれば、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部から、前記クラス分類ステップにより決定された前記クラスに応じた前記予測係数を取得する予測係数取得ステップと、前記予測タップの画素値と前記予測係数取得ステップにより取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算ステップと、を含む画像処理方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a plurality of pixels included in a first image and the vicinity of a target pixel noted in a second image having a higher quality than the first image. A prediction tap extraction step of extracting a plurality of pixels corresponding to the pixel position as a prediction tap; a class classification step of determining a class of the target pixel according to a pixel position in the second image of the target pixel; A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position The class classification class is stored in a storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters. A prediction coefficient acquisition step for acquiring the prediction coefficient corresponding to the class determined by the step, and a linear linear combination of the pixel value of the prediction tap and the prediction coefficient acquired by the prediction coefficient acquisition step. A prediction calculation step of calculating a prediction value corresponding to the pixel value of the pixel of interest.
上記課題を解決するために、本発明の別の観点によれば、画像処理装置を制御するコンピュータを、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と、前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と、として機能させるためのプログラムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a computer that controls an image processing apparatus is a second pixel that is a plurality of pixels included in a first image and has a higher quality than the first image. A prediction tap extraction unit that extracts a plurality of pixels corresponding to a pixel position in the vicinity of the target pixel of interest in the image as a prediction tap; and according to the pixel position of the target pixel in the second image, A class classification unit for determining a class, a prediction coefficient used for predicting a pixel value of the target pixel from a pixel value of the prediction tap, and a teacher image acquired in advance having the image quality of the second image; A prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying a different filter to the teacher image according to the pixel position. And a prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit. A program is provided.
以上説明したように、本発明に係る学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムによれば、画素位置に応じたイメージセンサの特性を考慮し、撮像画像を高画質化することができる。 As described above, according to the learning device, the image processing device, the learning method, the image processing method, and the program according to the present invention, the captured image is improved in image quality in consideration of the characteristics of the image sensor according to the pixel position. be able to.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、以下の順序にしたがって当該「発明を実施するための最良の形態」を説明する。
1.イメージセンサの特性を考慮した高画質化の概要
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.まとめ
The “best mode for carrying out the invention” will be described in the following order.
1. Overview of image quality improvement considering the characteristics of
<1.イメージセンサの特性を考慮した高画質化の概要>
まず、イメージセンサの特性を考慮した高画質化の概要について説明する。
<1. Overview of high image quality considering the characteristics of image sensors>
First, an outline of high image quality in consideration of the characteristics of the image sensor will be described.
図1は、一例として、デジタルスチルカメラなどに使用されるイメージセンサ10の外観を示す模式図である。イメージセンサ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの、実世界の光を感知して画素ごとに電気信号を発生させる任意のセンサであってよい。
FIG. 1 is a schematic diagram showing an appearance of an
図1を参照すると、イメージセンサ10は、受光面12を有する。受光面12には、典型的には、各々光を感知して電気信号を生成する複数の画素が配置される。また、図1には、受光面12の中央部の画素位置P1、及び受光面12の周辺部の画素位置P2が示されている。
Referring to FIG. 1, the
図2〜図5は、それぞれ、イメージセンサの特性の一例としての集光特性を実測して得られた特性図である。このうち、図2及び図3は、イメージセンサS1の画素位置P1及び画素位置P2における集光特性をそれぞれ表している。また、図4及び図5は、イメージセンサS2の画素位置P1及び画素位置P2における集光特性をそれぞれ表している。 2 to 5 are characteristic diagrams obtained by actually measuring the condensing characteristics as an example of the characteristics of the image sensor. Among these, FIG.2 and FIG.3 represents the condensing characteristic in the pixel position P1 and pixel position P2 of image sensor S1, respectively. 4 and 5 show the light condensing characteristics at the pixel position P1 and the pixel position P2 of the image sensor S2, respectively.
図2〜図5の各特性図において、二次元の水平面上の各座標は、画素P1又は画素P2に入射する入射光の方向に対応する。また、当該水平面に対する格子線の高さは、当該画素において生成される電気信号(画素信号)の信号レベルに対する、各入射光の寄与率を表す。 2 to 5, each coordinate on a two-dimensional horizontal plane corresponds to the direction of incident light incident on the pixel P1 or the pixel P2. The height of the grid line with respect to the horizontal plane represents the contribution rate of each incident light to the signal level of the electrical signal (pixel signal) generated in the pixel.
ここで、理想的なイメージセンサを仮定すると、全ての画素について、当該画素に垂直に入射する入射光の寄与率、即ち特性図の中央(座標(0,0))における寄与率が1となり、それ以外の斜めに入射する入射光の寄与率はゼロとなるのが望ましい。しかしながら、現実のイメージセンサの集光特性は、図2〜図5から理解されるように、入射角において一定の広がりを持つ範囲の入射光を畳み込みながら各画素信号が生成されることを示している。 Here, assuming an ideal image sensor, for all pixels, the contribution rate of incident light perpendicularly incident on the pixel, that is, the contribution rate at the center (coordinate (0, 0)) of the characteristic diagram is 1. The contribution ratio of other incident light incident obliquely is preferably zero. However, the condensing characteristic of an actual image sensor shows that each pixel signal is generated while convolving incident light in a range having a certain spread at the incident angle, as can be understood from FIGS. Yes.
また、図2と図3、又は図4と図5を比較すると、いずれのイメージセンサにおいても、画素位置P1における集光特性は比較的急峻であり、画素位置P2における集光特性は比較的なだらかである。即ち、イメージセンサの集光特性は、受光面上の画素位置に応じて異なることが分かる。 Further, comparing FIG. 2 and FIG. 3 or FIG. 4 and FIG. 5, in any of the image sensors, the condensing characteristic at the pixel position P1 is relatively steep, and the condensing characteristic at the pixel position P2 is relatively gentle. It is. That is, it can be seen that the light condensing characteristics of the image sensor differ depending on the pixel position on the light receiving surface.
また、例えば、図2と図4とを比較すると、受光面上の画素位置は同じP1であっても、イメージセンサS1とイメージセンサS2では集光特性は異なっている。また、図3と図5とを比較しても同様である。即ち、画素位置が同じであっても、イメージセンサの個体が異なることによって集光特性が変化し得ることが分かる。 For example, when FIG. 2 is compared with FIG. 4, even if the pixel position on the light receiving surface is the same P1, the light condensing characteristics are different between the image sensor S1 and the image sensor S2. The same applies when FIG. 3 and FIG. 5 are compared. That is, it can be seen that even if the pixel positions are the same, the light condensing characteristics can be changed by different image sensors.
このようなイメージセンサの集光特性の違いは、例えば、イメージセンサの開口部の形状やオンチップレンズの影響などに起因する。また、図には現われていないが、同一の個体であっても、撮影時のカメラの特徴又は状態を表すカメラパラメータが異なる場合には、イメージセンサの集光特性がカメラパラメータに応じて変化することも考えられる。 Such a difference in condensing characteristics of the image sensor is caused by, for example, the shape of the opening of the image sensor or the influence of an on-chip lens. Although not shown in the figure, even when the same individual is used, if the camera parameters representing the characteristics or state of the camera at the time of shooting are different, the light collection characteristics of the image sensor change according to the camera parameters. It is also possible.
ここで、上述したようなイメージセンサの特性は、イメージセンサへ入力される原画像に作用するフィルタとして扱うことができる。その場合、例えば、図2〜図5に示した特性図上の各座標における格子線の高さは、フィルタの特性を表すフィルタ係数となる。そして、かかるフィルタ係数は、前述したように、実測し得る。 Here, the characteristics of the image sensor as described above can be handled as a filter that acts on the original image input to the image sensor. In that case, for example, the height of the grid line at each coordinate on the characteristic diagrams shown in FIGS. 2 to 5 is a filter coefficient representing the characteristic of the filter. Such filter coefficients can be actually measured as described above.
そこで、イメージセンサの特性を反映させた仮想的なフィルタを用いて所与の教師画像から生徒画像を生成し、生成した画像から教師画像を予測することが考えられる。また、予測の精度は、上記特許文献1に記載のクラス分類適応処理を応用し、適応的な学習により高めることができる。
Therefore, it is conceivable that a student image is generated from a given teacher image using a virtual filter reflecting the characteristics of the image sensor, and the teacher image is predicted from the generated image. Further, the accuracy of prediction can be improved by adaptive learning by applying the class classification adaptive processing described in
図6は、イメージセンサの特性を反映させた仮想的なフィルタを用いた学習処理及び予測処理について説明するための説明図である。 FIG. 6 is an explanatory diagram for explaining learning processing and prediction processing using a virtual filter that reflects the characteristics of the image sensor.
学習処理において、まず、所与の教師画像ITに対して、実測した個々のイメージセンサの特性を反映したフィルタが適用され、生徒画像ISが生成される。ここで、教師画像ITは、生徒画像ISよりも高い解像度で与えられているものとする。例えば、生徒画像ISの画素位置(u,v)における画素値ISu,vは、当該画素位置に対応する教師画像ITの近傍の画素値ITu+i,v+jを用いて、次式により計算される。 In the learning process, first, a student image IS is generated by applying a filter reflecting characteristics of each actually measured image sensor to a given teacher image IT. Here, it is assumed that the teacher image IT is given with a higher resolution than the student image IS. For example, the pixel value IS u, v at the pixel position (u, v) of the student image IS is calculated by the following equation using the pixel values IT u + i, v + j near the teacher image IT corresponding to the pixel position. .
ここで、αi,j(u,v)は、イメージセンサの特性を反映したフィルタ処理において、教師画像IT内の各画素値に乗算される個々のフィルタ係数を表す。なお、前述したように、フィルタ係数αi,j(u,v)は、画素位置(u,v)に依存して変動し得る。 Here, α i, j (u, v) represents individual filter coefficients to be multiplied to each pixel value in the teacher image IT in the filter processing reflecting the characteristics of the image sensor. As described above, the filter coefficient α i, j (u, v) can vary depending on the pixel position (u, v).
そして、このように生成した生徒画像ISから教師画像ITを予測するための予測係数を、上記特許文献1に記載のクラス分類適応処理における学習の考え方に従って算出する。
Then, a prediction coefficient for predicting the teacher image IT from the student image IS generated in this way is calculated according to the learning concept in the class classification adaptation process described in
即ち、生徒画像ISの各画素値は、所定の予測係数を用いて、教師画像ITにマッピング(写像)される。例えば、予測係数を用いたマッピング方法として線形一次結合モデルを採用すると、教師画像ITの注目画素値yは、次の線形一次式(線形結合)によって求められる。 That is, each pixel value of the student image IS is mapped (mapped) to the teacher image IT using a predetermined prediction coefficient. For example, when a linear linear combination model is adopted as a mapping method using a prediction coefficient, the target pixel value y of the teacher image IT is obtained by the following linear linear expression (linear combination).
ここで、dnは、生徒画像ISから抽出されたN個の画素よりなる予測タップのうち、n番目の画素の画素値を表す。また、wnは、n番目の予測タップに乗算される予測係数を表す。なお、注目画素値yは、式(2)に示した線形一次式ではなく、二次以上の高次式によって求められてもよい。 Here, d n, of the prediction tap consisting of N pixels that have been extracted from the student image IS, representing pixel values of the n-th pixel. Also, w n represent the prediction coefficients to be multiplied to n-th prediction tap. Note that the target pixel value y may be obtained not by the linear primary expression shown in Expression (2) but by a higher-order expression of the second or higher order.
ここで、第k番目の注目画素の画素値の真値をyk、予測値をyk’とする。そうすると、予測誤差ekは次式で表される。 Here, the true value of the pixel value of the kth pixel of interest is y k , and the predicted value is y k ′. Then, the prediction error ek is expressed by the following equation.
式(3)の予測値yk’は式(2)に従って求められるため、式(3)の予測値yk’を式(2)に従って置き換えると、次式が得られる。 Since the predicted value y k ′ of Expression (3) is obtained according to Expression (2), when the predicted value y k ′ of Expression (3) is replaced according to Expression (2), the following expression is obtained.
但し、式(4)において、dn,kは、第k番目の注目画素についての予測タップのうち、n番目の画素値を表す。 However, in Expression (4), dn , k represents the nth pixel value among the prediction taps for the kth pixel of interest.
ここで、最適な予測係数wnは、最小自乗法の考え方により、例えば、統計的な誤差としての次式で表される自乗誤差の総和Eを最小(極小)にすることで求められる。 Here, the optimum prediction coefficient w n is the concept of the least squares method, for example, it is determined by minimizing (minimum) the sum E of square errors expressed by the following equation as a statistical error.
但し、Kは、教師画像ITを予測する際の全注目画素数を表す。 Here, K represents the total number of pixels of interest when predicting the teacher image IT.
そして、式(4)と式(5)から、自乗誤差の総和Eを最小(極小)にする最適な予測係数wnは、次式で表される正規方程式を、例えば掃き出し法(Gaus−Jordanの消去法)を用いて解くことにより求められる。 Then, from equation (4) and (5), the optimal prediction coefficients w n to the total sum E of the square errors to a minimum (local minimum), the normal equation represented by the following formula, for example, sweeping-out method (Gaus-Jordan It is calculated | required by solving using the elimination method.
即ち、図6における学習処理では、所与の教師画像ITと画素位置に応じたフィルタ係数αi,j(u,v)とを用いて生徒画像ISが生成された後、まず、注目画素位置ごとに順次、生徒画像ISから予測タップdnが抽出される。次に、予測タップdnと教師画像ITの注目画素値yk(真値)とを用いて、式(6)の正規方程式が生成される。そして、式(6)の正規方程式を解くことにより、生徒画像ISから教師画像ITを予測する予測係数wnが算出される。 That is, in the learning process in FIG. 6, after the student image IS is generated using the given teacher image IT and the filter coefficient α i, j (u, v) corresponding to the pixel position, first, the target pixel position successively, the prediction taps d n from the student image iS are extracted every. Next, using the prediction taps d n and the teacher image IT of the target pixel value y k (true value), the normal equation of formula (6) is generated. Then, by solving the normal equation of formula (6), prediction coefficients for predicting the teacher image IT from the student image IS w n are calculated.
さらに、図6における予測処理では、学習処理にて算出しておいた予測係数wnを用いて、イメージセンサによって撮像された撮像画像I1から、撮像前の原画像I2が予測される。ここで、撮像画像I1は前述の生徒画像ISに相当し、原画像I2は前述の教師画像ITに相当する。撮像画像I1からの原画像I2の予測は、学習処理と同様に撮像画像I1から予測タップdnを抽出した後、式(2)に従って行われる。 Further, in the prediction process in FIG. 6, using the prediction coefficient w n which has been calculated by the learning process, from the captured image I1 captured by the image sensor, an original image I2 before imaging is predicted. Here, the captured image I1 corresponds to the student image IS described above, and the original image I2 corresponds to the teacher image IT described above. Prediction of the original image I2 from the captured image I1, after extracting prediction taps d n from the captured image I1 as with learning processing is performed according to equation (2).
ここまで、図1〜図6を用いて、イメージセンサの特性を考慮した高画質化の概要について説明した。以下、本明細書では、図6に関連して説明した学習処理を行う学習装置、及び予測処理を行う画像処理装置について、イメージセンサの特性を考慮した高画質化の3つの実施形態に沿って詳細に説明する。 Up to this point, the outline of high image quality considering the characteristics of the image sensor has been described with reference to FIGS. Hereinafter, in the present specification, the learning apparatus that performs the learning process described with reference to FIG. 6 and the image processing apparatus that performs the prediction process are in line with three embodiments of high image quality in consideration of the characteristics of the image sensor. This will be described in detail.
<2.第1の実施形態>
[学習装置]
図7は、本発明の第1の実施形態に係る学習装置100の論理的な構成を示すブロック図である。
<2. First Embodiment>
[Learning device]
FIG. 7 is a block diagram showing a logical configuration of the
図7を参照すると、学習装置100は、生徒画像生成部110、特性記憶部112、画像記憶部116、注目画素設定部120、クラス分類部142、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。
Referring to FIG. 7, the
生徒画像生成部110は、学習装置100に教師画像ITが供給されると、特性記憶部112からイメージセンサの特性を反映したフィルタ係数を取得し、取得したフィルタ係数を用いて教師画像ITから生徒画像ISを生成する。
When the teacher image IT is supplied to the
より具体的には、生徒画像生成部110は、まず、生徒画像IS内の特定の画素位置(u,v)の画素に注目する。そして、生徒画像生成部110は、例えば、画素位置(u,v)に応じたイメージセンサの集光特性を表すフィルタ係数αi,j(u,v)を、特性記憶部112から取得する。その後、生徒画像生成部110は、上述した式(1)に従って、フィルタ係数αi,j(u,v)と教師画像ITの各画素値から生徒画像ISの注目画素値ISu,vを計算する。生徒画像生成部110は、かかる処理を生成すべき生徒画像ISの全画素について繰返し、生徒画像ISを生成する。
More specifically, the student
特性記憶部112には、学習の対象とするイメージセンサの特性を反映したフィルタ係数αi,jが、予め記憶されている。フィルタ係数αi,jは、例えば、イメージセンサの製造後の試験により画素位置に応じて実測される。
The
ここで、例えばイメージセンサの集光特性は、センサの開口部やオンチップレンズの形状の対称性から、一般的には、受光面の中央を中心とする同心円の円周上では一定となる。また、受光面の中央からの距離が大きくなるに従い、集光特性は連続的に変化する。 Here, for example, the condensing characteristic of the image sensor is generally constant on the circumference of a concentric circle centering on the center of the light receiving surface due to the symmetry of the shape of the opening of the sensor and the on-chip lens. Further, as the distance from the center of the light receiving surface increases, the light collection characteristics continuously change.
そのため、例えば、特性記憶部112には、受光面の中央からの距離が異なる数個の画素位置についてのフィルタ係数αi,jのみを記憶させておいてもよい。そして、生徒画像生成部110は、注目画素位置(u,v)について受光面の中央からの距離を計算し、特性記憶部112から取得した離散的なフィルタ係数を距離に応じて補間することにより、注目画素値ISu,vの計算に用いるフィルタ係数を算出してもよい。また、この場合の補間手法は、線形補間に限定されず、より高次の補間関数を用いた手法などであってもよい。
Therefore, for example, the
画像記憶部116は、生徒画像生成部110により生成された生徒画像ISを一時的に記憶する。
The
注目画素設定部120は、画像記憶部116から生徒画像ISを取得し、生徒画像ISから教師画像ITを予測する予測係数の算出に用いる注目画素位置S(s,t)を順次設定する。そして、注目画素設定部120は、注目画素位置Sを設定すると、クラス分類部142に注目画素位置Sを入力し、注目画素位置Sに応じたクラスを決定させる。また、注目画素設定部120は、予測タップ抽出部150に生徒画像ISと注目画素位置Sとを入力し、生徒画像ISから予測タップdnを抽出させる。また、注目画素設定部120は、教師画素抽出部152に注目画素位置Sを入力し、教師画像ITから注目画素位置Sにおける教師画素の真値ykを抽出させる。
The pixel-of-
クラス分類部142は、注目画素設定部120から入力された注目画素位置Sに応じて1以上のクラスのうちのいずれかのクラスに注目画素を分類し、注目画素のクラスを表すクラスコードCを学習記憶部162に出力する。
The
クラス分類部142により分類されるクラスは、図8に一例として示したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に応じて区分されたクラスであってもよい。
The classes classified by the
図8(A)を参照すると、クラスコードC1、C2、C3、及びC4を与えられた4種類のクラスが用意されている。また、クラスコードごとに、当該クラスに分類されるための分類条件が示されている。 Referring to FIG. 8A, four types of classes given class codes C1, C2, C3, and C4 are prepared. For each class code, classification conditions for classification into the class are shown.
例えば、クラスコードC1の分類条件は、距離D(S)が、D(S)<D1を満たすことである。例えば、図8(B)における画素位置P1は、受光面12の中央からの距離がD1よりも小さいため、クラスコードC1で表されるクラスに分類される。また、クラスコードC2の分類条件はD1≦D(S)<D2、クラスコードC3の分類条件はD2≦D(S)<D3である。さらに、クラスコードC4の分類条件はD3≦D(S)である。例えば、図8(B)における画素位置P2は、受光面12の中央からの距離がD3よりも大きいため、クラスコードC4で表されるクラスに分類される。
For example, the classification condition of the class code C1 is that the distance D (S) satisfies D (S) <D1. For example, the pixel position P1 in FIG. 8B is classified into the class represented by the class code C1 because the distance from the center of the
なお、クラス分類部142により分類されるクラスは、図8に示した例に限定されず、注目画素位置Sに応じて分類される任意のクラスであってよい。例えば、受光面の中央から注目画素位置Sまでのベクトルの向きなどをクラスに対応付けてもよい。
The class classified by the
予測タップ抽出部150は、生徒画像ISに含まれる注目画素位置Sの近傍の複数の画素を予測タップdnとして抽出し、抽出した予測タップdnを正規方程式生成部160へ出力する。
The prediction
図9は、予測タップ抽出部150により抽出される予測タップdnの一例を示している。図9の例において、予測タップ抽出部150は、注目画素位置S(s,t)を中心とする、いわゆる菱形に配置された計13個の画素d1〜d13を予測タップdnとして抽出している。なお、予測タップ抽出部150により抽出される予測タップdnは、図9の例に限定されず、注目画素位置Sの近傍の任意の位置又は任意の数の画素の集合であってよい。
Figure 9 shows an example of a prediction tap d n extracted by the prediction
教師画素抽出部152は、注目画素設定部120から入力された注目画素位置Sにおける画素値を教師画像ITから抽出し、真値ykとして正規方程式生成部160に出力する。なお、教師画素の真値ykにおけるkは、注目画素位置S(s,t)を一次元化することにより与えられる。
The teacher
正規方程式生成部160は、予測タップ抽出部150から入力される予測タップdnと教師画素抽出部152から入力される教師画素の真値ykとを用いて、式(6)により表される正規方程式への足し込みを行う。
Normal
ここで、正規方程式への足し込みとは、式(6)に現れる各行列及びベクトルの要素を算出し、算出した結果を正規方程式に設定する処理をいう。即ち、正規方程式生成部160は、まず、式(6)の左辺の行列における予測タップdnの画素値同士の乗算とサメーション(Σ)を行う。次に、正規方程式生成部160は、式(6)の右辺のベクトルにおける予測タップdnの画素値と教師画素の真値ykとの間の乗算とサメーション(Σ)を行う。そして、正規方程式生成部160は、乗算とサメーション(Σ)の結果を、正式方程式に設定する。
Here, the addition to the normal equation refers to a process of calculating each matrix and vector element appearing in the equation (6) and setting the calculated result in the normal equation. That is, the normal
正規方程式生成部160は、注目画素設定部120により設定される全ての注目画素位置Sについて前述した足し込みを行い、生成した正規方程式を学習記憶部162へ出力する。
The normal
学習記憶部162は、クラス分類部142により決定されたクラスコードCにより表されるクラスごとに、正規方程式生成部160により生成された正規方程式を記憶する。
The learning
係数算出部170は、学習記憶部162から前述したクラスごとに正規方程式を取得し、取得した正規方程式を解くことにより、クラスごとの予測係数wnを算出する。そして、係数算出部170は、算出したクラスごとの予測係数wnを係数記憶部172に出力する。
係数記憶部172は、係数算出部170から入力されたクラスごとの予測係数wnを記憶する。ここで記憶された予測係数wnは、後述する画像処理装置において、撮像画像から抽出した予測タップの画素値から原画像の画素値を予測するために用いられる。
[処理フロー説明:学習処理]
次に、図10のフローチャートを用いて、本実施形態に係る学習装置100による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the
図10を参照すると、まず、学習装置100に教師画像ITが供給される(S202)。教師画像ITは、生徒画像生成部110及び教師画素抽出部152に入力される。
Referring to FIG. 10, first, a teacher image IT is supplied to the learning apparatus 100 (S202). The teacher image IT is input to the student
次に、教師画像ITと特性記憶部112から取得されたフィルタ係数とを用いて、生徒画像生成部110により、生徒画像ISが生成される(S204)。ここで生成された生徒画像ISは、画像記憶部116へ出力され、記憶される。
Next, the student image IS is generated by the student
その後、注目画素設定部120により、画像記憶部116から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S206)。
Thereafter, the target
そして、クラス分類部142により、注目画素位置Sに応じたクラスが決定され、決定されたクラスを表すクラスコードが学習記憶部162へ出力される(S208)。
Then, the
また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、抽出された予測タップdnが正規方程式生成部160へ出力される(S210)。
Furthermore, the prediction
また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値ykが抽出され、抽出された注目画素の真値ykが正規方程式生成部160へ出力される(S212)。
Further, the teacher
そして、正規方程式生成部160により、予測タップdn及び注目画素の真値ykを用いて、正規方程式への足し込みが行われる(S214)。ここで生成された正規方程式は、クラス分類部142により決定されたクラスごとに学習記憶部162により記憶される。
Then, the normal
その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S216)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS206へ戻り、注目画素設定部120によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS218へ進む。
Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S216). Here, if there is a target pixel that has not been added to the normal equation, the process returns to S206, and the target
S218では、係数算出部170により、正規方程式がクラスごとに順次学習記憶部162から取得され、取得された正規方程式を解くことにより、クラスごとの予測係数wnが算出される(S218)。ここで算出された予測係数wnは、クラスごとに係数記憶部172により記憶される。
In S218, the
その後、全てのクラスについての予測係数wnの算出が終了したか否かが判定される(S220)。ここで、予測係数wnの算出が終了していないクラスが残っていれば、処理はS218へ戻り、係数算出部170によって残っているクラスについての予測係数wnの算出が行われる。一方、全てのクラスについて予測係数wnの算出が終了していれば、学習処理は終了する。
Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S220). Here, if the remaining class calculation is not completed in the prediction coefficient w n is, the process returns to S218, the calculation of the prediction coefficients w n for the class remaining the
[変形例]
なお、本実施形態では、全てのクラスについて正規方程式を解くことにより予測係数wnを算出する例について説明した。しかしながら、その代わりに、一部のクラスについて正規方程式を解くことにより予測係数wnを算出し、残りのクラスについては、次に説明するように、各クラスを代表する代表画素位置の間の関係に応じて予測係数を補間して算出してもよい。
[Modification]
In the present embodiment has been described for an example of calculating the prediction coefficient w n by solving the normal equation for all classes. However, instead, to calculate the prediction coefficient w n by solving the normal equations for some classes for the remaining classes, as described below, the relationship between the representative pixel positions representative of each class The prediction coefficient may be calculated by interpolation according to the above.
図11は、クラスを代表する代表画素位置について説明するための説明図である。 FIG. 11 is an explanatory diagram for describing a representative pixel position representing a class.
図11では、一例として、イメージセンサの受光面12上の画素位置に応じてクラスコードC1、C2及びC3で表される3つのクラス(以下、クラスC1、クラスC2及びクラスC3という。)が定義されている。クラスC1は、受光面12の中央を含む円形の領域に対応するクラスである。クラスC2は、クラスC1とクラスC3との間に位置し、受光面12の中央との間の距離が中程度の領域に対応するクラスである。クラスC3は、クラスC2の外側に位置し、受光面12の中央との間の距離が最も遠い領域に対応するクラスである。そして、図11には、クラスC1の代表画素位置Q1、クラスC2の代表画素位置Q2、及びクラスC3の代表画素位置Q3が示されている。
In FIG. 11, as an example, three classes (hereinafter referred to as class C1, class C2, and class C3) represented by class codes C1, C2, and C3 are defined according to the pixel position on the
ここで、例えば、クラスC1及びクラスC3の予測係数wnが前述の正規方程式を解くことにより既に算出されているとする。その場合、例えば、図12に示した線形補間の手法を用いて、クラスC2の予測係数wnを算出することができる。 Here, for example, the prediction coefficient w n of the class C1 and a class C3 is the already calculated by solving the normal equation described above. In that case, for example, by using a linear interpolation method shown in FIG. 12, it is possible to calculate the prediction coefficient w n of the class C2.
図12において、グラフの横軸は、図11に示した各クラスの代表画素位置の、受光面12の中央からの距離を表す。また、グラフの縦軸は、各クラスについての予測係数wnの係数値を表す。
In FIG. 12, the horizontal axis of the graph represents the distance from the center of the
図12に示されたクラスC1(代表画素値Q1)の予測係数値Wn(Q1)、及びクラスC3(代表画素値Q3)の予測係数値Wn(Q3)は、それぞれ正規方程式を解いて算出された結果からプロットされる。そうすると、プロットされた2つの端点を結ぶ直線上の、代表画素位置Q2に対応する予測係数値が、クラスC2(代表画素値Q2)の予測係数値Wn(Q2)となる。なお、図12では、クラスC2の予測係数値を線形補間によって算出したが、予測係数値の補間手法は線形補間に限定されず、任意の手法であってよい。 Figure 12 shows the class C1 prediction coefficient W n of (representative pixel value Q1) (Q1), and the prediction coefficient value W n (Q3) Class C3 (representative pixel value Q3) are each solved the normal equations Plotted from the calculated results. Then, the prediction coefficient value corresponding to the representative pixel position Q2 on the straight line connecting the two plotted end points becomes the prediction coefficient value W n (Q2) of the class C2 (representative pixel value Q2). In FIG. 12, the prediction coefficient value of class C2 is calculated by linear interpolation. However, the interpolation method of the prediction coefficient value is not limited to linear interpolation, and may be any method.
このように、一部のクラス又は一部の画素位置に対応する予測係数wnを補間によって算出することで、学習装置100による学習に掛かる演算量を低減させることができる。
Thus, by calculating by interpolation prediction coefficient w n corresponding to a portion of a class or a part of the pixel positions, it is possible to reduce the amount of computation required for learning by the
ここまで、本発明の第1の実施形態に係る学習装置100について説明した。本実施形態に係る学習装置100によれば、イメージセンサが画素位置に応じて異なる特性を有している場合に、イメージセンサによる撮像過程を経て得られた撮像画像から原画像を予測するための予測係数が適応的に生成される。それにより、試行錯誤的な画質のチューニングを行うことなく、次項で述べる画像処理装置によってイメージセンサの特性を考慮した高画質化を行うことが可能となる。
So far, the
また、当該予測係数は、撮像画像から原画像を予測する際の注目画素の画素位置に応じて分類されたクラスごとに算出される。即ち、例えば近傍に位置する2つの注目画素については、予測係数の1つのセットのみが生成され得る。そのため、予測係数の学習に掛かる演算量と予測係数の記憶に用いられる記憶領域を節約しながら、精度の高い予測係数の学習を行うことができる。 Further, the prediction coefficient is calculated for each class classified according to the pixel position of the target pixel when the original image is predicted from the captured image. That is, for example, for two pixels of interest located in the vicinity, only one set of prediction coefficients can be generated. Therefore, it is possible to learn the prediction coefficient with high accuracy while saving the amount of calculation required for learning the prediction coefficient and the storage area used for storing the prediction coefficient.
[画像処理装置]
次に、前述した学習装置100により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図13は、本発明の第1の実施形態に係る画像処理装置300の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs prediction processing for predicting an original image before imaging from a captured image using the prediction coefficient generated by the
図13を参照すると、画像処理装置300は、注目画素設定部320、クラス分類部342、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。
Referring to FIG. 13, the
画像処理装置300は、イメージセンサにより撮像された撮像画像I1に対し、学習装置100により予め生成された予測係数を用いて、以下に詳しく説明する予測演算を行うことにより、撮像前の原画像に相当する予測画像I2を生成して出力する。
The
まず、画像処理装置300に撮像画像I1が供給されると、撮像画像I1は注目画素設定部320に入力される。
First, when the captured image I1 is supplied to the
注目画素設定部320は、イメージセンサにより撮像される前の原画像に相当する予測画像I2のうち、予測の対象とする任意の画素を注目画素として順次設定する。そして、注目画素設定部320は、設定した注目画素の予測画像I2における画素位置Sをクラス分類部342へ出力する。また、注目画素設定部320は、撮像画像I1と注目画素位置Sとを予測タップ抽出部350へ出力する。
The target
クラス分類部342は、注目画素設定部320から入力された注目画素位置Sに応じて、後述する係数記憶部372において予測係数と対応付けられたいずれかのクラスに注目画素を分類する。そして、クラス分類部342は、分類したクラスを表すクラスコードCを予測係数取得部374へ出力する。
The
例えば、図8に関連して説明したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に応じて区分されたクラスごとに、係数記憶部372において予測係数が記憶されているとする。その場合には、クラス分類部342は、まず、注目画素設定部320から入力された注目画素位置Sの受光面の中央からの距離D(S)を計算する。そして、クラス分類部342は、計算の結果得られた距離D(S)に応じたクラスコードCを、図8(A)に例示した分類条件に従って決定する。そして、クラス分類部342は、決定したクラスコードCを予測係数取得部374へ出力する。
For example, as described with reference to FIG. 8, the prediction coefficient is calculated in the
係数記憶部372は、学習装置100による前述した学習処理の結果得られた予測係数wnを、画素位置に応じたクラスごとに記憶している。そして、係数記憶部372は、例えば、予測係数取得部374から指定されたクラスコードCに対応するアドレスに記憶されている予測係数wnを読み出し、予測係数取得部374へ出力する。
予測係数取得部374は、クラス分類部342から入力されたクラスコードCに対応する予測係数wnを係数記憶部372から取得し、予測演算部380へ出力する。
Prediction
予測タップ抽出部350は、注目画素設定部320から入力された注目画素位置Sの近傍の複数の画素を撮像画像I1から予測タップdnとして抽出し、抽出した予測タップdnを予測演算部380へ出力する。ここで予測タップ抽出部350により抽出される予測タップdnは、例えば、図9に関連して説明した、注目画素位置S(s,t)を中心とする菱形状の計13個の画素d1〜d13などとなる。
The prediction
予測演算部380は、前述した式(2)に従い、予測タップ抽出部350から入力された予測タップdnの各画素値と予測係数取得部374から入力された予測係数wnの各係数値とを線形一次結合することにより、注目画素の画素値に相当する予測値を計算する。
このような予測値の演算は、予測画像I2の全ての注目画素値が算出されるまで繰り返される。 Such calculation of the predicted value is repeated until all the target pixel values of the predicted image I2 are calculated.
[処理フロー説明:予測処理]
次に、図14のフローチャートを用いて、本実施形態に係る画像処理装置300による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the
図14を参照すると、まず、画像処理装置300に撮像画像I1が供給される(S402)。撮像画像I1は、注目画素設定部320に入力される。
Referring to FIG. 14, first, a captured image I1 is supplied to the image processing apparatus 300 (S402). The captured image I1 is input to the target
その後、注目画素設定部320により、予測画像I2のうち予測の対象とする注目画素の画素位置Sが設定される(S404)。ここで設定された画素位置Sはクラス分類部342へ出力され、また注目画素位置Sと撮像画像I1は予測タップ抽出部350へ出力される。
Thereafter, the target
そして、クラス分類部342により、注目画素位置Sに応じて注目画素のクラスが決定され、決定されたクラスを表すクラスコードCが予測係数取得部374へ出力される(S406)。
Then, the
さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wnが取得され、取得された予測係数wnが予測演算部380へ出力される(S408)。
Moreover, the prediction
また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、予測演算部380へ出力される(S410)。
Furthermore, the prediction
そして、予測演算部380において、予測係数wnと予測タップdnの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S412)。
Then, the
その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S414)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS404へ戻り、注目画素設定部320によって新たな注目画素が設定される。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。
Thereafter, it is determined whether or not the calculation of the prediction values for all the target pixels has been completed (S414). Here, if there remains a pixel for which the calculation of the predicted value has not been completed, the process returns to S <b> 404, and a new target pixel is set by the target
ここまで、本発明の第1の実施形態に係る画像処理装置300について説明した。本実施形態に係る画像処理装置300によれば、イメージセンサが画素位置に応じて異なる特性を有している場合に、前項で述べた学習装置100による学習の結果得られた予測係数を用いて、撮像画像から原画像を予測することができる。それにより、試行錯誤的な画質のチューニングを行うことなく、イメージセンサの特性を考慮して撮像画像を高画質化することが可能となる。
Up to this point, the
なお、ここでは、注目画素位置に応じて決定したクラスに対応する予測係数をそのまま予測演算部380による線形一次結合に適用する例について説明した。しかしながら、その代わりに、注目画素位置に応じて複数のクラスに対応する予測係数を取得し、各クラスを代表する代表画素位置と注目画素位置の間の関係に応じて、予測係数を補間して適用してもよい。例えば、図12に例示した線形補間、又はより高次の補間手法を用いることができる。そうすることにより、予測係数を記憶しておくために必要な記憶領域を節約しながら、精度の高い予測を行うことが可能となる。
Here, the example in which the prediction coefficient corresponding to the class determined according to the target pixel position is applied to the linear linear combination by the
<3.第2の実施形態>
第1の実施形態では、画素位置に応じたイメージセンサの特性のみを考慮して撮像画像を高画質化する例について説明した。ここで、前述したように、画像を撮影した際のカメラパラメータが異なる場合には、イメージセンサの特性が、画素位置に加えてカメラパラメータに応じて変化することも考えられる。そこで、本発明の第2の実施形態では、撮像時のカメラパラメータも考慮に入れて撮像画像を高画質化する例について説明する。
<3. Second Embodiment>
In the first embodiment, the example in which the image quality of the captured image is improved considering only the characteristics of the image sensor according to the pixel position has been described. Here, as described above, when the camera parameters at the time of capturing an image are different, the characteristics of the image sensor may be changed according to the camera parameters in addition to the pixel position. Therefore, in the second embodiment of the present invention, an example will be described in which the image quality of a captured image is improved in consideration of camera parameters during imaging.
[学習装置]
図15は、本発明の第2の実施形態に係る学習装置500の論理的な構成を示すブロック図である。
[Learning device]
FIG. 15 is a block diagram showing a logical configuration of a
図15を参照すると、学習装置500は、生徒画像生成部510、特性記憶部512、カメラパラメータ取得部514、画像記憶部516、注目画素設定部520、クラス分類部542、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。
Referring to FIG. 15, the
学習装置500による学習時には、撮像画像よりも高質な教師画像IT、及び教師画像ITが撮像された際のカメラパラメータCPが、学習装置500に供給される。ここで、カメラパラメータとは、画像が撮影された際のカメラの特徴又は状態を表すパラメータのうち、例えば、焦点距離(フォーカス)、ズーム、絞り(アイリス)、又は被写界深度など、イメージセンサの特性に影響を与える任意のパラメータであってよい。
During learning by the
なお、図15の各機能ブロックのうち、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172は、それぞれ図7に関連して説明した内容と同等の機能を有する。そのため、ここでは主に、生徒画像生成部510、特性記憶部512、カメラパラメータ取得部514、画像記憶部516、注目画素設定部520、及びクラス分類部542について説明する。
15, the prediction
図15において、カメラパラメータ取得部514は、教師画像ITが撮像された際のカメラパラメータCPを取得し、生徒画像生成部510へ出力する。
In FIG. 15, the camera
生徒画像生成部510は、教師画像ITが供給されると、カメラパラメータ取得部514から入力されたカメラパラメータCPに応じたフィルタ係数を特性記憶部512から取得する。そして、生徒画像生成部510は、取得したフィルタ係数を用いて教師画像ITから生徒画像ISを生成する。
When the teacher image IT is supplied, the student
または、生徒画像生成部510は、教師画像ITが供給されると、特性記憶部512から取得したフィルタ係数をカメラパラメータCPに応じた値に再計算し、再計算したフィルタ係数を用いて教師画像ITから生徒画像ISを生成してもよい。
Alternatively, when the teacher image IT is supplied, the student
例えば、イメージセンサの集光特性は、一般的に被写体に焦点が合っている場合には急峻であり、被写体に焦点が合っていない場合にはなだらかである。そのため、教師画像ITにおける被写体との距離と焦点距離との一致度に応じて、フィルタ係数を再計算してもよい。 For example, the condensing characteristic of an image sensor is generally steep when the subject is in focus, and is gentle when the subject is not in focus. Therefore, the filter coefficient may be recalculated according to the degree of coincidence between the distance to the subject and the focal length in the teacher image IT.
特性記憶部512には、例えばカメラパラメータCPと関連付けて、学習の対象となるイメージセンサの特性を反映したフィルタ係数αi,jが予め記憶される。
The
画像記憶部516は、生徒画像生成部510により生成された生徒画像ISを、カメラパラメータCPと関連付けて一時的に記憶する。
The
注目画素設定部520は、画像記憶部516からカメラパラメータCP及び生徒画像ISを取得し、生徒画像ISから教師画像ITを予測する予測係数の算出に用いる注目画素位置Sを、順次設定する。そして、注目画素設定部520は、クラス分類部542にカメラパラメータCP及び注目画素位置Sを入力する。また、注目画素設定部520は、予測タップ抽出部150に生徒画像IS及び注目画素位置Sを入力する。また、注目画素設定部520は、教師画素抽出部152に注目画素位置Sを入力する。
The pixel-of-
クラス分類部542は、注目画素設定部520から入力されたカメラパラメータCP及び注目画素位置Sに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。
The
クラス分類部542により決定されるクラスは、図16に一例として示したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に関する条件と、カメラパラメータCPの値に関する条件に応じて与えられるクラスであってもよい。
The class determined by the
図16を参照すると、CP=CP1の場合、D(S)<D1であればクラスC11、D1≦D(S)<D2であればクラスC12、D2≦D(S)であればクラスC13がそれぞれ与えられる。同様に、CP=CP2の場合、D(S)<D1であればクラスC21、D1≦D(S)<D2であればクラスC22、D2≦D(S)であればクラスC23がそれぞれ与えられる。CP=CP3の場合、D(S)<D1であればクラスC31、D1≦D(S)<D2であればクラスC32、D2≦D(S)であればクラスC33がそれぞれ与えられる。 Referring to FIG. 16, when CP = CP1, class C11 if D (S) <D1, class C12 if D1 ≦ D (S) <D2, and class C13 if D2 ≦ D (S). Given each. Similarly, when CP = CP2, class C21 is given if D (S) <D1, class C22 is given if D1 ≦ D (S) <D2, and class C23 is given if D2 ≦ D (S). . In the case of CP = CP3, class C31 is given if D (S) <D1, class C32 is given if D1 ≦ D (S) <D2, and class C33 is given if D2 ≦ D (S).
このような学習装置500の構成により、生徒画像ISから教師画像ITを予測するための予測係数wnが、注目画素位置S及びカメラパラメータCPに応じたクラスごとに適応的に学習される。
Such a structure of the
[処理フロー説明:学習処理]
次に、図17のフローチャートを用いて、本実施形態に係る学習装置500による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the
図17を参照すると、まず、学習装置500に教師画像ITが供給される(S602)。教師画像ITは、生徒画像生成部510及び教師画素抽出部152に入力される。
Referring to FIG. 17, first, a teacher image IT is supplied to the learning apparatus 500 (S602). The teacher image IT is input to the student
次に、カメラパラメータ取得部514により、教師画像ITが撮像された際のカメラパラメータCPが取得され、生徒画像生成部510に入力される(S604)。
Next, the camera
そして、生徒画像生成部510により、教師画像IT、カメラパラメータCP、及び特性記憶部512から取得されたフィルタ係数を用いて、生徒画像ISが生成される(S606)。ここで生成された生徒画像ISは、画像記憶部516へ出力され、記憶される。
Then, the student
次に、注目画素設定部520により、画像記憶部516から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S608)。
Next, the target
そして、クラス分類部542により、注目画素位置S及びカメラパラメータCPに応じたクラスが決定され、決定されたクラスを表すクラスコードCが学習記憶部162へ出力される(S610)。
Then, the class according to the target pixel position S and the camera parameter CP is determined by the
また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、抽出された予測タップdnが正規方程式生成部160へ出力される(S612)。
Furthermore, the prediction
また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値ykが抽出され、正規方程式生成部160へ出力される(S614)。
Further, the teacher
そして、正規方程式生成部160により、予測タップdn及び注目画素の真値ykを用いて、正規方程式への足し込みが行われる(S616)。ここで生成された正規方程式は、クラス分類部542により決定されたクラスごとに学習記憶部162により記憶される。
Then, the normal
その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S618)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS608へ戻り、注目画素設定部520によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS620へ進む。
Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S618). Here, if there remains a target pixel that has not been added to the normal equation, the process returns to S608, and the target
S620では、係数算出部170により、正規方程式がクラスごとに学習記憶部162から取得され、取得された正規方程式を解くことにより、クラスごとの予測係数wnが算出される(S620)。ここで算出された予測係数wnは、クラスごとに係数記憶部172により記憶される。
In S620, the
その後、全てのクラスについての予測係数wnの算出が終了したか否かが判定される(S622)。ここで、予測係数wnの算出が終了していないクラスが残っていれば、処理はS620へ戻り、残っているクラスについての予測係数wnの算出が行われる。一方、全てのクラスについて予測係数wnの算出が終了していれば、学習処理は終了する。 Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S622). Here, if the remaining class calculation is not completed in the prediction coefficient w n is, the process returns to S620, the calculation of the prediction coefficients w n for remaining classes are performed. On the other hand, the calculation of the prediction coefficients w n for all classes if completed, the learning process is terminated.
ここまで、本発明の第2の実施形態に係る学習装置500について説明した。本実施形態に係る学習装置500によれば、画素位置に応じたイメージセンサの特性がさらに撮像時のカメラパラメータによって変動する場合に、撮像画像から原画像を予測するための予測係数が適応的に生成される。それにより、試行錯誤的な画質のチューニングを行うことなく、次項で述べる画像処理装置によって、カメラパラメータをも考慮した撮像画像の高画質化を行うことが可能となる。
So far, the
[画像処理装置]
次に、前述した学習装置500により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図18は、本発明の第2の実施形態に係る画像処理装置700の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs a prediction process for predicting an original image before imaging from a captured image using the prediction coefficient generated by the
図18を参照すると、画像処理装置700は、カメラパラメータ取得部714、注目画素設定部320、クラス分類部742、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。
Referring to FIG. 18, the
なお、図18の各機能ブロックのうち、注目画素設定部320、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380は、それぞれ図13に関連して説明した内容と同等の機能を有する。そのため、ここでは主に、カメラパラメータ取得部714及びクラス分類部742について説明する。
Of the functional blocks in FIG. 18, the pixel-of-
カメラパラメータ取得部714は、画像処理装置700に撮像画像I1が供給されると、撮像画像I1が撮像された際のカメラパラメータCPを取得する。カメラパラメータCPは、前述したように、例えば、焦点距離(フォーカス)、ズーム、絞り(アイリス)、又は被写界深度など、イメージセンサの特性に影響を与える任意のパラメータであってよい。そして、カメラパラメータ取得部714は、取得したカメラパラメータCPをクラス分類部742へ出力する。
When the captured image I1 is supplied to the
クラス分類部742は、注目画素位置Sと、カメラパラメータ取得部714から入力されたカメラパラメータCPに応じて、例えば図16に関連して説明した条件に従ってクラスを決定し、クラスコードCを予測係数取得部374へ出力する。
The
このような画像処理装置700の構成により、イメージセンサを用いて撮像された撮像画像I1から、画素位置だけではなくカメラパラメータCPも考慮して高画質化された原画像に相当する予測画像I2が生成される。
With such a configuration of the
[処理フロー説明:予測処理]
次に、図24のフローチャートを用いて、本実施形態に係る画像処理装置700による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the
図24を参照すると、まず、画像処理装置700に撮像画像I1が供給される(S802)。供給された撮像画像I1は、注目画素設定部320に入力される。
Referring to FIG. 24, first, a captured image I1 is supplied to the image processing apparatus 700 (S802). The supplied captured image I1 is input to the target
次に、カメラパラメータ取得部714により、撮像画像I1が撮像された際のカメラパラメータCPが取得され、クラス分類部742へ出力される(S804)。
Next, the camera parameter CP when the captured image I1 is captured is acquired by the camera
その後、注目画素設定部320により、予測画像I2のうち予測の対象とする注目画素が設定される(S806)。ここで設定された注目画素の画素位置Sはクラス分類部742へ出力され、また注目画素位置Sと撮像画像I1は予測タップ抽出部350へ出力される。
Thereafter, the target
そして、クラス分類部742により、注目画素位置SとカメラパラメータCPとに応じてクラスが決定され、決定されたクラスを表すクラスコードCが予測係数取得部374へ出力される(S808)。
Then, the
さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wnが取得され、取得された予測係数wnが予測演算部380へ出力される(S810)。
Moreover, the prediction
また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、予測演算部380へ出力される(S812)。
Furthermore, the prediction
そして、予測演算部380において、予測係数wnと予測タップdnの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S814)。
Then, the
その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S816)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS806へ戻り、注目画素設定部320によって新たな注目画素が設定される。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。
Thereafter, it is determined whether or not the calculation of the predicted values for all the target pixels has been completed (S816). Here, if there remains a pixel for which the calculation of the predicted value has not been completed, the process returns to S806, and the target
ここまで、本発明の第2の実施形態に係る画像処理装置700について説明した。本実施形態に係る画像処理装置700によれば、イメージセンサが画素位置に加えてカメラパラメータに応じて異なる特性を有している場合に、前項で述べた学習装置500による学習の結果得られた予測係数を用いて、撮像画像から原画像を予測することができる。それにより、試行錯誤的な画質のチューニングを行うことなく、カメラパラメータをも考慮して撮像画像を高画質化することが可能となる。
Up to this point, the
なお、本明細書において説明する第1〜第3の実施形態に係る学習、即ちイメージセンサの特性を考慮した予測係数の算出は、典型的には、製品ごとの特性をより正確に反映させるために、製品を製造した後の出荷前に行われる。そうした場合には、学習は1つの製品に閉じた範囲で行われるため、学習時に製品の種類を考慮しなくてもよい。 Note that the learning according to the first to third embodiments described in this specification, that is, the calculation of the prediction coefficient in consideration of the characteristics of the image sensor, typically reflects the characteristics of each product more accurately. In addition, it is performed before the shipment after the product is manufactured. In such a case, since learning is performed in a range closed to one product, it is not necessary to consider the type of product at the time of learning.
しかしながら、その代わりに、例えば、独立した学習モジュールを用いて、イメージセンサの複数の種類にわたって一度に学習を行ってもよい。例えば、本実施形態に係る学習装置500による学習処理として、カメラパラメータ取得部514にイメージセンサの個体識別番号を取得させ、注目画素位置Xに加えて当該個体識別番号に応じてクラスを決定してもよい。そうした場合には、注目画素位置Xと個体識別番号に応じたクラスごとに、予測係数が算出される。そして、画像処理装置700による予測処理では、画像処理装置700のカメラパラメータ取得部714により個体識別番号が取得され、画素位置と個体識別番号とに応じて決定されたクラスに対応する予測係数を用いて、撮像画像から原画像が予測される。
However, instead, for example, learning may be performed at once on a plurality of types of image sensors using independent learning modules. For example, as learning processing by the
<4.第3の実施形態>
イメージセンサの特性を考慮した撮像画像の高画質化は、注目画素の近傍の画素値のパターンに応じたクラス分類と組み合わせることも可能である。そこで、本発明の第3の実施形態では、画素位置に加えて、注目画素の近傍の画素値のパターンを考慮に入れて撮像画像を高画質化する例について説明する。
<4. Third Embodiment>
The high image quality of the captured image in consideration of the characteristics of the image sensor can be combined with the class classification according to the pixel value pattern in the vicinity of the target pixel. Therefore, in the third embodiment of the present invention, an example will be described in which a captured image is improved in image quality in consideration of a pattern of pixel values in the vicinity of the target pixel in addition to the pixel position.
[学習装置]
図20は、本発明の第3の実施形態に係る学習装置900の論理的な構成を示すブロック図である。
[Learning device]
FIG. 20 is a block diagram showing a logical configuration of a
図20を参照すると、学習装置900は、生徒画像生成部110、特性記憶部112、画像記憶部116、注目画素設定部920、クラスタップ抽出部940、クラス分類部942、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。
Referring to FIG. 20, the
なお、ここでは主に、注目画素設定部920、クラスタップ抽出部940、及びクラス分類部942について説明する。
Note that here, the pixel-of-
注目画素設定部920は、生徒画像生成部110により生成された生徒画像ISを画像記憶部116から取得し、教師画像ITを予測する予測係数の算出に用いる注目画素位置Sを、順次設定する。そして、注目画素設定部920は、クラスタップ抽出部940及び予測タップ抽出部150に生徒画像ISと注目画素位置Sとを出力する。また、注目画素設定部920は、教師画素抽出部152に注目画素位置Sを出力する。
The target
クラスタップ抽出部940は、注目画素についてのクラス分類に用いるクラスタップxnを生徒画像ISから抽出し、クラス分類部942へ出力する。ここで、クラスタップとは、その画素値のパターンに応じたクラス分類を行うための、注目画素の近傍に位置する画素の集合を指す。
The class
図21は、クラスタップ抽出部940により抽出されるクラスタップxnの一例を示している。図21の例において、クラスタップ抽出部940は、注目画素位置S(s,t)を中心とする、縦横5個ずつのいわゆる十字型に配置された計9個の画素x1〜x9をクラスタップxnとして抽出している。なお、クラスタップ抽出部940により抽出されるクラスタップxnは、図21の例に限定されず、注目画素位置Sの近傍の任意の位置又は任意の数の画素の集合であってよい。
FIG. 21 shows an example of the class tap xn extracted by the class
クラス分類部942は、クラスタップ抽出部940から入力されたクラスタップxnの画素値のパターン及び注目画素位置Sに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。
The
クラスタップxnの画素値のパターンに応じてクラスを分類する方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を用いることができる。ADRCを用いる場合には、クラスタップxnに含まれる各画素値がADRC処理され、その結果としてADRCコードが得られる。 As a method of classifying the class according to the pixel value pattern of the class tap xn , for example, ADRC (Adaptive Dynamic Range Coding) can be used. When ADRC is used, each pixel value included in the class tap xn is subjected to ADRC processing, and as a result, an ADRC code is obtained.
より具体的には、例えばKビットADRCにおいては、まず、クラスタップxnに含まれる各画素値の最大値MAXと最小値MINが検出される。そして、DR=MAX−MINを画素値の集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップxnに含まれる各画素値が再度Kビットに量子化される。即ち、クラスタップxnに含まれる各画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られるKビットの各画素値を所定の順番で並べたビット列が、ADRCコードとして得られる。 More specifically, for example, in the K-bit ADRC, first, the maximum value MAX and the minimum value MIN of each pixel value included in the class tap xn are detected. Then, DR = MAX−MIN is set as a local dynamic range of the set of pixel values, and each pixel value included in the class tap xn is quantized again to K bits based on the dynamic range DR. That is, the minimum value MIN is subtracted from each pixel value included in the class tap xn , and the subtracted value is divided (quantized) by DR / 2K. Then, a bit string in which the K-bit pixel values obtained as described above are arranged in a predetermined order is obtained as an ADRC code.
例えば、クラスタップxnが例えば1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより各画素値が二値化される。そして、二値化された画素値を所定の順番で並べたビット列が、ADRCコードとして得られる。 For example, when the class tap xn is subjected to, for example, 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, each pixel value is binarized. Then, a bit string in which the binarized pixel values are arranged in a predetermined order is obtained as an ADRC code.
クラス分類部942は、例えば、そのようにして得られたADRCコードと、注目画素位置Sとに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。
For example, the
なお、クラス分類部942は、ADRC処理ではなく、例えば、クラスタップを構成する画素をベクトルのコンポーネントとみなし、そのベクトルをベクトル量子化することなどによってクラスを決定してもよい。
Note that the
[処理フロー説明:学習処理]
次に、図22のフローチャートを用いて、本実施形態に係る学習装置900による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the
図22を参照すると、まず、学習装置900に教師画像ITが供給される(S1002)。教師画像ITは、生徒画像生成部110及び教師画素抽出部152に入力される。
Referring to FIG. 22, first, a teacher image IT is supplied to the learning apparatus 900 (S1002). The teacher image IT is input to the student
次に、教師画像ITと特性記憶部112から取得されたフィルタ係数とを用いて、生徒画像生成部110により、生徒画像ISが生成される(S1004)。ここで生成された生徒画像ISは、画像記憶部116へ出力され、記憶される。
Next, the student image IS is generated by the student
その後、注目画素設定部920により、画像記憶部116から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S1006)。
Thereafter, the target
そして、クラスタップ抽出部940により、注目画素位置Sの近傍の画素位置に対応する複数の画素がクラスタップxnとして抽出され、クラス分類部942へ出力される(S1008)。
Then, the class
さらに、クラス分類部942により、クラスタップxnと注目画素位置Sに応じたクラスが決定され、決定されたクラスを表すクラスコードが学習記憶部162へ出力される(S1010)。
Further, the
また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、正規方程式生成部160へ出力される(S1012)。
Furthermore, the prediction
また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値ykが抽出され、正規方程式生成部160へ出力される(S1014)。
In addition, the teacher
そして、正規方程式生成部160により、予測タップdn及び注目画素の真値ykを用いて、正規方程式への足し込みが行われる(S1016)。ここで生成された正規方程式は、クラス分類部942により決定されたクラスごとに学習記憶部162により記憶される。
Then, the normal
その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S1018)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS1006へ戻り、注目画素設定部920によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS1020へ進む。
Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S1018). Here, if there remains a target pixel that has not been added to the normal equation, the process returns to S1006, and the target
S1020では、係数算出部170により、正規方程式がクラスごとに学習記憶部162から取得され、クラスごとの予測係数wnが算出される(S1020)。ここで算出された予測係数wnは、クラスごとに係数記憶部172により記憶される。
In S1020, the
その後、全てのクラスについての予測係数wnの算出が終了したか否かが判定される(S1022)。ここで、予測係数wnの算出が終了していないクラスが残っていれば、処理はS1020へ戻る。一方、全てのクラスについて予測係数wnの算出が終了していれば、学習処理は終了する。 Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S1022). Here, if the remaining classes that calculation is not the end of the prediction coefficient w n is, the process returns to S1020. On the other hand, the calculation of the prediction coefficients w n for all classes if completed, the learning process is terminated.
ここまで、本発明の第3の実施形態に係る学習装置900について説明した。本実施形態に係る学習装置900によれば、イメージセンサによる撮像過程を経て得られた撮像画像から原画像を予測するための予測係数が、画素位置に応じたフィルタ特性だけではなく、注目画素の近傍の画素値のパターンも考慮に入れて適応的に学習される。それにより、次項で述べる画像処理装置によって、イメージセンサの特性を考慮した高画質化と同時に例えばノイズが除去されるなど、より効果的な高画質化を実現できる。
So far, the
[画像処理装置]
次に、前述した学習装置900により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図23は、本発明の第3の実施形態に係る画像処理装置1100の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs a prediction process for predicting an original image before imaging from a captured image using the prediction coefficient generated by the
図23を参照すると、画像処理装置1100は、注目画素設定部1120、クラスタップ抽出部1140、クラス分類部1142、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。
Referring to FIG. 23, the
なお、ここでは主に、注目画素設定部1120、クラスタップ抽出部1140、クラス分類部1142について説明する。
Here, mainly the pixel-of-
注目画素設定部1120は、イメージセンサにより撮像される前の原画像に相当する予測画像I2のうち、予測の対象とする任意の画素を注目画素として順次設定する。そして、注目画素設定部320は、設定した注目画素の予測画像I2における画素位置Sをクラス分類部342へ出力する。また、注目画素設定部320は、撮像画像I1と注目画素位置Sとを、クラスタップ抽出部1140及び予測タップ抽出部350へ出力する。
The pixel-of-
クラスタップ抽出部1140は、注目画素についてのクラス分類に用いるクラスタップxnとして、注目画素位置Sの近傍に位置する複数の画素を撮像画像I1から抽出し、クラス分類部1142へ出力する。例えば、クラスタップ抽出部1140は、図21を用いて説明した注目画素位置Sの近傍の9つの画素を、クラスタップxnとして抽出する。
The class
クラス分類部1142は、注目画素位置Sと、クラスタップ抽出部1140から入力されたクラスタップxnとに応じてクラスを決定し、クラスコードCを予測係数取得部374へ出力する。例えば、クラス分類部1142は、学習装置900のクラス分類部942と同様に、クラスタップxnに含まれる各画素値からADRC処理によりADRCコード生成し、ADRCコードと注目画素位置Sに対応するクラスコードCを決定する。
The
このような画像処理装置1100の構成により、イメージセンサを用いて撮像された撮像画像I1から、画素位置だけではなく注目画素の近傍の画素値のパターンも考慮して、原画像に相当する予測画像I2が生成される。
With such a configuration of the
[処理フロー説明:予測処理]
次に、図24のフローチャートを用いて、本実施形態に係る画像処理装置1100による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the
図24を参照すると、まず、画像処理装置1100に撮像画像I1が供給される(S1202)。供給された撮像画像I1は、注目画素設定部1120に入力される。
Referring to FIG. 24, first, a captured image I1 is supplied to the image processing apparatus 1100 (S1202). The supplied captured image I1 is input to the target
次に、注目画素設定部1120により、予測画像I2のうち予測の対象とする注目画素の画素位置Sが設定される(S1204)。ここで設定された注目画素の画素位置Sはクラス分類部1142へ出力され、また注目画素位置Sと撮像画像I1はクラスタップ抽出部1140及び予測タップ抽出部350へ出力される。
Next, the target
その後、クラスタップ抽出部1140により、撮像画像I1から、注目画素位置Sの近傍の複数の画素がクラスタップxnとして抽出される(S1206)。
Thereafter, the class
そして、クラス分類部1142により、注目画素位置Sとクラスタップxnに含まれる各画素値のパターンとに応じて決定されたクラスを表すクラスコードCが、予測係数取得部374へ出力される(S1208)。
Then, the
さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wnが取得され、予測演算部380へ出力される(S1210)。
Moreover, the prediction
また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdnとして抽出され、予測演算部380へ出力される(S1212)。
Furthermore, the prediction
そして、予測演算部380において、予測係数wnと予測タップdnの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S1214)。
Then, the
その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S1216)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS1204へ戻る。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。 Thereafter, it is determined whether or not the calculation of predicted values for all target pixels has been completed (S1216). If there is a pixel for which the calculation of the predicted value has not been completed, the process returns to S1204. On the other hand, if the calculation of the predicted value has been completed for all the pixels of the predicted image I2, the prediction process ends.
ここまで、本発明の第3の実施形態に係る画像処理装置1100について説明した。本実施形態に係る画像処理装置1100によれば、画素位置に応じたフィルタ特性だけでなく注目画素の近傍の画素値のパターンも考慮に入れた学習に基づく予測係数を用いて、イメージセンサによる撮像過程を経て得られた撮像画像から原画像が予測される。それにより、撮像画像から原画像が予測される際に例えばノイズが除去されるなど、より効果的な高画質化を実現できる。
Up to this point, the
<5.まとめ>
ここまで、図1〜図24を用いて、イメージセンサの特性を考慮した高画質化に関する3つの実施形態について、それぞれ予測係数を学習する学習装置と高質な画像を予測する画像処理装置とに分けて詳細に説明した。
<5. Summary>
Up to this point, a learning apparatus that learns a prediction coefficient and an image processing apparatus that predicts a high-quality image for each of the three embodiments relating to high image quality in consideration of the characteristics of the image sensor, with reference to FIGS. Separately explained in detail.
各実施形態に係る学習装置は、例えば、イメージセンサに接続される独立した学習モジュール、イメージセンサ自体、又はイメージセンサを搭載したカメラ(若しくはカメラモジュール)などであってよい。また、各実施形態に係る画像処理装置は、例えば、イメージセンサに接続される独立した画像処理モジュール、イメージセンサ自体、又はイメージセンサを搭載したカメラ(若しくはカメラモジュール)などであってよい。 The learning device according to each embodiment may be, for example, an independent learning module connected to the image sensor, the image sensor itself, or a camera (or camera module) equipped with the image sensor. Further, the image processing apparatus according to each embodiment may be, for example, an independent image processing module connected to the image sensor, the image sensor itself, or a camera (or camera module) equipped with the image sensor.
なお、各実施形態に係る一連の処理をハードウェアで実現するかソフトウェアで実現するかは問わない。一連の処理又はその一部をソフトウェアで実行させる場合には、ソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれたコンピュータ、又は例えば図25に示した汎用的なコンピュータなどを用いて実行される。 It does not matter whether a series of processing according to each embodiment is realized by hardware or software. When a series of processes or a part thereof is executed by software, a program constituting the software is executed by using a computer incorporated in dedicated hardware, for example, a general-purpose computer shown in FIG. The
図25において、CPU(Central Processing Unit)12は、汎用コンピュータの動作全般を制御する。ROM(Read Only Memory)14には、一連の処理の一部又は全部を記述したプログラム又はデータが格納される。RAM(Random Access Memory)16には、処理の実行時にCPU12により用いられるプログラムやデータなどが一時的に記憶される。
In FIG. 25, a CPU (Central Processing Unit) 12 controls the overall operation of the general-purpose computer. A ROM (Read Only Memory) 14 stores a program or data describing a part or all of a series of processes. A RAM (Random Access Memory) 16 temporarily stores programs and data used by the
CPU12、ROM14、及びRAM16は、バス20を介して相互に接続される。バス20にはさらに、入出力インタフェース22が接続される。
The
入出力インタフェース22は、CPU12、ROM14、及びRAM16と、入力装置30、出力装置32、記憶装置34、通信装置36、及びドライブ40とを接続するためのインタフェースである。
The input /
入力装置30は、例えばボタン、スイッチ、レバーなどの入力装置を介して、ユーザからの指示や情報入力を受け付ける。出力装置32は、例えば液晶ディスプレイやOLED(Organic Light Emitting Diode)などの表示装置、又はスピーカなどの音声出力装置を介してユーザに情報を出力する。
The
記憶装置34は、例えばハードディスクドライブ又はフラッシュメモリなどにより構成され、プログラムやプログラムデータ、又は画像データなどを記憶する。通信装置36は、例えばUSB(Universal Serial Bus)などによる通信ポートを介する通信処理を行う。ドライブ40には、例えばリムーバブルメディア42が装着される。
The
第1〜第3の実施形態に係る一連の処理をソフトウェアで実行する場合には、例えば図25に示したROM14又は記憶装置34に格納されたプログラムが、実行時にRAM16に読み込まれ、CPU12によって実行される。
When the series of processes according to the first to third embodiments is executed by software, for example, a program stored in the
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
例えば、第1〜第3の実施形態に係る学習処理又は予測処理を、必ずしもフローチャートに記載された順序に沿って実行しなくてもよい。各処理ステップは、並列的あるいは個別に独立して実行される処理を含んでもよい。 For example, the learning process or the prediction process according to the first to third embodiments does not necessarily have to be executed in the order described in the flowchart. Each processing step may include processing executed in parallel or individually independently.
10 イメージセンサ
12 受光面
100、500、900 学習装置
110、510 生徒画像生成部
112、512 特性記憶部
514 カメラパラメータ取得部
116、516 画像記憶部
120、520、920 注目画素設定部
940 クラスタップ抽出部
142、542、942 クラス分類部
150 予測タップ抽出部
152 教師画素抽出部
160 正規方程式生成部
162 学習記憶部
170 係数算出部
172 係数記憶部
300、700、1100 画像処理装置
714 カメラパラメータ取得部
320、1120 注目画素設定部
1140 クラスタップ抽出部
342、742、1142 クラス分類部
350 予測タップ抽出部
372 係数記憶部
374 予測係数取得部
380 予測演算部
DESCRIPTION OF
Claims (18)
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と;
を備える学習装置。 A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position With a generator;
A prediction tap extraction unit that extracts, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation unit that calculates a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit;
A learning apparatus comprising:
前記生徒画像生成部は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用することにより、前記生徒画像を生成する、請求項1又は請求項2のいずれかに記載の学習装置。 The first image is a captured image captured by an image sensor,
3. The student image generation unit generates the student image by applying a filter reflecting a specific light collection characteristic of the image sensor according to a pixel position to the teacher image. The learning apparatus in any one of.
前記クラス分類部は、さらに、前記教師画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定する、請求項1に記載の学習装置。 The first image is a captured image captured using a camera including an image sensor,
The learning apparatus according to claim 1, wherein the class classification unit further determines the class according to a camera parameter representing a feature or state of the camera when the teacher image is captured by the camera.
前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定する、
請求項1に記載の学習装置。 The learning device further includes a class tap extraction unit that extracts a plurality of pixels included in the student image and corresponding to a pixel position in the vicinity of the target pixel as a class tap,
The class classification unit determines the class according to a pixel value pattern of the class tap and a pixel position of the target pixel;
The learning device according to claim 1.
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と;
前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と;
を備える画像処理装置。 A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extractor;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters;
A prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit;
An image processing apparatus comprising:
前記生徒画像は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用して生成された画像である、請求項8又は請求項9のいずれかに記載の画像処理装置。 The first image is a captured image captured by an image sensor,
10. The student image according to claim 8, wherein the student image is an image generated by applying, to the teacher image, a filter that reflects a unique light collection characteristic of the image sensor according to a pixel position. The image processing apparatus described.
前記クラス分類部は、さらに、前記第1画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定する、請求項8に記載の画像処理装置。 The first image is a captured image captured using a camera including an image sensor,
The image processing apparatus according to claim 8, wherein the class classification unit further determines the class in accordance with a camera parameter representing a feature or state of the camera when the first image is captured by the camera.
前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定する、
請求項8に記載の画像処理装置。 The image processing device further includes a class tap extraction unit that extracts a plurality of pixels included in the first image and corresponding to a pixel position in the vicinity of the target pixel as a class tap,
The class classification unit determines the class according to a pixel value pattern of the class tap and a pixel position of the target pixel;
The image processing apparatus according to claim 8.
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類ステップにおいて決定された前記クラスごとに算出する係数算出ステップと;
を含む学習方法。 A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position Generation step;
A prediction tap extracting step of extracting, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification step for determining a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation step for calculating, for each class determined in the class classification step, a prediction coefficient used to predict the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap;
Learning methods including.
第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と;
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と;
として機能させるための、プログラム。 The computer that controls the learning device:
A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position With a generator;
A prediction tap extraction unit that extracts, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation unit that calculates a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit;
Program to function as
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部から、前記クラス分類ステップにより決定された前記クラスに応じた前記予測係数を取得する予測係数取得ステップと;
前記予測タップの画素値と前記予測係数取得ステップにより取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算ステップと;
を含む画像処理方法。 A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extraction step;
A class classification step of determining a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position Determined by the class classification step from a storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters. A prediction coefficient acquisition step of acquiring the prediction coefficient according to the class;
A prediction calculation step of calculating a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired in the prediction coefficient acquisition step;
An image processing method including:
第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と;
前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と;
として機能させるための、プログラム。 A computer that controls the image processing device:
A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extractor;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters;
A prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit;
Program to function as
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008231429A JP2010066925A (en) | 2008-09-09 | 2008-09-09 | Learning apparatus, image processing apparatus, learning method, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008231429A JP2010066925A (en) | 2008-09-09 | 2008-09-09 | Learning apparatus, image processing apparatus, learning method, image processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010066925A true JP2010066925A (en) | 2010-03-25 |
Family
ID=42192471
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008231429A Withdrawn JP2010066925A (en) | 2008-09-09 | 2008-09-09 | Learning apparatus, image processing apparatus, learning method, image processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010066925A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9210338B2 (en) | 2012-05-15 | 2015-12-08 | Sony Corporation | Image processing device and image processing method, and program |
| WO2021039154A1 (en) * | 2019-08-23 | 2021-03-04 | ソニー株式会社 | Signal processing device, signal processing method, and program |
-
2008
- 2008-09-09 JP JP2008231429A patent/JP2010066925A/en not_active Withdrawn
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9210338B2 (en) | 2012-05-15 | 2015-12-08 | Sony Corporation | Image processing device and image processing method, and program |
| WO2021039154A1 (en) * | 2019-08-23 | 2021-03-04 | ソニー株式会社 | Signal processing device, signal processing method, and program |
| US12361261B2 (en) | 2019-08-23 | 2025-07-15 | Sony Group Corporation | Signal processing device and signal processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9628684B2 (en) | Light-field aberration correction | |
| JP4148041B2 (en) | Signal processing apparatus, signal processing method, program, and recording medium | |
| CN103139469B (en) | Utilize multiresolution process to generate the system and method for robust depth map | |
| GB2604898A (en) | Imaging processing using machine learning | |
| US8346003B2 (en) | Image processing for reducing blur | |
| JP6320649B1 (en) | Machine learning device and image recognition device | |
| KR20050104412A (en) | Image processing device and method, learning device and method, recording medium, and program | |
| JP2004221838A (en) | Image processing apparatus and method, recording medium, and program | |
| CN110555877B (en) | Image processing method, device and equipment and readable medium | |
| CN104079801A (en) | Image processing apparatus, image processing method, and program | |
| CN101465943A (en) | Image processing apparatus, image processing method, program and learning apparatus | |
| JP2013003892A (en) | Image processing apparatus and method, program, and recording medium | |
| JP2010066925A (en) | Learning apparatus, image processing apparatus, learning method, image processing method, and program | |
| CN112017113B (en) | Image processing method and device, model training method and device, equipment and medium | |
| US20240233090A1 (en) | Imaging method and apparatus, and computer-readable medium | |
| JP5061882B2 (en) | Image processing apparatus, image processing method, program, and learning apparatus | |
| CN118968317B (en) | Blue algae distribution graph generation method and device based on diffusion model and server | |
| CN115004220B (en) | Neural network for raw low-light image enhancement | |
| CN120580309A (en) | Image vectorization method and system based on deep learning and edge detection | |
| CN118096557B (en) | Digital automatic focusing method | |
| KR20070074467A (en) | Display device and display method, learning device and learning method and program | |
| CN117893413B (en) | Human-computer interaction method for vehicle terminal based on image enhancement | |
| JP4281453B2 (en) | Signal processing apparatus and signal processing method | |
| CN118967680A (en) | Image evaluation method, model training method, device, medium and equipment | |
| JP4128538B2 (en) | Pixel signal processing method and apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111206 |