[go: up one dir, main page]

JP2010066925A - Learning apparatus, image processing apparatus, learning method, image processing method, and program - Google Patents

Learning apparatus, image processing apparatus, learning method, image processing method, and program Download PDF

Info

Publication number
JP2010066925A
JP2010066925A JP2008231429A JP2008231429A JP2010066925A JP 2010066925 A JP2010066925 A JP 2010066925A JP 2008231429 A JP2008231429 A JP 2008231429A JP 2008231429 A JP2008231429 A JP 2008231429A JP 2010066925 A JP2010066925 A JP 2010066925A
Authority
JP
Japan
Prior art keywords
image
class
pixel
prediction
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008231429A
Other languages
Japanese (ja)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Takashi Sawao
貴志 沢尾
Katsunao Shinmyo
克尚 神明
Tsutomu Ichikawa
勉 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008231429A priority Critical patent/JP2010066925A/en
Publication of JP2010066925A publication Critical patent/JP2010066925A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画素位置に応じたイメージセンサの特性を考慮して撮像画像を高画質化すること。
【解決手段】第1画像に含まれる複数の画素であって、当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、を備える学習装置を提供する。
【選択図】図7
An image pickup image is improved in image quality in consideration of characteristics of an image sensor corresponding to a pixel position.
A plurality of pixels included in a first image, and a plurality of pixels corresponding to pixel positions in the vicinity of the pixel of interest in the second image of higher quality than the first image are used as prediction taps. A prediction tap extraction unit to extract; a class classification unit that determines a class of the pixel of interest according to a pixel position of the pixel of interest in the second image; and a pre-acquired teacher image having the image quality of the second image And the student image having the image quality of the first image generated by applying different filters to the teacher image according to the pixel position, and predicting the pixel value of the target pixel from the pixel value of the prediction tap And a coefficient calculation unit that calculates a prediction coefficient used for each class determined by the class classification unit.
[Selection] Figure 7

Description

本発明は、学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムに関する。   The present invention relates to a learning device, an image processing device, a learning method, an image processing method, and a program.

デジタルカメラなどに搭載されるイメージセンサを用いて実世界の光を撮像する過程においては、撮像の結果として得られる画像信号の品質を低下させる様々な要因が存在する。例えば、フォーカスのずれや被写体の動き、イメージセンサのノイズ、又はベイヤ配列などの画素配列に応じた信号変換などは、画像信号の品質を低下させる要因の一例である。   In the process of imaging light in the real world using an image sensor mounted on a digital camera or the like, there are various factors that degrade the quality of an image signal obtained as a result of imaging. For example, focus shift, subject movement, image sensor noise, or signal conversion in accordance with a pixel array such as a Bayer array are examples of factors that degrade the quality of an image signal.

そこで、従来、カメラ内部の画像処理によって画像信号に含まれるノイズを除去し、又は画質を改善させるための技術開発が進められている。例えば、下記特許文献1では、画像信号の性質に応じて分類したクラスごとに適応的に画像信号の品質を向上させる、クラス分類適応処理と呼ばれる手法が開示されている。   Therefore, technology development for removing noise included in the image signal or improving the image quality by image processing inside the camera has been in progress. For example, Patent Document 1 below discloses a technique called class classification adaptive processing that adaptively improves the quality of an image signal for each class classified according to the properties of the image signal.

特開2004−260399号公報JP 2004-260399 A

しかしながら、従来の手法では、例えば装置のノイズ特性が適応的に学習され、それにより高画質化が図られる場合はあったが、パラメータ・チューニングによって試行錯誤的に画質を向上させる場合を除き、イメージセンサ内の画素位置に応じたセンサ特性が適切に考慮された例は存在しなかった。例えば、イメージセンサの集光特性は、画素の開口率と密接な関係にあり、同一受光面内においても、画素の位置によってイメージセンサの集光特性は異なる。   However, in the conventional method, for example, the noise characteristics of the device are adaptively learned, and thereby high image quality can be achieved. However, unless the image quality is improved by trial and error through parameter tuning, There has been no example in which the sensor characteristics according to the pixel position in the sensor are appropriately considered. For example, the condensing characteristic of the image sensor is closely related to the aperture ratio of the pixel, and the condensing characteristic of the image sensor differs depending on the position of the pixel even within the same light receiving surface.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画素位置に応じたイメージセンサの特性を考慮し、撮像画像を高画質化することのできる、新規かつ改良された学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to improve the image quality of a captured image in consideration of the characteristics of the image sensor according to the pixel position. A new and improved learning device, image processing device, learning method, image processing method, and program are provided.

上記課題を解決するために、本発明のある観点によれば、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、を備える学習装置が提供される。   In order to solve the above-described problem, according to one aspect of the present invention, a different filter is applied to a pre-acquired teacher image having a second image quality higher than that of the first image according to the pixel position. A student image generation unit that generates a student image having the image quality of the first image, and a plurality of pixels included in the student image, the pixels in the vicinity of the target pixel to be noted when the teacher image is predicted From a prediction tap extraction unit that extracts a plurality of pixels corresponding to positions as prediction taps, a class classification unit that determines a class of the pixel of interest according to the pixel position of the pixel of interest, and a pixel value of the prediction tap A learning device comprising: a coefficient calculation unit that calculates a prediction coefficient used for predicting a pixel value of the target pixel in the teacher image for each of the classes determined by the class classification unit. It is provided.

また、前記クラス分類部は、前記教師画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定してもよい。   The class classification unit may determine the class according to a distance from a center position of the teacher image to a pixel position of the target pixel.

また、前記第1画像は、イメージセンサにより撮像される撮像画像であって、前記生徒画像生成部は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用することにより、前記生徒画像を生成してもよい。   In addition, the first image is a captured image captured by an image sensor, and the student image generation unit uses a filter that reflects a specific light collection characteristic of the image sensor according to a pixel position as the teacher image. The student image may be generated by applying to the above.

また、前記生徒画像生成部は、前記フィルタの特性を画素位置に応じて連続的に変化させて前記生徒画像を生成してもよい。   The student image generation unit may generate the student image by continuously changing the characteristics of the filter according to pixel positions.

また、前記係数算出部は、さらに、前記クラスごとに算出された前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出してもよい。   Further, the coefficient calculation unit may further calculate a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation using the prediction coefficient calculated for each class. Good.

また、前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、前記クラス分類部は、さらに、前記教師画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定してもよい。   The first image may be a captured image captured using a camera including an image sensor, and the class classification unit may further include characteristics of the camera when the teacher image is captured by the camera, or The class may be determined according to camera parameters representing the state.

また、前記学習装置は、前記生徒画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定してもよい。   The learning apparatus further includes a class tap extraction unit that extracts a plurality of pixels included in the student image and corresponding to a pixel position in the vicinity of the target pixel as a class tap, The class classification unit may determine the class according to a pixel value pattern of the class tap and a pixel position of the target pixel.

上記課題を解決するために、本発明の別の観点によれば、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と、前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と、を備える画像処理装置が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a plurality of pixels included in a first image and the vicinity of a target pixel noted in a second image having a higher quality than the first image. A prediction tap extraction unit that extracts a plurality of pixels corresponding to the pixel position of the target pixel as a prediction tap; a class classification unit that determines a class of the target pixel according to a pixel position in the second image of the target pixel; A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters, a pixel value of the prediction tap, and the Record By the obtained the prediction coefficients for linear combination from parts, the prediction arithmetic unit for calculating a predicted value corresponding to the pixel value of the target pixel, the image processing apparatus comprising a are provided.

また、前記クラス分類部は、前記第2画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定してもよい。   The class classification unit may determine the class according to a distance from a center position of the second image to a pixel position of the target pixel.

また、前記第1画像は、イメージセンサにより撮像された撮像画像であって、前記生徒画像は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用して生成された画像であってもよい。   In addition, the first image is a captured image captured by an image sensor, and the student image is applied to the teacher image a filter reflecting a specific light collection characteristic of the image sensor according to a pixel position. An image generated in this manner may be used.

また、前記生徒画像は、画素位置に応じて連続的に特性の変化するフィルタを前記教師画像に適用して生成された画像であってもよい。   The student image may be an image generated by applying a filter whose characteristics continuously change according to a pixel position to the teacher image.

また、前記予測演算部は、さらに、前記記憶部から取得された前記クラスごとの前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出してもよい。   Further, the prediction calculation unit further uses a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation, using the prediction coefficient for each class acquired from the storage unit. It may be calculated.

また、前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、前記クラス分類部は、さらに、前記第1画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定してもよい。   In addition, the first image is a captured image captured using a camera including an image sensor, and the class classification unit further includes characteristics of the camera when the first image is captured by the camera. Or you may determine the said class according to the camera parameter showing a state.

また、前記画像処理装置は、前記第1画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定してもよい。   The image processing apparatus further includes a class tap extraction unit that extracts a plurality of pixels included in the first image and corresponding to pixel positions in the vicinity of the target pixel as class taps. The class classification unit may determine the class according to a pixel value pattern of the class tap and a pixel position of the target pixel.

上記課題を解決するために、本発明の別の観点によれば、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成ステップと、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類ステップにおいて決定された前記クラスごとに算出する係数算出ステップと、を含む学習方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a different filter is applied to a pre-acquired teacher image having a second image quality higher than that of the first image according to the pixel position. Thus, a student image generation step for generating a student image having the image quality of the first image, and a plurality of pixels included in the student image, in the vicinity of the target pixel that is noticed when the teacher image is predicted. A prediction tap extracting step of extracting a plurality of pixels corresponding to the pixel position as a prediction tap; a class classification step of determining a class of the target pixel according to the pixel position of the target pixel; and a pixel value of the prediction tap To calculate a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image for each class determined in the class classification step Learning method comprising the steps out, it is provided.

上記課題を解決するために、本発明の別の観点によれば、学習装置を制御するコンピュータを、第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と、前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a computer that controls the learning apparatus is configured to store a pixel position in a teacher image that is acquired in advance and has a second image quality higher than that of the first image. A student image generation unit that generates a student image having the image quality of the first image by applying different filters according to the method, and a plurality of pixels included in the student image when predicting the teacher image A prediction tap extraction unit that extracts a plurality of pixels corresponding to pixel positions in the vicinity of the target pixel of interest as a prediction tap, and a class classification unit that determines a class of the target pixel according to the pixel position of the target pixel And a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit. A coefficient calculation unit that, a program to function as is provided.

上記課題を解決するために、本発明の別の観点によれば、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部から、前記クラス分類ステップにより決定された前記クラスに応じた前記予測係数を取得する予測係数取得ステップと、前記予測タップの画素値と前記予測係数取得ステップにより取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算ステップと、を含む画像処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a plurality of pixels included in a first image and the vicinity of a target pixel noted in a second image having a higher quality than the first image. A prediction tap extraction step of extracting a plurality of pixels corresponding to the pixel position as a prediction tap; a class classification step of determining a class of the target pixel according to a pixel position in the second image of the target pixel; A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position The class classification class is stored in a storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters. A prediction coefficient acquisition step for acquiring the prediction coefficient corresponding to the class determined by the step, and a linear linear combination of the pixel value of the prediction tap and the prediction coefficient acquired by the prediction coefficient acquisition step. A prediction calculation step of calculating a prediction value corresponding to the pixel value of the pixel of interest.

上記課題を解決するために、本発明の別の観点によれば、画像処理装置を制御するコンピュータを、第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と、前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と、前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と、前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a computer that controls an image processing apparatus is a second pixel that is a plurality of pixels included in a first image and has a higher quality than the first image. A prediction tap extraction unit that extracts a plurality of pixels corresponding to a pixel position in the vicinity of the target pixel of interest in the image as a prediction tap; and according to the pixel position of the target pixel in the second image, A class classification unit for determining a class, a prediction coefficient used for predicting a pixel value of the target pixel from a pixel value of the prediction tap, and a teacher image acquired in advance having the image quality of the second image; A prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying a different filter to the teacher image according to the pixel position. And a prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit. A program is provided.

以上説明したように、本発明に係る学習装置、画像処理装置、学習方法、画像処理方法、及びプログラムによれば、画素位置に応じたイメージセンサの特性を考慮し、撮像画像を高画質化することができる。   As described above, according to the learning device, the image processing device, the learning method, the image processing method, and the program according to the present invention, the captured image is improved in image quality in consideration of the characteristics of the image sensor according to the pixel position. be able to.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下の順序にしたがって当該「発明を実施するための最良の形態」を説明する。
1.イメージセンサの特性を考慮した高画質化の概要
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.まとめ
The “best mode for carrying out the invention” will be described in the following order.
1. Overview of image quality improvement considering the characteristics of image sensors 1. First embodiment Second Embodiment 4. 3. Third embodiment Summary

<1.イメージセンサの特性を考慮した高画質化の概要>
まず、イメージセンサの特性を考慮した高画質化の概要について説明する。
<1. Overview of high image quality considering the characteristics of image sensors>
First, an outline of high image quality in consideration of the characteristics of the image sensor will be described.

図1は、一例として、デジタルスチルカメラなどに使用されるイメージセンサ10の外観を示す模式図である。イメージセンサ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの、実世界の光を感知して画素ごとに電気信号を発生させる任意のセンサであってよい。   FIG. 1 is a schematic diagram showing an appearance of an image sensor 10 used for a digital still camera or the like as an example. The image sensor 10 may be any sensor that senses light in the real world and generates an electrical signal for each pixel, such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

図1を参照すると、イメージセンサ10は、受光面12を有する。受光面12には、典型的には、各々光を感知して電気信号を生成する複数の画素が配置される。また、図1には、受光面12の中央部の画素位置P1、及び受光面12の周辺部の画素位置P2が示されている。   Referring to FIG. 1, the image sensor 10 has a light receiving surface 12. The light receiving surface 12 typically includes a plurality of pixels that each sense light and generate an electrical signal. FIG. 1 also shows a pixel position P1 at the center of the light receiving surface 12 and a pixel position P2 at the periphery of the light receiving surface 12.

図2〜図5は、それぞれ、イメージセンサの特性の一例としての集光特性を実測して得られた特性図である。このうち、図2及び図3は、イメージセンサS1の画素位置P1及び画素位置P2における集光特性をそれぞれ表している。また、図4及び図5は、イメージセンサS2の画素位置P1及び画素位置P2における集光特性をそれぞれ表している。   2 to 5 are characteristic diagrams obtained by actually measuring the condensing characteristics as an example of the characteristics of the image sensor. Among these, FIG.2 and FIG.3 represents the condensing characteristic in the pixel position P1 and pixel position P2 of image sensor S1, respectively. 4 and 5 show the light condensing characteristics at the pixel position P1 and the pixel position P2 of the image sensor S2, respectively.

図2〜図5の各特性図において、二次元の水平面上の各座標は、画素P1又は画素P2に入射する入射光の方向に対応する。また、当該水平面に対する格子線の高さは、当該画素において生成される電気信号(画素信号)の信号レベルに対する、各入射光の寄与率を表す。   2 to 5, each coordinate on a two-dimensional horizontal plane corresponds to the direction of incident light incident on the pixel P1 or the pixel P2. The height of the grid line with respect to the horizontal plane represents the contribution rate of each incident light to the signal level of the electrical signal (pixel signal) generated in the pixel.

ここで、理想的なイメージセンサを仮定すると、全ての画素について、当該画素に垂直に入射する入射光の寄与率、即ち特性図の中央(座標(0,0))における寄与率が1となり、それ以外の斜めに入射する入射光の寄与率はゼロとなるのが望ましい。しかしながら、現実のイメージセンサの集光特性は、図2〜図5から理解されるように、入射角において一定の広がりを持つ範囲の入射光を畳み込みながら各画素信号が生成されることを示している。   Here, assuming an ideal image sensor, for all pixels, the contribution rate of incident light perpendicularly incident on the pixel, that is, the contribution rate at the center (coordinate (0, 0)) of the characteristic diagram is 1. The contribution ratio of other incident light incident obliquely is preferably zero. However, the condensing characteristic of an actual image sensor shows that each pixel signal is generated while convolving incident light in a range having a certain spread at the incident angle, as can be understood from FIGS. Yes.

また、図2と図3、又は図4と図5を比較すると、いずれのイメージセンサにおいても、画素位置P1における集光特性は比較的急峻であり、画素位置P2における集光特性は比較的なだらかである。即ち、イメージセンサの集光特性は、受光面上の画素位置に応じて異なることが分かる。   Further, comparing FIG. 2 and FIG. 3 or FIG. 4 and FIG. 5, in any of the image sensors, the condensing characteristic at the pixel position P1 is relatively steep, and the condensing characteristic at the pixel position P2 is relatively gentle. It is. That is, it can be seen that the light condensing characteristics of the image sensor differ depending on the pixel position on the light receiving surface.

また、例えば、図2と図4とを比較すると、受光面上の画素位置は同じP1であっても、イメージセンサS1とイメージセンサS2では集光特性は異なっている。また、図3と図5とを比較しても同様である。即ち、画素位置が同じであっても、イメージセンサの個体が異なることによって集光特性が変化し得ることが分かる。   For example, when FIG. 2 is compared with FIG. 4, even if the pixel position on the light receiving surface is the same P1, the light condensing characteristics are different between the image sensor S1 and the image sensor S2. The same applies when FIG. 3 and FIG. 5 are compared. That is, it can be seen that even if the pixel positions are the same, the light condensing characteristics can be changed by different image sensors.

このようなイメージセンサの集光特性の違いは、例えば、イメージセンサの開口部の形状やオンチップレンズの影響などに起因する。また、図には現われていないが、同一の個体であっても、撮影時のカメラの特徴又は状態を表すカメラパラメータが異なる場合には、イメージセンサの集光特性がカメラパラメータに応じて変化することも考えられる。   Such a difference in condensing characteristics of the image sensor is caused by, for example, the shape of the opening of the image sensor or the influence of an on-chip lens. Although not shown in the figure, even when the same individual is used, if the camera parameters representing the characteristics or state of the camera at the time of shooting are different, the light collection characteristics of the image sensor change according to the camera parameters. It is also possible.

ここで、上述したようなイメージセンサの特性は、イメージセンサへ入力される原画像に作用するフィルタとして扱うことができる。その場合、例えば、図2〜図5に示した特性図上の各座標における格子線の高さは、フィルタの特性を表すフィルタ係数となる。そして、かかるフィルタ係数は、前述したように、実測し得る。   Here, the characteristics of the image sensor as described above can be handled as a filter that acts on the original image input to the image sensor. In that case, for example, the height of the grid line at each coordinate on the characteristic diagrams shown in FIGS. 2 to 5 is a filter coefficient representing the characteristic of the filter. Such filter coefficients can be actually measured as described above.

そこで、イメージセンサの特性を反映させた仮想的なフィルタを用いて所与の教師画像から生徒画像を生成し、生成した画像から教師画像を予測することが考えられる。また、予測の精度は、上記特許文献1に記載のクラス分類適応処理を応用し、適応的な学習により高めることができる。   Therefore, it is conceivable that a student image is generated from a given teacher image using a virtual filter reflecting the characteristics of the image sensor, and the teacher image is predicted from the generated image. Further, the accuracy of prediction can be improved by adaptive learning by applying the class classification adaptive processing described in Patent Document 1.

図6は、イメージセンサの特性を反映させた仮想的なフィルタを用いた学習処理及び予測処理について説明するための説明図である。   FIG. 6 is an explanatory diagram for explaining learning processing and prediction processing using a virtual filter that reflects the characteristics of the image sensor.

学習処理において、まず、所与の教師画像ITに対して、実測した個々のイメージセンサの特性を反映したフィルタが適用され、生徒画像ISが生成される。ここで、教師画像ITは、生徒画像ISよりも高い解像度で与えられているものとする。例えば、生徒画像ISの画素位置(u,v)における画素値ISu,vは、当該画素位置に対応する教師画像ITの近傍の画素値ITu+i,v+jを用いて、次式により計算される。 In the learning process, first, a student image IS is generated by applying a filter reflecting characteristics of each actually measured image sensor to a given teacher image IT. Here, it is assumed that the teacher image IT is given with a higher resolution than the student image IS. For example, the pixel value IS u, v at the pixel position (u, v) of the student image IS is calculated by the following equation using the pixel values IT u + i, v + j near the teacher image IT corresponding to the pixel position. .

Figure 2010066925
(1)
Figure 2010066925
(1)

ここで、αi,j(u,v)は、イメージセンサの特性を反映したフィルタ処理において、教師画像IT内の各画素値に乗算される個々のフィルタ係数を表す。なお、前述したように、フィルタ係数αi,j(u,v)は、画素位置(u,v)に依存して変動し得る。 Here, α i, j (u, v) represents individual filter coefficients to be multiplied to each pixel value in the teacher image IT in the filter processing reflecting the characteristics of the image sensor. As described above, the filter coefficient α i, j (u, v) can vary depending on the pixel position (u, v).

そして、このように生成した生徒画像ISから教師画像ITを予測するための予測係数を、上記特許文献1に記載のクラス分類適応処理における学習の考え方に従って算出する。   Then, a prediction coefficient for predicting the teacher image IT from the student image IS generated in this way is calculated according to the learning concept in the class classification adaptation process described in Patent Document 1.

即ち、生徒画像ISの各画素値は、所定の予測係数を用いて、教師画像ITにマッピング(写像)される。例えば、予測係数を用いたマッピング方法として線形一次結合モデルを採用すると、教師画像ITの注目画素値yは、次の線形一次式(線形結合)によって求められる。   That is, each pixel value of the student image IS is mapped (mapped) to the teacher image IT using a predetermined prediction coefficient. For example, when a linear linear combination model is adopted as a mapping method using a prediction coefficient, the target pixel value y of the teacher image IT is obtained by the following linear linear expression (linear combination).

Figure 2010066925
(2)
Figure 2010066925
(2)

ここで、dは、生徒画像ISから抽出されたN個の画素よりなる予測タップのうち、n番目の画素の画素値を表す。また、wは、n番目の予測タップに乗算される予測係数を表す。なお、注目画素値yは、式(2)に示した線形一次式ではなく、二次以上の高次式によって求められてもよい。 Here, d n, of the prediction tap consisting of N pixels that have been extracted from the student image IS, representing pixel values of the n-th pixel. Also, w n represent the prediction coefficients to be multiplied to n-th prediction tap. Note that the target pixel value y may be obtained not by the linear primary expression shown in Expression (2) but by a higher-order expression of the second or higher order.

ここで、第k番目の注目画素の画素値の真値をy、予測値をy’とする。そうすると、予測誤差eは次式で表される。 Here, the true value of the pixel value of the kth pixel of interest is y k , and the predicted value is y k ′. Then, the prediction error ek is expressed by the following equation.

Figure 2010066925
(3)
Figure 2010066925
(3)

式(3)の予測値y’は式(2)に従って求められるため、式(3)の予測値y’を式(2)に従って置き換えると、次式が得られる。 Since the predicted value y k ′ of Expression (3) is obtained according to Expression (2), when the predicted value y k ′ of Expression (3) is replaced according to Expression (2), the following expression is obtained.

Figure 2010066925
(4)
Figure 2010066925
(4)

但し、式(4)において、dn,kは、第k番目の注目画素についての予測タップのうち、n番目の画素値を表す。 However, in Expression (4), dn , k represents the nth pixel value among the prediction taps for the kth pixel of interest.

ここで、最適な予測係数wは、最小自乗法の考え方により、例えば、統計的な誤差としての次式で表される自乗誤差の総和Eを最小(極小)にすることで求められる。 Here, the optimum prediction coefficient w n is the concept of the least squares method, for example, it is determined by minimizing (minimum) the sum E of square errors expressed by the following equation as a statistical error.

Figure 2010066925
(5)
Figure 2010066925
(5)

但し、Kは、教師画像ITを予測する際の全注目画素数を表す。   Here, K represents the total number of pixels of interest when predicting the teacher image IT.

そして、式(4)と式(5)から、自乗誤差の総和Eを最小(極小)にする最適な予測係数wは、次式で表される正規方程式を、例えば掃き出し法(Gaus−Jordanの消去法)を用いて解くことにより求められる。 Then, from equation (4) and (5), the optimal prediction coefficients w n to the total sum E of the square errors to a minimum (local minimum), the normal equation represented by the following formula, for example, sweeping-out method (Gaus-Jordan It is calculated | required by solving using the elimination method.

Figure 2010066925
(6)
Figure 2010066925
(6)

即ち、図6における学習処理では、所与の教師画像ITと画素位置に応じたフィルタ係数αi,j(u,v)とを用いて生徒画像ISが生成された後、まず、注目画素位置ごとに順次、生徒画像ISから予測タップdが抽出される。次に、予測タップdと教師画像ITの注目画素値y(真値)とを用いて、式(6)の正規方程式が生成される。そして、式(6)の正規方程式を解くことにより、生徒画像ISから教師画像ITを予測する予測係数wが算出される。 That is, in the learning process in FIG. 6, after the student image IS is generated using the given teacher image IT and the filter coefficient α i, j (u, v) corresponding to the pixel position, first, the target pixel position successively, the prediction taps d n from the student image iS are extracted every. Next, using the prediction taps d n and the teacher image IT of the target pixel value y k (true value), the normal equation of formula (6) is generated. Then, by solving the normal equation of formula (6), prediction coefficients for predicting the teacher image IT from the student image IS w n are calculated.

さらに、図6における予測処理では、学習処理にて算出しておいた予測係数wを用いて、イメージセンサによって撮像された撮像画像I1から、撮像前の原画像I2が予測される。ここで、撮像画像I1は前述の生徒画像ISに相当し、原画像I2は前述の教師画像ITに相当する。撮像画像I1からの原画像I2の予測は、学習処理と同様に撮像画像I1から予測タップdを抽出した後、式(2)に従って行われる。 Further, in the prediction process in FIG. 6, using the prediction coefficient w n which has been calculated by the learning process, from the captured image I1 captured by the image sensor, an original image I2 before imaging is predicted. Here, the captured image I1 corresponds to the student image IS described above, and the original image I2 corresponds to the teacher image IT described above. Prediction of the original image I2 from the captured image I1, after extracting prediction taps d n from the captured image I1 as with learning processing is performed according to equation (2).

ここまで、図1〜図6を用いて、イメージセンサの特性を考慮した高画質化の概要について説明した。以下、本明細書では、図6に関連して説明した学習処理を行う学習装置、及び予測処理を行う画像処理装置について、イメージセンサの特性を考慮した高画質化の3つの実施形態に沿って詳細に説明する。   Up to this point, the outline of high image quality considering the characteristics of the image sensor has been described with reference to FIGS. Hereinafter, in the present specification, the learning apparatus that performs the learning process described with reference to FIG. 6 and the image processing apparatus that performs the prediction process are in line with three embodiments of high image quality in consideration of the characteristics of the image sensor. This will be described in detail.

<2.第1の実施形態>
[学習装置]
図7は、本発明の第1の実施形態に係る学習装置100の論理的な構成を示すブロック図である。
<2. First Embodiment>
[Learning device]
FIG. 7 is a block diagram showing a logical configuration of the learning device 100 according to the first embodiment of the present invention.

図7を参照すると、学習装置100は、生徒画像生成部110、特性記憶部112、画像記憶部116、注目画素設定部120、クラス分類部142、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。   Referring to FIG. 7, the learning apparatus 100 includes a student image generation unit 110, a characteristic storage unit 112, an image storage unit 116, a target pixel setting unit 120, a class classification unit 142, a prediction tap extraction unit 150, a teacher pixel extraction unit 152, A normal equation generation unit 160, a learning storage unit 162, a coefficient calculation unit 170, and a coefficient storage unit 172 are provided.

生徒画像生成部110は、学習装置100に教師画像ITが供給されると、特性記憶部112からイメージセンサの特性を反映したフィルタ係数を取得し、取得したフィルタ係数を用いて教師画像ITから生徒画像ISを生成する。   When the teacher image IT is supplied to the learning apparatus 100, the student image generation unit 110 acquires the filter coefficient reflecting the characteristics of the image sensor from the characteristic storage unit 112, and uses the acquired filter coefficient to determine the student image IT from the student image IT. An image IS is generated.

より具体的には、生徒画像生成部110は、まず、生徒画像IS内の特定の画素位置(u,v)の画素に注目する。そして、生徒画像生成部110は、例えば、画素位置(u,v)に応じたイメージセンサの集光特性を表すフィルタ係数αi,j(u,v)を、特性記憶部112から取得する。その後、生徒画像生成部110は、上述した式(1)に従って、フィルタ係数αi,j(u,v)と教師画像ITの各画素値から生徒画像ISの注目画素値ISu,vを計算する。生徒画像生成部110は、かかる処理を生成すべき生徒画像ISの全画素について繰返し、生徒画像ISを生成する。 More specifically, the student image generation unit 110 first pays attention to a pixel at a specific pixel position (u, v) in the student image IS. Then, the student image generation unit 110 acquires, for example, the filter coefficient α i, j (u, v) representing the light collection characteristic of the image sensor corresponding to the pixel position (u, v) from the characteristic storage unit 112. Thereafter, the student image generation unit 110 calculates the target pixel value IS u, v of the student image IS from the filter coefficient α i, j (u, v) and each pixel value of the teacher image IT according to the above-described equation (1). To do. The student image generation unit 110 generates the student image IS by repeating this process for all the pixels of the student image IS to be generated.

特性記憶部112には、学習の対象とするイメージセンサの特性を反映したフィルタ係数αi,jが、予め記憶されている。フィルタ係数αi,jは、例えば、イメージセンサの製造後の試験により画素位置に応じて実測される。 The characteristic storage unit 112 stores in advance filter coefficients α i, j that reflect the characteristics of the image sensor to be learned. The filter coefficient α i, j is actually measured according to the pixel position by a test after manufacturing the image sensor, for example.

ここで、例えばイメージセンサの集光特性は、センサの開口部やオンチップレンズの形状の対称性から、一般的には、受光面の中央を中心とする同心円の円周上では一定となる。また、受光面の中央からの距離が大きくなるに従い、集光特性は連続的に変化する。   Here, for example, the condensing characteristic of the image sensor is generally constant on the circumference of a concentric circle centering on the center of the light receiving surface due to the symmetry of the shape of the opening of the sensor and the on-chip lens. Further, as the distance from the center of the light receiving surface increases, the light collection characteristics continuously change.

そのため、例えば、特性記憶部112には、受光面の中央からの距離が異なる数個の画素位置についてのフィルタ係数αi,jのみを記憶させておいてもよい。そして、生徒画像生成部110は、注目画素位置(u,v)について受光面の中央からの距離を計算し、特性記憶部112から取得した離散的なフィルタ係数を距離に応じて補間することにより、注目画素値ISu,vの計算に用いるフィルタ係数を算出してもよい。また、この場合の補間手法は、線形補間に限定されず、より高次の補間関数を用いた手法などであってもよい。 Therefore, for example, the characteristic storage unit 112 may store only the filter coefficients α i, j for several pixel positions having different distances from the center of the light receiving surface. Then, the student image generation unit 110 calculates the distance from the center of the light receiving surface for the target pixel position (u, v), and interpolates the discrete filter coefficients acquired from the characteristic storage unit 112 according to the distance. The filter coefficient used for calculating the target pixel value IS u, v may be calculated. Further, the interpolation method in this case is not limited to linear interpolation, and may be a method using a higher-order interpolation function.

画像記憶部116は、生徒画像生成部110により生成された生徒画像ISを一時的に記憶する。   The image storage unit 116 temporarily stores the student image IS generated by the student image generation unit 110.

注目画素設定部120は、画像記憶部116から生徒画像ISを取得し、生徒画像ISから教師画像ITを予測する予測係数の算出に用いる注目画素位置S(s,t)を順次設定する。そして、注目画素設定部120は、注目画素位置Sを設定すると、クラス分類部142に注目画素位置Sを入力し、注目画素位置Sに応じたクラスを決定させる。また、注目画素設定部120は、予測タップ抽出部150に生徒画像ISと注目画素位置Sとを入力し、生徒画像ISから予測タップdを抽出させる。また、注目画素設定部120は、教師画素抽出部152に注目画素位置Sを入力し、教師画像ITから注目画素位置Sにおける教師画素の真値yを抽出させる。 The pixel-of-interest setting unit 120 acquires the student image IS from the image storage unit 116, and sequentially sets the pixel-of-interest position S (s, t) used for calculating a prediction coefficient for predicting the teacher image IT from the student image IS. When the target pixel position S is set, the target pixel setting unit 120 inputs the target pixel position S to the class classification unit 142 and determines a class corresponding to the target pixel position S. Further, the pixel of interest setting unit 120 inputs the pixel-of-interest position S and student image IS in the prediction tap extracting unit 150, thereby extracting a prediction tap d n from the student image IS. In addition, the target pixel setting unit 120 inputs the target pixel position S to the teacher pixel extraction unit 152 and extracts the true value y k of the teacher pixel at the target pixel position S from the teacher image IT.

クラス分類部142は、注目画素設定部120から入力された注目画素位置Sに応じて1以上のクラスのうちのいずれかのクラスに注目画素を分類し、注目画素のクラスを表すクラスコードCを学習記憶部162に出力する。   The class classification unit 142 classifies the pixel of interest into one of one or more classes according to the pixel-of-interest position S input from the pixel-of-interest setting unit 120, and sets a class code C representing the class of the pixel of interest. The data is output to the learning storage unit 162.

クラス分類部142により分類されるクラスは、図8に一例として示したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に応じて区分されたクラスであってもよい。   The classes classified by the class classification unit 142 are classes classified according to the distance D (S) from the center of the light receiving surface of the image sensor to the target pixel position S, as shown as an example in FIG. Also good.

図8(A)を参照すると、クラスコードC1、C2、C3、及びC4を与えられた4種類のクラスが用意されている。また、クラスコードごとに、当該クラスに分類されるための分類条件が示されている。   Referring to FIG. 8A, four types of classes given class codes C1, C2, C3, and C4 are prepared. For each class code, classification conditions for classification into the class are shown.

例えば、クラスコードC1の分類条件は、距離D(S)が、D(S)<D1を満たすことである。例えば、図8(B)における画素位置P1は、受光面12の中央からの距離がD1よりも小さいため、クラスコードC1で表されるクラスに分類される。また、クラスコードC2の分類条件はD1≦D(S)<D2、クラスコードC3の分類条件はD2≦D(S)<D3である。さらに、クラスコードC4の分類条件はD3≦D(S)である。例えば、図8(B)における画素位置P2は、受光面12の中央からの距離がD3よりも大きいため、クラスコードC4で表されるクラスに分類される。   For example, the classification condition of the class code C1 is that the distance D (S) satisfies D (S) <D1. For example, the pixel position P1 in FIG. 8B is classified into the class represented by the class code C1 because the distance from the center of the light receiving surface 12 is smaller than D1. The classification condition for the class code C2 is D1 ≦ D (S) <D2, and the classification condition for the class code C3 is D2 ≦ D (S) <D3. Further, the classification condition of the class code C4 is D3 ≦ D (S). For example, the pixel position P2 in FIG. 8B is classified into the class represented by the class code C4 because the distance from the center of the light receiving surface 12 is greater than D3.

なお、クラス分類部142により分類されるクラスは、図8に示した例に限定されず、注目画素位置Sに応じて分類される任意のクラスであってよい。例えば、受光面の中央から注目画素位置Sまでのベクトルの向きなどをクラスに対応付けてもよい。   The class classified by the class classification unit 142 is not limited to the example illustrated in FIG. 8, and may be an arbitrary class classified according to the target pixel position S. For example, the direction of a vector from the center of the light receiving surface to the target pixel position S may be associated with a class.

予測タップ抽出部150は、生徒画像ISに含まれる注目画素位置Sの近傍の複数の画素を予測タップdとして抽出し、抽出した予測タップdを正規方程式生成部160へ出力する。 The prediction tap extracting unit 150 extracts a plurality of pixels adjacent to the pixel of interest position S contained in the student image IS as prediction taps d n, and outputs the extracted predictive taps d n to the normal equation generating unit 160.

図9は、予測タップ抽出部150により抽出される予測タップdの一例を示している。図9の例において、予測タップ抽出部150は、注目画素位置S(s,t)を中心とする、いわゆる菱形に配置された計13個の画素d〜d13を予測タップdとして抽出している。なお、予測タップ抽出部150により抽出される予測タップdは、図9の例に限定されず、注目画素位置Sの近傍の任意の位置又は任意の数の画素の集合であってよい。 Figure 9 shows an example of a prediction tap d n extracted by the prediction tap extracting unit 150. In the example of FIG. 9, the prediction tap extracting unit 150, extracts the target pixel position S (s, t) centered at a total 13 disposed in a so-called diamond pixels d 1 to d 13 as prediction taps d n is doing. Note that the prediction taps d n extracted by the prediction tap extracting unit 150 is not limited to the example of FIG. 9 may be set at any position or any number of pixels adjacent to the pixel of interest position S.

教師画素抽出部152は、注目画素設定部120から入力された注目画素位置Sにおける画素値を教師画像ITから抽出し、真値yとして正規方程式生成部160に出力する。なお、教師画素の真値yにおけるkは、注目画素位置S(s,t)を一次元化することにより与えられる。 The teacher pixel extraction unit 152 extracts the pixel value at the target pixel position S input from the target pixel setting unit 120 from the teacher image IT, and outputs it to the normal equation generation unit 160 as a true value y k . Note that k in the true value y k of the teacher pixel is given by making the target pixel position S (s, t) one-dimensional.

正規方程式生成部160は、予測タップ抽出部150から入力される予測タップdと教師画素抽出部152から入力される教師画素の真値yとを用いて、式(6)により表される正規方程式への足し込みを行う。 Normal equation generating unit 160, by using the true value y k of the teacher pixels input from the predictive tap d n and the teacher pixel extracting unit 152 which is input from the prediction tap extracting unit 150 is represented by the formula (6) Add to normal equation.

ここで、正規方程式への足し込みとは、式(6)に現れる各行列及びベクトルの要素を算出し、算出した結果を正規方程式に設定する処理をいう。即ち、正規方程式生成部160は、まず、式(6)の左辺の行列における予測タップdの画素値同士の乗算とサメーション(Σ)を行う。次に、正規方程式生成部160は、式(6)の右辺のベクトルにおける予測タップdの画素値と教師画素の真値yとの間の乗算とサメーション(Σ)を行う。そして、正規方程式生成部160は、乗算とサメーション(Σ)の結果を、正式方程式に設定する。 Here, the addition to the normal equation refers to a process of calculating each matrix and vector element appearing in the equation (6) and setting the calculated result in the normal equation. That is, the normal equation generating unit 160 first performs formula left side of the pixel values between the predictive tap d n in matrix multiplication and summation (6) (Σ). Then, the normal equation generating unit 160 performs multiplication and summation (sigma) between the true value y k of the pixel values of the prediction taps d n in the vector of the right side and the teacher pixels of the formula (6). Then, the normal equation generation unit 160 sets the result of multiplication and summation (Σ) as a formal equation.

正規方程式生成部160は、注目画素設定部120により設定される全ての注目画素位置Sについて前述した足し込みを行い、生成した正規方程式を学習記憶部162へ出力する。   The normal equation generation unit 160 performs the above-described addition for all the target pixel positions S set by the target pixel setting unit 120, and outputs the generated normal equations to the learning storage unit 162.

学習記憶部162は、クラス分類部142により決定されたクラスコードCにより表されるクラスごとに、正規方程式生成部160により生成された正規方程式を記憶する。   The learning storage unit 162 stores the normal equation generated by the normal equation generation unit 160 for each class represented by the class code C determined by the class classification unit 142.

係数算出部170は、学習記憶部162から前述したクラスごとに正規方程式を取得し、取得した正規方程式を解くことにより、クラスごとの予測係数wを算出する。そして、係数算出部170は、算出したクラスごとの予測係数wを係数記憶部172に出力する。 Coefficient calculation unit 170 acquires the normal equation from the learning memory unit 162 for each class as described above, by solving the obtained normal equation to calculate the prediction coefficient w n for each class. The coefficient calculating unit 170 outputs the prediction coefficient w n for each calculated class to the coefficient storage unit 172.

係数記憶部172は、係数算出部170から入力されたクラスごとの予測係数wを記憶する。ここで記憶された予測係数wは、後述する画像処理装置において、撮像画像から抽出した予測タップの画素値から原画像の画素値を予測するために用いられる。 Coefficient storage unit 172 stores the prediction coefficient w n for each input from the coefficient calculator 170 class. Prediction coefficient w n stored here, in the image processing apparatus to be described later, is used to predict the pixel values of the original image from the pixel values of the prediction taps extracted from the captured image.

[処理フロー説明:学習処理]
次に、図10のフローチャートを用いて、本実施形態に係る学習装置100による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the learning device 100 according to the present embodiment will be described using the flowchart of FIG.

図10を参照すると、まず、学習装置100に教師画像ITが供給される(S202)。教師画像ITは、生徒画像生成部110及び教師画素抽出部152に入力される。   Referring to FIG. 10, first, a teacher image IT is supplied to the learning apparatus 100 (S202). The teacher image IT is input to the student image generation unit 110 and the teacher pixel extraction unit 152.

次に、教師画像ITと特性記憶部112から取得されたフィルタ係数とを用いて、生徒画像生成部110により、生徒画像ISが生成される(S204)。ここで生成された生徒画像ISは、画像記憶部116へ出力され、記憶される。   Next, the student image IS is generated by the student image generation unit 110 using the teacher image IT and the filter coefficient acquired from the characteristic storage unit 112 (S204). The student image IS generated here is output to the image storage unit 116 and stored.

その後、注目画素設定部120により、画像記憶部116から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S206)。   Thereafter, the target pixel setting unit 120 acquires the student image IS from the image storage unit 116, and sets the target pixel position S of interest when predicting the teacher image IT from the student image IS (S206).

そして、クラス分類部142により、注目画素位置Sに応じたクラスが決定され、決定されたクラスを表すクラスコードが学習記憶部162へ出力される(S208)。   Then, the class classification unit 142 determines a class corresponding to the target pixel position S, and a class code representing the determined class is output to the learning storage unit 162 (S208).

また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、抽出された予測タップdが正規方程式生成部160へ出力される(S210)。 Furthermore, the prediction tap extracting unit 150 is extracted as a plurality of pixels prediction taps d n located in the vicinity of the target pixel position S from the student image IS, extracted prediction taps d n is output to the normal equation generating unit 160 (S210).

また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値yが抽出され、抽出された注目画素の真値yが正規方程式生成部160へ出力される(S212)。 Further, the teacher pixel extraction unit 152 extracts the true value y k of the pixel at the target pixel position S from the teacher image IT, and outputs the extracted true value y k of the target pixel to the normal equation generation unit 160 (S212). ).

そして、正規方程式生成部160により、予測タップd及び注目画素の真値yを用いて、正規方程式への足し込みが行われる(S214)。ここで生成された正規方程式は、クラス分類部142により決定されたクラスごとに学習記憶部162により記憶される。 Then, the normal equation generating unit 160, by using the true value y k of the prediction tap d n and the pixel of interest, is performed summation to the normal equation (S214). The normal equation generated here is stored in the learning storage unit 162 for each class determined by the class classification unit 142.

その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S216)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS206へ戻り、注目画素設定部120によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS218へ進む。   Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S216). Here, if there is a target pixel that has not been added to the normal equation, the process returns to S206, and the target pixel setting unit 120 sets a new target pixel position S. On the other hand, if the addition to the normal equation has been completed for all the target pixels, the process proceeds to S218.

S218では、係数算出部170により、正規方程式がクラスごとに順次学習記憶部162から取得され、取得された正規方程式を解くことにより、クラスごとの予測係数wが算出される(S218)。ここで算出された予測係数wは、クラスごとに係数記憶部172により記憶される。 In S218, the coefficient calculation unit 170, a normal equation is obtained from sequential learning storing unit 162 for each class by solving the obtained normal equation, the prediction coefficient w n for each class are calculated (S218). Calculated here prediction coefficient w n is stored by the coefficient storage unit 172 for each class.

その後、全てのクラスについての予測係数wの算出が終了したか否かが判定される(S220)。ここで、予測係数wの算出が終了していないクラスが残っていれば、処理はS218へ戻り、係数算出部170によって残っているクラスについての予測係数wの算出が行われる。一方、全てのクラスについて予測係数wの算出が終了していれば、学習処理は終了する。 Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S220). Here, if the remaining class calculation is not completed in the prediction coefficient w n is, the process returns to S218, the calculation of the prediction coefficients w n for the class remaining the coefficient calculation unit 170 is performed. On the other hand, the calculation of the prediction coefficients w n for all classes if completed, the learning process is terminated.

[変形例]
なお、本実施形態では、全てのクラスについて正規方程式を解くことにより予測係数wを算出する例について説明した。しかしながら、その代わりに、一部のクラスについて正規方程式を解くことにより予測係数wを算出し、残りのクラスについては、次に説明するように、各クラスを代表する代表画素位置の間の関係に応じて予測係数を補間して算出してもよい。
[Modification]
In the present embodiment has been described for an example of calculating the prediction coefficient w n by solving the normal equation for all classes. However, instead, to calculate the prediction coefficient w n by solving the normal equations for some classes for the remaining classes, as described below, the relationship between the representative pixel positions representative of each class The prediction coefficient may be calculated by interpolation according to the above.

図11は、クラスを代表する代表画素位置について説明するための説明図である。   FIG. 11 is an explanatory diagram for describing a representative pixel position representing a class.

図11では、一例として、イメージセンサの受光面12上の画素位置に応じてクラスコードC1、C2及びC3で表される3つのクラス(以下、クラスC1、クラスC2及びクラスC3という。)が定義されている。クラスC1は、受光面12の中央を含む円形の領域に対応するクラスである。クラスC2は、クラスC1とクラスC3との間に位置し、受光面12の中央との間の距離が中程度の領域に対応するクラスである。クラスC3は、クラスC2の外側に位置し、受光面12の中央との間の距離が最も遠い領域に対応するクラスである。そして、図11には、クラスC1の代表画素位置Q1、クラスC2の代表画素位置Q2、及びクラスC3の代表画素位置Q3が示されている。   In FIG. 11, as an example, three classes (hereinafter referred to as class C1, class C2, and class C3) represented by class codes C1, C2, and C3 are defined according to the pixel position on the light receiving surface 12 of the image sensor. Has been. Class C1 is a class corresponding to a circular region including the center of the light receiving surface 12. Class C2 is a class that is located between class C1 and class C3 and corresponds to a region in which the distance from the center of light receiving surface 12 is medium. The class C3 is a class that is located outside the class C2 and corresponds to a region farthest from the center of the light receiving surface 12. FIG. 11 shows a representative pixel position Q1 of class C1, a representative pixel position Q2 of class C2, and a representative pixel position Q3 of class C3.

ここで、例えば、クラスC1及びクラスC3の予測係数wが前述の正規方程式を解くことにより既に算出されているとする。その場合、例えば、図12に示した線形補間の手法を用いて、クラスC2の予測係数wを算出することができる。 Here, for example, the prediction coefficient w n of the class C1 and a class C3 is the already calculated by solving the normal equation described above. In that case, for example, by using a linear interpolation method shown in FIG. 12, it is possible to calculate the prediction coefficient w n of the class C2.

図12において、グラフの横軸は、図11に示した各クラスの代表画素位置の、受光面12の中央からの距離を表す。また、グラフの縦軸は、各クラスについての予測係数wの係数値を表す。 In FIG. 12, the horizontal axis of the graph represents the distance from the center of the light receiving surface 12 of the representative pixel position of each class shown in FIG. 11. The ordinate of the graph represents the coefficient values of the prediction coefficient w n for each class.

図12に示されたクラスC1(代表画素値Q1)の予測係数値W(Q1)、及びクラスC3(代表画素値Q3)の予測係数値W(Q3)は、それぞれ正規方程式を解いて算出された結果からプロットされる。そうすると、プロットされた2つの端点を結ぶ直線上の、代表画素位置Q2に対応する予測係数値が、クラスC2(代表画素値Q2)の予測係数値W(Q2)となる。なお、図12では、クラスC2の予測係数値を線形補間によって算出したが、予測係数値の補間手法は線形補間に限定されず、任意の手法であってよい。 Figure 12 shows the class C1 prediction coefficient W n of (representative pixel value Q1) (Q1), and the prediction coefficient value W n (Q3) Class C3 (representative pixel value Q3) are each solved the normal equations Plotted from the calculated results. Then, the prediction coefficient value corresponding to the representative pixel position Q2 on the straight line connecting the two plotted end points becomes the prediction coefficient value W n (Q2) of the class C2 (representative pixel value Q2). In FIG. 12, the prediction coefficient value of class C2 is calculated by linear interpolation. However, the interpolation method of the prediction coefficient value is not limited to linear interpolation, and may be any method.

このように、一部のクラス又は一部の画素位置に対応する予測係数wを補間によって算出することで、学習装置100による学習に掛かる演算量を低減させることができる。 Thus, by calculating by interpolation prediction coefficient w n corresponding to a portion of a class or a part of the pixel positions, it is possible to reduce the amount of computation required for learning by the learning device 100.

ここまで、本発明の第1の実施形態に係る学習装置100について説明した。本実施形態に係る学習装置100によれば、イメージセンサが画素位置に応じて異なる特性を有している場合に、イメージセンサによる撮像過程を経て得られた撮像画像から原画像を予測するための予測係数が適応的に生成される。それにより、試行錯誤的な画質のチューニングを行うことなく、次項で述べる画像処理装置によってイメージセンサの特性を考慮した高画質化を行うことが可能となる。   So far, the learning apparatus 100 according to the first embodiment of the present invention has been described. According to the learning device 100 according to the present embodiment, when the image sensor has different characteristics depending on the pixel position, the original image is predicted from the captured image obtained through the imaging process by the image sensor. Prediction coefficients are generated adaptively. Accordingly, it is possible to improve the image quality in consideration of the characteristics of the image sensor by the image processing apparatus described in the next section without performing trial and error image quality tuning.

また、当該予測係数は、撮像画像から原画像を予測する際の注目画素の画素位置に応じて分類されたクラスごとに算出される。即ち、例えば近傍に位置する2つの注目画素については、予測係数の1つのセットのみが生成され得る。そのため、予測係数の学習に掛かる演算量と予測係数の記憶に用いられる記憶領域を節約しながら、精度の高い予測係数の学習を行うことができる。   Further, the prediction coefficient is calculated for each class classified according to the pixel position of the target pixel when the original image is predicted from the captured image. That is, for example, for two pixels of interest located in the vicinity, only one set of prediction coefficients can be generated. Therefore, it is possible to learn the prediction coefficient with high accuracy while saving the amount of calculation required for learning the prediction coefficient and the storage area used for storing the prediction coefficient.

[画像処理装置]
次に、前述した学習装置100により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図13は、本発明の第1の実施形態に係る画像処理装置300の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs prediction processing for predicting an original image before imaging from a captured image using the prediction coefficient generated by the learning device 100 described above will be described. FIG. 13 is a block diagram showing a logical configuration of the image processing apparatus 300 according to the first embodiment of the present invention.

図13を参照すると、画像処理装置300は、注目画素設定部320、クラス分類部342、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。   Referring to FIG. 13, the image processing apparatus 300 includes a target pixel setting unit 320, a class classification unit 342, a prediction tap extraction unit 350, a coefficient storage unit 372, a prediction coefficient acquisition unit 374, and a prediction calculation unit 380.

画像処理装置300は、イメージセンサにより撮像された撮像画像I1に対し、学習装置100により予め生成された予測係数を用いて、以下に詳しく説明する予測演算を行うことにより、撮像前の原画像に相当する予測画像I2を生成して出力する。   The image processing apparatus 300 performs a prediction calculation, which will be described in detail below, on the captured image I1 captured by the image sensor, using the prediction coefficient generated in advance by the learning apparatus 100, so that an original image before imaging is obtained. A corresponding predicted image I2 is generated and output.

まず、画像処理装置300に撮像画像I1が供給されると、撮像画像I1は注目画素設定部320に入力される。   First, when the captured image I1 is supplied to the image processing apparatus 300, the captured image I1 is input to the target pixel setting unit 320.

注目画素設定部320は、イメージセンサにより撮像される前の原画像に相当する予測画像I2のうち、予測の対象とする任意の画素を注目画素として順次設定する。そして、注目画素設定部320は、設定した注目画素の予測画像I2における画素位置Sをクラス分類部342へ出力する。また、注目画素設定部320は、撮像画像I1と注目画素位置Sとを予測タップ抽出部350へ出力する。   The target pixel setting unit 320 sequentially sets, as a target pixel, arbitrary pixels to be predicted from the predicted image I2 corresponding to the original image before being imaged by the image sensor. Then, the target pixel setting unit 320 outputs the pixel position S of the set target pixel in the predicted image I2 to the class classification unit 342. Further, the target pixel setting unit 320 outputs the captured image I1 and the target pixel position S to the prediction tap extraction unit 350.

クラス分類部342は、注目画素設定部320から入力された注目画素位置Sに応じて、後述する係数記憶部372において予測係数と対応付けられたいずれかのクラスに注目画素を分類する。そして、クラス分類部342は、分類したクラスを表すクラスコードCを予測係数取得部374へ出力する。   The class classification unit 342 classifies the target pixel into one of the classes associated with the prediction coefficient in the coefficient storage unit 372, which will be described later, according to the target pixel position S input from the target pixel setting unit 320. Then, the class classification unit 342 outputs the class code C representing the classified class to the prediction coefficient acquisition unit 374.

例えば、図8に関連して説明したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に応じて区分されたクラスごとに、係数記憶部372において予測係数が記憶されているとする。その場合には、クラス分類部342は、まず、注目画素設定部320から入力された注目画素位置Sの受光面の中央からの距離D(S)を計算する。そして、クラス分類部342は、計算の結果得られた距離D(S)に応じたクラスコードCを、図8(A)に例示した分類条件に従って決定する。そして、クラス分類部342は、決定したクラスコードCを予測係数取得部374へ出力する。   For example, as described with reference to FIG. 8, the prediction coefficient is calculated in the coefficient storage unit 372 for each class divided according to the distance D (S) from the center of the light receiving surface of the image sensor to the target pixel position S. Suppose that it is remembered. In that case, the class classification unit 342 first calculates the distance D (S) from the center of the light receiving surface of the target pixel position S input from the target pixel setting unit 320. Then, the class classification unit 342 determines a class code C corresponding to the distance D (S) obtained as a result of the calculation according to the classification conditions illustrated in FIG. Then, the class classification unit 342 outputs the determined class code C to the prediction coefficient acquisition unit 374.

係数記憶部372は、学習装置100による前述した学習処理の結果得られた予測係数wを、画素位置に応じたクラスごとに記憶している。そして、係数記憶部372は、例えば、予測係数取得部374から指定されたクラスコードCに対応するアドレスに記憶されている予測係数wを読み出し、予測係数取得部374へ出力する。 Coefficient storage unit 372, the prediction coefficient w n obtained as a result of the above-described learning process by the learning apparatus 100, stored in each class corresponding to the pixel position. The coefficient storage unit 372, for example, reads out the prediction coefficient w n stored at the address corresponding to the class code C specified by the prediction coefficient acquisition unit 374, and outputs the prediction coefficient acquisition unit 374.

予測係数取得部374は、クラス分類部342から入力されたクラスコードCに対応する予測係数wを係数記憶部372から取得し、予測演算部380へ出力する。 Prediction coefficient acquiring unit 374 acquires the prediction coefficient w n corresponding to the class code C that is input from the classification unit 342 from the coefficient storage unit 372, and outputs it to the prediction computation unit 380.

予測タップ抽出部350は、注目画素設定部320から入力された注目画素位置Sの近傍の複数の画素を撮像画像I1から予測タップdとして抽出し、抽出した予測タップdを予測演算部380へ出力する。ここで予測タップ抽出部350により抽出される予測タップdは、例えば、図9に関連して説明した、注目画素位置S(s,t)を中心とする菱形状の計13個の画素d〜d13などとなる。 The prediction tap extracting unit 350, the target pixel setting section a plurality of pixels adjacent to the pixel of interest position S input from 320 as prediction taps d n from the captured image I1, extracted prediction computation unit 380 prediction taps d n were Output to. Here the prediction taps d n extracted by the prediction tap extracting unit 350, for example, described in relation to FIG. 9, the pixel of interest position S (s, t) rhombic meter around the 13 pixels d and so on 1 ~d 13.

予測演算部380は、前述した式(2)に従い、予測タップ抽出部350から入力された予測タップdの各画素値と予測係数取得部374から入力された予測係数wの各係数値とを線形一次結合することにより、注目画素の画素値に相当する予測値を計算する。 Prediction computation unit 380, in accordance with the equation (2) described above, and each coefficient value of the prediction coefficient w n inputted from the prediction coefficient obtaining unit 374 and each pixel value of the prediction taps d n inputted from the prediction tap extracting unit 350 Are linearly linearly combined to calculate a predicted value corresponding to the pixel value of the target pixel.

このような予測値の演算は、予測画像I2の全ての注目画素値が算出されるまで繰り返される。   Such calculation of the predicted value is repeated until all the target pixel values of the predicted image I2 are calculated.

[処理フロー説明:予測処理]
次に、図14のフローチャートを用いて、本実施形態に係る画像処理装置300による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the image processing apparatus 300 according to the present embodiment will be described using the flowchart of FIG.

図14を参照すると、まず、画像処理装置300に撮像画像I1が供給される(S402)。撮像画像I1は、注目画素設定部320に入力される。   Referring to FIG. 14, first, a captured image I1 is supplied to the image processing apparatus 300 (S402). The captured image I1 is input to the target pixel setting unit 320.

その後、注目画素設定部320により、予測画像I2のうち予測の対象とする注目画素の画素位置Sが設定される(S404)。ここで設定された画素位置Sはクラス分類部342へ出力され、また注目画素位置Sと撮像画像I1は予測タップ抽出部350へ出力される。   Thereafter, the target pixel setting unit 320 sets the pixel position S of the target pixel to be predicted in the predicted image I2 (S404). The pixel position S set here is output to the class classification unit 342, and the target pixel position S and the captured image I1 are output to the prediction tap extraction unit 350.

そして、クラス分類部342により、注目画素位置Sに応じて注目画素のクラスが決定され、決定されたクラスを表すクラスコードCが予測係数取得部374へ出力される(S406)。   Then, the class classification unit 342 determines the class of the target pixel according to the target pixel position S, and outputs the class code C representing the determined class to the prediction coefficient acquisition unit 374 (S406).

さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wが取得され、取得された予測係数wが予測演算部380へ出力される(S408)。 Moreover, the prediction coefficient acquisition unit 374, the acquired prediction coefficient w n in association with class code C stored in the coefficient storage unit 372, the obtained prediction coefficient w n is output to the prediction computation unit 380 ( S408).

また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、予測演算部380へ出力される(S410)。 Furthermore, the prediction tap extracting unit 350, a plurality of pixels are extracted as prediction taps d n located in the vicinity of the target pixel position S in the captured image I1, is output to the prediction computation unit 380 (S410).

そして、予測演算部380において、予測係数wと予測タップdの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S412)。 Then, the prediction computation unit 380, linear combination of the prediction taps d n and prediction coefficient w n is performed according to equation (2), the predicted value of the pixel of interest is calculated (S412).

その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S414)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS404へ戻り、注目画素設定部320によって新たな注目画素が設定される。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。   Thereafter, it is determined whether or not the calculation of the prediction values for all the target pixels has been completed (S414). Here, if there remains a pixel for which the calculation of the predicted value has not been completed, the process returns to S <b> 404, and a new target pixel is set by the target pixel setting unit 320. On the other hand, if the calculation of the predicted value has been completed for all the pixels of the predicted image I2, the prediction process ends.

ここまで、本発明の第1の実施形態に係る画像処理装置300について説明した。本実施形態に係る画像処理装置300によれば、イメージセンサが画素位置に応じて異なる特性を有している場合に、前項で述べた学習装置100による学習の結果得られた予測係数を用いて、撮像画像から原画像を予測することができる。それにより、試行錯誤的な画質のチューニングを行うことなく、イメージセンサの特性を考慮して撮像画像を高画質化することが可能となる。   Up to this point, the image processing apparatus 300 according to the first embodiment of the present invention has been described. According to the image processing apparatus 300 according to the present embodiment, when the image sensor has different characteristics depending on the pixel position, the prediction coefficient obtained as a result of learning by the learning apparatus 100 described in the previous section is used. The original image can be predicted from the captured image. Thereby, it is possible to improve the image quality of the captured image in consideration of the characteristics of the image sensor without performing trial and error image quality tuning.

なお、ここでは、注目画素位置に応じて決定したクラスに対応する予測係数をそのまま予測演算部380による線形一次結合に適用する例について説明した。しかしながら、その代わりに、注目画素位置に応じて複数のクラスに対応する予測係数を取得し、各クラスを代表する代表画素位置と注目画素位置の間の関係に応じて、予測係数を補間して適用してもよい。例えば、図12に例示した線形補間、又はより高次の補間手法を用いることができる。そうすることにより、予測係数を記憶しておくために必要な記憶領域を節約しながら、精度の高い予測を行うことが可能となる。   Here, the example in which the prediction coefficient corresponding to the class determined according to the target pixel position is applied to the linear linear combination by the prediction calculation unit 380 as it is has been described. However, instead, a prediction coefficient corresponding to a plurality of classes is acquired according to the target pixel position, and the prediction coefficient is interpolated according to the relationship between the representative pixel position representing each class and the target pixel position. You may apply. For example, the linear interpolation illustrated in FIG. 12 or a higher-order interpolation method can be used. By doing so, it is possible to perform highly accurate prediction while saving a storage area necessary for storing the prediction coefficient.

<3.第2の実施形態>
第1の実施形態では、画素位置に応じたイメージセンサの特性のみを考慮して撮像画像を高画質化する例について説明した。ここで、前述したように、画像を撮影した際のカメラパラメータが異なる場合には、イメージセンサの特性が、画素位置に加えてカメラパラメータに応じて変化することも考えられる。そこで、本発明の第2の実施形態では、撮像時のカメラパラメータも考慮に入れて撮像画像を高画質化する例について説明する。
<3. Second Embodiment>
In the first embodiment, the example in which the image quality of the captured image is improved considering only the characteristics of the image sensor according to the pixel position has been described. Here, as described above, when the camera parameters at the time of capturing an image are different, the characteristics of the image sensor may be changed according to the camera parameters in addition to the pixel position. Therefore, in the second embodiment of the present invention, an example will be described in which the image quality of a captured image is improved in consideration of camera parameters during imaging.

[学習装置]
図15は、本発明の第2の実施形態に係る学習装置500の論理的な構成を示すブロック図である。
[Learning device]
FIG. 15 is a block diagram showing a logical configuration of a learning device 500 according to the second embodiment of the present invention.

図15を参照すると、学習装置500は、生徒画像生成部510、特性記憶部512、カメラパラメータ取得部514、画像記憶部516、注目画素設定部520、クラス分類部542、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。   Referring to FIG. 15, the learning apparatus 500 includes a student image generation unit 510, a characteristic storage unit 512, a camera parameter acquisition unit 514, an image storage unit 516, a target pixel setting unit 520, a class classification unit 542, a prediction tap extraction unit 150, A teacher pixel extraction unit 152, a normal equation generation unit 160, a learning storage unit 162, a coefficient calculation unit 170, and a coefficient storage unit 172 are provided.

学習装置500による学習時には、撮像画像よりも高質な教師画像IT、及び教師画像ITが撮像された際のカメラパラメータCPが、学習装置500に供給される。ここで、カメラパラメータとは、画像が撮影された際のカメラの特徴又は状態を表すパラメータのうち、例えば、焦点距離(フォーカス)、ズーム、絞り(アイリス)、又は被写界深度など、イメージセンサの特性に影響を与える任意のパラメータであってよい。   During learning by the learning device 500, the teacher image IT having a higher quality than the captured image and the camera parameters CP when the teacher image IT is captured are supplied to the learning device 500. Here, the camera parameter is an image sensor such as a focal length (focus), zoom, aperture (iris), or depth of field, among parameters representing the characteristics or state of the camera when an image is taken. It may be any parameter that affects the characteristics of

なお、図15の各機能ブロックのうち、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172は、それぞれ図7に関連して説明した内容と同等の機能を有する。そのため、ここでは主に、生徒画像生成部510、特性記憶部512、カメラパラメータ取得部514、画像記憶部516、注目画素設定部520、及びクラス分類部542について説明する。   15, the prediction tap extraction unit 150, the teacher pixel extraction unit 152, the normal equation generation unit 160, the learning storage unit 162, the coefficient calculation unit 170, and the coefficient storage unit 172 are respectively illustrated in FIG. It has a function equivalent to the content explained in relation to it. Therefore, here, the student image generation unit 510, the characteristic storage unit 512, the camera parameter acquisition unit 514, the image storage unit 516, the target pixel setting unit 520, and the class classification unit 542 will be mainly described.

図15において、カメラパラメータ取得部514は、教師画像ITが撮像された際のカメラパラメータCPを取得し、生徒画像生成部510へ出力する。   In FIG. 15, the camera parameter acquisition unit 514 acquires the camera parameter CP when the teacher image IT is captured and outputs it to the student image generation unit 510.

生徒画像生成部510は、教師画像ITが供給されると、カメラパラメータ取得部514から入力されたカメラパラメータCPに応じたフィルタ係数を特性記憶部512から取得する。そして、生徒画像生成部510は、取得したフィルタ係数を用いて教師画像ITから生徒画像ISを生成する。   When the teacher image IT is supplied, the student image generation unit 510 acquires a filter coefficient corresponding to the camera parameter CP input from the camera parameter acquisition unit 514 from the characteristic storage unit 512. Then, the student image generation unit 510 generates a student image IS from the teacher image IT using the acquired filter coefficient.

または、生徒画像生成部510は、教師画像ITが供給されると、特性記憶部512から取得したフィルタ係数をカメラパラメータCPに応じた値に再計算し、再計算したフィルタ係数を用いて教師画像ITから生徒画像ISを生成してもよい。   Alternatively, when the teacher image IT is supplied, the student image generation unit 510 recalculates the filter coefficient acquired from the characteristic storage unit 512 to a value according to the camera parameter CP, and uses the recalculated filter coefficient to reinforce the teacher image. A student image IS may be generated from IT.

例えば、イメージセンサの集光特性は、一般的に被写体に焦点が合っている場合には急峻であり、被写体に焦点が合っていない場合にはなだらかである。そのため、教師画像ITにおける被写体との距離と焦点距離との一致度に応じて、フィルタ係数を再計算してもよい。   For example, the condensing characteristic of an image sensor is generally steep when the subject is in focus, and is gentle when the subject is not in focus. Therefore, the filter coefficient may be recalculated according to the degree of coincidence between the distance to the subject and the focal length in the teacher image IT.

特性記憶部512には、例えばカメラパラメータCPと関連付けて、学習の対象となるイメージセンサの特性を反映したフィルタ係数αi,jが予め記憶される。 The characteristic storage unit 512 stores in advance filter coefficients α i, j reflecting the characteristics of the image sensor to be learned in association with, for example, the camera parameter CP.

画像記憶部516は、生徒画像生成部510により生成された生徒画像ISを、カメラパラメータCPと関連付けて一時的に記憶する。   The image storage unit 516 temporarily stores the student image IS generated by the student image generation unit 510 in association with the camera parameter CP.

注目画素設定部520は、画像記憶部516からカメラパラメータCP及び生徒画像ISを取得し、生徒画像ISから教師画像ITを予測する予測係数の算出に用いる注目画素位置Sを、順次設定する。そして、注目画素設定部520は、クラス分類部542にカメラパラメータCP及び注目画素位置Sを入力する。また、注目画素設定部520は、予測タップ抽出部150に生徒画像IS及び注目画素位置Sを入力する。また、注目画素設定部520は、教師画素抽出部152に注目画素位置Sを入力する。   The pixel-of-interest setting unit 520 acquires the camera parameter CP and the student image IS from the image storage unit 516, and sequentially sets the pixel-of-interest position S used for calculating a prediction coefficient for predicting the teacher image IT from the student image IS. Then, the pixel-of-interest setting unit 520 inputs the camera parameter CP and the pixel-of-interest position S to the class classification unit 542. Further, the target pixel setting unit 520 inputs the student image IS and the target pixel position S to the prediction tap extraction unit 150. In addition, the target pixel setting unit 520 inputs the target pixel position S to the teacher pixel extraction unit 152.

クラス分類部542は、注目画素設定部520から入力されたカメラパラメータCP及び注目画素位置Sに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。   The class classification unit 542 determines any class corresponding to the camera parameter CP and the target pixel position S input from the target pixel setting unit 520, and outputs a class code C representing the determined class to the learning storage unit 162. .

クラス分類部542により決定されるクラスは、図16に一例として示したように、イメージセンサの受光面の中央から注目画素位置Sまでの距離D(S)に関する条件と、カメラパラメータCPの値に関する条件に応じて与えられるクラスであってもよい。   The class determined by the class classification unit 542 is related to the condition relating to the distance D (S) from the center of the light receiving surface of the image sensor to the target pixel position S and the value of the camera parameter CP, as shown as an example in FIG. It may be a class given according to conditions.

図16を参照すると、CP=CP1の場合、D(S)<D1であればクラスC11、D1≦D(S)<D2であればクラスC12、D2≦D(S)であればクラスC13がそれぞれ与えられる。同様に、CP=CP2の場合、D(S)<D1であればクラスC21、D1≦D(S)<D2であればクラスC22、D2≦D(S)であればクラスC23がそれぞれ与えられる。CP=CP3の場合、D(S)<D1であればクラスC31、D1≦D(S)<D2であればクラスC32、D2≦D(S)であればクラスC33がそれぞれ与えられる。   Referring to FIG. 16, when CP = CP1, class C11 if D (S) <D1, class C12 if D1 ≦ D (S) <D2, and class C13 if D2 ≦ D (S). Given each. Similarly, when CP = CP2, class C21 is given if D (S) <D1, class C22 is given if D1 ≦ D (S) <D2, and class C23 is given if D2 ≦ D (S). . In the case of CP = CP3, class C31 is given if D (S) <D1, class C32 is given if D1 ≦ D (S) <D2, and class C33 is given if D2 ≦ D (S).

このような学習装置500の構成により、生徒画像ISから教師画像ITを予測するための予測係数wが、注目画素位置S及びカメラパラメータCPに応じたクラスごとに適応的に学習される。 Such a structure of the learning device 500, the prediction coefficient w n for predicting the teacher image IT from the student image IS is adaptively learned for each class corresponding to the target pixel position S and the camera parameters CP.

[処理フロー説明:学習処理]
次に、図17のフローチャートを用いて、本実施形態に係る学習装置500による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the learning device 500 according to the present embodiment will be described using the flowchart of FIG.

図17を参照すると、まず、学習装置500に教師画像ITが供給される(S602)。教師画像ITは、生徒画像生成部510及び教師画素抽出部152に入力される。   Referring to FIG. 17, first, a teacher image IT is supplied to the learning apparatus 500 (S602). The teacher image IT is input to the student image generation unit 510 and the teacher pixel extraction unit 152.

次に、カメラパラメータ取得部514により、教師画像ITが撮像された際のカメラパラメータCPが取得され、生徒画像生成部510に入力される(S604)。   Next, the camera parameter acquisition unit 514 acquires the camera parameter CP when the teacher image IT is captured and inputs it to the student image generation unit 510 (S604).

そして、生徒画像生成部510により、教師画像IT、カメラパラメータCP、及び特性記憶部512から取得されたフィルタ係数を用いて、生徒画像ISが生成される(S606)。ここで生成された生徒画像ISは、画像記憶部516へ出力され、記憶される。   Then, the student image generation unit 510 generates a student image IS using the teacher image IT, the camera parameter CP, and the filter coefficient acquired from the characteristic storage unit 512 (S606). The student image IS generated here is output to the image storage unit 516 and stored.

次に、注目画素設定部520により、画像記憶部516から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S608)。   Next, the target pixel setting unit 520 acquires the student image IS from the image storage unit 516, and sets the target pixel position S to be noted when predicting the teacher image IT from the student image IS (S608).

そして、クラス分類部542により、注目画素位置S及びカメラパラメータCPに応じたクラスが決定され、決定されたクラスを表すクラスコードCが学習記憶部162へ出力される(S610)。   Then, the class according to the target pixel position S and the camera parameter CP is determined by the class classification unit 542, and the class code C representing the determined class is output to the learning storage unit 162 (S610).

また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、抽出された予測タップdが正規方程式生成部160へ出力される(S612)。 Furthermore, the prediction tap extracting unit 150 is extracted as a plurality of pixels prediction taps d n located in the vicinity of the target pixel position S from the student image IS, extracted prediction taps d n is output to the normal equation generating unit 160 (S612).

また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値yが抽出され、正規方程式生成部160へ出力される(S614)。 Further, the teacher pixel extraction unit 152 extracts the true value y k of the pixel at the target pixel position S from the teacher image IT, and outputs it to the normal equation generation unit 160 (S614).

そして、正規方程式生成部160により、予測タップd及び注目画素の真値yを用いて、正規方程式への足し込みが行われる(S616)。ここで生成された正規方程式は、クラス分類部542により決定されたクラスごとに学習記憶部162により記憶される。 Then, the normal equation generating unit 160, by using the true value y k of the prediction tap d n and the pixel of interest, is performed summation to the normal equation (S616). The normal equation generated here is stored in the learning storage unit 162 for each class determined by the class classification unit 542.

その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S618)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS608へ戻り、注目画素設定部520によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS620へ進む。   Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S618). Here, if there remains a target pixel that has not been added to the normal equation, the process returns to S608, and the target pixel setting unit 520 sets a new target pixel position S. On the other hand, if the addition to the normal equation has been completed for all the target pixels, the process proceeds to S620.

S620では、係数算出部170により、正規方程式がクラスごとに学習記憶部162から取得され、取得された正規方程式を解くことにより、クラスごとの予測係数wが算出される(S620)。ここで算出された予測係数wは、クラスごとに係数記憶部172により記憶される。 In S620, the coefficient calculation unit 170, a normal equation is obtained in each class from learning and storing unit 162, by solving the obtained normal equation, the prediction coefficient w n for each class are calculated (S620). Calculated here prediction coefficient w n is stored by the coefficient storage unit 172 for each class.

その後、全てのクラスについての予測係数wの算出が終了したか否かが判定される(S622)。ここで、予測係数wの算出が終了していないクラスが残っていれば、処理はS620へ戻り、残っているクラスについての予測係数wの算出が行われる。一方、全てのクラスについて予測係数wの算出が終了していれば、学習処理は終了する。 Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S622). Here, if the remaining class calculation is not completed in the prediction coefficient w n is, the process returns to S620, the calculation of the prediction coefficients w n for remaining classes are performed. On the other hand, the calculation of the prediction coefficients w n for all classes if completed, the learning process is terminated.

ここまで、本発明の第2の実施形態に係る学習装置500について説明した。本実施形態に係る学習装置500によれば、画素位置に応じたイメージセンサの特性がさらに撮像時のカメラパラメータによって変動する場合に、撮像画像から原画像を予測するための予測係数が適応的に生成される。それにより、試行錯誤的な画質のチューニングを行うことなく、次項で述べる画像処理装置によって、カメラパラメータをも考慮した撮像画像の高画質化を行うことが可能となる。   So far, the learning apparatus 500 according to the second embodiment of the present invention has been described. According to the learning apparatus 500 according to the present embodiment, when the characteristics of the image sensor according to the pixel position further vary depending on the camera parameters at the time of image capturing, the prediction coefficient for predicting the original image from the captured image is adaptive. Generated. Accordingly, it is possible to improve the image quality of a captured image in consideration of camera parameters by the image processing apparatus described in the next section without performing trial and error image quality tuning.

[画像処理装置]
次に、前述した学習装置500により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図18は、本発明の第2の実施形態に係る画像処理装置700の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs a prediction process for predicting an original image before imaging from a captured image using the prediction coefficient generated by the learning apparatus 500 described above will be described. FIG. 18 is a block diagram showing a logical configuration of an image processing apparatus 700 according to the second embodiment of the present invention.

図18を参照すると、画像処理装置700は、カメラパラメータ取得部714、注目画素設定部320、クラス分類部742、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。   Referring to FIG. 18, the image processing apparatus 700 includes a camera parameter acquisition unit 714, a pixel-of-interest setting unit 320, a class classification unit 742, a prediction tap extraction unit 350, a coefficient storage unit 372, a prediction coefficient acquisition unit 374, and a prediction calculation unit. 380.

なお、図18の各機能ブロックのうち、注目画素設定部320、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380は、それぞれ図13に関連して説明した内容と同等の機能を有する。そのため、ここでは主に、カメラパラメータ取得部714及びクラス分類部742について説明する。   Of the functional blocks in FIG. 18, the pixel-of-interest setting unit 320, the prediction tap extraction unit 350, the coefficient storage unit 372, the prediction coefficient acquisition unit 374, and the prediction calculation unit 380 have been described with reference to FIG. 13. Has the same function as the content. Therefore, here, the camera parameter acquisition unit 714 and the class classification unit 742 will be mainly described.

カメラパラメータ取得部714は、画像処理装置700に撮像画像I1が供給されると、撮像画像I1が撮像された際のカメラパラメータCPを取得する。カメラパラメータCPは、前述したように、例えば、焦点距離(フォーカス)、ズーム、絞り(アイリス)、又は被写界深度など、イメージセンサの特性に影響を与える任意のパラメータであってよい。そして、カメラパラメータ取得部714は、取得したカメラパラメータCPをクラス分類部742へ出力する。   When the captured image I1 is supplied to the image processing apparatus 700, the camera parameter acquisition unit 714 acquires the camera parameter CP when the captured image I1 is captured. As described above, the camera parameter CP may be any parameter that affects the characteristics of the image sensor, such as focal length (focus), zoom, aperture (iris), or depth of field. Then, the camera parameter acquisition unit 714 outputs the acquired camera parameter CP to the class classification unit 742.

クラス分類部742は、注目画素位置Sと、カメラパラメータ取得部714から入力されたカメラパラメータCPに応じて、例えば図16に関連して説明した条件に従ってクラスを決定し、クラスコードCを予測係数取得部374へ出力する。   The class classification unit 742 determines a class according to the condition described in relation to FIG. 16 according to the target pixel position S and the camera parameter CP input from the camera parameter acquisition unit 714, and determines the class code C as a prediction coefficient. The data is output to the acquisition unit 374.

このような画像処理装置700の構成により、イメージセンサを用いて撮像された撮像画像I1から、画素位置だけではなくカメラパラメータCPも考慮して高画質化された原画像に相当する予測画像I2が生成される。   With such a configuration of the image processing apparatus 700, a predicted image I2 corresponding to an original image that has been improved in image quality in consideration of not only the pixel position but also the camera parameter CP from the captured image I1 captured using the image sensor. Generated.

[処理フロー説明:予測処理]
次に、図24のフローチャートを用いて、本実施形態に係る画像処理装置700による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the image processing apparatus 700 according to the present embodiment will be described using the flowchart of FIG.

図24を参照すると、まず、画像処理装置700に撮像画像I1が供給される(S802)。供給された撮像画像I1は、注目画素設定部320に入力される。   Referring to FIG. 24, first, a captured image I1 is supplied to the image processing apparatus 700 (S802). The supplied captured image I1 is input to the target pixel setting unit 320.

次に、カメラパラメータ取得部714により、撮像画像I1が撮像された際のカメラパラメータCPが取得され、クラス分類部742へ出力される(S804)。   Next, the camera parameter CP when the captured image I1 is captured is acquired by the camera parameter acquisition unit 714 and output to the class classification unit 742 (S804).

その後、注目画素設定部320により、予測画像I2のうち予測の対象とする注目画素が設定される(S806)。ここで設定された注目画素の画素位置Sはクラス分類部742へ出力され、また注目画素位置Sと撮像画像I1は予測タップ抽出部350へ出力される。   Thereafter, the target pixel setting unit 320 sets a target pixel to be predicted in the predicted image I2 (S806). The pixel position S of the target pixel set here is output to the class classification unit 742, and the target pixel position S and the captured image I1 are output to the prediction tap extraction unit 350.

そして、クラス分類部742により、注目画素位置SとカメラパラメータCPとに応じてクラスが決定され、決定されたクラスを表すクラスコードCが予測係数取得部374へ出力される(S808)。   Then, the class classification unit 742 determines a class according to the target pixel position S and the camera parameter CP, and outputs a class code C representing the determined class to the prediction coefficient acquisition unit 374 (S808).

さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wが取得され、取得された予測係数wが予測演算部380へ出力される(S810)。 Moreover, the prediction coefficient acquisition unit 374, the acquired prediction coefficient w n in association with class code C stored in the coefficient storage unit 372, the obtained prediction coefficient w n is output to the prediction computation unit 380 ( S810).

また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、予測演算部380へ出力される(S812)。 Furthermore, the prediction tap extracting unit 350, a plurality of pixels are extracted as prediction taps d n located in the vicinity of the target pixel position S in the captured image I1, is output to the prediction computation unit 380 (S812).

そして、予測演算部380において、予測係数wと予測タップdの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S814)。 Then, the prediction computation unit 380, linear combination of the prediction taps d n and prediction coefficient w n is performed according to equation (2), the predicted value of the pixel of interest is calculated (S814).

その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S816)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS806へ戻り、注目画素設定部320によって新たな注目画素が設定される。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。   Thereafter, it is determined whether or not the calculation of the predicted values for all the target pixels has been completed (S816). Here, if there remains a pixel for which the calculation of the predicted value has not been completed, the process returns to S806, and the target pixel setting unit 320 sets a new target pixel. On the other hand, if the calculation of the predicted value has been completed for all the pixels of the predicted image I2, the prediction process ends.

ここまで、本発明の第2の実施形態に係る画像処理装置700について説明した。本実施形態に係る画像処理装置700によれば、イメージセンサが画素位置に加えてカメラパラメータに応じて異なる特性を有している場合に、前項で述べた学習装置500による学習の結果得られた予測係数を用いて、撮像画像から原画像を予測することができる。それにより、試行錯誤的な画質のチューニングを行うことなく、カメラパラメータをも考慮して撮像画像を高画質化することが可能となる。   Up to this point, the image processing apparatus 700 according to the second embodiment of the present invention has been described. According to the image processing apparatus 700 according to the present embodiment, when the image sensor has different characteristics depending on the camera parameter in addition to the pixel position, the learning result obtained by the learning apparatus 500 described in the previous section was obtained. The original image can be predicted from the captured image using the prediction coefficient. Accordingly, it is possible to improve the image quality of the captured image in consideration of the camera parameters without performing trial and error image quality tuning.

なお、本明細書において説明する第1〜第3の実施形態に係る学習、即ちイメージセンサの特性を考慮した予測係数の算出は、典型的には、製品ごとの特性をより正確に反映させるために、製品を製造した後の出荷前に行われる。そうした場合には、学習は1つの製品に閉じた範囲で行われるため、学習時に製品の種類を考慮しなくてもよい。   Note that the learning according to the first to third embodiments described in this specification, that is, the calculation of the prediction coefficient in consideration of the characteristics of the image sensor, typically reflects the characteristics of each product more accurately. In addition, it is performed before the shipment after the product is manufactured. In such a case, since learning is performed in a range closed to one product, it is not necessary to consider the type of product at the time of learning.

しかしながら、その代わりに、例えば、独立した学習モジュールを用いて、イメージセンサの複数の種類にわたって一度に学習を行ってもよい。例えば、本実施形態に係る学習装置500による学習処理として、カメラパラメータ取得部514にイメージセンサの個体識別番号を取得させ、注目画素位置Xに加えて当該個体識別番号に応じてクラスを決定してもよい。そうした場合には、注目画素位置Xと個体識別番号に応じたクラスごとに、予測係数が算出される。そして、画像処理装置700による予測処理では、画像処理装置700のカメラパラメータ取得部714により個体識別番号が取得され、画素位置と個体識別番号とに応じて決定されたクラスに対応する予測係数を用いて、撮像画像から原画像が予測される。   However, instead, for example, learning may be performed at once on a plurality of types of image sensors using independent learning modules. For example, as learning processing by the learning apparatus 500 according to the present embodiment, the camera parameter acquisition unit 514 acquires the individual identification number of the image sensor, and determines the class according to the individual identification number in addition to the target pixel position X. Also good. In such a case, a prediction coefficient is calculated for each class corresponding to the target pixel position X and the individual identification number. In the prediction processing by the image processing apparatus 700, the individual identification number is acquired by the camera parameter acquisition unit 714 of the image processing apparatus 700, and the prediction coefficient corresponding to the class determined according to the pixel position and the individual identification number is used. Thus, the original image is predicted from the captured image.

<4.第3の実施形態>
イメージセンサの特性を考慮した撮像画像の高画質化は、注目画素の近傍の画素値のパターンに応じたクラス分類と組み合わせることも可能である。そこで、本発明の第3の実施形態では、画素位置に加えて、注目画素の近傍の画素値のパターンを考慮に入れて撮像画像を高画質化する例について説明する。
<4. Third Embodiment>
The high image quality of the captured image in consideration of the characteristics of the image sensor can be combined with the class classification according to the pixel value pattern in the vicinity of the target pixel. Therefore, in the third embodiment of the present invention, an example will be described in which a captured image is improved in image quality in consideration of a pattern of pixel values in the vicinity of the target pixel in addition to the pixel position.

[学習装置]
図20は、本発明の第3の実施形態に係る学習装置900の論理的な構成を示すブロック図である。
[Learning device]
FIG. 20 is a block diagram showing a logical configuration of a learning device 900 according to the third embodiment of the present invention.

図20を参照すると、学習装置900は、生徒画像生成部110、特性記憶部112、画像記憶部116、注目画素設定部920、クラスタップ抽出部940、クラス分類部942、予測タップ抽出部150、教師画素抽出部152、正規方程式生成部160、学習記憶部162、係数算出部170、及び係数記憶部172を備える。   Referring to FIG. 20, the learning apparatus 900 includes a student image generation unit 110, a characteristic storage unit 112, an image storage unit 116, a target pixel setting unit 920, a class tap extraction unit 940, a class classification unit 942, a prediction tap extraction unit 150, A teacher pixel extraction unit 152, a normal equation generation unit 160, a learning storage unit 162, a coefficient calculation unit 170, and a coefficient storage unit 172 are provided.

なお、ここでは主に、注目画素設定部920、クラスタップ抽出部940、及びクラス分類部942について説明する。   Note that here, the pixel-of-interest setting unit 920, the class tap extraction unit 940, and the class classification unit 942 will be mainly described.

注目画素設定部920は、生徒画像生成部110により生成された生徒画像ISを画像記憶部116から取得し、教師画像ITを予測する予測係数の算出に用いる注目画素位置Sを、順次設定する。そして、注目画素設定部920は、クラスタップ抽出部940及び予測タップ抽出部150に生徒画像ISと注目画素位置Sとを出力する。また、注目画素設定部920は、教師画素抽出部152に注目画素位置Sを出力する。   The target pixel setting unit 920 acquires the student image IS generated by the student image generation unit 110 from the image storage unit 116, and sequentially sets the target pixel position S used for calculating the prediction coefficient for predicting the teacher image IT. Then, the pixel-of-interest setting unit 920 outputs the student image IS and the pixel-of-interest position S to the class tap extraction unit 940 and the prediction tap extraction unit 150. Also, the target pixel setting unit 920 outputs the target pixel position S to the teacher pixel extraction unit 152.

クラスタップ抽出部940は、注目画素についてのクラス分類に用いるクラスタップxを生徒画像ISから抽出し、クラス分類部942へ出力する。ここで、クラスタップとは、その画素値のパターンに応じたクラス分類を行うための、注目画素の近傍に位置する画素の集合を指す。 The class tap extraction unit 940 extracts the class tap xn used for class classification of the target pixel from the student image IS and outputs the class tap xn to the class classification unit 942. Here, the class tap refers to a set of pixels located in the vicinity of the target pixel for performing class classification according to the pattern of the pixel value.

図21は、クラスタップ抽出部940により抽出されるクラスタップxの一例を示している。図21の例において、クラスタップ抽出部940は、注目画素位置S(s,t)を中心とする、縦横5個ずつのいわゆる十字型に配置された計9個の画素x〜xをクラスタップxとして抽出している。なお、クラスタップ抽出部940により抽出されるクラスタップxは、図21の例に限定されず、注目画素位置Sの近傍の任意の位置又は任意の数の画素の集合であってよい。 FIG. 21 shows an example of the class tap xn extracted by the class tap extraction unit 940. In the example of FIG. 21, the class tap extracting unit 940, the target pixel position S (s, t) centered at a total of nine placed in a so-called cross-shaped one by five vertical and horizontal pixels x 1 ~x 9 Extracted as class tap xn . The class tap xn extracted by the class tap extraction unit 940 is not limited to the example in FIG. 21, and may be an arbitrary position near the target pixel position S or a set of an arbitrary number of pixels.

クラス分類部942は、クラスタップ抽出部940から入力されたクラスタップxの画素値のパターン及び注目画素位置Sに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。 The class classification unit 942 determines any class corresponding to the pixel value pattern of the class tap xn input from the class tap extraction unit 940 and the target pixel position S, and learns the class code C representing the determined class The data is output to the storage unit 162.

クラスタップxの画素値のパターンに応じてクラスを分類する方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を用いることができる。ADRCを用いる場合には、クラスタップxに含まれる各画素値がADRC処理され、その結果としてADRCコードが得られる。 As a method of classifying the class according to the pixel value pattern of the class tap xn , for example, ADRC (Adaptive Dynamic Range Coding) can be used. When ADRC is used, each pixel value included in the class tap xn is subjected to ADRC processing, and as a result, an ADRC code is obtained.

より具体的には、例えばKビットADRCにおいては、まず、クラスタップxに含まれる各画素値の最大値MAXと最小値MINが検出される。そして、DR=MAX−MINを画素値の集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップxに含まれる各画素値が再度Kビットに量子化される。即ち、クラスタップxに含まれる各画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られるKビットの各画素値を所定の順番で並べたビット列が、ADRCコードとして得られる。 More specifically, for example, in the K-bit ADRC, first, the maximum value MAX and the minimum value MIN of each pixel value included in the class tap xn are detected. Then, DR = MAX−MIN is set as a local dynamic range of the set of pixel values, and each pixel value included in the class tap xn is quantized again to K bits based on the dynamic range DR. That is, the minimum value MIN is subtracted from each pixel value included in the class tap xn , and the subtracted value is divided (quantized) by DR / 2K. Then, a bit string in which the K-bit pixel values obtained as described above are arranged in a predetermined order is obtained as an ADRC code.

例えば、クラスタップxが例えば1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより各画素値が二値化される。そして、二値化された画素値を所定の順番で並べたビット列が、ADRCコードとして得られる。 For example, when the class tap xn is subjected to, for example, 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, each pixel value is binarized. Then, a bit string in which the binarized pixel values are arranged in a predetermined order is obtained as an ADRC code.

クラス分類部942は、例えば、そのようにして得られたADRCコードと、注目画素位置Sとに応じたいずれかのクラスを決定し、決定したクラスを表すクラスコードCを学習記憶部162に出力する。   For example, the class classification unit 942 determines one of the classes according to the ADRC code thus obtained and the target pixel position S, and outputs the class code C representing the determined class to the learning storage unit 162. To do.

なお、クラス分類部942は、ADRC処理ではなく、例えば、クラスタップを構成する画素をベクトルのコンポーネントとみなし、そのベクトルをベクトル量子化することなどによってクラスを決定してもよい。   Note that the class classification unit 942 may determine the class not by ADRC processing but by, for example, regarding pixels constituting the class tap as vector components and vector quantization of the vectors.

[処理フロー説明:学習処理]
次に、図22のフローチャートを用いて、本実施形態に係る学習装置900による学習処理の流れの一例を説明する。
[Description of processing flow: Learning processing]
Next, an example of the flow of learning processing by the learning apparatus 900 according to the present embodiment will be described using the flowchart of FIG.

図22を参照すると、まず、学習装置900に教師画像ITが供給される(S1002)。教師画像ITは、生徒画像生成部110及び教師画素抽出部152に入力される。   Referring to FIG. 22, first, a teacher image IT is supplied to the learning apparatus 900 (S1002). The teacher image IT is input to the student image generation unit 110 and the teacher pixel extraction unit 152.

次に、教師画像ITと特性記憶部112から取得されたフィルタ係数とを用いて、生徒画像生成部110により、生徒画像ISが生成される(S1004)。ここで生成された生徒画像ISは、画像記憶部116へ出力され、記憶される。   Next, the student image IS is generated by the student image generation unit 110 using the teacher image IT and the filter coefficient acquired from the characteristic storage unit 112 (S1004). The student image IS generated here is output to the image storage unit 116 and stored.

その後、注目画素設定部920により、画像記憶部116から生徒画像ISが取得され、生徒画像ISから教師画像ITを予測する際に注目する注目画素位置Sが設定される(S1006)。   Thereafter, the target pixel setting unit 920 acquires the student image IS from the image storage unit 116, and sets the target pixel position S of interest when predicting the teacher image IT from the student image IS (S1006).

そして、クラスタップ抽出部940により、注目画素位置Sの近傍の画素位置に対応する複数の画素がクラスタップxとして抽出され、クラス分類部942へ出力される(S1008)。 Then, the class tap extraction unit 940 extracts a plurality of pixels corresponding to the pixel position in the vicinity of the target pixel position S as the class tap xn and outputs it to the class classification unit 942 (S1008).

さらに、クラス分類部942により、クラスタップxと注目画素位置Sに応じたクラスが決定され、決定されたクラスを表すクラスコードが学習記憶部162へ出力される(S1010)。 Further, the class classification unit 942 determines a class corresponding to the class tap xn and the target pixel position S, and a class code representing the determined class is output to the learning storage unit 162 (S1010).

また、予測タップ抽出部150により、生徒画像ISから注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、正規方程式生成部160へ出力される(S1012)。 Furthermore, the prediction tap extracting unit 150, a plurality of pixels located near the pixel of interest position S from the student image IS are extracted as prediction taps d n, is output to the normal equation generating unit 160 (S1012).

また、教師画素抽出部152により、教師画像ITから注目画素位置Sにおける画素の真値yが抽出され、正規方程式生成部160へ出力される(S1014)。 In addition, the teacher pixel extraction unit 152 extracts the true value y k of the pixel at the target pixel position S from the teacher image IT and outputs it to the normal equation generation unit 160 (S1014).

そして、正規方程式生成部160により、予測タップd及び注目画素の真値yを用いて、正規方程式への足し込みが行われる(S1016)。ここで生成された正規方程式は、クラス分類部942により決定されたクラスごとに学習記憶部162により記憶される。 Then, the normal equation generating unit 160, by using the true value y k of the prediction tap d n and the pixel of interest, is performed summation to the normal equation (S1016). The normal equation generated here is stored in the learning storage unit 162 for each class determined by the class classification unit 942.

その後、全ての注目画素について正規方程式への足し込みが終了したか否かが判定される(S1018)。ここで、正規方程式への足し込みが終了していない注目画素が残っていれば、処理はS1006へ戻り、注目画素設定部920によって新たな注目画素位置Sが設定される。一方、全ての注目画素について正規方程式への足し込みが終了していれば、処理はS1020へ進む。   Thereafter, it is determined whether or not the addition to the normal equation has been completed for all the target pixels (S1018). Here, if there remains a target pixel that has not been added to the normal equation, the process returns to S1006, and the target pixel setting unit 920 sets a new target pixel position S. On the other hand, if the addition to the normal equation has been completed for all the target pixels, the process proceeds to S1020.

S1020では、係数算出部170により、正規方程式がクラスごとに学習記憶部162から取得され、クラスごとの予測係数wが算出される(S1020)。ここで算出された予測係数wは、クラスごとに係数記憶部172により記憶される。 In S1020, the coefficient calculation unit 170, a normal equation is obtained in each class from learning and storing unit 162, the prediction coefficient w n for each class are calculated (S1020). Calculated here prediction coefficient w n is stored by the coefficient storage unit 172 for each class.

その後、全てのクラスについての予測係数wの算出が終了したか否かが判定される(S1022)。ここで、予測係数wの算出が終了していないクラスが残っていれば、処理はS1020へ戻る。一方、全てのクラスについて予測係数wの算出が終了していれば、学習処理は終了する。 Then, whether the calculation of the prediction coefficients w n for all classes been finished it is determined (S1022). Here, if the remaining classes that calculation is not the end of the prediction coefficient w n is, the process returns to S1020. On the other hand, the calculation of the prediction coefficients w n for all classes if completed, the learning process is terminated.

ここまで、本発明の第3の実施形態に係る学習装置900について説明した。本実施形態に係る学習装置900によれば、イメージセンサによる撮像過程を経て得られた撮像画像から原画像を予測するための予測係数が、画素位置に応じたフィルタ特性だけではなく、注目画素の近傍の画素値のパターンも考慮に入れて適応的に学習される。それにより、次項で述べる画像処理装置によって、イメージセンサの特性を考慮した高画質化と同時に例えばノイズが除去されるなど、より効果的な高画質化を実現できる。   So far, the learning apparatus 900 according to the third embodiment of the present invention has been described. According to the learning apparatus 900 according to the present embodiment, the prediction coefficient for predicting the original image from the captured image obtained through the imaging process by the image sensor is not only the filter characteristic according to the pixel position, but also the target pixel. Neighboring pixel value patterns are also taken into account and learned adaptively. As a result, the image processing apparatus described in the next section can achieve higher image quality in consideration of the characteristics of the image sensor and at the same time, for example, noise can be removed, for example.

[画像処理装置]
次に、前述した学習装置900により生成された予測係数を用いて、撮像画像から撮像前の原画像を予測する予測処理を行う画像処理装置について説明する。図23は、本発明の第3の実施形態に係る画像処理装置1100の論理的な構成を示すブロック図である。
[Image processing device]
Next, an image processing apparatus that performs a prediction process for predicting an original image before imaging from a captured image using the prediction coefficient generated by the learning apparatus 900 described above will be described. FIG. 23 is a block diagram showing a logical configuration of an image processing apparatus 1100 according to the third embodiment of the present invention.

図23を参照すると、画像処理装置1100は、注目画素設定部1120、クラスタップ抽出部1140、クラス分類部1142、予測タップ抽出部350、係数記憶部372、予測係数取得部374、及び予測演算部380を備える。   Referring to FIG. 23, the image processing apparatus 1100 includes a target pixel setting unit 1120, a class tap extraction unit 1140, a class classification unit 1142, a prediction tap extraction unit 350, a coefficient storage unit 372, a prediction coefficient acquisition unit 374, and a prediction calculation unit. 380.

なお、ここでは主に、注目画素設定部1120、クラスタップ抽出部1140、クラス分類部1142について説明する。   Here, mainly the pixel-of-interest setting unit 1120, the class tap extraction unit 1140, and the class classification unit 1142 will be described.

注目画素設定部1120は、イメージセンサにより撮像される前の原画像に相当する予測画像I2のうち、予測の対象とする任意の画素を注目画素として順次設定する。そして、注目画素設定部320は、設定した注目画素の予測画像I2における画素位置Sをクラス分類部342へ出力する。また、注目画素設定部320は、撮像画像I1と注目画素位置Sとを、クラスタップ抽出部1140及び予測タップ抽出部350へ出力する。   The pixel-of-interest setting unit 1120 sequentially sets arbitrary pixels to be predicted as pixels of interest in the predicted image I2 corresponding to the original image before being imaged by the image sensor. Then, the target pixel setting unit 320 outputs the pixel position S of the set target pixel in the predicted image I2 to the class classification unit 342. In addition, the target pixel setting unit 320 outputs the captured image I1 and the target pixel position S to the class tap extraction unit 1140 and the prediction tap extraction unit 350.

クラスタップ抽出部1140は、注目画素についてのクラス分類に用いるクラスタップxとして、注目画素位置Sの近傍に位置する複数の画素を撮像画像I1から抽出し、クラス分類部1142へ出力する。例えば、クラスタップ抽出部1140は、図21を用いて説明した注目画素位置Sの近傍の9つの画素を、クラスタップxとして抽出する。 The class tap extraction unit 1140 extracts a plurality of pixels located in the vicinity of the target pixel position S from the captured image I1 as class taps xn used for class classification of the target pixel, and outputs them to the class classification unit 1142. For example, the class tap extraction unit 1140 extracts nine pixels near the target pixel position S described with reference to FIG. 21 as class taps xn .

クラス分類部1142は、注目画素位置Sと、クラスタップ抽出部1140から入力されたクラスタップxとに応じてクラスを決定し、クラスコードCを予測係数取得部374へ出力する。例えば、クラス分類部1142は、学習装置900のクラス分類部942と同様に、クラスタップxに含まれる各画素値からADRC処理によりADRCコード生成し、ADRCコードと注目画素位置Sに対応するクラスコードCを決定する。 The class classification unit 1142 determines a class according to the target pixel position S and the class tap xn input from the class tap extraction unit 1140, and outputs the class code C to the prediction coefficient acquisition unit 374. For example, similar to the class classification unit 942 of the learning apparatus 900, the class classification unit 1142 generates an ADRC code from each pixel value included in the class tap xn by ADRC processing, and the class corresponding to the ADRC code and the target pixel position S The code C is determined.

このような画像処理装置1100の構成により、イメージセンサを用いて撮像された撮像画像I1から、画素位置だけではなく注目画素の近傍の画素値のパターンも考慮して、原画像に相当する予測画像I2が生成される。   With such a configuration of the image processing apparatus 1100, a predicted image corresponding to the original image is considered from the captured image I1 captured using the image sensor in consideration of not only the pixel position but also the pixel value pattern in the vicinity of the target pixel. I2 is generated.

[処理フロー説明:予測処理]
次に、図24のフローチャートを用いて、本実施形態に係る画像処理装置1100による予測処理の流れの一例を説明する。
[Description of process flow: Prediction process]
Next, an example of the flow of prediction processing by the image processing apparatus 1100 according to the present embodiment will be described using the flowchart of FIG.

図24を参照すると、まず、画像処理装置1100に撮像画像I1が供給される(S1202)。供給された撮像画像I1は、注目画素設定部1120に入力される。   Referring to FIG. 24, first, a captured image I1 is supplied to the image processing apparatus 1100 (S1202). The supplied captured image I1 is input to the target pixel setting unit 1120.

次に、注目画素設定部1120により、予測画像I2のうち予測の対象とする注目画素の画素位置Sが設定される(S1204)。ここで設定された注目画素の画素位置Sはクラス分類部1142へ出力され、また注目画素位置Sと撮像画像I1はクラスタップ抽出部1140及び予測タップ抽出部350へ出力される。   Next, the target pixel setting unit 1120 sets the pixel position S of the target pixel to be predicted in the predicted image I2 (S1204). The pixel position S of the target pixel set here is output to the class classification unit 1142, and the target pixel position S and the captured image I1 are output to the class tap extraction unit 1140 and the prediction tap extraction unit 350.

その後、クラスタップ抽出部1140により、撮像画像I1から、注目画素位置Sの近傍の複数の画素がクラスタップxとして抽出される(S1206)。 Thereafter, the class tap extraction unit 1140 extracts a plurality of pixels near the target pixel position S as the class tap xn from the captured image I1 (S1206).

そして、クラス分類部1142により、注目画素位置Sとクラスタップxに含まれる各画素値のパターンとに応じて決定されたクラスを表すクラスコードCが、予測係数取得部374へ出力される(S1208)。 Then, the class classification unit 1142 outputs the class code C representing the class determined according to the target pixel position S and the pattern of each pixel value included in the class tap xn to the prediction coefficient acquisition unit 374 ( S1208).

さらに、予測係数取得部374により、クラスコードCと対応付けて係数記憶部372に記憶されている予測係数wが取得され、予測演算部380へ出力される(S1210)。 Moreover, the prediction coefficient acquisition unit 374, the prediction coefficient w n stored in the coefficient storage unit 372 in association with the class code C is obtained and output to the prediction computation unit 380 (S1210).

また、予測タップ抽出部350により、撮像画像I1において注目画素位置Sの近傍に位置する複数の画素が予測タップdとして抽出され、予測演算部380へ出力される(S1212)。 Furthermore, the prediction tap extracting unit 350, a plurality of pixels are extracted as prediction taps d n located in the vicinity of the target pixel position S in the captured image I1, is output to the prediction computation unit 380 (S1212).

そして、予測演算部380において、予測係数wと予測タップdの線形一次結合が式(2)に従って行われ、注目画素の予測値が算出される(S1214)。 Then, the prediction computation unit 380, linear combination of the prediction taps d n and prediction coefficient w n is performed according to equation (2), the predicted value of the pixel of interest is calculated (S1214).

その後、全ての注目画素についての予測値の算出が終了したか否かが判定される(S1216)。ここで、予測値の算出が終了していない画素が残っていれば、処理はS1204へ戻る。一方、予測画像I2の全ての画素について予測値の算出が終了していれば、予測処理は終了する。   Thereafter, it is determined whether or not the calculation of predicted values for all target pixels has been completed (S1216). If there is a pixel for which the calculation of the predicted value has not been completed, the process returns to S1204. On the other hand, if the calculation of the predicted value has been completed for all the pixels of the predicted image I2, the prediction process ends.

ここまで、本発明の第3の実施形態に係る画像処理装置1100について説明した。本実施形態に係る画像処理装置1100によれば、画素位置に応じたフィルタ特性だけでなく注目画素の近傍の画素値のパターンも考慮に入れた学習に基づく予測係数を用いて、イメージセンサによる撮像過程を経て得られた撮像画像から原画像が予測される。それにより、撮像画像から原画像が予測される際に例えばノイズが除去されるなど、より効果的な高画質化を実現できる。   Up to this point, the image processing apparatus 1100 according to the third embodiment of the present invention has been described. According to the image processing apparatus 1100 according to the present embodiment, imaging by an image sensor is performed using a prediction coefficient based on learning that takes into consideration not only filter characteristics according to pixel positions but also pixel value patterns in the vicinity of the target pixel. An original image is predicted from a captured image obtained through the process. Thereby, when the original image is predicted from the captured image, for example, noise can be removed, so that more effective image quality can be realized.

<5.まとめ>
ここまで、図1〜図24を用いて、イメージセンサの特性を考慮した高画質化に関する3つの実施形態について、それぞれ予測係数を学習する学習装置と高質な画像を予測する画像処理装置とに分けて詳細に説明した。
<5. Summary>
Up to this point, a learning apparatus that learns a prediction coefficient and an image processing apparatus that predicts a high-quality image for each of the three embodiments relating to high image quality in consideration of the characteristics of the image sensor, with reference to FIGS. Separately explained in detail.

各実施形態に係る学習装置は、例えば、イメージセンサに接続される独立した学習モジュール、イメージセンサ自体、又はイメージセンサを搭載したカメラ(若しくはカメラモジュール)などであってよい。また、各実施形態に係る画像処理装置は、例えば、イメージセンサに接続される独立した画像処理モジュール、イメージセンサ自体、又はイメージセンサを搭載したカメラ(若しくはカメラモジュール)などであってよい。   The learning device according to each embodiment may be, for example, an independent learning module connected to the image sensor, the image sensor itself, or a camera (or camera module) equipped with the image sensor. Further, the image processing apparatus according to each embodiment may be, for example, an independent image processing module connected to the image sensor, the image sensor itself, or a camera (or camera module) equipped with the image sensor.

なお、各実施形態に係る一連の処理をハードウェアで実現するかソフトウェアで実現するかは問わない。一連の処理又はその一部をソフトウェアで実行させる場合には、ソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれたコンピュータ、又は例えば図25に示した汎用的なコンピュータなどを用いて実行される。   It does not matter whether a series of processing according to each embodiment is realized by hardware or software. When a series of processes or a part thereof is executed by software, a program constituting the software is executed by using a computer incorporated in dedicated hardware, for example, a general-purpose computer shown in FIG. The

図25において、CPU(Central Processing Unit)12は、汎用コンピュータの動作全般を制御する。ROM(Read Only Memory)14には、一連の処理の一部又は全部を記述したプログラム又はデータが格納される。RAM(Random Access Memory)16には、処理の実行時にCPU12により用いられるプログラムやデータなどが一時的に記憶される。   In FIG. 25, a CPU (Central Processing Unit) 12 controls the overall operation of the general-purpose computer. A ROM (Read Only Memory) 14 stores a program or data describing a part or all of a series of processes. A RAM (Random Access Memory) 16 temporarily stores programs and data used by the CPU 12 during execution of processing.

CPU12、ROM14、及びRAM16は、バス20を介して相互に接続される。バス20にはさらに、入出力インタフェース22が接続される。   The CPU 12, ROM 14, and RAM 16 are connected to each other via the bus 20. An input / output interface 22 is further connected to the bus 20.

入出力インタフェース22は、CPU12、ROM14、及びRAM16と、入力装置30、出力装置32、記憶装置34、通信装置36、及びドライブ40とを接続するためのインタフェースである。   The input / output interface 22 is an interface for connecting the CPU 12, ROM 14, and RAM 16 to the input device 30, output device 32, storage device 34, communication device 36, and drive 40.

入力装置30は、例えばボタン、スイッチ、レバーなどの入力装置を介して、ユーザからの指示や情報入力を受け付ける。出力装置32は、例えば液晶ディスプレイやOLED(Organic Light Emitting Diode)などの表示装置、又はスピーカなどの音声出力装置を介してユーザに情報を出力する。   The input device 30 receives an instruction and information input from a user via an input device such as a button, a switch, or a lever. The output device 32 outputs information to the user via a display device such as a liquid crystal display or OLED (Organic Light Emitting Diode), or an audio output device such as a speaker.

記憶装置34は、例えばハードディスクドライブ又はフラッシュメモリなどにより構成され、プログラムやプログラムデータ、又は画像データなどを記憶する。通信装置36は、例えばUSB(Universal Serial Bus)などによる通信ポートを介する通信処理を行う。ドライブ40には、例えばリムーバブルメディア42が装着される。   The storage device 34 is configured by, for example, a hard disk drive or a flash memory, and stores programs, program data, image data, and the like. The communication device 36 performs communication processing via a communication port such as a USB (Universal Serial Bus). For example, a removable medium 42 is attached to the drive 40.

第1〜第3の実施形態に係る一連の処理をソフトウェアで実行する場合には、例えば図25に示したROM14又は記憶装置34に格納されたプログラムが、実行時にRAM16に読み込まれ、CPU12によって実行される。   When the series of processes according to the first to third embodiments is executed by software, for example, a program stored in the ROM 14 or the storage device 34 shown in FIG. 25 is read into the RAM 16 at the time of execution and executed by the CPU 12. Is done.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、第1〜第3の実施形態に係る学習処理又は予測処理を、必ずしもフローチャートに記載された順序に沿って実行しなくてもよい。各処理ステップは、並列的あるいは個別に独立して実行される処理を含んでもよい。   For example, the learning process or the prediction process according to the first to third embodiments does not necessarily have to be executed in the order described in the flowchart. Each processing step may include processing executed in parallel or individually independently.

イメージセンサの概観を示す模式図である。It is a schematic diagram which shows the external appearance of an image sensor. イメージセンサの中央部における集光特性の一例を示す特性図である。It is a characteristic view which shows an example of the condensing characteristic in the center part of an image sensor. イメージセンサの周辺部における集光特性の一例を示す特性図である。It is a characteristic view which shows an example of the condensing characteristic in the peripheral part of an image sensor. イメージセンサの中央部における集光特性の他の例を示す特性図である。It is a characteristic view which shows the other example of the condensing characteristic in the center part of an image sensor. イメージセンサの周辺部における集光特性の他の例を示す特性図である。It is a characteristic view which shows the other example of the condensing characteristic in the peripheral part of an image sensor. イメージセンサの特性を考慮した高画質化処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the image quality improvement process which considered the characteristic of the image sensor. 第1の実施形態に係る学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the learning apparatus which concerns on 1st Embodiment. 画素位置に応じたクラス分類の一例を示す説明図である。It is explanatory drawing which shows an example of the class classification | category according to a pixel position. 注目画素の近傍から抽出される予測タップの一例を示す説明図である。It is explanatory drawing which shows an example of the prediction tap extracted from the vicinity of an attention pixel. 第1の実施形態に係る学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process which concerns on 1st Embodiment. クラスごとの代表画素位置の一例を示す説明図である。It is explanatory drawing which shows an example of the representative pixel position for every class. 代表画素位置を用いた予測係数値の補間の一例を示す説明図である。It is explanatory drawing which shows an example of the interpolation of the prediction coefficient value using a representative pixel position. 第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 第1の実施形態に係る予測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction process which concerns on 1st Embodiment. 第2の実施形態に係る学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the learning apparatus which concerns on 2nd Embodiment. 画素位置とカメラパラメータに応じたクラス分類の一例を示す説明図である。It is explanatory drawing which shows an example of the class classification | category according to a pixel position and a camera parameter. 第2の実施形態に係る学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る予測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction process which concerns on 2nd Embodiment. 第3の実施形態に係る学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the learning apparatus which concerns on 3rd Embodiment. 注目画素の近傍から抽出されるクラスタップの一例を示す説明図である。It is explanatory drawing which shows an example of the class tap extracted from the vicinity of an attention pixel. 第3の実施形態に係る学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る予測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction process which concerns on 3rd Embodiment. 汎用的なコンピュータの構成例を示すブロック図である。And FIG. 18 is a block diagram illustrating a configuration example of a general-purpose computer.

符号の説明Explanation of symbols

10 イメージセンサ
12 受光面
100、500、900 学習装置
110、510 生徒画像生成部
112、512 特性記憶部
514 カメラパラメータ取得部
116、516 画像記憶部
120、520、920 注目画素設定部
940 クラスタップ抽出部
142、542、942 クラス分類部
150 予測タップ抽出部
152 教師画素抽出部
160 正規方程式生成部
162 学習記憶部
170 係数算出部
172 係数記憶部
300、700、1100 画像処理装置
714 カメラパラメータ取得部
320、1120 注目画素設定部
1140 クラスタップ抽出部
342、742、1142 クラス分類部
350 予測タップ抽出部
372 係数記憶部
374 予測係数取得部
380 予測演算部
DESCRIPTION OF SYMBOLS 10 Image sensor 12 Light-receiving surface 100,500,900 Learning apparatus 110,510 Student image generation part 112,512 Characteristic memory | storage part 514 Camera parameter acquisition part 116,516 Image memory | storage part 120,520,920 Target pixel setting part 940 Class tap extraction Unit 142, 542, 942 class classification unit 150 prediction tap extraction unit 152 teacher pixel extraction unit 160 normal equation generation unit 162 learning storage unit 170 coefficient calculation unit 172 coefficient storage unit 300, 700, 1100 image processing device 714 camera parameter acquisition unit 320 1120 attention pixel setting unit 1140 class tap extraction unit 342, 742, 1142 class classification unit 350 prediction tap extraction unit 372 coefficient storage unit 374 prediction coefficient acquisition unit 380 prediction calculation unit

Claims (18)

第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と;
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と;
を備える学習装置。
A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position With a generator;
A prediction tap extraction unit that extracts, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation unit that calculates a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit;
A learning apparatus comprising:
前記クラス分類部は、前記教師画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定する、請求項1に記載の学習装置。   The learning apparatus according to claim 1, wherein the class classification unit determines the class according to a distance from a center position of the teacher image to a pixel position of the target pixel. 前記第1画像は、イメージセンサにより撮像される撮像画像であって、
前記生徒画像生成部は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用することにより、前記生徒画像を生成する、請求項1又は請求項2のいずれかに記載の学習装置。
The first image is a captured image captured by an image sensor,
3. The student image generation unit generates the student image by applying a filter reflecting a specific light collection characteristic of the image sensor according to a pixel position to the teacher image. The learning apparatus in any one of.
前記生徒画像生成部は、前記フィルタの特性を画素位置に応じて連続的に変化させて前記生徒画像を生成する、請求項1〜3のいずれかに記載の学習装置。   The learning apparatus according to claim 1, wherein the student image generation unit generates the student image by continuously changing characteristics of the filter according to a pixel position. 前記係数算出部は、さらに、前記クラスごとに算出された前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出する、請求項1〜3のいずれかに記載の学習装置。   The coefficient calculation unit further calculates a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation using the prediction coefficient calculated for each class. The learning device according to any one of? 前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、
前記クラス分類部は、さらに、前記教師画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定する、請求項1に記載の学習装置。
The first image is a captured image captured using a camera including an image sensor,
The learning apparatus according to claim 1, wherein the class classification unit further determines the class according to a camera parameter representing a feature or state of the camera when the teacher image is captured by the camera.
前記学習装置は、前記生徒画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、
前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定する、
請求項1に記載の学習装置。
The learning device further includes a class tap extraction unit that extracts a plurality of pixels included in the student image and corresponding to a pixel position in the vicinity of the target pixel as a class tap,
The class classification unit determines the class according to a pixel value pattern of the class tap and a pixel position of the target pixel;
The learning device according to claim 1.
第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と;
前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と;
を備える画像処理装置。
A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extractor;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters;
A prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit;
An image processing apparatus comprising:
前記クラス分類部は、前記第2画像の中心位置から前記注目画素の画素位置までの距離に応じて前記クラスを決定する、請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the class classification unit determines the class according to a distance from a center position of the second image to a pixel position of the target pixel. 前記第1画像は、イメージセンサにより撮像された撮像画像であって、
前記生徒画像は、画素位置に応じた前記イメージセンサの固有の集光特性を反映させたフィルタを前記教師画像に適用して生成された画像である、請求項8又は請求項9のいずれかに記載の画像処理装置。
The first image is a captured image captured by an image sensor,
10. The student image according to claim 8, wherein the student image is an image generated by applying, to the teacher image, a filter that reflects a unique light collection characteristic of the image sensor according to a pixel position. The image processing apparatus described.
前記生徒画像は、画素位置に応じて連続的に特性の変化するフィルタを前記教師画像に適用して生成された画像である、請求項8〜10のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the student image is an image generated by applying a filter whose characteristics continuously change according to a pixel position to the teacher image. 前記予測演算部は、さらに、前記記憶部から取得された前記クラスごとの前記予測係数を用いて、各クラスを代表する代表画素位置の間の画素位置に対応する予測係数を線形補間により算出する、請求項8〜10のいずれかに記載の画像処理装置。   The prediction calculation unit further calculates a prediction coefficient corresponding to a pixel position between representative pixel positions representing each class by linear interpolation, using the prediction coefficient for each class acquired from the storage unit. The image processing apparatus according to claim 8. 前記第1画像は、イメージセンサを含むカメラを用いて撮像された撮像画像であって、
前記クラス分類部は、さらに、前記第1画像が前記カメラにより撮像された際の当該カメラの特徴又は状態を表すカメラパラメータに応じて前記クラスを決定する、請求項8に記載の画像処理装置。
The first image is a captured image captured using a camera including an image sensor,
The image processing apparatus according to claim 8, wherein the class classification unit further determines the class in accordance with a camera parameter representing a feature or state of the camera when the first image is captured by the camera.
前記画像処理装置は、前記第1画像に含まれる複数の画素であって、前記注目画素の近傍の画素位置に対応する複数の画素をクラスタップとして抽出するクラスタップ抽出部、をさらに備え、
前記クラス分類部は、前記クラスタップの画素値のパターンと前記注目画素の画素位置とに応じて前記クラスを決定する、
請求項8に記載の画像処理装置。
The image processing device further includes a class tap extraction unit that extracts a plurality of pixels included in the first image and corresponding to a pixel position in the vicinity of the target pixel as a class tap,
The class classification unit determines the class according to a pixel value pattern of the class tap and a pixel position of the target pixel;
The image processing apparatus according to claim 8.
第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成ステップと;
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類ステップにおいて決定された前記クラスごとに算出する係数算出ステップと;
を含む学習方法。
A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position Generation step;
A prediction tap extracting step of extracting, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification step for determining a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation step for calculating, for each class determined in the class classification step, a prediction coefficient used to predict the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap;
Learning methods including.
学習装置を制御するコンピュータを:
第1画像よりも高質な第2画像の画質を有する予め取得された教師画像に画素位置に応じて異なるフィルタを適用することにより、前記第1画像の画質を有する生徒画像を生成する生徒画像生成部と;
前記生徒画像に含まれる複数の画素であって前記教師画像を予測する際に注目される注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記教師画像における前記注目画素の画素値を予測するために用いられる予測係数を前記クラス分類部により決定された前記クラスごとに算出する係数算出部と;
として機能させるための、プログラム。
The computer that controls the learning device:
A student image that generates a student image having the image quality of the first image by applying a different filter to the previously acquired teacher image having a higher image quality of the second image than the first image according to the pixel position With a generator;
A prediction tap extraction unit that extracts, as prediction taps, a plurality of pixels included in the student image and corresponding to pixel positions in the vicinity of a target pixel of interest when predicting the teacher image;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel;
A coefficient calculation unit that calculates a prediction coefficient used for predicting the pixel value of the target pixel in the teacher image from the pixel value of the prediction tap for each class determined by the class classification unit;
Program to function as
第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出ステップと;
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類ステップと;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部から、前記クラス分類ステップにより決定された前記クラスに応じた前記予測係数を取得する予測係数取得ステップと;
前記予測タップの画素値と前記予測係数取得ステップにより取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算ステップと;
を含む画像処理方法。
A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extraction step;
A class classification step of determining a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position Determined by the class classification step from a storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters. A prediction coefficient acquisition step of acquiring the prediction coefficient according to the class;
A prediction calculation step of calculating a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired in the prediction coefficient acquisition step;
An image processing method including:
画像処理装置を制御するコンピュータを:
第1画像に含まれる複数の画素であって当該第1画像よりも高質な第2画像において注目された注目画素の近傍の画素位置に対応する複数の画素を、予測タップとして抽出する予測タップ抽出部と;
前記注目画素の前記第2画像における画素位置に応じて、当該注目画素のクラスを決定するクラス分類部と;
前記予測タップの画素値から前記注目画素の画素値を予測するために用いられる予測係数であって、前記第2画像の画質を有する予め取得された教師画像と、当該教師画像に画素位置に応じて異なるフィルタを適用して生成された前記第1画像の画質を有する生徒画像とを用いて前記クラスごとに算出された予測係数を記憶している記憶部と;
前記予測タップの画素値と前記記憶部から取得された前記予測係数とを線形一次結合することにより、前記注目画素の画素値に相当する予測値を計算する予測演算部と;
として機能させるための、プログラム。
A computer that controls the image processing device:
A prediction tap for extracting, as a prediction tap, a plurality of pixels included in the first image and corresponding to pixel positions near the target pixel of interest in the second image of higher quality than the first image. An extractor;
A class classification unit that determines a class of the target pixel according to a pixel position of the target pixel in the second image;
A prediction coefficient used for predicting the pixel value of the target pixel from the pixel value of the prediction tap, the teacher image acquired in advance having the image quality of the second image, and the teacher image according to the pixel position A storage unit storing a prediction coefficient calculated for each class using a student image having the image quality of the first image generated by applying different filters;
A prediction calculation unit that calculates a prediction value corresponding to the pixel value of the target pixel by linearly combining the pixel value of the prediction tap and the prediction coefficient acquired from the storage unit;
Program to function as
JP2008231429A 2008-09-09 2008-09-09 Learning apparatus, image processing apparatus, learning method, image processing method, and program Withdrawn JP2010066925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008231429A JP2010066925A (en) 2008-09-09 2008-09-09 Learning apparatus, image processing apparatus, learning method, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008231429A JP2010066925A (en) 2008-09-09 2008-09-09 Learning apparatus, image processing apparatus, learning method, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2010066925A true JP2010066925A (en) 2010-03-25

Family

ID=42192471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008231429A Withdrawn JP2010066925A (en) 2008-09-09 2008-09-09 Learning apparatus, image processing apparatus, learning method, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2010066925A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9210338B2 (en) 2012-05-15 2015-12-08 Sony Corporation Image processing device and image processing method, and program
WO2021039154A1 (en) * 2019-08-23 2021-03-04 ソニー株式会社 Signal processing device, signal processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9210338B2 (en) 2012-05-15 2015-12-08 Sony Corporation Image processing device and image processing method, and program
WO2021039154A1 (en) * 2019-08-23 2021-03-04 ソニー株式会社 Signal processing device, signal processing method, and program
US12361261B2 (en) 2019-08-23 2025-07-15 Sony Group Corporation Signal processing device and signal processing method

Similar Documents

Publication Publication Date Title
US9628684B2 (en) Light-field aberration correction
JP4148041B2 (en) Signal processing apparatus, signal processing method, program, and recording medium
CN103139469B (en) Utilize multiresolution process to generate the system and method for robust depth map
GB2604898A (en) Imaging processing using machine learning
US8346003B2 (en) Image processing for reducing blur
JP6320649B1 (en) Machine learning device and image recognition device
KR20050104412A (en) Image processing device and method, learning device and method, recording medium, and program
JP2004221838A (en) Image processing apparatus and method, recording medium, and program
CN110555877B (en) Image processing method, device and equipment and readable medium
CN104079801A (en) Image processing apparatus, image processing method, and program
CN101465943A (en) Image processing apparatus, image processing method, program and learning apparatus
JP2013003892A (en) Image processing apparatus and method, program, and recording medium
JP2010066925A (en) Learning apparatus, image processing apparatus, learning method, image processing method, and program
CN112017113B (en) Image processing method and device, model training method and device, equipment and medium
US20240233090A1 (en) Imaging method and apparatus, and computer-readable medium
JP5061882B2 (en) Image processing apparatus, image processing method, program, and learning apparatus
CN118968317B (en) Blue algae distribution graph generation method and device based on diffusion model and server
CN115004220B (en) Neural network for raw low-light image enhancement
CN120580309A (en) Image vectorization method and system based on deep learning and edge detection
CN118096557B (en) Digital automatic focusing method
KR20070074467A (en) Display device and display method, learning device and learning method and program
CN117893413B (en) Human-computer interaction method for vehicle terminal based on image enhancement
JP4281453B2 (en) Signal processing apparatus and signal processing method
CN118967680A (en) Image evaluation method, model training method, device, medium and equipment
JP4128538B2 (en) Pixel signal processing method and apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206