JP2000348020A - Data processing device, data processing method, and medium - Google Patents
Data processing device, data processing method, and mediumInfo
- Publication number
- JP2000348020A JP2000348020A JP11161873A JP16187399A JP2000348020A JP 2000348020 A JP2000348020 A JP 2000348020A JP 11161873 A JP11161873 A JP 11161873A JP 16187399 A JP16187399 A JP 16187399A JP 2000348020 A JP2000348020 A JP 2000348020A
- Authority
- JP
- Japan
- Prior art keywords
- data
- student
- interest
- input
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Complex Calculations (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Abstract
(57)【要約】
【課題】 動画像に含まれるノイズを、効果的に除去す
る。
【解決手段】 ノイズ付加回路62は、予測係数の学習
のための教師となる教師データに、ノイズを重畳するこ
とで、生徒となる生徒データを生成し、クラスタップ生
成回路64は、その生徒データから、注目している注目
生徒データの周辺にあるデータを、クラスタップとして
抽出する。そして、クラス分類回路66は、そのクラス
タップの定常性に基づいて、注目生徒データをクラス分
類し、対応するクラスコードを出力する。さらに、演算
回路71には、教師データおよび生徒データを用いて、
クラスコードごとに線形一次予測を行うための予測係数
を求める。そして、この予測係数と、入力データとを用
いて、線形一次予測が行われ、入力データからノイズを
除去したデータが求められる。
(57) [Summary] [PROBLEMS] To effectively remove noise contained in a moving image. SOLUTION: A noise adding circuit 62 generates student data as a student by superimposing noise on teacher data as a teacher for learning a prediction coefficient, and a class tap generating circuit 64 generates the student data as a student. Then, data around the focused student data of interest is extracted as a class tap. Then, the classifying circuit 66 classifies the student data of interest based on the stationarity of the class tap, and outputs a corresponding class code. Further, the arithmetic circuit 71 uses the teacher data and the student data,
A prediction coefficient for performing linear primary prediction is obtained for each class code. Then, linear primary prediction is performed using the prediction coefficient and the input data, and data obtained by removing noise from the input data is obtained.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びに媒体に関し、特に、例え
ば、動画像等のデータに含まれるノイズの除去を、より
効果的に行うことができるようにするデータ処理装置お
よびデータ処理方法、並びに媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus, a data processing method, and a medium, and more particularly, to a method for removing noise contained in data of a moving image or the like more effectively. The present invention relates to a data processing device, a data processing method, and a medium that perform processing.
【0002】[0002]
【従来の技術】例えば、伝送や再生等された画像データ
や音声データなどのデータには、一般に、時間的に変動
するノイズが含まれているが、データに含まれるノイズ
を除去する方法としては、従来より、入力データ全体の
平均(以下、適宜、全平均という)や、入力データの局
所的な平均である移動平均を求めるものなどが知られて
いる。2. Description of the Related Art For example, data such as image data and audio data transmitted or reproduced generally includes noise that fluctuates with time. As a method for removing noise included in data, Conventionally, an average of the entire input data (hereinafter, appropriately referred to as a total average) and a method of calculating a moving average as a local average of the input data are known.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、全平均
を計算する方法は、データに含まれるノイズの度合い、
即ち、データのS/N(Signal/Noise)が一定である場
合は有効であるが、データのS/Nが変動する場合に
は、S/Nの悪いデータが、S/Nの良いデータに影響
し、効果的にノイズを除去することが困難となることが
ある。However, the method of calculating the total average is based on the degree of noise included in the data,
That is, it is effective when the S / N (Signal / Noise) of the data is constant, but when the S / N of the data fluctuates, the data with a poor S / N is changed to data with a good S / N. In some cases, it may be difficult to effectively remove noise.
【0004】また、移動平均を計算する方法では、入力
されたデータから時間的に近い位置にあるデータの平均
が求められるため、その処理結果は、データのS/Nの
変動の影響を受ける。即ち、データのS/Nの良い部分
については、処理結果のS/Nも良くなるが、S/Nの
悪い部分については、処理結果のS/Nも悪くなる。In the method of calculating a moving average, an average of data at a position close in time to input data is obtained, and the processing result is affected by a change in S / N of the data. That is, the S / N of the processing result is improved for a portion having a good S / N of the data, but the S / N of the processing result is also deteriorated for a portion having a bad S / N.
【0005】本発明は、このような状況に鑑みてなされ
たものであり、データに含まれるノイズの度合いが一定
の場合だけでなく、時間的に変動する場合であっても、
そのノイズを、効果的に除去することができるようにす
るものである。[0005] The present invention has been made in view of such circumstances, and not only when the degree of noise included in data is constant but also when it varies over time,
The noise can be effectively removed.
【0006】[0006]
【課題を解決するための手段】請求項1に記載のデータ
処理装置は、入力データから、注目している注目入力デ
ータの周辺にある周辺データを抽出する抽出手段と、周
辺データの定常性に基づいて、注目入力データをクラス
分類し、対応するクラスコードを出力するクラス分類手
段と、クラスコードに対応する所定の予測係数を用い
て、注目入力データに対する出力データを予測する予測
手段とを含むことを特徴とする。According to a first aspect of the present invention, there is provided a data processing apparatus comprising: an extracting unit configured to extract, from input data, peripheral data around an input data of interest; Classifying means for classifying the input data of interest based on the input data and outputting a corresponding class code; and prediction means for predicting output data of the input data of interest using a predetermined prediction coefficient corresponding to the class code. It is characterized by the following.
【0007】予測手段には、予測係数を用いて、出力デ
ータを、線形一次予測させることができる。[0007] The prediction means can linearly predict output data linearly using a prediction coefficient.
【0008】このデータ処理装置には、クラスコードご
とに、予測係数を記憶している記憶手段をさらに設ける
ようにすることができる。[0008] The data processing apparatus may further include storage means for storing prediction coefficients for each class code.
【0009】また、このデータ処理装置には、入力デー
タに含まれるノイズ量を推定する推定手段をさらに設け
ることができ、この場合、クラス分類手段には、ノイズ
量に基づいて、周辺データの定常性を判定させ、その定
常性に基づいて、注目入力データをクラス分類させるこ
とができる。The data processing apparatus may further include an estimating unit for estimating the amount of noise included in the input data. In this case, the classifying unit includes a routine for determining a constant of peripheral data based on the amount of noise. The input data of interest can be classified based on the stationarity.
【0010】クラス分類手段には、周辺データの分散を
求めさせ、その分散に基づいて、周辺データの定常性を
判定させ、その定常性に基づいて、注目入力データをク
ラス分類させることができる入力データに含まれるノイ
ズ量を推定する推定手段をさらに設ける場合には、クラ
ス分類手段に、周辺データの分散と、ノイズ量とを比較
させることにより、周辺データの定常性を判定させ、そ
の定常性に基づいて、注目入力データをクラス分類させ
ることができる。The classifying means determines the variance of the surrounding data, determines the continuity of the surrounding data based on the variance, and determines the input data of interest based on the continuity. When further providing estimation means for estimating the amount of noise included in the data, the classifying means compares the variance of the surrounding data with the amount of noise to determine the continuity of the surrounding data. , The input data of interest can be classified into classes.
【0011】入力データは、画像データとすることがで
きる。The input data can be image data.
【0012】抽出手段には、画像データから、注目して
いる注目画素に対して、空間的または時間的に周辺にあ
る周辺画素を抽出させることができる。[0012] The extracting means can extract, from the image data, peripheral pixels spatially or temporally surrounding the target pixel of interest.
【0013】請求項9に記載のデータ処理方法は、入力
データから、注目している注目入力データの周辺にある
周辺データを抽出する抽出ステップと、周辺データの定
常性に基づいて、注目入力データをクラス分類し、対応
するクラスコードを出力するクラス分類ステップと、ク
ラスコードに対応する所定の予測係数を用いて、注目入
力データに対する出力データを予測する予測ステップと
を含むことを特徴とする。According to a ninth aspect of the present invention, there is provided a data processing method comprising the steps of: extracting, from input data, peripheral data around the target input data of interest; Is classified into classes and a corresponding class code is output, and a prediction step of predicting output data for the input data of interest using a predetermined prediction coefficient corresponding to the class code.
【0014】請求項10に記載の媒体がコンピュータに
実行させるプログラムは、入力データから、注目してい
る注目入力データの周辺にある周辺データを抽出する抽
出ステップと、周辺データの定常性に基づいて、注目入
力データをクラス分類し、対応するクラスコードを出力
するクラス分類ステップと、クラスコードに対応する所
定の予測係数を用いて、注目入力データに対する出力デ
ータを予測する予測ステップとを含むことを特徴とす
る。According to a tenth aspect of the present invention, there is provided a program for causing a computer to execute a medium based on an extraction step of extracting, from input data, peripheral data around a target input data of interest, and a continuity of the peripheral data. Classifying the target input data and outputting a corresponding class code; and a prediction step of predicting output data for the target input data using a predetermined prediction coefficient corresponding to the class code. Features.
【0015】請求項11に記載のデータ処理装置は、予
測係数の学習のための教師となる教師データから、生徒
となる生徒データを生成する生成手段と、生徒データか
ら、注目している注目生徒データの周辺にある周辺デー
タを抽出する抽出手段と、周辺データの定常性に基づい
て、注目生徒データをクラス分類し、対応するクラスコ
ードを出力するクラス分類手段と、教師データおよび生
徒データを用いて、クラスコードごとに、予測係数を求
める演算手段とを含むことを特徴とする。[0015] The data processing apparatus according to the eleventh aspect is a generating means for generating student data to be a student from teacher data to be a teacher for learning a prediction coefficient, and a target student to be focused on from the student data. Extraction means for extracting peripheral data around the data, class classification means for classifying the student data of interest based on the stationarity of the peripheral data and outputting a corresponding class code, and using teacher data and student data. And calculating means for calculating a prediction coefficient for each class code.
【0016】演算手段には、生徒データを用いた線形一
次予測によって、教師データが得られるようにするため
の予測係数を求めさせることができる。The calculating means can determine a prediction coefficient for obtaining teacher data by linear primary prediction using student data.
【0017】生成手段には、教師データに、ノイズを付
加することによって、生徒データを生成させることがで
きる。The generating means can generate student data by adding noise to the teacher data.
【0018】このデータ処理装置には、生徒データに含
まれるノイズ量を推定する推定手段をさらに設けること
ができ、この場合、クラス分類手段には、ノイズ量に基
づいて、周辺データの定常性を判定させ、その定常性に
基づいて、注目生徒データをクラス分類させることがで
きる。The data processing apparatus may further include an estimating means for estimating the amount of noise included in the student data. In this case, the classifying means determines the continuity of the surrounding data based on the amount of noise. It is possible to make a determination and classify the student data of interest based on the stationarity.
【0019】クラス分類手段には、周辺データの分散を
求めさせ、その分散に基づいて、周辺データの定常性を
判定させ、その定常性に基づいて、注目生徒データをク
ラス分類させることができる。The class classification means can determine the variance of the peripheral data, determine the continuity of the peripheral data based on the variance, and classify the student data of interest based on the continuity.
【0020】生徒データに含まれるノイズ量を推定する
推定手段をさらに設ける場合には、クラス分類手段に、
周辺データの分散と、ノイズ量とを比較させることによ
り、周辺データの定常性を判定させ、その定常性に基づ
いて、注目生徒データをクラス分類させることができ
る。When an estimating means for estimating the amount of noise included in the student data is further provided, the class classifying means includes:
By comparing the variance of the surrounding data and the noise amount, the continuity of the surrounding data can be determined, and the student data of interest can be classified based on the continuity.
【0021】教師データおよび生徒データは、画像デー
タとすることができる。The teacher data and the student data can be image data.
【0022】抽出手段には、生徒データとしての画像デ
ータから、注目している注目画素に対して、空間的また
は時間的に周辺にある周辺画素を抽出させることができ
る。The extracting means can extract, from the image data as the student data, peripheral pixels spatially or temporally surrounding the target pixel of interest.
【0023】請求項19に記載のデータ処理方法は、予
測係数の学習のための教師となる教師データから、生徒
となる生徒データを生成する生成ステップと、生徒デー
タから、注目している注目生徒データの周辺にある周辺
データを抽出する抽出ステップと、周辺データの定常性
に基づいて、注目生徒データをクラス分類し、対応する
クラスコードを出力するクラス分類ステップと、教師デ
ータおよび生徒データを用いて、クラスコードごとに、
予測係数を求める演算ステップとを含むことを特徴とす
る。According to a nineteenth aspect of the present invention, in the data processing method, a generating step of generating student data to be a student from teacher data to be a teacher for learning a prediction coefficient; An extraction step of extracting peripheral data around the data, a class classification step of classifying the student data of interest based on the stationarity of the peripheral data, and outputting a corresponding class code, and using teacher data and student data. And for each class code,
Calculating a prediction coefficient.
【0024】請求項20に記載の媒体がコンピュータに
実行させるプログラムは、予測係数の学習のための教師
となる教師データから、生徒となる生徒データを生成す
る生成ステップと、生徒データから、注目している注目
生徒データの周辺にある周辺データを抽出する抽出ステ
ップと、周辺データの定常性に基づいて、注目生徒デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類ステップと、教師データおよび生徒データを用
いて、クラスコードごとに、予測係数を求める演算ステ
ップとを含むことを特徴とする。According to a twentieth aspect of the present invention, there is provided a computer-readable storage medium storing a program for causing a computer to execute, based on a generation step of generating student data to be a student from teacher data to be a teacher for learning a prediction coefficient, An extraction step of extracting peripheral data around the target student data of interest, a class classification step of classifying the target student data based on the stationarity of the peripheral data, and outputting a corresponding class code; And calculating a prediction coefficient for each class code using the student data.
【0025】請求項21に記載のデータ処理装置は、入
力データから、注目している注目入力データの周辺にあ
る第1の周辺データを抽出する第1の抽出手段と、第1
の周辺データの定常性に基づいて、注目入力データをク
ラス分類し、対応するクラスコードを出力する第1のク
ラス分類手段と、クラスコードに対応する所定の予測係
数を用いて、その注目入力データに対する出力データを
予測する予測手段と、予測係数の学習のための教師とな
る教師データから、生徒となる生徒データを生成する生
成手段と、生徒データから、注目している注目生徒デー
タの周辺にある第2の周辺データを抽出する第2の抽出
手段と、第2の周辺データの定常性に基づいて、注目生
徒データをクラス分類し、対応するクラスコードを出力
する第2のクラス分類手段と、教師データおよび生徒デ
ータを用いて、クラスコードごとに、予測係数を求める
演算手段とを含むことを特徴とする。According to a twenty-first aspect of the present invention, there is provided a data processing apparatus, comprising: first extraction means for extracting, from input data, first peripheral data around the target input data of interest;
First class classification means for classifying the input data of interest based on the continuity of the peripheral data of the input data and outputting a corresponding class code, and using a predetermined prediction coefficient corresponding to the class code, Prediction means for predicting the output data for the target, generation means for generating student data to be a student from teacher data to be a teacher for learning of prediction coefficients, and Second extraction means for extracting certain second peripheral data, and second class classification means for classifying the student data of interest based on the stationarity of the second peripheral data and outputting a corresponding class code. Computing means for calculating a prediction coefficient for each class code using teacher data and student data.
【0026】請求項1に記載のデータ処理装置および請
求項9に記載のデータ処理方法、並びに請求項10に記
載の媒体においては、入力データから、注目している注
目入力データの周辺にある周辺データが抽出され、その
周辺データの定常性に基づいて、注目入力データがクラ
ス分類されて、対応するクラスコードが出力される。そ
して、そのクラスコードに対応する所定の予測係数を用
いて、注目入力データに対する出力データが予測され
る。[0026] In the data processing device according to the first aspect, the data processing method according to the ninth aspect, and the medium according to the tenth aspect, the input data and the surroundings in the vicinity of the target input data of interest. Data is extracted, the input data of interest is classified based on the continuity of the surrounding data, and a corresponding class code is output. Then, output data for the target input data is predicted using a predetermined prediction coefficient corresponding to the class code.
【0027】請求項11に記載のデータ処理装置および
請求項19に記載のデータ処理方法、並びに請求項20
に記載の媒体においては、予測係数の学習のための教師
となる教師データから、生徒となる生徒データが生成さ
れ、その生徒データから、注目している注目生徒データ
の周辺にある周辺データが抽出される。そして、その周
辺データの定常性に基づいて、注目生徒データがクラス
分類されて、対応するクラスコードが出力され、教師デ
ータおよび生徒データを用いて、クラスコードごとに、
予測係数が求められる。[0027] A data processing apparatus according to claim 11, a data processing method according to claim 19, and a data processing apparatus according to claim 20.
In the medium described in (1), student data to be a student is generated from teacher data to be a teacher for learning a prediction coefficient, and peripheral data around the noted student data of interest is extracted from the student data. Is done. Then, based on the continuity of the surrounding data, the student data of interest is classified into classes, and corresponding class codes are output. Using the teacher data and the student data, for each class code,
A prediction coefficient is determined.
【0028】請求項21に記載のデータ処理装置におい
ては、入力データから、注目している注目入力データの
周辺にある第1の周辺データが抽出され、その第1の周
辺データの定常性に基づいて、注目入力データがクラス
分類されて、対応するクラスコードが出力される。そし
て、そのクラスコードに対応する所定の予測係数を用い
て、注目入力データに対する出力データが予測される。
一方、予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データが生成され、その生徒データ
から、注目している注目生徒データの周辺にある第2の
周辺データが抽出される。そして、その第2の周辺デー
タの定常性に基づいて、注目生徒データがクラス分類さ
れて、対応するクラスコードが出力され、教師データお
よび生徒データを用いて、クラスコードごとに、予測係
数が求められる。In the data processing apparatus according to the twenty-first aspect, first peripheral data around the target input data of interest is extracted from the input data, and based on the stationarity of the first peripheral data. Thus, the input data of interest is classified into classes, and the corresponding class codes are output. Then, output data for the target input data is predicted using a predetermined prediction coefficient corresponding to the class code.
On the other hand, student data to be a student is generated from teacher data to be a teacher for learning a prediction coefficient, and second peripheral data around the noted student data of interest is extracted from the student data. . Then, based on the stationarity of the second peripheral data, the student data of interest is classified and a corresponding class code is output, and a prediction coefficient is calculated for each class code using the teacher data and the student data. Can be
【0029】[0029]
【発明の実施の形態】図1は、本発明を適用したノイズ
除去装置の一実施の形態の構成例を示している。FIG. 1 shows an example of the configuration of an embodiment of a noise removing apparatus to which the present invention is applied.
【0030】この画像処理装置においては、そこに入力
される入力画像(入力データ)に対して、クラス分類適
応処理が施され、これにより、その入力画像から、そこ
に含まれるノイズが除去(低減)された画像(出力デー
タ)(以下、適宜、原画像という)が予測されるように
なっている。In this image processing apparatus, an input image (input data) input thereto is subjected to a classification adaptive process, whereby noise contained in the input image is removed (reduced). ) (Output data) (hereinafter, appropriately referred to as an original image) is predicted.
【0031】ここで、クラス分類適応処理は、クラス分
類処理と適応処理とからなり、クラス分類処理によっ
て、データを、その性質に基づいてクラス分けし、各ク
ラスごとに適応処理を施すものであり、適応処理は、以
下のような手法のものである。Here, the class classification adaptive processing includes a class classification processing and an adaptive processing. The class classification processing classifies data into classes based on their properties, and performs an adaptive processing for each class. The adaptive processing is based on the following method.
【0032】即ち、適応処理では、例えば、入力画像を
構成する画素(以下、適宜、入力画素という)と、所定
の予測係数との線形結合により、原画像の画素の予測値
を求めることで、その入力画像に含まれるノイズを除去
した画像が得られるようになっている。That is, in the adaptive processing, for example, a prediction value of a pixel of an original image is obtained by a linear combination of a pixel constituting the input image (hereinafter, appropriately referred to as an input pixel) and a predetermined prediction coefficient. An image from which noise contained in the input image has been removed can be obtained.
【0033】具体的には、例えば、いま、原画像を教師
データとするとともに、その原画像にノイズを重畳した
入力画像を生徒データとして、原画像を構成する画素
(以下、適宜、原画素という)の画素値yの予測値E
[y]を、幾つかの入力画素(入力画像を構成する画
素)の画素値x1,x2,・・・の集合と、所定の予測係
数w 1,w2,・・・の線形結合により規定される線形1
次結合モデルにより求めることを考える。この場合、予
測値E[y]は、次式で表すことができる。Specifically, for example, the original image is
Data as well as noise superimposed on the original image
Pixels that make up the original image, using the input image as student data
(Hereinafter, appropriately referred to as an original pixel) a predicted value E of a pixel value y
[Y] is converted to some input pixels (images constituting the input image).
Element value x1, XTwo,... And a predetermined predictor
Number w 1, WTwo,... Defined by a linear combination of
Let's consider finding it by the following coupling model. In this case,
The measured value E [y] can be expressed by the following equation.
【0034】 E[y]=w1x1+w2x2+・・・・・・(1) 式(1)を一般化するために、予測係数wの集合でなる
行列W、生徒データの集合でなる行列X、および予測値
E[y]の集合でなる行列Y’を、E [y] = w 1 x 1 + w 2 x 2 +... (1) In order to generalize the equation (1), a matrix W composed of a set of prediction coefficients w, A matrix X consisting of a set and a matrix Y ′ consisting of a set of predicted values E [y] are
【0035】[0035]
【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.
【0036】XW=Y’・・・(2) なお、行列Xの成分xijは、i行目の生徒データの集合
(i行目の教師データを予測するのに用いる生徒データ
の集合)の中のj番目の生徒データを表し、行列Wの成
分wjは、生徒データの集合の中のj番目の生徒データ
との積を演算する予測係数を表す。また、行列Y’の成
分E[yi]は、i行目の教師データyiの予測値を表す。XW = Y '(2) The component x ij of the matrix X is a set of student data on the i-th row (a set of student data used for predicting teacher data on the i-th row). Represents the j-th student data in the matrix, and the component w j of the matrix W represents a prediction coefficient for calculating a product with the j-th student data in the set of the student data. The component E [ y i] of the matrix Y ′ represents the predicted value of the teacher data y i in the i- th row.
【0037】そして、式(2)の観測方程式に最小自乗
法を適用して、原画素の画素値yに近い予測値E[y]
を求めることを考える。この場合、教師データとなる原
画素の真の画素値yの集合でなる行列Y、および原画素
の画素値yに対する予測値E[y]の残差eの集合でな
る行列Eを、Then, the least squares method is applied to the observation equation of Expression (2) to obtain a predicted value E [y] close to the pixel value y of the original pixel.
Think about asking. In this case, a matrix Y consisting of a set of true pixel values y of the original pixels serving as teacher data and a matrix E consisting of a set of residuals e of predicted values E [y] with respect to the pixel values y of the original pixels are given by:
【0038】[0038]
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。(Equation 2) From equation (2), the following residual equation is established.
【0039】XW=Y+E・・・(3) この場合、原画素の画素値yに近い予測値E[y]を求
めるための予測係数w iは、自乗誤差XW = Y + E (3) In this case, a predicted value E [y] close to the pixel value y of the original pixel is obtained.
Prediction coefficient w iIs the square error
【0040】[0040]
【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.
【0041】従って、上述の自乗誤差を予測係数wiで
微分したものが0になる場合、即ち、次式を満たす予測
係数wiが、原画素の画素値yに近い予測値E[y]を
求めるため最適値ということになる。Therefore, when the above-mentioned squared error is differentiated by the prediction coefficient w i , the result becomes 0, that is, the prediction coefficient w i that satisfies the following equation is the prediction value E [y] close to the pixel value y of the original pixel Is the optimum value.
【0042】[0042]
【数4】 ・・・(4) そこで、まず、式(3)を、予測係数wiで微分するこ
とにより、次式が成立する。(Equation 4) (4) Then, first, the following equation is established by differentiating equation (3) with the prediction coefficient w i .
【0043】[0043]
【数5】 ・・・(5) 式(4)および(5)より、式(6)が得られる。(Equation 5) (5) From the expressions (4) and (5), the expression (6) is obtained.
【0044】[0044]
【数6】 ・・・(6) さらに、式(3)の残差方程式における生徒データx、
予測係数w、教師データy、および残差eの関係を考慮
すると、式(6)から、次のような正規方程式を得るこ
とができる。(Equation 6) (6) Further, the student data x in the residual equation of the equation (3),
Considering the relationship between the prediction coefficient w, the teacher data y, and the residual e, the following normal equation can be obtained from Expression (6).
【0045】[0045]
【数7】 ・・・(7) 式(7)の正規方程式を構成する各式は、生徒データx
および教師データyを、ある程度の数だけ用意すること
で、求めるべき予測係数wの数と同じ数だけたてること
ができ、従って、式(7)を解くことで(但し、式
(7)を解くには、式(7)において、予測係数wにか
かる係数で構成される行列が正則である必要がある)、
最適な予測係数wを求めることができる。なお、式
(7)を解くにあたっては、例えば、掃き出し法(Gaus
s-Jordanの消去法)などを用いることが可能である。(Equation 7) (7) Each of the equations constituting the normal equation of the equation (7) is represented by student data x
By preparing a certain number of training data y and teacher data y, the same number as the number of prediction coefficients w to be obtained can be obtained. Therefore, solving equation (7) (provides equation (7) In order to solve, in Expression (7), a matrix composed of coefficients related to the prediction coefficient w needs to be regular),
An optimal prediction coefficient w can be obtained. In solving equation (7), for example, the sweeping method (Gauss
s-Jordan elimination) can be used.
【0046】以上のようにして、最適な予測係数wを求
めておき、さらに、その予測係数wを用い、式(1)に
より、原画素の画素値yに近い予測値E[y]を求める
のが適応処理である。As described above, the optimum prediction coefficient w is obtained, and further, using the prediction coefficient w, a prediction value E [y] close to the pixel value y of the original pixel is obtained by the equation (1). This is the adaptive processing.
【0047】なお、適応処理は、入力画像には含まれて
いない、原画像に含まれる成分が再現される点で、例え
ば、補間処理等とは異なる。即ち、適応処理では、式
(1)だけを見る限りは、いわゆる補間フィルタを用い
ての補間処理と同一であるが、その補間フィルタのタッ
プ係数に相当する予測係数wが、教師データyを用いて
の、いわば学習により求められるため、原画像に含まれ
る成分を再現することができる。即ち、例えば、高S/N
の画像を得ることができる。このことから、適応処理
は、いわば画像の創造(解像度想像)作用がある処理と
いうことができ、従って、入力画像からノイズを除去し
た原画像を求める他、例えば、低解像度または標準解像
度の画像を、高解像度の画像に変換するような場合にも
用いることができる。The adaptive processing differs from, for example, interpolation processing in that components not included in the input image but included in the original image are reproduced. That is, the adaptive processing is the same as the interpolation processing using the so-called interpolation filter as far as only the equation (1) is viewed, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter is obtained by using the teacher data y. Therefore, the components included in the original image can be reproduced. That is, for example, high S / N
Image can be obtained. From this, it can be said that the adaptive processing has a so-called image creation (resolution imagination) action. Therefore, in addition to obtaining an original image from which noise has been removed from an input image, for example, a low-resolution or standard-resolution image is converted. It can also be used when converting to a high-resolution image.
【0048】図1のノイズ除去装置は、以上のようなク
ラス分類適応処理により、入力画像から、そこに含まれ
るノイズを除去し(ノイズのない画像(原画像)を予測
し)、そのノイズ除去後の画像を出力するようになって
いる。The noise removing apparatus shown in FIG. 1 removes noise contained in an input image (predicts an image without noise (original image)) by the above-described class classification adaptive processing, and removes the noise. It outputs the later image.
【0049】即ち、図1のノイズ除去装置は、フレーム
メモリ1、クラスタップ生成回路2、予測タップ生成回
路3、クラス分類回路4、係数RAM(Random Access Memo
ry)45、および予測演算回路6から構成され、そこに
は、ノイズ除去の対象となる入力画像が入力されるよう
になっている。That is, the noise elimination device shown in FIG. 1 comprises a frame memory 1, a class tap generation circuit 2, a prediction tap generation circuit 3, a class classification circuit 4, a coefficient RAM (Random Access Memory).
ry) 45, and a prediction operation circuit 6, into which an input image to be subjected to noise removal is input.
【0050】フレームメモリ1は、ノイズ除去装置に入
力される入力画像を、例えば、フレーム単位で一時記憶
するようになされている。なお、本実施の形態では、フ
レームメモリ1は、複数フレームの入力画像を記憶する
ことができるようになっている。The frame memory 1 is adapted to temporarily store an input image input to the noise elimination device, for example, in frame units. In this embodiment, the frame memory 1 can store a plurality of frames of input images.
【0051】クラスタップ生成回路2は、クラス分類適
応処理により、原画素の予測値を求めようとする入力画
素、即ち、ノイズを除去しようとする入力画素(以下、
適宜、注目画素という)の周辺にある画素を、フレーム
メモリ1に記憶された入力画像から抽出し、これを、注
目画素のクラス分類に用いるクラスタップとして、クラ
ス分類回路4に出力するようになっている。The class tap generation circuit 2 performs an input pixel for obtaining a predicted value of an original pixel by a class classification adaptive process, that is, an input pixel for which noise is to be removed (hereinafter, referred to as an input pixel).
Pixels around the pixel of interest are appropriately extracted from the input image stored in the frame memory 1 and output to the classifying circuit 4 as a class tap used for classifying the pixel of interest. ing.
【0052】即ち、クラスタップ生成回路2は、例え
ば、図2に示すように、(A)注目画素、(B)その注
目画素のフレームより時間的に先行する4フレーム(過
去のフレーム)それぞれの、注目画素と空間的に同一位
置にある4画素、(C)注目画素のフレームより時間的
に後行する4フレーム(未来のフレーム)それぞれの、
注目画素と空間的に同一位置にある4画素、(D)注目
画素のフレームと同一フレームの、注目画素の左にある
4画素、(E)注目画素のフレームと同一フレームの、
注目画素の右にある4画素、(F)注目画素のフレーム
と同一フレームの、注目画素の上にある4画素、(G)
注目画素のフレームと同一フレームの、注目画素の下に
ある4画素の合計25画素を、フレームメモリ1に記憶
された入力画像から抽出し、これを、注目画素について
のクラスタップとして、クラス分類回路4に出力するよ
うになっている。That is, for example, as shown in FIG. 2, the class tap generating circuit 2 generates (A) a target pixel and (B) four frames (past frames) temporally preceding the frame of the target pixel. , Four pixels at the same spatial position as the target pixel, and (C) four frames (future frames) temporally subsequent to the frame of the target pixel.
4 pixels at the same spatial position as the pixel of interest, (D) 4 pixels to the left of the pixel of interest in the same frame as the frame of the pixel of interest, (E) of the same frame as the frame of the pixel of interest
Four pixels to the right of the pixel of interest, (F) Four pixels above the pixel of interest in the same frame as the frame of the pixel of interest, (G)
A total of 25 pixels, that is, 4 pixels below the pixel of interest in the same frame as the frame of the pixel of interest, are extracted from the input image stored in the frame memory 1, and this is used as a class tap for the pixel of interest, 4 is output.
【0053】予測タップ生成回路3は、予測演算回路6
において注目画素に対する原画素の予測値を求めるのに
用いる入力画素を、フレームメモリ1に記憶された入力
画像から抽出し、これを予測タップとして、予測演算回
路6に供給するようになされている。即ち、予測タップ
生成回路3は、フレームメモリ1に記憶された入力画像
から、例えば、図2に示したように、クラスタップ生成
回路2で抽出されるクラスタップと同一の入力画素を、
予測タップとして抽出し、予測演算回路6に供給するよ
うになっている。The prediction tap generation circuit 3 includes a prediction operation circuit 6
, An input pixel used for obtaining a predicted value of an original pixel for a target pixel is extracted from an input image stored in the frame memory 1 and supplied to a prediction operation circuit 6 as a prediction tap. That is, the prediction tap generation circuit 3 extracts, from the input image stored in the frame memory 1, for example, as shown in FIG. 2, the same input pixel as the class tap extracted by the class tap generation circuit 2,
It is extracted as a prediction tap and supplied to the prediction calculation circuit 6.
【0054】なお、ここでは、説明を簡単にするため、
クラスタップと予測タップとを、同一の入力画素から構
成するようにしたが、クラスタップと予測タップとは、
同一の入力画素から構成する必要はなく、異なる入力画
素から構成することができる。Here, in order to simplify the explanation,
Although the class tap and the prediction tap are configured from the same input pixel, the class tap and the prediction tap are
It is not necessary to constitute from the same input pixel, but can be constituted from different input pixels.
【0055】クラス分類回路4は、クラスタップ生成回
路2からのクラスタップの定常性に基づいて、注目画素
をクラス分類し、その結果得られるクラスに対応するク
ラスコードを、係数RAM5に対し、アドレスとして与え
るようになされている。即ち、クラス分類回路4には、
クラスタップ生成回路2からクラスタップが供給される
他、ノイズ量推定回路7から、注目画素に含まれるノイ
ズ量の推定値(推定ノイズ量)も供給されるようになっ
ており、クラス分類回路4は、クラスタップを構成する
入力画素の画素値の定常性を、推定ノイズ量を用いて判
定し、その定常性に対応するクラスコードを、係数RAM
5のアドレスとして出力するようになされている。The class classification circuit 4 classifies the pixel of interest based on the stationarity of the class tap from the class tap generation circuit 2, and assigns a class code corresponding to the obtained class to the coefficient RAM 5 in an address. It has been made to give as. That is, in the classifying circuit 4,
In addition to the class tap being supplied from the class tap generation circuit 2, an estimated value (estimated noise amount) of the noise amount included in the pixel of interest is also supplied from the noise amount estimation circuit 7. Determines the continuity of the pixel values of the input pixels constituting the class tap by using the estimated noise amount, and determines the class code corresponding to the continuity by a coefficient RAM.
5 is output.
【0056】係数RAM5は、後述する学習処理を行うこ
とにより得られるクラスごとの予測係数を記憶してお
り、クラス分類回路4からクラスコードが供給される
と、そのクラスコードに対応するアドレスに記憶されて
いる予測係数を読み出し、予測演算回路6に供給するよ
うになっている。The coefficient RAM 5 stores prediction coefficients for each class obtained by performing a learning process described later. When a class code is supplied from the class classification circuit 4, it is stored at an address corresponding to the class code. The read prediction coefficient is read and supplied to the prediction calculation circuit 6.
【0057】予測演算回路6は、係数RAM5から供給さ
れる、注目画素のクラスについての予測係数w,w2,
・・・と、予測タップ生成回路3からの予測タップ
x1,x2,・・・とを用いて、式(1)に示した演算を
行うことにより、注目画素xに対する原画素yの予測値
E[y]を求め、注目画素xからノイズを除去した画素
の画素値として出力するようになっている。The prediction operation circuit 6 supplies the prediction coefficients w, w 2 ,
, And the prediction taps x 1 , x 2 ,... From the prediction tap generation circuit 3, perform the calculation shown in Expression (1) to predict the original pixel y with respect to the target pixel x. The value E [y] is obtained and output as a pixel value of a pixel obtained by removing noise from the target pixel x.
【0058】ノイズ量推定回路7は、フレームメモリ1
に記憶された入力画像に基づいて、注目画素に含まれる
ノイズ量を推定し、その結果得られる推定ノイズ量を、
クラス分類回路4に供給するようになっている。The noise amount estimating circuit 7 includes the frame memory 1
Based on the input image stored in, the amount of noise included in the pixel of interest is estimated, and the estimated amount of noise obtained as
The data is supplied to the classification circuit 4.
【0059】次に、図3のフローチャートを参照して、
図1のノイズ除去装置において行われるノイズ除去処理
について説明する。Next, referring to the flowchart of FIG.
The noise removal processing performed in the noise removal device of FIG. 1 will be described.
【0060】フレームメモリ1には、ノイズ除去処理の
対象としての入力画像(動画像)が、フレーム単位で順
次供給され、フレームメモリ1では、そのようにフレー
ム単位で供給される入力画像が順次記憶されていく。な
お、本実施の形態では、図2で説明したクラスタップお
よび予測タップを構成する必要があることから、フレー
ムメモリ1は、少なくとも9フレーム分の入力画像(注
目画素のフレームと、そのフレームの前後それぞれ4フ
レームとの合計9フレーム)を記憶することのできる容
量を有している。The input image (moving image) to be subjected to the noise removal processing is sequentially supplied to the frame memory 1 in frame units, and the input image supplied in such a frame unit is sequentially stored in the frame memory 1. Will be done. In the present embodiment, since the class tap and the prediction tap described in FIG. 2 need to be configured, the frame memory 1 stores at least 9 frames of the input image (the frame of the pixel of interest and the frames before and after the frame). (4 frames each, 9 frames in total).
【0061】そして、ステップS1において、ノイズ量
推定回路7は、フレームメモリ41に記憶された入力画
像を用いて、いま処理の対象となっているフレーム(注
目画素があるフレーム)(以下、適宜、注目フレームと
いう)に含まれるノイズ量を推定し、その結果得られる
推定ノイズ量を、クラス分類回路4に出力する。Then, in step S1, the noise amount estimating circuit 7 uses the input image stored in the frame memory 41 to process the current frame (the frame having the pixel of interest) (hereinafter, appropriately The amount of noise included in the frame of interest is estimated, and the estimated amount of noise obtained as a result is output to the classification circuit 4.
【0062】その後、ステップS2において、クラスタ
ップ生成回路2または予測タップ生成回路3は、適応処
理により予測値を求めようとする注目フレームの入力画
素を注目画素として、その周辺にある入力画素を、フレ
ームメモリ1から読み出し、図2に示したクラスタップ
または予測タップをそれぞれ構成する。このクラスタッ
プまたは予測タップは、クラス分類回路4または予測演
算回路6にそれぞれ供給される。Thereafter, in step S2, the class tap generation circuit 2 or the prediction tap generation circuit 3 sets the input pixel of the frame of interest for which a prediction value is to be obtained by adaptive processing as the pixel of interest, and sets the input pixels around the pixel of interest as the target pixel. It reads from the frame memory 1 and configures the class tap or the prediction tap shown in FIG. The class tap or the prediction tap is supplied to the classification circuit 4 or the prediction operation circuit 6, respectively.
【0063】クラス分類回路4は、クラスタップ生成回
路2からクラスタップを受信すると、ステップS3にお
いて、そのクラスタップの定常性を、そのクラスタップ
の分散と、ノイズ量推定回路7からの推定ノイズ量とか
ら判定し、その定常性に基づいて、注目画素のクラスを
求める。このクラスに対応するクラスコードは、係数RA
M5に対し、アドレスとして与えられ、係数RAM5は、ス
テップS4において、クラス分類回路4からのクラスコ
ードに対応するアドレスに記憶されている予測係数を読
み出し、予測演算回路6に供給する。When the class tapping circuit 4 receives the class tap from the class tap generating circuit 2, the classifying circuit 4 determines the stationarity of the class tap and the variance of the class tap and the estimated noise amount from the noise amount estimating circuit 7 in step S 3. And the class of the pixel of interest is determined based on the stationarity. The class code corresponding to this class is the coefficient RA
The coefficient RAM 5 is given as an address, and the coefficient RAM 5 reads the prediction coefficient stored in the address corresponding to the class code from the class classification circuit 4 in step S 4, and supplies the prediction coefficient to the prediction calculation circuit 6.
【0064】予測演算回路6では、ステップS5におい
て、予測タップ生成回路3からの予測タップと、係数RA
M5からの予測係数とを用いて、式(1)に示した演算
(線形一次予測)が行われることにより、注目画素xに
対する原画素(注目画素xから、完全にノイズが除去さ
れた状態の画素)yの予測値E[y]が求められ、ステ
ップS6に進む。ステップS6では、予測係数演算回路
6が、ステップS5で求めた注目画素xに対する原画素
yの予測値E[y]を、注目画素xからノイズを除去し
た画素の画素値として出力し、ステップS7に進む。In the prediction operation circuit 6, in step S5, the prediction tap from the prediction tap generation circuit 3 and the coefficient RA
By performing the operation (linear primary prediction) shown in Expression (1) using the prediction coefficient from M5, the original pixel for the pixel of interest x (in the state where noise is completely removed from the pixel of interest x) The predicted value E [y] of the pixel (y) is obtained, and the process proceeds to step S6. In step S6, the prediction coefficient calculation circuit 6 outputs the predicted value E [y] of the original pixel y with respect to the target pixel x obtained in step S5 as the pixel value of a pixel from which noise has been removed from the target pixel x, and step S7. Proceed to.
【0065】ステップS7では、フレームメモリ1に記
憶された注目フレームを構成する入力画素すべてを、注
目画素として処理を行ったか否かが判定され、まだ行っ
ていないと判定された場合、ステップS2に戻り、まだ
注目画素としていない入力画素を、新たに注目画素とし
て、以下、同様の処理が繰り返される。In step S7, it is determined whether or not all the input pixels constituting the frame of interest stored in the frame memory 1 have been processed as the pixel of interest. If it is determined that the processing has not been performed, the process proceeds to step S2. Returning, the input pixel which has not been set as a target pixel is newly set as a target pixel, and thereafter, the same processing is repeated.
【0066】また、ステップS7において、注目フレー
ムを構成する入力画素すべてを、注目画素として処理を
行ったと判定された場合、ステップS8に進み、フレー
ムメモリ1に、次に処理すべきフレーム(いま注目フレ
ームとなっているフレームの次のフレーム)が記憶され
ているかどうかが判定される。ステップS8において、
フレームメモリ1に、次に処理すべきフレームが記憶さ
れていると判定された場合、ステップS1に戻り、その
フレームを、新たに注目フレームとして、以下、同様の
処理が繰り返される。If it is determined in step S7 that all the input pixels constituting the frame of interest have been processed as the pixel of interest, the process proceeds to step S8, where the next frame to be processed (the current frame of interest) is stored in the frame memory 1. It is determined whether or not the next frame (the frame next to the current frame) is stored. In step S8,
If it is determined that the frame to be processed next is stored in the frame memory 1, the process returns to step S1, and the same process is repeated with the new frame as the target frame.
【0067】一方、ステップS8において、フレームメ
モリ1に、次に処理すべきフレームが記憶されていない
と判定された場合、ノイズ除去処理を終了する。On the other hand, if it is determined in step S8 that the frame to be processed next is not stored in the frame memory 1, the noise removal processing ends.
【0068】次に、図4は、図1のノイズ量推定回路7
の構成例を示している。Next, FIG. 4 shows the noise amount estimation circuit 7 shown in FIG.
2 shows a configuration example.
【0069】いま、第tフレームにおいて、ある空間的
な位置にある入力画素をx(t)と表すと、図1のフレ
ームメモリ1に記憶された入力画素x(t)は、遅延回
路11、分散計算部19、動きベクトル検出回路29に
入力されるようになっている。Now, in the t-th frame, if an input pixel at a certain spatial position is represented as x (t), the input pixel x (t) stored in the frame memory 1 of FIG. The variance calculation unit 19 and the motion vector detection circuit 29 are configured to be input.
【0070】遅延回路11は、そこに入力される入力画
素x(t)を1フレーム分の時間だけ遅延し、入力画素
x(t−1)として、遅延回路12、分散計算部19、
および動きベクトル検出回路29に供給するようになっ
ている。遅延回路12は、遅延回路11からの入力画素
x(t−1)を1フレーム分の時間だけ遅延し、入力画
素x(t−2)として、遅延回路13および分散計算部
19に供給するようになっている。遅延回路13は、遅
延回路12からの入力画素x(t−2)を1フレーム分
の時間だけ遅延し、入力画素x(t−3)として、遅延
回路14および分散計算部19に供給するようになって
いる。遅延回路14は、遅延回路13からの入力画素x
(t−3)を1フレーム分の時間だけ遅延し、入力画素
x(t−4)として、分散計算部19に供給するように
なっている。The delay circuit 11 delays the input pixel x (t) inputted thereto by a time corresponding to one frame, and sets the input pixel x (t-1) as the input pixel x (t-1).
And a motion vector detecting circuit 29. The delay circuit 12 delays the input pixel x (t-1) from the delay circuit 11 by a time corresponding to one frame, and supplies the input pixel x (t-2) to the delay circuit 13 and the variance calculator 19 as the input pixel x (t-2). It has become. The delay circuit 13 delays the input pixel x (t−2) from the delay circuit 12 by a time corresponding to one frame, and supplies the input pixel x (t−3) to the delay circuit 14 and the variance calculator 19 as the input pixel x (t−3). It has become. The delay circuit 14 receives the input pixel x from the delay circuit 13
(T-3) is delayed by a time corresponding to one frame, and supplied to the variance calculator 19 as an input pixel x (t-4).
【0071】遅延回路15乃至18それぞれは、動きベ
クトル検出回路29が出力する動きベクトルについて、
遅延回路11乃至14における場合と同様の遅延処理を
行うようになっている。従って、例えば、いま、入力画
素x(t)の動きベクトルを、v(t)と表すと、遅延
回路15乃至18は、動きベクトルv(t−1)乃至v
(t−4)を、それぞれ出力する。この動きベクトルv
(t−1)乃至v(t−4)は、静止判定部23乃至2
6にそれぞれ供給されるようになっている。Each of the delay circuits 15 to 18 controls the motion vector output from the motion vector detection circuit 29.
The same delay processing as in the case of the delay circuits 11 to 14 is performed. Therefore, for example, if the motion vector of the input pixel x (t) is represented as v (t), the delay circuits 15 to 18 will be able to use the motion vectors v (t−1) to v (t−1).
(T-4) are output. This motion vector v
(T-1) to v (t-4) are the stillness determination units 23 to 2
6, respectively.
【0072】分散計算部19は、そこに供給される入力
画素x(t)乃至x(t−4)、即ち、注目フレームを
含む過去5フレームにおいて、空間的に同一位置にある
入力画素x(t)乃至x(t−4)の分散を演算し、分
散積算メモリ20に供給するようになっている。分散積
算メモリ20は、メモリコントローラ28の制御の下、
分散計算部19から供給される分散の積算を行うように
なっている。分散値フレーム平均計算部21は、分散積
算メモリ20において積算された分散の平均値を演算し
(分散の積算値を、その積算された分散の数で除算
し)、それを、入力画素x(t)のフレーム(注目フレ
ーム)の各入力画素に含まれるノイズ量の推定値(推定
ノイズ量)として出力するようになっている。The variance calculator 19 calculates the input pixels x (t) to x (t−4) supplied thereto, that is, the input pixels x (x) at the same spatial position in the past 5 frames including the frame of interest. The variances of t) to x (t-4) are calculated and supplied to the variance accumulation memory 20. The dispersion accumulation memory 20 is controlled by a memory controller 28
The variance supplied from the variance calculator 19 is integrated. The variance value frame average calculator 21 calculates the average value of the variance integrated in the variance integration memory 20 (divides the integrated value of the variance by the number of the integrated variances), and divides the input pixel x ( The estimated value (estimated noise amount) of the noise amount included in each input pixel of the frame (t) of frame t) is output.
【0073】静止判定部22は、動きベクトル検出回路
29から供給される動きベクトルv(t)に基づいて、
入力画素x(t)が静止している部分のものであるかど
うかを判定し、その判定結果を、連続静止位置検出部2
7に供給するようになっている。静止判定部22乃至2
6も、静止判定部22と同様に、遅延回路15乃至18
から供給される動きベクトルv(t−1)乃至v(t−
4)に基づいて、入力画素x(t−1)乃至x(t−
4)が静止している部分のものであるかどうかを、それ
ぞれ判定し、その判定結果を、連続静止位置検出部27
に供給するようになっている。The stillness judging unit 22 calculates a motion vector v (t) based on the motion vector v (t) supplied from the motion vector detecting circuit 29.
It is determined whether or not the input pixel x (t) belongs to a stationary portion, and the determination result is sent to the continuous stationary position detection unit 2.
7. Stillness determination units 22 to 2
6, the delay circuits 15 to 18 as well as the stillness determination unit 22.
Motion vectors v (t-1) to v (t-
4), input pixels x (t-1) to x (t-
It is determined whether or not 4) is for a stationary portion, and the determination result is sent to the continuous stationary position detector 27.
To be supplied.
【0074】連続静止位置検出部27は、静止判定部2
2乃至26からの判定結果に基づいて、連続したフレー
ムにおいて、静止している部分の画素の位置(空間的位
置)を検出するようになっている。即ち、連続静止位置
検出部27は、静止判定部22乃至26からの判定結果
が、いずれも静止しているものとなっている位置の入力
画素x(t)を検出し、その位置を、メモリコントロー
ラ28に供給するようになっている。The continuous stationary position detecting section 27 includes a stationary determining section 2
Based on the determination results from 2 to 26, the position (spatial position) of the pixel of the stationary portion is detected in consecutive frames. That is, the continuous stationary position detecting unit 27 detects the input pixel x (t) at a position where the determination results from the stationary determining units 22 to 26 are all stationary, and stores that position in the memory. The data is supplied to the controller 28.
【0075】メモリコントローラ28は、分散計算部1
9が出力する分散のうち、連続性画素検出部27から供
給された、静止している位置にある画素から求められた
もののみを積算するように、分散積算メモリ20を制御
するようになっている。さらに、メモリコントローラ2
8には、新たなフレームの入力画素の供給が開始される
ことを示すフレームリセット信号が供給されるようにな
っており、メモリコントローラ28は、このフレームリ
セット信号を受信すると、分散値フレーム平均計算部2
1に、分散積算メモリ20に記憶された分散の積算値の
平均値を計算させるとともに、分散積算メモリ20の記
憶値を0にリセットするようになっている。The memory controller 28 includes the distributed computing unit 1
9, the variance accumulation memory 20 is controlled so that only the variance output from the pixel at the stationary position, which is supplied from the continuity pixel detection unit 27, is integrated. I have. Further, the memory controller 2
8 is supplied with a frame reset signal indicating that supply of input pixels of a new frame is started. When the memory controller 28 receives the frame reset signal, the memory controller 28 calculates a variance value frame average. Part 2
1 causes the average value of the integrated value of the variance stored in the variance accumulation memory 20 to be calculated, and resets the storage value of the variance accumulation memory 20 to 0.
【0076】動きベクトル検出回路29は、入力画素x
(t)のフレームと、遅延回路11から供給される、そ
のフレームの1フレーム前のフレームとから、入力画素
x(t)の動きベクトルv(t)を検出し、遅延回路1
5および静止判定部22に供給するようになっている。The motion vector detection circuit 29 calculates the input pixel x
The motion vector v (t) of the input pixel x (t) is detected from the frame (t) and the frame one frame before the frame supplied from the delay circuit 11, and the delay circuit 1
5 and the stillness determination unit 22.
【0077】以上のように構成されるノイズ量推定回路
7では、いま処理(ノイズ除去処理)の対象となってい
るフレーム(注目フレーム)を構成する入力画素のうち
の、静止している部分だけを用いて、その注目フレーム
を構成する各入力画素のノイズ量を推定するノイズ量推
定処理が行われるようになっている。In the noise amount estimating circuit 7 configured as described above, only the stationary portion of the input pixels constituting the frame (frame of interest) that is the target of the processing (noise removal processing) is performed. , A noise amount estimating process of estimating the noise amount of each input pixel constituting the frame of interest is performed.
【0078】即ち、ノイズ量推定回路7では、注目フレ
ームを構成する所定の入力画素を、処理対象画素x
(t)として、その処理対象画素x(t)と、それと同
一位置にある、過去4フレームの入力画素x(t−1)
乃至x(t−4)との5画素を用いて、それらの分散が
計算されるとともに、その5画素x(t)乃至x(t−
4)それぞれが、静止している部分の画素(静止画素)
であるかどうかの静止判定が行われる。That is, the noise amount estimating circuit 7 converts a predetermined input pixel constituting the frame of interest into a pixel x to be processed.
As (t), the pixel x (t) to be processed and the input pixel x (t−1) of the past four frames at the same position as the pixel x (t)
The variance is calculated using the five pixels x (t−4) to x (t−4) and the five pixels x (t) to x (t−4).
4) Each of the pixels at a stationary portion (still pixel)
Is determined.
【0079】具体的には、遅延回路11および分散計算
部19には、注目フレームを構成する入力画素x(t)
が、順次供給され、遅延回路11乃至14それぞれで
は、そこに入力される入力画素が、1フレーム分の時間
だけ遅延され、分散計算部19に供給される。即ち、こ
れにより、分散計算部19には、入力画素x(t)乃至
x(t−4)が供給される。分散計算部19では、入力
画素x(t)乃至x(t−4)の分散が求められ、分散
積算メモリ20に供給される。More specifically, the delay circuit 11 and the variance calculator 19 store the input pixel x (t) constituting the frame of interest.
Are sequentially supplied, and in each of the delay circuits 11 to 14, the input pixel input thereto is delayed by a time corresponding to one frame, and is supplied to the dispersion calculation unit 19. That is, thereby, the input pixels x (t) to x (t−4) are supplied to the variance calculation unit 19. In the variance calculation unit 19, the variance of the input pixels x (t) to x (t−4) is obtained and supplied to the variance accumulation memory 20.
【0080】一方、動きベクトル検出回路29には、注
目フレームを構成する入力画素と、その1フレーム前の
フレームの入力画素が供給され、それらの入力画素を用
いて、注目フレームの処理対象画素x(t)の動きベク
トルv(t)が検出される。この動きベクトルv(t)
は、遅延回路15および静止判定部22に供給される。On the other hand, the motion vector detection circuit 29 is supplied with input pixels forming the frame of interest and input pixels of the frame immediately before the frame, and uses these input pixels to process the pixel x to be processed of the frame of interest. A motion vector v (t) of (t) is detected. This motion vector v (t)
Is supplied to the delay circuit 15 and the stillness determination unit 22.
【0081】遅延回路15乃至18それぞれでは、そこ
に入力される動きベクトルが、1フレーム分の時間だけ
遅延され、静止判定部23乃至26に供給される。従っ
て、静止判定部22乃至26には、入力画素x(t)乃
至x(t−4)の動きベクトルv(t)乃至v(t−
4)がそれぞれ供給される。そして、静止判定部22乃
至26では、そこに入力される動きベクトルv(t)乃
至v(t−4)に基づいて、入力画素x(t−1)乃至
x(t−4)が静止している部分のものであるかどうか
が、それぞれ判定され、その判定結果が、連続静止位置
検出部27に供給される。In each of the delay circuits 15 to 18, the motion vector input thereto is delayed by a time corresponding to one frame and supplied to the stillness determination units 23 to 26. Accordingly, the motion vectors v (t) to v (t-t) of the input pixels x (t) to x (t-4) are provided to the stillness determination units 22 to 26.
4) are supplied respectively. Then, in the stillness determination units 22 to 26, based on the motion vectors v (t) to v (t-4) input thereto, the input pixels x (t-1) to x (t-4) are stationary. It is determined whether or not the part is a part where the part is located, and the result of the determination is supplied to the continuous stationary position detection unit 27.
【0082】連続静止位置検出部27では、静止判定部
22乃至26それぞれにおける静止判定結果に基づき、
処理対象画素x(t)の位置が、連続したフレーム(こ
こでは、第t−4フレームから第tフレームまで)にお
いて、静止している部分となっているかどうかが検出さ
れる。この検出結果は、メモリコントローラ28に供給
される。In the continuous stationary position detecting section 27, based on the stationary determination results in the stationary determining sections 22 to 26, respectively,
It is detected whether or not the position of the processing target pixel x (t) is a stationary portion in consecutive frames (here, from the (t-4) th frame to the tth frame). This detection result is supplied to the memory controller 28.
【0083】メモリコントローラ28は、連続静止位置
検出部27から、処理対象画素x(t)の位置が、連続
したフレームで、静止している部分となっていない旨の
検出結果を受信した場合、即ち、処理対象画素x(t)
と同一位置にあるx(t)乃至x(t−4)のうちのい
ずれかが動きを有するものである場合、分散積算メモリ
20に、分散計算部19からの分散を破棄するように指
令する。従って、この場合、分散積算メモリ20では、
分散計算部19からの分散、即ち、動きを有する画素か
ら求められた分散は積算されずに破棄される。When the memory controller 28 receives from the continuous still position detecting section 27 a detection result indicating that the position of the processing target pixel x (t) is not a stationary portion in a continuous frame, That is, the processing target pixel x (t)
If any of x (t) to x (t−4) at the same position as above has a motion, the variance accumulation memory 20 is instructed to discard the variance from the variance calculation unit 19. . Therefore, in this case, in the dispersion accumulation memory 20,
The variance from the variance calculation unit 19, that is, the variance obtained from pixels having motion, is discarded without being integrated.
【0084】一方、メモリコントローラ28は、連続静
止位置検出部27から、処理対象画素x(t)の位置
が、連続したフレームで、静止している部分となってい
る旨の検出結果を受信した場合、即ち、処理対象画素x
(t)と同一位置にあるx(t)乃至x(t−4)のう
ちのいずれも動きを有しないものである場合、分散積算
メモリ20に、分散計算部19からの分散を積算するよ
うに指令する。従って、この場合、分散積算メモリ20
では、分散計算部19からの分散、即ち、静止している
画素のみから求められた分散が、既にそこに記憶されて
いる分散に積算され、その積算値が、新たに記憶され
る。On the other hand, the memory controller 28 receives from the continuous still position detecting section 27 a detection result indicating that the position of the pixel x (t) to be processed is a stationary portion in a continuous frame. In other words, the processing target pixel x
If any of x (t) to x (t−4) at the same position as (t) has no motion, the variance from the variance calculator 19 is integrated in the variance accumulation memory 20. Command. Therefore, in this case, the dispersion accumulation memory 20
Then, the variance from the variance calculation unit 19, that is, the variance obtained from only the stationary pixels, is added to the variance already stored therein, and the integrated value is newly stored.
【0085】以上の処理が、注目フレームのすべての入
力画素を、処理対象画素として行われ、その後、分散値
フレーム平均計算部21において、注目フレームを構成
する各入力画素に含まれるノイズ量が求められる(推定
される)。The above processing is performed with all the input pixels of the frame of interest as the pixels to be processed. Thereafter, the variance value frame average calculation section 21 calculates the amount of noise contained in each input pixel constituting the frame of interest. (Estimated).
【0086】即ち、注目フレームのすべての入力画素に
ついての処理が終了すると、メモリコントローラ28に
は、フレームリセット信号が入力される。メモリコント
ローラ28は、フレームリセット信号を受信すると、分
散値フレーム平均計算部21に、分散積算メモリ20に
記憶された分散の積算値の平均値を計算させるととも
に、分散積算メモリ20の記憶値を0にリセットする。That is, when the processing for all the input pixels of the target frame is completed, a frame reset signal is input to the memory controller 28. When the memory controller 28 receives the frame reset signal, the memory controller 28 causes the variance value frame average calculation unit 21 to calculate the average value of the variance integrated value stored in the variance integration memory 20 and sets the stored value of the variance integration memory 20 to 0. Reset to.
【0087】分散値フレーム平均計算部21では、メモ
リコントローラ28の制御にしたがい、分散積算メモリ
20に記憶された分散の積算値の平均値が計算される。
分散積算メモリ20では、上述したことから、静止して
いる画素から求められた分散のみが積算され、その積算
値が記憶されており、従って、分散値フレーム平均計算
部21では、そのような静止している画素(ここでは、
5フレーム連続して静止している画素)から求められた
分散の平均値が求められる。この平均値は、注目フレー
ム(第tフレーム)の各入力画素に含まれるノイズ量の
推定値(推定ノイズ量)として出力される。The variance value frame average calculator 21 calculates the average value of the integrated value of the variance stored in the variance accumulation memory 20 under the control of the memory controller 28.
As described above, the variance accumulation memory 20 accumulates only the variance obtained from the stationary pixels and stores the integrated value. Pixels (here,
The average value of the variance obtained from the pixels that are stationary for five consecutive frames is obtained. This average value is output as an estimated value (estimated noise amount) of the noise amount included in each input pixel of the frame of interest (the t-th frame).
【0088】以下、次のフレームを注目フレームとし
て、同様の処理が繰り返される。Hereinafter, the same processing is repeated with the next frame as the frame of interest.
【0089】以上のように、ノイズ量推定回路7では、
注目フレームから、4フレーム前までの間静止し続けて
いる空間的に同一位置の5つ画素が検出され、注目フレ
ームにおける、そのような5画素の分散の平均値が、注
目フレームの各入力画素に含まれるノイズ量であると推
定される。従って、この場合、ノイズ量の推定に、動き
のある画素が用いられないため、画像の動きの影響が、
推定されたノイズ量に反映されることを防止することが
できる。即ち、画像の動きの影響がほとんどないノイズ
量(真のノイズ量により近いノイズ量)を推定すること
ができる。As described above, in the noise amount estimation circuit 7,
From the frame of interest, five pixels at the same spatial position that remain stationary for four frames before are detected, and the average value of the variance of such five pixels in the frame of interest is calculated for each input pixel of the frame of interest. Is estimated to be the amount of noise included in. Therefore, in this case, since the moving pixel is not used for estimating the noise amount, the effect of the motion of the image is
It can be prevented from being reflected in the estimated noise amount. That is, it is possible to estimate a noise amount (noise amount closer to a true noise amount) that is hardly affected by the motion of the image.
【0090】さらに、従来においては、動画について、
時間方向に並ぶ、空間的に同一位置にある画素について
平均をとることにより、そこに含まれるノイズを除去す
る方法が知られているが、この場合、画素単位での動き
を判定し、動きのない画素のみを平均をとる対象とする
必要がある。従って、動き判定を誤ると、即ち、動きの
ある画素を、動きのないものと誤ると、動きのある画素
が、平均をとる対象に含められ、その平均値が、そのま
まノイズ除去結果とされるから、動き判定の誤りが、ノ
イズ除去結果に大きく影響し、最悪の場合には、処理が
破綻することになる(却って、画像を破壊することにな
る)。Further, conventionally, for a moving image,
A method is known in which pixels included in spatially identical positions arranged in the time direction are averaged to remove noise contained therein, but in this case, the motion of each pixel is determined and the motion of the pixel is determined. It is necessary to average only the missing pixels. Therefore, if the motion determination is incorrect, that is, if a moving pixel is mistaken for a non-moving pixel, the moving pixel is included in the target to be averaged, and the average value is directly used as the noise removal result. Therefore, an error in the motion determination greatly affects the noise removal result, and in the worst case, the processing is broken (instead, the image is destroyed).
【0091】これに対して、図1のノイズ除去装置で
は、ノイズ量推定回路7において、ある入力画素が静止
しているかどうかについては、その入力画素について検
出された動きベクトルに基づいて判定され、静止してい
ると判定された、同一位置の5画素の分散の平均をとる
ことによって、推定ノイズ量が求められる。従って、仮
に、空間的に同一位置にある時間方向の5画素のうちの
いずれかが動きを有する場合に、その入力画素が動きを
有していないと判定され、分散積算メモリ20におい
て、その5画素の分散が積算されたとしても、そのこと
が、推定ノイズ量に与える影響は少ない。そして、その
ような推定ノイズ量に基づいて、注目画素のクラス分類
が行われた後に、その注目画素について適応処理を行う
ことにより、注目画素からのノイズ除去結果が求められ
るから、動き判定の誤りが、ノイズ除去結果に与える影
響は僅かである(上述の従来の方法と比較すれば、ほと
んどないといって良い)。On the other hand, in the noise elimination device of FIG. 1, the noise amount estimating circuit 7 determines whether or not a certain input pixel is stationary based on a motion vector detected for the input pixel. By taking the average of the variances of the five pixels at the same position determined to be stationary, the estimated noise amount is obtained. Therefore, if any one of the five pixels in the temporal direction at the same spatial position has a motion, it is determined that the input pixel has no motion, and the 5 Even if the variances of the pixels are integrated, the influence on the estimated noise amount is small. Then, after the target pixel is classified based on the estimated noise amount, adaptive processing is performed on the target pixel to obtain a noise removal result from the target pixel. However, the influence on the noise removal result is small (it can be said that there is almost no effect compared with the above-mentioned conventional method).
【0092】なお、上述の場合においては、注目フレー
ムから、4フレーム前までの間静止し続けている同一位
置の5つ画素から分散を求めるようにしたが、分散を求
める対象とする画素は、注目フレームから4フレーム前
までに亘る5画素に限定されるものではない。In the above-described case, the variance is calculated from the five pixels at the same position, which are still from the frame of interest up to four frames before, but the pixels for which the variance is to be calculated are: The present invention is not limited to five pixels from the frame of interest to four frames before.
【0093】また、図4に示したノイズ量推定回路7で
は、各フレームごとに、一定量のノイズが含まれるもの
として、各フレームを構成する入力画素について、同一
の推定ノイズ量を求めるようにしたが、可能であれば、
各入力画素ごとに、推定ノイズ量を求めるようにしても
良い。Further, the noise amount estimating circuit 7 shown in FIG. 4 determines the same estimated noise amount for input pixels constituting each frame, assuming that each frame contains a fixed amount of noise. But if possible,
The estimated noise amount may be obtained for each input pixel.
【0094】次に、図5は、図1のクラス分類回路4の
構成例を示している。Next, FIG. 5 shows a configuration example of the class classification circuit 4 of FIG.
【0095】クラスタップ生成回路2が出力する、注目
画素についてのクラスタップは、分散計算部31乃至3
6に供給されるようになっており、また、ノイズ量推定
回路7が出力する、注目画素についての推定ノイズ量
は、閾値処理部37乃至42に供給されるようになって
いる。The class tap for the pixel of interest output from the class tap generation circuit 2 is calculated by the variance calculation units 31 to 3
The estimated noise amount for the pixel of interest, which is output from the noise amount estimating circuit 7, is supplied to threshold processing units 37 to 42.
【0096】分散計算部31乃至36それぞれは、注目
画素についてのクラスタップを構成する入力画素のう
ち、所定の方向に位置するもののみを受信し、分散を計
算する。Each of the variance calculation units 31 to 36 receives only the input pixels constituting the class tap of the target pixel located in a predetermined direction and calculates the variance.
【0097】即ち、図2に示したクラスタップにおい
て、注目画素(A)と、注目画素のフレームより時間的
に先行する4フレームそれぞれの、注目画素と空間的に
同一位置にある4画素(B)との、注目画素を始点とし
て時間的に先行する方向(−t方向)にある5画素を、
−t方向のタップと、注目画素(A)と、注目画素のフ
レームより時間的に後行する4フレームそれぞれの、注
目画素と空間的に同一位置にある4画素(C)との、注
目画素を始点として時間的に後行する方向(+t方向)
にある5画素を、+t方向のタップと、注目画素(A)
と、注目画素のフレームと同一フレームの、注目画素の
左にある4画素(D)との、注目画素を始点として左方
向(−h方向)にある5画素を、−h方向のタップと、
注目画素(A)と、注目画素のフレームと同一フレーム
の、注目画素の右にある4画素(E)との、注目画素を
始点として右方向(+h方向)のある5画素を、+h方
向のタップと、注目画素(A)と、注目画素のフレーム
と同一フレームの、注目画素の上にある4画素(F)と
の、注目画素を始点として上方向(+v方向)にある5
画素を、+v方向のタップと、注目画素(A)と、注目
画素のフレームと同一フレームの、注目画素の下にある
4画素(G)との、注目画素を始点として下方向(−v
方向)にある5画素を、−v方向のタップとそれぞれい
うものとすると、分散計算部31乃至36では、それぞ
れ、+t方向のタップ、−t方向のタップ、+h方向の
タップ、−h方向のタップ、+v方向のタップ、−v方
向のタップが受信され、それぞれについて分散が計算さ
れる。この+t方向のタップ、−t方向のタップ、+h
方向のタップ、−h方向のタップ、+v方向のタップ、
−v方向のタップについての分散は、閾値処理部37乃
至42に、それぞれ供給される。That is, in the class tap shown in FIG. 2, the target pixel (A) and four pixels (B) at the same spatial position as the target pixel in each of the four frames temporally preceding the frame of the target pixel. ), The five pixels that are temporally preceding (−t direction) with the target pixel as the starting point,
The target pixel of the tap in the −t direction, the target pixel (A), and the four pixels (C) at the same spatial position as the target pixel in each of the four frames temporally subsequent to the frame of the target pixel In the direction that follows in time starting from (+ t direction)
, A tap in the + t direction and a target pixel (A)
Tapping in the left direction (−h direction) with the target pixel as the starting point, and tapping in the −h direction, 4 pixels (D) to the left of the target pixel in the same frame as the frame of the target pixel;
Of the pixel of interest (A) and the four pixels (E) on the right of the pixel of interest in the same frame as the frame of the pixel of interest, five pixels in the right direction (+ h direction) starting from the pixel of interest are 5 of the tap, the target pixel (A), and the four pixels (F) above the target pixel in the same frame as the target pixel frame.
The pixels are set in a downward direction (−v) with the target pixel as a starting point, which is a tap in the + v direction, the target pixel (A), and four pixels (G) below the target pixel in the same frame as the target pixel frame.
Assuming that the five pixels in the (direction) are referred to as taps in the −v direction, the variance calculators 31 to 36 respectively indicate taps in the + t direction, taps in the −t direction, taps in the + h direction, and taps in the −h direction. Taps, taps in the + v direction, and taps in the -v direction are received, and the variance is calculated for each. This + t direction tap, -t direction tap, + h
Direction tap, -h direction tap, + v direction tap,
The variance of taps in the −v direction is supplied to the threshold processing units 37 to 42, respectively.
【0098】閾値処理部37では、+t方向のタップに
ついての分散と、注目画素についての推定ノイズ量との
大小関係が判定され、その判定結果に対応する1ビット
のコードが、シフタ48に出力される。即ち、+t方向
のタップについての分散が、注目画素についての推定ノ
イズ量より十分大きく、従って、注目画素を始点とす
る、時間的に先行する方向(−t方向)における入力画
素(の画素値)の定常性が小さい場合、閾値処理部37
は、その旨を表すコードとして、0または1のうちの、
例えば1を出力する。The threshold processing unit 37 determines the magnitude relationship between the variance of the tap in the + t direction and the estimated noise amount for the pixel of interest, and outputs a 1-bit code corresponding to the determination result to the shifter 48. You. That is, the variance of the tap in the + t direction is sufficiently larger than the estimated noise amount of the target pixel, and therefore, (the pixel value of) the input pixel in the temporally preceding direction (−t direction) starting from the target pixel. Is small, the threshold processing unit 37
Is a code representing that effect, of 0 or 1,
For example, 1 is output.
【0099】また、+t方向のタップについての分散
が、注目画素についての推定ノイズ量より十分大きくな
く、従って、注目画素を始点とする、時間的に先行する
方向(−t方向)における入力画素の定常性が大きい場
合、閾値処理部37は、その旨を表すコードとして、0
または1のうちの、例えば0を出力する。Further, the variance of the tap in the + t direction is not sufficiently larger than the estimated noise amount of the target pixel, and therefore, the input pixel in the temporally preceding direction (−t direction) starting from the target pixel. If the continuity is large, the threshold processing unit 37 sets the code
Alternatively, for example, 0 of 1 is output.
【0100】閾値処理部38乃至42においても、閾値
処理部37における場合と同様に、−t方向のタップ、
+h方向のタップ、−h方向のタップ、+v方向のタッ
プ、−v方向のタップについての分散それぞれと、注目
画素についての推定ノイズ量との大小関係が判定され、
その判定結果に対応する1ビットのコードが、演算器4
3乃至47にそれぞれ出力される。In the threshold processing sections 38 to 42, as in the case of the threshold processing section 37, taps in the -t direction,
A magnitude relationship between each of the variances of the taps in the + h direction, the taps in the −h direction, the taps in the + v direction, and the taps in the −v direction and the estimated noise amount for the target pixel is determined.
The one-bit code corresponding to the result of the determination is
3 to 47 are output.
【0101】シフタ48では、閾値処理部37からの1
ビットのコードが、1ビットだけ右シフト(LSB(Least
Significant Bit)からMSB(Most Significant Bit)の方
向へのシフト)され、演算器43に出力される。演算器
43では、シフタ48の出力に、閾値処理部43が出力
する1ビットのコードが加算され、シフタ49に供給さ
れる。シフタ49では、演算器43の出力が、1ビット
だけ右シフトされて出力される。In the shifter 48, the 1 from the threshold processing section 37
Bit code is shifted right by one bit (LSB (Least
Shift from the Significant Bit) to the MSB (Most Significant Bit) direction and output to the arithmetic unit 43. In the arithmetic unit 43, the 1-bit code output from the threshold processing unit 43 is added to the output of the shifter 48, and the result is supplied to the shifter 49. In the shifter 49, the output of the arithmetic unit 43 is shifted right by one bit and output.
【0102】演算器44乃至47には、閾値処理部39
乃至42の出力それぞれと、シフタ49乃至52の出力
それぞれとが供給されるようになっており、また、シフ
タ50乃至52には、演算器44乃至46の出力がそれ
ぞれ供給されるようになっている。そして、演算器44
乃至47では、演算器43における場合と同様の加算が
行われるとともに、シフタ50乃至52では、シフタ4
8や49における場合と同様の1ビット右シフトが行わ
れ、これにより、演算器47からは、+t方向、−t方
向、+h方向、−h方向、+v方向、−v方向それぞれ
の定常性を表すコードが、MSBから順次配置された6ビ
ットのコードが出力される。この6ビットのコードは、
注目画素のクラスコード(クラス分類結果)として、図
1の係数RAM5に供給される。The arithmetic units 44 to 47 include a threshold processing unit 39
42 to 42 and the outputs of shifters 49 to 52 are supplied, and the outputs of arithmetic units 44 to 46 are supplied to shifters 50 to 52, respectively. I have. And the arithmetic unit 44
In steps 47 to 47, the same addition as in the arithmetic unit 43 is performed, and in the shifters 50 to 52, the shifter 4
The 1-bit right shift similar to that in the cases of 8 and 49 is performed, whereby the arithmetic unit 47 outputs the continuity in each of the + t direction, the −t direction, the + h direction, the −h direction, the + v direction, and the −v direction. A 6-bit code in which the code to be displayed is sequentially arranged from the MSB is output. This 6-bit code is
It is supplied to the coefficient RAM 5 in FIG. 1 as the class code (classification result) of the pixel of interest.
【0103】以上のようにして、クラス分類回路4で
は、クラスタップの各方向の定常性に基づいて、注目画
素がクラス分類され、そのクラス分類結果としてのクラ
スコードが出力される。従って、このクラスコードによ
れば、注目画素は、その定常性によって分類される。As described above, the class classification circuit 4 classifies the pixel of interest based on the stationarity of the class tap in each direction, and outputs a class code as a result of the classification. Therefore, according to this class code, the target pixel is classified according to its stationarity.
【0104】次に、図6は、図1の係数RAM5に記憶さ
せるクラスごとの予測係数を求める学習装置の一実施の
形態の構成例を示している。FIG. 6 shows an example of the configuration of an embodiment of a learning apparatus for obtaining a prediction coefficient for each class stored in the coefficient RAM 5 of FIG.
【0105】フレームメモリ61には、教師データyと
なる原画像が、例えば、フレーム単位で供給されるよう
になっており、フレームメモリ61は、その原画像を、
一時記憶するようになっている。ノイズ付加回路62
は、フレームメモリ61に記憶された、予測係数の学習
において教師データyとなる原画像を読み出し、その原
画像を構成する原画素に対して、ノイズを重畳すること
で、生徒データとしての、ノイズを含んだ画像(以下、
適宜、ノイズ画像という)を生成するようになってい
る。このノイズ画像は、フレームメモリ63に供給され
るようになっている。An original image serving as teacher data y is supplied to the frame memory 61 in, for example, a frame unit.
It is designed to be stored temporarily. Noise addition circuit 62
Reads the original image stored as the teacher data y in the prediction coefficient learning stored in the frame memory 61, and superimposes the noise on the original pixels constituting the original image, so that the noise as the student data is obtained. (Including the following)
A noise image). This noise image is supplied to the frame memory 63.
【0106】フレームメモリ63は、ノイズ付加回路6
2からのノイズ画像を一時記憶するようになっている。The frame memory 63 includes a noise adding circuit 6
2 is temporarily stored.
【0107】なお、フレームメモリ61および63は、
図1のフレームメモリ1と同様に構成されている。Note that the frame memories 61 and 63
It has the same configuration as the frame memory 1 in FIG.
【0108】クラスタップ生成回路64または予測タッ
プ生成回路65は、フレームメモリ63に記憶されたノ
イズ画像を構成する画素(以下、適宜、ノイズ画素とい
う)を用い、図1のクラスタップ生成回路2または予測
タップ生成回路3と同様にして、注目画素について、ク
ラスタップまたは予測タップを構成し、クラス分類回路
66または加算回路67にそれぞれ供給するようになっ
ている。The class tap generation circuit 64 or the prediction tap generation circuit 65 uses the pixels constituting the noise image stored in the frame memory 63 (hereinafter, appropriately referred to as noise pixels) and uses the class tap generation circuit 2 or the In the same manner as the prediction tap generation circuit 3, a class tap or a prediction tap is formed for the pixel of interest, and supplied to the class classification circuit 66 or the addition circuit 67, respectively.
【0109】クラス分類回路66は、図5に示したクラ
ス分類回路4と同様に構成され、ノイズ量推定回路72
からの推定ノイズ量を用いて、クラスタップ生成回路6
4からのクラスタップの定常性に基づいて、注目画素を
クラス分類し、対応するクラスコードを、予測タップメ
モリ68および教師データメモリ70に対して、アドレ
スとして与えるようになっている。The classifying circuit 66 has the same configuration as the classifying circuit 4 shown in FIG.
Class tap generation circuit 6 using the estimated noise amount from
Based on the continuity of the class tap from No. 4, the target pixel is classified into classes, and the corresponding class codes are given to the prediction tap memory 68 and the teacher data memory 70 as addresses.
【0110】加算回路67は、クラス分類回路66が出
力するクラスコードに対応するアドレスの記憶値を、予
測タップメモリ68から読み出し、その記憶値と、予測
タップ生成回路65からの予測タップを構成するノイズ
画素とを加算することで、式(7)の正規方程式の左辺
における、予測係数wの乗数となっているサメーション
(Σ)に相当する演算を行う。そして、加算回路67
は、その演算結果を、クラス分類回路66が出力するク
ラスコードに対応するアドレスに、上書きする形で記憶
させるようになっている。The addition circuit 67 reads the storage value of the address corresponding to the class code output from the class classification circuit 66 from the prediction tap memory 68, and forms the storage value and the prediction tap from the prediction tap generation circuit 65. By adding the noise pixel, an operation corresponding to a summation (Σ) which is a multiplier of the prediction coefficient w on the left side of the normal equation of Expression (7) is performed. Then, the addition circuit 67
Is configured to store the calculation result in an address overwriting the address corresponding to the class code output from the class classification circuit 66.
【0111】予測タップメモリ68は、クラス分類回路
66が出力するクラスに対応するアドレスの記憶値を読
み出し、加算回路67に供給するとともに、そのアドレ
スに、加算回路67の出力値を記憶するようになってい
る。The prediction tap memory 68 reads out the stored value of the address corresponding to the class output from the classifying circuit 66 and supplies it to the adding circuit 67, and stores the output value of the adding circuit 67 at that address. Has become.
【0112】加算回路69は、フレームメモリ61に記
憶された原画像を構成する原画素のうちの、注目画素x
に対するものを、教師データyとして読み出すととも
に、クラス分類回路66が出力するクラスコードに対応
するアドレスの記憶値を、教師データメモリ70から読
み出し、その記憶値と、フレームメモリ61から読み出
した教師データ(原画素)yとを加算することで、式
(7)の正規方程式の右辺におけるサメーション(Σ)
に相当する演算を行う。そして、加算回路69は、その
演算結果を、クラス分類回路66が出力するクラスコー
ドに対応するアドレスに、上書きする形で記憶させるよ
うになっている。The adder circuit 69 outputs the target pixel x of the original pixels constituting the original image stored in the frame memory 61.
Is read out as teacher data y, the stored value of the address corresponding to the class code output from the classifying circuit 66 is read out from the teacher data memory 70, and the stored value and the teacher data (read out from the frame memory 61) are read. By adding the original pixel) y, the summation (Σ) on the right side of the normal equation of Expression (7) is obtained.
An operation corresponding to is performed. Then, the adding circuit 69 stores the result of the calculation in an overwritten form at the address corresponding to the class code output from the class classification circuit 66.
【0113】なお、正確には、加算回路67および69
では、式(7)における乗算も行われる。また、式
(7)の右辺には、教師データyと、ノイズ画素xとの
乗算が含まれ、従って、加算回路69で行われる乗算に
は、教師データyの他に、その教師データyに対するノ
イズ画素xが必要となるが、これは、加算回路69にお
いて、フレームメモリ63から読み出される。Note that, to be precise, the adders 67 and 69
Then, the multiplication in Expression (7) is also performed. The right side of the equation (7) includes multiplication of the teacher data y and the noise pixel x. Therefore, the multiplication performed by the addition circuit 69 includes not only the teacher data y but also the teacher data y. The noise pixel x is required, and is read from the frame memory 63 in the addition circuit 69.
【0114】教師データメモリ70は、クラス分類回路
66が出力するクラスコードに対応するアドレスの記憶
値を読み出し、加算回路69に供給するとともに、その
アドレスに、加算回路69の出力値を記憶するようにな
っている。The teacher data memory 70 reads the storage value of the address corresponding to the class code output from the class classification circuit 66, supplies the read value to the addition circuit 69, and stores the output value of the addition circuit 69 at that address. It has become.
【0115】演算回路71は、予測タップメモリ68ま
たは教師データメモリ70それぞれから、各クラスコー
ドに対応するアドレスに記憶されている記憶値を順次読
み出し、各クラスコードごとに、式(7)に示した正規
方程式をたてて、これを解くことにより、クラスごとの
予測係数を求めるようになっている。即ち、演算回路7
1は、予測タップメモリ68または教師データメモリ7
0それぞれの、各クラスコードに対応するアドレスに記
憶されている記憶値から、式(7)の正規方程式をた
て、これを解くことにより、クラスごとの予測係数を求
めるようになっている。The arithmetic circuit 71 sequentially reads out the storage values stored at the addresses corresponding to the respective class codes from the prediction tap memory 68 or the teacher data memory 70, and expresses each of the class codes by the equation (7). By setting up the normal equation and solving it, a prediction coefficient for each class is obtained. That is, the arithmetic circuit 7
1 is a prediction tap memory 68 or a teacher data memory 7
From the stored value stored in the address corresponding to each class code of 0, a normal equation of equation (7) is set and solved to obtain a prediction coefficient for each class.
【0116】ノイズ量推定回路72は、図4に示したノ
イズ量推定回路7と同様に構成され、フレームメモリ6
1に記憶されたノイズ画像の各ノイズ画素に含まれるノ
イズ量を推定し、その結果得られる推定ノイズ量を、ク
ラスタップ生成回路64に供給するようになっている。The noise amount estimating circuit 72 is configured similarly to the noise amount estimating circuit 7 shown in FIG.
The amount of noise included in each noise pixel of the noise image stored in 1 is estimated, and the estimated amount of noise obtained as a result is supplied to the class tap generation circuit 64.
【0117】次に、図7のフローチャートを参照して、
図6の学習装置において行われる、クラスごとの予測係
数を求める学習処理について説明する。Next, referring to the flowchart of FIG.
A learning process for obtaining a prediction coefficient for each class, which is performed in the learning device of FIG. 6, will be described.
【0118】学習装置には、教師データとしての原画像
(動画像)が、フレーム単位で供給されるようになって
おり、その原画像は、フレームメモリ61において順次
記憶されていく。An original image (moving image) as teacher data is supplied to the learning device in units of frames, and the original images are sequentially stored in the frame memory 61.
【0119】そして、ステップS11において、ノイズ
付加回路62は、フレームメモリ61に記憶された原画
像を読み出し、ノイズを付加することで、ノイズ画像を
生成する。このノイズ画像は、フレームメモリ63に供
給されて記憶される。In step S11, the noise adding circuit 62 reads the original image stored in the frame memory 61 and adds noise to generate a noise image. This noise image is supplied to and stored in the frame memory 63.
【0120】その後、ノイズ量推定回路72は、ステッ
プS12において、フレームメモリ63に記憶された所
定のフレームのノイズ画像を、注目フレームとし、その
注目フレームのノイズ量を、図4で説明したノイズ量推
定回路7における場合と同様にして推定する。そして、
その結果得られる推定ノイズ量は、クラスタップ生成回
路64に供給される。Thereafter, in step S12, the noise amount estimating circuit 72 sets the noise image of the predetermined frame stored in the frame memory 63 as the target frame, and calculates the noise amount of the target frame as the noise amount described in FIG. The estimation is performed in the same manner as in the estimation circuit 7. And
The estimated noise amount obtained as a result is supplied to the class tap generation circuit 64.
【0121】ここで、注目フレームに含まれるノイズ
は、ノイズ付加回路62で付加されたものであるから、
学習装置では、正確な値を得ることができ、そのような
正確な値を、クラスタップ生成回路64に供給するよう
にすることもできるが、図1のノイズ除去装置では、ノ
イズ量推定回路7においてノイズ量が推定されるため、
そのような正確な値を得ることができるとは限らない。
そこで、学習装置では、ノイズ除去装置が使用される環
境にできるだけ一致した環境において、予測係数を求め
るために、注目フレームに含まれるノイズを、ノイズ量
推定回路7と同様に構成されるノイズ量推定回路72に
おいて推定するようにしている。Here, since the noise included in the frame of interest is added by the noise adding circuit 62,
In the learning device, an accurate value can be obtained, and such an accurate value can be supplied to the class tap generating circuit 64. However, in the noise removing device in FIG. Since the noise amount is estimated at,
Such an accurate value cannot always be obtained.
Therefore, in the learning device, in an environment that matches the environment in which the noise removing device is used as much as possible, in order to obtain a prediction coefficient, the noise included in the frame of interest is subjected to noise amount estimation configured similarly to the noise amount estimation circuit 7. The estimation is performed in the circuit 72.
【0122】ステップS12において、注目フレームの
各ノイズ画素のノイズ量が推定されると、ステップS1
3において、クラスタップ生成回路64または予測タッ
プ生成回路65は、注目フレームの、あるノイズ画素
を、注目画素として、その周辺にあるノイズ画素を、フ
レームメモリ63から読み出し、図2に示したクラスタ
ップまたは予測タップをそれぞれ構成する。このクラス
タップまたは予測タップは、クラス分類回路66または
加算回路67にそれぞれ供給される。In step S12, when the noise amount of each noise pixel of the frame of interest is estimated, step S1
In 3, the class tap generation circuit 64 or the prediction tap generation circuit 65 reads a certain noise pixel of the frame of interest as a pixel of interest, reads noise pixels around the noise pixel from the frame memory 63, and reads the class tap shown in FIG. Alternatively, each prediction tap is configured. The class tap or the prediction tap is supplied to the classifying circuit 66 or the adding circuit 67, respectively.
【0123】クラス分類回路66は、ステップS14に
おいて、図5で説明したクラス分類回路4における場合
と同様に、ノイズ量推定回路72からの推定ノイズ量を
用い、クラスタップ生成回路64からのクラスタップの
定常性に基づいて、注目画素がクラス分類され、そのク
ラス分類結果としてのクラスコードを、予測タップメモ
リ68および教師データメモリ70に対して、アドレス
として与える。In step S14, the class classification circuit 66 uses the estimated noise amount from the noise amount estimation circuit 72 as in the case of the class classification circuit 4 described with reference to FIG. Are classified into classes based on the continuity of, and a class code as a result of the classification is given to the prediction tap memory 68 and the teacher data memory 70 as an address.
【0124】そして、ステップS15に進み、予測タッ
プまたは教師データそれぞれの足し込みが行われる。Then, the process proceeds to a step S15, where prediction taps or teacher data are added.
【0125】即ち、ステップS15において、予測タッ
プメモリ68は、クラス分類回路66が出力するクラス
コードに対応するアドレスの記憶値を読み出し、加算回
路67に供給する。加算回路67は、予測タップメモリ
68から供給される記憶値と、予測タップ生成回路65
から供給されるの予測タップを構成するノイズ画素とを
用いて、式(7)の正規方程式の左辺における、予測係
数の乗数となっているサメーション(Σ)に相当する演
算を行う。そして、加算回路67は、その演算結果を、
クラス分類回路66が出力するクラスコードに対応す
る、予測タップメモリ68のアドレスに、上書きする形
で記憶させる。That is, in step S 15, the prediction tap memory 68 reads the stored value of the address corresponding to the class code output from the class classification circuit 66 and supplies the read value to the addition circuit 67. The addition circuit 67 includes a storage value supplied from the prediction tap memory 68 and a prediction tap generation circuit 65.
Using the noise pixels that constitute the prediction taps supplied from, a calculation corresponding to a summation (Σ) that is a multiplier of a prediction coefficient on the left side of the normal equation of Expression (7) is performed. Then, the adding circuit 67 calculates the calculation result as
The data is overwritten and stored in the address of the prediction tap memory 68 corresponding to the class code output from the class classification circuit 66.
【0126】さらに、ステップS15では、教師データ
メモリ70は、クラス分類回路66が出力するクラスコ
ードに対応するアドレスの記憶値を読み出し、加算回路
69に供給する。加算回路69は、フレームメモリ61
に記憶された原画像を構成する原画素のうちの、注目画
素に対応する原画素を、教師データとして読み出すとと
もに、フレームメモリ63に記憶されたノイズ画像を構
成するノイズ画素のうちの、教師データに対応するもの
を読み出し、その読み出した画素と、教師データメモリ
70から供給された記憶値とを用いて、式(7)の正規
方程式の右辺におけるサメーション(Σ)に相当する演
算を行う。そして、加算回路69は、その演算結果を、
クラス分類回路66が出力するクラスコードに対応す
る、教師データメモリ70のアドレスに、上書きする形
で記憶させる。Further, at step S 15, the teacher data memory 70 reads out the stored value of the address corresponding to the class code output from the classifying circuit 66 and supplies it to the adding circuit 69. The addition circuit 69 includes a frame memory 61
Among the original pixels constituting the original image stored in the frame memory 63, the original pixel corresponding to the pixel of interest is read out as teacher data, and the teacher data among the noise pixels constituting the noise image stored in the frame memory 63 is read out. Then, using the read pixel and the stored value supplied from the teacher data memory 70, an operation corresponding to the summation (Σ) on the right side of the normal equation of Expression (7) is performed. Then, the adding circuit 69 calculates the calculation result as
The data is overwritten and stored in the address of the teacher data memory 70 corresponding to the class code output from the class classification circuit 66.
【0127】その後、ステップS16に進み、フレーム
メモリ63に記憶された注目フレームを構成するノイズ
画素すべてを、注目画素として処理を行ったか否かが判
定され、まだ行っていないと判定された場合、ステップ
S13に戻り、まだ注目画素としていないノイズ画素
を、新たに注目画素として、以下、同様の処理が繰り返
される。Thereafter, the flow advances to step S16 to determine whether or not all the noise pixels constituting the frame of interest stored in the frame memory 63 have been processed as the pixel of interest. Returning to step S13, the same process is repeated hereafter with a noise pixel that has not been set as the target pixel as a new target pixel.
【0128】一方、ステップS16において、注目フレ
ームを構成するノイズ画素すべてを、注目画素として処
理を行ったと判定された場合、ステップS17に進み、
次に処理すべき原画像が、フレームメモリ61に記憶さ
れているかどうかが判定される。ステップS17におい
て、次に処理すべき原画像が、フレームメモリ61に記
憶されていると判定された場合、ステップS11に戻
り、その、次に処理すべき原画像を対象に、ステップS
11以下の処理が繰り返される。On the other hand, if it is determined in step S16 that all the noise pixels forming the frame of interest have been processed as the pixel of interest, the process proceeds to step S17.
It is determined whether or not the original image to be processed next is stored in the frame memory 61. If it is determined in step S17 that the original image to be processed next is stored in the frame memory 61, the process returns to step S11, and the process returns to step S11 for the next original image to be processed.
The processing of 11 and below is repeated.
【0129】また、ステップS17において、次に処理
すべき原画像が、フレームメモリ61に記憶されていな
いと判定された場合、即ち、あらかじめ学習用に用意し
ておいたすべての原画像について処理を行った場合、ス
テップS18に進み、演算回路71は、予測タップメモ
リ68または教師データメモリ70それぞれから、各ク
ラスコードに対応するアドレスに記憶されている記憶値
を順次読み出し、式(7)に示した正規方程式をたて
て、これを解くことにより、クラスごとの予測係数を求
める。さらに、演算回路71は、ステップS19におい
て、その求めたクラスごとの予測係数を出力して、処理
を終了する。In step S17, when it is determined that the original image to be processed next is not stored in the frame memory 61, that is, the processing is performed on all the original images prepared for learning in advance. If so, the process proceeds to step S18, where the arithmetic circuit 71 sequentially reads out the storage values stored at the addresses corresponding to the respective class codes from the prediction tap memory 68 or the teacher data memory 70, respectively, and expresses the values in the equation (7). The prediction coefficients for each class are obtained by setting up the normal equations and solving them. Further, in step S19, the arithmetic circuit 71 outputs the obtained prediction coefficient for each class, and ends the processing.
【0130】なお、以上のような予測係数の学習処理に
おいて、予測係数を求めるのに必要な数の正規方程式が
得られないクラスが生じる場合があり得るが、そのよう
なクラスについては、例えば、デフォルトの予測係数を
出力するようにすること等が可能である。In the above-described prediction coefficient learning process, there may be a case where a class in which the number of normal equations necessary for obtaining the prediction coefficient cannot be obtained may occur. For example, it is possible to output a default prediction coefficient.
【0131】以上のように、注目画素が、それについて
のクラスタップの分散に基づいてクラス分類され、クラ
スごとの予測係数が求められるため、注目画素周辺の定
常性ごとに、その定常性を有する画素のノイズを除去す
るのに適した予測係数が得られ、その結果、そのような
予測係数を用いて、クラス分類適応処理を行うことによ
り、特に、動画像等について、効果的にノイズを除去す
ることが可能となる。As described above, the target pixel is classified into classes based on the variance of the class taps for the target pixel, and the prediction coefficient for each class is obtained. A prediction coefficient suitable for removing noise of a pixel is obtained, and as a result, by performing a classification adaptive process using such a prediction coefficient, particularly for a moving image, the noise is effectively removed. It is possible to do.
【0132】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
専用のハードウェアとしてのノイズ除去装置や学習装置
に組み込まれているコンピュータ、または各種のプログ
ラムをインストールすることで各種の処理を行う汎用の
コンピュータ等にインストールされる。Next, the above-described series of processing can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is
It is installed in a computer incorporated in a noise elimination device or a learning device as dedicated hardware, or a general-purpose computer that performs various processes by installing various programs.
【0133】そこで、図8を参照して、上述した一連の
処理を実行するプログラムをコンピュータにインストー
ルし、コンピュータによって実行可能な状態とするため
に用いられる媒体について説明する。With reference to FIG. 8, a description will now be given of a medium used to install a program for executing the above-described series of processing in a computer and to make the computer executable.
【0134】プログラムは、図8(A)に示すように、
コンピュータ101に内蔵されている記録媒体としての
ハードディスク102に予めインストールした状態でユ
ーザに提供することができる。As shown in FIG. 8A, the program
It can be provided to a user in a state where it is installed in advance on a hard disk 102 as a recording medium built in the computer 101.
【0135】あるいはまた、プログラムは、図8(B)
に示すように、フロッピーディスク111、CD-ROM(Com
pact Disc Read Only Memory)112,MO(Magneto opti
cal)ディスク113,DVD(Digital Versatile Disc)1
14、磁気ディスク115、半導体メモリ116などの
記録媒体に、一時的あるいは永続的に格納し、パッケー
ジソフトウエアとして提供することができる。Alternatively, the program may be implemented as shown in FIG.
As shown in the figure, the floppy disk 111, CD-ROM (Com
pact Disc Read Only Memory) 112, MO (Magneto opti)
cal) Disc 113, DVD (Digital Versatile Disc) 1
14, temporarily or permanently stored in a recording medium such as a magnetic disk 115 or a semiconductor memory 116, and can be provided as package software.
【0136】さらに、プログラムは、図8(C)に示す
ように、ダウンロードサイト121から、ディジタル衛
星放送用の人工衛星122を介して、コンピュータ12
3に無線で転送したり、LAN(Local Area Network)、イ
ンターネットといったネットワーク111を介して、コ
ンピュータ123に有線で転送し、コンピュータ123
において、内蔵するハードディスクなどに格納させるよ
うにすることができる。Further, as shown in FIG. 8C, the program is transmitted from a download site 121 to a computer 12 via an artificial satellite 122 for digital satellite broadcasting.
3 or wirelessly to a computer 123 via a network 111 such as a LAN (Local Area Network) or the Internet.
In this case, the data can be stored in a built-in hard disk or the like.
【0137】本明細書における媒体とは、これら全ての
媒体を含む広義の概念を意味するものである。The medium in the present specification means a broad concept including all these media.
【0138】また、本明細書において、媒体により提供
されるプログラムを記述するステップは、必ずしもフロ
ーチャートとして記載された順序に沿って時系列に処理
する必要はなく、並列的あるいは個別に実行される処理
(例えば、並列処理あるいはオブジェクトによる処理)
も含むものである。[0138] In this specification, steps for describing a program provided by a medium need not necessarily be processed in chronological order according to the order described in the flowchart, but may be performed in parallel or individually. (For example, parallel processing or object processing)
Is also included.
【0139】なお、クラス分類適用処理は、教師データ
と生徒データとを用いて、クラスごとに予測係数を求め
る学習を行い、その予測係数と入力データとを用いた線
形一次予測により、入力データから、その入力データに
対する教師データの予測値を求めるものであるから、学
習に用いる教師データおよび生徒データによって、所望
の予測値を求めるための予測係数を得ることが可能とな
る。即ち、例えば、教師データとして、高解像度の画像
を用いるとともに、生徒データとして、その画像の解像
度を落とした画像を用いることで、解像度を向上させる
予測係数を得ることができる。また、例えば、教師デー
タとして、エッジが強調された画像を用いるとともに、
生徒データとして、そのエッジをぼやかした画像を用い
ることで、エッジを強調させる予測係数を得ることがで
きる。従って、本発明は、上述したように、入力画像か
らノイズを除去する場合の他、入力画像の解像度を向上
させる場合や、エッジを強調させる場合、波形等化を行
う場合その他に適用可能である。In the class classification application process, learning is performed to obtain a prediction coefficient for each class using teacher data and student data, and linear primary prediction using the prediction coefficient and the input data is performed to obtain a prediction coefficient from the input data. Since a prediction value of teacher data for the input data is obtained, a prediction coefficient for obtaining a desired prediction value can be obtained by teacher data and student data used for learning. That is, for example, a prediction coefficient for improving the resolution can be obtained by using a high-resolution image as teacher data and using an image with a reduced resolution of the image as student data. Further, for example, while using an image in which edges are emphasized as teacher data,
By using an image in which the edge is blurred as the student data, a prediction coefficient that emphasizes the edge can be obtained. Therefore, as described above, the present invention is applicable not only to the case where noise is removed from an input image, but also to the case where the resolution of the input image is improved, the case where edges are emphasized, the case where waveform equalization is performed, and the like. .
【0140】また、本実施の形態では、動画像を、クラ
ス分類適用処理の対象としたが、動画像の他、静止画
や、さらには、音声、記録媒体から再生された信号(RF
(RadioFrequency)信号)等を対象とすることも可能であ
る。In the present embodiment, a moving image is subjected to the class classification application processing. However, in addition to a moving image, a still image, a sound, and a signal reproduced from a recording medium (RF)
(RadioFrequency) signal) and the like.
【0141】さらに、本実施の形態では、クラスタップ
の各方向についての分散を、推定ノイズ量と比較し、そ
の比較結果に基づいて、注目画素をクラス分類するよう
にしたが、注目画素のクラス分類は、クラスタップの各
方向についての分散を、それらの平均値と比較し、その
比較結果に基づいて行ったり、あるいは、クラスタップ
の各方向についての分散を、ADRC(Adaptive Dynamic Ra
nge Coding)処理し、そのADRC結果に基づいて行うよう
にすることも可能である。ここで、ADRC処理において
は、例えば、データの、ある集合について、その集合を
構成するデータの最大値MAXと最小値MINが検出され、DR
=MAX-MINを、集合の局所的なダイナミックレンジとし、
このダイナミックレンジDRに基づいて、集合を構成する
データがKビットに再量子化される。即ち、集合内の各
データから、最小値MINが減算され、その減算値がDR/2K
で除算(量子化)される。Furthermore, in the present embodiment, the variance of the class tap in each direction is compared with the estimated noise amount, and the target pixel is classified based on the comparison result. Classification is performed by comparing the variance in each direction of the class tap with their average value and performing the variance in each direction of the class tap based on the comparison result.
nge Coding) processing, and can be performed based on the ADRC result. Here, in the ADRC processing, for example, for a certain set of data, the maximum value MAX and the minimum value MIN of the data constituting the set are detected, and DR
= MAX-MIN is the local dynamic range of the set,
Based on the dynamic range DR, data forming the set is requantized to K bits. That is, the minimum value MIN is subtracted from each data in the set, and the subtracted value is DR / 2 K
Is divided (quantized) by
【0142】なお、上述のように、クラスタップについ
ての分散を、推定ノイズ量と比較せずに、注目画素のク
ラス分類を行う場合においては、クラスタップについて
の分散には、そのクラスタップを構成する画素そのもの
の定常性の成分の他、ノイズの成分も含まれることとな
るから、ノイズの影響を多少受けたクラス分類が行われ
ることになる。As described above, when the class of the target pixel is classified without comparing the variance of the class tap with the estimated noise amount, the variance of the class tap includes the class tap. Since the noise component is included in addition to the stationary component of the pixel itself, the classification is performed with some influence of the noise.
【0143】さらに、本実施の形態では、ノイズ除去装
置と、そのノイズ除去装置で用いるクラスごとの予測係
数を学習する学習装置とを、別々の装置として構成する
ようにしたが、ノイズ除去装置と学習装置とは一体的に
構成することも可能である。そして、この場合、学習装
置には、リアルタイムで学習を行わせ、ノイズ除去装置
で用いる予測係数を、リアルタイムで更新させるように
することが可能である。Further, in this embodiment, the noise elimination device and the learning device for learning the prediction coefficient for each class used in the noise elimination device are configured as separate devices. It is also possible to configure integrally with the learning device. Then, in this case, it is possible to make the learning device perform learning in real time, and update the prediction coefficient used in the noise removal device in real time.
【0144】また、本実施の形態では、係数RAM5に、
あらかじめクラスごとの予測係数を記憶させておくよう
にしたが、この予測係数は、例えば、入力画像ととも
に、ノイズ除去装置に供給するようにすることも可能で
ある。In this embodiment, the coefficient RAM 5 stores
Although the prediction coefficient for each class is stored in advance, the prediction coefficient may be supplied to, for example, a noise removal device together with the input image.
【0145】さらに、クラスタップを構成する画素は、
図2に示したような位置関係の画素に限定されるもので
はない。Further, the pixels constituting the class tap are:
It is not limited to the pixels having the positional relationship as shown in FIG.
【0146】また、本実施の形態では、クラスタップに
ついて、6つの方向(+t方向、−t方向、+h方向、
−h方向、+v方向、−v方向)の分散を求めて、クラ
ス分類を行うようにしたが、その他、例えば、斜めの方
向の分散を求めて、クラス分類に用いることも可能であ
る。さらに、クラス分類は、ある方向に延びる直線上に
ある画素ではなく、曲線上にある画素の分散を求めて行
うことも可能である。In the present embodiment, the class tap has six directions (+ t direction, -t direction, + h direction,
Although the variance in the −h direction, the + v direction, and the −v direction) is obtained to perform the classification, the variance in an oblique direction may be obtained and used for the classification. Further, the classification can be performed by calculating the variance of the pixels on the curved line instead of the pixels on the straight line extending in a certain direction.
【0147】さらに、本実施の形態では、適応処理にお
いて、線形一次式を用いるようにしたが、適応処理は、
2次以上の次数の式を用いて行うことも可能である。Further, in the present embodiment, a linear linear expression is used in the adaptive processing.
It is also possible to use an equation of a second or higher order.
【0148】[0148]
【発明の効果】請求項1に記載のデータ処理装置および
請求項9に記載のデータ処理方法、並びに請求項10に
記載の媒体によれば、入力データから、注目している注
目入力データの周辺にある周辺データが抽出され、その
周辺データの定常性に基づいて、注目入力データがクラ
ス分類されて、対応するクラスコードが出力される。そ
して、そのクラスコードに対応する所定の予測係数を用
いて、注目入力データに対する出力データが予測され
る。従って、例えば、入力データから、効果的にノイズ
を除去することが可能となる。According to the data processing apparatus according to the first aspect, the data processing method according to the ninth aspect, and the medium according to the tenth aspect, the input data and the vicinity of the target input data of interest are determined. Is extracted, and the input data of interest is classified into classes based on the stationarity of the peripheral data, and the corresponding class code is output. Then, output data for the target input data is predicted using a predetermined prediction coefficient corresponding to the class code. Therefore, for example, noise can be effectively removed from the input data.
【0149】請求項11に記載のデータ処理装置および
請求項19に記載のデータ処理方法、並びに請求項20
に記載の媒体によれば、予測係数の学習のための教師と
なる教師データから、生徒となる生徒データが生成さ
れ、その生徒データから、注目している注目生徒データ
の周辺にある周辺データが抽出される。そして、その周
辺データの定常性に基づいて、注目生徒データがクラス
分類されて、対応するクラスコードが出力され、教師デ
ータおよび生徒データを用いて、クラスコードごとに、
予測係数が求められる。従って、例えば、データから、
効果的にノイズを除去することのできる予測係数を得る
ことが可能となる。A data processing apparatus according to claim 11, a data processing method according to claim 19, and a twentieth aspect.
According to the medium described in (1), student data to be a student is generated from teacher data to be a teacher for learning a prediction coefficient, and from the student data, peripheral data around the noted student data of interest is obtained. Is extracted. Then, based on the continuity of the surrounding data, the student data of interest is classified into classes, and corresponding class codes are output. Using the teacher data and the student data, for each class code,
A prediction coefficient is determined. So, for example, from the data:
It is possible to obtain a prediction coefficient from which noise can be effectively removed.
【0150】請求項21に記載のデータ処理装置によれ
ば、入力データから、注目している注目入力データの周
辺にある第1の周辺データが抽出され、その第1の周辺
データの定常性に基づいて、注目入力データがクラス分
類されて、対応するクラスコードが出力される。そし
て、そのクラスコードに対応する所定の予測係数を用い
て、注目入力データに対する出力データが予測される。
一方、予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データが生成され、その生徒データ
から、注目している注目生徒データの周辺にある第2の
周辺データが抽出される。そして、その第2の周辺デー
タの定常性に基づいて、注目生徒データがクラス分類さ
れて、対応するクラスコードが出力され、教師データお
よび生徒データを用いて、クラスコードごとに、予測係
数が求められる。従って、例えば、データから、効果的
にノイズを除去することのできる予測係数を得ることが
可能となるとともに、その予測係数を用いて、データか
ら、効果的にノイズを除去することが可能となる。According to the data processing apparatus of the twenty-first aspect, the first peripheral data around the target input data of interest is extracted from the input data, and the continuity of the first peripheral data is determined. Based on this, the input data of interest is classified into classes, and the corresponding class codes are output. Then, output data for the target input data is predicted using a predetermined prediction coefficient corresponding to the class code.
On the other hand, student data to be a student is generated from teacher data to be a teacher for learning a prediction coefficient, and second peripheral data around the noted student data of interest is extracted from the student data. . Then, based on the stationarity of the second peripheral data, the student data of interest is classified and a corresponding class code is output, and a prediction coefficient is calculated for each class code using the teacher data and the student data. Can be Therefore, for example, it is possible to obtain a prediction coefficient that can effectively remove noise from data, and it is possible to effectively remove noise from data using the prediction coefficient. .
【図1】本発明を適用したノイズ除去装置の一実施の形
態の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an embodiment of a noise removal device to which the present invention has been applied.
【図2】クラスタップの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a class tap.
【図3】図1のノイズ除去装置によるノイズ除去処理を
説明するためのフローチャートである。FIG. 3 is a flowchart illustrating a noise removal process performed by the noise removal device of FIG. 1;
【図4】図1のノイズ量推定回路7の構成例を示すブロ
ック図である。FIG. 4 is a block diagram illustrating a configuration example of a noise amount estimation circuit 7 in FIG. 1;
【図5】図1のクラス分類回路4の構成例を示すブロッ
ク図である。FIG. 5 is a block diagram illustrating a configuration example of a class classification circuit 4 of FIG. 1;
【図6】本発明を適用した学習装置の一実施の形態の構
成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of an embodiment of a learning device to which the present invention has been applied.
【図7】図6の学習装置による学習処理を説明するため
のフローチャートである。FIG. 7 is a flowchart illustrating a learning process performed by the learning device in FIG. 6;
【図8】本発明を適用した媒体を説明するための図であ
る。FIG. 8 is a diagram for explaining a medium to which the present invention is applied.
1 フレームメモリ, 2 クラスタップ生成回路,
3 予測タップ生成回路, 4 クラス分類回路, 5
係数RAM, 6 予測演算回路, 7 ノイズ量推定
回路, 11乃至18 遅延回路, 19 分散計算
部, 20 分散積算メモリ, 21 分散値フレーム
平均計算部, 22乃至26 静止判定部, 27 連
続静止位置検出部, 28 メモリコントローラ, 2
9 動きベクトル検出回路, 31乃至36 分散計算
部, 37乃至42 閾値処理部,43乃至47 演算
器, 48乃至52 シフタ, 61 フレームメモ
リ,62 ノイズ付加回路, 63 フレームメモリ,
64 クラスタップ生成回路, 65 予測タップ生
成回路, 66 クラス分類回路, 67 加算回路,
68 予測タップメモリ, 69 加算回路, 70
教師データメモリ, 71 演算回路, 72 ノイ
ズ量推定回路, 101 コンピュータ,102 ハー
ドディスク, 103 半導体メモリ, 111 フロ
ッピーディスク, 112 CD-ROM, 113 MOディ
スク, 114 DVD, 115磁気ディスク, 11
6 半導体メモリ, 121 ダウンロードサイト,
122 衛星, 123 コンピュータ, 131 ネ
ットワーク1 frame memory, 2 class tap generation circuit,
3 prediction tap generation circuit, 4 class classification circuit, 5
Coefficient RAM, 6 prediction operation circuit, 7 noise amount estimation circuit, 11 to 18 delay circuit, 19 variance calculation unit, 20 variance accumulation memory, 21 variance value frame average calculation unit, 22 to 26 stillness determination unit, 27 continuous still position detection Part, 28 memory controller, 2
9 motion vector detection circuit, 31 to 36 variance calculation unit, 37 to 42 threshold processing unit, 43 to 47 arithmetic unit, 48 to 52 shifter, 61 frame memory, 62 noise addition circuit, 63 frame memory,
64 class tap generation circuit, 65 prediction tap generation circuit, 66 class classification circuit, 67 addition circuit,
68 prediction tap memory, 69 addition circuit, 70
Teacher data memory, 71 arithmetic circuit, 72 noise amount estimation circuit, 101 computer, 102 hard disk, 103 semiconductor memory, 111 floppy disk, 112 CD-ROM, 113 MO disk, 114 DVD, 115 magnetic disk, 11
6 semiconductor memory, 121 download site,
122 satellites, 123 computers, 131 networks
フロントページの続き Fターム(参考) 5B056 BB02 BB62 BB64 FF01 FF02 FF06 GG03 HH03 5B057 CE02 CH07 5C021 PA42 PA52 PA56 PA66 PA72 PA76 PA78 PA83 RA01 RA06 RA16 RB06 RB07 SA24 YA01Continued on the front page F term (reference) 5B056 BB02 BB62 BB64 FF01 FF02 FF06 GG03 HH03 5B057 CE02 CH07 5C021 PA42 PA52 PA56 PA66 PA72 PA76 PA78 PA83 RA01 RA06 RA16 RB06 RB07 SA24 YA01
Claims (21)
に対する出力データを予測するデータ処理装置であっ
て、 前記入力データから、注目している注目入力データの周
辺にある周辺データを抽出する抽出手段と、 前記周辺データの定常性に基づいて、前記注目入力デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類手段と、 前記クラスコードに対応する所定の予測係数を用いて、
前記注目入力データに対する出力データを予測する予測
手段とを含むことを特徴とするデータ処理装置。1. A data processing device for processing input data and predicting output data corresponding to the input data, comprising: extracting, from the input data, peripheral data around the target input data of interest. Means, based on the continuity of the peripheral data, classifies the input data of interest, class classification means that outputs a corresponding class code, using a predetermined prediction coefficient corresponding to the class code,
A prediction unit for predicting output data for the input data of interest.
て、前記出力データを、線形一次予測することを特徴と
する請求項1に記載のデータ処理装置。2. The data processing apparatus according to claim 1, wherein the prediction unit performs linear primary prediction on the output data using the prediction coefficient.
を記憶している記憶手段をさらに含むことを特徴とする
請求項1に記載のデータ処理装置。3. The data processing apparatus according to claim 1, further comprising a storage unit that stores the prediction coefficient for each of the class codes.
定する推定手段をさらに含み、 前記クラス分類手段は、前記ノイズ量に基づいて、前記
周辺データの定常性を判定し、その定常性に基づいて、
前記注目入力データをクラス分類することを特徴とする
請求項1に記載のデータ処理装置。4. The method according to claim 1, further comprising estimating means for estimating an amount of noise included in the input data, wherein the classifying means determines continuity of the surrounding data based on the amount of noise, and hand,
2. The data processing apparatus according to claim 1, wherein the target input data is classified.
の分散を求め、その分散に基づいて、前記周辺データの
定常性を判定し、その定常性に基づいて、前記注目入力
データをクラス分類することを特徴とする請求項1に記
載のデータ処理装置。5. The classifying means obtains a variance of the peripheral data, determines continuity of the peripheral data based on the variance, and classifies the input data of interest based on the continuity. The data processing device according to claim 1, wherein:
定する推定手段をさらに含み、 前記クラス分類手段は、前記周辺データの分散と、前記
ノイズ量とを比較することにより、前記周辺データの定
常性を判定し、その定常性に基づいて、前記注目入力デ
ータをクラス分類することを特徴とする請求項5に記載
のデータ処理装置。6. The method according to claim 1, further comprising estimating means for estimating an amount of noise included in the input data, wherein the classifying means compares a variance of the surrounding data with the amount of noise to determine a steady state of the surrounding data. 6. The data processing apparatus according to claim 5, wherein the data is determined based on the stationarity, and the input data of interest is classified based on the stationarity.
とを特徴とする請求項1に記載のデータ処理装置。7. The data processing apparatus according to claim 1, wherein the input data is image data.
注目している注目画素に対して、空間的または時間的に
周辺にある周辺画素を抽出することを特徴とする請求項
7に記載のデータ処理装置。8. The image processing apparatus according to claim 1, wherein the extracting unit includes:
The data processing apparatus according to claim 7, wherein a peripheral pixel spatially or temporally peripheral to the target pixel of interest is extracted.
に対する出力データを予測するデータ処理方法であっ
て、 前記入力データから、注目している注目入力データの周
辺にある周辺データを抽出する抽出ステップと、 前記周辺データの定常性に基づいて、前記注目入力デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類ステップと、 前記クラスコードに対応する所定の予測係数を用いて、
前記注目入力データに対する出力データを予測する予測
ステップとを含むことを特徴とするデータ処理方法。9. A data processing method for processing input data and predicting output data corresponding to the input data, comprising: extracting, from the input data, peripheral data around the target input data of interest. Based on the stationarity of the peripheral data, based on the continuity of the surrounding data, a class classification step of classifying the input data of interest and outputting a corresponding class code, using a predetermined prediction coefficient corresponding to the class code,
A prediction step of predicting output data for the input data of interest.
タに対する出力データを予測するデータ処理を行うため
のプログラムを、コンピュータに実行させる媒体であっ
て、 前記入力データから、注目している注目入力データの周
辺にある周辺データを抽出する抽出ステップと、 前記周辺データの定常性に基づいて、前記注目入力デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類ステップと、 前記クラスコードに対応する所定の予測係数を用いて、
前記注目入力データに対する出力データを予測する予測
ステップとを含むことを特徴とするプログラムを、前記
コンピュータに実行させる媒体。10. A medium for causing a computer to execute a program for processing input data and performing data processing for predicting output data for the input data, the medium comprising: An extraction step of extracting peripheral data around the data; a class classification step of classifying the input data of interest based on the stationarity of the peripheral data and outputting a corresponding class code; Using a predetermined prediction coefficient
A medium for causing the computer to execute a program, comprising: a prediction step of predicting output data with respect to the target input data.
に対する出力データを予測するのに用いる予測係数を学
習するデータ処理装置であって、 前記予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データを生成する生成手段と、 前記生徒データから、注目している注目生徒データの周
辺にある周辺データを抽出する抽出手段と、 前記周辺データの定常性に基づいて、前記注目生徒デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類手段と、 前記教師データおよび生徒データを用いて、前記クラス
コードごとに、前記予測係数を求める演算手段とを含む
ことを特徴とするデータ処理装置。11. A data processing device for processing input data and learning a prediction coefficient used for predicting output data corresponding to the input data, comprising: Generating means for generating student data to be a student; extracting means for extracting, from the student data, peripheral data around the target student data of interest; and, based on the stationarity of the peripheral data, the target student A data classifying unit that classifies data and outputs a corresponding class code; and a calculating unit that calculates the prediction coefficient for each class code using the teacher data and the student data. Processing equipment.
いた線形一次予測によって、前記教師データが得られる
ようにするための前記予測係数を求めることを特徴とす
る請求項11に記載のデータ処理装置。12. The data processing method according to claim 11, wherein said calculating means obtains said prediction coefficient for obtaining said teacher data by linear primary prediction using said student data. apparatus.
ノイズを付加することによって、前記生徒データを生成
することを特徴とする請求項11に記載のデータ処理装
置。13. The generating means according to claim 1, wherein
The data processing apparatus according to claim 11, wherein the student data is generated by adding noise.
推定する推定手段をさらに含み、 前記クラス分類手段は、前記ノイズ量に基づいて、前記
周辺データの定常性を判定し、その定常性に基づいて、
前記注目生徒データをクラス分類することを特徴とする
請求項11に記載のデータ処理装置。14. The method further comprising estimating means for estimating an amount of noise included in the student data, wherein the class classification means determines the continuity of the surrounding data based on the amount of noise, and based on the continuity. hand,
The data processing apparatus according to claim 11, wherein the attention student data is classified.
タの分散を求め、その分散に基づいて、前記周辺データ
の定常性を判定し、その定常性に基づいて、前記注目生
徒データをクラス分類することを特徴とする請求項11
に記載のデータ処理装置。15. The class classification means obtains a variance of the peripheral data, determines continuity of the peripheral data based on the variance, and classifies the student data of interest based on the continuity. The method of claim 11, wherein
A data processing device according to claim 1.
推定する推定手段をさらに含み、 前記クラス分類手段は、前記周辺データの分散と、前記
ノイズ量とを比較することにより、前記周辺データの定
常性を判定し、その定常性に基づいて、前記注目生徒デ
ータをクラス分類することを特徴とする請求項15に記
載のデータ処理装置。16. The method according to claim 16, further comprising estimating means for estimating a noise amount included in the student data, wherein the classifying means compares a variance of the peripheral data with the noise amount to thereby determine a steady state of the peripheral data. 16. The data processing apparatus according to claim 15, wherein gender is determined, and the student data of interest is classified based on the stationarity.
画像データであることを特徴とする請求項11に記載の
データ処理装置。17. The teacher data and student data are:
The data processing device according to claim 11, wherein the data is image data.
ての画像データから、注目している注目画素に対して、
空間的または時間的に周辺にある周辺画素を抽出するこ
とを特徴とする請求項17に記載のデータ処理装置。18. The image processing apparatus according to claim 18, wherein the extracting unit is configured to extract a pixel of interest from the image data as the student data.
18. The data processing apparatus according to claim 17, wherein peripheral pixels that are spatially or temporally peripheral are extracted.
に対する出力データを予測するのに用いる予測係数を学
習するデータ処理方法であって、 前記予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データを生成する生成ステップと、 前記生徒データから、注目している注目生徒データの周
辺にある周辺データを抽出する抽出ステップと、 前記周辺データの定常性に基づいて、前記注目生徒デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類ステップと、 前記教師データおよび生徒データを用いて、前記クラス
コードごとに、前記予測係数を求める演算ステップとを
含むことを特徴とするデータ処理方法。19. A data processing method for processing input data and learning a prediction coefficient used for predicting output data for the input data, comprising: A generating step of generating student data to be a student; an extracting step of extracting peripheral data around the noted student data of interest from the student data; and A classifying step of classifying data and outputting a corresponding class code; and a calculating step of obtaining the prediction coefficient for each class code using the teacher data and the student data. Processing method.
に対する出力データを予測するのに用いる予測係数を学
習するデータ処理を行うためのプログラムを、コンピュ
ータに実行させる媒体であって、 前記予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データを生成する生成ステップと、 前記生徒データから、注目している注目生徒データの周
辺にある周辺データを抽出する抽出ステップと、 前記周辺データの定常性に基づいて、前記注目生徒デー
タをクラス分類し、対応するクラスコードを出力するク
ラス分類ステップと、 前記教師データおよび生徒データを用いて、前記クラス
コードごとに、前記予測係数を求める演算ステップとを
含むことを特徴とするプログラムを、前記コンピュータ
に実行させる媒体。20. A medium for causing a computer to execute a program for processing input data and performing a data process of learning a prediction coefficient used for predicting output data for the input data, the program comprising: A generating step of generating student data to be a student from teacher data to be a teacher for learning; an extracting step of extracting peripheral data around the noted student data of interest from the student data; A class classification step of classifying the noted student data based on data continuity and outputting a corresponding class code; and calculating the prediction coefficient for each class code using the teacher data and the student data. A medium for causing the computer to execute a program, comprising: a calculating step.
タに対する出力データを予測する第1の装置と、 前記出力データを予測するのに用いる予測係数を学習す
る第2の装置とを備えるデータ処理装置であって、 前記第1の装置は、 前記入力データから、注目している注目入力データの周
辺にある第1の周辺データを抽出する第1の抽出手段
と、 前記第1の周辺データの定常性に基づいて、前記注目入
力データをクラス分類し、対応するクラスコードを出力
する第1のクラス分類手段と、 前記クラスコードに対応する所定の予測係数を用いて、
前記注目入力データに対する出力データを予測する予測
手段とを含み、 前記第2の装置は、 前記予測係数の学習のための教師となる教師データか
ら、生徒となる生徒データを生成する生成手段と、 前記生徒データから、注目している注目生徒データの周
辺にある第2の周辺データを抽出する第2の抽出手段
と、 前記第2の周辺データの定常性に基づいて、前記注目生
徒データをクラス分類し、対応するクラスコードを出力
する第2のクラス分類手段と、 前記教師データおよび生徒データを用いて、前記クラス
コードごとに、前記予測係数を求める演算手段とを含む
ことを特徴とするデータ処理装置。21. A data processing apparatus comprising: a first device that processes input data and predicts output data for the input data; and a second device that learns a prediction coefficient used to predict the output data. An apparatus, wherein the first apparatus is configured to: extract, from the input data, first peripheral data around the target input data of interest; A first class classification unit that classifies the input data of interest based on the stationarity and outputs a corresponding class code; and a predetermined prediction coefficient corresponding to the class code.
Prediction means for predicting output data with respect to the noted input data, wherein the second device generates student data to be a student from teacher data to be a teacher for learning the prediction coefficient; Second extracting means for extracting, from the student data, second peripheral data around the target student data of interest; and classifying the target student data based on the stationarity of the second peripheral data. Data comprising: a second class classifying unit that classifies and outputs a corresponding class code; and a calculating unit that calculates the prediction coefficient for each class code using the teacher data and the student data. Processing equipment.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP16187399A JP4096281B2 (en) | 1999-06-09 | 1999-06-09 | Image processing apparatus, image processing method, and medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP16187399A JP4096281B2 (en) | 1999-06-09 | 1999-06-09 | Image processing apparatus, image processing method, and medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2000348020A true JP2000348020A (en) | 2000-12-15 |
| JP4096281B2 JP4096281B2 (en) | 2008-06-04 |
Family
ID=15743607
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP16187399A Expired - Fee Related JP4096281B2 (en) | 1999-06-09 | 1999-06-09 | Image processing apparatus, image processing method, and medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4096281B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006268396A (en) * | 2005-03-24 | 2006-10-05 | Advanced Mask Inspection Technology Kk | Image correction method |
| JP2007251689A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Image processing apparatus, image processing method, learning apparatus, learning method, and program |
| JP2007251690A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Image processing apparatus and method, learning apparatus and method, and program |
| JP2009094784A (en) * | 2007-10-09 | 2009-04-30 | Sanyo Electric Co Ltd | Noise reduction processing apparatus, noise reduction processing method, and electronic apparatus |
-
1999
- 1999-06-09 JP JP16187399A patent/JP4096281B2/en not_active Expired - Fee Related
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006268396A (en) * | 2005-03-24 | 2006-10-05 | Advanced Mask Inspection Technology Kk | Image correction method |
| US7706623B2 (en) | 2005-03-24 | 2010-04-27 | Advanced Mask Inspection Technology Inc. | Image correcting method |
| JP2007251689A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Image processing apparatus, image processing method, learning apparatus, learning method, and program |
| JP2007251690A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Image processing apparatus and method, learning apparatus and method, and program |
| JP2009094784A (en) * | 2007-10-09 | 2009-04-30 | Sanyo Electric Co Ltd | Noise reduction processing apparatus, noise reduction processing method, and electronic apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4096281B2 (en) | 2008-06-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4344964B2 (en) | Image processing apparatus and image processing method | |
| KR102244187B1 (en) | Method for video frame interpolation robust to exceptional motion and the apparatus thereof | |
| US7912277B2 (en) | Data processing apparatus and data processing method | |
| JP4362895B2 (en) | Data processing apparatus, data processing method, and recording medium | |
| JPH09212650A (en) | Motion vector detection device and detection method | |
| JP2000232384A (en) | Data processing device and data processing method | |
| JP4407015B2 (en) | Noise removing apparatus and noise removing method | |
| JP2000348020A (en) | Data processing device, data processing method, and medium | |
| JP2001084368A (en) | Data processing device, data processing method, and medium | |
| JP2009003598A (en) | Image generating apparatus and method, learning apparatus and method, and program | |
| JP2000348019A (en) | Data processing device, data processing method, and medium | |
| JP4258045B2 (en) | Noise reduction apparatus, noise reduction method, and recording medium | |
| JP4225039B2 (en) | Data processing apparatus and method, recording medium, and program | |
| JP3861325B2 (en) | Motion vector detection apparatus and detection method | |
| JP2934151B2 (en) | Motion vector search method and apparatus | |
| JP2000134511A (en) | Image information conversion apparatus and conversion method | |
| WO2000025512A1 (en) | Image processing device, image processing method, learning device and learning method | |
| KR20120032170A (en) | Method for reducing noise in image signal and image processing apparatus using thereof | |
| JP4182574B2 (en) | Image information conversion apparatus and conversion method | |
| JPWO2000025512A1 (en) | Image processing device, image processing method, learning device and learning method | |
| JP2011217011A (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium | |
| JPH09231374A (en) | Motion vector detection device and detection method | |
| JPWO2001097510A1 (en) | Image processing device, image processing method, program, and recording medium | |
| JPH0490263A (en) | Sharpness emphasis method for picture |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060221 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070413 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070424 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070621 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071120 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080117 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080125 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080215 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080228 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110321 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120321 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130321 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130321 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140321 Year of fee payment: 6 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |