JP2001285881A - Digital information conversion apparatus and method, and image information conversion apparatus and method - Google Patents
Digital information conversion apparatus and method, and image information conversion apparatus and methodInfo
- Publication number
- JP2001285881A JP2001285881A JP2000101542A JP2000101542A JP2001285881A JP 2001285881 A JP2001285881 A JP 2001285881A JP 2000101542 A JP2000101542 A JP 2000101542A JP 2000101542 A JP2000101542 A JP 2000101542A JP 2001285881 A JP2001285881 A JP 2001285881A
- Authority
- JP
- Japan
- Prior art keywords
- information
- signal
- class
- area
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【課題】 符号化復号化の処理を経たディジタル情報信
号に対してクラス分類適応予測処理を適用する時に、予
測精度を向上する。
【解決手段】復号器1からは、復号化された画像信号
と、復号化用の付加情報とが出力される。付加情報は、
信号種類情報、画像フォーマット情報、画質情報、動き
ベクトル等である。付加情報に基づいたクラスが生成さ
れる。領域切出し部4で抽出されたクラスタップの画素
データから特徴量が抽出される。付加情報クラスと特徴
量に基づいて、クラスコードが生成される。予測係数R
OM8は、供給されるクラスコードに対応する予測係数
セットを予測演算部9に出力する。予測係数は、学習に
よって予め決定され、記憶されている。予測タップデー
タ生成部5で抽出された予測タップの画素データと、R
OM8から供給される予測係数セットとによる予測演算
を行うことによって、復号器1の出力画像信号に対し
て、時間解像度および/または空間解像度がより高い予
測画像信号が生成される。
PROBLEM TO BE SOLVED: To improve prediction accuracy when applying class classification adaptive prediction processing to a digital information signal that has undergone encoding / decoding processing. A decoder outputs a decoded image signal and additional information for decoding. Additional information
The information includes signal type information, image format information, image quality information, and motion vectors. A class is generated based on the additional information. A feature amount is extracted from the pixel data of the class tap extracted by the region extracting unit 4. A class code is generated based on the additional information class and the feature amount. Prediction coefficient R
The OM 8 outputs a prediction coefficient set corresponding to the supplied class code to the prediction calculation unit 9. The prediction coefficient is determined in advance by learning and stored. The pixel data of the prediction tap extracted by the prediction tap data generation unit 5 and R
By performing a prediction operation using the prediction coefficient set supplied from the OM 8, a predicted image signal having higher temporal resolution and / or spatial resolution is generated for the output image signal of the decoder 1.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、符号化されたデ
ィジタル画像信号、または符号化されたディジタルオー
ディオ信号を復号化した後に品質を改善するようにした
ディジタル情報変換装置および方法、並びに画像情報変
換装置および変換方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital information conversion apparatus and method for improving the quality of an encoded digital image signal or an encoded digital audio signal after decoding, and an image information conversion. The present invention relates to an apparatus and a conversion method.
【0002】[0002]
【従来の技術】画像信号の圧縮符号化方式のひとつとし
てMPEG2(Moving Picture Expert Group phase
2) による符号化方式が用いられている。MPEG2に
よる送受信または記録再生システムでは、画像信号に対
してMPEG2による圧縮符号化処理を施して送信また
は記録し、また、受信または再生した画像信号に対し
て、MPEG2による圧縮符号化処理に対応する伸長復
号化を施すことにより、元の画像信号を復元する。2. Description of the Related Art MPEG2 (Moving Picture Expert Group phase) is one of the compression coding methods for image signals.
2) is used. In a transmission / reception or recording / reproducing system based on MPEG2, an image signal is subjected to compression / encoding processing based on MPEG2 to be transmitted or recorded, and a received / reproduced image signal is subjected to decompression corresponding to compression / encoding processing based on MPEG2. By decoding, the original image signal is restored.
【0003】MPEG2による符号化処理では、符号化
処理に汎用性を持たせ、また、符号化による圧縮の効率
を向上させるために、符号化された画像データと共に、
復号化処理用の付加情報を伝送している。付加情報は、
MPEG2のストリーム中のヘッダ中に挿入され、復号
化装置に対して伝送される。[0003] In the encoding process by MPEG2, in order to make the encoding process versatile and to improve the efficiency of compression by encoding, together with the encoded image data,
The additional information for the decoding process is transmitted. Additional information
It is inserted into the header in the MPEG2 stream and transmitted to the decoding device.
【0004】MPEGに限らず、復号化によって得られ
る画像信号の特性は、適用される符号化復号化方式によ
って大きく異なる。例えば輝度信号、色差信号、三原色
信号などの信号種類に応じてその物理的な特性(周波数
特性等)が大きく相違する。この相違が符号化復号化処
理を経た復号信号にも残ることになる。また、一般的に
画像の符号化復号化処理では、時空間の間引き処理を導
入することによって、符号化の対象となる画素数を低減
することが多い。間引き方法によって、画像の時空間解
像度の特性が大きく相違する。さらに、時空間解像度特
性の相違が小さい場合においても、符号化における圧縮
率(伝送レート)の条件によってS/N、符号化歪み量
などの画質特性が大きく異なる。[0004] In addition to MPEG, the characteristics of image signals obtained by decoding differ greatly depending on the coding / decoding system applied. For example, physical characteristics (frequency characteristics and the like) greatly differ depending on signal types such as a luminance signal, a color difference signal, and three primary color signals. This difference will remain in the decoded signal that has undergone the encoding / decoding process. In general, in image coding / decoding processing, the number of pixels to be coded is often reduced by introducing space-time thinning processing. The characteristics of the spatio-temporal resolution of an image greatly differ depending on the thinning method. Further, even when the difference between the spatio-temporal resolution characteristics is small, the image quality characteristics such as S / N and the amount of coding distortion vary greatly depending on the compression rate (transmission rate) condition in coding.
【0005】本願出願人は、先に、クラス分類適応処理
を提案している。これは、予め(オフラインで)学習処
理において、実際の画像信号(教師信号および生徒信
号)を使用して予測係数をクラス毎に求め、蓄積してお
き、実際の画像変換処理では、入力画像信号からクラス
を求め、クラスに対応する予測係数と入力画像信号の複
数の画素値との予測演算によって、出力画素値を求める
ものである。クラスは、作成する画素の空間的、時間的
近傍の画素値の分布、波形に対応して決定される。実際
の画像信号を使用して予測係数を演算し、また、クラス
毎に予測係数を演算することによって、単なる補間フィ
ルタの処理と比較して、入力画像信号以上の解像度を創
造することができる特徴を有する。The applicant of the present application has previously proposed a classification adaptive processing. This is because, in a learning process (offline), a prediction coefficient is obtained for each class using an actual image signal (teacher signal and student signal) and accumulated, and in an actual image conversion process, an input image signal is obtained. , And an output pixel value is obtained by a prediction operation of a prediction coefficient corresponding to the class and a plurality of pixel values of the input image signal. The class is determined according to the distribution and waveform of pixel values in the spatial and temporal vicinity of the pixel to be created. By calculating prediction coefficients using actual image signals, and calculating prediction coefficients for each class, it is possible to create a resolution higher than that of the input image signal as compared with a simple interpolation filter process. Having.
【0006】[0006]
【発明が解決しようとする課題】復号化された画像信号
に対してクラス分類適応処理を適用することによって、
時空間の解像度を創造する時に、対象とする画像信号が
上述したような特性の相違を有している。それによっ
て、クラス分類適応処理の予測精度が低下するため、十
分な解像度創造性能を得られないという問題があった。By applying the classification adaptive processing to the decoded image signal,
When creating a spatio-temporal resolution, the target image signal has a difference in characteristics as described above. As a result, the prediction accuracy of the classification adaptive processing is reduced, and there is a problem that sufficient resolution creation performance cannot be obtained.
【0007】また、クラス分類適応処理において、対象
画像信号の動き情報をクラスに導入することによって予
測性能を向上することができる。その動き情報は、動き
ベクトルのような詳細な動き情報の表現形式が効果的で
ある。しかしながら、符号化復号化処理を経た画像信号
から動きベクトルを検出する場合には、復号画像信号の
歪みのために動きベクトルの検出精度が低下し、また、
動きベクトル検出のために、多量の演算処理が必要とな
るという問題があった。Further, in the classification adaptive processing, the prediction performance can be improved by introducing the motion information of the target image signal into the class. As the motion information, an expression form of detailed motion information such as a motion vector is effective. However, when detecting a motion vector from an image signal that has undergone encoding / decoding processing, the detection accuracy of the motion vector is reduced due to distortion of the decoded image signal, and
There is a problem that a large amount of arithmetic processing is required for motion vector detection.
【0008】従って、この発明の目的は、符号化復号化
の処理を経たディジタル情報信号に対して付加情報を使
用したクラス分類適応処理を行うことによって、時間お
よび/または空間の解像度の向上を良好に行うことが可
能なディジタル情報変換装置および方法、並びに画像情
報変換装置および方法を提供することにある。Accordingly, an object of the present invention is to improve the temporal and / or spatial resolution by performing a classification adaptive process using additional information on a digital information signal that has undergone encoding / decoding. It is an object of the present invention to provide a digital information conversion apparatus and method, and an image information conversion apparatus and method that can be performed in a digital camera.
【0009】[0009]
【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明は、符号化されたディジタル情
報信号を復号化することによって生成される入力ディジ
タル情報信号を、時間および/または空間においてより
サンプル数の多い信号へ変換するようにしたディジタル
情報変換装置において、復号化処理用の付加情報に基づ
いてクラス情報を生成するクラス情報生成手段と、予め
決定された予測係数を記憶し、記憶した予測係数の内か
ら、クラス情報生成手段の出力に対応する予測係数を出
力する係数記憶手段と、入力ディジタル情報信号から複
数のサンプルからなる領域を抽出する領域切出し手段
と、領域切出し手段で抽出された複数のサンプルと予測
係数とに基づいて、予測演算を行ってサンプル値を生成
する演算処理手段とを有することを特徴とするディジタ
ル情報変換装置である。SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the invention according to claim 1 converts an input digital information signal generated by decoding an encoded digital information signal into time and / or time signals. Alternatively, in a digital information conversion device adapted to convert a signal into a signal having a larger number of samples in space, a class information generating means for generating class information based on additional information for decoding processing, and a predetermined prediction coefficient are stored. A coefficient storage means for outputting a prediction coefficient corresponding to the output of the class information generation means from among the stored prediction coefficients; an area extraction means for extracting an area consisting of a plurality of samples from the input digital information signal; Operation processing means for performing a prediction operation to generate a sample value based on the plurality of samples and the prediction coefficient extracted by the means; and A digital information conversion apparatus characterized by having.
【0010】請求項17の発明は、符号化されたディジ
タル情報信号を復号化することによって生成される入力
ディジタル情報信号を、時間および/または空間におい
てよりサンプル数の多い信号へ変換するようにしたディ
ジタル情報変換方法において、復号化処理用の付加情報
に基づいてクラス情報を生成するクラス情報生成のステ
ップと、予め決定された予測係数を記憶し、記憶した予
測係数の内から、クラス情報に対応する予測係数を出力
するステップと、入力ディジタル情報信号から複数のサ
ンプルからなる領域を抽出する領域切出しのステップ
と、領域切出しのステップで抽出された複数のサンプル
と予測係数とに基づいて、予測演算を行ってサンプル値
を生成するステップとからなることを特徴とするディジ
タル情報変換方法である。[0010] According to a seventeenth aspect of the present invention, an input digital information signal generated by decoding an encoded digital information signal is converted into a signal having a larger number of samples in time and / or space. In the digital information conversion method, a class information generating step of generating class information based on additional information for decoding processing, storing a predetermined prediction coefficient, and corresponding to the class information from among the stored prediction coefficients. Outputting a prediction coefficient to be extracted, extracting a region composed of a plurality of samples from the input digital information signal, and calculating a prediction based on the plurality of samples extracted in the region extraction step and the prediction coefficient. Generating a sample value by performing the following. That.
【0011】請求項1および17の発明によれば、復号
化処理用の付加情報を使用することによって、クラス分
類適応処理によってサンプル数の多い出力を生成する処
理における予測精度を向上することができる。According to the first and 17th aspects of the present invention, by using the additional information for the decoding process, the prediction accuracy in the process of generating an output with a large number of samples by the class classification adaptive process can be improved. .
【0012】請求項2の発明は、符号化されたディジタ
ル情報信号を復号化することによって生成される入力デ
ィジタル情報信号を、時間および/または空間において
よりサンプル数の多い信号へ変換するようにしたディジ
タル情報変換装置において、入力ディジタル情報信号か
ら複数のサンプルからなる領域を抽出する第1の領域切
出し手段と、第1の領域切出し手段からのサンプルに基
づいて特徴量を抽出する特徴量抽出手段と、特徴量およ
び復号化処理用の付加情報に基づいてクラス情報を生成
するクラス情報生成手段と、予め決定された予測係数を
記憶し、記憶した予測係数の内から、クラス情報生成手
段の出力に対応する予測係数を出力する係数記憶手段
と、入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する第2の領域切出し手段と、第2の領域
切出し手段で抽出された複数のサンプルと予測係数とに
基づいて、予測演算を行ってサンプル値を生成する演算
処理手段とを有することを特徴とするディジタル情報変
換装置である。According to a second aspect of the present invention, an input digital information signal generated by decoding an encoded digital information signal is converted into a signal having a larger number of samples in time and / or space. In the digital information converter, a first area extracting means for extracting an area consisting of a plurality of samples from an input digital information signal, and a feature extracting means for extracting a feature based on the sample from the first area extracting means. A class information generating means for generating class information based on the feature amount and the additional information for decoding processing, and storing a predetermined prediction coefficient, and from among the stored prediction coefficients, an output of the class information generating means. Coefficient storage means for outputting a corresponding prediction coefficient, and a second means for extracting a region consisting of a plurality of samples from the input digital information signal. Digital information characterized by comprising: an area extracting means for calculating the number of samples extracted by the second area extracting means and a prediction coefficient to generate a sample value by performing a prediction operation. It is a conversion device.
【0013】請求項18の発明は、符号化されたディジ
タル情報信号を復号化することによって生成される入力
ディジタル情報信号を、時間および/または空間におい
てよりサンプル数の多い信号へ変換するようにしたディ
ジタル情報変換方法において、入力ディジタル情報信号
から複数のサンプルからなる領域を抽出する第1の領域
切出しのステップと、第1の領域切出しのステップで抽
出されたサンプルに基づいて特徴量を抽出する特徴量抽
出のステップと、特徴量および復号化処理用の付加情報
に基づいてクラス情報を生成するクラス情報生成のステ
ップと、予め決定された予測係数を記憶し、記憶した予
測係数の内から、クラス情報に対応する予測係数を出力
するステップと、入力ディジタル情報信号から複数のサ
ンプルからなる領域を抽出する第2の領域切出しのステ
ップと、第2の領域切出しのステップで抽出された複数
のサンプルと予測係数とに基づいて、予測演算を行って
サンプル値を生成するステップとからなることを特徴と
するディジタル情報変換方法である。[0013] The invention according to claim 18 converts an input digital information signal generated by decoding an encoded digital information signal into a signal having a larger number of samples in time and / or space. In the digital information conversion method, a first area extraction step of extracting an area including a plurality of samples from an input digital information signal, and a feature of extracting a feature amount based on the samples extracted in the first area extraction step. Amount extraction step, a class information generation step of generating class information based on the feature amount and the additional information for the decoding process, and storing a predetermined prediction coefficient. Outputting a prediction coefficient corresponding to the information; and outputting a plurality of samples from the input digital information signal. And a step of generating a sample value by performing a prediction operation based on the plurality of samples and the prediction coefficient extracted in the second region extraction step. This is a feature of the digital information conversion method.
【0014】請求項2および18の発明によれば、入力
ディジタル情報信号の特徴量と共に復号化処理用の付加
情報を使用することによって、クラス分類適応処理を行
うことが可能となり、クラス分類適応処理によってサン
プル数の多い出力を生成する処理における予測精度を向
上することができる。According to the second and eighteenth aspects of the present invention, it is possible to perform the classification adaptive processing by using the additional information for decoding together with the characteristic amount of the input digital information signal. As a result, the prediction accuracy in the process of generating an output with a large number of samples can be improved.
【0015】請求項4の発明は、符号化されたディジタ
ル画像信号を復号化することによって生成される入力画
像信号を、時間および/または空間においてより解像度
の高い画像信号へ変換するようにした画像情報変換装置
において、復号化処理用の付加情報に基づいてクラス情
報を生成するクラス情報生成手段と、予め決定された予
測係数を記憶し、記憶した予測係数の内から、クラス情
報生成手段の出力に対応する予測係数を出力する係数記
憶手段と、入力画像信号から複数の画素からなる領域を
抽出する領域切出し手段と、領域切出し手段で抽出され
た複数の画素と予測係数とに基づいて、予測演算を行っ
て画素値を生成する演算処理手段とを有することを特徴
とする画像情報変換装置である。According to a fourth aspect of the present invention, an input image signal generated by decoding an encoded digital image signal is converted into an image signal having a higher resolution in time and / or space. In the information conversion device, class information generating means for generating class information based on the additional information for decoding processing, storing a predetermined prediction coefficient, and outputting the class information generating means from among the stored prediction coefficients. A coefficient storage unit that outputs a prediction coefficient corresponding to a region extraction unit that extracts a region including a plurality of pixels from an input image signal; An image processing apparatus for performing an operation to generate a pixel value.
【0016】請求項19の発明は、符号化されたディジ
タル画像信号を復号化することによって生成される入力
画像信号を、時間および/または空間においてより解像
度の高い画像信号へ変換するようにした画像情報変換方
法において、復号化処理用の付加情報に基づいてクラス
情報を生成するクラス情報生成のステップと、予め決定
された予測係数を記憶し、記憶した予測係数の内から、
クラス情報に対応する予測係数を出力するステップと、
入力画像信号から複数の画素からなる領域を抽出する領
域切出しのステップと、領域切出しのステップで抽出さ
れた複数の画素と予測係数とに基づいて、予測演算を行
って画素値を生成するステップとからなることを特徴と
する画像情報変換方法である。According to a nineteenth aspect of the present invention, an input image signal generated by decoding an encoded digital image signal is converted into an image signal having higher resolution in time and / or space. In the information conversion method, a class information generation step of generating class information based on the additional information for decoding processing, and storing a predetermined prediction coefficient, from among the stored prediction coefficients,
Outputting a prediction coefficient corresponding to the class information;
An area extracting step of extracting an area composed of a plurality of pixels from the input image signal, and a step of performing a prediction operation to generate a pixel value based on the plurality of pixels and the prediction coefficient extracted in the area extracting step; An image information conversion method characterized by comprising:
【0017】請求項4および19の発明によれば、復号
化処理用の付加情報を使用することによって、クラス分
類適応処理によって解像度の高い出力画像を生成する処
理における予測精度を向上することができる。According to the fourth and nineteenth aspects of the present invention, by using the additional information for the decoding process, it is possible to improve the prediction accuracy in the process of generating a high-resolution output image by the class classification adaptive process. .
【0018】請求項5の発明は、符号化されたディジタ
ル画像信号を復号化することによって生成される入力画
像信号を、時間および/または空間においてより解像度
の高い画像信号へ変換するようにした画像情報変換装置
において、入力画像信号から複数の画素からなる領域を
抽出する第1の領域切出し手段と、第1の領域切出し手
段からの画素データに基づいて特徴量を抽出する特徴量
抽出手段と、特徴量および復号化処理用の付加情報に基
づいてクラス情報を生成するクラス情報生成手段と、予
め決定された予測係数を記憶し、記憶した予測係数の内
から、クラス情報生成手段の出力に対応する予測係数を
出力する係数記憶手段と、入力画像信号から複数の画素
からなる領域を抽出する第2の領域切出し手段と、第2
の領域切出し手段で抽出された複数の画素と予測係数と
に基づいて、予測演算を行って画素値を生成する演算処
理手段とを有することを特徴とする画像情報変換装置で
ある。According to a fifth aspect of the present invention, there is provided an image processing apparatus for converting an input image signal generated by decoding an encoded digital image signal into an image signal having a higher resolution in time and / or space. In the information conversion device, a first area cutout unit that extracts a region including a plurality of pixels from an input image signal, a feature amount extraction unit that extracts a feature amount based on pixel data from the first region cutout unit, A class information generating means for generating class information based on the feature amount and the additional information for decoding processing, and storing a predetermined prediction coefficient, and corresponding to an output of the class information generating means from the stored prediction coefficients. Coefficient storage means for outputting a prediction coefficient to be performed, second area cutout means for extracting an area consisting of a plurality of pixels from an input image signal,
And a calculation processing means for performing a prediction calculation based on the plurality of pixels extracted by the area extracting means and the prediction coefficient to generate a pixel value.
【0019】請求項20の発明は、符号化されたディジ
タル画像信号を復号化することによって生成される入力
画像信号を、時間および/または空間においてより解像
度の高い画像信号へ変換するようにした画像情報変換方
法において、入力画像信号から複数の画素からなる画素
領域を抽出する第1の領域切出しのステップと、第1の
領域切出しのステップで抽出された画素データに基づい
て特徴量を抽出する特徴量抽出のステップと、特徴量お
よび復号化処理用の付加情報に基づいてクラス情報を生
成するクラス情報生成のステップと、予め決定された予
測係数を記憶し、記憶した予測係数の内から、クラス情
報に対応する予測係数を出力するステップと、入力画像
信号から複数の画素からなる画素領域を抽出する第2の
領域切出しのステップと、第2の領域切出しのステップ
で抽出された複数の画素と予測係数とに基づいて、予測
演算を行って画素値を生成するステップとからなること
を特徴とする画像情報変換方法である。According to a twentieth aspect of the present invention, an input image signal generated by decoding an encoded digital image signal is converted into an image signal having higher resolution in time and / or space. In the information conversion method, a first area cutout step of extracting a pixel area including a plurality of pixels from an input image signal, and a feature of extracting a feature amount based on the pixel data extracted in the first area cutout step Amount extraction step, a class information generation step of generating class information based on the feature amount and the additional information for the decoding process, and storing a predetermined prediction coefficient. Outputting a prediction coefficient corresponding to the information; and extracting a second area for extracting a pixel area including a plurality of pixels from the input image signal. And a step of performing a prediction operation to generate a pixel value based on the plurality of pixels extracted in the step of extracting the second region and the prediction coefficient, and generating a pixel value. .
【0020】請求項5および20の発明によれば、入力
ディジタル画像信号の特徴量と共に復号化処理用の付加
情報を使用することによって、クラス分類適応処理によ
って解像度の高い出力画像を生成する処理における予測
精度を向上することができる。According to the fifth and twentieth aspects of the present invention, by using the additional information for decoding processing together with the feature amount of the input digital image signal, the processing for generating an output image with high resolution by the classification adaptive processing is performed. The prediction accuracy can be improved.
【0021】[0021]
【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。まず、図1を参照して、予測画像信号の
生成に係る構成について説明する。入力ビットストリー
ムが復号器1に供給される。ここでは、入力ビットスト
リームは、送受信システム(または記録再生システム、
以下、同様である。)において、MPEG2で圧縮符号
化された画像データと、付加情報等のその他のデータと
である。復号器1からは、復号化された画像信号と、復
号化用の付加情報とが出力される。DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. First, a configuration related to generation of a predicted image signal will be described with reference to FIG. An input bit stream is supplied to the decoder 1. Here, the input bit stream is transmitted and received by a transmitting / receiving system (or a recording / reproducing system,
Hereinafter, the same applies. ), Image data compressed and encoded by MPEG2 and other data such as additional information. The decoder 1 outputs a decoded image signal and additional information for decoding.
【0022】付加情報は、復号化処理に必要な付随情報
であり、入力ビットストリーム中のシーケンス層、GO
P層、ピクチャー層のそれぞれのヘッダ中に挿入されて
おり、復号器1は、付加情報を使用して復号化処理を行
い、また、付加情報を分離して出力する。The additional information is additional information necessary for the decoding process.
Inserted in the headers of the P layer and the picture layer, the decoder 1 performs decoding processing using the additional information, and separates and outputs the additional information.
【0023】付加情報は、付加情報抽出部2に供給さ
れ、クラス分類適応処理に使用される付加情報が付加情
報抽出部2から選択的に出力される。この抽出された付
加情報が付加情報クラス生成部3に供給される。例えば
クラス分類適応処理に使用される付加情報として、以下
に挙げるものがある。The additional information is supplied to the additional information extracting unit 2, and the additional information used for the classification adaptive processing is selectively output from the additional information extracting unit 2. The extracted additional information is supplied to the additional information class generator 3. For example, there is the following as additional information used in the classification adaptive processing.
【0024】(1) 信号種類情報:コンポーネント信号の
各成分(Y,U,Vのコンポーネント、Y,Pr,Pb
のコンポーネント、R,G,Bのコンポーネント等) (2) 画像フォーマット情報:インターレース/プログレ
ッシブの識別情報、フィールドまたはフレーム周波数
(時間解像度情報)、水平画素数や垂直ライン数の画像
サイズ情報(空間解像度情報)、4:3,16:9等の
アスペクトレシオ情報 (3) 画質情報:伝送ビットレート(圧縮率)情報 (4) 動きベクトル:水平と垂直の動き量情報(1) Signal type information: each component of a component signal (Y, U, V components, Y, Pr, Pb
(2) Image format information: Interlace / progressive identification information, field or frame frequency (time resolution information), image size information of horizontal pixels and vertical lines (spatial resolution) Information) Aspect ratio information such as 4: 3, 16: 9, etc. (3) Picture quality information: Transmission bit rate (compression rate) information (4) Motion vector: Horizontal and vertical motion amount information
【0025】付加情報は、付加情報抽出部2に供給さ
れ、クラス分類適応処理に使用される付加情報が付加情
報抽出部2から選択的に出力される。この抽出された付
加情報が付加情報クラス生成部3に供給される。The additional information is supplied to the additional information extracting unit 2, and the additional information used for the classification adaptive processing is selectively output from the additional information extracting unit 2. The extracted additional information is supplied to the additional information class generator 3.
【0026】復号器1からの復号化画像信号が領域切出
し部4および予測タップデータ生成部5に供給される。
領域切出し部4は、入力画像信号から複数の画素からな
る領域を抽出し、抽出した領域に係る画素データを特徴
量抽出部6に供給する。特徴量抽出部6は、供給される
画素データに1ビットADRC等の処理を施すことによ
ってADRCコードを生成し、生成したADRCコード
をクラスコード生成部7に供給する。領域切出し部4に
おいて抽出される複数の画素領域をクラスタップと称す
る。クラスタップは、注目(目標)画素の空間的および
/または時間的近傍に存在する複数の画素からなる領域
である。後述するように、クラスは、注目(目標)画素
ごとに決定される。The decoded image signal from the decoder 1 is supplied to an area extracting section 4 and a prediction tap data generating section 5.
The region cutout unit 4 extracts a region including a plurality of pixels from the input image signal and supplies pixel data relating to the extracted region to the feature amount extraction unit 6. The feature amount extraction unit 6 generates an ADRC code by performing processing such as 1-bit ADRC on the supplied pixel data, and supplies the generated ADRC code to the class code generation unit 7. The plurality of pixel regions extracted in the region extracting unit 4 are called class taps. A class tap is an area composed of a plurality of pixels existing in a spatial and / or temporal vicinity of a target (target) pixel. As described later, the class is determined for each attention (target) pixel.
【0027】ADRCは、クラスタップ内の画素値の最
大値および最小値を求め、最大値および最小値の差であ
るダイナミックレンジを求め、ダイナミックレンジに適
応して各画素値を再量子化するものである。1ビットA
DRCの場合では、タップ内の複数の画素値の平均値よ
り大きいか、小さいかでその画素値が1ビットに変換さ
れる。ADRCの処理は、画素値のレベル分布を表すク
ラスの数を比較的小さなものにするための処理である。
したがって、ADRCに限らず、ベクトル量子化等の画
素値のビット数を圧縮する符号化を使用するようにして
も良い。ADRC calculates the maximum value and the minimum value of pixel values in a class tap, obtains a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value according to the dynamic range. It is. 1 bit A
In the case of DRC, the pixel value is converted into one bit depending on whether it is larger or smaller than the average value of a plurality of pixel values in the tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small.
Therefore, the present invention is not limited to ADRC, and may use encoding for compressing the number of bits of a pixel value such as vector quantization.
【0028】クラスコード生成部7には、付加情報クラ
ス生成部3において、付加情報に基づいて生成された付
加情報クラスも供給される。クラスコード生成部7は、
付加情報クラスとADRCコードに基づいて、クラス分
類の結果を表すクラスコードを発生し、クラスコードを
予測係数ROM8に対してアドレスとして供給する。R
OM8は、供給されるクラスコードに対応する予測係数
セットを予測演算部9に出力する。予測係数セットは、
後述する学習処理によって予め決定され、クラス毎に、
より具体的にはクラスコードをアドレスとする形態で予
測係数ROM8に記憶されている。予測係数は、外部か
ら予測係数のダウンロードが可能なRAMの構成のメモ
リに蓄積しても良い。The additional information class generated by the additional information class generator 3 based on the additional information is also supplied to the class code generator 7. The class code generation unit 7
Based on the additional information class and the ADRC code, a class code indicating the result of the class classification is generated, and the class code is supplied to the prediction coefficient ROM 8 as an address. R
The OM 8 outputs a prediction coefficient set corresponding to the supplied class code to the prediction calculation unit 9. The prediction coefficient set is
It is determined in advance by a learning process described later, and for each class,
More specifically, it is stored in the prediction coefficient ROM 8 in a form using a class code as an address. The prediction coefficients may be stored in a memory having a RAM configuration from which the prediction coefficients can be downloaded from the outside.
【0029】一方、予測タップデータ生成部5は、入力
画像信号から複数の画素からなる所定の領域(予測タッ
プ)を抽出し、抽出した予測タップの画素データを予測
演算部9に供給する。予測タップは、クラスタップと同
様に、注目(目標)画素の空間的および/または時間的
近傍に存在する複数の画素からなる領域である。予測演
算部9は、予測タップデータ生成部5から供給される画
素データと、ROM8から供給される予測係数セットと
に基づいて以下の式(1)に従う積和演算を行うことに
よって、予測画素値を生成し、予測画素値を出力する。
予測タップと上述したクラスタップは、同一、または別
々の何れでも良い。On the other hand, the prediction tap data generator 5 extracts a predetermined area (prediction tap) including a plurality of pixels from the input image signal, and supplies the extracted prediction tap pixel data to the prediction calculator 9. The prediction tap is an area including a plurality of pixels existing in the spatial and / or temporal vicinity of the target (target) pixel, like the class tap. The prediction operation unit 9 performs a product-sum operation according to the following equation (1) based on the pixel data supplied from the prediction tap data generation unit 5 and the prediction coefficient set supplied from the ROM 8 to obtain a predicted pixel value. And outputs a predicted pixel value.
The prediction tap and the class tap described above may be the same or different.
【0030】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、x1 ,‥‥,xn が予測タップの各画素データ
であり、w1 ,‥‥,wn が予測係数セットである。予
測演算は、この式(1)で示す1次式に限らず、2次以
上の高次式でも良いし、非線形であっても良い。Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) where x 1 , ‥‥, and x n are pixel data of the prediction tap, and w 1 , ‥‥ and w n are prediction coefficient sets. The prediction operation is not limited to the linear expression represented by the expression (1), but may be a second-order or higher-order expression, or may be nonlinear.
【0031】予測画像信号は、復号器1の出力画像信号
に対して、空間解像度がより高いものとされたものであ
る。例えば、水平方向および垂直方向のそれぞれに関し
て画素数が元の画像の2倍とされた画像信号が出力され
る。クラス分類適応処理は、平均値等で画素を補間する
ものとは異なり、予め実際の画像信号を使用して求めた
予測係数を使用するので、解像度を創造することができ
る処理である。また、この発明は、空間解像度に限ら
ず、時間解像度を高くする処理に対しても適用できる。
例えばフィールド周波数を60Hzから120Hzとする処
理に対しても適用することができる。さらに、時空間
(空間および時間)の解像度を高くする処理を行うよう
にしても良い。The predicted image signal has a higher spatial resolution than the output image signal of the decoder 1. For example, an image signal is output in which the number of pixels in each of the horizontal direction and the vertical direction is twice that of the original image. The class classification adaptation process is different from the process of interpolating pixels by an average value or the like, and is a process capable of creating a resolution because a prediction coefficient obtained in advance using an actual image signal is used. Further, the present invention can be applied not only to the spatial resolution but also to processing for increasing the temporal resolution.
For example, the present invention can be applied to processing for changing the field frequency from 60 Hz to 120 Hz. Further, processing for increasing the resolution of spatiotemporal (space and time) may be performed.
【0032】図2は、領域切出し部4によって抽出され
るクラスタップの配置の一例を示す。復号化画像信号の
内で注目画素とその周辺の複数画素との合計7個の画素
によってクラスタップが設定される。図3は、予測タッ
プデータ生成部5から出力される予測タップの配置の一
例を示す。復号化画像信号の内で、注目画素と注目画素
を中心とした周辺の複数の画素との合計13個の画素に
よって予測タップが設定される。なお、図2および図3
において、実線は、第1フィールドを示し、破線が第2
フィールドを示す。また、図示のタップの配置は、一例
であって、種々の配置を使用することができる。FIG. 2 shows an example of the arrangement of class taps extracted by the region extracting section 4. A class tap is set by a total of seven pixels including the pixel of interest and a plurality of pixels around the pixel of interest in the decoded image signal. FIG. 3 shows an example of the arrangement of prediction taps output from the prediction tap data generation unit 5. In the decoded image signal, a prediction tap is set by a total of 13 pixels including a target pixel and a plurality of pixels around the target pixel. 2 and 3
, The solid line indicates the first field, and the broken line indicates the second field.
Indicates a field. Further, the illustrated arrangement of taps is merely an example, and various arrangements can be used.
【0033】次に、図4を参照して、クラスコード生成
部7において形成されるクラスコード(予測係数ROM
のアドレス)と、予測係数ROM8に記憶されている予
測係数との一例について説明する。図4に示すクラス情
報の内で、信号種類クラス、フォーマットクラス、圧縮
率(伝送レート)クラスおよび動きベクトルクラスは、
付加情報クラス生成部3で生成されるクラスである。信
号特徴量クラスは、特徴量抽出部6で抽出された特徴量
に基づくクラス、例えばADRCクラスである。図4の
表において、最も左側の信号種類クラスがアドレスの最
上位側となり、最も右側の信号特徴量クラスが最も下位
側となる。Next, referring to FIG. 4, the class code (prediction coefficient ROM) formed in the class code generation section 7 will be described.
An example of the prediction coefficient stored in the prediction coefficient ROM 8 will be described. In the class information shown in FIG. 4, a signal type class, a format class, a compression ratio (transmission rate) class, and a motion vector class are:
This is a class generated by the additional information class generation unit 3. The signal feature class is a class based on the feature extracted by the feature extractor 6, for example, an ADRC class. In the table of FIG. 4, the leftmost signal type class is the highest order of the address, and the rightmost signal feature class is the lowest order.
【0034】信号種類クラスは、例えばY,U,Vと
Y,Pr,Pbとの2種類とされ、各信号種類に対応し
て予測係数が別々に求められ、各信号種類がクラスK
0,K1で区別される。フォーマットクラスは、処理対
象の画像の時空間解像度特性に対応したもので、例えば
2種類とされ、各フォーマットクラスに対応してF0,
F1のクラスが規定される。例えばインターレースの画
像であれば、F0、プログレッシブの画像であれば、F
1のクラスが割り当てられる。画像フォーマットのクラ
スの他の例は、フィールドまたはフレーム周波数、水平
画素数または垂直ライン数である。一例として、F0,
F1,F2,・・・と番号が大きくなるほど、時空間解
像度が高くなる。The signal type classes are, for example, two types of Y, U, V and Y, Pr, Pb. Prediction coefficients are separately obtained for each signal type.
0 and K1. The format class corresponds to the spatio-temporal resolution characteristic of the image to be processed, and is, for example, of two types.
The class of F1 is defined. For example, for an interlaced image, F0, for a progressive image, F0
One class is assigned. Other examples of image format classes are field or frame frequency, horizontal pixels or vertical lines. As an example, F0,
The larger the F1, F2,... Number, the higher the spatio-temporal resolution.
【0035】圧縮率(伝送レート)クラスは、画質情報
に基づいたクラスであり、i種類のクラスR0〜Ri-1
が用意されている。圧縮率が高いほど符号化歪み量が多
くなる。動きベクトルクラスは、動きベクトルに応じた
クラスであり、j種類用意されている。圧縮率クラスお
よび動きベクトルクラスは、個々の値でも良いが、その
場合には、クラス数が多くなるので、代表的な複数の値
にまとめられている。例えば適当なしきい値によって形
成された複数の範囲毎に一つの代表値を設定し、その代
表値に対応したクラスを設定すればよい。具体的には、
水平方向および垂直方向の動きを表現した動きベクトル
から静止、小さな動き、大きな動きとの3段階のクラス
を形成しても良い。The compression rate (transmission rate) class is a class based on image quality information, and includes i types of classes R0 to Ri-1.
Is prepared. The higher the compression ratio, the greater the amount of coding distortion. The motion vector class is a class corresponding to the motion vector, and j types are prepared. The compression ratio class and the motion vector class may be individual values. In that case, however, the number of classes increases, so that they are grouped into a plurality of representative values. For example, one representative value may be set for each of a plurality of ranges formed by appropriate threshold values, and a class corresponding to the representative value may be set. In particular,
Three-stage classes of still, small, and large motions may be formed from motion vectors expressing horizontal and vertical motions.
【0036】以上の4種類のクラスが付加情報クラス生
成部3において生成されるクラスである。但し、上述し
たクラスは、一例であり、一部のクラスのみを使用して
も良い。例えば付加情報クラスのみをクラスとして使用
しても良い。そして、上述した4種類のクラスの下位側
に、特徴量抽出部6において生成された信号特徴量クラ
ス(例えばADRCコードに基づくクラス)が付加され
る。信号特徴量クラスとしては、k種類用意されてい
る。The above four types of classes are classes generated by the additional information class generation unit 3. However, the classes described above are merely examples, and only some of the classes may be used. For example, only the additional information class may be used as a class. Then, a signal feature class (for example, a class based on an ADRC code) generated by the feature extractor 6 is added to the lower side of the above-described four types of classes. As the signal feature class, k kinds are prepared.
【0037】このように、4種類の付加情報クラスと1
種類の信号特徴量クラスとで定まるクラス毎に予測係数
セットがROM8に記憶されている。上述した式(1)
で示される予測演算を行う時には、w1 ,w2 ,‥‥,
wn のn個の予測係数セットが各クラス毎に存在する。As described above, four types of additional information classes and one
A prediction coefficient set is stored in the ROM 8 for each class determined by the type of signal feature amount class. Equation (1) described above
When performing the prediction operation represented by, w 1 , w 2 , ‥‥,
There are n sets of prediction coefficients of w n for each class.
【0038】図5を参照してこの発明の他の実施形態に
ついて説明する。一実施形態の構成を示す図1と対応す
る部分には、同一の参照符号を付して示す。他の実施形
態は、復号器1からの復号画像信号の特性に基づいて、
クラス分類のためのデータ抽出方法と、予測タップの構
造を変更することによって、クラス分類適応処理の予測
性能を向上するようにしたものである。Referring to FIG. 5, another embodiment of the present invention will be described. Parts corresponding to FIG. 1 showing the configuration of one embodiment are denoted by the same reference numerals. Another embodiment is based on the characteristics of the decoded image signal from the decoder 1,
The prediction performance of the classification adaptive processing is improved by changing the data extraction method for class classification and the structure of the prediction tap.
【0039】付加情報抽出部2によって抽出される付加
情報によって、復号画像信号の特徴量を抽出するクラス
タップ構造を変更するために、図5に示すように、付加
情報によって領域切出し部4で抽出されるクラスタップ
のパターンが切り替えられる。特徴量抽出部6がADR
Cによって特徴量としての波形、レベル分布を抽出する
場合、対象画像の空間解像度に応じてADRCの対象と
する領域の広さが変更される。また、信号の種類によっ
て信号特性が異なるので、クラスタップ構造が変更され
る。さらに、画像のアスペクト比に応じてクラスタップ
構造を変更することも可能である。In order to change the class tap structure for extracting the characteristic amount of the decoded image signal based on the additional information extracted by the additional information extracting unit 2, as shown in FIG. The pattern of the class tap to be performed is switched. The feature extraction unit 6 uses ADR
When extracting a waveform and a level distribution as a feature value by C, the size of the region to be subjected to ADRC is changed according to the spatial resolution of the target image. Further, since the signal characteristics vary depending on the type of signal, the class tap structure is changed. Furthermore, it is also possible to change the class tap structure according to the aspect ratio of the image.
【0040】また、付加情報には、符号化復号化による
画像の歪みを示す圧縮率(伝送レート情報)も含まれ、
圧縮率の情報を付加情報から抽出することができる。一
旦復号化された画像信号中の符号化歪み量を検出するこ
とは、難しい。異なる符号化歪み量の信号に対してクラ
ス分類適応処理を適用した場合、予測性能の向上が困難
である。そこで、この圧縮率(伝送レート情報)に対応
してクラスタップの構成が変更される。さらに、動きベ
クトル情報に基づいてクラスタップの構成を変更するこ
とによって、時空間相関特性が高いクラスタップ構造を
実現することができる。例えば静止の場合では、フレー
ム内でクラスタップを構成し、動きがあるときには、現
在フレームに加えて前後のフレームにわたってクラスタ
ップを構成するようになされる。The additional information also includes a compression rate (transmission rate information) indicating distortion of an image due to encoding and decoding.
Information on the compression ratio can be extracted from the additional information. It is difficult to detect the amount of coding distortion in an image signal once decoded. When the classification adaptive processing is applied to signals having different encoding distortion amounts, it is difficult to improve the prediction performance. Therefore, the configuration of the class tap is changed according to the compression rate (transmission rate information). Further, by changing the configuration of the class taps based on the motion vector information, it is possible to realize a class tap structure having high spatio-temporal correlation characteristics. For example, in the case of stillness, a class tap is formed in a frame, and when there is movement, a class tap is formed in the previous and next frames in addition to the current frame.
【0041】さらに、図5に示すように、クラスコード
生成部7で形成されたクラスコードが予測タップデータ
生成部5に対して制御信号として供給される。それによ
って、図4に示すような付加情報を加味したクラス毎
に、最適な予測タップのパターンが設定されるようにな
される。上述したクラスタップの構造を付加情報によっ
て変更するのと同様に、クラス中の付加情報に応じて予
測タップの構造が変更され、クラスタップの場合と同様
に、予測タップを変更することによって、予測性能を向
上することができる。Further, as shown in FIG. 5, the class code formed by the class code generator 7 is supplied to the prediction tap data generator 5 as a control signal. As a result, an optimal prediction tap pattern is set for each class in which additional information is added as shown in FIG. The structure of the prediction tap is changed according to the additional information in the class in the same way as the above-described class tap structure is changed by the additional information, and the prediction tap is changed by changing the prediction tap similarly to the case of the class tap. Performance can be improved.
【0042】図6は、タップ(クラスタップまたは予測
タップ)の領域を付加情報に応じて変更する一例を示す
ものである。図6は、空間解像度と時間解像度の両者を
創造する例を示している。すなわち、時間的に連続する
フレーム(またはフィールド)T0,T1の中間に新た
なフレームT’を作成し、また、元の画素数の4倍の画
素数を作成する。FIG. 6 shows an example in which the area of the tap (class tap or prediction tap) is changed according to the additional information. FIG. 6 shows an example in which both the spatial resolution and the temporal resolution are created. That is, a new frame T 'is created between the temporally continuous frames (or fields) T0 and T1, and the number of pixels is four times the original number of pixels.
【0043】タップは、復号画像信号中に存在するフレ
ームT0およびT1に属する画像中に構成される空間タ
ップを合わせた時空間タップとされる。画像フォーマッ
ト情報例えば空間解像度情報F0,F1,F2に応じ
て、タップが含まれる範囲の領域が変更される。具体的
なタップ構造は、これらの何れかの領域内に構成され
る。空間解像度情報F0,F1,F2は、付加情報クラ
スとしてクラスコード生成部7が生成するクラス情報中
に含まれている。前述の図4の例では、F0,F1の2
種類のクラスが存在している。The tap is a spatiotemporal tap obtained by combining spatial taps formed in the images belonging to frames T0 and T1 existing in the decoded image signal. The area of the range including the tap is changed according to the image format information, for example, the spatial resolution information F0, F1, F2. A specific tap structure is configured in any of these regions. The spatial resolution information F0, F1, F2 is included in the class information generated by the class code generation unit 7 as an additional information class. In the example of FIG. 4 described above, 2 of F0 and F1
There are different kinds of classes.
【0044】一例として、F0が空間解像度が最も低
く、F1が空間解像度が中間で、F2が最も空間解像度
が高い。空間解像度が高くなるにしたがってタップが含
まれる領域が徐々に拡大される。空間解像度が低い場合
には、相関の強い画素が存在する範囲が狭くなるため
に、タップの領域も狭いものとされる。それによって、
クラス分類適応処理による解像度創造の性能の向上を図
ることができる。As an example, F0 has the lowest spatial resolution, F1 has an intermediate spatial resolution, and F2 has the highest spatial resolution. As the spatial resolution increases, the area including the tap is gradually enlarged. When the spatial resolution is low, the range in which pixels having a strong correlation exists is narrow, so that the tap region is also narrow. Thereby,
The performance of resolution creation by the class classification adaptive processing can be improved.
【0045】また、図4に示すように、フレームT0お
よびT1間の動き量に応じてタップが含まれる領域の位
置が変更される。クラスタップの場合では、付加情報中
の動きベクトルに応じてタップが含まれる領域の位置が
変更される。予測タップの場合では、クラス情報中の動
きベクトルクラスに応じてタップが含まれる領域の位置
が変更される。このように領域の位置を変更することに
よって、より高い相関を持つ領域からクラスタップの画
素を切出し、または予測タップの画素を抽出することが
できる。それによって、クラス分類適応処理の予測精度
を向上することができる。As shown in FIG. 4, the position of the region including the tap is changed according to the amount of movement between frames T0 and T1. In the case of a class tap, the position of the area including the tap is changed according to the motion vector in the additional information. In the case of the prediction tap, the position of the region including the tap is changed according to the motion vector class in the class information. By changing the position of the region in this way, it is possible to cut out the pixel of the class tap from the region having a higher correlation or extract the pixel of the prediction tap. Thereby, the prediction accuracy of the classification adaptive processing can be improved.
【0046】次に、学習すなわちクラス毎の予測係数を
求める処理について説明する。一般的には、クラス分類
適応処理によって予測されるべき画像信号と同一の信号
形式の画像信号(以下、教師信号と称する)と、教師信
号にクラス分類適応処理の目的とされる画像情報変換に
関連した処理を行うことによって得られる画像信号とに
基づく所定の演算処理によって予測係数が決定される。
MPEG2規格等に従う画像信号の符号化/復号化を経
た画像信号の解像度を向上させるためになされるクラス
分類適応処理においては、学習は、例えば図7に示すよ
うな構成によって行われる。図7は、図5に示す他の実
施形態における予測係数データを学習するための構成で
ある。Next, learning, that is, a process of obtaining a prediction coefficient for each class will be described. Generally, an image signal having the same signal format as an image signal to be predicted by the classification adaptive processing (hereinafter, referred to as a teacher signal) is used for converting the teacher signal into image information conversion intended for the classification adaptive processing. A prediction coefficient is determined by a predetermined calculation process based on an image signal obtained by performing a related process.
In the class classification adaptive processing performed to improve the resolution of an image signal that has undergone encoding / decoding of an image signal according to the MPEG2 standard or the like, learning is performed by, for example, a configuration illustrated in FIG. FIG. 7 shows a configuration for learning prediction coefficient data in another embodiment shown in FIG.
【0047】学習のために、教師信号と入力画像信号が
使用される。教師信号は、入力画像信号に対して時空間
解像度が高い信号である。教師信号を間引き処理するこ
とによって入力画像信号を形成しても良い。入力画像信
号が符号化器21で例えばMPEG2によって符号化さ
れる。符号化器21の出力信号が図1の画像情報変換装
置における受信信号に相当する。符号化器21の出力信
号が復号器22に供給される。復号器22からの復号画
像信号が生徒信号として使用される。また、復号器22
で分離された復号用の付加情報が付加情報抽出部23に
供給され、付加情報が抽出される。For learning, a teacher signal and an input image signal are used. The teacher signal is a signal having a higher spatiotemporal resolution than the input image signal. The input image signal may be formed by thinning out the teacher signal. The input image signal is encoded by the encoder 21 according to, for example, MPEG2. The output signal of the encoder 21 corresponds to the received signal in the image information conversion device of FIG. An output signal of the encoder 21 is supplied to a decoder 22. The decoded image signal from the decoder 22 is used as a student signal. Also, the decoder 22
Are supplied to the additional information extracting unit 23, and the additional information is extracted.
【0048】抽出された付加情報は、付加情報クラス生
成部24および領域切出し部25に供給される。付加情
報は、上述した情報変換装置について説明したのと同様
に、信号種類情報、画像フォーマット情報、画質情報、
動きベクトル等である。The extracted additional information is supplied to an additional information class generation unit 24 and an area extraction unit 25. The additional information includes signal type information, image format information, image quality information,
Motion vector and the like.
【0049】復号器22からの復号画像信号、すなわ
ち、生徒信号が領域切出し部25および予測タップデー
タ生成部26に供給される。図5の構成と同様に、領域
切出し部25が付加情報抽出部23で抽出された付加情
報によって制御され、予測タップデータ生成部26がク
ラスコード生成部28で生成されたクラスの内の付加情
報クラスによって制御される。それによって、時間的お
よび/または空間的相関の高い複数の画素によってタッ
プを設定することが可能とされる。領域切出し部25で
抽出されたクラスタップのデータが特徴量抽出部27に
供給され、特徴量抽出部27においてADRC等の処理
によって、特徴量を抽出する。この特徴量がクラスコー
ド生成部28に供給される。クラスコード生成部28
は、付加情報クラスとADRCコードに基づいて、クラ
ス分類の結果を表すクラスコードを発生する。クラスコ
ードは、正規方程式加算部29に供給される。The decoded image signal from the decoder 22, that is, the student signal, is supplied to the area extracting section 25 and the prediction tap data generating section 26. As in the configuration of FIG. 5, the area cutout unit 25 is controlled by the additional information extracted by the additional information extraction unit 23, and the prediction tap data generation unit 26 generates the additional information of the class generated by the class code generation unit 28. Controlled by class. Thereby, a tap can be set by a plurality of pixels having high temporal and / or spatial correlation. The data of the class tap extracted by the region extracting unit 25 is supplied to the feature amount extracting unit 27, and the feature amount extracting unit 27 extracts a feature amount by processing such as ADRC. This feature amount is supplied to the class code generation unit 28. Class code generator 28
Generates a class code representing the result of the classification based on the additional information class and the ADRC code. The class code is supplied to the normal equation adding unit 29.
【0050】一方、予測タップデータ生成部26により
抽出された予測タップの画素データが正規方程式加算部
29に供給される。正規方程式加算部29は、予測タッ
プデータ生成部26の出力と、教師信号とに基づく所定
の演算処理によって、クラスコード生成部28から供給
されるクラスコードに対応する予測係数セットを解とす
る正規方程式のデータを生成する。正規方程式加算部2
9の出力は、予測係数算出部30に供給される。On the other hand, the pixel data of the prediction tap extracted by the prediction tap data generation unit 26 is supplied to the normal equation addition unit 29. The normal equation addition unit 29 performs a predetermined operation process based on the output of the prediction tap data generation unit 26 and the teacher signal to generate a normal coefficient that sets a prediction coefficient set corresponding to the class code supplied from the class code generation unit 28 as a solution. Generate equation data. Normal equation adder 2
9 is supplied to the prediction coefficient calculation unit 30.
【0051】予測係数算出部30は、供給されるデータ
に基づいて正規方程式を解くための演算処理を行う。こ
の演算処理によって算出された予測係数セットがメモリ
31に供給され、記憶される。予測推定に係る画像変換
処理を行うに先立って、図5中の予測係数ROM8にメ
モリ31の記憶内容がロードされる。The prediction coefficient calculation unit 30 performs an operation for solving a normal equation based on the supplied data. The prediction coefficient set calculated by this calculation process is supplied to the memory 31 and stored. Prior to performing the image conversion process related to the prediction estimation, the contents stored in the memory 31 are loaded into the prediction coefficient ROM 8 in FIG.
【0052】正規方程式について以下に説明する。上述
の式(1)において、学習前は予測係数セットw1 ,‥
‥,wn が未定係数である。学習は、クラス毎に複数の
教師信号を入力することによって行う。教師信号の種類
数をmと表記する場合、式(1)から、以下の式(2)
が設定される。The normal equation will be described below. In the above equation (1), before learning, the prediction coefficient sets w 1 , ‥
‥ and w n are undetermined coefficients. Learning is performed by inputting a plurality of teacher signals for each class. When the number of types of the teacher signal is denoted by m, the following equation (2) is obtained from the equation (1).
Is set.
【0053】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m)Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1, 2, ‥‥, m)
【0054】m>nの場合、予測係数セットw1 ,‥
‥,wn は一意に決まらないので、誤差ベクトルeの要
素ek を以下の式(3)で定義して、式(4)によって
定義される誤差ベクトルeを最小とするように予測係数
セットを定めるようにする。すなわち、いわゆる最小2
乗法によって予測係数セットを一意に定める。If m> n, the prediction coefficient sets w 1 , ‥
Since ‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient set is set so as to minimize the error vector e defined by the equation (4). To be determined. That is, the so-called minimum 2
A prediction coefficient set is uniquely determined by multiplication.
【0055】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)
【0056】[0056]
【数1】 (Equation 1)
【0057】式(4)のe2 を最小とする予測係数セッ
トを求めるための実際的な計算方法としては、e2 を予
測係数wi (i=1,2‥‥)で偏微分し(式(5))、iの
各値について偏微分値が0となるように各予測係数wi
を定めれば良い。[0057] A practical calculation method for obtaining the prediction coefficient set that minimizes the e 2 of formula (4), partially differentiated by the prediction coefficient w i (i = 1,2 ‥‥) the e 2 ( (5)), each prediction coefficient w i such that the partial differential value becomes 0 for each value of i.
Should be determined.
【0058】[0058]
【数2】 (Equation 2)
【0059】式(5)から各予測係数wi を定める具体
的な手順について説明する。式(6)、(7)のように
Xji,Yi を定義すると、式(5)は、式(8)の行列
式の形に書くことができる。A specific procedure for determining each prediction coefficient w i from equation (5) will be described. If X ji and Y i are defined as in equations (6) and (7), equation (5) can be written in the form of a determinant of equation (8).
【0060】[0060]
【数3】 (Equation 3)
【0061】[0061]
【数4】 (Equation 4)
【0062】[0062]
【数5】 (Equation 5)
【0063】式(8)が一般に正規方程式と呼ばれるも
のである。予測係数算出部30は、掃き出し法等の一般
的な行列解法に従って正規方程式(8)を解くための計
算処理を行って予測係数wi を算出する。Expression (8) is generally called a normal equation. The prediction coefficient calculation unit 30 calculates a prediction coefficient w i by performing a calculation process for solving the normal equation (8) according to a general matrix solution such as a sweeping method.
【0064】また、予測係数の生成は、図8に示すフロ
ーチャートで示されるようなソフトウェア処理によって
も行うことができる。ステップS1から処理が開始さ
れ、ステップS2において、生徒信号を生成することに
よって、予測係数を生成するのに必要十分な学習データ
を生成する。ステップS3において、予測係数を生成す
るのに必要十分な学習データが得られたどうかを判定
し、未だ必要十分な学習データが得られていないと判断
された場合には、ステップS4に処理が移行する。The generation of the prediction coefficients can also be performed by software processing as shown in the flowchart of FIG. The process is started from step S1, and in step S2, a student signal is generated to generate necessary and sufficient learning data for generating a prediction coefficient. In step S3, it is determined whether sufficient learning data necessary to generate a prediction coefficient has been obtained. If it is determined that sufficient learning data has not been obtained yet, the process proceeds to step S4. I do.
【0065】ステップS4において、生徒信号から抽出
された特徴量と付加情報とからクラスを決定する。ステ
ップS5においては、各クラス毎に正規方程式を生成
し、ステップS2に戻って同様の処理手順を繰り返すこ
とによって、予測係数セットを生成するのに必要十分な
正規方程式を生成する。In step S4, a class is determined from the feature amount extracted from the student signal and the additional information. In step S5, a normal equation is generated for each class, and the process returns to step S2 to repeat the same processing procedure, thereby generating a normal equation necessary and sufficient to generate a prediction coefficient set.
【0066】ステップS3において、必要十分な学習デ
ータが得られたと判断されると、ステップS6に処理が
移る。ステップS6では、正規方程式を掃き出し法によ
って解くことによって、予測係数セットw1 ,w2 ,・
・・・,wn を各クラス毎に生成する。そして、ステッ
プS7において、生成した各クラス毎の予測係数セット
w1 〜wn をメモリに記憶し、ステップS8で学習処理
を終了する。If it is determined in step S3 that necessary and sufficient learning data has been obtained, the process proceeds to step S6. In step S6, the prediction coefficient sets w 1 , w 2 ,.
.., W n are generated for each class. Then, at step S7, stores the prediction coefficient set w 1 to w n for each class generated in the memory, and ends the learning processing in step S8.
【0067】この発明は、上述したこの発明の一実施形
態に限定されるものではなく、この発明の要旨を逸脱し
ない範囲内で様々な変形や応用が可能である。例えばM
PEG2に限らず、MPEG4等の他の符号化方法を使
用する場合に対して、この発明を適用することができ
る。The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications are possible without departing from the gist of the present invention. For example, M
The present invention is applicable not only to the case of using PEG2 but also to the case of using another encoding method such as MPEG4.
【0068】[0068]
【発明の効果】上述したように、この発明は、時間解像
度および/または空間解像度を高くするために、復号化
された画像信号に対してクラス分類適応処理を適用する
時に、対象とする画像信号が有する特性の相違を反映し
たクラス分類を行うので、クラス分類適応処理の予測精
度を向上させ、十分な解像度創造性能を得ることができ
る。As described above, according to the present invention, when applying the classification adaptive processing to the decoded image signal in order to increase the time resolution and / or the spatial resolution, the image signal to be processed is obtained. Since the class classification reflecting the difference in the characteristics of the class classification is performed, the prediction accuracy of the class classification adaptive processing can be improved, and sufficient resolution creation performance can be obtained.
【図1】この発明の一実施形態の構成を示すブロック図
である。FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
【図2】クラスタップの画素配置の一例の略線図であ
る。FIG. 2 is a schematic diagram illustrating an example of a pixel arrangement of a class tap.
【図3】予測タップの画素配置の一例の略線図である。FIG. 3 is a schematic diagram illustrating an example of a pixel arrangement of a prediction tap.
【図4】付加情報および特徴量に基づくクラスの一例を
示す略線図である。FIG. 4 is a schematic diagram illustrating an example of a class based on additional information and a feature amount.
【図5】この発明の他の実施形態の構成を示すブロック
図である。FIG. 5 is a block diagram showing a configuration of another embodiment of the present invention.
【図6】この発明の他の実施形態を説明するための略線
図である。FIG. 6 is a schematic diagram for explaining another embodiment of the present invention.
【図7】クラス分類適応処理を行う場合の予測係数の学
習処理に係る構成の一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of a configuration related to a prediction coefficient learning process when performing a class classification adaptive process.
【図8】学習処理をソフトウェアで行う時の処理を示す
フローチャートである。FIG. 8 is a flowchart showing processing when the learning processing is performed by software.
1,22・・・復号器、2,23・・・付加情報抽出
部、3,24・・・付加情報クラス生成部、4,25・
・・領域切出し部、5,26・・・予測タップデータ生
成部、6,27・・・特徴量抽出部,7,28・・・ク
ラスコード生成部、8・・・予測係数ROM、9・・・
予測演算部1,22 ... decoder, 2,23 ... additional information extraction unit, 3,24 ... additional information class generation unit, 4,25
..Area extraction unit, 5, 26: prediction tap data generation unit, 6, 27: feature amount extraction unit, 7, 28: class code generation unit, 8: prediction coefficient ROM, 9.・ ・
Prediction calculation unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 勅使川原 智 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B057 CA01 CA08 CA12 CA18 CA19 CB01 CB08 CB12 CB16 CD05 CG03 CG05 CH01 CH11 5C059 KK01 LB11 MA00 MA04 MA05 NN01 RB09 RC11 RC12 RC16 TA30 TC00 TD13 UA05 UA38 5J064 AA01 BA13 BA15 BB03 BB12 BC01 BC02 BC26 BD01 ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Satoshi Teshigawara 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo F-term in Sony Corporation (reference) 5B057 CA01 CA08 CA12 CA18 CA19 CB01 CB08 CB12 CB16 CD05 CG05 CG05 CH01 CH11 5C059 KK01 LB11 MA00 MA04 MA05 NN01 RB09 RC11 RC12 RC16 TA30 TC00 TD13 UA05 UA38 5J064 AA01 BA13 BA15 BB03 BB12 BC01 BC02 BC26 BD01
Claims (24)
化することによって生成される入力ディジタル情報信号
を、時間および/または空間においてよりサンプル数の
多い信号へ変換するようにしたディジタル情報変換装置
において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する領域切出し手段と、 上記領域切出し手段で抽出された複数のサンプルと上記
予測係数とに基づいて、予測演算を行ってサンプル値を
生成する演算処理手段とを有することを特徴とするディ
ジタル情報変換装置。1. A digital information conversion device for converting an input digital information signal generated by decoding an encoded digital information signal into a signal having a larger number of samples in time and / or space. A class information generating means for generating class information based on the additional information for decoding processing, and storing a predetermined prediction coefficient, and corresponding to an output of the class information generating means from the stored prediction coefficients. Coefficient storage means for outputting a prediction coefficient to be extracted, area extraction means for extracting an area consisting of a plurality of samples from the input digital information signal, and a plurality of samples extracted by the area extraction means and the prediction coefficient. And a calculation processing means for performing a prediction calculation to generate a sample value. Apparatus.
化することによって生成される入力ディジタル情報信号
を、時間および/または空間においてよりサンプル数の
多い信号へ変換するようにしたディジタル情報変換装置
において、 入力ディジタル情報信号から複数のサンプルからなる領
域を抽出する第1の領域切出し手段と、 上記第1の領域切出し手段からのサンプルに基づいて特
徴量を抽出する特徴量抽出手段と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する第2の領域切出し手段と、 上記第2の領域切出し手段で抽出された複数のサンプル
と上記予測係数とに基づいて、予測演算を行ってサンプ
ル値を生成する演算処理手段とを有することを特徴とす
るディジタル情報変換装置。2. A digital information conversion apparatus for converting an input digital information signal generated by decoding an encoded digital information signal into a signal having a larger number of samples in time and / or space. First area cutout means for extracting a region consisting of a plurality of samples from an input digital information signal; feature quantity extraction means for extracting a feature quantity based on the samples from the first area cutout means; And class information generating means for generating class information based on the additional information for decoding processing, and storing predetermined prediction coefficients, and corresponding to the output of the class information generating means from the stored prediction coefficients. Coefficient storage means for outputting prediction coefficients to be extracted, and extracting an area consisting of a plurality of samples from the input digital information signal And a calculation processing means for performing a prediction calculation based on the plurality of samples extracted by the second area extraction means and the prediction coefficient to generate a sample value. Digital information converter characterized by the following.
師信号と上記入力ディジタル情報信号に対応する生徒信
号を用いて予め生成されていることを特徴とするディジ
タル情報変換装置。3. The prediction coefficient according to claim 1, wherein the prediction coefficient is generated in advance using a teacher signal corresponding to a digital information signal having a larger number of samples and a student signal corresponding to the input digital information signal. A digital information converter characterized by the above-mentioned.
化することによって生成される入力画像信号を、時間お
よび/または空間においてより解像度の高い画像信号へ
変換するようにした画像情報変換装置において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力画像信号から複数の画素からなる領域を抽出す
る領域切出し手段と、 上記領域切出し手段で抽出された複数の画素と上記予測
係数とに基づいて、予測演算を行って画素値を生成する
演算処理手段とを有することを特徴とする画像情報変換
装置。4. An image information conversion apparatus for converting an input image signal generated by decoding an encoded digital image signal into an image signal having higher resolution in time and / or space. Class information generating means for generating class information based on the additional information for decoding processing, storing a predetermined prediction coefficient, and corresponding to an output of the class information generating means from the stored prediction coefficients Coefficient storage means for outputting a prediction coefficient; area extraction means for extracting an area consisting of a plurality of pixels from the input image signal; and prediction based on the plurality of pixels extracted by the area extraction means and the prediction coefficient. An image processing apparatus for performing an operation to generate a pixel value.
化することによって生成される入力画像信号を、時間お
よび/または空間においてより解像度の高い画像信号へ
変換するようにした画像情報変換装置において、 入力画像信号から複数の画素からなる領域を抽出する第
1の領域切出し手段と、 上記第1の領域切出し手段からの画素データに基づいて
特徴量を抽出する特徴量抽出手段と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力画像信号から複数の画素からなる領域を抽出す
る第2の領域切出し手段と、 上記第2の領域切出し手段で抽出された複数の画素と上
記予測係数とに基づいて、予測演算を行って画素値を生
成する演算処理手段とを有することを特徴とする画像情
報変換装置。5. An image information conversion apparatus for converting an input image signal generated by decoding an encoded digital image signal into an image signal having a higher resolution in time and / or space. First area cutout means for extracting an area consisting of a plurality of pixels from an input image signal; feature quantity extraction means for extracting a feature quantity based on pixel data from the first area cutout means; Class information generating means for generating class information based on the additional information for decoding processing, storing a predetermined prediction coefficient, and corresponding to an output of the class information generating means from the stored prediction coefficients Coefficient storage means for outputting a prediction coefficient; second area cutout means for extracting an area consisting of a plurality of pixels from the input image signal; An image information conversion device, comprising: an arithmetic processing unit that performs a prediction operation based on a plurality of pixels extracted by the extraction unit and the prediction coefficient to generate a pixel value.
ることを特徴とする画像情報変換装置。6. The image information conversion device according to claim 4, wherein the additional information is information indicating a type of the image signal to be processed.
あることを特徴とする画像情報変換装置。7. The image information conversion device according to claim 4, wherein the additional information is format information of an image signal to be processed.
報変換装置。8. The image information conversion device according to claim 4, wherein the additional information is image quality information.
る画像情報変換装置。9. The image information conversion device according to claim 4, wherein the additional information is motion vector information.
手段の少なくとも一方が上記付加情報に含まれる動きベ
クトル情報に応答して切り出す領域の位置が変更される
ことを特徴とする画像情報変換装置。10. The position of an area to be extracted by at least one of the first area extracting means and the second area extracting means in response to motion vector information included in the additional information according to claim 4 or 5. An image information conversion device characterized by being performed.
手段の少なくとも一方が上記付加情報に含まれる画像フ
ォーマット情報に応答して切り出す領域の大きさが変更
されることを特徴とする画像情報変換装置。11. The method according to claim 4, wherein at least one of the first area cutout means and the second area cutout means has a size of an area cut out in response to image format information included in the additional information. An image information conversion device characterized by being changed.
/または空間解像度情報であることを特徴とする画像情
報変換装置。12. The image information conversion device according to claim 11, wherein the image format information is time and / or spatial resolution information of the image signal.
情報であることを特徴とする画像情報変換装置。13. The image information conversion device according to claim 11, wherein the image format information is aspect information of the image signal.
力画像信号に対応する生徒信号を用いて予め生成されて
いることを特徴とする画像情報変換装置。14. The method according to claim 4, wherein the prediction coefficient is generated in advance using a teacher signal corresponding to a higher resolution image signal and a student signal corresponding to the input image signal. Image information conversion device.
いてクラス情報を生成する学習用のクラス情報生成手段
と、 上記生徒信号から複数の画素からなる領域を抽出する学
習用の領域切出し手段と、 上記教師信号と、上記クラス情報生成手段の出力と、上
記領域切出し手段の出力とに基づいて、正規方程式を解
くためのデータを生成する正規方程式演算手段と、 上記正規方程式演算手段の出力に基づいて所定の演算処
理を行うことにより、上記予測係数を算出する予測係数
決定手段とによって決定されることを特徴とする画像情
報変換装置。15. A learning class information generating means for generating class information based on additional information for decoding processing attached to the student signal according to claim 14, wherein Learning area extracting means for extracting an area consisting of pixels of the above, generating data for solving a normal equation based on the teacher signal, the output of the class information generating means, and the output of the area extracting means An image information conversion apparatus which is determined by a normal equation calculating means to perform the predetermined calculation processing based on the output of the normal equation calculating means, thereby to calculate the prediction coefficient. .
習用の第1の領域切出し手段と、 上記第1の領域切出し手段からの画素データに基づいて
特徴量を抽出する学習用の特徴量抽出手段と、 上記特徴量および上記生徒信号に付随する復号化処理用
の付加情報に基づいてクラス情報を生成する学習用のク
ラス情報生成手段と、 上記生徒信号から複数の画素からなる領域を抽出する学
習用の第2の領域切出し手段と、 上記教師信号と、上記クラス情報生成手段の出力と、上
記第2の領域切出し手段の出力とに基づいて、正規方程
式を解くためのデータを生成する正規方程式演算手段
と、 上記正規方程式演算手段の出力に基づいて所定の演算処
理を行うことにより、上記予測係数を算出する予測係数
決定手段とによって決定されることを特徴とする画像情
報変換装置。16. The learning method according to claim 14, wherein the prediction coefficient is a first area extracting means for learning for extracting an area composed of a plurality of pixels from an input image signal, and pixel data from the first area extracting means. Learning feature extraction means for extracting a feature based on the class information; and learning class information generation means for generating class information based on the feature and the additional information for decoding associated with the student signal. A second area extracting means for learning for extracting an area composed of a plurality of pixels from the student signal; a teacher signal; an output of the class information generating means; and an output of the second area extracting means. Calculating a prediction coefficient by performing a predetermined calculation process based on an output of the normal equation calculation means; Picture information converting apparatus characterized by being determined by the prediction coefficient determining means for.
号化することによって生成される入力ディジタル情報信
号を、時間および/または空間においてよりサンプル数
の多い信号へ変換するようにしたディジタル情報変換方
法において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する領域切出しのステップと、 上記領域切出しのステップで抽出された複数のサンプル
と上記予測係数とに基づいて、予測演算を行ってサンプ
ル値を生成するステップとからなることを特徴とするデ
ィジタル情報変換方法。17. A digital information conversion method for converting an input digital information signal generated by decoding an encoded digital information signal into a signal having a larger number of samples in time and / or space. A class information generating step of generating class information based on the additional information for decoding processing; storing a predetermined prediction coefficient; and, from among the stored prediction coefficients, a prediction coefficient corresponding to the class information. Outputting an area; extracting an area consisting of a plurality of samples from the input digital information signal; and performing a prediction operation based on the plurality of samples extracted in the area extraction step and the prediction coefficient. Generating a sample value by performing a digital information conversion Law.
号化することによって生成される入力ディジタル情報信
号を、時間および/または空間においてよりサンプル数
の多い信号へ変換するようにしたディジタル情報変換方
法において、 入力ディジタル情報信号から複数のサンプルからなる領
域を抽出する第1の領域切出しのステップと、 上記第1の領域切出しのステップで抽出されたサンプル
に基づいて特徴量を抽出する特徴量抽出のステップと、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する第2の領域切出しのステップと、 上記第2の領域切出しのステップで抽出された複数のサ
ンプルと上記予測係数とに基づいて、予測演算を行って
サンプル値を生成するステップとからなることを特徴と
するディジタル情報変換方法。18. A digital information conversion method for converting an input digital information signal generated by decoding an encoded digital information signal into a signal having a larger number of samples in time and / or space. A first area extracting step of extracting an area consisting of a plurality of samples from the input digital information signal; and a feature extracting step of extracting a feature based on the samples extracted in the first area extracting step. A class information generation step of generating class information based on the feature amount and the additional information for decoding processing; storing a predetermined prediction coefficient; and, among the stored prediction coefficients, the class information Outputting a prediction coefficient corresponding to the input digital information signal from a plurality of samples. A second area extraction step of extracting an area to be extracted, and a step of performing a prediction operation to generate a sample value based on the plurality of samples extracted in the second area extraction step and the prediction coefficient. A digital information conversion method characterized by comprising:
号化することによって生成される入力画像信号を、時間
および/または空間においてより解像度の高い画像信号
へ変換するようにした画像情報変換方法において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力画像信号から複数の画素からなる領域を抽出す
る領域切出しのステップと、 上記領域切出しのステップで抽出された複数の画素と上
記予測係数とに基づいて、予測演算を行って画素値を生
成するステップとからなることを特徴とする画像情報変
換方法。19. An image information conversion method for converting an input image signal generated by decoding an encoded digital image signal into an image signal having a higher resolution in time and / or space. A class information generation step of generating class information based on the additional information for decoding processing; and storing a predetermined prediction coefficient; and, among the stored prediction coefficients, a prediction coefficient corresponding to the class information. Outputting, an area extracting step of extracting an area composed of a plurality of pixels from the input image signal, and performing a prediction operation based on the plurality of pixels extracted in the area extracting step and the prediction coefficient. Generating a pixel value by using the image information conversion method.
号化することによって生成される入力画像信号を、時間
および/または空間においてより解像度の高い画像信号
へ変換するようにした画像情報変換方法において、 入力画像信号から複数の画素からなる画素領域を抽出す
る第1の領域切出しのステップと、 上記第1の領域切出しのステップで抽出された画素デー
タに基づいて特徴量を抽出する特徴量抽出のステップ
と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力画像信号から複数の画素からなる画素領域を抽
出する第2の領域切出しのステップと、 上記第2の領域切出しのステップで抽出された複数の画
素と上記予測係数とに基づいて、予測演算を行って画素
値を生成するステップとからなることを特徴とする画像
情報変換方法。20. An image information conversion method for converting an input image signal generated by decoding an encoded digital image signal into an image signal having higher resolution in time and / or space. A first region extracting step of extracting a pixel region including a plurality of pixels from an input image signal; and a feature amount extracting step of extracting a feature amount based on the pixel data extracted in the first region extracting step. A class information generation step of generating class information based on the feature amount and the additional information for decoding processing; storing a predetermined prediction coefficient; and, among the stored prediction coefficients, the class information Outputting a prediction coefficient corresponding to the following, and extracting a pixel area including a plurality of pixels from the input image signal. And a step of performing a prediction operation to generate a pixel value based on the plurality of pixels extracted in the step of extracting the second area and the prediction coefficient. .
ることを特徴とする画像情報変換方法。21. The image information conversion method according to claim 19, wherein the additional information is information indicating a type of a processing target image signal.
あることを特徴とする画像情報変換方法。22. The image information conversion method according to claim 19, wherein the additional information is format information of an image signal to be processed.
報変換方法。23. The image information conversion method according to claim 19, wherein the additional information is image quality information.
る画像情報変換方法。24. The image information conversion method according to claim 19, wherein the additional information is motion vector information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000101542A JP4552261B2 (en) | 2000-04-03 | 2000-04-03 | Digital information conversion apparatus and method, and image information conversion apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000101542A JP4552261B2 (en) | 2000-04-03 | 2000-04-03 | Digital information conversion apparatus and method, and image information conversion apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001285881A true JP2001285881A (en) | 2001-10-12 |
| JP4552261B2 JP4552261B2 (en) | 2010-09-29 |
Family
ID=18615571
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000101542A Expired - Fee Related JP4552261B2 (en) | 2000-04-03 | 2000-04-03 | Digital information conversion apparatus and method, and image information conversion apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4552261B2 (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003077250A1 (en) * | 2002-03-08 | 2003-09-18 | Sony Corporation | Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, record medium manufacturing method, and recorder |
| JP2003330807A (en) * | 2002-03-08 | 2003-11-21 | Sony Corp | Semiconductor device |
| WO2004047454A1 (en) * | 2002-11-20 | 2004-06-03 | Sony Corporation | Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program |
| JP2005039842A (en) * | 2003-07-16 | 2005-02-10 | Samsung Electronics Co Ltd | Video encoding / decoding device and method for color video |
| EP1324607A3 (en) * | 2001-12-28 | 2006-11-02 | Sony Corporation | Data processing |
| JP2009020879A (en) * | 2002-03-25 | 2009-01-29 | Trustees Of Columbia Univ In The City Of New York | Method and system for enhancing data quality grade |
| US7865065B2 (en) | 2002-03-08 | 2011-01-04 | Sony Corporation | Apparatus and method of recording information on a recording medium |
| WO2018131524A1 (en) * | 2017-01-12 | 2018-07-19 | ソニー株式会社 | Image processing device and image processing method |
| WO2019107182A1 (en) * | 2017-12-01 | 2019-06-06 | ソニー株式会社 | Encoding device, encoding method, decoding device, and decoding method |
| CN110383836A (en) * | 2017-03-15 | 2019-10-25 | 索尼公司 | Encoding device, encoding method, decoding device, and decoding method |
| CN111133757A (en) * | 2017-09-27 | 2020-05-08 | 索尼公司 | Encoding device, encoding method, decoding device and decoding method |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07123291A (en) * | 1993-10-26 | 1995-05-12 | Graphics Commun Lab:Kk | Picture signal processing unit having frame number conversion function |
| JPH0974543A (en) * | 1995-06-30 | 1997-03-18 | Sony Corp | Image signal conversion device and image signal conversion method |
| JPH1070709A (en) * | 1996-08-26 | 1998-03-10 | Sony Corp | Image signal conversion apparatus and method |
| JPH1175180A (en) * | 1997-06-16 | 1999-03-16 | Sony Corp | Image processing apparatus and image processing method, and transmission medium and transmission method |
-
2000
- 2000-04-03 JP JP2000101542A patent/JP4552261B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07123291A (en) * | 1993-10-26 | 1995-05-12 | Graphics Commun Lab:Kk | Picture signal processing unit having frame number conversion function |
| JPH0974543A (en) * | 1995-06-30 | 1997-03-18 | Sony Corp | Image signal conversion device and image signal conversion method |
| JPH1070709A (en) * | 1996-08-26 | 1998-03-10 | Sony Corp | Image signal conversion apparatus and method |
| JPH1175180A (en) * | 1997-06-16 | 1999-03-16 | Sony Corp | Image processing apparatus and image processing method, and transmission medium and transmission method |
Cited By (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8023045B2 (en) | 2001-12-28 | 2011-09-20 | Sony Corporation | Storage device, data processing apparatus, data processing method, program, storage medium and data processing system |
| EP1921849A3 (en) * | 2001-12-28 | 2008-11-19 | Sony Corporation | Data processing |
| EP1324607A3 (en) * | 2001-12-28 | 2006-11-02 | Sony Corporation | Data processing |
| US7760270B2 (en) | 2001-12-28 | 2010-07-20 | Sony Corporation | Storage device, data processing apparatus, data processing method, program, storage medium, and data processing system |
| EP1921851A3 (en) * | 2001-12-28 | 2008-11-19 | Sony Corporation | Data processing |
| EP1921849A2 (en) | 2001-12-28 | 2008-05-14 | Sony Corporation | Data processing |
| EP1921850A3 (en) * | 2001-12-28 | 2008-11-19 | Sony Corporation | Data processing |
| WO2003077250A1 (en) * | 2002-03-08 | 2003-09-18 | Sony Corporation | Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, record medium manufacturing method, and recorder |
| US7865065B2 (en) | 2002-03-08 | 2011-01-04 | Sony Corporation | Apparatus and method of recording information on a recording medium |
| US7689105B2 (en) | 2002-03-08 | 2010-03-30 | Sony Corporation | Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, record medium manufacturing method, and recorder |
| JP2003330807A (en) * | 2002-03-08 | 2003-11-21 | Sony Corp | Semiconductor device |
| JP2009020879A (en) * | 2002-03-25 | 2009-01-29 | Trustees Of Columbia Univ In The City Of New York | Method and system for enhancing data quality grade |
| US7729558B2 (en) | 2002-11-20 | 2010-06-01 | Sony Corporation | Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program |
| WO2004047454A1 (en) * | 2002-11-20 | 2004-06-03 | Sony Corporation | Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program |
| JP2005039842A (en) * | 2003-07-16 | 2005-02-10 | Samsung Electronics Co Ltd | Video encoding / decoding device and method for color video |
| CN110169063B (en) * | 2017-01-12 | 2022-03-01 | 索尼公司 | Image processing apparatus, image processing method, and program |
| CN110169063A (en) * | 2017-01-12 | 2019-08-23 | 索尼公司 | Image processing apparatus, image processing method, and program |
| JPWO2018131524A1 (en) * | 2017-01-12 | 2019-11-07 | ソニー株式会社 | Image processing apparatus and image processing method |
| US11190808B2 (en) | 2017-01-12 | 2021-11-30 | Sony Corporation | Image processing apparatus and image processing method |
| WO2018131524A1 (en) * | 2017-01-12 | 2018-07-19 | ソニー株式会社 | Image processing device and image processing method |
| JP7047776B2 (en) | 2017-01-12 | 2022-04-05 | ソニーグループ株式会社 | Encoding device and coding method, and decoding device and decoding method |
| CN110383836A (en) * | 2017-03-15 | 2019-10-25 | 索尼公司 | Encoding device, encoding method, decoding device, and decoding method |
| CN111133757A (en) * | 2017-09-27 | 2020-05-08 | 索尼公司 | Encoding device, encoding method, decoding device and decoding method |
| CN111133757B (en) * | 2017-09-27 | 2022-04-15 | 索尼公司 | Encoding device, encoding method, decoding device, and decoding method |
| US11423578B2 (en) | 2017-09-27 | 2022-08-23 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
| WO2019107182A1 (en) * | 2017-12-01 | 2019-06-06 | ソニー株式会社 | Encoding device, encoding method, decoding device, and decoding method |
| CN111386703A (en) * | 2017-12-01 | 2020-07-07 | 索尼公司 | Encoding device, encoding method, decoding device, and decoding method |
| US11451833B2 (en) | 2017-12-01 | 2022-09-20 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4552261B2 (en) | 2010-09-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102187664A (en) | Video signal converting system | |
| JP2014171097A (en) | Encoder, encoding method, decoder, and decoding method | |
| JP4114885B2 (en) | Image encoding apparatus, method, and program | |
| JP2004173011A (en) | Image signal processing apparatus and processing method, coefficient data generation apparatus and generation method used therefor, and program for executing each method | |
| JP2001285881A (en) | Digital information conversion apparatus and method, and image information conversion apparatus and method | |
| JP2012235407A (en) | Image processing apparatus and image processing method | |
| JP3946781B2 (en) | Image information conversion apparatus and method | |
| JP2000036963A (en) | Image encoding apparatus, image encoding method, and image decoding apparatus | |
| JP4552262B2 (en) | Noise reduction apparatus and method | |
| JP3723995B2 (en) | Image information conversion apparatus and method | |
| JP3362463B2 (en) | Frame interpolation device | |
| JP4552263B2 (en) | Digital signal processing apparatus and method, and digital image signal processing apparatus and method | |
| JP3724008B2 (en) | Image information conversion device and coefficient data creation device | |
| JP4552264B2 (en) | Error correction apparatus and method | |
| JP2003299096A (en) | Information signal processing device, information signal processing method, image signal processing device and image display device, coefficient seed data generation device and generation method used therefor, coefficient data generation device and generation method, and for executing each method Program and computer readable medium recording the program | |
| JP4154772B2 (en) | Image information conversion apparatus and conversion method | |
| JP3896635B2 (en) | Image data conversion apparatus and method, prediction coefficient generation apparatus and method | |
| JP4909592B2 (en) | Moving picture reproduction method, apparatus, and program | |
| JP3480015B2 (en) | Apparatus and method for generating image data | |
| JP4001143B2 (en) | Coefficient generation apparatus and method | |
| JP3800638B2 (en) | Image information conversion apparatus and method | |
| JP3907623B2 (en) | Video signal encoding / decoding device and encoding / decoding method | |
| JP4062326B2 (en) | Coefficient generation apparatus and method | |
| JP4310847B2 (en) | Image information conversion apparatus and conversion method | |
| JPH0785287A (en) | Predictive encoding device and its decoding device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070206 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090213 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090507 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091207 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100622 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100705 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |