[go: up one dir, main page]

WO2000025512A1 - Dispositif et procede de traitement d'image, dispositif et procede d'apprentissage - Google Patents

Dispositif et procede de traitement d'image, dispositif et procede d'apprentissage Download PDF

Info

Publication number
WO2000025512A1
WO2000025512A1 PCT/JP1999/005876 JP9905876W WO0025512A1 WO 2000025512 A1 WO2000025512 A1 WO 2000025512A1 JP 9905876 W JP9905876 W JP 9905876W WO 0025512 A1 WO0025512 A1 WO 0025512A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image signal
frame
extracted
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP1999/005876
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Hisakazu Shiraki
Hideo Nakaya
Toshihiko Hamamatsu
Yuji Okumura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to KR1020007007152A priority Critical patent/KR100615839B1/ko
Priority to JP2000578989A priority patent/JP4078806B2/ja
Publication of WO2000025512A1 publication Critical patent/WO2000025512A1/ja
Priority to US09/602,934 priority patent/US6757443B1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Definitions

  • Image processing device image processing method, learning device, and learning method
  • the present invention relates to an image processing device, an image processing method, a learning device, and a learning method having a function of removing noise from an input image signal.
  • a motion adaptive recursive filter has been conventionally used to remove noise from an image signal.
  • Fig. 12 shows an example of the configuration of a motion adaptive recursive filter.
  • the input image signal of the current frame is supplied to the subtraction circuit 100.
  • the subtraction circuit 100 is further supplied with the image signal of the previous frame stored in the frame memory 99.
  • the subtraction circuit 100 generates a difference between the image signals of the current frame and the previous frame, and supplies the generated difference to the absolute value calculation circuit 101.
  • the absolute value calculation circuit 101 converts the supplied difference into an absolute value.
  • the output of the absolute value calculation circuit 101 is supplied to the threshold value processing circuit 102.
  • the threshold processing circuit 102 performs threshold processing on the supplied absolute value under the threshold to determine the motion Z static for each pixel.
  • the result of the determination by the threshold value processing circuit 102 is supplied to the weight setting value generation circuit 103.
  • the weight set value generation circuit 103 sets the value of the weight set value k in accordance with the result of the determination by the threshold value processing circuit 102.
  • the set value of k is supplied to an amplifier 104 for adjusting the amplitude of the input frame and an amplifier 105 for adjusting the amplitude of the previous frame stored in the frame memory 99.
  • the amplifier 104 multiplies the input signal by k
  • the amplifier 105 multiplies the input signal by 1-k.
  • the threshold processing circuit 102 determines that the vehicle is stationary, A fixed value between 0 and 0.5 is set as the value. With this setting, the output of the adder 106 at the subsequent stage of the amplifiers 104 and 105 becomes k times the pixel value of the current frame and the pixel value at the same position as the current frame of the previous frame. 1 The value multiplied by 1k is the value added. On the other hand, when the motion is judged by the threshold value processing circuit 102, 1 is set as the value of k. With this setting, the adder 106 outputs the pixel value of the current frame as it is.
  • an object of the present invention is to provide an image processing device, an image processing method, a learning device, and a learning method that can accurately remove noise even when the noise level varies with time.
  • An image processing device includes: a storage unit that stores an input image signal for a plurality of frames;
  • a pixel extraction unit that extracts at least one pixel of the frame of interest and at least one pixel of another frame from the input image signal of each frame stored in the storage unit;
  • a noise detector that detects a temporal change in noise level between frames based on the pixels of each frame extracted by the pixel extractor;
  • An image signal generation unit that generates an image signal from which noise has been removed by performing signal processing on an input image signal of a frame of interest based on a change in noise level.
  • the image processing method further comprising: extracting at least one pixel of the frame of interest and at least one pixel of other frames from the input image signal of the plurality of frames;
  • Generating a noise-free image signal by performing signal processing on the input image signal of the frame of interest based on the fluctuation of the noise level.
  • the learning device further comprising: a noise adding unit that adds a noise component to the teacher image signal to generate a student image signal;
  • a storage unit for storing a plurality of frames of the student image signal output from the noise adding unit
  • a pixel extraction unit that extracts at least one pixel of the frame of interest and at least one pixel of another frame from the student image signal of each frame stored in the storage unit;
  • a noise detection unit that detects a change in the noise level in the time direction between frames based on the pixels of each frame extracted by the pixel extraction unit, and generates class information reflecting the change in the noise level
  • the learning method according to claim 22 is to apply a noise component to the teacher image signal. Adding, generating a student image signal;
  • the present invention it is possible to perform a noise removal process that accurately reflects the inter-frame variation of the noise component based on the pixel data extracted from the predetermined number of frames.
  • FIG. 1 is a block diagram of an embodiment in which the present invention is applied to a noise removing device.
  • FIG. 2 is a block diagram of a learning device for acquiring a prediction coefficient according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing a first example of a configuration for performing noise addition in the learning device.
  • FIG. 4 is a block diagram showing a second example of a configuration for performing noise addition in the learning device.
  • FIG. 5 is a block diagram showing a third example of a configuration for performing noise addition in the learning device.
  • FIG. 6 is a diagram showing a cluster tap structure according to an embodiment of the present invention. It is a schematic diagram for description.
  • FIG. 7 is a block diagram of an example of a noise component extracting unit according to one embodiment of the present invention.
  • FIG. 8 is a schematic diagram for explaining a noise component extraction unit.
  • FIG. 9 is a block diagram of another embodiment in which the present invention is applied to a noise removing device.
  • FIG. 10 is a schematic diagram for explaining a class tap structure according to another embodiment of the present invention.
  • FIG. 11 is a block diagram of a learning device for obtaining a prediction coefficient according to another embodiment of the present invention.
  • FIG. 12 is a block diagram showing an example of a conventional configuration relating to noise removal.
  • noise is removed by performing a classification adaptive process.
  • class classification adaptive processing class division is performed according to the three-dimensional (spatio-temporal) distribution of the signal level of the input image signal, and prediction coefficients obtained by learning in advance for each class are stored in a memory.
  • FIG. 1 shows a general configuration of an embodiment in which a process of outputting an optimum estimated value (that is, a pixel value after noise removal) is performed by an arithmetic process according to a weighted addition formula using a prediction coefficient.
  • an input image signal to be processed is supplied to the frame memory 11.
  • the frame memory 11 stores the supplied image of the current frame and supplies the image of the previous frame to the frame memory 12.
  • the frame memory 12 stores the supplied 1 frame image. In both cases, the image of the previous frame is supplied to the frame memory 13. In this way, newer frames are stored in the frame memories 11, 12, 13 in this order.
  • the frame memory 12 stores the current frame in the input image signal
  • the frame memories 11 and 13 store the frames before and after the current frame, respectively.
  • the storage contents of the frame memories 11, 12, 13 are not limited to this.
  • images at a time interval of two frames may be stored.
  • five frame memories may be provided to store images of five consecutive frames.
  • a field memory can be used instead of the frame memory.
  • the previous frame, the current frame, and the subsequent frame stored in the frame memories 11, 12, and 13 are supplied to the region extraction units 14 and 15, respectively.
  • the region extracting unit 14 extracts a pixel at a position described later from each of the supplied frames, and supplies the extracted pixel value to the noise component extracting unit 16.
  • the noise component extraction unit 16 generates a class code representing information related to the noise component based on the output of the area extraction unit 14 as described later, and supplies the generated class code to the ROM 22.
  • the pixels extracted by the area extracting unit 14 are used for generating a class code, and thus are called class taps.
  • the ROM 22 stores in advance prediction coefficients determined by learning as will be described later, for each class, more specifically, along with an address associated with the class code. Then, the ROM 22 outputs a prediction coefficient corresponding to the class code supplied from the noise component extraction unit 16. The output of the noise component extraction unit 16 is supplied to the ROM 22.
  • the region extraction unit 15 stores the frame memories 11, 12, and 13
  • the prediction pixels are extracted from the stored three consecutive frames of images, and the values of the extracted pixels are supplied to the estimation calculation unit 23.
  • the estimation calculation unit 23 performs a weighting calculation as shown in the following equation (1) based on the output of the region extraction unit 15 and the prediction coefficient read from the ROM 22 to remove the noise from the prediction image. Generate a signal.
  • the pixel values extracted by the region extraction unit 15 are used in weighted addition for generating a predicted image signal, and are therefore referred to as prediction taps.
  • a noise-free input image signal (referred to as a teacher signal) used for learning is supplied to a noise adding unit 10 and a normal equation adding unit 17.
  • the noise adding unit 10 adds a noise component to the input image signal to generate a noise-added image (referred to as a student signal), and supplies the generated student signal to the frame memory 11.
  • the frame memories 11, 12, and 13 store images of the student signal of three frames that are temporally continuous, respectively.
  • the frame memory 12 stores the image of the current frame
  • the frame memories 11 and 13 store the images of the frames before and after the current frame, respectively.
  • the storage contents of the frame memories 11, 12, 13 are not limited to this.
  • the prediction coefficients w,,..., w are not uniquely determined, so the element e k of the error vector e is defined by the following equation (3) and defined by the equation (4)
  • the prediction coefficient is determined so as to minimize the error vector e, ie, the prediction coefficient is uniquely determined by the so-called least squares method.
  • Equation (5) 2 Partial differentiation is performed (Equation (5)), and each prediction coefficient Wi may be determined so that the partial differential value becomes 0 for each value of i.
  • Equation (5) The specific procedure for determining each prediction coefficient Wi from equation (5) is described. If Xji and Yi are defined as in equations (6) and (7), equation (5) can be written in the form of the determinant of equation (8).
  • the prediction coefficient determination unit 18 calculates each parameter in the normal equation (8) based on the three types of inputs described above, and further converts the normal equation (8) according to a general matrix solution such as a sweeping-out method. A calculation process for solving is performed to calculate the prediction coefficient Wi .
  • noise addition in the learning as described above will be described in more detail.
  • the following methods (1) to (4) can be used.
  • (1) Generate random noise and add it to the input image signal as in the case of computer simulation.
  • 2 Add noise to the input image signal via the RF system.
  • (3) A noise component is extracted as a difference between a flat image signal having a small level change and a signal obtained by processing the image signal through an RF system, and the extracted noise component is used as an input image signal.
  • Add. ⁇ ⁇ ⁇ The noise component was extracted and extracted as the difference between the signal obtained by performing processing using the RF system on the flat image signal and the image signal component from which noise was removed by adding the signal to the frame. Add noise component to input image signal
  • Fig. 3 shows an example of the configuration for performing method (2).
  • the teacher signal is DZA-converted by the DZA converter 31 and supplied to the RF encoder 32 as an analog signal.
  • the RF encoder 32 performs RF processing such as modulation on the supplied signal, and supplies the RF-processed signal to the attenuator 33.
  • the attenuator 33 performs an attenuation process on the supplied signal.
  • the output of the attenuator 33 is supplied to the RF decoder 64.
  • the RF decoder 32 demodulates the supplied signal and supplies the demodulated signal to the AZD converter 35.
  • the 80 converter 35 performs AZD conversion on the supplied signal.
  • a noise-added image signal that is, a student signal Is obtained.
  • a displacement of the pixel position over the entire image occurs between the teacher signal and the AZD-converted student signal due to the displacement of the sampling position. Therefore, when noise is added by this method, the weighting coefficient obtained as a result of the learning reflects the shift of the pixel position. Therefore, it is desirable to perform a process of detecting a pixel position shift between the teacher signal and the student signal and adjusting the pixel position based on the detection result. In such a method, it is desirable to consider the deviation of the DC offset component due to the RF system between the teacher signal and the student signal to be actually subjected to noise removal.
  • Fig. 4 shows an example of the configuration for performing method (3).
  • the flat image signal is supplied to the DZA converter 41 and the subtractor 46.
  • the DZA converter 41 D / A converts the supplied signal to an analog signal, and supplies the analog signal to the RF encoder 42.
  • the RF encoder 42 subjects the supplied signal to RF processing, and supplies the RF-processed signal to the attenuator 43.
  • the attenuator 43 performs an attenuation process on the supplied signal.
  • the output of the attenuator 43 is supplied to the RF decoder 44.
  • the RF decoder 44 demodulates the supplied signal and supplies the demodulated signal to the AZD converter 45.
  • the 80 converter 45 performs AZD conversion on the supplied signal.
  • the output of the AZD converter 45 is supplied to the subtractor 46.
  • the subtractor 46 extracts a noise component by taking the difference between the flat image signal and the output (signal to which noise is added) of the 80 converter 35, and adds the extracted noise component to the adder 47.
  • the teacher signal is further supplied to the adder 47.
  • the adder 47 generates a student signal by adding the teacher signal and the noise component output from the subtractor 46.
  • FIG. 5 shows an example of a configuration for performing the method (1).
  • Flat painting The image signal is supplied to the DZA converter 51.
  • the DZA converter 51 D / A converts the supplied signal to an analog signal, and supplies the analog signal to the RF encoder 52.
  • the RF encoder 52 performs RF processing on the supplied signal, and supplies the RF-processed signal to the attenuator 53.
  • the attenuator 53 performs an attenuation process on the supplied signal.
  • the output of the attenuator 53 is supplied to the RF decoder 54.
  • the RF decoder 54 demodulates the supplied signal, and supplies the demodulated signal to the AZD converter 55.
  • the A / D converter 55 performs AZD conversion on the supplied signal.
  • the output of the AZD converter 55 is supplied to an adder 56 and a subtractor 58.
  • the adder 56 is further supplied with the contents stored in the frame memory 57. Then, the result of the addition is supplied to the frame memory 57.
  • the frame memory 57 stores the addition result supplied from the adder 56, and outputs the stored contents to the adder 56 and the subtractor 58. Since the adder 56 and the frame memory 57 constitute a noise removing circuit having a recursive filter configuration, the frame memory 57 outputs an image signal from which noise has been removed.
  • the subtractor 58 extracts a noise component by taking the difference between the output of the frame memory 57 and the output of the AZD converter 55, and supplies the extracted noise component to the adder 59.
  • the teacher signal is further supplied to the adder 59.
  • the adder 59 generates a student signal by adding the teacher signal and the noise component.
  • Figure 6A shows an example of a class tap structure.
  • pixels indicated by black circles are extracted as class taps. That is, only the pixel of interest is extracted as a class tap from the current frame, and one pixel at the same position as the pixel of interest is extracted as a cluster tap from the front and rear frames. Will be issued.
  • a similar tap structure can be used for the prediction tap.
  • the number of frame memories is increased to five instead of three in FIG. 1, etc., for example, to store the current frame and two frames before and after the current frame.
  • a class tap structure may be used in which only the pixel of interest is extracted from the current frame, and a pixel at the same position as the pixel of interest is extracted from each of the previous and next two frames.
  • the extracted pixel area is temporally expanded, so that more effective noise removal can be performed.
  • the noise component extraction unit 16 detects a noise component based on the output of an ADRC (Adaptive Dynamic Range Coding) corresponding to the output of the region extraction unit 14 and performs class classification to generate a class code.
  • ADRC Adaptive Dynamic Range Coding
  • FIG. 7 shows an example of the noise component extraction unit 16.
  • Fig. 7 shows a class code generated by one-bit ADRC.
  • the detection circuit indicated by 1 contains the sum of the pixel of interest from each of the frame memories 11, 12, and 13 and the two pixels extracted from the previous and next frames at the same position as the pixel of interest. Three pixels are provided. The value of each pixel is represented by, for example, 8 bits.
  • the three pixel values from the detection circuit 61 are sequentially supplied to the subtraction circuit 62, and the minimum value MIN is subtracted from each pixel value.
  • the normalized value is supplied to the comparison circuit 63 by removing the minimum value MIN.
  • the output (DR / 2) of the bit shift circuit 64 for making the dynamic range DR 1 to 2 is supplied to the comparison circuit 63, and the magnitude relationship between the pixel value and DRZ2 is detected.
  • the pixel value is greater than DRZ2, the 1-bit comparison output
  • the comparison output is set to "1", otherwise, the comparison output is set to "0.”
  • the comparison circuit 63 generates the 3-bit ADRC output by parallelizing the comparison outputs of the sequentially obtained three pixels.
  • the dynamic range DR is supplied to a bit number conversion circuit 65, and the number of bits is converted from 8 bits to, for example, 5 bits by quantization In the case of the tap structure shown in FIG. A bit ADRC output is formed.
  • the pixel value should not fluctuate between frames. Therefore, when a change in pixel value is detected when the input image signal is a still image, it can be determined that the change is caused by noise.
  • the pixel value of the class tap extracted from each temporally continuous frame of 1, 1, and t + 1 is processed by 1-bit ADRC processing, and 3 bits ( 0 1 0) ADRC output is generated. Also, the dynamic range DR converted to 5 bits is output. Variations in noise level are expressed by the 3-bit ADRC output. In this case, by performing multi-bit ADRC instead of 1-bit, it is possible to express noise level fluctuation more accurately. Also, the noise level is expressed by a code obtained by converting the dynamic range DR to 5 bits. The reason for converting 8 bits to 5 bits is to clip so that the number of classes does not become too large.
  • the class code generated by the noise component extraction unit 16 includes, for example, a 3-bit code related to the noise level fluctuation in the time direction obtained as a result of ADRC and the noise obtained as a result of the dynamic range DR.
  • a 5-bit code related to the level is included.
  • noise is removed by performing a classification adaptive process in consideration of a motion. That is, in another embodiment, in accordance with the motion estimated from the input image signal, a pixel to be referred to for detecting a noise component and an image area to be used for arithmetic processing for removing noise And are extracted, and an image from which noise has been removed by class classification adaptive processing based on these is output.
  • FIG. 9 shows a configuration of a noise removing device according to another embodiment.
  • the frame memories 11, 12, and 13 are provided, and images included in three temporally consecutive frames are used.
  • portions corresponding to the components in FIG. 1 of the above-described embodiment are denoted by the same reference numerals.
  • reference numerals 24 and 25 denote motion estimating units.
  • the motion estimator 24 estimates the motion of the pixel of interest between the image of the current frame stored in the frame memory 12 and the image of the previous frame stored in the frame memory 13.
  • the motion estimating unit 25 estimates the motion of the pixel of interest between the image of the current frame stored in the frame memory 12 and the image of the subsequent frame stored in the frame memory 11.
  • the motion (direction and amount) related to the target pixel estimated by the motion estimators 24 and 25 is supplied to the region extractors 14 ′ and 15 ′.
  • a method of estimating the motion a block matching method, an estimation based on a correlation coefficient, a gradient method, or the like can be used.
  • the region extracting unit 14 ′ is the same as the region extracting unit 14 in the above-described embodiment. Similarly, the pixel value of the class tap is extracted, and the region extracting unit 15 ′ extracts the pixel value of the prediction tap, similarly to the region extracting unit 15 in the above-described embodiment.
  • these region extracting sections 14 ′ and 15 ′ correct the pixel position to be extracted according to the estimated motion. As a result of this motion correction, the pixels extracted from the previous and next frames are at the same position as the pixel of interest in the current frame.
  • the pixel values of the class taps extracted by the region extraction unit 14 ′ are supplied to the noise component extraction unit 16, and the noise component extraction unit 16 performs the 1-bit ADRC processing similar to that in the first embodiment to generate the class code. Is generated.
  • the class code is supplied to the ROM 22, and a prediction coefficient corresponding to the class code is read from the ROM 22.
  • the estimating operation unit 23 performs an operation of the linear linear combination shown in the above equation (1) by using the pixel value of the prediction tap from the region extraction unit 15 ′ and the prediction coefficient from the ROM 22. Generate the output pixel values from which noise has been removed.
  • the region extraction unit 14 extracts a pixel at a pixel position designated by a tap structure as shown in FIG.
  • the tap structure in FIG. 10 is the same as the tap structure in FIG. 6A described above, and only one pixel is extracted per frame in the previous frame fr ⁇ 1, the current frame fr O, and the subsequent frame frl. It has a tap structure.
  • the motion estimation units 24 and 25 determine that the motion is small enough to be still, pixels at the same pixel position in each frame are extracted as class taps for noise detection. Therefore, the cluster count in each frame to be processed is The pixel position of the tap is constant, and the tap structure does not change.
  • the pixel position extracted corresponding to the motion is corrected in order to extract a pixel at the same position from each frame as a cluster tap.
  • the position of the pixel extracted from the subsequent frame fr 1 was corrected by the motion estimated by the motion estimator 24, and the position of the pixel extracted from the previous frame fr-1 was estimated by the motion estimator 25. Corrected by movement.
  • FIG. 11 shows a configuration of a learning apparatus for acquiring a prediction coefficient stored in ROM 22 in another embodiment of the present invention. Similar to the image processing apparatus shown in FIG. 9 for removing noise, motion estimation units 24 and 25 are provided, and region extraction units 14 ′ and 15 ′ are provided with motion estimation units 24 and It has a function to correct the motion based on the motion estimated in 25.
  • the class tap extracted by the region extracting unit 14 ′ is supplied to the noise component extracting unit 16, and the noise component extracting unit 16 generates a class code.
  • the class code, the prediction tap extracted by the region extracting unit 15 ′, and the teacher signal are supplied to the normal equation adding unit 17.
  • the normal equation adding unit 17 performs an arithmetic process for solving the normal equation based on these inputs, and determines a prediction coefficient for each class code.
  • the prediction coefficients are stored in memory 19 Is stored. The process of determining the prediction coefficient by the least squares method is the same as in the above-described embodiment, and the description is omitted.
  • the present invention when performing the classification adaptive processing to remove noise from an image signal, for example, a pixel of interest and a pixel at the same pixel position as the pixel of interest are extracted as class taps, and the data of the cluster type is extracted. A noise level variation between frames is detected based on one evening, and a class code is generated in accordance with the detected noise level variation.
  • the present invention estimates the motion between frames and corrects the estimated motion by using a pixel (class tap) to be used for noise component detection processing and a pixel (prediction) to be used for prediction calculation processing. Tap). Then, for each class information reflecting the noise component, the image signal from which noise has been removed is calculated by linear linear combination of the prediction tap and the prediction coefficient.
  • the noise component can be removed satisfactorily. It can be carried out.
  • the noise level can be detected correctly, and noise can be removed.
  • a class tap structure having no spatial spread in the frame for example, only the pixel of interest is extracted from the current frame
  • spatial blurring factors affect processing. Can be avoided. That is, it is possible to prevent the output image signal from being blurred due to, for example, an edge.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

明 細 書
画像処理装置、 画像処理方法、 学習装置および学習方法
技術分野
この発明は、 入力画像信号のノイズを除去する機能を有する画像処 理装置、 画像処理方法、 学習装置および学習方法に関する。
背景技術
例えばテレビジョン受像機の画像信号処理系等において、 画像信号 からノイズを除去するために、 従来から動き適応型リカーシブフィル 夕が使用されている。 動き適応型リカーシブフィル夕の構成の一例を 第 1 2図に示す。 入力の現フレームの画像信号が減算回路 1 0 0に供 給される。 減算回路 1 0 0には、 さらに、 フレームメモリ 9 9に記憶 されている前フレームの画像信号が供給される。 減算回路 1 0 0は、 現フレームと前フレームとの画像信号の差分を生成し、 生成した差分 を絶対値算出回路 1 0 1に供給する。 絶対値算出回路 1 0 1は、 供給 される差分を絶対値に変換する。 絶対値算出回路 1 0 1の出力がしき い値処理回路 1 0 2に供給される。 しきい値処理回路 1 0 2は、 供給 される絶対値をしきい値の下でしきい値処理して、 画素毎に動き Z静 止を判定する。
しきい値処理回路 1 0 2による判定の結果が重み設定値発生回路 1 0 3に供給される。 重み設定値発生回路 1 0 3は、 しきい値処理回路 1 0 2による判定の結果に応じて重み設定値 kの値を設定する。 設定 される kの値は、 入力フレームに対する振幅調整を行うアンプ 1 0 4 、 およびフレームメモリ 9 9に記憶されている前フレームに対する振 幅調整を行うアンプ 1 0 5に供給される。 ここで、 アンプ 1 0 4は入 力信号を k倍し、 また、 アンプ 1 0 5は入力信号を 1— k倍する。
しきい値処理回路 1 0 2によって静止と判定される場合には、 kの 値として 0〜 0 . 5の間のある固定値が設定される。 かかる設定によ り、 アンプ 1 0 4、 1 0 5の後段の加算器 1 0 6の出力は、 現フレー ムの画素値を k倍した値と前フレームの現フレームと同一位置の画素 値を 1 一 k倍した値とが加算された値とされる。 一方、 しきい値処理 回路 1 0 2によって動きと判定される場合には、 kの値として 1が設 定される。 かかる設定により、 加算器 1 0 6からは現フレームの画素 値がそのまま出力される。
以上のような従来技術においては、 次の (a ) 〜 (d ) のような問 題がある。 (a ) 静止部分に対して、 一定の重み (固定値 k ) の下で 重み付け加算を行うだけなので、 ノイズレベルの大きさと、 その信号 レベルに対する大小関係とが時間的に変動する場合に、 それに的確に 対応するノイズ除去がなされない。 (b ) ノイズレベルが大きい場合 、 静止部分を動きと誤判定してしまうので、 ノイズ除去効果が減少す る。 (c ) 動き部分を静止と誤判定し、 ボケが生じる場合がある。 ( d ) 動き部分に対してはノイズ除去ができない。
従って、 この発明の目的は、 ノイズレベルが時間的に変動する場合 にも的確なノイズ除去を行うことが可能な画像処理装置、 画像処理方 法、 学習装置および学習方法を提供することにある。
発明の開示
請求の範囲 1による画像処理装置は、 入力画像信号を複数フレーム 分記憶する記憶部と、
記憶部に記憶された各フレームの入力画像信号から、 注目フレーム の少なくとも 1つの画素およびその他のフレームの少なくとも 1つの 画素を抽出する画素抽出部と、
画素抽出部で抽出された各フレームの画素に基づいて、 フレーム間 におけるノイズレベルの時間方向の変動を検出するノイズ検出部と、 ノイズレベルの変動に基づいて、 注目フレームの入力画像信号に対 して信号処理を行うことによって、 ノイズの除去された画像信号を生 成する画像信号生成部とを備えるものである。
請求の範囲 8の画像処理方法は、 複数フレームの入力画像信号から 、 注目フレームの少なくとも 1つの画素およびその他のフレームの少 なくとも 1つの画素を抽出するステップと、
抽出された各フレームの画素に基づいて、 フレーム間におけるノィ ズレベルの時間方向の変動を検出するステップと、
ノイズレベルの変動に基づいて、 注目フレームの入力画像信号に対 して信号処理を行うことによって、 ノイズの除去された画像信号を生 成するステップとを備えるものである。
請求の範囲 1 5の学習装置は、 教師画像信号に対してノイズ成分を 付加し、 生徒画像信号を生成するノイズ付加部と、
ノイズ付加部から出力される生徒画像信号を複数フレーム分記憶す る記憶部と、
記憶部に記憶された各フレームの生徒画像信号から、 注目フレーム の少なくとも 1つの画素およびその他のフレームの少なくとも 1つの 画素を抽出する画素抽出部と、
画素抽出部で抽出された各フレームの画素に基づいて、 フレーム間 におけるノイズレベルの時間方向の変動を検出し、 ノイズレベルの変 動を反映したクラス情報を発生するノイズ検出部と、
クラス情報と、 教師画像信号と、 生徒画像信号とに基づいて、 生徒 画像信号と同質の入力画像信号から教師画像信号と同質の出力画像信 号を生成するための予測係数を演算する予測係数演算部とを備えるも のである。
請求の範囲 2 2の学習方法は、 教師画像信号に対してノイズ成分を 付加し、 生徒画像信号を生成するステップと、
記憶された各フレームの生徒画像信号から、 注目フレームの少なく とも 1つの画素およびその他のフレームの少なくとも 1つの画素を抽 出するステツプと、
抽出された各フレームの画素に基づいて、 フレーム間におけるノィ ズレベルの時間方向の変動を検出し、 ノイズレベルの変動を反映した クラス情報を発生するステップと、
クラス情報と、 教師画像信号と、 生徒画像信号とに基づいて、 生徒 画像信号と同質の入力画像信号から教師画像信号と同質の出力画像信 号を生成するための予測係数を演算するステップとを備えるものであ る。
この発明によれば、 所定個数のフレームから抽出される画素のデ一 夕に基づいて、 ノイズ成分のフレ一ム間変動を的確に反映するノイズ 除去処理が可能となる。
図面の簡単な説明
第 1図は、 この発明をノイズ除去装置に適用した一実施例のブロッ ク図である。
第 2図は、 この発明の一実施例における予測係数を取得するための 学習装置のプロック図である。
第 3図は、 学習装置においてノイズ付加を行うための構成の第 1の 例を示すブロック図である。
第 4図は、 学習装置においてノイズ付加を行うための構成の第 2の 例を示すブロック図である。
第 5図は、 学習装置においてノイズ付加を行うための構成の第 3の 例を示すブロック図である。
第 6図は、 この発明の一実施例におけるクラスタツプ構造について 説明するための略線図である。
第 7図は、 この発明の一実施例におけるノイズ成分抽出部の一例の ブロック図である。
第 8図は、 ノイズ成分抽出部の説明のための略線図である。
第 9図は、 この発明をノイズ除去装置に適用した他の実施例のプロ ック図である。
第 1 0図は、 この発明の他の実施例におけるクラスタップ構造につ いて説明するための略線図である。
第 1 1図は、 この発明の他の実施例における予測係数を取得するた めの学習装置のブロック図である。
第 1 2図は、 ノイズ除去に係る従来の構成の一例を示すブロック図 である。
発明を実施するための最良の形態
以下、 この発明の一実施例について説明する。 この発明の一実施例 は、 クラス分類適応処理を行うことによってノイズ除去を行うもので ある。 ここでは、 クラス分類適応処理として、 入力画像信号の信号レ ベルの 3次元 (時空間) 分布に応じてクラス分割を行い、 クラス毎に 予め学習によって獲得された予測係数をメモリに格納し、 かかる予測 係数を使用した重み付け加算式に従う演算処理によって最適な推定値 (すなわち、 ノイズ除去後の画素値) を出力する処理を採用している 第 1図は、 一実施例の全体的構成を示す。 ここで処理されるべき入 力画像信号がフレームメモリ 1 1に供給される。 フレームメモリ 1 1 は、 供給される現在フレームの画像を記憶すると共に、 1フレーム前 の画像をフレームメモリ 1 2に供給する。
フレームメモリ 1 2は、 供給される 1フレームの画像を記憶すると 共に、 1フレーム前の画像をフレームメモリ 1 3に供給する。 このよ うにして、 フレームメモリ 1 1、 1 2、 1 3には、 この順に、 より新 しいフレームが記憶される。 以下の説明では、 フレームメモリ 1 2が 入力画像信号内の現フレームを記憶し、 また、 フレームメモリ 1 1お よび 1 3がそれぞれ、 現フレームの前および後のフレームを記憶する 場合を例として行う。 但し、 フレームメモリ 1 1、 1 2、 1 3の記憶 内容は、 これに限定されるものでは無い。 例えば時間的に 2フレーム 間隔の画像を記憶しても良い。 また、 連続する 3フレームに限らず、 5個のフレームメモリを設け、 連続する 5フレームの画像を記憶する ようにしても良い。 さらに、 フレームメモリに代えてフィールドメモ リを使用することも可能である。
フレームメモリ 1 1、 1 2、 1 3がそれぞれ記憶している前フレー ム、 現フレーム、 後フレームが領域抽出部 14、 1 5に供給される。 領域抽出部 1 4は、 供給される各フレームから後述するような位置の 画素を抽出し、 抽出した画素値をノイズ成分抽出部 1 6に供給する。 ノイズ成分抽出部 1 6は、 領域抽出部 14の出力に基づいて、 後述す るように、 ノイズ成分に係る情報を表現するクラスコードを発生し、 発生したクラスコ一ドを ROM2 2に供給する。 このように、 領域抽 出部 1 4が抽出する画素はクラスコードの発生のために使用されるの で、 クラスタップと称される。
ROM 22は、 後述するような学習によって決定される予測係数を クラス毎に、 より具体的にはクラスコードに関連するァドレスに沿つ て、 予め記憶している。 そして、 ROM2 2は、 ノイズ成分抽出部 1 6から供給されるクラスコードに対応する予測係数を出力する。 ノィ ズ成分抽出部 1 6の出力が ROM 2 2に供給される。
一方、 領域抽出部 1 5は、 フレームメモリ 1 1、 1 2、 1 3がそれ ぞれ記憶している連続する 3フレームの画像から予測用の画素を抽出 し、 抽出した画素の値を推定演算部 2 3に供給する。 推定演算部 2 3 は、 領域抽出部 1 5の出力と ROM2 2から読出される予測係数とに 基づいて、 以下の式 ( 1 ) に示すような重み付け演算を行ってノイズ が除去された予測画像信号を生成する。 このように、 領域抽出部 1 5 が抽出する画素値は、 予測画像信号を生成するための重み付け加算に おいて使用されるので、 予測タップと称される。
y = Wi X X i + W2 X X 2 + · · · · + Wn X n ( 1 ) ここで、 X , , · · ··, X„ が各予測タップであり、 W, , ·· ··, W n が各予測係数である。
次に、 学習、 すなわち、 ROM 2 2に格納する予測係数を得る処理 について第 2図を参照して説明する。 ここで、 第 1図中の構成要素と 同様な構成要素には、 同一の参照符号を付した。 学習を行うために用 いられる、 ノイズを含まない入力画像信号 (教師信号と称する) がノ ィズ付加部 1 0、 および正規方程式加算部 1 7に供給される。 ノイズ 付加部 1 0は入力画像信号にノイズ成分を付加してノイズ付加画像 ( 生徒信号と称する) を生成し、 生成した生徒信号をフレームメモリ 1 1に供給する。 そして、 第 1図を参照して説明したように、 フレーム メモリ 1 1、 1 2、 1 3には、 時間的に連続する 3フレームの生徒信 号の画像がそれぞれ記憶される。 以下の説明では、 フレームメモリ 1 2が現フレームの画像を記憶し、 また、 フレームメモリ 1 1および 1 3がそれぞれ、 現フレームの前および後のフレームの画像を記憶する 場合を例として行う。 但し、 上述したように、 フレームメモリ 1 1、 1 2、 1 3の記憶内容は、 これに限定されるものでは無い。
フレームメモリ 1 1、 1 2、 1 3の後段においては、 第 1図を参照 して上述した処理と略同様な処理がなされる。 但し、 ノイズ成分抽出 部 1 6が発生するクラスコードおよび領域抽出部 1 5が抽出する予測 タップは、 正規方程式加算部 1 7に供給される。 正規方程式加算部 1 7には、 さらに、 教師信号が供給される。 正規方程式加算部 1 7は、 これら 3種類の入力に基づいて正規方程式を解くための計算処理を行 い、 クラスコード毎の予測係数を決定する。 そして、 決定した予測係 数をメモリ 1 9に供給する。 メモリ 1 9は、 供給される予測係数を記 憶する。 メモリ 19に記憶される予測係数と ROM22 (第 1図) に 記憶される予測係数とは、 同一のものである。
正規方程式について説明する。 上述の式 (1) において、 学習前は 予測係数 , ·· ··, w„ が未定係数である。 学習は、 クラス毎に複 数の教師信号を入力することによって行う。 教師信号のクラス毎の種 類数を mと表記する場合、 式 (1) から、 以下の式 (2) が設定され る。
y k = W i X X k l + W2 X X k2 + · · · · + Wn X kn ( 2 ) ( k = 1, 2, ·'··, m)
m>nの場合、 予測係数 w, , ·· ··, w„ は一意に決まらないので 、 誤差ベクトル eの要素 ek を以下の式 (3) で定義して、 式 (4) によって定義される誤差べクトル eを最小とするように予測係数を定 めるようにする。 すなわち、 いわゆる最小 2乗法によって予測係数を 一意に定める。
e k = y k 一 l wi x x ki + w2 x x k2 +·· ··+ w„ X x kn) ( 3)
(k = 1 , 2 , ·· --m) Σ (4) =0 式 (4) の e 2 を最小とする予測係数を求めるための実際的な計算 5 方法としては、 e 2 を予測係数 Wi (i = l, 2·· ··) で偏微分し (式 ( 5 ) ) 、 iの各値について偏微分値が 0となるように各予測係数 Wi を 定めれば良い。
Figure imgf000011_0001
式 ( 5) から各予測係数 Wi を定める具体的な手順について説明す る。 式 (6) 、 (7) のように Xji, Yi を定義すると、 式 ( 5) は 、 式 (8) の行列式の形に書くことができる。
15
∑ X. (6)
PJ
/7=0
Figure imgf000011_0002
20
25
Figure imgf000011_0003
式 (8) が一般に正規方程式と呼ばれるものである。 予測係数決定 部 1 8は、 上述した 3種類の入力に基づいて正規方程式 (8) 中の各 パラメータを算出し、 さらに、 掃き出し法等の一般的な行列解法に従 つて正規方程式 (8) を解くための計算処理を行って予測係数 Wi を 算出する。
以上のような学習におけるノイズ付加についてより詳細に説明する 。 ノイズ付加を行うためには、 以下の①〜④のような方法を用いるこ とができる。 ①コンピュータシミュレーションと同様にランダムノィ ズを発生させて入力画像信号に付加する。 ②入力する画像信号に対し 、 RF系を介してノイズを付加する。 ③レベル変化が少ない平坦な画 像信号と、 かかる画像信号に R F系を介した処理を行うことによって 得られる信号との間の差としてノイズ成分を抽出し、 抽出したノイズ 成分を入力画像信号に付加する。 ④平坦な画像信号に R F系を用いた 処理を行うことによって得られる信号と、 かかる信号をフレーム加算 することによってノイズが除去されてなる画像信号成分との差として ノイズ成分を抽出し、 抽出したノイズ成分を入力画像信号に付加する
②の方法を行うための構成の一例を第 3図に示す。 教師信号が DZ A変換器 3 1によって DZ A変換され、 アナログ信号として R Fェン コ一ダ 3 2に供給される。 RFエンコーダ 3 2は、 供給される信号を 変調等の RF処理を行い、 RF処理した信号を減衰器 3 3に供給する 。 減衰器 3 3は、 供給される信号に減衰処理を施す。 減衰器 3 3の出 力は R Fデコーダ 64に供給される。 R Fデコーダ 3 2は、 供給され る信号を復調し、 復調した信号を AZD変換器 3 5に供給する。 八 0変換器3 5は、 供給される信号に AZD変換を施す。 AZD 変換器 3 5の出力として、 ノイズ付加画像信号、 すなわち、 生徒信号 が得られる。 この方法によって得られる生徒信号においては、 教師信 号と、 AZD変換後の生徒信号との間で、 サンプリング位置のずれに 起因して、 画像全体に渡る画素位置のずれが生じる。 このため、 ノィ ズ付加をこの方法で行う場合には、 学習の結果として得られる重み付 け係数が画素位置のずれを反映したものとなる。 そこで、 教師信号と 生徒信号との間での画素位置のずれを検出し、 検出結果に基づいて画 素位置を合わせる処理を行うのが望ましい。 かかる方法においては、 教師信号と、 実際にノイズ除去の対象とされる生徒信号との間での R F系による DCオフセット成分のずれを考慮するのが望ましい。
また、 ③の方法を行うための構成の一例を第 4図に示す。 平坦な画 像信号が DZA変換器 4 1と、 減算器 46とに供給される。 DZA変 換器 4 1は、 供給される信号を D/A変換してアナログ信号とし、 こ のアナログ信号を RFエンコーダ 42に供給する。 RFエンコーダ 4 2は、 供給される信号を RF処理し、 RF処理した信号を減衰器 43 に供給する。 減衰器 43は、 供給される信号に減衰処理を施す。
減衰器 43の出力が R Fデコーダ 44に供給される。 R Fデコーダ 44は供給される信号を復調し、 復調した信号を AZD変換器 45に 供給する。 八 0変換器4 5は、 供給される信号に AZD変換を施す AZD変換器 45の出力が減算器 46に供給される。 減算器 46は 、 平坦な画像信号と、 八 0変換器3 5の出カ (ノイズが付加された 信号) との差をとることによってノイズ成分を抽出し、 抽出したノィ ズ成分を加算器 47に供給する。 加算器 47には、 さらに、 教師信号 が供給される。 加算器 4 7は、 教師信号と、 減算器 46の出力である ノイズ成分とを加算することにより、 生徒信号を生成する。
また、 ④の方法を行うための構成の一例を第 5図に示す。 平坦な画 像信号が DZA変換器 5 1に供給される。 DZA変換器 5 1は、 供給 される信号を D/ A変換してアナログ信号とし、 このアナログ信号を R Fエンコーダ 5 2に供給する。 RFエンコーダ 5 2は、 供給される 信号を RF処理し、 RF処理した信号を減衰器 5 3に供給する。 減衰 器 5 3は、 供給される信号に減衰処理を施す。 減衰器 5 3の出力が R Fデコーダ 54に供給される。 R Fデコーダ 54は、 供給される信号 を復調し、 復調した信号を AZD変換器 5 5に供給する。 A/D変換 器 5 5は、 供給される信号に AZD変換を施す。
AZD変換器 5 5の出力は、 加算器 5 6と減算器 5 8とに供給され る。 加算器 5 6は、 さらに、 フレームメモリ 5 7の記憶内容を供給さ れる。 そして、 加算結果をフレームメモリ 5 7に供給する。 フレーム メモリ 5 7は、 加算器 5 6から供給される加算結果を記憶し、 また、 加算器 5 6と減算器 5 8とに記憶内容を出力する。 加算器 5 6および フレームメモリ 5 7は、 リカーシブフィル夕の構成のノイズ除去回路 を構成するので、 フレームメモリ 5 7は、 ノイズ除去された画像信号 を出力する。
減算器 5 8は、 フレームメモリ 5 7の出力と AZD変換器 5 5の出 力との差をとることによってノイズ成分を抽出し、 抽出したノイズ成 分を加算器 5 9に供給する。 加算器 5 9には、 さらに、 教師信号が供 給される。 加算器 5 9は、 教師信号とノイズ成分とを加算することに より、 生徒信号を生成する。
次に、 領域抽出部 1 4が行うクラスタップの抽出についてより詳細 に説明する。 第 6図 Aに、 クラスタップ構造の一例を示す。 ここで、 黒丸で示す画素がクラスタップとして抽出される。 すなわち、 現フレ ームから注目画素のみがクラスタップとして抽出され、 前 後フレー ムから注目画素と同一位置の 1画素がそれぞれクラスタツプとして抽 出される。 予測タップについても、 同様のタップ構造を用いることが できる。
また、 例えば、 第 6図 Bに示すように、 フレームメモリ数を増やし 、 第 1図等における 3個に代わって例えば 5個とし、 例えば現フレー ムおよびその前後の 2個ずつのフレームを記憶して、 現フレームから 注目画素のみを抽出し、 前 後の 2個ずつのフレームから注目画素と 同一位置の画素を抽出するようなクラスタップ構造を使用しても良い 。 この場合には、 抽出される画素領域が時間的に拡張されるので、 よ り効果的なノイズ除去が可能となる。
ノイズ成分抽出部 1 6は、 領域抽出部 1 4の出力に対応して、 AD R C (Adaptive Dynamic Range Coding) の出力によってノイズ成分を 検出し、 クラス分類を行ってクラスコードを発生する。
第 7図は、 ノイズ成分抽出部 1 6の一例を示す。 第 7図は、 1ピッ ト ADRCによって、 クラスコードを発生するものである。 6 1で示 す検出回路には、 フレームメモリ 1 1, 1 2, 1 3のそれぞれから注 目画素と、 注目画素と同一位置の前後のフレームからそれぞれ抽出さ れた 2個の画素との合計 3個の画素が供給される。 各画素の値は、 例 えば 8ビットで表現されている。 検出回路 6 1は、 3個の画素の中の 最大値 MAXとその最小値 M I Nを検出し、 MAX— M I N=DRの 演算によって、 ダイナミックレンジ DRを算出する。
検出回路 6 1からの 3個の画素値が減算回路 6 2に順に供給され、 各画素値から最小値 M I Nが減算される。 最小値 M I Nが除去される ことで正規化された値が比較回路 6 3に供給される。 比較回路 6 3に は、 ダイナミックレンジ D Rを 1ノ 2にするビットシフト回路 64の 出力 (DR/2) が供給され、 画素値と DRZ 2との大小関係が検出 される。 画素値が D RZ 2より大きい時には、 1ビットの比較出力が " 1 " とされ、 そうでないときは、 比較出力が'' 0" とされる。 比較回路 6 3は、 順次得られる 3画素の比較出力を並列化して 3ビッ卜の A D R C出力を発生する。 また、 ダイナミックレンジ D Rがビット数変換 回路 6 5に供給され、 量子化によってビット数が 8ビットから例えば 5ビッ トに変換される。 なお、 第 6図 Bに示すタップ構造の場合には 、 5ビットの A D R C出力が形成される。
上述したようなクラスタップ構造の下では、 入力画像信号が静止画 像である場合には、 フレーム間での画素値の変動が生じないはずであ る。 従って、 入力画像信号が静止画像である場合に画素値の変動が検 出される場合には、 ノイズに起因すると判定できる。
一例として、 第 8図に示すように、 時間的に連続した卜 1 , t , t + 1 の各フレームから抽出されたクラスタップの画素値が 1ビット A D R Cの処理を受けることによって、 3ビット (0 1 0 ) の A D R C出 力が発生する。 また、 ダイナミックレンジ D Rが 5ビッ トに変換され たものが出力される。 3ビットの A D R C出力によって、 ノイズレべ ルの変動が表現される。 この場合、 1ビッ トではなく、 多ビット A D R Cを行うようにすれば、 ノイズレベル変動をより的確に表現するこ とが可能となる。 また、 ダイナミックレンジ D Rを 5ビットに変換し たコードによって、 ノイズレベルの大きさが表現される。 8ビットを 5ビットに変換するのは、 クラス数があまり多くならないようにクリ ップするためである。
このように、 ノイズ成分抽出部 1 6が生成するクラスコードは、 A D R Cの結果として得られる時間方向のノイズレベル変動に係る例え ば 3ビッ トからなるコードと、 ダイナミックレンジ D Rの結果として 得られるノイズレベルに係る例えば 5ビットからなるコードとを含む ものとされる。 ダイナミックレンジ D Rをクラス分類に用いることに より、 動きとノイズとを区別でき、 また、 ノイズレベルの違いを区別 できる。
上述したこの発明の一実施例は、 主として静止画像のノイズ除去に 適用して好適なものである。 次に説明するこの発明の他の実施例は、 動きを考慮してクラス分類適応処理を行うことによってノイズ除去を 行うものである。 すなわち、 他の実施例では、 入力画像信号から推定 される動きに応じて、 ノイズ成分を検出するために参照されるべき画 素と、 ノイズを除去するための演算処理に使用されるべき画像領域と が抽出され、 これらに基づいくクラス分類適応処理によってノイズが 除去された画像を出力するようにしたものである。
第 9図は、 他の実施例によるノイズ除去装置の構成を示す。 他の実 施例においても、 フレームメモリ 1 1、 1 2、 1 3が設けられ、 時間 的に連続する 3フレームにそれぞれ含まれる画像が使用される。 第 9 図中で、 上述した一実施例の第 1図中の構成要素と対応する部分には 、 同一の参照符号を付して示す。
第 9図において 2 4および 2 5が動き推定部を示す。 動き推定部 2 4は、 フレームメモリ 1 2に記憶された現フレームの画像と、 フレー ムメモリ 1 3に記憶された前フレームの画像との間の注目画素の動き を推定する。 また、 動き推定部 2 5は、 フレームメモリ 1 2に記憶さ れた現フレームの画像と、 フレームメモリ 1 1に記憶された後フレー ムの画像との間の注目画素の動きを推定する。 動き推定部 2 4および 2 5のそれぞれで推定された注目画素に関する動き (方向および量) が領域抽出部 1 4 ' および 1 5 ' に供給される。 動きを推定する方法 としては、 ブロックマッチング法、 相関係数による推定、 勾配法等を 使用することができる。
領域抽出部 1 4 ' は、 前述の一実施例における領域抽出部 1 4と同 様に、 クラスタップの画素値を抽出し、 また、 領域抽出部 1 5 ' は、 前述の一実施例における領域抽出部 1 5と同様に、 予測タップの画素 値を抽出する。 これらの領域抽出部 1 4 ' および 1 5 ' は、 画素を抽 出する時に、 推定された動きに応じて抽出される画素位置が補正され る。 この動き補正によって、 前後のフレームからそれぞれ抽出される 画素が現フレームの注目画素と同一位置のものとされる。
領域抽出部 1 4 ' で抽出されたクラスタップの画素値がノイズ成分 抽出部 1 6に供給され、 ノイズ成分抽出部 1 6によって一実施例と同 様の 1ビッ ト ADRCの処理によって、 クラスコードが生成される。 クラスコードが ROM 2 2に供給され、 クラスコードに対応する予測 係数が ROM 2 2から読み出される。 推定演算部 23では、 領域抽出 部 1 5 ' からの予測タップの画素値と、 ROM2 2からの予測係数に よって、 上述した式 ( 1 ) に示す線形 1次結合の演算を行うことによ つて、 ノイズ除去された出力画素値を生成する。
領域抽出部 1 4 ' および 1 5 ' のそれぞれの後段側でなされる処理 は、 上述した一実施例と同様であるので、 その説明は、 簡単のために 省略する。
第 1 0図を参照して、 領域抽出部 1 4 ' が行う処理についてより詳 細に説明する。 領域抽出部 1 4 ' は、 第 1 0図に示すようなタップ構 造によって指定される画素位置の画素を抽出する。 第 1 0図と上述し た第 6図 Aのタツプ構造は、 同一のものであり、 前フレ一ム f r— 1 , 現フレーム f r O、 後フレーム f r lにおいてフレーム毎に 1画素 のみが抽出されるタップ構造である。 ここで、 動き推定部 24および 2 5によって動きが充分小さく静止と判定される場合には、 各フレー ムにおける同一画素位置の画素がノイズ検出のためのクラスタップと して抽出される。 したがって、 処理対象の各フレーム内のクラスタツ プの画素位置は一定であり、 タツプ構造に変動は無い。
一方、 動きがある程度以上大きく、 動きと判定される場合には、 各 フレームから同一位置の画素をクラスタツプとして抽出するために、 動きに対応して抽出される画素位置の補正が行われる。 後フレーム f r 1から抽出する画素の位置は、 動き推定部 2 4で推定された動きに よって補正され、 前フレーム f r - 1から抽出する画素の位置は、 動 き推定部 2 5で推定された動きによって補正される。
領域抽出部 1 5 ' において抽出される画素に対する動き補正も同様 になされる。 このような動き補正の結果、 領域抽出部 1 4 ' によって 抽出されるクラスタップは、 空間的位置が互いに一致する画素となる 。 領域抽出部 1 5 ' によって抽出される予測タップも、 動き補正によ つて空間的位置が互いに一致する画素となる。 抽出するクラスタップ および予測タップを動き補正すること以外は、 上述した一実施例と同 様の処理によって、 ノイズ除去された出力画像信号が形成される。 第 1 1図は、 この発明の他の実施例において、 R O M 2 2に格納す る予測係数を取得するための学習装置の構成を示す。 ノイズ除去を行 うための第 9図に示す画像処理装置と同様に、 動き推定部 2 4および 2 5が設けられ、 また、 領域抽出部 1 4 ' および 1 5 ' が動き推定部 2 4および 2 5で推定された動きに基づいて動きを補正する機能を有 する。
領域抽出部 1 4 ' で抽出されたクラスタップがノイズ成分抽出部 1 6に供給され、 ノイズ成分抽出部 1 6からクラスコードが発生する。 クラスコードと、 領域抽出部 1 5 ' で抽出された予測タップと、 教師 信号とが正規方程式加算部 1 7に供給される。 正規方程式加算部 1 7 は、 これらの入力に基づいて正規方程式を解くための演算処理を行い 、 クラスコード毎に予測係数を決定する。 予測係数は、 メモリ 1 9に 格納される。 最小 2乗法により予測係数を決定する処理は、 上述した 一実施例と同様であるので、 その説明を省略する。
この発明は、 上述した一実施例および他の実施例に限定されるもの ではなく、 この発明の主旨を逸脱しない範囲内で様々な変形や応用が 可能である。
上述したように、 この発明は、 画像信号からノイズを除去するため クラス分類適応処理を行うに際し、 例えば注目画素および注目画素と 同一画素位置にある画素等をクラスタップとして抽出し、 クラスタツ プのデ一夕に基づいてフレーム間でのノィズレベルの変動を検出し、 検出したノイズレベルの変動に対応してクラスコ一ドを生成するよう にしたものである。 また、 この発明は、 フレームの間の動きを推定し 、 推定した動きを補正するように、 ノイズ成分の検出処理に使用すベ き画素 (クラスタップ) と予測演算処理に使用すべき画素 (予測タツ プ) を抽出する。 そして、 ノイズ成分を反映したクラス情報毎に、 予 測タップと予測係数との線形 1次結合によって、 ノイズ除去された画 像信号を算出するものである。
この発明によれば、 ノイズ成分のフレーム間変動に的確に対応する 予測係数を選択することができるので、 そのような予測係数を使用し て推定演算を行うことにより、 ノイズ成分の除去を良好に行うことが できる。
また、 動きがある場合にもノイズレベルが正しく検出でき、 ノイズ 除去が可能となる。 特に、 第 1 2図に示す従来例のように動き部分を 静止部分であると誤判定することが要因となり、 画像にボケが生じる ことを回避することができる。
さらに、 フレーム内において空間的な広がりが無いクラスタップ構 造、 例えば現フレームから注目画素のみが抽出され、 現フレームに対 して時間的に前 後にあるフレームから注目画素と同一位置の画素が 抽出されるようなタツプ構造をクラスタップおよびノまたは予測夕ッ プとして用いる場合には、 空間方向のぼけ要因が処理に影響を与える ことを回避することができる。 すなわち、 例えばエッジ等の影響によ り、 出力画像信号中にぼけが生じることを回避できる。

Claims

請求の範囲
1 . 入力画像信号を複数フレーム分記憶する記憶部と、
上記記憶部に記憶された各フレームの入力画像信号から、 注目フレ
—ムの少なくとも 1つの画素およびその他のフレームの少なくとも 1 つの画素を抽出する画素抽出部と、
上記画素抽出部で抽出された各フレームの画素に基づいて、 フレー ム間におけるノイズレベルの時間方向の変動を検出するノイズ検出部 と、
上記ノイズレベルの変動に基づいて、 上記注目フレームの入力画像 信号に対して信号処理を行うことによって、 ノイズの除去された画像 信号を生成する画像信号生成部とを備えることを特徴とする画像処理
2 . 請求の範囲 1において、
上記記憶部に記憶された複数フレーム分の入力画像信号に基づいて 、 フレーム間における動きを検出する動き検出部をさらに備え、 上記画素抽出部は、 上記動き検出部で検出された動きに基づいて決 定されるフレーム内の位置の画素を、 各フレームの入力画像信号から 抽出することを特徴とする画像処理装置。
3 . 請求の範囲 1において、
上記ノイズ検出部は、 画素毎にノイズレベルの変動を検出すること を特徴とする画像処理装置。
4 . 請求の範囲 1において、
上記画素抽出部は、 上記その他のフレームから、 上記注目フレーム から抽出された画素と同じ位置の画素を抽出することを特徴とする画 像処理装置。
5 . 請求の範囲 1において、 上記記憶部に記憶された各フレームの入力画像信号からそれぞれ 1 画素を抽出し、
上記ノイズ検出部は、 抽出した画素に基づいて上記注目フレームか ら抽出した画素に対するノイズレベルの変動を検出することを特徴と する画像処理装置。
6 . 請求の範囲 1において、
上記ノイズ検出部は、 上記画素抽出部で抽出された各フレームの画 素の画素値を用いてダイナミックレンジに適応した符号化を行うこと によって、 フレーム間におけるノイズレベルの変動を検出することを 特徴とする画像処理装置。
7 . 請求の範囲 1において、
上記画像信号生成部がクラス分類適応処理によって画像信号を生成 することを特徴とする画像処理装置。
8 . 複数フレームの入力画像信号から、 注目フレームの少なくとも 1 つの画素およびその他のフレームの少なくとも 1つの画素を抽出する ステップと、
上記抽出された各フレームの画素に基づいて、 フレーム間における ノイズレベルの時間方向の変動を検出するステップと、
上記ノイズレベルの変動に基づいて、 上記注目フレームの入力画像 信号に対して信号処理を行うことによって、 ノイズの除去された画像 信号を生成するステップとを備えることを特徴とする画像処理方法。 9 . 請求の範囲 8において、
複数フレーム分の入力画像信号に基づいて、 フレーム間における動 きを検出するステップをさらに備え、
上記抽出するステップにおいて、 上記動きを検出するステップで検 出された動きに基づいて決定されるフレーム内の位置の画素が各フレ —ムの入力画像信号から抽出されることを特徴とする画像処理方法。
1 0 . 請求の範囲 8において、
上記ノィズを検出するステツプにおいて、 画素毎にノイズレベルの 変動が検出されることを特徴とする画像処理方法。
1 1 . 請求の範囲 8において、
上記抽出するステップにおいて、 上記その他のフレームから、 上記 注目フレームから抽出された画素と同じ位置の画素が抽出されること を特徴とする画像処理方法。
1 2 . 請求の範囲 8において、
上記抽出するステップにおいて、 各フレームの入力画像信号からそ れぞれ 1画素が抽出され、
上記検出するステツプにおいて、 抽出した画素に基づいて上記注目 フレームから抽出した画素に対するノイズレベルの変動が検出される ことを特徴とする画像処理方法。
1 3 . 請求の範囲 8において、
上記検出するステツプにおいて、 抽出された各フレームの画素の画 素値を用いてダイナミツクレンジに適応した符号化が行われることに よって、 フレーム間におけるノイズレベルの変動が検出されることを 特徴とする画像処理方法。
1 4 . 請求の範囲 8において、
上記生成するステップにおいて、 クラス分類適応処理によって画像 信号が生成されることを特徴とする画像処理方法。
1 5 . 教師画像信号に対してノイズ成分を付加し、 生徒画像信号を生 成するノイズ付加部と、
上記ノイズ付加部から出力される生徒画像信号を複数フレーム分記 憶する記憶部と、 上記記憶部に記憶された各フレームの生徒画像信号から、 注目フレ
—ムの少なくとも 1つの画素およびその他のフレームの少なくとも 1 つの画素を抽出する画素抽出部と、
上記画素抽出部で抽出された各フレームの画素に基づいて、 フレ一 ム間におけるノイズレベルの時間方向の変動を検出し、 上記ノイズレ ベルの変動を反映したクラス情報を発生するノイズ検出部と、 上記クラス情報と、 上記教師画像信号と、 上記生徒画像信号とに基 づいて、 上記生徒画像信号と同質の入力画像信号から上記教師画像信 号と同質の出力画像信号を生成するための予測係数を演算する予測係 数演算部とを備えることを特徴とする学習装置。
1 6 . 請求の範囲 1 5において、
上記予測係数演算部は、 上記クラス情報と、 上記教師画像信号と、 上記生徒画像信号とが入力され、 上記生徒画像信号の複数の画素値と 予測係数との線形結合によって演算される予測値と上記教師画像信号 中の真値との間の誤差の 2乗和を最小とする予測係数を、 最小 2乗法 によって演算することを特徴とする学習装置。
1 7 . 請求の範囲 1 5において、
上記記憶部に記憶された複数フレーム分の上記生徒画像信号に基づ いて、 フレーム間における動きを検出する動き検出部をさらに備え、 上記画素抽出部は、 上記動き検出部で検出された動きに基づいて決 定されるフレーム内の位置の画素を、 各フレームの入力画像信号から 抽出することを特徴とする学習装置。
1 8 . 請求の範囲 1 5において、
上記ノイズ検出部は、 画素毎にノイズレベルの変動を検出すること を特徴とする学習装置。
1 9 . 請求の範囲 1 5において、 上記画素抽出部は、 上記その他のフレームから、 上記注目フレーム から抽出された画素と同じ位置の画素を抽出することを特徴とする学 習装置。
2 0 . 請求の範囲 1 5において、
上記記憶部に記憶された各フレームの入力画像信号からそれぞれ 1 画素を抽出し、
上記ノイズ検出部は、 抽出した画素に基づいて上記注目フレームか ら抽出した画素に対するノイズレベルの変動を検出することを特徴と する学習装置。
2 1 . 請求の範囲 1 5において、
上記ノイズ検出部は、 上記画素抽出部で抽出された各フレームの画 素の画素値を用いてダイナミツクレンジに適応した符号化を行うこと によって、 フレーム間におけるノイズレベルの変動を検出することを 特徴とする学習装置。
2 2 . 教師画像信号に対してノイズ成分を付加し、 生徒画像信号を生 成するステップと、
記憶された各フレームの生徒画像信号から、 注目フレームの少なく とも 1つの画素およびその他のフレームの少なくとも 1つの画素を抽 出するステツプと、
抽出された各フレームの画素に基づいて、 フレーム間におけるノィ ズレベルの時間方向の変動を検出し、 上記ノイズレベルの変動を反映 したクラス情報を発生するステツプと、
上記クラス情報と、 上記教師画像信号と、 上記生徒画像信号とに基 づいて、 上記生徒画像信号と同質の入力画像信号から上記教師画像信 号と同質の出力画像信号を生成するための予測係数を演算するステツ プとを備えることを特徴とする学習方法。
2 3 . 請求の範囲 2 2において、
上記予測係数を演算するステップは、 上記クラス情報と、 上記教師 画像信号と、 上記生徒画像信号とが入力され、 上記生徒画像信号の複 数の画素値と予測係数との線形結合によって演算される予測値と上記 教師画像信号中の真値との間の誤差の 2乗和を最小とする予測係数を 、 最小 2乗法によって演算することを特徴とする学習方法。
2 4 . 請求の範囲 2 2において、
複数フレーム分の入力画像信号に基づいて、 フレーム間における動 きを検出するステップをさらに備え、
上記抽出するステップにおいて、 上記動きを検出するステップで検 出された動きに基づいて決定されるフレーム内の位置の画素が各フレ ームの入力画像信号から抽出されることを特徴とする学習方法。 2 5 . 請求の範囲 2 2において、
上記ノイズを検出するステップにおいて、 画素毎にノイズレベルの 変動が検出されることを特徴とする学習方法。
2 6 . 請求の範囲 2 2において、
上記抽出するステップにおいて、 上記その他のフレームから、 上記 注目フレームから抽出された画素と同じ位置の画素が抽出されること を特徴とする学習方法。
2 7 . 請求の範囲 2 2において、
上記抽出するステツプにおいて、 各フレームの入力画像信号からそ れぞれ 1画素が抽出され、
上記検出するステツプにおいて、 抽出した画素に基づいて上記注目 フレームから抽出した画素に対するノイズレベルの変動が検出される ことを特徴とする学習方法。
2 8 . 請求の範囲 2 2において、 上記検出するステツプにおいて、 抽出された各フレームの画素の画 素値を用いてダイナミックレンジに適応した符号化が行われることに よって、 フレーム間におけるノイズレベルの変動が検出されることを 特徴とする学習方法。
PCT/JP1999/005876 1998-10-26 1999-10-25 Dispositif et procede de traitement d'image, dispositif et procede d'apprentissage Ceased WO2000025512A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020007007152A KR100615839B1 (ko) 1998-10-26 1999-10-25 화상 처리 장치, 화상 처리 방법, 학습 장치 및 학습 방법
JP2000578989A JP4078806B2 (ja) 1998-10-26 1999-10-25 画像処理装置、画像処理方法、学習装置および学習方法
US09/602,934 US6757443B1 (en) 1998-10-26 2000-06-23 Picture processing apparatus, picture processing method, learning apparatus, and learning method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP10/304058 1998-10-26
JP30405898 1998-10-26
JP31305798 1998-11-04
JP10/313057 1998-11-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/602,934 Continuation US6757443B1 (en) 1998-10-26 2000-06-23 Picture processing apparatus, picture processing method, learning apparatus, and learning method

Publications (1)

Publication Number Publication Date
WO2000025512A1 true WO2000025512A1 (fr) 2000-05-04

Family

ID=26563770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/005876 Ceased WO2000025512A1 (fr) 1998-10-26 1999-10-25 Dispositif et procede de traitement d'image, dispositif et procede d'apprentissage

Country Status (4)

Country Link
US (1) US6757443B1 (ja)
JP (1) JP4078806B2 (ja)
KR (1) KR100615839B1 (ja)
WO (1) WO2000025512A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729449B2 (en) 2002-07-30 2010-06-01 Toyota Jidosha Kabushiki Kaisha Digital signal processing and receiving apparatus and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1887514B1 (en) * 2002-02-21 2009-07-01 Sony Corporation Signal processing device
JP4311258B2 (ja) * 2004-04-02 2009-08-12 ソニー株式会社 係数データの生成装置および生成方法、係数種データの生成装置および生成方法、情報信号処理装置、並びにプログラムおよびそれを記録した記録媒体
US11677938B2 (en) * 2008-04-30 2023-06-13 Arris Enterprises Llc Method to reduce contour artifacts on recursive temporal filters

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0640908A1 (en) * 1993-08-27 1995-03-01 Sony Corporation Noise reduction in image signals
JPH1011583A (ja) * 1996-06-27 1998-01-16 Sony Corp クラス分類適応処理装置、クラス分類適応処理用の学習装置および学習方法
JPH1075386A (ja) * 1996-08-30 1998-03-17 Sony Corp ノイズフイルタ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH082106B2 (ja) * 1986-11-10 1996-01-10 国際電信電話株式会社 動画像信号のハイブリツド符号化方式
US4926361A (en) * 1987-09-22 1990-05-15 Hitachi, Ltd. Digital noise reducer
JPH02172389A (ja) * 1988-12-26 1990-07-03 Victor Co Of Japan Ltd 動画像信号の高能率符号化方式
JP3103894B2 (ja) * 1991-02-06 2000-10-30 ソニー株式会社 ビデオデータの手振れ補正装置およびその方法
JP2958584B2 (ja) * 1991-09-19 1999-10-06 富士写真フイルム株式会社 ノイズ除去方法
US6104439A (en) * 1992-02-08 2000-08-15 Samsung Electronics Co., Ltd. Method and apparatus for motion estimation
US5565921A (en) * 1993-03-16 1996-10-15 Olympus Optical Co., Ltd. Motion-adaptive image signal processing system
JP3348499B2 (ja) * 1993-12-15 2002-11-20 株式会社ニコン 巡回型雑音低減装置
JP2914170B2 (ja) * 1994-04-18 1999-06-28 松下電器産業株式会社 映像変化点検出方法
JP3504054B2 (ja) * 1995-07-17 2004-03-08 株式会社東芝 文書処理装置および文書処理方法
US5892518A (en) * 1995-07-28 1999-04-06 Matsushita Electric Industrial Co., Ltd. Image generating apparatus with pixel calculation circuit including texture mapping and motion compensation
JP3334500B2 (ja) * 1996-06-17 2002-10-15 ソニー株式会社 ノイズリデューサおよびビデオ信号処理装置
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
US6229578B1 (en) * 1997-12-08 2001-05-08 Intel Corporation Edge-detection based noise removal algorithm

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0640908A1 (en) * 1993-08-27 1995-03-01 Sony Corporation Noise reduction in image signals
JPH1011583A (ja) * 1996-06-27 1998-01-16 Sony Corp クラス分類適応処理装置、クラス分類適応処理用の学習装置および学習方法
JPH1075386A (ja) * 1996-08-30 1998-03-17 Sony Corp ノイズフイルタ装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729449B2 (en) 2002-07-30 2010-06-01 Toyota Jidosha Kabushiki Kaisha Digital signal processing and receiving apparatus and method

Also Published As

Publication number Publication date
JP4078806B2 (ja) 2008-04-23
US6757443B1 (en) 2004-06-29
KR20010033634A (ko) 2001-04-25
KR100615839B1 (ko) 2006-08-25

Similar Documents

Publication Publication Date Title
JP4344964B2 (ja) 画像処理装置および画像処理方法
US6628711B1 (en) Method and apparatus for compensating for jitter in a digital video image
US9191589B2 (en) Image processing device
KR100657261B1 (ko) 적응적 움직임 보상 보간 방법 및 장치
JPH07274044A (ja) 時間可変フィルタ係数を用いたビデオ信号ノイズ低減システムおよびノイズ低減方法
US20100150465A1 (en) Method and apparatus for removing image noise
JP4407015B2 (ja) ノイズ除去装置およびノイズ除去方法
KR100303107B1 (ko) 동작벡터검출장치및방법
KR100677574B1 (ko) 비디오 시퀀스로부터 노이즈 분포를 추정하는 방법
JP4517409B2 (ja) データ処理装置およびデータ処理方法
KR100672328B1 (ko) 영상신호의 잡음 크기 추정 장치
KR100816593B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
US20090310679A1 (en) Video processing apparatus and methods
WO2000025512A1 (fr) Dispositif et procede de traitement d'image, dispositif et procede d'apprentissage
JPWO2006025396A1 (ja) 画像処理装置および画像処理プログラム
US20100309378A1 (en) Method And System For Motion Compensated Noise Level Detection And Measurement
US20090153742A1 (en) Global motion estimation
JPWO2000025512A1 (ja) 画像処理装置、画像処理方法、学習装置および学習方法
JP2005033788A (ja) フレームレートを変換する時の動作ベクトル検出装置及び方法
EP1023695B1 (en) Method of deciding on the presence of global motion by using 2-dimensional translational motion vectors and linear regression
JPWO2009048112A1 (ja) 動画像復号器、動画像復号方法及び動画像復号プログラム
JP4289170B2 (ja) ノイズ量測定装置および映像受像機
JP4572606B2 (ja) 画像処理装置
JP4753522B2 (ja) 符号化前にビデオ画像を動き補償再帰フィルタリングする装置、方法及びそれに対応する符号化システム
JP4096281B2 (ja) 画像処理装置および画像処理方法、並びに媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

WWE Wipo information: entry into national phase

Ref document number: 09602934

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020007007152

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020007007152

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020007007152

Country of ref document: KR