WO2014010817A1 - Adaptive noise reduction system for digital images, and method for removing noise - Google Patents
Adaptive noise reduction system for digital images, and method for removing noise Download PDFInfo
- Publication number
- WO2014010817A1 WO2014010817A1 PCT/KR2013/003390 KR2013003390W WO2014010817A1 WO 2014010817 A1 WO2014010817 A1 WO 2014010817A1 KR 2013003390 W KR2013003390 W KR 2013003390W WO 2014010817 A1 WO2014010817 A1 WO 2014010817A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- noise
- image information
- noise reduction
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
Definitions
- the present invention relates to an adaptive image noise reduction system for a digital image and a method of removing the noise thereof, and more particularly, by adaptively reducing noise by temporal and spatial noise reduction methods of image information including noise.
- the present invention relates to an adaptive image noise reduction system for a digital image capable of obtaining clear image quality, and a method of removing the noise.
- a spatial method using spatial data such as a temporal method using data on a time axis.
- the temporal image noise suppression method is an image processing method for pixels at the same position on a plurality of images.
- important information is the degree of similarity between the pixel of the previous screen and the pixel of the current screen. Similarity information of the pixel is also called motion information.
- the temporal image noise suppression method has an adaptive property by suppressing noise.
- the spatial image noise suppression method is an image processing method using information on each pixel and surrounding pixels on a screen.
- important information is on-screen noise level and edge information.
- edge information plays an important role in performance evaluation of spatial image noise suppression filters.
- edges are preserved and have adaptive properties by adjusting the suppression strength according to the noise level.
- the present invention has an object of solving the above technical problem, and is an adaptive noise reduction system for a digital image capable of outputting a clear image by simultaneously reducing not only temporal but also spatial noise. Its purpose is to provide a noise reduction method.
- the temporal noise reduction unit for reducing the temporal noise of the image information
- a spatial noise reduction unit for reducing spatial noise of the image information
- An image combiner which combines a first output image from the temporal noise reduction unit and a second output image from the spatial noise reduction unit
- a motion degree calculator configured to calculate a motion degree of image information input according to time.
- the motion degree calculated from the motion degree calculator may include: a motion accumulation information value up to the video information of the current step; And a motion intensity information value for measuring the intensity of the motion by comparing the image information of the current step with the image information before the first step of the current step.
- the adaptive noise reduction system for a digital image of the present invention includes: a pixel noise degree calculator for calculating noise for a pixel; And using the pixel noise calculated from the pixel noise degree calculating unit, calculating a ratio of pixels without noise among the pixels subtracted from the pixel determined as an edge from all the image information forming one frame, and then calculating the image information in the next step. If is input, the image noise calculation unit for calculating the intensity control coefficient of the noise reduction of the temporal noise reduction unit; preferably further includes.
- the pixel noise degree calculator includes: a first noise calculator configured to calculate a standard deviation between a center pixel and neighboring pixels; A second noise calculator for calculating an average value of the peripheral pixels, calculating an absolute value of a difference between the center pixel and each of the peripheral pixels and the average value, and calculating a median value of the absolute values; And a third noise calculator configured to calculate an absolute value of the difference between the center pixel and the peripheral pixels, obtain a log value, and then calculate an average value of the log value.
- the pixel noise degree calculator may be configured to generate the pixel noise degree calculator based on a predetermined compensation pattern according to a standard of an image information signal so that the noise values calculated from the first and second noise calculators have the same value for a signal of image information of a different standard. It is preferable to compensate and output the noise values calculated from the first and second noise calculators.
- the movement degree calculation unit of the present invention the first low-pass filter for low-pass passing the video information of the current step; A second low pass filter configured to low pass image information before the first step of the current step; And a third low pass filter configured to low pass the image information obtained by mixing the image information of the current step and the image information before the first step.
- the weight ratio of the R: G: B pixels is 1: 2: 1.
- the movement degree calculator may include an image obtained by mixing the output from the first, second and third low pass filters, the image information of the current stage, the image information of the current stage, and the image information before the first stage.
- a motion intensity calculator for calculating the intensity of the motion of the image information of the current step from the image information before the first step by using the information and the image information before the first step.
- the input image information is a Bayer pattern signal
- the input of the adaptive noise reduction system for the digital image of the present invention is characterized in that it comprises the image information of the current step, the motion accumulation information value up to the image information of the current step, and the image information before the first step. do.
- the image combiner may select respective weights for combining the first output image and the second output image using values calculated from the motion degree calculator.
- the motion degree calculating unit may further include a motion accumulation information value up to the current stage image information; And a motion intensity information value for measuring the intensity of the motion by comparing the image information of the current step with the image information before the first step, wherein the image combiner is configured to compare the first output image with the motion accumulation information value.
- a motion accumulation information value up to the current stage image information
- a motion intensity information value for measuring the intensity of the motion by comparing the image information of the current step with the image information before the first step
- the image combiner is configured to compare the first output image with the motion accumulation information value.
- a clear image can be output by simultaneously reducing not only temporal but also spatial noise.
- FIG. 1 is a block diagram of an adaptive noise reduction system for a digital image according to an embodiment of the present invention.
- FIGS. 2A to 2C are illustrations of processing for input signals of a video interface unit of the present invention.
- FIG. 3 is a block diagram of a movement degree calculation unit according to an embodiment of the present invention.
- FIG. 4 is an illustration of a mask used in the first, second and third low pass filters in accordance with a preferred embodiment of the present invention.
- FIG. 5 is a block diagram of a pixel noise degree calculator according to an exemplary embodiment of the present invention.
- FIG. 6 is a flowchart of an adaptive noise reduction method for a digital image according to an exemplary embodiment of the present invention.
- FIG. 1 is a block diagram of an adaptive noise reduction system 100 for a digital image according to an embodiment of the present invention.
- the adaptive noise reduction system 100 for a digital image according to an exemplary embodiment of the present invention includes an image interface unit 10, a movement degree calculator 20, and a pixel noise degree calculator 30. ), A temporal noise reducer 40, an image noise calculator 50, a spatial noise reducer 60, an image combiner 70, and a storage 80.
- the image interface unit 10 determines which index among the R, G, and B center pixels, It skips pixels of different colors and reconstructs image information by surrounding pixels of the same color as the center pixel.
- the input from the image input device may be a Y / C signal or a Bayer pattern signal, which allows the two types of input signals to be processed in the same way at the rear of the image interface unit 10. Play a role.
- the video signal from the video input device such as the image sensor of the front stage input to the video interface unit 10 includes the motion cumulative information value (Mh k-1 (p)) up to the video information one step before in time, the current video. Information I k (p), and image information I k-1 (p) of the previous step.
- 2A to 2C show exemplary diagrams of processing of an input signal of the video interface unit 10 of the present invention.
- 2A illustrates a case in which a Y / C signal is input
- the image interface unit 10 according to the present invention uses the upper 5x9 as the Y data and the lower 5x9 as the C data, assuming a 10x9 data space.
- 35 pixel data of the Y data is transferred to the rear end
- 25 pixel data of the C data is transferred to the rear end.
- FIG. 2B illustrates an embodiment of processing when a Bayer pattern signal having a center pixel of G is input to the image interface unit 10. Assuming a 10x9 data space, only 9x9 data space is used to input the Bayer pattern signal, and 37 pixels are delivered to the rear end when the center pixel is a G pixel. At this time, the C data is deactivated.
- FIG. 2C illustrates an embodiment of processing when a Bayer pattern signal having a center pixel of B or R is input to the image interface unit 10. Assuming a 10x9 data space, only 9x9 data space is used to input the Bayer pattern signal, and 25 pixels are delivered to the rear end when the center pixel is a B or R pixel. At this time, the C data is deactivated.
- the motion cumulative information value (Mh k ) from the video interface unit 10 to the video information before the first step -1 (p)), the current image information (I k (p)) and the previous stage image information (I k-1 (p)), the degree of movement of the image information input over time is calculated .
- Motion degree calculating section (20) of the present invention the motion cumulative values to the video information (I k (p)) of the current step (Mh k (p)) and the image information of the current step (I k (p))
- the motion intensity information value M ok (p) for measuring the intensity of the motion is calculated by comparing the image information I k-1 (p) before step 1 with the image information.
- the motion accumulation information value (Mh k-1 (p)) up to the image information I k-1 (p) before step 1 is transmitted to the image combiner 70.
- the motion cumulative information value (Mh k (p)) is a cumulative value for how many frames the motion is not detected in comparison with the image of the previous stage up to the image information of the current stage.
- the motion accumulation information value Mh k (p) may be set to '2'.
- the motion cumulative information value (Mh k (p)) reaches a certain value, the value is maintained until a motion is detected, and a predetermined value is subtracted when the motion is detected.
- the motion intensity values (M ok (p)) is that from the video information (I k-1 (p) ) from the previous step, Step 1 there was how many motion picture information (I k (p)) of the current step That is, the intensity of the movement may be expressed by a predetermined value as a value for indicating the intensity of the movement.
- FIG. 3 shows a block diagram of the movement degree calculation unit 20 according to an embodiment of the present invention.
- the motion degree calculator 20 of the present invention includes a fixed temporal image mixer 21, a first low pass filter 22, a second low pass filter 23, and a third low pass.
- the fixed temporal image mixer 21 mixes the current image information I k (p) and the image information I k-1 (p) of the previous step and outputs the output I mk (p).
- An example of a blending technique is Alpha Blending.
- the moving degree calculating section 20 of the present invention includes three low pass filters 22, 23, 24. That is, the first low pass filter 22 which low pass the image information I k (p) of the current stage, and the second low pass which low pass the image information I k-1 (p) of the previous stage The low pass of the pass filter 23 and the image information I mk (p), which is a mixture of the image information I k (p) of the current stage and the image information I k-1 (p) of the previous stage. And a third low pass filter 24 to pass through.
- the masks used for the first, second and third low pass filters 22, 23 and 24 have a 1: 2: 1 weight ratio of R: G: B pixels when the Bayer pattern video information is input. It is characterized by that.
- the center portion is mainly composed of the Y component, and when analyzing the ratio of the center portion, the ratio of R: G: B is about 1: 2: 1. Therefore, by using a filter in which the ratio of R: G: B is 1: 2: 1 to the Bayer pattern image information, a low pass Y component for each pixel can be obtained.
- FIG. 4 is an exemplary diagram of a mask used in the first, second and third low pass filters 22, 23, 24 according to a preferred embodiment of the present invention. If it is assumed that the Bayer pattern image information is viewed as a 5x5 region, it can be seen that all masks of FIG. 4 have a weight ratio of R: G: B pixels of 1: 2: 1.
- the movement degree calculation unit 20 outputs the output I gk (p) of the first low pass filter 22 and the output I gk-1 (p) of the second low pass filter 23. And the output from the third low pass filter 24 (I gmk (p)), the current stage image information I k (p), the current stage image information I k (p) and the previous stage Image information (I mk (p)) obtained by mixing the video information (I k-1 (p)) and the image information (I k-1 (p)) of the previous step 1, From the image information I k-1 (p), there is a motion intensity calculator 25 which calculates how many movements there are in the image information I k (p) at the present stage, that is, the intensity of the movement.
- the motion intensity calculated by the motion intensity calculator 25 may be calculated through a normalization method with a threshold value.
- the pixel noise degree calculator 30 uses the image information I'k (p) of the current stage reconstructed by the image interface unit 10 to apply to the pixel. To calculate the noise
- the pixel noise degree calculator 30 includes a first noise calculator 31, a second noise calculator 32, and a third noise calculator. (33), a first noise figure compensator 34, a second noise figure compensator 35, and a third noise figure compensator 36.
- the first noise calculator 31 calculates the standard deviation (N_1 'k (p)) between the center pixel and the surrounding pixels.
- the second noise estimator 32 calculates the average value of the surrounding pixels and the center pixel and the surrounding pixels calculated by the absolute value of the difference of each of the average value, and finally the absolute value of the median value (N_2 'k (p Calculate)).
- the third noise calculator 33 calculates the absolute value of the difference value between the center pixel and the surrounding pixels, calculates the log value, and then calculates the average value N_3 ' k (p) of the log value. do. That is, the first noise calculator 31 numerically displays the relationship between the center pixel and the peripheral pixels, and the second noise calculator 32 numerically displays the relationship between the peripheral pixels except the center pixel.
- the third noise calculator 33 displays an impulse noise pixel numerically.
- the first noise figure compensator 34 and the second noise figure compensator 35 have the same noise values calculated from the first and second noise calculators 31 and 32 for the signals of the image information of different standards. Compensates for the noise values calculated from the first and second noise calculators 31 and 32 by a certain compensation pattern according to the standard of the image information signal. That is, when the video signal inputted to the video interface unit 10 is a Y / C signal or a Bayer pattern signal, the same value is outputted.
- the third noise figure compensator 36 compensates for not outputting an incorrect impulse noise pixel from the third noise calculator 33, for example, an edge portion of an image, etc., as being recognized as noise. Do it.
- the image noise calculator 50 of the present invention uses pixel noise calculated by the pixel noise degree calculator 30 to subtract pixels determined as edges from all the image information forming one frame.
- the image information is input in the next step by calculating the ratio of pixels without noise, it serves to calculate the intensity control coefficient k of the noise reduction of the temporal noise reduction unit 40. In other words, it is possible to determine how much the noise of the temporal noise reduction unit 40 is to be reduced by the intensity adjustment coefficient k of the noise reduction.
- the temporal noise reduction unit 40 of the present invention serves to reduce noise on time axis data of the image, that is, to reduce temporal noise of the image information. Specifically, the temporal noise reduction unit 40 uses the current stage image information I k (p) and the previous stage stage image information I k-1 (p) to reduce the noise in the current stage. Image information OT k (p) is output.
- the spatial noise reduction unit 60 of the present invention serves to reduce the noise of the spatial axis data of the image, that is, reduce the spatial noise of the image information. Specifically, the spatial noise reduction unit 60 uses the image information I ' k (p) of the current stage reconstructed by the image interface unit 10 and the output from the pixel noise degree calculation unit 30. The reduced video information OS ' k (p) is output.
- the image combiner 70 of the present invention combines the first output image from the temporal noise reduction unit 40 and the second output image from the spatial noise reduction unit 60.
- the image combiner 70 combines the first output image and the second output image by using the motion accumulation information value M h k (p) to make the first combined image, and the motion intensity information value M ok.
- the first output image and the second output image are combined to form a second combined image. That is, the first combined image and the first combined image are generated by using the motion accumulation information value (Mh k (p)) and the motion intensity information value (M ok (p)) as weights for combining the first output image and the second output image. 2 Create a combined image.
- the final combined image O mix'k (p) is output by combining the first combined image and the second combined image.
- the two images are combined using an appropriate weight.
- an image combining method in the image combiner 70 an alpha blending technique may be used.
- the storage unit 80 of the present invention stores the signal output from the image combiner 70 and transmits it to the image output device, or feeds back to the image interface unit 10 adaptive noise for the digital image of the present invention
- the abatement system 100 can adaptively reduce noise. That is, Mh k (p) and O feedback'k (p) shown in FIG. 1 are the input signals Mh k-1 (p) and I k-1 (the input signals of the image interface unit 10 during the image processing of the next step). p).
- the temporal noise reduction unit 40, the sympathetic noise reduction unit 50, and the image combiner 70 may convert the Y signal and the C signal. I use it.
- the motion degree calculator 20, the pixel noise degree calculator 30, and the image noise calculator 50 use only the Y signal.
- the input image information I k -1 before the first stage other than the reconstructed image information I ' k (p) of the current stage. (p)) motion cumulative information value (Mh k-1 (p)), current image information (I k (p)) and previous stage image information (I k-1 (p)) signals Use a signal that is not reconstructed by (10).
- FIG. 6 is a flowchart of an adaptive noise reduction method for a digital image according to an exemplary embodiment of the present invention.
- the adaptive noise reduction method for a digital image according to an embodiment of the present invention when the input image information is a Bayer pattern signal, the index of the center pixel is R, G, B Image interface step (S10) of skipping pixels of a different color from the center pixel and reconstructing the image information by neighboring pixels of the same color as the central pixel, and calculating a degree of movement of the image information input over time.
- a noise reduction step S50 is included.
- the adaptive noise reduction method for the digital image of the present invention uses the pixel noise calculated in the pixel noise degree calculation step S40 to subtract the pixel determined as an edge from all the image information forming one frame.
- the image noise calculation steps (S60) and the temporal noise reduction step (S30) when the ratio of pixels without noise is calculated and the following image information is input, the intensity adjustment coefficient of the noise reduction in the temporal noise reduction step is calculated.
- the method may further include an image combining step S70 of combining the first output image and the second output image from the spatial noise reduction step S40.
- An adaptive noise reduction system and a noise reduction method for a digital image according to an exemplary embodiment of the present invention can be applied to various image processing fields.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Picture Signal Circuits (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 디지털 영상을 위한 적응적 영상 잡음 저감 시스템 및 그 잡음 제거 방법에 관한 것으로, 더욱 상세하게는 잡음이 포함되어 있는 영상 정보를 시간적, 공간적 잡음 저감 방법으로 잡음을 적응적으로 저감시키는 것에 의해, 선명한 화질을 획득할 수 있는 디지털 영상을 위한 적응적 영상 잡음 저감 시스템 및 그 잡음 제거 방법에 관한 것이다.The present invention relates to an adaptive image noise reduction system for a digital image and a method of removing the noise thereof, and more particularly, by adaptively reducing noise by temporal and spatial noise reduction methods of image information including noise. The present invention relates to an adaptive image noise reduction system for a digital image capable of obtaining clear image quality, and a method of removing the noise.
일반적으로, 영상의 잡음을 억제하기 위해서는 크게 시간축의 데이터를 이용하는 시간적(temporal) 방법과 같은 공간상의 데이터를 이용하는 공간적(spatial) 방법이 있다.In general, in order to suppress noise of an image, there is a spatial method using spatial data such as a temporal method using data on a time axis.
시간적 영상 잡음 억제 방법은 복수의 영상 상의 같은 위치의 화소에 대한 영상 처리 방법이다. 시간적 영상 잡음 억제 방법에서 중요한 정보는 이전 화면의 화소와 현재 화면의 화소의 유사 정도이다. 화소의 유사 정도 정보는 움직임 정보라고도 한다. 일반적으로 이 움직임 정도에 따라, 잡음 억제를 함으로써 시간적 영상잡음 억제 방법은 적응적인 속성을 지니게 된다.The temporal image noise suppression method is an image processing method for pixels at the same position on a plurality of images. In the temporal image noise suppression method, important information is the degree of similarity between the pixel of the previous screen and the pixel of the current screen. Similarity information of the pixel is also called motion information. In general, according to this degree of motion, the temporal image noise suppression method has an adaptive property by suppressing noise.
공간적 영상 잡음 억제 방법은 화면상 각 화소와 주변 화소 정보를 이용한 영상처리 방법이다. 공간적 영상잡음 억제 방법에서 중요한 정보는 화면상의 잡음 정도와 에지 정보이다. 특히, 에지 정보는 공간적 영상 잡음 억제 필터의 성능 평가에 중요한 역할을 한다. 일반적으로 에지 정보를 이용하여 에지는 보존하고 잡음 정도에 따라 억제 강도를 조절함으로써 적응적인 속성을 지니게 된다.The spatial image noise suppression method is an image processing method using information on each pixel and surrounding pixels on a screen. In the spatial image noise suppression method, important information is on-screen noise level and edge information. In particular, edge information plays an important role in performance evaluation of spatial image noise suppression filters. In general, using edge information, edges are preserved and have adaptive properties by adjusting the suppression strength according to the noise level.
다만, 상술한 바와 같은, 시간적 영상 잡음 억제 방법과 공간적 영상 잡음 억제 방법을 결합하는 것에 대한 연구들은 제한적이었다.However, as mentioned above, studies on combining the temporal image noise suppression method and the spatial image noise suppression method have been limited.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 시간적 뿐만 아니라 공간적인 잡음도 동시에 감소시키는 것에 의해, 선명한 영상을 출력할 수 있는 디지털 영상을 위한 적응적 잡음 저감 시스템 및 그 잡음 제거 방법을 제공하는 것에 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has an object of solving the above technical problem, and is an adaptive noise reduction system for a digital image capable of outputting a clear image by simultaneously reducing not only temporal but also spatial noise. Its purpose is to provide a noise reduction method.
본 발명의 바람직한 일실시예의 디지털 영상을 위한 적응적 잡음 저감 시스템은, 영상 정보의 시간적 잡음을 저감하는 시간적 잡음 저감부; 상기 영상 정보의 공간적 잡음을 저감하는 공간적 잡음 저감부; 상기 시간적 잡음 저감부로부터의 제 1 출력 영상과 상기 공간적 잡음 저감부로부터의 제 2 출력 영상을 결합하는 영상 결합부; 및 시간에 따라 입력되는 영상 정보의 움직임 정도를 산출하는 움직임 정도 산출부;를 포함한다.Adaptive noise reduction system for a digital image according to an embodiment of the present invention, the temporal noise reduction unit for reducing the temporal noise of the image information; A spatial noise reduction unit for reducing spatial noise of the image information; An image combiner which combines a first output image from the temporal noise reduction unit and a second output image from the spatial noise reduction unit; And a motion degree calculator configured to calculate a motion degree of image information input according to time.
또한, 상기 움직임 정도 산출부로부터의 산출되는 움직임 정도는, 현재 단계의 영상 정보까지의 움직임 누적 정보값; 및 현재 단계의 영상 정보와 상기 현재 단계의 1 단계 이전의 영상 정보를 비교하여 움직임의 세기를 측정하는 움직임 강도 정보값;을 포함하는 것을 특징으로 한다.The motion degree calculated from the motion degree calculator may include: a motion accumulation information value up to the video information of the current step; And a motion intensity information value for measuring the intensity of the motion by comparing the image information of the current step with the image information before the first step of the current step.
아울러, 본 발명의 디지털 영상을 위한 적응적 잡음 저감 시스템은, 화소에 대한 잡음을 산출하는 화소 잡음 정도 산출부; 및 상기 화소 잡음 정도 산출부로부터 산출된 상기 화소 잡음을 이용하여, 하나의 프레임을 이루는 전체 영상 정보로부터 에지로 판단되는 화소를 뺀 화소 중에서, 잡음이 없는 화소의 비율을 계산하여 다음 단계에서 영상 정보가 입력될 경우, 상기 시간적 잡음 저감부의 잡음 저감의 강도 조절 계수를 산출하는 영상 잡음 산출부;를 더 포함하는 것이 바람직하다.In addition, the adaptive noise reduction system for a digital image of the present invention includes: a pixel noise degree calculator for calculating noise for a pixel; And using the pixel noise calculated from the pixel noise degree calculating unit, calculating a ratio of pixels without noise among the pixels subtracted from the pixel determined as an edge from all the image information forming one frame, and then calculating the image information in the next step. If is input, the image noise calculation unit for calculating the intensity control coefficient of the noise reduction of the temporal noise reduction unit; preferably further includes.
구체적으로 상기 화소 잡음 정도 산출부는, 중심 화소와 주변 화소들 사이의 표준 편차를 산출하는 제 1 잡음 산출기; 상기 주변 화소들의 평균값을 산출하고, 상기 중심 화소 및 주변 화소들 각각과 상기 평균값의 차이의 절대값을 산출하고, 상기 절대값의 메디안 값을 산출하는 제 2 잡음 산출기; 및 상기 중심 화소와 상기 주변 화소들 사이의 차이값의 절대값을 산출하여, 로그값을 구한 후, 상기 로그값의 평균값을 산출하는 제 3 잡음 산출기;를 포함한다. 또한, 상기 화소 잡음 정도 산출부는, 상기 제 1, 제 2 잡음 산출기로부터 산출된 잡음값들이 다른 규격의 영상 정보의 신호에 대해 같은 값을 갖도록 영상 정보 신호의 규격에 따라 일정 보상 패턴에 의해 상기 제 1, 제 2 잡음 산출기로부터 산출된 잡음값들을 보상하여 출력하는 것이 바람직하다.In detail, the pixel noise degree calculator includes: a first noise calculator configured to calculate a standard deviation between a center pixel and neighboring pixels; A second noise calculator for calculating an average value of the peripheral pixels, calculating an absolute value of a difference between the center pixel and each of the peripheral pixels and the average value, and calculating a median value of the absolute values; And a third noise calculator configured to calculate an absolute value of the difference between the center pixel and the peripheral pixels, obtain a log value, and then calculate an average value of the log value. The pixel noise degree calculator may be configured to generate the pixel noise degree calculator based on a predetermined compensation pattern according to a standard of an image information signal so that the noise values calculated from the first and second noise calculators have the same value for a signal of image information of a different standard. It is preferable to compensate and output the noise values calculated from the first and second noise calculators.
또한, 본 발명의 상기 움직임 정도 산출부는, 현재 단계의 영상 정보를 저역 통과시키는 제 1 저역 통과 필터; 상기 현재 단계의 1 단계 이전의 영상 정보를 저역 통과시키는 제 2 저역 통과 필터; 및 상기 현재 단계의 영상 정보 및 상기 1 단계 이전의 영상 정보를 혼합한 영상 정보를 저역 통과시키는 제 3 저역 통과 필터;를 포함하는 것을 특징으로 한다. 아울러, 상기 제 1, 제 2 및 제 3 저역 통과 필터에 사용되는 마스크는, 베이어 패턴의 영상 정보가 입력된 경우, R:G:B 화소의 가중치 비율을 1:2:1이 되도록 하는 것이 바람직하다. 구체적으로, 상기 움직임 정도 산출부는, 상기 제 1, 제 2 및 제 3 저역 통과 필터로부터의 출력, 상기 현재 단계의 영상 정보, 상기 현재 단계의 영상 정보와 상기 1 단계 이전의 영상 정보를 혼합한 영상 정보 및 상기 1 단계 이전의 영상 정보를 이용하여, 상기 1 단계 이전의 영상 정보로부터 상기 현재 단계의 영상 정보의 움직임의 강도를 산출하는 움직임 강도 산출기;를 더 포함하는 것을 특징으로 한다.In addition, the movement degree calculation unit of the present invention, the first low-pass filter for low-pass passing the video information of the current step; A second low pass filter configured to low pass image information before the first step of the current step; And a third low pass filter configured to low pass the image information obtained by mixing the image information of the current step and the image information before the first step. In addition, in the masks used in the first, second and third low pass filters, when the Bayer pattern video information is input, the weight ratio of the R: G: B pixels is 1: 2: 1. Do. In detail, the movement degree calculator may include an image obtained by mixing the output from the first, second and third low pass filters, the image information of the current stage, the image information of the current stage, and the image information before the first stage. And a motion intensity calculator for calculating the intensity of the motion of the image information of the current step from the image information before the first step by using the information and the image information before the first step.
아울러, 본 발명의 디지털 영상을 위한 적응적 잡음 저감 시스템은, 입력되는 영상 정보가 베이어 패턴 신호인 경우, 중심 화소가 R, G, B 중 어떤 색인지를 판단하여, 상기 중심 화소와 다른 색의 화소를 스킵하고, 상기 중심 화소와 같은 색의 주변 화소에 의해 영상 정보를 재구성하는 영상 인터페이스부;를 더 포함할 수 있다. 또한, 본 발명의 디지털 영상을 위한 적응적 잡음 저감 시스템의 입력은, 현재 단계의 영상 정보, 상기 현재 단계의 영상 정보까지의 움직임 누적 정보값 및 상기 1 단계 이전의 영상 정보를 포함하는 것을 특징으로 한다.In addition, in the adaptive noise reduction system for the digital image of the present invention, when the input image information is a Bayer pattern signal, it is determined whether the center pixel is an index among R, G, and B, and the pixel having a color different from that of the center pixel. And an image interface unit for reconstructing the image information by surrounding pixels of the same color as the center pixel. In addition, the input of the adaptive noise reduction system for the digital image of the present invention is characterized in that it comprises the image information of the current step, the motion accumulation information value up to the image information of the current step, and the image information before the first step. do.
아울러 상기 영상 결합부는, 상기 움직임 정도 산출부로부터 산출된 값을 이용하여, 상기 제 1 출력 영상과 상기 제 2 출력 영상의 결합을 위한 각각의 가중치를 선택하는 것이 바람직하다. In addition, the image combiner may select respective weights for combining the first output image and the second output image using values calculated from the motion degree calculator.
또한, 상기 움직임 정도 산출부는, 현재 단계의 영상 정보까지의 움직임 누적 정보값; 및 현재 단계의 영상 정보와 1 단계 이전의 영상 정보를 비교하여 움직임의 세기를 측정하는 움직임 강도 정보값;을 산출하되, 상기 영상 결합부는, 상기 움직임 누적 정보값을 이용하여 상기 제 1 출력 영상과 제 2 출력 영상을 결합하여 제 1 결합 영상을 만들고, 상기 움직임 강도 정보값을 이용하여 상기 제 1 출력 영상과 제 2 출력 영상을 결합하여 제 2 결합 영상을 만들고, 상기 제 1 결합 영상과 상기 제 2 결합 영상을 결합하여 최종 결합 영상을 출력하는 것을 특징으로 한다.The motion degree calculating unit may further include a motion accumulation information value up to the current stage image information; And a motion intensity information value for measuring the intensity of the motion by comparing the image information of the current step with the image information before the first step, wherein the image combiner is configured to compare the first output image with the motion accumulation information value. Combining a second output image to form a first combined image, and combining the first output image and the second output image by using the motion intensity information value to create a second combined image, and the first combined image and the first And combining the two combined images to output the final combined image.
본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 시스템 및 그 잡음 제거 방법에 따르면, 시간적 뿐만 아니라 공간적인 잡음도 동시에 감소시시키는 것에 의해 선명한 영상을 출력할 수 있다.According to the adaptive noise reduction system for the digital image and the noise reduction method according to the preferred embodiment of the present invention, a clear image can be output by simultaneously reducing not only temporal but also spatial noise.
도 1은 본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 시스템의 구성도.1 is a block diagram of an adaptive noise reduction system for a digital image according to an embodiment of the present invention.
도 2a 내지 도 2c는 본 발명의 영상 인터페이스부의 입력 신호에 대한 처리의 예시도.2A to 2C are illustrations of processing for input signals of a video interface unit of the present invention.
도 3은 본 발명의 바람직한 일실시예에 따른 움직임 정도 산출부의 구성도.3 is a block diagram of a movement degree calculation unit according to an embodiment of the present invention.
도 4는 본 발명의 바람직한 실시예에 따른 제 1, 제 2 및 제 3 저역 통과 필터에 사용되는 마스크의 예시도.4 is an illustration of a mask used in the first, second and third low pass filters in accordance with a preferred embodiment of the present invention.
도 5는 본 발명의 바람직한 일실시예에 따른 화소 잡음 정도 산출부의 구성도.5 is a block diagram of a pixel noise degree calculator according to an exemplary embodiment of the present invention.
도 6은 본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 방법의 흐름도.6 is a flowchart of an adaptive noise reduction method for a digital image according to an exemplary embodiment of the present invention.
이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 시스템 및 그 잡음 제거 방법에 대해 상세히 설명하기로 한다.Hereinafter, an adaptive noise reduction system for a digital image and a noise canceling method thereof will be described in detail with reference to the accompanying drawings.
본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.The following examples of the present invention are intended to embody the present invention, but not to limit or limit the scope of the present invention. From the detailed description and examples of the present invention, those skilled in the art to which the present invention pertains can easily be interpreted as belonging to the scope of the present invention.
먼저, 도 1은 본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 시스템(100)의 구성도이다. 도 1로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예의 디지털 영상을 위한 적응적 잡음 저감 시스템(100)은 영상 인터페이스부(10), 움직임 정도 산출부(20), 화소 잡음 정도 산출부(30), 시간적 잡음 저감부(40), 영상 잡음 산출부(50), 공간적 잡음 저감부(60), 영상 결합부(70) 및 저장부(80)를 포함한다.First, Figure 1 is a block diagram of an adaptive
하기에 본 발명의 디지털 영상을 위한 적응적 잡음 저감 시스템(100)의 각 구성 요소에 대해 구체적으로 설명하기로 한다.Hereinafter, each component of the adaptive
영상 인터페이스부(10)는, 앞단의 이미지 센서 등의 영상 입력 장치로부터 입력되는 영상 정보가 베이어(Bayer) 패턴 신호인 경우, 중심 화소가 R, G, B 중 어떤 색인지를 판단하여, 중심 화소와 다른 색의 화소를 건너뛰고, 중심 화소와 같은 색의 주변 화소에 의해 영상 정보를 재구성하는 역할을 한다. 즉, 영상 입력 장치로부터의 입력은 Y/C 신호일 수도 있으며, 베이어 패턴 신호일 수도 있는 데, 두가지 종류의 입력 신호에 대해 본 영상 인터페이스부(10)의 뒷단에서 같은 방법으로 신호를 처리할 수 있도록 하는 역할을 한다. 영상 인터페이스부(10)로 입력되는 앞단의 이미지 센서 등의 영상 입력 장치로부터의 영상 신호는, 시간적으로 1 단계 이전의 영상 정보까지의 움직임 누적 정보값(Mhk-1(p)), 현재 영상 정보(Ik(p)), 이전 단계의 영상 정보(Ik-1(p))를 포함한다.When the image information input from the image input apparatus such as the image sensor of the front stage is a Bayer pattern signal, the
도 2a 내지 도 2c는 본 발명의 영상 인터페이스부(10)의 입력 신호에 대한 처리의 예시도를 나타낸다. 도 2a는 Y/C 신호가 입력될 경우로, 본 발명의 영상 인터페이스부(10)는 10x9의 데이터 공간을 가정할 시 위쪽 5x9을 Y 데이터가 사용하고, 아래쪽의 5x9을 C 데이터가 사용한다. 이때, Y 데이터의 35개 픽셀 테이터를 뒷단으로 전달하고, C 데이터의 25개 픽셀 데이터를 뒷단으로 전달하게 된다.2A to 2C show exemplary diagrams of processing of an input signal of the
도 2b는 영상 인터페이스부(10)에 중심 픽셀이 G인 베이어 패턴 신호가 입력된 경우의 처리의 일실시예를 나타낸다. 10x9의 데이터 공간을 가정할 시, 베이어 패턴 신호의 입력 시 9x9의 데이터 공간만 사용하고, 중심 픽셀이 G 픽셀일 경우 37개의 픽셀을 뒷단으로 전달하게 된다. 이때 C 데이터는 비활성화된다.FIG. 2B illustrates an embodiment of processing when a Bayer pattern signal having a center pixel of G is input to the
도 2c는 영상 인터페이스부(10)에 중심 픽셀이 B 또는 R인 베이어 패턴 신호가 입력된 경우의 처리의 일실시예를 나타낸다. 10x9의 데이터 공간을 가정할 시, 베이어 패턴 신호의 입력 시 9x9의 데이터 공간만 사용하고, 중심 픽셀이 B 또는 R 픽셀일 경우 25개의 픽셀을 뒷단으로 전달하게 된다. 이때 C 데이터는 비활성화된다.FIG. 2C illustrates an embodiment of processing when a Bayer pattern signal having a center pixel of B or R is input to the
도 1로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예에 따른 움직임 정도 산출부(20)에서는, 영상 인터페이스부(10)로부터 입력된 1 단계 이전의 영상 정보까지의 움직임 누적 정보값(Mhk-1(p)), 현재 영상 정보(Ik(p)) 및 이전 단계의 영상 정보(Ik-1(p))를 이용하여, 시간에 따라 입력되는 영상 정보의 움직임 정도를 산출하게 된다.As can be seen from Figure 1 in the motion
본 발명의 움직임 정도 산출부(20)는, 현재 단계의 영상 정보(Ik(p))까지의 움직임 누적 정보값(Mhk(p)) 및 현재 단계의 영상 정보(Ik(p))와 1 단계 이전의 영상 정보(Ik-1(p))를 비교하여 움직임의 세기를 측정하는 움직임 강도 정보값(Mok(p))을 산출한다. 또한, 1 단계 이전의 영상 정보(Ik-1(p))까지의 움직임 누적 정보값(Mhk-1(p))을 영상 결합부(70)로 전달한다. 구체적으로, 움직임 누적 정보값(Mhk(p))이란, 현재 단계의 영상 정보까지 이전 단계의 영상과 비교하여 얼마나 많은 프레임 동안 움직임이 검출되지 않았는가에 대한 누적 수치이다. 예를 들면, 현재 단계의 영상 정보(Ik(p))와 1 단계 이전의 영상 정보(Ik-1(p)) 사이에서 움직임이 검출되지 않았고, 1 단계 이전의 영상 정보(Ik-1(p))와 2 단계 이전의 영상 정보 사이에서 움직임이 검출되지 않았고, 그 이전에는 움직임이 검출되었다면, 움직임 누적 정보값(Mhk(p))은 '2'로 설정될 수 있을 것이다. 또한, 움직임 누적 정보값(Mhk(p))이 일정 수치에 도달하면 움직임이 검출되기 전까지 그 수치를 유지하고 움직임이 검출되면 일정 수치를 빼는 형태가 된다. 또한, 움직임 강도 정보값(Mok(p))은 1 단계 이전 단계의 영상 정보(Ik-1(p))로부터 현재 단계의 영상 정보(Ik(p))가 얼마나 많은 움직임이 있었는지, 즉 움직임의 강도를 나타내기 위한 수치로 미리 설정된 수치에 의해 움직임의 강도를 표현할 수 있다.Motion degree calculating section (20) of the present invention, the motion cumulative values to the video information (I k (p)) of the current step (Mh k (p)) and the image information of the current step (I k (p)) The motion intensity information value M ok (p) for measuring the intensity of the motion is calculated by comparing the image information I k-1 (p) before
도 3은 본 발명의 바람직한 일실시예에 따른 움직임 정도 산출부(20)의 구성도를 나타낸다.3 shows a block diagram of the movement
도 3으로부터 알 수 있는 바와 같이 본 발명의 움직임 정도 산출부(20)는, 고정 시간적 영상 혼합기(21), 제 1 저역 통과 필터(22), 제 2 저역 통과 필터(23), 제 3 저역 통과 필터(24) 및 움직임 강도 산출기(25)를 포함한다.As can be seen from FIG. 3, the
먼저, 고정 시간적 영상 혼합기(21)는, 현재 영상 정보(Ik(p)) 및 이전 단계의 영상 정보(Ik-1(p))를 혼합하여 출력(Imk(p))한다. 혼합하는 기법으로는 알파 블렌딩(Alpha Blending)을 예로 들 수 있을 것이다.First, the fixed
또한, 본 발명의 움직인 정도 산출부(20)는 세개의 저역 통과 필터(22, 23, 24)를 포함한다. 즉, 현재 단계의 영상 정보(Ik(p))를 저역 통과시키는 제 1 저역 통과 필터(22), 1 단계 이전 단계의 영상 정보(Ik-1(p))를 저역 통과시키는 제 2 저역 통과 필터(23), 및 현재 단계의 영상 정보(Ik(p)) 및 1 단계 이전 단계의 영상 정보(Ik-1(p))를 혼합한 영상 정보(Imk(p))를 저역 통과시키는 제 3 저역 통과 필터(24)를 포함한다. In addition, the moving
제 1, 제 2 및 제 3 저역 통과 필터(22, 23, 24)에 사용되는 마스크는, 베이어 패턴의 영상 정보가 입력된 경우, R:G:B 화소의 가중치 비율을 1:2:1이 되도록 하는 것을 특징으로 한다. 베이어 패턴의 영상 정보를 주파수 영역에서 볼 때, 중심 부분은 Y 성분이 주를 이루며, 이 중심 부분의 비율을 분석하면 R:G:B의 비율이 1:2:1 정도로 나온다. 따라서, 베이어 패턴 영상 정보에 대해 R:G:B의 비율이 1:2:1이 되는 필터를 이용하면 각 픽셀 마다 저역 통과된 Y 성분을 얻을 수 있다.The masks used for the first, second and third low pass filters 22, 23 and 24 have a 1: 2: 1 weight ratio of R: G: B pixels when the Bayer pattern video information is input. It is characterized by that. When viewing the Bayer pattern image information in the frequency domain, the center portion is mainly composed of the Y component, and when analyzing the ratio of the center portion, the ratio of R: G: B is about 1: 2: 1. Therefore, by using a filter in which the ratio of R: G: B is 1: 2: 1 to the Bayer pattern image information, a low pass Y component for each pixel can be obtained.
도 4는 본 발명의 바람직한 실시예에 따른 제 1, 제 2 및 제 3 저역 통과 필터(22, 23, 24)에 사용되는 마스크의 예시도이다. 베이어 패턴 영상 정보를 5x5 영역으로 본다고 가정하였을 경우, 도 4의 모든 마스크는 R:G:B 화소의 가중치 비율이 1:2:1인 것을 알 수 있다.4 is an exemplary diagram of a mask used in the first, second and third low pass filters 22, 23, 24 according to a preferred embodiment of the present invention. If it is assumed that the Bayer pattern image information is viewed as a 5x5 region, it can be seen that all masks of FIG. 4 have a weight ratio of R: G: B pixels of 1: 2: 1.
아울러, 본 발명의 움직임 정도 산출부(20)는 제 1 저역 통과 필터(22)의 출력(Igk(p)), 제 2 저역 통과 필터(23)의 출력(Igk-1(p)) 및 제 3 저역 통과 필터(24)로부터의 출력(Igmk(p)), 현재 단계의 영상 정보(Ik(p)), 현재 단계의 영상 정보(Ik(p))와 1 단계 이전 단계의 영상 정보(Ik-1(p))를 혼합한 영상 정보(Imk(p)) 및 1 단계 이전 단계의 영상 정보(Ik-1(p))를 이용하여, 1 단계 이전 단계의 영상 정보(Ik-1(p))로부터 현재 단계의 영상 정보(Ik(p))가 얼마나 많은 움직임이 있었는지, 즉 움직임의 강도를 산출하는 움직임 강도 산출기(25)를 포함한다. 움직임 강도 산출기(25)에서 산출되는 움직임 강도는, 문턱값과의 정규화 방법을 통해 산출 될 수 있다In addition, the movement
다음으로, 본 발명의 바람직한 일실시예에 따른 화소 잡음 정도 산출부(30)는, 영상 인터페이스부(10)에 의해 재구성된 현재 단계의 영상 정보(I'k(p))를 이용하여 화소에 대한 잡음을 산출하는 역할을 한다.Next, the pixel
도 5는 본 발명의 바람직한 일실시예에 따른 화소 잡음 정도 산출부(30)의 구성도를 나타낸다. 도 5로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예에 따른 화소 잡음 정도 산출부(30)는, 제 1 잡음 산출기(31), 제 2 잡음 산출기(32), 제 3 잡음 산출기(33), 제 1 잡음 수치 보상기(34), 제 2 잡음 수치 보상기(35) 및 제 3 잡음 수치 보상기(36)를 포함한다.5 is a block diagram of a pixel
제 1 잡음 산출기(31)는, 중심 화소와 주변 화소들 사이의 표준 편차(N_1'k(p))를 산출한다. 또한, 제 2 잡음 산출기(32)는 주변 화소들의 평균값을 산출하고, 중심 화소 및 주변 화소들 각각과 평균값의 차이의 절대값을 산출하고, 최종적으로 절대값의 메디안 값(N_2'k(p))을 산출한다. 마지막으로, 제 3 잡음 산출기(33)는, 중심 화소와 주변 화소들 사이의 차이값의 절대값을 산출하여, 로그값을 구한 후, 로그값의 평균값(N_3'k(p))을 산출한다. 즉, 제 1 잡음 산출기(31)는 중심 화소와 주변 화소의 관계를 수치로 표시한 것이고, 제 2 잡음 산출기(32)는 중심 화소를 제외한 주변 화소들 사이의 관계를 수치로 표시한 것이고, 제 3 잡음 산출기(33)는 임펄스(Impulse) 잡음 화소를 수치로 표시한 것이다.The
또한, 제 1 잡음 수치 보상기(34), 제 2 잡음 수치 보상기(35)는 제 1, 제 2 잡음 산출기(31, 32)로부터 산출된 잡음값들이 다른 규격의 영상 정보의 신호에 대해 같은 값을 갖도록 영상 정보 신호의 규격에 따라 일정 보상 패턴에 의해 제 1, 제 2 잡음 산출기(31, 32)로부터 산출된 잡음값들을 보상하는 역할을 한다. 즉, 영상 인터페이스부(10)로 입력되는 영상 신호가 Y/C 신호인 경우나, 베이어 패턴 신호인 경우나 동일한 값을 출력할 수 있도록 보상하는 역할을 한다. 제 3 잡음 수치 보상기(36)는, 제 3 잡음 산출기(33)로부터 잘못된 임펄스 잡음 화소가 출력되지 않도록, 예를 들면 영상의 에지(edge) 부분 등이 잡음으로 인식되어 출력되지 않도록 보상하는 역할을 한다.Further, the first
본 발명의 영상 잡음 산출부(50)는, 화소 잡음 정도 산출부(30)로터 산출된 화소 잡음을 이용하여, 하나의 프레임(Frame)을 이루는 전체 영상 정보로부터 에지로 판단되는 화소를 뺀 화소 중에서, 잡음이 없는 화소의 비율을 계산하여 다음 단계에서 영상 정보가 입력될 경우, 시간적 잡음 저감부(40)의 잡음 저감의 강도 조절 계수(k)를 산출하는 역할을 한다. 즉, 시간적 잡음 저감부(40)의 잡음을 어느 정도 저감시킬 것인지를 잡음 저감의 강도 조절 계수(k)에 의해 결정할 수 있게 된다.The
다음으로, 본 발명의 시간적 잡음 저감부(40)는, 영상의 시간축 데이터에 대한 잡음을 저감하는, 즉 영상 정보의 시간적 잡음을 저감하는 역할을 한다. 구체적으로 시간적 잡음 저감부(40)는, 현재 단계의 영상 정보(Ik(p)) 및 1 단계 이전 단계의 영상 정보(Ik-1(p))를 이용하여, 잡음이 저감된 현재 단계의 영상 정보(OTk(p))를 출력한다.Next, the temporal
본 발명의 공간적 잡음 저감부(60)는, 영상의 공간축 데이터에 대한 잡음을 저감하는, 즉 영상 정보의 공간적 잡음을 저감하는 역할을 한다. 구체적으로 공간적 잡음 저감부(60)는, 영상 인터페이스부(10)에 의해 재구성된 현재 단계의 영상 정보(I'k(p)) 및 화소 잡음 정도 산출부(30)로부터의 출력을 이용하여 잡음이 저감된 영상 정보(OS'k(p))를 출력한다.The spatial
본 발명의 영상 결합부(70)는, 시간적 잡음 저감부(40)로부터의 제 1 출력 영상과 공간적 잡음 저감부(60)로부터의 제 2 출력 영상을 결합하는 역할을 한다. The
구체적으로, 영상 결합부(70)는 움직임 누적 정보값(Mhk(p))을 이용하여 제 1 출력 영상과 제 2 출력 영상을 결합하여 제 1 결합 영상을 만들고, 움직임 강도 정보값(Mok(p))을 이용하여 제 1 출력 영상과 제 2 출력 영상을 결합하여 제 2 결합 영상을 만든다. 즉, 움직임 누적 정보값(Mhk(p)) 및 움직임 강도 정보값(Mok(p))을 제 1 출력 영상과 제 2 출력 영상을 결합하기 위한 가중치로 사용하여, 제 1 결합 영상 및 제 2 결합 영상을 만든다. 또한, 제 1 결합 영상과 제 2 결합 영상을 결합하여 최종 결합 영상(Omix'k(p))을 출력하게 된다. 제 1 결합 영상과 제 2 결합 영상을 결합 시에도, 적절한 가중치를 이용하여 두 개 영상을 결합하게 된다. 영상 결합부(70)에서의 영상 결합의 방법으로는 알파 블렌딩 기법을 예로 들 수 있다.In detail, the
또한, 본 발명의 저장부(80)는 영상 결합부(70)로부터 출력된 신호를 저장하여 영상 출력 장치로 전송하거나, 영상 인터페이스부(10)로 피드백하여 본 발명의 디지털 영상을 위한 적응적 잡음 저감 시스템(100)이 적응적으로 잡음을 저감시킬 수 있도록 한다. 즉, 도 1에 나타낸 Mhk(p) 및 Ofeedback'k(p)가 다음 단계의 영상 처리시, 영상 인터페이스부(10)의 입력 신호인 Mhk-1(p) 및 Ik-1(p)가 된다.In addition, the
물론, 저장부(80)를 통하지 않고, 영상 결합부(70)로부터 직접적으로 영상 출력 장치로 전송하는 것도 가능할 것이다.Of course, it is also possible to transmit the
참고로, 영상 인터페이스부(10)로 입력되는 신호가 Y/C 신호인 경우, 시간적 잡음 저감부(40), 공감 잡음 저감부(50) 및 영상 결합부(70)는 Y 신호 및 C 신호를 이용한다. 반면, 움직임 정도 산출부(20), 화소 잡음 정도 산출부(30), 영상 잡음 산출부(50)는 Y 신호만을 이용하게 된다.For reference, when the signal input to the
또한, 영상 인터페이스부(10)로 입력되는 신호가 베이어 패턴 신호인 경우, 재구성된 현재 단계의 영상 정보(I'k(p)) 이외의, 입력된 1 단계 이전의 영상 정보(Ik-1(p))까지의 움직임 누적 정보값(Mhk-1(p)), 현재 영상 정보(Ik(p)) 및 이전 단계의 영상 정보(Ik-1(p)) 신호는 영상 인터페이스부(10)에 의해 재구성되지 않은 신호를 사용한다.In addition, when the signal input to the
도 6은 본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 방법의 흐름도를 나타낸다. 도 6으로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 방법은, 입력되는 영상 정보가 베이어 패턴 신호인 경우, 중심 화소가 R, G, B 중 어떤 색인지를 판단하여, 중심 화소와 다른 색의 화소를 건너뛰고, 중심 화소와 같은 색의 주변 화소에 의해 영상 정보를 재구성하는 영상 인터페이스 단계(S10), 시간에 따라 입력되는 영상 정보의 움직임 정도를 산출하는 움직임 정도 산출 단계(S20), 영상 정보의 시간적 잡음을 저감하는 시간적 잡음 저감 단계(S30), 화소에 대한 잡음을 산출하는 화소 잡음 정도 산출 단계(S40), 및 영상 정보의 공간적 잡음을 저감하는 공간적 잡음 저감 단계(S50)을 포함한다.6 is a flowchart of an adaptive noise reduction method for a digital image according to an exemplary embodiment of the present invention. As can be seen from Figure 6, the adaptive noise reduction method for a digital image according to an embodiment of the present invention, when the input image information is a Bayer pattern signal, the index of the center pixel is R, G, B Image interface step (S10) of skipping pixels of a different color from the center pixel and reconstructing the image information by neighboring pixels of the same color as the central pixel, and calculating a degree of movement of the image information input over time. A motion degree calculating step (S20), a temporal noise reduction step (S30) for reducing temporal noise of image information, a pixel noise degree calculating step (S40) for calculating noise for a pixel, and a spatial noise for reducing spatial noise of the image information A noise reduction step S50 is included.
또한, 본 발명의 디지털 영상을 위한 적응적 잡음 저감 방법은, 화소 잡음 정도 산출 단계(S40)로부터 산출된 화소 잡음을 이용하여, 하나의 프레임을 이루는 전체 영상 정보로부터 에지로 판단되는 화소를 뺀 화소 중에서, 잡음이 없는 화소의 비율을 계산하여 다음 영상 정보가 입력될 경우, 시간적 잡음 저감 단계의 잡음 저감의 강도 조절 계수를 산출하는 영상 잡음 산출 단계(S60) 및 시간적 잡음 저감 단계(S30)로부터의 제 1 출력 영상과 공간적 잡음 저감 단계(S40)로부터의 제 2 출력 영상을 결합하는 영상 결합 단계(S70)를 더 포함한다. In addition, the adaptive noise reduction method for the digital image of the present invention uses the pixel noise calculated in the pixel noise degree calculation step S40 to subtract the pixel determined as an edge from all the image information forming one frame. Among the image noise calculation steps (S60) and the temporal noise reduction step (S30), when the ratio of pixels without noise is calculated and the following image information is input, the intensity adjustment coefficient of the noise reduction in the temporal noise reduction step is calculated. The method may further include an image combining step S70 of combining the first output image and the second output image from the spatial noise reduction step S40.
상술한 바와 같이 본 발명의 바람직한 일실시예의 디지털 영상을 위한 적응적 잡음 저감 시스템(100) 및 그 잡음 제거 방법에 따르면, 디지털 영상의 시간적 잡음과 공간적 잡음을 효과적으로 저감시키는 것에 의해 선명한 영상 정보를 출력할 수 있음을 알 수 있다.As described above, according to the adaptive
본 발명의 바람직한 일실시예에 따른 디지털 영상을 위한 적응적 잡음 저감 시스템 및 그 잡음 제거 방법은 다양한 영상 처리 분야에 응용될 수 있다.An adaptive noise reduction system and a noise reduction method for a digital image according to an exemplary embodiment of the present invention can be applied to various image processing fields.
Claims (19)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2012-0076270 | 2012-07-12 | ||
| KR1020120076270A KR101361114B1 (en) | 2012-07-12 | 2012-07-12 | Adaptive Noise Reduction System for Digital Image and Method Therefor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2014010817A1 true WO2014010817A1 (en) | 2014-01-16 |
Family
ID=49916231
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2013/003390 Ceased WO2014010817A1 (en) | 2012-07-12 | 2013-04-22 | Adaptive noise reduction system for digital images, and method for removing noise |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101361114B1 (en) |
| WO (1) | WO2014010817A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018021850A1 (en) * | 2016-07-28 | 2018-02-01 | 삼성전자 주식회사 | Method and device for processing image, and recording medium |
| EP3308534A4 (en) * | 2015-06-12 | 2019-02-27 | GoPro, Inc. | SCALE FILTER SCALE MODULE |
| US10530995B2 (en) | 2015-06-12 | 2020-01-07 | Gopro, Inc. | Global tone mapping |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102390408B1 (en) * | 2017-11-08 | 2022-04-25 | 한화테크윈 주식회사 | Apparatus and Method for Noise Reduction |
| KR102240054B1 (en) * | 2019-08-30 | 2021-04-14 | (주)미래컴퍼니 | Image processing apparatus |
| KR102845918B1 (en) | 2023-09-18 | 2025-08-18 | 영남대학교 산학협력단 | Video data transmission and reception method and apparatus for display field communicaion |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2009002675A1 (en) * | 2007-06-25 | 2008-12-31 | The Hong Kong University Of Science And Technology | Rate distortion optimization for video denoising |
| KR101119268B1 (en) * | 2010-03-10 | 2012-03-20 | 삼성전자주식회사 | Method and device for reduction image color noise |
| KR101133520B1 (en) * | 2011-01-03 | 2012-04-04 | 엠텍비젼 주식회사 | Color noise reduction method and device |
| KR20120032170A (en) * | 2010-09-28 | 2012-04-05 | 엘지전자 주식회사 | Method for reducing noise in image signal and image processing apparatus using thereof |
| KR20120070961A (en) * | 2010-12-22 | 2012-07-02 | 중앙대학교 산학협력단 | Apparatus and method for real-time image restoration by vaguelette-wavelet decomposition |
| KR20120078832A (en) * | 2011-01-03 | 2012-07-11 | 엠텍비젼 주식회사 | Adaptive noise reduction method and device |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100429804B1 (en) * | 2001-12-29 | 2004-05-03 | 삼성전자주식회사 | Apparatus for attenuating image-noise adaptively and method thereof |
| US7199838B2 (en) * | 2004-06-17 | 2007-04-03 | Samsung Electronics Co., Ltd. | Motion adaptive noise reduction apparatus and method for video signals |
| KR101665137B1 (en) * | 2010-04-07 | 2016-10-12 | 삼성전자주식회사 | Apparatus and method for reducing noise from image sensor |
-
2012
- 2012-07-12 KR KR1020120076270A patent/KR101361114B1/en not_active Expired - Fee Related
-
2013
- 2013-04-22 WO PCT/KR2013/003390 patent/WO2014010817A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2009002675A1 (en) * | 2007-06-25 | 2008-12-31 | The Hong Kong University Of Science And Technology | Rate distortion optimization for video denoising |
| KR101119268B1 (en) * | 2010-03-10 | 2012-03-20 | 삼성전자주식회사 | Method and device for reduction image color noise |
| KR20120032170A (en) * | 2010-09-28 | 2012-04-05 | 엘지전자 주식회사 | Method for reducing noise in image signal and image processing apparatus using thereof |
| KR20120070961A (en) * | 2010-12-22 | 2012-07-02 | 중앙대학교 산학협력단 | Apparatus and method for real-time image restoration by vaguelette-wavelet decomposition |
| KR101133520B1 (en) * | 2011-01-03 | 2012-04-04 | 엠텍비젼 주식회사 | Color noise reduction method and device |
| KR20120078832A (en) * | 2011-01-03 | 2012-07-11 | 엠텍비젼 주식회사 | Adaptive noise reduction method and device |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3308534A4 (en) * | 2015-06-12 | 2019-02-27 | GoPro, Inc. | SCALE FILTER SCALE MODULE |
| US10530995B2 (en) | 2015-06-12 | 2020-01-07 | Gopro, Inc. | Global tone mapping |
| US11218630B2 (en) | 2015-06-12 | 2022-01-04 | Gopro, Inc. | Global tone mapping |
| US11849224B2 (en) | 2015-06-12 | 2023-12-19 | Gopro, Inc. | Global tone mapping |
| WO2018021850A1 (en) * | 2016-07-28 | 2018-02-01 | 삼성전자 주식회사 | Method and device for processing image, and recording medium |
| US10854010B2 (en) | 2016-07-28 | 2020-12-01 | Samsung Electronics Co., Ltd. | Method and device for processing image, and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101361114B1 (en) | 2014-02-13 |
| KR20140009726A (en) | 2014-01-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2014010817A1 (en) | Adaptive noise reduction system for digital images, and method for removing noise | |
| JP3928424B2 (en) | Flicker correction for movies | |
| US9478192B2 (en) | Image processing method | |
| KR101433952B1 (en) | Test pattern signal generating device, test pattern signal generating method, color measuring system and display device | |
| WO2015002423A1 (en) | Image processing method and apparatus for curved display device | |
| WO2011152174A1 (en) | Image processing device, image processing method and program | |
| CN1003275B (en) | Television system conversion device | |
| WO2011126328A2 (en) | Apparatus and method for removing noise generated from image sensor | |
| JP5414691B2 (en) | Image processing apparatus and image processing method | |
| US20100104202A1 (en) | Image processing apparatus and method | |
| WO2010074386A1 (en) | Method for detecting and correcting bad pixels in image sensor | |
| US11488286B2 (en) | Method for determining Moire pattern, method for suppressing Moire pattern and circuit system thereof | |
| WO2017213335A1 (en) | Method for combining images in real time | |
| US10645337B1 (en) | Video line inversion for reducing impact of periodic interference signals on analog video transmission | |
| US20100085486A1 (en) | Image processing apparatus and method | |
| US8351727B2 (en) | Image signal processing apparatus for generating bright signal of high reproducibility | |
| WO2014193021A1 (en) | Method and system for processing medical images | |
| US8675106B2 (en) | Image processing apparatus and control method for the same | |
| DE102004064129B3 (en) | Cable length detection device and method for a keyboard video mouse switch | |
| WO2021096167A1 (en) | Underwater camera image correction system and method for inspecting bottom of ship | |
| JP4194859B2 (en) | Video signal monitoring device | |
| KR100744111B1 (en) | Gray component compensation device of video signal | |
| CN113129389A (en) | Moire pattern judging method, Moire pattern inhibiting method and circuit system | |
| KR100287855B1 (en) | Apparatus for image quality test | |
| US20110299598A1 (en) | Motion vector display circuit and motion vector display method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13816352 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13816352 Country of ref document: EP Kind code of ref document: A1 |