WO2012161213A1 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- WO2012161213A1 WO2012161213A1 PCT/JP2012/063165 JP2012063165W WO2012161213A1 WO 2012161213 A1 WO2012161213 A1 WO 2012161213A1 JP 2012063165 W JP2012063165 W JP 2012063165W WO 2012161213 A1 WO2012161213 A1 WO 2012161213A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pixel
- noise
- unit
- pixel value
- target pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
- H04N5/213—Circuitry for suppressing or minimising impulsive noise
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
Definitions
- the present invention relates to an image processing apparatus and an image processing method.
- This application claims priority based on Japanese Patent Application No. 2011-117200 filed in Japan on May 25, 2011, the contents of which are incorporated herein by reference.
- noise components such as so-called snow noise, Gaussian noise, and shot noise are mixed in an image signal when an image is captured and transmitted.
- noise components such as so-called snow noise, Gaussian noise, and shot noise are mixed in an image signal when an image is captured and transmitted.
- the received signal that has received the broadcast wave becomes a video signal with a lot of noise components.
- analog video recorded in the past is often digitized and rebroadcast, and the video signal in that case is a video signal with a lot of noise components.
- a low-pass filter As a technique for reducing this noise component, a low-pass filter is known.
- the pixel value for example, the value of the luminance signal
- the noise reduction processing is performed by the noise reduction circuit, so that the noise is reduced and the image quality is improved in that respect.
- the image quality deteriorates at that point due to blurring of the edge.
- an adaptive low-pass filter using the median filter shown below has been proposed.
- a noise reduction circuit detects a noise component of a line portion having no image signal during a vertical blanking period of the video signal, and noise in the video signal is based on the voltage (noise amount E3) of the noise component. It has been shown to reduce. Specifically, as shown in FIG. 17, the noise reduction circuit uses a voltage E1 of the processing pixel from the delay circuit 512 and an output voltage E2 after the median filter processing is performed in the 3-tap median filter 513 as a voltage. Comparison is made in the comparison circuit 515.
- the noise reduction circuit When the voltage E1 of the processing pixel is larger than the output voltage E2 of the 3-tap median filter 513, the noise reduction circuit outputs a voltage obtained by subtracting the noise amount E3 from the voltage E1 of the image signal. On the other hand, when the voltage E1 of the processing pixel is lower than the output voltage E2 of the 3-tap median filter 513, the noise reduction circuit outputs a voltage obtained by adding the noise amount E3 to the voltage E1 of the image signal. When the voltage of the image signal is equal to the filtered voltage, the noise reduction circuit outputs the processing pixel voltage E1 to the outside as it is. As a result of this noise reduction processing, an image signal with a reduced noise peak is obtained as shown in FIG. 18B as compared with the original image signal on which the noise shown in FIG. 18A is superimposed. Note that FIG. 18A shows an input video from a medium electric field to a strong electric field, and FIG. 18B shows an output video.
- noise reduction processing is performed between frames (time direction) and within a frame (spatial direction) or both. Is going.
- the pixel of the target frame is compared with the pixel at the same position in the frames before and after the target frame. Then, comparing the voltage of the image signal of the target pixel of the target frame with the voltage of the image signal of the pixel at the same position in the previous and subsequent frames, the amount of noise obtained in advance when the target pixel is the minimum value is In addition to the signal voltage, when the target pixel has the maximum value, the noise amount is subtracted from the voltage of the image signal of the target pixel.
- the voltage value of the image signal of the target pixel is compared with the pixels a distance from the target pixel in the horizontal direction in the horizontal direction of the frame.
- a comparison is made with pixels that are b apart from the target pixel in the vertical direction. Then, when the target pixel has the minimum value, the noise amount obtained in advance is added to the voltage of the image signal of the target pixel, and when the target pixel has the maximum value, the noise amount is subtracted from the voltage of the image signal of the target pixel. ing.
- FIG. 19A and 19B are diagrams for explaining the noise reduction processing of Patent Document 1 in the case of the above-described weak electric field in which the received electric field strength is lower than the medium electric field and the noise superimposed on the image signal is large.
- FIG. 19A is an input video
- FIG. 19B is an output video.
- the noise amount obtained in advance and the image signal are superimposed The difference with the noise (weak electric field noise) is large.
- the present invention has been made in view of the above problem, and in the case of a weak electric field with a large amount of noise superimposed on an image signal, an image processing apparatus capable of removing noise in pixels remaining as isolated points after noise reduction processing. And an image processing method.
- image data of a target pixel to be subjected to noise removal and a plurality of peripheral pixels adjacent to the target pixel are compared, and a pixel value of the target pixel is determined based on the comparison result.
- a noise removing unit that removes noise by adding or dividing a preset amount of noise, and processing using adjacent pixels adjacent to the target pixel for the target pixel from which noise has been removed by the noise removing unit
- An isolated point removing unit that performs extraction of a central pixel value of a pixel value of the target pixel and a pixel value of the peripheral pixel as a central pixel value,
- the image processing apparatus uses a pixel value as a pixel value of the target pixel.
- the isolated point removing unit compares a preset threshold value with an absolute value obtained by subtracting a pixel value of a target pixel from the central pixel value, and the absolute value When the value exceeds the threshold, the isolated point removal process may be performed.
- the frame including the target pixel further includes a noise amount detection unit that detects a noise amount superimposed on a pixel value of the pixel, and the isolated point removal unit includes: A noise threshold value set in advance and the noise amount detected by the noise amount detection unit may be compared, and the noise removal process may be performed when the noise amount exceeds the noise threshold value.
- the noise removing unit includes an inter-frame noise removing unit that removes noise between frames, and a horizontal noise removing unit that removes noise in the horizontal direction within the frame.
- a vertical noise removal processing unit that removes noise in the vertical direction within the frame, and the isolated point removal unit includes the inter-frame noise removal processing unit, the horizontal noise removal processing unit, and the vertical noise removal processing. It may be provided after any of the sections.
- the noise removal unit compares image data with a target pixel on which noise removal is performed and a plurality of peripheral pixels in the vicinity of the target pixel, and based on the comparison result, the pixel of the target pixel An isolated point that uses an adjacent pixel adjacent to the target pixel for the target pixel that has been subjected to noise removal by adding or dividing a preset amount of noise to the value, and the noise removing unit removes noise
- a pixel value of the target pixel and a pixel value of the adjacent pixel are arranged in descending order, and a central pixel value in the center of the pixel value array is set as the pixel of the target pixel.
- the present invention in the case of a weak electric field with a large amount of noise superimposed on an image signal, it is possible to remove noise in pixels that remain as isolated points after noise reduction processing.
- FIG. 1 is a block diagram illustrating a configuration example of an image processing device according to a first embodiment of the present invention.
- FIG. 3 is a diagram illustrating a signal connection relationship between a liquid crystal driving unit 15 and a liquid crystal panel 16. It is a schematic block diagram which shows the structural example of the image process part 20 in 1st Embodiment. It is a schematic block diagram explaining the structural example of the noise removal part 21 in the image process part 20 in 1st Embodiment.
- FIG. 10 is a first diagram for explaining processing of a signal output unit 21_5 in the noise removing unit 21.
- FIG. 10 is a second diagram for explaining processing of the signal output unit 21_5 in the noise removing unit 21.
- FIG. 5 is a flowchart for explaining an operation example of isolated point removal processing in the first embodiment of an isolated point removal unit 22;
- FIG. 6 is a diagram illustrating an arrangement of nine pixels including a target pixel read by a buffer control unit 223 and pixel values thereof in order to explain isolated point removal processing.
- FIG. 6 is a diagram illustrating an arrangement of nine pixels including a target pixel read by a buffer control unit 223 and pixel values thereof in order to explain isolated point removal processing.
- 12 is a flowchart illustrating an operation example of isolated point removal processing according to the second embodiment.
- FIG. 6 is a first diagram illustrating an arrangement of nine pixels including a target pixel read by a buffer control unit 223 and pixel values thereof in order to explain isolated point removal processing.
- FIG. 10 is a second diagram illustrating an arrangement of nine pixels including target pixels to be read by the buffer control unit 223 and pixel values thereof for explaining the isolated point removal processing.
- FIG. 6 is a diagram illustrating an arrangement of nine pixels including a target pixel read by a buffer control unit 223 and pixel values thereof in order to explain isolated point removal processing.
- 6 is a diagram illustrating an arrangement of nine pixels including a target pixel read by a buffer control unit 223 and pixel values thereof in order to explain isolated point removal processing. It is a schematic block diagram which shows the structural example of the isolated point removal apparatus 22 by 3rd Embodiment. 6 is a schematic block diagram illustrating a configuration of a modified example of the noise removing unit 21. It is a figure which shows the structure of the conventional noise reduction circuit. It is a 1st figure explaining the result of the noise reduction process of the conventional noise reduction circuit. It is a 2nd figure explaining the result of the noise reduction process of the conventional noise reduction circuit. It is a 1st figure explaining the result of the noise reduction process of the conventional noise reduction circuit. It is a 2nd figure explaining the result of the noise reduction process of the conventional noise reduction circuit. It is a 2nd figure explaining the result of the noise reduction process of the conventional noise reduction circuit.
- FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to the first embodiment of the present invention.
- the display device 1 includes a detection unit 11, a Y / C (luminance signal / color difference signal) separation unit 12, an image processing unit 20, and RGB (Red: red, Green: green, Blue: blue) conversion.
- a unit 14, a liquid crystal driving unit 15, and a liquid crystal panel 16 are provided.
- the detection unit 11 receives high-frequency signals of image data of a plurality of channels of terrestrial analog television broadcast supplied from an external antenna 10. Then, the detection unit 11 extracts a modulation signal of a desired channel from the high-frequency signal supplied from the antenna 10, converts the extracted modulation signal into a baseband signal, and outputs it to the Y / C separation unit 12.
- the Y / C separation unit 12 demodulates the supplied baseband signal, separates it into a luminance signal Y, a color difference signal Cb, and a color difference signal Cr, and digitally separates each separated signal at a predetermined sampling frequency. Convert to signal. Further, the Y / C separation unit 12 outputs image data including the luminance data Y converted into the digital signal, the color difference data Cb, and the color difference data Cr to the image processing unit 20.
- the image processing unit 20 compares the supplied luminance data Y, color difference data Cb, and color difference data Cr between pixels in the same frame (pixel space in which pixels are arranged), and noise is superimposed on the processing target pixel. It is determined whether or not.
- the image processing unit 20 calculates the noise level in units of frames or fields.
- the image processing unit 20 performs noise reduction processing of the target pixel that is the target of noise reduction by adding and subtracting the noise level estimated from the blanking interval from the processing target pixel determined to have noise superimposed. Do.
- the image processing unit 20 applies a non-linear filter to each of the luminance signal Y, the color difference signal Cb, and the color difference signal Cr. Then, the image processing unit 20 outputs an image signal including the luminance signal Y, the color difference signal Cb, and the color difference signal Cr after the nonlinear filter is applied to the image format conversion unit 14.
- the image format conversion unit 14 converts the image signal into a progressive signal.
- the image format conversion unit 14 adjusts the number of pixels (scaling processing) in accordance with the resolution of the liquid crystal panel 16 for the progressive signal. Then, the image format conversion unit 14 converts the video signal with the adjusted number of pixels into an RGB signal (Red, Green, Blue color video signal), and outputs the converted RGB signal to the liquid crystal drive unit 15.
- RGB signal Red, Green, Blue color video signal
- the liquid crystal drive unit 15 generates a clock signal or the like for displaying video data supplied to the liquid crystal panel 16 on a two-dimensional plane of the screen.
- the liquid crystal driver 15 supplies the generated clock signal to the liquid crystal panel 16.
- FIG. 2 is a diagram illustrating a signal connection relationship between the liquid crystal driving unit 15 and the liquid crystal panel 16.
- the liquid crystal driving unit 15 includes a source driver unit 21 and a gate driver unit 22.
- the liquid crystal driving unit 15 controls the display elements PIX (that is, the display elements PIX arranged on the matrix) arranged at the intersections of the source lines 19 and the gate lines 18 in the liquid crystal panel 16 to display an image.
- the display element PIX includes a TFT (Thin Film Transistor) and a liquid crystal pixel element into which a voltage corresponding to a gradation described later is written by the TFT.
- TFT Thin Film Transistor
- the source driver unit 21 generates a gradation voltage for driving the pixel element from the supplied RGB signal, and uses the gradation voltage (a source signal which is gradation degree information) as a source line of the liquid crystal panel 16.
- a source signal which is gradation degree information
- Each 19 (column-direction wiring) is held by a hold circuit provided inside.
- the source driver unit 19 supplies the source signal to the TFT source line 19 in the liquid crystal element PIX of the liquid crystal panel 16 in synchronization with the clock signal with respect to the vertical arrangement of the screen.
- the gate driver unit 22 synchronizes with the clock signal for one row of the liquid crystal elements PIX on the screen through the TFT gate lines 18 (corresponding to the horizontal wiring, main scanning) in the liquid crystal elements PIX of the liquid crystal panel 16. A predetermined gate signal is supplied.
- the liquid crystal panel 16 includes an array substrate, a counter substrate, and liquid crystal sealed therebetween.
- a liquid crystal element PIX that is, a pixel electrode connected to the TFT and the drain electrode of the TFT, and a counter electrode (configured by a strip electrode on the counter substrate) ) are arranged one by one.
- the pixel element liquid crystal is sealed between the pixel electrode and the counter electrode.
- the liquid crystal panel 16 has three sub-pixels corresponding to the three primary colors RGB (Red, Green, Blue) for each pixel, that is, for each liquid crystal element PIX.
- the liquid crystal panel 16 has one TFT for each subpixel.
- the TFT is selected and turned on when the gate signal supplied from the gate driver unit is supplied to the gate electrode and the gate signal is at a high level, for example.
- the source signal supplied from the source driver is supplied to the source electrode of the TFT, and when the TFT is in an ON state, a gradation voltage is applied to the pixel electrode connected to the drain electrode of the TFT, that is, the pixel element. Is done.
- the orientation of the liquid crystal of the pixel element changes, thereby changing the light transmittance of the liquid crystal in the region of the pixel element.
- the gradation voltage is held in the liquid crystal capacitance of the pixel element formed by the liquid crystal portion between the pixel electrode connected to the drain electrode of the TFT and the counter electrode, and the alignment of the liquid crystal is maintained.
- the alignment of the liquid crystal is maintained until the next signal is supplied to the source electrode and the maintained voltage value is changed by the gradation voltage, so that the light transmittance of the liquid crystal is maintained.
- the liquid crystal panel 16 performs gradation display on the supplied video data.
- the transmissive liquid crystal panel has been described here, the present invention is not limited to this, and a reflective liquid crystal panel may be used.
- FIG. 3 is a schematic block diagram illustrating a configuration example of the image processing unit 20 according to the first embodiment.
- the image processing unit 20 includes a noise removal unit 21, an isolated point removal unit 22, and an enhancement unit 23.
- the noise removing unit 21 receives the image data in which the raster-scanned image signal is sent sample by sample from the Y / C separating unit 12, and reduces or removes noise of the image data in units of frames.
- the noise removing unit 21 outputs the image data after the noise is reduced to the isolated point removing unit 22. Details of the noise removal processing in the noise removal unit 21 will be described later.
- the isolated point removing unit 22 is a pixel whose pixel value is isolated from surrounding pixels (hereinafter, isolated point) as described in the conventional example. ) Remove the noise superimposed on. That is, when the received electric field strength of radio waves is a weak electric field, a large amount of noise that cannot be removed by the noise removing unit 21 is superimposed on the pixel value. Therefore, when compared with the pixel values of other adjacent pixels, the difference is a large pixel value, and a pixel is formed as an isolated point where the change of the pixel value is discontinuous compared to the change of the surrounding pixel value. .
- the isolated point removing unit 22 removes noise superimposed on the pixel value at the isolated point, and outputs the image data of the pixel from which the noise is removed to the enhancement unit 23 at the next stage. Details of the isolated point removal processing in the isolated point removal unit 21 will be described later.
- the enhancement processing unit 23 detects the contour of the image in the frame, corrects the pixel value of the detected pixel of the contour, and performs contour enhancement processing to make the sharpness of the image clearer. Then, the enhancement processing unit 23 outputs the image data in which the contour of the image is emphasized to the next-stage image format conversion unit 14.
- FIG. 4 is a schematic block diagram illustrating a configuration example of the noise removing unit 21 in the image processing unit 20 according to the first embodiment. Details of the processing of the noise removing unit 21 will be described with reference to FIG.
- the noise removal unit 21 includes a delay unit 21_1, a signal selection unit 21_2, a voltage comparison unit 21_3, a noise level detection unit 21_4, and a signal output unit 21_5.
- the Y / C separation unit 12 outputs the image data D11 to the delay unit 21_1, the signal selection unit 21_2, and the noise level detection unit 21_4.
- processing of each unit of the noise removing unit 21 will be described.
- a noise reduction process in which the noise removing unit 21 reduces noise superimposed on luminance data will be described.
- the same processing may be performed in parallel with the luminance data for the color difference data Cb and the color difference data Cr.
- the delay unit 21_1 adjusts the image signal supplied from the Y / C separation unit 12 to the timing at which pixel data of a pixel (hereinafter referred to as a comparison pixel) to be compared with the target pixel is output from the signal selection unit 21_2.
- the pixel data of the target pixel is delayed for a predetermined time.
- the delay unit 21_1 outputs the pixel data of the target pixel to the voltage comparison unit 21_3 and the signal output unit 21_5.
- the signal selection unit 21_2 sequentially shifts the image signal transmitted by the raster scan by one pixel of data, and stores the pixel data from the shift amount 0 to the shift amount (S1 + S2).
- the pixel with the shift amount 0 is referred to as the left pixel
- the pixel shifted by the shift amount S1 is referred to as the target pixel
- the pixel shifted by the shift amount (S1 + S2) is referred to as the right pixel.
- the signal selection unit 21_2 compares the left pixel, the target pixel, and the right pixel, and outputs pixel data Sout indicating an intermediate pixel value among the three pixels to the voltage comparison unit 21_3.
- the voltage comparison unit 21_3 compares the image data Dout of the target pixel supplied from the delay unit 21_1 and the pixel data Sout indicating the intermediate pixel value supplied from the signal selection unit 21_2.
- the voltage comparison unit 21_3 sets the comparison operator Cout to 1 if the image data Dout of the target pixel is larger than the pixel data Sout indicating the intermediate pixel value, sets the comparison operator Cout to 0 if they are the same, and compares them if they are smaller. Let Cout be -1. Then, the voltage comparison unit 21_3 outputs information indicating the value of the comparison operator Cout to the signal output unit 21_5.
- the delay unit 21_1 may be omitted, and the voltage comparison unit 21_3 may calculate the comparison operator Cout using the pixel value of the target pixel extracted by the signal selection unit 21_2 as it is.
- the noise level detection unit 21_4 estimates the noise level based on the image data in the blanking interval. Specifically, for example, the noise level detection unit 21_4 calculates the average value of the luminance data Y included in the image data in the blanking interval, and sets the information indicating the calculated average value as the noise level L to the signal output unit 21_5. Output.
- the signal output unit 21_5 receives the pixel data Dout of the target pixel supplied from the delay unit 21_1, information indicating the value of the comparison operator Cout supplied from the noise level detection unit 21_4, and the noise level detection unit 21_4. A noise level L is received. Then, the signal output unit 21_5 performs the following processing on the pixel data of the target pixel.
- the signal output unit 21_5 generates image data after subtraction by subtracting the noise level L from the pixel data Dout. Further, the signal output unit 21_5 generates image data after addition by adding the noise level L from the pixel data Dout.
- the signal output unit 21_5 outputs the image data after the subtraction to the isolated point removal unit 22.
- the signal output unit 21_5 outputs the pixel data Dout to the isolated point removing unit 22 as it is.
- the signal output unit 21_5 outputs the added image data to the isolated point removing unit 22 when the value of Cout is ⁇ 1.
- FIG. 5A and 5B are diagrams for explaining processing of the signal output unit 21_5 in the noise removing unit 21.
- FIG. The graph of FIG. 5A shows an example of the relationship between the pixel value (luminance data Y, color difference data Cb, color difference data Cr) and the pixel position in the horizontal direction.
- the graph of FIG. 5B shows an example of the relationship between the pixel values (luminance data Y, color difference data Cb, color difference data Cr) after the noise is reduced from the pixel values in FIG. 5A and the pixel position in the horizontal direction. ing.
- each circle represents a pixel value of each pixel supplied from the Y / C separation unit 12.
- the true pixel value W1 is the pixel value of the original image before being wirelessly transmitted from the TV tower.
- each pixel value supplied from the Y / C separation unit 12 may deviate from the true pixel value W ⁇ b> 1 due to mixing of noise components during wireless transmission.
- FIG. 5B shows the pixel values of the target pixels (T1a, T2a, T3a) after noise is reduced from the pixel values of the target pixels (T1, T2, T3).
- the pixels that are separated by S1 samples in the left direction from the target pixels (T1, T2, and T3) and the pixels that are separated by S2 samples in the right direction are set as comparison pixels.
- the signal output unit 21_5 subtracts the noise level L1 from the pixel value of the target pixel, and uses the subtracted pixel value as the pixel value of the target pixel T1a after noise reduction. . Further, since the target pixel T2 is smaller than the two comparison pixels, the signal output unit 21_5 adds the noise level L1 from the pixel value of the target pixel, and adds the pixel value of the target pixel T2a after the pixel value noise is reduced. Output.
- the signal output unit 21_5 subtracts the noise level L1 from the pixel value of the target pixel, and the subtracted pixel value is the pixel of the target pixel T3a after noise reduction. Value.
- FIG. 6 is a schematic block diagram illustrating a configuration example of the isolated point removing unit 22 in the first embodiment.
- the process of the isolated point removing unit 22 will be described with reference to FIG.
- the isolated point removal unit 22 includes three line buffers BF1, BF2, and BF3, a line buffer control unit 223, an arrangement unit 221, and a determination unit 222.
- each of the line buffers BF1, BF2, and BF3 includes pixels arranged in the scanning line direction constituting the frame (hereinafter referred to as scanning line pixels) as pixel values of the pixels in the image data for each row of the scanning lines.
- scanning line pixels pixels arranged in the scanning line direction constituting the frame
- the pixel values of the pixels for each scanning line are written into the pixels output from the noise removal unit 21 in the previous stage by the line buffer control unit 223 described later.
- the pixel value of the pixel is stored for each scanning line.
- the line buffer control unit 223 writes the pixel value of the pixel for each scanning line to each of the line buffers BF1, BF2, and BF3, and the frame scanning line for each of the line buffers BF1, BF2, and BF3.
- the pixel value of the pixel at is stored.
- the line buffer control unit 223 reads three pixel values from each of the line buffers BF1, BF2, and BF3, for a total of nine pixel values.
- the line buffer control unit 223 reads out pixel values of pixels in three columns (for example, columns L1, L2, and L3) for every three scanning lines.
- the line buffer control unit 223 sets the read pixel value at the center of the nine pixels as a target pixel, and sets the position of the target pixel in a region other than the region for storing the nine pixel values as a target pixel address.
- the target pixel address is an address including identification information indicating the line buffers BF1, BF2, and BF3 and a column number, and is an address indicating the position of the target pixel.
- the “target pixel address” of the pixel A11 at the center of the nine pixels in FIG. 6 is (BF2, L2).
- the array unit 221 determines the size of each of the nine pixel values read by the line buffer control unit 223, and performs a sort process for rearranging the pixel values into an array in descending order.
- the determination unit 222 extracts, from the pixel values in the array generated by the array unit 221, the pixel value that is the median value in the array as the center pixel value.
- the line buffer control unit 223 uses the center pixel value added to the rewrite control signal as the position of the line buffer column indicated by the target pixel address. And rewriting the pixel value of the target pixel as the center pixel value.
- the process of setting the median value performed by the line buffer control unit 223, the array unit 221, and the determination unit 222 to the pixel median value is equivalent to the spatial filtering by the media filter.
- the line buffer control unit 223 executes the spatial filtering by sequentially shifting the pixel in the row direction by one pixel. When the processing in one row direction is finished, the line buffer control unit 223 performs processing in the next row direction, and similarly Spatial filtering is performed on all pixels of one frame.
- FIG. 7 is a flowchart for explaining an operation example of isolated point removal processing in the first embodiment of the isolated point removal unit 22.
- FIGS. 8 and 9 are diagrams illustrating the arrangement of nine pixels including the target pixel read by the buffer control unit 223 and the pixel values thereof, in order to explain the isolated point removal processing.
- an operation example of isolated point removal processing in the isolated point removal unit 22 will be described with reference to FIGS. 7, 8, and 9.
- Step S1 The line buffer control unit 223 writes “0” to a scanning line number storage unit (not shown) that stores the scanning line numbers provided in each of the line buffers BF1, BF2, and BF3, thereby initializing the scanning number storage unit.
- the line buffer control unit 223 sequentially writes the pixel values supplied from the noise removal unit, which is the preceding circuit, to the line buffers BF1, BF2, and BF3 for each scanning line of the frame.
- the noise removal circuit 21 sequentially writes the pixel values of the scanning lines to the line buffers BF1, BF2, and BF3, but writes the pixel values of the first scanning line in the frame to the line buffer BF1.
- the pixel value of the second scanning line is written into the line buffer BF2, and the third scanning line is written into the line buffer BF3. Then, the noise removal unit 21, which is the preceding circuit, writes the pixel value of the fourth scanning line in the frame to the line buffer BF1.
- the line buffer control unit 223 writes the scanning line number of the scanning line corresponding to the pixel value written in each line buffer in the scanning line storage unit provided in each of the line buffers BF1, BF2, and BF3.
- the noise removing unit 21 sequentially sets the pixel values of the scanning lines in the frame as BF1 ⁇ BF2 ⁇ BF3 ⁇ BF1 ⁇ BF2 ⁇ BF3... With respect to the three line buffers BF1, BF2, and BF3.
- a process of sequentially writing pixel values of new scanning lines is performed on the line buffers written in the youngest order among the three line buffers.
- Step S2 The line buffer control unit 223 detects whether or not the pixel value of the scanning line has been written in all of the three line buffers BF1, BF2, and BF3. This is done with reference to the line number storage unit.
- the scanning line number storage unit is provided in each line buffer, and is a scanning line number (a number indicating the arrangement order of the scanning lines in the frame) that is the number of the scanning line to which the pixel of the pixel value written in each line buffer belongs. ) Is stored, and is written by the line buffer control unit 223 when the writing of the pixel value of the scanning line is completed.
- the process proceeds to step S3.
- Step S3 The line buffer control unit 223 reads out pixel values from the line buffers BF1, BF2, and BF3 in order of columns (for example, column L1, column L2, and column L3) and writes them to the internal storage area.
- the target pixel address of the target pixel is written and stored in the storage area of the internal storage unit.
- the pixel value of the target pixel is the pixel value of the column L2 of the line buffer BF2.
- the line buffer control unit 223 determines which is the pixel value of the target pixel as follows.
- the line buffer control unit 223 compares the 9 pixel values with the scanning line number stored in the scanning line number storage unit added to the line buffer as shown in FIG.
- the pixel values for three columns (three) are written in the uppermost row, the pixel values for three columns read from the line buffer having the next smallest scanning line number are written in the middle row, and the line with the largest scanning line number is written.
- the pixel values for three columns read from the buffer are written in the lower row.
- the target pixel is written in advance in an area surrounded by other adjacent eight peripheral pixels, and the identification information of the address buffer from which the pixel value of the center column in this middle row is read and the column information in the line buffer The number is extracted as the target pixel address.
- the line buffer control unit 223 sets the central pixel value in the middle row in the storage area as the pixel value of the target pixel.
- the line buffer control unit 223 indicates that the pixel value written in the middle row of the three rows of the storage area is the line buffer BF2, and the pixel value at the center of the pixel values of the three columns is the line buffer. Column L2. Therefore, the line buffer control unit 223 writes and stores the target pixel address [BF2, L2] as the target pixel address in the storage area. In FIG. 8, the target pixel address [BF2, L2] is the isolated point P11. Then, the line buffer control unit 223 advances the process to step S4.
- Step S4 Next, the array unit 221 reads nine pixel values from the storage area of the line buffer control unit 223 (processing F1). Then, the arrangement unit 221 compares each of the read nine pixel values, and arranges them in the large order (or small order). In the case of FIG. 8, the array of pixel values is [100, 8, 7, 6, 5, 4, 3, 2, 1], and the pixel value “100” of the target pixel is the maximum. In the case of FIG. 9, the array of pixel values is [16, 15, 14, 13, 12, 11, 5, 4, 3, 1], the pixel value of the target pixel is 13, and the pixel values in the array The maximum value is not reached. When the arrangement ends, the arrangement unit 221 outputs the arrangement data together with the control signal indicating the end to the determination unit 222, and the process proceeds to step S5.
- Step S5 Next, when the control signal indicating that the arrangement is completed is supplied from the arrangement unit 221, the determination unit 222 extracts the pixel value of the central numerical value from the pixel values of the added arrangement as the central pixel value. (Process F2). Then, the determination unit 222 outputs the center pixel value as a new pixel value of the target pixel to the line buffer control unit 223 (processing F3). And the determination part 222 advances a process to step S6.
- Step S6 Next, the line buffer unit 223 writes the central pixel value supplied from the determination unit 221 to the line buffer column indicated by the target pixel address written in the storage area, and rewrites the pixel value in the isolated point removal process. I do. Then, the line buffer control unit 223 advances the process to step S7. Through the above-described processing, the pixel value “100” of the pixel at the isolated point shown in FIG. 8 is rewritten to “5”, and the noise superimposed on the pixel value of the pixel remaining as the isolated point P11 (FIG. 8) is removed. Is done. In the case of FIG.
- the pixel value “13” of the target pixel is not an isolated point pixel, and the pixel value on the left side of the same row is 1, so there is a possibility that it is an edge portion of the image in the image data. There is. However, as a result of the pixel value “13” being rewritten to the pixel value “11”, the pixel value of the edge is not significantly reduced. Therefore, it does not result in blurring the edges.
- Step S7 The line buffer control unit 223 determines whether the pixel value to be read next is the end address of the line buffer, that is, whether the column number of the line buffer to be written to the central column of the storage area is not the final column number of the line buffer. Make a decision. Then, the line buffer control unit 223 advances the process to step S3 when the column number of the line buffer column to be written to the center column of the storage area is not the final column number of the line buffer (in the case of NO). On the other hand, if it is the last column number of the line buffer (in the case of YES), the line buffer control unit 223 advances the process to step S8.
- Step S8 The line buffer control unit 223 determines whether or not the next scanning line number to be written in the central row of the storage area is the scanning line of the last row in the frame, and the next scanning line number to be written is set in advance. Judgment is made by whether or not it matches the scanning line number of the last row in the frame. At this time, the line buffer control unit 223 advances the process to step S9 when the scanning line number of the scanning line to be written next in the central row of the storage unit does not match the scanning line number of the final row (in the case of NO). On the other hand, when the line buffer control unit 223 matches the scanning line number of the last row (in the case of YES), the process proceeds to step S10.
- Step S9 Next, the line buffer control unit 223 outputs a control signal that requests the noise removal unit 21 in the previous stage to output the pixel value of the scanning line of the next scanning line number.
- the line buffer control unit 223 compares the scanning line numbers stored in the scanning line storage units of the line buffers BF1, BF2, and BF3, and the scanning line storage unit that stores the smallest scanning line number. Is extracted.
- the line buffer control unit 223 is a line buffer in which the pixel value of each pixel in the scanning line input from the noise removing unit 21 is extracted, and the scanning line number stored in the scanning line storage unit is the smallest. Write to the line buffer. At this time, when the line buffer control unit 223 finishes the process of writing the pixel value in the scanning line input from the noise removing unit 21 into the extracted line buffer, the line buffer control unit 223 sets the scanning line number of the scanning line storage unit of the line buffer. Then, the scanning line number of the newly written pixel value is rewritten. Then, the line buffer control unit 223 advances the process to step S3.
- Step S10 Next, the line buffer control unit 223 starts the process of writing the pixel value of the scanning line of the new frame to the line buffers BF1, BF2, and BF3, and advances the process to step S1.
- the pixel value of a pixel as an isolated point that is higher by one point than the pixel values of adjacent neighboring pixels, that is, the size that cannot be removed by the noise removing unit 21.
- the pixel value of the target pixel is rewritten to the center pixel value among the pixel values of the neighboring peripheral pixels. The amount of noise superimposed on can be removed.
- the pixel value of the target pixel is made to correspond to the pixel values of the neighboring peripheral pixels, the influence of noise on the pixel value of the target pixel as an isolated point is reduced, and the image
- the target pixel on which the noise is superimposed is not conspicuous, and the viewer can view the image as a low noise image.
- the isolated point removal process may be another smoothing process.
- FIG. 11 is a schematic block diagram illustrating a configuration example of the isolated point removing unit 22 in the second embodiment.
- the process of the isolated point removal unit 22 will be described with reference to FIG.
- the image processing apparatus in the second embodiment shown in FIG. 11 has the configuration of the image processing unit 20 shown in FIG. 3, the noise removal unit 21 shown in FIG. 4, and the isolated point removal unit 22 shown in FIG. This is the same as the embodiment.
- FIGS. 12A, 12 ⁇ / b> B, 13, and 14 are diagrams illustrating the arrangement of nine pixels including the target pixel read by the buffer control unit 223 and the pixel values in order to explain the isolated point removal processing.
- FIG. 12A, 12 ⁇ / b> B, 13, and 14 are diagrams illustrating the arrangement of nine pixels including the target pixel read by the buffer control unit 223 and the pixel values in order to explain the isolated point removal processing.
- FIG. 12A, 12 ⁇ / b> B, 13, and 14 are diagrams illustrating the arrangement of nine pixels including the target pixel
- FIG. 10 is a flowchart illustrating an operation example of isolated point removal processing according to the second embodiment. 12A and 12B, the operation of the second embodiment different from the first embodiment will be described below with reference to FIG.
- the isolated point removal unit 22 is newly provided with a pixel value comparison unit 225, and the operation of the determination unit 222 (FIG. 6) is the first embodiment. And different.
- step S4 when the arrangement ends, the arrangement unit 221 outputs the arrangement data together with the control signal indicating the end to the determination unit 222, and the process proceeds to step S11.
- Step S11 The determination unit 222 is the same from the pixel value array output by the array unit 221 to the process of extracting the central pixel value (Median value) from the pixel values of the array, but the operation performed thereafter is different. That is, the determination unit 222 outputs the extracted center pixel value to the pixel value comparison unit 225. Then, the pixel value comparison unit 225 subtracts the central pixel value supplied from the determination unit 222 from the pixel value of the target pixel located at the center of the nine pixels in the pixel array. Then, the pixel value comparison unit 225 sets the difference pixel value absolute value A as the absolute value of the difference pixel value that is the difference of the subtraction results, as shown in FIG.
- abs (x) is a function that takes the absolute value of x.
- the pixel value comparison unit 225 proceeds with the process to step S12.
- Step S5 Then, the determination unit 222 performs line buffer control on the rewrite control signal indicating that the pixel value of the target pixel is rewritten to the center pixel value and the center pixel value in order to use the center pixel value as the new pixel value of the target pixel. Output to the unit 223. And the determination part 222 advances a process to step S6.
- Step S13 Then, the determination unit 222 outputs a rewrite stop control signal indicating that the pixel value of the target pixel is not rewritten to the line buffer control unit 223.
- the line buffer unit 223 does not rewrite the pixel value of the current target pixel. Then, the line buffer unit 223 advances the process to step S7.
- the threshold value R is set as described above, and the rewriting control of the pixel value of the target pixel is performed by the threshold value R for the following reason.
- the target pixel is a pixel that forms an edge. If the pixel value array is replaced with a small pixel value other than the edge, there is a possibility that the edge is blurred and the image becomes blurred. That is, in the example of FIG.
- the pixel value “13” of the target pixel and the pixel values of peripheral pixels adjacent to the target pixel are “4”, “5”, in the storage area of the line buffer control unit 223. “2”, “1”, “6”, “11”, “15”, “13” are stored.
- the central pixel value in the pixel value array is “5”, which is not the pixel value (for example, 15) of the pixel that forms the edge together with the target pixel, so the edge is blurred.
- the pixel value “13” of the target pixel and the pixel values of peripheral pixels adjacent to the target pixel are “4” and “5” in the storage area of the line buffer control unit 223. , “2”, “1”, “16”, “3”, “15”, “13” are stored.
- the central pixel value in the pixel value array is “5”, which is not the pixel value of the pixel forming the edge together with the target pixel, and thus blurs the edge. Accordingly, in both the examples of FIGS.
- the target pixel that forms the edge Is replaced with the pixel value of a pixel that does not form an edge, thereby blurring the edge of the image.
- the determination unit 222 subtracts the extracted central pixel value from the pixel value of the target pixel located at the center of the nine pixels, and obtains it.
- the absolute value A of the difference pixel value is obtained as the absolute value of the obtained difference pixel value.
- the determination unit 222 compares the obtained difference pixel value absolute value A with the threshold value R, and when the difference pixel value absolute value A exceeds the threshold value R, replaces the pixel value of the target pixel with the central pixel value. .
- the determination unit 222 does not replace the pixel value of the target pixel with the center pixel value, but uses the original pixel value.
- the threshold value R is set to “16” as the pixel value.
- the target pixel is a pixel that forms an edge (processing F12).
- the pixel value of the target pixel is replaced with the central pixel value. Is determined not to be performed (process F13).
- the pixel value of the target pixel remains “13” even after the median filter processing, so that the edge is not blurred.
- the threshold value R is set to “16” as the pixel value.
- the target pixel is not a pixel forming an edge (processing F12).
- the difference pixel value absolute value A obtained by subtracting the pixel value of the target pixel from the central pixel value (Median value) 222 is “94”. Therefore, the determination unit 222 determines to replace the pixel value of the target pixel with the central pixel value (processing F13).
- “100” is replaced with the central pixel value in the pixel value of the target pixel, and thus the amount of noise superimposed on the pixel value of the pixel as an isolated point Can be reduced (isolated points can be removed).
- the threshold R is preferably between 16 and 32 when the gradation is 256 gradations from 0 to 255. However, since the threshold value R is related to the resolution of gradation, the degree of noise superposition, and the amount of noise, it is preferable to set the threshold value R for each use environment through experiments or the like.
- the difference pixel value absolute value A which is the absolute value of the difference pixel value obtained by subtracting the pixel value of the target pixel from the pixel value in the pixel value array, in the isolated point removal process. However, if the threshold value R exceeds a preset threshold value R, the isolated point removal process is executed.
- the threshold value R is set to a value sufficient for determining noise as compared with the central pixel value, the probability that the pixel value of the pixel on which the noise is superimposed can be replaced with the central pixel value is increased.
- FIG. 15 is a schematic block diagram illustrating a configuration example of the isolated point removing apparatus 22 according to the third embodiment.
- a difference from the first embodiment and the second embodiment shown in FIG. 6 is that a noise amount detection unit 224 is newly added as a configuration.
- Other configurations are the same as those in the first embodiment and the second embodiment.
- the configuration and operation of the third embodiment different from those of the first and second embodiments will be described below.
- the noise amount detection unit 224 estimates the noise level based on the image data in the blanking interval. Specifically, for example, the noise amount detection unit 224 calculates the average value of the luminance data Y included in the image data in the blanking interval, and outputs information indicating the calculated average value to the determination unit 222 as the noise level L. To do.
- the determination unit 222 compares a noise threshold set in advance with the noise level L supplied from the noise amount detection unit 224. Then, when the noise level L exceeds the noise threshold, the determination unit 222 operates the isolated point removal unit 22 so as to perform the isolated point removal process described in the first and second embodiments. On the other hand, when the noise level L is equal to or lower than the noise threshold, the determination unit 222 does not perform the isolated point removal process.
- the third embodiment determines whether or not to perform isolated point removal depending on whether or not the noise level exceeds the noise threshold.
- the magnitude of noise superimposed on the pixel value changes depending on the strength of the received electric field strength of the received radio wave. That is, the amount of noise superimposed on the pixel value decreases as the received electric field strength of the received radio wave increases, and the amount of noise superimposed on the pixel value tends to increase as the received electric field strength decreases. . As the amount of noise increases, the probability of generating isolated points that cannot be removed by the noise removing unit 21 increases.
- the third embodiment sets a noise threshold value corresponding to the received electric field strength depending on the surrounding environment. Therefore, when the viewer appreciates the isolated amount of pixel noise in the image data. The noise can be reduced to a satisfactory level.
- the determination unit 222 may be configured to read the noise level L calculated by the noise level detection unit 21_4 in the noise removal unit 21 without providing the noise amount detection unit 224.
- FIG. 16 is a block diagram showing a noise removing unit 21a which is a modification of the noise removing unit 21.
- the noise removing unit 21a includes an inter-frame noise removing unit 21A, an intra-frame horizontal noise removing unit 21B, and an intra-frame vertical noise removing unit 21C.
- Each of the inter-frame noise removing unit 21A, the intra-frame horizontal noise removing unit 21B, and the intra-frame vertical noise removing unit 21C performs noise removal by the same processing as the noise removing unit 21 already described.
- the pixel to be compared with the target pixel is a combination shown below.
- the configuration relating to the removal unit and the operation relating to noise removal are the same.
- the inter-frame noise removing unit 21A includes a pixel value of a pixel corresponding to the pixel value of the target pixel in the target frame and the target pixel in the preceding and following frames in the target frame in which the target pixel is located and in the frames before and after this frame.
- the noise component superimposed on the pixel value of the target pixel is removed using the value.
- the inter-frame noise removing unit 21B uses the pixel value of the target pixel in the target frame where the target pixel is located and the pixel values of peripheral pixels in the horizontal direction (left and right direction in the frame) with respect to this pixel.
- the noise component superimposed on the pixel value of the target pixel is removed.
- the inter-frame noise removing unit 21C uses the pixel value of the target pixel in the target frame where the target pixel is located, and the pixel values of peripheral pixels in the vertical direction (vertical direction in the frame) with respect to this pixel. The noise component superimposed on the pixel value of the target pixel is removed.
- the isolated point removing unit 22 is placed after the noise removing unit 21.
- the isolated point removing unit 22 is arranged at a stage subsequent to any one of the noise removing units of the interframe noise removing unit 21A, the interframe noise removing unit 21B, and the interframe noise removing unit 21C. .
- this configuration it is possible to remove a noise component of a pixel that is overlaid with high noise compared to the pixel values of surrounding pixels that are isolated points.
- Each block of the noise removal unit 21 and the isolated point removal unit 22 in the image processing unit 20 may be configured as hardware called a signal processing device by a logic circuit formed on an integrated circuit (IC chip), or may be a line memory.
- the configuration other than the frame memory may be realized by software using a CPU (Central Processing Unit) as follows.
- a program for realizing the functions of the noise removal unit 21 and the isolated point removal unit 22 in FIG. 4 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. It is also possible to perform image noise removal processing by execution.
- the “computer system” here includes an OS and hardware such as peripheral devices.
- the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
- the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
- the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, it also includes those that hold a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or client.
- the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
- the present invention can be applied to an image processing apparatus and an image processing method that can remove noise in pixels remaining as isolated points after noise reduction processing in the case of a weak electric field with large noise superimposed on an image signal.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Picture Signal Circuits (AREA)
- Image Processing (AREA)
Abstract
ノイズ除去を行う対象画素と、対象画素に隣接する複数の周辺画素との画像データを比較し、この比較結果から対象画素の画素値に対し、予め設定されたノイズ量を、加算あるいは除算してノイズ除去を行うノイズ除去部と、ノイズ除去部においてノイズ除去された前記対象画素に対し、対象画素に隣接する隣接画素を用いた処理を行う孤立点除去部とを有する。孤立点除去部は、対象画素の画素値と周辺画素の画素値とにおける中央の画素値を中央画素値として抽出し、抽出した中央画素値を対象画素の画素値とする。
Description
本発明は、画像処理装置及び画像処理方法に関する。
本願は、2011年5月25日に、日本に出願された特願2011-117200号に基づき優先権を主張し、その内容をここに援用する。
本願は、2011年5月25日に、日本に出願された特願2011-117200号に基づき優先権を主張し、その内容をここに援用する。
従来から、画像の撮像や伝送を行う際、いわゆるスノーノイズ、ガウスノイズ、ショットノイズなどの雑音成分が画像信号に混入することが知られている。例えば、アナログテレビジョン信号の放送波を受信する際、受信する放送波の電界強度が弱いと、放送波を受信した受信信号は雑音成分の多い映像信号となる。また、デジタル放送においても、過去に録画したアナログ映像をデジタル化して再放送することも多く、その場合の映像信号は、雑音成分の多い映像信号となる。
この雑音成分を低減する技術として、ローパスフィルタが知られている。しかし、ローパスフィルタを用いた場合、映像信号における画素の画素値(例えば、輝度信号の値)を平均化処理するため、映像がぼやけてしまうという問題がある。
すなわち、雑音成分の多い画像においては、雑音低減回路が雑音低減処理を行うことにより、雑音が低減することによって、その点では画質が改善される。しかし、その一方では、エッジがぼやけることによって、その点では画質が劣化してしまう。
この問題を改善するため、以下に示すメディアンフィルタを用いた適応型ローパスフィルタが提案されている。
すなわち、雑音成分の多い画像においては、雑音低減回路が雑音低減処理を行うことにより、雑音が低減することによって、その点では画質が改善される。しかし、その一方では、エッジがぼやけることによって、その点では画質が劣化してしまう。
この問題を改善するため、以下に示すメディアンフィルタを用いた適応型ローパスフィルタが提案されている。
特許文献1においては、雑音低減回路が映像信号の垂直ブランキング期間における画像信号の無いライン部分の雑音成分を検出して、その雑音成分の電圧(ノイズ量E3)を基にして映像信号における雑音の低減を行うことが示されている。
具体的には、雑音低減回路は、図17に示すように、遅延回路512からの処理画素の電圧E1と、3タップ形メディアンフィルタ513においてメディアンフィルタ処理を行った後の出力電圧E2とを電圧比較回路515において比較する。
具体的には、雑音低減回路は、図17に示すように、遅延回路512からの処理画素の電圧E1と、3タップ形メディアンフィルタ513においてメディアンフィルタ処理を行った後の出力電圧E2とを電圧比較回路515において比較する。
処理画素の電圧E1が3タップ形メディアンフィルタ513の出力電圧E2よりも大きい場合、雑音低減回路は、画像信号の電圧E1からノイズ量E3を減算した電圧を外部に出力する。
一方、処理画素の電圧E1が3タップ形メディアンフィルタ513の出力電圧E2よりも低い場合、雑音低減回路は、画像信号の電圧E1にノイズ量E3を加算した電圧を外部に出力する。
また、画像信号の電圧とフィルタ後の電圧が等しい場合、雑音低減回路は、処理画素の電圧E1をそのまま外部に出力する。
このノイズ低減処理の結果、図18Aに示されたノイズが重畳した元の画像信号と比較し、図18Bに示すように、ノイズのピークが低減された画像信号が得られる。なお、図18Aは、中電界から強電界における入力映像を示し、図18Bは、出力映像を示している。
一方、処理画素の電圧E1が3タップ形メディアンフィルタ513の出力電圧E2よりも低い場合、雑音低減回路は、画像信号の電圧E1にノイズ量E3を加算した電圧を外部に出力する。
また、画像信号の電圧とフィルタ後の電圧が等しい場合、雑音低減回路は、処理画素の電圧E1をそのまま外部に出力する。
このノイズ低減処理の結果、図18Aに示されたノイズが重畳した元の画像信号と比較し、図18Bに示すように、ノイズのピークが低減された画像信号が得られる。なお、図18Aは、中電界から強電界における入力映像を示し、図18Bは、出力映像を示している。
上述した特許文献1に示す雑音低減処理(「ノイズリダクション処理」と言うことがある。)にあっては、フレーム間(時間方向)及びフレーム内(空間方向)またはその双方でノイズリダクションの処理を行っている。
ここで、フレーム間におけるノイズリダクション処理では、対象フレームの画素と、この対象フレームの前後のフレームにおける同じ位置の画素を比較している。そして、対象フレームの対象画素の画像信号の電圧と、前後のフレームにおける同じ位置の画素の画像信号の電圧と比べて、対象画素が最小値の場合に予め求めたノイズ量を、対象画素の画像信号の電圧に加算し、対象画素が最大値の場合にノイズ量を、対象画素の画像信号の電圧から減算している。
ここで、フレーム間におけるノイズリダクション処理では、対象フレームの画素と、この対象フレームの前後のフレームにおける同じ位置の画素を比較している。そして、対象フレームの対象画素の画像信号の電圧と、前後のフレームにおける同じ位置の画素の画像信号の電圧と比べて、対象画素が最小値の場合に予め求めたノイズ量を、対象画素の画像信号の電圧に加算し、対象画素が最大値の場合にノイズ量を、対象画素の画像信号の電圧から減算している。
また、フレーム内におけるノイズリダクション処理では、対象画素の画像信号の電圧値とフレームの水平方向において、対象画素から左右にa個離れた画素と比較する。また、一方、フレームの垂直方向において、対象画素から上下にb個離れた画素と比較する。そして、対象画素が最小値の場合に予め求めたノイズ量を、対象画素の画像信号の電圧に加算し、対象画素が最大値の場合にノイズ量を、対象画素の画像信号の電圧から減算している。
この特許文献1におけるノイズリダクション処理において、画素の画像信号に重畳しているノイズが小さい場合、すなわち受信電界強度が中電界から強電界においては、図18Bに示すように、画素の画像信号に重畳しているノイズを大幅に除去することが可能である。
この特許文献1におけるノイズリダクション処理において、画素の画像信号に重畳しているノイズが小さい場合、すなわち受信電界強度が中電界から強電界においては、図18Bに示すように、画素の画像信号に重畳しているノイズを大幅に除去することが可能である。
図19A及び図19Bは、上述した受信電界強度が中電界より低く、画像信号に重畳するノイズが大きい弱電界の場合における、特許文献1のノイズリダクション処理を説明する図である。図19Aは、入力映像であり、図19Bは、出力映像である。
しかしながら、図19Aに示すように、上述した図18Aの場合の受信電界強度が中電界より低く、画像信号に重畳するノイズが大きい弱電界の場合、予め求めたノイズ量と、画像信号に重畳しているノイズ(弱電界ノイズ)との差が大きい。そのため、このノイズが重畳している画像信号からノイズ量を減算しても、図19Bに示すように、周囲の画素に比較して、その画像信号の電圧が孤立点として残ってしまう問題がある。
この結果、ノイズリダクション後に入力されるエンハンス回路において、孤立点の画素が浮き出てしまう。
しかしながら、図19Aに示すように、上述した図18Aの場合の受信電界強度が中電界より低く、画像信号に重畳するノイズが大きい弱電界の場合、予め求めたノイズ量と、画像信号に重畳しているノイズ(弱電界ノイズ)との差が大きい。そのため、このノイズが重畳している画像信号からノイズ量を減算しても、図19Bに示すように、周囲の画素に比較して、その画像信号の電圧が孤立点として残ってしまう問題がある。
この結果、ノイズリダクション後に入力されるエンハンス回路において、孤立点の画素が浮き出てしまう。
本発明は、上記問題に顧みて成されたものであり、画像信号に重畳するノイズが大きい弱電界の場合において、ノイズリダクション処理の後に、孤立点として残る画素におけるノイズの除去が行える画像処理装置及び画像処理方法を提供する。
(1) 本発明の第1の態様は、ノイズ除去を行う対象画素と、前記対象画素に隣接する複数の周辺画素との画像データを比較し、この比較結果から前記対象画素の画素値に対し、予め設定されたノイズ量を、加算あるいは除算してノイズ除去を行うノイズ除去部と、前記ノイズ除去部においてノイズ除去された前記対象画素に対し、前記対象画素に隣接する隣接画素を用いた処理を行う孤立点除去部と、を有し、前記孤立点除去部は、前記対象画素の画素値と前記周辺画素の画素値とにおける中央の画素値を中央画素値として抽出し、抽出した前記中央画素値を前記対象画素の画素値とする画像処理装置である。
(2) 本発明の第1の態様において、前記孤立点除去部は、予め設定した閾値と、前記中央画素値から対象画素の画素値を減算した結果の絶対値とを比較し、前記絶対値が前記閾値を超えた場合、前記孤立点除去の処理を行っても良い。
(3) 本発明の第1の態様において、前記対象画素が含まれるフレームにおいて、前記画素の画素値に重畳するノイズ量を検出するノイズ量検出部をさらに有し、前記孤立点除去部は、予め設定されているノイズ閾値と、前記ノイズ量検出部が検出した前記ノイズ量とを比較し、前記ノイズ量が前記ノイズ閾値を超えた場合、前記ノイズ除去処理を行っても良い。
(4) 本発明の第1の態様において、前記ノイズ除去部は、フレーム間のノイズ除去を行うフレーム間ノイズ除去処理部と、フレーム内の水平方向のノイズ除去を行う水平方向ノイズ除去処理部と、フレーム内の垂直方向のノイズ除去を行う垂直方向ノイズ除去処理部とを直列に備え、前記孤立点除去部は、前記フレーム間ノイズ除去処理部、水平方向ノイズ除去処理部、垂直方向ノイズ除去処理部のいずれかの後に設けられても良い。
(5) 本発明の第2の態様は、ノイズ除去部が、ノイズ除去を行う対象画素と、前記対象画素近傍の複数の周辺画素と画像データを比較し、この比較結果から前記対象画素の画素値に対し、予め設定されたノイズ量を、加算あるいは除算してノイズ除去を行い、前記ノイズ除去部においてノイズ除去された前記対象画素に対し、前記対象画素に隣接する隣接画素を用いた孤立点除去処理を行い、前記孤立点除去処理では、前記対象画素の画素値と前記隣接画素の画素値を大きい順番に配列し、前記画素値の配列の中央の中央画素値を、前記対象画素の画素値とする画像処理方法である。
この発明によれば、画像信号に重畳するノイズが大きい弱電界の場合において、ノイズリダクション処理の後に、孤立点として残る画素におけるノイズの除去を行うことが可能となる。
<第1の実施形態>
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による画像処理装置の構成例を示すブロック図である。
図1において、表示装置1は、検波部11と、Y/C(輝度信号/色差信号)分離部12と、画像処理部20と、RGB(Red:赤、Green:緑、Blue:青)変換部14と、液晶駆動部15と、液晶パネル16とを備えている。
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による画像処理装置の構成例を示すブロック図である。
図1において、表示装置1は、検波部11と、Y/C(輝度信号/色差信号)分離部12と、画像処理部20と、RGB(Red:赤、Green:緑、Blue:青)変換部14と、液晶駆動部15と、液晶パネル16とを備えている。
検波部11は、一例として、外部のアンテナ10から供給される地上アナログテレビジョン放送の複数チャネルの画像データの高周波信号を受け取る。そして、検波部11は、アンテナ10から供給される高周波信号から希望のチャネルの変調信号を抽出し、抽出した変調信号をベースバンドの信号に変換し、Y/C分離部12へ出力する。
Y/C分離部12は、供給されたベースバンドの信号を復調し、輝度信号Yと、色差信号Cbと、色差信号Crとに分離し、分離したそれぞれの信号を、所定のサンプリング周波数でデジタル信号へ変換する。
また、Y/C分離部12は、デジタル信号に変換した輝度データYと、色差データCbと色差データCrとを含む画像データを、画像処理部20へ出力する。
また、Y/C分離部12は、デジタル信号に変換した輝度データYと、色差データCbと色差データCrとを含む画像データを、画像処理部20へ出力する。
続いて、画像処理部20の処理の概要について説明する。画像処理部20は、供給される輝度データY、色差データCb、色差データCrそれぞれを、同一フレーム(画素が配列された画素空間)内の画素間において比較し、処理対象画素にノイズが重畳しているか否かの判定を行う。
また、画像処理部20は、フレーム単位あるいはフィールド単位で雑音レベルの算出を行う。画像処理部20は、ノイズが重畳していると判定された処理対象画素から、ブランキング区間から推定された雑音レベルを加減算することで、ノイズ低減の対象となる対象画素のノイズ低減の処理を行う。
また、画像処理部20は、フレーム単位あるいはフィールド単位で雑音レベルの算出を行う。画像処理部20は、ノイズが重畳していると判定された処理対象画素から、ブランキング区間から推定された雑音レベルを加減算することで、ノイズ低減の対象となる対象画素のノイズ低減の処理を行う。
画像処理部20は、輝度信号Y、色差信号Cb、色差信号Crそれぞれに対して、非線形のフィルタを掛ける。そして、画像処理部20は、非線形のフィルタを掛けた後の輝度信号Y、色差信号Cb、色差信号Crを含む画像信号を画像形式変換部14へ出力する。
この画像処理部20における各画素に対する処理の詳細については後述する。ここで、映像信号がインターレースである場合、フィールド毎にノイズ処理が行われ、映像信号がノンインターレスである場合、フレーム毎にノイズ処理が行われる。
画像形式変換部14は、画像処理部20から供給された画像信号に対し、その画像信号がインターレース信号であれば、それをプログレッシブ信号に変換する。また、画像形式変換部14は、プログレッシブ信号に対し、液晶パネル16の解像度に合わせて、画素数を調整(スケーリング処理)する。
そして、画像形式変換部14は、画素数が調整された映像信号をRGB信号(Red、Green、Blueのカラービデオ信号)に変換し、変換したRGB信号を液晶駆動部15へ出力する。
そして、画像形式変換部14は、画素数が調整された映像信号をRGB信号(Red、Green、Blueのカラービデオ信号)に変換し、変換したRGB信号を液晶駆動部15へ出力する。
液晶駆動部15は、液晶パネル16に供給される映像データを、画面の2次元平面上に表示するためのクロック信号等を生成する。そして、液晶駆動部15は、液晶パネル16に対して、生成したクロック信号を供給する。
図2は、液晶駆動部15と液晶パネル16との信号の接続関係を示す図である。
図2に示すように、液晶駆動部15は、ソースドライバ部21とゲートドライバ部22とを有している。液晶駆動部15は、液晶パネル16において、ソース線19とゲート線18とが交差する点に配置された表示素子PIX(すなわちマトリクス上に配列した表示素子PIX)の制御を行い、画像表示を行う。この表示素子PIXは、TFT(Thin Film Transistor、薄膜トランジスタ)と、このTFTにより後述する階調度に対応した電圧が書き込まれる液晶の画素素子とから構成される。
図2に示すように、液晶駆動部15は、ソースドライバ部21とゲートドライバ部22とを有している。液晶駆動部15は、液晶パネル16において、ソース線19とゲート線18とが交差する点に配置された表示素子PIX(すなわちマトリクス上に配列した表示素子PIX)の制御を行い、画像表示を行う。この表示素子PIXは、TFT(Thin Film Transistor、薄膜トランジスタ)と、このTFTにより後述する階調度に対応した電圧が書き込まれる液晶の画素素子とから構成される。
ソースドライバ部21は、供給されたRGB信号から画素素子駆動用に階調化した電圧を生成し、その階調化した電圧(階調度の情報であるソース信号)を、液晶パネル16のソース線19(列方向の配線)ごとに、内部に設けられたホールド回路で保持する。
また、ソースドライバ部19は、画面の縦方向の配列に対して、クロック信号に同期して、前記ソース信号を液晶パネル16の液晶素子PIXにおけるTFTのソース線19に供給する。
ゲートドライバ部22は、液晶パネル16の液晶素子PIXにおけるTFTのゲート線18(横方向の配線、主走査に対応)を通じて画面の液晶素子PIXの1行分に対して、クロック信号に同期して、所定のゲート信号を供給する。
また、ソースドライバ部19は、画面の縦方向の配列に対して、クロック信号に同期して、前記ソース信号を液晶パネル16の液晶素子PIXにおけるTFTのソース線19に供給する。
ゲートドライバ部22は、液晶パネル16の液晶素子PIXにおけるTFTのゲート線18(横方向の配線、主走査に対応)を通じて画面の液晶素子PIXの1行分に対して、クロック信号に同期して、所定のゲート信号を供給する。
液晶パネル16は、アレイ基板と対向基板とその間に封止された液晶とを備える。アレイ基板上のソース線19とゲート線18との交点ごとに、液晶素子PIX、すなわちTFTとTFTのドレイン電極に接続されている画素電極と対向電極(対向基板上のストリップ電極により構成されている)からなる画素素子とが1組ずつ配置されている。ここで、画素素子には、画素電極と対向電極との間に液晶が封入されている。また、液晶パネル16は、画素ごとに、すなわち液晶素子PIX毎に3原色RGB(Red、Green、Blue)に対応する3つのサブ画素を有する。そして、液晶パネル16は、そのサブ画素毎に1つずつの前記TFTを有している。
TFTは、ゲートドライバ部から供給されたゲート信号がゲート電極に供給され、ゲート信号が例えばハイレベルの時、選択されてオン状態となる。TFTのソース電極には、ソースドライバから供給されたソース信号が供給され、TFTがオン状態の場合、TFTのドレイン電極に接続されている画素電極、すなわち画素素子に階調化された電圧が印加される。
その階調化された電圧に応じて、画素素子の液晶の配向が変化し、これによって画素素子の領域における液晶の光の透過度が変化する。その階調化された電圧がTFTのドレイン電極に接続されている画素電極と対向電極との間の液晶部分により構成された画素素子の液晶容量に保持され、液晶の配向が維持される。次の信号がソース電極に供給され、階調化された電圧により、維持された電圧値が変更されるまで、液晶の配向が維持されるので、液晶の光の透過度が維持される。
以上説明したようにして、液晶パネル16は、供給された映像データを階調表示する。
なお、ここでは透過型の液晶パネルについて説明したが、これに限らず反射型の液晶パネルを用いてもよい。
なお、ここでは透過型の液晶パネルについて説明したが、これに限らず反射型の液晶パネルを用いてもよい。
図3は、第1の実施形態における画像処理部20の構成例を示す概略ブロック図である。画像処理部20は、ノイズ除去部21と、孤立点除去部22と、エンハンス部23とを備える。
ノイズ除去部21は、ラスタースキャンされた画像信号が1サンプルずつ送られた画像データをY/C分離部12から受信し、その画像データのノイズを、フレーム単位で低減あるいは除去する。
また、ノイズ除去部21は、ノイズが低減された後の画像データを孤立点除去部22に出力する。ノイズ除去部21におけるノイズ除去の処理の詳細は後述する。
ノイズ除去部21は、ラスタースキャンされた画像信号が1サンプルずつ送られた画像データをY/C分離部12から受信し、その画像データのノイズを、フレーム単位で低減あるいは除去する。
また、ノイズ除去部21は、ノイズが低減された後の画像データを孤立点除去部22に出力する。ノイズ除去部21におけるノイズ除去の処理の詳細は後述する。
孤立点除去部22は、ノイズ除去部21によりノイズが低減された後の画像データの画素において、従来例で説明したように、画素値が周囲の画素に対して孤立した画素(以下、孤立点)に重畳したノイズを除去する。すなわち、電波の受信電界強度が弱電界である場合、ノイズ除去部21では除去できない大きなノイズ量が画素値に重畳している。そのため、隣接する他の画素の画素値と比較すると、差が大きな画素値となり、周囲の画素値の変化に比較して、画素値の変化が不連続となる孤立点としての画素が形成される。
そして、孤立点除去部22は、孤立点における画素値に重畳したノイズを除去し、ノイズが除去された画素の画像データを、次段のエンハンス部23へ出力する。孤立点除去部21における孤立点除去の処理の詳細は後述する。
そして、孤立点除去部22は、孤立点における画素値に重畳したノイズを除去し、ノイズが除去された画素の画像データを、次段のエンハンス部23へ出力する。孤立点除去部21における孤立点除去の処理の詳細は後述する。
エンハンス処理部23は、フレームにおける画像の輪郭を検出し、検出した輪郭の画素の画素値を補正し、画像のシャープさをより明確とするための輪郭の強調処理を行う。
そして、エンハンス処理部23は、画像の輪郭が強調された画像データを、次段の画像形式変換部14へ出力する。
そして、エンハンス処理部23は、画像の輪郭が強調された画像データを、次段の画像形式変換部14へ出力する。
図4は、第1の実施形態における画像処理部20におけるノイズ除去部21の構成例を説明する概略ブロック図である。この図4を用いてノイズ除去部21の処理の詳細について説明する。
ノイズ除去部21は、遅延部21_1と、信号選択部21_2と、電圧比較部21_3と、雑音レベル検出部21_4と、信号出力部21_5とを備える。Y/C分離部12は、遅延部21_1と、信号選択部21_2と、雑音レベル検出部21_4に対して、画像データD11を出力する。
以下、ノイズ除去部21の各部の処理について説明する。以下、一例として、ノイズ除去部21が輝度データに重畳するノイズを低減するノイズ低減処理について説明する。また、色差データCbおよび色差データCrについても、輝度データと並列に同様の処理を行ってもよい。
ノイズ除去部21は、遅延部21_1と、信号選択部21_2と、電圧比較部21_3と、雑音レベル検出部21_4と、信号出力部21_5とを備える。Y/C分離部12は、遅延部21_1と、信号選択部21_2と、雑音レベル検出部21_4に対して、画像データD11を出力する。
以下、ノイズ除去部21の各部の処理について説明する。以下、一例として、ノイズ除去部21が輝度データに重畳するノイズを低減するノイズ低減処理について説明する。また、色差データCbおよび色差データCrについても、輝度データと並列に同様の処理を行ってもよい。
遅延部21_1は、Y/C分離部12から供給された画像信号を、信号選択部21_2から対象画素と比較する画素(以下、比較画素と称する)の画素データが出力されるタイミングとあわせるよう、対象画素の画素データを所定の時間遅らせる。遅延部21_1は、対象画素の画素データを電圧比較部21_3と、信号出力部21_5とへ出力する。
信号選択部21_2は、ラスタースキャンで送信された画像信号を順次1画素分のデータずつシフトし、シフト量0からシフト量(S1+S2)までの画素データを保存する。 ここで、シフト量0の画素を左の画素、シフト量S1だけシフトされた画素を対象画素、シフト量(S1+S2)だけシフトされた画素を右の画素と称する。
信号選択部21_2は、左の画素と対象画素と右の画素とを比較し、3つの画素のうちで中間の画素値を示す画素データSoutを電圧比較部21_3に出力する。
信号選択部21_2は、左の画素と対象画素と右の画素とを比較し、3つの画素のうちで中間の画素値を示す画素データSoutを電圧比較部21_3に出力する。
電圧比較部21_3は、遅延部21_1から供給された対象画素の画像データDoutと、信号選択部21_2から供給された中間の画素値を示す画素データSoutとを比較する。
電圧比較部21_3は、対象画素の画像データDoutが中間の画素値を示す画素データSoutより大きければ比較演算子Coutを1とし、同じであれば比較演算子Coutを0とし、小さければ比較演算子Coutを-1とする。
そして、電圧比較部21_3は、比較演算子Coutの値を示す情報を信号出力部21_5に出力する。
電圧比較部21_3は、対象画素の画像データDoutが中間の画素値を示す画素データSoutより大きければ比較演算子Coutを1とし、同じであれば比較演算子Coutを0とし、小さければ比較演算子Coutを-1とする。
そして、電圧比較部21_3は、比較演算子Coutの値を示す情報を信号出力部21_5に出力する。
なお、遅延部21_1を省略し、電圧比較部21_3は、信号選択部21_2により抽出された対象画素の画素値をそのまま利用して、比較演算子Coutを算出してもよい。
雑音レベル検出部21_4は、ブランキング区間の画像データに基づいて、雑音レベルを推定する。具体的には、例えば、雑音レベル検出部21_4は、ブランキング区間の画像データに含まれる輝度データYの平均値を算出し、算出した平均値を示す情報を雑音レベルLとして信号出力部21_5に出力する。
信号出力部21_5は、遅延部21_1から供給された対象画素の画素データDoutと、雑音レベル検出部21_4から供給された比較演算子Coutの値を示す情報と、雑音レベル検出部21_4から供給された雑音レベルLを受け取る。そして、信号出力部21_5は、対象画素の画素データに以下の処理を行う。
信号出力部21_5は、画素データDoutから雑音レベルLを減算した減算後の画像データを生成する。また、信号出力部21_5は、画素データDoutから雑音レベルLを加算した加算後の画像データを生成する。
信号出力部21_5は、比較演算子Coutの値が1の場合、減算後の画像データを孤立点除去部22に出力する。信号出力部21_5は、Coutの値が0の場合、画素データDoutをそのまま孤立点除去部22に出力する。信号出力部21_5は、Coutの値が-1の場合、加算後の画像データを孤立点除去部22に出力する。
信号出力部21_5は、比較演算子Coutの値が1の場合、減算後の画像データを孤立点除去部22に出力する。信号出力部21_5は、Coutの値が0の場合、画素データDoutをそのまま孤立点除去部22に出力する。信号出力部21_5は、Coutの値が-1の場合、加算後の画像データを孤立点除去部22に出力する。
図5A及び図5Bは、ノイズ除去部21における信号出力部21_5の処理について説明するための図である。図5Aのグラフでは、画素値(輝度データY、色差データCb、色差データCr)と水平方向の画素位置との関係の一例が示されている。また、図5Bのグラフでは、図5Aにおける画素値からノイズが低減された後の画素値(輝度データY、色差データCb、色差データCr)と水平方向の画素位置との関係の一例が示されている。
図5A及び図5Bにおいて、各丸は、Y/C分離部12から供給された各画素の画素値である。真の画素値W1はテレビ塔から無線送信される前の元々の画像の画素値である。図5Aのグラフに示されているように、無線送信中に雑音成分が混入することにより、Y/C分離部12から供給された各画素値は、真の画素値W1からずれることがある。
図5Bには、対象画素(T1、T2、T3)の画素値からノイズが低減された後の対象画素(T1a、T2a、T3a)の画素値が示されている。ここで、対象画素(T1、T2、T3)から左方向にS1サンプル離れた画素と、右方向にS2サンプル離れた画素とをそれぞれの比較画素とする。
対象画素T1は、2つの比較画素よりも大きいので、信号出力部21_5は、対象画素の画素値から雑音レベルL1を減算し、減算した画素値をノイズ低減後の対象画素T1aの画素値とする。
また、対象画素T2は、2つの比較画素よりも小さいので、信号出力部21_5は、対象画素の画素値から雑音レベルL1を加算し、加算した画素値ノイズ低減後の対象画素T2aの画素値を出力する。
同様に、対象画素T3は、2つの比較画素よりも大きいので、信号出力部21_5は、対象画素の画素値から雑音レベルL1を減算し、減算した画素値をノイズ低減後の対象画素T3aの画素値とする。
また、対象画素T2は、2つの比較画素よりも小さいので、信号出力部21_5は、対象画素の画素値から雑音レベルL1を加算し、加算した画素値ノイズ低減後の対象画素T2aの画素値を出力する。
同様に、対象画素T3は、2つの比較画素よりも大きいので、信号出力部21_5は、対象画素の画素値から雑音レベルL1を減算し、減算した画素値をノイズ低減後の対象画素T3aの画素値とする。
図6は、第1の実施形態における孤立点除去部22の構成例を示す概略ブロック図である。図6を用いて孤立点除去部22の処理について説明する。
孤立点除去部22は、3個のラインバッファBF1、BF2、BF3、ラインバッファ制御部223、配列部221、判定部222を備える。
図6において、ラインバッファBF1、BF2及びBF3の各々は、フレームを構成する走査線方向に配列した画素(以下、走査線の画素)を、走査線の行毎に、画像データにおける画素の画素値を記憶する。ここで、ラインバッファBF1、BF2及びBF3の各々には、前段のノイズ除去部21から出力される画素を、後述するラインバッファ制御部223によって、走査線毎の画素の画素値が書き込まれて、走査線毎に画素の画素値を記憶する。
孤立点除去部22は、3個のラインバッファBF1、BF2、BF3、ラインバッファ制御部223、配列部221、判定部222を備える。
図6において、ラインバッファBF1、BF2及びBF3の各々は、フレームを構成する走査線方向に配列した画素(以下、走査線の画素)を、走査線の行毎に、画像データにおける画素の画素値を記憶する。ここで、ラインバッファBF1、BF2及びBF3の各々には、前段のノイズ除去部21から出力される画素を、後述するラインバッファ制御部223によって、走査線毎の画素の画素値が書き込まれて、走査線毎に画素の画素値を記憶する。
ラインバッファ制御部223は、走査線毎の画素の画素値を、上述したように、ラインバッファBF1、BF2及びBF3の各々に書き込み、ラインバッファBF1、BF2及びBF3の各々に対し、フレームの走査線における画素の画素値を記憶させる。
また、ラインバッファ制御部223は、ラインバッファBF1、BF2及びBF3の各々から3個の画素値、合計9個の画素値を読み出す。ここで、ラインバッファ制御部223は、3個の走査線毎に、3列(例えば、列L1、L2及びL3)の画素の画素値を読み出す。
また、ラインバッファ制御部223は、ラインバッファBF1、BF2及びBF3の各々から3個の画素値、合計9個の画素値を読み出す。ここで、ラインバッファ制御部223は、3個の走査線毎に、3列(例えば、列L1、L2及びL3)の画素の画素値を読み出す。
また、ラインバッファ制御部223は、読み出した9個の中央に位置する画素値を対象画素として、9個の画素値の記憶する領域とは別の領域に、この対象画素の位置を対象画素アドレスとして記憶する。対象画素アドレスは、ラインバッファBF1、BF2、BF3を示す識別情報と、列番号とからなるアドレスであって、対象画素の位置を示すアドレスである。図6の9個の画素の中央の画素A11の「対象画素アドレス」は、(BF2,L2)である。
配列部221は、ラインバッファ制御部223が読み込む9個の画素値の各々の大小判別を行い、画素値の大きい順番の配列に並び替えるソート処理を行う。
判定部222は、配列部221の生成した配列における画素値のなかから、配列における中央値となる画素値を、中央画素値として抽出する。
次に、ラインバッファ制御部223は、後述する判定部222から書換制御信号が供給されると、この書換制御信号に付加されている中央画素値を、対象画素アドレスの示すラインバッファの列の位置に書き込んで、対象画素の画素値を中央画素値とする書き換えを行う。
以上説明したように、ラインバッファ制御部223、配列部221、判定部222より行われる中央値を画素中央値とする処理は、メディアフィルタによる空間フィルタリングと等価である。
ラインバッファ制御部223は、この空間フィルタリングを行方向に順次一つの画素だけずらして実行し、一つの行方向の処理を終えると、今度は一つ下の行方向について処理を行い、同様にして一つのフレームの全ての画素について空間フィルタリングを行う。
次に、ラインバッファ制御部223は、後述する判定部222から書換制御信号が供給されると、この書換制御信号に付加されている中央画素値を、対象画素アドレスの示すラインバッファの列の位置に書き込んで、対象画素の画素値を中央画素値とする書き換えを行う。
以上説明したように、ラインバッファ制御部223、配列部221、判定部222より行われる中央値を画素中央値とする処理は、メディアフィルタによる空間フィルタリングと等価である。
ラインバッファ制御部223は、この空間フィルタリングを行方向に順次一つの画素だけずらして実行し、一つの行方向の処理を終えると、今度は一つ下の行方向について処理を行い、同様にして一つのフレームの全ての画素について空間フィルタリングを行う。
図7は、孤立点除去部22の第1の実施形態における孤立点除去の処理の動作例を説明するフローチャートである。また、図8及び図9は、孤立点除去の処理を説明するため、バッファ制御部223が読み出す対象画素を含む9個の画素の配置及びその画素値を示す図である。以下、図7、図8及び図9を用いて、孤立点除去部22における孤立点除去の処理の動作例を説明する。
ステップS1:
ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々に設けられている走査線番号を記憶する走査線番号記憶部(図示せず)に「0」を書き込み、走査番号記憶部の初期化を行う。
ラインバッファ制御部223は、前段の回路であるノイズ除去部から供給される画素値を、フレームの走査線毎にラインバッファBF1、BF2、BF3に順次書き込む。ここで、ノイズ除去回路21は、走査線の画素値をラインバッファBF1、BF2、BF3の各々に順番に書き込むが、フレームにおける1行目の走査線の画素値をラインバッファBF1に書き込み、2行目の走査線の画素値をラインバッファBF2に書き込み、3行目の走査線をラインバッファBF3に書き込む。そして、前段の回路であるノイズ除去部21は、フレームにおける4行目の走査線の画素値を、ラインバッファBF1に書き込む。
ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々に設けられている走査線番号を記憶する走査線番号記憶部(図示せず)に「0」を書き込み、走査番号記憶部の初期化を行う。
ラインバッファ制御部223は、前段の回路であるノイズ除去部から供給される画素値を、フレームの走査線毎にラインバッファBF1、BF2、BF3に順次書き込む。ここで、ノイズ除去回路21は、走査線の画素値をラインバッファBF1、BF2、BF3の各々に順番に書き込むが、フレームにおける1行目の走査線の画素値をラインバッファBF1に書き込み、2行目の走査線の画素値をラインバッファBF2に書き込み、3行目の走査線をラインバッファBF3に書き込む。そして、前段の回路であるノイズ除去部21は、フレームにおける4行目の走査線の画素値を、ラインバッファBF1に書き込む。
このとき、ラインバッファ制御部223は、ラインバッファBF1、BF2及びBF3の各々に設けられている走査線記憶部に、それぞれのラインバッファに書き込んだ画素値に対応する走査線の走査線番号を書き込んで記憶させる。
すなわち、ノイズ除去部21は、フレームにおける走査線の画素値を、3本のラインバッファBF1、BF2、BF3に対して、順番にBF1→BF2→BF3→BF1→BF2→BF3・・・のように、3本のラインバッファにおいて最も若い順番に書き込んだラインバッファに対し、順次、新たな走査線の画素値を書き込む処理を行う。
すなわち、ノイズ除去部21は、フレームにおける走査線の画素値を、3本のラインバッファBF1、BF2、BF3に対して、順番にBF1→BF2→BF3→BF1→BF2→BF3・・・のように、3本のラインバッファにおいて最も若い順番に書き込んだラインバッファに対し、順次、新たな走査線の画素値を書き込む処理を行う。
ステップS2:
ラインバッファ制御部223は、3本のラインバッファであるラインバッファBF1、BF2、BF3の全てに対し、走査線の画素値が書き込まれたか否かの検出を、各ラインバッファに付加されている走査線番号記憶部を参照して行う。走査線番号記憶部は、各ラインバッファに設けられており、各々のラインバッファに書き込まれた画素値の画素が属する走査線の番号である走査線番号(フレームにおける走査線の並び順を示す番号)が記憶されており、走査線の画素値の書き込みが終了した際に、ラインバッファ制御部223により書き込まれる。
ラインバッファ制御部223は、3本のラインバッファであるラインバッファBF1、BF2、BF3の全てに対し、走査線の画素値が書き込まれたか否かの検出を、各ラインバッファに付加されている走査線番号記憶部を参照して行う。走査線番号記憶部は、各ラインバッファに設けられており、各々のラインバッファに書き込まれた画素値の画素が属する走査線の番号である走査線番号(フレームにおける走査線の並び順を示す番号)が記憶されており、走査線の画素値の書き込みが終了した際に、ラインバッファ制御部223により書き込まれる。
そして、ラインバッファ制御部223は、3本のラインバッファであるラインバッファBF1、BF2、BF3の全ての走査線番号記憶部に走査線番号が設定されている場合、すなわち、ラインバッファBF1、BF2、BF3の全ての走査線番号記憶部に「0」以外の数値が書き込まれている場合(YESの場合)、処理をステップS3へ進める。一方、ラインバッファ制御部223は、いずれかのラインバッファの走査線番号記憶部に走査線番号が設定されていない場合(NOの場合)、すなわち、3本のラインバッファであるラインバッファBF1、BF2、BF3のいずれかの走査線番号記憶部に「0」が記憶されている場合、ステップS2の処理を繰り返す。
ステップS3:
ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々から、列(例えば、列L1、列L2、列L3)の順番に3個ずつ画素値を読み出し、内部の記憶領域に書き込むとともに、対象画素の対象画素アドレスを内部の記憶部の記憶領域に書き込んで記憶させる。
ここで、対象画素の画素値は、ラインバッファBF2の列L2の画素値となる。このとき、ラインバッファ制御部223は、いずれが対象画素の画素値であるかの判定を以下のように行う。
ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々から、列(例えば、列L1、列L2、列L3)の順番に3個ずつ画素値を読み出し、内部の記憶領域に書き込むとともに、対象画素の対象画素アドレスを内部の記憶部の記憶領域に書き込んで記憶させる。
ここで、対象画素の画素値は、ラインバッファBF2の列L2の画素値となる。このとき、ラインバッファ制御部223は、いずれが対象画素の画素値であるかの判定を以下のように行う。
ラインバッファ制御部223は、9個の画素値を図6の様に、ラインバッファに付加された走査線番号記憶部の走査線番号を比較し、最も小さい走査線番号のラインバッファから読み出した3列分(3個)の画素値を最も上段の行に書き込み、次に小さい走査線番号のラインバッファから読み出した3列分の画素値を中段の行に書き込み、また最も大きな走査線番号のラインバッファから読み出した3列分の画素値を下段の行に書き込む。このため、予め対象画素が他の隣接する8個の周辺画素に囲まれた領域に書き込まれ、この中段の行における中央の列の画素値を読み出したアドレスバッファの識別情報とラインバッファにおける列の番号が対象画素アドレスとして抽出される。このとき、ラインバッファ制御部223は、記憶領域における中段の行における中央の画素値を対象画素の画素値とする。
すなわち、図8の場合、ラインバッファ制御部223は、記憶領域の3行の中段の行に書き込まれている画素値がラインバッファBF2であり、3列の画素値の中央の画素値がラインバッファの列L2である。そのため、ラインバッファ制御部223は、記憶領域に対象画素アドレスとして、対象画素アドレス[BF2,L2]を書き込んで記憶させる。図8では、この対象画素アドレス[BF2,L2]が、孤立点P11である。
そして、ラインバッファ制御部223は、処理をステップS4へ進める。
そして、ラインバッファ制御部223は、処理をステップS4へ進める。
ステップS4:
次に、配列部221は、ラインバッファ制御部223の記憶領域から、9個の画素値を読み出す(処理F1)。
そして、配列部221は、読み出した9個の画素値の各々を比較し、大きい順番(あるいは小さい順番)に配列させる。
図8の場合、画素値の配列は、[100、8,7,6,5,4,3,2,1]となり、対象画素の画素値「100」が最大となっている。
また、図9の場合、画素値の配列は、[16,15,14,13,12,11,5,4,3,1]となり、対象画素の画素値は13であり、配列における画素値の最大値とはなっていない。
そして、配列部221は、配列が終了すると、終了を示す制御信号とともに、配列のデータを、判定部222に対して出力し、処理をステップS5へ進める。
次に、配列部221は、ラインバッファ制御部223の記憶領域から、9個の画素値を読み出す(処理F1)。
そして、配列部221は、読み出した9個の画素値の各々を比較し、大きい順番(あるいは小さい順番)に配列させる。
図8の場合、画素値の配列は、[100、8,7,6,5,4,3,2,1]となり、対象画素の画素値「100」が最大となっている。
また、図9の場合、画素値の配列は、[16,15,14,13,12,11,5,4,3,1]となり、対象画素の画素値は13であり、配列における画素値の最大値とはなっていない。
そして、配列部221は、配列が終了すると、終了を示す制御信号とともに、配列のデータを、判定部222に対して出力し、処理をステップS5へ進める。
ステップS5:
次に、判定部222は、配列部221から配列が終了したことを示す制御信号が供給されると、付加された配列の画素値の中から中央の数値の画素値を、中央画素値として抽出する(処理F2)。
そして、判定部222は、この中央画素値を対象画素の新たな画素値として、ラインバッファ制御部223へ出力する(処理F3)。
そして、判定部222は、処理をステップS6へ進める。
次に、判定部222は、配列部221から配列が終了したことを示す制御信号が供給されると、付加された配列の画素値の中から中央の数値の画素値を、中央画素値として抽出する(処理F2)。
そして、判定部222は、この中央画素値を対象画素の新たな画素値として、ラインバッファ制御部223へ出力する(処理F3)。
そして、判定部222は、処理をステップS6へ進める。
ステップS6:
次に、ラインバッファ部223は、判定部221から供給される中央画素値を、記憶領域に書き込まれている対象画素アドレスの示すラインバッファの列に書き込み、孤立点除去の処理における画素値の書き換えを行う。
そして、ラインバッファ制御部223は、処理をステップS7へ進める。
上述した処理により、図8に示す孤立点の画素の画素値「100」が「5」に書き換わり、孤立点P11(図8)として残っていた画素の画素値に重畳していたノイズの除去が行われる。
また、図9の場合、対象画素の画素値「13」は、孤立点の画素ではなく、かつ、同じ行の左側の画素値が1であるから、画像データにおける画像のエッジ部分である可能性がある。しかし、画素値「13」が画素値「11」に書き換わった結果、エッジの画素値を大幅に低下させるわけではない。したがってエッジをぼやかす結果にはならない。
次に、ラインバッファ部223は、判定部221から供給される中央画素値を、記憶領域に書き込まれている対象画素アドレスの示すラインバッファの列に書き込み、孤立点除去の処理における画素値の書き換えを行う。
そして、ラインバッファ制御部223は、処理をステップS7へ進める。
上述した処理により、図8に示す孤立点の画素の画素値「100」が「5」に書き換わり、孤立点P11(図8)として残っていた画素の画素値に重畳していたノイズの除去が行われる。
また、図9の場合、対象画素の画素値「13」は、孤立点の画素ではなく、かつ、同じ行の左側の画素値が1であるから、画像データにおける画像のエッジ部分である可能性がある。しかし、画素値「13」が画素値「11」に書き換わった結果、エッジの画素値を大幅に低下させるわけではない。したがってエッジをぼやかす結果にはならない。
ステップS7:
ラインバッファ制御部223は、次に読み込む画素値がラインバッファの終点アドレス、すなわち、記憶領域の中央の列に書き込むラインバッファの列の列番号が、ラインバッファの最終の列番号でないか否かの判定を行う。
そして、ラインバッファ制御部223は、次に記憶領域の中央の列に書き込むラインバッファの列の列番号が、ラインバッファの最終の列番号でない場合(NOの場合)、処理をステップS3へ進める。一方、ラインバッファ制御部223は、ラインバッファの最終の列番号である場合(YESの場合)、処理をステップS8へ進める。
ラインバッファ制御部223は、次に読み込む画素値がラインバッファの終点アドレス、すなわち、記憶領域の中央の列に書き込むラインバッファの列の列番号が、ラインバッファの最終の列番号でないか否かの判定を行う。
そして、ラインバッファ制御部223は、次に記憶領域の中央の列に書き込むラインバッファの列の列番号が、ラインバッファの最終の列番号でない場合(NOの場合)、処理をステップS3へ進める。一方、ラインバッファ制御部223は、ラインバッファの最終の列番号である場合(YESの場合)、処理をステップS8へ進める。
ステップS8:
ラインバッファ制御部223は、次に記憶領域の中央の行に書き込む走査線番号がフレームにおける最終行の走査線であるか否かを、次に書き込む走査線番号が、予め内部に設定されているフレームにおける最終行の走査線番号と一致するか否かにより判定する。
このとき、ラインバッファ制御部223は、次に記憶部の中央の行に書き込む走査線の走査線番号が最終行の走査線番号と一致しない場合(NOの場合)、処理をステップS9へ進める。一方、ラインバッファ制御部223は、最終行の走査線番号と一致した場合(YESの場合)、処理をステップS10へ進める。
ラインバッファ制御部223は、次に記憶領域の中央の行に書き込む走査線番号がフレームにおける最終行の走査線であるか否かを、次に書き込む走査線番号が、予め内部に設定されているフレームにおける最終行の走査線番号と一致するか否かにより判定する。
このとき、ラインバッファ制御部223は、次に記憶部の中央の行に書き込む走査線の走査線番号が最終行の走査線番号と一致しない場合(NOの場合)、処理をステップS9へ進める。一方、ラインバッファ制御部223は、最終行の走査線番号と一致した場合(YESの場合)、処理をステップS10へ進める。
ステップS9:
次に、ラインバッファ制御部223は、前段のノイズ除去部21に対して、次の走査線番号の走査線の画素値を出力することを要求する制御信号を出力する。
また、ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々の走査線記憶部に記憶されている走査線番号それぞれを比較し、最も小さい走査線番号が記憶されている走査線記憶部を備えるラインバッファを抽出する。
次に、ラインバッファ制御部223は、前段のノイズ除去部21に対して、次の走査線番号の走査線の画素値を出力することを要求する制御信号を出力する。
また、ラインバッファ制御部223は、ラインバッファBF1、BF2、BF3の各々の走査線記憶部に記憶されている走査線番号それぞれを比較し、最も小さい走査線番号が記憶されている走査線記憶部を備えるラインバッファを抽出する。
そして、ラインバッファ制御部223は、ノイズ除去部21から入力される走査線における各画素の画素値を、抽出したラインバッファであって、走査線記憶部に記憶されている走査線番号が最も小さいラインバッファに書き込む。
このとき、ラインバッファ制御部223は、ノイズ除去部21から入力される走査線における画素値を、抽出したラインバッファへの書き込む処理が終了すると、このラインバッファの走査線記憶部の走査線番号を、新たに書き込んだ画素値の走査線の走査線番号に書き換える。
そして、ラインバッファ制御部223は、処理をステップS3へ進める。
このとき、ラインバッファ制御部223は、ノイズ除去部21から入力される走査線における画素値を、抽出したラインバッファへの書き込む処理が終了すると、このラインバッファの走査線記憶部の走査線番号を、新たに書き込んだ画素値の走査線の走査線番号に書き換える。
そして、ラインバッファ制御部223は、処理をステップS3へ進める。
ステップS10:
次に、ラインバッファ制御部223は、新たなフレームの走査線の画素値をラインバッファBF1、BF2、BF3に対して書き込む処理を開始するため、処理をステップS1へ進める。
次に、ラインバッファ制御部223は、新たなフレームの走査線の画素値をラインバッファBF1、BF2、BF3に対して書き込む処理を開始するため、処理をステップS1へ進める。
上述したように、第1の実施形態は、隣接した周辺の画素の画素値に比較して、1点のみが高い孤立点としての画素の画素値、すなわち、ノイズ除去部21で除去できない大きさ(絶対値)のノイズ量が画素値に重畳した対象画素に対し、この対象画素の画素値を隣接する周辺の画素の画素値の中における中央の画素値に書き換えることで、対象画素の画素値に重畳したノイズ量を除去することができる。
これにより、第1の実施形態によれば、対象画素の画素値を隣接する周辺の画素の画素値に対応させることとなり、孤立点としての対象画素の画素値におけるノイズの影響を低減させ、画像におけるノイズが重畳していた対象画素を目立たせないようにし、ノイズの少ない画像として、視聴者が鑑賞することが可能となる。
なお、孤立点除去の処理は、他の平滑化処理であってもよい。
これにより、第1の実施形態によれば、対象画素の画素値を隣接する周辺の画素の画素値に対応させることとなり、孤立点としての対象画素の画素値におけるノイズの影響を低減させ、画像におけるノイズが重畳していた対象画素を目立たせないようにし、ノイズの少ない画像として、視聴者が鑑賞することが可能となる。
なお、孤立点除去の処理は、他の平滑化処理であってもよい。
<第2の実施形態>
次に、本発明の第2の実施形態による画像処理装置を説明する。図11は、第2の実施形態における孤立点除去部22の構成例を示す概略ブロック図である。図11を用いて孤立点除去部22の処理について説明する。図11に示す第2の実施形態における画像処理装置は、図3に示す画像処理部20、図4に示すノイズ除去部21、及び図6に示す孤立点除去部22の構成が、第1の実施形態と同様である。図12A、図12B、図13及び図14は、孤立点除去の処理を説明するため、バッファ制御部223が読み出す対象画素を含む9個の画素の配置及びその画素値を示す図である。
図10は、第2の実施形態による孤立点除去の処理の動作例を示すフローチャートである。図12A及び図12Bは、以下、第1の実施形態と異なる第2の実施形態の動作を、図10を用いて説明する。
第2の実施形態は、以下に説明するように、孤立点除去部22において、新たに画素値比較部225が設けられており、かつ判定部222(図6)の動作が第1の実施形態と異なる。
次に、本発明の第2の実施形態による画像処理装置を説明する。図11は、第2の実施形態における孤立点除去部22の構成例を示す概略ブロック図である。図11を用いて孤立点除去部22の処理について説明する。図11に示す第2の実施形態における画像処理装置は、図3に示す画像処理部20、図4に示すノイズ除去部21、及び図6に示す孤立点除去部22の構成が、第1の実施形態と同様である。図12A、図12B、図13及び図14は、孤立点除去の処理を説明するため、バッファ制御部223が読み出す対象画素を含む9個の画素の配置及びその画素値を示す図である。
図10は、第2の実施形態による孤立点除去の処理の動作例を示すフローチャートである。図12A及び図12Bは、以下、第1の実施形態と異なる第2の実施形態の動作を、図10を用いて説明する。
第2の実施形態は、以下に説明するように、孤立点除去部22において、新たに画素値比較部225が設けられており、かつ判定部222(図6)の動作が第1の実施形態と異なる。
ステップS1からステップS4の動作は、第1の実施形態と同様である。第2の実施形態では、ステップS4において、配列部221は、配列が終了すると、終了を示す制御信号とともに、配列のデータを、判定部222に対して出力し、処理をステップS11へ進める。
ステップS11:
判定部222は、配列部221が出力する画素値の配列から、配列の画素値の中から中央画素値(Median値)を抽出する処理まで同様であるが、この後に行う動作が異なる。
すなわち、判定部222は、抽出した中央画素値を、画素値比較部225へ出力する。
そして、画素値比較部225は、判定部222から供給される中央画素値を、画素の配列における9個の画素の中央に位置している対象画素の画素値から減算する。
そして、画素値比較部225は、減算結果の差分である差分画素値の絶対値として、差分画素値絶対値Aを、図13に示すように、abs(中央値-対象画素の画素値)の式により求める。ここで、abs(x)は、xの絶対値をとる関数である。
図13の例では、中央画素値は6であり、対象画素の画素値は13である。したがって、abs=7である。図14の例では、中央画素値は6であり、対象画素の画素値は100である。したがって、abs=94である。
そして、画素値比較部225は、処理をステップS12へ進める。
判定部222は、配列部221が出力する画素値の配列から、配列の画素値の中から中央画素値(Median値)を抽出する処理まで同様であるが、この後に行う動作が異なる。
すなわち、判定部222は、抽出した中央画素値を、画素値比較部225へ出力する。
そして、画素値比較部225は、判定部222から供給される中央画素値を、画素の配列における9個の画素の中央に位置している対象画素の画素値から減算する。
そして、画素値比較部225は、減算結果の差分である差分画素値の絶対値として、差分画素値絶対値Aを、図13に示すように、abs(中央値-対象画素の画素値)の式により求める。ここで、abs(x)は、xの絶対値をとる関数である。
図13の例では、中央画素値は6であり、対象画素の画素値は13である。したがって、abs=7である。図14の例では、中央画素値は6であり、対象画素の画素値は100である。したがって、abs=94である。
そして、画素値比較部225は、処理をステップS12へ進める。
ステップS12:
次に、画素値比較部225は、差分画素値絶対値Aと、予め内部に設定されている閾値Rとを比較する。
このとき、画素値比較部225は、差分画素値絶対値Aが閾値R、例えばR=50を超えている場合、差分画素値絶対値Aが閾値Rを超えたことを示す制御信号を判定部222へ出力し、処理をステップS5へ進める。一方、画素値比較部225は、差分画素絶対値が閾値R以下の場合、差分画素値絶対値Aが閾値R未満であることを示す制御信号を判定部222へ出力し、処理をステップS13へ進める。
図13の場合、閾値Rを50とすると、A<Rであるから、処理をステップ13へ進める。図14の場合、A>Rであるから、処理をステップ5へ進める。
次に、画素値比較部225は、差分画素値絶対値Aと、予め内部に設定されている閾値Rとを比較する。
このとき、画素値比較部225は、差分画素値絶対値Aが閾値R、例えばR=50を超えている場合、差分画素値絶対値Aが閾値Rを超えたことを示す制御信号を判定部222へ出力し、処理をステップS5へ進める。一方、画素値比較部225は、差分画素絶対値が閾値R以下の場合、差分画素値絶対値Aが閾値R未満であることを示す制御信号を判定部222へ出力し、処理をステップS13へ進める。
図13の場合、閾値Rを50とすると、A<Rであるから、処理をステップ13へ進める。図14の場合、A>Rであるから、処理をステップ5へ進める。
ステップS5:
そして、判定部222は、この中央画素値を対象画素の新たな画素値とするため、対象画素の画素値を中央画素値に書き換えることを示す書換制御信号と、中央画素値とをラインバッファ制御部223へ出力する。
そして、判定部222は、処理をステップS6へ進める。
そして、判定部222は、この中央画素値を対象画素の新たな画素値とするため、対象画素の画素値を中央画素値に書き換えることを示す書換制御信号と、中央画素値とをラインバッファ制御部223へ出力する。
そして、判定部222は、処理をステップS6へ進める。
ステップS13:
そして、判定部222は、対象画素の画素値を書き換えないことを示す書換停止制御信号をラインバッファ制御部223へ出力する。
ラインバッファ部223は、書換停止制御信号が判定部222から入力されると、現在の対象画素の画素値の書き換えは行わない。
そして、ラインバッファ部223は、処理をステップS7へ進める。
そして、判定部222は、対象画素の画素値を書き換えないことを示す書換停止制御信号をラインバッファ制御部223へ出力する。
ラインバッファ部223は、書換停止制御信号が判定部222から入力されると、現在の対象画素の画素値の書き換えは行わない。
そして、ラインバッファ部223は、処理をステップS7へ進める。
以降の処理については、第1の実施形態と同様のため、説明を省略する。
上述したように閾値Rを設定し、この閾値Rにより対象画素の画素値の書き換えの制御を行うのは以下の理由による。
図12A、図12Bの2つの例に示すように、第1の実施形態における処理F1、F2及びF3の各々の処理が対象画素に対して行われると、対象画素がエッジを形成する画素の場合、画素値の配列においてエッジ以外の小さな画素値と置換されると、エッジがぼやけて輪郭のなまった画像となってしまう可能性がある。
すなわち、図12Aの例においては、ラインバッファ制御部223の記憶領域に、対象画素の画素値「13」と、この対象画素に隣接する周辺の画素の画素値が「4」、「5」、「2」、「1」、「6」、「11」、「15」「13」とが記憶されている。
そして、画素値の配列における中央画素値は「5」であり、対象画素とともにエッジを形成している画素の画素値(例えば15)ではないため、エッジをぼやかしてしまう。
上述したように閾値Rを設定し、この閾値Rにより対象画素の画素値の書き換えの制御を行うのは以下の理由による。
図12A、図12Bの2つの例に示すように、第1の実施形態における処理F1、F2及びF3の各々の処理が対象画素に対して行われると、対象画素がエッジを形成する画素の場合、画素値の配列においてエッジ以外の小さな画素値と置換されると、エッジがぼやけて輪郭のなまった画像となってしまう可能性がある。
すなわち、図12Aの例においては、ラインバッファ制御部223の記憶領域に、対象画素の画素値「13」と、この対象画素に隣接する周辺の画素の画素値が「4」、「5」、「2」、「1」、「6」、「11」、「15」「13」とが記憶されている。
そして、画素値の配列における中央画素値は「5」であり、対象画素とともにエッジを形成している画素の画素値(例えば15)ではないため、エッジをぼやかしてしまう。
同様に、図12Bの例においては、ラインバッファ制御部223の記憶領域に、対象画素の画素値「13」と、この対象画素に隣接する周辺の画素の画素値が「4」、「5」、「2」、「1」、「16」、「3」、「15」「13」とが記憶されている。
そして、画素値の配列における中央画素値は「5」であり、対象画素とともにエッジを形成している画素の画素値ではないため、エッジをぼやかしてしまう。
したがって、図12A及び図12Bの双方の例においても、対象画素がエッジに含まれており、画素値の配列における中央画素値がエッジを形成する画素の画素値でない場合、エッジを形成する対象画素の画素値が、エッジを形成していない画素の画素値と置換されることにより、画像のエッジがぼやけることになる。
そして、画素値の配列における中央画素値は「5」であり、対象画素とともにエッジを形成している画素の画素値ではないため、エッジをぼやかしてしまう。
したがって、図12A及び図12Bの双方の例においても、対象画素がエッジに含まれており、画素値の配列における中央画素値がエッジを形成する画素の画素値でない場合、エッジを形成する対象画素の画素値が、エッジを形成していない画素の画素値と置換されることにより、画像のエッジがぼやけることになる。
このため、第2の実施形態においては、すでに述べたように、判定部222が、抽出した中央画素値を、9個の画素の中央に位置している対象画素の画素値から減算し、得られた差分画素値の絶対値として、差分画素値絶対値Aを求める。
そして、判定部222は、この求めた差分画素値絶対値Aと、閾値Rとを比較し、差分画素値絶対値Aが閾値Rを超える場合、対象画素の画素値を中央画素値と置換する。一方、判定部222は、差分画素値絶対値Aが閾値R以下である場合、対象画素の画素値を中央画素値と置換せず、元のままの画素値とする。
そして、判定部222は、この求めた差分画素値絶対値Aと、閾値Rとを比較し、差分画素値絶対値Aが閾値Rを超える場合、対象画素の画素値を中央画素値と置換する。一方、判定部222は、差分画素値絶対値Aが閾値R以下である場合、対象画素の画素値を中央画素値と置換せず、元のままの画素値とする。
この結果、例えば、図13に示すように、閾値Rが画素値として「16」に設定される。このとき、判定部222において、対象画素の画素値が「13」であり(処理F11)、中央画素値が「6」対象画素がエッジを形成する画素である(処理F12)場合、判定部222は、中央画素値(Median値)から対象画素の画素値を減算し、絶対値を取った差分画素値絶対値Aが「7」であるため、対象画素の画素値と中央画素値との置換を行わない判定をする(処理F13)。
これにより、図14に示すように、メディアンフィルタ処理後においても、対象画素の画素値は「13」のままであるため、エッジをぼやかすことはない。
これにより、図14に示すように、メディアンフィルタ処理後においても、対象画素の画素値は「13」のままであるため、エッジをぼやかすことはない。
一方、判定部222において、閾値Rが画素値として「16」に設定される。このとき、図14に示すように、対象画素の画素値が「100」であり(処理F11)、中央画素値が「6」対象画素がエッジを形成する画素でない(処理F12)場合、判定部222は、中央画素値(Median値)から対象画素の画素値を減算し、絶対値を取った差分画素値絶対値Aが「94」である。そのため、判定部222は、対象画素の画素値と中央画素値との置換を行う判定をする(処理F13)。
これにより、図14に示すように、メディアンフィルタ処理後において、対象画素の画素値は「100」が中央画素値と置換されるため、孤立点としての画素の画素値に重畳しているノイズ量を低下させる(孤立点を除去する)ことが可能である。
これにより、図14に示すように、メディアンフィルタ処理後において、対象画素の画素値は「100」が中央画素値と置換されるため、孤立点としての画素の画素値に重畳しているノイズ量を低下させる(孤立点を除去する)ことが可能である。
上記閾値Rは、階調度が0から255の256階調の場合、16から32の間とすることが望ましい。しかし、閾値Rは、階調度の分解能、ノイズの重畳する程度や、ノイズ量の大小にも関係するため、実験等により、使用環境ごとに設定を行うようにするのが好ましい。
上述した第2の実施形態は、孤立点の除去の処理を、画素値の配列における画素値から対象画素の画素値を減算して求めた差分画素値の絶対値である差分画素値絶対値Aが、予め設定した閾値Rを超える場合に孤立点除去の処理を実行する。そのため、中央画素値に比較してノイズと判定するに十分な値に閾値Rを設定することにより、ノイズの重畳している画素の画素値を中央画素値と置換できる確率が高くなる。
すなわち、第2の実施形態によれば、エッジを形成する画素の画素値を、中央画素値と置換することを抑制し、余分なメディアンフィルタ処理を行わず、画像をぼやかせることを抑制することができる。
上述した第2の実施形態は、孤立点の除去の処理を、画素値の配列における画素値から対象画素の画素値を減算して求めた差分画素値の絶対値である差分画素値絶対値Aが、予め設定した閾値Rを超える場合に孤立点除去の処理を実行する。そのため、中央画素値に比較してノイズと判定するに十分な値に閾値Rを設定することにより、ノイズの重畳している画素の画素値を中央画素値と置換できる確率が高くなる。
すなわち、第2の実施形態によれば、エッジを形成する画素の画素値を、中央画素値と置換することを抑制し、余分なメディアンフィルタ処理を行わず、画像をぼやかせることを抑制することができる。
<第3の実施形態>
次に、本発明の第3の実施形態による画像処理装置を説明する。図15は、第3の実施形態による孤立点除去装置22の構成例を示す概略ブロック図である。図6に示す第1の実施形態及び第2の実施形態と異なる点は、構成としてノイズ量検出部224が新たに付加されていることである。それ以外の構成は第1の実施形態及び第2の実施形態と同じである。以下、第3の実施形態が第1及び第2の実施形態と異なる構成及び動作について説明する。
次に、本発明の第3の実施形態による画像処理装置を説明する。図15は、第3の実施形態による孤立点除去装置22の構成例を示す概略ブロック図である。図6に示す第1の実施形態及び第2の実施形態と異なる点は、構成としてノイズ量検出部224が新たに付加されていることである。それ以外の構成は第1の実施形態及び第2の実施形態と同じである。以下、第3の実施形態が第1及び第2の実施形態と異なる構成及び動作について説明する。
ノイズ量検出部224は、ブランキング区間の画像データに基づいて、雑音レベルを推定する。具体的には、例えば、ノイズ量検出部224は、ブランキング区間の画像データに含まれる輝度データYの平均値を算出し、算出した平均値を示す情報を雑音レベルLとして判定部222へ出力する。
判定部222は、予め内部に設定されているノイズ閾値と、ノイズ量検出部224から供給される雑音レベルLとを比較する。
そして、判定部222は、雑音レベルLがノイズ閾値を超えた場合、第1及び第2の実施形態に記載した孤立点除去の処理を行うように、孤立点除去部22を動作させる。一方、判定部222は、雑音レベルLがノイズ閾値以下の場合、孤立点除去の処理を行わない。
そして、判定部222は、雑音レベルLがノイズ閾値を超えた場合、第1及び第2の実施形態に記載した孤立点除去の処理を行うように、孤立点除去部22を動作させる。一方、判定部222は、雑音レベルLがノイズ閾値以下の場合、孤立点除去の処理を行わない。
上述した構成により、第3の実施形態は、雑音レベルがノイズ閾値を超えるか否かにより、孤立点除去を行うか否かを判定する。
受信する電波の受信電界強度の強弱により、画素値に重畳するノイズの大きさが変化する。すなわち、受信する電波の受信電界強度が強い高電界となるほど、画素値に重畳するノイズ量が小さくなり、受信電界強度が弱い弱電界となるほど、画素値に重畳するノイズ量が大きくなる傾向がある。そしてノイズ量が大きくなるほど、ノイズ除去部21により除去できない孤立点を発生させる確率が高くなる。
したがって、ノイズ閾値を変化させつつ、液晶パネル16に表示される画像を鑑賞し、その受信環境における孤立点を除去でき、かつ画像の輪郭をぼやかせないノイズ閾値の値を求め、設定部222に対して予め設定させておく。
この構成により、第3の実施形態は、周囲の環境による受信電界強度に対応したノイズ閾値を設定しているため、画像データにおける画素ノイズのノイズ量が孤立点を、視聴者が鑑賞する際に満足できるノイズに低減することが可能となる。
受信する電波の受信電界強度の強弱により、画素値に重畳するノイズの大きさが変化する。すなわち、受信する電波の受信電界強度が強い高電界となるほど、画素値に重畳するノイズ量が小さくなり、受信電界強度が弱い弱電界となるほど、画素値に重畳するノイズ量が大きくなる傾向がある。そしてノイズ量が大きくなるほど、ノイズ除去部21により除去できない孤立点を発生させる確率が高くなる。
したがって、ノイズ閾値を変化させつつ、液晶パネル16に表示される画像を鑑賞し、その受信環境における孤立点を除去でき、かつ画像の輪郭をぼやかせないノイズ閾値の値を求め、設定部222に対して予め設定させておく。
この構成により、第3の実施形態は、周囲の環境による受信電界強度に対応したノイズ閾値を設定しているため、画像データにおける画素ノイズのノイズ量が孤立点を、視聴者が鑑賞する際に満足できるノイズに低減することが可能となる。
また、ノイズ量検出部224を設けずに、ノイズ除去部21における雑音レベル検出部21_4の算出した雑音レベルLを読み込むように、判定部222を構成しても良い。
図16は、ノイズ除去部21の変形例であるノイズ除去部21aを示すブロック図である。ノイズ除去部21aは、フレーム間ノイズ除去部21A、フレーム内水平方向ノイズ除去部21B、及びフレーム内垂直方向ノイズ除去部21Cを備える。フレーム間ノイズ除去部21A、フレーム内水平方向ノイズ除去部21B、及びフレーム内垂直方向ノイズ除去部21Cの各々は、すでに説明したノイズ除去部21と同様の処理によりノイズ除去を行う。以下に示すように、フレーム間ノイズ除去部21A、レーム内水平方向ノイズ除去部21B、及びフレーム内垂直方向ノイズ除去部21Cの各々において、対象画素と比較する画素が以下に示す組み合わせとなる以外は、除去部の構成及びノイズ除去に関する動作は同様である。
フレーム間ノイズ除去部21Aは、対象画素の位置する対象フレームと、このフレームの前後のフレームとにおいて、対象フレームの対象画素の画素値と、前後のフレームにおける対象画素を対応する位置の画素の画素値とを用い、対象画素の画素値に重畳するノイズ成分の除去を行う。
フレーム間ノイズ除去部21Bは、対象画素の位置する対象フレームにおいて、対象画素の画素値と、この画素に対して水平方向(フレーム内の左右方向)にある周辺の画素の画素値とを用い、対象画素の画素値に重畳するノイズ成分の除去を行う。
フレーム間ノイズ除去部21Cは、対象画素の位置する対象フレームにおいて、対象画素の画素値と、この画素に対して垂直方向(フレーム内の上下方向)にある周辺の画素の画素値とを用い、対象画素の画素値に重畳するノイズ成分の除去を行う。
フレーム間ノイズ除去部21Bは、対象画素の位置する対象フレームにおいて、対象画素の画素値と、この画素に対して水平方向(フレーム内の左右方向)にある周辺の画素の画素値とを用い、対象画素の画素値に重畳するノイズ成分の除去を行う。
フレーム間ノイズ除去部21Cは、対象画素の位置する対象フレームにおいて、対象画素の画素値と、この画素に対して垂直方向(フレーム内の上下方向)にある周辺の画素の画素値とを用い、対象画素の画素値に重畳するノイズ成分の除去を行う。
第1の実施形態から第3の実施形態では、孤立点除去部22をノイズ除去部21の後段に置いている。
しかしながら、図16のノイズ除去部21aにおいては、孤立点除去部22をフレーム間ノイズ除去部21A、フレーム間ノイズ除去部21B、フレーム間ノイズ除去部21Cのいずれかのノイズ除去部の後段に配置する。この構成により、孤立点となる周辺の画素の画素値に比較して飛び抜けて高いノイズが重畳している画素のノイズ成分を除去することができる。
しかしながら、図16のノイズ除去部21aにおいては、孤立点除去部22をフレーム間ノイズ除去部21A、フレーム間ノイズ除去部21B、フレーム間ノイズ除去部21Cのいずれかのノイズ除去部の後段に配置する。この構成により、孤立点となる周辺の画素の画素値に比較して飛び抜けて高いノイズが重畳している画素のノイズ成分を除去することができる。
画像処理部20におけるノイズ除去部21及び孤立点除去部22の各ブロックは、集積回路(ICチップ)上に形成された論理回路によって信号処理装置というハードウェアとして構成されてもよいし、ラインメモリ及びフレームメモリ以外の構成を次のようにCPU(Central Processing Unit)を用いてソフトウェアによって実現されてもよい。
すなわち、図4におけるノイズ除去部21、孤立点除去部22の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像のノイズ除去の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含む。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含む。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、画像信号に重畳するノイズが大きい弱電界の場合において、ノイズ低減処理の後に、孤立点として残る画素におけるノイズの除去が行える画像処理装置及び画像処理方法などに適用することができる。
1・・・表示装置
10・・・アンテナ
11・・・検波部
12・・・Y/C分離部
14・・・画像形式変換部
15・・・液晶駆動部
16・・・液晶パネル
20・・・画像処理部
21・・・ノイズ除去部
21_1・・・遅延部
21_2・・・信号選択部
21_3・・・電圧比較部
21_4・・・雑音レベル検出部
21_5・・・信号出力部
22・・・孤立点除去部
23・・・エンハンス部
221・・・配列部
222・・・判定部
223・・・ラインバッファ制御部
224・・・ノイズ量検出部
225・・・画素値比較部
BF1,BF2,BF3・・・ラインバッファ
10・・・アンテナ
11・・・検波部
12・・・Y/C分離部
14・・・画像形式変換部
15・・・液晶駆動部
16・・・液晶パネル
20・・・画像処理部
21・・・ノイズ除去部
21_1・・・遅延部
21_2・・・信号選択部
21_3・・・電圧比較部
21_4・・・雑音レベル検出部
21_5・・・信号出力部
22・・・孤立点除去部
23・・・エンハンス部
221・・・配列部
222・・・判定部
223・・・ラインバッファ制御部
224・・・ノイズ量検出部
225・・・画素値比較部
BF1,BF2,BF3・・・ラインバッファ
Claims (5)
- ノイズ除去を行う対象画素と、前記対象画素に隣接する複数の周辺画素との画像データを比較し、この比較結果から前記対象画素の画素値に対し、予め設定されたノイズ量を、加算あるいは除算してノイズ除去を行うノイズ除去部と、
前記ノイズ除去部においてノイズ除去された前記対象画素に対し、前記対象画素に隣接する隣接画素を用いた処理を行う孤立点除去部と、
を有し、
前記孤立点除去部は、前記対象画素の画素値と前記周辺画素の画素値とにおける中央の画素値を中央画素値として抽出し、抽出した前記中央画素値を前記対象画素の画素値とする画像処理装置。 - 前記孤立点除去部は、予め設定した閾値と、前記中央画素値から対象画素の画素値を減算した結果の絶対値とを比較し、前記絶対値が前記閾値を超えた場合、前記孤立点除去の処理を行う請求項1に記載の画像処理装置。
- 前記対象画素が含まれるフレームにおいて、前記画素の画素値に重畳するノイズ量を検出するノイズ量検出部をさらに有し、
前記孤立点除去部は、予め設定されているノイズ閾値と、前記ノイズ量検出部が検出した前記ノイズ量とを比較し、前記ノイズ量が前記ノイズ閾値を超えた場合、前記ノイズ除去処理を行う請求項1に記載の画像処理装置。 - 前記ノイズ除去部は、
フレーム間のノイズ除去を行うフレーム間ノイズ除去処理部と、
フレーム内の水平方向のノイズ除去を行う水平方向ノイズ除去処理部と、
フレーム内の垂直方向のノイズ除去を行う垂直方向ノイズ除去処理部とを直列に備え、
前記孤立点除去部は、前記フレーム間ノイズ除去処理部、水平方向ノイズ除去処理部、垂直方向ノイズ除去処理部のいずれかの後に設けられる請求項1に記載の画像処理装置。 - ノイズ除去部が、ノイズ除去を行う対象画素と、前記対象画素近傍の複数の周辺画素と画像データを比較し、この比較結果から前記対象画素の画素値に対し、予め設定されたノイズ量を、加算あるいは除算してノイズ除去を行い、
前記ノイズ除去部においてノイズ除去された前記対象画素に対し、前記対象画素に隣接する隣接画素を用いた孤立点除去処理を行い、
前記孤立点除去処理では、前記対象画素の画素値と前記隣接画素の画素値を大きい順番に配列し、前記画素値の配列の中央の中央画素値を、前記対象画素の画素値とする画像処理方法。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011-117200 | 2011-05-25 | ||
| JP2011117200A JP2014150296A (ja) | 2011-05-25 | 2011-05-25 | 画像処理装置及び画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2012161213A1 true WO2012161213A1 (ja) | 2012-11-29 |
Family
ID=47217289
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/063165 Ceased WO2012161213A1 (ja) | 2011-05-25 | 2012-05-23 | 画像処理装置及び画像処理方法 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2014150296A (ja) |
| WO (1) | WO2012161213A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117315510A (zh) * | 2023-09-25 | 2023-12-29 | 广东省核工业地质局测绘院 | 一种基于遥感解译的生态环境测绘系统 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07250264A (ja) * | 1994-03-10 | 1995-09-26 | Nippon Hoso Kyokai <Nhk> | 雑音低減回路 |
| JPH08172368A (ja) * | 1994-12-16 | 1996-07-02 | Hitachi Ltd | S/n改善手段 |
| JP2000022992A (ja) * | 1998-07-02 | 2000-01-21 | Hitachi Ltd | ノイズ低減信号処理装置 |
-
2011
- 2011-05-25 JP JP2011117200A patent/JP2014150296A/ja not_active Withdrawn
-
2012
- 2012-05-23 WO PCT/JP2012/063165 patent/WO2012161213A1/ja not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07250264A (ja) * | 1994-03-10 | 1995-09-26 | Nippon Hoso Kyokai <Nhk> | 雑音低減回路 |
| JPH08172368A (ja) * | 1994-12-16 | 1996-07-02 | Hitachi Ltd | S/n改善手段 |
| JP2000022992A (ja) * | 1998-07-02 | 2000-01-21 | Hitachi Ltd | ノイズ低減信号処理装置 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117315510A (zh) * | 2023-09-25 | 2023-12-29 | 广东省核工业地质局测绘院 | 一种基于遥感解译的生态环境测绘系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2014150296A (ja) | 2014-08-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101663885B (zh) | 图像处理装置及方法、图像显示装置及方法 | |
| US6717622B2 (en) | System and method for scalable resolution enhancement of a video image | |
| KR101009999B1 (ko) | 윤곽보정방법, 화상처리장치 및 표시장치 | |
| JP4200890B2 (ja) | 映像信号処理装置及びそれを用いたテレビジョン受信機並びに映像信号処理方法 | |
| US9824424B2 (en) | Image amplifying method, image amplifying device, and display apparatus | |
| US8363971B2 (en) | Image processing apparatus and image processing method | |
| US10922792B2 (en) | Image adjustment method and associated image processing circuit | |
| CN102821230A (zh) | 图像处理装置和图像处理方法 | |
| JP4290193B2 (ja) | 画像処理装置 | |
| JP2013041565A (ja) | 画像処理装置、画像表示装置、画像処理方法、コンピュータプログラム及び記憶媒体 | |
| CN102844786A (zh) | 图像放大装置、图像放大程序、存储图像放大程序的存储介质和显示装置 | |
| JP5249166B2 (ja) | 画像処理装置、画像処理方法 | |
| JP2003058098A (ja) | ホールド型画像表示装置 | |
| US20120147051A1 (en) | Image enlargement device, image enlargement program and display apparatus | |
| WO2012161213A1 (ja) | 画像処理装置及び画像処理方法 | |
| US20140037226A1 (en) | Image processing device, display device, image processing method | |
| US7590302B1 (en) | Image edge enhancement system and method | |
| CN103931170A (zh) | 降噪装置、显示装置、降噪方法以及降噪程序 | |
| US20130300774A1 (en) | Image processing method | |
| WO2012060290A1 (ja) | 画像処理装置、画像処理方法及び表示装置 | |
| WO2011162124A1 (ja) | 信号処理装置、信号処理プログラム、および表示装置 | |
| JP5193976B2 (ja) | 映像処理装置及び映像表示装置 | |
| WO2012017773A1 (ja) | 信号処理装置、信号処理方法、信号処理プログラム、および表示装置 | |
| JP2014123785A (ja) | 雑音低減装置、表示装置、雑音低減方法および雑音低減プログラム | |
| JP4236115B2 (ja) | 映像信号処理方法及び映像信号処理装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12790210 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 12790210 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |