[go: up one dir, main page]

JP2009152881A - Image signal processing circuit, image signal processing apparatus, and image signal processing method - Google Patents

Image signal processing circuit, image signal processing apparatus, and image signal processing method Download PDF

Info

Publication number
JP2009152881A
JP2009152881A JP2007329063A JP2007329063A JP2009152881A JP 2009152881 A JP2009152881 A JP 2009152881A JP 2007329063 A JP2007329063 A JP 2007329063A JP 2007329063 A JP2007329063 A JP 2007329063A JP 2009152881 A JP2009152881 A JP 2009152881A
Authority
JP
Japan
Prior art keywords
value
pixel
image signal
signal processing
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007329063A
Other languages
Japanese (ja)
Inventor
Motohiro Nakasuji
元宏 中筋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007329063A priority Critical patent/JP2009152881A/en
Publication of JP2009152881A publication Critical patent/JP2009152881A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform smoothing processing capable of appropriately remove even the noise close to an edge, without having to increase the circuit scale. <P>SOLUTION: An image signal processing circuit which processes an image signal constituted of a plurality of pixels is provided with: a weighting value calculating part 15a which calculates a difference value with a pixel value of a noticing pixel in each peripheral pixel located around the noticing pixel, and sets a value according to magnitude of the calculated difference value as a weighting value; and a pixel addition part 15b which adds the pixel value in each of the peripheral pixels by the ratio, according to the magnitude of the weighting value set by the weighting value calculating part 15a. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像信号処理回路、及びその処理回路を備えた画像信号処理装置、並びに画像信号処理方法に関し、特に複数の画素値を加算することで画像におけるノイズを低減する技術に関する。   The present invention relates to an image signal processing circuit, an image signal processing apparatus including the processing circuit, and an image signal processing method, and more particularly to a technique for reducing noise in an image by adding a plurality of pixel values.

従来、撮像素子によって得られた画像信号中に含まれるノイズを低減するための手法として、画像加算という手法がよく知られている。画像加算の処理においては、注目画素の画素値(輝度値)を、その画素を中心とした近傍領域における周辺画素の画素値の加算値で置き換える処理を行う。その結果、画素値が平均化されて画像が滑らかになり、ノイズなどに起因する不要な濃淡変動が軽減される。   Conventionally, a technique called image addition is well known as a technique for reducing noise included in an image signal obtained by an image sensor. In the image addition process, a process is performed in which the pixel value (luminance value) of the target pixel is replaced with the addition value of the pixel values of the peripheral pixels in the vicinity region centered on the pixel. As a result, the pixel values are averaged and the image becomes smooth, and unnecessary shade fluctuations due to noise and the like are reduced.

ところが、このような手法を用いると、結果として高域除去フィルタ(いわゆるLPF:Low Pass Filter)で画像信号から高域成分を除去したことと同義となり、画像中のエッジ等の高周波成分が失われてしまうという問題があった。このような問題を解決するため、画像中のエッジ部分を保持しつつ、ノイズの除去も行うことができる手法も提案されている。具体的な例としては、メディアンフィルタやバイラテラルフィルタ等を用いたフィルタ処理が知られている。   However, using such a method results in synonymous with the removal of high-frequency components from the image signal by a high-frequency removal filter (so-called LPF: Low Pass Filter), and high-frequency components such as edges in the image are lost. There was a problem that. In order to solve such a problem, there has been proposed a method capable of removing noise while retaining an edge portion in an image. As a specific example, filter processing using a median filter, a bilateral filter, or the like is known.

例えばメディアンフィルタを用いることで、ある注目画素の近傍領域内の周辺画素の画素値の中央値(メディアン)が、注目画素の画素値に置き換えられる。これにより、画像中にエッジが存在していた場合も、その画素値が画素加算の演算に用いられなくなるため、結果としてエッジ部分が保持されることになる。   For example, by using a median filter, the median value of the pixel values of peripheral pixels in the vicinity region of a certain pixel of interest is replaced with the pixel value of the pixel of interest. As a result, even when an edge exists in the image, the pixel value is not used for the pixel addition operation, and as a result, the edge portion is retained.

特許文献1は、メディアンフィルタを用いてノイズの除去を行う技法について開示している。
特開2000−312314号公報
Patent Document 1 discloses a technique for removing noise using a median filter.
JP 2000-31314 A

ところで、メディアンフィルタを用いた画像処理を行う場合は、注目画素の近傍領域における画素値の中間値を必ず算出する必要がある。このため、処理に手間がかかる、つまり、回路の規模が大きくなってしまうという問題があった。   By the way, when performing image processing using a median filter, it is necessary to always calculate an intermediate value of pixel values in a region near the target pixel. For this reason, there is a problem that processing is troublesome, that is, the circuit scale becomes large.

一方、バイラテラルフィルタは、輝度値の大きさに応じて画素加算の重みを変化させるフィルタであり、エッジ部分などの、周囲画素の画素値との輝度変化が急峻な箇所に対しては、加算の重みが低く設定される。これにより、画像中のエッジ部分は保持されつつそれ以外の部分が平滑化され、ノイズも低減される。さらに、1パスで処理を行えるため、回路規模も比較的小さく抑えることができるというメリットもある。   On the other hand, the bilateral filter is a filter that changes the weight of pixel addition in accordance with the magnitude of the luminance value, and is added to a portion such as an edge portion where the luminance change with the pixel value of surrounding pixels is steep. Is set to a low weight. As a result, the edge portion in the image is held and the other portions are smoothed, and the noise is reduced. Furthermore, since processing can be performed in one pass, there is also an advantage that the circuit scale can be kept relatively small.

ところが、バイラテラルフィルタにおいては、重み値の設定を、注目画素の画素値との差分値が閾値を超えたか否かによって行っているため、画素にノイズが乗った場合とそうでない場合とで、重み値が変化してしまうようなことが発生する。例えば、ノイズが乗ったことによって差分値が閾値を超えた場合には、重み値は低い値に設定されるため、その画素は加算の対象からは外れる。これに対して、ノイズが乗っていない場合の差分値が閾値以下の値であった場合には、その画素が加算の対象となる。   However, in the bilateral filter, the weight value is set depending on whether or not the difference value from the pixel value of the pixel of interest exceeds a threshold value. It happens that the weight value changes. For example, when the difference value exceeds the threshold value due to noise, the weight value is set to a low value, and the pixel is excluded from the addition target. On the other hand, if the difference value when noise is not present is a value equal to or smaller than the threshold value, the pixel is an addition target.

このような処理が行われることで、エッジ近辺の画素の濃淡レベルが大きく変化すると、特に処理対象が動画像である場合には、フィルタ処理後の画像のエッジ部分などの特定位置の画素がノイズ除去される状態と、ノイズ除去されない状態とが繰り返されて、その画像を表示させると、特定位置が点滅したように見える輝度変化が発生してしまうという問題があった。   When such a process is performed, when the shading level of pixels near the edge changes greatly, especially when the processing target is a moving image, pixels at a specific position such as an edge portion of the image after filtering are noisy. When the removed state and the noise-removed state are repeated and the image is displayed, there is a problem in that a luminance change that appears as if the specific position blinks occurs.

本発明はかかる点に鑑みてなされたものであり、回路規模を大きくすることなく、エッジ近辺のノイズも適切に除去可能な平滑化処理を行うことを目的とする。   The present invention has been made in view of such a point, and an object of the present invention is to perform a smoothing process capable of appropriately removing noise in the vicinity of an edge without increasing the circuit scale.

本発明は、複数の画素で構成される画像信号を処理する画像信号処理回路において、注目画素の周辺に位置する各周辺画素における、注目画素の画素値との差分値を算出し、算出した差分値の大きさに応じた値を重み値として設定する重み値算出部と、周辺画素のそれぞれにおける画素値を、重み値算出部で設定された重み値の大きさに応じた割合で加算する画素加算部とを備えるようにしたものである。   In the image signal processing circuit that processes an image signal composed of a plurality of pixels, the present invention calculates a difference value between the pixel value of the target pixel in each peripheral pixel located around the target pixel, and calculates the calculated difference A weight value calculation unit that sets a value corresponding to the magnitude of the value as a weight value, and a pixel that adds the pixel values in each of the surrounding pixels at a rate corresponding to the magnitude of the weight value set by the weight value calculation unit And an adding unit.

このようにしたことで、注目画素との差分値の大きさに応じて、画素加算に用いられる重み値が設定されるようになる。   By doing in this way, the weight value used for pixel addition comes to be set according to the magnitude of the difference value from the target pixel.

本発明によると、中間値や閾値を用いることなく、エッジの保持とノイズの除去を同時に行うことができる。   According to the present invention, it is possible to simultaneously hold an edge and remove noise without using an intermediate value or a threshold value.

この場合、エッジ近辺のノイズも適切に除去することができる。   In this case, noise near the edge can also be removed appropriately.

以下、本発明の第1の実施の形態を、図1〜図8を参照して説明する。   Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.

本例においては、画像信号処理装置を撮像装置に適用している。図1は、本例の撮像装置の内部構成例を示すブロック図である。図1に示した撮像装置100は、レンズ11、撮像素子12、アナログ信号処理部13、A/D変換部14、画像信号処理部15、エンコード部16、D/A変換部17、出力端子18、制御部19、記憶部20とを有する。   In this example, the image signal processing device is applied to an imaging device. FIG. 1 is a block diagram illustrating an example of an internal configuration of the imaging apparatus according to the present example. An imaging apparatus 100 illustrated in FIG. 1 includes a lens 11, an imaging device 12, an analog signal processing unit 13, an A / D conversion unit 14, an image signal processing unit 15, an encoding unit 16, a D / A conversion unit 17, and an output terminal 18. A control unit 19 and a storage unit 20.

レンズ11は、被写体光を屈折させて、撮像素子12の図示せぬ受光面に結像させる。撮像素子12は、CCD(Charge Coupled Devices)イメージャやCMOS(Complementary Metal Oxide Semiconductor)イメージャで構成され、図示せぬ色分解プリズムによってR,G,Bの3色に分解された各光を、それぞれの光の量に応じた信号に変換し、映像信号として出力する。アナログ信号処理部13は、図示せぬCDS(Correlated Double Sampling)回路やAGC(Automatic Gain Control)回路等で構成される。CDS回路では、入力された映像信号に含まれるリセットノイズを除去する処理を行い、AGC回路では、映像信号の増幅を行って信号レベルを一定のレベルに調整する処理を行う。   The lens 11 refracts the subject light and forms an image on a light receiving surface (not shown) of the image sensor 12. The imaging device 12 is composed of a CCD (Charge Coupled Devices) imager or a CMOS (Complementary Metal Oxide Semiconductor) imager, and each light separated into three colors R, G, and B by a color separation prism (not shown) It is converted into a signal corresponding to the amount of light and output as a video signal. The analog signal processing unit 13 includes a CDS (Correlated Double Sampling) circuit, an AGC (Automatic Gain Control) circuit, and the like (not shown). The CDS circuit performs a process of removing reset noise included in the input video signal, and the AGC circuit performs a process of amplifying the video signal and adjusting the signal level to a certain level.

アナログ・デジタル変換部14(以下、A/D変換部14と称する)は、アナログ信号処理部13から出力された映像信号をデジタル信号に変換する。画像信号処理部15は、A/D変換部14から出力された映像信号中のノイズを低減させるための処理を行う。また、映像信号のレベルを、予め設定されたγカーブに従って補正するガンマ補正や、映像信号の黒レベルOB(オプティカルブラック)を一定基準値に固定するフィーダバッククランプ処理、白バランスをとるためのホワイトクリップ処理等を行う。ノイズ低減処理の詳細については後述する。   The analog / digital converter 14 (hereinafter referred to as A / D converter 14) converts the video signal output from the analog signal processor 13 into a digital signal. The image signal processing unit 15 performs processing for reducing noise in the video signal output from the A / D conversion unit 14. In addition, gamma correction for correcting the level of the video signal according to a preset γ curve, feeder back clamp processing for fixing the black level OB (optical black) of the video signal to a constant reference value, white for white balance Perform clip processing. Details of the noise reduction processing will be described later.

エンコード部16は、画像信号処理部15で処理された映像信号をNTSC(National Television Standards Committee)方式やPAL(Phase Alternating Line)方式等の所定の方式の信号に変換する。デジタル・アナログ変換部17(以下D/A変換部17と称する)は、エンコード部16から出力された映像信号をアナログ信号に変換する。出力端子20は、D/A変換部17から出力された映像信号を、図示せぬ表示部や記録部に出力するための端子である。   The encoding unit 16 converts the video signal processed by the image signal processing unit 15 into a signal of a predetermined system such as an NTSC (National Television Standards Committee) system or a PAL (Phase Alternating Line) system. A digital / analog converter 17 (hereinafter referred to as a D / A converter 17) converts the video signal output from the encoder 16 into an analog signal. The output terminal 20 is a terminal for outputting the video signal output from the D / A conversion unit 17 to a display unit or a recording unit (not shown).

制御部19は、MPU(Micro Processing Unit)等で構成され、撮像装置100を構成する各部を制御する。記憶部20は、ROM(Read Only Memory)やRAM(Random Access Memory)等で構成され、プログラム等が記憶される他、制御部19で処理中のデータを一時的に保持する。   The control unit 19 is configured with an MPU (Micro Processing Unit) or the like, and controls each unit configuring the imaging apparatus 100. The storage unit 20 is configured by a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and stores data being processed by the control unit 19 in addition to storing programs and the like.

次に、図2及び図3を参照して、画像信号処理部15内のノイズ低減処理部分の構成の例について説明する。本例においては、ノイズ低減処理を、図3に示したような注目画素Px及び、注目画素Pxの上下左右方向に隣接する9画素で構成される領域を対象に行う。図3に示した9画素の領域は、3水平ラインで構成される。すなわち、画素P1、画素P2、画素P3で構成されるラインaiと、その下段のラインであり、画素P4、画素Px、画素P5で構成されるラインai+1と、画素P6、画素P7、画素P8で構成される再下段のラインai+2とで構成される。   Next, an example of the configuration of the noise reduction processing part in the image signal processing unit 15 will be described with reference to FIGS. 2 and 3. In this example, the noise reduction processing is performed on a target pixel Px as shown in FIG. 3 and a region composed of nine pixels adjacent to the target pixel Px in the vertical and horizontal directions. The area of 9 pixels shown in FIG. 3 is composed of 3 horizontal lines. That is, the line ai composed of the pixel P1, the pixel P2, and the pixel P3 and the lower line, the line ai + 1 composed of the pixel P4, the pixel Px, and the pixel P5, and the pixel P6, the pixel P7, and the pixel P8. It is comprised by the line ai + 2 of the lower stage comprised.

なお、本例では3画素×3画素で構成される領域を処理の対象とした場合を例に挙げているが、処理対象とする領域の大きさは、例えば5画素×5画素等の、他の大きさに設定してもよい。   In this example, a case where a region composed of 3 pixels × 3 pixels is set as an example of processing is described as an example, but the size of the region to be processed is, for example, 5 pixels × 5 pixels or the like. You may set to the magnitude | size of.

図3に示したような、縦3列及び横3行の配列配置における各画素を取得する構成例を示したのが、図2の回路である。この図2に示した回路は、画像信号処理部15が備える。すなわち、入力映像信号の1ライン分をバッファするラインメモリLM1と、ラインメモリLM1から出力された1ライン分の映像信号をバッファするラインメモリLM2とを有する。ラインメモリLM1は、図3のラインai+1を構成する各画素を保持及び出力し、ラインメモリLM2は、図3のラインai+2を構成する各画素を保持及び出力する。ラインメモリLM1及びLM2を通さずに出力される画素は、図3のラインaiになる。   The circuit shown in FIG. 2 shows a configuration example for acquiring each pixel in the arrangement of 3 columns and 3 rows as shown in FIG. The circuit shown in FIG. 2 is provided in the image signal processing unit 15. That is, a line memory LM1 for buffering one line of the input video signal and a line memory LM2 for buffering the video signal for one line output from the line memory LM1 are provided. The line memory LM1 holds and outputs each pixel constituting the line ai + 1 in FIG. 3, and the line memory LM2 holds and outputs each pixel constituting the line ai + 2 in FIG. A pixel output without passing through the line memories LM1 and LM2 is a line ai in FIG.

図3に示した各ライン上の各画素は、図2に示した各遅延部VL1〜VL6によって、入力画素に1画素クロック分の遅延が与えられることにより、同じタイミングで得られるようになる。つまり、図2において、ラインメモリLM1(又はLM2)や、遅延部VL1〜VL6通さずに入力される映像信号は、図3の上段(ラインai)の右端の位置に画素P3として出力され、遅延部VL1のみを通して入力される映像信号は、画素P3の左隣の位置に画素P2として出力され、遅延部VL1及び遅延部VL2を通して入力される映像信号は、画素P2の左隣の位置に画素P1として出力される。   Each pixel on each line shown in FIG. 3 is obtained at the same timing by giving a delay of one pixel clock to the input pixel by each of the delay units VL1 to VL6 shown in FIG. That is, in FIG. 2, the video signal input without passing through the line memory LM1 (or LM2) or the delay units VL1 to VL6 is output as the pixel P3 at the right end position in the upper stage (line ai) in FIG. A video signal input only through the part VL1 is output as a pixel P2 at a position adjacent to the left of the pixel P3, and a video signal input through the delay part VL1 and the delay part VL2 is output at a position adjacent to the pixel P2 at the pixel P1. Is output as

同様に、ラインメモリLM1で遅延された映像信号は、図3の中段(ラインai+1)の右端の位置に画素P5として出力され、ラインメモリLM1及び遅延部VL3を通して入力される映像信号は、画素P5の左隣の位置に画素Pxとして出力され、ラインメモリLM1と遅延部VL3と遅延部VL4を通して入力される映像信号は、画素Pxの左隣の位置に画素P4として出力される。   Similarly, the video signal delayed by the line memory LM1 is output as the pixel P5 at the right end position of the middle stage (line ai + 1) in FIG. 3, and the video signal input through the line memory LM1 and the delay unit VL3 is the pixel P5. A video signal that is output as a pixel Px at a position adjacent to the left of the pixel and input through the line memory LM1, the delay unit VL3, and the delay unit VL4 is output as a pixel P4 at a position adjacent to the left of the pixel Px.

さらに、ラインメモリLM1及びラインメモリLM2で遅延された映像信号は、図3の下段(ラインai+2)の右端の位置に画素P8として出力され、ラインメモリLM1及びラインメモリLM2と遅延部VL5を通して入力される映像信号は、画素P8の左隣の位置に画素P7として出力され、ラインメモリLM1及びラインメモリLM2と、遅延部VL5及び遅延部VL6を通して入力される映像信号は、画素P7の左隣の位置に画素P6として出力される。なお、本例ではラインメモリを使用した例を挙げたが、フレームメモリを用いて3ラインの画素を一度に出力する構成に適用してもよい。   Further, the video signal delayed in the line memory LM1 and the line memory LM2 is output as a pixel P8 at the right end position of the lower stage (line ai + 2) in FIG. The video signal is output as a pixel P7 at a position on the left side of the pixel P8, and the video signal input through the line memory LM1 and the line memory LM2, the delay unit VL5, and the delay unit VL6 is positioned on the left side of the pixel P7. Is output as a pixel P6. In this example, a line memory is used. However, the present invention may be applied to a configuration in which three lines of pixels are output at once using a frame memory.

図2に示した回路構成などで得られた9画素の画素信号は、重み値算出部15a及び画素加算部15bに入力される。重み値算出部15aは、注目画素Px(図3参照)の周辺に位置する各周辺画素P1〜P8における、注目画素Pxの画素値との差分値を算出し、算出した差分値の大きさに応じた値を、重み値として設定する。そして、算出した重み値を画素加算部15bに出力する。画素加算部15bは、周辺画素P1〜P8のそれぞれにおける差分値を、重み値算出部から出力された重み値の大きさに応じた割合で加算する。   The pixel signal of 9 pixels obtained by the circuit configuration shown in FIG. 2 is input to the weight value calculation unit 15a and the pixel addition unit 15b. The weight value calculation unit 15a calculates a difference value from the pixel value of the target pixel Px in each of the peripheral pixels P1 to P8 located around the target pixel Px (see FIG. 3), and sets the magnitude of the calculated difference value. A corresponding value is set as a weight value. Then, the calculated weight value is output to the pixel addition unit 15b. The pixel addition unit 15b adds the difference values in each of the peripheral pixels P1 to P8 at a ratio according to the size of the weight value output from the weight value calculation unit.

図4には、重み値算出部15aの処理の例をフローチャートで示してある。図4において、重み値算出部15aはまず、注目画素Pxの周辺に位置する各周辺画素P1〜P8において、注目画素Pxとの差分値を算出する処理を行う(ステップS1)。そして、求められた各差分値が、予め設定しておいた定数より大きな値であるか否かの判断を行う(ステップS2)。   FIG. 4 is a flowchart showing an example of processing of the weight value calculation unit 15a. In FIG. 4, the weight value calculation unit 15a first performs a process of calculating a difference value with respect to the target pixel Px in each of the peripheral pixels P1 to P8 positioned around the target pixel Px (step S1). Then, it is determined whether or not each obtained difference value is larger than a preset constant (step S2).

差分値が定数より大きな値であった場合には重み値を0に設定し、差分値が定数以下であった場合には、さらに定数から差分値を減算する処理を行い、その結果得られた値を重み値とする(ステップS4)。   If the difference value is larger than the constant, the weight value is set to 0. If the difference value is less than or equal to the constant, the difference value is further subtracted from the constant, and the result is obtained. The value is set as a weight value (step S4).

上述した処理を式にすると、下記のような式になる。下記式においては、注目画素Pxとの差分値をx、定数をAとしてある。

Figure 2009152881
つまり上記式によれば、差分値xが大きければ大きいほど、重み値fの値は小さくなる。 When the processing described above is expressed as an expression, the following expression is obtained. In the following equation, the difference value from the target pixel Px is x, and the constant is A.
Figure 2009152881
That is, according to the above equation, the larger the difference value x, the smaller the value of the weight value f.

定数Aの値はユーザが自由に設定できるものとし、その値の大きさは、意味のある信号として残したい信号の輝度レベル(エッジレベル)以下の値とし、かつ、ノイズとして削除したい信号のレベル(ノイズレベル)よりは大きな値に設定するようにする。   The value of the constant A can be freely set by the user, the magnitude of the value is set to a value equal to or lower than the luminance level (edge level) of the signal to be left as a meaningful signal, and the level of the signal to be deleted as noise. Set a value larger than (noise level).

具体例を挙げて説明すると、処理の対象領域が例えば図5(a)に示したような各画素で構成されている場合には、注目画素Pxの画素値が8であるため、画素値が1や2等の、注目画素Pxとの差分が大きい画素P4、画素P6、画素P7は、注目画素Pxから見てエッジの向こう側にある画素であるとみなすことができる。エッジの向こう側の各画素と、エッジのこちら側の各画素間での差分値は5〜7であるため、この場合のエッジレベルは5〜7となる。   To explain with a specific example, when the processing target area is composed of each pixel as shown in FIG. 5A, for example, the pixel value of the pixel of interest Px is 8, so the pixel value is Pixels P4, P6, and P7 having a large difference from the target pixel Px, such as 1 and 2, can be regarded as pixels on the other side of the edge as viewed from the target pixel Px. Since the difference value between each pixel on the far side of the edge and each pixel on the far side of the edge is 5 to 7, the edge level in this case is 5 to 7.

また、エッジのこちら側と判断された画素P1、画素P2、画素P3、画素P5、画素P8においては、各画素値の差は0〜1であるため、0〜1をノイズレベルと設定する。つまり図5(a)に示したケースでは、定数Aを例えば5に設定することで、エッジレベルが5〜7の画素はエッジとして保持され、エッジのこちら側と判断された各画素においては、画素加算処理によってノイズが除去される。   In addition, in the pixel P1, the pixel P2, the pixel P3, the pixel P5, and the pixel P8 determined to be the near side of the edge, the difference between the pixel values is 0 to 1, so 0 to 1 is set as the noise level. In other words, in the case shown in FIG. 5A, by setting the constant A to 5, for example, the pixels having the edge levels of 5 to 7 are held as edges, and in each pixel determined to be on this side of the edge, Noise is removed by pixel addition processing.

つまり、定数Aの値を大きな値とすればするほど、エッジの向こう側と判断された各画素に設定される重み値fの値が大きくなる。定数Aの値を大きくした場合には、画素加算部15bの画素加算処理によるエッジの鈍り度合いは大きくなるが、その分大きなノイズを除去することができるようになる。一方、定数Aの値を小さくした場合には、エッジがクリアに保持されるようになるが、ノイズ除去の効果は薄くなる。   That is, the larger the value of the constant A, the larger the value of the weight value f set for each pixel determined to be beyond the edge. When the value of the constant A is increased, the degree of edge dullness caused by the pixel addition processing of the pixel addition unit 15b increases, but a large amount of noise can be removed accordingly. On the other hand, when the value of the constant A is reduced, the edge is kept clear, but the effect of noise reduction is reduced.

次に、引き続き図5を参照して、重み算出部15aによる具体的な処理の例を説明する。図5(a)は、画像処理の対象となる処理領域を示したものである。図3に示した例と同様に、処理対象領域は、注目画素Px及びその上下左右方向に隣接する周辺画素8画素の、合計9画素で構成される。図5において、図3と対応する箇所には同一の符号を付してある。   Next, with reference to FIG. 5, an example of specific processing by the weight calculation unit 15a will be described. FIG. 5A shows a processing area to be subjected to image processing. Similar to the example illustrated in FIG. 3, the processing target region is configured by a total of nine pixels including the target pixel Px and eight peripheral pixels adjacent in the vertical and horizontal directions. In FIG. 5, portions corresponding to those in FIG. 3 are denoted with the same reference numerals.

図5(a)において、注目画素Pxの値が8であるのに対して、注目画素Pxの左隣の画素P4の画素値は2、斜め左下の画素P6の画素値は1、真下の画素P7の画素値は2であり、これらの各画素においては注目画素Pxの画素値との差分が大きいため、これらの画素はエッジの向こう側とみなすことができる。   In FIG. 5A, the value of the pixel of interest Px is 8, whereas the pixel value of the pixel P4 adjacent to the left of the pixel of interest Px is 2, the pixel value of the diagonally lower left pixel P6 is 1, and the pixel just below Since the pixel value of P7 is 2, and each of these pixels has a large difference from the pixel value of the target pixel Px, these pixels can be regarded as the other side of the edge.

図5(b)には、画素P1〜画素P8のそれぞれにおける、注目画素Pxとの差分値x(絶対値)を示してある。図5(a)に示したように、各周辺画素P1〜P8の画素値は、それぞれP1=8、P2=7、P3=8、P4=2、P5=7、P6=1、P7=2、P8=8であるため、差分値xは、
P1:|P1−Px|=|8−8|=0、
P2:|P2−Px|=|8−7|=1、
P3:|P3−Px|=|8−8|=0、
P4:|P4−Px|=|8−2|=6、
P5:|P5−Px|=|8−7|=1、
P6:|P6−Px|=|8−1|=7、
P7:|P7−Px|=|8−2|=6、
P8:|P8−Px|=|8−8|=0
となる。
FIG. 5B shows a difference value x (absolute value) from the pixel of interest Px in each of the pixels P1 to P8. As shown in FIG. 5A, the pixel values of the peripheral pixels P1 to P8 are P1 = 8, P2 = 7, P3 = 8, P4 = 2, P5 = 7, P6 = 1, P7 = 2, respectively. , P8 = 8, so the difference value x is
P1: | P1-Px | = | 8-8 | = 0,
P2: | P2-Px | = | 8-7 | = 1
P3: | P3-Px | = | 8-8 | = 0,
P4: | P4-Px | = | 8-2 | = 6,
P5: | P5-Px | = | 8-7 | = 1
P6: | P6-Px | = | 8-1 | = 7,
P7: | P7-Px | = | 8-2 | = 6,
P8: | P8-Px | = | 8-8 | = 0
It becomes.

図5(c)には、これらの差分値xを、数1の式に代入した結果を示してある。定数Aの値を5に設定した場合は、各周辺画素P1〜P8のそれぞれにおける重み値fは下記の値となる。
P1:A(5)−x(0)=5、
P2:A(5)−x(1)=4、
P3:A(5)−x(0)=5、
P4:A(5)<x(6) ∴f(x)=0、
P5:A(5)−x(1)=4、
P6:A(5)<x(7) ∴f(x)=0、
P7:A(5)<x(6) ∴f(x)=0、
P8:A(5)−x(0)=5
となる。つまり、差分値xの大きさが定数Aを超える場合にはその画素は加算の対象とはされなくなる。一方、差分値xの大きさが定数Aを超えない間は、差分値xが小さいほど重み値fの値は大きくなり、差分値xが大きいほど重み値fの値は小さくなる。重み値算出部15aは、このような処理を行って得た各周辺画素P1〜P8における重み値fを、画素加算部15bに出力する。
FIG. 5 (c) shows the result of substituting these difference values x into the equation (1). When the value of the constant A is set to 5, the weight value f in each of the surrounding pixels P1 to P8 is the following value.
P1: A (5) -x (0) = 5,
P2: A (5) -x (1) = 4,
P3: A (5) -x (0) = 5,
P4: A (5) <x (6) ∴ f (x) = 0,
P5: A (5) -x (1) = 4,
P6: A (5) <x (7) ∴ f (x) = 0,
P7: A (5) <x (6) ∴f (x) = 0,
P8: A (5) -x (0) = 5
It becomes. That is, when the magnitude of the difference value x exceeds the constant A, the pixel is not added. On the other hand, while the magnitude of the difference value x does not exceed the constant A, the weight value f increases as the difference value x decreases, and the weight value f decreases as the difference value x increases. The weight value calculation unit 15a outputs the weight value f in each of the surrounding pixels P1 to P8 obtained by performing such processing to the pixel addition unit 15b.

次に、画素加算部15bの処理の詳細について、図6のフローチャートを参照して説明する。図6において、画素加算部15bはまず、処理領域の各周辺画素における重み値fの和を算出する(ステップS11)。そして次に、処理領域の各周辺画素における差分値xと重み値fとの積算値を、加算する(ステップS12)。さらに、ステップS12で得られた差分値xと重み値fとの積算値の和を、重み値fの合計値で除算する(ステップS13)。   Next, details of the processing of the pixel addition unit 15b will be described with reference to the flowchart of FIG. In FIG. 6, the pixel addition unit 15 b first calculates the sum of the weight values f in the peripheral pixels of the processing region (Step S <b> 11). Then, the integrated value of the difference value x and the weight value f in each peripheral pixel of the processing region is added (step S12). Further, the sum of the integrated values of the difference value x and the weight value f obtained in step S12 is divided by the total value of the weight values f (step S13).

この処理を、下記に式として示してある。下記式においては、周辺画素の数をn、注目画素Pxの画素値をak、各周辺画素P1〜P8の画素値をaiとしてある。

Figure 2009152881
例えば、図5(a)〜(c)に示された注目画素Pxの画素値、差分値x、重み値fをこの式に代入すると、7.65という解が求められる。よって、この値を四捨五入した8が、この処理領域における注目画素の新たな画素値として出力される。 This process is shown as an equation below. In the following formula, the number of peripheral pixels is n, the pixel value of the target pixel Px is ak, and the pixel values of the peripheral pixels P1 to P8 are ai.
Figure 2009152881
For example, when the pixel value, difference value x, and weight value f of the target pixel Px shown in FIGS. 5A to 5C are substituted into this equation, a solution of 7.65 is obtained. Therefore, 8 obtained by rounding off this value is output as a new pixel value of the target pixel in this processing region.

上述した重み値算出部15aの処理によれば、例えば図5の画素P4、画素P6、画素P7で構成される、エッジの向こう側と判断できる領域Ar1においては、図5(c)に示されるように重み値fが0に設定される。このため、これら画素値は、画素加算部15bでの加算処理の対象からは外れるようになる。このような処理が行われることにより、画素加算処理によって、画像中のエッジ部分が平滑化されてしまうことがなくなる。   According to the processing of the weight value calculation unit 15a described above, an area Ar1 that is determined to be beyond the edge, for example, composed of the pixel P4, the pixel P6, and the pixel P7 in FIG. 5 is shown in FIG. Thus, the weight value f is set to 0. For this reason, these pixel values are not included in the object of addition processing in the pixel addition unit 15b. By performing such processing, the edge portion in the image is not smoothed by the pixel addition processing.

なお、ここまで説明した実施の形態では、重み値fの算出方法として、定数Aを設けてそこから差分値xを減算する方法を例に挙げたが、その他の計算方法で重み値fを算出するようにしてもよい。例えば、処理領域における差分値の最大値から、各周辺画素P1〜P8における差分値を減算して得られる値を、重み値として設定するようにしてもよい。この場合の処理例を、図7にフローチャートとして示している。   In the embodiment described so far, as a method for calculating the weight value f, the method of providing the constant A and subtracting the difference value x from the constant A is exemplified. However, the weight value f is calculated by other calculation methods. You may make it do. For example, a value obtained by subtracting the difference value in each of the peripheral pixels P1 to P8 from the maximum difference value in the processing region may be set as the weight value. An example of processing in this case is shown as a flowchart in FIG.

図7において、重み値算出部15aはまず、処理領域内のすべての周辺画素において差分値xを算出する(ステップS21)。次に、算出した差分値xの中から一番値の大きいもの(最大差分値)を抽出し(ステップS22)、抽出した最大差分値から、差分値xを除算する。そして、除算した得られた値を、重み値fに設定する(ステップS23)。   In FIG. 7, the weight value calculation unit 15a first calculates the difference value x in all peripheral pixels in the processing region (step S21). Next, the largest difference value (maximum difference value) is extracted from the calculated difference values x (step S22), and the difference value x is divided from the extracted maximum difference value. Then, the value obtained by the division is set to the weight value f (step S23).

図5(a)に示した領域を対象に上記処理を行った場合には、図7のステップS22で求められる最大差分値は、画素P6における「7」となる(各周辺画素における差分値xの値は、図5(b)を参照)。従って、各周辺画素P1〜P8に設定される重み値fは、下記のとおりとなる。
P1:最大差分値(7)−差分値x(0)=7、
P2:最大差分値(7)−x(1)=6、
P3:最大差分値(7)−x(0)=7、
P4:最大差分値(7)−x(6)=1、
P5:最大差分値(7)−x(1)=6、
P6:最大差分値(7)−x(7)=0、
P7:最大差分値(7)−x(6)=1、
P8:最大差分値(7)−x(0)=7
When the above processing is performed on the area shown in FIG. 5A, the maximum difference value obtained in step S22 in FIG. 7 is “7” in the pixel P6 (difference value x in each peripheral pixel). (Refer to FIG. 5B for the value of.) Accordingly, the weight value f set for each of the peripheral pixels P1 to P8 is as follows.
P1: maximum difference value (7) −difference value x (0) = 7,
P2: Maximum difference value (7) −x (1) = 6,
P3: Maximum difference value (7) −x (0) = 7,
P4: Maximum difference value (7) −x (6) = 1,
P5: Maximum difference value (7) −x (1) = 6,
P6: Maximum difference value (7) −x (7) = 0,
P7: Maximum difference value (7) -x (6) = 1,
P8: Maximum difference value (7) −x (0) = 7

このような処理を行うことによっても、注目画素Pxの画素値との差分値xが大きい、画素P4、画素P6、画素P7における重み値fが、0もしくは1の小さな値に設定されるようになる。   Also by performing such processing, the weight value f in the pixel P4, the pixel P6, and the pixel P7 having a large difference value x from the pixel value of the target pixel Px is set to a small value of 0 or 1. Become.

もしくは、差分値xの逆数を、重み値fとするようにしてもよい。この場合の重み値算出部15aの処理の例を、図8のフローチャートに示してある。図8において、重み値算出部15aはまず、処理領域の各周辺画素において、差分値xを算出する(ステップS31)。そして、その差分値xが0であるか否かの判断を行う(ステップS32)。差分値xが0であった場合には、重み値fを1に設定し(ステップS33)、差分値xが0以外の値であった場合には、ステップS31で算出した差分値xの逆数を、重み値fとして設定する(ステップS34)。   Alternatively, the reciprocal of the difference value x may be used as the weight value f. An example of processing of the weight value calculation unit 15a in this case is shown in the flowchart of FIG. In FIG. 8, the weight value calculation unit 15a first calculates a difference value x in each peripheral pixel of the processing region (step S31). Then, it is determined whether or not the difference value x is 0 (step S32). If the difference value x is 0, the weight value f is set to 1 (step S33). If the difference value x is a value other than 0, the reciprocal of the difference value x calculated in step S31. Is set as the weight value f (step S34).

つまり、下記式の解を重み値fとする処理を行う。

Figure 2009152881
That is, a process of setting a weight value f as a solution of the following equation is performed.
Figure 2009152881

図5(a)に示した領域を対象にして、このような処理を行った場合は、各周辺画素における重み値fは下記の通りとなる。
P1:1/差分値x(0)=1、
P2:1/x(1)=1、
P3:1/x(0)=1、
P4:1/x(6)=0.17、
P5:1/x(1)=1、
P6:1/x(7)=0.14、
P7:1/x(6)=0.17、
P8:1/x(0)=1
このような処理を行うことで、注目画素Pxの画素値との差分値xが大きい、画素P4、画素P6、画素P7における重み値fが、1未満の小さな値に設定されるようになる。
When such a process is performed on the region shown in FIG. 5A, the weight value f in each peripheral pixel is as follows.
P1: 1 / difference value x (0) = 1,
P2: 1 / x (1) = 1,
P3: 1 / x (0) = 1,
P4: 1 / x (6) = 0.17,
P5: 1 / x (1) = 1,
P6: 1 / x (7) = 0.14,
P7: 1 / x (6) = 0.17,
P8: 1 / x (0) = 1
By performing such processing, the weight value f in the pixel P4, the pixel P6, and the pixel P7 having a large difference value x from the pixel value of the target pixel Px is set to a small value less than 1.

上述した第1の実施の形態によれば、注目画素の画素値との差分値xの大きさに応じて画素加算時の重み値が設定されるため、各周辺画素の画素値の中間値を算出したり、閾値を設ける必要が無くなる。   According to the first embodiment described above, since the weight value at the time of pixel addition is set according to the magnitude of the difference value x from the pixel value of the target pixel, the intermediate value of the pixel values of each peripheral pixel is set. There is no need to calculate or provide a threshold.

また、予め定めておいた定数Aから、注目画素Pxの画素値との差分値xを減算して重み値を求めているため、定数Aの大きさを変化させることで、ノイズ除去のレベルを調整することができる。すなわち、定数Aの値を大きくすることで、ノイズ除去の効果を大きくでき、定数Aの値を小さくすることで、エッジ保持の効果を強めることができる。   Further, since the weight value is obtained by subtracting the difference value x from the pixel value of the target pixel Px from the predetermined constant A, the level of noise removal can be increased by changing the size of the constant A. Can be adjusted. That is, by increasing the value of the constant A, the effect of noise removal can be increased, and by decreasing the value of the constant A, the effect of edge retention can be increased.

さらに、エッジを保持しつつもノイズを除去できるため、画素加算処理後の信号を増幅して高感度化した場合にも、生成された画像におけるノイズが目立たなくなる。   Furthermore, since noise can be removed while retaining the edge, noise in the generated image is not noticeable even when the signal after pixel addition processing is amplified to increase sensitivity.

次に、本発明の第2の実施の形態について、図9〜図11を参照して説明する。本例における撮像装置も、図1に示した撮像装置100と同一の構成を有するものとする。第2の実施の形態によれば、第1の実施の形態による構成及び処理では除去しきれなかった孤立点が、除去可能となる。   Next, a second embodiment of the present invention will be described with reference to FIGS. The imaging apparatus in this example also has the same configuration as the imaging apparatus 100 shown in FIG. According to the second embodiment, isolated points that could not be removed by the configuration and processing according to the first embodiment can be removed.

第1の実施の形態で説明した処理では、注目画素Px自身が孤立点であるようなケースは、画像処理によって孤立点(ノイズ)を除去することができない。図9(a)に、処理領域において、注目画素Pxの画素値が8であるのに対して、その周辺画素P1〜P8の画素値は1〜2である場合を例示している。このような場合、注目画素Pxが孤立点である可能性が高い。   In the processing described in the first embodiment, in the case where the target pixel Px itself is an isolated point, the isolated point (noise) cannot be removed by image processing. FIG. 9A illustrates a case where the pixel value of the target pixel Px is 8 in the processing region, while the pixel values of the surrounding pixels P1 to P8 are 1 to 2. In such a case, there is a high possibility that the target pixel Px is an isolated point.

図9(a)に示した各周辺画素と、注目画素Pxの画素値との差分値xを、処理領域上に表現したものが図9(b)である。図9に示されるように、各周辺画素における差分値xは、
P1:|P1−Px|=|8−1|=7、
P2:|P2−Px|=|8−1|=7、
P3:|P3−Px|=|8−1|=7、
P4:|P4−Px|=|8−2|=6、
P5:|P5−Px|=|8−2|=6、
P6:|P6−Px|=|8−1|=7、
P7:|P7−Px|=|8−2|=6、
P8:|P8−Px|=|8−1|=7
となる。つまり、周辺画素全体が、エッジの向こう側と認識されてしまう。
FIG. 9B shows a difference value x between each peripheral pixel shown in FIG. 9A and the pixel value of the target pixel Px on the processing region. As shown in FIG. 9, the difference value x in each peripheral pixel is
P1: | P1-Px | = | 8-1 | = 7,
P2: | P2-Px | = | 8-1 | = 7,
P3: | P3-Px | = | 8-1 | = 7,
P4: | P4-Px | = | 8-2 | = 6,
P5: | P5-Px | = | 8-2 | = 6,
P6: | P6-Px | = | 8-1 | = 7,
P7: | P7-Px | = | 8-2 | = 6,
P8: | P8-Px | = | 8-1 | = 7
It becomes. That is, the entire peripheral pixel is recognized as the other side of the edge.

この領域において、エッジレベルを6〜7、ノイズレベルは0〜1とした場合で、重み値算出に数1の式を用いる場合には、定数Aは6程度の大きさに設定される。数1の式を用いて算出した、各周辺画素における重み値fは、下記のようになる。
P1:A(6)<x(7) ∴f(x)=0、
P2:A(6)<x(7) ∴f(x)=0、
P3:A(6)<x(7) ∴f(x)=0、
P4:A(6)−x(6)=0、
P5:A(6)−x(6)=0、
P6:A(6)<x(7) ∴f(x)=0、
P7:A(6)−x(6)=0、
P8:A(6)<x(7) ∴f(x)=0
これらの重み値fを処理領域上に示したものが、図9(c)となる。つまり、周辺画素P1〜P8の画素値は画素加算部15bによる加算処理には用いられなくなるため、画素加算部15bからの出力値は8(=注目画素Pxの画素値)となる。すなわち、第1の実施の形態による処理では、注目画素Px自体が孤立点であった場合には、それを画像処理によって除去することができなかった。
In this region, when the edge level is 6 to 7, the noise level is 0 to 1, and the formula 1 is used for calculating the weight value, the constant A is set to about 6. The weight value f in each peripheral pixel calculated using the formula 1 is as follows.
P1: A (6) <x (7) ∴ f (x) = 0,
P2: A (6) <x (7) ∴ f (x) = 0,
P3: A (6) <x (7) ∴ f (x) = 0,
P4: A (6) -x (6) = 0,
P5: A (6) -x (6) = 0,
P6: A (6) <x (7) ∴ f (x) = 0,
P7: A (6) -x (6) = 0,
P8: A (6) <x (7) ∴ f (x) = 0
FIG. 9C shows these weight values f on the processing area. That is, since the pixel values of the peripheral pixels P1 to P8 are not used for the addition processing by the pixel addition unit 15b, the output value from the pixel addition unit 15b is 8 (= the pixel value of the target pixel Px). That is, in the processing according to the first embodiment, when the target pixel Px itself is an isolated point, it cannot be removed by image processing.

第2の実施の形態では、各周辺画素において算出した注目画素Pxの画素値との差分値xから、処理領域における最小差分値をさらに減算することにより、差分値xの標準化を行うようにしている。標準化された差分値xを用いて重み値fを算出することで、注目画素Pxが孤立点であった場合にも、加算処理を行うことによって、それを除去することができるようになる。   In the second embodiment, the difference value x is standardized by further subtracting the minimum difference value in the processing region from the difference value x from the pixel value of the target pixel Px calculated in each peripheral pixel. Yes. By calculating the weight value f using the standardized difference value x, even when the target pixel Px is an isolated point, it can be removed by performing addition processing.

図10は、本例における重み値算出部15b′の処理例を示すフローチャートである。重み値算出部15b′は、まず処理領域内のすべての周辺画素P1〜P8において、注目画素Pxの画素値との差分値xを算出する(ステップS41)。次に、ステップS41で算出された各差分値xの中から、値が最も小さい差分値(最小差分値)を抽出する(ステップS42)。   FIG. 10 is a flowchart showing a processing example of the weight value calculation unit 15b ′ in this example. First, the weight value calculation unit 15b ′ calculates a difference value x from the pixel value of the target pixel Px in all the peripheral pixels P1 to P8 in the processing region (step S41). Next, the difference value (minimum difference value) having the smallest value is extracted from each difference value x calculated in step S41 (step S42).

そして、各周辺画素P1〜P8において、差分値xから最小差分値を減算した値を新たな差分値x′として設定し(ステップS43)、差分値x′を用いて重み値fを算出する(ステップS44)。重み値fの算出には、第1の実施の形態で説明した、予め設定しておいた定数から差分値x′を減算する方法(数1、図4参照)や、処理領域内の最大差分値から各差分値x′を減算する方法(図7参照)、差分値x′の逆数を算出する方法(数3、図8参照)を用いる。   Then, in each of the surrounding pixels P1 to P8, a value obtained by subtracting the minimum difference value from the difference value x is set as a new difference value x ′ (step S43), and a weight value f is calculated using the difference value x ′ (step S43). Step S44). For calculating the weight value f, the method of subtracting the difference value x ′ from the preset constant described in the first embodiment (see Equation 1, FIG. 4), or the maximum difference in the processing area A method of subtracting each difference value x ′ from the value (see FIG. 7) and a method of calculating the reciprocal of the difference value x ′ (Equation 3, see FIG. 8) are used.

例えば図9(a)に示したような、注目画素Px自体が孤立点であると疑われる処理領域を対象にして、図10に示した処理を行った場合を例に挙げて説明する。重み値fの算出には、数1や図4に示した、定数から差分値x′を減算する方法を用いるものとする。   For example, a case where the processing shown in FIG. 10 is performed on a processing region in which the target pixel Px itself is suspected of being an isolated point as shown in FIG. 9A will be described as an example. For the calculation of the weight value f, the method of subtracting the difference value x ′ from the constant shown in Equation 1 and FIG. 4 is used.

図9(a)に示された領域内の各周辺画素P1〜P8における差分値xは、図9(b)に示してあるとおりであり、P1=7、P2=7、P3=7、P4=6、P5=6、P6=7、P7=6、P8=7となる。これら差分値xの中での最小の値は「6」であるため、図10のステップS43の処理に基づいて、各差分値から最小差分値(6)を減算する。   The difference values x in the peripheral pixels P1 to P8 in the region shown in FIG. 9A are as shown in FIG. 9B, and P1 = 7, P2 = 7, P3 = 7, P4. = 6, P5 = 6, P6 = 7, P7 = 6, P8 = 7. Since the minimum value among these difference values x is “6”, the minimum difference value (6) is subtracted from each difference value based on the processing of step S43 in FIG.

各周辺画素P1〜P8において、差分値xから最小差分値を減算して得られる差分値x′は下記のとおりとなる。そして図11(a)には、求められた差分値x′を処理領域上に割り当てて示したものを示してある。
P1:差分値x(7)−最小差分値(6)=1、
P2:x(7)−最小差分値(6)=1、
P3:x(7)−最小差分値(6)=1、
P4:x(6)−最小差分値(6)=0、
P5:x(6)−最小差分値(6)=0、
P6:x(7)−最小差分値(6)=1、
P7:x(6)−最小差分値(6)=0、
P8:x(7)−最小差分値(6)=1
In each of the surrounding pixels P1 to P8, the difference value x ′ obtained by subtracting the minimum difference value from the difference value x is as follows. FIG. 11A shows the obtained difference value x ′ assigned to the processing area.
P1: difference value x (7) −minimum difference value (6) = 1,
P2: x (7) −minimum difference value (6) = 1,
P3: x (7) −minimum difference value (6) = 1,
P4: x (6) −minimum difference value (6) = 0,
P5: x (6) −minimum difference value (6) = 0,
P6: x (7) −minimum difference value (6) = 1,
P7: x (6) −minimum difference value (6) = 0,
P8: x (7) −minimum difference value (6) = 1

これらの差分値x′を基に、数1の式を用いて重み値fを求めると、各周辺画素における重み値fは下記のようになる。ここでは定数Aを6としてある。
P1:A(6)−x(1)=5、
P2:A(6)−x(1)=5、
P3:A(6)−x(1)=5、
P4:A(6)−x(0)=6、
P5:A(6)−x(0)=6、
P6:A(6)−x(1)=5、
P7:A(6)−x(0)=6、
P8:A(6)−x(1)=5
つまり、全周辺画素における重み値fが大きな値となるため、これらの重み値fに基づいて画素加算部15bが画素加算処理を行うことにより、画素加算部15bから出力される値は、周辺画素の画素値を平滑化した値となる。従って、注目画素Pxが孤立点であった場合も、画像処理によりそれが削除されるようになる。
Based on these difference values x ′, when the weight value f is calculated using the equation of Formula 1, the weight value f in each peripheral pixel is as follows. Here, the constant A is 6.
P1: A (6) -x (1) = 5,
P2: A (6) -x (1) = 5,
P3: A (6) -x (1) = 5,
P4: A (6) -x (0) = 6,
P5: A (6) -x (0) = 6,
P6: A (6) -x (1) = 5,
P7: A (6) -x (0) = 6,
P8: A (6) -x (1) = 5
That is, since the weight value f in all the surrounding pixels is a large value, the pixel addition unit 15b performs pixel addition processing based on these weight values f, so that the value output from the pixel addition unit 15b is the peripheral pixel. The pixel value is smoothed. Therefore, even when the target pixel Px is an isolated point, it is deleted by image processing.

注目画素Pxが孤立点ではないケースにおいて、上述した処理を行っても、第1の実施の形態の処理において得られる効果と同等の効果を得ることができる。例えば、図5(a)に示した各画素で構成される領域を対象として、図10に示した処理を行った場合を例に挙げて説明する。   In the case where the target pixel Px is not an isolated point, even if the above-described processing is performed, an effect equivalent to the effect obtained in the processing of the first embodiment can be obtained. For example, the case where the process shown in FIG. 10 is performed for the area composed of each pixel shown in FIG. 5A will be described as an example.

図5(a)に示された領域において、注目画素Pxの画素値は8であり、周辺画素の画素値は、それぞれP1=8、P2=7、P3=8、P4=2、P5=7、P6=1、P7=2、P8=8である。これらの各周辺画素における、注目画素Pxの画素値との差分値xは、図5(b)に示してあるとおりであり、P1=0、P2=1、P3=0、P4=6、P5=1、P6=7、P7=6、P8=0となる。よって、これら差分値xの中での最小の値は「0」となる。   In the region shown in FIG. 5A, the pixel value of the target pixel Px is 8, and the pixel values of the peripheral pixels are P1 = 8, P2 = 7, P3 = 8, P4 = 2, P5 = 7, respectively. , P6 = 1, P7 = 2, and P8 = 8. The difference value x with respect to the pixel value of the target pixel Px in each of these peripheral pixels is as shown in FIG. 5B, and P1 = 0, P2 = 1, P3 = 0, P4 = 6, P5 = 1, P6 = 7, P7 = 6, and P8 = 0. Therefore, the minimum value among these difference values x is “0”.

つまり、各差分値xから0を減算しても値は変わらないため、これらの差分値xを用いて重み値fが計算される。数1の式を用いて重み値fを求めた場合は、各周辺画素における重み値fは下記のようになる。ここでは定数Aを5としてある。
P1:A(5)−x(0)=5、
P2:A(5)−x(1)=4、
P3:A(5)−x(0)=5、
P4:A(5)<x(6) ∴f(x)=0、
P5:A(5)−x(1)=4、
P6:A(5)<x(7) ∴f(x)=0、
P7:A(5)<x(6) ∴f(x)=0、
P8:A(5)−x(0)=5
すなわち、第1の実施の形態において算出された重み値f(図5(c)参照)と、同じ値となる。
That is, since the value does not change even if 0 is subtracted from each difference value x, the weight value f is calculated using these difference values x. When the weight value f is obtained by using the equation (1), the weight value f in each peripheral pixel is as follows. Here, the constant A is 5.
P1: A (5) -x (0) = 5,
P2: A (5) -x (1) = 4,
P3: A (5) -x (0) = 5,
P4: A (5) <x (6) ∴ f (x) = 0,
P5: A (5) -x (1) = 4,
P6: A (5) <x (7) ∴ f (x) = 0,
P7: A (5) <x (6) ∴f (x) = 0,
P8: A (5) -x (0) = 5
That is, the same value as the weight value f (see FIG. 5C) calculated in the first embodiment.

上述した第2の実施の形態によれば、第1の実施の形態において得られる効果に加えて、注目画素Pxが孤立点であった場合にも、それを除去することができるという効果を得ることができる。   According to the second embodiment described above, in addition to the effect obtained in the first embodiment, even when the target pixel Px is an isolated point, it is possible to remove it. be able to.

この場合、画素加算処理に先立って、HPF(High Pass Filter)等を用いて事前に孤立点を除去する作業等を行う必要がなくなる。   In this case, prior to pixel addition processing, it is not necessary to perform an operation for removing isolated points in advance using an HPF (High Pass Filter) or the like.

なお、ここまで説明した実施の形態では、画像信号処理装置を撮像装置に適応した例を挙げたが、テレビジョン受像機やビデオ信号記録装置、ビデオテープレコーダ等の他の装置に適用してもよい。   In the embodiment described so far, the example in which the image signal processing device is adapted to the imaging device has been described. However, the image signal processing device may be applied to other devices such as a television receiver, a video signal recording device, and a video tape recorder. Good.

本発明の第1の実施の形態による撮像装置の内部構成例を示すブロック図である。1 is a block diagram illustrating an internal configuration example of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態による画像信号処理部の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of the image signal processing part by the 1st Embodiment of this invention. 本発明の第1の実施の形態による処理領域の例を示す説明図である。It is explanatory drawing which shows the example of the process area | region by the 1st Embodiment of this invention. 本発明の第1の実施の形態による重み値算出部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the weight value calculation part by the 1st Embodiment of this invention. 本発明の第1の実施の形態による処理領域の例を示す説明図であり、(a)は、処理領域内の各画素における画素値を示したものであり、(b)は、処理領域内の各周辺画素における注目画素の画素値との差分値を示したものであり、(c)は、差分値を基に算出された重み値をしたものである。It is explanatory drawing which shows the example of the process area by the 1st Embodiment of this invention, (a) shows the pixel value in each pixel in a process area, (b) is in a process area (C) is a weight value calculated based on the difference value. 本発明の第1の実施の形態による画素加算部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the pixel addition part by the 1st Embodiment of this invention. 本発明の第1の実施の形態の変形例による重み値算出部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the weight value calculation part by the modification of the 1st Embodiment of this invention. 本発明の第1の実施の形態の変形例による重み値算出部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the weight value calculation part by the modification of the 1st Embodiment of this invention. 本発明の第1の実施の形態による処理領域の例を示す説明図であり、(a)は、処理領域内の各画素における画素値を示したものであり、(b)は、処理領域内の各周辺画素における注目画素の画素値との差分値を示したものであり、(c)は、差分値を基に算出された重み値をしたものである。It is explanatory drawing which shows the example of the process area by the 1st Embodiment of this invention, (a) shows the pixel value in each pixel in a process area, (b) is in a process area (C) is a weight value calculated based on the difference value. 本発明の第2の実施の形態による重み値算出部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the weight value calculation part by the 2nd Embodiment of this invention. 本発明の第2の実施の形態による処理領域の例を示す説明図であり、(a)は、処理領域内の各周辺画素における注目画素の画素値との差分値を示したものであり、(b)は、各周辺画素における差分値から、処理領域内の最小差分値を減算した値を示したものである。It is explanatory drawing which shows the example of the process area by the 2nd Embodiment of this invention, (a) shows the difference value with the pixel value of the attention pixel in each surrounding pixel in a process area, (B) shows a value obtained by subtracting the minimum difference value in the processing region from the difference value in each peripheral pixel.

符号の説明Explanation of symbols

11…レンズ、12…撮像素子、13…アナログ信号処理部、14…A/D変換部、15…画像信号処理部、15a…重み値算出部、15b…画素加算部、16…エンコード部、17…D/A変換部、18…出力端子、19…制御部、20…記憶部、LM1〜LM2…ラインメモリ、VL1〜VL6…遅延部、Px…注目画素、P1〜P6…周辺画素   DESCRIPTION OF SYMBOLS 11 ... Lens, 12 ... Image sensor, 13 ... Analog signal processing part, 14 ... A / D conversion part, 15 ... Image signal processing part, 15a ... Weight value calculation part, 15b ... Pixel addition part, 16 ... Encoding part, 17 ... D / A conversion unit, 18 ... output terminal, 19 ... control unit, 20 ... storage unit, LM1 to LM2 ... line memory, VL1 to VL6 ... delay unit, Px ... target pixel, P1 to P6 ... peripheral pixel

Claims (10)

複数の画素で構成される画像信号を処理する画像信号処理回路であって、
注目画素の周辺に位置する各周辺画素における、前記注目画素の画素値との差分値を算出し、前記算出した差分値の大きさに応じた値を重み値として設定する重み値算出部と、
前記周辺画素のそれぞれにおける画素値を、前記重み値算出部で設定された重み値の大きさに応じた割合で加算する画素加算部とを備えたことを特徴とする
画像信号処理回路。
An image signal processing circuit for processing an image signal composed of a plurality of pixels,
A weight value calculation unit that calculates a difference value with the pixel value of the target pixel in each peripheral pixel located around the target pixel, and sets a value according to the magnitude of the calculated difference value as a weight value;
An image signal processing circuit, comprising: a pixel addition unit that adds pixel values in each of the peripheral pixels at a ratio corresponding to a weight value set by the weight value calculation unit.
請求項1記載の画像信号処理回路において、
前記画素加算部は、前記重み値と前記差分値との積算値を、前記周辺画素毎に加算した値を、前記重み値の和で除算するとともに、前記除算して得た値を前記注目画素の新たな画素値として出力することを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 1,
The pixel addition unit divides the sum of the weight value and the difference value for each of the peripheral pixels by the sum of the weight values, and the value obtained by the division is the pixel of interest. An image signal processing circuit that outputs a new pixel value.
請求項2記載の画像信号処理回路において、
前記重み値算出部は、予め定めておいた定数から前記注目画素の画素値との差分値を減算した値を、前記重み値とすることを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 2, wherein
The image signal processing circuit, wherein the weight value calculation unit sets a value obtained by subtracting a difference value from a pixel value of the target pixel from a predetermined constant as the weight value.
請求項3記載の画像信号処理回路において、
前記重み値算出部は、前記注目画素の画素値との差分値が前記定数よりも大きい場合は、前記重み値を0に設定することを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 3.
The image signal processing circuit, wherein the weight value calculation unit sets the weight value to 0 when a difference value from the pixel value of the target pixel is larger than the constant.
請求項2記載の画像信号処理回路において、
前記重み値算出部は、すべての前記周辺画素において前記注目画素の画素値との差分値を算出するとともに、前記すべての周辺画素における前記差分値の最大値を算出し、前記各周辺画素において、前記差分値の最大値から、前記注目画素の画素値との差分値を減算した値を前記重み値とすることを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 2, wherein
The weight value calculation unit calculates a difference value from the pixel value of the target pixel in all the surrounding pixels, calculates a maximum value of the difference value in all the surrounding pixels, and in each of the surrounding pixels, An image signal processing circuit characterized in that a value obtained by subtracting a difference value from the pixel value of the target pixel from the maximum value of the difference value is used as the weight value.
請求項2記載の画像信号処理回路において、
前記重み値算出部は、前記注目画素の画素値との差分値の逆数を前記重み値とすることを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 2, wherein
The image signal processing circuit, wherein the weight value calculation unit uses an inverse of a difference value from a pixel value of the target pixel as the weight value.
請求項6記載の画像信号処理回路において、
前記重み値算出部は、前記注目画素の画素値との差分値が0であった場合には、前記重み値を0以外の所定の値に設定することを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 6.
The weight value calculation unit sets the weight value to a predetermined value other than 0 when the difference value from the pixel value of the target pixel is 0.
請求項3記載の画像信号処理回路において、
前記画素加算部は、すべての前記周辺画素において前記注目画素の画素値との差分値を算出し、前記差分値から前記差分値の最小値を減算した値を、前記各周辺画素の差分値とすることを特徴とする
画像信号処理回路。
The image signal processing circuit according to claim 3.
The pixel addition unit calculates a difference value from the pixel value of the target pixel in all the peripheral pixels, and subtracts a minimum value of the difference value from the difference value as a difference value of each peripheral pixel. An image signal processing circuit.
複数の画素で構成される画像信号を処理する画像信号処理装置であって、
注目画素の周辺に位置する各周辺画素における、前記注目画素の画素値との差分値を算出し、前記算出した差分値の大きさに応じた値を重み値として設定する重み値算出部と、
前記周辺画素のそれぞれにおける画素値を、前記重み値算出部で設定された重み値の大きさに応じた割合で加算する画素加算部とを備えたことを特徴とする
画像信号処理装置。
An image signal processing apparatus for processing an image signal composed of a plurality of pixels,
A weight value calculation unit that calculates a difference value with the pixel value of the target pixel in each peripheral pixel located around the target pixel, and sets a value according to the magnitude of the calculated difference value as a weight value;
An image signal processing apparatus comprising: a pixel addition unit that adds pixel values in each of the peripheral pixels at a ratio corresponding to a weight value set by the weight value calculation unit.
複数の画素で構成される画像信号を処理する画像信号処理方法であって、
注目画素の周辺に位置する各周辺画素における、前記注目画素の画素値との差分値を算出し、前記算出した差分値の大きさに応じた値を重み値として設定する重み値算出ステップと、
前記周辺画素のそれぞれにおける画素値を、前記設定された重み値の大きさに応じた割合で加算する画素加算ステップとを有することを特徴とする
画像信号処理方法。
An image signal processing method for processing an image signal composed of a plurality of pixels,
A weight value calculating step of calculating a difference value with the pixel value of the target pixel in each peripheral pixel located around the target pixel, and setting a value according to the magnitude of the calculated difference value as a weight value;
An image signal processing method comprising: a pixel addition step of adding pixel values in each of the peripheral pixels at a rate corresponding to the set weight value.
JP2007329063A 2007-12-20 2007-12-20 Image signal processing circuit, image signal processing apparatus, and image signal processing method Pending JP2009152881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007329063A JP2009152881A (en) 2007-12-20 2007-12-20 Image signal processing circuit, image signal processing apparatus, and image signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007329063A JP2009152881A (en) 2007-12-20 2007-12-20 Image signal processing circuit, image signal processing apparatus, and image signal processing method

Publications (1)

Publication Number Publication Date
JP2009152881A true JP2009152881A (en) 2009-07-09

Family

ID=40921487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007329063A Pending JP2009152881A (en) 2007-12-20 2007-12-20 Image signal processing circuit, image signal processing apparatus, and image signal processing method

Country Status (1)

Country Link
JP (1) JP2009152881A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542637A (en) * 2010-09-14 2013-11-21 テールズ Optronic system with super hemispherical view

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542637A (en) * 2010-09-14 2013-11-21 テールズ Optronic system with super hemispherical view

Similar Documents

Publication Publication Date Title
JP4534756B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and recording medium
US11838649B2 (en) Image capturing device and control method thereof and medium
US8170345B2 (en) Imaging system, image processing method, and image processing program
US8102445B2 (en) Solid-state image-capturing apparatus, camera, and method of processing signal
JP4742652B2 (en) Imaging device
CN101394471A (en) Image processing device and digital video camera
US20140022419A1 (en) Image processing apparatus, image processing method, and program
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP5701640B2 (en) Image processing device
KR20140013891A (en) Image processing apparatus, image processing method, and solid-state imaging apparatus
US20140028880A1 (en) Image processing device, image processing method, program, and imaging apparatus
JP5743918B2 (en) Image processing device
US8165421B2 (en) Method and apparatus for image processing by using stored image
JPWO2006134923A1 (en) Image processing apparatus, computer program product, and image processing method
US9007494B2 (en) Image processing apparatus, method for controlling the same and storage medium
JP5451056B2 (en) Image processing apparatus and imaging apparatus
JP4679174B2 (en) Image processing apparatus and digital camera equipped with the image processing apparatus
JP5213604B2 (en) Imaging device
US10425602B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2009152881A (en) Image signal processing circuit, image signal processing apparatus, and image signal processing method
JP2010056817A (en) Imaging apparatus
JP5535443B2 (en) Image processing device
JP2008124653A (en) Image signal processing apparatus, image signal processing program, and image signal processing method
JP4973428B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2010200236A (en) Lateral noise correcting method