[go: up one dir, main page]

JP2001285641A - Image processing method, image processing apparatus and recording medium - Google Patents

Image processing method, image processing apparatus and recording medium

Info

Publication number
JP2001285641A
JP2001285641A JP2000098922A JP2000098922A JP2001285641A JP 2001285641 A JP2001285641 A JP 2001285641A JP 2000098922 A JP2000098922 A JP 2000098922A JP 2000098922 A JP2000098922 A JP 2000098922A JP 2001285641 A JP2001285641 A JP 2001285641A
Authority
JP
Japan
Prior art keywords
noise
image data
image
noise suppression
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000098922A
Other languages
Japanese (ja)
Other versions
JP4017312B2 (en
Inventor
Kimitoshi Nagao
公俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2000098922A priority Critical patent/JP4017312B2/en
Publication of JP2001285641A publication Critical patent/JP2001285641A/en
Application granted granted Critical
Publication of JP4017312B2 publication Critical patent/JP4017312B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method, an image processing apparatus and a recording medium that can suppress noise and emphasize sharpeness in a digital image without causing an unpleasant unevenness due to the noise and an unnatural artifact or the like. SOLUTION: Sharpness emphasis, smoothing and edge detection are applied to original image data, edge and noise intermingled image data of an object are obtained from the obtained sharpness emphasis image data and smoothed image data, a noise weighting coefficient is obtained from edge emphasis data obtained by the edge detection, noise data are obtained from the weighting coefficient and the intermingled image data, a noise suppression distribution function denoting the spread of noise suppression is set, convolution integral is applied to this function and the noise data to calculate the noise suppression distribution, a noise suppression component is obtained by multiplying the noise data with the noise suppression distribution and the component is magnified and subtracted from the sharpness emphasis image data to obtain processed image data so as to solve the tasks above.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル画像の粒
状等をはじめとするノイズ(雑音)成分を抑制し、かつ
シャープネス強調するデジタル画像の画像処理方法、装
置および記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital image processing method, apparatus, and recording medium for suppressing noise components such as granularity of a digital image and enhancing sharpness.

【0002】[0002]

【従来の技術】銀塩写真の画像を画像入力スキャナで走
査して収録したデジタル画像や、デジタルスチルカメラ
等で撮影したデジタル画像を画像処理し、画像出力プリ
ンタで出力するようなシステムでは、出力された画像は
スキャナやカメラとプリンタによる大幅なシャープネス
劣化があり、それを回復するために従来からラプラシア
ンフィルタやアンシャープマスク(USM)によるシャ
ープネス強調が行われている。しかし、画像のシャープ
ネスが向上すると共に粒状などのノイズ(雑音)が悪化
する副作用があるため、粒状などのノイズのある画像に
おいては粒状悪化が許容される範囲内で控え目なシャー
プネス強調しか行えず、原稿画像以上に画質を向上させ
ることが困難であった。
2. Description of the Related Art In a system in which a digital image obtained by scanning an image of a silver halide photograph by an image input scanner or a digital image photographed by a digital still camera or the like is processed and output by an image output printer, an output method is used. The sharpened image is greatly deteriorated by a scanner, a camera and a printer, and in order to recover the sharpness, sharpness enhancement has conventionally been performed by a Laplacian filter or an unsharp mask (USM). However, since the sharpness of the image is improved and the noise (noise) such as graininess is adversely affected, in an image having noise such as graininess, only a modest sharpness enhancement can be performed within a range where the graininess is allowed. It has been difficult to improve the image quality more than the original image.

【0003】デジタル画像において、ノイズとなる粒状
を除去しシャープネスを強調する画像処理法としては幾
つか提案されているが、粒状を除去する方法として平均
化したり、ぼかす方法を用いているため、ぼけた粒状パ
ターンが視覚的には不快に感じられたり、微小な被写体
構造が不自然に消されたりする等の問題点があり、写真
のような審美的な画像には適さない。
Some digital image processing methods have been proposed as image processing methods for removing graininess as noise and enhancing sharpness. However, since an averaging or blurring method is used as a method for removing graininess, blurring occurs. There is a problem that the granular pattern is visually uncomfortable or a minute subject structure is unnaturally erased, and is not suitable for an aesthetic image such as a photograph.

【0004】写真、印刷、テレビジョン、各種複写機等
の画像において、カメラ等の光学系による鮮鋭度劣化、
写真感光材料に固有の粒状や鮮鋭度劣化、もしくは写真
や印刷等の原稿画像を画像入力装置でデジタル化する際
に付加されるノイズ(雑音)や鮮鋭度劣化を回復するた
め、ノイズを抑制したり、シャープネスを強調する画像
処理法として種々の方法が考案されている。たとえば、
従来の画像処理方法では、粒状除去処理方法としては平
滑化やコアリングという方法が用いられ、シャープネス
強調処理法としてはアンシャープマスク(USM;Unsh
arp Masking)やラプラシアン、あるいはハイパスフィル
タによる処理が用いられている。しかし、これらの従来
の粒状除去処理方法では粒状を抑制すると不自然な違和
感のあるアーチィファクトが生じたり、本来は抑制して
はならない画像の微細構造を粒状と共に抑制してしまう
等の望ましくない欠点を有していた。
[0004] Degradation of sharpness due to an optical system such as a camera in images of photographs, prints, televisions, various copying machines, etc.
Noise is suppressed to recover the granularity and sharpness deterioration inherent in photographic photosensitive materials, or noise (noise) and sharpness deterioration added when digitizing original images such as photographs and prints with an image input device. And various methods have been devised as image processing methods for enhancing sharpness. For example,
In the conventional image processing method, a method called smoothing or coring is used as a grain removal processing method, and an unsharp mask (USM; Unsh
arp Masking), Laplacian, or high-pass filter processing. However, with these conventional grain removal processing methods, when graininess is suppressed, unnatural artifacts occur, or undesirable microstructures of the image that should not be suppressed are suppressed together with the graininess. Had disadvantages.

【0005】たとえば、特表昭57−500311号公
報、同57−500354号公報および「アンシャープ
で粒状の目立つ写真画像のデジタル強調方法」、電子画
像処理国際会議録、1982年7月、第179〜183
頁(P.G.Powell and B.E.Bayer, ``A Method for the D
igital Enhancement of Unsharp,Grainy Photographic
Images'' ,Proceedingus of the International Confer
ence on Electronic Image Processing,Jul.26-28,198
2,pp.179-183)に開示されたポーウェルおよびバイヤー
らの処理法では、粒状抑制方法として平滑化処理法(ロ
ーパスフィルタ)を用い、シャープネス強調方法として
アンシャープマスク(ハイパスフィルタ)による処理法
を用いている。平滑化処理はn×n画素の信号値にGaus
sian型等の重み付けを乗じて信号を平滑化することによ
って、粒状を抑制する処理である。シャープネス強調処
理は、先ずm×m画素の画像信号を用いて、中心画素か
ら周囲画素の方向の微分値を求め、その値が設定した閾
値より小さい場合は粒状や雑音と見做してコアリング処
理で除去し、残った閾値より大きい微分値の和をとり、
1.0以上の定数を乗じて上記の平滑化信号に加算する
ことによりシャープネス強調を行う。
For example, JP-T-57-500131 and JP-A-57-500354 and "Digital Enhancement Method of Unsharp, Granular, and Conspicuous Photographic Image", International Conference on Electronic Image Processing, July 1982, No. 179. ~ 183
Page (PG Powell and BEBayer, "A Method for the D
igital Enhancement of Unsharp, Grainy Photographic
Images '', Proceedingus of the International Confer
ence on Electronic Image Processing, Jul. 26-28,198
2, pp. 179-183), a processing method using a smoothing processing method (low-pass filter) as a graininess suppression method and an unsharp mask (high-pass filter) as a sharpness enhancement method. Is used. The smoothing process is performed by applying Gauss to the signal value of n × n pixels
This is a process of suppressing granularity by smoothing the signal by multiplying by a sian-type weight or the like. In the sharpness enhancement processing, first, a differential value in the direction from the center pixel to the surrounding pixels is obtained using an image signal of m × m pixels, and if the value is smaller than a set threshold, it is regarded as granular or noise and coring is performed. Removed by processing, take the sum of the differential value larger than the remaining threshold,
Sharpness enhancement is performed by multiplying the smoothed signal by a constant of 1.0 or more.

【0006】この処理法では、粒状パターンをぼかして
いるので、粒状パターンの濃淡コントラストは低下する
が、粒状を構成する粒子の大きな集落(粒状モトル)か
らなる大きいむらパターンが視覚的には目立つようにな
ったりするため、不快な粒状として見えるという欠点が
ある。また設定した閾値で粒状と画像の識別を行ってい
る(コアリング処理)ので、コントラストの低い画像信
号が粒状誤認され、粒状と共に抑制あるいは除去されて
しまったり、除去した信号と強調した画像信号との境界
で不連続性が生じ、画像に不自然なアーティファクトが
見られるという欠点がある。特に、芝生や絨毯等の微細
な画像、および布地等のテクスチャが描写されている画
像においてこの欠点が現れ、視覚的には極めて不自然で
望ましくないアーティファクトとなる。
In this processing method, since the granular pattern is blurred, the density contrast of the granular pattern is reduced, but a large uneven pattern made up of large settlements (granular mottle) of the particles constituting the granular pattern is visually noticeable. And has the disadvantage of appearing as unpleasant granules. Further, since the image is discriminated from the image with the set threshold value (coring processing), an image signal having a low contrast is misidentified as an image signal, and is suppressed or removed together with the image particle. Has the disadvantage that discontinuities occur at the boundary of the image and unnatural artifacts are seen in the image. In particular, this drawback appears in fine images such as lawns and carpets, and images in which textures such as cloth are depicted, resulting in visually very unnatural and undesirable artifacts.

【0007】[0007]

【発明が解決しようとする課題】ところで、上述した従
来の粒状抑制・シャープネス強調画像処理方法では、シ
ャープネスはアンシャープマスクで強調し、粒状はぼか
したり、平滑化によって抑制する手法を用い、原画像か
ら粒状(ノイズ)信号と輪郭信号を信号レベルで分離し
て、輪郭信号はシャープネス強調し、平滑領域は粒状抑
制することにより、小さい信号を粒状と見做して処理す
るので、粒状の信号レベルと近い画像細部信号、すなわ
ち衣類のテクスチャや頭髪等の画像信号が粒状と共に抑
制され、画像処理のアーティファクトとして視覚的に不
快な画像となる欠点があるという問題があった。すなわ
ち、このような従来法では、粒状抑制の方法として平均
化を用いて画像をぼかしており、ぼけた粒状パターン
(「ぼけ粒状」)は、画像における濃度の揺らぎとして
は小さくなって粒状が良くなったかのように見えるが、
逆に濃度揺らぎ量は小さいがぼけて広がった粒状パター
ンが視覚的には不快なパターンと認識され、特に、ポー
トレート写真等の顔や肌、あるいは壁や空等の一様な被
写体で目立つという問題があった。
By the way, in the above-mentioned conventional grain suppression / sharpness-enhanced image processing method, sharpness is enhanced by an unsharp mask, and graininess is blurred or reduced by smoothing. By separating the granular signal (noise) signal from the contour signal at the signal level, sharpening the contour signal and suppressing the graininess in the smooth region, the small signal is regarded as grainy and processed. However, there is a problem that image detail signals similar to the above, that is, image signals of clothing texture, hair, etc. are suppressed together with graininess, and there is a disadvantage that an image is visually uncomfortable as an image processing artifact. That is, in such a conventional method, an image is blurred using averaging as a method of suppressing graininess, and a blurred grain pattern (“blur grain”) becomes small as fluctuation of density in an image and graininess is improved. It looks like it's gone,
Conversely, a granular pattern that has a small density fluctuation but is blurred and spread is visually recognized as an unpleasant pattern, and is particularly noticeable in a uniform subject such as a face or skin such as a portrait photograph, or a wall or the sky. There was a problem.

【0008】また、原画像から粒状(雑音、ノイズ)領
域と輪郭領域を信号レベルで分離する従来法では、原画
像とぼけ画像の差分信号から輪郭領域と平坦領域を識別
し、それぞれの領域に対してアンシャープマスクやラプ
ラシアン等の異なる係数を用いて処理することによっ
て、平坦領域では粒状を抑制しつつ、輪郭領域ではシャ
ープネスを強調してエッジをぼかすことなく粒状抑制を
しているが、輪郭領域と粒状領域の認識・分離が閾値と
なる信号レベルで一律に行われるため、その境界で不連
続性が生じるという問題があった。さらに、このような
従来法では、エッジ強調あるいはシャープネス強調方法
としてアンシャープマスクやラプラシアンが用いられて
いるが、画像の輪郭・エッジ部にマッキーラインのよう
な縁取りが発生し易く、視覚的に不自然な印象を与える
という問題があった。このような粒状などのノイズの抑
制とシャープネス強調に関する問題は、銀塩写真に特有
の問題でなく、デジタルスチルカメラ等で画像を撮影す
る際にも、ショットノイズや電気的なノイズをはじめと
する種々のノイズの抑制とシャープネス強調の問題とし
て発生する。
In the conventional method of separating a granular (noise, noise) region and a contour region from an original image at a signal level, a contour region and a flat region are identified from a difference signal between the original image and the blurred image, and each region is identified. By using different coefficients such as unsharp mask and Laplacian to reduce graininess in flat areas, sharpness is enhanced in contour areas and graininess is suppressed without blurring edges in contour areas. In addition, since the recognition and separation of the granular region are uniformly performed at a signal level that is a threshold, there is a problem that discontinuity occurs at the boundary. Further, in such a conventional method, an unsharp mask or a Laplacian is used as an edge emphasis or sharpness emphasis method. There was a problem of giving a natural impression. Problems relating to suppression of noise such as graininess and sharpness enhancement are not problems unique to silver halide photography, but also include shot noise and electric noise when taking an image with a digital still camera or the like. It occurs as a problem of suppressing various noises and enhancing sharpness.

【0009】本発明は、上記従来技術の現状を鑑みてな
されたものであって、銀塩写真、デジタルスチルカメラ
画像、印刷、テレビジョン、各種複写機等の画像におい
て、カメラによるぼけ、写真感光材料の粒状やぼけ等の
原稿画像に固有のノイズ(雑音)と鮮鋭度劣化、もしく
はその原稿画像を画像入力装置でデジタル化する際に付
加されるノイズやデジタルスチルカメラで撮影する際の
ショットノイズと鮮鋭度劣化を回復する処理を行う際
に、上記従来技術の問題点、すなわち、平滑化によるノ
イズの抑制を行うとノイズがぼけて大きいむらが視覚的
に不快に見えるという問題点、コントラストの低い画像
信号が粒状、あるいはノイズと誤認され、抑制あるいは
除去される問題点、ノイズ除去領域とシャープネス強調
領域の境界が不連続になり画像に不自然なアーティファ
クトが見られるという問題点を生じさせずに、ノイズを
抑制し、画像のシャープネス強調を行うデジタル画像の
画像処理方法およびこれを実施する画像処理装置および
この方法を実施するコンピュータが読み取り可能な記録
媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned state of the art, and it has been proposed that blurs caused by a camera, photographic light-sensitive images, images of silver halide photographs, digital still camera images, printing, television, various copying machines, and the like can be obtained. Noise (noise) and sharpness degradation inherent in the original image such as graininess or blur of the material, or noise added when the original image is digitized by the image input device, or shot noise when photographing with a digital still camera When performing processing for recovering the sharpness degradation, the problem of the above-described conventional technology, that is, the problem that noise is suppressed by performing smoothing and large unevenness appears visually uncomfortable, The problem that low image signals are recognized as grainy or noise and are suppressed or removed, and the boundary between the noise removal area and the sharpness enhancement area is discontinuous An image processing method for a digital image that suppresses noise and enhances sharpness of an image without causing a problem that an unnatural artifact is seen in an image, an image processing apparatus that performs the method, and an image processing method that performs the method It is an object of the present invention to provide a computer-readable recording medium.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、原画像データにシャープネス強調処理を
行い、画像と共にこの画像中に含まれるノイズを鮮鋭化
したシャープネス強調画像データを作成し、前記原画像
データに平滑化処理を行って、平滑化画像データを作成
し、前記シャープネス強調画像データから前記平滑化画
像データを減算して、シャープネス強調された被写体画
像のエッジとシャープネス強調されたノイズとが混在す
る混在画像データを作成し、前記原画像データからエッ
ジ検出を行って被写体エッジ領域とノイズ領域を識別す
るためのエッジ強度データを求め、このエッジ強度デー
タからノイズ領域の度合いを示すノイズ領域の重み付け
係数を求め、前記混在画像データに、前記ノイズ領域の
重み付け係数を乗じて、ノイズデータを求め、前記原画
像データにおけるノイズ抑制の広がりを表すノイズ抑制
分布関数を設定し、前記ノイズデータとこのノイズ抑制
分布関数との畳み込み積分を行ってノイズ抑制分布を求
め、前記ノイズデータに前記ノイズ抑制分布を乗算する
ことによって、ノイズ抑制成分画像データを算出し、前
記シャープネス強調画像データから前記ノイズ抑制成分
画像データを変倍して減算することによって、原画像の
ノイズ領域におけるノイズ成分を選択的に抑制した画像
を作成することを特徴とするデジタル画像のノイズ抑制
のための画像処理方法を提供するものである。
In order to achieve the above-mentioned object, the present invention provides a sharpness-enhanced image data in which original image data is subjected to sharpness enhancement processing and an image is sharpened with noise contained in the image. Then, a smoothing process is performed on the original image data to create smoothed image data, and the smoothed image data is subtracted from the sharpness-enhanced image data to perform sharpness-enhanced edge and sharpness-enhanced subject image. Mixed image data in which mixed noise is mixed, edge detection is performed from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region, and the degree of the noise region is determined from the edge intensity data. A weighting coefficient for the noise region shown is obtained, and the mixed image data is multiplied by the weighting coefficient for the noise region. Noise data, a noise suppression distribution function indicating the extent of noise suppression in the original image data is set, and convolution integration of the noise data and the noise suppression distribution function is performed to obtain a noise suppression distribution. The noise suppression component image data is calculated by multiplying the data by the noise suppression distribution, and the noise suppression component image data is scaled and subtracted from the sharpness-enhanced image data to reduce noise in the noise region of the original image. An object of the present invention is to provide an image processing method for suppressing noise in a digital image, which is characterized in that an image in which components are selectively suppressed is created.

【0011】ここで、前記ノイズ抑制分布関数は、原画
像の画素における、ノイズ抑制の広がりの中心位置にお
いて値が最大であり、この中心位置から離れるに従って
値が小さくなる単調減少関数であるのが好ましく、ある
いは、前記ノイズ抑制分布関数は、原画像の画素におけ
るノイズ抑制を及ぼす範囲において一定の値を持つ矩形
関数であるのが好ましい。
Here, the noise suppression distribution function is a monotonically decreasing function in which the value is maximum at the center position of the noise suppression spread in the pixels of the original image, and the value decreases as the distance from the center position increases. Preferably, or preferably, the noise suppression distribution function is a rectangular function having a constant value within a range in which noise suppression is performed on pixels of the original image.

【0012】また、前記ノイズ抑制分布関数の、原画像
の画素における前記ノイズ抑制を及ぼす範囲は、画素数
で1以上15以下の範囲の領域であるのが好ましく、ま
た、前記ノイズ抑制分布関数は、原画像の画素における
ノイズ抑制を及ぼす範囲の境界の位置とこの位置での値
を定めることによって設定されるのが好ましい。
Preferably, the range of the noise suppression distribution function that exerts the noise suppression on the pixels of the original image is an area in the range of 1 to 15 in terms of the number of pixels. It is preferable to set the value by determining the position of the boundary of the range where the noise is suppressed in the pixels of the original image and the value at this position.

【0013】前記ノイズ抑制分布関数は、rを原画像の
画素におけるノイズ抑制の広がりの中心位置からの距
離、aを原画像の画素におけるノイズ抑制の広がりの範
囲を定める抑制範囲定数とするとき、下記式(1)で表
される関数s(r)であるのが好ましく、 s(r)= exp(−r/a) (1) s(r)= exp(−r2 /a2 ) (2) s(r)= rect(r/a) (3) ここで、式(3)のrect(r/a)は、値が1の矩
形関数である。
In the noise suppression distribution function, when r is the distance from the center position of the noise suppression spread in the pixels of the original image, and a is the suppression range constant that determines the range of the noise suppression spread in the pixels of the original image, It is preferably a function s (r) represented by the following equation (1): s (r) = exp (−r / a) (1) s (r) = exp (−r 2 / a 2 ) ( 2) s (r) = rect (r / a) (3) Here, “rect (r / a)” in Expression (3) is a rectangular function having a value of “1”.

【0014】さらに、上記目的を達成するために、本発
明は、原画像データにシャープネス強調処理を行い、画
像と共にこの画像中に含まれるノイズを鮮鋭化したシャ
ープネス強調画像データを作成するシャープネス強調処
理部と、前記原画像データに平滑化処理を行って、平滑
化画像データを作成する平滑化処理部と、前記シャープ
ネス強調画像データから前記平滑化処理部で作成した前
記平滑化画像データを減算して、シャープネス強調され
た被写体画像のエッジとシャープネス強調されたノイズ
とが混在する混在画像データを作成するエッジ・ノイズ
混在成分抽出部と、前記原画像データからエッジ検出を
行って被写体エッジ領域とノイズ領域を識別するための
エッジ強度データを求めるエッジ検出部と、このエッジ
検出部で求めたエッジ強度データからノイズ領域の度合
いを示すノイズ領域の重み付け係数を求めるノイズ領域
重み係数演算部と、前記エッジ・ノイズ混在成分抽出部
で作成した前記混在画像データに、前記ノイズ領域重み
係数演算部で求めた前記ノイズ領域の重み付け係数を乗
じて、ノイズデータを求めるノイズ成分識別分離部と、
前記原画像データにおけるノイズ抑制の広がりを表すノ
イズ抑制分布関数を設定するノイズ抑制分布関数設定部
と、前記ノイズ成分識別分離部で求めた前記ノイズデー
タと前記ノイズ抑制分布関数設定部で設定した前記ノイ
ズ抑制分布関数との畳み込み積分を行ってノイズ抑制分
布を求めるノイズ抑制分布演算部と、このノイズ抑制分
布演算部において求められた前記ノイズ抑制分布を前記
ノイズ成分識別分離部で求めた前記ノイズデータに乗算
することによって、ノイズ抑制成分画像データを算出す
るノイズ抑制成分演算部と、前記シャープネス強調画像
データから前記ノイズ抑制成分演算部で算出した前記ノ
イズ抑制成分画像データを変倍して減算して処理画像デ
ータを求めるノイズ抑制演算処理部とを有することを特
徴とするデジタル画像のノイズ抑制のための画像処理装
置を提供するものである。
Further, in order to achieve the above object, the present invention provides a sharpness enhancement process for performing sharpness enhancement processing on original image data and creating sharpness enhanced image data in which noise included in the image is sharpened together with the image. And a smoothing processing unit that performs smoothing processing on the original image data to create smoothed image data, and subtracts the smoothed image data created by the smoothing processing unit from the sharpness enhanced image data. An edge / noise mixed component extraction unit that creates mixed image data in which the edges of the sharpness-enhanced subject image and the sharpness-enhanced noise are mixed; and performs edge detection from the original image data to obtain a subject edge region and noise. An edge detecting section for obtaining edge intensity data for identifying a region, and an edge detecting section for obtaining the edge intensity data. A noise region weighting coefficient calculation unit for obtaining a noise region weighting coefficient indicating the degree of the noise region from the intensity data, and the mixed image data created by the edge / noise mixed component extraction unit, the noise region weighting coefficient calculation unit Multiplying the obtained noise area weighting coefficient, noise component identification and separation unit to obtain noise data,
A noise suppression distribution function setting unit that sets a noise suppression distribution function that represents the extent of noise suppression in the original image data, and the noise data that is determined by the noise component identification and separation unit and the noise suppression distribution function that is set by the noise suppression distribution function setting unit. A noise suppression distribution calculation unit for performing convolution integration with a noise suppression distribution function to obtain a noise suppression distribution; and the noise data obtained by the noise component identification / separation unit to obtain the noise suppression distribution obtained by the noise suppression distribution calculation unit By multiplying the noise suppression component image data, the noise suppression component image data calculated by the noise suppression component calculation unit from the sharpness enhanced image data is subtracted by scaling. A noise suppression arithmetic processing unit for obtaining processed image data. There is provided an image processing apparatus for image noise suppression.

【0015】また、上記目的を達成するために、本発明
は、原画像データにシャープネス強調処理を行い、画像
と共にこの画像中に含まれるノイズを鮮鋭化したシャー
プネス強調画像データを作成する手順と、前記原画像デ
ータに平滑化処理を行って、平滑化画像データを作成す
る手順と、前記シャープネス強調画像データから前記平
滑化画像データを減算して、シャープネス強調された被
写体画像のエッジとシャープネス強調されたノイズとが
混在する混在画像データを作成する手順と、前記原画像
データからエッジ検出を行って被写体エッジ領域とノイ
ズ領域を識別するためのエッジ強度データを求める手順
と、前記エッジ強度データからノイズ領域の度合いを示
すノイズ領域の重み付け係数を求める手順と、前記混在
画像データに、前記ノイズ領域の重み付け係数を乗じ
て、ノイズデータを求める手順と、前記原画像データに
おけるノイズ抑制の広がりを表すノイズ抑制分布関数を
設定し、前記ノイズデータとこのノイズ抑制分布関数と
の畳み込み積分を行ってノイズ抑制分布を求める手順
と、前記ノイズデータに前記ノイズ抑制分布を乗算する
ことによって、ノイズ抑制成分画像データを算出する手
順と、前記シャープネス強調画像データから、前記ノイ
ズ抑制成分画像データを変倍して減算する手順をコンピ
ュータに実行させて、原画像のノイズ領域におけるノイ
ズ成分を選択的に抑制した画像を作成することを特徴と
するプログラムを記録したコンピュータが読み取り可能
な記録媒体を提供するものである。
Further, in order to achieve the above object, the present invention provides a procedure for performing sharpness enhancement processing on original image data and creating sharpness enhanced image data in which noise included in the image is sharpened together with the image. Performing a smoothing process on the original image data to create smoothed image data, and subtracting the smoothed image data from the sharpness-enhanced image data to perform sharpness-enhanced edge and sharpness-enhanced subject image. Generating mixed image data containing mixed noise and noise, a step of performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region, and a process of generating noise from the edge intensity data. A procedure for obtaining a weighting coefficient of the noise area indicating the degree of the area; and A procedure for obtaining noise data by multiplying the noise area by a weighting coefficient, setting a noise suppression distribution function representing the extent of noise suppression in the original image data, and performing convolution integration of the noise data and the noise suppression distribution function. Calculating the noise suppression component image data by multiplying the noise data by the noise suppression distribution, and scaling the noise suppression component image data from the sharpness enhanced image data. And providing a computer-readable recording medium having recorded thereon a program for causing a computer to execute a procedure of subtraction and subtraction to create an image in which noise components in a noise region of an original image are selectively suppressed. It is.

【0016】ここで、上記ノイズとは、銀塩感光材料を
用いた写真用フィルム等をフィルムスキャナを用いて読
み取って得られる画像データに含まれる、感光材の粒子
に起因する粒状のみならず、銀塩感光材料を用いること
なくディジタルスチルカメラ等のCCDやMOS等の撮
像素子および種々の撮像管を用いて得られる画像データ
に含まれるノイズも広く含む。
Here, the noise means not only the granularity caused by the particles of the photosensitive material included in the image data obtained by reading a photographic film or the like using a silver halide photosensitive material with a film scanner, but also Noises included in image data obtained by using an image pickup device such as a CCD or a MOS such as a digital still camera without using a silver halide photosensitive material and various image pickup tubes are also widely included.

【0017】上記発明は、 ・原画像からエッジを検出し、エッジ強度を求め、エッ
ジ強度の弱い領域はノイズ領域と見做し、ノイズ領域を
エッジ領域から分割するためのノイズ領域の重み付け係
数を算出し、 ・原画像からシャープネス強調画像および平滑化画像を
作成し、シャープネス強調画像から平滑化画像を減算す
ることにより、シャープネス強調されたエッジとシャー
プネス強調されたノイズの混在成分を求め、 ・ノイズ領域の重み付け係数をエッジとノイズの混在成
分に乗算して求めたノイズ成分から、ノイズ抑制分布関
数を用いてノイズ抑制分布を求め、このノイズ抑制分布
と上記ノイズ成分とからノイズ抑制成分を求め、 ・シャープネス強調画像からノイズ抑制成分を減算する
ことによって、例えば、原画像データが銀塩感光材料を
用いた写真用フィルム等からフィルムスキャナを用いて
読み取られた場合、感光材料の粒子の大きな集落であ
り、ノイズ成分を形成する粒状モトルがより大きい(粒
状が粗い)部分では粒状を強く抑制し、粒状モトルの小
さい部分では粒状を弱く抑制するか、あるいは抑制す
る。これによって、粒状等のノイズの揺らぎを抑制、均
一化することができ、画像のノイズ領域において粒状モ
トル等の空間的に大きく揺らぐ部分が選択的に抑制され
た画質の良い画像を得ることができる。原画像データが
デジタルスチルカメラ等の撮像素子を用いて撮影されて
得られた場合、入射光のフォトン揺らぎや、撮像素子中
の1個1個の光センサの固有のノイズ、あるいは電気回
路で発生する熱雑音(ノイズ)、量子化ノイズ等の種々
のノイズが画像中で画素単位の信号、あるいは濃度揺ら
ぎとなって現れるが、ノイズ揺らぎが空間的には疎の部
分や密の部分が生じ、銀塩感光材料の粒状モトルと同様
に、ノイズモトルを形成しているので、ノイズモトルの
大きいところは強く抑制し、ノイズモトルの小さいとこ
ろは弱く抑制することによって、ノイズを均一化するこ
とができ、画質の良い画像を得ることができる。
According to the invention, an edge is detected from an original image, an edge strength is obtained, an area having a low edge strength is regarded as a noise area, and a weight coefficient of a noise area for dividing the noise area from the edge area is determined. Calculating the sharpness-enhanced image and the smoothed image from the original image, and subtracting the smoothed image from the sharpness-enhanced image to obtain a mixed component of the sharpness-enhanced edge and the sharpness-enhanced noise; From the noise component obtained by multiplying the mixed component of the edge and the noise by the weighting coefficient of the area, a noise suppression distribution is obtained using a noise suppression distribution function, and a noise suppression component is obtained from the noise suppression distribution and the noise component. By subtracting the noise suppression component from the sharpness enhanced image, for example, the original image data When read with a film scanner from a photographic film or the like made of a material, the particles are large settlements of the photosensitive material, and the granular mottle that forms the noise component is greatly suppressed in the part where the granular mottle is large (coarse). In a small portion of the granular mottle, the granularity is weakly suppressed or suppressed. Thereby, fluctuation of noise such as graininess can be suppressed and made uniform, and a high-quality image can be obtained in which a spatially fluctuating portion such as a granular mottle is selectively suppressed in a noise region of the image. . When the original image data is obtained by photographing using an image sensor such as a digital still camera, the photon fluctuation of the incident light, the inherent noise of each optical sensor in the image sensor, or an electric circuit is generated. Various noises such as thermal noise (noise) and quantization noise appear as pixel-wise signals or density fluctuations in the image, but the noise fluctuations are spatially sparse or dense, and Like the granular mottle of the silver halide photosensitive material, it forms a noise mottle, so that the noise mottle is strongly suppressed and the noise mottle is weakly suppressed, so that the noise can be made uniform and the image quality can be improved. Good images can be obtained.

【0018】すなわち、本発明のノイズ抑制の画像処理
方法では、ノイズ成分を識別し、そのノイズ成分中のノ
イズモトル等のように大きく粗いノイズをより強く抑制
し、ノイズの小さいものを弱く抑制するか抑制しないよ
うな処理を行うことによって、ノイズによる画像濃度の
変動を小さく均一にする(揺らぎの大きさのばらつきを
小さくする)処理を行う。ノイズ成分が粒状成分である
場合、粒状パターンを、従来のように平滑化処理を行う
ものでなく、大きな粒状モトルを目立たなくするので、
銀塩写真感材で微粒子乳剤を用いた時に得られるような
細かい粒状(空間的に細かく、かつ振幅も小さく粒状)
にすることができる。
That is, in the image processing method for noise suppression according to the present invention, a noise component is identified, and a large and coarse noise such as a noise mottle in the noise component is more strongly suppressed, and a small noise is weakly suppressed. By performing a process that does not suppress the noise, a process of making the fluctuation of the image density due to the noise small and uniform (reducing the variation in the magnitude of the fluctuation) is performed. When the noise component is a granular component, the granular pattern is not subjected to a smoothing process as in the past, and a large granular mottle is made inconspicuous.
Fine granularity (finely spatially granular with small amplitude) as obtained when using a fine grain emulsion in a silver halide photographic material
Can be

【0019】[0019]

【発明の実施の形態】以下、本発明の画像処理方法を実
施する画像処理装置について、添付の図面に示される好
適実施例を基に詳細に説明する。本発明における「ノイ
ズ」は、上述したように雑音全般を指す。また、「ノイ
ズ」は、デジタルスチルカメラ等の電子的撮像系では単
にノイズと言うが、銀塩写真感光材料においてはノイズ
というより、粒状と言うのが一般的である。従って、以
降の説明で、特に銀塩写真感光材料を例として説明する
場合、「ノイズ」に替えて「粒状」を用いる。また、後
述する「ノイズモトル」は、デジタルスチルカメラ等の
電子的撮像系においてノイズ揺らぎが空間的に密な部分
を形成するノイズモトルの他、銀塩写真感光材料におけ
る粒状モトルも含む。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus for carrying out the image processing method of the present invention will be described in detail based on a preferred embodiment shown in the accompanying drawings. “Noise” in the present invention refers to noise in general as described above. Further, "noise" is simply referred to as noise in an electronic imaging system such as a digital still camera, but is generally referred to as granular rather than noise in silver halide photographic materials. Therefore, in the following description, particularly when a silver halide photographic material is described as an example, "granular" is used instead of "noise". The "noise motor" described later includes a granular motor in a silver halide photographic material, in addition to a noise motor in which a noise fluctuation forms a spatially dense portion in an electronic imaging system such as a digital still camera.

【0020】図1は、本発明に係る画像処理装置を組み
込んだシステムであって、カラー画像を読み取り、本発
明の画像処理方法を行い、カラー画像を出力するカラー
画像再生システムのブロック図である。図2は、本発明
に係る画像処理方法を実施する画像処理装置の一実施例
のブロック図である。図3は、本発明の画像処理方法の
処理アルゴリズムの一例を示すフローチャートである。
以下の説明では、デジタル画像として銀塩カラー写真画
像から得られる画像データを代表例として説明する。
FIG. 1 is a block diagram of a color image reproducing system which incorporates an image processing apparatus according to the present invention, reads a color image, performs the image processing method of the present invention, and outputs a color image. . FIG. 2 is a block diagram of an embodiment of an image processing apparatus that performs the image processing method according to the present invention. FIG. 3 is a flowchart illustrating an example of a processing algorithm of the image processing method according to the present invention.
In the following description, image data obtained from a silver halide color photographic image as a digital image will be described as a representative example.

【0021】図1に示すように、カラー画像再生システ
ム10は、カラー写真画像(カラーネガフィルム、カラ
ーリバーサルフィルムなどのフィルム画像などやデジタ
ルカメラ等の撮影画像)などのカラー画像を読み取って
デジタル入力画像データを得る画像入力装置12と、画
像入力装置12から入力される入力画像データに所要の
画像処理とともに本発明のデジタル画像のノイズ抑制お
よびシャープネス強調のための画像処理を施して、処理
画像データI1 を得る画像処理装置14と、画像処理装
置14から出力される処理画像データI1 に基づいてプ
リント画像などのカラー画像を出力する画像出力装置1
6とを備える。
As shown in FIG. 1, a color image reproducing system 10 reads a color image such as a color photographic image (a film image of a color negative film, a color reversal film or the like, or a photographed image of a digital camera or the like) and reads a digital input image. An image input device 12 for obtaining data, and input image data input from the image input device 12 are subjected to image processing for noise suppression and sharpness enhancement of a digital image according to the present invention together with required image processing to obtain processed image data I. And an image output device 1 that outputs a color image such as a print image based on the processed image data I 1 output from the image processing device 14.
6 is provided.

【0022】画像入力装置12は、デジタルカラー画像
データを作成して、画像処理装置14への入力画像デー
タとして出力するためのもので、例えば、カラー(また
はモノクロ)ネガフィルムやカラー(またはモノクロ)
リバーサルフィルムなどのカラーフィルム画像を読み取
ってデジタル画像データを作成するフィルムスキャナ装
置、印刷物や反射プリント画像などのカラー反射原稿画
像を読み取ってデジタル画像データを作成する反射原稿
用スキャナ装置が挙げられる。なお、本発明において
は、被写体を直接撮影してデジタル画像データを作成す
るデジタルカメラや電子スチルカメラやビデオカメラ、
もしくは、これらで作成されたデジタル画像データを格
納した記録媒体、例えば、スマートメディア、メモリー
ステック、PCカードなどの半導体メモリーやFD、Z
ipなどの磁気記録媒体やMO、MDなどの光磁気記録
媒体やCD−ROM、Photo−CDなどの光記録媒
体などをドライブしてデジタル画像データとして読み出
すドライバ、これらのデジタル画像データを読み込んで
ソフトコピー画像を表示するCRTモニタ、液晶モニタ
などの表示装置、および読み込んだもしくは表示された
デジタル画像データを全体的にもしくは部分的に画像処
理する画像処理用PC、WSなどのコンピュータなどで
あってもよい。
The image input device 12 creates digital color image data and outputs it as input image data to the image processing device 14. For example, a color (or monochrome) negative film or a color (or monochrome)
There are a film scanner device that reads digital color film images such as reversal films and creates digital image data, and a scanner device for reflective original documents that reads color reflective original images such as printed matter and reflection print images to create digital image data. Note that, in the present invention, a digital camera, an electronic still camera, a video camera,
Alternatively, a recording medium storing digital image data created by the above, for example, a semiconductor memory such as a smart media, a memory stick, a PC card, or an FD, Z
A driver that drives a magnetic recording medium such as an ip, a magneto-optical recording medium such as an MO or MD, or an optical recording medium such as a CD-ROM or a Photo-CD and reads the digital image data as a digital image data. A display device such as a CRT monitor or a liquid crystal monitor that displays a copied image, a computer such as a PC for image processing that performs image processing of the read or displayed digital image data entirely or partially or a computer such as a WS may be used. Good.

【0023】画像出力装置16は、最終処理画像データ
として画像処理装置14から出力される処理画像データ
1 に基づいて、カラー写真画像などのカラー入力画像
が再現されたカラー画像を出力するためのもので、反射
プリント画像や反射原稿画像などのカラーハードコピー
画像を出力するデジタルフォトプリンタや複写機や電子
写真、レーザプリンタ、インクジェット、熱昇華型、T
Aなどの種々の方式のデジタルカラープリンタなどの画
像出力装置、ソフトコピー画像として表示するTV、C
RTモニタ、液晶モニタ等の表示装置やPCやWSなど
のコンピュータなどを挙げることができる。
The image output device 16 is for outputting a color image in which a color input image such as a color photographic image is reproduced, based on the processed image data I 1 output from the image processing device 14 as the final processed image data. Digital photo printers, copiers, electrophotographs, laser printers, inkjets, thermal sublimation type, T
Image output devices such as digital color printers of various types such as A, TV and C for displaying as soft copy images
Display devices such as an RT monitor and a liquid crystal monitor, and computers such as a PC and a WS can be used.

【0024】画像処理装置14は、画像入力装置12か
らの入力画像データの色および調子(階調)を画像出力
装置16に所望の色および調子再現で出力するために調
整処理して原画像データIO を作成する色・調子処理部
18と、この色・調子処理部18によって処理された原
画像データIO に本発明の最も特徴とする部分であっ
て、本発明のデジタル画像のノイズ抑制およびシャープ
ネス強調のための画像処理方法を実施して処理画像デー
タI1 を作成するノイズ抑制・シャープネス強調画像処
理部20と、色および調子再現性が調整された画像デー
タに基づいて再生画像を表示する画像モニタおよび種々
の所要の画像処理や本発明の画像処理を行うためのパラ
メータを設定する画像処理パラメータ設定部からなる画
像モニタ・画像処理パラメータ設定部22とを有する。
The image processing device 14 adjusts the color and tone (gradation) of the input image data from the image input device 12 to output it to the image output device 16 in a desired color and tone reproduction. The color / tone processing unit 18 for creating IO and the original image data IO processed by the color / tone processing unit 18 are the most characteristic part of the present invention, and are the noise suppression of the digital image of the present invention. display and noise suppression, sharpness enhancement image processing unit 20 to create an image processing method implemented processed image data I 1 for sharpness enhancement, the reproduced image based on the image data color and tone reproducibility is adjusted Image monitor and image processing unit comprising an image processing parameter setting unit for setting parameters for performing various required image processing and image processing of the present invention. And a meter setting section 22.

【0025】ここで、色・調子処理部18は、画像入力
装置12から入力される入力画像データの色および調子
(階調)の再現性を画像出力装置16において適正に再
現されるように色変換または色補正(階調変換または補
正も含む)を行って、本発明の画像処理方法を実施する
ための原画像データIO を作成するものであり、ここで
行われる処理としては、例えば、色(グレイ)変換や補
正、階調補正、濃度(明るさ)補正、彩度補正、倍率変
換、濃度ダイナミックレンジの圧縮・伸長などの種々の
処理を挙げることができる。
Here, the color / tone processing section 18 performs color reproduction so that the reproducibility of the color and tone (gradation) of the input image data input from the image input device 12 is appropriately reproduced in the image output device 16. Conversion or color correction (including gradation conversion or correction) is performed to create original image data I O for performing the image processing method of the present invention. Examples of processing performed here include, for example, Examples include various processes such as color (gray) conversion and correction, gradation correction, density (brightness) correction, saturation correction, magnification conversion, and compression / expansion of a density dynamic range.

【0026】画像モニタ・画像処理パラメータ設定部2
2は、画像モニタおよび画像処理パラメータ設定部から
なり、画像モニタに画像入力装置12から入力された入
力画像データに基づいて入力画像を表示するとともに、
この画像モニタを用いて(例えばGUIなどによって)
入力画像データに色・調子処理部18および本発明の画
像処理方法を実施するためのノイズ抑制画像処理部20
で行う各種の画像処理のパラメータを図示しないマウス
やキーボードなどのデータ入力機によって設定するため
のものである。ここで、設定されるパラメータは、上述
した各種の処理に用いられる補正係数、変換係数、倍率
などや後に詳細に説明する本発明の画像処理方法を実施
する上で必要となる様々な係数や定数などを挙げること
ができる。
Image monitor / image processing parameter setting unit 2
2 includes an image monitor and an image processing parameter setting unit, and displays an input image on the image monitor based on input image data input from the image input device 12,
Using this image monitor (for example, by GUI)
A color / tone processing unit 18 for input image data and a noise suppression image processing unit 20 for implementing the image processing method of the present invention
Are used to set parameters of various image processing performed by a data input device such as a mouse or a keyboard (not shown). Here, parameters to be set include correction coefficients, conversion coefficients, magnifications, and the like used in the above-described various processes, and various coefficients and constants necessary for implementing the image processing method of the present invention described in detail later. And the like.

【0027】本発明の画像処理方法を実施するノイズ抑
制画像処理部(以下、単に本画像処理部という)20
は、色・調子処理部18で作成された原画像データIO
に本発明の特徴とするノイズ抑制とシャープネス強調の
画像処理を行って、画像出力装置16に出力するための
最終処理画像データである処理画像データI1 を作成す
るためのものである。
A noise-suppressed image processing unit (hereinafter, simply referred to as the present image processing unit) 20 for implementing the image processing method of the present invention.
Is the original image data I O created by the color / tone processing unit 18
To perform image processing of the noise suppression and sharpness enhancement, which is a feature of the present invention is intended to create a processed image data I 1 is the final processed image data to be output to the image output device 16.

【0028】ここで、本画像処理部20は、図2に示す
ように、原画像データIO にシャープネス強調処理を行
って、画像とともにこの画像中に含まれる粒状をはじめ
とするノイズ(雑音)をも鮮鋭化したシャープネス強調
画像データIS を作成するシャープネス強調処理部24
と、原画像データIO に平滑化処理を行って、平滑化画
像データIAVを作成する平滑化処理部26と、原画像デ
ータI0 から平滑化画像データIAVを減算して、被写体
画像のエッジとノイズとが混在する混在画像データΔI
EGを作成するエッジ・ノイズ混在成分抽出部28と、原
画像データIOから被写体画像のエッジ検出を行って、
被写体エッジ領域とノイズ領域とを識別するためのエッ
ジ強度データEO を求めるエッジ検出部30と、このエ
ッジ強度データEO からノイズ領域の重み付け係数WG
を求めるノイズ領域重み係数演算部32と、エッジ・ノ
イズ混在成分抽出部28で得られた混在画像データΔI
EGにノイズ重み係数演算部32で求められたノイズ領域
の重み付け係数WG を乗じて、ノイズ領域のノイズデー
タG0 を求めるノイズ成分識別分離部34と、原画像デ
ータIO におけるノイズ抑制の広がりを表すノイズ抑制
分布関数s1 を演算して設定するノイズ抑制分布関数設
定部36と、ノイズ成分識別分離部34で求めたノイズ
データG0 とノイズ抑制分布関数設定部36で設定した
ノイズ抑制分布関数s1 との畳み込み積分を行ってノイ
ズモトル抑制分布(本発明におけるノイズ抑制分布に相
当)Mを演算して求めるノイズモトル抑制分布演算部
(本発明におけるノイズ抑制分布演算部に相当)38
と、ノイズモトル抑制分布演算部38で求められたノイ
ズモトル抑制分布Mをノイズ成分識別分離部34で求め
たノイズデータG0 に乗算することによって、ノイズ抑
制成分画像データG1 を算出するノイズ抑制成分演算部
40と、ノイズ抑制成分演算部40で算出されたノイズ
抑制成分画像データG1 を変倍してシャープネス強調処
理部24で求められたシャープネス強調画像データIS
から減算し、画像出力装置16に適した処理画像データ
1 に変換するノイズ抑制演算処理部42とを有する。
Here, as shown in FIG. 2, the main image processing section 20 performs a sharpness enhancement process on the original image data I O , and also includes noise (noise) including granularity included in the image together with the image. also creating a sharpened the sharpness enhanced image data I S sharpness enhancement unit 24
When, by performing a smoothing process on the original image data I O, the smoothing processing unit 26 to create a smoothed image data I AV, by subtracting the smoothed image data I AV from the original image data I 0, the object image Image data ΔI in which edges and noise are mixed
An edge / noise mixed component extraction unit 28 for creating an EG and an edge detection of a subject image from the original image data IO are performed.
An edge detecting section 30 for obtaining the edge intensity data E O for identifying the object edge region and the noise region, the weighting factor of the noise region from the edge intensity data E O W G
And the mixed image data ΔI obtained by the mixed edge / noise component extraction unit 28
Multiplied by the weighting coefficient W G of the noise region determined by the noise weighting factor calculation unit 32 in EG, a noise component identifying separator unit 34 for obtaining the noise data G 0 of the noise region, the spread of noise suppression in the original image data I O A noise suppression distribution function setting unit 36 that calculates and sets a noise suppression distribution function s 1 representing the noise suppression distribution function s 1 , the noise data G 0 obtained by the noise component identification / separation unit 34, and the noise suppression distribution set by the noise suppression distribution function setting unit 36. Noise mottle suppression distribution calculation unit (corresponding to the noise suppression distribution calculation unit in the present invention) 38 which is obtained by calculating a noise motor suppression distribution (corresponding to the noise suppression distribution in the present invention) M by performing convolution integration with the function s 1.
Multiplying the noise data G 0 obtained by the noise component identification / separation unit 34 by the noise mottle suppression distribution M obtained by the noise mottle suppression distribution calculation unit 38, thereby calculating the noise suppression component image data G 1. Unit 40 and the sharpness enhanced image data I S obtained by the sharpness enhancement processing unit 24 by scaling the noise suppression component image data G 1 calculated by the noise suppression component calculation unit 40.
And a noise suppression arithmetic processing unit 42 for converting the image data into the processed image data I 1 suitable for the image output device 16.

【0029】図2に示すノイズ抑制・シャープネス強調
画像処理部20は、基本的に以上のように構成される。
次に、図3に示す本発明の画像処理方法の処理アルゴリ
ズムを示すフローチャートを参照しながら、本処理部2
0の作用に基づいて、本発明の画像処理方法を概説す
る。
The noise suppression / sharpness enhanced image processing section 20 shown in FIG. 2 is basically configured as described above.
Next, referring to the flowchart shown in FIG. 3 showing the processing algorithm of the image processing method of the present invention,
The image processing method of the present invention will be outlined based on the operation of 0.

【0030】本実施例においては、図3に示すように、
画素毎に先ず、原画像データIO から、シャープネス強
調処理部24においてシャープネス強調処理を行い(ス
テップ100)、シャープネス強調画像データIS
得、平滑化処理部26において平滑化処理を行い(ステ
ップ102)、平滑化画像データIAVを得、エッジ・ノ
イズ混在成分抽出部28においてシャープネス強調され
鮮鋭化されたエッジとノイズとの混在した混在画像デー
タΔIEGを抽出する(ステップ104)。
In this embodiment, as shown in FIG.
First, each pixel from the original image data I O, performs sharpness enhancement in sharpness enhancement unit 24 (step 100) to obtain a sharpness enhanced image data I S, performs smoothing processing in the smoothing processing unit 26 (step 102), the smoothed image data I AV is obtained, and the mixed image data ΔI EG in which the sharpness-enhanced edge and noise are mixed is extracted in the edge / noise mixed component extraction unit 28 (step 104).

【0031】一方、エッジ検出部30において原画像デ
ータIO から被写体エッジ領域とノイズ領域とを識別す
るためのエッジ強度データEO を求めてエッジ検出を行
い(ステップ106)、ノイズ領域重み係数演算部32
において、ノイズ領域の重み付け係数WG を計算して求
める(ステップ108)。さらに、ノイズ成分識別分離
部34において、ノイズデータの識別・分離を行う(ス
テップ110)。すなわち、混在画像データΔIEGに、
ノイズ重み係数演算部32で求められたノイズ領域の重
み付け係数WG を乗じて、ノイズデータG 0 を求める。
On the other hand, the edge detection unit 30
Data IOFrom the object edge area and the noise area
Strength data E forOEdge detection
(Step 106), the noise area weighting coefficient calculation unit 32
, The weighting coefficient W of the noise regionGTo calculate
(Step 108). In addition, noise component identification and separation
The unit 34 identifies and separates noise data (scan
Step 110). That is, the mixed image data ΔIEGTo
The weight of the noise area calculated by the noise weight coefficient calculation unit 32
Finding coefficient WGMultiplied by the noise data G 0Ask for.

【0032】次に、ノイズ抑制分布関数設定部36にお
いて、原画像データI0 におけるノイズ抑制の広がりを
表すノイズ抑制分布関s1 を設定し、ノイズモトル抑制
分布演算部38において、ノイズデータG0 とこのノイ
ズ抑制分布関数s1 との畳み込み積分を行ってノイズモ
トル抑制分布Mを求め(ステップ112)、ノイズ抑制
成分演算部40において、ノイズモトル抑制分布Mをノ
イズデータG0 に乗算することによって、ノイズ抑制成
分画像データG1 を演算して算出し(ノイズモトル抑制
分布の演算を行い)(ステップ114)、ノイズ抑制演
算処理部42において、シャープネス強調処理部24で
得られたシャープネス強調画像データI S から先に算出
したノイズ抑制成分画像データG1 を変倍して減算し
(ノイズ抑制画像の演算を行い)、さらに、必要に応じ
て、画像出力装置16に適した画像データに変換するこ
とによって処理画像データI1 を得る(ステップ11
6)。
Next, the noise suppression distribution function setting unit 36
And the original image data I0The spread of noise suppression in
Represents the noise suppression distribution function s1Set the noise mottle suppression
In the distribution calculator 38, the noise data G0And this noi
Noise suppression distribution function s1Convolution integral with
A torque suppression distribution M is obtained (step 112), and noise suppression is performed.
In the component calculation unit 40, the noise motor suppression distribution M
Is Data G0Is multiplied by
Minute image data G1(Noise mottle suppression
(Calculation of distribution) (step 114), noise suppression
In the arithmetic processing unit 42, the sharpness enhancement processing unit 24
Obtained sharpness enhanced image data I SCalculated first
Noise suppression component image data G1Is scaled and subtracted
(Calculate the noise suppression image) and, if necessary,
To convert the image data into image data suitable for the image output device 16.
And the processed image data I1(Step 11
6).

【0033】次に、本発明の画像処理方法の上述した各
工程について詳細に説明する。まず、シャープネス強調
工程(ステップ100)について説明する。ここで、画
像のシャープネスを強調する方法としては、アンシャー
プマスク(Unsharp masking, USM)またはラプラシアン(L
aplacian) が良く知られている。本発明においても、こ
れらを用いることにより、画像のシャープネス劣化が軽
度なものであれば、画像のシャープネスを強調すること
ができる。
Next, each of the above-described steps of the image processing method of the present invention will be described in detail. First, the sharpness enhancement step (step 100) will be described. Here, as a method of enhancing the sharpness of the image, an unsharp masking (USM) or a Laplacian (L
aplacian) is well known. Also in the present invention, by using these, the sharpness of the image can be enhanced if the sharpness of the image is slightly degraded.

【0034】アンシャープマスクは、次式のように原画
像データI0(x,y)(注目する画素位置を、x およびy と
する) から、I0(x,y)を平均化あるいはぼかした画像I
avx,y)を引いて求めたエッジ強調成分I0(x,y)−I
av(x,y) に係数aを掛けて原画像データI0 (x,y) に加
算することによって、下記式(4)のように、シャープ
ネス強調画像IS (x,y) を求める方法である。 IS (x,y) =I0(x,y)+a〔I0(x,y)−Iav x,y)〕 (4) ここで、aはシャープネス強調の程度を調節する定数で
ある。ラプラシアンは、原画像データI0(x,y)の二次微
分(ラプラシアン)▽2 0(x,y)を原画像データI0(x,
y)から引くことによって、シャープネス強調する方法
で、次式で表される。 IS (x,y) =I0(x,y)−▽2 0(x,y) (5) ラプラシアンによるシャープネス強調の具体的な例とし
ては、下記式(6)のような3×3の係数配列が良く用
いられる。 0 −1 0 −1 −1 −1 1 −2 1 −1 5 −1 −1 9 −1 −2 5 −2 (6) 0 −1 0 −1 −1 −1 1 −2 1
The unsharp mask averages or blurs I 0 (x, y) from original image data I 0 (x, y) (pixel positions of interest are x and y) as shown in the following equation. Image I
av x, y) and the edge enhancement component I 0 (x, y) −I
av (x, y) is multiplied by a coefficient a and added to the original image data I 0 (x, y) to obtain a sharpness-enhanced image I S (x, y) as in the following equation (4): It is. I S (x, y) = I 0 (x, y) + a [I 0 (x, y) −I av x, y)] (4) where a is a constant for adjusting the degree of sharpness enhancement. . Laplacian, the original image data I 0 (x, y) second derivative of (Laplacian) ▽ 2 I 0 (x, y) of the original image data I 0 (x,
A method of emphasizing sharpness by subtracting from y) is expressed by the following equation. I S (x, y) = I 0 (x, y) − ▽ 2 I 0 (x, y) (5) As a specific example of the sharpness enhancement by Laplacian, 3 × such as the following equation (6) is used. A coefficient array of 3 is often used. 0 -1 0 -1 -1 -1 1 -2 1 -1 5-1 -1 9-1 -1 -2 5 -2 (6) 0 -1 0 -1 -1 -1 1 -2 1

【0035】この係数配列では、特に強いシャープネス
強調を掛けたときに、画像のエッジに不自然な輪郭が発
生し易い。そこで、そのような欠点を少なくするため
に、本発明では式(7)に示したような正規分布型(Gau
ssian)のぼけ関数を用いたアンシャープマスクを用いる
のが好ましい。 G(x,y)=(1/2πσ2)exp[−(x2 + y2)/2σ2] (7) ここで、σ2 は正規分布関数の広がりを表すパラメータ
であり、マスクの端x=x1 における値とマスクの中心
x=0における値の比、 G(x1,0)/G(0,0)=exp[−x1 2/2σ2] (8) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(8)の値を1.0に近い値に
すると、式(5)の中央のラプラシアンフィルタとほぼ
同じマスクを作ることができる。マスクのシャープさを
変更するには、この他にマスクの大きさを変更する方法
があり、たとえば5×5、7×7、9×9等のマスクを
用いることによって、シャープネス強調された画像の空
間周波数を大幅に変更することができる。
In this coefficient array, an unnatural contour is likely to occur at the edge of an image when particularly strong sharpness enhancement is applied. Therefore, in order to reduce such a drawback, in the present invention, the normal distribution type (Gau
It is preferable to use an unsharp mask using an ssian) blur function. G (x, y) = (1 / 2πσ 2 ) exp [− (x 2 + y 2 ) / 2σ 2 ] (7) where σ 2 is a parameter representing the spread of the normal distribution function, the ratio of the values at the center x = 0 of the value and the mask in the x = x 1, G (x 1, 0) / G (0,0) = exp [-x 1 2 / 2σ 2] (8) 0.1 By adjusting to be ~ 1.0,
The sharpness of the 3 × 3 unsharp mask can be made desired. When the value of equation (8) is set to a value close to 1.0, a mask substantially the same as the central Laplacian filter of equation (5) can be created. In order to change the sharpness of the mask, there is another method of changing the size of the mask. For example, by using a mask such as 5 × 5, 7 × 7, 9 × 9, etc. The spatial frequency can be changed significantly.

【0036】また、マスクの関数形としても、上記の正
規分布型以外のもの、たとえば、下記式(9)のような
指数関数型のマスクを用いることができる。 E(x,y)=exp[−(x2 + y2)1/2/a] (9) ここで、aは式(8)のσ2 と同様にアンシャープマス
クの広がりを表すパラメータであり、マスクの端の値と
マスクの中心値の比、 E(x1,0)/E(0,0)=exp[−x1/a] (10) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(10)に、E(x1,0)/E(0,0)=
0.3としたときの式(9)の指数関数のマスクの数値例
を示す。 0.18 0.30 0.18 0.30 1.00 0.30 (11) 0.18 0.30 0.18 このマスクから、アンシャープマスクの1例を計算する
と、次式(12)のようになる。 −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (12) −0.12 −0.21 −0.12
As the function form of the mask, a mask other than the normal distribution type described above, for example, an exponential function type mask as shown in the following equation (9) can be used. E (x, y) = exp [− (x 2 + y 2 ) 1/2 / a] (9) Here, a is a parameter representing the spread of the unsharp mask as in σ 2 in equation (8). There, the central value of the values of end-mask mask ratio, and E (x 1, 0) / E (0,0) = exp [-x 1 / a] (10) is 0.1 to 1.0 By adjusting to become
The sharpness of the 3 × 3 unsharp mask can be made desired. In equation (10), E (x 1 , 0) / E (0,0) =
A numerical example of the mask of the exponential function of Expression (9) when 0.3 is set is shown. 0.18 0.30 0.18 0.30 1.00 0.30 (11) 0.18 0.30 0.18 When one example of the unsharp mask is calculated from this mask, the following equation (12) is obtained. −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (12) −0.12 −0.21 −0.12

【0037】このようなアンシャープマスクを用いて、
原画像データI0(x,y)からシャープネス強調画像データ
S (x,y)を求めることができる。なお、本発明に用い
られるアンシャープマスクおよびシャープネス強調方法
は、上述したものに限定されるわけではなく、この他の
従来公知のアンシャープマスクや空間周波数フィルタリ
ング等によるシャープネス強調方法を適用可能なことは
もちろんである。図4(a)には、エッジ成分が支配的
な領域E1 および領域E2 と、ノイズモトルのある領域
Aや領域Bや領域Cを含むノイズ領域とを有する原画像
データI 0 の一次元プロファイル波形の一例が示され、
このプロファイル波形に対してシャープネス強調を施す
ことによって、図4(b)に示すように、領域E1 およ
び領域E2 のようにエッジ成分の強い領域においてエッ
ジの信号が強調されるとともに、領域A、領域Bおよび
領域Cを含むノイズ領域についてもノイズ成分が強調さ
れるのが判る。
Using such an unsharp mask,
Original image data I0Sharpness-enhanced image data from (x, y)
IS(x, y) can be obtained. In addition, used in the present invention
Unsharp mask and sharpness enhancement method
Is not limited to the above,
Conventionally known unsharp mask and spatial frequency filter
That sharpness enhancement methods such as
Of course. FIG. 4A shows that the edge component is dominant.
Area E1And region ETwoAnd the area with the noise mottle
Original image having a noise area including area A, area B and area C
Data I 0An example of a one-dimensional profile waveform of
Apply sharpness enhancement to this profile waveform
As a result, as shown in FIG.1And
And region ETwoIn areas with strong edge components, such as
Signals are emphasized, and regions A, B and
The noise component is also emphasized in the noise area including the area C.
You can see it.

【0038】次に、平滑化工程(ステップ102)につ
いて説明する。平滑化を行う方法としては、実空間領域
の処理と空間周波数領域の処理を挙げることができる。
実空間領域処理では、隣接する画素全体の和を求め平均
値を計算してその値に置き換える方法、各画素に重み係
数、たとえば正規分布型の関数を掛けて平均値を求める
方法、メディアンフィルタのような非線型な処理を行う
方法等の種々の方法がある。一方、空間周波数領域の処
理では、ローパスフィルタを掛ける方法がある。たとえ
ば、重み係数を用いる平均化の方法では下記式(13)
を挙げることができる。なお、ここで、(x,y) 等は、画
像内の注目画素の位置座標を表す。
Next, the smoothing step (step 102) will be described. Examples of the method of performing the smoothing include processing in the real space domain and processing in the spatial frequency domain.
In the real space area processing, a method of calculating the average value by calculating the sum of all adjacent pixels and replacing the average value with the calculated value, a method of multiplying each pixel by a weighting factor, for example, a function of a normal distribution type to obtain an average value, a method of median filter There are various methods such as a method for performing such non-linear processing. On the other hand, in the processing in the spatial frequency domain, there is a method of applying a low-pass filter. For example, in the averaging method using the weight coefficient, the following equation (13) is used.
Can be mentioned. Here, (x, y) and the like represent the position coordinates of the pixel of interest in the image.

【数1】 (Equation 1)

【0039】ただし、nは平均化のマスクサイズ、w
(x,y) は重み係数である。w(x,y) =1.0とすると、
単純平均となる。本発明では、実空間領域処理の中で、
正規分布型の重み係数を掛けて平均値を求める方法を用
いるが、これに限定されない。この時、処理のマスクと
しては、下記のようなn×n画素のマスクを用いるのが
好ましい。具体的には3×3から5×5、7×7、9×
9程度のものを用いるのが好ましい。 w11 w12 w13・・・・・ w1n w21 w22 w23・・・・・ w2n w31 w32 w33・・・・・ w3n ・ ・ ・ ・ (14) ・ ・ ・ ・ wn1 wn2 wn3・・・・・ wnn
Where n is the mask size for averaging, w
(x, y) is a weight coefficient. If w (x, y) = 1.0,
Simple average. In the present invention, in the real space domain processing,
A method of multiplying a normal distribution type weighting factor to obtain an average value is used, but the present invention is not limited to this. At this time, it is preferable to use a mask of the following n × n pixels as a processing mask. Specifically, 3 × 3 to 5 × 5, 7 × 7, 9 ×
It is preferable to use about nine. w 11 w 12 w 13・ ・ ・ ・ ・ w 1n w 21 w 22 w 23・ ・ ・ ・ ・ ・ ・ w 2n w 31 w 32 w 33・ ・ ・ ・ ・ ・ ・ w 3n・ ・ ・ ・ (14) ・ ・ ・ ・w n1 w n2 w n3 ... w nn

【0040】9×9画素のマスクの一例を示す。この式
(15)では中心の値を1.0に正規化した値で示して
いるが、実際の処理ではマスク全体の和が1.0になる
ようにする。 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (15) 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09
An example of a mask of 9 × 9 pixels is shown. In this equation (15), the center value is represented by a value normalized to 1.0, but in actual processing, the sum of the entire mask is set to 1.0. 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.30 0.51 0.74 0.93 1.00 0.93 0.74 0.51 0.30 (15) 0.28 0.47 0.69 0.86 0.93 0.86 0.69 0.47 0.28 0.22 0.38 0.55 0.69 0.74 0.69 0.55 0.38 0.22 0.15 0.26 0.38 0.47 0.51 0.47 0.38 0.26 0.15 0.09 0.15 0.22 0.28 0.30 0.28 0.22 0.15 0.09

【0041】このようなマスクを用いて、原画像データ
0(x,y)から平滑化画像データIAV(x,y)を求めること
ができる。なお、本発明に用いられる平滑化方法として
は、上述した種々の方法に限定されるわけではなく、従
来公知の平滑化方法はいずれも適用可能なことはいうま
でもない。図4(c)には、図4(a)に示されるプロ
ファイル波形が、平滑化処理によって処理された結果が
示され、ノイズモトルのある領域Aや領域Bや領域Cを
含むノイズ領域のノイズ成分が抑制され滑らかになると
ともに、エッジ成分が支配的な領域E1 および領域E2
についても、エッジ信号が抑制され滑らかなプロファイ
ル波形となっていることが判る。
Using such a mask, the smoothed image data I AV (x, y) can be obtained from the original image data I 0 (x, y). Note that the smoothing method used in the present invention is not limited to the various methods described above, and it goes without saying that any conventionally known smoothing methods can be applied. FIG. 4C shows the result of processing the profile waveform shown in FIG. 4A by the smoothing process, and shows the noise component of the noise area including the area A, the area B, and the area C with the noise mottle. Are suppressed and smooth, and the edge components E 1 and E 2 are dominant.
Also, it can be seen that the edge signal is suppressed and a smooth profile waveform is obtained.

【0042】次いで、エッジ・ノイズ混在成分の抽出工
程(ステップ104)について説明する。平滑化工程
(ステップ102)で得られた平滑画像データIAV(x,
y) を、下記式(16)に従って、シャープネス強調工
程(ステップ100)で得られたシャープネス強調画像
データIS から減算し、シャープネス強調されたエッジ
とノイズの混在する微細構造データである混在成分ΔI
EG(x,y) を抽出する。 ΔIEG(x,y)=I0 (x,y) −IAV(x,y) (16) 図4(d)には、図4(b)および(c)で示されるプ
ロファイル波形を用いてエッジ・ノイズ混在成分の抽出
工程によって得られる混在成分ΔIEG(x,y) のプロファ
イル波形が抽出されている。
Next, the step of extracting edge / noise mixed components (step 104) will be described. The smoothed image data I AV (x,
y) is subtracted from the sharpness-enhanced image data I S obtained in the sharpness enhancement step (step 100) in accordance with the following equation (16), and a mixed component ΔI, which is microstructure data in which sharpness-enhanced edges and noise are mixed, is obtained.
Extract EG (x, y). ΔI EG (x, y) = I 0 (x, y) −I AV (x, y) (16) In FIG. 4D, the profile waveforms shown in FIGS. 4B and 4C are used. Thus, the profile waveform of the mixed component ΔI EG (x, y) obtained in the edge / noise mixed component extraction step is extracted.

【0043】次に、エッジ検出工程(ステップ106)
について説明する。ここでは、一例として局所分散方式
によるエッジ検出を代表例として説明するが、本発明は
これに限定される訳ではない。
Next, an edge detecting step (step 106)
Will be described. Here, edge detection by a local distribution method will be described as a typical example, but the present invention is not limited to this.

【0044】エッジ検出を行う際に先ず、以下のような
前処理による濃度変換を行う。このような前処理を行う
のは、カラー画像データを構成するR画像データとG画
像データとB画像データで相関のないノイズを減少させ
以降で行うエッジ検出の際の精度を向上するためであ
る。すなわち、式(17)に示したように、原画像デー
タI0(x,y)のR,G,Bの3色の濃度値DR ,DG ,D
B に重み係数r,g,bを掛けて視覚濃度(Visual dens
ity)DV に変換する。 DV =(rDR +gDG +bDB )/(r+g+b) (17) 重み係数としては、例えば、r:g:b=4:5:1の
ような値を用いる。この変換を行うのは、R,G,Bで
相関の無いノイズを減少させ、エッジ検出の精度を向上
させるためである。前処理の配列の大きさの範囲は5×
5、あるいは7×7画素程度のものを用いるのがよい
が、それは、後述する所定の配列内の画像濃度の変動
を、配列内で小さい配列、例えば、3×3程度の配列を
用いて、移動しながら計算するためである。
When performing edge detection, first, density conversion is performed by the following preprocessing. The reason why such preprocessing is performed is to reduce noise having no correlation between the R image data, the G image data, and the B image data constituting the color image data, and to improve the accuracy of edge detection performed thereafter. . That is, as shown in Expression (17), the density values D R , D G , and D of the three colors R, G, and B of the original image data I 0 (x, y)
B is multiplied by weighting factors r, g, b, and the visual density (Visual dens
ity) is converted to D V. The D V = (rD R + gD G + bD B) / (r + g + b) (17) weighting coefficients, for example, r: g: b = 4 : 5: using a value such as 1. This conversion is performed to reduce noise having no correlation between R, G, and B, and to improve the accuracy of edge detection. The size range of the preprocessing array is 5 ×
It is preferable to use a pixel having about 5 or 7 × 7 pixels. However, it is preferable to use a small array in the array, for example, an array of about 3 × 3, to reduce the variation in image density in a predetermined array described later. This is to calculate while moving.

【0045】なお、エッジ検出における重み係数r,
g,bは以下のようにして求めることができる。重み係
数については、視覚で観察したときに目立つ(これは、
分光的な視感度分布に対応するという見方もあるが)、
すなわち寄与の大きい色の画像データの重み係数が大き
いという考えに基づいて最適な値に設定するのが好まし
い。一般には、視覚評価実験等に基づいて経験的な重み
係数が求められており、下記のような値が一般的な知見
として知られている(公知文献としては、野口高史、
「心理対応の良い粒状評価法)、日本写真学会誌,57
(6),415(1994)があり、色によって異なる
が、下記の比に近い数値が示されている)。 r:g:b=3:6:1 r:g:b=4:5:1 (18) r:g:b=2:7:1 ここで、係数の比r:g:bとして好ましい値の範囲を
規定するとすれば、r+g+b=10.0でbを1.0
としたときに、gの値として、 g=5.0〜7.0 の範囲の値が好ましい。ただし、r=10.0−b−g
である。
Note that the weight coefficients r,
g and b can be obtained as follows. The weighting factor is noticeable when observed visually (this is because
There is a view that it corresponds to the spectral visibility distribution),
That is, it is preferable to set the optimum value based on the idea that the weight coefficient of the image data of the color having a large contribution is large. Generally, an empirical weighting factor is obtained based on a visual evaluation experiment or the like, and the following values are known as general knowledge (known literature includes Takashi Noguchi,
"Good granularity evaluation method for psychological response", Journal of the Photographic Society of Japan, 57
(6), 415 (1994), which vary depending on the color, but indicate values close to the following ratios). r: g: b = 3: 6: 1 r: g: b = 4: 5: 1 (18) r: g: b = 2: 7: 1 Here, a preferable value of the coefficient ratio r: g: b If the range is defined as follows, r + g + b = 10.0 and b is 1.0
In this case, the value of g is preferably in the range of g = 5.0 to 7.0. Where r = 10.0−b−g
It is.

【0046】次ぎに、エッジ検出工程(ステップ10
6)の局所分散によるエッジ検出について説明する。エ
ッジの検出は、上記視覚濃度DV の画像データからnE
×nE 画素の配列を移動しつつ、配列内の画像濃度変動
を式(19)を用いて、その位置毎の局所的な標準偏差
である局所分散σを順次注目画素(x,y) ごとに計算する
ことによって、画像中の被写体エッジの検出を行う。画
素配列の大きさ(nE ×nE )は、検出精度および計算
負荷を考慮して適宜決めればよいが、例えば3×3、あ
るいは5×5程度の大きさを用いるのが好ましい。
Next, an edge detecting step (step 10)
Edge detection by local variance of 6) will be described. Detection of edges, n E from the image data of the visual density D V
× N E While moving the array of pixels, the image density fluctuation in the array is calculated using Equation (19), and the local variance σ, which is the local standard deviation for each position, is sequentially determined for each pixel of interest (x, y). , The edge of the subject in the image is detected. The size (n E × n E ) of the pixel array may be determined as appropriate in consideration of the detection accuracy and the calculation load. For example, it is preferable to use a size of about 3 × 3 or 5 × 5.

【0047】[0047]

【数2】 ただし、注目画素位置をx 、y とし、DV (x+i-nE /2 -
1/2, y+j-nE /2-1/2) は局所分散σ(x,y)を計算するn
E ×nE の画素配列の濃度で、< DV (x,y) > はその配
列の平均濃度で、
(Equation 2) However, let the target pixel position be x and y, and D V (x + in E / 2−
1/2, y + jn E / 2-1 / 2) calculates the local variance σ (x, y)
The density of an E × n E pixel array, <D V (x, y)> is the average density of the array,

【数3】 である。(Equation 3) It is.

【0048】原画像データIO (x,y)から、上記式
(19)に示した局所分散σ(x,y)を計算し、被写体画
像のエッジ強度EO (x,y) を求めるには、下記式(2
1)のような指数関数で表した式を用いる。 EO (x,y) =1− exp [−σ(x,y)/aE ] (21) ただし、aE は局所分散σ(x,y)の値をエッジ強度に変
換する際の係数であって、エッジ強度EO =0.5に割
り付ける局所分散σ(x,y)の閾値σT とすると、 aE =−σT / loge (0.5) (22) である。σT の値は、ノイズと被写体輪郭の信号の大き
さによって適切な値にする必要があるが、各色8bit
(256階調)のカラー画像では、10〜100の範囲
の値が好ましい。この変換は、ルックアップテーブルと
して作成しておくと、変換に要する計算時間を短縮する
ことができる。
From the original image data I O (x, y), the local variance σ (x, y) shown in the above equation (19) is calculated to obtain the edge strength E O (x, y) of the subject image. Is given by the following equation (2)
An expression represented by an exponential function such as 1) is used. E O (x, y) = 1−exp [−σ (x, y) / a E ] (21) where a E is a coefficient for converting the value of the local variance σ (x, y) into edge strength. And a threshold σ T of the local variance σ (x, y) allocated to the edge strength E O = 0.5, a E = −σ T / log e (0.5) (22) The value of σ T needs to be an appropriate value depending on the noise and the magnitude of the signal of the contour of the subject.
For a (256 gradation) color image, a value in the range of 10 to 100 is preferable. If this conversion is created as a look-up table, the calculation time required for the conversion can be reduced.

【0049】エッジ強度EO (x,y) を求める変換式とし
ては、上記式に限定されるものではなく、他の式を用い
ることもできる。たとえば、下記式のようなガウシャン
型の関数を用いてもよい。 EO (x,y) =1− exp{− [σ(x,y)]2 /aE1 2 } (23) ただし、aE1はσ(x,y) からEO (x,y) に変換する際の
係数で、EO (x,y) =0.5に割り付ける局所分散σ
(x,y) の閾値をσT とすると、 aE1 2 =−σT 2 / loge (0.5) (24) である。σT の値は、各色8bit(256階調)のカ
ラー画像では、10〜100の範囲の値が好ましい。
The conversion equation for obtaining the edge strength E O (x, y) is not limited to the above equation, and another equation can be used. For example, a Gaussian function such as the following equation may be used. E O (x, y) = 1−exp {− [σ (x, y)] 2 / a E1 2 } (23) where a E1 is converted from σ (x, y) to E O (x, y). Local variance σ to be assigned to E O (x, y) = 0.5
(x, y) when the threshold value of the sigma T, which is a E1 2 = -σ T 2 / log e (0.5) (24). The value of σ T is preferably in the range of 10 to 100 for a color image of 8 bits (256 gradations) for each color.

【0050】また、このエッジ強度データEO (x,y)
は、以下に示す式(25)のように、最大の局所分散デ
ータσMax で正規化され、0以上1以下の正規化された
エッジ強度データEO (x,y) を得てもよい。 E0 (x,y) = σ(x,y) /σMax (25) ここで、σmax は、局所分散データσ (x,y)の最大値
で、σ (x,y)を正規化するための定数である。σMax
決定方法は、式(19)で求めた画像全体の局所分散デ
ータσ (x,y)から下記式(26)のように最大値を求め
る。 σMax =Max{σ (x,y)} (26)
The edge strength data E O (x, y)
May be normalized with the maximum local variance data σ Max to obtain normalized edge strength data E O (x, y) of 0 or more and 1 or less, as in the following Expression (25). E 0 (x, y) = σ (x, y) / σ Max (25) where σ max is the maximum value of the local variance data σ (x, y), and σ (x, y) is normalized. Is a constant for The method for determining σ Max is to find the maximum value from the local variance data σ (x, y) of the entire image obtained by Expression (19) as in Expression (26) below. σ Max = Max {σ (x, y)} (26)

【0051】また、画像全体から求まる最大値を用い
ず、画像の一部分、例えば画像の重要被写体のある確率
の高い画像の中央部分の特定範囲、あるいは全画像から
間引いた画像データ(原画像データの1/4〜1/10
程度)から上記式(25)や(26)を用いて最大値σ
Max を求めてもよい。この場合、画像中央部分の特定範
囲の画像データや間引いた画像データは、画像処理を施
して処理画像データを得る前に予め粗い画素密度で得る
ことのできる各種処理条件調整用原画像データ(プレス
キャン画像データ)を用いてもよいし、原画像データか
ら抜き出してもよい。より好ましくは、σMax は、局所
分散データσ (x,y)を大きい値から順番に並べた際の上
位5〜10%以内に含まれる値の平均値,例えば上位1
0%以内に含まれる値の平均値<σ (x,y)>Max10%をσ
Max とし、σ (x,y)がこのσMax を超える場合、すべて
σMax に置き換える。この場合、平均値は、画像全体の
平均値でも、重要被写体が撮影される場合の多い中央部
分の所定の範囲の平均値でも、あるいは、間引いた画像
データの平均値であってもよい。
In addition, instead of using the maximum value obtained from the entire image, a part of the image, for example, a specific range of the central part of the image in which there is a high probability that there is an important subject in the image, or image data thinned out from all the images (the original image data 1/4 to 1/10
Degree) from the above equation (25) or (26).
You may ask for Max . In this case, the image data of a specific range in the central portion of the image or the thinned image data is obtained by various processing condition adjustment original image data (press image data) which can be obtained in advance at a coarse pixel density before obtaining the processed image data by performing image processing. (Can image data) or may be extracted from the original image data. More preferably, σ Max is an average value of values included within the upper 5% to 10% when local variance data σ (x, y) is arranged in descending order, for example, the upper 1
Average value of values included within 0% <σ (x, y)> Max10% to σ
Max , and when σ (x, y) exceeds this σ Max , all are replaced with σ Max . In this case, the average value may be an average value of the entire image, an average value of a predetermined range in a central portion where an important subject is often photographed, or an average value of thinned image data.

【0052】ところで、本発明におけるエッジ検出法と
しては、上記局所分散方式のエッジ検出法に限定される
わけではなく、他のエッジ検出法も利用可能である。上
記局所分散方式以外のエッジ検出法には、一次微分や二
次微分に基づく方法があり、それぞれに、更に幾つかの
方法がある。まず、空間的な一次微分に基づく方法とし
ては、下記の2つのオペレータがある。差分型エッジ抽
出オペレータとして、 Prewittのオペレータ、 Sobelの
オペレータ、 Robertsのオペレータなどがある。 Rober
tsのオペレータは下記式で表わすことができる。 g(i,j)={[f(i,j) - f(i+l,j+l)]2+[f(i+l,j) - f(i,
j+l)]21/2 テンプレート型オペレータとして、8方向のエッジパタ
ーンに相当する3×3テンプレートを用いる Robinson
のオペレータや Kirshのオペレータがある。次に、空間
的な二次微分に基づく方法としては、ラプラシアンを用
いた方法がある。この場合、雑音を強調してしまうの
で、先ず正規分布型のぼかし処理をしてからエッジ検出
する方法が良く用いられる。
Incidentally, the edge detection method in the present invention is not limited to the above-described edge detection method of the local dispersion method, and other edge detection methods can be used. Edge detection methods other than the above-described local dispersion method include methods based on first-order differentiation and second-order differentiation, and there are some more methods for each. First, as a method based on the spatial first derivative, there are the following two operators. There are Prewitt operators, Sobel operators, and Roberts operators as differential edge extraction operators. Rober
The operator of ts can be expressed by the following equation. g (i, j) = {[f (i, j)-f (i + l, j + l)] 2 + [f (i + l, j)-f (i,
j + l)] As a 21/2 template type operator, use a 3 × 3 template corresponding to an edge pattern in eight directions Robinson
Operators and Kirsh operators. Next, as a method based on the spatial second derivative, there is a method using Laplacian. In this case, noise is emphasized. Therefore, a method of first performing normal distribution type blur processing and then detecting edges is often used.

【0053】図4(e)には、図4(a)に示す原画像
データI0 からエッジ検出工程で求められたエッジ強度
データE0 の波形を示している。図4(a)に示すエッ
ジ強度データE0 において、領域E1 およびE2 の付近
でエッジ強度データE0 の値が大きくなっていることが
わかる。
FIG. 4E shows the waveform of the edge intensity data E 0 obtained in the edge detection step from the original image data I 0 shown in FIG. 4A. In the edge strength data E 0 shown in FIG. 4A, it can be seen that the value of the edge strength data E 0 increases near the regions E 1 and E 2 .

【0054】次に、ノイズ領域重付け係数の計算工程
(ステップ108)を説明する。エッジ検出工程(ステ
ップ106)で得られるエッジ強度データEO (x,y) を
用いて、下記式(27)に従って、エッジ領域の重み付
け係数WE (x,y) を求めた後、ノイズ領域の重み付け係
数WG (x,y) を、下記式(28)に従って求める。 WE (x,y) =1−αE +αE 0 (x,y) (27) WG (x,y) =1−WE (x,y) (28)
Next, the process of calculating the noise area weighting coefficient (step 108) will be described. Using the edge intensity data E O (x, y) obtained in the edge detection step (step 106), a weighting coefficient W E (x, y) of the edge area is obtained according to the following equation (27), and then the noise area is calculated. weighting coefficient W G (x, y), and obtained in accordance with the following equation (28). W E (x, y) = 1-α E + α E E 0 (x, y) (27) W G (x, y) = 1-W E (x, y) (28)

【0055】ここで、αE はエッジ領域とノイズ領域の
重み付けを設定する定数であり、オペレータが0以上1
以下の任意の値を設定することができる。エッジ領域の
重み付け係数WE (x,y) は、1−αE 以上1以下の値と
なり、W E (x,y) が大きいほど、その画素位置で被写体
のエッジ領域である確率が高いと判断され、WE (x,y)
が小さいほど、その画素位置でノイズ領域である確率が
高いと判断される。正規化されたエッジ強度データE0
(x,y) の値が1.0に近いエッジ領域では、αE の値に
かかわらずエッジ領域の重み付け係数WE (x,y) が1.
0に近い大きい値となり、ノイズ領域の重み付け係数W
G (x,y) は最も小さくなる。一方、正規化されたエッジ
強度データE0 (x,y) が1.0より小さくなるに連れ、
エッジ領域の重み付け係数WE (x,y) は最小値1−αE
に近づき、ノイズ領域の重み付けデータWG (x,y) は最
大値αE に近づく。このようなαE は一定の値にデフォ
ルト値として予め設定しておき、オペレータがこのデフ
ォルト値によって画像処理された処理画像を見ながらα
E の値を必要に応じて調整するようにしてもよい。な
お、αE が1の場合、正規化されたエッジ強度データE
O (x,y) 自身がエッジ領域の重み付け係数WE (x,y) と
なり、1.0−EO (x,y) がノイズ領域の重み付け係数
G (x,y) となる。
Here, αEIs the edge region and the noise region
This is a constant for setting weighting.
The following arbitrary values can be set. Edge area
Weighting coefficient WE(x, y) is 1-αEWith a value between 1 and
N, W EThe larger (x, y) is,
Is determined to have a high probability of being an edge area ofE(x, y)
Is smaller, the probability that the pixel position is a noise area is
It is determined to be high. Normalized edge strength data E0
In the edge region where the value of (x, y) is close to 1.0, αETo the value of
Regardless, the weight coefficient W of the edge areaE(x, y) is 1.
It becomes a large value close to 0, and the weighting coefficient W of the noise region
G(x, y) is the smallest. On the other hand, the normalized edge
Strength data E0As (x, y) becomes smaller than 1.0,
Edge area weighting coefficient WE(x, y) is the minimum value 1-αE
, And the weighted data W of the noise regionG(x, y) is
Large value αEApproach. Such αEDefaults to a constant value.
The default value is set in advance, and the operator
While looking at the processed image processed by the default value, α
EMay be adjusted as needed. What
Contact, αEIs 1, the normalized edge intensity data E
O(x, y) itself is the weight coefficient W of the edge region.E(x, y) and
1.0-EO(x, y) is the noise area weighting factor
WG(x, y).

【0056】図4(f)には、図4(e)で示されるエ
ッジ強度データから求まるノイズ領域の重み付け係数W
G (x,y) の波形を示している。領域E1 およびE2 の付
近でノイズ領域の重み付け係数WG (x,y) の値が小さく
なっている。なお、領域E1およびE2 の付近における
ノイズ領域の重み付け係数WG (x,y) の値は上記式(2
7)で設定されるエッジ領域とノイズ領域の重み付けを
設定する定数αE によって定まる。
FIG. 4F shows the weighting coefficient W of the noise area obtained from the edge strength data shown in FIG.
The waveform of G (x, y) is shown. In the vicinity of the regions E 1 and E 2 , the value of the noise region weighting coefficient W G (x, y) is small. Note that the value of the weighting coefficient W G (x, y) of the noise region in the vicinity of the regions E 1 and E 2 is calculated by the above equation (2)
It is determined by a constant α E that sets the weight of the edge region and the noise region set in 7).

【0057】次に、ノイズデータの識別・分離工程工程
(ステップ110)について説明する。エッジ・ノイズ
混在成分の抽出工程(ステップ104)で得られたシャ
ープネス強調されたエッジ成分およびノイズ成分の混在
する混在成分ΔIEG(x,y) に、下記式(29)で示され
るように、ノイズ重付け係数計算工程(ステップ10
8)で得られたノイズ領域の重み付け係数WG (x,y) を
乗算して、ノイズデータG0 (x,y) を求める。 G0 (x,y) =ΔIEG(x,y) × WG (x,y) (29) 図4(g)には、図4(d)に示される混在成分ΔIEG
(x,y) と図4(f)に示されるノイズ領域の重み付け係
数WG (x,y) を乗算して得られるノイズデータG0 (x,
y) のプロファイル波形が示され、エッジ成分が支配的
な領域E1 や領域E2 のエッジの信号成分が除去されて
いることがわかる。
Next, the noise data identification / separation step (step 110) will be described. The mixed component ΔI EG (x, y) in which the sharpness-enhanced edge component and the noise component are obtained in the edge / noise mixed component extraction step (step 104) is expressed by the following equation (29): Noise weighting coefficient calculation step (step 10)
The noise data G 0 (x, y) is obtained by multiplying the noise area weighting coefficient W G (x, y) obtained in 8). G 0 (x, y) = ΔI EG (x, y) × W G (x, y) (29) FIG. 4G shows the mixed component ΔI EG shown in FIG.
noise data G 0 (x, y) obtained by multiplying (x, y) by the weight coefficient W G (x, y) of the noise region shown in FIG.
profile waveform y) is shown, it can be seen that the edge component is the signal component of the edge area dominated E 1 and region E 2 is removed.

【0058】次に、ノイズモトル抑制分布演算工程(ス
テップ112)について説明する。まず、原画像のノイ
ズ領域の画素におけるノイズ抑制の広がりを表すノイズ
抑制分布関数s(r)を式(1)のように設定する。こ
こでrは、点Pをノイズ抑制の広がりの中心位置(原
点)とする座標(x,y) に位置する注目画素の原点Pから
の距離である。 s(r)= exp(−r/a) (1) すなわち、s(x,y) = exp(−(x2 +y2
(1/2) /a) と表される。
Next, the noise motor suppression distribution calculation step (step 112) will be described. First, a noise suppression distribution function s (r) representing the extent of noise suppression in pixels in the noise region of the original image is set as in equation (1). Here, r is the distance from the origin P of the target pixel located at the coordinates (x, y) where the point P is the center position (origin) of the noise suppression spread. s (r) = exp (−r / a) (1) That is, s (x, y) = exp (− (x 2 + y 2 )
(1/2) / a).

【0059】ここで、上式(1)中のaは、原画像の画
素におけるノイズ抑制の広がりの範囲を調整する抑制範
囲定数であり、予め与えられ、あるいは入力により設定
される。抑制範囲定数aが入力により設定される場合、
ノイズ抑制を及ぼす範囲の境界の位置、すなわち抑制距
離rs とこの位置での値smin を定めることによって設
定される。すなわち、抑制距離rs での値smin から下
記式(30)によって抑制範囲定数aを計算して求め
る。 a = −rs /log(smin ) (30)
Here, a in the above equation (1) is a suppression range constant for adjusting the range of the noise suppression spread in the pixels of the original image, and is given in advance or set by input. When the suppression range constant a is set by input,
It is set by determining the position of the boundary of the range in which noise suppression is performed, that is, the suppression distance r s and the value s min at this position. That is, the suppression range constant a is calculated from the value s min at the suppression distance r s by the following equation (30). a = -r s / log (s min) (30)

【0060】ここで、smin の値は0.1以上0.5以
下であるのが好ましく、抑制距離r s の値は1以上15
以下の範囲の値であることが好ましい。特に、フィルム
に記録された画像をスキャナ等で読み込んで原画像デー
タを得る場合、抑制距離rsの値の設定は、フィルムフ
ォーマット(フィルムの1コマの画像サイズ)やフィル
ムの種類や感度によって異なるフィルムの粒状(粒状モ
トル)の粗さ、およびフィルムを走査してディジタル画
像データを得るスキャナの走査アパーチャサイズに応じ
て適宜変更することが好ましい。すなわち、粗い粒状
(粒状モトルも大きい)の場合、抑制距離rs の値を大
きくし、逆に細かい粒状の場合、抑制距離rs の値を小
さくする。また、スキャナの走査アパーチャサイズに応
じて適宜変更するのは、同じフィルムであっても、スキ
ャナの走査アパーチャが15μm□の場合と10μm□
とした場合、抑制範囲定数aの値が同じでも、実際の画
像密度が1.5倍、10μm□の方の画像の画素密度が
高くなり、粒状の粗さが変化するからである。
Where sminIs between 0.1 and 0.5
Is preferably below, and the suppression distance r sIs between 1 and 15
It is preferable that the value be in the following range. In particular, the film
Scan the image recorded in the
When obtaining the data, the suppression distance rsThe value of
Format (image size of one frame of film) and fill
Film granularity (granularity
Tor) and scan the film to create a digital image.
Depending on the scanning aperture size of the scanner that obtains the image data
It is preferable to change it appropriately. That is, coarse granular
(The granular mottle is also large), the suppression distance rsLarge value of
In the case of fine grain, the suppression distance rsThe value of
Frustrate In addition, the size of the scanner
It is important to make the appropriate changes in the same
Scanner aperture of 15μm □ and 10μm □
, Even if the value of the suppression range constant a is the same,
The image density is 1.5 times and the pixel density of the 10μm square image is
This is because the roughness increases and the granular roughness changes.

【0061】また、この抑制距離rs は、平滑化工程
(ステップ102)における平均化のマスクサイズを大
きくするとステップ110で得られるノイズデータG0
に含まれるノイズモトルの成分も大きくぼけて広がるた
め、このノイズモトルの成分を抑制するために抑制距離
s を大きくする必要がある。それゆえ、平滑化工程
(ステップ102)における平均化のためのマスクサイ
ズに応じて、抑制距離rsも適宜変更するとよい。平滑
化工程における平均化のためのマスクサイズは、3画素
×3画素程度を最小マスクサイズとし、11画素×11
画素程度を最大マスクサイズとするが、抑制範囲定数a
は、このマスクサイズより1.5倍〜2倍程度大きめの
値とし、例えば、マスクサイズが3×3の場合、抑制距
離rs の値を5程度とするのが好ましい。
The suppression distance r s is obtained by increasing the mask size of the averaging in the smoothing step (step 102) by increasing the noise data G 0 obtained in step 110.
Because spread component of Noizumotoru also blur increases contained in, it is necessary to increase the suppression distance r s in order to suppress components of the Noizumotoru. Therefore, according to mask size for averaging the smoothing step (step 102), it may be changed appropriately be suppressed distance r s. The mask size for averaging in the smoothing process is set to a minimum mask size of about 3 pixels × 3 pixels, and 11 pixels × 11
The maximum mask size is about the pixel, but the suppression range constant a
, The mask was 1.5 times to 2 times larger than the size, for example, when the mask size is 3 × 3, the value of the suppression distance r s preferably about 5.

【0062】このようなノイズ抑制分布関数s(r)と
して式(2)のような関数を設定してもよい。 s(r)= exp(−r2 /a2 ) (2) ここで、rは、ノイズ抑制の広がりの中心位置からの距
離である。この場合、抑制範囲定数aは、抑制距離rs
とその位置での値smin を用いて下記式(31)によっ
て求める。 a = rs /[−log(Smin )](1/2) (31) あるいは、ノイズ抑制分布関数s(r)として下記式
(3)のような関数を設定してもよい。 s(r)= rect(r/a) (3) ここで、rect(r/a)は、値が1の矩形関数でで
あり、rは、ノイズ抑制の広がりの中心位置からの距離
である。この場合、抑制範囲定数aは、設定する抑制距
離rs とする。また式(2)や式(3)においてsmin
=1とすることで式(1)と同一のノイズ抑制分布関数
s(r)を得ることができる。
A function such as equation (2) may be set as the noise suppression distribution function s (r). s (r) = exp (−r 2 / a 2 ) (2) where r is the distance from the center of the noise suppression spread. In this case, the suppression range constant a is the suppression distance r s
And the value s min at that position using the following equation (31). a = r s / [- log (S min)] (1/2) (31) or may set the function shown in Equation (3) as a noise suppression distribution function s (r). s (r) = rect (r / a) (3) where rect (r / a) is a rectangular function having a value of 1, and r is the distance from the center position of the noise suppression spread. . In this case, suppression range constant a, and suppressing the distance r s to be set. Also, in Equations (2) and (3), s min
By setting = 1, the same noise suppression distribution function s (r) as in the equation (1) can be obtained.

【0063】このようなノイズ抑制分布関数s(r)
は、下記式(32)に従って、0以上1以下のノイズ抑
制分布関数s1 (x,y) に正規化される。 s1 (x,y) = s(x,y) /S (32) ここで、Sは、下記式(33)によって求まる積分値で
ある。
The noise suppression distribution function s (r)
Is normalized to a noise suppression distribution function s 1 (x, y) equal to or more than 0 and equal to or less than 1 according to the following equation (32). s 1 (x, y) = s (x, y) / S (32) Here, S is an integrated value obtained by the following equation (33).

【数4】 図4(h)には、式(1)を用いて得られるノイズ抑制
分布関数s(x,y) を式(33)に従って正規化したノイ
ズ抑制分布関数s1 (x,y) の一例が示される。
(Equation 4) FIG. 4H shows an example of the noise suppression distribution function s 1 (x, y) obtained by normalizing the noise suppression distribution function s (x, y) obtained using Expression (1) according to Expression (33). Is shown.

【0064】次に、この正規化されたノイズ抑制分布関
数s1(x,y)とノイズデータG0 (x,y) とを用い、下記式
(34)のようにノイズ抑制の及ぼす範囲において畳み
込み積分を行い、ノイズモトル抑制分布M(x,y) を算出
する。
Next, using the normalized noise suppression distribution function s 1 (x, y) and the noise data G 0 (x, y), the noise suppression range is given by the following equation (34). Convolution integration is performed to calculate a noise motor suppression distribution M (x, y).

【数5】 ここで算出するノイズモトル抑制分布M(x,y) は、ある
注目画素位置(x,y) におけるノイズの、他の画素から受
ける抑制の程度を畳み込み積分によって求めるものであ
って、原画像データI0 がフィルム画像からスキャナ等
で読み取られた画像データである場合の、フィルム感光
層中のハロゲン化銀粒子の現像時に生成される現像抑制
物質の拡散分布に相当するもので、ノイズデータG0
変動を感光材料の粒子の分布と見なして、原画像データ
0 に含まれる、感光材料の銀粒子を中心にして生成さ
れる現像抑制物質の拡散分布に相当するノイズモトル抑
制分布M(x,y) を求めるものである。
(Equation 5) The noise mottle suppression distribution M (x, y) calculated here is obtained by convolution and integrating the degree of suppression of noise at a given pixel position (x, y) received from other pixels. 0 in the case where the image data read by a scanner or the like from the film image, which corresponds to the diffusion distribution of development inhibiting substance produced during the development of the silver halide grains of the film photosensitive layer, the noise data G 0 The variation is regarded as the distribution of particles of the photosensitive material, and the noise mottle suppression distribution M (x, y) included in the original image data I 0 and corresponding to the diffusion distribution of the development suppression substance generated around the silver particles of the photosensitive material. ).

【0065】図4に示す例で説明すると、図4(g)に
示されるノイズデータG0 と図4(h)に示されるノイ
ズ抑制分布関数s1(x,y)を用い、式(34)に従って算
出することで、図4(i)に示されるようなノイズモト
ル抑制分布M(x,y) を得る。図4(i)では、図中領域
Aや領域Bや領域Cに示される部分でノイズモトル抑制
分布の値が大きくなり、この領域A、領域Bおよび領域
Cの部分では、銀塩感光材料にの場合、銀塩感光材料で
生成される現像抑制物質の濃度が高くなっていることを
意味するものである。このようにしてノイズモトル抑制
分布M(x,y) が算出される。
Referring to the example shown in FIG. 4, the noise data G 0 shown in FIG. 4G and the noise suppression distribution function s 1 (x, y) shown in FIG. ), A noise mottle suppression distribution M (x, y) as shown in FIG. 4 (i) is obtained. In FIG. 4 (i), the value of the noise mottle suppression distribution is large in the portions shown in the region A, the region B and the region C. In the region A, the region B and the region C, the value of the silver halide photosensitive material is small. In this case, it means that the concentration of the development inhibiting substance generated in the silver salt photosensitive material is high. In this way, the noise motor suppression distribution M (x, y) is calculated.

【0066】次に、ノイズモトル抑制成分演算工程(ス
テップ114)を説明する。ノイズモトル抑制成分演算
工程では、ステップ112で演算されて算出されたノイ
ズモトル抑制分布M(x,y) を下記式(35)で示すよう
に、ステップ110で求めたノイズデータG0 に乗算す
ることで、ノイズ抑制成分画像データG1 (x,y) を演算
する。 G1 (x,y) = G0(x,y) × M(x,y) (35)
Next, the noise motor suppression component calculation step (step 114) will be described. In the noise mottle suppression component calculation step, the noise data G 0 calculated in step 110 is multiplied by the noise mottle suppression distribution M (x, y) calculated in step 112 as shown in the following equation (35). And noise suppression component image data G 1 (x, y). G 1 (x, y) = G 0 (x, y) × M (x, y) (35)

【0067】ノイズモトル抑制分布M(x,y) をノイズデ
ータG0 に乗算するのは、銀塩感光材料の場合、銀塩感
光材料中で生成される現像抑制物質と銀粒子の作用に応
じて抑制することを考慮するためである。図4に示す例
では、図4(j)にノイズ抑制成分画像データG1 (x,
y) が示される。図4(j)に示されるノイズ抑制成分
画像データG1 (x,y) を図4(g)に示されるノイズデ
ータG0 と比較すると、領域Aや領域Bや領域Cでは、
それ以外の領域、例えば領域E1 や領域E2 に対して、
値が相対的に大きくなっていることがわかる。
The multiplication of the noise data G 0 by the noise mottle suppression distribution M (x, y) is performed in the case of a silver halide photosensitive material in accordance with the action of a development suppressing substance and silver particles generated in the silver halide photosensitive material. This is to consider suppression. In the example shown in FIG. 4, the noise suppression component image data G 1 (x,
y) is indicated. When the noise suppression component image data G 1 (x, y) shown in FIG. 4 (j) is compared with the noise data G 0 shown in FIG. 4 (g), in the area A, the area B and the area C,
Other regions for example regions E 1 and region E 2,
It can be seen that the value is relatively large.

【0068】最後に、ノイズ抑制画像演算工程(ステッ
プ116)について説明する。ノイズ抑制画像演算工程
では、ステップ114で求めたノイズ抑制成分画像デー
タG1 (x,y) を、下記式(36)で示すように、ノイズ
抑制係数αを用いて変倍した後、ステップ100で求め
たシャープネス強調画像データIS から減算し処理画像
データI1 ’を求める。 I1'(x,y) = I0(x,y) − α×G1(x,y) (36) ここで、ノイズ抑制係数αは、ノイズ抑制の程度を制御
する設定可能なパラメータであり、適宜設定入力され
る。あるいは、予めデフォルト設定値を設け、必要に応
じて変更するものであってもよい。その後、画像出力装
置16に適した画像データの変換を行って処理画像デー
タI1 ’から処理画像データI1 を得る。
Finally, the noise suppression image calculation step (step 116) will be described. In the noise suppression image calculation process, the noise suppression component image data G 1 (x, y) obtained in step 114 is scaled using the noise suppression coefficient α as shown in the following equation (36), and then the step 100 is performed. The processed image data I 1 ′ is obtained by subtracting from the sharpness-emphasized image data I S obtained in step ( 1) . I 1 ′ (x, y) = I 0 (x, y) −α × G 1 (x, y) (36) Here, the noise suppression coefficient α is a configurable parameter for controlling the degree of noise suppression. Yes, and are set and input as appropriate. Alternatively, default setting values may be provided in advance and changed as needed. Thereafter, conversion of image data suitable for the image output device 16 is performed to obtain the processed image data I 1 from the processed image data I 1 ′.

【0069】図4に示す例では、図4(k)に示すよう
な処理画像データI1 ' のプロファイル波形を得ること
ができ、領域Aや領域Bや領域C等のノイズモトルの領
域ではノイズが大きく除去され、それ以外のノイズ領域
でもノイズが適切に除去されていることがわかる。しか
も、図4(a)に示される原画像データI0 と比較し
て、領域E1 や領域E2 のエッジ領域はシャープネス強
調されている。
In the example shown in FIG. 4, a profile waveform of the processed image data I 1 as shown in FIG. 4 (k) can be obtained, and the noise is reduced in the area of the noise motor such as the area A, the area B and the area C. It can be seen that the noise is largely removed and the noise is appropriately removed in other noise regions. Moreover, as compared with the original image data I 0 shown in FIG. 4 (a), the edge region of the region E 1 and region E 2 are sharpness enhancement.

【0070】上記画像処理方法は、写真感光材料等にお
ける粒状成分のように、粒状成分が一定の画素領域に影
響を及ぼす、すなわち、粒状成分が他の画素の粒状成分
に影響を及ぼす場合、粒状抑制のための画像処理として
有効であるが、また、上記画像処理法は、他の画素のノ
イズ成分の影響を受けないCCDやMOS撮像素子等を
利用するデジタルカメラ等においても、他の画素の画像
データを利用して傷欠陥補正等を行うことから、効果的
に適用することができる。CCD撮像素子としては、特
開平10−136391号に記載のハニカム配列のもの
にも適用される。
The above-described image processing method uses a granular component, which affects a certain pixel area, such as a granular component in a photographic light-sensitive material. Although effective as image processing for suppression, the above-described image processing method is also effective in digital cameras and the like that use a CCD or MOS imaging device that is not affected by noise components of other pixels. Since flaw defect correction and the like are performed using image data, it can be applied effectively. As the CCD image pickup device, the one having a honeycomb arrangement described in JP-A-10-136391 is also applicable.

【0071】なお、ノイズ抑制のための画像処理方法と
して、特開平11−250246号公報では、画像のエ
ッジ強度から求めた圧縮係数をノイズ成分に乗じてノイ
ズを抑制する方法が提案されているが、ノイズ領域では
一定の圧縮係数が掛かるのでノイズの振幅が比例的に圧
縮される。また、ノイズの振幅が大きくなる程圧縮率が
高くなる圧縮係数を採用することで、すなわち、ノイズ
の揺らぎの大きさ(振幅)に非線形変換を施すことで、
ノイズの揺らぎを上記公報に記載される画像処理方法よ
り均一な方向にすることもできる。しかし、本発明の画
像処理方法は、上記2つの方法のようにノイズの振幅に
対して抑制処理を施すのと異なり、ノイズモトルのよう
にノイズ成分の揺らぎが空間的に大きく形成されるノイ
ズ領域、例えば図4(a)で示される領域Aや領域Bや
領域Cに対してノイズ抑制を施す処理であり、ノイズの
揺らぎが大きい場所でより大きく抑制し、ノイズの揺ら
ぎを均一化することができる。
As an image processing method for noise suppression, Japanese Patent Application Laid-Open No. H11-250246 proposes a method of suppressing noise by multiplying a noise component by a compression coefficient obtained from the edge strength of an image. In the noise region, a constant compression coefficient is applied, so that the amplitude of the noise is proportionally compressed. Also, by adopting a compression coefficient that increases the compression ratio as the noise amplitude increases, that is, by performing a non-linear conversion on the magnitude (amplitude) of the noise fluctuation,
The fluctuation of noise can be set in a more uniform direction than the image processing method described in the above publication. However, the image processing method of the present invention is different from the above two methods in that a noise amplitude is spatially formed with a large fluctuation of a noise component, unlike a noise mottle, in which the noise amplitude is suppressed. For example, this is a process of performing noise suppression on the region A, the region B, and the region C shown in FIG. 4A. In a process where noise fluctuation is large, the noise fluctuation can be further suppressed, and the noise fluctuation can be made uniform. .

【0072】本発明の画像処理方法は以上のように説明
される。このような画像処理方法は、回路やハードウェ
アから成る上述した画像処理装置として構成してもよい
し、あるいは、ソフトウェアとしてコンピュータの中で
機能を発揮するようなプログラムであってもよく、この
場合、上記方法を実行するためのプログラムを記録した
コンピュータが読み取り可能な記録媒体、CD=ROM
等として提供するものであってもよい。
The image processing method of the present invention is described as above. Such an image processing method may be configured as the above-described image processing apparatus including a circuit and hardware, or may be a program that performs functions in a computer as software. , Computer-readable recording medium recording a program for executing the above method, CD = ROM
It may be provided as such.

【0073】このような本発明の画像処理方法を、銀塩
カラー写真、例えば35mmカラーネガフィルムに撮影
した写真画像に適用したところ、粒状とシャープネスと
もに、一見して判る程の顕著な改善効果を得ることがで
きた。特に、粒状について感光材料の微粒子化による粒
状改良に匹敵する処理効果を持つため、従来の平均化や
揺らぎの減少に基づく各種の粒状除去処理法の欠点であ
った「ぼけ粒状」的な不自然さや違和感がなくなった。
また、シャープネスについては、上記粒状抑制と組み合
わせることにより、粒状を悪化させずに、従来のアンシ
ャープネスマスクやラプラシアンフィルタより大幅な強
調効果が得られた。また、デジタルスチルカメラで撮影
した画像にも適用したところ、上記銀塩カラー写真によ
るカラー画像と同様に顕著な画質向上効果が得られた。
When such an image processing method of the present invention is applied to a silver halide color photograph, for example, a photographic image photographed on a 35 mm color negative film, a remarkable improvement effect in both graininess and sharpness can be obtained at a glance. I was able to. In particular, since the particles have a processing effect comparable to the improvement of the granularity of the photosensitive material by making the photosensitive material finer, there is a drawback of various types of granular removal processing methods based on the conventional averaging and reduction of fluctuation. The sense of incongruity has disappeared.
Further, with respect to sharpness, by combining with the above-described graininess suppression, a greater emphasis effect was obtained than with a conventional unsharpness mask or a Laplacian filter without deteriorating graininess. Further, when applied to an image taken by a digital still camera, a remarkable image quality improvement effect was obtained as in the case of the color image based on the silver halide color photograph.

【0074】以上、本発明の画像処理方法、画像処理装
置および記録媒体について詳細に説明したが、本発明は
上記実施例に限定はされず、本発明の要旨を逸脱しない
範囲において、各種の改良および変更を行ってもよいの
はもちろんである。
The image processing method, the image processing apparatus and the recording medium of the present invention have been described in detail above. However, the present invention is not limited to the above embodiments, and various improvements can be made without departing from the gist of the present invention. Of course, changes may be made.

【0075】[0075]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、先ず原画像をシャープネス強調することによっ
て、被写体画像とノイズの双方を鮮鋭化しておき、その
画像から被写体輪郭とノイズ成分を抽出し、ノイズ成分
を選択的に除去するので、ノイズがぼけて視覚的に不快
に見える大きなむらを形成せず、コントラストの低い画
像信号をノイズと誤認することもなく、ノイズ除去領域
とシャープネス強調領域の境界に不自然なアーチファク
トも形成しない。さらに、ノイズ成分の濃度揺らぎが空
間的に粗い領域を抽出し選択的に大きく除去することに
よってノイズ成分を抑制しているので、ノイズモトル等
のような大きく粗いノイズ成分を処理画像が含むことも
少なく(濃度揺らぎが小さい)、従って、濃度揺らぎが
均一化され、空間的にも細かいノイズにすることがで
き、視覚的にも自然なノイズの抑制を実現することがで
きる。
As described above in detail, according to the present invention, both the subject image and the noise are sharpened by first sharpening the original image, and the subject contour and the noise component are extracted from the image. , And selectively removes noise components, so that noise does not form large irregularities that appear blurry and visually unpleasant, and low-contrast image signals are not mistaken for noise. No unnatural artifacts are formed at the boundary of the emphasized area. Further, since the noise component is suppressed by extracting a region where the density fluctuation of the noise component is spatially coarse and selectively removing it largely, the processed image rarely includes a large coarse noise component such as a noise motor. (The density fluctuation is small.) Therefore, the density fluctuation is made uniform, the noise can be spatially fine, and the noise can be suppressed visually and naturally.

【0076】また、本発明によると、ノイズが粒状であ
る場合、粒状はシャープネス強調され、かつ、空間的に
揺らぎの大きい粒状モトル等の粒状成分が除去・抑制さ
れ、粒状パターンが微細化、均一化されるので、銀塩写
真の感光材料では微粒子乳剤を用いた時に得られるよう
な細かい粒状となり、平滑化を用いた従来法の欠点であ
るぼけ粒状のような視覚的な違和感や不快感の無い自然
な粒状抑制効果が得られる。また、本発明の画像処理法
を銀塩カラー写真感光材料に適用することにより、従来
の粒状抑制処理方法の欠点であった、いわゆる「ぼけ粒
状」的な不自然さや違和感がなく、粒状が改善され、極
めて顕著な改善効果を得ることができ、産業上大きな効
果が得られる。
According to the present invention, when the noise is granular, the granularity is emphasized with sharpness, and a granular component such as a granular mottle having large spatial fluctuation is removed / suppressed, so that the granular pattern is refined and uniform. In silver halide photographic materials, fine grained particles are obtained when a fine grain emulsion is used, and visual discomfort and discomfort such as blurred grains, which is a drawback of the conventional method using smoothing, are obtained. There is no natural grain suppression effect. Further, by applying the image processing method of the present invention to a silver halide color photographic light-sensitive material, there is no so-called “blur grain” unnaturalness or unnaturalness, which is a drawback of the conventional grain suppression processing method, and the graininess is improved. Thus, an extremely remarkable improvement effect can be obtained, and a great industrial effect can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理装置を組み込んだ、カ
ラー写真画像を読み取り、ノイズ抑制とシャープネス強
調の画像処理を行い、出力装置でカラー画像を出力する
システムの一実施例を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a system in which an image processing apparatus according to the present invention is incorporated, reads a color photographic image, performs image processing for noise suppression and sharpness enhancement, and outputs a color image on an output device. is there.

【図2】 本発明に係る画像処理装置の、ノイズ抑制と
シャープネス強調の画像処理を行う画像処理部の一実施
例を示すブロック図である。
FIG. 2 is a block diagram illustrating an embodiment of an image processing unit that performs image processing for noise suppression and sharpness enhancement in the image processing apparatus according to the present invention.

【図3】 本発明の画像処理方法の一実施例を示すブロ
ック図である。
FIG. 3 is a block diagram showing one embodiment of the image processing method of the present invention.

【図4】 (a)〜(k)は、本発明の画像処理方法に
よって画像データが処理される一例を示す図である。
FIGS. 4A to 4K are diagrams illustrating an example in which image data is processed by the image processing method of the present invention.

【符号の説明】[Explanation of symbols]

10 カラー画像再生システム 12 画像入力装置 14 画像処理装置 16 画像出力装置 18 色・調子処理部 20 ノイズ抑制画像処理部 22 画像モニタ・画像処理パラメータ設定部 26 平滑化処理部 28 エッジ・ノイズ混在成分抽出部 30 エッジ検出部 32 ノイズ領域重み係数演算部 34 ノイズ成分識別分離部 36 ノイズ抑制分布関数設定部 38 ノイズモトル抑制分布演算部 40 ノイズ抑制成分演算部 42 ノイズ抑制演算処理部 Reference Signs List 10 color image reproduction system 12 image input device 14 image processing device 16 image output device 18 color / tone processing unit 20 noise suppression image processing unit 22 image monitor / image processing parameter setting unit 26 smoothing processing unit 28 edge / noise mixed component extraction Unit 30 edge detection unit 32 noise area weight coefficient calculation unit 34 noise component identification and separation unit 36 noise suppression distribution function setting unit 38 noise mottle suppression distribution calculation unit 40 noise suppression component calculation unit 42 noise suppression calculation processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/21 G06F 15/68 405 H04N 1/40 101D Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE02 CE03 CE05 DA20 DC16 DC19 DC32 5C021 PA73 RA02 RA06 XB02 XB03 YA01 YC13 ZA01 5C077 LL02 PP02 PP03 PP47 PP48 PQ12 PQ18 TT02 TT06 TT09 5L096 AA02 AA06 BA20 DA01 EA06 EA07 EA39 FA06 FA35 GA08 GA09 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/21 G06F 15/68 405 H04N 1/40 101D F-term (Reference) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE02 CE03 CE05 DA20 DC16 DC19 DC32 5C021 PA73 RA02 RA06 XB02 XB03 YA01 YC13 ZA01 5C077 LL02 PP02 PP03 PP47 PP48 PQ12 PQ18 TT02 TT06 TT09 5L096 AA02 AA06 BA20 DA01 EA06 EA07 GA09 FA06 FA06

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】原画像データにシャープネス強調処理を行
い、画像と共にこの画像中に含まれるノイズを鮮鋭化し
たシャープネス強調画像データを作成し、 前記原画像データに平滑化処理を行って、平滑化画像デ
ータを作成し、 前記シャープネス強調画像データから前記平滑化画像デ
ータを減算して、シャープネス強調された被写体画像の
エッジとシャープネス強調されたノイズとが混在する混
在画像データを作成し、 前記原画像データからエッジ検出を行って被写体エッジ
領域とノイズ領域を識別するためのエッジ強度データを
求め、 このエッジ強度データからノイズ領域の度合いを示すノ
イズ領域の重み付け係数を求め、 前記混在画像データに、前記ノイズ領域の重み付け係数
を乗じて、ノイズデータを求め、 前記原画像データにおけるノイズ抑制の広がりを表すノ
イズ抑制分布関数を設定し、前記ノイズデータとこのノ
イズ抑制分布関数との畳み込み積分を行ってノイズ抑制
分布を求め、 前記ノイズデータに前記ノイズ抑制分布を乗算すること
によって、ノイズ抑制成分画像データを算出し、 前記シャープネス強調画像データから前記ノイズ抑制成
分画像データを変倍して減算することによって、原画像
のノイズ領域におけるノイズ成分を選択的に抑制した画
像を作成することを特徴とするデジタル画像のノイズ抑
制のための画像処理方法。
1. An original image data is subjected to sharpness enhancement processing, and sharpness-enhanced image data in which noise included in the image is sharpened together with the image is created. A smoothing process is performed on the original image data to perform smoothing. Generating image data; subtracting the smoothed image data from the sharpness-enhanced image data to create mixed image data in which the edges of the sharpened image of the subject and the sharpness-enhanced noise are mixed; Edge detection is performed from the data to determine edge intensity data for discriminating between a subject edge region and a noise region.From this edge intensity data, a noise region weighting coefficient indicating the degree of the noise region is determined. The noise data is obtained by multiplying the noise area by a weighting coefficient. By setting a noise suppression distribution function representing the spread of noise suppression, obtaining a noise suppression distribution by performing convolution integration of the noise data and the noise suppression distribution function, by multiplying the noise data by the noise suppression distribution, Calculating noise suppression component image data, scaling the noise suppression component image data from the sharpness enhanced image data and subtracting the same to create an image in which noise components in the noise region of the original image are selectively suppressed. An image processing method for suppressing noise of a digital image.
【請求項2】前記ノイズ抑制分布関数は、原画像の画素
における、ノイズ抑制の広がりの中心位置において値が
最大であり、この中心位置から離れるに従って値が小さ
くなる単調減少関数である請求項1に記載の画像処理方
法。
2. The noise suppression distribution function is a monotonically decreasing function having a maximum value at a center position of a noise suppression spread in a pixel of an original image, and a value decreasing as the distance from the center position increases. The image processing method according to 1.
【請求項3】前記ノイズ抑制分布関数は、原画像の画素
におけるノイズ抑制を及ぼす範囲において一定の値を持
つ矩形関数である請求項1に記載の画像処理方法。
3. The image processing method according to claim 1, wherein the noise suppression distribution function is a rectangular function having a constant value within a range in which noise is suppressed in pixels of an original image.
【請求項4】前記ノイズ抑制分布関数の、原画像の画素
における前記ノイズ抑制を及ぼす範囲は、画素数で1以
上15以下の範囲の領域である請求項2または3に記載
の画像処理方法。
4. The image processing method according to claim 2, wherein a range of the noise suppression distribution function in which the noise is suppressed in the pixels of the original image is a range of 1 to 15 pixels in number.
【請求項5】前記ノイズ抑制分布関数は、原画像の画素
におけるノイズ抑制を及ぼす範囲の境界の位置とこの位
置での値を定めることによって設定される請求項2〜4
のいずれかに記載の画像処理方法。
5. The noise suppression distribution function is set by determining a position of a boundary of a range in which noise suppression is performed in pixels of an original image and a value at this position.
The image processing method according to any one of the above.
【請求項6】前記ノイズ抑制分布関数は、rを原画像の
画素におけるノイズ抑制の広がりの中心位置からの距
離、aを原画像の画素におけるノイズ抑制の広がりの範
囲を定める抑制範囲定数とするとき、下記式(1)〜
(3)のいずれかで表される関数s(r)である請求項
5に記載の画像処理方法。 s(r)= exp(−r/a) (1) s(r)= exp(−r2 /a2 ) (2) s(r)= rect(r/a) (3) ここで、式(3)のrect(r/a)は、値が1の矩
形関数である。
6. The noise suppression distribution function, wherein r is a distance from the center position of the noise suppression spread in the pixels of the original image, and a is a suppression range constant that determines the range of the noise suppression spread in the pixels of the original image. Then, the following formulas (1) to
6. The image processing method according to claim 5, wherein the function is a function s (r) represented by any one of (3). s (r) = exp (−r / a) (1) s (r) = exp (−r 2 / a 2 ) (2) s (r) = rect (r / a) (3) where: Rect (r / a) in (3) is a rectangular function having a value of 1.
【請求項7】原画像データにシャープネス強調処理を行
い、画像と共にこの画像中に含まれるノイズを鮮鋭化し
たシャープネス強調画像データを作成するシャープネス
強調処理部と、 前記原画像データに平滑化処理を行って、平滑化画像デ
ータを作成する平滑化処理部と、 前記シャープネス強調画像データから前記平滑化処理部
で作成した前記平滑化画像データを減算して、シャープ
ネス強調された被写体画像のエッジとシャープネス強調
されたノイズとが混在する混在画像データを作成するエ
ッジ・ノイズ混在成分抽出部と、 前記原画像データからエッジ検出を行って被写体エッジ
領域とノイズ領域を識別するためのエッジ強度データを
求めるエッジ検出部と、 このエッジ検出部で求めたエッジ強度データからノイズ
領域の度合いを示すノイズ領域の重み付け係数を求める
ノイズ領域重み係数演算部と、 前記エッジ・ノイズ混在成分抽出部で作成した前記混在
画像データに、前記ノイズ領域重み係数演算部で求めた
前記ノイズ領域の重み付け係数を乗じて、ノイズデータ
を求めるノイズ成分識別分離部と、 前記原画像データにおけるノイズ抑制の広がりを表すノ
イズ抑制分布関数を設定するノイズ抑制分布関数設定部
と、 前記ノイズ成分識別分離部で求めた前記ノイズデータと
前記ノイズ抑制分布関数設定部で設定した前記ノイズ抑
制分布関数との畳み込み積分を行ってノイズ抑制分布を
求めるノイズ抑制分布演算部と、 このノイズ抑制分布演算部において求められた前記ノイ
ズ抑制分布を前記ノイズ成分識別分離部で求めた前記ノ
イズデータに乗算することによって、ノイズ抑制成分画
像データを算出するノイズ抑制成分演算部と、 前記シャープネス強調画像データから前記ノイズ抑制成
分演算部で算出した前記ノイズ抑制成分画像データを変
倍して減算して処理画像データを求めるノイズ抑制演算
処理部とを有することを特徴とするデジタル画像のノイ
ズ抑制のための画像処理装置。
7. A sharpness enhancement processing section for performing sharpness enhancement processing on the original image data to generate sharpness enhanced image data in which noise included in the image is sharpened together with the image; and performing a smoothing processing on the original image data. A smoothing processing unit for performing smoothing image data, and subtracting the smoothed image data created by the smoothing processing unit from the sharpness-enhanced image data to obtain a sharpness-enhanced edge and a sharpness of the subject image. An edge / noise mixed component extraction unit that generates mixed image data in which the emphasized noise is mixed; and an edge that performs edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region. A detection unit, and a degree of a noise region is indicated from the edge intensity data obtained by the edge detection unit. A noise region weighting factor calculating unit for obtaining a weighting factor for the noise region; and the mixed image data created by the edge / noise mixed component extracting unit multiplied by the noise region weighting factor obtained by the noise region weighting factor calculating unit. A noise component identification / separation unit that obtains noise data; a noise suppression distribution function setting unit that sets a noise suppression distribution function that represents the extent of noise suppression in the original image data; and the noise that is obtained by the noise component identification / separation unit. A noise suppression distribution calculation unit that performs convolution integration of data and the noise suppression distribution function set by the noise suppression distribution function setting unit to obtain a noise suppression distribution; and the noise suppression distribution obtained by the noise suppression distribution calculation unit. Is multiplied by the noise data obtained by the noise component identification / separation unit, A noise suppression component calculation unit that calculates noise suppression component image data; and a noise that obtains processed image data by scaling and subtracting the noise suppression component image data calculated by the noise suppression component calculation unit from the sharpness enhanced image data. An image processing apparatus for suppressing noise of a digital image, comprising: a suppression calculation processing unit.
【請求項8】原画像データにシャープネス強調処理を行
い、画像と共にこの画像中に含まれるノイズを鮮鋭化し
たシャープネス強調画像データを作成する手順と、 前記原画像データに平滑化処理を行って、平滑化画像デ
ータを作成する手順と、 前記シャープネス強調画像データから前記平滑化画像デ
ータを減算して、シャープネス強調された被写体画像の
エッジとシャープネス強調されたノイズとが混在する混
在画像データを作成する手順と、 前記原画像データからエッジ検出を行って被写体エッジ
領域とノイズ領域を識別するためのエッジ強度データを
求める手順と、 前記エッジ強度データからノイズ領域の度合いを示すノ
イズ領域の重み付け係数を求める手順と、 前記混在画像データに、前記ノイズ領域の重み付け係数
を乗じて、ノイズデータを求める手順と、 前記原画像データにおけるノイズ抑制の広がりを表すノ
イズ抑制分布関数を設定し、前記ノイズデータとこのノ
イズ抑制分布関数との畳み込み積分を行ってノイズ抑制
分布を求める手順と、 前記ノイズデータに前記ノイズ抑制分布を乗算すること
によって、ノイズ抑制成分画像データを算出する手順
と、 前記シャープネス強調画像データから、前記ノイズ抑制
成分画像データを変倍して減算する手順をコンピュータ
に実行させて、原画像のノイズ領域におけるノイズ成分
を選択的に抑制した画像を作成することを特徴とするプ
ログラムを記録したコンピュータが読み取り可能な記録
媒体。
8. A procedure for performing sharpness enhancement processing on the original image data to create sharpness-enhanced image data in which noise included in the image is sharpened together with the image; and performing smoothing processing on the original image data. A step of creating smoothed image data; and subtracting the smoothed image data from the sharpness enhanced image data to create mixed image data in which edges of a subject image with sharpness enhanced and noise with sharpness enhanced are mixed. A step of performing edge detection from the original image data to obtain edge intensity data for identifying a subject edge region and a noise region; and obtaining a noise region weighting coefficient indicating a degree of the noise region from the edge intensity data. Multiplying the mixed image data by a weighting coefficient of the noise region, Obtaining a noise suppression distribution function, setting a noise suppression distribution function indicating a spread of noise suppression in the original image data, and performing a convolution integration of the noise data and the noise suppression distribution function to obtain a noise suppression distribution, A computer performs a procedure of calculating noise suppression component image data by multiplying the noise data by the noise suppression distribution, and a procedure of scaling and subtracting the noise suppression component image data from the sharpness enhanced image data. A computer-readable recording medium having recorded thereon a program for creating an image in which noise components in a noise region of an original image are selectively suppressed.
JP2000098922A 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium Expired - Lifetime JP4017312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000098922A JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000098922A JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001285641A true JP2001285641A (en) 2001-10-12
JP4017312B2 JP4017312B2 (en) 2007-12-05

Family

ID=18613344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000098922A Expired - Lifetime JP4017312B2 (en) 2000-03-31 2000-03-31 Image processing method, image processing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP4017312B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004025966A1 (en) * 2002-09-10 2004-03-25 Sony Corporation Digital still camera and image correction method
WO2008010375A1 (en) 2006-07-20 2008-01-24 Hitachi Medical Corporation Ultrasonographic device
JP2010055604A (en) * 2008-08-01 2010-03-11 Nikon Corp Image processing method
WO2011036777A1 (en) * 2009-09-25 2011-03-31 株式会社 東芝 Image processing device
US8699816B2 (en) 2007-10-01 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for enhancing detail based on noise elimination, and method and apparatus for calculating noise weight
CN108765330A (en) * 2018-05-21 2018-11-06 西北大学 Image de-noising method and device based on the joint constraint of global and local priori
US10275861B2 (en) 2013-02-18 2019-04-30 Samsung Display Co., Ltd. Image processing part, display apparatus having the same and method of processing an image using the same
CN112308082A (en) * 2020-11-05 2021-02-02 湖南科技大学 A dynamic video image segmentation method based on dual-channel convolution kernel and multi-frame feature fusion
CN112580554A (en) * 2020-12-25 2021-03-30 北京环境特性研究所 CNN-based MSTAR data noise intensity control classification identification method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8358355B2 (en) 2002-09-10 2013-01-22 Sony Corporation Digital still camera and image correction method
JP2004104464A (en) * 2002-09-10 2004-04-02 Sony Corp Digital still camera and image correction method.
US7580064B2 (en) 2002-09-10 2009-08-25 Sony Corporation Digital still camera and image correction method
WO2004025966A1 (en) * 2002-09-10 2004-03-25 Sony Corporation Digital still camera and image correction method
WO2008010375A1 (en) 2006-07-20 2008-01-24 Hitachi Medical Corporation Ultrasonographic device
US8699816B2 (en) 2007-10-01 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for enhancing detail based on noise elimination, and method and apparatus for calculating noise weight
JP2010055604A (en) * 2008-08-01 2010-03-11 Nikon Corp Image processing method
WO2011036777A1 (en) * 2009-09-25 2011-03-31 株式会社 東芝 Image processing device
KR102056686B1 (en) * 2013-02-18 2019-12-18 삼성디스플레이 주식회사 Image processing part, display apparatus having the same and method of processing image using the same
US10275861B2 (en) 2013-02-18 2019-04-30 Samsung Display Co., Ltd. Image processing part, display apparatus having the same and method of processing an image using the same
CN108765330A (en) * 2018-05-21 2018-11-06 西北大学 Image de-noising method and device based on the joint constraint of global and local priori
CN112308082A (en) * 2020-11-05 2021-02-02 湖南科技大学 A dynamic video image segmentation method based on dual-channel convolution kernel and multi-frame feature fusion
CN112580554A (en) * 2020-12-25 2021-03-30 北京环境特性研究所 CNN-based MSTAR data noise intensity control classification identification method
CN112580554B (en) * 2020-12-25 2024-01-05 北京环境特性研究所 Classification and identification method for MSTAR data noise intensity control based on CNN

Also Published As

Publication number Publication date
JP4017312B2 (en) 2007-12-05

Similar Documents

Publication Publication Date Title
US6373992B1 (en) Method and apparatus for image processing
JP4053185B2 (en) Image processing method and apparatus
US6667815B1 (en) Method and apparatus for processing images
US6055340A (en) Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
JP3726653B2 (en) Image processing method, image processing apparatus, and recording medium on which program for executing image processing method is recorded
US20110285871A1 (en) Image processing apparatus, image processing method, and computer-readable medium
JP2005227838A (en) Image processing method, device, and program
JP2003134352A (en) Image processing method and apparatus, and program therefor
JP2002262094A (en) Image processing method and image processor
JP2004127064A (en) Image processing method, image processor, image processing program and image recording device
JP2002300402A (en) Image processor, processing method and recording medium
JP2007096509A (en) Image processing apparatus and image processing method
JP2006019930A (en) Image processing apparatus and method
JP4017312B2 (en) Image processing method, image processing apparatus, and recording medium
JP2000278532A (en) Image processing apparatus, image processing method, and recording medium storing image processing program
JPH11339035A (en) Method for deciding image processing parameter and device therefor
JP3729118B2 (en) Image processing method, image processing apparatus, image processing program, and computer-readable recording medium recording the same
JP2006246200A (en) Image processing device and method therefor
JP3804880B2 (en) Image processing method for noise suppression and sharpness enhancement of digital images
JP2001285640A (en) Image processing method, image processing apparatus and recording medium
JPH1185955A (en) Method and device for image processing
JP2000175046A (en) Image processing method and image processor
JP2001008038A (en) Image processing method, image processor and multi-band color photographing system
JPH10243239A (en) Image-processing method for noise suppression and sharpness emphasis for digital image
JP2001076134A (en) Picture processing method and picture processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050912

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070918

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4017312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term