[go: up one dir, main page]

JP2005332381A - Image processing method, device and program - Google Patents

Image processing method, device and program Download PDF

Info

Publication number
JP2005332381A
JP2005332381A JP2005124220A JP2005124220A JP2005332381A JP 2005332381 A JP2005332381 A JP 2005332381A JP 2005124220 A JP2005124220 A JP 2005124220A JP 2005124220 A JP2005124220 A JP 2005124220A JP 2005332381 A JP2005332381 A JP 2005332381A
Authority
JP
Japan
Prior art keywords
image
blur
area
edge
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005124220A
Other languages
Japanese (ja)
Inventor
Yoshiro Kitamura
嘉郎 北村
Tatsuya Aoyama
達也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005124220A priority Critical patent/JP2005332381A/en
Publication of JP2005332381A publication Critical patent/JP2005332381A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform an appropriate blur correction to an image, only a part of which is blurred. <P>SOLUTION: An edge detecting means detects an edge for each of the eight different directions to a reduced image. A block dividing means divides a reduced image into 16. An analyzing means executes an analysis from the amount of characteristic of the edge of the image in each block, and determines whether or not the image in each block is a blurred image. A blurring width L, a degree of blurring, and a direction of blurring are determined as blur information Q when the image is the blurred image. A parameter setting means sets a correction parameter E from the blur information Q to the blurred image in the block, and sets a correction intensity α for the image in the block corresponding to the blurring width L included in the blur information Q in such a manner that the larger the blurring width is, the greater the correction intensity is. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明はデジタル写真画像に対してボケを補正する画像処理方法および装置並びにそのためのプログラムに関するものである。   The present invention relates to an image processing method and apparatus for correcting blur on a digital photographic image, and a program therefor.

ネガフィルムやリバーサルフィルムなどの写真フィルムに記録された写真画像をスキャナなどの読取装置で光電的に読み取って得たデジタル写真画像や、デジタルスチルカメラ(DSC)で撮像して得たデジタル写真画像などに対して、種々の画像処理を施してプリントすることが行われている。これらの画像処理の一つとして、ぼけた画像(ボケ画像)からボケを取り除くボケ画像修復処理が挙げられる。   Digital photographic images obtained by photoelectrically reading photographic images recorded on photographic films such as negative films and reversal films with a reading device such as a scanner, digital photographic images obtained by taking images with a digital still camera (DSC), etc. On the other hand, printing is performed by performing various image processing. As one of these image processes, there is a blurred image restoration process that removes a blur from a blurred image (blurred image).

被写体を撮像して得た写真画像がぼけてしまう理由としては、焦点距離が合わないことに起因するピンボケと、被写体が動いたことや、撮像者の手のぶれに起因するぶれボケ(以下、ぶれという)が挙げられる。ピンボケの場合には、点像が2次元的に広がり、すなわち写真画像上における広がりが無方向性を呈することに対して、ぶれの場合には、点像がある軌跡を描き画像上に1次元的に広がり、すなわち写真画像上における広がりがある方向性を呈する。   The reason why the photographic image obtained by imaging the subject is blurred is that the focal length is out of focus, the subject is moving, and the blurring caused by the camera shake of the photographer (hereinafter referred to as “photographer”) This is called blurring). In the case of out-of-focus, the point image spreads two-dimensionally, that is, the spread on the photographic image exhibits non-directionality, whereas in the case of blur, a locus with a point image is drawn on the image one-dimensionally. Spreads, that is, has a direction with a spread on a photographic image.

デジタル写真画像の分野において、従来、ボケ画像を修復するために、様々な方法が提案されている。写真画像の撮像時にぶれの方向やぶれ幅などの情報が分かれば、Wienerフィルタや逆フィルタなどの復元フィルタを写真画像に適用することにより修復ができることから、撮像時にぶれの方向やぶれ幅などの情報を取得することができる装置(例えば加速度センサー)を撮像装置に設け、撮像と共にぶれの方向やぶれ幅などの情報を取得し、取得された情報に基づいて修復を図る方法が広く知られている(例えば、特許文献1参照)。   In the field of digital photographic images, various methods have been conventionally proposed for restoring blurred images. If you know information such as blur direction and blur width when capturing a photographic image, you can restore it by applying a restoration filter such as a Wiener filter or inverse filter to the photographic image. There is widely known a method of providing an apparatus (for example, an acceleration sensor) that can be acquired in an imaging apparatus, acquiring information such as a blur direction and a blur width together with imaging, and performing repair based on the acquired information (for example, , See Patent Document 1).

また、ボケ画像(ボケがある画像)に対して劣化関数を設定し、設定された劣化関数に対応する復元フィルタでボケ画像を修復し、修復後の画像を評価し、評価の結果に基づいて劣化関数を再設定するようにして、所望の画質になるまで、修復、評価、劣化関数の再設定を繰り返すことによって修復を図る方法も知られている。この方法は、劣化関数の設定、修復、評価、劣化関数の再設定・・・の処理を繰り返す必要があるため、処理時間がかかるという問題がある。特許文献2には、ユーザにボケ画像中の縁部を含む小さな領域を指定させ、ボケ画像全体の代わりに、指定されたこの小さな領域に対して、前述の劣化関数の設定、修復、評価、劣化関数の再設定・・・の処理を繰り返して最適な劣化関数を求め、この劣化関数に対応した復元フィルタをボケ画像全体に適用し、劣化関数を求めるのに使用する画像を前述の小領域の画像にすることによって演算量を減らし、効率向上を図る方法が提案されている。   Also, a degradation function is set for the blurred image (image with blur), the blurred image is repaired with a restoration filter corresponding to the set degradation function, the restored image is evaluated, and the evaluation result is evaluated. A method is also known in which the deterioration function is reset, and repair is performed by repeating the repair, evaluation, and resetting of the deterioration function until a desired image quality is obtained. This method has a problem that it takes processing time because it is necessary to repeat the process of setting, repairing, evaluating the deterioration function, resetting the deterioration function, and so on. In Patent Document 2, the user specifies a small area including an edge in a blurred image, and instead of the entire blurred image, the above-described degradation function is set, repaired, evaluated, and the specified small area. Repeat the process of resetting the degradation function to find the optimal degradation function, apply the restoration filter corresponding to this degradation function to the entire blurred image, and use the above-mentioned small area for the image used to obtain the degradation function A method has been proposed in which the amount of calculation is reduced and the efficiency is improved by using this image.

一方、携帯電話の急激な普及に伴って、携帯電話機の機能が向上し、その中でも携帯電話付属のデジタルカメラ(以下、携帯電話カメラという)の機能の向上が注目を浴びている。近年、携帯電話カメラの画素数が100万の桁に上がり、携帯電話カメラが通常のデジタルカメラと同様な使い方がされている。友達同士で旅行に行く時の記念写真などは勿論、好きなタレント、スポーツ選手を携帯電話カメラで撮像する光景が日常的になっている。このような背景において、携帯電話カメラにより撮像して得た写真画像は、携帯電話機のモニタで鑑賞することに留まらず、例えば、通常のデジタルカメラにより取得した写真画像と同じようにプリントすることも多くなっている。   On the other hand, with the rapid spread of mobile phones, the functions of mobile phones have improved, and among them, the improvement of the functions of digital cameras attached to mobile phones (hereinafter referred to as mobile phone cameras) has attracted attention. In recent years, the number of pixels of mobile phone cameras has increased to the order of 1 million, and mobile phone cameras are used in the same way as ordinary digital cameras. In addition to commemorative photos when traveling with friends, it is a common scene to photograph favorite talents and athletes with a mobile phone camera. In such a background, a photographic image obtained by capturing with a mobile phone camera is not limited to being viewed on a monitor of a mobile phone, and for example, can be printed in the same manner as a photographic image acquired with a normal digital camera. It is increasing.

他方、携帯電話カメラは、人間工学的に、本体(携帯電話機)が撮像専用に製造されていないため、撮像時のホールド性が悪いという問題がある。また、携帯電話カメラは、フラッシュがないため、通常のデジタルカメラよりシャッタースピードが遅い。このような理由から携帯電話カメラにより被写体を撮像するときには、通常のカメラより手ぶれが起きやすい。極端な手ぶれは、携帯電話カメラのモニタで確認することができるが、小さな手ぶれは、モニタで確認することができず、プリントして初めて画像のぶれに気付くことが多いため、携帯電話カメラにより撮像して得た写真画像に対してぶれの補正を施す必要性が高い。
特開2002−112099号公報 特開平7−121703号公報
On the other hand, the mobile phone camera has a problem in that the holdability at the time of imaging is poor because the main body (cell phone) is not manufactured exclusively for imaging. In addition, since the mobile phone camera does not have a flash, the shutter speed is slower than that of a normal digital camera. For this reason, camera shake is more likely to occur when shooting a subject with a mobile phone camera than with a normal camera. Extreme camera shake can be confirmed on the monitor of the mobile phone camera, but small camera shake cannot be confirmed on the monitor, and since it is often noticed only after printing, it is captured by the mobile phone camera. Therefore, it is highly necessary to perform blur correction on the photographic image obtained.
Japanese Patent Laid-Open No. 2002-112099 JP-A-7-121703

しかしながら、携帯電話機の小型化は、その性能、コストに並び、各携帯電話機メーカの競争の焦点の1つであり、携帯電話機付属のカメラに、ぶれの方向やぶれ幅を取得する装置を設けることが現実的ではないため、特許文献1に提案されたような方法は、携帯電話カメラに適用することができない。   However, downsizing of mobile phones is one of the focus of competition among mobile phone manufacturers, along with their performance and cost, and a camera attached to a mobile phone is provided with a device that acquires the direction and width of blur. Since it is not realistic, the method proposed in Patent Document 1 cannot be applied to a mobile phone camera.

また、特許文献2に提案された方法は、ユーザにより小領域の指定を必要とするため、面倒である。さらに、写真画像には、顔などの主要被写体をアップにして撮像した被写界深度の浅い画像や、被写体または被写体の一部が動いたときに撮像された画像や、躍動感を得るために流し撮りされた画像などがあり、このような画像の場合、画像中の一部分のみがぼけている。ユーザにより指定された小領域がぼけた部分に位置すると、適切な劣化関数を求めることができず、補正した画像の画質は反って劣化してしまうという問題がある。   Further, the method proposed in Patent Document 2 is troublesome because it requires a user to specify a small area. Furthermore, photographic images include images with a shallow depth of field that are captured with the main subject such as the face up, images captured when the subject or part of the subject moves, and a dynamic feeling There are images shot in the panning, and in such an image, only a part of the image is blurred. If the small area designated by the user is located in a blurred portion, there is a problem that an appropriate deterioration function cannot be obtained, and the image quality of the corrected image is deteriorated.

本発明は、上記事情に鑑み、特別な装置を撮像装置に設けることを必要とせずにデジタル写真画像におけるボケの補正を効率良く行うことを可能にすると共に、被写界深度の浅い画像のような一部分のみがぼけている画像に対しても適切な補正を行うことができる画像処理方法および装置並びにそのためのプログラムを提供することを目的とするものである。   In view of the above circumstances, the present invention makes it possible to efficiently perform blur correction in a digital photographic image without requiring a special device to be provided in the imaging device, and as an image with a shallow depth of field. An object of the present invention is to provide an image processing method and apparatus capable of performing appropriate correction even on an image in which only a part is blurred, and a program therefor.

本発明の画像処理方法は、デジタル写真画像におけるボケを補正する画像処理方法において、
前記デジタル写真画像を構成する各領域の画像を夫々用いて当該領域の画像のボケの度合いを含むボケ情報を取得し、
前記ボケ情報に基づいて、前記ボケの度合いが大きい領域ほど該領域の画像に対する前記補正の強度を強めるようにして前記各領域の画像に対するボケ補正を行うことを特徴とするものである。
An image processing method of the present invention is an image processing method for correcting blur in a digital photographic image.
Obtain blur information including the degree of blur of the image of each area using the image of each area constituting the digital photographic image,
Based on the blur information, blur correction is performed on the image of each region so that the region with a higher degree of blur increases the intensity of the correction on the image of the region.

ここで、「ボケの度合い」とは、対象となる画像(以下、対象画像という。ここではデジタル写真画像を構成する各領域の画像となる)がボケ画像である場合にそのボケの程度を示す情報であり、例えば、ボケ幅とすることができる。なお、ぼけていない画像の場合は、そのボケの度合いをゼロとすることができる。また、前述したように、ボケには無方向のピンボケと有方向のぶれがあり、ぶれの場合においては、「ボケの度合い」がぶれの度合いに相当し、例えばぶれ幅とすることができる。   Here, the “degree of blur” indicates the degree of blur when the target image (hereinafter referred to as the target image. Here, the image of each area constituting the digital photographic image) is a blur image. For example, it may be a blur width. In the case of an image that is not blurred, the degree of blur can be set to zero. In addition, as described above, blur includes non-directional defocus and directional blur. In the case of blur, “the degree of blur” corresponds to the blur degree, and can be, for example, the blur width.

また、ボケの度合いが大きい領域の画像ほど、それに対する補正の強度を強めることは、ボケの度合いが小さい領域の画像ほど、それに対する補正の強度を弱めることと同じことを意味し、ボケの度合いが所定の閾値以下の領域の画像に対して補正を行わない、すなわち補正強度をゼロにすることも含む。   In addition, increasing the intensity of correction for an image with a higher degree of blur means that the image with an area with a lower degree of blur has the same effect as decreasing the intensity of correction for the image. In other words, the correction is not performed on an image in a region where is less than or equal to a predetermined threshold, that is, the correction intensity is set to zero.

また、「前記各領域の画像に対するボケ補正を行う」とは、各領域のボケ情報に応じて画像全体に亘って各領域ごとに補正することに限らず、一つまたは複数の領域のボケ情報に応じて、画像全体を補正することも含み、さらに、一つまたは少数の領域のボケ情報に応じて二つ以上の領域について補正することも含むものとする。   Further, “to perform blur correction on the image of each area” is not limited to correcting each area over the entire image according to the blur information of each area, but blur information of one or a plurality of areas Accordingly, the correction of the entire image is included, and correction of two or more areas is also included according to the blur information of one or a small number of areas.

本発明の画像処理方法は、対象画像におけるボケの度合いを求めるのに当たり、前記各領域の画像に対してエッジを検出し、検出された前記エッジの特徴量を取得し、取得された該特徴量に基づいて該領域の前記ボケ情報を求めるようにすることができる。   In the image processing method of the present invention, when obtaining the degree of blur in the target image, an edge is detected from the image of each region, the feature amount of the detected edge is acquired, and the acquired feature amount The blur information of the area can be obtained based on the above.

前述したように、ボケは画像中の点像の広がりを引き起こすため、ボケがある画像(以下ボケ画像という)には、点像の広がりに応じたエッジの広がりが生じる。すなわち、画像中におけるエッジの広がりの態様は画像中におけるボケと直接関係するものである。本発明は、この点に着目して、夫々の領域の画像におけるエッジの特徴量に基づいてこの領域のボケ情報を求めることができる。   As described above, the blur causes the spread of the point image in the image. Therefore, in the blurred image (hereinafter referred to as the blur image), the edge spreads according to the spread of the point image. That is, the manner of edge spreading in the image is directly related to the blur in the image. Focusing on this point, the present invention can determine the blur information of this area based on the feature amount of the edge in the image of each area.

ここで、「エッジの特徴量」は、対象画像におけるエッジの広がりの態様と関係する特徴量を意味し、例えば、エッジの鮮鋭度、前記エッジの鮮鋭度の分布を含むものとすることができる。   Here, the “edge feature amount” means a feature amount related to an aspect of the edge spread in the target image, and may include, for example, the edge sharpness and the edge sharpness distribution.

「エッジの鮮鋭度」は、エッジの鮮鋭さを現すことができるものであれば如何なるパラメータを用いてもよく、例えば、図3のエッジプロファイルにより示されるエッジの場合、エッジ幅が大きいほどエッジの鮮鋭度が低いように、エッジ幅をエッジの鮮鋭度として用いることは勿論、エッジの明度変化の鋭さ(図3におけるプロファイル曲線の勾配)が高いほどエッジの鮮鋭度が高いように、エッジのプロファイル曲線の勾配をエッジの鮮鋭度として用いるようにしてもよい。   As the “edge sharpness”, any parameter that can express the sharpness of the edge may be used. For example, in the case of the edge shown by the edge profile in FIG. The edge profile is not only used as the edge sharpness so that the sharpness is low, but also the sharpness of the edge is higher as the sharpness of the brightness change of the edge (the slope of the profile curve in FIG. 3) is higher. The slope of the curve may be used as the edge sharpness.

また、前述したように、ボケには無方向性のボケとなるピンボケと有方向性のぼけとなるぶれがあり、画像中のボケを適切に補正するために、画像中のボケの方向(ピンボケの場合は、「無方向」のボケ方向となる)に応じて、無方向性のボケに対しては各方向に対して同じく作用する等方性のフィルタなどを適用して補正する一方、有方向性のボケに対してはボケの方向(すなわちぶれ方向)に作用する異方性のフィルタを適用して補正することが望ましい。本発明の画像処理方法は、各前記領域の画像に対して、複数の異なる方向毎にエッジを検出し、各前記方向における前記エッジの特徴量を取得し、該エッジ特徴量に基づいて該領域の画像の前記ボケの度合いのみならず、ボケの方向もボケ情報として取得することが好ましい。   In addition, as described above, there are blurs that cause non-directional blur and blurs that cause directional blur, and in order to appropriately correct the blur in the image, the direction of the blur (out-of-focus) In this case, the non-directional blur direction is corrected by applying an isotropic filter that works in the same direction for non-directional blur. It is desirable to correct directional blur by applying an anisotropic filter that acts in the direction of blur (that is, blur direction). In the image processing method of the present invention, an edge is detected in each of a plurality of different directions with respect to the image of each region, the feature amount of the edge in each of the directions is acquired, and the region is based on the edge feature amount. It is preferable to acquire not only the degree of blur of the image but also the direction of blur as blur information.

ここで、前記「複数の異なる方向」とは、対象画像におけるボケの方向を特定するための方向を意味し、ボケの方向に近い方向を含むことが必要であるため、その数が多ければ多いほど特定の精度が高いが、処理速度との兼ね合いに応じた適宜な個数、例えば、図2に示すような8方向を用いることが好ましい。なお、本発明において、無方向性のボケすなわちピンボケの場合において、「無方向」をボケ方向とする。   Here, the “plurality of different directions” means directions for specifying the direction of blur in the target image, and it is necessary to include directions close to the direction of blur. Although the specific accuracy is higher, it is preferable to use an appropriate number according to the balance with the processing speed, for example, eight directions as shown in FIG. In the present invention, in the case of non-directional blur, that is, out-of-focus, “non-direction” is defined as the blur direction.

また、ボケの度合いを表すことができるボケ幅は、ボケ方向におけるボケの幅を意味し、例えば、ボケ方向におけるエッジのエッジ幅の平均値とすることができる。また、ボケが無方向性のピンボケの場合において、任意の1つの方向におけるエッジのエッジ幅の平均値をボケ幅としてもよいが、前記複数の異なる方向に含まれる全ての方向におけるエッジのエッジ幅の平均値とすることが好ましい。   The blur width that can represent the degree of blur means the blur width in the blur direction, and can be, for example, the average value of the edge widths of the edges in the blur direction. In addition, in the case where the blur is non-directional out-of-focus, the average value of the edge width in one arbitrary direction may be used as the blur width, but the edge width of the edge in all the different directions included in the plurality of different directions. It is preferable to make it an average value.

本発明の画像処理装置は、デジタル写真画像におけるボケを補正する画像処理装置であって、
前記デジタル写真画像を構成する各領域の画像を夫々用いて当該領域の画像のボケの度合いを含むボケ情報を取得するボケ情報取得手段と、
前記ボケ情報に基づいて、前記ボケの度合いが大きい領域ほど該領域の画像に対する前記補正の強度を強めるようにして前記各領域の画像に対するボケ補正を行う補正実行手段とを有してなるものであること特徴とするものである。
An image processing apparatus of the present invention is an image processing apparatus for correcting blur in a digital photographic image,
Blur information acquisition means for acquiring blur information including the degree of blur of the image of the area using the image of each area constituting the digital photographic image;
Based on the blur information, the image processing apparatus includes correction execution means for performing blur correction on the image in each area so that the area with the greater degree of blur increases the intensity of the correction on the image in the area. It is characterized by being.

前記ボケ情報取得手段は、前記各領域の画像に対してエッジを検出し、検出された前記エッジの特徴量を取得し、該特徴量に基づいて該領域の前記ボケ情報を取得するものとすることができる。   The blur information acquisition unit detects an edge in the image of each region, acquires a feature amount of the detected edge, and acquires the blur information of the region based on the feature amount. be able to.

また、前記ボケ情報として、ボケの方向も含むことが好ましく、前記ボケ情報取得手段は、前記各領域の画像に対して、複数の異なる方向毎にエッジを検出し、前記各方向における前記エッジの特徴量を取得し、該各方向における前記特徴量に基づいて該領域の画像の前記ボケ情報を取得するものであることが好ましい。   The blur information preferably includes a blur direction, and the blur information acquisition unit detects an edge for each of a plurality of different directions from the image of each region, and the edge information in each direction is detected. It is preferable that the feature amount is acquired, and the blur information of the image of the region is acquired based on the feature amount in each direction.

また、本発明の画像処理方法を、コンピュータに実行させるためのプログラムとして提供するようにしてもよい。   The image processing method of the present invention may be provided as a program for causing a computer to execute the image processing method.

なお、前記領域は、前記画像全体を予め決められた所定の領域に分割されたものでもよいし、前記画像中のオブジェクト、例えば顔、目等のサイズごとに領域分割されたものでもおいし、前記画像のサイズに応じた分割率で分割されたものでもよい。   The area may be the entire image divided into predetermined areas, or may be divided into areas for each size of an object in the image, such as a face, an eye, and the like. The image may be divided at a division rate according to the image size.

本発明の画像処理方法および装置並びにプログラムによれば、デジタル写真画像を構成する各領域の画像毎に、該領域の画像を用いてそのボケの度合いを含むボケ情報を求めて該領域の画像の補正を行うようにしているので、領域の指定をユーザにさせる必要がないと共に、撮像時にぶれに関する情報を取得するための装置を設ける必要がないため、撮像装置を大型化することを避けることができ、特に小型化を必須条件とする携帯電話機付属のデジタルカメラの場合には、メリットが大きい。   According to the image processing method, apparatus, and program of the present invention, for each image in each area constituting a digital photographic image, blur information including the degree of the blur is obtained using the image in the area, and the image of the area is determined. Since correction is performed, it is not necessary for the user to designate a region, and it is not necessary to provide a device for acquiring information about blurring at the time of imaging, thereby avoiding an increase in the size of the imaging device. This is particularly advantageous in the case of a digital camera attached to a mobile phone, which requires miniaturization.

また、デジタル写真画像を構成する各領域の画像のボケの度合いに応じて、ボケの度合いが大きいほど、該領域の画像の補正強度を強めるようにして補正を行うようにしているので、被写界深度の浅いデジタル写真画像や、流し撮りにより得られたデジタル写真画像のような一部分のみがぼけている画像の場合においても、適切な補正を行うことができる。   Also, according to the degree of blur of the image of each area constituting the digital photographic image, the greater the degree of blur, the higher the correction strength of the image of that area, so that the correction is performed. Even in the case of a digital photograph image with a shallow depth of field or an image in which only a part is blurred, such as a digital photograph image obtained by panning, appropriate correction can be performed.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態となる画像処理装置の構成を示すブロック図である。なお、本実施形態の画像処理装置は、入力されたデジタル画像(以下、画像という)に対して、画像中のボケを補正するボケ補正処理を行うものであり、補助記憶装置に読み込まれたボケ補正処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、このボケ補正処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. Note that the image processing apparatus according to the present embodiment performs a blur correction process for correcting blur in an input digital image (hereinafter referred to as an image), and the blur read in the auxiliary storage device is performed. This is realized by executing the correction processing program on a computer (for example, a personal computer). The blur correction processing program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

また、画像データは画像を表すものであるため、以下、特に画像と画像データの区別をせずに説明を行う。   Further, since the image data represents an image, the following description will be given without particularly distinguishing the image from the image data.

図1に示すように、本発明の実施形態の画像処理装置は、画像Dに対して縮小処理を行って画像Dの縮小画像D0を得る縮小手段5と、縮小画像D0を用いて、図2に示す8つの異なる方向毎にエッジを検出するエッジ検出手段10と、縮小画像D0を16分割すると共に、エッジ検出手段10により検出されたエッジをブロック毎に後述するエッジプロファイル作成手段13に出力するブロック分割手段11と、ブロック分割手段11から出力されてきたエッジのプロファイルをブロック毎に作成するエッジプロファイル作成手段13と、各ブロックに対して無効なエッジを除去するエッジ絞込手段14と、エッジ絞込手段14により得られたエッジの特徴量Sをブロック毎に取得するエッジ特徴量取得手段16と、ブロック毎のエッジ特徴量Sを用いて、各ブロックの画像におけるボケ方向およびボケ度Nを算出して夫々のブロックの画像がボケ画像か通常画像かを判別し、通常画像の場合には、該ブロックの画像が通常画像であることを示す情報Pを後述するパラメータ設定手段30に送信する一方、ボケ画像の場合には、さらにこのブロックの画像のぶれ度K、ボケ幅Lを算出して、ボケ方向と共にボケ情報Qとしてパラメータ設定手段30に送信する解析手段20と、解析手段20からの情報Pおよびボケ情報Qに基づいて画像Dの各ブロックの画像に対して補正を行うためのパラメータE、補正強度αを夫々設定するパラメータ設定手段30と、パラメータEおよび補正強度αを用いて画像Dの各領域の画像に対して補正を行って画像Dの補正済画像D’を得る補正実行手段40と、解析手段20およびパラメータ設定手段30のための種々のデータベースを記憶した記憶手段50とを有してなる。   As shown in FIG. 1, the image processing apparatus according to the embodiment of the present invention uses a reduction unit 5 that performs reduction processing on an image D to obtain a reduced image D0 of the image D, and a reduced image D0. The edge detection means 10 for detecting edges in each of the eight different directions shown in FIG. 6 and the reduced image D0 are divided into 16 parts, and the edges detected by the edge detection means 10 are output to the edge profile creation means 13 described later for each block. A block dividing unit 11; an edge profile generating unit 13 for generating an edge profile output from the block dividing unit 11 for each block; an edge narrowing unit 14 for removing invalid edges for each block; Edge feature quantity acquisition means 16 for acquiring the edge feature quantity S obtained by the narrowing means 14 for each block, and edge characteristics for each block Using the amount S, the blur direction and the blur degree N in the image of each block are calculated to determine whether the image of each block is a blur image or a normal image. While information P indicating that the image is an image is transmitted to the parameter setting means 30 described later, in the case of a blurred image, the blur degree K and the blur width L of the image of this block are further calculated, and the blur information along with the blur direction is calculated. Analyzing means 20 transmitted to the parameter setting means 30 as Q, parameters E for correcting the image of each block of the image D based on information P and blur information Q from the analyzing means 20, and correction intensity α Correction execution for obtaining the corrected image D ′ of the image D by correcting the image of each region of the image D using the parameter setting means 30 to be set, the parameter E, and the correction intensity α. A stage 40, comprising a storage means 50 which stores various databases for analyzing unit 20 and the parameter setting means 30.

エッジ検出手段10は、縮小画像D0を用いて、図2に示すような8方向毎に、所定の強度以上のエッジを検出し、これらのエッジの座標位置を得てブロック分割手段11に出力する。   The edge detection means 10 uses the reduced image D0 to detect edges having a predetermined intensity or more in every eight directions as shown in FIG. 2, obtains the coordinate positions of these edges, and outputs them to the block division means 11. .

ブロック分割手段11は、エッジ検出手段10により検出された各々のエッジを、画像Dを16分割して得た16個のブロック毎に分けてエッジプロファイル作成手段13に出力する。なお、エッジプロファイル作成手段13、エッジ絞込手段14、エッジ特徴量取得手段16、および解析手段20は、ブロック毎に夫々の処理を行うものであり、以下、1つのブロックの画像をブロック画像Dbとし、このブロック画像Dbを例にして上記各手段について説明する。   The block dividing unit 11 divides each edge detected by the edge detecting unit 10 into 16 blocks obtained by dividing the image D into 16 and outputs the result to the edge profile creating unit 13. Note that the edge profile creation unit 13, the edge narrowing unit 14, the edge feature quantity acquisition unit 16, and the analysis unit 20 perform respective processes for each block. Hereinafter, an image of one block is converted into a block image Db. The above means will be described by taking the block image Db as an example.

エッジプロファイル作成手段13は、ブロック分割手段11から出力されてきたブロック画像Dbにおける各方向毎の各々のエッジの座標位置に基づいて、ブロック画像Dbを用いてこれらのエッジに対して、図3に示すようなエッジプロファイルを作成してエッジ絞込手段14に出力する。   Based on the coordinate position of each edge in each direction in the block image Db output from the block dividing unit 11, the edge profile creation unit 13 uses the block image Db to perform these edges in FIG. An edge profile as shown is created and output to the edge narrowing means 14.

エッジ絞込手段14は、エッジ検出手段10から出力されてきたブロック画像Dbのエッジのプロファイルに基づいて、複雑なプロファイル形状を有するエッジや、光源を含むエッジ(例えば一定の明度以上のエッジ)などの無効なエッジを除去し、残りのエッジのプロファイルをエッジ特徴量取得手段16に出力する。   The edge narrowing unit 14 is based on the edge profile of the block image Db output from the edge detection unit 10, an edge having a complex profile shape, an edge including a light source (for example, an edge having a certain brightness or more), and the like. , And the remaining edge profile is output to the edge feature quantity acquisition means 16.

エッジ特徴量取得手段16は、エッジ絞込手段14から出力されてきたブロック画像Dbのエッジのプロファイルに基づいて、図3に示すようなエッジ幅を各エッジに対して求め、図4に示すようなエッジ幅のヒストグラムを図2に示された8つの方向毎に作成してエッジ幅と共にブロック画像Dbのエッジ特徴量Sとして解析手段20に出力する。   Based on the edge profile of the block image Db output from the edge narrowing means 14, the edge feature quantity acquisition means 16 obtains an edge width as shown in FIG. 3 for each edge, as shown in FIG. 2 is generated for each of the eight directions shown in FIG. 2, and is output to the analysis unit 20 as the edge feature amount S of the block image Db together with the edge width.

解析手段20は、主として下記の2つの処理を行う。     The analysis means 20 mainly performs the following two processes.

1. ブロック画像Dbにおけるボケ方向、画像Dのボケ度Nを求めて、ブロック画像Dbがボケ画像か通常画像かを判別する。   1. The blur direction in the block image Db and the blur degree N of the image D are obtained to determine whether the block image Db is a blur image or a normal image.

2. ブロック画像Dbがボケ画像と判別された場合、ボケ幅L、ぶれ度Kを算出する。   2. When the block image Db is determined to be a blurred image, a blur width L and a blurring degree K are calculated.

ここで、1つ目の処理から説明する。   Here, the first process will be described.

解析手段20は、ブロック画像Dbにおけるボケ方向を求めるために、まず、図2に示す8つの方向のエッジ幅のヒストグラム(以下、ヒストグラムという)に対して、互いに直交する2つの方向を1方向組として各方向組(1−5、2−6、3−7、4−8)のヒストグラムの相関値を求める。なお、相関値は求め方によって様々な種類があり、相関値が大きければ相関が小さい種類と、相関値の大小と相関の大小とが一致する、すなわち相関値が小さければ相関が小さい種類との2種類に大きく分けることができる。本実施形態において、例として、相関値の大小と相関の大小とが一致する種類の相関値を用いる。図5に示すように、画像中にぶれがある場合には、ぶれ方向のヒストグラムと、ぶれ方向と直交する方向のヒストグラムとの相関が小さい(図5(a)参照)のに対して、ぶれと関係ない直交する方向組または画像中にぶれがない(ボケがないまたはピンボケ)場合の直交する方向組では、そのヒストグラムの相関が大きい(図5(b)参照)。本実施形態の画像処理装置における解析手段20は、このような傾向に着目し、4つの方向組に対して、各組のヒストグラムの相関値を求め、相関が最も小さい方向組の2つの方向を見付け出す。ブロック画像Dbにぶれがあれば、この2つの方向のうちの1つは、図2に示す8つの方向のうち、最もぶれ方向に近い方向として考えることができる。   In order to obtain the blur direction in the block image Db, the analysis unit 20 first sets two directions orthogonal to each other to a histogram of edge widths in eight directions shown in FIG. As a result, the correlation value of the histogram of each direction set (1-5, 2-6, 3-7, 4-8) is obtained. Note that there are various types of correlation values, depending on how they are obtained.If the correlation value is large, the correlation type is small, and if the correlation value is the same as the correlation level, that is, if the correlation value is small, the correlation type is small. It can be roughly divided into two types. In this embodiment, as an example, a correlation value of a type in which the magnitude of the correlation value matches the magnitude of the correlation is used. As shown in FIG. 5, when there is blur in the image, the correlation between the blur direction histogram and the histogram in the direction orthogonal to the blur direction is small (see FIG. 5A). The correlation of the histogram is large in the orthogonal direction set not related to or in the orthogonal direction set when there is no blur in the image (no blur or out of focus) (see FIG. 5B). The analysis unit 20 in the image processing apparatus according to the present embodiment pays attention to such a tendency, obtains a correlation value of the histogram of each group with respect to the four direction groups, and determines two directions of the direction group having the smallest correlation. Find out. If there is a blur in the block image Db, one of the two directions can be considered as a direction closest to the blur direction among the eight directions shown in FIG.

図5(c)は、ぶれ、ピンボケ、ボケ(ピンボケおよびぶれ)なしの撮像条件で同じ被写体を撮像して得た夫々の画像に対して求められた、このぶれの方向におけるエッジ幅のヒストグラムを示している。図5(c)からわかるように、ボケのない通常画像は、最も小さい平均エッジ幅を有し、すなわち、上記において見付け出された2つの方向のうち、平均エッジ幅が大きい方は、最もぶれに近い方向のはずである。   FIG. 5C is a histogram of edge widths in the blur direction obtained for each image obtained by imaging the same subject under imaging conditions without blur, blur, and blur (out of focus and blur). Show. As can be seen from FIG. 5 (c), the normal image without blur has the smallest average edge width, that is, of the two directions found above, the one with the largest average edge width is the most blurred. The direction should be close to.

解析手段20は、こうして、相関が最も小さい方向組を見付け、この方向組の2つの方向のうち、平均エッジ幅の大きい方をボケ方向とする。   In this way, the analysis unit 20 finds the direction set having the smallest correlation, and sets the direction having the larger average edge width as the blur direction among the two directions of the direction set.

次に、解析手段20は、ブロック画像Dbのボケ度Nを求める。画像のボケ度は、画像中のボケの程度の大小を示すものであり、例えば、画像中に最もぼけている方向(ここでは上記において求められたボケ方向)の平均エッジ幅を用いてもよいが、ここでは、ボケ方向における各々のエッジのエッジ幅を用いて図6に基づいたデータベースを利用してより精度良く求める。図6は、学習用の通常画像データベースとボケ(ピンボケおよびぶれ)画像データベースを元に、画像中の最もぼけている方向(通常画像の場合には、この方向に対応する方向が望ましいが、任意の方向であってもよい)のエッジ幅分布のヒストグラムを作成し、ボケ画像における頻度と通常画像における頻度(図示縦軸)の比率を評価値(図示スコア)としてエッジ幅毎に求めて得たものである。図6に基づいて、エッジ幅とスコアとを対応付けてなるデータベース(以下スコアデータベースという)が作成され、記憶手段50に記憶されている。   Next, the analysis means 20 calculates | requires the blurring degree N of the block image Db. The degree of blur of the image indicates the magnitude of the degree of blur in the image. For example, the average edge width in the direction most blurred in the image (here, the blur direction obtained above) may be used. However, here, the edge width of each edge in the blur direction is used to obtain more accurately using the database based on FIG. FIG. 6 is based on a normal image database for learning and a blurred (blurred and blurred) image database, and the direction in which the image is most blurred (in the case of a normal image, a direction corresponding to this direction is desirable, but arbitrary The edge width distribution histogram (which may be the direction of the image) is created, and the ratio between the frequency in the blurred image and the frequency in the normal image (the vertical axis in the drawing) is obtained for each edge width as an evaluation value (the score in the drawing). Is. Based on FIG. 6, a database (hereinafter referred to as a score database) in which edge widths and scores are associated with each other is created and stored in the storage unit 50.

解析手段20は、図6に基づいて作成され、記憶手段50に記憶されたスコアデータベースを参照し、ブロック画像Dbのボケ方向の各エッジに対して、そのエッジ幅からスコアを取得し、ボケ方向の全てのエッジのスコアの平均値をブロック画像Dbのボケ度Nとして求める。求められたブロック画像Dbのボケ度Nが所定の閾値Tより小さければ、解析手段20は、ブロック画像Dbを通常画像として判別する、すなわちブロック画像Dbにボケがないと判別すると共に、ブロック画像Dbが通常画像であることを示す情報Pをパラメータ設定手段30に出力する。   The analysis unit 20 refers to the score database created based on FIG. 6 and stored in the storage unit 50, obtains a score from the edge width of each edge in the blur direction of the block image Db, and blur direction Is obtained as the degree of blur N of the block image Db. If the obtained blur degree N of the block image Db is smaller than a predetermined threshold T, the analysis unit 20 determines that the block image Db is a normal image, that is, determines that the block image Db is not blurred, and also determines the block image Db. Is output to the parameter setting means 30.

一方、ブロック画像Dbのボケ度Nが閾値T以上であれば、解析手段20は、ブロック画像Dbがボケ画像である、すなわちブロック画像Dbにボケがあると判別し、上記2つ目の処理に入る。   On the other hand, if the degree of blur N of the block image Db is equal to or greater than the threshold value T, the analysis unit 20 determines that the block image Db is a blurred image, that is, the block image Db is blurred, and performs the second process. enter.

解析手段20は、2つ目の処理として、まず、ブロック画像Dbのぶれ度Kを求める。   As the second process, the analysis unit 20 first obtains the degree of blur K of the block image Db.

ボケ画像のボケにおけるぶれの程度の大小を示すぶれ度Kは、下記のような要素に基づいて求めることができる。   The degree of blur K indicating the degree of blur in the blur image can be obtained based on the following factors.

1.相関が最も小さい方向組(以下相関最小組)の相関値:この相関値が小さいほどぶれの程度が大きい
解析手段20は、この点に着目して、図7(a)に示す曲線に基づいて第1のぶれ度K1を求める。なお、図7(a)に示す曲線に応じて作成されたLUT(ルックアップテーブル)は、記憶手段50に記憶されており、解析手段20は、相関最小組の相関値に対応する第1のぶれ度K1を、記憶手段50から読み出すようにして第1のぶれ度K1を求める。
1. Correlation value of the direction group with the smallest correlation (hereinafter referred to as the minimum correlation group): The smaller the correlation value, the greater the degree of blurring. The analysis means 20 pays attention to this point and based on the curve shown in FIG. First blur degree K1 is obtained. Note that the LUT (look-up table) created according to the curve shown in FIG. 7A is stored in the storage unit 50, and the analysis unit 20 uses the first correlation value corresponding to the correlation value of the minimum correlation set. The first blur degree K1 is obtained by reading the blur degree K1 from the storage means 50.

2.相関最小組の2つの方向のうち、平均エッジ幅が大きい方向の平均エッジ幅:この平均エッジ幅が大きいほどぶれの程度が大きい
解析手段20は、この点に着目して、図7(b)に示す曲線に基づいて第2のぶれ度K2を求める。なお、図7(b)に示す曲線に応じて作成されたLUT(ルックアップテーブル)は、記憶手段50に記憶されており、解析手段20は、相関最小組の平均エッジ幅が大きい方向の平均エッジ幅に対応する第2のぶれ度K2を、記憶手段50から読み出すようにして第2のぶれ度K2を求める。
2. Of the two directions of the minimum correlation set, the average edge width in the direction where the average edge width is large: The larger the average edge width, the greater the degree of blurring. The analysis means 20 pays attention to this point, and FIG. A second blurring degree K2 is obtained based on the curve shown in FIG. Note that the LUT (look-up table) created according to the curve shown in FIG. 7B is stored in the storage unit 50, and the analysis unit 20 calculates the average of the smallest correlation pair in the direction where the average edge width is large. The second blur degree K2 corresponding to the edge width is read from the storage means 50 to obtain the second blur degree K2.

3.相関最小組の2つの方向における夫々の平均エッジ幅の差:この差が大きいほどぶれの程度が大きい
解析手段20は、この点に着目して、図7(c)に示す曲線に基づいて第3のぶれ度K3を求める。なお、図7(c)に示す曲線に応じて作成されたLUT(ルックアップテーブル)は、記憶手段50に記憶されており、解析手段20は、相関最小組の2つの方向における夫々の平均エッジ幅の差に対応する第3のぶれ度K3を、記憶手段50から読み出すようにして第3のぶれ度K3を求める。
3. Difference between the average edge widths in the two directions of the minimum correlation set: The greater the difference, the greater the degree of blurring. The analysis means 20 pays attention to this point, based on the curve shown in FIG. 3 is calculated. Note that an LUT (lookup table) created according to the curve shown in FIG. 7C is stored in the storage unit 50, and the analysis unit 20 calculates the average edge in each of the two directions of the minimum correlation set. The third blur degree K3 corresponding to the width difference is read from the storage means 50 to obtain the third blur degree K3.

解析手段20は、このようにして第1のぶれ度K1、第2のぶれ度K2、第3のぶれ度K3を求めると共に、下記の式(1)に従って、K1、K2、K3を用いてボケ画像となるブロック画像Dbのぶれ度Kを求める。   In this way, the analysis means 20 obtains the first blur degree K1, the second blur degree K2, and the third blur degree K3, and blurs using K1, K2, and K3 according to the following equation (1). The degree of blur K of the block image Db to be an image is obtained.


K=K1×K2×K3 (1)
但し、K:ぶれ度
K1:第1のぶれ度
K2:第2のぶれ度
K3:第3のぶれ度

次に、解析手段20は、ボケ画像となるブロック画像Dbのボケ幅Lを求める。ここで、ぶれ度Kに関係なく、ボケ幅Lとしてボケ方向におけるエッジの平均幅を求めるようにしてもよいが、本実施形態においては図2に示す8つの方向のすべてにおけるエッジの平均エッジ幅を求めてボケ幅Lとする。

K = K1 × K2 × K3 (1)
Where K: degree of blurring K1: first degree of blurring K2: second degree of blurring K3: third degree of blurring

Next, the analysis unit 20 obtains a blur width L of the block image Db that becomes a blurred image. Here, regardless of the blurring degree K, the average edge width in the blur direction may be obtained as the blur width L. In this embodiment, the average edge width of the edges in all eight directions shown in FIG. Is determined as the blur width L.

解析手段20は、ボケ画像であるブロック画像Dbに対して、ぶれ度K、ボケ幅Lを求めて、ボケ方向と共にボケ情報Qとしてパラメータ設定手段30に出力する。   The analysis unit 20 obtains the blur degree K and the blur width L for the block image Db which is a blurred image, and outputs it to the parameter setting unit 30 as the blur information Q together with the blur direction.

パラメータ設定手段30は、まず、下記の式(2)に従って、方向性補正用の1次元補正パラメータW1および等方性補正用の2次元補正パラメータW2を設定する。   The parameter setting means 30 first sets a one-dimensional correction parameter W1 for directionality correction and a two-dimensional correction parameter W2 for isotropic correction according to the following equation (2).


W1=K×M1
W2=(1−K)×M2 (2)
但し、W1:1次元補正パラメータ
W2:2次元補正パラメータ
K:ぶれ度
M1:1次元補正マスク
M2:2次元補正マスク

即ち、ボケ画像となるブロック画像Dbに対して、ぶれ度Kが大きいほど方向性補正の重みが大きくなるように補正パラメータW1とW2(合わせてパラメータEとする)を設定する。

W1 = K × M1
W2 = (1-K) × M2 (2)
However, W1: One-dimensional correction parameter
W2: Two-dimensional correction parameter
K: Degree of blur
M1: One-dimensional correction mask
M2: Two-dimensional correction mask

That is, the correction parameters W1 and W2 (collectively, parameter E) are set so that the weight of directionality correction increases as the degree of blur K increases with respect to the block image Db that becomes a blurred image.

そして、パラメータ設定手段30は、ブロック画像Dbのボケ幅Lに応じて、ボケ幅Lが大きいほど大きくなるようにブロック画像Dbの補正強度αを設定する。   Then, the parameter setting unit 30 sets the correction strength α of the block image Db according to the blur width L of the block image Db so as to increase as the blur width L increases.

パラメータ設定手段30は、このようにして各ブロック(本実施形態においては、例として16個のブロック)の画像に補正パラメータEと補正強度αを設定して補正実行手段40に出力する。なお、ボケ画像ではないと判別されたブロックの画像、すなわち解析手段20から情報Pが出力されてきたブロック画像に対しては、補正しないように補正パラメータを設定しない。   In this way, the parameter setting unit 30 sets the correction parameter E and the correction strength α to the image of each block (in the present embodiment, 16 blocks as an example) and outputs the image to the correction execution unit 40. It should be noted that the correction parameter is not set so as not to be corrected for an image of a block that is determined not to be a blurred image, that is, a block image for which information P has been output from the analysis unit 20.

補正実行手段40は、各ブロックの画像に対して、その高周波数成分を強調することによって画像Dのボケを補正するものであり、具体的には、ブロック画像Dbの高周波数成分(Dhとする)を分離し、下記の式(3)に従って、パラメータ設定手段30により得られた補正パラメータEと補正強度αを用いて、高周波数成分Dhを強調することによってブロック画像Dbのボケを補正する。   The correction execution unit 40 corrects the blur of the image D by emphasizing the high frequency component of each block image. Specifically, the correction execution unit 40 sets the high frequency component (Dh) of the block image Db. ) And the blur of the block image Db is corrected by emphasizing the high frequency component Dh using the correction parameter E and the correction intensity α obtained by the parameter setting unit 30 according to the following equation (3).


Db’=Db+α×E×Dh (3)
但し,Db’:補正済みブロック画像
Db:補正前のブロック画像
Dh:ブロック画像Dbの高周波数成分
E:補正パラメータ
α:補正強度

補正強度αが、ブロック画像におけるボケ幅Lに応じて、ボケ幅Lが大きいほど大きくなるように設定されているので、式(3)から分かるように、ボケ幅Lが大きいブロック画像(ボケ画像であるブロック画像)ほど強く補正される。なお、補正実行手段40は、補正パラメータEおよび補正強度αが設定されていないブロックの画像に対して、補正をしないように動作する。

Db ′ = Db + α × E × Dh (3)
Where Db ′: corrected block image
Db: Block image before correction
Dh: high frequency component of the block image Db
E: Correction parameter
α: Correction strength

Since the correction intensity α is set so as to increase as the blur width L increases in accordance with the blur width L in the block image, a block image (blurred image) having a large blur width L can be seen from Equation (3). (Block image) is more strongly corrected. The correction execution unit 40 operates so as not to correct the image of the block for which the correction parameter E and the correction strength α are not set.

次いで、補正実行手段40は、ボケ画像であるブロック画像を補正して得た各々の補正済みブロック画像と、ボケ画像ではないブロック画像とを合成して画像Dの補正済み画像D’を得る。   Next, the correction execution unit 40 combines each corrected block image obtained by correcting the block image that is a blurred image and a block image that is not the blurred image to obtain a corrected image D ′ of the image D.

図8は、図1に示す実施形態の画像処理装置において行われる処理を示すフローチャートである。図示のように、入力された画像Dに対して、まず縮小手段5は縮小処理を行って縮小画像D0を得る(S10)。次いでエッジ検出手段10は、縮小画像D0を用いて、図2に示す8つの異なる方向毎にエッジを検出し、検出された各エッジの座標位置を得る(S15)。ブロック分割手段11は、縮小画像D0を16分割すると共に、エッジ検出手段10により検出されたエッジを分割されたブロック毎に後述するエッジプロファイル作成手段13に出力する(S20)。エッジプロファイル作成手段13、エッジ絞込手段14、エッジ特徴量取得手段16、解析手段20は、16つのブロックの画像に対して、夫々エッジプロファイルの作成、無効なエッジを排除するエッジ絞り込み、エッジ特徴量の取得、特徴量に基づいた解析を行うことによって、各ブロックの画像がボケ画像であるか否かの判別がなされると共に、ボケ画像であるブロック画像のボケ幅L、ぶれ度、ボケ方向がボケ情報Qとして得られる(S25)。パラメータ設定手段30は、ボケ画像であるブロック画像に対して、そのボケ情報Qに基づいて補正パラメータEを設定すると共に、ボケ情報Qに含まれるボケ幅Lに応じて、ボケ幅Lが大きいほど大きくなるようにそのブロックの画像に対する補正強度αを設定する。なお、パラメータ設定手段30は、ボケ画像ではないブロック画像に対しては、補正パラメータの設定をしない(S30)。補正実行手段40は、パラメータ設定手段30により得られた補正パラメータEおよび補正強度αで該当するブロック画像の補正を行って補正済みブロック画像を得ると共に、補正済みブロック画像と、パラメータ設定手段30により補正パラメータの設定が行われていないブロック画像とを合成して画像Dの補正済み画像D’を得る(S35)。   FIG. 8 is a flowchart showing processing performed in the image processing apparatus of the embodiment shown in FIG. As shown in the figure, the reduction means 5 first performs a reduction process on the input image D to obtain a reduced image D0 (S10). Next, the edge detection means 10 uses the reduced image D0 to detect edges in each of the eight different directions shown in FIG. 2, and obtains the coordinate position of each detected edge (S15). The block dividing means 11 divides the reduced image D0 into 16 and outputs the edges detected by the edge detecting means 10 to the edge profile creating means 13 described later for each divided block (S20). The edge profile creation means 13, the edge narrowing means 14, the edge feature quantity acquisition means 16 and the analysis means 20 respectively create edge profiles, edge narrowing to eliminate invalid edges, and edge features for the images of 16 blocks. By acquiring the amount and performing analysis based on the feature amount, it is determined whether or not each block image is a blurred image, and the blur width L, blur degree, and blur direction of the block image that is the blurred image are determined. Is obtained as blur information Q (S25). The parameter setting unit 30 sets the correction parameter E based on the blur information Q for the block image that is a blurred image, and the larger the blur width L is, the larger the blur width L is according to the blur width L included in the blur information Q. The correction strength α for the image of the block is set so as to increase. The parameter setting unit 30 does not set correction parameters for block images that are not blurred images (S30). The correction execution unit 40 corrects the corresponding block image with the correction parameter E and the correction strength α obtained by the parameter setting unit 30 to obtain a corrected block image, and the corrected block image and the parameter setting unit 30 The corrected image D ′ of the image D is obtained by synthesizing with the block image for which the correction parameter is not set (S35).

このように、本実施形態の画像処理装置によれば、デジタル写真画像からボケ情報を取得してボケを補正するようにしているので、撮影時に特別な装置を必要とせずに画像のボケを補正することができる。   As described above, according to the image processing apparatus of the present embodiment, blur information is acquired from a digital photographic image and the blur is corrected. Therefore, the blur of the image is corrected without requiring a special device at the time of shooting. can do.

また、取得したボケ情報に基づいて補正用のパラメータを設定して補正しているので、パラメータの設定、補正、評価、再設定、・・・の試行錯誤を繰り返す必要がなく、効率が良い。   Further, since correction parameters are set and corrected based on the acquired blur information, it is not necessary to repeat trial and error of parameter setting, correction, evaluation, resetting,.

また、画像Dを構成する各ブロックの画像のボケの度合い(ここではボケ幅L)に応じて、ボケの度合いが大きいほど、該ブロックの画像の補正強度を強めるようにして補正を行うようにしているので、被写界深度の浅い写真画像や、撮像時に被写体の一部が動いた写真画像や、写真流し撮りにより得られた写真画像のような一部分のみがぼけている画像の場合においても、適切な補正を行うことができる。   Further, according to the degree of blur of the image of each block constituting the image D (in this case, the blur width L), the correction is performed by increasing the correction strength of the image of the block as the degree of blur is larger. Therefore, even in the case of a photographic image with a shallow depth of field, a photographic image in which a part of the subject has moved during imaging, or a photographic image obtained by taking a picture, only a part of it is blurred. Appropriate correction can be performed.

以上、本発明の望ましい実施形態について説明したが、本発明の画像処理方法および装置並びにそのためのプログラムは、上述した実施形態に限られることがなく、本発明の主旨を逸脱しない限り、上述した各実施形態の構成を組み合わせたり、増減、変化を加えたりすることができる。   The preferred embodiments of the present invention have been described above. However, the image processing method and apparatus of the present invention and the program therefor are not limited to the above-described embodiments, and each of the above-described embodiments is not departed from the gist of the present invention. The configuration of the embodiment can be combined, increased, decreased, or changed.

例えば、上述の実施形態の画像処理装置は、画像Dを16の領域にブロック分割しているが、他の分割率で分割を行ってもよい。また、この領域の分割は、このように画像全体を予め決められた所定の領域にブロック分割したものでなくても、例えば、画像中のオブジェクト、例えば顔、目等のサイズごとに領域分割したものでもよいし、さらに、100万画素の画像を16分割し、200万画素の画像を32分割するというように、画像Dのサイズに応じて異なる分割率で領域の分割を行うようにしてもよい。   For example, although the image processing apparatus according to the above-described embodiment divides the image D into 16 regions, the image D may be divided at other division ratios. In addition, even if the entire image is not divided into predetermined areas as described above, the area is divided into areas for each size of an object in the image, such as a face and an eye, for example. It is also possible to divide the region with different division ratios according to the size of the image D, such as dividing the image of 1 million pixels into 16 and dividing the image of 2 million pixels into 32. Good.

また、上述の実施形態の画像処理装置は、相関最小組の2つの方向のうち、平均エッジ幅が大きい方向をボケ方向としているが、例えば、相関最小組(相関値が1番目に小さい方向組)と、相関値が2番目に小さい方向組について、夫々ぶれ度を算出し、方向組の2つの方向のうち、平均エッジ幅が大きい方向をボケ方向とするようにして2つの方向組からボケ候補方向を夫々取得し、取得された2つのボケ候補方向を、算出された2つのぶれ度に応じて、ぶれ度が大きい方向組ほど、該方向組に含まれるボケ候補方向の重みが大きくなるように重み付けしてボケ方向を得るようにしてもよい。この場合、ボケ幅も、2つのボケ候補方向における夫々の平均エッジ幅を、ぶれ度が大きい方向組ほど、該方向組に含まれるボケ候補方向の平均エッジ幅の重みが大きくなるように重み付けしてボケ幅を得ることができる。   In the image processing apparatus according to the above-described embodiment, the direction with the largest average edge width among the two directions of the minimum correlation set is the blur direction. For example, the minimum correlation set (the direction set with the smallest correlation value) is used. ) And the direction set with the second smallest correlation value, the degree of blurring is calculated for each direction set, and the direction with the larger average edge width of the two directions in the direction set is set as the blurred direction. Candidate directions are acquired, and the obtained blur candidate directions are weighted according to the two calculated blur degrees, the greater the blur group, the greater the weight of the blur candidate directions included in the direction group. The blur direction may be obtained by weighting as described above. In this case, the blur width is also weighted so that the average edge width in each of the two blur candidate directions has a greater weight for the blur candidate direction included in the direction set in a direction set with a higher degree of blurring. The bokeh width can be obtained.

また、上述の実施形態において、解析手段20は、ボケ画像となるブロック画像に対して、そのボケがピンボケかぶれかの区別をせず、ボケ画像として判別されたブロック画像であれば、ぶれ度を求めてぶれ度に応じた重み付け係数(本実施形態の画像処理装置においては、ぶれ度そのものを重み付け係数にしている)で当方性補正パラメータと方向性補正パラメータを重み付け合算して補正パラメータを得て補正するようにしているが、例えば、ぶれ度が所定の閾値より小さいボケ画像をピンボケ画像とし、ピンボケ画像に対しては等方性補正パラメータのみを設定して補正を行うようにしてもよい。   Further, in the above-described embodiment, the analysis unit 20 does not distinguish whether the blur is out of focus with respect to the block image that becomes the blur image, and if the block image is determined as the blur image, the analysis unit 20 calculates the blur degree. A correction parameter is obtained by weighting and summing the isotropic correction parameter and the directionality correction parameter with a weighting coefficient corresponding to the degree of blurring (in the image processing apparatus of the present embodiment, the blurring degree itself is used as the weighting coefficient). Although correction is made, for example, a blur image whose blurring degree is smaller than a predetermined threshold value may be set as a blur image, and only the isotropic correction parameter may be set for the blur image.

また、図1に示す実施形態の画像処理装置は、画像に対してエッジ検出を行った後にブロック分割を行っているが、画像を分割してから、ブロック毎にエッジ検出を行うようにしてよい。   The image processing apparatus according to the embodiment shown in FIG. 1 performs block division after performing edge detection on an image. However, edge detection may be performed for each block after the image is divided. .

さらに、前記各領域の画像に対するボケ補正を行う態様としては、実施例に説明したように、各領域のボケ情報に応じて画像全体に亘って領域ごとに補正するものに限らず、一つまたは複数の領域のボケ情報に応じて、画像全体を補正することも含む。例えば、一つの領域のボケ情報により全体が同様にボケていると推定して、全体に同じ補正を施すようにしてもよいし、二つの隣接するあるいは離れた領域のボケ情報に応じて、それが同じであれば全体も同様であると推定して全体に同じ補正をかけるようにしてもよいし、異なっていればそれを参考にして、画像の全体に亘って補正の程度をそれに応じた案分したものとして補正をかけるようにしてもよい。また、一つの領域がボケていなければ、全体もボケていないピントの合った画像であると推定して、全体に亘って補正をしないようにすることもできる。   Furthermore, as described in the embodiment, the mode for performing blur correction on the image of each area is not limited to correction for each area over the entire image according to the blur information of each area. It also includes correcting the entire image according to blur information of a plurality of areas. For example, it may be assumed that the entire area is similarly blurred by the blur information of one area, and the same correction may be applied to the entire area, or depending on the blur information of two adjacent or separated areas. If they are the same, the whole may be assumed to be the same, and the same correction may be applied to the whole. You may make it correct | amend it as what was prorated. Further, if one area is not blurred, it can be estimated that the entire image is out of focus and correction is not performed over the entire area.

また、一つまたは少数の領域のボケ情報に応じて複数の領域について補正をすることも可能である。例えば、ボケの度合いの大きい領域に隣接する周辺画素に対してガウシアンフィルタ等を掛けて、隣接する領域間での補正量の変化を滑らかにして、領域の境界での画像のボケの補正の程度が滑らかになるようにすることもできる。   It is also possible to correct a plurality of areas according to blur information of one or a few areas. For example, by applying a Gaussian filter or the like to neighboring pixels adjacent to an area where the degree of blurring is high, the change in the correction amount between the adjacent areas is smoothed, and the degree of blurring correction of the image at the boundary of the area Can be made smooth.

以上説明した本発明による補正処理は、携帯電話カメラのみならず、通常のデジタルカメラにも適用できるのはもちろんのこと、デジタル画像データをプリントするプリンタにも適用することができる。   The correction processing according to the present invention described above can be applied not only to a mobile phone camera but also to a normal digital camera, as well as to a printer that prints digital image data.

本発明の実施形態となる画像処理装置の構成を示すブロック図1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. エッジを検出する際に用いられる方向を示す図Diagram showing the direction used when detecting edges エッジプロファイルを示す図Diagram showing edge profile エッジ幅のヒストグラムを示す図Diagram showing edge width histogram 解析手段20の動作を説明するための図The figure for demonstrating operation | movement of the analysis means 20 ボケ度の算出を説明するための図Diagram for explaining the calculation of the degree of blur ぶれ度の算出を説明するための図Diagram for explaining the calculation of blurring degree 図1に示す実施形態の画像処理装置の処理を示すフローチャートThe flowchart which shows the process of the image processing apparatus of embodiment shown in FIG.

符号の説明Explanation of symbols

5 縮小手段
10 エッジ検出手段
11 ブロック分割手段
13 エッジプロファイル作成手段
14 エッジ絞込手段
16 エッジ特徴量取得手段
20 解析手段
30 パラメータ設定手段
40 補正実行手段
50 記憶手段
D デジタル写真画像
D’ 補正済み画像
E 補正パラメータ
K ぶれ度
L ボケ幅
M1 1次元補正マスク
M2 2次元補正マスク
N ボケ度
P ボケ画像ではないことを示す情報
Q ボケ情報
S エッジ特徴量
α 補正強度
5 Reduction means 10 Edge detection means 11 Block division means 13 Edge profile creation means 14 Edge narrowing means 16 Edge feature amount acquisition means 20 Analysis means 30 Parameter setting means 40 Correction execution means 50 Storage means D Digital photograph image D 'Corrected image E correction parameter K blurring degree L blur width M1 one-dimensional correction mask M2 two-dimensional correction mask N blur degree P information indicating that it is not a blur image Q blur information S edge feature amount α correction strength

Claims (16)

デジタル写真画像におけるボケを補正する画像処理方法において、
前記デジタル写真画像を構成する各領域の画像を夫々用いて当該領域の画像のボケの度合いを含むボケ情報を取得し、
前記ボケ情報に基づいて、前記ボケの度合いが大きい領域ほど該領域の画像に対する前記補正の強度を強めるようにして前記各領域の画像に対するボケ補正を行うことを特徴とする画像処理方法。
In an image processing method for correcting blur in a digital photographic image,
Obtain blur information including the degree of blur of the image of each area using the image of each area constituting the digital photographic image,
An image processing method, wherein blur correction is performed on an image in each area such that an area having a higher degree of blur increases the intensity of the correction on the image in the area based on the blur information.
前記各領域の画像に対してエッジを検出し、
検出された前記エッジの特徴量を取得し、
該特徴量に基づいて該領域の前記ボケ情報を取得することを特徴とする請求項1記載の画像処理方法。
Detecting an edge in the image of each region,
Obtain the feature amount of the detected edge,
The image processing method according to claim 1, wherein the blur information of the region is acquired based on the feature amount.
前記ボケ情報が、ボケの方向を含むものであり、
前記各領域の画像に対して、複数の異なる方向毎にエッジを検出し、
各前記方向における前記エッジの特徴量を取得し、
各前記方向における前記特徴量に基づいて該領域の画像の前記ボケ情報を取得することを特徴とする請求項2記載の画像処理方法。
The blur information includes a direction of blur;
Detecting an edge in each of a plurality of different directions for the image of each region;
Obtaining feature values of the edge in each of the directions;
The image processing method according to claim 2, wherein the blur information of the image in the region is acquired based on the feature amount in each direction.
前記各領域の画像に対するボケ補正が、各領域のボケ情報に応じて画像全体に亘って領域ごとに補正するものであることを特徴とする請求項1、2または3記載の画像処理方法。   4. The image processing method according to claim 1, wherein the blur correction for the image of each area is performed for each area over the entire image in accordance with blur information of each area. 前記各領域の画像に対するボケ補正が、一つまたは複数の領域のボケ情報に応じて、画像全体を補正するものであることを特徴とする請求項1、2または3記載の画像処理方法。   4. The image processing method according to claim 1, wherein the blur correction for the image of each area is for correcting the entire image in accordance with blur information of one or a plurality of areas. 前記各領域の画像に対するボケ補正が、一つまたは少数の領域のボケ情報に応じて複数の領域について補正するものであることを特徴とする請求項1、2または3記載の画像処理方法。   4. The image processing method according to claim 1, wherein the blur correction for the image of each area is performed for a plurality of areas according to blur information of one or a small number of areas. 前記各領域の画像に対するボケ補正が、一つの領域がボケていなければ全体に亘って補正をしないものであることを特徴とする請求項1記載の画像処理方法。   2. The image processing method according to claim 1, wherein the blur correction for the image in each area is not performed over the entire area unless one area is blurred. デジタル写真画像におけるボケを補正する画像処理装置であって、
前記デジタル写真画像を構成する各領域の画像を夫々用いて当該領域の画像のボケの度合いを含むボケ情報を取得するボケ情報取得手段と、
前記ボケ情報に基づいて、前記ボケの度合いが大きい領域ほど該領域の画像に対する前記補正の強度を強めるようにして前記各領域の画像に対するボケ補正を行う補正実行手段とを有してなるものであることを特徴とする画像処理装置。
An image processing apparatus for correcting blur in a digital photographic image,
Blur information acquisition means for acquiring blur information including the degree of blur of the image of the area using the image of each area constituting the digital photographic image;
Based on the blur information, the image processing apparatus includes correction execution means for performing blur correction on the image of each area so that the area with the greater degree of blur increases the intensity of the correction on the image of the area. An image processing apparatus comprising:
前記ボケ情報取得手段が、前記各領域の画像に対してエッジを検出し、
検出された前記エッジの特徴量を取得し、
該特徴量に基づいて該領域の前記ボケ情報を取得するものであることを特徴とする請求項8記載の画像処理装置。
The blur information acquisition unit detects an edge in the image of each region,
Obtain the feature amount of the detected edge,
The image processing apparatus according to claim 8, wherein the blur information of the area is acquired based on the feature amount.
前記ボケ情報が、ボケの方向を含むものであり、
前記ボケ情報取得手段が、前記各領域の画像に対して、複数の異なる方向毎にエッジを検出し、
各前記方向における前記エッジの特徴量を取得し、
各前記方向における前記特徴量に基づいて該領域の画像の前記ボケ情報を取得するものであることを特徴とする請求項9記載の画像処理装置。
The blur information includes a direction of blur;
The blur information acquisition unit detects an edge for each of a plurality of different directions with respect to the image of each region,
Obtaining feature values of the edge in each of the directions;
The image processing apparatus according to claim 9, wherein the blur information of an image in the region is acquired based on the feature amount in each direction.
前記領域が、前記画像全体を予め決められた所定の領域に分割されたものであることを特徴とする請求項8、9または10記載の画像処理装置。   The image processing apparatus according to claim 8, 9 or 10, wherein the area is obtained by dividing the entire image into predetermined areas. 前記領域が、前記画像中のオブジェクトのサイズごとに領域分割されたものであることを特徴とする請求項8、9または10記載の画像処理装置。   The image processing apparatus according to claim 8, 9 or 10, wherein the area is divided into areas for each size of an object in the image. 前記領域が、前記画像のサイズに応じた分割率で分割されたものであることを特徴とする請求項8、9または1記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the area is divided at a division ratio according to the size of the image. デジタル写真画像におけるボケを補正する画像処理をコンピュータに実行させるプログラムであって、
前記画像処理が、前記デジタル写真画像を構成する各領域の画像を夫々用いて当該領域の画像のボケの度合いを含むボケ情報を取得するボケ情報取得処理と、
前記ボケ情報に基づいて、前記ボケの度合いが大きい領域ほど該領域の画像に対する前記補正の強度を強めるようにして前記各領域の画像に対するボケ補正を行う処理とからなるものであることを特徴とするプログラム。
A program for causing a computer to execute image processing for correcting blur in a digital photographic image,
The image processing is a blur information acquisition process for acquiring blur information including the degree of blur of the image of the area using the image of each area constituting the digital photographic image, respectively.
Based on the blur information, the blur correction processing is performed on the image of each region so that the region with the higher degree of blur increases the strength of the correction on the image of the region. Program to do.
前記ボケ情報取得処理が、前記各領域の画像に対してエッジを検出し、
検出された前記エッジの特徴量を取得し、
該特徴量に基づいて該領域の前記ボケ情報を取得する処理であることを特徴とする請求項14記載のプログラム。
The blur information acquisition process detects an edge for the image of each region,
Obtain the feature amount of the detected edge,
15. The program according to claim 14, wherein the program is processing for obtaining the blur information of the area based on the feature amount.
前記ボケ情報が、ボケの方向を含むものであり、
前記ボケ情報取得処理が、前記各領域の画像に対して、複数の異なる方向毎にエッジを検出し、
前記各方向における前記エッジの特徴量を取得し、
前記各方向における前記特徴量に基づいて該領域の画像の前記ボケ情報を取得する処理であることを特徴とする請求項15記載のプログラム。
The blur information includes a direction of blur;
The blur information acquisition process detects an edge for each of a plurality of different directions with respect to the image of each region,
Obtaining the feature amount of the edge in each direction;
The program according to claim 15, wherein the blur information of the image of the region is acquired based on the feature amount in each direction.
JP2005124220A 2004-04-22 2005-04-21 Image processing method, device and program Withdrawn JP2005332381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005124220A JP2005332381A (en) 2004-04-22 2005-04-21 Image processing method, device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004126834 2004-04-22
JP2005124220A JP2005332381A (en) 2004-04-22 2005-04-21 Image processing method, device and program

Publications (1)

Publication Number Publication Date
JP2005332381A true JP2005332381A (en) 2005-12-02

Family

ID=35486970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005124220A Withdrawn JP2005332381A (en) 2004-04-22 2005-04-21 Image processing method, device and program

Country Status (1)

Country Link
JP (1) JP2005332381A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088935A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2011045078A (en) * 2009-08-21 2011-03-03 Konica Minolta Systems Lab Inc Adaptive deblurring for camera-based document image processing
JP2011259119A (en) * 2010-06-08 2011-12-22 Nippon Signal Co Ltd:The Image processing device
JP2012065125A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Imaging device, electronic apparatus, image processing system, and computer readable recording medium
US8385678B2 (en) 2007-09-12 2013-02-26 Samsung Electronics Co., Ltd. Image restoration apparatus and method
US8433153B2 (en) 2008-08-19 2013-04-30 Fujitsu Limited Image correction apparatus and image correction method
CN107209772A (en) * 2015-02-04 2017-09-26 富士胶片株式会社 Image display control apparatus, image display control method, image display control program and storage have the recording medium of the program
CN111178347A (en) * 2019-11-22 2020-05-19 京东数字科技控股有限公司 Method, device and equipment for detecting fuzziness of certificate image and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385678B2 (en) 2007-09-12 2013-02-26 Samsung Electronics Co., Ltd. Image restoration apparatus and method
JP2009088935A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Image recording apparatus, image correcting apparatus, and image pickup apparatus
US8433153B2 (en) 2008-08-19 2013-04-30 Fujitsu Limited Image correction apparatus and image correction method
JP2011045078A (en) * 2009-08-21 2011-03-03 Konica Minolta Systems Lab Inc Adaptive deblurring for camera-based document image processing
JP2011259119A (en) * 2010-06-08 2011-12-22 Nippon Signal Co Ltd:The Image processing device
JP2012065125A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Imaging device, electronic apparatus, image processing system, and computer readable recording medium
CN107209772A (en) * 2015-02-04 2017-09-26 富士胶片株式会社 Image display control apparatus, image display control method, image display control program and storage have the recording medium of the program
US10572111B2 (en) 2015-02-04 2020-02-25 Fujifilm Corporation Image display control device, image display control method, image display control program, and recording medium having the program stored thereon
CN111178347A (en) * 2019-11-22 2020-05-19 京东数字科技控股有限公司 Method, device and equipment for detecting fuzziness of certificate image and storage medium
CN111178347B (en) * 2019-11-22 2023-12-08 京东科技控股股份有限公司 Ambiguity detection method, ambiguity detection device, ambiguity detection equipment and ambiguity detection storage medium for certificate image

Similar Documents

Publication Publication Date Title
US8023000B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP4415188B2 (en) Image shooting device
JP2006024193A (en) Image correction device, image correction program, image correction method and image correction system
JP5831033B2 (en) Imaging apparatus and distance information acquisition method
JP2005309560A (en) Image processing method, device and program
JP2005309559A (en) Image processing method, device and program
KR102049080B1 (en) Image processing apparatus and method thereof
JP5800187B2 (en) Imaging apparatus and distance information acquisition method
JP4515208B2 (en) Image processing method, apparatus, and program
US20050244077A1 (en) Method, apparatus and program for image processing
JP2005332383A (en) Image processing method, device and program
JP4493416B2 (en) Image processing method, apparatus, and program
US8849066B2 (en) Image processing apparatus, image processing method, and storage medium
JP2005332381A (en) Image processing method, device and program
JP2006049949A (en) Image processing apparatus, image processing method and program thereof
JP2005122688A (en) Image processing method, device, and program
JP5720488B2 (en) Imaging apparatus and distance information acquisition method
JP2016059051A (en) Imaging device and distance information acquisition method
JP4685965B2 (en) Image processing method, apparatus, and program
JP6075835B2 (en) Distance information acquisition device, imaging device, distance information acquisition method, and program
JP5158069B2 (en) Image processing apparatus and image processing program
JP2009118434A (en) Blurring correction device and imaging apparatus
JP4527439B2 (en) Image processing method, apparatus, and program
JP5405531B2 (en) Image processing apparatus, image processing method, and image processing program
TWI390965B (en) Method for stimulating the depth of field of an image

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701