JP2017182668A - Data processing apparatus, imaging apparatus, and data processing method - Google Patents
Data processing apparatus, imaging apparatus, and data processing method Download PDFInfo
- Publication number
- JP2017182668A JP2017182668A JP2016072541A JP2016072541A JP2017182668A JP 2017182668 A JP2017182668 A JP 2017182668A JP 2016072541 A JP2016072541 A JP 2016072541A JP 2016072541 A JP2016072541 A JP 2016072541A JP 2017182668 A JP2017182668 A JP 2017182668A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- pixel
- data
- distance
- smoothing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
【課題】第一の画像データ(撮影画像データなど)に基づいて第二の画像データ(距離画像データなど)を補正する際に、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正する。【解決手段】第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置13であって、距離画像データ補正部133に、前記第一の画像データを平滑化して平滑化データを生成する平滑化処理部1333と、前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定部1334と、前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正部1335と、を有する。【選択図】図1[Problem] When correcting second image data (such as distance image data) based on first image data (such as photographed image data), the pixel values of the second image data are To satisfactorily correct second image data even when the pixel values of the image data are different. A data processing device (13) that corrects second image data using first image data and second image data, wherein the first image data is sent to a distance image data correction section (133). a smoothing processing unit 1333 that performs smoothing to generate smoothed data; and a weight that uses the smoothed data to determine weighting coefficients for surrounding pixels to be used when correcting the correction target pixel of the second image data. It includes a determining unit 1334 and a correcting unit 1335 that corrects the correction target pixel using the pixel information of the surrounding pixels and the weighting coefficient. [Selection diagram] Figure 1
Description
本発明は、データ処理装置、撮像装置及びデータ処理方法に関する。 The present invention relates to a data processing device, an imaging device, and a data processing method.
撮影画像に対応した距離情報や動き情報の分布を表す距離画像や動き画像を取得または算出する手法が提案されている。ただし、取得された距離情報や動き情報は、その取得原理と被写体との関係に起因するエラーを含んでいる場合が多い。例えば、テンプレートマッチングによって距離情報や動き情報を算出する場合には、撮影画像中の被写体境界付近のように距離や動きの境界となる領域では大きなエラーが発生する。このエラーは、一つのテンプレート内に異なる距離や動きなどが含まれる場合に発生し、取得される情報は異なる複数の状態の中間状態を示す間違った情報となる。エラーの広がりの範囲や量はテンプレートのサイズに依存する。テンプレートマッチング以外にも様々な要因から情報にばらつきが発生する。そのため、撮影画像を利用して、対応する画素の情報を補正する手法が提案されている。 There has been proposed a method for acquiring or calculating a distance image and a motion image representing a distribution of distance information and motion information corresponding to a captured image. However, the acquired distance information and motion information often include an error due to the relationship between the acquisition principle and the subject. For example, when distance information or motion information is calculated by template matching, a large error occurs in a region that is a distance or motion boundary, such as the vicinity of the subject boundary in the captured image. This error occurs when different distances or movements are included in one template, and the acquired information is incorrect information indicating an intermediate state among a plurality of different states. The extent and amount of error spread depends on the template size. In addition to template matching, information varies due to various factors. For this reason, a method has been proposed in which the information of the corresponding pixel is corrected using a captured image.
特許文献1では、補正対象画素の演算範囲内の複数の画素値及び距離値を用いてクラスタリングを行う。そのクラスタリング結果に基づいて、補正対象画素の距離値を算出することで、各画素の距離情報を補正している。 In Patent Document 1, clustering is performed using a plurality of pixel values and distance values within a calculation range of a correction target pixel. The distance information of each pixel is corrected by calculating the distance value of the correction target pixel based on the clustering result.
特許文献2では、撮影画像全体をSuperPixel(類似オブジェクトであると想定される複数の画素の集合)と呼ばれる小領域に分割し、各小領域内は同一距離(当該文献では、前景、背景、その他の3つ)として、距離画像を補正している。 In Patent Document 2, the entire captured image is divided into small regions called SuperPixels (a set of a plurality of pixels assumed to be similar objects), and each small region has the same distance (in this document, the foreground, background, etc. 3)), the distance image is corrected.
非特許文献1では、距離情報、撮影画像の輝度情報及びそれらから導出される信頼度の情報を用いて、重み付きクロスバイラテラルフィルタにより距離画像を補正している。 In Non-Patent Document 1, a distance image is corrected by a weighted cross bilateral filter using distance information, luminance information of a captured image, and reliability information derived therefrom.
上述のように、撮影画像を用いて距離画像や動き画像を補正する場合、補正対象画素の周辺画素のうち撮影画像における輝度や色が補正対象画素と類似している画素を用いて、補正対象画素の情報を算出している。しかし、距離や動き情報の分布は撮影画像の輝度や色の分布とは必ずしも同一ではない。すなわち、同一の距離を有する領域に、輝度や色が異なる画素が含まれる場合もある。そのため、その領域にある補正画素の周辺の輝度や色の違いによって、参照する撮影画像の画素や画素数が異なる場合が発生する場合があった。結果として、同一の距離や動きの被写体においても、撮影画像の輝度や色の分布により、補正結果が異なってしまい、本来は存在しない距離差や動きの差が発生してしまうという課題があった。 As described above, when a distance image or a motion image is corrected using a captured image, among pixels around the correction target pixel, pixels whose luminance and color in the captured image are similar to the correction target pixel are used. Pixel information is calculated. However, the distribution of distance and motion information is not necessarily the same as the luminance and color distribution of the captured image. That is, there are cases where pixels having different luminance and color are included in regions having the same distance. For this reason, there may be a case where the pixel and the number of pixels of the captured image to be referred to differ depending on the luminance and color difference around the correction pixel in the region. As a result, even for subjects with the same distance and movement, the correction results differ depending on the brightness and color distribution of the photographed image, and there is a problem that a difference in distance or movement that does not exist originally occurs. .
なお、このような課題は、距離画像や動き画像と撮影画像とのあいだにのみ生じるものではない。第一の画像データ(たとえば撮影画像)と対応する第二の画像データ(たとえば距離画像や動き画像)を補正する際に、第一の画像データの画素値の類似性を考慮して補正に利用する第二の画像データの画素を選択する場合には、同様の問題が生じる。 Such a problem does not occur only between a distance image or a motion image and a captured image. When correcting second image data (for example, distance image or motion image) corresponding to first image data (for example, photographed image), it is used for correction in consideration of the similarity of pixel values of the first image data. The same problem occurs when selecting the pixel of the second image data to be performed.
本発明の目的は、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正可能なデータ処理装置を提供することである。 An object of the present invention is to provide a data processing device that can satisfactorily correct the second image data even when the pixel values of the first image data are different in a region where the pixel values of the second image data are the same. Is to provide.
本発明の第一の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定手段と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置である。
The first aspect of the present invention is:
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Weight determining means for determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Is a data processing apparatus.
本発明の第二の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択手段と、
前記画素選択手段によって選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置である。
The second aspect of the present invention is:
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Pixel selecting means for selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected by the pixel selection means;
Is a data processing apparatus.
本発明の第三の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定工程と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法である。
The third aspect of the present invention is:
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
Using the smoothed data, a weight determining step of determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data;
A correction step of correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Is a data processing method for executing.
本発明の第四の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択工程と、
前記画素選択工程において選択された画素に対応する前記第二の画像データの画素情報
を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法である。
The fourth aspect of the present invention is:
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
A pixel selection step of selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
A correction step of correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected in the pixel selection step;
Is a data processing method for executing.
本発明によれば、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正できる。 According to the present invention, even when the pixel values of the first image data are different in the region where the pixel values of the second image data are the same, the second image data can be corrected well.
本発明について、実施形態、図面を用いて詳細に説明するが、本発明は各実施形態の構成に限らない。また、各実施形態を適宜組み合わせてもよい。 The present invention will be described in detail with reference to embodiments and drawings. However, the present invention is not limited to the configuration of each embodiment. Moreover, you may combine each embodiment suitably.
(実施形態1)
本実施形態では、補正する情報を距離情報とする。距離情報は、ある基準点と被写体とのあいだの距離に応じた値である。典型的には、撮像装置と被写体とのあいだの距離(絶対距離)が距離情報に相当する。距離情報は、一般には、撮像装置と被写体とのあいだの距離から求めれるその他の値であってもよい。距離情報のその他の例は、1画像のフォーカス位置と被写体のあいだの距離、2画像のフォーカス位置の中間位置と被写体のあいだの距離である。また、距離情報は、像面側での距離、物体側での距離のどちらであっても良い。また、距離情報は、実空間の距離で表されてもよいし、デフォーカス量や視差量など実空間距離に換算できる量で表されてもよい。このように距離情報は、撮像装置と被写体のあいだの距離(絶対距離)に依存して変化する値である。したがって、距離情報は距離依存値と称することもできる。
(Embodiment 1)
In the present embodiment, information to be corrected is distance information. The distance information is a value corresponding to the distance between a certain reference point and the subject. Typically, the distance (absolute distance) between the imaging device and the subject corresponds to the distance information. In general, the distance information may be another value obtained from the distance between the imaging device and the subject. Another example of the distance information is a distance between the focus position of one image and the subject, and a distance between the intermediate position of the focus position of two images and the subject. The distance information may be either a distance on the image plane side or a distance on the object side. The distance information may be represented by a distance in real space, or may be represented by an amount that can be converted into a real space distance, such as a defocus amount or a parallax amount. Thus, the distance information is a value that changes depending on the distance (absolute distance) between the imaging device and the subject. Therefore, the distance information can also be referred to as a distance dependent value.
本実施形態では、撮影画像データ(第一の画像データ)から距離画像データ(第二の画像データ)を生成し、撮影画像データと距離画像データを利用して距離画像データを補正する。 In the present embodiment, distance image data (second image data) is generated from captured image data (first image data), and the distance image data is corrected using the captured image data and the distance image data.
[構成]
図1(A)は、本発明に係るデータ処理装置を撮像装置に適用した場合の構成を模式的に示している。撮像装置1は、撮像光学系10、撮像素子11、制御部12、データ処理装置13、記憶部14、入力部15、表示部16を有している。
[Constitution]
FIG. 1A schematically shows a configuration when the data processing apparatus according to the present invention is applied to an imaging apparatus. The imaging apparatus 1 includes an imaging
撮像光学系10は、1枚または複数枚のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。撮像素子11は、CCDやCMOSなどのイメージセンサを有する撮像素子である。カラーフィルターを有する撮像素子でもよいし、モノクロの撮像素子でもよいし、三板式の撮像素子でもよい。
The imaging
データ処理装置13は、信号処理部130、メモリ131、距離画像データ生成部132、距離画像データ補正部133を有している。データ処理装置13は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)のような論理回路を用いて構成することができる。データ処理装置13の一部または前方の機能は、コンピュータ(プロセッサ)とプログラムとにより構成されてもよい。
The
信号処理部130は、撮像素子11から出力されるアナログ信号のAD変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正などの各種信号処理を行う。信号処理部130から出力されるデジタル画像データはメモリ131に蓄積され、表示部16への表示、記憶部14への記録(保存)、距離情報の算出、距離画像データの生成などに使用される。なお、距離画像データとは、距離情報の分布を表すものである。距離画像データは距離マップとも称される。
The
距離画像データ生成部132は、信号処理部130から出力される信号から撮影画像データを取得し、その撮影画像データから被写体の距離画像データを生成する。被写体の距離情報を取得する方式は特に制限はなく、撮影条件を変えて撮影したぼけ方の異なる撮影画像データを用いるDepth From Defocus法(以下、DFD法)や、視差のある撮影画像データを用いるステレオ法があげられる。視差のある撮影画像データの取得は、複数の撮像装置を用いたり、光学系の瞳を分割可能な画素を持つ撮像素子を用いたりして得ることができる。距離情報の取得方法の例として、その他にも、Time of Flight(TOF法)やDepth From Focusなどがあげられる。距離画像データ生成部132で生成された距離画像データは、記憶部14に格納、またはメモリ131に一時的に格納され、後段の処理に利用される。また、距離画像データはその取得方法に応じた補正処理が行われてもよい。
The distance image
距離画像データ補正部133は、取得された撮影画像データと距離画像データ生成部132で生成された距離画像データを用いて、距離画像データの各画素の距離情報を補正する機能を有する。撮影画像データ補正部133は、図1(B)に示すように、その機能部として、撮影画像データ取得部1331、距離画像データ取得部1332、平滑化処理部1333、補正利用画素選択部1334、補正部1335を備える。撮影画像データ取得部1331は、撮影画像データを記憶部14またはメモリ131から読み込む。距離画像データ取得部1332は、距離画像データを記憶部14またはメモリ131から読み込む。平滑化処理部1333は、撮影画像データを平滑化して平滑化データを生成する。補正利用画素選択部1334は、距離画像データの補正対象画素を補正する際に利用する画素を、平滑化データに基づいて選択する。補正部1335は、選択された画素に対応する距離画像データを用いて、補正対象画素の距離情報を補正する。距離画像データ補正部133による補正処理の詳細は、後ほど詳しく説明する。
The distance image
記憶部14は、撮影画像データ、距離画像データ、その他中間データ、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部14としては、高速に読み書きでき、且つ、大容量の記憶媒体であればどのようなものを利用してもよい。例えば、フラッシュメモリなどが記憶部14として好ましい。
The
入力部15はユーザーが操作し、撮像装置1に対して、情報入力や設定変更を行うためのインターフェイスである。例えば、ダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。
The
表示部16、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部16は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報などを表示する。
It is a display means comprised with the
制御部12は、撮像装置1の各部を制御する。制御部12の機能としては、例えば、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込み、シャッタやフラッシュ(いずれも不図示)の制御、記憶部14や入力部15、表示部16の制御を行う。
The
[処理]
次に、図2(A)のフローチャートを用いて、本実施形態の撮影開始から完了までの全体処理の流れを説明する。まずステップS20では、撮影者が撮影したいシーンに対して、ズームを行い、構図を決め、同時にシャッタ速度、Fナンバーなどの撮影条件を設定し、フォーカス調整を行う。これらの撮影条件の決定は撮影者が手動で行ってもよいし、撮像装置1が自動で決定してもよい。
[processing]
Next, the flow of the entire process from the start to the end of photographing according to the present embodiment will be described using the flowchart of FIG. First, in step S20, the photographer zooms in on the scene he wants to shoot, determines the composition, and simultaneously sets shooting conditions such as shutter speed and F number, and performs focus adjustment. These photographing conditions may be determined manually by the photographer or automatically by the imaging device 1.
次に、ステップS21で、不図示の撮影ボタンが押下されると、撮像装置1が、撮影画像データおよび距離画像データを取得する。距離画像データは前述の方法によって距離画像データ生成部132により生成される。撮影画像データは距離画像データ生成方法に合わせて撮影される必要がある。たとえば、DFDにより距離画像データが生成される場合は、撮影条件を変えてぼけの異なる複数の撮影画像データが取得される必要がある。
Next, when a photographing button (not shown) is pressed in step S21, the imaging device 1 acquires photographed image data and distance image data. The distance image data is generated by the distance image
次にステップS22で、距離画像データ補正部133が距離画像データを補正する。本ステップの詳細を図2(B)のフローチャートを用いて説明する。
In step S22, the distance image
ステップS220では、平滑化処理部1333が、前処理として撮影画像データに対して平滑化処理を施す。平滑化された撮影画像データ(平滑化データ)はメモリ131に格納され以下のステップで利用される。
In step S220, the smoothing
ステップS220における平滑化処理は、撮影画像データ内の輝度や色の微小な変化は平滑化するが、物体のエッジ部の輝度や色の変化は保存するような処理であることが好ましい。このような平滑化処理は、エッジ保存型の平滑化処理(edge-preserving smoothing)と呼ばれる。エッジ保存型の平滑化処理では、対象画素の周辺画素に対して、画素間
距離に応じた重み付けと画素値(画素情報)の差分に応じた重み付けを用いた画素値の加重平均処理が施される。
The smoothing process in step S220 is preferably a process that smoothes minute changes in luminance and color in the captured image data, but preserves changes in luminance and color at the edge of the object. Such a smoothing process is called edge-preserving smoothing. In the edge preserving type smoothing process, pixel values are weighted and averaged using the weighting according to the distance between the pixels and the weighting according to the difference between the pixel values (pixel information) on the peripheral pixels of the target pixel. The
エッジ保存型の平滑化処理の一例はバイラテラルフィルタである。バイラテラルフィルタは、式1で表される。バイラテラルフィルタは、位置pの周辺領域Sの画素を参照してフィルタリング結果Ipを求める。
ここでは、撮影画像Fの位置pの画素値をFpで表しており、位置pの周辺領域Sの画素を参照してフィルタリングした結果の画素値をIpで表している。また、式(1)のWpは正規化のため用いており、式(2)のように定義される。Gσは分散がσ2で平均が0のガウシアン関数(正規分布関数)である。式(2)において、σs、σrは撮影画像Fのフィルタリング量を決定するパラメータである。式(1)の正規化された重みは、Gσsは空間方向で定義されるガウシアンで、着目している画素位置から離れ具合(画素間距離)によって重みが制御される。Gσrは強度方向で定義されるガウシアンで、強度Fpとの差(画素情報の差分)によって画素qへの重みが制御される。この2つのパラメータにより、空間方向および強度方向の重みを考慮したフィルタリングを実行している。周辺領域Sは位置pを中心とする領域であり、たとえば正方形や円形の領域である。周辺領域Sの大きさは適宜定めればよい。 Here, the pixel value at the position p of the captured image F is represented by F p , and the pixel value obtained by filtering with reference to the pixels in the peripheral region S at the position p is represented by I p . Also, W p in equation (1) is used for normalization and is defined as in equation (2). G σ is a Gaussian function (normal distribution function) with a variance of σ 2 and an average of 0. In Expression (2), σ s and σ r are parameters that determine the filtering amount of the captured image F. As for the normalized weight of Equation (1), G σs is a Gaussian defined in the spatial direction, and the weight is controlled by the degree of separation (distance between pixels) from the pixel position of interest. G σr is a Gaussian defined in the intensity direction, and the weight to the pixel q is controlled by a difference from the intensity Fp (difference in pixel information). Filtering in consideration of the weights in the spatial direction and the intensity direction is executed by these two parameters. The peripheral region S is a region centered on the position p, and is, for example, a square or circular region. The size of the peripheral region S may be determined as appropriate.
このバイラテラルフィルタ処理の概念を、図5を用いて説明する。図5は、説明の簡単
のため、強度分布(画素値分布)50を1次元で表わす。強度分布50は、輝度あるいは色の位置ごとの画素値を示す分布である。今、フィルタ処理を行う位置pを位置51とすいる。位置51において強度分布50は画素値52を持つ。ここで、位置51から近い位置の画素値をフィルタリングに用いるようガウシアンで重み付けを行うのが、空間方向のパラメータσsである。グラフ53は位置ごとの重み係数を示す。σsが大きければ広範囲に、小さければ狭い範囲に、ガウス分布に従って空間方向に重み係数53が定義される。同様に、図5のフィルタリング対象の強度52に近い画素値をフィルタリングに用いるようガウシアンで重み付けを行うのが、強度方向のパラメータσrである。グラフ54は画素値ごとの重み係数を示す。σrが大きければ広範囲に、小さければ狭い範囲に、ガウス分布に従って強度方向に重み係数54が定義される。このように、空間方向および強度方向的に重み付けすることで、エッジを保存した平滑化処理を行うことが可能となる。
The concept of this bilateral filter process will be described with reference to FIG. FIG. 5 shows the intensity distribution (pixel value distribution) 50 in one dimension for the sake of simplicity. The
エッジ保存型の平滑化処理の他の例として、非線形拡散、ガイデットフィルタ(Guided
Filter)、Non-local Meansフィルタが挙げられる。これらのフィルタもステップS220において利用可能である。
Other examples of edge-preserving smoothing include nonlinear diffusion and guided filters (Guided
Filter), Non-local Means filter. These filters are also available in step S220.
ループL1では、ステップS221およびステップS222の処理が距離画像データの補正対象画素ごとに繰り返される。典型的には、距離画像データの全画素が補正対象画素であり、ループL1の処理は距離画像データの全ての画素を対象にして行われる。 In the loop L1, the processes in steps S221 and S222 are repeated for each correction target pixel of the distance image data. Typically, all the pixels of the distance image data are correction target pixels, and the processing of the loop L1 is performed on all the pixels of the distance image data.
次に、ステップS221で、補正利用画素選択部1334は、距離画像データの補正対象画素に対する参照画素を選択する。参照画素とは、ステップS222において補正対象画素の補正値を求める際に参照される画素である。参照画素は、補正に利用される画素(補正利用画素)と称することもできる。
Next, in step S221, the correction use
ステップS221の参照画素の選択処理では、ステップS220で平滑化された撮影画像データ(以下、平滑化データと記す)が用いられる。参照画素は、補正対象画素の近傍画素のうち、補正対象画素とのあいだの平滑化データの画素情報の類似度が所定の閾値以上の画素として決定できる。類似度は、補正対象画素およびその近傍画素の平滑化データの強度(輝度また色)の情報、またはそれらから変換可能な情報を比較することで決定できる。ここでの近傍画素とは、補正対象画素を基準にして、所定の範囲に存在する画素全てである。近傍画素の形状や大きさは距離画像データのエラー量などで任意に決定して構わない。また、近傍画素は補正対象画素自身を含んでも良いし含まなくても良い。参照画素か否かの判別には、近傍画素(参照画素の候補画素)q毎に計算される類似度S(q)が用いられる。 In the reference pixel selection process in step S221, the captured image data smoothed in step S220 (hereinafter referred to as smoothed data) is used. The reference pixel can be determined as a pixel in which the similarity of the pixel information of the smoothed data between the correction target pixel and the correction target pixel is equal to or higher than a predetermined threshold among the correction target pixels. The degree of similarity can be determined by comparing information on the intensity (luminance or color) of the smoothed data of the correction target pixel and its neighboring pixels, or information that can be converted therefrom. Here, the neighboring pixels are all pixels existing in a predetermined range with reference to the correction target pixel. The shape and size of the neighboring pixels may be arbitrarily determined based on the error amount of the distance image data. In addition, the neighboring pixels may or may not include the correction target pixel itself. In determining whether the pixel is a reference pixel, the similarity S (q) calculated for each neighboring pixel (reference pixel candidate pixel) q is used.
類似度S(q)は、例えば、平滑化データがモノクロの画素値を有する輝度画像であれば、式(3)のように計算される。
また、平滑化データがカラー画像データであれば、補正対象画素と近傍画素の類似度S(q)は、式(4)のような色に関するユークリッド距離で計算される。
類似度の算出方法は上記に記載したものに限らず、マンハッタン距離等、特に限定は無い。また、カラー画像から、CIELab色空間やYUV色空間など、他の色空間に変換し、上記類似度を計算してもよい。 The method of calculating the similarity is not limited to the one described above, and there is no particular limitation such as the Manhattan distance. Further, the similarity may be calculated by converting the color image into another color space such as CIELab color space or YUV color space.
以上説明したように、距離画像データ補正部133は、類似度に従って、参照画素を選択する。具体的には、類似度Sの値が閾値U以下の画素(閾値Uよりも類似が高い)が参照画素として選択される。選択された画素を1、選択されたかった画素を0とし、Wとして表現すると、近傍画素毎に式(5)のように決定することができる。
Wを補正処理における各画素の重み係数と捉えると、本実施形態のステップS221は、補正対象画素の近傍画素のうち平滑化データの類似度が閾値以上の画素のみを補正に利用するように、近傍画素に対する重み係数を決定する処理と捉えられる。 Supposing that W is a weighting factor of each pixel in the correction process, step S221 of the present embodiment uses only pixels whose smoothing data similarity is equal to or greater than a threshold among the neighboring pixels of the correction target pixel. This can be regarded as a process of determining a weighting factor for neighboring pixels.
参照画素の決定方法は、必ずしも上記方法である必要はない。平滑化データを利用する方法の他にも、距離情報の信頼性(確からしさ)を表す信頼度情報を利用して参照画素を決定することもできる。信頼度は、距離画像データ生成部132における距離算出処理時に距離情報の尤もらしさとして得られる場合がある。その場合は、ステップS21において、信頼度データも取得できる。また、撮影画像データを解析することで、距離情報の信頼度を取得できる。距離算出方法によって異なるが、例えば暗いところ(黒つぶれ)や明るいところ(白とび)しているところ、被写体にテクスチャが無いところ、被写体が動いているところなどは、信頼度が低いと求めることができる。さらに、距離画像データからも信頼度を取得できる。距離画像データにおいて、近傍の画素群に対して、著しく距離値が異なる画素や距離の境界部分はエラーである可能性が高く、信頼度が低いと求めることができる。こうして得られた信頼度を用いて、補正に利用する画素を選択できる。距離画像データのなかで、信頼できない距離情報は参照画素として選択しないことが好ましい。そのため、前述した輝度画像の類似度の閾値処理と同様に信頼度をある閾値で閾値処理し、信頼できる距離情報のみを参照画素として選択する。また、信頼度と類似度を組み合わせて参照画素を決定することもできる。信頼度を用いた選択方法の手段に関してはどのような方法でも構わない。以上、平滑化データおよび撮影画像データを用いた画素選択を個別に説明したが、それぞれを総合的に判断して画素選択のルールを決めてもよい。
The reference pixel determination method is not necessarily the above method. In addition to the method using the smoothed data, the reference pixel can be determined using reliability information indicating the reliability (probability) of the distance information. The reliability may be obtained as the likelihood of the distance information during the distance calculation process in the distance image
次に、ステップS222において、距離画像データ補正部133は、ステップS221で求めた選択画素を用いて、補正対象画素の距離情報データの補正を行う。今、補正後の距離情報データをD’、補正前の距離情報データをDとすると、補正後の距離情報データD’は式(6)により算出される。
すなわち、本実施形態では、補正後の距離情報データD’は、ステップS221において選択された参照画素(補正利用画素)の距離情報データの平均値として算出される。W
を重み係数と捉えると、補正後の距離情報データD’は、補正対象画素の近傍画素の距離画像データの加重平均値といえる。
That is, in the present embodiment, the corrected distance information data D ′ is calculated as the average value of the distance information data of the reference pixel (correction use pixel) selected in step S221. W
Is regarded as a weighting factor, the corrected distance information data D ′ can be said to be a weighted average value of distance image data of pixels near the correction target pixel.
周辺画素範囲Qは、広すぎると輝度(または色)が類似している距離情報は値が近いという前提が崩れ、新たなエラーを生む可能性が高くなり、また、演算量が増えるという問題がある。一方、周辺画素範囲Qが狭すぎると、参照可能な周辺画素が少なく、適切な補正ができなくなる。そのため、オブジェクト境界に発生するエラー量(幅)を距離算出方法に応じて適切な周辺画素範囲Qを事前に決定しておくことが望ましい。 If the peripheral pixel range Q is too wide, the assumption that distance information having similar brightness (or color) has a close value breaks down, increasing the possibility of generating a new error, and increasing the amount of calculation. is there. On the other hand, if the peripheral pixel range Q is too narrow, there are few peripheral pixels that can be referred to, and appropriate correction cannot be performed. For this reason, it is desirable that an appropriate peripheral pixel range Q is determined in advance according to the distance calculation method for the amount of error (width) generated at the object boundary.
ここで、ステップS220〜S222で述べた距離マップ補正の概要を、図4(A)〜4(E)を用いて詳細に説明する。図4(A)〜4(E)では、説明の簡単のため一元的に距離、強度(輝度または色)を記載しており、横軸が位置、縦軸が距離あるいは強度(輝度または色)である。図4(A)が、補正前の距離画像データの一次元分布を表しており、図4(B)が、図4(A)と同じ位置の撮影画像データの一次元分布を表している。 Here, the outline of the distance map correction described in steps S220 to S222 will be described in detail with reference to FIGS. 4 (A) to 4 (E). 4A to 4E, distance and intensity (brightness or color) are collectively described for simplicity of description, and the horizontal axis represents position and the vertical axis represents distance or intensity (brightness or color). It is. 4A shows the one-dimensional distribution of the distance image data before correction, and FIG. 4B shows the one-dimensional distribution of the captured image data at the same position as that in FIG. 4A.
図4(A)の距離41を補正することを想定する。図4(B)の範囲43は、式(5)の強度差の閾値U以内、かつ、式(6)の周辺画素範囲Qを示す。この範囲43に入る画素44の画素位置が特定される。ここで決定された画素位置の距離45が距離41の補正の際に参照され、距離41と距離45の平均値(図4(C)に示す距離46)が、補正後の距離となる。
It is assumed that the
以上のように、撮影画像データが図4(B)のように、被写体の持つ分布やショットノイズの影響によってばらついている場合、距離画像データの補正に用いる参照画素の数が少なくなる。その結果、図4(C)のように補正効果が低くなる。 As described above, when the captured image data varies as shown in FIG. 4B due to the distribution of the subject and the influence of shot noise, the number of reference pixels used for correcting the distance image data decreases. As a result, the correction effect is reduced as shown in FIG.
これに対して、本実施形態では、図4(B)に示す撮影画像データを平滑化することで、図4(D)に示すような平滑化撮影画像データを得ている。平滑化後の撮影画像データでは、画素値(輝度あるいは色)のばらつきが低減されるため、範囲43に含まれる画素が多い。したがって、補正に用いる参照画素として多数の画素を選択される。図4(E)は本実施形態の補正処理による補正結果を示す。図4(E)のように、本実施形態によれば良好な補正結果を得ることができる。
On the other hand, in the present embodiment, smoothed photographed image data as shown in FIG. 4D is obtained by smoothing the photographed image data shown in FIG. In the captured image data after smoothing, variation in pixel values (luminance or color) is reduced, so that the number of pixels included in the
また、平滑化データを用いることで、参照画素を選択するための閾値Uを小さくすることが可能となる。この結果、異なる画素値を有する画素を選択する可能性が少なくなり、より補正精度が向上するという効果が得られる。 Further, by using the smoothed data, the threshold value U for selecting the reference pixel can be reduced. As a result, the possibility of selecting pixels having different pixel values is reduced, and the effect of improving the correction accuracy can be obtained.
また、撮影画像の被写体の強度分布にも影響されるが、平滑化データを生成する際の空間方向の重み付け範囲を、距離データを補正する際に参照する領域Qより大きくしたほうが、補正効果が高くなる場合が多い。具体的には、領域Qが正方形または円形である場合に、式(1)のσs(ガウシアン関数Gσsの標準偏差、すなわち分散σs 2の平方根)を領域Qの正方形の一辺の長さの半分または円形の半径よりも大きくすると良い。以上述べたように、距離マップ補正に関する平滑化データ生成および距離マップ補正のパラメータを制御することで、距離画像データが補正される。 Further, although it is influenced by the intensity distribution of the subject of the photographed image, the correction effect is improved when the weighting range in the spatial direction when generating the smoothed data is larger than the region Q that is referred to when correcting the distance data. It is often high. Specifically, when the region Q is a square or a circle, σ s (standard deviation of the Gaussian function G σs , that is, the square root of the variance σ s 2 ) in the formula (1) is the length of one side of the square of the region Q. It is better to make it larger than half the radius or circular radius. As described above, the distance image data is corrected by controlling the smoothing data generation and distance map correction parameters related to the distance map correction.
次に、ステップS23で、撮影画像データや補正された距離画像データを用いたアプリケーションに合わせた処理が行われる。処理の例として、撮影画像データに対して距離情報に応じたぼけを付加するぼかし処理などが挙げられる。 Next, in step S23, processing according to the application using the captured image data and the corrected distance image data is performed. As an example of processing, there is a blurring process for adding blur according to distance information to captured image data.
ステップS24で、アプリケーション処理の結果を表示部16に表示する。また、処理結果を、撮影画像データ、距離画像データ、および補正された距離画像データとともに記
憶部14に記録する。
In step S24, the result of the application process is displayed on the
以上説明したように、本実施形態によれば、撮影画像データに対して、前処理として平滑化を行い、平滑化した撮影画像を基準に距離画像データを補正することで、平滑化画像を用いない場合に比べて高精度な距離補正を実現することが可能になる。その結果、距離画像を用いた様々な処理も正確に実現できるという効果がある。 As described above, according to the present embodiment, the smoothed image is used by smoothing the captured image data as preprocessing and correcting the distance image data based on the smoothed captured image. It becomes possible to realize distance correction with higher accuracy than in the case where there is not. As a result, there is an effect that various processes using the distance image can be accurately realized.
なお、上記では撮影画像データに対して平滑化処理のみを適用するよう説明したが、平滑化処理以外も適用しても良い。例えば、平滑化処理後にエッジ強調処理を行い被写体のエッジ部の信号の強度差を強調することで、距離画像データの輪郭を強調することも可能となる。輪郭強調により、距離補正の際に異なるオブジェクトの距離情報を利用する自体を避けられる。 In the above description, only the smoothing process is applied to the captured image data. However, other than the smoothing process may be applied. For example, it is possible to enhance the contour of the distance image data by performing edge emphasis processing after smoothing processing and emphasizing the difference in signal strength at the edge portion of the subject. By emphasizing the contour, it is possible to avoid using the distance information of different objects when correcting the distance.
また、上記の説明では、式(5)に示すように、補正対象画素の周辺画素のうち、撮影画像データの類似度が閾値U以下の画素のみを補正に利用している。すなわち、重みWは0または1に二値化される。しかしながら、重みWは二値である必要はなく、連続値とすることができる。たとえば、類似度に応じた値を重みWとすることができる。本実施形態では類似度Sは類似しているほど小さい値を取るので、たとえば、W=(Smax―S)/Smax(ただし、Smaxは類似度Sの最大値)とすることができる。もちろん、類似度Sの値が小さいほど(すなわち類似しているほど)大きな値をとれば、その他の算出式によって重みWを決定してもよい。このような観点から、補正利用画素選択部1334は、補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定部と捉えることができる。
In the above description, as shown in Expression (5), only the pixels having the similarity of the captured image data equal to or lower than the threshold U among the peripheral pixels of the correction target pixel are used for correction. That is, the weight W is binarized to 0 or 1. However, the weight W does not have to be a binary value and can be a continuous value. For example, the weight W can be a value corresponding to the similarity. In the present embodiment, the similarity S has a smaller value as it is similar. For example, W = (S max −S) / S max (where S max is the maximum value of the similarity S). . Of course, the weight W may be determined by another calculation formula as long as the value of the similarity S is smaller (that is, the similarity is higher). From this point of view, the correction use
また、上記の説明では、補正に利用する画素の距離情報の平均を補正後の距離情報としている。しかしながら、補正距離情報は上記以外の任意の方法によって求めても構わない。たとえば、補正に利用する画素に基づく欠損画素の補間処理によって補正対象画素の補正後の距離情報を求めてもよい。 In the above description, the average of the distance information of the pixels used for correction is the corrected distance information. However, the correction distance information may be obtained by any method other than the above. For example, distance information after correction of a correction target pixel may be obtained by interpolation processing of a defective pixel based on a pixel used for correction.
(実施形態2)
実施形態1では、撮影画像データと距離画像データを使用し、距離情報の補正を行っている。それに対して、本実施形態では、撮影画像と距離画像の組み合わせ以外を用いて補正処理を行えることを示す。図3は、本実施形態のデータ処理装置を表す。フローチャートは実施形態1のフローチャートと同じである。本実施形態の画像処理方法を、実施形態1と異なる点を中心に説明する。
(Embodiment 2)
In the first embodiment, the distance information is corrected using captured image data and distance image data. In contrast, in the present embodiment, it is shown that correction processing can be performed using a combination other than a combination of a captured image and a distance image. FIG. 3 shows the data processing apparatus of this embodiment. The flowchart is the same as the flowchart of the first embodiment. The image processing method of the present embodiment will be described focusing on differences from the first embodiment.
データ処理装置31は、第一画像データ入力311、第二画像データ入力部312、第二画像データ補正部314を有している。
The
本明細書において「画像データ」とは、数値データが論理的に2次元配列された2次元配列データを意味する。また、本明細書において「画像データ」は「マップ」とも称される。画像データの「画素」とは、画像データの2次元配列内での位置を意味する。画像データを構成する数値データは、特定の情報を表すデータに限定されず、例えば、輝度情報、距離情報、動き情報、信頼度情報を表すデータが含まれる。また、数値データの形式は、特定の形式に限られず、スカラー、ベクトル、行列などであってよい。取り扱う情報に応じて画像データは、輝度画像データ、距離画像データ、動き画像データ、信頼度画像データなどと称される。 In this specification, “image data” means two-dimensional array data in which numerical data is logically two-dimensionally arrayed. In this specification, “image data” is also referred to as “map”. The “pixel” of the image data means a position in the two-dimensional array of the image data. Numerical data constituting image data is not limited to data representing specific information, and includes, for example, data representing luminance information, distance information, motion information, and reliability information. Further, the format of numerical data is not limited to a specific format, and may be a scalar, a vector, a matrix, or the like. The image data is referred to as luminance image data, distance image data, motion image data, reliability image data, or the like depending on information to be handled.
第一画像データ入力部311には、基準となる画像データが入力される。第一画像データの例として、輝度画像データはもちろん、既に補正された距離画像データ、赤外光画像
データ、偏光画像データなどが挙げられる。また、第一画像データが輝度画像データである場合は、本実施形態のデータ処理装置31は、図1のような撮像装置とすることができる。また第一画像データが距離画像データ等の場合には、第一画像データ入力部311がデータ生成部を含んでもよい。仮に第一画像データが距離画像データであるとすると、式(1)中のFおよびIは距離値に相当する。
Reference image data is input to the first image
第二画像データ入力部312には、第二画像データが入力される。第二画像データは、第一画像データと略同一視点の画像データであり、異なる情報を表す画像データであることが好ましい。第一画像データと第二画像データは、異なる算出方法で算出された同一内容の情報を表すデータであってもよい。また、第一画像データと第二画像データは必ずしも同一画角である必要はなく、第二画像データが第一画像データに含まれていればよい。すなわち、第一画像データの画角は、第二画像データの画角と等しくてもよいし、それより大きい画角であってもよい。
Second image data is input to the second image
また、第二画像データの例として、動きデータ(Optical Flow)も挙げられる。動きデータは、被写体、あるいは、被写体とカメラの相対的な動きを表すデータである。例えば、形式として、横方向(x方向)と縦方向(y方向)方向の速度を各画素でデータとして保持している。このような動きデータは、ある時間間隔で取得した二枚の画像から、それら二画像のテンプレートマッチングによって、尤もらしい位置を計算し、その移動量と撮影時間間隔から縦・横方向それぞれの速度を算出することができる。その速度は、あるサイズのテンプレート内に異なる速度が混ざっている場合には、異なる速度が混ざり、中間的な速度値を持つようなエラーが発生してしまう。このようなオブジェクト境界部エラーをもつようなデータであれば効果が得られる。 In addition, as an example of the second image data, motion data (Optical Flow) can also be cited. The motion data is data representing the relative motion of the subject or the subject and the camera. For example, the speed in the horizontal direction (x direction) and the vertical direction (y direction) is held as data in each pixel as a format. Such motion data is calculated from two images acquired at a certain time interval by template matching of the two images, and the vertical and horizontal speeds are calculated from the amount of movement and the shooting time interval. Can be calculated. As for the speed, when different speeds are mixed in a template of a certain size, different speeds are mixed, and an error having an intermediate speed value occurs. The effect is obtained if the data has such an object boundary error.
第二画像データは、赤外光画像や偏光画像であってもよい。赤外画像や偏光画像は、レンズの色収差の影響や特殊なセンサ構造により、RGB画像よりも低解像度である場合がある。この場合もオブジェクト境界部にエラーが発生していると考えることができる。 The second image data may be an infrared light image or a polarized image. Infrared images and polarized images may have a lower resolution than RGB images due to the effects of chromatic aberration of lenses and special sensor structures. In this case also, it can be considered that an error has occurred in the object boundary.
また、第一画像データに対して、第二の画像データが小さいサイズ(少ないデータ量)である場合に、拡大(データ補間)処理を行うことがある。その場合、データのエッジ付近(オブジェクトの境界付近)でエラーが発生する。このような拡大処理後の画像データを第二画像データとして用いることができる。例えば、前述の赤外画像や偏光画像を取得するためのイメージセンサは、特定の画素にのみ赤外用のカラーフィルタや偏光フィルタを有する場合がある。この場合、取得される赤外画像や偏光画像は、RGB画像と比較して小さいサイズとなるため、拡大処理が施されることがある。 Further, when the second image data has a small size (small data amount) with respect to the first image data, an enlargement (data interpolation) process may be performed. In that case, an error occurs near the edge of the data (near the boundary of the object). Image data after such enlargement processing can be used as second image data. For example, an image sensor for acquiring the above-described infrared image or polarization image may have an infrared color filter or polarization filter only in a specific pixel. In this case, since the acquired infrared image or polarization image has a smaller size than the RGB image, enlargement processing may be performed.
第二画像データは、別装置からの入力でもよいし、第一画像データを含めたその他情報から算出してもよい。仮に、動きデータであるとすると、式6のDは横方向あるいは縦方向の速度値に相当する。 The second image data may be input from another device, or may be calculated from other information including the first image data. If it is motion data, D in Expression 6 corresponds to a velocity value in the horizontal direction or the vertical direction.
以上のように、第二画像データにエラーがあり、第一画像データが補正に対する基準となるデータであれば、第二画像データの補正処理は実施形態1の図2(B)と同様にして行うことができる。すなわち、第二画像データ補正部314は、図1(B)と同様の構成を有し、図2(B)で示される処理と同様の処理を行えばよい。データによっては、補正対象データが複数になる場合があるが、基本的な処理は変わらない。例えば、動きデータの場合には横方向の動きデータの補正処理と縦方向のデータの補正処理は独立に同様の手法を用いて行われる。
As described above, if there is an error in the second image data and the first image data is data serving as a reference for correction, the correction processing of the second image data is performed in the same manner as in FIG. It can be carried out. In other words, the second image
本実施形態によれば、距離画像データに限られず、エラーを持った種々のデータにより高精度な補正を行うことが可能となる。 According to the present embodiment, it is possible to perform high-precision correction using various data having an error, not limited to the distance image data.
(実施形態3)
上述した本発明のデータ処理方法は、例えば、デジタルカメラやカムコーダなどの撮像装置、或いは撮像装置で得られたデータに対して処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明の技術を適用可能である。上記実施形態では、撮像装置の本体に画像処理装置を組み込んだ構成を示したが、画像処理装置の機能はどのように構成してもよい。例えば、撮像装置を有するコンピュータに画像処理装置を組み込み、撮像装置で撮影した画像をコンピュータが取得して、それに基づいて上記データ処理方法を実行するようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに画像処理装置が組み込まれ、そのコンピュータがネットワークを介して画像を取得し、それに基づいて上記画像処理方法を実行するようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ぼけ効果のエミュレーションなど各種画像処理に利用することができる。
(Embodiment 3)
The above-described data processing method of the present invention can be preferably applied to, for example, an imaging apparatus such as a digital camera or a camcorder, or an image processing apparatus or a computer that processes data obtained by the imaging apparatus. The technology of the present invention can also be applied to various electronic devices (including mobile phones, smartphones, slate terminals, and personal computers) incorporating such an imaging device or image processing device. In the above-described embodiment, the configuration in which the image processing device is incorporated in the main body of the imaging device is shown, but the function of the image processing device may be configured in any manner. For example, an image processing device may be incorporated in a computer having an imaging device, and the computer may acquire an image captured by the imaging device, and the data processing method may be executed based on the acquired image. Further, the image processing apparatus may be incorporated in a computer that can access the network by wire or wireless, and the computer may acquire an image via the network and execute the image processing method based on the image. The obtained distance information can be used for various types of image processing such as image segmentation, generation of stereoscopic images and depth images, and emulation of blur effects.
(その他の実施例)
本発明は、マイクロプロセッサやCPU(中央演算装置)などの汎用プロセッサと、メモリに格納されたプログラムを備えたコンピュータにより構成し、汎用プロセッサが上記プログラムを実行することにより実現することができる。また、本発明は、ASICやFPGAやDSPのような専用プロセッサによって実現することができる。専用プロセッサおよびプログラムを実行する汎用プロセッサは、いずれも特定の機能を提供するように構成されたプロセッサ、あるいは特定の機能部として機能するように構成されたプロセッサといえる。また、本発明の一部の機能は汎用プロセッサ(およびプログラム)により提供され、他の機能は専用プロセッサによって実現されてもよい。また、本発明のある一つの機能が、汎用プロセッサ(およびプログラム)と専用プロセッサの両方によって実現されても構わない。
(Other examples)
The present invention can be realized by a general-purpose processor such as a microprocessor or CPU (Central Processing Unit) and a computer having a program stored in a memory, and the general-purpose processor executing the program. The present invention can be realized by a dedicated processor such as an ASIC, FPGA, or DSP. Both the dedicated processor and the general-purpose processor that executes the program can be said to be a processor configured to provide a specific function or a processor configured to function as a specific function unit. Some functions of the present invention may be provided by a general-purpose processor (and program), and other functions may be realized by a dedicated processor. One function of the present invention may be realized by both a general-purpose processor (and program) and a dedicated processor.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
13 画像処理装置
1333 平滑化処理部
1334 補正利用画素選択部(重み決定部)
1335 補正部
13
1335 Correction unit
Claims (13)
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定手段と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置。 A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Weight determining means for determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
A data processing apparatus.
請求項1に記載のデータ処理装置。 The smoothing means performs edge-preserving smoothing processing.
The data processing apparatus according to claim 1.
請求項2に記載のデータ処理装置。 The smoothing process performed by the smoothing means is a weighted average process using weighting according to the inter-pixel distance and weighting according to the difference in pixel information.
The data processing apparatus according to claim 2.
記第二の画像データの補正対象画素を補正する際に利用する周辺画素の領域は、前記補正対象画素を中心とする正方形または円形の領域であり、
前記ガウシアン関数の分散をσs 2としたときに、σsが前記正方形の一辺の長さの半分または前記円形の半径よりも大きい、
請求項3に記載のデータ処理装置。 The smoothing means performs weighting according to a Gaussian function according to a distance between pixels,
The area of the peripheral pixel used when correcting the correction target pixel of the second image data is a square or circular area centered on the correction target pixel,
When the variance of the Gaussian function is σ s 2 , σ s is larger than half the length of one side of the square or the radius of the circle,
The data processing apparatus according to claim 3.
請求項1から4のいずれか1項に記載のデータ処理装置。 The weight determining means determines a weighting factor for the neighboring pixel based on a similarity of pixel information of the smoothed data corresponding to the correction target pixel and the neighboring pixel;
The data processing apparatus according to any one of claims 1 to 4.
請求項5に記載のデータ処理装置。 The weight determining means determines the weighting factor so as to use only neighboring pixels whose similarity is higher than a threshold;
The data processing apparatus according to claim 5.
請求項1から6のいずれか1項に記載のデータ処理装置。 The weight determining means determines the weighting factor also using a reliability representing the reliability of the second image data;
The data processing apparatus according to any one of claims 1 to 6.
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択手段と、
前記画素選択手段によって選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置。 A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Pixel selecting means for selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected by the pixel selection means;
A data processing apparatus.
前記第二の画像データは、前記第一の画像を用いて生成される距離画像データまたは動き画像データである、
請求項1から8のいずれか1項に記載のデータ処理装置。 The first image data is luminance image data or color image data,
The second image data is distance image data or motion image data generated using the first image.
The data processing apparatus according to any one of claims 1 to 8.
請求項1から9のいずれか1項に記載のデータ処理装置と、
を備える撮像装置であって、
前記第一の画像データは、前記撮像素子から取得される撮影画像データである、
撮像装置。 An image sensor;
A data processing device according to any one of claims 1 to 9,
An imaging device comprising:
The first image data is captured image data acquired from the imaging element.
Imaging device.
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定工程と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法。 A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
Using the smoothed data, a weight determining step of determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data;
A correction step of correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Data processing method to execute.
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択工程と、
前記画素選択工程において選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法。 A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
A pixel selection step of selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
A correction step of correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected in the pixel selection step;
Data processing method to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016072541A JP2017182668A (en) | 2016-03-31 | 2016-03-31 | Data processing apparatus, imaging apparatus, and data processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016072541A JP2017182668A (en) | 2016-03-31 | 2016-03-31 | Data processing apparatus, imaging apparatus, and data processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017182668A true JP2017182668A (en) | 2017-10-05 |
Family
ID=60007352
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016072541A Pending JP2017182668A (en) | 2016-03-31 | 2016-03-31 | Data processing apparatus, imaging apparatus, and data processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017182668A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019148426A (en) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Image processing apparatus |
| CN114694000A (en) * | 2020-12-31 | 2022-07-01 | 深圳云天励飞技术股份有限公司 | Target detection method and related equipment |
-
2016
- 2016-03-31 JP JP2016072541A patent/JP2017182668A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019148426A (en) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Image processing apparatus |
| JP7220343B2 (en) | 2018-02-26 | 2023-02-10 | パナソニックIpマネジメント株式会社 | Image processing device |
| CN114694000A (en) * | 2020-12-31 | 2022-07-01 | 深圳云天励飞技术股份有限公司 | Target detection method and related equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5980294B2 (en) | Data processing apparatus, imaging apparatus, and data processing method | |
| EP3692500B1 (en) | Estimating depth using a single camera | |
| US9615012B2 (en) | Using a second camera to adjust settings of first camera | |
| CN108055452B (en) | Image processing method, device and equipment | |
| US8767085B2 (en) | Image processing methods and apparatuses to obtain a narrow depth-of-field image | |
| JP6308748B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| US9344636B2 (en) | Scene motion correction in fused image systems | |
| US20230033956A1 (en) | Estimating depth based on iris size | |
| JP6006543B2 (en) | Image processing apparatus and image processing method | |
| JP6720881B2 (en) | Image processing apparatus and image processing method | |
| JP7516471B2 (en) | Control device, imaging device, control method, and program | |
| CN110383335A (en) | The background subtraction inputted in video content based on light stream and sensor | |
| JP5956844B2 (en) | Image processing apparatus and control method thereof | |
| JP6491581B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP2017103756A (en) | Image data processing apparatus and method | |
| JP2017182668A (en) | Data processing apparatus, imaging apparatus, and data processing method | |
| US10861194B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| EP4199528A1 (en) | Image processing apparatus, image capture apparatus, and image processing method | |
| EP3442218A1 (en) | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner | |
| JP6436840B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
| JP2017130106A (en) | Data processing apparatus, imaging apparatus and data processing method | |
| JP2019106215A (en) | Data processor, imaging device, and data processing method | |
| JP2020086216A (en) | Imaging control device, imaging apparatus and imaging control program | |
| JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
| JP6501732B2 (en) | Data processing apparatus, imaging apparatus, and control method of data processing apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |