[go: up one dir, main page]

JP2017182668A - Data processing apparatus, imaging apparatus, and data processing method - Google Patents

Data processing apparatus, imaging apparatus, and data processing method Download PDF

Info

Publication number
JP2017182668A
JP2017182668A JP2016072541A JP2016072541A JP2017182668A JP 2017182668 A JP2017182668 A JP 2017182668A JP 2016072541 A JP2016072541 A JP 2016072541A JP 2016072541 A JP2016072541 A JP 2016072541A JP 2017182668 A JP2017182668 A JP 2017182668A
Authority
JP
Japan
Prior art keywords
image data
pixel
data
distance
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016072541A
Other languages
Japanese (ja)
Inventor
隆弘 高橋
Takahiro Takahashi
隆弘 高橋
伸 田中
Shin Tanaka
伸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016072541A priority Critical patent/JP2017182668A/en
Publication of JP2017182668A publication Critical patent/JP2017182668A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

【課題】第一の画像データ(撮影画像データなど)に基づいて第二の画像データ(距離画像データなど)を補正する際に、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正する。【解決手段】第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置13であって、距離画像データ補正部133に、前記第一の画像データを平滑化して平滑化データを生成する平滑化処理部1333と、前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定部1334と、前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正部1335と、を有する。【選択図】図1[Problem] When correcting second image data (such as distance image data) based on first image data (such as photographed image data), the pixel values of the second image data are To satisfactorily correct second image data even when the pixel values of the image data are different. A data processing device (13) that corrects second image data using first image data and second image data, wherein the first image data is sent to a distance image data correction section (133). a smoothing processing unit 1333 that performs smoothing to generate smoothed data; and a weight that uses the smoothed data to determine weighting coefficients for surrounding pixels to be used when correcting the correction target pixel of the second image data. It includes a determining unit 1334 and a correcting unit 1335 that corrects the correction target pixel using the pixel information of the surrounding pixels and the weighting coefficient. [Selection diagram] Figure 1

Description

本発明は、データ処理装置、撮像装置及びデータ処理方法に関する。   The present invention relates to a data processing device, an imaging device, and a data processing method.

撮影画像に対応した距離情報や動き情報の分布を表す距離画像や動き画像を取得または算出する手法が提案されている。ただし、取得された距離情報や動き情報は、その取得原理と被写体との関係に起因するエラーを含んでいる場合が多い。例えば、テンプレートマッチングによって距離情報や動き情報を算出する場合には、撮影画像中の被写体境界付近のように距離や動きの境界となる領域では大きなエラーが発生する。このエラーは、一つのテンプレート内に異なる距離や動きなどが含まれる場合に発生し、取得される情報は異なる複数の状態の中間状態を示す間違った情報となる。エラーの広がりの範囲や量はテンプレートのサイズに依存する。テンプレートマッチング以外にも様々な要因から情報にばらつきが発生する。そのため、撮影画像を利用して、対応する画素の情報を補正する手法が提案されている。   There has been proposed a method for acquiring or calculating a distance image and a motion image representing a distribution of distance information and motion information corresponding to a captured image. However, the acquired distance information and motion information often include an error due to the relationship between the acquisition principle and the subject. For example, when distance information or motion information is calculated by template matching, a large error occurs in a region that is a distance or motion boundary, such as the vicinity of the subject boundary in the captured image. This error occurs when different distances or movements are included in one template, and the acquired information is incorrect information indicating an intermediate state among a plurality of different states. The extent and amount of error spread depends on the template size. In addition to template matching, information varies due to various factors. For this reason, a method has been proposed in which the information of the corresponding pixel is corrected using a captured image.

特許文献1では、補正対象画素の演算範囲内の複数の画素値及び距離値を用いてクラスタリングを行う。そのクラスタリング結果に基づいて、補正対象画素の距離値を算出することで、各画素の距離情報を補正している。   In Patent Document 1, clustering is performed using a plurality of pixel values and distance values within a calculation range of a correction target pixel. The distance information of each pixel is corrected by calculating the distance value of the correction target pixel based on the clustering result.

特許文献2では、撮影画像全体をSuperPixel(類似オブジェクトであると想定される複数の画素の集合)と呼ばれる小領域に分割し、各小領域内は同一距離(当該文献では、前景、背景、その他の3つ)として、距離画像を補正している。   In Patent Document 2, the entire captured image is divided into small regions called SuperPixels (a set of a plurality of pixels assumed to be similar objects), and each small region has the same distance (in this document, the foreground, background, etc. 3)), the distance image is corrected.

非特許文献1では、距離情報、撮影画像の輝度情報及びそれらから導出される信頼度の情報を用いて、重み付きクロスバイラテラルフィルタにより距離画像を補正している。   In Non-Patent Document 1, a distance image is corrected by a weighted cross bilateral filter using distance information, luminance information of a captured image, and reliability information derived therefrom.

特許第5150698号公報Japanese Patent No. 5150698 米国特許出願公開第2015/003725号明細書US Patent Application Publication No. 2015/003725

松尾琢也、他、「重み付きクロスバイラテラルフィルタによる奥行き推定精度の向上」、映像情報メディア学会誌、Vol.66、No.11、pp.J434−J443(2012)Matsuo Shinya, et al., “Improvement of depth estimation accuracy by weighted cross bilateral filter”, Journal of the Institute of Image Information and Television Engineers, Vol. 66, no. 11, pp. J434-J443 (2012)

上述のように、撮影画像を用いて距離画像や動き画像を補正する場合、補正対象画素の周辺画素のうち撮影画像における輝度や色が補正対象画素と類似している画素を用いて、補正対象画素の情報を算出している。しかし、距離や動き情報の分布は撮影画像の輝度や色の分布とは必ずしも同一ではない。すなわち、同一の距離を有する領域に、輝度や色が異なる画素が含まれる場合もある。そのため、その領域にある補正画素の周辺の輝度や色の違いによって、参照する撮影画像の画素や画素数が異なる場合が発生する場合があった。結果として、同一の距離や動きの被写体においても、撮影画像の輝度や色の分布により、補正結果が異なってしまい、本来は存在しない距離差や動きの差が発生してしまうという課題があった。   As described above, when a distance image or a motion image is corrected using a captured image, among pixels around the correction target pixel, pixels whose luminance and color in the captured image are similar to the correction target pixel are used. Pixel information is calculated. However, the distribution of distance and motion information is not necessarily the same as the luminance and color distribution of the captured image. That is, there are cases where pixels having different luminance and color are included in regions having the same distance. For this reason, there may be a case where the pixel and the number of pixels of the captured image to be referred to differ depending on the luminance and color difference around the correction pixel in the region. As a result, even for subjects with the same distance and movement, the correction results differ depending on the brightness and color distribution of the photographed image, and there is a problem that a difference in distance or movement that does not exist originally occurs. .

なお、このような課題は、距離画像や動き画像と撮影画像とのあいだにのみ生じるものではない。第一の画像データ(たとえば撮影画像)と対応する第二の画像データ(たとえば距離画像や動き画像)を補正する際に、第一の画像データの画素値の類似性を考慮して補正に利用する第二の画像データの画素を選択する場合には、同様の問題が生じる。   Such a problem does not occur only between a distance image or a motion image and a captured image. When correcting second image data (for example, distance image or motion image) corresponding to first image data (for example, photographed image), it is used for correction in consideration of the similarity of pixel values of the first image data. The same problem occurs when selecting the pixel of the second image data to be performed.

本発明の目的は、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正可能なデータ処理装置を提供することである。   An object of the present invention is to provide a data processing device that can satisfactorily correct the second image data even when the pixel values of the first image data are different in a region where the pixel values of the second image data are the same. Is to provide.

本発明の第一の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定手段と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置である。
The first aspect of the present invention is:
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Weight determining means for determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Is a data processing apparatus.

本発明の第二の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択手段と、
前記画素選択手段によって選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置である。
The second aspect of the present invention is:
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Pixel selecting means for selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected by the pixel selection means;
Is a data processing apparatus.

本発明の第三の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定工程と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法である。
The third aspect of the present invention is:
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
Using the smoothed data, a weight determining step of determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data;
A correction step of correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Is a data processing method for executing.

本発明の第四の態様は、
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択工程と、
前記画素選択工程において選択された画素に対応する前記第二の画像データの画素情報
を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法である。
The fourth aspect of the present invention is:
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
A pixel selection step of selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
A correction step of correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected in the pixel selection step;
Is a data processing method for executing.

本発明によれば、第二の画像データの画素値が同一の領域において第一の画像データの画素値が異なる場合であっても、第二の画像データを良好に補正できる。   According to the present invention, even when the pixel values of the first image data are different in the region where the pixel values of the second image data are the same, the second image data can be corrected well.

実施形態1に係るデータ処理装置を含む撮像装置の一例を示す模式図。FIG. 3 is a schematic diagram illustrating an example of an imaging apparatus including the data processing apparatus according to the first embodiment. 実施形態1に係るデータ処理方法のフローチャート。5 is a flowchart of a data processing method according to the first embodiment. 実施形態2に係るデータ処理装置を含む撮像装置の一例を示す模式図。FIG. 6 is a schematic diagram illustrating an example of an imaging device including a data processing device according to a second embodiment. 実施形態1に係るデータ補正方法の概要の説明図。FIG. 3 is an explanatory diagram of an outline of a data correction method according to the first embodiment. バイラテラルフィルタの概要説明図。FIG. 3 is a schematic explanatory diagram of a bilateral filter.

本発明について、実施形態、図面を用いて詳細に説明するが、本発明は各実施形態の構成に限らない。また、各実施形態を適宜組み合わせてもよい。   The present invention will be described in detail with reference to embodiments and drawings. However, the present invention is not limited to the configuration of each embodiment. Moreover, you may combine each embodiment suitably.

(実施形態1)
本実施形態では、補正する情報を距離情報とする。距離情報は、ある基準点と被写体とのあいだの距離に応じた値である。典型的には、撮像装置と被写体とのあいだの距離(絶対距離)が距離情報に相当する。距離情報は、一般には、撮像装置と被写体とのあいだの距離から求めれるその他の値であってもよい。距離情報のその他の例は、1画像のフォーカス位置と被写体のあいだの距離、2画像のフォーカス位置の中間位置と被写体のあいだの距離である。また、距離情報は、像面側での距離、物体側での距離のどちらであっても良い。また、距離情報は、実空間の距離で表されてもよいし、デフォーカス量や視差量など実空間距離に換算できる量で表されてもよい。このように距離情報は、撮像装置と被写体のあいだの距離(絶対距離)に依存して変化する値である。したがって、距離情報は距離依存値と称することもできる。
(Embodiment 1)
In the present embodiment, information to be corrected is distance information. The distance information is a value corresponding to the distance between a certain reference point and the subject. Typically, the distance (absolute distance) between the imaging device and the subject corresponds to the distance information. In general, the distance information may be another value obtained from the distance between the imaging device and the subject. Another example of the distance information is a distance between the focus position of one image and the subject, and a distance between the intermediate position of the focus position of two images and the subject. The distance information may be either a distance on the image plane side or a distance on the object side. The distance information may be represented by a distance in real space, or may be represented by an amount that can be converted into a real space distance, such as a defocus amount or a parallax amount. Thus, the distance information is a value that changes depending on the distance (absolute distance) between the imaging device and the subject. Therefore, the distance information can also be referred to as a distance dependent value.

本実施形態では、撮影画像データ(第一の画像データ)から距離画像データ(第二の画像データ)を生成し、撮影画像データと距離画像データを利用して距離画像データを補正する。   In the present embodiment, distance image data (second image data) is generated from captured image data (first image data), and the distance image data is corrected using the captured image data and the distance image data.

[構成]
図1(A)は、本発明に係るデータ処理装置を撮像装置に適用した場合の構成を模式的に示している。撮像装置1は、撮像光学系10、撮像素子11、制御部12、データ処理装置13、記憶部14、入力部15、表示部16を有している。
[Constitution]
FIG. 1A schematically shows a configuration when the data processing apparatus according to the present invention is applied to an imaging apparatus. The imaging apparatus 1 includes an imaging optical system 10, an imaging element 11, a control unit 12, a data processing device 13, a storage unit 14, an input unit 15, and a display unit 16.

撮像光学系10は、1枚または複数枚のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。撮像素子11は、CCDやCMOSなどのイメージセンサを有する撮像素子である。カラーフィルターを有する撮像素子でもよいし、モノクロの撮像素子でもよいし、三板式の撮像素子でもよい。   The imaging optical system 10 is an optical system that includes one or a plurality of lenses and forms incident light on the image plane of the imaging element 11. The image sensor 11 is an image sensor having an image sensor such as a CCD or a CMOS. An image sensor having a color filter, a monochrome image sensor, or a three-plate image sensor may be used.

データ処理装置13は、信号処理部130、メモリ131、距離画像データ生成部132、距離画像データ補正部133を有している。データ処理装置13は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)のような論理回路を用いて構成することができる。データ処理装置13の一部または前方の機能は、コンピュータ(プロセッサ)とプログラムとにより構成されてもよい。   The data processing device 13 includes a signal processing unit 130, a memory 131, a distance image data generation unit 132, and a distance image data correction unit 133. The data processing device 13 can be configured using a logic circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). A part or a front function of the data processing device 13 may be configured by a computer (processor) and a program.

信号処理部130は、撮像素子11から出力されるアナログ信号のAD変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正などの各種信号処理を行う。信号処理部130から出力されるデジタル画像データはメモリ131に蓄積され、表示部16への表示、記憶部14への記録(保存)、距離情報の算出、距離画像データの生成などに使用される。なお、距離画像データとは、距離情報の分布を表すものである。距離画像データは距離マップとも称される。   The signal processing unit 130 performs various signal processing such as AD conversion, noise removal, demosaicing, luminance signal conversion, aberration correction, white balance adjustment, and color correction of the analog signal output from the image sensor 11. Digital image data output from the signal processing unit 130 is accumulated in the memory 131 and used for display on the display unit 16, recording (saving) in the storage unit 14, calculation of distance information, generation of distance image data, and the like. . The distance image data represents a distribution of distance information. The distance image data is also referred to as a distance map.

距離画像データ生成部132は、信号処理部130から出力される信号から撮影画像データを取得し、その撮影画像データから被写体の距離画像データを生成する。被写体の距離情報を取得する方式は特に制限はなく、撮影条件を変えて撮影したぼけ方の異なる撮影画像データを用いるDepth From Defocus法(以下、DFD法)や、視差のある撮影画像データを用いるステレオ法があげられる。視差のある撮影画像データの取得は、複数の撮像装置を用いたり、光学系の瞳を分割可能な画素を持つ撮像素子を用いたりして得ることができる。距離情報の取得方法の例として、その他にも、Time of Flight(TOF法)やDepth From Focusなどがあげられる。距離画像データ生成部132で生成された距離画像データは、記憶部14に格納、またはメモリ131に一時的に格納され、後段の処理に利用される。また、距離画像データはその取得方法に応じた補正処理が行われてもよい。   The distance image data generation unit 132 acquires captured image data from the signal output from the signal processing unit 130, and generates distance image data of the subject from the captured image data. There is no particular limitation on the method for acquiring the distance information of the subject, and a depth-from-defocus method (hereinafter referred to as a DFD method) that uses photographed image data with different blurs taken under different photographing conditions, or photographed image data with parallax is used. Stereo method can be mentioned. Acquisition of captured image data with parallax can be obtained by using a plurality of imaging devices or an imaging device having pixels that can divide the pupil of the optical system. Other examples of distance information acquisition methods include Time of Flight (TOF method) and Depth From Focus. The distance image data generated by the distance image data generation unit 132 is stored in the storage unit 14 or temporarily stored in the memory 131 and used for subsequent processing. Further, the distance image data may be corrected according to the acquisition method.

距離画像データ補正部133は、取得された撮影画像データと距離画像データ生成部132で生成された距離画像データを用いて、距離画像データの各画素の距離情報を補正する機能を有する。撮影画像データ補正部133は、図1(B)に示すように、その機能部として、撮影画像データ取得部1331、距離画像データ取得部1332、平滑化処理部1333、補正利用画素選択部1334、補正部1335を備える。撮影画像データ取得部1331は、撮影画像データを記憶部14またはメモリ131から読み込む。距離画像データ取得部1332は、距離画像データを記憶部14またはメモリ131から読み込む。平滑化処理部1333は、撮影画像データを平滑化して平滑化データを生成する。補正利用画素選択部1334は、距離画像データの補正対象画素を補正する際に利用する画素を、平滑化データに基づいて選択する。補正部1335は、選択された画素に対応する距離画像データを用いて、補正対象画素の距離情報を補正する。距離画像データ補正部133による補正処理の詳細は、後ほど詳しく説明する。   The distance image data correction unit 133 has a function of correcting the distance information of each pixel of the distance image data using the acquired captured image data and the distance image data generated by the distance image data generation unit 132. As shown in FIG. 1B, the captured image data correction unit 133 includes, as its functional units, a captured image data acquisition unit 1331, a distance image data acquisition unit 1332, a smoothing processing unit 1333, a correction use pixel selection unit 1334, A correction unit 1335 is provided. The captured image data acquisition unit 1331 reads captured image data from the storage unit 14 or the memory 131. The distance image data acquisition unit 1332 reads the distance image data from the storage unit 14 or the memory 131. The smoothing processing unit 1333 smoothes the captured image data and generates smoothed data. The correction use pixel selection unit 1334 selects a pixel to be used when correcting the correction target pixel of the distance image data based on the smoothed data. The correction unit 1335 corrects the distance information of the correction target pixel using the distance image data corresponding to the selected pixel. Details of the correction processing by the distance image data correction unit 133 will be described in detail later.

記憶部14は、撮影画像データ、距離画像データ、その他中間データ、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部14としては、高速に読み書きでき、且つ、大容量の記憶媒体であればどのようなものを利用してもよい。例えば、フラッシュメモリなどが記憶部14として好ましい。   The storage unit 14 is a non-volatile storage medium that stores captured image data, distance image data, other intermediate data, parameter data used in the imaging apparatus 1, and the like. As the storage unit 14, any storage medium that can read and write at high speed and has a large capacity may be used. For example, a flash memory or the like is preferable as the storage unit 14.

入力部15はユーザーが操作し、撮像装置1に対して、情報入力や設定変更を行うためのインターフェイスである。例えば、ダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。   The input unit 15 is an interface that is operated by a user to input information and change settings on the imaging apparatus 1. For example, dials, buttons, switches, touch panels and the like can be used.

表示部16、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部16は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報などを表示する。   It is a display means comprised with the display part 16, a liquid crystal display, an organic EL display, etc. The display unit 16 displays a composition confirmation at the time of photographing, browsing of photographed / recorded images, various setting screens, message information, and the like.

制御部12は、撮像装置1の各部を制御する。制御部12の機能としては、例えば、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込み、シャッタやフラッシュ(いずれも不図示)の制御、記憶部14や入力部15、表示部16の制御を行う。   The control unit 12 controls each unit of the imaging device 1. Functions of the control unit 12 include, for example, automatic focusing by autofocus (AF), change of focus position, change of F value (aperture), image capture, control of shutter and flash (both not shown), and storage. The unit 14, the input unit 15, and the display unit 16 are controlled.

[処理]
次に、図2(A)のフローチャートを用いて、本実施形態の撮影開始から完了までの全体処理の流れを説明する。まずステップS20では、撮影者が撮影したいシーンに対して、ズームを行い、構図を決め、同時にシャッタ速度、Fナンバーなどの撮影条件を設定し、フォーカス調整を行う。これらの撮影条件の決定は撮影者が手動で行ってもよいし、撮像装置1が自動で決定してもよい。
[processing]
Next, the flow of the entire process from the start to the end of photographing according to the present embodiment will be described using the flowchart of FIG. First, in step S20, the photographer zooms in on the scene he wants to shoot, determines the composition, and simultaneously sets shooting conditions such as shutter speed and F number, and performs focus adjustment. These photographing conditions may be determined manually by the photographer or automatically by the imaging device 1.

次に、ステップS21で、不図示の撮影ボタンが押下されると、撮像装置1が、撮影画像データおよび距離画像データを取得する。距離画像データは前述の方法によって距離画像データ生成部132により生成される。撮影画像データは距離画像データ生成方法に合わせて撮影される必要がある。たとえば、DFDにより距離画像データが生成される場合は、撮影条件を変えてぼけの異なる複数の撮影画像データが取得される必要がある。   Next, when a photographing button (not shown) is pressed in step S21, the imaging device 1 acquires photographed image data and distance image data. The distance image data is generated by the distance image data generation unit 132 by the method described above. The captured image data needs to be captured in accordance with the distance image data generation method. For example, when distance image data is generated by DFD, it is necessary to obtain a plurality of photographed image data with different blurs by changing the photographing conditions.

次にステップS22で、距離画像データ補正部133が距離画像データを補正する。本ステップの詳細を図2(B)のフローチャートを用いて説明する。   In step S22, the distance image data correction unit 133 corrects the distance image data. Details of this step will be described with reference to the flowchart of FIG.

ステップS220では、平滑化処理部1333が、前処理として撮影画像データに対して平滑化処理を施す。平滑化された撮影画像データ(平滑化データ)はメモリ131に格納され以下のステップで利用される。   In step S220, the smoothing processing unit 1333 performs smoothing processing on the captured image data as preprocessing. Smoothed photographed image data (smoothed data) is stored in the memory 131 and used in the following steps.

ステップS220における平滑化処理は、撮影画像データ内の輝度や色の微小な変化は平滑化するが、物体のエッジ部の輝度や色の変化は保存するような処理であることが好ましい。このような平滑化処理は、エッジ保存型の平滑化処理(edge-preserving smoothing)と呼ばれる。エッジ保存型の平滑化処理では、対象画素の周辺画素に対して、画素間
距離に応じた重み付けと画素値(画素情報)の差分に応じた重み付けを用いた画素値の加重平均処理が施される。
The smoothing process in step S220 is preferably a process that smoothes minute changes in luminance and color in the captured image data, but preserves changes in luminance and color at the edge of the object. Such a smoothing process is called edge-preserving smoothing. In the edge preserving type smoothing process, pixel values are weighted and averaged using the weighting according to the distance between the pixels and the weighting according to the difference between the pixel values (pixel information) on the peripheral pixels of the target pixel. The

エッジ保存型の平滑化処理の一例はバイラテラルフィルタである。バイラテラルフィルタは、式1で表される。バイラテラルフィルタは、位置pの周辺領域Sの画素を参照してフィルタリング結果Iを求める。

Figure 2017182668
An example of the edge preserving type smoothing process is a bilateral filter. The bilateral filter is expressed by Equation 1. The bilateral filter obtains the filtering result Ip by referring to the pixels in the peripheral region S at the position p.
Figure 2017182668

ここでは、撮影画像Fの位置pの画素値をFで表しており、位置pの周辺領域Sの画素を参照してフィルタリングした結果の画素値をIで表している。また、式(1)のWは正規化のため用いており、式(2)のように定義される。Gσは分散がσで平均が0のガウシアン関数(正規分布関数)である。式(2)において、σ、σは撮影画像Fのフィルタリング量を決定するパラメータである。式(1)の正規化された重みは、Gσsは空間方向で定義されるガウシアンで、着目している画素位置から離れ具合(画素間距離)によって重みが制御される。Gσrは強度方向で定義されるガウシアンで、強度Fpとの差(画素情報の差分)によって画素qへの重みが制御される。この2つのパラメータにより、空間方向および強度方向の重みを考慮したフィルタリングを実行している。周辺領域Sは位置pを中心とする領域であり、たとえば正方形や円形の領域である。周辺領域Sの大きさは適宜定めればよい。 Here, the pixel value at the position p of the captured image F is represented by F p , and the pixel value obtained by filtering with reference to the pixels in the peripheral region S at the position p is represented by I p . Also, W p in equation (1) is used for normalization and is defined as in equation (2). G σ is a Gaussian function (normal distribution function) with a variance of σ 2 and an average of 0. In Expression (2), σ s and σ r are parameters that determine the filtering amount of the captured image F. As for the normalized weight of Equation (1), G σs is a Gaussian defined in the spatial direction, and the weight is controlled by the degree of separation (distance between pixels) from the pixel position of interest. G σr is a Gaussian defined in the intensity direction, and the weight to the pixel q is controlled by a difference from the intensity Fp (difference in pixel information). Filtering in consideration of the weights in the spatial direction and the intensity direction is executed by these two parameters. The peripheral region S is a region centered on the position p, and is, for example, a square or circular region. The size of the peripheral region S may be determined as appropriate.

このバイラテラルフィルタ処理の概念を、図5を用いて説明する。図5は、説明の簡単
のため、強度分布(画素値分布)50を1次元で表わす。強度分布50は、輝度あるいは色の位置ごとの画素値を示す分布である。今、フィルタ処理を行う位置pを位置51とすいる。位置51において強度分布50は画素値52を持つ。ここで、位置51から近い位置の画素値をフィルタリングに用いるようガウシアンで重み付けを行うのが、空間方向のパラメータσである。グラフ53は位置ごとの重み係数を示す。σが大きければ広範囲に、小さければ狭い範囲に、ガウス分布に従って空間方向に重み係数53が定義される。同様に、図5のフィルタリング対象の強度52に近い画素値をフィルタリングに用いるようガウシアンで重み付けを行うのが、強度方向のパラメータσである。グラフ54は画素値ごとの重み係数を示す。σが大きければ広範囲に、小さければ狭い範囲に、ガウス分布に従って強度方向に重み係数54が定義される。このように、空間方向および強度方向的に重み付けすることで、エッジを保存した平滑化処理を行うことが可能となる。
The concept of this bilateral filter process will be described with reference to FIG. FIG. 5 shows the intensity distribution (pixel value distribution) 50 in one dimension for the sake of simplicity. The intensity distribution 50 is a distribution indicating pixel values for each luminance or color position. Now, the position p where the filtering process is performed is defined as a position 51. The intensity distribution 50 at the position 51 has a pixel value 52. Here, it is a parameter σ s in the spatial direction that weights with Gaussian so that the pixel value near the position 51 is used for filtering. A graph 53 shows the weighting coefficient for each position. The weighting coefficient 53 is defined in the spatial direction according to the Gaussian distribution in a wide range if σ s is large and in a narrow range if σ s is small. Similarly, the intensity direction parameter σ r is weighted by Gaussian so that a pixel value close to the intensity 52 to be filtered in FIG. 5 is used for filtering. The graph 54 shows the weighting coefficient for each pixel value. The weighting factor 54 is defined in the intensity direction according to the Gaussian distribution in a wide range if σr is large and in a narrow range if σr is small. In this way, by weighting in the spatial direction and the intensity direction, it is possible to perform a smoothing process that preserves edges.

エッジ保存型の平滑化処理の他の例として、非線形拡散、ガイデットフィルタ(Guided
Filter)、Non-local Meansフィルタが挙げられる。これらのフィルタもステップS220において利用可能である。
Other examples of edge-preserving smoothing include nonlinear diffusion and guided filters (Guided
Filter), Non-local Means filter. These filters are also available in step S220.

ループL1では、ステップS221およびステップS222の処理が距離画像データの補正対象画素ごとに繰り返される。典型的には、距離画像データの全画素が補正対象画素であり、ループL1の処理は距離画像データの全ての画素を対象にして行われる。   In the loop L1, the processes in steps S221 and S222 are repeated for each correction target pixel of the distance image data. Typically, all the pixels of the distance image data are correction target pixels, and the processing of the loop L1 is performed on all the pixels of the distance image data.

次に、ステップS221で、補正利用画素選択部1334は、距離画像データの補正対象画素に対する参照画素を選択する。参照画素とは、ステップS222において補正対象画素の補正値を求める際に参照される画素である。参照画素は、補正に利用される画素(補正利用画素)と称することもできる。   Next, in step S221, the correction use pixel selection unit 1334 selects a reference pixel for the correction target pixel of the distance image data. The reference pixel is a pixel that is referred to when the correction value of the correction target pixel is obtained in step S222. The reference pixel can also be referred to as a pixel used for correction (correction use pixel).

ステップS221の参照画素の選択処理では、ステップS220で平滑化された撮影画像データ(以下、平滑化データと記す)が用いられる。参照画素は、補正対象画素の近傍画素のうち、補正対象画素とのあいだの平滑化データの画素情報の類似度が所定の閾値以上の画素として決定できる。類似度は、補正対象画素およびその近傍画素の平滑化データの強度(輝度また色)の情報、またはそれらから変換可能な情報を比較することで決定できる。ここでの近傍画素とは、補正対象画素を基準にして、所定の範囲に存在する画素全てである。近傍画素の形状や大きさは距離画像データのエラー量などで任意に決定して構わない。また、近傍画素は補正対象画素自身を含んでも良いし含まなくても良い。参照画素か否かの判別には、近傍画素(参照画素の候補画素)q毎に計算される類似度S(q)が用いられる。   In the reference pixel selection process in step S221, the captured image data smoothed in step S220 (hereinafter referred to as smoothed data) is used. The reference pixel can be determined as a pixel in which the similarity of the pixel information of the smoothed data between the correction target pixel and the correction target pixel is equal to or higher than a predetermined threshold among the correction target pixels. The degree of similarity can be determined by comparing information on the intensity (luminance or color) of the smoothed data of the correction target pixel and its neighboring pixels, or information that can be converted therefrom. Here, the neighboring pixels are all pixels existing in a predetermined range with reference to the correction target pixel. The shape and size of the neighboring pixels may be arbitrarily determined based on the error amount of the distance image data. In addition, the neighboring pixels may or may not include the correction target pixel itself. In determining whether the pixel is a reference pixel, the similarity S (q) calculated for each neighboring pixel (reference pixel candidate pixel) q is used.

類似度S(q)は、例えば、平滑化データがモノクロの画素値を有する輝度画像であれば、式(3)のように計算される。

Figure 2017182668
ここで、Iは平滑化データでの輝度値を表し、pは補正対象画素、qは近傍画素の位置を表す。Sは補正対象画素と近傍画素の輝度値の類似度を表し、値が小さいほど類似度は高い。 For example, if the smoothed data is a luminance image having a monochrome pixel value, the similarity S (q) is calculated as in Expression (3).
Figure 2017182668
Here, I represents the luminance value in the smoothed data, p represents the correction target pixel, and q represents the position of the neighboring pixel. S represents the similarity between the luminance values of the correction target pixel and neighboring pixels, and the smaller the value, the higher the similarity.

また、平滑化データがカラー画像データであれば、補正対象画素と近傍画素の類似度S(q)は、式(4)のような色に関するユークリッド距離で計算される。

Figure 2017182668
ここで、R、G、Bはそれぞれ赤、緑、青のカラーチャンネルを表す。 Further, if the smoothed data is color image data, the similarity S (q) between the correction target pixel and the neighboring pixels is calculated by the Euclidean distance relating to the color as in Expression (4).
Figure 2017182668
Here, R, G, and B represent red, green, and blue color channels, respectively.

類似度の算出方法は上記に記載したものに限らず、マンハッタン距離等、特に限定は無い。また、カラー画像から、CIELab色空間やYUV色空間など、他の色空間に変換し、上記類似度を計算してもよい。   The method of calculating the similarity is not limited to the one described above, and there is no particular limitation such as the Manhattan distance. Further, the similarity may be calculated by converting the color image into another color space such as CIELab color space or YUV color space.

以上説明したように、距離画像データ補正部133は、類似度に従って、参照画素を選択する。具体的には、類似度Sの値が閾値U以下の画素(閾値Uよりも類似が高い)が参照画素として選択される。選択された画素を1、選択されたかった画素を0とし、Wとして表現すると、近傍画素毎に式(5)のように決定することができる。

Figure 2017182668
As described above, the distance image data correction unit 133 selects a reference pixel according to the similarity. Specifically, a pixel having a similarity S value equal to or lower than a threshold U (similar to the threshold U) is selected as a reference pixel. When the selected pixel is 1 and the pixel that was desired to be selected is 0 and expressed as W, it can be determined for each neighboring pixel as shown in Equation (5).
Figure 2017182668

Wを補正処理における各画素の重み係数と捉えると、本実施形態のステップS221は、補正対象画素の近傍画素のうち平滑化データの類似度が閾値以上の画素のみを補正に利用するように、近傍画素に対する重み係数を決定する処理と捉えられる。   Supposing that W is a weighting factor of each pixel in the correction process, step S221 of the present embodiment uses only pixels whose smoothing data similarity is equal to or greater than a threshold among the neighboring pixels of the correction target pixel. This can be regarded as a process of determining a weighting factor for neighboring pixels.

参照画素の決定方法は、必ずしも上記方法である必要はない。平滑化データを利用する方法の他にも、距離情報の信頼性(確からしさ)を表す信頼度情報を利用して参照画素を決定することもできる。信頼度は、距離画像データ生成部132における距離算出処理時に距離情報の尤もらしさとして得られる場合がある。その場合は、ステップS21において、信頼度データも取得できる。また、撮影画像データを解析することで、距離情報の信頼度を取得できる。距離算出方法によって異なるが、例えば暗いところ(黒つぶれ)や明るいところ(白とび)しているところ、被写体にテクスチャが無いところ、被写体が動いているところなどは、信頼度が低いと求めることができる。さらに、距離画像データからも信頼度を取得できる。距離画像データにおいて、近傍の画素群に対して、著しく距離値が異なる画素や距離の境界部分はエラーである可能性が高く、信頼度が低いと求めることができる。こうして得られた信頼度を用いて、補正に利用する画素を選択できる。距離画像データのなかで、信頼できない距離情報は参照画素として選択しないことが好ましい。そのため、前述した輝度画像の類似度の閾値処理と同様に信頼度をある閾値で閾値処理し、信頼できる距離情報のみを参照画素として選択する。また、信頼度と類似度を組み合わせて参照画素を決定することもできる。信頼度を用いた選択方法の手段に関してはどのような方法でも構わない。以上、平滑化データおよび撮影画像データを用いた画素選択を個別に説明したが、それぞれを総合的に判断して画素選択のルールを決めてもよい。   The reference pixel determination method is not necessarily the above method. In addition to the method using the smoothed data, the reference pixel can be determined using reliability information indicating the reliability (probability) of the distance information. The reliability may be obtained as the likelihood of the distance information during the distance calculation process in the distance image data generation unit 132. In that case, reliability data can also be acquired in step S21. Further, the reliability of the distance information can be acquired by analyzing the captured image data. Depending on the distance calculation method, for example, a dark place (blackout) or a bright place (overexposed), a place where there is no texture in the subject, a place where the subject is moving, etc. should be calculated as low reliability. it can. Furthermore, the reliability can be acquired from the distance image data. In the distance image data, a pixel having a significantly different distance value or a boundary portion of the distance with respect to a neighboring pixel group is highly likely to be an error, and can be obtained with low reliability. A pixel to be used for correction can be selected using the reliability obtained in this way. It is preferable not to select unreliable distance information as reference pixels in the distance image data. Therefore, similarly to the threshold value processing of the similarity of the luminance image described above, the threshold value is processed with a certain threshold value, and only reliable distance information is selected as the reference pixel. Also, the reference pixel can be determined by combining the reliability and the similarity. Any method may be used as the method of the selection method using the reliability. The pixel selection using the smoothed data and the captured image data has been individually described above. However, the pixel selection rule may be determined by comprehensively determining each pixel selection.

次に、ステップS222において、距離画像データ補正部133は、ステップS221で求めた選択画素を用いて、補正対象画素の距離情報データの補正を行う。今、補正後の距離情報データをD’、補正前の距離情報データをDとすると、補正後の距離情報データD’は式(6)により算出される。

Figure 2017182668
Next, in step S222, the distance image data correction unit 133 corrects the distance information data of the correction target pixel using the selected pixel obtained in step S221. Now, assuming that the corrected distance information data is D ′ and the uncorrected distance information data is D, the corrected distance information data D ′ is calculated by Expression (6).
Figure 2017182668

すなわち、本実施形態では、補正後の距離情報データD’は、ステップS221において選択された参照画素(補正利用画素)の距離情報データの平均値として算出される。W
を重み係数と捉えると、補正後の距離情報データD’は、補正対象画素の近傍画素の距離画像データの加重平均値といえる。
That is, in the present embodiment, the corrected distance information data D ′ is calculated as the average value of the distance information data of the reference pixel (correction use pixel) selected in step S221. W
Is regarded as a weighting factor, the corrected distance information data D ′ can be said to be a weighted average value of distance image data of pixels near the correction target pixel.

周辺画素範囲Qは、広すぎると輝度(または色)が類似している距離情報は値が近いという前提が崩れ、新たなエラーを生む可能性が高くなり、また、演算量が増えるという問題がある。一方、周辺画素範囲Qが狭すぎると、参照可能な周辺画素が少なく、適切な補正ができなくなる。そのため、オブジェクト境界に発生するエラー量(幅)を距離算出方法に応じて適切な周辺画素範囲Qを事前に決定しておくことが望ましい。   If the peripheral pixel range Q is too wide, the assumption that distance information having similar brightness (or color) has a close value breaks down, increasing the possibility of generating a new error, and increasing the amount of calculation. is there. On the other hand, if the peripheral pixel range Q is too narrow, there are few peripheral pixels that can be referred to, and appropriate correction cannot be performed. For this reason, it is desirable that an appropriate peripheral pixel range Q is determined in advance according to the distance calculation method for the amount of error (width) generated at the object boundary.

ここで、ステップS220〜S222で述べた距離マップ補正の概要を、図4(A)〜4(E)を用いて詳細に説明する。図4(A)〜4(E)では、説明の簡単のため一元的に距離、強度(輝度または色)を記載しており、横軸が位置、縦軸が距離あるいは強度(輝度または色)である。図4(A)が、補正前の距離画像データの一次元分布を表しており、図4(B)が、図4(A)と同じ位置の撮影画像データの一次元分布を表している。   Here, the outline of the distance map correction described in steps S220 to S222 will be described in detail with reference to FIGS. 4 (A) to 4 (E). 4A to 4E, distance and intensity (brightness or color) are collectively described for simplicity of description, and the horizontal axis represents position and the vertical axis represents distance or intensity (brightness or color). It is. 4A shows the one-dimensional distribution of the distance image data before correction, and FIG. 4B shows the one-dimensional distribution of the captured image data at the same position as that in FIG. 4A.

図4(A)の距離41を補正することを想定する。図4(B)の範囲43は、式(5)の強度差の閾値U以内、かつ、式(6)の周辺画素範囲Qを示す。この範囲43に入る画素44の画素位置が特定される。ここで決定された画素位置の距離45が距離41の補正の際に参照され、距離41と距離45の平均値(図4(C)に示す距離46)が、補正後の距離となる。   It is assumed that the distance 41 in FIG. A range 43 in FIG. 4B indicates a pixel range Q within the threshold value U of the intensity difference in Expression (5) and the surrounding pixel range Q in Expression (6). The pixel position of the pixel 44 that falls within this range 43 is specified. The distance 45 of the pixel position determined here is referred to when the distance 41 is corrected, and the average value of the distance 41 and the distance 45 (the distance 46 shown in FIG. 4C) is the corrected distance.

以上のように、撮影画像データが図4(B)のように、被写体の持つ分布やショットノイズの影響によってばらついている場合、距離画像データの補正に用いる参照画素の数が少なくなる。その結果、図4(C)のように補正効果が低くなる。   As described above, when the captured image data varies as shown in FIG. 4B due to the distribution of the subject and the influence of shot noise, the number of reference pixels used for correcting the distance image data decreases. As a result, the correction effect is reduced as shown in FIG.

これに対して、本実施形態では、図4(B)に示す撮影画像データを平滑化することで、図4(D)に示すような平滑化撮影画像データを得ている。平滑化後の撮影画像データでは、画素値(輝度あるいは色)のばらつきが低減されるため、範囲43に含まれる画素が多い。したがって、補正に用いる参照画素として多数の画素を選択される。図4(E)は本実施形態の補正処理による補正結果を示す。図4(E)のように、本実施形態によれば良好な補正結果を得ることができる。   On the other hand, in the present embodiment, smoothed photographed image data as shown in FIG. 4D is obtained by smoothing the photographed image data shown in FIG. In the captured image data after smoothing, variation in pixel values (luminance or color) is reduced, so that the number of pixels included in the range 43 is large. Therefore, a large number of pixels are selected as reference pixels used for correction. FIG. 4E shows a correction result by the correction processing of this embodiment. As shown in FIG. 4E, according to the present embodiment, a good correction result can be obtained.

また、平滑化データを用いることで、参照画素を選択するための閾値Uを小さくすることが可能となる。この結果、異なる画素値を有する画素を選択する可能性が少なくなり、より補正精度が向上するという効果が得られる。   Further, by using the smoothed data, the threshold value U for selecting the reference pixel can be reduced. As a result, the possibility of selecting pixels having different pixel values is reduced, and the effect of improving the correction accuracy can be obtained.

また、撮影画像の被写体の強度分布にも影響されるが、平滑化データを生成する際の空間方向の重み付け範囲を、距離データを補正する際に参照する領域Qより大きくしたほうが、補正効果が高くなる場合が多い。具体的には、領域Qが正方形または円形である場合に、式(1)のσ(ガウシアン関数Gσsの標準偏差、すなわち分散σ の平方根)を領域Qの正方形の一辺の長さの半分または円形の半径よりも大きくすると良い。以上述べたように、距離マップ補正に関する平滑化データ生成および距離マップ補正のパラメータを制御することで、距離画像データが補正される。 Further, although it is influenced by the intensity distribution of the subject of the photographed image, the correction effect is improved when the weighting range in the spatial direction when generating the smoothed data is larger than the region Q that is referred to when correcting the distance data. It is often high. Specifically, when the region Q is a square or a circle, σ s (standard deviation of the Gaussian function G σs , that is, the square root of the variance σ s 2 ) in the formula (1) is the length of one side of the square of the region Q. It is better to make it larger than half the radius or circular radius. As described above, the distance image data is corrected by controlling the smoothing data generation and distance map correction parameters related to the distance map correction.

次に、ステップS23で、撮影画像データや補正された距離画像データを用いたアプリケーションに合わせた処理が行われる。処理の例として、撮影画像データに対して距離情報に応じたぼけを付加するぼかし処理などが挙げられる。   Next, in step S23, processing according to the application using the captured image data and the corrected distance image data is performed. As an example of processing, there is a blurring process for adding blur according to distance information to captured image data.

ステップS24で、アプリケーション処理の結果を表示部16に表示する。また、処理結果を、撮影画像データ、距離画像データ、および補正された距離画像データとともに記
憶部14に記録する。
In step S24, the result of the application process is displayed on the display unit 16. Further, the processing result is recorded in the storage unit 14 together with the photographed image data, the distance image data, and the corrected distance image data.

以上説明したように、本実施形態によれば、撮影画像データに対して、前処理として平滑化を行い、平滑化した撮影画像を基準に距離画像データを補正することで、平滑化画像を用いない場合に比べて高精度な距離補正を実現することが可能になる。その結果、距離画像を用いた様々な処理も正確に実現できるという効果がある。   As described above, according to the present embodiment, the smoothed image is used by smoothing the captured image data as preprocessing and correcting the distance image data based on the smoothed captured image. It becomes possible to realize distance correction with higher accuracy than in the case where there is not. As a result, there is an effect that various processes using the distance image can be accurately realized.

なお、上記では撮影画像データに対して平滑化処理のみを適用するよう説明したが、平滑化処理以外も適用しても良い。例えば、平滑化処理後にエッジ強調処理を行い被写体のエッジ部の信号の強度差を強調することで、距離画像データの輪郭を強調することも可能となる。輪郭強調により、距離補正の際に異なるオブジェクトの距離情報を利用する自体を避けられる。   In the above description, only the smoothing process is applied to the captured image data. However, other than the smoothing process may be applied. For example, it is possible to enhance the contour of the distance image data by performing edge emphasis processing after smoothing processing and emphasizing the difference in signal strength at the edge portion of the subject. By emphasizing the contour, it is possible to avoid using the distance information of different objects when correcting the distance.

また、上記の説明では、式(5)に示すように、補正対象画素の周辺画素のうち、撮影画像データの類似度が閾値U以下の画素のみを補正に利用している。すなわち、重みWは0または1に二値化される。しかしながら、重みWは二値である必要はなく、連続値とすることができる。たとえば、類似度に応じた値を重みWとすることができる。本実施形態では類似度Sは類似しているほど小さい値を取るので、たとえば、W=(Smax―S)/Smax(ただし、Smaxは類似度Sの最大値)とすることができる。もちろん、類似度Sの値が小さいほど(すなわち類似しているほど)大きな値をとれば、その他の算出式によって重みWを決定してもよい。このような観点から、補正利用画素選択部1334は、補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定部と捉えることができる。 In the above description, as shown in Expression (5), only the pixels having the similarity of the captured image data equal to or lower than the threshold U among the peripheral pixels of the correction target pixel are used for correction. That is, the weight W is binarized to 0 or 1. However, the weight W does not have to be a binary value and can be a continuous value. For example, the weight W can be a value corresponding to the similarity. In the present embodiment, the similarity S has a smaller value as it is similar. For example, W = (S max −S) / S max (where S max is the maximum value of the similarity S). . Of course, the weight W may be determined by another calculation formula as long as the value of the similarity S is smaller (that is, the similarity is higher). From this point of view, the correction use pixel selection unit 1334 can be regarded as a weight determination unit that determines weighting factors for peripheral pixels used when correcting the correction target pixel.

また、上記の説明では、補正に利用する画素の距離情報の平均を補正後の距離情報としている。しかしながら、補正距離情報は上記以外の任意の方法によって求めても構わない。たとえば、補正に利用する画素に基づく欠損画素の補間処理によって補正対象画素の補正後の距離情報を求めてもよい。   In the above description, the average of the distance information of the pixels used for correction is the corrected distance information. However, the correction distance information may be obtained by any method other than the above. For example, distance information after correction of a correction target pixel may be obtained by interpolation processing of a defective pixel based on a pixel used for correction.

(実施形態2)
実施形態1では、撮影画像データと距離画像データを使用し、距離情報の補正を行っている。それに対して、本実施形態では、撮影画像と距離画像の組み合わせ以外を用いて補正処理を行えることを示す。図3は、本実施形態のデータ処理装置を表す。フローチャートは実施形態1のフローチャートと同じである。本実施形態の画像処理方法を、実施形態1と異なる点を中心に説明する。
(Embodiment 2)
In the first embodiment, the distance information is corrected using captured image data and distance image data. In contrast, in the present embodiment, it is shown that correction processing can be performed using a combination other than a combination of a captured image and a distance image. FIG. 3 shows the data processing apparatus of this embodiment. The flowchart is the same as the flowchart of the first embodiment. The image processing method of the present embodiment will be described focusing on differences from the first embodiment.

データ処理装置31は、第一画像データ入力311、第二画像データ入力部312、第二画像データ補正部314を有している。   The data processing device 31 includes a first image data input 311, a second image data input unit 312, and a second image data correction unit 314.

本明細書において「画像データ」とは、数値データが論理的に2次元配列された2次元配列データを意味する。また、本明細書において「画像データ」は「マップ」とも称される。画像データの「画素」とは、画像データの2次元配列内での位置を意味する。画像データを構成する数値データは、特定の情報を表すデータに限定されず、例えば、輝度情報、距離情報、動き情報、信頼度情報を表すデータが含まれる。また、数値データの形式は、特定の形式に限られず、スカラー、ベクトル、行列などであってよい。取り扱う情報に応じて画像データは、輝度画像データ、距離画像データ、動き画像データ、信頼度画像データなどと称される。   In this specification, “image data” means two-dimensional array data in which numerical data is logically two-dimensionally arrayed. In this specification, “image data” is also referred to as “map”. The “pixel” of the image data means a position in the two-dimensional array of the image data. Numerical data constituting image data is not limited to data representing specific information, and includes, for example, data representing luminance information, distance information, motion information, and reliability information. Further, the format of numerical data is not limited to a specific format, and may be a scalar, a vector, a matrix, or the like. The image data is referred to as luminance image data, distance image data, motion image data, reliability image data, or the like depending on information to be handled.

第一画像データ入力部311には、基準となる画像データが入力される。第一画像データの例として、輝度画像データはもちろん、既に補正された距離画像データ、赤外光画像
データ、偏光画像データなどが挙げられる。また、第一画像データが輝度画像データである場合は、本実施形態のデータ処理装置31は、図1のような撮像装置とすることができる。また第一画像データが距離画像データ等の場合には、第一画像データ入力部311がデータ生成部を含んでもよい。仮に第一画像データが距離画像データであるとすると、式(1)中のFおよびIは距離値に相当する。
Reference image data is input to the first image data input unit 311. Examples of the first image data include not only luminance image data but also already corrected distance image data, infrared light image data, polarization image data, and the like. When the first image data is luminance image data, the data processing device 31 of the present embodiment can be an imaging device as shown in FIG. When the first image data is distance image data or the like, the first image data input unit 311 may include a data generation unit. If the first image data is distance image data, F and I in equation (1) correspond to distance values.

第二画像データ入力部312には、第二画像データが入力される。第二画像データは、第一画像データと略同一視点の画像データであり、異なる情報を表す画像データであることが好ましい。第一画像データと第二画像データは、異なる算出方法で算出された同一内容の情報を表すデータであってもよい。また、第一画像データと第二画像データは必ずしも同一画角である必要はなく、第二画像データが第一画像データに含まれていればよい。すなわち、第一画像データの画角は、第二画像データの画角と等しくてもよいし、それより大きい画角であってもよい。   Second image data is input to the second image data input unit 312. The second image data is image data at substantially the same viewpoint as the first image data, and is preferably image data representing different information. The first image data and the second image data may be data representing information of the same content calculated by different calculation methods. The first image data and the second image data do not necessarily have the same angle of view, and the second image data only needs to be included in the first image data. That is, the angle of view of the first image data may be equal to the angle of view of the second image data, or may be larger than that.

また、第二画像データの例として、動きデータ(Optical Flow)も挙げられる。動きデータは、被写体、あるいは、被写体とカメラの相対的な動きを表すデータである。例えば、形式として、横方向(x方向)と縦方向(y方向)方向の速度を各画素でデータとして保持している。このような動きデータは、ある時間間隔で取得した二枚の画像から、それら二画像のテンプレートマッチングによって、尤もらしい位置を計算し、その移動量と撮影時間間隔から縦・横方向それぞれの速度を算出することができる。その速度は、あるサイズのテンプレート内に異なる速度が混ざっている場合には、異なる速度が混ざり、中間的な速度値を持つようなエラーが発生してしまう。このようなオブジェクト境界部エラーをもつようなデータであれば効果が得られる。   In addition, as an example of the second image data, motion data (Optical Flow) can also be cited. The motion data is data representing the relative motion of the subject or the subject and the camera. For example, the speed in the horizontal direction (x direction) and the vertical direction (y direction) is held as data in each pixel as a format. Such motion data is calculated from two images acquired at a certain time interval by template matching of the two images, and the vertical and horizontal speeds are calculated from the amount of movement and the shooting time interval. Can be calculated. As for the speed, when different speeds are mixed in a template of a certain size, different speeds are mixed, and an error having an intermediate speed value occurs. The effect is obtained if the data has such an object boundary error.

第二画像データは、赤外光画像や偏光画像であってもよい。赤外画像や偏光画像は、レンズの色収差の影響や特殊なセンサ構造により、RGB画像よりも低解像度である場合がある。この場合もオブジェクト境界部にエラーが発生していると考えることができる。   The second image data may be an infrared light image or a polarized image. Infrared images and polarized images may have a lower resolution than RGB images due to the effects of chromatic aberration of lenses and special sensor structures. In this case also, it can be considered that an error has occurred in the object boundary.

また、第一画像データに対して、第二の画像データが小さいサイズ(少ないデータ量)である場合に、拡大(データ補間)処理を行うことがある。その場合、データのエッジ付近(オブジェクトの境界付近)でエラーが発生する。このような拡大処理後の画像データを第二画像データとして用いることができる。例えば、前述の赤外画像や偏光画像を取得するためのイメージセンサは、特定の画素にのみ赤外用のカラーフィルタや偏光フィルタを有する場合がある。この場合、取得される赤外画像や偏光画像は、RGB画像と比較して小さいサイズとなるため、拡大処理が施されることがある。   Further, when the second image data has a small size (small data amount) with respect to the first image data, an enlargement (data interpolation) process may be performed. In that case, an error occurs near the edge of the data (near the boundary of the object). Image data after such enlargement processing can be used as second image data. For example, an image sensor for acquiring the above-described infrared image or polarization image may have an infrared color filter or polarization filter only in a specific pixel. In this case, since the acquired infrared image or polarization image has a smaller size than the RGB image, enlargement processing may be performed.

第二画像データは、別装置からの入力でもよいし、第一画像データを含めたその他情報から算出してもよい。仮に、動きデータであるとすると、式6のDは横方向あるいは縦方向の速度値に相当する。   The second image data may be input from another device, or may be calculated from other information including the first image data. If it is motion data, D in Expression 6 corresponds to a velocity value in the horizontal direction or the vertical direction.

以上のように、第二画像データにエラーがあり、第一画像データが補正に対する基準となるデータであれば、第二画像データの補正処理は実施形態1の図2(B)と同様にして行うことができる。すなわち、第二画像データ補正部314は、図1(B)と同様の構成を有し、図2(B)で示される処理と同様の処理を行えばよい。データによっては、補正対象データが複数になる場合があるが、基本的な処理は変わらない。例えば、動きデータの場合には横方向の動きデータの補正処理と縦方向のデータの補正処理は独立に同様の手法を用いて行われる。   As described above, if there is an error in the second image data and the first image data is data serving as a reference for correction, the correction processing of the second image data is performed in the same manner as in FIG. It can be carried out. In other words, the second image data correction unit 314 has a configuration similar to that in FIG. 1B and may perform processing similar to the processing shown in FIG. Depending on the data, there may be a plurality of correction target data, but the basic processing remains the same. For example, in the case of motion data, horizontal motion data correction processing and vertical data correction processing are independently performed using the same method.

本実施形態によれば、距離画像データに限られず、エラーを持った種々のデータにより高精度な補正を行うことが可能となる。   According to the present embodiment, it is possible to perform high-precision correction using various data having an error, not limited to the distance image data.

(実施形態3)
上述した本発明のデータ処理方法は、例えば、デジタルカメラやカムコーダなどの撮像装置、或いは撮像装置で得られたデータに対して処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明の技術を適用可能である。上記実施形態では、撮像装置の本体に画像処理装置を組み込んだ構成を示したが、画像処理装置の機能はどのように構成してもよい。例えば、撮像装置を有するコンピュータに画像処理装置を組み込み、撮像装置で撮影した画像をコンピュータが取得して、それに基づいて上記データ処理方法を実行するようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに画像処理装置が組み込まれ、そのコンピュータがネットワークを介して画像を取得し、それに基づいて上記画像処理方法を実行するようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ぼけ効果のエミュレーションなど各種画像処理に利用することができる。
(Embodiment 3)
The above-described data processing method of the present invention can be preferably applied to, for example, an imaging apparatus such as a digital camera or a camcorder, or an image processing apparatus or a computer that processes data obtained by the imaging apparatus. The technology of the present invention can also be applied to various electronic devices (including mobile phones, smartphones, slate terminals, and personal computers) incorporating such an imaging device or image processing device. In the above-described embodiment, the configuration in which the image processing device is incorporated in the main body of the imaging device is shown, but the function of the image processing device may be configured in any manner. For example, an image processing device may be incorporated in a computer having an imaging device, and the computer may acquire an image captured by the imaging device, and the data processing method may be executed based on the acquired image. Further, the image processing apparatus may be incorporated in a computer that can access the network by wire or wireless, and the computer may acquire an image via the network and execute the image processing method based on the image. The obtained distance information can be used for various types of image processing such as image segmentation, generation of stereoscopic images and depth images, and emulation of blur effects.

(その他の実施例)
本発明は、マイクロプロセッサやCPU(中央演算装置)などの汎用プロセッサと、メモリに格納されたプログラムを備えたコンピュータにより構成し、汎用プロセッサが上記プログラムを実行することにより実現することができる。また、本発明は、ASICやFPGAやDSPのような専用プロセッサによって実現することができる。専用プロセッサおよびプログラムを実行する汎用プロセッサは、いずれも特定の機能を提供するように構成されたプロセッサ、あるいは特定の機能部として機能するように構成されたプロセッサといえる。また、本発明の一部の機能は汎用プロセッサ(およびプログラム)により提供され、他の機能は専用プロセッサによって実現されてもよい。また、本発明のある一つの機能が、汎用プロセッサ(およびプログラム)と専用プロセッサの両方によって実現されても構わない。
(Other examples)
The present invention can be realized by a general-purpose processor such as a microprocessor or CPU (Central Processing Unit) and a computer having a program stored in a memory, and the general-purpose processor executing the program. The present invention can be realized by a dedicated processor such as an ASIC, FPGA, or DSP. Both the dedicated processor and the general-purpose processor that executes the program can be said to be a processor configured to provide a specific function or a processor configured to function as a specific function unit. Some functions of the present invention may be provided by a general-purpose processor (and program), and other functions may be realized by a dedicated processor. One function of the present invention may be realized by both a general-purpose processor (and program) and a dedicated processor.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

13 画像処理装置
1333 平滑化処理部
1334 補正利用画素選択部(重み決定部)
1335 補正部
13 Image Processing Device 1333 Smoothing Processing Unit 1334 Correction Use Pixel Selection Unit (Weight Determination Unit)
1335 Correction unit

Claims (13)

第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定手段と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置。
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Weight determining means for determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
A data processing apparatus.
前記平滑化手段は、エッジ保存型の平滑化処理を行う、
請求項1に記載のデータ処理装置。
The smoothing means performs edge-preserving smoothing processing.
The data processing apparatus according to claim 1.
前記平滑化手段が行う平滑化処理は、画素間距離に応じた重み付けと、画素情報の差分に応じた重み付けとを用いた加重平均処理である、
請求項2に記載のデータ処理装置。
The smoothing process performed by the smoothing means is a weighted average process using weighting according to the inter-pixel distance and weighting according to the difference in pixel information.
The data processing apparatus according to claim 2.
前記平滑化手段は、画素間距離に応じたガウシアン関数にしたがった重み付けを行い、
記第二の画像データの補正対象画素を補正する際に利用する周辺画素の領域は、前記補正対象画素を中心とする正方形または円形の領域であり、
前記ガウシアン関数の分散をσ としたときに、σが前記正方形の一辺の長さの半分または前記円形の半径よりも大きい、
請求項3に記載のデータ処理装置。
The smoothing means performs weighting according to a Gaussian function according to a distance between pixels,
The area of the peripheral pixel used when correcting the correction target pixel of the second image data is a square or circular area centered on the correction target pixel,
When the variance of the Gaussian function is σ s 2 , σ s is larger than half the length of one side of the square or the radius of the circle,
The data processing apparatus according to claim 3.
前記重み決定手段は、前記補正対象画素とその近傍画素とに対応する前記平滑化データの画素情報の類似度に基づいて、前記近傍画素に対する重み係数を決定する、
請求項1から4のいずれか1項に記載のデータ処理装置。
The weight determining means determines a weighting factor for the neighboring pixel based on a similarity of pixel information of the smoothed data corresponding to the correction target pixel and the neighboring pixel;
The data processing apparatus according to any one of claims 1 to 4.
前記重み決定手段は、前記類似度が閾値よりも高い近傍画素のみを補正に利用するように前記重み係数を決定する、
請求項5に記載のデータ処理装置。
The weight determining means determines the weighting factor so as to use only neighboring pixels whose similarity is higher than a threshold;
The data processing apparatus according to claim 5.
前記重み決定手段は、第二の画像データの信頼性を表す信頼度も用いて前記重み係数を決定する、
請求項1から6のいずれか1項に記載のデータ処理装置。
The weight determining means determines the weighting factor also using a reliability representing the reliability of the second image data;
The data processing apparatus according to any one of claims 1 to 6.
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理装置であって、
前記第一の画像データを平滑化して平滑化データを生成する平滑化手段と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択手段と、
前記画素選択手段によって選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正手段と、
を有するデータ処理装置。
A data processing device that corrects second image data using first image data and second image data,
Smoothing means for smoothing the first image data to generate smoothed data;
Pixel selecting means for selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
Correction means for correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected by the pixel selection means;
A data processing apparatus.
前記第一の画像データは、輝度画像データまたはカラー画像データであり、
前記第二の画像データは、前記第一の画像を用いて生成される距離画像データまたは動き画像データである、
請求項1から8のいずれか1項に記載のデータ処理装置。
The first image data is luminance image data or color image data,
The second image data is distance image data or motion image data generated using the first image.
The data processing apparatus according to any one of claims 1 to 8.
撮像素子と、
請求項1から9のいずれか1項に記載のデータ処理装置と、
を備える撮像装置であって、
前記第一の画像データは、前記撮像素子から取得される撮影画像データである、
撮像装置。
An image sensor;
A data processing device according to any one of claims 1 to 9,
An imaging device comprising:
The first image data is captured image data acquired from the imaging element.
Imaging device.
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する周辺画素に対する重み係数を決定する重み決定工程と、
前記周辺画素の画素情報と前記重み係数を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法。
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
Using the smoothed data, a weight determining step of determining a weighting factor for peripheral pixels used when correcting the correction target pixel of the second image data;
A correction step of correcting the correction target pixel using pixel information of the peripheral pixels and the weighting factor;
Data processing method to execute.
第一の画像データと第二の画像データを用いて、第二の画像データを補正するデータ処理方法であって、
コンピュータが、
前記第一の画像データを平滑化して平滑化データを生成する平滑化工程と、
前記平滑化データを用いて、前記第二の画像データの補正対象画素を補正する際に利用する画素を選択する画素選択工程と、
前記画素選択工程において選択された画素に対応する前記第二の画像データの画素情報を用いて、前記補正対象画素を補正する補正工程と、
を実行するデータ処理方法。
A data processing method for correcting second image data using first image data and second image data,
Computer
A smoothing step of smoothing the first image data to generate smoothed data;
A pixel selection step of selecting a pixel to be used when correcting the correction target pixel of the second image data using the smoothed data;
A correction step of correcting the correction target pixel using pixel information of the second image data corresponding to the pixel selected in the pixel selection step;
Data processing method to execute.
請求項11または12に記載の方法の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of the method of Claim 11 or 12.
JP2016072541A 2016-03-31 2016-03-31 Data processing apparatus, imaging apparatus, and data processing method Pending JP2017182668A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016072541A JP2017182668A (en) 2016-03-31 2016-03-31 Data processing apparatus, imaging apparatus, and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072541A JP2017182668A (en) 2016-03-31 2016-03-31 Data processing apparatus, imaging apparatus, and data processing method

Publications (1)

Publication Number Publication Date
JP2017182668A true JP2017182668A (en) 2017-10-05

Family

ID=60007352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072541A Pending JP2017182668A (en) 2016-03-31 2016-03-31 Data processing apparatus, imaging apparatus, and data processing method

Country Status (1)

Country Link
JP (1) JP2017182668A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148426A (en) * 2018-02-26 2019-09-05 パナソニックIpマネジメント株式会社 Image processing apparatus
CN114694000A (en) * 2020-12-31 2022-07-01 深圳云天励飞技术股份有限公司 Target detection method and related equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148426A (en) * 2018-02-26 2019-09-05 パナソニックIpマネジメント株式会社 Image processing apparatus
JP7220343B2 (en) 2018-02-26 2023-02-10 パナソニックIpマネジメント株式会社 Image processing device
CN114694000A (en) * 2020-12-31 2022-07-01 深圳云天励飞技术股份有限公司 Target detection method and related equipment

Similar Documents

Publication Publication Date Title
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
EP3692500B1 (en) Estimating depth using a single camera
US9615012B2 (en) Using a second camera to adjust settings of first camera
CN108055452B (en) Image processing method, device and equipment
US8767085B2 (en) Image processing methods and apparatuses to obtain a narrow depth-of-field image
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9344636B2 (en) Scene motion correction in fused image systems
US20230033956A1 (en) Estimating depth based on iris size
JP6006543B2 (en) Image processing apparatus and image processing method
JP6720881B2 (en) Image processing apparatus and image processing method
JP7516471B2 (en) Control device, imaging device, control method, and program
CN110383335A (en) The background subtraction inputted in video content based on light stream and sensor
JP5956844B2 (en) Image processing apparatus and control method thereof
JP6491581B2 (en) Image processing apparatus, control method therefor, and program
JP2017103756A (en) Image data processing apparatus and method
JP2017182668A (en) Data processing apparatus, imaging apparatus, and data processing method
US10861194B2 (en) Image processing apparatus, image processing method, and storage medium
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
EP3442218A1 (en) Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2017130106A (en) Data processing apparatus, imaging apparatus and data processing method
JP2019106215A (en) Data processor, imaging device, and data processing method
JP2020086216A (en) Imaging control device, imaging apparatus and imaging control program
JP7458723B2 (en) Image processing device, imaging device, control method, and program
JP6501732B2 (en) Data processing apparatus, imaging apparatus, and control method of data processing apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116