JP2010276469A - Image processor and image processing method of ranging apparatus - Google Patents
Image processor and image processing method of ranging apparatus Download PDFInfo
- Publication number
- JP2010276469A JP2010276469A JP2009129205A JP2009129205A JP2010276469A JP 2010276469 A JP2010276469 A JP 2010276469A JP 2009129205 A JP2009129205 A JP 2009129205A JP 2009129205 A JP2009129205 A JP 2009129205A JP 2010276469 A JP2010276469 A JP 2010276469A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- filter
- pixels
- saturated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 76
- 229920006395 saturated elastomer Polymers 0.000 claims description 55
- 238000001514 detection method Methods 0.000 claims description 19
- 238000000926 separation method Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 27
- 230000000295 complement effect Effects 0.000 description 21
- 238000000034 method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 9
- 230000035945 sensitivity Effects 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 238000009499 grossing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Input (AREA)
Abstract
Description
本発明は、一対の撮像素子により対象物までの距離を測定できる画像処理装置及び測距装置の画像処理方法に関するものである。 The present invention relates to an image processing apparatus capable of measuring a distance to an object with a pair of imaging elements and an image processing method of the distance measuring apparatus.
例えば図1に示すように、自律して移動するロボットRBT等において、前方の障害物OBを検出して危険を警告したり、これを自動的に回避するために、対象物までの距離を測ることが行われる。ここで、対象物までの距離を計測する測距装置としては、超音波やレーザ光など電磁波の反射を利用するものがある。しかるに、超音波やレーザ光などを用いた測距装置では、対象物までの距離を比較的正確に測定できるものの、測距範囲が比較的狭く、また対象物を誤って捉えた場合の判断が困難であるという問題がある。これに対し、特許文献1に示すように、ステレオカメラ(立体視法)により一対の撮像素子を用いて撮像画像を取得し、その撮像画像を画像処理することで測距を行う装置が提案されている。
For example, as shown in FIG. 1, in an autonomously moving robot RBT or the like, a front obstacle OB is detected to warn of a danger, or in order to avoid this automatically, the distance to an object is measured. Is done. Here, as a distance measuring device that measures the distance to an object, there is an apparatus that uses reflection of electromagnetic waves such as ultrasonic waves and laser light. However, a distance measuring device using ultrasonic waves, laser light, etc. can measure the distance to the object relatively accurately, but the distance measurement range is relatively narrow. There is a problem that it is difficult. On the other hand, as shown in
ところで、一般的なデジカメ等に使用される固体撮像素子(CCD/CMOS)は,可視青色光(B)・可視緑色光(G)・可視赤色光(R)を透過する原色フィルタを、各画素に応じて図2(a)に示すように物理的に配列(いわゆるBayer配列構造)している。このような撮像素子は、図3(a)に示すような日中の撮像では問題がないが、図3(b)に示すような夜間もしくは日陰ではフォトンの量が少なくなるため、S/N比が小さい画像信号が出力され、測距に必要な画像の比較を有効に行えないという問題がある。一方、赤外光を透過する一様な赤外フィルタを、画素の前に図2(b)に示すように物理的に配列している赤外線カメラにおいては、夜間等の撮影においても、十分なフォトンを得ることができるが、出力された画像信号には色データがないため,いわゆる白黒のグレースケール画像しか撮影できないという問題がある。同様の問題は、監視カメラMC(図1)にステレオカメラを搭載した場合にも生じる。 By the way, a solid-state imaging device (CCD / CMOS) used for a general digital camera or the like has a primary color filter that transmits visible blue light (B), visible green light (G), and visible red light (R), for each pixel. In response to this, as shown in FIG. 2A, they are physically arranged (so-called Bayer arrangement structure). Such an image sensor has no problem in daytime imaging as shown in FIG. 3A, but the amount of photons decreases at night or in the shade as shown in FIG. There is a problem that an image signal with a small ratio is output, and comparison of images necessary for distance measurement cannot be performed effectively. On the other hand, an infrared camera in which a uniform infrared filter that transmits infrared light is physically arranged in front of the pixels as shown in FIG. Although photons can be obtained, there is a problem that only a so-called black-and-white grayscale image can be taken because there is no color data in the output image signal. A similar problem occurs when a stereo camera is mounted on the surveillance camera MC (FIG. 1).
本発明の目的は、フォトンの量が少ない夜間や日陰においても、測距に必要な撮像画像を得ることができる画像処理装置及び測距装置の画像処理方法を提供することである。 An object of the present invention is to provide an image processing apparatus and an image processing method for the distance measuring apparatus that can obtain a captured image necessary for distance measurement even at night or in the shade where the amount of photons is small.
請求項1に記載の画像処理装置は、予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する画像処理装置において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、原色フィルタより上位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とする。尚、本明細書中、「画素が飽和する」とは、「画素が取得したデータが飽和する」ことを意味するものとする。
The image processing apparatus according to
Image signals or image data obtained through a filter higher than the primary color filter in a saturation order of filters in which the pixels of the image sensor are likely to be saturated in the different filters are compared. In this specification, “pixel is saturated” means “data acquired by the pixel is saturated”.
近年,夜間の撮像でもカラー画像を可能とする為,R・G・B・Irいずれかの複数帯域に感度を持つ,いわゆる補色フィルタを採用した固体撮像素子が開発された。図4(a)は、補色フィルタの一例にかかる配列を示す図である。図4(a)に示す補色フィルタは、各画素に対応して、可視波長領域と赤外波長領域とを有感度波長帯域とするYeフィルタ、Riフィルタ、Irフィルタ、及びWフィルタとで1つの単位フィルタ群を形成している。尚、これに対して、従来のRフィルタ、Gフィルタ、Bフィルタを原色フィルタと呼ぶ。 In recent years, in order to enable color images even at night imaging, a solid-state imaging device employing a so-called complementary color filter having sensitivity in a plurality of bands of R, G, B, and Ir has been developed. FIG. 4A is a diagram illustrating an arrangement according to an example of a complementary color filter. The complementary color filter shown in FIG. 4A has one Ye filter, Ri filter, Ir filter, and W filter each having a sensitive wavelength band in the visible wavelength region and the infrared wavelength region corresponding to each pixel. A unit filter group is formed. In contrast, conventional R filters, G filters, and B filters are referred to as primary color filters.
図4(a)の例では、単位フィルタ群において、第1行第1列にRiフィルタが配列され、第2行第1列にWフィルタが配列され、第1行第2列にYeフィルタが配列され、第2行第2列にIrフィルタが配列されている。これらのフィルタにそれぞれ対応した画素を、それぞれRi画素、W画素,Ye画素及びIr画素と呼ぶ。但し、以上は一例であり、他のパターンでRi画素、Ir画素、W画素、及びYe画素を千鳥状に配列してもよい。 In the example of FIG. 4A, in the unit filter group, Ri filters are arranged in the first row and first column, W filters are arranged in the second row and first column, and Ye filters are arranged in the first row and second column. The Ir filters are arranged in the second row and the second column. Pixels corresponding to these filters are referred to as Ri pixel, W pixel, Ye pixel, and Ir pixel, respectively. However, the above is an example, and Ri patterns, Ir pixels, W pixels, and Ye pixels may be arranged in a zigzag pattern in other patterns.
Ye画素はYeフィルタを備えているため、Yeの可視カラー画像成分である画像成分Ye(原画像成分)および赤外画像成分を撮像する。Ri画素はRiフィルタを備えているため、Riの可視カラー画像成分である画像成分Ri(原画像成分)および赤外画像成分を撮像する。Ir画素はIrフィルタを備えているため、赤外画像成分である画像成分Ir(原画像成分)を撮像する。W画素はフィルタを備えていないため、可視輝度画像成分と画像成分Irとを含む輝度画像成分である画像成分W(原画像成分)を撮像する。このように、4つのフィルタは分光透過特性が互いに異なる。 Since the Ye pixel includes a Ye filter, it captures an image component Ye (original image component) and an infrared image component, which are visible color image components of Ye. Since the Ri pixel includes a Ri filter, it captures an image component Ri (original image component) and an infrared image component, which are visible color image components of Ri. Since the Ir pixel includes an Ir filter, an image component Ir (original image component) that is an infrared image component is captured. Since the W pixel does not include a filter, an image component W (original image component) that is a luminance image component including the visible luminance image component and the image component Ir is captured. Thus, the four filters have different spectral transmission characteristics.
図5は、Ye、Ri、Irフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。なお、点線で示すグラフはフィルタが取り外された状態における画素の分光感度特性を示している。この分光感度特性は、600nm付近でピークを有し、上に凸の曲線を描いて変化していることが分かる。また、図5では、400nm〜700nmが可視波長領域とされ、700nm〜1100nmが赤外波長領域とされ、400nm〜1100nmが有感度波長帯域とされている。 FIG. 5 is a diagram showing the spectral transmission characteristics of the Ye, Ri, and Ir filters, where the vertical axis indicates the transmittance (sensitivity) and the horizontal axis indicates the wavelength (nm). A graph indicated by a dotted line indicates the spectral sensitivity characteristic of the pixel in a state where the filter is removed. It can be seen that this spectral sensitivity characteristic has a peak near 600 nm and changes in a convex curve. In FIG. 5, 400 nm to 700 nm is a visible wavelength region, 700 nm to 1100 nm is an infrared wavelength region, and 400 nm to 1100 nm is a sensitive wavelength band.
図5に示すように、Yeフィルタは、可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する特性を有する。よって、Yeフィルタは主にイエローの光と赤外光とを透過する。 As shown in FIG. 5, the Ye filter has a characteristic of transmitting light in the sensitive wavelength band excluding the blue region in the visible wavelength region. Therefore, the Ye filter mainly transmits yellow light and infrared light.
Riフィルタは、可視波長領域の青色領域及び緑色領域を除く有感度波長帯域の光を透過する特性を有する。よって、Riフィルタは主に赤の光と赤外光とを透過する。 The Ri filter has a characteristic of transmitting light in a sensitive wavelength band excluding a blue region and a green region in the visible wavelength region. Therefore, the Ri filter mainly transmits red light and infrared light.
Irフィルタは、可視波長領域を除く有感度波長帯域、すなわち赤外波長帯域の光を透過する特性を有する。Wはフィルタを備えていない場合を示し、画素の有感度波長帯域の光が全て透過される。 The Ir filter has a characteristic of transmitting light in a sensitive wavelength band excluding the visible wavelength region, that is, in the infrared wavelength band. W indicates a case where no filter is provided, and all light in the sensitive wavelength band of the pixel is transmitted.
他に似たような特性を実現するには、Ye、Ri、Irの代わりにYe、M(マゼンタ)+Ir、C(シアン)+Ir(但し、M+Irは、グリーンのみを遮蔽し、C+Irはレッドのみを遮蔽する。)でも実現可能である。ただし、Ri画素、Ir画素、Ye画素は、分光透過特性を急峻にすることができ、例えば、M+IrフィルタやC+Irフィルタに比べて、分光透過特性が良好である。つまり、M+Irフィルタ及びC+Irフィルタは、それぞれ、有感度波長帯域のうち、中央の一部の領域である緑色領域及び赤色領域のみを遮蔽する特性を有しており、このようなフィルタに、Riフィルタ、Irフィルタ、Yeフィルタのような急峻な分光透過特性を持たせることは困難である。そのため、M+Irフィルタ及びC+Irフィルタは、それぞれ、演算してもRGB画像成分を精度良く抽出することができない。よって、Ri画素、Ir画素、Ye画素、W画素で撮像素子を構成することで、撮像素子の高性能化を図ることができる。更に、図4(b)〜(f)に示すような補色フィルタを用いることもできる。尚、図4(g)は、各フィルタの相関関係を示す図である。 To achieve similar characteristics, Ye, M (magenta) + Ir, C (cyan) + Ir instead of Ye, Ri, Ir (M + Ir shields only green and C + Ir only red) Is also possible. However, the Ri pixel, the Ir pixel, and the Ye pixel can make the spectral transmission characteristics steep, and, for example, the spectral transmission characteristics are better than those of the M + Ir filter and the C + Ir filter. In other words, each of the M + Ir filter and the C + Ir filter has a characteristic of shielding only the green region and the red region, which are partial regions in the center, in the sensitive wavelength band. It is difficult to provide steep spectral transmission characteristics such as Ir filter and Ye filter. Therefore, each of the M + Ir filter and the C + Ir filter cannot extract the RGB image components with high accuracy even if the calculation is performed. Therefore, by configuring the imaging device with Ri pixels, Ir pixels, Ye pixels, and W pixels, the performance of the imaging device can be improved. Furthermore, complementary color filters as shown in FIGS. 4B to 4F can also be used. FIG. 4G is a diagram showing the correlation between the filters.
図6は、補色フィルタを用いた撮像素子からの画像信号を補間処理するフローチャートを示す図である。まず、補色フィルタを用いた撮像素子に1フレームの原画像データを撮像させる。これにより、画像成分Ye、Ri、Ir、Wが得られる(ステップS1)。 FIG. 6 is a diagram illustrating a flowchart for performing interpolation processing on an image signal from an image sensor using a complementary color filter. First, one frame of original image data is captured by an image sensor using a complementary color filter. Thereby, image components Ye, Ri, Ir, and W are obtained (step S1).
ここで、撮像素子は、Ye画素により画像成分Yeを撮像し、Ri画素により画像成分Riを撮像し、Ir画素により画像成分Irを撮像し、W画素により画像成分Wを撮像する。 Here, the imaging element images the image component Ye by the Ye pixel, images the image component Ri by the Ri pixel, images the image component Ir by the Ir pixel, and images the image component W by the W pixel.
次に、画像成分Ye,Ri,Ir,Wに色補間処理を施す。更に、dR=Ri−Ir、dG=Ye−Ri、dB=W−Yeの演算を行い色信号dR、dG、dBを算出する(ステップS2)。 Next, color interpolation processing is performed on the image components Ye, Ri, Ir, and W. Further, calculation of dR = Ri−Ir, dG = Ye−Ri, and dB = W−Ye is performed to calculate the color signals dR, dG, and dB (step S2).
次に、Y=0.3dR+0.59dG+0.11dB、Cb=dB−Y、Cr=dR−Yの演算を行い、輝度信号Y、色差信号Cr,Cbを算出する(ステップS3)。 Next, calculation of Y = 0.3 dR + 0.59 dG + 0.11 dB, Cb = dB−Y, Cr = dR−Y is performed to calculate the luminance signal Y and the color difference signals Cr and Cb (step S3).
次に、色差信号Cr、Cbにスムージング処理を行い、色差信号Crs、Cbsを算出する(ステップS4)。ここで,スムージング処理としては、例えば、5×5等の比較的小サイズのローパスフィルタを用いて繰り返し処理し、色差信号Cb、Crを多重解像度化するフィルタ処理であるカスケードフィルタ処理を採用してもよい。また、比較的サイズの大きな所定サイズのローパスフィルタを用いたフィルタ処理を採用してもよい。 Next, the color difference signals Cr and Cb are smoothed to calculate the color difference signals Crs and Cbs (step S4). Here, as the smoothing process, for example, a cascade filter process, which is a filter process that multi-resolutions the color difference signals Cb and Cr by repeatedly using a relatively small size low-pass filter such as 5 × 5, is adopted. Also good. Further, a filter process using a low-pass filter of a predetermined size having a relatively large size may be employed.
また、発光する被写体に対してはぼけることなく、エッジ以外の領域を平滑化するエッジ保存フィルタ(画素間の信号レベル差がある基準値より小さい場合いに平滑化し、基準値より大きい部分は平滑化しないフィルタ)処理を採用してもよい。なお、発光していることを検出するのは、赤外成分と可視光成分とを比較することにより推測できる。 Also, an edge-preserving filter that smoothes areas other than edges without blurring the subject that emits light (smoothing when the signal level difference between pixels is smaller than a certain reference value, and smoothing the part larger than the reference value Filter) processing that does not enable conversion may be employed. Note that it can be estimated that light emission is detected by comparing an infrared component and a visible light component.
このように、色差信号Cb,Crにスムージング処理を行うことで、色差信号Cb、Crに含まれるノイズ成分がぼかされ、色差信号Cb、CrのS/N比を向上させることができる。 As described above, by performing the smoothing process on the color difference signals Cb and Cr, the noise components included in the color difference signals Cb and Cr are blurred, and the S / N ratio of the color difference signals Cb and Cr can be improved.
次に、Yadd(1/4)×(Ri+Ir+W+Ye)の演算を行い、輝度信号Yaddを算出する(ステップS5)。 Next, a calculation of Yadd (1/4) × (Ri + Ir + W + Ye) is performed to calculate a luminance signal Yadd (step S5).
次に、Crm=Crs×Yadd/Y、Cbm=Cbs×Yadd/Yとして、色差信号Crm、Cbmを算出する(ステップS6)。 Next, color difference signals Crm and Cbm are calculated as Crm = Crs × Yadd / Y and Cbm = Cbs × Yadd / Y (step S6).
次に、ステップS2の逆変換することで、輝度信号Yadd、色差信号Crm、Cbmから色信号dR´、dG´、dB´を算出する(ステップS7)。以上のようにして、色補間処理を行うことができる。 Next, the color signals dR ′, dG ′, and dB ′ are calculated from the luminance signal Yadd and the color difference signals Crm and Cbm by performing inverse conversion in step S2 (step S7). As described above, color interpolation processing can be performed.
このような補色フィルタを用いることで、日中の撮像のみならず、夜間や日陰の撮像を行って、適正な色補間処理を行うことでカラー画像を形成するために必要なRGB信号を得ることができる。一方、補色フィルタを通した光を受光した画素からの信号を用いて、対象物までの距離を測定することもできる。 By using such a complementary color filter, RGB signals necessary for forming a color image can be obtained by performing not only daytime imaging but also nighttime and shaded imaging and performing appropriate color interpolation processing. Can do. On the other hand, the distance to the object can also be measured using a signal from a pixel that has received light that has passed through the complementary color filter.
まず、特開2009−14445号公報に記載された技術により、対象物までの距離を求める方法について説明する。図7は、ステレオカメラで対象物までの距離を測定する状態を示す図である。図7において、一対の撮像素子を備えたカメラ1,2は、予め定める基線間隔Lだけ離間して、かつ光軸が相互に平行となるように配置される。カメラ1,2で撮像された対象物の撮像画像は、例えば対応点探索手法であるSAD(Sum of Absolute Difference)法を用いて画素単位で対応点探索を行い、各カメラ1,2間の左右方向における対象物に対する視差を求め、求められた視差に基づいて、以下の式に基づき対象物までの距離を求めることができる。
First, a method for obtaining the distance to the object by the technique described in Japanese Patent Application Laid-Open No. 2009-14445 will be described. FIG. 7 is a diagram illustrating a state in which the distance to an object is measured with a stereo camera. In FIG. 7, the
図7において、少なくとも焦点距離(f)、撮像素子(CCD)の画素数、1画素の大きさ(μ)が相互に等しい2台のカメラ1,2を用い、所定の基線長(L)だけ前記左右に離間させて光軸1X,2Xを平行に配置して対象物OBを撮影する。このとき、図3(a)の例では、カメラ1の撮像面1b上で左側の木の先端の画素番号(左端又は右端から数えるものとする)がx1,カメラ2における撮像面2b上で同じ左側の木の先端の画素番号がx2であったとする(yは等しいと仮定)と、撮像面1b,2b上の視差(ずれ画素数)はd(=x1−x2)であり、対象物OBまでの距離(Z)は、斜線を施して示す三角形が相似である。従って、
Z:f=L:μ×d
の関係より、
Z=(L×f)/(μ×d)・・・(1)
で求めることができる。
In FIG. 7, at least the focal length (f), the number of pixels of the image sensor (CCD), the size of one pixel (μ) are equal to each other, and two
Z: f = L: μ × d
From the relationship
Z = (L × f) / (μ × d) (1)
Can be obtained.
以上の測距における重要な画像処理の一つは、2つのカメラから得られた撮像画像において、画素単位で対応点探索を行って、精度良く同一の対象物(図3(a)の例では左の木の先端)に対応する画素を見つけだすことである。従来技術での対応点探索は、RGB信号から色補間処理を行って、2枚の撮像画像に対してそれぞれ3つの画像データを作成し、少なくとも1つの画像データ同士を比較して、同じ信号値を持つ画素があった場合、同一の対象物と推定するものである。この処理をパターンマッチングという。 One of the important image processes in the distance measurement described above is to search for corresponding points in pixel units in captured images obtained from two cameras and to accurately detect the same object (in the example of FIG. 3A). It is to find a pixel corresponding to the tip of the left tree. Corresponding point search in the prior art performs color interpolation processing from RGB signals, creates three image data for each of two captured images, compares at least one image data, and uses the same signal value If there is a pixel having, the same object is estimated. This process is called pattern matching.
図8(a)においては、原色フィルタについて色補間処理を示す図である。かかる色補間処理において、隣接する2つのR画素の間のG画素からの信号を、これを挟むR画素の信号の平均値に置き換えることにより、R画素の信号のみからなる第1の画像データ(フレームデータ又は画像信号ともいう)を形成し、隣接する2つのG画素の間のR画素又はB画素からの信号を、これを挟むG画素の信号の平均値に置き換えることにより、G画素の信号のみからなる第2の画像データを形成し、隣接する2つのB画素の間のG画素からの信号を、これを挟むB画素の信号の平均値に置き換えることにより、B画素の信号のみからなる第3の画像データを形成する。 FIG. 8A is a diagram showing color interpolation processing for the primary color filter. In such color interpolation processing, by replacing the signal from the G pixel between two adjacent R pixels with the average value of the signal of the R pixel sandwiching the signal, the first image data (only the R pixel signal ( G pixel signal by replacing the signal from the R pixel or the B pixel between two adjacent G pixels with the average value of the G pixel signals sandwiching it The second image data consisting of only the B pixel is formed, and the signal from the G pixel between the two adjacent B pixels is replaced with the average value of the B pixel signals sandwiching the second image data, thereby consisting only of the B pixel signal Third image data is formed.
図8(b)においては、補色フィルタの一例について色補間処理を示す図である。かかる色補間処理において、隣接する2つのRi画素の間のYe画素又はW画素からの信号を、これを挟むRi画素の信号の平均値に置き換えることにより、Ri画素の信号のみからなる第1の画像データを形成し、隣接する2つのYe画素の間のRi画素又はIr画素からの信号を、これを挟むYe画素の信号の平均値に置き換えることにより、Ye画素の信号のみからなる第2の画像データを形成し、隣接する2つのW画素の間のRi画素又はIr画素からの信号を、これを挟むW画素の信号の平均値に置き換えることにより、W画素の信号のみからなる第3の画像データを形成し、隣接する2つのIr画素の間のW画素又はYe画素からの信号を、これを挟むIr画素の信号の平均値に置き換えることにより、Ir画素の信号のみからなる第4の画像データを形成する。 FIG. 8B is a diagram showing color interpolation processing for an example of a complementary color filter. In such color interpolation processing, the signal from the Ye pixel or the W pixel between two adjacent Ri pixels is replaced with the average value of the signals of the Ri pixels sandwiching this, whereby the first pixel consisting of only the signals of the Ri pixels. A second image comprising only Ye pixel signals is formed by forming image data and replacing the signal from the Ri pixel or Ir pixel between two adjacent Ye pixels with the average value of the signals of the Ye pixels sandwiching the image data. By forming image data and replacing the signal from the Ri pixel or Ir pixel between two adjacent W pixels with the average value of the signals of the W pixels sandwiching the image data, the third data consisting of only the signals of the W pixels By forming the image data and replacing the signal from the W pixel or Ye pixel between two adjacent Ir pixels with the average value of the Ir pixel signal between them, only from the Ir pixel signal Forming a fourth image data that.
ここで、R画素、G画素、B画素のいずれかについてパターンマッチングをする場合、夜間や日陰での撮像画像においては、画素値が低くなりすぎてノイズに隠れやすくなり、精度の良いパターンマッチングが行えない恐れがある。これに対し、補色フィルタの一例についての例えばW画素は、有感度波長帯域全域で感度があるため、日中のみならず、夜間や日陰での撮像画像においても、比較的画素値が高くなる。これを言い換えると、W画素は、R画素、G画素、B画素に対して飽和しやすいということである。 Here, when pattern matching is performed for any one of the R pixel, G pixel, and B pixel, in a captured image at night or in the shade, the pixel value becomes too low to be easily hidden by noise. There is a fear that it cannot be done. On the other hand, for example, a W pixel as an example of the complementary color filter has sensitivity over the entire sensitive wavelength band, and thus has a relatively high pixel value not only in the daytime but also in a captured image at night or in the shade. In other words, the W pixel is easily saturated with respect to the R pixel, the G pixel, and the B pixel.
本発明者の研究結果によれば、図8(b)の補色フィルタに関しては、図9に示すような飽和順位があることがわかった。より具体的には、W画素が最も飽和しやすく、次いで、Ye画素、Ri画素と続き、原色フィルタを挟んで、Ir画素は最も飽和しにくい。別な補色フィルタにかかる飽和順位を、図10に示す。図10の飽和順位において、W画素が最も飽和しやすく、次いで、補色フィルタ画素グループ中のMg(マゼンタ)フィルタを持つMg画素、Cy(シアン)フィルタを持つCy画素、Ye画素が飽和しやすく、これに対し原色フィルタ画素グループ中のB画素、G画素、R画素、及びIr画素は比較的飽和しにくい。 According to the research result of the present inventor, it was found that the complementary color filter of FIG. 8B has a saturation order as shown in FIG. More specifically, the W pixel is most easily saturated, followed by the Ye pixel and the Ri pixel, and the Ir pixel is most hardly saturated with the primary color filter interposed therebetween. FIG. 10 shows the saturation order according to another complementary color filter. In the saturation order of FIG. 10, the W pixel is most likely to be saturated, then the Mg pixel having the Mg (magenta) filter, the Cy pixel having the Cy (cyan) filter, and the Ye pixel in the complementary color filter pixel group are likely to be saturated. In contrast, the B pixel, G pixel, R pixel, and Ir pixel in the primary color filter pixel group are relatively difficult to saturate.
本発明者は、画素が飽和しやすいフィルタの飽和順位が、図9又は図10に示すようになることを導出したことに基づいて、この飽和順位に従って、原色フィルタ(R、G、B)より上位であるフィルタ(例えばW、Mg、Cy、Ye,Riフィルタ)を通して得られた(例えばW、Mg、Cy、Ye,Ri画素からなる)画像データ同士を比較することで、少なくともR画素、G画素、B画素からなる画像データよりもS/N比が大きな信号に基づいて、最適な対応点探索を行えることを見出したのである。これにより夜間や日陰の撮像でも、有効な測距を行うことができる。尚、「画素が飽和しやすいフィルタの飽和順位」とは、「センサ感度が良い順」又は「分光感度帯が広い順」と同義であるため、これらを相互に置き換えて用いることもできる。 The present inventor has derived that the saturation order of a filter in which pixels are likely to be saturated becomes as shown in FIG. 9 or FIG. 10, and in accordance with this saturation order, the primary color filters (R, G, B). By comparing image data (for example, composed of W, Mg, Cy, Ye, Ri pixels) obtained through a higher-order filter (for example, W, Mg, Cy, Ye, Ri filter), at least R pixel, G The present inventors have found that an optimum corresponding point search can be performed based on a signal having an S / N ratio larger than that of image data including pixels and B pixels. This makes it possible to perform effective distance measurement even at night or in the shade. Note that “saturation order of filters in which pixels are likely to be saturated” is synonymous with “order in which sensor sensitivity is good” or “order in which spectral sensitivity band is wide”, and these can be used interchangeably.
請求項2に記載の画像処理装置は、前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、前記視差検出手段は、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする。原色フィルタより上位であるフィルタ(例えばW、Mg、Cy、Ye,Riフィルタ)を通過する光はフォトンの量が比較的多いので、それを受光する画素(例えばW、Mg、Cy、Ye,Ri画素)は感度が高い反面、飽和し易いという特性がある。画素が飽和してしまうと、信号値が等しい画素が多数存在するようになり、測距エラーであるいわゆるオクルージョン現象を招き、精度の良いステレオマッチングを行えない恐れがある。そこで、あるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、前記視差検出手段は、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することで、精度の良い測距を行えるようにしている。
The image processing apparatus according to
請求項3に記載の画像処理装置は、前記視差検出手段が、あるフィルタを通して得られた画像信号により形成される1画像における画素平均値を求め、前記画素平均値が閾値以上である場合、画素が飽和したと判断することを特徴とする。これにより飽和したか否かを容易に判定できる。
The image processing apparatus according to
請求項4に記載の画像処理装置は、あるフィルタを通して対象物からの光が入射したときに一部の領域の画素が飽和したときは、前記視差検出手段は、飽和した一部の領域の画素については、飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする。例えば、太陽などの高輝度の被写体が画面に写り込んだような場合、太陽以外の画像は有効に利用できることがある。そこで、太陽光などが直接入射して一部の領域の画素が飽和したときは、前記視差検出手段は、飽和した一部の領域の画素については、飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することで、適正な処理を行えるようにしている。 5. The image processing apparatus according to claim 4, wherein when the light from the object is incident through a certain filter and the pixels in a part of the region are saturated, the parallax detection unit Is characterized in that image signals obtained through a filter that is lower in the saturation order than a saturated filter are compared with each other. For example, when a bright subject such as the sun appears on the screen, an image other than the sun may be used effectively. Thus, when sunlight or the like is directly incident and pixels in a part of the region are saturated, the parallax detection unit is lower than the saturated filter in the saturation order for pixels in the part of the saturated region. Appropriate processing can be performed by comparing image signals obtained through filters.
請求項5に記載の画像処理装置は、前記視差検出手段が、あるフィルタを通して得られた画像信号により形成される一部の領域の画素平均値を求め、前記画素平均値が閾値以上である場合、一部の領域の画素が飽和したと判断することを特徴とする。これにより飽和したか否かを容易に判定できる。
The image processing apparatus according to
請求項6に記載の画像処理装置は、前記一対の撮像素子から出力される画像信号同士をフィルタ毎に比較したときに、画素信号の値が等しい画素の位置が一致するフィルタを選定し、選定されたフィルタを通して得られた画像信号同士を比較することを特徴とする。これにより精度の高いステレオマッチングを行える。 The image processing apparatus according to claim 6, when comparing the image signals output from the pair of image pickup devices for each filter, selects a filter in which the positions of pixels having the same pixel signal value coincide with each other. The image signals obtained through the filtered filters are compared with each other. Thereby, stereo matching with high accuracy can be performed.
請求項7に記載の画像処理方法は、予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する測距装置の画像処理方法において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなければ、前記上位であるフィルタを通して得られた画像信号同士を比較し、
前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とすることを特徴とする。本発明の効果は、上述した請求項1他と同様である。
The image processing method according to
If the pixel does not saturate when light from an object enters through the higher order filter among the saturation ranks of the filters in which the pixels of the image sensor are likely to be saturated in the different filters, the pixels are obtained through the higher order filter. Compare image signals
When the pixel is saturated when light from an object enters through the upper filter, the image signals or image data obtained through the lower filter in the saturation order are compared with the filter in which the pixel is saturated. It is characterized by that. The effect of the present invention is the same as that of the first aspect described above.
本発明によれば、フォトンの量が少ない夜間や日陰においても、測距に必要な撮像画像を得ることができる画像処理装置及び測距装置の画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method for a distance measuring apparatus that can obtain a captured image necessary for distance measurement even at night or in the shade where the amount of photons is small.
以下、本発明の実施の形態にかかる測距装置10について説明する。図11は、本実施の形態にかかる、撮像ユニットを兼ねる測距装置10のブロック図である。図11において、測距装置10は、ロボット等に搭載され、ボディ左右に設けられた一対の基準カメラ1及び参照カメラ2の撮像画像から、ステレオ法によって対象物までの距離を計測するシステムである。
Hereinafter, the
撮像手段であるカメラ1,2は、図7に示すように、予め定めた基線間隔Lだけ離間して、かつ光軸が相互に平行となるようにボディに搭載される。カメラ1,2において、対象物の光はレンズ1a、2aを通過して、補色フィルタを有する撮像素子1b、2bの撮像面に入射し、変換された画像信号は画像処理部1c、2cに入力されて画像処理され、上述したようにdR’、dG’、dB’からなる画像データとして出力されることとなる。制御部1d、2dは、外部から制御信号を入力し、撮像素子1b、2b及び画像処理部1c、2cを制御する。本発明によれば、図6に示すような画像処理を施すことで、原色フィルタを用いたのと同様なカラー画像を得ることができる。
As shown in FIG. 7, the
次に、測距に必要な画像処理について説明する。画像処理部1c、2cは、予め実験やシミュレーションで求めた、補色フィルタにおいて撮像素子1b、2bの画素が飽和しやすいフィルタの飽和順位を記憶しており、この飽和順位に照らして、上位であるフィルタ(例えばWフィルタ)を通して対象物からの光が入射したときに、閾値(例えばLin−Logセンサであれば、変極点以上又は以下の値が好ましい)と比較して画素が飽和したか否かを判断する。画像処理部1c、2cは、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなかったと判断したときは、そのフィルタを通して得られた画像信号をステレオ処理部3に出力し、飽和したと判断したときは、画素が飽和したフィルタより飽和順位で下位であるフィルタ(例えばYeフィルタ)を通して得られた画像信号を、ステレオ処理部3に出力する。この2つの画像信号に基づいて、ステレオ処理部3によりステレオマッチングを含む画像処理が行われ、画像処理された信号に基づいて、図7を参照して説明した式に基づき、演算部4で対象物までの距離を測定する。本実施の形態では、ステレオ処理部3及び演算部4が視差検出手段を構成し、演算部4が距離計測手段を構成する。
Next, image processing necessary for distance measurement will be described. The
図12は、測距装置10の動作を説明するための模式図である。まず、画像処理部1c、2cは、図12(a)に示す元画像データから、図8(b)を参照して説明したようにして、図12(b)に示す4画素に対応した4枚のフレームデータを作成する。次に、画像処理部1c、2cは、各フレームデータ内の画素平均値(画素値の平均)を計算する。画素値は256段階で表せるものとする。ここで、図12(c)に示すように、W画素のフレームでは画素平均値が255,Ye画素のフレームでは画素平均値が200,Ri画素のフレームでは画素平均値が180,Ir画素のフレームでは画素平均値が150であったものとする。
FIG. 12 is a schematic diagram for explaining the operation of the
画像処理部1c、2cは、画素が飽和しているか否かの閾値を240とする。よって、図12(d)に示すように、画素平均値が閾値以上であるW画素のフレームでは飽和が生じていると判断し、飽和順位で次のYe画素のフレームを選択し、図12(e)に示すように、カメラ1,2から得られた2つのYe画素のフレームの画像信号を、ステレオ処理部3に出力する。ステレオ処理部3は、2つのYe画素のフレームを用いてステレオマッチング処理を行うこととなる。
The
図13は、測距装置10の動作を説明するためのフローチャート図である。画像処理部1cは、ステップS101で基準カメラ用の各フィルタに応じたフレームを取得し、画像処理部2cは、ステップS102で参照カメラ用の各フィルタに応じたフレームを取得する。画像処理部1c、2cは、ステップS103で、上述したように閾値と比較してW画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS104でW画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのW画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。
FIG. 13 is a flowchart for explaining the operation of the
これに対し、ステップS103で、W画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、更にステップS105で、上述したように閾値と比較してYe画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS106でYe画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのYe画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。
On the other hand, if it is determined in step S103 that the frame of W pixels is saturated, the
これに対し、ステップS105で、Ye画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、更にステップS107で、上述したように閾値と比較してRi画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS108でRi画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのRi画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。
On the other hand, if it is determined in step S105 that the frame of Ye pixels is saturated, the
これに対し、ステップS107で、Ri画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、ステップS109でIr画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのIr画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。
On the other hand, if it is determined in step S107 that the frame of Ri pixel is saturated, the
本実施の形態の変形例として、図4(e)に示す補色フィルタをカメラ1,2の撮像素子1b、2bに備えた場合、図13のフローチャートにおいて、WをYeに置き換え、YeをMgに置き換え、RiをCyに置き換え、IrをGに置き換えればよい。その他の補色フィルタについても同様である。
As a modification of the present embodiment, when the complementary color filter shown in FIG. 4E is provided in the
但し、図4(b)、(c)、(d)に示す3色の補色フィルタについては、飽和順位に基づいて上位のフィルタから飽和しているか否かの判断が2回になる点のみが異なる。 However, with respect to the three-color complementary filters shown in FIGS. 4B, 4C, and 4D, only the determination as to whether or not the upper filter is saturated based on the saturation order is only twice. Different.
図14は、別な実施の形態にかかる測距装置10の動作を説明するための模式図である。図12に示す実施の形態と同様に、画像処理部1c、2cは、図14(a)に示す元画像データから、図8(b)を参照して説明したようにして、図14(b)に示す4画素に対応した4枚のフレームデータを作成する。次に、画像処理部1c、2cは、各フレームデータ内の画素平均値を計算する。ここで、図14(c)に示すように、W画素のフレームでは画素平均値が255,Ye画素のフレームでは画素平均値が200,Ri画素のフレームでは画素平均値が180,Ir画素のフレームでは画素平均値が150であったものとする。
FIG. 14 is a schematic diagram for explaining the operation of the
画像処理部1c、2cは、画素が飽和しているか否かの閾値を240として、図14(d)に示すように、画素平均値が閾値以上であるW画素のフレームでは飽和が生じていると判断するが、飽和が生じていないフレーム全てを選択する。具体的には、画像処理部1c、2cは、Ye画素のフレーム、Ri画素のフレーム、Ir画素のフレームを選択し、図14(e)に示すように、カメラ1,2から得られた2組のYe画素のフレーム、Ri画素のフレーム、Ir画素のフレームの画像信号を、ステレオ処理部3に出力する。ステレオ処理部3は、2つのYe画素のフレーム、Ri画素のフレーム、Ir画素のフレーム同士をそれぞれ比較してステレオマッチング処理を行う。
As shown in FIG. 14D, the
このとき、基準カメラ1の目標画素のYe画素値に対して、参照カメラ2のYe画素値が一致する画素が100番目であり、基準カメラ1の目標画素のRi画素値に対して、参照カメラ2のRi画素値が一致する画素が110番目であり、基準カメラ1の目標画素のIr画素値に対して、参照カメラ2のIr画素値が一致する画素が100番目であるとする。かかる場合、画像処理部1c、2cは、多数決の原理に基づき、基準カメラ1の目標画素には、参照カメラ2の100番目の画素が対応すると判断するので(図14(f))、これを図7を参照して説明した式(1)に代入して視差を求めることができる。
At this time, the pixel whose Ye pixel value of the
尚、撮像シーンによっては、画面上に太陽などの高輝度の被写体が画面に写り込むこともあるが、太陽光以外の光が入射する画素は飽和しておらず、有効に利用できることがある。そこで、画像処理部1c、2cは、例えばW画素から出力された画素値について閾値を超えたか否かの判断を行い、一部の領域のW画素値が閾値を超えているが、残りは超えていないと判断したときは、飽和した一部の領域のW画素については、図15に示すようにYe画素値に置き換えてフレームを作成し、その画像信号同士を比較することで、適正なマッチング処理を行えるようにできる。
Depending on the imaging scene, a high-luminance subject such as the sun may appear on the screen, but pixels that receive light other than sunlight are not saturated and may be used effectively. Therefore, the
本発明は、ロボットカメラや監視カメラ等に適用可能であるが、用途はそれに限られない。 The present invention can be applied to a robot camera, a surveillance camera, or the like, but the application is not limited thereto.
1,2 カメラ
1a、2a レンズ
1b、2b 撮像素子
1c、2c 画像処理部
1d、2d 制御部
3 ステレオ処理部
4 演算部
10 測距装置
DESCRIPTION OF
Claims (7)
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、原色フィルタより上位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とする画像処理装置。 A pair of image sensors provided with a plurality of pixels that are provided apart from each other by a predetermined interval and convert light into a pixel signal by receiving light from an object through a plurality of different filters, and the pair of image sensors The parallax detection means for obtaining the parallax between the image sensors in the separation direction by comparing the image signals output from the distance, and the distance for sequentially obtaining the distance to the object based on the parallax obtained by the parallax detection means In an image processing apparatus having a measuring means,
An image processing apparatus that compares image signals or image data obtained through a filter that is higher than a primary color filter in a saturation order of filters in which pixels of the image sensor are likely to be saturated in the different filters.
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなければ、前記上位であるフィルタを通して得られた画像信号同士を比較し、
前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とすることを特徴とする画像処理方法。 A pair of image sensors provided with a plurality of pixels that are provided apart from each other by a predetermined interval and convert light into a pixel signal by receiving light from an object through a plurality of different filters, and the pair of image sensors The parallax detection means for obtaining the parallax between the image sensors in the separation direction by comparing the image signals output from the distance, and the distance for sequentially obtaining the distance to the object based on the parallax obtained by the parallax detection means In an image processing method of a distance measuring device having a measuring means,
If the pixel does not saturate when light from an object enters through the higher order filter among the saturation ranks of the filters in which the pixels of the image sensor are likely to be saturated in the different filters, the pixels are obtained through the higher order filter. Compare image signals
When the pixel is saturated when light from an object enters through the upper filter, the image signals or image data obtained through the lower filter in the saturation order are compared with the filter in which the pixel is saturated. An image processing method characterized by that.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009129205A JP2010276469A (en) | 2009-05-28 | 2009-05-28 | Image processor and image processing method of ranging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009129205A JP2010276469A (en) | 2009-05-28 | 2009-05-28 | Image processor and image processing method of ranging apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010276469A true JP2010276469A (en) | 2010-12-09 |
Family
ID=43423570
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009129205A Pending JP2010276469A (en) | 2009-05-28 | 2009-05-28 | Image processor and image processing method of ranging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010276469A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012186755A (en) * | 2011-03-08 | 2012-09-27 | Canon Inc | Image processing device, image processing method, and program |
| JP2013225289A (en) * | 2012-03-21 | 2013-10-31 | Ricoh Co Ltd | Multi-lens camera apparatus and vehicle including the same |
| WO2015083499A1 (en) * | 2013-12-02 | 2015-06-11 | コニカミノルタ株式会社 | Image processing device, method and program |
| JP2015222200A (en) * | 2014-05-22 | 2015-12-10 | 日本電信電話株式会社 | Image processing method and image processing system |
| JP2016180708A (en) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | Distance measurement device, distance measurement method and program |
-
2009
- 2009-05-28 JP JP2009129205A patent/JP2010276469A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012186755A (en) * | 2011-03-08 | 2012-09-27 | Canon Inc | Image processing device, image processing method, and program |
| JP2013225289A (en) * | 2012-03-21 | 2013-10-31 | Ricoh Co Ltd | Multi-lens camera apparatus and vehicle including the same |
| WO2015083499A1 (en) * | 2013-12-02 | 2015-06-11 | コニカミノルタ株式会社 | Image processing device, method and program |
| JP2015222200A (en) * | 2014-05-22 | 2015-12-10 | 日本電信電話株式会社 | Image processing method and image processing system |
| JP2016180708A (en) * | 2015-03-24 | 2016-10-13 | キヤノン株式会社 | Distance measurement device, distance measurement method and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5206796B2 (en) | Image input device | |
| US7460160B2 (en) | Multispectral digital camera employing both visible light and non-visible light sensing on a single image sensor | |
| US10171757B2 (en) | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter | |
| JP6492055B2 (en) | Device for acquiring bimodal images | |
| JP5976676B2 (en) | Imaging system using longitudinal chromatic aberration of lens unit and operation method thereof | |
| JP5397788B2 (en) | Image input device | |
| US8248496B2 (en) | Image processing apparatus, image processing method, and image sensor | |
| WO2016031597A1 (en) | Image processing device, image processing method, and image processing system | |
| JP4346634B2 (en) | Target detection device | |
| JP2010276469A (en) | Image processor and image processing method of ranging apparatus | |
| JP6692749B2 (en) | Multispectral camera | |
| WO2018116972A1 (en) | Image processing method, image processing device, and recording medium | |
| JP2012008845A (en) | Image processor | |
| US9906705B2 (en) | Image pickup apparatus | |
| JP5464008B2 (en) | Image input device | |
| JP2012010141A (en) | Image processing apparatus | |
| JP2010171950A (en) | Imaging apparatus and color correcting method of imaging apparatus | |
| JP6794989B2 (en) | Video processing equipment, shooting equipment, video processing methods and programs | |
| JP6640555B2 (en) | Camera system | |
| JP2014158165A (en) | Image processing device, image processing method, and program | |
| JP4993275B2 (en) | Image processing device | |
| CN108024035B (en) | Image forming apparatus and method | |
| JP2013187711A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| JP2020038319A (en) | Imaging apparatus and control method of the same | |
| WO2011162155A1 (en) | Image capturing device |