[go: up one dir, main page]

JP2010276469A - Image processor and image processing method of ranging apparatus - Google Patents

Image processor and image processing method of ranging apparatus Download PDF

Info

Publication number
JP2010276469A
JP2010276469A JP2009129205A JP2009129205A JP2010276469A JP 2010276469 A JP2010276469 A JP 2010276469A JP 2009129205 A JP2009129205 A JP 2009129205A JP 2009129205 A JP2009129205 A JP 2009129205A JP 2010276469 A JP2010276469 A JP 2010276469A
Authority
JP
Japan
Prior art keywords
pixel
image
filter
pixels
saturated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009129205A
Other languages
Japanese (ja)
Inventor
Hisaki Tsuboi
央樹 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009129205A priority Critical patent/JP2010276469A/en
Publication of JP2010276469A publication Critical patent/JP2010276469A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor which obtains a captured image required for ranging even in the night and a shadow area where the quantity of photons is reduced, and also to provide an image processing method of a ranging apparatus. <P>SOLUTION: A corresponding point is optimally searched by comparing image signals (comprising W, Mg, Cy, Ye and Ri pixels) obtained by passing them through filters (such as W, Mg, Cy, Ye and Ri filters) higher in order than primary color filters (R, G, B) in the saturation order, based on a signal having a S/N ratio larger than an image signal comprising at least R pixels, G pixels and B pixels. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、一対の撮像素子により対象物までの距離を測定できる画像処理装置及び測距装置の画像処理方法に関するものである。   The present invention relates to an image processing apparatus capable of measuring a distance to an object with a pair of imaging elements and an image processing method of the distance measuring apparatus.

例えば図1に示すように、自律して移動するロボットRBT等において、前方の障害物OBを検出して危険を警告したり、これを自動的に回避するために、対象物までの距離を測ることが行われる。ここで、対象物までの距離を計測する測距装置としては、超音波やレーザ光など電磁波の反射を利用するものがある。しかるに、超音波やレーザ光などを用いた測距装置では、対象物までの距離を比較的正確に測定できるものの、測距範囲が比較的狭く、また対象物を誤って捉えた場合の判断が困難であるという問題がある。これに対し、特許文献1に示すように、ステレオカメラ(立体視法)により一対の撮像素子を用いて撮像画像を取得し、その撮像画像を画像処理することで測距を行う装置が提案されている。   For example, as shown in FIG. 1, in an autonomously moving robot RBT or the like, a front obstacle OB is detected to warn of a danger, or in order to avoid this automatically, the distance to an object is measured. Is done. Here, as a distance measuring device that measures the distance to an object, there is an apparatus that uses reflection of electromagnetic waves such as ultrasonic waves and laser light. However, a distance measuring device using ultrasonic waves, laser light, etc. can measure the distance to the object relatively accurately, but the distance measurement range is relatively narrow. There is a problem that it is difficult. On the other hand, as shown in Patent Document 1, there has been proposed an apparatus for measuring a distance by acquiring a captured image using a pair of imaging elements by a stereo camera (stereoscopic method) and performing image processing on the captured image. ing.

特開2009−14445号公報JP 2009-14445 A

ところで、一般的なデジカメ等に使用される固体撮像素子(CCD/CMOS)は,可視青色光(B)・可視緑色光(G)・可視赤色光(R)を透過する原色フィルタを、各画素に応じて図2(a)に示すように物理的に配列(いわゆるBayer配列構造)している。このような撮像素子は、図3(a)に示すような日中の撮像では問題がないが、図3(b)に示すような夜間もしくは日陰ではフォトンの量が少なくなるため、S/N比が小さい画像信号が出力され、測距に必要な画像の比較を有効に行えないという問題がある。一方、赤外光を透過する一様な赤外フィルタを、画素の前に図2(b)に示すように物理的に配列している赤外線カメラにおいては、夜間等の撮影においても、十分なフォトンを得ることができるが、出力された画像信号には色データがないため,いわゆる白黒のグレースケール画像しか撮影できないという問題がある。同様の問題は、監視カメラMC(図1)にステレオカメラを搭載した場合にも生じる。   By the way, a solid-state imaging device (CCD / CMOS) used for a general digital camera or the like has a primary color filter that transmits visible blue light (B), visible green light (G), and visible red light (R), for each pixel. In response to this, as shown in FIG. 2A, they are physically arranged (so-called Bayer arrangement structure). Such an image sensor has no problem in daytime imaging as shown in FIG. 3A, but the amount of photons decreases at night or in the shade as shown in FIG. There is a problem that an image signal with a small ratio is output, and comparison of images necessary for distance measurement cannot be performed effectively. On the other hand, an infrared camera in which a uniform infrared filter that transmits infrared light is physically arranged in front of the pixels as shown in FIG. Although photons can be obtained, there is a problem that only a so-called black-and-white grayscale image can be taken because there is no color data in the output image signal. A similar problem occurs when a stereo camera is mounted on the surveillance camera MC (FIG. 1).

本発明の目的は、フォトンの量が少ない夜間や日陰においても、測距に必要な撮像画像を得ることができる画像処理装置及び測距装置の画像処理方法を提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing method for the distance measuring apparatus that can obtain a captured image necessary for distance measurement even at night or in the shade where the amount of photons is small.

請求項1に記載の画像処理装置は、予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する画像処理装置において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、原色フィルタより上位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とする。尚、本明細書中、「画素が飽和する」とは、「画素が取得したデータが飽和する」ことを意味するものとする。
The image processing apparatus according to claim 1 is provided with a plurality of pixels which are provided apart from each other by a predetermined interval and convert light into a pixel signal by receiving light from an object through a plurality of different filters. Based on the parallax obtained by the parallax detection means, the parallax detection means for obtaining the parallax between the imaging elements in the separation direction by comparing the image signals output from the pair of imaging elements, and the pair of imaging elements In the image processing apparatus having a distance measuring means for sequentially obtaining the distance to the object,
Image signals or image data obtained through a filter higher than the primary color filter in a saturation order of filters in which the pixels of the image sensor are likely to be saturated in the different filters are compared. In this specification, “pixel is saturated” means “data acquired by the pixel is saturated”.

近年,夜間の撮像でもカラー画像を可能とする為,R・G・B・Irいずれかの複数帯域に感度を持つ,いわゆる補色フィルタを採用した固体撮像素子が開発された。図4(a)は、補色フィルタの一例にかかる配列を示す図である。図4(a)に示す補色フィルタは、各画素に対応して、可視波長領域と赤外波長領域とを有感度波長帯域とするYeフィルタ、Riフィルタ、Irフィルタ、及びWフィルタとで1つの単位フィルタ群を形成している。尚、これに対して、従来のRフィルタ、Gフィルタ、Bフィルタを原色フィルタと呼ぶ。   In recent years, in order to enable color images even at night imaging, a solid-state imaging device employing a so-called complementary color filter having sensitivity in a plurality of bands of R, G, B, and Ir has been developed. FIG. 4A is a diagram illustrating an arrangement according to an example of a complementary color filter. The complementary color filter shown in FIG. 4A has one Ye filter, Ri filter, Ir filter, and W filter each having a sensitive wavelength band in the visible wavelength region and the infrared wavelength region corresponding to each pixel. A unit filter group is formed. In contrast, conventional R filters, G filters, and B filters are referred to as primary color filters.

図4(a)の例では、単位フィルタ群において、第1行第1列にRiフィルタが配列され、第2行第1列にWフィルタが配列され、第1行第2列にYeフィルタが配列され、第2行第2列にIrフィルタが配列されている。これらのフィルタにそれぞれ対応した画素を、それぞれRi画素、W画素,Ye画素及びIr画素と呼ぶ。但し、以上は一例であり、他のパターンでRi画素、Ir画素、W画素、及びYe画素を千鳥状に配列してもよい。   In the example of FIG. 4A, in the unit filter group, Ri filters are arranged in the first row and first column, W filters are arranged in the second row and first column, and Ye filters are arranged in the first row and second column. The Ir filters are arranged in the second row and the second column. Pixels corresponding to these filters are referred to as Ri pixel, W pixel, Ye pixel, and Ir pixel, respectively. However, the above is an example, and Ri patterns, Ir pixels, W pixels, and Ye pixels may be arranged in a zigzag pattern in other patterns.

Ye画素はYeフィルタを備えているため、Yeの可視カラー画像成分である画像成分Ye(原画像成分)および赤外画像成分を撮像する。Ri画素はRiフィルタを備えているため、Riの可視カラー画像成分である画像成分Ri(原画像成分)および赤外画像成分を撮像する。Ir画素はIrフィルタを備えているため、赤外画像成分である画像成分Ir(原画像成分)を撮像する。W画素はフィルタを備えていないため、可視輝度画像成分と画像成分Irとを含む輝度画像成分である画像成分W(原画像成分)を撮像する。このように、4つのフィルタは分光透過特性が互いに異なる。   Since the Ye pixel includes a Ye filter, it captures an image component Ye (original image component) and an infrared image component, which are visible color image components of Ye. Since the Ri pixel includes a Ri filter, it captures an image component Ri (original image component) and an infrared image component, which are visible color image components of Ri. Since the Ir pixel includes an Ir filter, an image component Ir (original image component) that is an infrared image component is captured. Since the W pixel does not include a filter, an image component W (original image component) that is a luminance image component including the visible luminance image component and the image component Ir is captured. Thus, the four filters have different spectral transmission characteristics.

図5は、Ye、Ri、Irフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。なお、点線で示すグラフはフィルタが取り外された状態における画素の分光感度特性を示している。この分光感度特性は、600nm付近でピークを有し、上に凸の曲線を描いて変化していることが分かる。また、図5では、400nm〜700nmが可視波長領域とされ、700nm〜1100nmが赤外波長領域とされ、400nm〜1100nmが有感度波長帯域とされている。   FIG. 5 is a diagram showing the spectral transmission characteristics of the Ye, Ri, and Ir filters, where the vertical axis indicates the transmittance (sensitivity) and the horizontal axis indicates the wavelength (nm). A graph indicated by a dotted line indicates the spectral sensitivity characteristic of the pixel in a state where the filter is removed. It can be seen that this spectral sensitivity characteristic has a peak near 600 nm and changes in a convex curve. In FIG. 5, 400 nm to 700 nm is a visible wavelength region, 700 nm to 1100 nm is an infrared wavelength region, and 400 nm to 1100 nm is a sensitive wavelength band.

図5に示すように、Yeフィルタは、可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する特性を有する。よって、Yeフィルタは主にイエローの光と赤外光とを透過する。   As shown in FIG. 5, the Ye filter has a characteristic of transmitting light in the sensitive wavelength band excluding the blue region in the visible wavelength region. Therefore, the Ye filter mainly transmits yellow light and infrared light.

Riフィルタは、可視波長領域の青色領域及び緑色領域を除く有感度波長帯域の光を透過する特性を有する。よって、Riフィルタは主に赤の光と赤外光とを透過する。   The Ri filter has a characteristic of transmitting light in a sensitive wavelength band excluding a blue region and a green region in the visible wavelength region. Therefore, the Ri filter mainly transmits red light and infrared light.

Irフィルタは、可視波長領域を除く有感度波長帯域、すなわち赤外波長帯域の光を透過する特性を有する。Wはフィルタを備えていない場合を示し、画素の有感度波長帯域の光が全て透過される。   The Ir filter has a characteristic of transmitting light in a sensitive wavelength band excluding the visible wavelength region, that is, in the infrared wavelength band. W indicates a case where no filter is provided, and all light in the sensitive wavelength band of the pixel is transmitted.

他に似たような特性を実現するには、Ye、Ri、Irの代わりにYe、M(マゼンタ)+Ir、C(シアン)+Ir(但し、M+Irは、グリーンのみを遮蔽し、C+Irはレッドのみを遮蔽する。)でも実現可能である。ただし、Ri画素、Ir画素、Ye画素は、分光透過特性を急峻にすることができ、例えば、M+IrフィルタやC+Irフィルタに比べて、分光透過特性が良好である。つまり、M+Irフィルタ及びC+Irフィルタは、それぞれ、有感度波長帯域のうち、中央の一部の領域である緑色領域及び赤色領域のみを遮蔽する特性を有しており、このようなフィルタに、Riフィルタ、Irフィルタ、Yeフィルタのような急峻な分光透過特性を持たせることは困難である。そのため、M+Irフィルタ及びC+Irフィルタは、それぞれ、演算してもRGB画像成分を精度良く抽出することができない。よって、Ri画素、Ir画素、Ye画素、W画素で撮像素子を構成することで、撮像素子の高性能化を図ることができる。更に、図4(b)〜(f)に示すような補色フィルタを用いることもできる。尚、図4(g)は、各フィルタの相関関係を示す図である。   To achieve similar characteristics, Ye, M (magenta) + Ir, C (cyan) + Ir instead of Ye, Ri, Ir (M + Ir shields only green and C + Ir only red) Is also possible. However, the Ri pixel, the Ir pixel, and the Ye pixel can make the spectral transmission characteristics steep, and, for example, the spectral transmission characteristics are better than those of the M + Ir filter and the C + Ir filter. In other words, each of the M + Ir filter and the C + Ir filter has a characteristic of shielding only the green region and the red region, which are partial regions in the center, in the sensitive wavelength band. It is difficult to provide steep spectral transmission characteristics such as Ir filter and Ye filter. Therefore, each of the M + Ir filter and the C + Ir filter cannot extract the RGB image components with high accuracy even if the calculation is performed. Therefore, by configuring the imaging device with Ri pixels, Ir pixels, Ye pixels, and W pixels, the performance of the imaging device can be improved. Furthermore, complementary color filters as shown in FIGS. 4B to 4F can also be used. FIG. 4G is a diagram showing the correlation between the filters.

図6は、補色フィルタを用いた撮像素子からの画像信号を補間処理するフローチャートを示す図である。まず、補色フィルタを用いた撮像素子に1フレームの原画像データを撮像させる。これにより、画像成分Ye、Ri、Ir、Wが得られる(ステップS1)。   FIG. 6 is a diagram illustrating a flowchart for performing interpolation processing on an image signal from an image sensor using a complementary color filter. First, one frame of original image data is captured by an image sensor using a complementary color filter. Thereby, image components Ye, Ri, Ir, and W are obtained (step S1).

ここで、撮像素子は、Ye画素により画像成分Yeを撮像し、Ri画素により画像成分Riを撮像し、Ir画素により画像成分Irを撮像し、W画素により画像成分Wを撮像する。   Here, the imaging element images the image component Ye by the Ye pixel, images the image component Ri by the Ri pixel, images the image component Ir by the Ir pixel, and images the image component W by the W pixel.

次に、画像成分Ye,Ri,Ir,Wに色補間処理を施す。更に、dR=Ri−Ir、dG=Ye−Ri、dB=W−Yeの演算を行い色信号dR、dG、dBを算出する(ステップS2)。   Next, color interpolation processing is performed on the image components Ye, Ri, Ir, and W. Further, calculation of dR = Ri−Ir, dG = Ye−Ri, and dB = W−Ye is performed to calculate the color signals dR, dG, and dB (step S2).

次に、Y=0.3dR+0.59dG+0.11dB、Cb=dB−Y、Cr=dR−Yの演算を行い、輝度信号Y、色差信号Cr,Cbを算出する(ステップS3)。   Next, calculation of Y = 0.3 dR + 0.59 dG + 0.11 dB, Cb = dB−Y, Cr = dR−Y is performed to calculate the luminance signal Y and the color difference signals Cr and Cb (step S3).

次に、色差信号Cr、Cbにスムージング処理を行い、色差信号Crs、Cbsを算出する(ステップS4)。ここで,スムージング処理としては、例えば、5×5等の比較的小サイズのローパスフィルタを用いて繰り返し処理し、色差信号Cb、Crを多重解像度化するフィルタ処理であるカスケードフィルタ処理を採用してもよい。また、比較的サイズの大きな所定サイズのローパスフィルタを用いたフィルタ処理を採用してもよい。   Next, the color difference signals Cr and Cb are smoothed to calculate the color difference signals Crs and Cbs (step S4). Here, as the smoothing process, for example, a cascade filter process, which is a filter process that multi-resolutions the color difference signals Cb and Cr by repeatedly using a relatively small size low-pass filter such as 5 × 5, is adopted. Also good. Further, a filter process using a low-pass filter of a predetermined size having a relatively large size may be employed.

また、発光する被写体に対してはぼけることなく、エッジ以外の領域を平滑化するエッジ保存フィルタ(画素間の信号レベル差がある基準値より小さい場合いに平滑化し、基準値より大きい部分は平滑化しないフィルタ)処理を採用してもよい。なお、発光していることを検出するのは、赤外成分と可視光成分とを比較することにより推測できる。   Also, an edge-preserving filter that smoothes areas other than edges without blurring the subject that emits light (smoothing when the signal level difference between pixels is smaller than a certain reference value, and smoothing the part larger than the reference value Filter) processing that does not enable conversion may be employed. Note that it can be estimated that light emission is detected by comparing an infrared component and a visible light component.

このように、色差信号Cb,Crにスムージング処理を行うことで、色差信号Cb、Crに含まれるノイズ成分がぼかされ、色差信号Cb、CrのS/N比を向上させることができる。   As described above, by performing the smoothing process on the color difference signals Cb and Cr, the noise components included in the color difference signals Cb and Cr are blurred, and the S / N ratio of the color difference signals Cb and Cr can be improved.

次に、Yadd(1/4)×(Ri+Ir+W+Ye)の演算を行い、輝度信号Yaddを算出する(ステップS5)。   Next, a calculation of Yadd (1/4) × (Ri + Ir + W + Ye) is performed to calculate a luminance signal Yadd (step S5).

次に、Crm=Crs×Yadd/Y、Cbm=Cbs×Yadd/Yとして、色差信号Crm、Cbmを算出する(ステップS6)。   Next, color difference signals Crm and Cbm are calculated as Crm = Crs × Yadd / Y and Cbm = Cbs × Yadd / Y (step S6).

次に、ステップS2の逆変換することで、輝度信号Yadd、色差信号Crm、Cbmから色信号dR´、dG´、dB´を算出する(ステップS7)。以上のようにして、色補間処理を行うことができる。   Next, the color signals dR ′, dG ′, and dB ′ are calculated from the luminance signal Yadd and the color difference signals Crm and Cbm by performing inverse conversion in step S2 (step S7). As described above, color interpolation processing can be performed.

このような補色フィルタを用いることで、日中の撮像のみならず、夜間や日陰の撮像を行って、適正な色補間処理を行うことでカラー画像を形成するために必要なRGB信号を得ることができる。一方、補色フィルタを通した光を受光した画素からの信号を用いて、対象物までの距離を測定することもできる。   By using such a complementary color filter, RGB signals necessary for forming a color image can be obtained by performing not only daytime imaging but also nighttime and shaded imaging and performing appropriate color interpolation processing. Can do. On the other hand, the distance to the object can also be measured using a signal from a pixel that has received light that has passed through the complementary color filter.

まず、特開2009−14445号公報に記載された技術により、対象物までの距離を求める方法について説明する。図7は、ステレオカメラで対象物までの距離を測定する状態を示す図である。図7において、一対の撮像素子を備えたカメラ1,2は、予め定める基線間隔Lだけ離間して、かつ光軸が相互に平行となるように配置される。カメラ1,2で撮像された対象物の撮像画像は、例えば対応点探索手法であるSAD(Sum of Absolute Difference)法を用いて画素単位で対応点探索を行い、各カメラ1,2間の左右方向における対象物に対する視差を求め、求められた視差に基づいて、以下の式に基づき対象物までの距離を求めることができる。   First, a method for obtaining the distance to the object by the technique described in Japanese Patent Application Laid-Open No. 2009-14445 will be described. FIG. 7 is a diagram illustrating a state in which the distance to an object is measured with a stereo camera. In FIG. 7, the cameras 1 and 2 having a pair of imaging elements are arranged so as to be separated from each other by a predetermined baseline interval L and the optical axes are parallel to each other. The captured images of the objects captured by the cameras 1 and 2 are searched for corresponding points on a pixel-by-pixel basis using, for example, the SAD (Sum of Absolute Difference) method, which is a corresponding point search method. The parallax with respect to the object in the direction can be obtained, and the distance to the object can be obtained based on the following equation based on the obtained parallax.

図7において、少なくとも焦点距離(f)、撮像素子(CCD)の画素数、1画素の大きさ(μ)が相互に等しい2台のカメラ1,2を用い、所定の基線長(L)だけ前記左右に離間させて光軸1X,2Xを平行に配置して対象物OBを撮影する。このとき、図3(a)の例では、カメラ1の撮像面1b上で左側の木の先端の画素番号(左端又は右端から数えるものとする)がx1,カメラ2における撮像面2b上で同じ左側の木の先端の画素番号がx2であったとする(yは等しいと仮定)と、撮像面1b,2b上の視差(ずれ画素数)はd(=x1−x2)であり、対象物OBまでの距離(Z)は、斜線を施して示す三角形が相似である。従って、
Z:f=L:μ×d
の関係より、
Z=(L×f)/(μ×d)・・・(1)
で求めることができる。
In FIG. 7, at least the focal length (f), the number of pixels of the image sensor (CCD), the size of one pixel (μ) are equal to each other, and two cameras 1 and 2 are used, and only a predetermined baseline length (L) is obtained. The object OB is photographed by arranging the optical axes 1X and 2X in parallel so as to be separated from each other to the left and right. At this time, in the example of FIG. 3A, the pixel number of the tip of the left tree on the imaging surface 1b of the camera 1 (assuming counting from the left end or the right end) is the same as x1, on the imaging surface 2b of the camera 2. If the pixel number at the tip of the left tree is x2 (assuming y is equal), the parallax (number of shifted pixels) on the imaging surfaces 1b and 2b is d (= x1-x2), and the object OB The distance (Z) up to is similar to the triangle shown by hatching. Therefore,
Z: f = L: μ × d
From the relationship
Z = (L × f) / (μ × d) (1)
Can be obtained.

以上の測距における重要な画像処理の一つは、2つのカメラから得られた撮像画像において、画素単位で対応点探索を行って、精度良く同一の対象物(図3(a)の例では左の木の先端)に対応する画素を見つけだすことである。従来技術での対応点探索は、RGB信号から色補間処理を行って、2枚の撮像画像に対してそれぞれ3つの画像データを作成し、少なくとも1つの画像データ同士を比較して、同じ信号値を持つ画素があった場合、同一の対象物と推定するものである。この処理をパターンマッチングという。   One of the important image processes in the distance measurement described above is to search for corresponding points in pixel units in captured images obtained from two cameras and to accurately detect the same object (in the example of FIG. 3A). It is to find a pixel corresponding to the tip of the left tree. Corresponding point search in the prior art performs color interpolation processing from RGB signals, creates three image data for each of two captured images, compares at least one image data, and uses the same signal value If there is a pixel having, the same object is estimated. This process is called pattern matching.

図8(a)においては、原色フィルタについて色補間処理を示す図である。かかる色補間処理において、隣接する2つのR画素の間のG画素からの信号を、これを挟むR画素の信号の平均値に置き換えることにより、R画素の信号のみからなる第1の画像データ(フレームデータ又は画像信号ともいう)を形成し、隣接する2つのG画素の間のR画素又はB画素からの信号を、これを挟むG画素の信号の平均値に置き換えることにより、G画素の信号のみからなる第2の画像データを形成し、隣接する2つのB画素の間のG画素からの信号を、これを挟むB画素の信号の平均値に置き換えることにより、B画素の信号のみからなる第3の画像データを形成する。   FIG. 8A is a diagram showing color interpolation processing for the primary color filter. In such color interpolation processing, by replacing the signal from the G pixel between two adjacent R pixels with the average value of the signal of the R pixel sandwiching the signal, the first image data (only the R pixel signal ( G pixel signal by replacing the signal from the R pixel or the B pixel between two adjacent G pixels with the average value of the G pixel signals sandwiching it The second image data consisting of only the B pixel is formed, and the signal from the G pixel between the two adjacent B pixels is replaced with the average value of the B pixel signals sandwiching the second image data, thereby consisting only of the B pixel signal Third image data is formed.

図8(b)においては、補色フィルタの一例について色補間処理を示す図である。かかる色補間処理において、隣接する2つのRi画素の間のYe画素又はW画素からの信号を、これを挟むRi画素の信号の平均値に置き換えることにより、Ri画素の信号のみからなる第1の画像データを形成し、隣接する2つのYe画素の間のRi画素又はIr画素からの信号を、これを挟むYe画素の信号の平均値に置き換えることにより、Ye画素の信号のみからなる第2の画像データを形成し、隣接する2つのW画素の間のRi画素又はIr画素からの信号を、これを挟むW画素の信号の平均値に置き換えることにより、W画素の信号のみからなる第3の画像データを形成し、隣接する2つのIr画素の間のW画素又はYe画素からの信号を、これを挟むIr画素の信号の平均値に置き換えることにより、Ir画素の信号のみからなる第4の画像データを形成する。   FIG. 8B is a diagram showing color interpolation processing for an example of a complementary color filter. In such color interpolation processing, the signal from the Ye pixel or the W pixel between two adjacent Ri pixels is replaced with the average value of the signals of the Ri pixels sandwiching this, whereby the first pixel consisting of only the signals of the Ri pixels. A second image comprising only Ye pixel signals is formed by forming image data and replacing the signal from the Ri pixel or Ir pixel between two adjacent Ye pixels with the average value of the signals of the Ye pixels sandwiching the image data. By forming image data and replacing the signal from the Ri pixel or Ir pixel between two adjacent W pixels with the average value of the signals of the W pixels sandwiching the image data, the third data consisting of only the signals of the W pixels By forming the image data and replacing the signal from the W pixel or Ye pixel between two adjacent Ir pixels with the average value of the Ir pixel signal between them, only from the Ir pixel signal Forming a fourth image data that.

ここで、R画素、G画素、B画素のいずれかについてパターンマッチングをする場合、夜間や日陰での撮像画像においては、画素値が低くなりすぎてノイズに隠れやすくなり、精度の良いパターンマッチングが行えない恐れがある。これに対し、補色フィルタの一例についての例えばW画素は、有感度波長帯域全域で感度があるため、日中のみならず、夜間や日陰での撮像画像においても、比較的画素値が高くなる。これを言い換えると、W画素は、R画素、G画素、B画素に対して飽和しやすいということである。   Here, when pattern matching is performed for any one of the R pixel, G pixel, and B pixel, in a captured image at night or in the shade, the pixel value becomes too low to be easily hidden by noise. There is a fear that it cannot be done. On the other hand, for example, a W pixel as an example of the complementary color filter has sensitivity over the entire sensitive wavelength band, and thus has a relatively high pixel value not only in the daytime but also in a captured image at night or in the shade. In other words, the W pixel is easily saturated with respect to the R pixel, the G pixel, and the B pixel.

本発明者の研究結果によれば、図8(b)の補色フィルタに関しては、図9に示すような飽和順位があることがわかった。より具体的には、W画素が最も飽和しやすく、次いで、Ye画素、Ri画素と続き、原色フィルタを挟んで、Ir画素は最も飽和しにくい。別な補色フィルタにかかる飽和順位を、図10に示す。図10の飽和順位において、W画素が最も飽和しやすく、次いで、補色フィルタ画素グループ中のMg(マゼンタ)フィルタを持つMg画素、Cy(シアン)フィルタを持つCy画素、Ye画素が飽和しやすく、これに対し原色フィルタ画素グループ中のB画素、G画素、R画素、及びIr画素は比較的飽和しにくい。   According to the research result of the present inventor, it was found that the complementary color filter of FIG. 8B has a saturation order as shown in FIG. More specifically, the W pixel is most easily saturated, followed by the Ye pixel and the Ri pixel, and the Ir pixel is most hardly saturated with the primary color filter interposed therebetween. FIG. 10 shows the saturation order according to another complementary color filter. In the saturation order of FIG. 10, the W pixel is most likely to be saturated, then the Mg pixel having the Mg (magenta) filter, the Cy pixel having the Cy (cyan) filter, and the Ye pixel in the complementary color filter pixel group are likely to be saturated. In contrast, the B pixel, G pixel, R pixel, and Ir pixel in the primary color filter pixel group are relatively difficult to saturate.

本発明者は、画素が飽和しやすいフィルタの飽和順位が、図9又は図10に示すようになることを導出したことに基づいて、この飽和順位に従って、原色フィルタ(R、G、B)より上位であるフィルタ(例えばW、Mg、Cy、Ye,Riフィルタ)を通して得られた(例えばW、Mg、Cy、Ye,Ri画素からなる)画像データ同士を比較することで、少なくともR画素、G画素、B画素からなる画像データよりもS/N比が大きな信号に基づいて、最適な対応点探索を行えることを見出したのである。これにより夜間や日陰の撮像でも、有効な測距を行うことができる。尚、「画素が飽和しやすいフィルタの飽和順位」とは、「センサ感度が良い順」又は「分光感度帯が広い順」と同義であるため、これらを相互に置き換えて用いることもできる。   The present inventor has derived that the saturation order of a filter in which pixels are likely to be saturated becomes as shown in FIG. 9 or FIG. 10, and in accordance with this saturation order, the primary color filters (R, G, B). By comparing image data (for example, composed of W, Mg, Cy, Ye, Ri pixels) obtained through a higher-order filter (for example, W, Mg, Cy, Ye, Ri filter), at least R pixel, G The present inventors have found that an optimum corresponding point search can be performed based on a signal having an S / N ratio larger than that of image data including pixels and B pixels. This makes it possible to perform effective distance measurement even at night or in the shade. Note that “saturation order of filters in which pixels are likely to be saturated” is synonymous with “order in which sensor sensitivity is good” or “order in which spectral sensitivity band is wide”, and these can be used interchangeably.

請求項2に記載の画像処理装置は、前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、前記視差検出手段は、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする。原色フィルタより上位であるフィルタ(例えばW、Mg、Cy、Ye,Riフィルタ)を通過する光はフォトンの量が比較的多いので、それを受光する画素(例えばW、Mg、Cy、Ye,Ri画素)は感度が高い反面、飽和し易いという特性がある。画素が飽和してしまうと、信号値が等しい画素が多数存在するようになり、測距エラーであるいわゆるオクルージョン現象を招き、精度の良いステレオマッチングを行えない恐れがある。そこで、あるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、前記視差検出手段は、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することで、精度の良い測距を行えるようにしている。   The image processing apparatus according to claim 2, wherein when a pixel is saturated when light from an object is incident through the higher-order filter, the parallax detection unit has a higher saturation order than a filter in which the pixel is saturated. It is characterized in that image signals obtained through a lower filter are compared with each other. Since light passing through a filter (for example, W, Mg, Cy, Ye, Ri filter) that is higher than the primary color filter has a relatively large amount of photons, pixels that receive it (for example, W, Mg, Cy, Ye, Ri) Pixel) has a high sensitivity, but is easily saturated. If the pixels are saturated, there will be many pixels with the same signal value, which may cause a so-called occlusion phenomenon that is a distance measurement error, and there is a possibility that accurate stereo matching cannot be performed. Therefore, when the pixel is saturated when light from the object is incident through a certain filter, the parallax detection means obtains the image signals obtained through the filters lower in the saturation order than the filter in which the pixel is saturated. By comparing, it is possible to perform accurate ranging.

請求項3に記載の画像処理装置は、前記視差検出手段が、あるフィルタを通して得られた画像信号により形成される1画像における画素平均値を求め、前記画素平均値が閾値以上である場合、画素が飽和したと判断することを特徴とする。これにより飽和したか否かを容易に判定できる。   The image processing apparatus according to claim 3, wherein the parallax detection unit obtains a pixel average value in one image formed by an image signal obtained through a certain filter, and the pixel average value is equal to or greater than a threshold value. It is characterized by determining that is saturated. Thereby, it can be easily determined whether or not it is saturated.

請求項4に記載の画像処理装置は、あるフィルタを通して対象物からの光が入射したときに一部の領域の画素が飽和したときは、前記視差検出手段は、飽和した一部の領域の画素については、飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする。例えば、太陽などの高輝度の被写体が画面に写り込んだような場合、太陽以外の画像は有効に利用できることがある。そこで、太陽光などが直接入射して一部の領域の画素が飽和したときは、前記視差検出手段は、飽和した一部の領域の画素については、飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することで、適正な処理を行えるようにしている。   5. The image processing apparatus according to claim 4, wherein when the light from the object is incident through a certain filter and the pixels in a part of the region are saturated, the parallax detection unit Is characterized in that image signals obtained through a filter that is lower in the saturation order than a saturated filter are compared with each other. For example, when a bright subject such as the sun appears on the screen, an image other than the sun may be used effectively. Thus, when sunlight or the like is directly incident and pixels in a part of the region are saturated, the parallax detection unit is lower than the saturated filter in the saturation order for pixels in the part of the saturated region. Appropriate processing can be performed by comparing image signals obtained through filters.

請求項5に記載の画像処理装置は、前記視差検出手段が、あるフィルタを通して得られた画像信号により形成される一部の領域の画素平均値を求め、前記画素平均値が閾値以上である場合、一部の領域の画素が飽和したと判断することを特徴とする。これにより飽和したか否かを容易に判定できる。   The image processing apparatus according to claim 5, wherein the parallax detection unit obtains a pixel average value of a partial region formed by an image signal obtained through a certain filter, and the pixel average value is equal to or greater than a threshold value. It is characterized in that it is determined that pixels in a part of the region are saturated. Thereby, it can be easily determined whether or not it is saturated.

請求項6に記載の画像処理装置は、前記一対の撮像素子から出力される画像信号同士をフィルタ毎に比較したときに、画素信号の値が等しい画素の位置が一致するフィルタを選定し、選定されたフィルタを通して得られた画像信号同士を比較することを特徴とする。これにより精度の高いステレオマッチングを行える。   The image processing apparatus according to claim 6, when comparing the image signals output from the pair of image pickup devices for each filter, selects a filter in which the positions of pixels having the same pixel signal value coincide with each other. The image signals obtained through the filtered filters are compared with each other. Thereby, stereo matching with high accuracy can be performed.

請求項7に記載の画像処理方法は、予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する測距装置の画像処理方法において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなければ、前記上位であるフィルタを通して得られた画像信号同士を比較し、
前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とすることを特徴とする。本発明の効果は、上述した請求項1他と同様である。
The image processing method according to claim 7 is provided with a plurality of pixels which are provided apart from each other by a predetermined interval and which respectively receive light from the object through a plurality of different filters to convert them into pixel signals. Based on the parallax obtained by the parallax detection means, the parallax detection means for obtaining the parallax between the imaging elements in the separation direction by comparing the image signals output from the pair of imaging elements, and the pair of imaging elements In the image processing method of the distance measuring device having distance measuring means for sequentially obtaining the distance to the object,
If the pixel does not saturate when light from an object enters through the higher order filter among the saturation ranks of the filters in which the pixels of the image sensor are likely to be saturated in the different filters, the pixels are obtained through the higher order filter. Compare image signals
When the pixel is saturated when light from an object enters through the upper filter, the image signals or image data obtained through the lower filter in the saturation order are compared with the filter in which the pixel is saturated. It is characterized by that. The effect of the present invention is the same as that of the first aspect described above.

本発明によれば、フォトンの量が少ない夜間や日陰においても、測距に必要な撮像画像を得ることができる画像処理装置及び測距装置の画像処理方法を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method for a distance measuring apparatus that can obtain a captured image necessary for distance measurement even at night or in the shade where the amount of photons is small.

本発明の測距装置を搭載したロボットを示す図である。It is a figure which shows the robot carrying the ranging device of this invention. RGB原色フィルタと赤外フィルタとを示す図である。It is a figure which shows a RGB primary color filter and an infrared filter. 一対のカメラを用いて撮影した日中(a)と夜間(b)のフレームをそれぞれ示す図である。It is a figure which shows the frame of the daytime (a) and nighttime (b) each image | photographed using a pair of camera. 補色フィルタの例を示す図である。It is a figure which shows the example of a complementary color filter. Ye、Ri、Irフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。It is the figure which showed the spectral transmission characteristic of Ye, Ri, and Ir filter, The vertical axis | shaft has shown the transmittance | permeability (sensitivity), and the horizontal axis has shown the wavelength (nm). 補色フィルタを用いた撮像素子からの画像信号を補間処理するフローチャートを示す図である。It is a figure which shows the flowchart which performs the interpolation process of the image signal from the image pick-up element using a complementary color filter. ステレオカメラで対象物までの距離を測定する状態を示す図である。It is a figure which shows the state which measures the distance to a target object with a stereo camera. 原色フィルタと補色フィルタの色補間処理の差を示す図である。It is a figure which shows the difference of the color interpolation process of a primary color filter and a complementary color filter. 飽和順位の例を示す図である。It is a figure which shows the example of a saturation order. 飽和順位の例を示す図である。It is a figure which shows the example of a saturation order. 本実施の形態にかかる測距装置10のブロック図である。1 is a block diagram of a distance measuring device 10 according to the present embodiment. 測距装置10の動作を説明するための模式図である。FIG. 6 is a schematic diagram for explaining the operation of the distance measuring device 10. 測距装置10の動作を説明するためのフローチャート図である。FIG. 5 is a flowchart for explaining the operation of the distance measuring device 10. 別な実施の形態にかかる測距装置10の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of the distance measuring device 10 concerning another embodiment. 一部の画素値のみを置き換えて作成したフレームを示す図である。It is a figure which shows the flame | frame produced by replacing only some pixel values.

以下、本発明の実施の形態にかかる測距装置10について説明する。図11は、本実施の形態にかかる、撮像ユニットを兼ねる測距装置10のブロック図である。図11において、測距装置10は、ロボット等に搭載され、ボディ左右に設けられた一対の基準カメラ1及び参照カメラ2の撮像画像から、ステレオ法によって対象物までの距離を計測するシステムである。   Hereinafter, the distance measuring device 10 according to the embodiment of the present invention will be described. FIG. 11 is a block diagram of the distance measuring apparatus 10 that also serves as an imaging unit according to the present embodiment. In FIG. 11, a distance measuring device 10 is a system that is mounted on a robot or the like and measures the distance to an object by a stereo method from images captured by a pair of reference cameras 1 and reference cameras 2 provided on the left and right sides of the body. .

撮像手段であるカメラ1,2は、図7に示すように、予め定めた基線間隔Lだけ離間して、かつ光軸が相互に平行となるようにボディに搭載される。カメラ1,2において、対象物の光はレンズ1a、2aを通過して、補色フィルタを有する撮像素子1b、2bの撮像面に入射し、変換された画像信号は画像処理部1c、2cに入力されて画像処理され、上述したようにdR’、dG’、dB’からなる画像データとして出力されることとなる。制御部1d、2dは、外部から制御信号を入力し、撮像素子1b、2b及び画像処理部1c、2cを制御する。本発明によれば、図6に示すような画像処理を施すことで、原色フィルタを用いたのと同様なカラー画像を得ることができる。   As shown in FIG. 7, the cameras 1 and 2 as imaging means are mounted on the body so as to be separated by a predetermined baseline interval L and the optical axes are parallel to each other. In the cameras 1 and 2, the light of the object passes through the lenses 1a and 2a, enters the imaging surfaces of the imaging elements 1b and 2b having complementary filters, and the converted image signals are input to the image processing units 1c and 2c. Then, the image is processed and output as image data composed of dR ′, dG ′, and dB ′ as described above. The control units 1d and 2d receive control signals from the outside and control the image sensors 1b and 2b and the image processing units 1c and 2c. According to the present invention, a color image similar to that using the primary color filter can be obtained by performing image processing as shown in FIG.

次に、測距に必要な画像処理について説明する。画像処理部1c、2cは、予め実験やシミュレーションで求めた、補色フィルタにおいて撮像素子1b、2bの画素が飽和しやすいフィルタの飽和順位を記憶しており、この飽和順位に照らして、上位であるフィルタ(例えばWフィルタ)を通して対象物からの光が入射したときに、閾値(例えばLin−Logセンサであれば、変極点以上又は以下の値が好ましい)と比較して画素が飽和したか否かを判断する。画像処理部1c、2cは、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなかったと判断したときは、そのフィルタを通して得られた画像信号をステレオ処理部3に出力し、飽和したと判断したときは、画素が飽和したフィルタより飽和順位で下位であるフィルタ(例えばYeフィルタ)を通して得られた画像信号を、ステレオ処理部3に出力する。この2つの画像信号に基づいて、ステレオ処理部3によりステレオマッチングを含む画像処理が行われ、画像処理された信号に基づいて、図7を参照して説明した式に基づき、演算部4で対象物までの距離を測定する。本実施の形態では、ステレオ処理部3及び演算部4が視差検出手段を構成し、演算部4が距離計測手段を構成する。   Next, image processing necessary for distance measurement will be described. The image processing units 1c and 2c store the saturation order of filters in which the pixels of the image pickup devices 1b and 2b are likely to be saturated in the complementary color filter, which is obtained in advance through experiments and simulations. Whether or not the pixel is saturated when light from an object enters through a filter (for example, a W filter) compared to a threshold value (for example, a value that is greater than or less than the inflection point for a Lin-Log sensor) Judging. When the image processing units 1c and 2c determine that the pixel is not saturated when light from an object enters through a higher-order filter, the image processing units 1c and 2c output an image signal obtained through the filter to the stereo processing unit 3. When it is determined that the pixel is saturated, an image signal obtained through a filter (for example, a Ye filter) that is lower in saturation order than the filter in which the pixel is saturated is output to the stereo processing unit 3. Based on these two image signals, the stereo processing unit 3 performs image processing including stereo matching, and based on the image-processed signals, the arithmetic unit 4 performs processing based on the equation described with reference to FIG. Measure the distance to the object. In the present embodiment, the stereo processing unit 3 and the calculation unit 4 constitute a parallax detection unit, and the calculation unit 4 constitutes a distance measurement unit.

図12は、測距装置10の動作を説明するための模式図である。まず、画像処理部1c、2cは、図12(a)に示す元画像データから、図8(b)を参照して説明したようにして、図12(b)に示す4画素に対応した4枚のフレームデータを作成する。次に、画像処理部1c、2cは、各フレームデータ内の画素平均値(画素値の平均)を計算する。画素値は256段階で表せるものとする。ここで、図12(c)に示すように、W画素のフレームでは画素平均値が255,Ye画素のフレームでは画素平均値が200,Ri画素のフレームでは画素平均値が180,Ir画素のフレームでは画素平均値が150であったものとする。   FIG. 12 is a schematic diagram for explaining the operation of the distance measuring device 10. First, as described with reference to FIG. 8B, the image processing units 1c and 2c correspond to the four pixels shown in FIG. 12B from the original image data shown in FIG. Create frame data. Next, the image processing units 1c and 2c calculate an average pixel value (average pixel value) in each frame data. The pixel value can be expressed in 256 levels. Here, as shown in FIG. 12 (c), the pixel average value is 255 in the frame of W pixel, the pixel average value is 200 in the frame of Ye pixel, the pixel average value is 180 in the frame of Ri pixel, and the frame of Ir pixel. Let us assume that the average pixel value is 150.

画像処理部1c、2cは、画素が飽和しているか否かの閾値を240とする。よって、図12(d)に示すように、画素平均値が閾値以上であるW画素のフレームでは飽和が生じていると判断し、飽和順位で次のYe画素のフレームを選択し、図12(e)に示すように、カメラ1,2から得られた2つのYe画素のフレームの画像信号を、ステレオ処理部3に出力する。ステレオ処理部3は、2つのYe画素のフレームを用いてステレオマッチング処理を行うこととなる。   The image processing units 1c and 2c set a threshold value of 240 as to whether or not the pixel is saturated. Therefore, as shown in FIG. 12D, it is determined that saturation has occurred in the W pixel frame whose pixel average value is equal to or greater than the threshold, and the next Ye pixel frame is selected in the saturation order. As shown in e), image signals of two Ye pixel frames obtained from the cameras 1 and 2 are output to the stereo processing unit 3. The stereo processing unit 3 performs stereo matching processing using a frame of two Ye pixels.

図13は、測距装置10の動作を説明するためのフローチャート図である。画像処理部1cは、ステップS101で基準カメラ用の各フィルタに応じたフレームを取得し、画像処理部2cは、ステップS102で参照カメラ用の各フィルタに応じたフレームを取得する。画像処理部1c、2cは、ステップS103で、上述したように閾値と比較してW画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS104でW画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのW画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。   FIG. 13 is a flowchart for explaining the operation of the distance measuring device 10. In step S101, the image processing unit 1c acquires a frame corresponding to each filter for the reference camera, and in step S102, the image processing unit 2c acquires a frame corresponding to each filter for the reference camera. In step S103, the image processing units 1c and 2c determine whether or not the frame of W pixels is saturated as described above, and if it is determined that the frame is not saturated, the W pixels are determined in step S104. The stereo processing unit 3 performs stereo matching processing using two W pixel frames, and outputs the matching result to the calculation unit 4 in step S110.

これに対し、ステップS103で、W画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、更にステップS105で、上述したように閾値と比較してYe画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS106でYe画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのYe画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。   On the other hand, if it is determined in step S103 that the frame of W pixels is saturated, the image processing units 1c and 2c further saturate the frame of Ye pixels in step S105 as compared with the threshold value as described above. In step S106, the image signal of the Ye pixel frame is output to the stereo processing unit 3, and the stereo processing unit 3 outputs the two Ye pixel frames. The stereo matching process is performed, and the matching result is output to the calculation unit 4 in step S110.

これに対し、ステップS105で、Ye画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、更にステップS107で、上述したように閾値と比較してRi画素のフレームが飽和しているか否かを判断し、飽和していないと判断すれば、ステップS108でRi画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのRi画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。   On the other hand, if it is determined in step S105 that the frame of Ye pixels is saturated, the image processing units 1c and 2c further saturate the frame of Ri pixels in step S107 as compared with the threshold value as described above. In step S108, the image signal of the Ri pixel frame is output to the stereo processing unit 3, and the stereo processing unit 3 outputs the two Ri pixel frames. The stereo matching process is performed, and the matching result is output to the calculation unit 4 in step S110.

これに対し、ステップS107で、Ri画素のフレームが飽和していると判断した場合、画像処理部1c、2cは、ステップS109でIr画素のフレームの画像信号をステレオ処理部3に出力し、ステレオ処理部3は、2つのIr画素のフレームを用いてステレオマッチング処理を行い、ステップS110でマッチング結果を演算部4に出力する。   On the other hand, if it is determined in step S107 that the frame of Ri pixel is saturated, the image processing units 1c and 2c output the image signal of the frame of Ir pixel to the stereo processing unit 3 in step S109, and the stereo processing unit 3 The processing unit 3 performs a stereo matching process using two Ir pixel frames, and outputs a matching result to the calculation unit 4 in step S110.

本実施の形態の変形例として、図4(e)に示す補色フィルタをカメラ1,2の撮像素子1b、2bに備えた場合、図13のフローチャートにおいて、WをYeに置き換え、YeをMgに置き換え、RiをCyに置き換え、IrをGに置き換えればよい。その他の補色フィルタについても同様である。   As a modification of the present embodiment, when the complementary color filter shown in FIG. 4E is provided in the imaging devices 1b and 2b of the cameras 1 and 2, W is replaced with Ye and Ye is replaced with Mg in the flowchart of FIG. Replacement, Ri may be replaced with Cy, and Ir may be replaced with G. The same applies to other complementary color filters.

但し、図4(b)、(c)、(d)に示す3色の補色フィルタについては、飽和順位に基づいて上位のフィルタから飽和しているか否かの判断が2回になる点のみが異なる。   However, with respect to the three-color complementary filters shown in FIGS. 4B, 4C, and 4D, only the determination as to whether or not the upper filter is saturated based on the saturation order is only twice. Different.

図14は、別な実施の形態にかかる測距装置10の動作を説明するための模式図である。図12に示す実施の形態と同様に、画像処理部1c、2cは、図14(a)に示す元画像データから、図8(b)を参照して説明したようにして、図14(b)に示す4画素に対応した4枚のフレームデータを作成する。次に、画像処理部1c、2cは、各フレームデータ内の画素平均値を計算する。ここで、図14(c)に示すように、W画素のフレームでは画素平均値が255,Ye画素のフレームでは画素平均値が200,Ri画素のフレームでは画素平均値が180,Ir画素のフレームでは画素平均値が150であったものとする。   FIG. 14 is a schematic diagram for explaining the operation of the distance measuring apparatus 10 according to another embodiment. Similar to the embodiment shown in FIG. 12, the image processing units 1c and 2c are based on the original image data shown in FIG. 14A as described with reference to FIG. 4 frames data corresponding to the four pixels shown in FIG. Next, the image processing units 1c and 2c calculate an average pixel value in each frame data. Here, as shown in FIG. 14C, the pixel average value is 255 in the frame of W pixel, the pixel average value is 200 in the frame of Ye pixel, the pixel average value is 180 in the frame of Ri pixel, and the frame of Ir pixel. Let us assume that the average pixel value is 150.

画像処理部1c、2cは、画素が飽和しているか否かの閾値を240として、図14(d)に示すように、画素平均値が閾値以上であるW画素のフレームでは飽和が生じていると判断するが、飽和が生じていないフレーム全てを選択する。具体的には、画像処理部1c、2cは、Ye画素のフレーム、Ri画素のフレーム、Ir画素のフレームを選択し、図14(e)に示すように、カメラ1,2から得られた2組のYe画素のフレーム、Ri画素のフレーム、Ir画素のフレームの画像信号を、ステレオ処理部3に出力する。ステレオ処理部3は、2つのYe画素のフレーム、Ri画素のフレーム、Ir画素のフレーム同士をそれぞれ比較してステレオマッチング処理を行う。   As shown in FIG. 14D, the image processing units 1c and 2c set the threshold value of whether or not the pixel is saturated to 240, and saturation occurs in the W pixel frame whose pixel average value is equal to or larger than the threshold value, as shown in FIG. However, all the frames that are not saturated are selected. Specifically, the image processing units 1c and 2c select a frame of Ye pixels, a frame of Ri pixels, and a frame of Ir pixels, and 2 obtained from the cameras 1 and 2 as shown in FIG. The pair of Ye pixel frames, Ri pixel frames, and Ir pixel frame image signals are output to the stereo processing unit 3. The stereo processing unit 3 performs stereo matching processing by comparing two Ye pixel frames, Ri pixel frames, and Ir pixel frames.

このとき、基準カメラ1の目標画素のYe画素値に対して、参照カメラ2のYe画素値が一致する画素が100番目であり、基準カメラ1の目標画素のRi画素値に対して、参照カメラ2のRi画素値が一致する画素が110番目であり、基準カメラ1の目標画素のIr画素値に対して、参照カメラ2のIr画素値が一致する画素が100番目であるとする。かかる場合、画像処理部1c、2cは、多数決の原理に基づき、基準カメラ1の目標画素には、参照カメラ2の100番目の画素が対応すると判断するので(図14(f))、これを図7を参照して説明した式(1)に代入して視差を求めることができる。   At this time, the pixel whose Ye pixel value of the reference camera 2 matches the Ye pixel value of the target pixel of the base camera 1 is the 100th, and the reference camera is compared with the Ri pixel value of the target pixel of the base camera 1. It is assumed that the pixel with the matching Ri pixel value of 2 is the 110th pixel, and the pixel with the matching Ir pixel value of the reference camera 2 is the 100th pixel with respect to the Ir pixel value of the target pixel of the reference camera 1. In such a case, the image processing units 1c and 2c determine that the 100th pixel of the reference camera 2 corresponds to the target pixel of the base camera 1 based on the principle of majority decision (FIG. 14 (f)). The parallax can be obtained by substituting into the equation (1) described with reference to FIG.

尚、撮像シーンによっては、画面上に太陽などの高輝度の被写体が画面に写り込むこともあるが、太陽光以外の光が入射する画素は飽和しておらず、有効に利用できることがある。そこで、画像処理部1c、2cは、例えばW画素から出力された画素値について閾値を超えたか否かの判断を行い、一部の領域のW画素値が閾値を超えているが、残りは超えていないと判断したときは、飽和した一部の領域のW画素については、図15に示すようにYe画素値に置き換えてフレームを作成し、その画像信号同士を比較することで、適正なマッチング処理を行えるようにできる。   Depending on the imaging scene, a high-luminance subject such as the sun may appear on the screen, but pixels that receive light other than sunlight are not saturated and may be used effectively. Therefore, the image processing units 1c and 2c, for example, determine whether or not the pixel value output from the W pixel has exceeded the threshold value, and the W pixel value of a part of the region exceeds the threshold value, but the remaining exceeds. If it is determined that the pixel is not saturated, the W pixel in a part of the saturated region is replaced with the Ye pixel value as shown in FIG. 15, and a frame is created. Can be processed.

本発明は、ロボットカメラや監視カメラ等に適用可能であるが、用途はそれに限られない。   The present invention can be applied to a robot camera, a surveillance camera, or the like, but the application is not limited thereto.

1,2 カメラ
1a、2a レンズ
1b、2b 撮像素子
1c、2c 画像処理部
1d、2d 制御部
3 ステレオ処理部
4 演算部
10 測距装置
DESCRIPTION OF SYMBOLS 1, 2 Camera 1a, 2a Lens 1b, 2b Image pick-up element 1c, 2c Image processing part 1d, 2d Control part 3 Stereo processing part 4 Calculation part 10 Distance measuring device

Claims (7)

予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する画像処理装置において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、原色フィルタより上位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とする画像処理装置。
A pair of image sensors provided with a plurality of pixels that are provided apart from each other by a predetermined interval and convert light into a pixel signal by receiving light from an object through a plurality of different filters, and the pair of image sensors The parallax detection means for obtaining the parallax between the image sensors in the separation direction by comparing the image signals output from the distance, and the distance for sequentially obtaining the distance to the object based on the parallax obtained by the parallax detection means In an image processing apparatus having a measuring means,
An image processing apparatus that compares image signals or image data obtained through a filter that is higher than a primary color filter in a saturation order of filters in which pixels of the image sensor are likely to be saturated in the different filters.
前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、前記視差検出手段は、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする請求項1に記載の画像処理装置。   When a pixel is saturated when light from an object is incident through the upper filter, the parallax detection unit is configured to detect image signals obtained through the lower filter in the saturation order than the filter in which the pixel is saturated. The image processing apparatus according to claim 1, wherein the image processing apparatuses are compared. 前記視差検出手段は、あるフィルタを通して得られた画像信号により形成される1画像における画素平均値を求め、前記画素平均値が閾値以上である場合、画素が飽和したと判断することを特徴とする請求項1又は2に記載の画像処理装置。   The parallax detection means obtains a pixel average value in one image formed by an image signal obtained through a certain filter, and determines that the pixel is saturated when the pixel average value is equal to or greater than a threshold value. The image processing apparatus according to claim 1. あるフィルタを通して対象物からの光が入射したときに一部の領域の画素が飽和したときは、前記視差検出手段は、飽和した一部の領域の画素については、飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号同士を比較することを特徴とする請求項1に記載の画像処理装置。   When pixels in a part of the region are saturated when light from an object enters through a certain filter, the parallax detection means performs saturation order of the pixels in the part of the region with a saturation order from the saturated filter. The image processing apparatus according to claim 1, wherein image signals obtained through a lower-order filter are compared with each other. 前記視差検出手段は、あるフィルタを通して得られた画像信号により形成される一部の領域の画素平均値を求め、前記画素平均値が閾値以上である場合、一部の領域の画素が飽和したと判断することを特徴とする請求項4に記載の画像処理装置。   The parallax detection means obtains a pixel average value of a partial region formed by an image signal obtained through a certain filter, and when the pixel average value is equal to or greater than a threshold, the pixel of the partial region is saturated The image processing apparatus according to claim 4, wherein the determination is made. 前記一対の撮像素子から出力される画像信号同士をフィルタ毎に比較したときに、画素信号の値が等しい画素の位置が一致するフィルタを選定し、選定されたフィルタを通して得られた画像信号同士を比較することを特徴とする請求項1〜5のいずれかに記載の画像処理装置。   When the image signals output from the pair of image sensors are compared for each filter, a filter in which the positions of the pixels having the same pixel signal value match is selected, and the image signals obtained through the selected filter are The image processing apparatus according to claim 1, wherein the image processing apparatuses are compared. 予め定める間隔だけ離間して設けられ、対象物からの光を複数の異なるフィルタを介して受光することによりそれぞれ画素信号に変換する複数の画素を備えた一対の撮像素子と、前記一対の撮像素子から出力された画像信号同士を比較することにより前記離間方向における撮像素子間の視差を求める視差検出手段と、前記視差検出手段によって求められた視差に基づいて、対象物までの距離を逐次求める距離計測手段と、を有する測距装置の画像処理方法において、
前記異なるフィルタにおいて前記撮像素子の画素が飽和しやすいフィルタの飽和順位のうち、上位であるフィルタを通して対象物からの光が入射したときに画素が飽和しなければ、前記上位であるフィルタを通して得られた画像信号同士を比較し、
前記上位であるフィルタを通して対象物からの光が入射したときに画素が飽和したときは、画素が飽和したフィルタより前記飽和順位で下位であるフィルタを通して得られた画像信号又は画像データ同士を比較することを特徴とすることを特徴とする画像処理方法。
A pair of image sensors provided with a plurality of pixels that are provided apart from each other by a predetermined interval and convert light into a pixel signal by receiving light from an object through a plurality of different filters, and the pair of image sensors The parallax detection means for obtaining the parallax between the image sensors in the separation direction by comparing the image signals output from the distance, and the distance for sequentially obtaining the distance to the object based on the parallax obtained by the parallax detection means In an image processing method of a distance measuring device having a measuring means,
If the pixel does not saturate when light from an object enters through the higher order filter among the saturation ranks of the filters in which the pixels of the image sensor are likely to be saturated in the different filters, the pixels are obtained through the higher order filter. Compare image signals
When the pixel is saturated when light from an object enters through the upper filter, the image signals or image data obtained through the lower filter in the saturation order are compared with the filter in which the pixel is saturated. An image processing method characterized by that.
JP2009129205A 2009-05-28 2009-05-28 Image processor and image processing method of ranging apparatus Pending JP2010276469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129205A JP2010276469A (en) 2009-05-28 2009-05-28 Image processor and image processing method of ranging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129205A JP2010276469A (en) 2009-05-28 2009-05-28 Image processor and image processing method of ranging apparatus

Publications (1)

Publication Number Publication Date
JP2010276469A true JP2010276469A (en) 2010-12-09

Family

ID=43423570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129205A Pending JP2010276469A (en) 2009-05-28 2009-05-28 Image processor and image processing method of ranging apparatus

Country Status (1)

Country Link
JP (1) JP2010276469A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186755A (en) * 2011-03-08 2012-09-27 Canon Inc Image processing device, image processing method, and program
JP2013225289A (en) * 2012-03-21 2013-10-31 Ricoh Co Ltd Multi-lens camera apparatus and vehicle including the same
WO2015083499A1 (en) * 2013-12-02 2015-06-11 コニカミノルタ株式会社 Image processing device, method and program
JP2015222200A (en) * 2014-05-22 2015-12-10 日本電信電話株式会社 Image processing method and image processing system
JP2016180708A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Distance measurement device, distance measurement method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186755A (en) * 2011-03-08 2012-09-27 Canon Inc Image processing device, image processing method, and program
JP2013225289A (en) * 2012-03-21 2013-10-31 Ricoh Co Ltd Multi-lens camera apparatus and vehicle including the same
WO2015083499A1 (en) * 2013-12-02 2015-06-11 コニカミノルタ株式会社 Image processing device, method and program
JP2015222200A (en) * 2014-05-22 2015-12-10 日本電信電話株式会社 Image processing method and image processing system
JP2016180708A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Distance measurement device, distance measurement method and program

Similar Documents

Publication Publication Date Title
JP5206796B2 (en) Image input device
US7460160B2 (en) Multispectral digital camera employing both visible light and non-visible light sensing on a single image sensor
US10171757B2 (en) Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter
JP6492055B2 (en) Device for acquiring bimodal images
JP5976676B2 (en) Imaging system using longitudinal chromatic aberration of lens unit and operation method thereof
JP5397788B2 (en) Image input device
US8248496B2 (en) Image processing apparatus, image processing method, and image sensor
WO2016031597A1 (en) Image processing device, image processing method, and image processing system
JP4346634B2 (en) Target detection device
JP2010276469A (en) Image processor and image processing method of ranging apparatus
JP6692749B2 (en) Multispectral camera
WO2018116972A1 (en) Image processing method, image processing device, and recording medium
JP2012008845A (en) Image processor
US9906705B2 (en) Image pickup apparatus
JP5464008B2 (en) Image input device
JP2012010141A (en) Image processing apparatus
JP2010171950A (en) Imaging apparatus and color correcting method of imaging apparatus
JP6794989B2 (en) Video processing equipment, shooting equipment, video processing methods and programs
JP6640555B2 (en) Camera system
JP2014158165A (en) Image processing device, image processing method, and program
JP4993275B2 (en) Image processing device
CN108024035B (en) Image forming apparatus and method
JP2013187711A (en) Image processing apparatus, imaging apparatus, and image processing method
JP2020038319A (en) Imaging apparatus and control method of the same
WO2011162155A1 (en) Image capturing device