[go: up one dir, main page]

JP2014021017A - Information acquisition device and object detection device - Google Patents

Information acquisition device and object detection device Download PDF

Info

Publication number
JP2014021017A
JP2014021017A JP2012161945A JP2012161945A JP2014021017A JP 2014021017 A JP2014021017 A JP 2014021017A JP 2012161945 A JP2012161945 A JP 2012161945A JP 2012161945 A JP2012161945 A JP 2012161945A JP 2014021017 A JP2014021017 A JP 2014021017A
Authority
JP
Japan
Prior art keywords
distance
area
segment area
segment
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012161945A
Other languages
Japanese (ja)
Inventor
Takanori Kishida
孝範 岸田
Masato Fuma
正人 夫馬
Tadashi Ikuta
直史 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012161945A priority Critical patent/JP2014021017A/en
Publication of JP2014021017A publication Critical patent/JP2014021017A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information acquisition device capable of appropriately acquiring distance information, and an object detection device.SOLUTION: The information acquisition device has a first processing route for searching for a displacement position on an actual measurement dot pattern, of an entire segment area S to acquire distance information for the entire segment area S (S108 to S112). Further, the information acquisition device has a second processing route for searching for displacement positions on the actual measurement dot pattern, of divided segment areas Sa and Sb to acquire distance information for the divided segment areas Sa and Sb (S104 to S107). The information acquisition device determines whether dots reflected from positions at different distances are included in a comparison area on the actual measurement dot pattern, which is to be collated with the entire segment area S, or not on the basis of a difference between pixel displacement amounts Na and Nb to select one of the first processing route and the second processing route (S103).

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。   The present invention relates to an object detection apparatus that detects an object in a target area based on the state of reflected light when light is projected onto the target area, and an information acquisition apparatus suitable for use in the object detection apparatus.

従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。   Conventionally, object detection devices using light have been developed in various fields. An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction. In such an object detection apparatus, light in a predetermined wavelength band is projected from a laser light source or an LED (Light Emitting Diode) onto a target area, and the reflected light is received by a light receiving element such as a CMOS image sensor. Various types of distance image sensors are known.

所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、受光素子上におけるドットの受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、特許文献1、非特許文献1)。   In a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern, reflected light from the target region of laser light having a dot pattern is received by a light receiving element. Then, based on the light receiving position of the dot on the light receiving element, the distance to each part of the detection target object (irradiation position of each dot on the detection target object) is detected using triangulation (for example, Patent Literature 1, Non-Patent Document 1).

特開2012−32379号公報JP 2012-32379 A

第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−128019th Annual Conference of the Robotics Society of Japan (September 18-20, 2001) Proceedings, P1279-1280

上記物体検出装置では、あらかじめ、目標領域の所定の距離に反射平面が設置され、当該反射平面に照射したドットパターンを撮像した基準ドットパターンがメモリに保持される。この基準ドットパターンと、実動作時に撮像された実測ドットパターンとが照合される。具体的には、基準ドットパターンが所定の大きさのセグメント領域に分割され、当該セグメント領域に含まれるドットの、実測ドットパターン上における位置が、探索される。この探索では、セグメント領域中のドットと実測ドットパターン中のドットとのマッチング度合いが求められる。   In the object detection apparatus, a reflection plane is set in advance at a predetermined distance of the target area, and a reference dot pattern obtained by imaging the dot pattern irradiated on the reflection plane is held in the memory. This reference dot pattern is collated with the actually measured dot pattern captured during actual operation. Specifically, the reference dot pattern is divided into segment areas of a predetermined size, and the positions of the dots included in the segment areas on the measured dot pattern are searched. In this search, the degree of matching between the dots in the segment area and the dots in the measured dot pattern is obtained.

しかしながら、実動作時に撮像された実測ドットパターンには、部屋の床や壁等、物体検出装置からの距離が連続して変化するような面によって反射されたドットが含まれ得る。この場合、実測ドットパターンには、複数の距離にある面によって反射されたドットが含まれるため、一つのセグメント領域に対応する領域内に、異なる距離からのドットが含まれ得る。こうなると、セグメント領域中のドットと実測ドットパターン中のドットとのマッチングが不安定となり、距離取得を安定して行い得ない惧れがある。   However, the actually measured dot pattern captured during actual operation may include dots reflected by a surface such as a room floor or wall whose distance from the object detection device continuously changes. In this case, since the actually measured dot pattern includes dots reflected by the surfaces at a plurality of distances, dots from different distances can be included in an area corresponding to one segment area. If this happens, matching between the dots in the segment area and the dots in the measured dot pattern becomes unstable, and there is a possibility that distance acquisition cannot be performed stably.

本発明は、この点に鑑みてなされたものであり、距離検出を安定して行うことが可能な情報取得装置および物体検出装置を提供する。   The present invention has been made in view of this point, and provides an information acquisition device and an object detection device capable of stably performing distance detection.

本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、レーザ光源から出射されたレーザ光を所定のドットパターンで目標領域に投射する投射光学系と、前記投射光学系に対して所定の距離だけ横に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、実測時に前記イメージセンサにより撮像された実測ドットパターンとに基づいて、前記目標領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備える。前記距離取得部は、前記基準ドットパターンに設定されたセグメント領域の、前記実測ドットパターン上における変位位置を探索し、探索された前記変位位置に基づいて、当該セグメント領域に対する前記距離情報を取得する第1の処理ルートと、前記セグメント領域が分割された分割セグメント領域の、前記実測ドットパターン上における変位位置を探索し、探索された前記変位位置に基づいて、当該セグメント領域に対する前記距離情報を取得する第2の処理ルートと、を備える。前記距離取得部は、前記探索の際に前記セグメント領域と照合される、前記実測ドットパターン上の比較領域に、異なる距離の位置から反射されたドットが含まれるか否かを判定するための所定の判定条件が充足されるか否かに基づいて、前記第1の処理ルートと前記第2の処理ルートの何れか一方を選択して前記距離情報を取得する。   A first aspect of the present invention relates to an information acquisition device. The information acquisition apparatus according to this aspect is configured to project a laser beam emitted from a laser light source onto a target area with a predetermined dot pattern, and to be arranged laterally apart from the projection optical system by a predetermined distance. A light receiving optical system that images the target area with an image sensor, a reference dot pattern that is imaged by the light receiving optical system when the laser beam is irradiated onto a reference surface, and an image that is captured by the image sensor during measurement. A distance acquisition unit that acquires distance information related to a distance to an object included in the target area based on the measured dot pattern. The distance acquisition unit searches for a displacement position of the segment area set in the reference dot pattern on the measured dot pattern, and acquires the distance information for the segment area based on the searched displacement position. A displacement position on the measured dot pattern of the divided segment area obtained by dividing the first processing route and the segment area is searched, and the distance information with respect to the segment area is acquired based on the searched displacement position. And a second processing route. The distance acquisition unit is a predetermined unit for determining whether or not a dot reflected from a position at a different distance is included in a comparison area on the actual measurement dot pattern that is collated with the segment area during the search. The distance information is acquired by selecting either the first processing route or the second processing route based on whether or not the determination condition is satisfied.

本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置と、前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える。   A 2nd aspect of this invention is related with an object detection apparatus. The object detection device according to this aspect includes the information acquisition device according to the first aspect and an object detection unit that detects a predetermined target object based on the distance information.

本発明によれば、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information acquisition apparatus and object detection apparatus which can acquire distance information appropriately can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.

実施の形態に係る物体検出装置の構成を示す図である。It is a figure which shows the structure of the object detection apparatus which concerns on embodiment. 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus and information processing apparatus which concern on embodiment. 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。It is a figure which shows the irradiation state of the laser beam with respect to the target area | region which concerns on embodiment, and the light reception state of the laser beam on an image sensor. 実施の形態に係る参照パターンの生成方法を説明する図である。It is a figure explaining the production | generation method of the reference pattern which concerns on embodiment. 実施の形態に係る距離検出手法を説明する図である。It is a figure explaining the distance detection method which concerns on embodiment. 実施の形態に係る視差が複数含まれる状況を説明する図である。It is a figure explaining the situation where multiple parallaxes concerning an embodiment are included. 比較例に係る距離取得結果の例を示す図である。It is a figure which shows the example of the distance acquisition result which concerns on a comparative example. 実施の形態に係る距離取得部の機能ブロックとセグメント領域の分割例を示す図である。It is a figure which shows the example of a division | segmentation of the functional block and segment area | region of the distance acquisition part which concerns on embodiment. 実施の形態に係る複数視差の有無判定と距離取得の処理にかかるフローチャートである。It is a flowchart concerning the presence determination of multiple parallax and the process of distance acquisition which concern on embodiment. 実施の形態に係る距離取得結果の例を示す図である。It is a figure which shows the example of the distance acquisition result which concerns on embodiment. 実施の形態に係る距離取得の回路ブロックを示す図である。It is a figure which shows the circuit block of distance acquisition which concerns on embodiment. 変更例に係る複数視差の有無判定と距離取得の処理にかかるフローチャートである。It is a flowchart concerning the presence determination and distance acquisition processing of multiple parallaxes according to a modified example. 変更例に係るセグメント領域の分割例を示す図である。It is a figure which shows the example of a division | segmentation of the segment area | region which concerns on the example of a change. 変更例に係る複数視差の有無判定と距離取得の処理にかかるフローチャートである。It is a flowchart concerning the presence determination and distance acquisition processing of multiple parallaxes according to a modified example. 変更例に係る複数視差の有無判定と距離取得の処理にかかるフローチャートである。It is a flowchart concerning the presence determination and distance acquisition processing of multiple parallaxes according to a modified example.

以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態は、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置に本発明を適用したものである。   Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, the present invention is applied to an information acquisition apparatus of a type that irradiates a target area with laser light having a predetermined dot pattern.

まず、図1に本実施の形態に係る物体検出装置1の概略構成を示す。図示の如く、物体検出装置1は、情報取得装置2と、情報処理装置3とを備えている。テレビ4は、情報処理装置3からの信号によって制御される。   First, FIG. 1 shows a schematic configuration of an object detection apparatus 1 according to the present embodiment. As shown in the figure, the object detection device 1 includes an information acquisition device 2 and an information processing device 3. The television 4 is controlled by a signal from the information processing device 3.

情報取得装置2は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル5を介して情報処理装置3に送られる。   The information acquisition device 2 projects infrared light over the entire target area, and receives the reflected light with a CMOS image sensor, whereby the distance between each part of the object in the target area (hereinafter referred to as “three-dimensional distance information”). To get. The acquired three-dimensional distance information is sent to the information processing apparatus 3 via the cable 5.

情報処理装置3は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置3は、情報取得装置2から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ4を制御する。   The information processing device 3 is, for example, a television control controller, a game machine, a personal computer, or the like. The information processing device 3 detects an object in the target area based on the three-dimensional distance information received from the information acquisition device 2, and controls the television 4 based on the detection result.

たとえば、情報処理装置3は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置3がテレビ制御用のコントローラである場合、情報処理装置3には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ4に制御信号を出力するアプリケーションプログラムがインストールされている。   For example, the information processing device 3 detects a person based on the received three-dimensional distance information and detects the movement of the person from the change in the three-dimensional distance information. For example, when the information processing device 3 is a television control controller, the information processing device 3 detects the person's gesture from the received three-dimensional distance information and outputs a control signal to the television 4 in accordance with the gesture. The application program to be installed is installed.

また、たとえば、情報処理装置3がゲーム機である場合、情報処理装置3には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。   For example, when the information processing device 3 is a game machine, the information processing device 3 detects the person's movement from the received three-dimensional distance information, and displays a character on the television screen according to the detected movement. An application program that operates and changes the game battle situation is installed.

図2は、情報取得装置2と情報処理装置3の構成を示す図である。   FIG. 2 is a diagram illustrating the configuration of the information acquisition device 2 and the information processing device 3.

情報取得装置2は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置2に配置される。   The information acquisition apparatus 2 includes a projection optical system 100 and a light receiving optical system 200 as a configuration of the optical unit. The projection optical system 100 and the light receiving optical system 200 are arranged in the information acquisition device 2 so as to be aligned in the X-axis direction.

投射光学系100は、レーザ光源110と、コリメータレンズ120と、ミラー130と、回折光学素子(DOE:Diffractive Optical Element)140を備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。   The projection optical system 100 includes a laser light source 110, a collimator lens 120, a mirror 130, and a diffractive optical element (DOE) 140. The light receiving optical system 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240. In addition, the information acquisition apparatus 2 includes a CPU (Central Processing Unit) 21, a laser driving circuit 22, an imaging signal processing circuit 23, an input / output circuit 24, and a memory 25 as a circuit unit.

レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を略平行光に変換する。   The laser light source 110 outputs laser light in a narrow wavelength band having a wavelength of about 830 nm in a direction away from the light receiving optical system 200 (X-axis negative direction). The collimator lens 120 converts the laser light emitted from the laser light source 110 into substantially parallel light.

ミラー130は、コリメータレンズ120側から入射されたレーザ光をDOE140に向かう方向(Z軸方向)に反射する。   The mirror 130 reflects the laser light incident from the collimator lens 120 side in the direction toward the DOE 140 (Z-axis direction).

DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、所定のドットパターンのレーザ光に変換されて、目標領域に照射される。   The DOE 140 has a diffraction pattern on the incident surface. Due to the diffractive action of this diffraction pattern, the laser light incident on the DOE 140 is converted into laser light having a predetermined dot pattern and irradiated onto the target area.

DOE140の回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により略平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。DOE140は、ミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。   The diffraction pattern of the DOE 140 has, for example, a structure in which a step type diffraction hologram is formed in a predetermined pattern. The diffraction hologram is adjusted in pattern and pitch so as to convert the laser light that has been made substantially parallel light by the collimator lens 120 into a laser light having a dot pattern. The DOE 140 irradiates the target region with the laser beam incident from the mirror 130 as a laser beam having a dot pattern that spreads radially.

目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。   The laser light reflected from the target area enters the imaging lens 220 via the aperture 210.

アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするバンドパスフィルタである。   The aperture 210 stops the light from the outside so as to match the F number of the imaging lens 220. The imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240. The filter 230 is a band-pass filter that transmits light in the infrared wavelength band including the emission wavelength (about 830 nm) of the laser light source 110 and cuts the wavelength band of visible light.

CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。   The CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal (charge) corresponding to the amount of received light to the imaging signal processing circuit 23 for each pixel. Here, in the CMOS image sensor 240, the output speed of the signal is increased so that the signal (charge) of the pixel can be output to the imaging signal processing circuit 23 with high response from the light reception in each pixel.

CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離取得部21bの機能が付与される。   The CPU 21 controls each unit according to a control program stored in the memory 25. With this control program, the CPU 21 is provided with the functions of a laser control unit 21a for controlling the laser light source 110 and a distance acquisition unit 21b for generating three-dimensional distance information.

レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。   The laser drive circuit 22 drives the laser light source 110 according to a control signal from the CPU 21.

撮像信号処理回路23は、CMOSイメージセンサ240を制御して、所定の撮像間隔で、CMOSイメージセンサ240により生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置2から検出対象物の各部までの距離を、距離取得部21bによる処理によって算出する。入出力回路24は、情報処理装置3とのデータ通信を制御する。   The imaging signal processing circuit 23 controls the CMOS image sensor 240 to sequentially take in the signal (charge) of each pixel generated by the CMOS image sensor 240 for each line at a predetermined imaging interval. Then, the captured signals are sequentially output to the CPU 21. Based on the signal (imaging signal) supplied from the imaging signal processing circuit 23, the CPU 21 calculates the distance from the information acquisition device 2 to each part of the detection target by processing by the distance acquisition unit 21b. The input / output circuit 24 controls data communication with the information processing device 3.

情報処理装置3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置3には、同図に示す構成の他、テレビ4との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。   The information processing apparatus 3 includes a CPU 31, an input / output circuit 32, and a memory 33. In addition to the configuration shown in the figure, the information processing apparatus 3 is configured to communicate with the television 4 and to read information stored in an external memory such as a CD-ROM and install it in the memory 33. However, the configuration of these peripheral circuits is not shown for the sake of convenience.

CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aと、物体の動きに応じて、テレビ4の機能を制御するための機能制御部31bの機能が付与される。かかる制御プログラムは、たとえば、
図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
The CPU 31 controls each unit according to a control program (application program) stored in the memory 33. With this control program, the CPU 31 is provided with the functions of an object detection unit 31a for detecting an object in the image and a function control unit 31b for controlling the function of the television 4 according to the movement of the object. . Such a control program is, for example,
It is read from the CD-ROM by a drive device (not shown) and installed in the memory 33.

物体検出部31aは、情報取得装置2から供給される3次元距離情報から画像中の物体の形状を抽出し、抽出した物体形状の動きを検出する。ここで、物体検出部31aは、距離に関する閾値を基に、情報取得装置2から供給される3次元距離情報から物体の平面形状のみを抽出するため、2値化画像を生成する。その後、生成した2値化画像と、メモリ33に格納された物体形状を抽出するための物体形状抽出テンプレートとの比較を行い、動きの抽出対象となる物体形状と3次元距離情報中の物体形状の中心位置を特定する。物体検出部31aは、こうして、特定した物体形状の中心位置の距離情報を、所定時間ごとに追跡することによって、物体の動きを検出する。   The object detection unit 31a extracts the shape of the object in the image from the three-dimensional distance information supplied from the information acquisition device 2, and detects the movement of the extracted object shape. Here, the object detection unit 31a generates a binarized image in order to extract only the planar shape of the object from the three-dimensional distance information supplied from the information acquisition device 2 based on the threshold regarding the distance. Thereafter, the generated binarized image is compared with the object shape extraction template for extracting the object shape stored in the memory 33, and the object shape to be extracted from the motion and the object shape in the three-dimensional distance information are compared. Specify the center position of. In this way, the object detection unit 31a detects the movement of the object by tracking the distance information of the center position of the specified object shape every predetermined time.

たとえば、制御プログラムがゲームプログラムである場合、機能制御部31bは、物体検出部31aによって検出された人の動き(ジェスチャ)に応じてテレビ画面上のキャラクタを動作させるための処理を実行する。また、制御プログラムがテレビ4の機能を制御するためのプログラムである場合、機能制御部31bは、物体検出部31aから人の動き(ジェスチャ)に応じた信号に基づき、テレビ4の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理を実行する。   For example, when the control program is a game program, the function control unit 31b executes a process for operating a character on the television screen in accordance with a human movement (gesture) detected by the object detection unit 31a. When the control program is a program for controlling the function of the television 4, the function control unit 31 b performs the function (channel switching) of the television 4 based on a signal from the object detection unit 31 a according to a person's movement (gesture). And volume adjustment, etc.) are executed.

入出力回路32は、情報取得装置2とのデータ通信を制御する。   The input / output circuit 32 controls data communication with the information acquisition device 2.

投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。投射光学系100と受光光学系200の設置間隔は、情報取得装置2と目標領域の基準面との距離に応じて、設定される。   The projection optical system 100 and the light receiving optical system 200 are installed side by side with a predetermined distance in the X axis direction so that the projection center of the projection optical system 100 and the imaging center of the light receiving optical system 200 are aligned on a straight line parallel to the X axis. Is done. The installation interval between the projection optical system 100 and the light receiving optical system 200 is set according to the distance between the information acquisition device 2 and the reference plane of the target area.

次に、情報取得装置2による3次元距離情報の取得方法について説明する。   Next, a method for acquiring three-dimensional distance information by the information acquisition device 2 will be described.

図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図3(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、図3(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。   FIG. 3A is a diagram schematically showing the irradiation state of the laser light on the target region, and FIG. 3B is a diagram schematically showing the light receiving state of the laser light in the CMOS image sensor 240. For convenience, FIG. 3B shows a flat surface (screen) in the target area and a light receiving state when a person is present in front of the screen.

図3(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図3(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用により生成されるドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。   As shown in FIG. 3A, the projection optical system 100 irradiates a target region with laser light having a dot pattern (hereinafter, the entire laser light having this pattern is referred to as “DP light”). . In FIG. 3A, the light flux region of DP light is indicated by a solid line frame. In the light flux of DP light, dot regions (hereinafter simply referred to as “dots”) generated by the diffraction action by the DOE 140 are scattered according to the dot pattern by the diffraction action by the DOE 140.

目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図3(b)のように、CMOSイメージセンサ240上に分布する。   When a flat surface (screen) exists in the target area, DP light reflected thereby is distributed on the CMOS image sensor 240 as shown in FIG.

図3(b)には、CMOSイメージセンサ240上のDP光の全受光領域が破線の枠によって示され、CMOSイメージセンサ240の撮像有効領域に入射するDP光の受光領域が実線の枠によって示されている。CMOSイメージセンサ240の撮像有効領域は、CMOSイメージセンサ240がDP光を受光した領域のうち、センサとして信号を出力する領域であり、たとえば、VGA(横640画素×縦480画素)のサイズである。また、同図(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、同図(b)に示すDt’0の位置に入射する。スクリーンの前の人物の像は、C
MOSイメージセンサ240上では、上下左右が反転して撮像される。
In FIG. 3B, the entire DP light receiving area on the CMOS image sensor 240 is indicated by a broken line frame, and the DP light receiving area incident on the imaging effective area of the CMOS image sensor 240 is indicated by a solid line frame. Has been. The effective imaging area of the CMOS image sensor 240 is an area where the CMOS image sensor 240 receives a DP light and outputs a signal as a sensor, and has a size of, for example, VGA (horizontal 640 pixels × vertical 480 pixels). . In addition, the light of Dt0 on the target area shown in FIG. 9A enters the position of Dt′0 shown in FIG. The figure of the person in front of the screen is C
On the MOS image sensor 240, imaging is performed with the top, bottom, left and right reversed.

ここで、図4、図5を参照して、上記距離検出の方法を説明する。   Here, the distance detection method will be described with reference to FIGS.

図4は、上記距離検出手法に用いられる参照パターンの設定方法を説明する図である。   FIG. 4 is a diagram for explaining a reference pattern setting method used in the distance detection method.

図4(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、撮像有効領域内の画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ25上に展開される。   As shown in FIG. 4A, a flat reflection plane RS perpendicular to the Z-axis direction is disposed at a position at a predetermined distance Ls from the projection optical system 100. The emitted DP light is reflected by the reflection plane RS and enters the CMOS image sensor 240 of the light receiving optical system 200. Thereby, an electrical signal for each pixel in the effective imaging area is output from the CMOS image sensor 240. The output electric signal value (pixel value) for each pixel is developed on the memory 25 of FIG.

以下、反射面RSからの反射によって得られた全画素値からなる画像を、「基準画像」、反射面RSを「基準面」と称する。そして、図4(b)に示すように、基準画像上に、「参照パターン領域」が設定される。なお、図4(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。図5以降の図においても同様である。   Hereinafter, an image including all pixel values obtained by reflection from the reflection surface RS is referred to as a “reference image”, and the reflection surface RS is referred to as a “reference surface”. Then, as shown in FIG. 4B, a “reference pattern region” is set on the standard image. FIG. 4B shows a state in which the light receiving surface is seen through in the positive direction of the Z axis from the back side of the CMOS image sensor 240. The same applies to the drawings after FIG.

こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。セグメント領域の大きさは、得られる距離情報による物体の輪郭抽出精度、CPU21に対する距離検出の演算量の負荷および後述する距離検出手法によるエラー発生率を考慮して決定される。   A plurality of segment areas having a predetermined size are set for the reference pattern area set in this way. The size of the segment area is determined in consideration of the contour extraction accuracy of the object based on the obtained distance information, the load of the calculation amount of distance detection for the CPU 21, and the error occurrence rate by the distance detection method described later.

図4(c)を参照して、参照パターン領域に設定されるセグメント領域について説明する。なお、図4(c)には、便宜上、各セグメント領域の大きさが横9画素×縦9画素で示され、各セグメント領域の中央の画素が×印で示されている。   With reference to FIG.4 (c), the segment area | region set to a reference pattern area | region is demonstrated. In FIG. 4C, for the sake of convenience, the size of each segment area is indicated by 9 pixels wide × 9 pixels high, and the center pixel of each segment area is indicated by a cross.

セグメント領域は、図4(c)に示すように、隣り合うセグメント領域が参照パターン領域に対してX軸方向およびY軸方向に1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。隣り合うセグメント領域の間隔が狭いほど、参照パターン領域内に含まれるセグメント領域の数が多くなり、目標領域の面内方向(X−Y平面方向)における距離検出の分解能が高められる。   As shown in FIG. 4C, the segment areas are set such that adjacent segment areas are arranged at intervals of one pixel in the X-axis direction and the Y-axis direction with respect to the reference pattern area. That is, a certain segment area is set at a position shifted by one pixel with respect to a segment area adjacent to the segment area in the X-axis direction and the Y-axis direction. At this time, each segment area is dotted with dots in a unique pattern. Therefore, the pattern of pixel values in the segment area is different for each segment area. The narrower the interval between adjacent segment areas, the greater the number of segment areas included in the reference pattern area, and the resolution of distance detection in the in-plane direction (XY plane direction) of the target area is enhanced.

こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ25に記憶される。メモリ25に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。   Thus, information on the position of the reference pattern area on the CMOS image sensor 240, pixel values (reference patterns) of all pixels included in the reference pattern area, and segment area information set for the reference pattern area are shown in FIG. 2 memory 25. These pieces of information stored in the memory 25 are hereinafter referred to as “reference templates”.

図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。   The CPU 21 in FIG. 2 refers to the reference template when calculating the distance from the projection optical system 100 to each part of the detection target object. When calculating the distance, the CPU 21 calculates the distance to each part of the object based on the shift amount of the dot pattern in each segment area obtained from the reference template.

たとえば、図4(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の
変位方向はX軸に平行となる。図4(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
For example, as shown in FIG. 4A, when an object is present at a position closer than the distance Ls, DP light (DPn) corresponding to a predetermined segment area Sn on the reference pattern is reflected by the object, and the segment area Sn. It is incident on a different region Sn ′. Since the projection optical system 100 and the light receiving optical system 200 are adjacent to each other in the X-axis direction, the displacement direction of the region Sn ′ with respect to the segment region Sn is parallel to the X-axis. In the case of FIG. 4A, since the object is at a position closer than the distance Ls, the region Sn ′ is displaced in the positive direction of the X axis with respect to the segment region Sn. If the object is at a position farther than the distance Ls, the region Sn ′ is displaced in the negative X-axis direction with respect to the segment region Sn.

セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。   Based on the displacement direction and displacement amount of the region Sn ′ with respect to the segment region Sn, the distance Lr from the projection optical system 100 to the part of the object irradiated with DP light (DPn) is triangulated using the distance Ls. Calculated based on Similarly, the distance from the projection optical system 100 is calculated for the part of the object corresponding to another segment area. The details of this calculation method are described in, for example, Non-Patent Document 1 (The 19th Annual Conference of the Robotics Society of Japan (September 18-20, 2001) Proceedings, P1279-1280).

かかる距離算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。以下、実測時にCMOSイメージセンサ240上の撮像有効領域に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。実測時のCMOSイメージセンサ240の撮像有効領域は、基準画像取得時と同様に、たとえば、VGA(横640画素×縦480画素)のサイズである。   In this distance calculation, it is detected to which position the segment area Sn of the reference template has been displaced during actual measurement. This detection is performed by collating the dot pattern obtained from the DP light irradiated onto the CMOS image sensor 240 at the time of actual measurement with the dot pattern included in the segment region Sn. Hereinafter, an image made up of all the pixel values obtained from the DP light irradiated to the imaging effective area on the CMOS image sensor 240 at the time of actual measurement will be referred to as “measured image”. The effective imaging area of the CMOS image sensor 240 at the time of actual measurement is, for example, the size of VGA (horizontal 640 pixels × vertical 480 pixels), as in the case of acquiring the reference image.

図5(a)〜(e)は、かかる距離検出の手法を説明する図である。図5(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図5(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図5(c)〜(e)は、実測画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、便宜上、図5(a)、(b)には、一部のセグメント領域のみが示されており、図5(c)〜(e)には、各セグメント領域の大きさが、横9画素×縦9画素で示されている。また、図5(b)の実測画像には、便宜上、図4(b)のように、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。   FIGS. 5A to 5E are diagrams for explaining such a distance detection method. FIG. 5A is a diagram showing a reference pattern area set in a standard image on the CMOS image sensor 240, and FIG. 5B is a diagram showing an actually measured image on the CMOS image sensor 240 at the time of actual measurement. FIG. 5C to FIG. 5E are diagrams for explaining a collation method between the DP light dot pattern included in the actual measurement image and the dot pattern included in the segment area of the reference template. For convenience, FIGS. 5 (a) and 5 (b) show only a part of the segment areas, and FIGS. 5 (c) to 5 (e) show the size of each segment area. It is shown by pixel × 9 pixels vertically. 5B, for the sake of convenience, as shown in FIG. 4B, there is a person in front of the reference plane as a detection target object, and an image of the person is reflected. It is shown.

図5(a)のセグメント領域Siの実測時における変位位置を探索する場合、図5(b)に示すように、実測画像上に、セグメント領域Siに対して探索領域Riが設定される。探索領域Riは、X軸方向に所定の幅を持っている。セグメント領域Siが探索領域Riにおいて1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siのドットパターンと実測画像上のドットパターンとが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索領域Riには、セグメント領域Siと同じサイズの比較領域が複数設定され、X軸方向に隣り合う比較領域は互いに1画素ずれている。   When searching for the displacement position at the time of actual measurement of the segment area Si in FIG. 5A, as shown in FIG. 5B, the search area Ri is set for the segment area Si on the actual measurement image. The search area Ri has a predetermined width in the X-axis direction. The segment area Si is sent one pixel at a time in the search area Ri in the X-axis direction, and the dot pattern of the segment area Si is compared with the dot pattern on the measured image at each feed position. Hereinafter, a region corresponding to each feed position on the actually measured image is referred to as a “comparison region”. A plurality of comparison areas having the same size as the segment area Si are set in the search area Ri, and the comparison areas adjacent in the X-axis direction are shifted by one pixel from each other.

図5(d)では、基準画像上のセグメント領域Siの画素位置に対応する実測画像上の画素位置(中心画素位置)から、X軸負方向にx画素ずれた位置からX軸正方向にx画素ずれた範囲(以下、「探索範囲L0」という)においてセグメント領域Siが送られるように探索領域Riが設定されている。   In FIG. 5D, the pixel position (center pixel position) on the measured image corresponding to the pixel position of the segment region Si on the reference image is shifted from the position shifted by x pixels in the X axis negative direction to x in the X axis positive direction. The search area Ri is set so that the segment area Si is sent in a pixel shifted range (hereinafter referred to as “search range L0”).

距離検出時には、探索領域Riにおいてセグメント領域SiをX軸方向に1画素ずつ送りながら、各送り位置において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、実測画像のDP光のドットパターンのマッチング度合いが求められる。このようにセグメント領域Siを探索領域Ri内においてX軸方向にのみ送るのは、上記のように、通常、参照テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。   At the time of distance detection, the segment area Si is fed one pixel at a time in the X-axis direction in the search area Ri, and at each feed position, the dot pattern of the segment area Si stored in the reference template and the dot pattern of the DP light of the measured image The degree of matching is required. As described above, the segment area Si is sent only in the X-axis direction in the search area Ri as described above. Normally, the dot pattern of the segment area set by the reference template is a predetermined value in the X-axis direction at the time of actual measurement. This is because the displacement occurs only within the range.

なお、実測時には、検出対象物体の位置によっては、セグメント領域に対応するドットパターンが実測画像からX軸方向にはみ出すことが起こり得る。この場合、セグメント領域に対応するドットパターンは、CMOSイメージセンサ240の撮像有効領域内にないため、このセグメント領域については、適正にマッチングを行うことができない。しかし、このような端のセグメント領域以外については、適正にマッチングを行うことができるため、物体の距離検出への影響は少ない。   At the time of actual measurement, depending on the position of the detection target object, the dot pattern corresponding to the segment area may protrude from the actual measurement image in the X-axis direction. In this case, since the dot pattern corresponding to the segment area is not within the effective imaging area of the CMOS image sensor 240, the segment area cannot be properly matched. However, since it is possible to perform matching appropriately in areas other than the end segment areas, there is little influence on object distance detection.

なお、端の領域についても、適正にマッチングを行う場合には、実測時のCMOSイメージセンサ240の撮像有効領域を、基準画像取得時のCMOSイメージセンサ240の撮像有効領域よりも、大きくすることができるものを用いれば良い。これにより、実測画像が基準画像よりも大きくなるが、端のセグメント領域についても、適正にマッチングを行うことができる。   In addition, when matching is performed appropriately for the end region, the effective imaging region of the CMOS image sensor 240 at the time of actual measurement may be made larger than the effective imaging region of the CMOS image sensor 240 at the time of acquiring the reference image. What can be used should be used. As a result, the actually measured image becomes larger than the reference image, but matching can be appropriately performed for the end segment area.

上記マッチング度合いの検出時には、まず、参照パターン領域の各画素の画素値と実測画像の各セグメント領域の各画素の画素値の階調数が減少される。たとえば、基準画像および実測画像の画素値が8ビットの階調の場合、0〜255の画素値が、0〜12の画素値に変換される。そして、変換された画素値がメモリ25に保持される。その後、比較領域とセグメント領域Siとの間の類似度が求められる。すなわち、セグメント領域Siの各画素の画素値と、比較領域の対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。   When detecting the matching degree, first, the number of gradations of the pixel value of each pixel in the reference pattern area and the pixel value of each pixel in each segment area of the actually measured image is reduced. For example, when the pixel values of the reference image and the actually measured image are 8-bit gradation, the pixel values of 0 to 255 are converted into the pixel values of 0 to 12. Then, the converted pixel value is held in the memory 25. Thereafter, the similarity between the comparison region and the segment region Si is obtained. That is, the difference between the pixel value of each pixel in the segment area Si and the pixel value of the corresponding pixel in the comparison area is obtained. A value Rsad obtained by adding the obtained difference to all the pixels in the comparison region is acquired as a value indicating the similarity.

たとえば、図5(c)のように、一つのセグメント領域中に、n列×m行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図5(c)に示す式の値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。   For example, as shown in FIG. 5C, when pixels in n columns × m rows are included in one segment area, the pixel values T (i, j) of the pixels in i columns and j rows in the segment area. ) And the pixel value I (i, j) of the pixel in the comparison area i column and j row. Then, the difference is obtained for all the pixels in the segment area, and the value Rsad of the equation shown in FIG. 5C is obtained from the sum of the differences. The smaller the value Rsad, the higher the degree of similarity between the segment area and the comparison area.

こうして、図5(d)に示すように、セグメント領域Siについて、探索領域Riの全ての比較領域に対して値Rsadが求められる。   Thus, as shown in FIG. 5D, the value Rsad is obtained for all the comparison regions of the search region Ri for the segment region Si.

図5(e)は、探索領域Riの各送り位置における値Rsadが模式的に示されたグラフである。セグメント領域Siについて、探索領域Riの全ての比較領域に対して値Rsadが求められると、まず、求めた値Rsadの中から、最小値B1が参照される。次に、求めた値Rsadの2番目に小さい値B2が参照される。2番目に小さい値B2と最小値B1の比の大きさが所定の閾値以下であれば、セグメント領域Siの探索はエラーとされる。他方、2番目に小さい値B2と最小値B1の比の大きさが閾値を超える場合、最小値B1に対応する比較領域Ciがセグメント領域Siの移動領域と判定される。   FIG. 5E is a graph schematically showing the value Rsad at each feed position in the search area Ri. When the value Rsad is obtained for all the comparison regions of the search region Ri for the segment region Si, first, the minimum value B1 is referred to from the obtained value Rsad. Next, the second smallest value B2 of the obtained value Rsad is referred to. If the ratio between the second smallest value B2 and the minimum value B1 is equal to or smaller than a predetermined threshold value, the search for the segment region Si is considered as an error. On the other hand, when the ratio of the second smallest value B2 and the minimum value B1 exceeds the threshold value, the comparison area Ci corresponding to the minimum value B1 is determined as the movement area of the segment area Si.

たとえば、図5(d)のように、セグメント領域Siに対応する比較領域Ciは、基準画像上のセグメント領域Siの画素位置と同位置の実測画像上の画素位置Si0よりもX軸正方向にα画素ずれた位置で検出される。これは、基準面よりも近い位置に存在する検出対象物体(人物)によって、実測画像上のDP光のドットパターンが基準画像上のセグメント領域Si0よりもX軸正方向に変位したためである。   For example, as shown in FIG. 5D, the comparison area Ci corresponding to the segment area Si is in the positive direction of the X axis with respect to the pixel position Si0 on the measured image at the same position as the pixel position of the segment area Si on the reference image. It is detected at a position shifted by α pixels. This is because the dot pattern of the DP light on the measured image is displaced in the X-axis positive direction from the segment area Si0 on the reference image by a detection target object (person) that is present at a position closer to the reference plane.

こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。   Thus, when the displacement position of each segment region is searched from the dot pattern of DP light acquired at the time of actual measurement, detection corresponding to each segment region is performed by triangulation based on the displacement position as described above. The distance to the part of the target object is obtained.

このようにして、セグメント領域S1〜セグメント領域Snまで全てのセグメント領域について、上記同様のセグメント領域の探索が行われる。   In this manner, the same segment area search is performed for all the segment areas from the segment area S1 to the segment area Sn.

情報取得装置2は、上記のようにして取得された各セグメント領域に対応する検出対象物体までの距離を白から黒の階調で表現された画素値に割り当てた画像として、情報処理装置3に出力する。以下、各セグメント領域に対応する距離を画素値で表現した画像を「距離画像」と称する。上記のように、本実施の形態では、セグメント領域は、基準画像の参照パターン領域に対して、1画素間隔で設定されるため、距離画像は、基準画像と略同様のVGAサイズの解像度(略640×略480)を有する。   The information acquisition device 2 provides the information processing device 3 as an image in which the distance to the detection target object corresponding to each segment area acquired as described above is assigned to pixel values expressed in white to black gradations. Output. Hereinafter, an image in which a distance corresponding to each segment area is expressed by a pixel value is referred to as a “distance image”. As described above, in the present embodiment, since the segment area is set at an interval of one pixel with respect to the reference pattern area of the standard image, the distance image has a resolution (substantially approximately the same VGA size as the standard image). 640 × approximately 480).

なお、上記のマッチング度合いの検出方法は一例であり、これに限られるものではない。たとえば、上記では、セグメント領域Siのエラー検出の方法として、値Rsadの2番目に小さい値B2と最小値B1の比の大きさが用いられたが、全ての比較領域について求めた値Rsadの平均値Baと最小値B1との比(B1/Ba)が所定の閾値以下のときにエラーと判定する手法が用いられても良く、または、最小値B1の大きさが所定の閾値以下のときにエラーと判定する手法が用いられても良い。   Note that the above matching degree detection method is an example, and the present invention is not limited to this. For example, in the above description, as the error detection method for the segment region Si, the ratio of the second smallest value B2 and the minimum value B1 of the value Rsad is used, but the average of the values Rsad obtained for all the comparison regions is used. A method may be used in which an error is determined when the ratio (B1 / Ba) between the value Ba and the minimum value B1 is equal to or smaller than a predetermined threshold value, or when the size of the minimum value B1 is equal to or smaller than a predetermined threshold value. A technique for determining an error may be used.

図6(a)は、室内で撮像された実測画像を示す模式図、図6(b)は、投射光学系100と受光光学系200をX軸方向から見た模式図である。図6(a)には、基準面よりも近距離にある床の位置の比較領域Cgと、基準面よりも近距離にある壁の位置の比較領域Cwが示されている。また、図6(b)には、比較領域Cgに対応する床の領域Cg’が示されている。比較領域Cg、Cwには、基準画像中のドットの位置が破線の白丸で示されており、実測画像中におけるドットの位置が黒丸で示されている。なお、図6(b)の投射光学系100と受光光学系200は、便宜上、Y軸方向、Z軸方向にずれて示されているが、実際は、X軸方向に直線状に並んでいる。   FIG. 6A is a schematic diagram showing an actually measured image captured indoors, and FIG. 6B is a schematic diagram of the projection optical system 100 and the light receiving optical system 200 viewed from the X-axis direction. FIG. 6A shows a comparison region Cg of the floor position at a shorter distance than the reference surface and a comparison region Cw of the wall position at a shorter distance than the reference surface. FIG. 6B shows a floor area Cg ′ corresponding to the comparison area Cg. In the comparison areas Cg and Cw, the positions of the dots in the reference image are indicated by broken white circles, and the positions of the dots in the measured image are indicated by black circles. Note that the projection optical system 100 and the light receiving optical system 200 in FIG. 6B are shown as being shifted in the Y-axis direction and the Z-axis direction for convenience, but are actually arranged in a straight line in the X-axis direction.

図6(a)の実測画像では、人物とともに、部屋の天井と、床と、壁が写り込んでいる。比較領域Cgの上半分は、図6(b)の領域Cg’の上半分(奥側)を撮像したものであり、比較領域Cgの下半分は、領域Cg’の下半分(手前側)を撮像したものである。ここで、領域Cg’の手前側(Z軸負側)は奥側(Z軸正側)よりも基準面から離れている。上述したように、物体が基準面から離れるほど、ドットの左右方向(X軸方向)の変位量は大きくなる。このため、図6(a)の実測画像中において、比較領域Cgの下半分に含まれるドットDt2の変位量D2は、比較領域Cgの上半分に含まれるドットDt1の変位量D1よりも大きくなる。また、同様に、比較領域Cwの右半分に含まれるドットDt4の変位量D4は、比較領域Cwの左半分に含まれるドットDt3の変位量D3よりも大きくなる。   In the actual measurement image of FIG. 6A, the ceiling of the room, the floor, and the wall are reflected together with the person. The upper half of the comparison area Cg is an image of the upper half (back side) of the area Cg ′ in FIG. 6B, and the lower half of the comparison area Cg is the lower half (front side) of the area Cg ′. It is what was imaged. Here, the front side (Z-axis negative side) of the region Cg ′ is farther from the reference plane than the back side (Z-axis positive side). As described above, the displacement of the dot in the left-right direction (X-axis direction) increases as the object moves away from the reference plane. For this reason, in the actually measured image of FIG. 6A, the displacement amount D2 of the dot Dt2 included in the lower half of the comparison region Cg is larger than the displacement amount D1 of the dot Dt1 included in the upper half of the comparison region Cg. . Similarly, the displacement amount D4 of the dot Dt4 included in the right half of the comparison region Cw is larger than the displacement amount D3 of the dot Dt3 included in the left half of the comparison region Cw.

以下、実測時に取得されたドットの、基準画像中の対応する位置からの変位量を視差と称する。また、比較領域内において、視差の差が1画素を超える場合を、複数の視差があるという。   Hereinafter, the amount of displacement of the dot acquired during actual measurement from the corresponding position in the reference image is referred to as parallax. Further, when the difference in parallax exceeds one pixel in the comparison area, it is referred to as a plurality of parallaxes.

このように、床の位置の比較領域Cgに含まれるドットの変位量は、図6(a)中、上側(Y軸負側)ほど小さく、下側(Y軸正側)に近いほど大きくなる。また、壁の位置の比較領域Cwに含まれるドットの変位量は、図6(a)中、左側(X軸負側)ほど小さく、右側(X軸正側)ほど大きくなる。   As described above, the amount of displacement of the dots included in the comparison region Cg of the floor position is smaller on the upper side (Y-axis negative side) in FIG. 6A and larger on the lower side (Y-axis positive side). . Further, in FIG. 6A, the displacement amount of dots included in the wall position comparison region Cw is smaller on the left side (X-axis negative side) and larger on the right side (X-axis positive side).

床や壁のように、基準面(XY平面)に対して傾きを有する面の位置に対応する比較領域には、異なる距離の位置から反射されたドットが含まれている。したがって、この場合、探索範囲中の比較領域のうち、セグメント領域に対応する比較領域には、複数の視差が
含まれる可能性がある。
The comparison area corresponding to the position of a surface that is inclined with respect to the reference surface (XY plane), such as a floor or a wall, includes dots reflected from positions at different distances. Therefore, in this case, among the comparison areas in the search range, the comparison area corresponding to the segment area may include a plurality of parallaxes.

図7(a)〜図7(c)は、一つの比較領域に複数の視差が含まれている場合に、所定の大きさのセグメント領域でドットパターンをマッチングする場合の比較例を示す図である。図7(a)は、比較例の場合における値Rsadの分布例を示すグラフ、図7(b)、図7(c)は、比較例の場合に得られる距離情報の例を模式的に示す図である。なお、図7(a)には、便宜上、正の範囲の横軸のみが示されているが、実際には、図5(e)に示すように、負の範囲の横軸も存在する。また、図7(b)、図7(c)には、距離画像の一部が示されており、一つの升目は、距離画像の一つの画素に対応する。各升目において、黒はエラー、濃いハッチングは遠距離、薄いハッチングは近距離を示している。   FIGS. 7A to 7C are diagrams illustrating a comparative example in the case where dot patterns are matched in a segment area having a predetermined size when a plurality of parallaxes are included in one comparison area. is there. FIG. 7A is a graph showing an example of the distribution of the value Rsad in the case of the comparative example, and FIGS. 7B and 7C schematically show examples of distance information obtained in the case of the comparative example. FIG. In FIG. 7A, for the sake of convenience, only the horizontal axis in the positive range is shown, but actually, as shown in FIG. 5E, the horizontal axis in the negative range also exists. 7B and 7C show a part of the distance image, and one cell corresponds to one pixel of the distance image. In each cell, black indicates an error, dark hatching indicates a long distance, and light hatching indicates a short distance.

比較領域内に複数の視差が含まれる場合に、所定の大きさのセグメント領域で値Rsadを算出すると、図7(a)に示すように、複数の位置N1、N2で値Rsadが小さくなる。たとえば、図6(a)の手前側の床によって反射されたドットは、図7(a)の例では、画素ずれ量8で実測画像のドットとマッチングし、奥側の床によって反射されたドットは、画素ずれ量10の位置で実測画像のドットとマッチングする。したがって、図7(a)のグラフでは、それぞれのマッチングによって得られる値Rsadが重畳し、このため、画素ずれ量8と10の2つの位置で値Rsadが小さくなっている。なお、図7(a)の例では、位置N1において、値Rsadが最も小さくなっているが、場合によっては、位置N2において、値Rsadが最も小さくなることが起こり得る。   When a value Rsad is calculated in a segment area having a predetermined size when a plurality of parallaxes are included in the comparison area, the value Rsad is reduced at a plurality of positions N1 and N2, as shown in FIG. For example, in the example of FIG. 7A, the dot reflected by the floor on the near side in FIG. 6A matches the dot in the measured image with a pixel shift amount of 8, and is reflected by the floor on the back side. Matches the dot of the measured image at the position of the pixel shift amount 10. Therefore, in the graph of FIG. 7A, the value Rsad obtained by each matching is superimposed, and therefore the value Rsad is small at two positions of the pixel shift amounts 8 and 10. In the example of FIG. 7A, the value Rsad is the smallest at the position N1, but in some cases, the value Rsad may be the smallest at the position N2.

こうなると、実際には、探索方向(X軸方向)に同距離で連続している床であっても、図7(b)に示すように、奥側の床(遠距離)の距離情報と手前側の床(近距離)の距離情報が、探索方向に混在することが起こり得る。   In this case, in fact, even if the floor is continuous at the same distance in the search direction (X-axis direction), as shown in FIG. It is possible that distance information on the near floor (short distance) is mixed in the search direction.

また、一つの比較領域内に複数の視差が含まれると、比較領域内におけるドットの相対位置にズレが生じるため、比較領域内のドットがセグメント領域内のドットにマッチングし難くなる。たとえば、図7(a)の例では、セグメント領域内のドットのうち、値B2の位置(画素ずれ8)で実測画像のドットとマッチングするドットは、通常、最小値B1の位置(画素ずれ10)では、実測画像のドットとマッチングしない。このため、最小値B1は比較的大きくなり、2番目に小さい値B2と最小値B1の比もかなり小さいものとなる。   In addition, when a plurality of parallaxes are included in one comparison area, the relative positions of the dots in the comparison area are displaced, so that it is difficult for the dots in the comparison area to match the dots in the segment area. For example, in the example of FIG. 7A, among the dots in the segment area, the dot that matches the dot of the actually measured image at the position of the value B2 (pixel shift 8) is usually the position of the minimum value B1 (pixel shift 10). ) Does not match the dots in the measured image. For this reason, the minimum value B1 is relatively large, and the ratio between the second smallest value B2 and the minimum value B1 is considerably small.

こうなると、上述のエラー条件に合致しやすく、図7(c)に示すように、エラーの発生頻度が高くなることも想定される。   In this case, it is easy to meet the above-described error condition, and as shown in FIG.

このように、探索方向(X軸方向)に同距離が連続している物体の面において、単一の距離情報が得られない場合、図2の物体検出部31aによる物体の形状抽出が適正に行えない惧れがある。また、距離取得のエラーが多数発生する場合も同様である。   As described above, when the single distance information cannot be obtained on the surface of the object having the same distance in the search direction (X-axis direction), the object shape extraction by the object detection unit 31a in FIG. There is a possibility that it cannot be done. The same applies to the case where many distance acquisition errors occur.

そこで、本実施の形態では、比較領域内に複数の視差が含まれる場合には、セグメント領域を分割した領域を用いて実測画像に対する探索を行うように構成されている。   Therefore, in the present embodiment, when a plurality of parallaxes are included in the comparison area, a search for the measured image is performed using an area obtained by dividing the segment area.

図8(a)は、距離取得部21bの機能ブロックを示す図である。図8(b)は、セグメント領域の分割例を示す図である。   FIG. 8A is a diagram illustrating functional blocks of the distance acquisition unit 21b. FIG. 8B is a diagram illustrating an example of segment area division.

なお、図8(b)に示す分割セグメント領域Saが請求項2に記載の第1の分割セグメント領域の一例である。また、分割セグメント領域Sbが請求項2に記載の第2の分割セグメント領域の一例である。   The divided segment area Sa shown in FIG. 8B is an example of the first divided segment area described in claim 2. Further, the divided segment area Sb is an example of a second divided segment area described in claim 2.

図8(a)を参照して、距離取得部21bは、2つのRsad演算ブロック211a、211bの機能と、視差判定/距離演算ブロック212の機能を有している。Rsad演算ブロック211a、211bには、メモリ25から参照テンプレートが、撮像信号処理回路23から実測画像が入力される。なお、ここでは、セグメント領域Sは、15画素×15画素の大きさに設定され、参照テンプレートに保持されている。   Referring to FIG. 8A, the distance acquisition unit 21b has the functions of two Rsad calculation blocks 211a and 211b and the function of a parallax determination / distance calculation block 212. The Rsad calculation blocks 211 a and 211 b are supplied with a reference template from the memory 25 and a measured image from the imaging signal processing circuit 23. Here, the segment area S is set to a size of 15 pixels × 15 pixels and is held in the reference template.

セグメント領域Sは、上記と同様、所定の探索範囲において、各比較領域と照合される。この探索の際、Rsad演算ブロック211aは、図8(b)に示すように、セグメント領域Sのうち、15画素×8画素の上半分の領域(分割セグメント領域Sa)に含まれる画素情報と、実測画像中の画素情報とをマッチングすることにより、値Rsadを演算する。また、上記探索の際、Rsad演算ブロック211bは、セグメント領域Sのうち、15画素×7画素の下半分の領域(分割セグメント領域Sb)に含まれる画素情報と、実測画像中の画素情報とをマッチングすることにより、値Rsadを演算する。以下、分割セグメント領域Saによって演算された値RsadをRsa、分割セグメント領域Sbによって演算された値RsadをRsbと称する。   Similarly to the above, the segment area S is collated with each comparison area in a predetermined search range. At the time of this search, as shown in FIG. 8 (b), the Rsad calculation block 211a includes pixel information included in the upper half area (divided segment area Sa) of 15 pixels × 8 pixels in the segment area S, The value Rsad is calculated by matching the pixel information in the measured image. In the above search, the Rsad calculation block 211b uses the pixel information included in the lower half area (divided segment area Sb) of the 15 pixels × 7 pixels in the segment area S and the pixel information in the measured image. The value Rsad is calculated by matching. Hereinafter, the value Rsad calculated from the divided segment area Sa is referred to as Rsa, and the value Rsad calculated from the divided segment area Sb is referred to as Rsb.

視差判定/距離演算ブロック212は、Rsad演算ブロック211a、211bによって演算された値Rsa、Rsbからセグメント領域Sに対応する比較領域内に複数の視差が含まれているか否かを判定し、セグメント領域Sの分割要否を決定する。そして、視差判定/距離演算ブロック212は、分割要否に応じて適正なサイズのセグメント領域によって演算された値Rsadを選択する。なお、全体のセグメント領域Sが選択される場合、視差判定/距離演算ブロック212は、値Rsaと値Rsbを合算する。値Rsaと値Rsbを合算した値は、セグメント領域Sの全体について取得される値Rsadに相当する。以下、値Rsaと値Rsbを合算した値を、値Rsという。そして、視差判定/距離演算ブロック212は、適正なサイズのセグメント領域によって演算された値Rsadにより距離情報を取得する。こうして取得された距離情報は、上述の距離画像として、入出力回路24を介して情報処理装置3に出力される。   The parallax determination / distance calculation block 212 determines whether or not a plurality of parallaxes are included in the comparison area corresponding to the segment area S from the values Rsa and Rsb calculated by the Rsad calculation blocks 211a and 211b. The necessity of dividing S is determined. Then, the parallax determination / distance calculation block 212 selects a value Rsad calculated by a segment area of an appropriate size according to whether or not division is necessary. When the entire segment area S is selected, the parallax determination / distance calculation block 212 adds the value Rsa and the value Rsb. The sum of the value Rsa and the value Rsb corresponds to the value Rsad acquired for the entire segment area S. Hereinafter, a value obtained by adding the value Rsa and the value Rsb is referred to as a value Rs. Then, the parallax determination / distance calculation block 212 acquires the distance information based on the value Rsad calculated by the segment area of an appropriate size. The distance information acquired in this way is output to the information processing apparatus 3 via the input / output circuit 24 as the above-described distance image.

図9は、複数視差の有無判定と距離取得の処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bにおける機能によって行われる。   FIG. 9 is a flowchart illustrating processing for determining the presence / absence of multiple parallaxes and obtaining a distance. This process is performed by a function in the distance acquisition unit 21b of the CPU 21 in FIG.

なお、図9に記載の処理フローは、請求項2および4に記載の構成の一例である。   The processing flow shown in FIG. 9 is an example of the configuration described in claims 2 and 4.

図9を参照して、撮像信号処理回路23より実測画像が入力されると、CPU21は、まず、メモリ25から参照テンプレートを参照し、分割セグメント領域Sa、Sbについて、値Rsa、Rsbを演算する(S101)。そして、CPU21は、値Rsaにおける最小値Ba1の画素ずれ量Naと、値Rsbにおける最小値Bb1の画素ずれ量Nbを取得する(S102)。   Referring to FIG. 9, when a measured image is input from imaging signal processing circuit 23, CPU 21 first refers to a reference template from memory 25 and calculates values Rsa and Rsb for divided segment areas Sa and Sb. (S101). Then, the CPU 21 acquires the pixel shift amount Na of the minimum value Ba1 in the value Rsa and the pixel shift amount Nb of the minimum value Bb1 in the value Rsb (S102).

図10(a)は、分割セグメント領域Saによって演算された値Rsaの分布例を示すグラフ、図10(b)は、分割セグメント領域Sbによって演算された値Rsbの分布例を示すグラフである。また、図10(c)は、値Rsaと値Rsbを合算した値の分布例を示すグラフである。また、図10(d)は、本実施の形態の場合に得られる距離情報の例を模式的に示す図である。図10(d)は、上記比較例における図7(b)、(c)に対応するものである。なお、図10(d)において、濃いハッチングが遠距離、薄いハッチングが近距離を示している。   FIG. 10A is a graph showing a distribution example of the value Rsa calculated by the divided segment area Sa, and FIG. 10B is a graph showing a distribution example of the value Rsb calculated by the divided segment area Sb. FIG. 10C is a graph showing a distribution example of values obtained by adding the value Rsa and the value Rsb. FIG. 10D is a diagram schematically illustrating an example of distance information obtained in the case of the present embodiment. FIG. 10 (d) corresponds to FIGS. 7 (b) and (c) in the comparative example. In FIG. 10D, dark hatching indicates a long distance, and thin hatching indicates a short distance.

図10(a)を参照して、分割セグメント領域Saは、図8(b)に示すセグメント領域Sよりも小さいため、分割セグメント領域Saによって得られた値Rsaは、図7(a)に比べ、全体的に小さくなっている。また、図7(a)では、複数の位置N1、N2に
おいて、値Rsadが小さくなっていたが、図10(a)では、最小値Ba1の位置Na(画素ずれ量)においてのみ値Rsaが小さくなっている。
Referring to FIG. 10A, the divided segment area Sa is smaller than the segment area S shown in FIG. 8B, so the value Rsa obtained by the divided segment area Sa is smaller than that in FIG. The overall size is getting smaller. In FIG. 7A, the value Rsad is small at a plurality of positions N1 and N2. In FIG. 10A, the value Rsa is small only at the position Na (pixel shift amount) of the minimum value Ba1. It has become.

図10(b)を参照して、分割セグメント領域Sbよって得られた値Rsbも同様に、図7(a)に比べ、全体的に小さくなっている。また、図10(b)の場合は、最小値Bb1の位置Nb(画素ずれ量)においてのみ値Rsbが小さくなっている。なお、分割セグメント領域Sbは、図8(b)に示すように、分割セグメント領域Saよりもやや小さく設定されているため、図10(b)の値Rsbは、図10(a)の値Rsaよりもやや小さい。   Referring to FIG. 10B, the value Rsb obtained by the divided segment area Sb is also generally smaller than that in FIG. In the case of FIG. 10B, the value Rsb is small only at the position Nb (pixel shift amount) of the minimum value Bb1. As shown in FIG. 8B, the segment segment area Sb is set slightly smaller than the segment segment area Sa, so that the value Rsb in FIG. 10B is the value Rsa in FIG. Slightly smaller than.

したがって、図10(a)、図10(b)に示すように、分割セグメント領域Sa、Sbの最小値Ba1、Bb1は、図7(a)に比べ、2番目に小さい値Ba2、Bb2との比が大きくなり易いため、適正にマッチングされ易い。なお、図6(a)に示すように、比較領域Cg内における変位量D1、D2の差は、比較的大きい。しかし、本実施の形態では、セグメント領域Sが上記のように上下に分割されるため、分割セグメント領域Sa、Sbに対応する比較領域内におけるドットの変位量(視差)の差は、セグメント領域Sに対応する比較領域内のドットの変位量(視差)の差よりも数段小さく、精々、0画素〜1画素程度である。したがって、分割セグメントSa、Sbに対する値Rsa、Rsbの演算においては、ドットの変位量(視差)の差による影響は軽微である。   Therefore, as shown in FIGS. 10A and 10B, the minimum values Ba1 and Bb1 of the divided segment areas Sa and Sb are the second smallest values Ba2 and Bb2 compared to FIG. 7A. Since the ratio tends to be large, it is easy to be appropriately matched. As shown in FIG. 6A, the difference between the displacement amounts D1 and D2 in the comparison region Cg is relatively large. However, in the present embodiment, since the segment area S is divided vertically as described above, the difference in the displacement amount (parallax) of the dots in the comparison area corresponding to the divided segment areas Sa and Sb is the segment area S. Is a few steps smaller than the difference in the displacement (parallax) of the dots in the comparison region corresponding to, and is at most about 0 to 1 pixel. Accordingly, in the calculation of the values Rsa and Rsb for the divided segments Sa and Sb, the influence due to the difference in the displacement amount (parallax) of the dots is slight.

図9に戻り、CPU21は、画素ずれ量Na、Nbの差の絶対値が所定の閾値Th1を超え、且つ、所定の閾値Th2未満であるか否かを判定する(S103)。このステップS103により、床等の探索方向(X軸方向)に同距離である面によって比較領域内に複数の視差が含まれているかが判定される。すなわち、ステップS103の判定がYESである場合に、比較領域内に床等による複数の視差が含まれていると判定される。   Returning to FIG. 9, the CPU 21 determines whether or not the absolute value of the difference between the pixel shift amounts Na and Nb exceeds the predetermined threshold Th1 and is lower than the predetermined threshold Th2 (S103). By this step S103, it is determined whether or not a plurality of parallaxes are included in the comparison region by planes having the same distance in the search direction (X-axis direction) such as the floor. That is, when the determination in step S103 is YES, it is determined that a plurality of parallaxes due to a floor or the like are included in the comparison region.

比較領域が、床等の面を撮像する領域である場合、上記のように、比較領域の上半分における視差と下半分における視差との差が1画素を超えることが起こり得る。この場合、上半分の分割セグメント領域Saが実測画像にマッチングする位置と、下半分の分割セグメントSbが実測画像にマッチングする位置の差も、1画素を超える。したがって、画素ずれ量Na、Nbの差の絶対値が1を超える場合、比較領域内に複数の視差が生じているものと想定され得る。このことから、閾値Th1は、たとえば、1に設定される。   When the comparison area is an area that captures a surface such as a floor, as described above, the difference between the parallax in the upper half and the parallax in the lower half may exceed one pixel. In this case, the difference between the position where the upper half divided segment area Sa matches the measured image and the position where the lower half divided segment Sb matches the measured image also exceeds one pixel. Therefore, when the absolute value of the difference between the pixel shift amounts Na and Nb exceeds 1, it can be assumed that a plurality of parallaxes are generated in the comparison region. Therefore, the threshold value Th1 is set to 1, for example.

また、比較領域が、床等の探索方向(X軸方向)に同距離である面を撮像する領域である場合、比較領域の上半分における視差と下半分における視差との差は、精々、数画素程度で有ると想定され、画素ずれ量Na、Nbの差の絶対値も、精々、数画素程度に留まるものと想定される。画素ずれ量Na、Nbの差の絶対値が、比較的大きい場合、比較領域は、物体と背景の境界等を撮像する領域である可能性があり、あるいは、値Rsadの品質が悪いことも想定され得る。したがって、画素ずれ量Na、Nbの差の絶対値が比較的大きい場合には、床等の面と同様の処理を適用すべきではないと考えられる。このことから、閾値Th2は、たとえば、5に設定される。   Further, when the comparison area is an area that captures a surface having the same distance in the search direction (X-axis direction) such as a floor, the difference between the parallax in the upper half and the lower half in the comparison area is at most several. It is assumed that the pixel is about a pixel, and the absolute value of the difference between the pixel shift amounts Na and Nb is also assumed to be at most about a few pixels. When the absolute value of the difference between the pixel shift amounts Na and Nb is relatively large, the comparison area may be an area for imaging the boundary between the object and the background, or the quality of the value Rsad is assumed to be poor. Can be done. Therefore, when the absolute value of the difference between the pixel shift amounts Na and Nb is relatively large, it is considered that the same processing as that for a surface such as a floor should not be applied. Therefore, the threshold value Th2 is set to 5, for example.

画素ずれ量Na、Nbの差の絶対値が閾値Th1を超え、且つ、閾値Th2未満の場合(S103:YES)、CPU21は、上半分の分割セグメント領域Saによって得られた値Rsaのうち、2番目に小さい値Ba2と最小値Ba1の比(Ba2/Ba1)が所定の閾値Tαを超えるか否かを判定する(S104)。これにより、値Rsaにより得られる距離値がエラーであるか否かが判定される。   When the absolute value of the difference between the pixel shift amounts Na and Nb exceeds the threshold Th1 and is less than the threshold Th2 (S103: YES), the CPU 21 determines that 2 out of the values Rsa obtained by the divided segment area Sa in the upper half. It is determined whether or not the ratio (Ba2 / Ba1) between the second smallest value Ba2 and the minimum value Ba1 exceeds a predetermined threshold value Tα (S104). Thereby, it is determined whether or not the distance value obtained from the value Rsa is an error.

この比(Ba2/Ba1)が閾値Tαを超える場合(S104:YES)、CPU21は、上半分の分割セグメント領域Saの探索によって得られた画素ずれ量Naに応じた距
離値を情報処理装置3に出力する(S105)。これにより、全体のセグメント領域Sに対応する比較領域に複数の視差が含まれる場合であって、上半分のセグメント領域Saの探索結果がエラーでない場合は、必ず、上半分のセグメント領域Saの探索による距離が取得される。
When this ratio (Ba2 / Ba1) exceeds the threshold value Tα (S104: YES), the CPU 21 gives the information processing device 3 a distance value corresponding to the pixel shift amount Na obtained by the search for the upper half divided segment area Sa. Output (S105). Thus, if a plurality of parallaxes are included in the comparison area corresponding to the entire segment area S and the search result of the upper half segment area Sa is not an error, the upper half segment area Sa is always searched. The distance by is acquired.

上半分の分割セグメント領域Saの探索結果がエラーと判定されると(S104:NO)、CPU21は、下半分の分割セグメント領域Sbによって得られた値Rsbのうち、2番目に小さい値Bb2と最小値Bb1の比(Bb2/Bb1)が閾値Tαを超えるか否かを判定する(S106)。これにより、値Rsbにより得られる距離値がエラーであるか否かが判定される。   When the search result of the upper half segment area Sa is determined to be an error (S104: NO), the CPU 21 minimizes the second smallest value Bb2 among the values Rsb obtained by the lower half segment area Sb. It is determined whether or not the ratio of the value Bb1 (Bb2 / Bb1) exceeds the threshold value Tα (S106). Thereby, it is determined whether or not the distance value obtained from the value Rsb is an error.

この比(Bb2/Bb1)が閾値Tαを超える場合(S106:YES)、CPU21は、下半分の分割セグメント領域Sbの探索によって得られた画素ずれ量Nbに応じた距離値を情報処理装置3に出力する(S107)。これにより、全体のセグメント領域Sに対応する比較領域で複数の視差が含まれる場合であって、上半分の分割セグメント領域Saの探索がエラーとなる場合は、下半分のセグメント領域Sbの探索による距離が取得される。   When this ratio (Bb2 / Bb1) exceeds the threshold value Tα (S106: YES), the CPU 21 gives the information processing device 3 a distance value corresponding to the pixel shift amount Nb obtained by searching the lower half of the segment segment area Sb. Output (S107). Thereby, when a plurality of parallaxes are included in the comparison area corresponding to the entire segment area S and the search for the upper half segment area Sa results in an error, the search for the lower half segment area Sb is performed. The distance is obtained.

上記比(Bb2/Bb1)が閾値Tα以下の場合(S106:NO)、CPU21は、値Rsaと、値Rsbを加算し、値Rsを取得する(S108)。そして、CPU21は、値Rsのうち、2番目に小さい値B2と最小値B1の比(B2/B1)が閾値Tαを超えるか否かを判定する(S109)。値Rsは、図8(b)の全体のセグメント領域Sについて求められる値Rsdと同等の値である。すなわち、図10(c)に示す値Rsaは、図7(a)に示す値Rsadと、同等のものとなる。分割セグメント領域Sa、Sbの探索結果がエラーであっても、全体のセグメント領域Sによる探索結果がエラーとならないことがあり得る。したがって、CPU21は、分割セグメント領域Sa、Sbの探索結果がともにエラーである場合に(S105:NO)、さらに、全体のセグメント領域Sに相当する値Rsによる距離取得の処理を行う。   When the ratio (Bb2 / Bb1) is equal to or less than the threshold value Tα (S106: NO), the CPU 21 adds the value Rsa and the value Rsb to obtain the value Rs (S108). Then, the CPU 21 determines whether or not the ratio (B2 / B1) between the second smallest value B2 and the minimum value B1 among the values Rs exceeds the threshold value Tα (S109). The value Rs is a value equivalent to the value Rsd obtained for the entire segment region S in FIG. That is, the value Rsa shown in FIG. 10C is equivalent to the value Rsad shown in FIG. Even if the search results of the divided segment areas Sa and Sb are errors, the search results of the entire segment area S may not be an error. Therefore, when both the search results of the divided segment areas Sa and Sb are errors (S105: NO), the CPU 21 further performs a distance acquisition process using the value Rs corresponding to the entire segment area S.

2番目に小さい値B2と最小値B1の比が閾値Tαを超える場合(S109:YES)、CPU21は、値Rsにおける最小値B1の画素ずれ量N1を取得する(S110)。そして、CPU21は、値Rsによって得られた画素ずれ量N1に応じた距離値を情報処理装置3に出力する(S111)。   When the ratio between the second smallest value B2 and the minimum value B1 exceeds the threshold value Tα (S109: YES), the CPU 21 acquires the pixel shift amount N1 of the minimum value B1 in the value Rs (S110). Then, the CPU 21 outputs a distance value corresponding to the pixel shift amount N1 obtained from the value Rs to the information processing apparatus 3 (S111).

2番目に小さい値B2と最小値B1の比が閾値Tα以下である場合(S109:NO)、CPU21は、エラー値を情報処理装置3に出力する(S112)。なお、エラー値は、通常、距離値として取得され得ない値(たとえば、0)が用いられる。   When the ratio between the second smallest value B2 and the minimum value B1 is equal to or less than the threshold value Tα (S109: NO), the CPU 21 outputs an error value to the information processing device 3 (S112). The error value is normally a value that cannot be acquired as a distance value (for example, 0).

画素ずれ量Na、Nbの差の絶対値が閾値Th1以下、または、閾値Th2以上である場合(S103:NO)、CPU21は、処理をS109に進め、上記同様、全体のセグメント領域Sの探索に相当する距離の取得処理を行う(S109〜S112)。上記のように、S103の判定がNOの場合、比較領域は、床等の探索方向(X軸方向)に同距離である面を撮像する領域ではないと想定される。したがって、この場合には、通常のセグメント領域Sを用いた探索と同等の探索が行われ、距離値が取得される。   When the absolute value of the difference between the pixel shift amounts Na and Nb is equal to or less than the threshold value Th1 or greater than or equal to the threshold value Th2 (S103: NO), the CPU 21 advances the process to S109 and searches for the entire segment area S as described above. A corresponding distance acquisition process is performed (S109 to S112). As described above, when the determination in S103 is NO, it is assumed that the comparison region is not a region for imaging a surface having the same distance in the search direction (X-axis direction) such as the floor. Therefore, in this case, a search equivalent to the search using the normal segment region S is performed, and the distance value is acquired.

以上のようにして、セグメント領域Sの探索範囲の比較領域に、複数の視差が含まれるか否かが判定され、その判定結果に応じて、分割セグメント領域Sa、Sbまたは、全体のセグメント領域Sのいずれかによって、距離取得が行われる。その後、CPU21は、処理をS113に進め、次のセグメント領域の処理を行う。こうして、CPU21は、全てのセグメント領域について、複数の視差の有無の判定と、距離取得の処理を繰り返す。   As described above, it is determined whether or not the comparison region of the search range of the segment region S includes a plurality of parallaxes, and the divided segment regions Sa and Sb or the entire segment region S depending on the determination result. The distance is acquired by either of the above. Thereafter, the CPU 21 advances the process to step S113 and performs the process for the next segment area. In this way, the CPU 21 repeats the determination of the presence / absence of a plurality of parallaxes and the distance acquisition process for all segment areas.

図9の処理フローによれば、図10(d)に模式的に示すように、セグメント領域Sが、実測画像上において、床や天井等、探索方向に同距離の面を撮像する領域を探索する場合においても、同距離の距離情報を取得することができる。   According to the processing flow of FIG. 9, as schematically shown in FIG. 10D, the segment area S searches for an area on the measured image, such as a floor or a ceiling, that captures a surface of the same distance in the search direction. Even in the case, distance information of the same distance can be acquired.

すなわち、このような領域が探索される場合、図9のS103の判定がYESとなり、分割セグメント領域Sa、Sbによる距離取得が行われる。分割セグメント領域Sa、Sbが用いられると、図10(a)、(b)を参照して説明したように、Rsadの最小値と2番目に小さい値との比が大きくなるため、距離取得がエラーとなりにくい。また、S104の判別ステップにより、分割セグメント領域Saによる距離取得が分割セグメント領域Sbによる距離取得に優先して行われるため、得られた距離情報は、分割セグメント領域Saにより取得された距離値に揃い易くなる。したがって、図10(d)に模式的に示すように、床や天井等、探索方向に同距離の面を撮像する領域においても、同距離の距離情報を取得することができる。   That is, when such a region is searched, the determination in S103 of FIG. 9 is YES, and distance acquisition is performed by the divided segment regions Sa and Sb. When the divided segment areas Sa and Sb are used, the ratio between the minimum value of Rsad and the second smallest value increases as described with reference to FIGS. It is hard to become an error. Further, since the distance acquisition by the divided segment area Sa is performed in preference to the distance acquisition by the divided segment area Sb in the determination step of S104, the obtained distance information is aligned with the distance value acquired by the divided segment area Sa. It becomes easy. Accordingly, as schematically shown in FIG. 10D, distance information of the same distance can be acquired even in a region where a surface of the same distance in the search direction is imaged, such as a floor or a ceiling.

なお、セグメント領域Sが、実測画像上において、床や天井等の面以外の領域を探索する場合には、図9のS103の判定がNOとなり、通常通り、セグメント領域Sを用いた探索が行われる。セグメント領域Sは、分割セグメント領域Sa、Sbに比べて、含まれるドットの数が多く、ドットのユニーク性が高い。このため、セグメント領域Sを用いると、分割セグメント領域Sa、Sbを用いる場合に比べて、変位位置の探索精度が高くなり、距離取得の精度が高くなる。よって、床や天井等の面以外の領域を探索する場合に、通常通り、セグメント領域Sを用いた探索が行われることで、床や天井等以外の物体の距離情報の精度を高めることができる。   If the segment area S searches for an area other than the surface such as the floor or ceiling on the measured image, the determination in S103 of FIG. 9 is NO, and the search using the segment area S is performed as usual. . The segment area S has a larger number of dots and higher dot uniqueness than the divided segment areas Sa and Sb. For this reason, when the segment area S is used, the displacement position search accuracy is higher and the distance acquisition accuracy is higher than when the segmented segment areas Sa and Sb are used. Therefore, when searching for a region other than a surface such as a floor or a ceiling, the search using the segment region S is performed as usual, so that the accuracy of distance information of an object other than the floor or the ceiling can be improved.

なお、探索範囲の比較領域に複数の視差が含まれる場合に、上半分の分割セグメント領域Saの探索がエラーとなると、S106、S107の処理が行われ、下半分の分割セグメント領域Sbを用いた距離取得が行われるため、距離値が多少、不連続になることも起こり得る。したがって、このような距離値の不連続をできるだけ抑制するためには、S106、S107の処理を省略し、S104がNOと判定された場合、処理をS108に進め、全体のセグメント領域Sによる距離取得を適用した方が望ましい。その一方、この場合には、S108以降の処理においてエラーとなり易いため、エラーの発生をなるべく抑制するためには、図9のように、S106、S107の処理を行い、複数視差が含まれる可能性の低い下半分の分割セグメント領域Sbによる距離取得を適用した方が望ましい。   If the search range comparison area includes a plurality of parallaxes and an error occurs in the search for the upper half segment segment area Sa, the processes of S106 and S107 are performed, and the lower half segment segment area Sb is used. Since distance acquisition is performed, the distance value may be somewhat discontinuous. Therefore, in order to suppress such discontinuity of distance values as much as possible, the processing of S106 and S107 is omitted, and if S104 is determined to be NO, the processing proceeds to S108, and the distance acquisition by the entire segment region S is obtained. It is better to apply On the other hand, in this case, an error is likely to occur in the processing after S108. Therefore, in order to suppress the occurrence of the error as much as possible, the processing in S106 and S107 is performed as shown in FIG. It is desirable to apply distance acquisition by the lower segment segment area Sb having a lower value.

また、図9に示す複数視差の判定、距離取得にかかる処理は、図2のCPU21の機能により実行されたが、これらの処理が、回路を用いたハードウエア構成により実行されても良い。この場合、図11に示すように、ハードウエアとして、Rsad演算回路26と、視差判定/距離演算回路27が設けられる。   Moreover, although the process concerning the determination of multiple parallaxes and the distance acquisition shown in FIG. 9 is executed by the function of the CPU 21 of FIG. 2, these processes may be executed by a hardware configuration using a circuit. In this case, as shown in FIG. 11, an Rsad arithmetic circuit 26 and a parallax determination / distance arithmetic circuit 27 are provided as hardware.

なお、図11に記載の構成は、請求項3に記載の構成の一例である。図11において、Rsad演算ブロック26a、26bが請求項3に記載の第1、第2のマッチング演算部に相当し、加算器26cが請求項3に記載の加算部に相当する。   The configuration described in FIG. 11 is an example of the configuration described in claim 3. In FIG. 11, Rsad calculation blocks 26a and 26b correspond to the first and second matching calculation units according to claim 3, and an adder 26c corresponds to the addition unit according to claim 3.

図11を参照して、Rsad演算回路26は、2つのRsad演算ブロック26a、26bと加算器26cを有している。Rsad演算ブロック26a、26bは、図8(a)と同様に、値Rsaと、値Rsbを演算する。加算器26cは、値Rsaと、値Rsbを加算して、値Rsを演算する。このようにして、Rsad演算回路は、値Rsa、値Rsb、値Rsを演算し、視差判定/距離演算回路27に出力する。   Referring to FIG. 11, the Rsad operation circuit 26 includes two Rsad operation blocks 26a and 26b and an adder 26c. The Rsad calculation blocks 26a and 26b calculate the value Rsa and the value Rsb, as in FIG. The adder 26c adds the value Rsa and the value Rsb to calculate the value Rs. In this way, the Rsad calculation circuit calculates the value Rsa, the value Rsb, and the value Rs, and outputs them to the parallax determination / distance calculation circuit 27.

視差判定/距離演算回路27は、図9の処理によって、複数の視差が含まれているか否
かを判定し、セグメント領域Sの分割要否を決定する。そして、視差判定/距離演算回路27は、分割要否に応じて適正なサイズのセグメント領域によって演算された値Rsadを選択する。その後、視差判定/距離演算回路27は、適正なサイズのセグメント領域によって演算された値Rsadにより距離情報を取得する。こうして取得された距離情報は、上述の距離画像として、入出力回路24を介して情報処理装置3に出力される
このように、分割セグメント領域Sa用のRsad演算ブロック26aと、分割セグメント領域Sb用のRsad演算ブロック26bとが別々に設けられているため、分割セグメント領域Sa、Sbの値Rsa、Rsbを並列に演算することができる。したがって、情報取得装置2は、全体のセグメント領域Sを分割する場合であっても、距離取得の処理を迅速に行うことができる。
The parallax determination / distance calculation circuit 27 determines whether or not a plurality of parallaxes are included by the processing of FIG. Then, the parallax determination / distance calculation circuit 27 selects the value Rsad calculated by the segment area having an appropriate size according to whether or not the division is necessary. Thereafter, the parallax determination / distance calculation circuit 27 acquires the distance information based on the value Rsad calculated by the segment area of an appropriate size. The distance information acquired in this way is output to the information processing device 3 via the input / output circuit 24 as the above-described distance image. As described above, the Rsad calculation block 26a for the divided segment area Sa and the divided segment area Sb are used. Since the Rsad calculation block 26b is provided separately, the values Rsa and Rsb of the divided segment areas Sa and Sb can be calculated in parallel. Therefore, even when the information acquisition device 2 divides the entire segment region S, the information acquisition device 2 can perform the distance acquisition process quickly.

また、加算器26cが設けられているため、全体のセグメント領域Sを用いた場合の値Rsは、上半分の分割セグメント領域Saにより求めた値Rsaと、下半分の分割セグメント領域Sbにより求めた値Rsbとを加算することによって取得できる。したがって、全体のセグメント領域Sの値Rsを演算する処理ブロックを省略することができ、処理ブロックの簡素化を図ることができる。   Since the adder 26c is provided, the value Rs when the entire segment area S is used is obtained from the value Rsa obtained from the upper half divided segment area Sa and the lower half divided segment area Sb. It can be obtained by adding the value Rsb. Therefore, the processing block for calculating the value Rs of the entire segment area S can be omitted, and the processing block can be simplified.

<実施の形態の効果>
以上、本実施の形態によれば、探索される比較領域に複数の視差が含まれる場合に、分割されたセグメント領域を用いて距離取得が行われるため、床や天井等、探索方向に同距離の面を撮像する領域を探索する場合にも、同じ距離情報を安定的に取得することができる。また、距離取得のエラーの発生を抑えることができる。したがって、物体の検出精度を高めることができる。
<Effect of Embodiment>
As described above, according to the present embodiment, when the comparison area to be searched includes a plurality of parallaxes, distance acquisition is performed using the divided segment areas. The same distance information can be stably acquired when searching for a region for imaging a surface. In addition, occurrence of errors in distance acquisition can be suppressed. Therefore, the object detection accuracy can be increased.

また、本実施の形態によれば、複数の視差の有無判定後、上半分の分割セグメント領域Saの探索がエラーであった場合、下半分の分割セグメント領域Sbにより距離取得が行われるため、距離取得のエラーの発生がさらに抑制される。   Also, according to the present embodiment, after the determination of the presence or absence of a plurality of parallaxes, if the search for the upper half segment area Sa is an error, distance acquisition is performed by the lower half segment area Sb. The occurrence of acquisition errors is further suppressed.

また、本実施の形態によれば、複数の視差の有無判定後、分割セグメント領域Sa、Sbの探索がエラーであった場合、全体のセグメント領域Sに相当する値Rsにより距離取得が行われるため、距離取得のエラーの発生がさらに抑制される。   In addition, according to the present embodiment, after the determination of the presence or absence of a plurality of parallaxes, when the search for the segmented segment areas Sa and Sb is an error, distance acquisition is performed using the value Rs corresponding to the entire segment area S. The occurrence of distance acquisition errors is further suppressed.

さらに、本実施の形態によれば、全体のセグメント領域Sを用いた場合の値Rsadが、上半分の分割セグメント領域Saにより求めた値Rsaと、下半分の分割セグメント領域Sbにより求めた値Rsbとを加算することによって取得されるため、全体のセグメント領域Sの値Rsadを演算する処理ブロックを省略することができ、処理ブロックの簡素化を図ることができる。   Furthermore, according to the present embodiment, the value Rsad when the entire segment area S is used is the value Rsa obtained from the upper half divided segment area Sa and the value Rsb obtained from the lower half divided segment area Sb. Therefore, the processing block for calculating the value Rsad of the entire segment area S can be omitted, and the processing block can be simplified.

以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made to the embodiment of the present invention in addition to the above. .

たとえば、上記実施の形態では、画素ずれ量Na、Nbの差の絶対値が所定の閾値Th1、Th2の範囲内であった場合に、全体のセグメント領域Sに対応する比較領域に複数の視差が含まれると判定したが、その他の方法によって判定しても良い。上述したように、全体のセグメント領域Sに対応する比較領域に複数の視差が含まれる場合、2番目に小さい値B2と最小値B1の比の大きさは小さくなる。したがって、2番目に小さい値B2と最小値B1の比の大きさが所定の閾値Tα未満となった場合、複数の視差が含まれると想定し、セグメント領域を分割した分割セグメント領域による探索を行っても良い。   For example, in the above embodiment, when the absolute value of the difference between the pixel shift amounts Na and Nb is within the predetermined threshold values Th1 and Th2, a plurality of parallaxes are present in the comparison region corresponding to the entire segment region S. Although determined to be included, it may be determined by other methods. As described above, when the comparison area corresponding to the entire segment area S includes a plurality of parallaxes, the ratio between the second smallest value B2 and the minimum value B1 is small. Therefore, when the ratio of the second smallest value B2 and the minimum value B1 is less than the predetermined threshold value Tα, it is assumed that a plurality of parallaxes are included, and a search is performed using the divided segment areas obtained by dividing the segment area. May be.

図12は、この場合の複数視差の有無判定と距離取得の処理を示すフローチャートであ
る。この処理は、図2のCPU21の距離取得部21bにおける機能によって行われる。なお、図12は、図9のフローチャートを一部変更するものであり、変更のない処理については、同一の番号が付与されている。
FIG. 12 is a flowchart showing a process for determining the presence / absence of multiple parallaxes and obtaining a distance in this case. This process is performed by a function in the distance acquisition unit 21b of the CPU 21 in FIG. Note that FIG. 12 partially changes the flowchart of FIG. 9, and the same number is assigned to a process that does not change.

なお、図9に記載の処理フローは、請求項5に記載の構成の一例である。   The processing flow illustrated in FIG. 9 is an example of the configuration according to claim 5.

図12を参照して、CPU21は、所定の分割セグメント領域Sa、Sbにより、値Rsa、Rsbの演算が完了すると(S101)、まず、図9のS108と同様に、値Rsaと値Rsbを加算し、全体のセグメント領域Sに相当する値Rsを取得する(S201)。そして、CPU21は、値Rsのうち、2番目に小さい値B2と最小値B1の比(B2/B1)が所定の閾値Tα未満であるか否かを判定する(S202)。これにより、全体のセグメント領域Sに対応する比較領域に複数の視差が含まれている可能性があるか否かが判定される。   Referring to FIG. 12, when calculation of values Rsa and Rsb is completed by predetermined divided segment areas Sa and Sb (S101), CPU 21 first adds value Rsa and value Rsb as in S108 of FIG. Then, the value Rs corresponding to the entire segment area S is acquired (S201). Then, the CPU 21 determines whether or not the ratio (B2 / B1) between the second smallest value B2 and the minimum value B1 among the values Rs is less than a predetermined threshold value Tα (S202). Thereby, it is determined whether or not there is a possibility that the comparison area corresponding to the entire segment area S includes a plurality of parallaxes.

この比(B2/B1)が所定の閾値Tα未満の場合(S202:YES)、図9と同様にして、上半分の分割セグメント領域Saと、下半分の分割セグメント領域Sbのエラー判定処理が行われ(S104、S106)、エラー判定結果に応じて、距離取得の処理が行われる(S105、S107)。なお、本変更例では、事前に画素ずれ量Na、Nbは取得されていないため、分割セグメント領域Sa、Sbにより距離取得を行うと判定されたタイミングで、画素ずれ量Na、Nbの取得が行われる(S203、S204)。また、分割セグメント領域Sa、Sbの探索結果が両方エラーであった場合(S104:NO、S106:NO)、CPU21は、エラー値を情報処理装置3に出力する(S112)。   When this ratio (B2 / B1) is less than the predetermined threshold value Tα (S202: YES), error determination processing is performed for the upper half divided segment area Sa and the lower half divided segment area Sb in the same manner as in FIG. (S104, S106), distance acquisition processing is performed according to the error determination result (S105, S107). In this modified example, since the pixel shift amounts Na and Nb are not acquired in advance, the pixel shift amounts Na and Nb are acquired at the timing when it is determined that the distance is acquired from the divided segment areas Sa and Sb. (S203, S204). Further, when the search results of the divided segment areas Sa and Sb are both errors (S104: NO, S106: NO), the CPU 21 outputs an error value to the information processing device 3 (S112).

2番目に小さい値B2と最小値B1の比が所定の閾値Tα以上の場合(S202:NO)、CPU21は、処理をS110に進め、全体のセグメント領域Sの探索に相当する距離の取得処理を行う(S110〜S111)。   When the ratio between the second smallest value B2 and the minimum value B1 is equal to or greater than the predetermined threshold value Tα (S202: NO), the CPU 21 advances the process to S110 and performs a distance acquisition process corresponding to the search for the entire segment region S. It performs (S110-S111).

本変更例においても、全体のセグメント領域Sに対応する比較領域に複数の視差が含まれる可能性が高い場合は、分割セグメント領域Sa、Sbを用いた距離取得が行われるため、床や天井等であっても、適正に距離取得を行うことができる。   Also in this modified example, when there is a high possibility that the comparison area corresponding to the entire segment area S includes a plurality of parallaxes, distance acquisition is performed using the divided segment areas Sa and Sb. Even if it exists, distance acquisition can be performed appropriately.

また、上記実施の形態では、セグメント領域Sを上下方向に分割したが、図13(a)に示すように、セグメント領域Sを横方向に分割しても良い。この場合、上記実施の形態のおける分割セグメント領域Sa、Sbを、それぞれ、分割セグメント領域Sc、Sdに置き換えて、図9の処理が行われる。   Moreover, in the said embodiment, although segment area | region S was divided | segmented to the up-down direction, as shown to Fig.13 (a), you may divide | segment segment area S to a horizontal direction. In this case, the divided segment areas Sa and Sb in the above embodiment are replaced with the divided segment areas Sc and Sd, respectively, and the process of FIG. 9 is performed.

また、セグメント領域Sを、分割セグメント領域Sa、Sbと分割セグメント領域Sc、Sdに分割する場合には、図14に示すように、それぞれの分割セグメント領域Sa〜Sdを用いた探索を行うようにしても良い。   Further, when the segment area S is divided into the divided segment areas Sa and Sb and the divided segment areas Sc and Sd, as shown in FIG. 14, a search using the respective divided segment areas Sa to Sd is performed. May be.

なお、図14に記載の処理フローは、請求項6に記載の構成の一例である。   Note that the processing flow described in FIG. 14 is an example of the configuration described in claim 6.

図14の処理フローは、図9の処理フローのS101がS301に置き換えられ、S302〜S307が追加されている。S301では、分割セグメント領域Sa〜Sdを用いて値Rsad(Rsa〜Rsd)が取得される。また、S302では、分割セグメント領域Sc、Sdを用いて取得された値Rsc、Rsdにおける最小値Bc1、Bd1の画素ずれ量Nc、Ndが取得される。   In the processing flow of FIG. 14, S101 in the processing flow of FIG. 9 is replaced with S301, and S302 to S307 are added. In S301, values Rsad (Rsa to Rsd) are acquired using the divided segment regions Sa to Sd. In S302, pixel shift amounts Nc and Nd of the minimum values Bc1 and Bd1 among the values Rsc and Rsd acquired using the divided segment regions Sc and Sd are acquired.

S103において、画素ずれ量Nc、Ndの差分の絶対値が閾値Th1、Th2の範囲
にない場合(S103:NO)、分割セグメント領域Sc、Sdを用いて取得された画素ずれ量Nc、Ndの差分の絶対値が閾値Th3、Th4の範囲に有るかが判別される(S303)。閾値Th3、Th4は、たとえば、閾値Th1、Th2と同様に設定される。また、S106における判定がNOの場合もS303の判定が行われる。
In S103, when the absolute value of the difference between the pixel shift amounts Nc and Nd is not within the range of the threshold values Th1 and Th2 (S103: NO), the difference between the pixel shift amounts Nc and Nd acquired using the divided segment regions Sc and Sd. Is determined to be within the range of the threshold values Th3 and Th4 (S303). The threshold values Th3 and Th4 are set in the same manner as the threshold values Th1 and Th2, for example. The determination in S303 is also performed when the determination in S106 is NO.

S303の判定がYESであれば、まず、分割セグメント領域Scによって得られた値Rscのうち、2番目に小さい値Bc2と最小値Bc1の比(Bc2/Bc1)が所定の閾値Tαを超えるか否かが判定される(S304)。これにより、値Rscにより得られる距離値がエラーであるか否かが判定される。この比(Bc2/Bc1)が閾値Tαを超える場合(S304:YES)、分割セグメント領域Scの探索によって得られた画素ずれ量Ncに応じた距離値が情報処理装置3に出力される(S305)。   If the determination in S303 is YES, first, of the value Rsc obtained by the divided segment region Sc, whether or not the ratio (Bc2 / Bc1) between the second smallest value Bc2 and the minimum value Bc1 exceeds a predetermined threshold value Tα. Is determined (S304). Thereby, it is determined whether or not the distance value obtained from the value Rsc is an error. When this ratio (Bc2 / Bc1) exceeds the threshold value Tα (S304: YES), a distance value corresponding to the pixel shift amount Nc obtained by searching the segmented segment region Sc is output to the information processing device 3 (S305). .

S304の判定がNOであれば、分割セグメント領域Sdによって得られた値Rsdのうち、2番目に小さい値Bd2と最小値Bd1の比(Bd2/Bd1)が所定の閾値Tαを超えるか否かが判定される(S306)。これにより、値Rsdにより得られる距離値がエラーであるか否かが判定される。この比(Bd2/Bd1)が閾値Tαを超える場合(S306:YES)、分割セグメント領域Sdの探索によって得られた画素ずれ量Ndに応じた距離値が情報処理装置3に出力される(S307)。   If the determination in S304 is NO, whether or not the ratio (Bd2 / Bd1) between the second smallest value Bd2 and the minimum value Bd1 out of the value Rsd obtained by the divided segment region Sd exceeds a predetermined threshold value Tα. It is determined (S306). Thereby, it is determined whether or not the distance value obtained from the value Rsd is an error. When this ratio (Bd2 / Bd1) exceeds the threshold value Tα (S306: YES), a distance value corresponding to the pixel shift amount Nd obtained by searching the divided segment region Sd is output to the information processing device 3 (S307). .

S303の判定がNOである場合、または、S306の判定がNOである場合、処理がS108に進められ、セグメント領域Sの全体を用いた距離取得が行われる。   If the determination in S303 is NO, or if the determination in S306 is NO, the process proceeds to S108, and distance acquisition using the entire segment region S is performed.

本変更例によれば、S303〜S307の処理により、床や天井等の他、部屋の壁等においても、適正に距離取得を行うことができる。   According to this modified example, the distances can be appropriately acquired not only on the floor and ceiling, but also on the wall of the room, etc., by the processes of S303 to S307.

さらに、分割セグメント領域Sa〜Sdを用いる場合、図12の変更例は、図15に示すように変更され得る。   Further, when the divided segment areas Sa to Sd are used, the modification example of FIG. 12 can be modified as shown in FIG.

なお、図15に記載の処理フローは、請求項6に記載の処理の他の例である。   The processing flow described in FIG. 15 is another example of the processing described in claim 6.

図15の処理フローは、図12の処理フローのS101がS401に置き換えられ、S402〜S407が追加されている。S401では、分割セグメント領域Sa〜Sdを用いて値Rsad(Rsa〜Rsd)が取得される。   In the processing flow of FIG. 15, S101 in the processing flow of FIG. 12 is replaced with S401, and S402 to S407 are added. In S401, the value Rsad (Rsa to Rsd) is acquired using the divided segment areas Sa to Sd.

比較領域に複数の視差が含まれている可能性があると判定され(S202:YES)、分割セグメント領域Sa、Sbにおいて、エラーと判定された場合(S104:NO、S106:NO)、分割セグメント領域Scによって得られた値Rscのうち、2番目に小さい値Bc2と最小値Bc1の比(Bc2/Bc1)が所定の閾値Tαを超えるか否かが判定される(S402)。この比(Bc2/Bc1)が閾値Tαを超える場合(S402:YES)、値Rscのうち、最小値Bc1の画素ずれ量Ncが取得される(S403)。そして、取得された画素ずれ量Ncに応じた距離値が情報処理装置3に出力される(S404)。   When it is determined that there is a possibility that the comparison area includes a plurality of parallaxes (S202: YES), and it is determined that there is an error in the divided segment areas Sa and Sb (S104: NO, S106: NO), the divided segments It is determined whether or not the ratio (Bc2 / Bc1) between the second smallest value Bc2 and the minimum value Bc1 among the values Rsc obtained by the region Sc exceeds a predetermined threshold value Tα (S402). When this ratio (Bc2 / Bc1) exceeds the threshold value Tα (S402: YES), the pixel shift amount Nc of the minimum value Bc1 is acquired from the value Rsc (S403). Then, a distance value corresponding to the acquired pixel shift amount Nc is output to the information processing apparatus 3 (S404).

S402の判定がNOであれば、分割セグメント領域Sdによって得られた値Rsdのうち、2番目に小さい値Bd2と最小値Bd1の比(Bd2/Bd1)が所定の閾値Tαを超えるか否かが判定される(S405)。この比(Bd2/Bd1)が閾値Tαを超える場合(S405:YES)、値Rsdのうち、最小値Bd1の画素ずれ量Ndが取得される(S406)。そして、取得された画素ずれ量Ndに応じた距離値が情報処理装置3に出力される(S407)。   If the determination in S402 is NO, whether or not the ratio (Bd2 / Bd1) of the second smallest value Bd2 to the minimum value Bd1 out of the value Rsd obtained by the divided segment region Sd exceeds a predetermined threshold value Tα. It is determined (S405). When this ratio (Bd2 / Bd1) exceeds the threshold value Tα (S405: YES), the pixel shift amount Nd of the minimum value Bd1 is acquired from the value Rsd (S406). Then, a distance value corresponding to the acquired pixel shift amount Nd is output to the information processing apparatus 3 (S407).

S405の判定がNOである場合、処理がS108に進められ、セグメント領域Sの全体を用いた距離取得が行われる。   If the determination in S405 is NO, the process proceeds to S108, and distance acquisition using the entire segment region S is performed.

本変更例によれば、図14の場合と同様に、S402〜S407の処理により、床や天井等の他、部屋の壁等においても、適正に距離取得を行うことができる。   According to this modified example, similarly to the case of FIG. 14, the distance acquisition can be appropriately performed not only on the floor and ceiling, but also on the wall of the room, etc., by the processes of S402 to S407.

また、上記実施の形態では、セグメント領域Sを2つの分割セグメント領域Sa、Sbに分割したが、図13(b)に示すように、4つの分割セグメント領域Se〜Shに分割しても良い。この場合、図8(a)の距離取得部21bは、4つのRsad演算ブロックを有し、4つの分割セグメント領域Se〜Shの値Rsadが並列に演算される。   In the above embodiment, the segment area S is divided into two divided segment areas Sa and Sb. However, as shown in FIG. 13B, the segment area S may be divided into four divided segment areas Se to Sh. In this case, the distance acquisition unit 21b in FIG. 8A includes four Rsad calculation blocks, and the values Rsad of the four divided segment areas Se to Sh are calculated in parallel.

このようにセグメント領域Sが4つの分割セグメント領域Se〜Shに分割される場合、図14の値Rsa〜Rsdは、分割セグメント領域Se〜Shを用いて取得された値Rsad(Rse〜Rsh)のうち対応する2つを加算することにより取得される。たとえば、図13(a)の左半分の分割セグメント領域Scに対する値Rscは、図13(b)の分割セグメント領域Se、Sgにより取得された値Rse、Rsgを加算することにより取得される。また、セグメント領域S全体に対する値Rsは、分割セグメント領域Se〜Shにより取得された値Rse〜Rshを加算することにより取得される。このように4つの分割セグメント領域Se〜Shにより個別に値Rse〜Rshが取得される場合、値Rsadの演算処理が回路により実現される場合に、回路構成を、4つのRsad演算ブロックと、各ブロックからの出力を加算する加算回路とを備える構成とすることができる。この場合、4つのRsad演算ブロックは、縦横の画素数が小さい分割セグメント領域Se〜Shに対する処理を行えば良いため、演算回路の構成が比較的簡素なものとなる。よって、回路リソースを低減しながら、図14の値Rsa〜Rsdと、セグメント領域S全体に対する値Rsを取得することができる。   When the segment area S is thus divided into four divided segment areas Se to Sh, the values Rsa to Rsd in FIG. 14 are the values Rsad (Rse to Rsh) obtained using the divided segment areas Se to Sh. It is obtained by adding the two corresponding ones. For example, the value Rsc for the left half segment segment area Sc in FIG. 13A is obtained by adding the values Rse and Rsg obtained by the segment segment areas Se and Sg in FIG. Further, the value Rs for the entire segment region S is acquired by adding the values Rse to Rsh acquired by the divided segment regions Se to Sh. In this way, when the values Rse to Rsh are individually acquired by the four divided segment areas Se to Sh, when the arithmetic processing of the value Rsad is realized by a circuit, the circuit configuration is changed to four Rsad arithmetic blocks, An adder circuit for adding outputs from the blocks can be provided. In this case, the four Rsad calculation blocks need only perform processing on the divided segment areas Se to Sh having a small number of vertical and horizontal pixels, so that the configuration of the calculation circuit is relatively simple. Therefore, the values Rsa to Rsd in FIG. 14 and the value Rs for the entire segment region S can be acquired while reducing circuit resources.

また、これらとは別に、全体のセグメント領域Sの値Rsadを演算するRsad演算ブロックがさらに配されていても良い。この場合、図9のS108において値Rsa、Rsbを加算しなくとも、値Rsを取得することができる。なお、この場合、図13(c)に示すように、各領域のサイズが同一になるように、分割セグメント領域Se〜Shが一部重なるように設定されても良い。   In addition to these, an Rsad calculation block for calculating the value Rsad of the entire segment area S may be further arranged. In this case, the value Rs can be acquired without adding the values Rsa and Rsb in S108 of FIG. In this case, as shown in FIG. 13C, the divided segment areas Se to Sh may be set so as to partially overlap so that the sizes of the areas are the same.

また、上記実施の形態では、複数視差が含まれる場合、セグメント領域Sを2つにした分割セグメント領域Sa、Sbを用いて距離取得が行われたが、セグメント領域Sよりも小さいサイズの1つのセグメント領域により、距離取得が行われても良い。たとえば、複数視差が含まれる場合、上半分の分割セグメント領域Saに相当するセグメント領域によってのみ、距離取得が行われても良い。   Further, in the above embodiment, when a plurality of parallaxes are included, distance acquisition is performed using the divided segment areas Sa and Sb in which the segment area S is divided into two, but one of a size smaller than the segment area S is used. The distance acquisition may be performed by the segment area. For example, when a plurality of parallaxes are included, distance acquisition may be performed only by a segment area corresponding to the upper half segment area Sa.

また、上記実施の形態では、分割セグメント領域Sa、Sbのうち分割セグメント領域Saの方を優先的に用いて距離情報の取得が行われたが、分割セグメント領域Sbの方を優先的に用いて距離情報の取得が行われても良い。同様に、図14の処理フローでは、分割セグメント領域Sc、Sdのうち分割セグメント領域Scの方を優先的に用いて距離情報の取得が行われたが、分割セグメント領域Sdの方を優先的に用いて距離情報の取得が行われても良い。   Further, in the above embodiment, the distance information is obtained by using the divided segment area Sa preferentially of the divided segment areas Sa and Sb, but the divided segment area Sb is preferentially used. Acquisition of distance information may be performed. Similarly, in the processing flow of FIG. 14, the distance information is obtained by using the divided segment area Sc preferentially among the divided segment areas Sc and Sd, but the divided segment area Sd is given priority. The distance information may be acquired using the information.

また、上記実施の形態では、図9のS103において、2つの閾値Th1、Th2を用いて、複数の視差が含まれるかが判定されたが、閾値Th2を省略し、画素ずれ量Na、Nbの差の絶対値が閾値Th1を超えるか否かのみによって、S103の判定が行われても良い。こうすると、比較領域が物体の境界に対応する領域であるような場合にも、分割セグメント領域Sa、Sbを用いた距離取得が行われるが、分割セグメント領域Sa、S
bを用いて取得された距離情報も、マッチング処理により取得されるものであるため、一定の精度が保たれた距離情報となり得る。
In the above embodiment, whether or not a plurality of parallaxes are included is determined using two threshold values Th1 and Th2 in S103 of FIG. 9, but the threshold value Th2 is omitted and the pixel shift amounts Na and Nb are determined. The determination in S103 may be made only by whether or not the absolute value of the difference exceeds the threshold value Th1. In this way, even when the comparison area is an area corresponding to the boundary of the object, distance acquisition is performed using the divided segment areas Sa and Sb, but the divided segment areas Sa and Sb are obtained.
Since the distance information acquired using b is also acquired by the matching process, it can be distance information with a certain level of accuracy.

また、上記実施の形態では、実測画像の階調を減少させた画像を用いて、距離マッチングが行われたが、ドットのエッジを強調させるためのフィルタ処理が行われた後に、距離マッチングが行われても良い。   In the above embodiment, distance matching is performed using an image obtained by reducing the gradation of the actually measured image. However, after the filter processing for enhancing the edge of the dot is performed, the distance matching is performed. It may be broken.

また、上記実施の形態では、ドットパターンのマッチング度合いを算出するために、図5(c)に示す差分値の絶対値の総和の値SAD(Sum of Absolute Difference)を用いたが、差分値の2乗の総和の値SSD(Sum of Squared Difference)を用いても良い。   In the above embodiment, the sum of absolute values of the difference values SAD (Sum of Absolute Difference) shown in FIG. 5C is used to calculate the degree of matching of the dot pattern. A sum of squared values SSD (Sum of Squared Difference) may be used.

また、上記実施の形態では、隣り合うセグメント領域が互いに重なるように、セグメント領域が設定されたが、左右に隣り合うセグメント領域が、互いに重ならなくても良く、また、上下に隣り合うセグメント領域が、互いに重ならなくても良い。また、上下左右に隣り合うセグメント領域のずれ量は、1画素に限られるものではなく、ずれ量が他の画素数に設定されても良い。さらに、上記実施の形態では、セグメント領域は、正方形状に設定されたが、長方形であっても良い。   In the above embodiment, the segment areas are set so that the adjacent segment areas overlap with each other. However, the segment areas adjacent to each other on the left and right may not overlap with each other, and the segment areas adjacent to each other on the upper and lower sides. However, they do not have to overlap each other. Further, the shift amount of the segment areas adjacent in the vertical and horizontal directions is not limited to one pixel, and the shift amount may be set to another number of pixels. Furthermore, in the said embodiment, although the segment area | region was set to square shape, a rectangle may be sufficient.

また、上記実施の形態では、セグメント領域と比較領域のマッチング率を算出する前に、セグメント領域と比較領域に含まれる画素の画素値を0〜12の階調に減少したが、さらに階調を減少して2値化しても良いし、CMOSイメージセンサ240によって得られた画素値をそのまま用いて、マッチングしても良い。   In the above embodiment, the pixel values of the pixels included in the segment area and the comparison area are reduced to 0 to 12 before calculating the matching ratio between the segment area and the comparison area. It may be reduced and binarized, or matching may be performed using the pixel value obtained by the CMOS image sensor 240 as it is.

また、上記実施の形態では、三角測量法を用いて距離情報が求められ、メモリ25に記憶されたが、三角測量法による演算なしに、セグメント領域の変位量(画素ずれ量)を距離情報として取得しても良く、他の手法で距離情報を取得しても良い。   In the above embodiment, the distance information is obtained by using the triangulation method and stored in the memory 25. However, the displacement amount (pixel displacement amount) of the segment area is used as the distance information without calculation by the triangulation method. You may acquire and distance information may be acquired by another method.

また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230が省略され得る。 また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、右手を用いたテレビ等の制御入力以外の情報取得形態にも、本発明は適用可能である。   Further, in the above embodiment, the filter 230 is disposed to remove light in a wavelength band other than the wavelength band of the laser light irradiated to the target region. For example, light other than the laser light irradiated to the target region is used. In the case where a circuit configuration for removing the signal component from the signal output from the CMOS image sensor 240 is arranged, the filter 230 may be omitted. In the above embodiment, the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor may be used instead. Furthermore, the configurations of the projection optical system 100 and the light receiving optical system 200 can be changed as appropriate. In addition, the present invention can be applied to information acquisition forms other than control input such as a television using the right hand.

本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims.

1 … 物体検出装置
2 … 情報取得装置
21b … 距離取得部
211a … Rsad演算ブロック(第1のマッチング演算部)
211b … Rsad演算ブロック(第2のマッチング演算部)
212 … 視差判定/距離演算ブロック(距離取得部)
23 … 撮像信号処理回路(距離取得部)
26 … Rsad演算回路(距離取得部)
26a … Rsad演算ブロック(第1のマッチング演算部)
26b … Rsad演算ブロック(第2のマッチング演算部)
26c … 加算器(加算部)
27 … 視差判定/距離演算回路(距離取得部)
3 … 情報処理装置
31a … 物体検出部
100 … 投射光学系
110 … レーザ光源
200 … 受光光学系
240 … CMOSイメージセンサ(イメージセンサ)
S … セグメント領域
Sa … 分割セグメント領域(第1の分割セグメント領域)
Sb … 分割セグメント領域(第2の分割セグメント領域)
Sc … 分割セグメント領域(第3の分割セグメント領域)
Sd … 分割セグメント領域(第4の分割セグメント領域)
Se〜Sh … 分割セグメント領域
Cw、Cg … 比較領域
1 ... Object detection device
2 ... Information acquisition device 21b ... Distance acquisition unit 211a ... Rsad calculation block (first matching calculation unit)
211b ... Rsad calculation block (second matching calculation unit)
212 ... Parallax determination / distance calculation block (distance acquisition unit)
23 ... Imaging signal processing circuit (distance acquisition unit)
26 ... Rsad arithmetic circuit (distance acquisition unit)
26a: Rsad calculation block (first matching calculation unit)
26b Rsad calculation block (second matching calculation unit)
26c: Adder (adder)
27: Parallax determination / distance calculation circuit (distance acquisition unit)
DESCRIPTION OF SYMBOLS 3 ... Information processing apparatus 31a ... Object detection part 100 ... Projection optical system 110 ... Laser light source 200 ... Light reception optical system 240 ... CMOS image sensor (image sensor)
S: Segment area Sa: Divided segment area (first divided segment area)
Sb: Divided segment area (second divided segment area)
Sc: divided segment area (third divided segment area)
Sd: Divided segment area (fourth divided segment area)
Se to Sh: Divided segment area Cw, Cg: Comparison area

Claims (7)

レーザ光源から出射されたレーザ光を所定のドットパターンで目標領域に投射する投射光学系と、
前記投射光学系に対して所定の距離だけ横に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、
基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、実測時に前記イメージセンサにより撮像された実測ドットパターンとに基づいて、前記目標領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備え、
前記距離取得部は、
前記基準ドットパターンに設定されたセグメント領域の、前記実測ドットパターン上における変位位置を探索し、探索された前記変位位置に基づいて、当該セグメント領域に対する前記距離情報を取得する第1の処理ルートと、
前記セグメント領域が分割された分割セグメント領域の、前記実測ドットパターン上における変位位置を探索し、探索された前記変位位置に基づいて、当該セグメント領域に対する前記距離情報を取得する第2の処理ルートと、を備え、
前記探索の際に前記セグメント領域と照合される、前記実測ドットパターン上の比較領域に、異なる距離の位置から反射されたドットが含まれるか否かを判定するための所定の判定条件が充足されるか否かに基づいて、前記第1の処理ルートと前記第2の処理ルートの何れか一方を選択して前記距離情報を取得する、
ことを特徴とする情報取得装置。
A projection optical system that projects laser light emitted from a laser light source onto a target area with a predetermined dot pattern;
A light receiving optical system that is arranged so as to be laterally separated by a predetermined distance with respect to the projection optical system, and that captures the target area by an image sensor;
Based on the reference dot pattern imaged by the light receiving optical system when the laser beam is irradiated on the reference surface and the measured dot pattern imaged by the image sensor at the time of actual measurement, up to the object included in the target area A distance acquisition unit that acquires distance information about the distance,
The distance acquisition unit
A first processing route for searching for a displacement position of the segment area set in the reference dot pattern on the measured dot pattern and acquiring the distance information with respect to the segment area based on the searched displacement position; ,
A second processing route for searching for a displacement position on the measured dot pattern of the divided segment area obtained by dividing the segment area, and acquiring the distance information with respect to the segment area based on the searched displacement position; With
A predetermined determination condition for determining whether or not a dot reflected from a position at a different distance is included in the comparison region on the actual measurement dot pattern that is collated with the segment region during the search is satisfied. Based on whether or not to select the first processing route and the second processing route to obtain the distance information,
An information acquisition apparatus characterized by that.
請求項1に記載の情報取得装置において、
前記セグメント領域が、第1の分割セグメント領域と第2の分割セグメント領域に分割され、
前記第2の処理ルートは、前記第1の分割セグメント領域による前記距離情報の取得を、前記第2の分割セグメント領域による前記距離情報の取得よりも優先的に行う、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 1,
The segment area is divided into a first divided segment area and a second divided segment area,
The second processing route preferentially obtains the distance information by the first divided segment area over obtaining the distance information by the second divided segment area.
An information acquisition apparatus characterized by that.
請求項2に記載の情報取得装置において、
前記距離取得部は、
前記第1および第2の分割セグメント領域のドットと前記実測ドットパターン上のドットとの間のマッチング度合いをそれぞれ演算する第1および第2のマッチング演算部と、
前記第1および第2のマッチング演算部により求めた前記マッチング度合いを加算することにより、前記セグメント領域のドットの実測ドットパターン上のドットと間のマッチング度合いを取得する加算部とを備える、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 2,
The distance acquisition unit
First and second matching calculation units for calculating the degree of matching between the dots in the first and second divided segment areas and the dots on the measured dot pattern, respectively;
An addition unit that obtains a matching degree between the dots on the measured dot pattern of the dots in the segment area by adding the matching degrees obtained by the first and second matching calculation units;
An information acquisition apparatus characterized by that.
請求項2または3に記載の情報取得装置において、
前記距離取得部は、前記判定条件として、前記第1の分割セグメント領域の前記実測ドットパターン上における変位位置と、前記第2の分割セグメント領域の前記実測ドットパターン上における変位位置との接近度合いが所定の閾値範囲内にあるかの条件を含み、前記接近度合いが前記閾値範囲内にあるときに、前記第2の処理ルートを選択して、前記距離情報を取得する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 2 or 3,
The distance acquisition unit has, as the determination condition, a degree of approach between a displacement position of the first divided segment region on the measured dot pattern and a displacement position of the second divided segment region on the measured dot pattern. Including a condition as to whether it is within a predetermined threshold range, and when the degree of approach is within the threshold range, select the second processing route to obtain the distance information;
An information acquisition apparatus characterized by that.
請求項2または3に記載の情報取得装置において、
前記距離取得部は、前記判定条件として、前記分割セグメント領域に基づく前記距離情報の取得が適正ではないと判定するための条件を含み、当該条件が満たされた場合に、前
記第2の処理ルートを選択して、前記距離情報を取得する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 2 or 3,
The distance acquisition unit includes, as the determination condition, a condition for determining that acquisition of the distance information based on the divided segment region is not appropriate, and when the condition is satisfied, the second processing route To obtain the distance information,
An information acquisition apparatus characterized by that.
請求項2ないし5の何れか一項に記載の情報取得装置において、
前記セグメント領域が、前記第1の分割セグメント領域と前記第2の分割セグメント領域を分割する第1の分割方向と異なる第2の分割方向に、第3のセグメント領域と第4のセグメント領域に分割され、
前記第2の処理ルートは、前記距離情報の取得処理の優先順位を、前記第1の分割セグメント領域、前記第2の分割セグメント領域、第3の分割セグメント領域および第4の分割セグメント領域の順に設定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 2 to 5,
The segment area is divided into a third segment area and a fourth segment area in a second division direction different from a first division direction for dividing the first divided segment area and the second divided segment area. And
The second processing route sets the priority of the distance information acquisition processing in the order of the first divided segment area, the second divided segment area, the third divided segment area, and the fourth divided segment area. Set,
An information acquisition apparatus characterized by that.
請求項1ないし6の何れか一項に記載の情報取得装置と、
前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。
The information acquisition device according to any one of claims 1 to 6,
An object detection unit that detects a predetermined target object based on the distance information,
An object detection apparatus characterized by that.
JP2012161945A 2012-07-20 2012-07-20 Information acquisition device and object detection device Pending JP2014021017A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012161945A JP2014021017A (en) 2012-07-20 2012-07-20 Information acquisition device and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012161945A JP2014021017A (en) 2012-07-20 2012-07-20 Information acquisition device and object detection device

Publications (1)

Publication Number Publication Date
JP2014021017A true JP2014021017A (en) 2014-02-03

Family

ID=50196027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012161945A Pending JP2014021017A (en) 2012-07-20 2012-07-20 Information acquisition device and object detection device

Country Status (1)

Country Link
JP (1) JP2014021017A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105634A (en) * 2017-12-12 2019-06-27 三星電子株式会社Samsung Electronics Co.,Ltd. Method for estimating depth of image in structured-light based 3d camera system
CN113597567A (en) * 2019-03-26 2021-11-02 松下知识产权经营株式会社 Distance image acquisition method and distance detection device
CN114762019A (en) * 2019-12-17 2022-07-15 日立安斯泰莫株式会社 Camera system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105634A (en) * 2017-12-12 2019-06-27 三星電子株式会社Samsung Electronics Co.,Ltd. Method for estimating depth of image in structured-light based 3d camera system
US12095972B2 (en) 2017-12-12 2024-09-17 Samsung Electronics Co., Ltd. Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system
CN113597567A (en) * 2019-03-26 2021-11-02 松下知识产权经营株式会社 Distance image acquisition method and distance detection device
CN114762019A (en) * 2019-12-17 2022-07-15 日立安斯泰莫株式会社 Camera system

Similar Documents

Publication Publication Date Title
JP5138119B2 (en) Object detection device and information acquisition device
US10613228B2 (en) Time-of-flight augmented structured light range-sensor
US8477198B2 (en) Interaction control system, method for detecting motion of object, host apparatus and control method thereof
JP5214062B1 (en) Information acquisition device and object detection device
JP2014122789A (en) Information acquisition device, projection device, and object detector
JP5138116B2 (en) Information acquisition device and object detection device
WO2014108976A1 (en) Object detecting device
EP3951314B1 (en) Three-dimensional measurement system and three-dimensional measurement method
JP2014137762A (en) Object detector
JP2012237604A (en) Information acquisition apparatus, projection device and object detection device
JP5138115B2 (en) Information acquisition apparatus and object detection apparatus having the information acquisition apparatus
JP2014044113A (en) Information acquisition device and object detector
JP2014021017A (en) Information acquisition device and object detection device
JPWO2013015145A1 (en) Information acquisition device and object detection device
JPWO2012026180A1 (en) Information acquisition device and object detection device
JP2014025804A (en) Information acquisition device and object detection device
JP2013246009A (en) Object detection apparatus
JP2014052307A (en) Information acquisition device and object detection device
WO2012144340A1 (en) Information acquisition device and object detection device
JP2014085257A (en) Information acquisition device and object detection device
JP2014035294A (en) Information acquisition device and object detector
JP2013234956A (en) Information acquisition apparatus and object detection system
US20140035879A1 (en) Optical touch system and method
WO2013015146A1 (en) Object detection device and information acquisition device
JP2013246010A (en) Information acquisition device and object detection device