[go: up one dir, main page]

JP2010074362A - Distance image generating device - Google Patents

Distance image generating device Download PDF

Info

Publication number
JP2010074362A
JP2010074362A JP2008237854A JP2008237854A JP2010074362A JP 2010074362 A JP2010074362 A JP 2010074362A JP 2008237854 A JP2008237854 A JP 2008237854A JP 2008237854 A JP2008237854 A JP 2008237854A JP 2010074362 A JP2010074362 A JP 2010074362A
Authority
JP
Japan
Prior art keywords
pixels
distance image
distance
read
thinning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008237854A
Other languages
Japanese (ja)
Inventor
Junichi Fujita
順一 藤田
Takashi Kawada
任史 河田
Ryohei Ikeno
良平 池野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanley Electric Co Ltd
Original Assignee
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanley Electric Co Ltd filed Critical Stanley Electric Co Ltd
Priority to JP2008237854A priority Critical patent/JP2010074362A/en
Publication of JP2010074362A publication Critical patent/JP2010074362A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】高速処理が可能な距離画像生成装置を提供する。
【解決手段】対象空間に光を照射する発光源と、前記発光源から照射され対象空間内の対象物で反射した反射光を受光して電荷に変換する光電変換素子と前記変換された電荷を蓄積する電荷蓄積部との組み合わせからなる複数の画素を含む撮像素子と、前記複数の画素から前記蓄積された電荷を読み出す読み出し手段と、前記読み出し手段により読み出された電荷に基づいて、画素値が距離値である距離画像を生成する距離画像生成部と、前記対象空間内の対象物との距離が近づいたか否かを判定する判定手段と、前記読み出し手段により読み出し対象とされる画素を間引く間引き手段と、を備え、前記間引き手段は、前記判定手段により前記対象空間内の対象物との距離が近づいたと判定された場合に、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。
【選択図】 図4
A distance image generation apparatus capable of high-speed processing is provided.
A light emitting source that irradiates light to a target space, a photoelectric conversion element that receives reflected light that is irradiated from the light source and reflected by an object in the target space, and converts the light into a charge, and the converted charge An image sensor including a plurality of pixels formed by a combination with a charge storage unit to store, a reading unit that reads the accumulated charges from the plurality of pixels, and a pixel value based on the charges read by the reading unit A distance image generating unit that generates a distance image having a distance value; a determination unit that determines whether or not the distance between the target object in the target space is approached; and a pixel that is to be read by the reading unit is thinned out Thinning means, wherein the thinning means is read by the reading means when the determining means determines that the distance to the object in the target space is approaching. Wherein the thinning pixels that are.
[Selection] Figure 4

Description

本発明は、距離画像生成装置に係り、特に高速処理が可能な距離画像生成装置に関する。   The present invention relates to a distance image generation device, and more particularly to a distance image generation device capable of high-speed processing.

従来、距離画像センサ(CCDタイプやCMOSタイプがある)を用いていわゆる距離画像を生成する装置が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, an apparatus that generates a so-called distance image using a distance image sensor (there is a CCD type or a CMOS type) is known (for example, Patent Document 1).

特許文献1に記載の距離画像生成装置は、所定の発光周波数で強度変調された光を空間に放射する発光源、発光源が放射した光の反射光を受光し受光強度に対応する信号レベルの受光信号を出力する複数個の光電変換部を備える距離画像センサとしてのイメージセンサ等を備えている。   The distance image generating device described in Patent Document 1 emits light whose intensity is modulated at a predetermined light emission frequency into a space, receives reflected light of light emitted from the light source, and has a signal level corresponding to the received light intensity. An image sensor or the like as a distance image sensor including a plurality of photoelectric conversion units that output light reception signals is provided.

特許文献1に記載の距離画像生成装置においては、変調周期内に反射光を受光して電荷に変換し、この変換した電荷に基づいて所定演算を行うことにより、変調光と反射光との位相差を算出し、距離画像を生成している。
特開2004−32682号公報
In the distance image generation device described in Patent Document 1, reflected light is received and converted into electric charges within a modulation period, and a predetermined calculation is performed based on the converted electric charges, whereby the levels of the modulated light and the reflected light are changed. A phase difference is calculated and a distance image is generated.
JP 2004-32682 A

しかしながら、上記特許文献1においては、全画素が常に読み出し対象とされているため、情報量が多く、相当の処理時間を要するという問題がある。   However, in the above-mentioned patent document 1, since all pixels are always read, there is a problem that the amount of information is large and a considerable processing time is required.

本発明は、このような事情に鑑みてなされたものであり、高速処理が可能な距離画像生成装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide a distance image generation apparatus capable of high-speed processing.

上記課題を解決するため、請求項1に記載の発明は、対象空間に光を照射する発光源と、前記発光源から照射され対象空間内の対象物で反射した反射光を受光して電荷に変換する光電変換素子と前記変換された電荷を蓄積する電荷蓄積部との組み合わせからなる複数の画素を含む撮像素子と、前記複数の画素から前記蓄積された電荷を読み出す読み出し手段と、前記読み出し手段により読み出された電荷に基づいて、画素値が距離値である距離画像を生成する距離画像生成部と、前記対象空間内の対象物との距離が近づいたか否かを判定する判定手段と、前記読み出し手段により読み出し対象とされる画素を間引く間引き手段と、を備え、前記間引き手段は、前記判定手段により前記対象空間内の対象物との距離が近づいたと判定された場合に、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is directed to a light source that irradiates light to a target space, and reflected light that is irradiated from the light source and reflected by an object in the target space to receive charges. An imaging device including a plurality of pixels formed by a combination of a photoelectric conversion element for conversion and a charge storage unit for storing the converted charge, a reading unit for reading the accumulated charge from the plurality of pixels, and the reading unit A distance image generation unit that generates a distance image whose pixel value is a distance value based on the electric charge read out by the determination unit, and a determination unit that determines whether or not the distance between the object in the target space is approached, A thinning means for thinning out pixels to be read by the reading means, and the thinning means is determined by the determination means to be close to the object in the target space Characterized by thinning out pixels that are a read target by the reading means.

請求項1に記載の発明によれば、対象空間内の対象物との距離が近づいたと判定された場合に、読み出し手段により読み出し対象とされる画素が間引かれるため、全画素が常に読み出し対象とされる場合と比べ、情報量を減らすことが可能となり、処理の高速化が可能となる。   According to the first aspect of the present invention, when it is determined that the distance to the object in the target space is close, the pixels to be read are thinned out by the reading unit, so that all the pixels are always read. The amount of information can be reduced and the processing speed can be increased as compared with the case where it is assumed.

例えば、距離画像センサ(例えば、1万画素、15fps)の全画素を読み出し対象とする場合、時速100km(27.8m/秒)で移動する周囲環境の物体については、約1.85mごとにしか検出できないが、読み出し対象とする画素を3/4間引くとすれば、約0.46mごとに検出することが可能となる(距離画像を用いた検出速度の向上)。   For example, when all the pixels of a distance image sensor (for example, 10,000 pixels, 15 fps) are to be read, an object in the surrounding environment that moves at a speed of 100 km / h (27.8 m / sec) is only about every 1.85 m. Although detection is not possible, if pixels to be read are thinned out by 3/4, detection can be performed at intervals of about 0.46 m (improvement of detection speed using a distance image).

また、請求項1に記載の発明によれば、対象空間内の対象物との距離が近づいたと判定された場合にのみ、読み出し対象とされる画素が間引かれ、対象空間内の対象物との距離が近づいたと判定されない場合(例えば、対象物が遠方に存在する場合)には、読み出し対象とされる画素が間引かれない。このため、遠方に存在する対象物に対応する画素が間引かれ、当該対象物を認識できなくなることを防止することが可能となる。   In addition, according to the first aspect of the present invention, only when it is determined that the distance from the object in the target space is close, pixels to be read out are thinned out, and the object in the target space is If it is not determined that the distance is close (for example, when the object is located far away), pixels to be read are not thinned out. For this reason, it is possible to prevent the pixels corresponding to the object existing in the distance from being thinned out so that the object cannot be recognized.

請求項2に記載の発明は、請求項1に記載の発明において、前記間引き手段は、第1パルス幅のパルス及び前記第1パルス幅より短い第2パルス幅のパルスを組み合わせたパルス列からなる間引きパターンに基づいて、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the thinning-out means includes a thinning-out consisting of a combination of a pulse having a first pulse width and a pulse having a second pulse width shorter than the first pulse width. Based on the pattern, the pixels to be read out are thinned out by the reading means.

請求項2に記載の発明によれば、第1パルス幅のパルス及び前記第1パルス幅より短い第2パルス幅のパルスを組み合わせたパルス列からなる間引きパターンに基づいて間引くため、第1パルス幅のパルス及び第2パルス幅のパルスを適宜に組み合わせることで、読み出し対象とされる画素を各種の間引きパターンで間引くことが可能となる。   According to the second aspect of the present invention, since the thinning is performed based on a thinning pattern composed of a pulse train obtained by combining a pulse having a first pulse width and a pulse having a second pulse width shorter than the first pulse width, By appropriately combining the pulse and the pulse having the second pulse width, it is possible to thin out the pixels to be read out with various thinning patterns.

請求項3に記載の発明は、請求項1又は2に記載の発明において、前記距離画像生成部により生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントするカウント手段と、前記カウント手段によりカウントされた特定の距離範囲に属する画素の個数と閾値とを比較する比較手段と、をさらに備え、前記判定手段は、前記特定の距離範囲に属する画素の個数が閾値を超えた場合に、前記対象空間内の対象物との距離が近づいたと判定することを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the counting means for counting the number of pixels of the distance image generated by the distance image generation unit for each distance range divided in advance. Comparing means for comparing the number of pixels belonging to the specific distance range counted by the counting means with a threshold value, wherein the judging means exceeds the number of pixels belonging to the specific distance range. In this case, it is determined that the distance from the object in the object space is close.

請求項3に記載の発明によれば、周囲環境の個々の対象物に着目することなく、特定の距離範囲に属する画素の個数が閾値を超えた場合に、対象空間内の対象物との距離が近づいたと判定するため、周囲環境の個々の対象物ごとに距離を算出するのと比べ、処理の高速化が可能となる。   According to the third aspect of the present invention, when the number of pixels belonging to the specific distance range exceeds the threshold without paying attention to the individual objects in the surrounding environment, the distance to the object in the target space. Therefore, it is possible to increase the processing speed compared to calculating the distance for each object in the surrounding environment.

請求項4に記載の発明は、請求項1から3のいずれかに記載の発明において、前記間引き手段は、前記複数の画素、前記複数の画素のうち特定の対象物に対応する画素群、又は、前記複数の画素のうち特定の対象物に対応する画素群以外の画素から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the thinning means includes the plurality of pixels, a pixel group corresponding to a specific object among the plurality of pixels, or The pixels to be read out by the reading means are thinned out from the pixels other than the pixel group corresponding to a specific object among the plurality of pixels.

請求項4に記載の発明によれば、複数の画素(全画素)、複数の画素のうち特定の対象物に対応する画素群、又は、複数の画素のうち特定の対象物に対応する画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる。   According to the invention described in claim 4, a plurality of pixels (all pixels), a pixel group corresponding to a specific object among the plurality of pixels, or a pixel group corresponding to a specific object among the plurality of pixels. It is possible to thin out pixels to be read from other pixels.

例えば、本発明の距離画像生成装置を車両等の移動体に搭載し、街中を比較的遅い速度で走行する場合には、複数の画素のうち特定の対象物(例えば、バス、人、木)に対応する画素群から、読み出し対象とされる画素を間引くようにするのが好ましい。このようにすれば、特定の対象物(例えば、バス、人、木)に対応する画素群の周囲の変化に注意を向けることが可能となる。   For example, when the distance image generating apparatus of the present invention is mounted on a moving body such as a vehicle and travels at a relatively slow speed in a city, a specific object (eg, bus, person, tree) among a plurality of pixels. It is preferable that pixels to be read are thinned out from the pixel group corresponding to. In this way, it is possible to pay attention to changes around the pixel group corresponding to a specific object (for example, bus, person, tree).

また、本発明の距離画像生成装置を車両等の移動体に搭載し、高速道路を走る場合には、複数の画素のうち特定の対象物(例えば、バス、人、木)に対応する画素群以外の画素から、読み出し対象とされる画素を間引くようにするのが好ましい。このようにすれば、特定の対象物(例えば、バス、人、木)に対応する画素群の変化に注意を向けることが可能となる。   In addition, when the distance image generating apparatus of the present invention is mounted on a moving body such as a vehicle and runs on a highway, a pixel group corresponding to a specific object (for example, a bus, a person, a tree) among a plurality of pixels. It is preferable to thin out pixels to be read from other pixels. In this way, it is possible to pay attention to changes in the pixel group corresponding to a specific object (for example, bus, person, tree).

請求項5に記載の発明は、請求項1から3のいずれかに記載の発明において、前記距離画像生成手段により生成された距離画像に含まれる特定の対象物の大きさを検出する検出手段と、前記検出手段により検出された前記特定の対象物の大きさと形状データベースとを照合する照合手段と、をさらに備え、前記間引き手段は、前記検出手段により検出された前記特定の対象物が前記形状データベースに登録されている場合に、前記複数の画素のうち前記特定の対象物に対応する画素群から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。   According to a fifth aspect of the present invention, in the invention according to any one of the first to third aspects, the detection means detects a size of a specific object included in the distance image generated by the distance image generation means. Collating means for collating the size and shape database of the specific object detected by the detecting means, and the thinning means is configured such that the specific object detected by the detecting means is the shape. When registered in the database, pixels to be read out by the reading unit are thinned out from a pixel group corresponding to the specific object among the plurality of pixels.

請求項5に記載の発明によれば、形状データベースを用いているため、複数の画素のうち特定の対象物(例えば、バス、人、木)をより正確に認識することが可能となり、当該認識された特定の対象物に対応する画素群(例えば、バス、人、木)から、読み出し対象とされる画素を間引くことが可能となる。   According to the invention described in claim 5, since the shape database is used, it is possible to more accurately recognize a specific object (for example, bus, person, tree) among a plurality of pixels. It is possible to thin out pixels to be read out from a pixel group (for example, bus, person, tree) corresponding to the specified target object.

請求項6に記載の発明は、請求項1から3のいずれかに記載の発明において、前記距離画像生成手段により生成された距離画像に含まれる特定の対象物について、次のタイミングで生成される距離画像中の当該特定の対象物の境界線に対応する画素を推定する推定手段をさらに備え、前記間引き手段は、前記推定手段により推定された前記次のタイミングで生成される距離画像中の特定の対象物の境界線に対応する画素以外の画素から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする。   The invention according to claim 6 is the invention according to any one of claims 1 to 3, wherein the specific object included in the distance image generated by the distance image generation means is generated at the next timing. The image processing apparatus further includes an estimation unit that estimates a pixel corresponding to a boundary line of the specific object in the range image, and the thinning unit is specified in the range image generated at the next timing estimated by the estimation unit. The pixels to be read out are thinned out by pixels other than the pixels corresponding to the boundary line of the target object.

請求項6に記載の発明によれば、推定手段により推定された次のタイミングで生成される距離画像中の特定の対象物の境界線に対応する画素群以外の画素から、読み出し対象とされる画素を間引くため、例えば、特定の対象物がトラック等の車両である場合、当該車両の境界線に対応する画素は間引かれることなく常に読み出し対象とされる。このため、当該車両の影から突然現れる二輪車等を検出することが可能となる。   According to the sixth aspect of the present invention, the pixel to be read out is a pixel other than the pixel group corresponding to the boundary line of the specific object in the distance image generated at the next timing estimated by the estimation unit. In order to thin out pixels, for example, when a specific object is a vehicle such as a truck, pixels corresponding to the boundary line of the vehicle are always read out without being thinned out. For this reason, it is possible to detect a motorcycle or the like that suddenly appears from the shadow of the vehicle.

本発明によれば、高速処理が可能な距離画像生成装置を提供することが可能となる。   According to the present invention, it is possible to provide a distance image generation device capable of high-speed processing.

〔第一実施形態〕
以下、本発明の一実施形態である距離画像生成装置について図面を参照しながら説明する。
[First embodiment]
Hereinafter, a distance image generating apparatus according to an embodiment of the present invention will be described with reference to the drawings.

〔距離画像生成装置の構成〕
まず、本実施形態の距離画像生成装置の構成について説明する。
[Configuration of Distance Image Generation Device]
First, the configuration of the distance image generation device of this embodiment will be described.

図1、図4は、本実施形態の距離画像生成装置のブロック図である。   1 and 4 are block diagrams of the distance image generation apparatus of the present embodiment.

距離画像生成装置1は、図1に示すように、光飛行時間型距離画像センサ10(以下、距離画像センサ10という)を備えている。距離画像センサ10は、光源11、撮像素子15、制御部16、距離画像生成部17、通常画像生成部18等を備えている。   As shown in FIG. 1, the distance image generation device 1 includes a time-of-flight distance image sensor 10 (hereinafter referred to as a distance image sensor 10). The distance image sensor 10 includes a light source 11, an image sensor 15, a control unit 16, a distance image generation unit 17, a normal image generation unit 18, and the like.

光源11は、対象空間に基準周波数fsの光(例えば、正弦波もしくは矩形波等で高速に変調させた赤外光もしくは可視光)を照射する光源であり、LEDやレーザー等の高速変調が可能なデバイスが用いられる。   The light source 11 is a light source that irradiates the target space with light of a reference frequency fs (for example, infrared light or visible light modulated at high speed with a sine wave or a rectangular wave), and can perform high-speed modulation of LEDs, lasers, and the like. Devices are used.

撮像素子15は、XYアドレス方式のCMOS型の撮像素子であって、光源11から照射され対象空間内の対象物(例えば、図7中のバス、人、木)で反射した反射光を受光して電荷に変換する光電変換素子と前記変換された電荷を蓄積する電荷蓄積部との組み合わせからなる複数の画素を含んでいる(いずれも図示せず)。具体的には、撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光14を受光して電荷に変換する複数の光電変換素子、この光電変換素子ごとに設けられた複数の電荷蓄積部(本実施形態では四つの電荷蓄積部C1、C2、C3、C4を例示。以下、C1、C2、C3、C4は、数式において用いた場合、該電荷蓄積部C1、C2、C3、C4に蓄積された電荷量を表す)、及び、光源11の変調に同期して、光電変換素子により変換された電荷を複数の電荷蓄積部に振り分ける手段等を備えている(いずれも図示せず)。   The image sensor 15 is an XY address CMOS image sensor, and receives reflected light that is irradiated from the light source 11 and reflected by an object (for example, a bus, a person, or a tree in FIG. 7) in the target space. A plurality of pixels (not shown) each including a combination of a photoelectric conversion element that converts the charge into a charge and a charge storage portion that stores the converted charge. Specifically, the imaging element 15 receives a plurality of photoelectric conversion elements that receive incident light 14 including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light 14 into charges. A plurality of charge storage units (in this embodiment, four charge storage units C1, C2, C3, and C4 are illustrated. In the following, when C1, C2, C3, and C4 are used in mathematical expressions, C1, C2, C3, and C4), and means for distributing charges converted by the photoelectric conversion elements to a plurality of charge storage units in synchronization with the modulation of the light source 11. (Neither shown).

制御部16は、光源11と撮像素子15を同期制御する。撮像素子15は、基準周波数fsに基づいて電荷振り分けを行う。具体的には、撮像素子15は、図2に示すように、制御部16から供給されるゲート制御信号DG1、DG2、DG3、DG4に従って、基準周波数fsに同期した時間T1、T2、T3、T4ごとに、ゲートを開閉し、光電変換素子により変換された電荷を、電荷蓄積部C1、C2、C3、C4それぞれに振り分ける。撮像素子15は、時間T1〜T4のサイクルを数千〜数十万回繰り返すことで、一枚の画像を取得する。この一枚の画像を取得する時間のことを、1フレームという。なお、電荷蓄積部は、四つに限定されない。二つ以上の電荷蓄積部であれば、同様に適用することが可能である。   The control unit 16 controls the light source 11 and the image sensor 15 synchronously. The image sensor 15 performs charge distribution based on the reference frequency fs. Specifically, as illustrated in FIG. 2, the image sensor 15 is synchronized with the reference frequency fs according to the gate control signals DG 1, DG 2, DG 3, and DG 4 supplied from the control unit 16. Each time, the gate is opened and closed, and the charges converted by the photoelectric conversion elements are distributed to the charge storage portions C1, C2, C3, and C4, respectively. The imaging element 15 acquires one image by repeating the cycle of time T1 to T4 several thousand to several hundred thousand times. This time for acquiring one image is called one frame. Note that the number of charge storage units is not limited to four. The present invention can be similarly applied to two or more charge storage portions.

距離画像生成部17は、上記のように振り分けられた電荷(電荷蓄積部C1、C2、C3、C4に蓄積された電荷)に基づいて所定演算(後述の式1を用いる)を行い、画素値が測距対象物までの距離値である距離画像を生成する。距離画像は、2次元(XY方向)の位置情報に加え、その画素の距離情報も含んだ3次元(XYZ方向)情報となる。距離画像によれば、通常画像では輝度値の変化が少なくエッジ検出等で特徴量を抽出することができない場合であっても、距離情報により対象物の形状を検出することが可能となる。   The distance image generation unit 17 performs a predetermined calculation (using Expression 1 described later) based on the charges distributed as described above (charges stored in the charge storage units C1, C2, C3, and C4), and the pixel value A distance image in which is a distance value to the object to be measured is generated. The distance image becomes three-dimensional (XYZ direction) information including the distance information of the pixel in addition to the two-dimensional (XY direction) position information. According to the distance image, it is possible to detect the shape of the target object based on the distance information even when the normal image has little change in luminance value and the feature amount cannot be extracted by edge detection or the like.

通常画像生成部18は、上記のように振り分けられた電荷(電荷蓄積部C1、C2、C3、C4に蓄積された電荷)に基づいて所定演算(後述の式2を用いる)を行い、画素値が輝度値である通常画像を生成する。   The normal image generation unit 18 performs a predetermined calculation (using formula 2 described later) based on the charges distributed as described above (charges stored in the charge storage units C1, C2, C3, and C4), and the pixel value A normal image having a luminance value is generated.

以上のように、本実施形態では、一つの撮像素子15を用いて距離画像及び通常画像の両方を取得できるようになっている。   As described above, in the present embodiment, both the distance image and the normal image can be acquired using one image sensor 15.

〔距離画像を生成する原理〕
次に、距離画像を生成する原理について説明する。
[Principle for generating range images]
Next, the principle of generating a distance image will be described.

図3は、距離画像を生成する原理を説明するための図である。図3中、正弦波21は光源11から照射された基準周波数fsの光を表しており、正弦波22は撮像素子15への入射光を表している。正弦波21と正弦波22との位相差φは、光源11から照射された基準周波数fsの光の測距対象物までの飛行時間によって生じる遅延を表している。   FIG. 3 is a diagram for explaining the principle of generating a distance image. In FIG. 3, a sine wave 21 represents light of the reference frequency fs emitted from the light source 11, and a sine wave 22 represents light incident on the image sensor 15. The phase difference φ between the sine wave 21 and the sine wave 22 represents a delay caused by the flight time of the light of the reference frequency fs emitted from the light source 11 to the object to be measured.

図3では、光源11からの照射光の一周期を四つの期間に分けて四つの電荷蓄積部C1、C2、C3、C4に電荷を振り分けている。それぞれの期間をT1、T2、T3、T4とし、それぞれの期間に蓄積する電荷量をC1、C2、C3、C4とすると、位相差φは、次の式で表される。   In FIG. 3, one cycle of the light emitted from the light source 11 is divided into four periods, and the charges are distributed to the four charge storage units C1, C2, C3, and C4. If each period is T1, T2, T3, and T4, and the amount of charge accumulated in each period is C1, C2, C3, and C4, the phase difference φ is expressed by the following equation.

Figure 2010074362
Figure 2010074362

光の速度は既知であるから、この位相差φを求めることで測距対象物までの距離が求まり、画素値が距離値である距離画像を生成することが可能となる。例えば、光源11を10MHzで変調させた場合、発光側から往復で15mまでの距離を計測することが可能である。   Since the speed of light is known, by obtaining this phase difference φ, the distance to the object to be measured can be obtained, and a distance image whose pixel value is the distance value can be generated. For example, when the light source 11 is modulated at 10 MHz, it is possible to measure a distance of up to 15 m from the light emission side in a round trip.

なお、一般的な画像データ(通常画像)として用いる電荷量平均Aは、次の式で表される。   The charge amount average A used as general image data (normal image) is expressed by the following equation.

Figure 2010074362
Figure 2010074362

また、測距対象物で反射した変調光成分の振幅量Bは、次の式で表される。   Further, the amplitude amount B of the modulated light component reflected by the object to be measured is expressed by the following equation.

Figure 2010074362
Figure 2010074362

一般的に発光源の変調周波数は数十MHzであり、よって変調の1周期は数十ns程度である。そのため、距離画像を得るためには数百〜数十万周期の電荷蓄積時間を要する。   In general, the modulation frequency of the light source is several tens of MHz, and therefore one period of modulation is about several tens of ns. Therefore, in order to obtain a distance image, a charge accumulation time of several hundred to several hundred thousand cycles is required.

〔間引きの原理〕
次に、間引きの原理について説明する。
[Principle of thinning]
Next, the principle of thinning will be described.

図4、図5は、読み出し対象とされる画素(検出画素)を間引く間引き処理を説明するための図である。   4 and 5 are diagrams for explaining a thinning process for thinning out pixels (detection pixels) to be read.

図5(b)は、第1パルス幅H1のパルス及び第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンの例である。このパルス列が図4に示す水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給され画素が選択されると、第1パルス幅H1のパルスによって選択された画素から電荷が読み出される(第2パルス幅H2は第1パルス幅H1より短いため、第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   FIG. 5B shows an example of a thinning pattern composed of a pulse train in which a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1 are combined. When this pulse train is supplied by the horizontal counter 19 (H_count) (or vertical counter 20 (V_count)) shown in FIG. 4 and a pixel is selected, charge is read from the pixel selected by the pulse having the first pulse width H1. (Because the second pulse width H2 is shorter than the first pulse width H1, no charge is read from the pixel selected by the pulse having the second pulse width H2.)

この第1パルス幅H1のパルス及び第2パルス幅H2のパルスを適宜に組み合わせることで、例えば、図10〜図12、図14、図16、図19、図21に示す間引きパターンに対応するパルス列を作成することが可能となる。各図中、■は検出対象の画素(電荷が読み出される画素)を表しており、■以外の空白は電荷が読み出されない画素(検出対象とされず、間引かれる画素)を表している。   By appropriately combining the pulse having the first pulse width H1 and the pulse having the second pulse width H2, for example, a pulse train corresponding to the thinning pattern shown in FIGS. 10 to 12, 14, 16, 19, and 21. Can be created. In each figure, ■ represents a pixel to be detected (a pixel from which charges are read), and blanks other than ■ represent pixels from which charges are not to be read (pixels not to be detected and thinned).

図10は全画素から市松模様状に間引くパターンであり、図11は全画素から一列おきに間引くパターンであり、図12は全画素から一行おきに間引くパターンであり、図14(a)は距離画像に写し込まれた等距離部分から市松模様状に間引くパターンであり、図14(b)は距離画像に写し込まれた等距離部分以外の部分から市松模様状に間引くパターンであり、図16(a)は距離画像に写し込まれた等距離部分からほとんどを間引くパターンであり、図16(b)は距離画像に写し込まれた等距離部分以外の部分を全て間引くパターンであり、図19(a)は距離画像に写し込まれ、特定の対象物(例えば、図7中のバス、人、木)と認識された部分からほとんどを間引くパターンであり、図19(b)は距離画像に写し込まれ、特定の対象物(例えば、図7中のバス、人、木)と認識された部分以外の部分を全て間引くパターンであり、図21(a)は距離画像に写し込まれ、特定の対象物と認識された部分の境界部分は間引かずに、それ以外の部分から市松模様状に間引くパターンであり、図21(b)は距離画像に写し込まれ、特定の対象物と認識された部分の境界部分は間引かずに、それ以外の部分を全て間引くパターンである。   10 is a pattern that is thinned out from all pixels in a checkered pattern, FIG. 11 is a pattern that is thinned out from every pixel every other column, FIG. 12 is a pattern that is thinned out every other line from every pixel, and FIG. FIG. 14B is a pattern that is thinned out in a checkered pattern from an equidistant portion that is imprinted in the image, and FIG. 14B is a pattern that is thinned out in a checkered pattern from a portion other than the equidistant portion that is imprinted in the distance image. (A) is a pattern that thins out most of the equidistant portion imprinted in the distance image, and FIG. 16 (b) is a pattern that thins out all portions other than the equidistant portion imprinted in the distance image. (A) is a pattern which is imprinted on the distance image and thins out most of the part recognized as a specific object (for example, bus, person, tree in FIG. 7), and FIG. Imprinted, special This is a pattern in which all parts other than those recognized as objects (for example, buses, people, trees in FIG. 7) are thinned out, and FIG. 21A is imprinted on the distance image and recognized as a specific object. The boundary portion of the portion that is not thinned out is a pattern that is thinned out in a checkered pattern from the other portions, and FIG. 21B is the boundary of the portion that is imprinted in the distance image and recognized as a specific object This is a pattern in which all the other parts are thinned out without thinning out the parts.

上記のように、第1パルス幅H1のパルス及び第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンを用いることで、読み出し対象とされる画素(検出画素)を間引く間引き処理を行うことが可能となる。   As described above, by using a thinning pattern composed of a pulse train that is a combination of a pulse having the first pulse width H1 and a pulse having the second pulse width H2, thinning processing for thinning pixels (detection pixels) to be read is performed. Is possible.

〔距離画像生成装置1の動作例1〕
次に、上記構成の距離画像生成装置1の動作例1について図面を参照しながら説明する。
[Operation Example 1 of Distance Image Generating Device 1]
Next, an operation example 1 of the distance image generating apparatus 1 having the above configuration will be described with reference to the drawings.

図6は、距離画像生成装置1の動作例1を説明するためのフローチャートである。以下の処理は、主に、制御部16又はこれとは別に設けられた制御部(図示せず)等が行う。   FIG. 6 is a flowchart for explaining an operation example 1 of the distance image generating apparatus 1. The following processing is mainly performed by the control unit 16 or a control unit (not shown) provided separately.

まず、距離画像生成装置1は、撮像素子15で周囲環境を撮像し、距離画像(距離データ)を取得する処理を行う(ステップS1)。具体的には、次の処理を行う。   First, the distance image generating apparatus 1 performs processing for capturing an image of the surrounding environment with the image sensor 15 and acquiring a distance image (distance data) (step S1). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成装置1は、全画素から電荷を読み出す処理を行う。具体的には、次の処理を行う。   Next, the distance image generation device 1 performs a process of reading charges from all pixels. Specifically, the following processing is performed.

距離画像生成部17は、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給される第1パルス幅H1のパルス列(図5(a)参照)によって画素を逐次選択し、当該選択された画素から電荷を読み出す。   The distance image generation unit 17 sequentially selects pixels by a pulse train (see FIG. 5A) having the first pulse width H1 supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and Charge is read from the selected pixel.

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、図8(a)、図8(b)に示すように、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。図8(a)は時間t−dtに生成された距離画像の例であり、図8(b)は時間tに生成された距離画像の例である。   Then, the distance image generation unit 17 performs a predetermined calculation (calculation of the above formula 1) based on the read charge, calculates the phase difference φ with respect to the light source 11, and FIG. 8A and FIG. As shown in FIG. 5, a distance image having a pixel value as a distance value is generated. This generated distance image is stored in, for example, the memory 21 shown in FIG. FIG. 8A shows an example of a distance image generated at time t-dt, and FIG. 8B shows an example of a distance image generated at time t.

次に、距離画像生成装置1は、ステップS1で取得した距離画像内に近距離の信号が閾値以上存在するか否か、すなわち、対象空間内の対象物(例えば、図7中のバス、人、木)との距離が近づいたか否かを判定する(ステップS2)。具体的には、次の処理を行う。   Next, the distance image generation device 1 determines whether or not a short-distance signal exists in the distance image acquired in step S <b> 1 or more, that is, an object in the target space (for example, a bus, a person in FIG. 7). , Tree) is determined whether or not the distance is short (step S2). Specifically, the following processing is performed.

距離画像生成装置1は、図9(a)(b)に示すように、ステップS1で取得された距離画像の画素の個数を、予め区分された距離範囲A1〜A2、A2〜A3、A3〜A4、A4〜A5、A5〜A6ごとにカウントする。   As shown in FIGS. 9A and 9B, the distance image generating device 1 determines the number of pixels of the distance image acquired in step S1 by dividing the distance ranges A1 to A2, A2 to A3, and A3. It counts for every A4, A4-A5, A5-A6.

次に、比較部22は、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数と閾値とを比較する。この比較の結果、図9(b)に示すように、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数が閾値を超えたと判定された場合(ステップS2:Yes)、距離画像生成装置1は、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定し、予め定められた間引きパターン(例えば、図10、図11又は図12に示す間引きパターン)を用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う。具体的には、次の処理を行う。   Next, the comparison unit 22 compares the number of pixels belonging to a specific distance range (for example, the distance range A1 to A2) with a threshold value. As a result of this comparison, as shown in FIG. 9B, when it is determined that the number of pixels belonging to a specific distance range (for example, distance ranges A1 to A2) exceeds the threshold (step S2: Yes), the distance The image generation device 1 determines that the distance from the object in the target space (for example, a bus, a person, or a tree in FIG. 8) has approached, and determines a predetermined thinning pattern (for example, FIG. 10, FIG. 11 or FIG. Using the thinning pattern shown in FIG. 12, thinning processing is performed to thin out pixels to be read (detection target pixels). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターン(例えば、図10、図11、図12に示す間引きパターン)に基づいて、複数の画素(全画素)から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、距離画像生成部17は、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給されるパルス列(例えば、図10、図11又は図12に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 performs a thinning pattern (for example, FIG. 10, FIG. 11, FIG. 10) including a pulse train that is a combination of a pulse having a first pulse width H 1 and a pulse having a second pulse width H 2 shorter than the first pulse width H 1. Based on the thinning pattern shown in FIG. 12, pixels to be read (detection target pixels) are thinned out from a plurality of pixels (all pixels). That is, the distance image generation unit 17 supplies a pulse train (for example, a pulse train corresponding to the thinning pattern shown in FIG. 10, FIG. 11 or FIG. 12) supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)). Then, the pixels are sequentially selected, and the charge is read from the pixel selected by the pulse having the first pulse width H1 (the charge is not read from the pixel selected by the pulse having the second pulse width H2).

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored in, for example, the memory 21 shown in FIG.

以上説明したように、本動作例1によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合に(ステップS2:Yes)、読み出し対象とされる画素が間引かれるため(ステップS3)、全画素が常に読み出し対象とされる場合と比べ、情報量を減らすことが可能となり、処理の高速化が可能となる。   As described above, according to the first operation example 1, when it is determined that the distance to the target object in the target space (for example, the bus, the person, and the tree in FIG. 8) has approached (Step S2: Yes). Since the pixels to be read are thinned out (step S3), the amount of information can be reduced and the processing speed can be increased compared to the case where all the pixels are always read.

例えば、距離画像センサ(例えば、1万画素、15fps)の全画素を読み出し対象とする場合、時速100km(27.8m/秒)で移動する周囲環境の物体については、約1.85mごとにしか検出できないが、読み出し対象とする画素を3/4間引くとすれば、約0.46mごとに検出することが可能となる(距離画像を用いた検出速度の向上)。   For example, when all the pixels of a distance image sensor (for example, 10,000 pixels, 15 fps) are to be read, an object in the surrounding environment that moves at a speed of 100 km / h (27.8 m / sec) is only about every 1.85 m. Although detection is not possible, if pixels to be read are thinned out by 3/4, detection can be performed at intervals of about 0.46 m (improvement of detection speed using a distance image).

また、本動作例1によれば、第1パルス幅H1のパルス及び第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて間引くため(ステップS3)、第1パルス幅のパルス及び第2パルス幅のパルスを適宜に組み合わせることで、読み出し対象とされる画素を各種の間引きパターン(例えば、図10、図11、図12に示す間引きパターン)で間引くことが可能となる。   Further, according to the first operation example, because thinning is performed based on a thinning pattern composed of a pulse train in which a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1 are combined (step S3), By appropriately combining the first pulse width pulse and the second pulse width pulse, the pixels to be read out are thinned out in various thinning patterns (for example, thinning patterns shown in FIGS. 10, 11, and 12). Is possible.

また、本動作例1によれば、周囲環境の個々の対象物(例えば、図8中のバス、人、木)に着目することなく、ステップS1で生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントし、特定の距離範囲(例えば、A1〜A2)に属する画素の個数が閾値を超えたと判定された場合に(ステップS2:Yes)、対象空間内の対象物との距離が近づいたと判定するため、周囲環境の個々の対象物ごとに距離を算出するのと比べ、処理の高速化が可能となる。   Further, according to this operation example 1, the number of pixels of the distance image generated in step S1 is determined without paying attention to the individual objects (for example, buses, people, trees in FIG. 8) in the surrounding environment. Counting for each pre-divided distance range, and when it is determined that the number of pixels belonging to a specific distance range (for example, A1 to A2) exceeds the threshold (step S2: Yes), the object in the target space Therefore, the processing speed can be increased compared to calculating the distance for each object in the surrounding environment.

また、本動作例1によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合(ステップS2:Yes)にのみ、読み出し対象とされる画素が間引かれ、対象空間内の対象物との距離が近づいたと判定されない場合(例えば、対象物が遠方に存在する場合)には、読み出し対象とされる画素が間引かれない。このため、遠方に存在する対象物に対応する画素が間引かれ、当該対象物を認識できなくなることを防止することが可能となる。   Moreover, according to this operation example 1, only when it is determined that the distance from the object in the target space (for example, the bus, the person, the tree in FIG. 8) is approaching (Step S2: Yes), the read target If the pixel to be read out is thinned out and it is not determined that the distance to the target object in the target space is short (for example, when the target object is in the distance), the pixel to be read out is not thinned out . For this reason, it is possible to prevent the pixels corresponding to the object existing in the distance from being thinned out so that the object cannot be recognized.

〔距離画像生成装置1の動作例2〕
次に、上記構成の距離画像生成装置1の動作例2について図面を参照しながら説明する。
[Operation Example 2 of Distance Image Generating Device 1]
Next, an operation example 2 of the distance image generating apparatus 1 having the above configuration will be described with reference to the drawings.

図13は、距離画像生成装置1の動作例2を説明するためのフローチャートである。以下の処理は、主に、制御部16又はこれとは別に設けられた制御部(図示せず)等が行う。   FIG. 13 is a flowchart for explaining an operation example 2 of the distance image generating apparatus 1. The following processing is mainly performed by the control unit 16 or a control unit (not shown) provided separately.

まず、距離画像生成装置1は、撮像素子15で周囲環境を撮像し、距離画像(距離データ)を取得する処理を行う(ステップS10)。具体的には、次の処理を行う。   First, the distance image generating apparatus 1 performs processing for capturing an image of the surrounding environment with the image sensor 15 and acquiring a distance image (distance data) (step S10). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成装置1は、全画素から電荷を読み出す処理を行う。具体的には、次の処理を行う。   Next, the distance image generation device 1 performs a process of reading charges from all pixels. Specifically, the following processing is performed.

距離画像生成部17は、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給される第1パルス幅H1のパルス列(図5(a)参照)によって画素を逐次選択し、当該選択された画素から電荷を読み出す。   The distance image generation unit 17 sequentially selects pixels by a pulse train (see FIG. 5A) having the first pulse width H1 supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and Charge is read from the selected pixel.

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、図8(a)、図8(b)に示すように、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。図8(a)は時間t−dtに生成された距離画像の例であり、図8(b)は時間tに生成された距離画像の例である。   Then, the distance image generation unit 17 performs a predetermined calculation (calculation of the above formula 1) based on the read charge, calculates the phase difference φ with respect to the light source 11, and FIG. 8A and FIG. As shown in FIG. 5, a distance image having a pixel value as a distance value is generated. This generated distance image is stored in, for example, the memory 21 shown in FIG. FIG. 8A shows an example of a distance image generated at time t-dt, and FIG. 8B shows an example of a distance image generated at time t.

次に、距離画像生成装置1は、ステップS1で取得した距離画像内に近距離の信号が閾値以上存在するか否か、すなわち、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたか否かを判定する(ステップS11)。具体的には、次の処理を行う。   Next, the distance image generation device 1 determines whether or not a short-distance signal exists in the distance image acquired in step S <b> 1 or more, that is, an object in the object space (for example, a bus, a person in FIG. 8). It is determined whether or not the distance from the tree has approached (step S11). Specifically, the following processing is performed.

距離画像生成装置1は、図9(a)(b)に示すように、ステップS10で取得された距離画像の画素の個数を、予め区分された距離範囲A1〜A2、A2〜A3、A3〜A4、A4〜A5、A5〜A6ごとにカウントする。   As shown in FIGS. 9A and 9B, the distance image generating device 1 determines the number of pixels of the distance image acquired in step S10 as distance ranges A1 to A2, A2 to A3, and A3. It counts for every A4, A4-A5, A5-A6.

次に、比較部22は、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数と閾値とを比較する。この比較の結果、図9(b)に示すように、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数が閾値を超えたと判定された場合(ステップS11:Yes)、距離画像生成装置1は、ステップS10で取得された距離画像中に等距離の信号が閾値以上連続して存在するか否かを判定する(ステップS12)。   Next, the comparison unit 22 compares the number of pixels belonging to a specific distance range (for example, the distance range A1 to A2) with a threshold value. As a result of this comparison, as shown in FIG. 9B, when it is determined that the number of pixels belonging to a specific distance range (for example, distance ranges A1 to A2) exceeds the threshold (step S11: Yes), the distance The image generating apparatus 1 determines whether or not equidistant signals are continuously present in the distance image acquired in step S10 for a threshold or more (step S12).

この判定の結果、等距離の信号が閾値以上連続して存在すると判定された場合(ステップS12:Yes)、距離画像生成装置1は、間引きパターン(例えば、図14(a)又は図14(b)に示す間引きパターン)を生成し、当該間引きパターンを用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う(ステップS13)。具体的には、次の処理を行う。   As a result of this determination, when it is determined that equidistant signals are continuously present over the threshold (step S12: Yes), the distance image generating device 1 uses the thinning pattern (for example, FIG. 14A or FIG. 14B). ) And a thinning process for thinning out pixels to be read (detection target pixels) is performed using the thinning pattern (step S13). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターン(例えば、図14(a)、図14(b)に示す間引きパターン)に基づいて、ステップS12で等距離と判定された画素群又は等距離と判定された画素群以外の画素から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給されるパルス列(例えば、図14(a)又は図14(b)に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 performs a thinning pattern (for example, FIG. 14A) including a pulse train obtained by combining a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1. Based on the thinning pattern shown in FIG. 14B, a pixel to be read (a pixel to be detected) from a pixel group determined to be equidistant in step S <b> 12 or a pixel other than the pixel group determined to be equidistant. ). That is, the pixels are sequentially detected by a pulse train (for example, a pulse train corresponding to the thinning pattern shown in FIG. 14A or FIG. 14B) supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)). Then, charge is read from the pixel selected by the pulse having the first pulse width H1 (charge is not read from the pixel selected by the pulse having the second pulse width H2).

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored in, for example, the memory 21 shown in FIG.

以上説明したように、本動作例2によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合に(ステップS11:Yes)、読み出し対象とされる画素が間引かれるため(ステップS13)、全画素が常に読み出し対象とされる場合と比べ、情報量を減らすことが可能となり、処理の高速化が可能となる。   As described above, according to the second operation example, when it is determined that the distance from the target object in the target space (for example, the bus, the person, and the tree in FIG. 8) has approached (Step S11: Yes). Since the pixels to be read are thinned out (step S13), the amount of information can be reduced and the processing speed can be increased compared to the case where all the pixels are always read.

例えば、距離画像センサ(例えば、1万画素、15fps)の全画素を読み出し対象とする場合、時速100km(27.8m/秒)で移動する周囲環境の物体については、約1.85mごとにしか検出できないが、読み出し対象とする画素を3/4間引くとすれば、約0.46mごとに検出することが可能となる(距離画像を用いた検出速度の向上)。   For example, when all the pixels of a distance image sensor (for example, 10,000 pixels, 15 fps) are to be read, an object in the surrounding environment that moves at a speed of 100 km / h (27.8 m / sec) is only about every 1.85 m. Although detection is not possible, if pixels to be read are thinned out by 3/4, detection can be performed at intervals of about 0.46 m (improvement of detection speed using a distance image).

また、本動作例2によれば、第1パルス幅H1のパルス及び第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて間引くため(ステップS13)、第1パルス幅のパルス及び第2パルス幅のパルスを適宜に組み合わせることで、読み出し対象とされる画素を各種の間引きパターン(図14(a)、図14(b)、図16(a)、図16(b)等)で間引くことが可能となる。   Further, according to the second operation example, in order to perform thinning based on a thinning pattern composed of a pulse train in which a pulse having the first pulse width H1 and a pulse having the second pulse width H2 shorter than the first pulse width H1 are combined (step S13), By appropriately combining the pulse having the first pulse width and the pulse having the second pulse width, the pixels to be read out are subjected to various thinning patterns (FIG. 14A, FIG. 14B, FIG. 16A, It can be thinned out in FIG.

また、本動作例2によれば、周囲環境の個々の対象物(例えば、図8中のバス、人、木)に着目することなく、ステップS10で生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントし、特定の距離範囲(例えば、A1〜A2)に属する画素の個数が閾値を超えたと判定された場合に(ステップS11:Yes)、対象空間内の対象物との距離が近づいたと判定するため、周囲環境の個々の対象物ごとに距離を算出するのと比べ、処理の高速化が可能となる。   Further, according to the second operation example, the number of pixels of the distance image generated in step S10 is determined without paying attention to individual objects (for example, buses, people, trees in FIG. 8) in the surrounding environment. Counting for each pre-divided distance range, and when it is determined that the number of pixels belonging to a specific distance range (for example, A1 to A2) exceeds the threshold (step S11: Yes), the object in the target space Therefore, the processing speed can be increased compared to calculating the distance for each object in the surrounding environment.

また、本動作例2によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合(ステップS11:Yes)にのみ、読み出し対象とされる画素が間引かれ、対象空間内の対象物との距離が近づいたと判定されない場合(例えば、対象物が遠方に存在する場合)には、読み出し対象とされる画素が間引かれない。このため、遠方に存在する対象物に対応する画素が間引かれ、当該対象物を認識できなくなることを防止することが可能となる。   Further, according to the second operation example, only when it is determined that the distance to the target object in the target space (for example, the bus, the person, the tree in FIG. 8) is approaching (Step S11: Yes), the read target If the pixel to be read out is thinned out and it is not determined that the distance to the target object in the target space is short (for example, when the target object is in the distance), the pixel to be read out is not thinned out . For this reason, it is possible to prevent the pixels corresponding to the object existing in the distance from being thinned out so that the object cannot be recognized.

また、本動作例2によれば、特定の対象物(例えば、図8中のバス、人、木)に対応する画素群、又は、複数の画素のうち特定の対象物に対応する画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる(図14(a)、図14(b)参照)。   Further, according to the second operation example, a pixel group corresponding to a specific object (for example, a bus, a person, a tree in FIG. 8) or a pixel group corresponding to the specific object among a plurality of pixels. It is possible to thin out pixels to be read out from the pixels (see FIGS. 14A and 14B).

例えば、距離画像生成装置1を車両等の移動体に搭載し、街中を比較的遅い速度で走行する場合には、図14(a)に示す間引きパターンを用いて、特定の対象物(例えば、図8に示すバス、人、木)に対応する画素群から、読み出し対象とされる画素を間引くのが好ましい。このようにすれば、特定の対象物(例えば、図8に示すバス、人、木)に対応する画素群の周囲の変化に注意を向けることが可能となる。   For example, when the distance image generating device 1 is mounted on a moving body such as a vehicle and travels at a relatively slow speed in a city, a specific object (for example, for example, using the thinning pattern shown in FIG. It is preferable to thin out pixels to be read out from a pixel group corresponding to a bus, a person, and a tree shown in FIG. In this way, it becomes possible to pay attention to changes around the pixel group corresponding to a specific object (for example, a bus, a person, or a tree shown in FIG. 8).

また、例えば、距離画像生成装置1を車両等の移動体に搭載し、高速道路を走る場合には、図14(b)に示す間引きパターンを用いて、複数の画素のうち特定の対象物(例えば、図8に示すバス、人、木)に対応する画素群以外の画素から、読み出し対象とされる画素を間引くのが好ましい。このようにすれば、特定の対象物(例えば、バス、人、木)に対応する画素群の変化に注意を向けることが可能となる。   Further, for example, when the distance image generating apparatus 1 is mounted on a moving body such as a vehicle and runs on a highway, a specific object (a plurality of pixels) is selected using a thinning pattern shown in FIG. For example, it is preferable to thin out pixels to be read from pixels other than the pixel group corresponding to the bus, person, and tree shown in FIG. In this way, it is possible to pay attention to changes in the pixel group corresponding to a specific object (for example, bus, person, tree).

なお、本動作例2は、図15に示すように、ステップS11を削除しても実施可能である。   In addition, this operation example 2 can be implemented even if step S11 is deleted as shown in FIG.

〔距離画像生成装置1の動作例3〕
次に、上記構成の距離画像生成装置1の動作例3について図面を参照しながら説明する。
[Operation Example 3 of Distance Image Generating Device 1]
Next, an operation example 3 of the distance image generating apparatus 1 having the above configuration will be described with reference to the drawings.

図17は、距離画像生成装置1の動作例3を説明するためのフローチャートである。以下の処理は、主に、制御部16又はこれとは別に設けられた制御部(図示せず)等が行う。   FIG. 17 is a flowchart for explaining an operation example 3 of the distance image generating apparatus 1. The following processing is mainly performed by the control unit 16 or a control unit (not shown) provided separately.

まず、距離画像生成装置1は、撮像素子15で周囲環境を撮像し、距離画像(距離データ)を取得する処理を行う(ステップS20)。具体的には、次の処理を行う。   First, the distance image generation device 1 performs processing for capturing an image of the surrounding environment with the image sensor 15 and acquiring a distance image (distance data) (step S20). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成装置1は、全画素から電荷を読み出す処理を行う。具体的には、次の処理を行う。   Next, the distance image generation device 1 performs a process of reading charges from all pixels. Specifically, the following processing is performed.

距離画像生成部17は、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給される第1パルス幅H1のパルス列(図5(a)参照)によって画素を逐次選択し、当該選択された画素から電荷を読み出す。   The distance image generation unit 17 sequentially selects pixels by a pulse train (see FIG. 5A) having the first pulse width H1 supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and Charge is read from the selected pixel.

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、図8(a)、図8(b)に示すように、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。図8(a)は時間t−dtに生成された距離画像の例であり、図8(b)は時間tに生成された距離画像の例である。   Then, the distance image generation unit 17 performs a predetermined calculation (calculation of the above formula 1) based on the read charge, calculates the phase difference φ with respect to the light source 11, and FIG. 8A and FIG. As shown in FIG. 5, a distance image having a pixel value as a distance value is generated. This generated distance image is stored in, for example, the memory 21 shown in FIG. FIG. 8A shows an example of a distance image generated at time t-dt, and FIG. 8B shows an example of a distance image generated at time t.

次に、距離画像生成装置1は、ステップS20で取得した距離画像内に近距離の信号が閾値以上存在するか否か、すなわち、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたか否かを判定する(ステップS21)。具体的には、次の処理を行う。   Next, the distance image generation device 1 determines whether or not a short-distance signal exists in the distance image acquired in step S20 above a threshold value, that is, an object in the object space (for example, a bus, a person in FIG. 8). , Tree) is determined (step S21). Specifically, the following processing is performed.

距離画像生成装置1は、図9(a)(b)に示すように、ステップS20で取得された距離画像の画素の個数を、予め区分された距離範囲A1〜A2、A2〜A3、A3〜A4、A4〜A5、A5〜A6ごとにカウントする。   As shown in FIGS. 9A and 9B, the distance image generating device 1 determines the number of pixels of the distance image acquired in step S20 from the distance ranges A1 to A2, A2 to A3, and A3 that are preliminarily divided. It counts for every A4, A4-A5, A5-A6.

次に、比較部22は、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数と閾値とを比較する。この比較の結果、図9(b)に示すように、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数が閾値を超えたと判定された場合(ステップS21:Yes)、距離画像生成装置1は、ステップS20で取得された距離画像中に等距離の信号が閾値以上連続して存在するか否かを判定する(ステップS22)。   Next, the comparison unit 22 compares the number of pixels belonging to a specific distance range (for example, the distance range A1 to A2) with a threshold value. As a result of this comparison, as shown in FIG. 9B, when it is determined that the number of pixels belonging to a specific distance range (for example, distance ranges A1 to A2) has exceeded the threshold (step S21: Yes), the distance The image generation device 1 determines whether or not equidistant signals are continuously present in the distance image acquired in step S20 for a threshold or more (step S22).

この判定の結果、等距離の信号が閾値以上連続して存在すると判定された場合(ステップS22:Yes)、距離画像生成装置1は、その等距離と判定された画素群を一つの集団と認識し、当該等距離と認識された画素群の実際の大きさ(高さや幅等)を演算により求める(ステップS23)。   As a result of this determination, when it is determined that equidistant signals are continuously present beyond the threshold (step S22: Yes), the distance image generating device 1 recognizes the pixel group determined to be the equidistant as one group. Then, the actual size (height, width, etc.) of the pixel group recognized as the equidistance is obtained by calculation (step S23).

例えば、図18に示すように、等距離と認識された画素の画素値をy、レンズの焦点距離をf、一画素の大きさをxとすると、等距離と判定された画素群(図18の場合、木)の実際の大きさa(高さや幅)を、式a=y×x/fで求めることが可能である。   For example, as shown in FIG. 18, if the pixel value of a pixel recognized as equidistant is y, the focal length of the lens is f, and the size of one pixel is x, a group of pixels determined to be equidistant (FIG. 18). In this case, the actual size a (height or width) of the tree can be obtained by the equation a = y × x / f.

次に、距離画像生成装置1は、ステップS23で認識した集団がパターンにマッチするか否かを判定する(ステップS24)。具体的には、ステップS23で求めた集団の実際の大きさa(高さや幅)と形状データベース(人、車、電柱などの大きさ等のパターンを格納したデータベース)とを照合する。   Next, the distance image generation device 1 determines whether or not the group recognized in step S23 matches the pattern (step S24). Specifically, the actual size a (height and width) of the group obtained in step S23 is compared with a shape database (a database storing patterns such as sizes of people, cars, utility poles, etc.).

そして、この照合の結果、ステップS23で認識した集団がパターンにマッチすると判定された場合(ステップS24:Yes)、距離画像生成装置1は、間引きパターン(例えば、図19(a)に示す間引きパターン)を生成し、当該間引きパターンを用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う(ステップS25)。具体的には、次の処理を行う。   As a result of this collation, when it is determined that the group recognized in step S23 matches the pattern (step S24: Yes), the distance image generating device 1 uses the thinning pattern (for example, the thinning pattern shown in FIG. 19A). ) And a thinning process for thinning out pixels to be read (detection target pixels) is performed using the thinning pattern (step S25). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターン(例えば、図19(a)に示す間引きパターン)に基づいて、ステップS24でマッチした集団に対応する画素群から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給されるパルス列(図19(a)に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 performs a thinning pattern (for example, FIG. 19A) including a pulse train obtained by combining a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1. Based on the thinning pattern shown), pixels to be read (detection target pixels) are thinned out from the pixel group corresponding to the group matched in step S24. That is, the pixels are sequentially selected by the pulse train (pulse train corresponding to the thinning pattern shown in FIG. 19A) supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and the first pulse width H1 The charge is read from the pixel selected by the pulse No. (the charge is not read from the pixel selected by the pulse having the second pulse width H2).

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored in, for example, the memory 21 shown in FIG.

一方、ステップS24の判定の結果、ステップS23で認識した集団がパターンにマッチしないと判定された場合(ステップS24:No)、距離画像生成装置1は、間引きパターン(例えば、図19(b)に示す間引きパターン)を生成し、当該間引きパターンを用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う(ステップS26)。具体的には、次の処理を行う。   On the other hand, as a result of the determination in step S24, when it is determined that the group recognized in step S23 does not match the pattern (step S24: No), the distance image generating device 1 displays the thinning pattern (for example, FIG. 19B). (Thinning pattern shown) is generated, and the thinning pattern is used to thin out the pixels to be read (detection target pixels) (step S26). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて、複数の画素(全画素)のうちステップS23で認識した集団に対応する画素以外の画素から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、水平カウンタ(H_count)(又は、垂直カウンタ(V_count))によって供給されるパルス列(例えば、図19(b)に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 generates a plurality of pixels (all pixels) based on a thinning pattern composed of a pulse train obtained by combining a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1. Pixels to be read (detection target pixels) are thinned out from pixels other than the pixels corresponding to the group recognized in step S23. That is, pixels are sequentially selected by a pulse train (for example, a pulse train corresponding to the thinning pattern shown in FIG. 19B) supplied by the horizontal counter (H_count) (or vertical counter (V_count)), and the first pulse width H1 The charge is read from the pixel selected by the pulse No. (the charge is not read from the pixel selected by the pulse having the second pulse width H2).

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored in, for example, the memory 21 shown in FIG.

以上説明したように、本動作例3によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合に(ステップS21:Yes)、読み出し対象とされる画素が間引かれるため(ステップS25)、全画素が常に読み出し対象とされる場合と比べ、情報量を減らすことが可能となり、処理の高速化が可能となる。   As described above, according to the third operation example, when it is determined that the distance from the target object in the target space (for example, the bus, the person, and the tree in FIG. 8) has approached (Step S21: Yes). Since the pixels to be read are thinned out (step S25), the amount of information can be reduced and the processing speed can be increased compared to the case where all the pixels are always read.

例えば、距離画像センサ(例えば、1万画素、15fps)の全画素を読み出し対象とする場合、時速100km(27.8m/秒)で移動する周囲環境の物体については、約1.85mごとにしか検出できないが、読み出し対象とする画素を3/4間引くとすれば、約0.46mごとに検出することが可能となる(距離画像を用いた検出速度の向上)。   For example, when all the pixels of a distance image sensor (for example, 10,000 pixels, 15 fps) are to be read, an object in the surrounding environment that moves at a speed of 100 km / h (27.8 m / sec) is only about every 1.85 m. Although detection is not possible, if pixels to be read are thinned out by 3/4, detection can be performed at intervals of about 0.46 m (improvement of detection speed using a distance image).

また、本動作例3によれば、第1パルス幅H1のパルス及び第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて間引くため(ステップS25)、第1パルス幅のパルス及び第2パルス幅のパルスを適宜に組み合わせることで、読み出し対象とされる画素を各種の間引きパターン(図19(a)、図19(b)等)で間引くことが可能となる。   Further, according to the third operation example, because thinning is performed based on a thinning pattern composed of a pulse train in which a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1 are combined (step S25), By appropriately combining the first pulse width pulse and the second pulse width pulse, it is possible to thin out the pixels to be read out in various thinning patterns (FIGS. 19A, 19B, etc.). It becomes.

また、本動作例3によれば、周囲環境の個々の対象物(例えば、図8中のバス、人、木)に着目することなく、ステップS20で生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントし、特定の距離範囲(例えば、A1〜A2)に属する画素の個数が閾値を超えたと判定された場合に(ステップS21:Yes)、対象空間内の対象物との距離が近づいたと判定するため、周囲環境の個々の対象物ごとに距離を算出するのと比べ、処理の高速化が可能となる。   Further, according to the third operation example, the number of pixels of the distance image generated in step S20 is determined without paying attention to individual objects (for example, buses, people, and trees in FIG. 8) in the surrounding environment. Counting for each pre-divided distance range, and when it is determined that the number of pixels belonging to a specific distance range (for example, A1 to A2) has exceeded the threshold (step S21: Yes), the object in the target space Therefore, the processing speed can be increased compared to calculating the distance for each object in the surrounding environment.

また、本動作例3によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合(ステップS21:Yes)にのみ、読み出し対象とされる画素が間引かれ、対象空間内の対象物との距離が近づいたと判定されない場合(例えば、対象物が遠方に存在する場合)には、読み出し対象とされる画素が間引かれない。このため、遠方に存在する対象物に対応する画素が間引かれ、当該対象物を認識できなくなることを防止することが可能となる。   Further, according to the third operation example, only when it is determined that the distance to the target object in the target space (for example, the bus, the person, the tree in FIG. 8) has approached (Step S21: Yes), If the pixel to be read out is thinned out and it is not determined that the distance to the target object in the target space is short (for example, when the target object is in the distance), the pixel to be read out is not thinned out . For this reason, it is possible to prevent the pixels corresponding to the object existing in the distance from being thinned out so that the object cannot be recognized.

また、本動作例3によれば、特定の対象物(例えば、図8中のバス、人、木)に対応する画素群、又は、複数の画素のうち特定の対象物に対応する画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる(図19(a)、図19(b)参照)。   In addition, according to the third operation example, a pixel group corresponding to a specific object (for example, a bus, a person, a tree in FIG. 8) or a pixel group corresponding to a specific object among a plurality of pixels. It is possible to thin out the pixels to be read out from the pixels (see FIGS. 19A and 19B).

また、本動作例3においては、形状データベースを用いているため、複数の画素のうち特定の対象物(例えば、図8中のバス、人、木)をより正確に認識することが可能となり、当該認識された特定の対象物に対応する画素群(例えば、図8中のバス、人、木)又は当該画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる。   In addition, in the third operation example, since the shape database is used, it is possible to more accurately recognize a specific target object (for example, a bus, a person, and a tree in FIG. 8) among a plurality of pixels. It is possible to thin out pixels to be read out from a pixel group (for example, a bus, a person, a tree in FIG. 8) corresponding to the recognized specific object or a pixel other than the pixel group.

〔距離画像生成装置1の動作例4〕
次に、上記構成の距離画像生成装置1の動作例4について図面を参照しながら説明する。
[Operation Example 4 of Distance Image Generating Device 1]
Next, an operation example 4 of the distance image generating apparatus 1 having the above configuration will be described with reference to the drawings.

図20は、距離画像生成装置1の動作例4を説明するためのフローチャートである。以下の処理は、主に、制御部16又はこれとは別に設けられた制御部(図示せず)等が行う。   FIG. 20 is a flowchart for explaining an operation example 4 of the distance image generating apparatus 1. The following processing is mainly performed by the control unit 16 or a control unit (not shown) provided separately.

まず、距離画像生成装置1は、撮像素子15で周囲環境を撮像し、距離画像(距離データ)を取得する処理を行う(ステップS30)。具体的には、次の処理を行う。   First, the distance image generating apparatus 1 performs processing for capturing an image of the surrounding environment with the image sensor 15 and acquiring a distance image (distance data) (step S30). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成装置1は、全画素から電荷を読み出す処理を行う。具体的には、次の処理を行う。   Next, the distance image generation device 1 performs a process of reading charges from all pixels. Specifically, the following processing is performed.

距離画像生成部17は、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給される第1パルス幅H1のパルス列(図5(a)参照)によって画素を逐次選択し、当該選択された画素から電荷を読み出す。   The distance image generation unit 17 sequentially selects pixels by a pulse train (see FIG. 5A) having the first pulse width H1 supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and Charge is read from the selected pixel.

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、図8(a)、図8(b)に示すように、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリに格納される。図8(a)は時間t−dtに生成された距離画像の例であり、図8(b)は時間tに生成された距離画像の例である。   Then, the distance image generation unit 17 performs a predetermined calculation (calculation of the above formula 1) based on the read charge, calculates the phase difference φ with respect to the light source 11, and FIG. 8A and FIG. As shown in FIG. 5, a distance image having a pixel value as a distance value is generated. This generated distance image is stored, for example, in the memory shown in FIG. FIG. 8A shows an example of a distance image generated at time t-dt, and FIG. 8B shows an example of a distance image generated at time t.

次に、距離画像生成装置1は、ステップS30で取得した距離画像内に近距離の信号が閾値以上存在するか否か、すなわち、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたか否かを判定する(ステップS31)。具体的には、次の処理を行う。   Next, the distance image generation device 1 determines whether or not a short-distance signal exists in the distance image acquired in step S30 above a threshold value, that is, an object in the object space (for example, a bus, a person in FIG. , Tree) is determined (step S31). Specifically, the following processing is performed.

距離画像生成装置1は、図9(a)(b)に示すように、ステップS30で取得された距離画像の画素の個数を、予め区分された距離範囲A1〜A2、A2〜A3、A3〜A4、A4〜A5、A5〜A6ごとにカウントする。   As shown in FIGS. 9A and 9B, the distance image generating device 1 determines the number of pixels of the distance image acquired in step S30 as distance ranges A1 to A2, A2 to A3, and A3. It counts for every A4, A4-A5, A5-A6.

次に、比較部22は、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数と閾値とを比較する。この比較の結果、図9(b)に示すように、特定の距離範囲(例えば、距離範囲A1〜A2)に属する画素の個数が閾値を超えたと判定された場合(ステップS31:Yes)、距離画像生成装置1は、ステップS30で取得された距離画像中に等距離の信号が閾値以上連続して存在するか否かを判定する(ステップS32)。   Next, the comparison unit 22 compares the number of pixels belonging to a specific distance range (for example, the distance range A1 to A2) with a threshold value. As a result of this comparison, as shown in FIG. 9B, when it is determined that the number of pixels belonging to a specific distance range (for example, distance ranges A1 to A2) has exceeded the threshold (step S31: Yes), the distance The image generating apparatus 1 determines whether or not equidistant signals are continuously present in the distance image acquired in step S30 for a threshold or more (step S32).

この判定の結果、等距離の信号が閾値以上連続して存在すると判定された場合(ステップS32:Yes)、距離画像生成装置1は、その等距離と判定された画素群を一つの集団と認識し、当該等距離と認識された画素群の実際の大きさ(高さや幅等)を演算により求める(ステップS33)。   As a result of this determination, when it is determined that equidistant signals are continuously present beyond the threshold (step S32: Yes), the distance image generating device 1 recognizes the pixel group determined to be equidistant as one group. Then, the actual size (height, width, etc.) of the pixel group recognized as the equidistant is obtained by calculation (step S33).

例えば、図18に示すように、等距離と認識された画素の画素値をy、レンズの焦点距離をf、一画素の大きさをxとすると、等距離と判定された画素群(図18の場合、木)の実際の大きさa(高さや幅)は、式a=y×x/fで求めることが可能である。   For example, as shown in FIG. 18, if the pixel value of a pixel recognized as equidistant is y, the focal length of the lens is f, and the size of one pixel is x, a group of pixels determined to be equidistant (FIG. 18). In this case, the actual size a (height or width) of the tree can be obtained by the equation a = y × x / f.

次に、距離画像生成装置1は、ステップS33で認識した集団がパターンにマッチするか否かを判定する(ステップS34)。具体的には、ステップS33で求めた集団の実際の大きさa(高さや幅)と形状データベース(人、車、電柱などの大きさ等のパターンを格納したデータベース)とを照合する。   Next, the distance image generation device 1 determines whether or not the group recognized in step S33 matches the pattern (step S34). Specifically, the actual size a (height and width) of the group obtained in step S33 is collated with a shape database (database storing patterns such as sizes of people, cars, utility poles, etc.).

そして、この照合の結果、ステップS33で認識した集団がパターンにマッチすると判定された場合(ステップS34:Yes)、距離画像生成装置1は、間引きパターン(例えば、図21(a)に示す間引きパターン)を生成し、当該間引きパターンを用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う(ステップS35)。具体的には、次の処理を行う。   As a result of this collation, when it is determined that the group recognized in step S33 matches the pattern (step S34: Yes), the distance image generating device 1 uses the thinning pattern (for example, the thinning pattern shown in FIG. 21A). ) And a thinning process for thinning out pixels to be read (detection target pixels) using the thinning pattern (step S35). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターン(例えば、図21(a)に示す間引きパターン)に基づいて、特定の対象物(例えば、ステップS34でマッチした集団)の境界線に対応する画素群以外の画素から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、水平カウンタ19(H_count)(又は、垂直カウンタ20(V_count))によって供給されるパルス列(例えば、図21(a)に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 performs a thinning pattern (for example, FIG. 21A) including a pulse train obtained by combining a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1. Based on the thinning pattern shown, pixels to be read (detection target pixels) are thinned out from pixels other than the pixel group corresponding to the boundary line of the specific target object (for example, the group matched in step S34). That is, pixels are sequentially selected by a pulse train (for example, a pulse train corresponding to the thinning pattern shown in FIG. 21A) supplied by the horizontal counter 19 (H_count) (or the vertical counter 20 (V_count)), and the first pulse The charge is read from the pixel selected by the pulse having the width H1 (the charge is not read from the pixel selected by the pulse having the second pulse width H2).

この場合、ステップS30で生成された距離画像に含まれる特定の対象物(例えばトラック等の車両)について、対象物との距離の変化量等に基づいて、次のタイミングで生成される距離画像中の当該特定の対象物の境界線に対応する画素を推定する推定手段を設け、この推定手段により推定された画素以外の画素から、読み出し対象とされる画素を間引くのが好ましい。このようにすれば、例えば、特定の対象物が例えばトラック等の車両である場合、当該車両の境界線に対応する画素は間引かれることなく常に読み出し対象とされるため、当該車両の影から突然現れる二輪車等を検出することが可能となる。   In this case, in the distance image generated at the next timing based on the amount of change in the distance from the target object (for example, a vehicle such as a truck) included in the distance image generated in step S30. It is preferable to provide an estimation unit that estimates a pixel corresponding to the boundary line of the specific object, and to thin out pixels to be read out from pixels other than the pixel estimated by the estimation unit. In this way, for example, when a specific object is a vehicle such as a truck, pixels corresponding to the boundary line of the vehicle are always read out without being thinned out. It becomes possible to detect a motorcycle that suddenly appears.

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリ21に格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored in, for example, the memory 21 shown in FIG.

一方、ステップS34の照合の結果、ステップS33で認識した集団がパターンにマッチしないと判定された場合(ステップS34:No)、距離画像生成装置1は、間引きパターン(例えば、図21(b)に示す間引きパターン)を生成し、当該間引きパターンを用いて、読み出し対象とされる画素(検出対象の画素)を間引く間引き処理を行う(ステップS36)。具体的には、次の処理を行う。   On the other hand, when it is determined that the group recognized in step S33 does not match the pattern as a result of the collation in step S34 (step S34: No), the distance image generating device 1 displays the thinning pattern (for example, FIG. 21B). (Thinning pattern shown) is generated, and using the thinning pattern, thinning processing is performed to thin out pixels to be read (detection target pixels) (step S36). Specifically, the following processing is performed.

光源11は、制御部16の同期信号に従って、対象空間(例えば、図7(a)、図7(b))に変調した光を照射する。撮像素子15は、光源11から照射され対象空間内の対象物で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換する。この変換された電荷は、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分けられる。以上の処理を光蓄積時間が終了(経過)するまで継続する。   The light source 11 irradiates the target space (for example, FIG. 7A and FIG. 7B) with modulated light according to the synchronization signal of the control unit 16. The image sensor 15 receives incident light including reflected light that is irradiated from the light source 11 and reflected by an object in the target space, and converts the incident light into charges by a plurality of photoelectric conversion elements. The converted charges are distributed to the plurality of charge storage units C1, C2, C3, and C4 according to the gate control signals DG1, DG2, DG3, and DG4 of the control unit 16, respectively. The above processing is continued until the light accumulation time ends (elapses).

次に、距離画像生成部17は、第1パルス幅H1のパルス及び前記第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて、複数の画素(全画素)のうち特定の対象物(例えば、ステップS33で認識した集団)の境界線に対応する画素群以外の画素から、読み出し対象とされる画素(検出対象の画素)を間引く。すなわち、水平カウンタ(H_count)(又は、垂直カウンタ(V_count))によって供給されるパルス列(図21(b)に示す間引きパターンに対応するパルス列)によって画素を逐次選択し、第1パルス幅H1のパルスによって選択された画素から電荷を読み出す(第2パルス幅H2のパルスによって選択された画素から電荷は読み出されない)。   Next, the distance image generation unit 17 generates a plurality of pixels (all pixels) based on a thinning pattern composed of a pulse train obtained by combining a pulse having a first pulse width H1 and a pulse having a second pulse width H2 shorter than the first pulse width H1. Among pixels, pixels to be read (detection target pixels) are thinned out from pixels other than the pixel group corresponding to the boundary line of a specific target object (for example, the group recognized in step S33). That is, pixels are sequentially selected by a pulse train (pulse train corresponding to the thinning pattern shown in FIG. 21B) supplied by a horizontal counter (H_count) (or vertical counter (V_count)), and a pulse having a first pulse width H1. The charge is read out from the pixel selected by (the charge is not read out from the pixel selected by the pulse having the second pulse width H2).

そして、距離画像生成部17は、当該読み出した電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。この生成された距離画像は、例えば、図4に示すメモリに格納される。   Then, the distance image generation unit 17 performs a predetermined calculation (the calculation of Equation 1 above) based on the read charge, calculates the phase difference φ with the light source 11, and generates a distance image whose pixel value is a distance value. To do. This generated distance image is stored, for example, in the memory shown in FIG.

以上説明したように、本動作例4によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合に(ステップS31:Yes)、読み出し対象とされる画素が間引かれるため(ステップS35)、全画素が常に読み出し対象とされる場合と比べ、情報量を減らすことが可能となり、処理の高速化が可能となる。   As described above, according to the fourth operation example, when it is determined that the distance from the target object in the target space (for example, the bus, the person, and the tree in FIG. 8) has approached (Step S31: Yes). Since the pixels to be read are thinned out (step S35), the amount of information can be reduced and the processing speed can be increased as compared with the case where all the pixels are always read.

例えば、距離画像センサ(例えば、1万画素、15fps)の全画素を読み出し対象とする場合、時速100km(27.8m/秒)で移動する周囲環境の物体については、約1.85mごとにしか検出できないが、読み出し対象とする画素を3/4間引くとすれば、約0.46mごとに検出することが可能となる(距離画像を用いた検出速度の向上)。   For example, when all the pixels of a distance image sensor (for example, 10,000 pixels, 15 fps) are to be read, an object in the surrounding environment that moves at a speed of 100 km / h (27.8 m / sec) is only about every 1.85 m. Although detection is not possible, if pixels to be read are thinned out by 3/4, detection can be performed at intervals of about 0.46 m (improvement of detection speed using a distance image).

また、本動作例4によれば、第1パルス幅H1のパルス及び第1パルス幅H1より短い第2パルス幅H2のパルスを組み合わせたパルス列からなる間引きパターンに基づいて間引くため(ステップS35)、第1パルス幅のパルス及び第2パルス幅のパルスを適宜に組み合わせることで、読み出し対象とされる画素を各種の間引きパターン(図21(a)、図21(b)等)で間引くことが可能となる。   Further, according to the fourth operation example, because thinning is performed based on a thinning pattern composed of a pulse train in which a pulse having the first pulse width H1 and a pulse having the second pulse width H2 shorter than the first pulse width H1 are combined (step S35), By appropriately combining the first pulse width pulse and the second pulse width pulse, it is possible to thin out the pixels to be read out in various thinning patterns (FIG. 21A, FIG. 21B, etc.). It becomes.

また、本動作例4によれば、周囲環境の個々の対象物(例えば、図8中のバス、人、木)に着目することなく、ステップS30で生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントし、特定の距離範囲(例えば、A1〜A2)に属する画素の個数が閾値を超えたと判定された場合に(ステップS31:Yes)、対象空間内の対象物との距離が近づいたと判定するため、周囲環境の個々の対象物ごとに距離を算出するのと比べ、処理の高速化が可能となる。   Further, according to the fourth operation example, the number of pixels of the distance image generated in step S30 is determined without paying attention to individual objects (for example, buses, people, trees in FIG. 8) in the surrounding environment. Counting for each pre-divided distance range, and when it is determined that the number of pixels belonging to a specific distance range (for example, A1 to A2) has exceeded the threshold (step S31: Yes), the object in the target space Therefore, the processing speed can be increased compared to calculating the distance for each object in the surrounding environment.

また、本動作例4によれば、対象空間内の対象物(例えば、図8中のバス、人、木)との距離が近づいたと判定された場合(ステップS31:Yes)にのみ、読み出し対象とされる画素が間引かれ、対象空間内の対象物との距離が近づいたと判定されない場合(例えば、対象物が遠方に存在する場合)には、読み出し対象とされる画素が間引かれない。このため、遠方に存在する対象物に対応する画素が間引かれ、当該対象物を認識できなくなることを防止することが可能となる。   Further, according to the fourth operation example, only when it is determined that the distance to the target object in the target space (for example, the bus, the person, the tree in FIG. 8) is approaching (step S31: Yes), the read target If the pixel to be read out is thinned out and it is not determined that the distance to the target object in the target space is short (for example, when the target object is in the distance), the pixel to be read out is not thinned out . For this reason, it is possible to prevent the pixels corresponding to the object existing in the distance from being thinned out so that the object cannot be recognized.

また、本動作例4によれば、複数の画素のうち特定の対象物に対応する画素群、又は、複数の画素のうち特定の対象物に対応する画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる(図21(a)、図21(b)参照)。   Further, according to the fourth operation example, a pixel group corresponding to a specific object among the plurality of pixels or a pixel other than the pixel group corresponding to the specific object among the plurality of pixels is set as a reading target. Pixels can be thinned out (see FIGS. 21A and 21B).

また、本動作例4によれば、形状データベースを用いているため、複数の画素のうち特定の対象物(例えば、図8中のバス、人、木)をより正確に認識することが可能となり、当該認識された特定の対象物に対応する画素群(例えば、図8中のバス、人、木)又は当該画素群以外の画素から、読み出し対象とされる画素を間引くことが可能となる。   Further, according to the fourth operation example, since the shape database is used, it is possible to more accurately recognize a specific object (for example, a bus, a person, and a tree in FIG. 8) among a plurality of pixels. The pixels to be read can be thinned out from a pixel group (for example, a bus, a person, a tree in FIG. 8) corresponding to the recognized specific object or a pixel other than the pixel group.

また、本動作例4によれば、推定手段により推定された次のタイミングで生成される距離画像中の特定の対象物の境界線に対応する画素群以外の画素から、読み出し対象とされる画素を間引くため、例えば、特定の対象物がトラック等の車両である場合、当該車両の境界線に対応する画素は間引かれることなく常に読み出し対象とされる。このため、当該車両の影から突然現れる二輪車等を検出することが可能となる。   Further, according to the fourth operation example, pixels to be read out from pixels other than the pixel group corresponding to the boundary line of the specific object in the distance image generated at the next timing estimated by the estimation unit. For example, when a specific object is a vehicle such as a truck, pixels corresponding to the boundary line of the vehicle are always read out without being thinned out. For this reason, it is possible to detect a motorcycle or the like that suddenly appears from the shadow of the vehicle.

次に、変形例について説明する。   Next, a modified example will be described.

上記各動作例においては、周囲環境の個々の対象物(例えば、図8中のバス、人、木)に着目することなく、生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントし、特定の距離範囲(例えば、A1〜A2)に属する画素の個数が閾値を超えたと判定された場合に、対象空間内の対象物との距離が近づいたと判定するように説明したが、本発明はこれに限定されない。   In each of the above operation examples, the number of pixels of the generated distance image is divided in advance without paying attention to the individual objects in the surrounding environment (for example, buses, people, trees in FIG. 8). In the above description, the number of pixels belonging to a specific distance range (for example, A1 to A2) is determined to have exceeded the threshold value, and it is determined that the distance to the target in the target space is approaching. However, the present invention is not limited to this.

例えば、周囲環境の個々の対象物に着目し、生成された距離画像を用いて個々の対象物ごとに距離を算出し、この算出した距離が閾値を超えたと判定された場合に、対象空間内の対象物との距離が近づいたと判定してもよい。   For example, focusing on individual objects in the surrounding environment, calculating the distance for each individual object using the generated distance image, and determining that the calculated distance exceeds the threshold value, It may be determined that the distance to the target object is close.

上記実施形態はあらゆる点で単なる例示にすぎない。これらの記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。   The above embodiment is merely an example in all respects. The present invention is not construed as being limited to these descriptions. The present invention can be implemented in various other forms without departing from the spirit or main features thereof.

本実施形態の距離画像生成装置のブロック図である。It is a block diagram of the distance image generation device of this embodiment. 撮像素子15における電荷振り分けを説明するための図である。FIG. 10 is a diagram for explaining charge distribution in the image sensor 15. 距離画像を生成する原理を説明するための図である。It is a figure for demonstrating the principle which produces | generates a distance image. 読み出し対象とされる画素(検出画素)を間引く間引き処理を説明するための図である。It is a figure for demonstrating the thinning-out process which thins out the pixel (detection pixel) made into reading object. (a)全画素読み出しに用いられるパルス列の例である、(b)読み出し対象とされる画素(検出画素)を間引く間引き処理に用いられるパルス列(間引きパターン)の例である。(A) This is an example of a pulse train used for reading all pixels, and (b) is an example of a pulse train (thinning pattern) used for thinning processing for thinning out pixels to be read (detection pixels). 本実施形態の距離画像生成装置の動作例1のフローチャートである。It is a flowchart of the operation example 1 of the distance image generation apparatus of this embodiment. 本実施形態の距離画像生成装置の周囲環境例である。It is an example of the surrounding environment of the distance image generation apparatus of this embodiment. (a)時間t−dtに生成された距離画像の例であり、(b)時間tに生成された距離画像の例である。(A) An example of a distance image generated at time t-dt, and (b) an example of a distance image generated at time t. (a)図8(a)に示した距離画像の画素の個数を予め区分された距離範囲ごとにカウントした例であり、(b)図8(b)に示した距離画像の画素の個数を予め区分された距離範囲ごとにカウントした例である。(A) This is an example in which the number of pixels of the distance image shown in FIG. 8 (a) is counted for each distance range divided in advance, and (b) the number of pixels of the distance image shown in FIG. This is an example of counting for each distance range divided in advance. 動作例1において用いられる間引きパターンの例である。It is an example of the thinning pattern used in Operation Example 1. 動作例1において用いられる間引きパターンの例である。It is an example of the thinning pattern used in Operation Example 1. 動作例1において用いられる間引きパターンの例である。It is an example of the thinning pattern used in Operation Example 1. 本実施形態の距離画像生成装置の動作例2のフローチャートである。It is a flowchart of the operation example 2 of the distance image generation apparatus of this embodiment. 動作例2において用いられる間引きパターンの例である。It is an example of the thinning pattern used in the operation example 2. 動作例2の変形例のフローチャートである。10 is a flowchart of a modification of Operation Example 2. 動作例2において用いられる間引きパターンの例である。It is an example of the thinning pattern used in the operation example 2. 本実施形態の距離画像生成装置の動作例3のフローチャートである。It is a flowchart of the operation example 3 of the distance image generation apparatus of this embodiment. 距離画像に写し込まれた特定の対象物の実際の大きさを求める原理を説明するための図である。It is a figure for demonstrating the principle which calculates | requires the actual magnitude | size of the specific target object imprinted on the distance image. 動作例3において用いられる間引きパターンの例である。It is an example of the thinning pattern used in the operation example 3. 本実施形態の距離画像生成装置の動作例4のフローチャートである。It is a flowchart of the operation example 4 of the distance image generation apparatus of this embodiment. 動作例4において用いられる間引きパターンの例である。It is an example of the thinning pattern used in the operation example 4.

符号の説明Explanation of symbols

1…距離画像生成装置、10…光飛行時間型距離画像センサ(距離画像センサ)、11…光源、14…入射光、15…撮像素子、16…制御部、17…距離画像生成部、18…通常画像生成部、19…水平カウンタ(H_count)、20…垂直カウンタ、21…メモリ、φ…位相
DESCRIPTION OF SYMBOLS 1 ... Distance image generation apparatus, 10 ... Light time-of-flight type distance image sensor (distance image sensor), 11 ... Light source, 14 ... Incident light, 15 ... Image sensor, 16 ... Control part, 17 ... Distance image generation part, 18 ... Normal image generation unit, 19 ... horizontal counter (H_count), 20 ... vertical counter, 21 ... memory, φ ... phase

Claims (6)

対象空間に光を照射する発光源と、
前記発光源から照射され対象空間内の対象物で反射した反射光を受光して電荷に変換する光電変換素子と前記変換された電荷を蓄積する電荷蓄積部との組み合わせからなる複数の画素を含む撮像素子と、
前記複数の画素から前記蓄積された電荷を読み出す読み出し手段と、
前記読み出し手段により読み出された電荷に基づいて、画素値が距離値である距離画像を生成する距離画像生成部と、
前記対象空間内の対象物との距離が近づいたか否かを判定する判定手段と、
前記読み出し手段により読み出し対象とされる画素を間引く間引き手段と、を備え、
前記間引き手段は、前記判定手段により前記対象空間内の対象物との距離が近づいたと判定された場合に、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする距離画像生成装置。
A light source that irradiates the target space with light;
A plurality of pixels comprising a combination of a photoelectric conversion element that receives reflected light irradiated from the light emitting source and reflected by an object in a target space and converts the reflected light into a charge, and a charge storage unit that stores the converted charge; An image sensor;
Reading means for reading the accumulated charge from the plurality of pixels;
A distance image generation unit that generates a distance image whose pixel value is a distance value based on the electric charge read by the reading unit;
Determining means for determining whether or not the distance to the object in the target space is approached;
Thinning means for thinning out pixels to be read by the reading means,
The distance image generating apparatus, wherein the thinning unit thins out pixels to be read by the reading unit when the determining unit determines that the distance to the object in the target space is close.
前記間引き手段は、第1パルス幅のパルス及び前記第1パルス幅より短い第2パルス幅のパルスを組み合わせたパルス列からなる間引きパターンに基づいて、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする請求項1に記載の距離画像生成装置。   The thinning unit thins out pixels to be read by the reading unit based on a thinning pattern composed of a pulse train combining a pulse having a first pulse width and a pulse having a second pulse width shorter than the first pulse width. The distance image generating apparatus according to claim 1, wherein: 前記距離画像生成部により生成された距離画像の画素の個数を、予め区分された距離範囲ごとにカウントするカウント手段と、
前記カウント手段によりカウントされた特定の距離範囲に属する画素の個数と閾値とを比較する比較手段と、をさらに備え、
前記判定手段は、前記特定の距離範囲に属する画素の個数が閾値を超えた場合に、前記対象空間内の対象物との距離が近づいたと判定することを特徴とする請求項1又は2に記載の距離画像生成装置。
Counting means for counting the number of pixels of the distance image generated by the distance image generation unit for each distance range divided in advance;
Comparing means for comparing the threshold value with the number of pixels belonging to the specific distance range counted by the counting means,
The said determination means determines with the distance with the target object in the said target space having approached, when the number of the pixels which belong to the said specific distance range exceeds a threshold value. Distance image generator.
前記間引き手段は、前記複数の画素、前記複数の画素のうち特定の対象物に対応する画素群、又は、前記複数の画素のうち特定の対象物に対応する画素群以外の画素から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする請求項1から3のいずれかに記載の距離画像生成装置。   The thinning-out means reads the pixels from the pixels other than the plurality of pixels, a pixel group corresponding to a specific object among the plurality of pixels, or a pixel group corresponding to a specific object among the plurality of pixels. 4. The distance image generating apparatus according to claim 1, wherein pixels to be read out are thinned out by means. 前記距離画像生成手段により生成された距離画像に含まれる特定の対象物の大きさを検出する検出手段と、
前記検出手段により検出された前記特定の対象物の大きさと形状データベースとを照合する照合手段と、をさらに備え、
前記間引き手段は、前記検出手段により検出された前記特定の対象物が前記形状データベースに登録されている場合に、前記複数の画素のうち前記特定の対象物に対応する画素群から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする請求項1から3のいずれかに記載の距離画像生成装置。
Detecting means for detecting the size of a specific object included in the distance image generated by the distance image generating means;
Collating means for collating the size and shape database of the specific object detected by the detecting means,
When the specific object detected by the detecting means is registered in the shape database, the thinning-out means reads out from the pixel group corresponding to the specific object among the plurality of pixels. The distance image generating apparatus according to claim 1, wherein pixels to be read out are thinned out by the step.
前記距離画像生成手段により生成された距離画像に含まれる特定の対象物について、次のタイミングで生成される距離画像中の当該特定の対象物の境界線に対応する画素を推定する推定手段をさらに備え、
前記間引き手段は、前記推定手段により推定された前記次のタイミングで生成される距離画像中の特定の対象物の境界線に対応する画素以外の画素から、前記読み出し手段により読み出し対象とされる画素を間引くことを特徴とする請求項1から3のいずれかに記載の距離画像装置。
Estimation means for estimating a pixel corresponding to a boundary line of the specific object in the distance image generated at the next timing for the specific object included in the distance image generated by the distance image generation means; Prepared,
The thinning unit is a pixel to be read by the reading unit from pixels other than the pixel corresponding to the boundary line of the specific object in the distance image generated at the next timing estimated by the estimating unit. The distance image device according to claim 1, wherein the distance image device is thinned out.
JP2008237854A 2008-09-17 2008-09-17 Distance image generating device Pending JP2010074362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008237854A JP2010074362A (en) 2008-09-17 2008-09-17 Distance image generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008237854A JP2010074362A (en) 2008-09-17 2008-09-17 Distance image generating device

Publications (1)

Publication Number Publication Date
JP2010074362A true JP2010074362A (en) 2010-04-02

Family

ID=42205765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008237854A Pending JP2010074362A (en) 2008-09-17 2008-09-17 Distance image generating device

Country Status (1)

Country Link
JP (1) JP2010074362A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013096879A (en) * 2011-11-02 2013-05-20 Meidensha Corp Rotary machine gap measurement device
US8513402B2 (en) 2010-10-05 2013-08-20 Korea Institute Of Science And Technology Human serum albumin-siRNA nano-sized carrier system
US8891828B2 (en) 2012-05-17 2014-11-18 Fujitsu Limited Image processing apparatus and image processing method
JP2015228707A (en) * 2015-09-18 2015-12-17 株式会社ニコン Imaging device
US10807532B2 (en) 2014-05-29 2020-10-20 Nikon Corporation Image capture device and vehicle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8513402B2 (en) 2010-10-05 2013-08-20 Korea Institute Of Science And Technology Human serum albumin-siRNA nano-sized carrier system
JP2013096879A (en) * 2011-11-02 2013-05-20 Meidensha Corp Rotary machine gap measurement device
US8891828B2 (en) 2012-05-17 2014-11-18 Fujitsu Limited Image processing apparatus and image processing method
US10807532B2 (en) 2014-05-29 2020-10-20 Nikon Corporation Image capture device and vehicle
US11220215B2 (en) 2014-05-29 2022-01-11 Nikon Corporation Image capture device and vehicle
US11572016B2 (en) 2014-05-29 2023-02-07 Nikon Corporation Image capture device and vehicle
US12380705B2 (en) 2014-05-29 2025-08-05 Nikon Corporation Image capture device and vehicle
JP2015228707A (en) * 2015-09-18 2015-12-17 株式会社ニコン Imaging device

Similar Documents

Publication Publication Date Title
JP5145986B2 (en) Object detection apparatus and distance measuring method
US10746874B2 (en) Ranging module, ranging system, and method of controlling ranging module
US11543531B2 (en) Semi-automatic LIDAR annotation system for autonomous driving
JP5820774B2 (en) Road boundary estimation apparatus and program
KR20220058947A (en) processing of lidar images
CN110431562B (en) Image recognition device
KR20220035894A (en) Object recognition method and object recognition device performing the same
JP2011128844A (en) Road shape recognition device
CN106934347B (en) Obstacle identification method and device, computer equipment and readable medium
JP2010074362A (en) Distance image generating device
US11694446B2 (en) Advanced driver assist system and method of detecting object in the same
US20140347484A1 (en) Apparatus and method for providing surrounding environment information of vehicle
CN108351964A (en) Pattern recognition device and image-recognizing method
JP2010079582A (en) Apparatus, method and program for detecting object
JP6335037B2 (en) Outside environment recognition device
JP2010002326A (en) Movement vector detector
JP5158499B2 (en) Data communication device
JP6458577B2 (en) Image ranging device
CN107452012A (en) A kind of pedestrian recognition method, device and electronic equipment
KR20210055752A (en) Detection of objects in the car&#39;s surroundings
WO2022163224A1 (en) Distance measuring device
JP2008241434A (en) Distance image generator
JP2018092603A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
JP2013228915A (en) Pedestrian detecting device and method for detecting pedestrian
JP7499379B2 (en) Information processing device, control method, program, and storage medium