[go: up one dir, main page]

JP2006099749A - Gesture switch - Google Patents

Gesture switch Download PDF

Info

Publication number
JP2006099749A
JP2006099749A JP2005246812A JP2005246812A JP2006099749A JP 2006099749 A JP2006099749 A JP 2006099749A JP 2005246812 A JP2005246812 A JP 2005246812A JP 2005246812 A JP2005246812 A JP 2005246812A JP 2006099749 A JP2006099749 A JP 2006099749A
Authority
JP
Japan
Prior art keywords
distance image
gesture
specific part
value
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005246812A
Other languages
Japanese (ja)
Other versions
JP4692159B2 (en
Inventor
Naoya Ruike
直哉 類家
Atsuyuki Hirono
淳之 広野
Eiji Nakamoto
栄次 中元
Mutsuhiro Yamanaka
睦裕 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2005246812A priority Critical patent/JP4692159B2/en
Publication of JP2006099749A publication Critical patent/JP2006099749A/en
Application granted granted Critical
Publication of JP4692159B2 publication Critical patent/JP4692159B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user-friendly gesture switch capable of extracting a specific portion of a person without being affected by a background of a detection target area. <P>SOLUTION: This gesture switch has: a distance image sensor DS continuously generating a distance image with a distance value to an object Ob present in the detection target area as a pixel value; a specific portion extraction part 5 extracting the specific portion of the person present in the detection target area on the basis of the distance image generated by the distance image sensor DS; a gesture recognition part 6 recognizing a prescribed gesture inside a specific space on the basis of time-series data on shape of the specific portion extracted by the specific portion extraction part 5; and a control part 7 imparting control output previously associated to the gesture recognized by the gesture recognition part 6 to control target equipment. The specific portion extraction part 5 binarizes the distance image with a value obtaining by adding a prescribed value to the minimum distance value in each distance image as a threshold value, and extracts an area wherein it becomes the threshold value or below as the specific portion. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ジェスチャースイッチに関するものである。   The present invention relates to a gesture switch.

従来から、制御対象機器や制御対象機器の制御用のスイッチなどを設置場所へ行って直接操作する(触れる)ことなく制御対象機器を制御するためのマンマシンインタフェースの一例として、人の手首から先の手の動きを検出し、検出した手の動き(ジェスチャー)に基づいて制御対象機器へ制御出力を与えるジェスチャスイッチが提案されている(例えば、特許文献1,2参照)。   Conventionally, as an example of a man-machine interface for controlling a control target device without directly operating (touching) the control target device or a control switch of the control target device to the installation site, the tip of a person's wrist There has been proposed a gesture switch that detects the movement of the hand and gives a control output to the device to be controlled based on the detected hand movement (gesture) (see, for example, Patent Documents 1 and 2).

ここにおいて、特許文献1,2には、ジェスチャーを検出する方法として、人の筋電信号を利用する方法が記載され、また、特許文献2には、ジェスチャーを検出する方法として、1台あるいは複数台のカメラによって撮像された画像に適宜の画像処理を施して人の特定部位を抽出し、ジェスチャーを認識する方法が記載されている。
特開2000−138858号公報 特開平7−248873号公報
Here, Patent Documents 1 and 2 describe a method of using a human myoelectric signal as a method of detecting a gesture, and Patent Document 2 discloses one or a plurality of methods as a method of detecting a gesture. A method for recognizing a gesture by performing appropriate image processing on an image captured by a camera and extracting a specific part of a person is described.
JP 2000-138858 A JP-A-7-248873

ところで、上記特許文献1,2に開示された人の筋電信号を利用してジェスチャーを検出する方法を採用したジェスチャースイッチでは、筋電信号を検出するための検出装置を人が装着する必要があり、使い勝手が良くなかった。   By the way, in the gesture switch that employs the method of detecting a gesture using the human myoelectric signal disclosed in Patent Documents 1 and 2, it is necessary for the person to wear a detection device for detecting the myoelectric signal. Yes, it was not easy to use.

これに対して、上記特許文献2に開示された画像処理によりジェスチャーを検出する方法を採用したジェスチャースイッチでは、人が何も装着する必要がないので、使い勝手が良いという利点がある。   On the other hand, the gesture switch adopting the method for detecting a gesture by image processing disclosed in Patent Document 2 has an advantage that it is easy to use because it is not necessary for a person to wear anything.

しかしながら、上記特許文献2に開示された画像処理によりジェスチャーを検出する方法を採用したジェスチャースイッチでは、カメラにより検知対象エリアを撮像して得られる画像が濃淡画像なので、特定部位の輪郭を抽出する際に背景などの影響を受けやすいという不具合があった。   However, in the gesture switch that employs the method of detecting a gesture by the image processing disclosed in Patent Document 2, the image obtained by imaging the detection target area by the camera is a grayscale image. There was a defect that it was easily affected by the background.

本発明は上記事由に鑑みて為されたものであり、その目的は、制御対象機器や制御対象機器の制御用のスイッチなどを設置場所へ行って触れる必要がなくて、しかも、使い勝手が良く、且つ、検知対象エリアの背景に影響されずに人の特定部位の抽出が可能なジェスチャースイッチを提供することにある。   The present invention has been made in view of the above-mentioned reasons, and the purpose thereof is not necessary to go to the installation location by touching the control target device or the control switch of the control target device, and is easy to use. Another object of the present invention is to provide a gesture switch capable of extracting a specific part of a person without being affected by the background of the detection target area.

請求項1の発明は、検知対象エリアに存在する物体までの距離値を画素値とする距離画像を連続的に生成する距離画像センサと、距離画像センサで生成された距離画像に基づいて検知対象エリアに存在する人の特定部位を抽出する特定部位抽出部と、特定部位抽出部により抽出された特定部位の形状の時系列的なデータに基づいて特定空間内での所定のジェスチャーを認識するジェスチャー認識部と、ジェスチャー認識部により認識されたジェスチャーに予め対応付けられた制御出力を制御対象機器へ与える制御部とを備えることを特徴とする。なお、検知対象エリアの存在する物体とは人体を含むものである。   According to the first aspect of the present invention, a distance image sensor that continuously generates a distance image having a pixel value as a distance value to an object existing in the detection target area, and a detection target based on the distance image generated by the distance image sensor A specific part extraction unit for extracting a specific part of a person existing in the area, and a gesture for recognizing a predetermined gesture in the specific space based on time-series data of the shape of the specific part extracted by the specific part extraction unit It comprises a recognition unit, and a control unit that gives a control output associated in advance with the gesture recognized by the gesture recognition unit to the device to be controlled. In addition, the object in which the detection target area exists includes a human body.

この発明によれば、検知対象エリアに存在する物体までの距離値を画素値とする距離画像を連続的に生成する1つの距離画像センサで生成された距離画像に基づいて検知対象エリアに存在する人の特定部位が特定部位抽出部にて連続的に抽出され、ジェスチャー認識部において特定部位抽出部から出力されるデータに基づいて特定空間内での人の所定のジェスチャーが認識されるので、制御対象機器や制御対象機器の制御用のスイッチなどを設置場所へ行って触れる必要がなくて、しかも、人が何も装着する必要がなくて使い勝手が良く、且つ、検知対象エリアの背景に影響されずに人の特定部位を抽出することが可能となる。   According to this invention, it exists in a detection object area based on the distance image produced | generated by one distance image sensor which produces | generates the distance image which uses the distance value to the object which exists in a detection object area as a pixel value continuously. Since the specific part of the person is continuously extracted by the specific part extraction unit, and the predetermined gesture of the person in the specific space is recognized based on the data output from the specific part extraction unit in the gesture recognition unit, the control There is no need to go to the installation location and touch the target device or the control switch for the control target device, and there is no need for the user to wear anything, and it is easy to use and is affected by the background of the detection target area. Therefore, it becomes possible to extract a specific part of a person.

請求項2の発明は、請求項1の発明において、前記制御部は、前記距離画像における前記特定空間の画素数に対する前記特定部位の画素数の割合が規定値を超えているときに前記制御出力を前記制御対象機器へ与えることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the control unit outputs the control output when a ratio of the number of pixels of the specific portion to the number of pixels of the specific space in the distance image exceeds a specified value. Is provided to the device to be controlled.

この発明によれば、前記特定空間以外の空間での人の前記制御対象機器の制御を意図しない動きがジェスチャーとして認識されても前記制御対象機器へ前記制御出力が与えられるのを防止することができる。   According to the present invention, it is possible to prevent the control output from being given to the control target device even if a motion of the person not intending to control the control target device in a space other than the specific space is recognized as a gesture. it can.

請求項3の発明は、請求項1または請求項2の発明において、前記特定部位抽出部は、前記距離画像を所定の閾値で2値化し、閾値以下となる領域を前記特定部位として抽出することを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the invention, the specific part extraction unit binarizes the distance image with a predetermined threshold value, and extracts an area that is equal to or less than the threshold value as the specific part. It is characterized by.

この発明によれば、閾値を適宜設定することにより、例えば、人の全身や上半身などを前記特定部位として抽出することが可能となり、人の全身や上半身を使ったジェスチャーの認識が可能となる。   According to the present invention, by appropriately setting the threshold, for example, the whole body or upper body of a person can be extracted as the specific part, and a gesture using the whole body or upper body of the person can be recognized.

請求項4の発明は、請求項1または請求項2の発明において、前記特定部位抽出部は、前記距離画像毎に最小の距離値に所定値を加算した値を閾値として前記距離画像を2値化し、閾値以下となる領域を前記特定部位として抽出することを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect of the invention, the specific part extracting unit binarizes the distance image using a value obtained by adding a predetermined value to the minimum distance value for each distance image as a threshold value. And a region that is equal to or less than a threshold value is extracted as the specific part.

この発明によれば、所定値を適宜設定することにより、例えば、前記距離画像センサへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用する場合、人の手の手首よりも先の部分を前記特定部位として容易に抽出することが可能となる。   According to the present invention, by appropriately setting a predetermined value, for example, when using the distance image sensor by holding a hand and performing a gesture at a portion ahead of the wrist, it is more than the wrist of a human hand. The previous part can be easily extracted as the specific part.

請求項5の発明は、請求項4の発明において、前記特定部位抽出部は、前記距離画像センサへ向けられる手の手首よりも先の部分を前記特定部位として想定して前記所定値が設定されており、前記ジェスチャー認識部は、前記特定部位抽出部により抽出された前記特定部位である手の指および手のひらそれぞれの3D重心を特徴量として特徴量の時系列データに基づいてジェスチャーを認識することを特徴とする。   According to a fifth aspect of the invention, in the fourth aspect of the invention, the specific part extraction unit sets the predetermined value assuming that the specific part is a part ahead of the wrist of the hand directed to the distance image sensor. The gesture recognizing unit recognizes a gesture based on time-series data of feature values using the 3D centroids of the fingers and palms of the hand that are the specific parts extracted by the specific part extracting unit as feature quantities. It is characterized by.

この発明によれば、前記距離画像センサへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用するにあたって、前記ジェスチャー認識部におけるジェスチャーの認識性能を向上させることができる。   According to this invention, when the hand is held over the distance image sensor and a gesture is performed at a portion ahead of the wrist, the gesture recognition performance in the gesture recognition unit can be improved.

請求項6の発明は、請求項1または請求項2の発明において、前記特定部位抽出部は、前記距離画像において最小の距離値となる画素の周囲領域に関して閾値以下となる画素の数が一定値となるように前記閾値を調整して前記距離画像を前記閾値で2値化し、前記閾値以下となる領域を前記特定部位として抽出することを特徴とする。   According to a sixth aspect of the present invention, in the first or second aspect of the present invention, the specific part extracting unit is configured such that the number of pixels that are equal to or smaller than a threshold value with respect to a peripheral region of the pixel that is the minimum distance value in the distance image is a constant value. The distance image is adjusted so that the distance image is binarized with the threshold value, and a region that is equal to or less than the threshold value is extracted as the specific part.

この発明によれば、例えば、前記距離画像センサへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用する場合、人の手の手首よりも先の部分を前記特定部位として安定して抽出することが可能となる。   According to the present invention, for example, when using the distance image sensor by holding a hand and performing a gesture at a portion ahead of the wrist, the portion ahead of the wrist of a human hand is stably used as the specific portion. And can be extracted.

請求項7の発明は、請求項3ないし請求項6の発明において、前記特定部位抽出部は、前記距離画像における入力判定領域についてのみ2値化を行うことを特徴とする。   A seventh aspect of the invention is characterized in that, in the third to sixth aspects of the invention, the specific part extracting unit binarizes only the input determination region in the distance image.

この発明によれば、前記距離画像における全画素について2値化を行う場合に比べて、前記特定部位抽出部の処理速度の高速化を図れる。   According to the present invention, it is possible to increase the processing speed of the specific part extraction unit as compared with the case where binarization is performed on all the pixels in the distance image.

請求項1の発明では、制御対象機器や制御対象機器の制御用のスイッチなどを設置場所へ行って触れる必要がなくて、しかも、人が何も装着する必要がなくて使い勝手が良く、且つ、検知対象エリアの背景に影響されずに人の特定部位を抽出することが可能となるという効果がある。   In the invention of claim 1, it is not necessary to go to the installation location and touch the control target device or the control switch of the control target device, and it is not necessary for a person to wear anything, and it is easy to use, There is an effect that a specific part of a person can be extracted without being influenced by the background of the detection target area.

(実施形態1)
本実施形態のジェスチャースイッチは、図1に示すような構成であって、検知対象エリアに存在する物体Obまでの距離値を画素値とする距離画像を連続的に生成する距離画像センサDSと、距離画像センサDSで生成された距離画像に基づいて検知対象エリアに存在する人の特定部位を抽出する特定部位抽出部5と、特定部位抽出部5により抽出された特定部位の形状の時系列的なデータに基づいて特定空間内での所定のジェスチャーを認識するジェスチャー認識部6と、ジェスチャー認識部6により認識されたジェスチャーに予め対応付けられた制御出力を制御対象機器(図示せず)へ与える制御部7とを備える。ここにおいて、距離画像センサDSは、例えば、図2(a)に示すように部屋Rの天井131に設置したり、同図(b)に示すように部屋Rの天井131側の角に設置したり、同図(c)に示すように部屋Rの壁132に設置すればよいが、距離画像センサDSの設置場所は特に限定するものではなく、特定部位抽出部5において抽出したい特定部位に応じて適宜決めればよい(特定部位の例については図3を参照して後述する)。なお、図2(a)(b)(c)中の一点鎖線で囲まれた空間Eは距離画像センサDSの検知対象エリアを模式的に示している。
(Embodiment 1)
The gesture switch of the present embodiment is configured as shown in FIG. 1, and a distance image sensor DS that continuously generates a distance image having a pixel value as a distance value to an object Ob existing in a detection target area; Based on the distance image generated by the distance image sensor DS, the specific part extraction unit 5 that extracts a specific part of a person existing in the detection target area, and the shape of the specific part extracted by the specific part extraction unit 5 in time series A gesture recognition unit 6 for recognizing a predetermined gesture in a specific space based on various data, and a control output associated in advance with the gesture recognized by the gesture recognition unit 6 to a control target device (not shown) And a control unit 7. Here, the distance image sensor DS is installed, for example, on the ceiling 131 of the room R as shown in FIG. 2A, or at the corner on the ceiling 131 side of the room R as shown in FIG. However, the installation location of the distance image sensor DS is not particularly limited, as shown in FIG. 5C, and the specific site extraction unit 5 may select a specific site to be extracted. (Examples of specific parts will be described later with reference to FIG. 3). Note that a space E surrounded by a one-dot chain line in FIGS. 2A, 2 </ b> B, and 2 </ b> C schematically illustrates a detection target area of the distance image sensor DS.

距離画像センサDSは、検知対象エリア(対象空間)Eに光を照射する発光源2を備えるとともに、対象空間からの光を受光し受光光量を反映した出力値の電気出力が得られる光検出素子1を備える。対象空間に存在する物体Obまでの距離は、発光源2から対象空間に光が照射されてから物体Obでの反射光が光検出素子1に入射する(到達する)までの時間(「飛行時間」と呼ぶ)によって求める。ただし、飛行時間はナノ秒レベルの非常に短い時間であるから、対象空間に照射する光の強度が一定周期で周期的に変化するように変調した強度変調光を用い、強度変調光を受光したときの位相を用いて飛行時間を求める。   The distance image sensor DS includes a light emitting source 2 that irradiates light to a detection target area (target space) E, and receives a light from the target space and obtains an electrical output having an output value that reflects the received light amount. 1 is provided. The distance to the object Ob existing in the target space is the time from when the light is irradiated from the light source 2 to the target space until the reflected light from the object Ob enters (arrives) the light detection element 1 (“flight time”). "). However, since the flight time is a very short time at the nanosecond level, the intensity modulated light that was modulated so that the intensity of the light irradiating the target space periodically changes at a constant period was received. The time of flight is obtained using the phase of time.

すなわち、図5(a)に示すように、発光源2から空間に放射する光の強度が曲線イのように変化し、光検出素子1で受光した受光光量が曲線ロのように変化するとすれば、位相差ψが飛行時間に相当するから、位相差ψを求めることにより物体Obまでの距離を求めることができる。また、位相差ψは、曲線イの複数のタイミングで求めた曲線ロの受光光量を用いて計算することができる。例えば、曲線イにおける位相が0度、90度、180度、270度のタイミングで求めた曲線ロの受光光量がそれぞれA0、A1、A2、A3であるとする(受光光量A0、A1、A2、A3を斜線部で示している)。ただし、各位相における受光光量A0、A1、A2、A3は、瞬時値ではなく所定の時間Twで積算した受光光量を用いる。いま、受光光量A0、A1、A2、A3を求める間に、位相差ψが変化せず(つまり、物体Obまでの距離が変化せず)、かつ物体Obの反射率にも変化がないものとする。また、発光源2から放射する光の強度を正弦波で変調し、時刻tにおいて光検出素子1で受光される光の強度がA・sin(ωt+δ)+Bで表されるものとする。ここに、Aは振幅、Bは外光成分、ωは角振動数、δは位相である。光検出素子1で受光する受光光量A0、A1、A2、A3を時間Twの積算値ではなく瞬時値とすれば、受光光量A0、A1、A2、A3は、次のように表すことができる。
A0=A・sin(δ)+B
A1=A・sin(π/2+δ)+B
A2=A・sin(π+δ)+B
A3=A・sin(3π/2+δ)+B
ここに、δ=−ψであるから、A0=−A・sin(ψ)+B、A1=A・cos(ψ)+B、A2=A・sin(ψ)+B、A3=−A・cos(ψ)+Bであり、結果的に、各受光光量A0、A1、A2、A3と位相差ψとの関係は、次式のようになる。
ψ=tan−1{(A2−A0)/(A1−A3)} …(式1)
式1では受光光量A0、A1、A2、A3の瞬時値を用いているが、受光光量A0、A1、A2、A3として時間Twにおける積算値を用いても式1で位相差ψを求めることができる。
That is, as shown in FIG. 5A, the intensity of light radiated from the light source 2 into the space changes as shown by curve A, and the amount of received light received by the light detecting element 1 changes as shown by curve B. For example, since the phase difference ψ corresponds to the flight time, the distance to the object Ob can be obtained by obtaining the phase difference ψ. Further, the phase difference ψ can be calculated using the received light amount of the curve B obtained at a plurality of timings of the curve A. For example, it is assumed that the received light amounts of curve B obtained at the timings of curve 0 at a phase of 0 degree, 90 degrees, 180 degrees, and 270 degrees are A0, A1, A2, and A3 (received light quantities A0, A1, A2,. A3 is indicated by hatching). However, the received light amount A0, A1, A2, A3 in each phase uses the received light amount integrated at a predetermined time Tw instead of the instantaneous value. Now, while obtaining the received light amounts A0, A1, A2, A3, the phase difference ψ does not change (that is, the distance to the object Ob does not change), and the reflectance of the object Ob does not change. To do. Further, it is assumed that the intensity of light emitted from the light emitting source 2 is modulated by a sine wave, and the intensity of light received by the light detection element 1 at time t is represented by A · sin (ωt + δ) + B. Here, A is the amplitude, B is the external light component, ω is the angular frequency, and δ is the phase. If the received light amounts A0, A1, A2, and A3 received by the light detecting element 1 are instantaneous values instead of the integrated values of the time Tw, the received light amounts A0, A1, A2, and A3 can be expressed as follows.
A0 = A · sin (δ) + B
A1 = A · sin (π / 2 + δ) + B
A2 = A · sin (π + δ) + B
A3 = A · sin (3π / 2 + δ) + B
Since δ = −ψ, A0 = −A · sin (ψ) + B, A1 = A · cos (ψ) + B, A2 = A · sin (ψ) + B, A3 = −A · cos (ψ ) + B, and as a result, the relationship between the received light amounts A0, A1, A2, A3 and the phase difference ψ is expressed as follows.
ψ = tan −1 {(A2−A0) / (A1−A3)} (Formula 1)
Although the instantaneous values of the received light amounts A0, A1, A2, and A3 are used in Equation 1, the phase difference ψ can be obtained by Equation 1 even if the integrated values at the time Tw are used as the received light amounts A0, A1, A2, and A3. it can.

上述のように対象空間に照射する光の強度を変調するために、発光源2としては、例えば多数個の発光ダイオードを一平面上に配列したものや半導体レーザと発散レンズとを組み合わせたものなどを用いる。また、発光源2は、制御回路部3から出力される所定の変調周波数である変調信号によって駆動され、発光源2から放射される光は変調信号により強度が変調される。制御回路部3では、例えば20MHzの正弦波で発光源2から放射する光の強度を変調する。なお、発光源2から放射する光の強度は正弦波で変調する以外に、三角波、鋸歯状波などで変調してもよく、要するに、一定周期で強度を変調するのであれば、どのような構成を採用してもよい。   As described above, in order to modulate the intensity of light applied to the target space, the light source 2 includes, for example, a structure in which a large number of light emitting diodes are arranged on one plane, a combination of a semiconductor laser and a diverging lens, or the like. Is used. The light source 2 is driven by a modulation signal having a predetermined modulation frequency output from the control circuit unit 3, and the intensity of the light emitted from the light source 2 is modulated by the modulation signal. In the control circuit unit 3, for example, the intensity of light emitted from the light source 2 is modulated by a sine wave of 20 MHz. The intensity of the light emitted from the light source 2 may be modulated by a triangular wave, a sawtooth wave or the like in addition to the modulation by a sine wave. In short, any configuration is acceptable as long as the intensity is modulated at a constant period. May be adopted.

光検出素子1は、規則的に配列された複数個の感光部11を備える。また、感光部11への光の入射経路には受光光学系8が配置される。感光部11は光検出素子1において対象空間からの光が受光光学系8を通して入射する部位であって、感光部11において受光光量に応じた量の電荷を生成する。また、感光部11は、平面格子の格子点上に配置され、例えば垂直方向(つまり、縦方向)と水平方向(つまり、横方向)とにそれぞれ等間隔で複数個ずつ並べたマトリクス状に配列される。   The light detection element 1 includes a plurality of photosensitive portions 11 regularly arranged. A light receiving optical system 8 is disposed in the light incident path to the photosensitive portion 11. The photosensitive portion 11 is a portion where light from the target space is incident through the light receiving optical system 8 in the light detection element 1, and the photosensitive portion 11 generates an amount of charge corresponding to the amount of received light. In addition, the photosensitive portions 11 are arranged on the lattice points of the planar lattice, and are arranged in a matrix in which, for example, a plurality are arranged at equal intervals in the vertical direction (ie, the vertical direction) and the horizontal direction (ie, the horizontal direction). Is done.

受光光学系8は、光検出素子1から対象空間を見るときの視線方向と各感光部11とを対応付ける。すなわち、受光光学系8を通して各感光部11に光が入射する範囲を、受光光学系8の中心を頂点とし各感光部11ごとに設定された頂角の小さい円錐状の視野とみなすことができる。したがって、発光源2から放射され対象空間に存在する物体Obで反射された反射光が感光部11に入射すれば、反射光を受光した感光部11の位置により、受光光学系8の光軸を基準方向として物体Obの存在する方向を知ることができる。   The light receiving optical system 8 associates the line-of-sight direction when viewing the target space from the light detection element 1 with each photosensitive portion 11. That is, the range in which light enters each photosensitive portion 11 through the light receiving optical system 8 can be regarded as a conical field of view having a small apex angle set for each photosensitive portion 11 with the center of the light receiving optical system 8 as the apex. . Therefore, if the reflected light emitted from the light emitting source 2 and reflected by the object Ob existing in the target space is incident on the photosensitive portion 11, the optical axis of the light receiving optical system 8 is changed depending on the position of the photosensitive portion 11 that has received the reflected light. The direction in which the object Ob exists can be known as the reference direction.

受光光学系8は一般に感光部11を配列した平面に光軸を直交させるように配置されるから、受光光学系8の中心を原点とし、感光部11を配列した平面の垂直方向と水平方向と受光光学系8の光軸とを3軸の方向とする直交座標系を設定すれば、対象空間に存在する物体Obの位置を球座標で表したときの角度(いわゆる方位角と仰角)が各感光部11に対応する。なお、受光光学系8は、感光部11を配列した平面に対して光軸が90度以外の角度で交差するように配置することも可能である。   Since the light receiving optical system 8 is generally arranged so that the optical axis is orthogonal to the plane on which the photosensitive portion 11 is arranged, the center of the light receiving optical system 8 is the origin, and the vertical and horizontal directions of the plane on which the photosensitive portion 11 is arranged If an orthogonal coordinate system is set in which the optical axis of the light receiving optical system 8 is in the direction of three axes, the angles (so-called azimuth and elevation) when the position of the object Ob existing in the target space is expressed in spherical coordinates are each This corresponds to the photosensitive portion 11. The light receiving optical system 8 can also be arranged so that the optical axis intersects at an angle other than 90 degrees with respect to the plane on which the photosensitive portions 11 are arranged.

本実施形態では、上述のように、物体Obまでの距離を求めるために、発光源2から対象空間に照射される光の強度変化に同期する4点のタイミングで受光光量A0、A1、A2、A3を求めている。したがって、目的の受光光量A0、A1、A2、A3を得るためのタイミングの制御が必要である。また、発光源2から対象空間に照射される光の強度変化の1周期において感光部11で発生する電荷の量は少ないから、複数周期に亘って電荷を集積することが望ましい。そこで、図1のように各感光部11で発生した電荷をそれぞれ集積する複数個の電荷集積部13を設けるとともに、各感光部11において利用できる電荷を生成する領域の面積を変化させることにより各感光部11の感度をそれぞれ調節する複数個の感度制御部12を設けている。   In the present embodiment, as described above, in order to obtain the distance to the object Ob, the received light amounts A0, A1, A2, and the like at the timing of four points synchronized with the intensity change of the light irradiated from the light source 2 to the target space. We are seeking A3. Therefore, it is necessary to control the timing to obtain the desired received light amount A0, A1, A2, A3. In addition, since the amount of charge generated in the photosensitive portion 11 is small in one cycle of intensity change of light irradiated from the light source 2 to the target space, it is desirable to accumulate the charge over a plurality of cycles. Therefore, as shown in FIG. 1, a plurality of charge accumulating units 13 for accumulating the charges generated in the respective photosensitive units 11 are provided, and the areas of the regions for generating the charges that can be used in the respective photosensitive units 11 are changed to change the respective areas. A plurality of sensitivity control units 12 for adjusting the sensitivity of the photosensitive unit 11 are provided.

各感度制御部12では、感度制御部12に対応する感光部11の感度を上述した4点のうちのいずれかのタイミングで高め、感度が高められた感光部11では当該タイミングの受光光量A0、A1、A2、A3に対応する電荷を主として生成するから、当該受光光量A0、A1、A2、A3に対応する電荷を当該感光部11に対応する電荷集積部13に集積させることができる。   In each sensitivity control unit 12, the sensitivity of the photosensitive unit 11 corresponding to the sensitivity control unit 12 is increased at any one of the four points described above, and in the photosensitive unit 11 with increased sensitivity, the received light amount A0, Since charges corresponding to A1, A2, and A3 are mainly generated, charges corresponding to the received light amounts A0, A1, A2, and A3 can be accumulated in the charge accumulating unit 13 corresponding to the photosensitive unit 11.

ところで、感度制御部12は感光部11において利用できる電荷を生成する領域の面積(実質的な受光面積)を変化させることにより各期間の電荷の生成量を変化させるものであるから、電荷集積部13に集積された電荷は必ずしも受光光量A0、A1、A2、A3が得られる期間に生成された電荷だけではなく、他の期間に生成された電荷も混入することになる。いま、感度制御部12において、受光光量A0、A1、A2、A3に対応した電荷を生成する期間の感度をα、それ以外の期間の感度をβとし、感光部11は受光光量に比例する電荷を生成するものとする。この条件では、受光光量A0に対応した電荷を集積する電荷集積部13には、αA0+β(A1+A2+A3)+βAx(Axは受光光量A0、A1、A2、A3が得られる期間以外の受光光量)に比例する電荷が蓄積され、受光光量A2に対応した電荷を集積する電荷集積部13には、αA2+β(A0+A1+A3)+βAxに比例する電荷が蓄積される。上述したように、位相差ψを求める際には(A2−A0)を求めており、A2−A0=(α−β)(A2−A0)になり、同様にしてA1−A3=(α−β)(A1−A3)になるから、(A2−A0)/(A1−A3)は電荷の混入の有無によらず理論上は同じ値になるのであって、電荷が混入しても求める位相差ψは同じ値になる。   By the way, the sensitivity control unit 12 changes the amount of charge generated in each period by changing the area (substantial light receiving area) of the region that generates the charge that can be used in the photosensitive unit 11. The charges accumulated in 13 include not only the charges generated during the period in which the received light amounts A0, A1, A2, and A3 are obtained, but also the charges generated during other periods. Now, in the sensitivity control unit 12, the sensitivity in the period for generating the charges corresponding to the received light amounts A0, A1, A2, A3 is α, the sensitivity in the other periods is β, and the photosensitive unit 11 is a charge proportional to the received light amount. Is generated. Under this condition, the charge accumulating unit 13 that accumulates charges corresponding to the received light amount A0 is proportional to αA0 + β (A1 + A2 + A3) + βAx (Ax is the received light amount other than the period during which the received light amounts A0, A1, A2, and A3 are obtained). In the charge accumulating unit 13 that accumulates charges and accumulates charges corresponding to the received light quantity A2, charges proportional to αA2 + β (A0 + A1 + A3) + βAx are accumulated. As described above, when obtaining the phase difference ψ, (A2−A0) is obtained, and A2−A0 = (α−β) (A2−A0), and similarly, A1−A3 = (α−). β) Since (A1-A3), (A2-A0) / (A1-A3) theoretically has the same value regardless of the presence or absence of charge mixing. The phase difference ψ has the same value.

感光部11と感度制御部12と電荷集積部13とを備える光検出素子1は1つの半導体装置として構成され、光検出素子1には電荷集積部13に集積された電荷を半導体装置の外部に取り出すために電荷取出部14が設けられる。電荷取出部14はCCDイメージセンサにおける垂直転送部および水平転送部と同様の構成を有する。   The photodetecting element 1 including the photosensitive unit 11, the sensitivity control unit 12, and the charge accumulating unit 13 is configured as one semiconductor device, and the photodetecting element 1 transmits charges accumulated in the charge accumulating unit 13 to the outside of the semiconductor device. A charge extraction unit 14 is provided for extraction. The charge extraction unit 14 has the same configuration as the vertical transfer unit and horizontal transfer unit in the CCD image sensor.

上述したように各感光部11では受光光量に応じた量の電荷を生成するから、上述した各受光光量A0、A1、A2、A3は物体Obの明るさを反映している。つまり、受光光量A0、A1、A2、A3の加算値あるいは平均値は濃淡画像における濃度値に相当する。換言すれば、各感光部11での受光光量A0、A1、A2、A3から物体Obまでの距離を求めるほか、物体Obの濃度値も得ることが可能になる。しかも、同じ位置の感光部11を用いて物体Obの距離と濃度値とを求めるから、同じ位置について濃度値と距離との両方の情報を得ることが可能になる。   As described above, since each photosensitive unit 11 generates an amount of electric charge corresponding to the amount of received light, each of the received light amounts A0, A1, A2, A3 reflects the brightness of the object Ob. That is, the added value or average value of the received light amounts A0, A1, A2, A3 corresponds to the density value in the grayscale image. In other words, in addition to obtaining the distances from the received light amounts A0, A1, A2, A3 to the object Ob in each photosensitive portion 11, it is also possible to obtain the density value of the object Ob. In addition, since the distance and the density value of the object Ob are obtained using the photosensitive portion 11 at the same position, it is possible to obtain both the density value and the distance information for the same position.

電荷取出部14から取り出された電荷は画像生成部4に画像信号として与えられ、画像生成部4において対象空間内の物体Obまでの距離が上述した式1を用いて受光光量A0、A1、A2、A3から算出される。すなわち、画像生成部4では各感光部11に対応した各方向における物体Obまでの距離が算出され、対象空間の三次元情報が算出される。この三次元情報を用いると、対象空間の各方向に一致する画素の画素値が距離値である距離画像を生成することができる。また、画像生成部4では各感光部11で得られた濃度値に基づいて対象空間の濃淡画像を生成する。すなわち、画像生成部4は濃淡画像と距離画像とを生成する。なお、濃淡画像は受光光量A0、A1、A2、A3の平均値を濃淡値に用いるようにすれば、発光源2からの光の影響を除去できる。   The electric charges extracted from the electric charge extraction unit 14 are given to the image generation unit 4 as an image signal, and the distance to the object Ob in the target space in the image generation unit 4 uses the above-described equation 1 to determine the received light amount A0, A1, A2. , A3. That is, the image generation unit 4 calculates the distance to the object Ob in each direction corresponding to each photosensitive unit 11, and calculates the three-dimensional information of the target space. By using this three-dimensional information, it is possible to generate a distance image in which the pixel values of the pixels matching each direction of the target space are distance values. In addition, the image generation unit 4 generates a grayscale image of the target space based on the density value obtained by each photosensitive unit 11. That is, the image generation unit 4 generates a grayscale image and a distance image. If the average value of the received light amounts A0, A1, A2, and A3 is used for the grayscale value, the influence of light from the light source 2 can be removed.

この構成によって、光検出素子1に設けた感光部11での受光光量A0、A1、A2、A3から対象空間の濃淡値と距離値とを求めることができ、ほぼ同時刻の濃淡画像と距離画像とを得ることができる。しかも濃淡画像と距離画像との各画素は対象空間の同じ方向の情報を持つから、濃淡画像と距離画像とから得られる情報を併せて用いることにより、濃淡画像のみを用いる場合よりも対象空間に関して多くの情報を得ることができる。   With this configuration, the gray value and distance value of the target space can be obtained from the received light amounts A0, A1, A2, and A3 at the photosensitive portion 11 provided in the light detecting element 1, and the gray image and the distance image at substantially the same time can be obtained. And you can get Moreover, since each pixel of the grayscale image and the distance image has information in the same direction of the target space, the information obtained from the grayscale image and the distance image is used together, so that the target space is more than that using only the grayscale image. A lot of information can be obtained.

以下に光検出素子1の具体的構造例を説明する。図6に示す光検出素子1は、複数個(例えば、100×100個)の感光部11をマトリクス状に配列したものであって、1枚の半導体基板上に形成される。感光部11のうち垂直方向の各列では一体に連続する半導体層21を共用するとともに半導体層21を垂直方向への電荷(本実施形態では、電子を用いる)の転送経路として用い、さらに各列の半導体層21の一端から電荷を受け取って水平方向に電荷を転送するCCDである水平転送部Th(図7参照)を半導体基板に設ける構成を採用することができる。   Hereinafter, a specific structural example of the light detection element 1 will be described. The photodetecting element 1 shown in FIG. 6 has a plurality of (for example, 100 × 100) photosensitive portions 11 arranged in a matrix and is formed on a single semiconductor substrate. Each column in the vertical direction in the photosensitive portion 11 shares the semiconductor layer 21 that is integrally continuous, and the semiconductor layer 21 is used as a transfer path for charges in the vertical direction (electrons are used in this embodiment). It is possible to adopt a configuration in which a semiconductor substrate is provided with a horizontal transfer portion Th (see FIG. 7) which is a CCD that receives charges from one end of the semiconductor layer 21 and transfers the charges in the horizontal direction.

すなわち、図7に示すように、半導体層21が感光部11と電荷の転送経路とに兼用された構造であって、フレーム・トランスファ(FT)方式のCCDイメージセンサと類似した構造になる。また、FT方式のCCDイメージセンサと同様に、感光部11を配列した撮像領域Daに隣接して遮光された蓄積領域Dbを設けてあり、蓄積領域Dbに蓄積した電荷を水平転送部Thに転送する。撮像領域Daから蓄積領域Dbへの電荷の転送は垂直ブランキング期間に一気に行い、水平転送部Thでは1水平期間に1水平ライン分の電荷を転送する。図1に示した電荷取出部14は、半導体層21における垂直方向への電荷の転送経路としての機能とともに水平転送部Thを含む機能を表している。ただし、電荷集積部13は蓄積領域Dbを意味するのではなく、撮像領域Daにおいて電荷を集積する機能を表している。言い換えると、蓄積領域Dbは電荷取出部14に含まれる。   That is, as shown in FIG. 7, the semiconductor layer 21 is used as the photosensitive portion 11 and the charge transfer path, and has a structure similar to a frame transfer (FT) type CCD image sensor. Similarly to the FT type CCD image sensor, a light-shielded accumulation region Db is provided adjacent to the imaging region Da in which the photosensitive portions 11 are arranged, and charges accumulated in the accumulation region Db are transferred to the horizontal transfer unit Th. To do. The transfer of charges from the imaging area Da to the storage area Db is performed at once in the vertical blanking period, and the horizontal transfer unit Th transfers charges for one horizontal line in one horizontal period. The charge extraction unit 14 illustrated in FIG. 1 represents a function including a horizontal transfer unit Th along with a function as a charge transfer path in the vertical direction in the semiconductor layer 21. However, the charge accumulation unit 13 does not mean the accumulation region Db, but represents a function of accumulating charges in the imaging region Da. In other words, the accumulation region Db is included in the charge extraction unit 14.

半導体層21は不純物が添加してあり、半導体層21の主表面は酸化膜からなる絶縁膜22により覆われ、半導体層21に絶縁膜22を介して複数個の制御電極23を配置している。この光検出素子1はMIS素子として知られた構造であるが、1個の光検出素子1として機能する領域に複数個(図示例では5個)の制御電極23を備える点が通常のMIS素子とは異なる。絶縁膜22および制御電極23は発光源2から対象空間に照射される光と同波長の光が透過するように材料が選択され、絶縁膜22を通して半導体層21に光が入射すると、半導体層21の内部に電荷が生成される。図示例の半導体層21の導電形はn形であり、光の照射により生成される電荷として電子eを利用する。図6は1個の感光部11に対応する領域のみを示したものであり、半導体基板(図示せず)には上述したように図6の構造を持つ領域が複数個配列されるとともに電荷取出部14となる構造が設けられる。電荷取出部14として設ける垂直転送部は、図6の左右方向に電荷を転送することを想定しているが、図6の面に直交する方向に電荷を転送する構成を採用することも可能である。また、電荷を図6の左右方向に転送する場合には、制御電極23の左右方向の幅寸法を1μm程度に設定するのが望ましい。   The semiconductor layer 21 is doped with impurities, the main surface of the semiconductor layer 21 is covered with an insulating film 22 made of an oxide film, and a plurality of control electrodes 23 are arranged on the semiconductor layer 21 via the insulating film 22. . This light detection element 1 has a structure known as a MIS element, but a normal MIS element is that a plurality of (five in the illustrated example) control electrodes 23 are provided in a region functioning as one light detection element 1. Is different. A material is selected for the insulating film 22 and the control electrode 23 so that light having the same wavelength as the light emitted from the light source 2 to the target space can be transmitted. When light enters the semiconductor layer 21 through the insulating film 22, the semiconductor layer 21. A charge is generated inside the. The conductivity type of the semiconductor layer 21 in the illustrated example is n-type, and electrons e are used as charges generated by light irradiation. FIG. 6 shows only the region corresponding to one photosensitive portion 11, and a plurality of regions having the structure shown in FIG. 6 are arranged on the semiconductor substrate (not shown) and the charge extraction is performed. A structure to be part 14 is provided. The vertical transfer unit provided as the charge extraction unit 14 is assumed to transfer charges in the left-right direction in FIG. 6, but it is also possible to adopt a configuration in which charges are transferred in a direction orthogonal to the plane in FIG. 6. is there. In addition, when transferring charges in the left-right direction of FIG. 6, it is desirable to set the width dimension of the control electrode 23 in the left-right direction to about 1 μm.

この構造の光検出素子1では、制御電極23に正の制御電圧+Vを印加すると、半導体層21には制御電極23に対応する部位に電子eを集積するポテンシャル井戸(空乏層)24が形成される。つまり、半導体層21にポテンシャル井戸24を形成するように制御電極23に制御電圧を印加した状態で光が半導体層21に照射されると、ポテンシャル井戸24の近傍で生成された電子eの一部はポテンシャル井戸24に捕獲されてポテンシャル井戸24に集積され、残りの電子eは半導体層21の深部でのホールとの再結合により消滅する。また、ポテンシャル井戸24から離れた場所で生成された電子eも半導体層21の深部でのホールとの再結合により消滅する。   In the light detection element 1 having this structure, when a positive control voltage + V is applied to the control electrode 23, a potential well (depletion layer) 24 that accumulates electrons e in a portion corresponding to the control electrode 23 is formed in the semiconductor layer 21. The That is, when light is applied to the semiconductor layer 21 with a control voltage applied to the control electrode 23 so as to form the potential well 24 in the semiconductor layer 21, a part of the electrons e generated in the vicinity of the potential well 24. Are captured in the potential well 24 and accumulated in the potential well 24, and the remaining electrons e disappear by recombination with holes in the deep portion of the semiconductor layer 21. Further, the electrons e generated at a location away from the potential well 24 are also extinguished by recombination with holes in the deep portion of the semiconductor layer 21.

ポテンシャル井戸24は制御電圧を印加した制御電極23に対応する部位に形成されるから、制御電圧を印加する制御電極23の個数を変化させることによって、半導体層21の主表面に沿ったポテンシャル井戸24の面積(言い換えると、受光面において利用できる電荷を生成する領域の面積)を変化させることができる。つまり、制御電圧を印加する制御電極23の個数を変化させることは感度制御部12における感度の調節を意味する。例えば、図6(a)のように3個の制御電極23に制御電圧+Vを印加する場合と、図6(b)のように1個の制御電極23に制御電圧+Vを印加する場合とでは、ポテンシャル井戸24が受光面に占める面積が変化するのであって、図6(a)の状態のほうがポテンシャル井戸24の面積が大きいから、図6(b)の状態に比較して同光量に対して利用できる電荷の割合が多くなり、実質的に感光部11の感度を高めたことになる。このように、感光部11および感度制御部12は半導体層21と絶縁膜22と制御電極23とにより構成されていると言える。ポテンシャル井戸24は光照射により生成された電荷を保持するから電荷集積部13として機能する。   Since the potential well 24 is formed at a portion corresponding to the control electrode 23 to which the control voltage is applied, the potential well 24 along the main surface of the semiconductor layer 21 is changed by changing the number of the control electrodes 23 to which the control voltage is applied. (In other words, the area of a region that generates a charge that can be used on the light receiving surface) can be changed. That is, changing the number of control electrodes 23 to which the control voltage is applied means adjusting sensitivity in the sensitivity control unit 12. For example, when the control voltage + V is applied to three control electrodes 23 as shown in FIG. 6A, and when the control voltage + V is applied to one control electrode 23 as shown in FIG. 6B. Since the area occupied by the potential well 24 on the light receiving surface changes, the area of the potential well 24 is larger in the state of FIG. 6A, so that the same amount of light is obtained as compared with the state of FIG. 6B. As a result, the ratio of the charge that can be used increases and the sensitivity of the photosensitive portion 11 is substantially increased. Thus, it can be said that the photosensitive portion 11 and the sensitivity control portion 12 are constituted by the semiconductor layer 21, the insulating film 22, and the control electrode 23. The potential well 24 functions as the charge accumulation unit 13 because it holds charges generated by light irradiation.

ポテンシャル井戸24から電荷を取り出すには、FT方式のCCDと同様の技術を採用すればよく、ポテンシャル井戸24に電子eが集積された後に、電荷の集積時とは異なる印加パターンの制御電圧を制御電極23に印加することによってポテンシャル井戸24に集積された電子eを一方向(例えば、図6の右方向)に転送することができる。つまり、半導体層21をCCDの垂直転送部と同様に電荷の転送経路に用いることができる。さらに、電荷は図7に示した水平転送部Thを転送され、半導体基板に設けた図示しない電極から光検出素子1の外部に取り出される。要するに、制御電極23への制御電圧の印加パターンを制御することにより、各感光部11ごとの感度を制御するとともに、光照射により生成された電荷を集積し、さらに集積された電荷を転送することができる。   In order to extract charges from the potential well 24, a technique similar to that of the FT type CCD may be employed. After the electrons e are accumulated in the potential well 24, a control voltage of an applied pattern different from that during charge accumulation is controlled. By applying the voltage to the electrode 23, the electrons e accumulated in the potential well 24 can be transferred in one direction (for example, the right direction in FIG. 6). That is, the semiconductor layer 21 can be used as a charge transfer path in the same manner as the vertical transfer portion of the CCD. Further, the electric charge is transferred through the horizontal transfer portion Th shown in FIG. 7 and is taken out of the photodetecting element 1 from an electrode (not shown) provided on the semiconductor substrate. In short, by controlling the application pattern of the control voltage to the control electrode 23, the sensitivity of each photosensitive portion 11 is controlled, charges generated by light irradiation are integrated, and the integrated charges are transferred. Can do.

本実施形態における感度制御部12は、利用できる電荷を生成する領域の面積を大小2段階に切り換えることにより感光部11の感度を高低2段階に切り換えるのであって、受光光量A0、A1、A2、A3のいずれかに対応する電荷を感光部11で生成しようとする期間にのみ高感度とし(電荷を生成する領域の面積を大きくし)、他の期間には低感度にする。高感度にする期間と低感度にする期間とは、発光源2を駆動する変調信号に同期させて設定される。また、変調信号の複数周期に亘ってポテンシャル井戸24に電荷を集積した後に電荷取出部14を通して光検出素子1の外部に電荷を取り出すようにしている。変調信号の複数周期に亘って電荷を集積しているのは、変調信号の1周期内では感光部11が利用可能な電荷を生成する期間が短く(例えば、変調信号の周波数を20MHzとすれば50nsの4分の1以下)、生成される電荷が少ないからである。つまり、変調信号の複数周期分の電荷を集積することにより、信号電荷(発光源2から照射された光に対応する電荷)と雑音電荷(外光成分および光検出素子1の内部で発生するショットノイズに対応する電荷)との比を大きくとることができ、大きなSN比が得られる。   The sensitivity control unit 12 in the present embodiment switches the sensitivity of the photosensitive unit 11 in two steps, high and low, by switching the area of a region for generating available charges into two steps, large and small, and the received light amount A0, A1, A2, The sensitivity corresponding to any one of A3 is set to high sensitivity only during a period when the photosensitive portion 11 is to be generated (the area of the charge generation region is increased), and the sensitivity is decreased during other periods. The period of high sensitivity and the period of low sensitivity are set in synchronization with the modulation signal that drives the light emitting source 2. In addition, after the charges are accumulated in the potential well 24 over a plurality of periods of the modulation signal, the charges are extracted to the outside of the light detection element 1 through the charge extraction unit 14. Charges are accumulated over a plurality of periods of the modulation signal because the period for which the photosensitive unit 11 can generate usable charges within one period of the modulation signal is short (for example, if the frequency of the modulation signal is 20 MHz). This is because less than a quarter of 50 ns is generated. That is, by integrating charges for a plurality of periods of the modulation signal, signal charges (charges corresponding to light emitted from the light emission source 2) and noise charges (external light components and shots generated inside the light detection element 1). A large signal-to-noise ratio can be obtained, and a large SN ratio can be obtained.

ところで、位相差ψを求めるのに必要な4種類の受光光量A0、A1、A2、A3に対応する電荷を1個の感光部11で生成するとすれば、視線方向に関する分解能は高くなるが、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差が大きくなるという問題が生じる。一方、各受光光量A0、A1、A2、A3に対応する電荷を4個の感光部11でそれぞれ生成するとすれば、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差は小さくなるが、4種類の電荷を求める視線方向にずれが生じ視線方向に関する分解能は低下する。そこで、本実施形態では、2個の感光部11を用いることにより、変調信号の1周期内で受光光量A0、A1、A2、A3に対応する電荷を2種類ずつ生成する構成を採用している。つまり、2個の感光部11を組にして用い、組になる2個の感光部11に同じ視線方向からの光が入射するようにしている。   By the way, if the charges corresponding to the four kinds of received light amounts A0, A1, A2, and A3 necessary for obtaining the phase difference ψ are generated by one photosensitive portion 11, the resolution in the line-of-sight direction is increased. There arises a problem that the time difference for obtaining the charges corresponding to the received light amounts A0, A1, A2, A3 becomes large. On the other hand, if the charges corresponding to the received light amounts A0, A1, A2, A3 are generated by the four photosensitive portions 11, respectively, the time difference for obtaining the charges corresponding to the received light amounts A0, A1, A2, A3 becomes small. However, a shift occurs in the line-of-sight direction for obtaining the four types of charges, and the resolution in the line-of-sight direction decreases. Therefore, in the present embodiment, a configuration is adopted in which two types of charges corresponding to the received light amounts A0, A1, A2, and A3 are generated in one cycle of the modulation signal by using the two photosensitive portions 11. . That is, two photosensitive portions 11 are used as a set, and light from the same line-of-sight direction is incident on the two photosensitive portions 11 in the set.

上述の構成を採用することにより、視線方向の分解能を比較的高くし、かつ受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくすることができる。つまり、受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくしていることにより、対象空間の中で移動している物体Obについても距離の検出精度を比較的高く保つことができる。なお、本実施形態の構成では、1個の感光部11で4種類の受光光量A0、A1、A2、A3に対応する電荷を生成する場合よりも視線方向の分解能が低下するが、視線方向の分解能については感光部11の小型化や受光光学系8の設計によって向上させることが可能である。   By adopting the above-described configuration, the resolution in the line-of-sight direction can be made relatively high, and the time difference for generating charges corresponding to the received light amounts A0, A1, A2, and A3 can be reduced. That is, by reducing the time difference for generating the charges corresponding to the received light amounts A0, A1, A2, and A3, the distance detection accuracy of the object Ob moving in the target space can be kept relatively high. Can do. In the configuration of this embodiment, the resolution in the line-of-sight direction is lower than that in the case where charges corresponding to four types of received light amounts A0, A1, A2, and A3 are generated by one photosensitive unit 11, but the line-of-sight direction The resolution can be improved by downsizing the photosensitive unit 11 or designing the light receiving optical system 8.

以下に動作を具体的に説明する。図6に示した例では、1個の感光部11について5個の制御電極23を設けた例を示しているが、両側の2個の制御電極23は、感光部11で電荷(電子e)を生成している間に隣接する感光部11に電荷が流出するのを防止するためのポテンシャルの障壁を形成するものであって、2個の感光部11を組にして用いる場合には隣接する感光部11のポテンシャル井戸24の間には、いずれかの感光部11で障壁が形成されるから、各感光部11には3個ずつの制御電極23を設けるだけで足りることになる。この構成によって、感光部11の1個当たりの占有面積が小さくなり、2個の感光部11を組にして用いながらも視線方向の分解能の低下を抑制することが可能になる。   The operation will be specifically described below. In the example shown in FIG. 6, an example in which five control electrodes 23 are provided for one photosensitive portion 11 is shown. However, two control electrodes 23 on both sides are charged (electrons e) by the photosensitive portion 11. Is formed to form a potential barrier for preventing the charge from flowing out to the adjacent photosensitive portion 11 while the two photosensitive portions 11 are used as a pair. Since any one of the photosensitive portions 11 forms a barrier between the potential wells 24 of the photosensitive portions 11, it is only necessary to provide three control electrodes 23 for each photosensitive portion 11. With this configuration, the occupation area per one photosensitive portion 11 is reduced, and it is possible to suppress a decrease in resolution in the line-of-sight direction while using the two photosensitive portions 11 as a set.

ここでは、図8に示すように、組にした2個の感光部11にそれぞれ設けた3個ずつの制御電極23を区別するために各制御電極23に(1)〜(6)の数字を付す。(1)〜(6)の数字を付与した制御電極23を有する2個の感光部11は、1つの視線方向に対応しておりイメージセンサにおける画素を構成する。なお、1画素ずつの感光部11に対応付けて、それぞれオーバフロードレインを設けるのが望ましい。   Here, as shown in FIG. 8, the numbers (1) to (6) are assigned to the control electrodes 23 in order to distinguish the three control electrodes 23 provided in the two photosensitive sections 11 respectively. Attached. The two photosensitive portions 11 having the control electrodes 23 assigned with the numbers (1) to (6) correspond to one line-of-sight direction and constitute pixels in the image sensor. In addition, it is desirable to provide an overflow drain in association with the photosensitive portion 11 for each pixel.

図8(a)(b)はそれぞれ制御電極23に異なる印加パターンで制御電圧+Vを印加した状態(半導体基板に設けた図示しない基板電極と制御電極23との間に制御電圧+Vを印加した状態)を示しており、ポテンシャル井戸24の形状からわかるように、図8(a)では1画素となる2個の感光部11のうち制御電極(1)〜(3)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)のうちの中央の制御電極(5)に正の制御電圧+Vを印加している。また、図8(b)では制御電極(1)〜(3)のうちの中央の制御電極(2)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)に正の制御電圧+Vを印加している。つまり、1画素を構成する2個の感光部11に印加する制御電圧+Vの印加パターンを交互に入れ換えている。2個の感光部11に印加する制御電圧+Vの印加パターンを入れ換えるタイミングは、変調信号における逆位相の(位相が180度異なる)タイミングになる。なお、各感光部11に設けた3個の制御電極23に同時に制御電圧+Vを印加している期間以外は、各感光部11に設けた中央部の1個の制御電極23(つまり、制御電極(2)(5))にのみ制御電圧+Vを印加し、他の制御電極23は0Vに保つ状態とする。   8A and 8B show a state in which a control voltage + V is applied to the control electrode 23 in a different application pattern (a state in which a control voltage + V is applied between a substrate electrode (not shown) provided on the semiconductor substrate and the control electrode 23). As can be seen from the shape of the potential well 24, in FIG. 8A, a positive control voltage + V is applied to the control electrodes (1) to (3) of the two photosensitive portions 11 serving as one pixel. In addition, a positive control voltage + V is applied to the central control electrode (5) among the remaining control electrodes (4) to (6). In FIG. 8B, a positive control voltage + V is applied to the central control electrode (2) among the control electrodes (1) to (3), and the remaining control electrodes (4) to (6) are applied. A positive control voltage + V is applied. In other words, the application pattern of the control voltage + V applied to the two photosensitive portions 11 constituting one pixel is alternately replaced. The timing of switching the application pattern of the control voltage + V applied to the two photosensitive portions 11 is the timing of the opposite phase (the phase is 180 degrees different) in the modulation signal. In addition, except for the period in which the control voltage + V is simultaneously applied to the three control electrodes 23 provided in each photosensitive portion 11, one central control electrode 23 (that is, the control electrode) provided in each photosensitive portion 11 is provided. (2) The control voltage + V is applied only to (5)), and the other control electrodes 23 are kept at 0V.

例えば、1画素を構成する2個の感光部11において受光光量A0、A2に対応する電荷を交互に生成する場合は、図5のように、一方の感光部11で受光光量A0に対応する電荷を生成するために3個の制御電極(1)〜(3)に制御電圧+Vを印加している間に、他方の感光部11では受光光量A2に対応する電荷を保持するために1個の制御電極(5)にのみ制御電圧+Vを印加する。同様にして、一方の感光部11で受光光量A2に対応する電荷を生成するために3個の制御電極(4)〜(6)に制御電圧+Vを印加している間には、他方の感光部11では受光光量A0に対応する電荷を保持するために1個の制御電極(2)にのみ制御電圧+Vを印加する。また、受光光量A0、A2に対応する電荷を生成する期間以外では制御電極(2)(5)にのみ制御電圧+Vを印加する。図5(b)(c)に受光光量A0、A2に対応する電荷を蓄積する際の各制御電極(1)〜(6)に対する制御電圧+Vの印加のタイミングを示す。図5(b)(c)において斜線部が制御電圧+Vを印加している状態を示し、空白部が制御電極(1)〜(6)に電圧を印加していない状態を示している。   For example, when the charges corresponding to the received light amounts A0 and A2 are alternately generated in the two photosensitive portions 11 constituting one pixel, the charges corresponding to the received light amount A0 in one photosensitive portion 11 as shown in FIG. While the control voltage + V is applied to the three control electrodes (1) to (3) in order to generate the signal, the other photosensitive portion 11 has one charge to hold the charge corresponding to the received light quantity A2. A control voltage + V is applied only to the control electrode (5). Similarly, while the control voltage + V is being applied to the three control electrodes (4) to (6) in order to generate a charge corresponding to the received light amount A2 in one photosensitive unit 11, the other photosensitive unit 11 is exposed. The unit 11 applies the control voltage + V only to one control electrode (2) in order to hold the charge corresponding to the received light quantity A0. In addition, the control voltage + V is applied only to the control electrodes (2) and (5) except for the period in which charges corresponding to the received light amounts A0 and A2 are generated. FIGS. 5B and 5C show the timing of applying the control voltage + V to the control electrodes (1) to (6) when accumulating charges corresponding to the received light amounts A0 and A2. 5B and 5C, the shaded portion indicates a state where the control voltage + V is applied, and the blank portion indicates a state where no voltage is applied to the control electrodes (1) to (6).

1画素を構成する2個の感光部11において受光光量A1、A3に対応する電荷を生成する場合も同様であって、受光光量A0、A2に対応する電荷を生成する場合とは制御電極23に制御電圧+Vを印加するタイミングが、変調信号の位相における90度異なる点が相違するだけである。また、受光光量A0、A1に対応する電荷を生成する期間と、受光光量A1、A3に対応する電荷を生成する期間との間で撮像領域Daから蓄積領域Dbに電荷を転送する。つまり、受光光量A0に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A2に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A0、A2に対応する電荷を外部に取り出す。次に、受光光量A1に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A3に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A1、A3に対応する電荷を外部に取り出す。このような動作を繰り返すことによって、4区間の受光光量A0、A1、A2、A3に対応する電荷を2回の読出動作で光出力素子1の外部に取り出すことができ、取り出した電荷を用いて位相差ψを求めることが可能になる。なお、例えば30フレーム毎秒の画像を得るためには、受光光量A0、A2に対応する電荷を生成する期間と受光光量A1、A3に対応する電荷を生成する期間とは60分の1秒よりも短い期間とする。   The same applies to the case where the charges corresponding to the received light amounts A1 and A3 are generated in the two photosensitive portions 11 constituting one pixel, and the case where the charges corresponding to the received light amounts A0 and A2 are generated is different from the control electrode 23. The only difference is that the timing at which the control voltage + V is applied differs by 90 degrees in the phase of the modulation signal. In addition, the charge is transferred from the imaging region Da to the accumulation region Db between a period for generating charges corresponding to the received light amounts A0 and A1 and a period for generating charges corresponding to the received light amounts A1 and A3. That is, charges corresponding to the received light amount A0 are accumulated in the potential well 24 corresponding to the control electrodes (1) to (3), and charges corresponding to the received light amount A2 correspond to the control electrodes (4) to (6). When accumulated in the potential well 24, the charges corresponding to the received light amounts A0 and A2 are taken out. Next, charges corresponding to the received light amount A1 are accumulated in the potential well 24 corresponding to the control electrodes (1) to (3), and charges corresponding to the received light amount A3 are applied to the control electrodes (4) to (6). When accumulated in the corresponding potential well 24, charges corresponding to these received light amounts A1 and A3 are taken out to the outside. By repeating such an operation, the charges corresponding to the received light amounts A0, A1, A2, and A3 of the four sections can be taken out of the light output element 1 by two reading operations, and the extracted charges are used. The phase difference ψ can be obtained. For example, in order to obtain an image of 30 frames per second, the period for generating charges corresponding to the received light amounts A0 and A2 and the period for generating charges corresponding to the received light amounts A1 and A3 are shorter than 1/60 second. A short period.

上述の例では3個の制御電極23((1)〜(3)または(4)〜(6))に同時に印加する制御電圧と、1個の制御電極23((2)または(5))にのみ印加する制御電圧とを等しくしているから、ポテンシャル井戸24の面積は変化するもののポテンシャル井戸24の深さは等しくなっている。この場合、制御電圧を印加していない制御電極23((1)(3)または(4)(6))において生成された電荷は、同程度の確率でポテンシャル井戸24に流れ込む。つまり、感光部11を構成する3個の制御電極23のうちの1個にのみ制御電圧+Vを印加することによって電荷集積部13として機能している領域と、3個の制御電極23のすべてに制御電圧+Vを印加している領域との両方に同程度の量の電荷が流れ込む。つまり、電荷を保持しているポテンシャル井戸24に流れ込む雑音成分が比較的多いものであるから、ダイナミックレンジを低下させる原因になる。   In the above example, the control voltage applied simultaneously to the three control electrodes 23 ((1) to (3) or (4) to (6)) and one control electrode 23 ((2) or (5)) Since the control voltage applied only to is equal, the area of the potential well 24 changes, but the depth of the potential well 24 is equal. In this case, the charges generated at the control electrode 23 ((1) (3) or (4) (6)) to which no control voltage is applied flow into the potential well 24 with a similar probability. That is, by applying the control voltage + V to only one of the three control electrodes 23 constituting the photosensitive portion 11, the region functioning as the charge accumulation portion 13 and all the three control electrodes 23 are applied. A similar amount of charge flows into both the region to which the control voltage + V is applied. That is, since the noise component flowing into the potential well 24 holding the charge is relatively large, the dynamic range is lowered.

そこで、図9のように、小面積のポテンシャル井戸24の深さを大面積のポテンシャル井戸24の深さよりも小さく設定するのが望ましく、組になる2個の感光部11に設けた各3個の制御電極(1)〜(3)または(4)〜(6)に同時に印加する制御電圧が、1個の制御電極(2)または(5)にのみ印加する制御電圧よりも高くなるように設定するのが望ましい。このように、主として電荷(電子e)を生成しているポテンシャル井戸24を、主として電荷の保持を行っているポテンシャル井戸24よりも深くすることにより、制御電圧を印加していない制御電極(1)(3)または(4)(6)に対応する部位で生じた電荷は、深いほうのポテンシャル井戸24に流れ込みやすくなる。つまり、制御電極23に一定の制御電圧+Vを印加する場合に比較すると、電荷を保持するポテンシャル井戸24に流れ込む雑音成分を低減することができる。   Therefore, as shown in FIG. 9, it is desirable to set the depth of the small-area potential well 24 to be smaller than the depth of the large-area potential well 24. The control voltage applied simultaneously to the control electrodes (1) to (3) or (4) to (6) is higher than the control voltage applied only to one control electrode (2) or (5). It is desirable to set. As described above, the potential well 24 that mainly generates charges (electrons e) is made deeper than the potential well 24 that mainly holds charges, so that the control electrode (1) to which no control voltage is applied is applied. Charges generated at the sites corresponding to (3) or (4) and (6) are likely to flow into the deeper potential well 24. That is, as compared with the case where a constant control voltage + V is applied to the control electrode 23, the noise component flowing into the potential well 24 holding the charge can be reduced.

なお、上述した距離画像センサDSの構成例では、受光光量A0、A1、A2、A3に対応する4期間を変調信号の1周期内で位相の間隔が90度ずつになるように設定しているが、変調信号に対する位相が既知であれば4期間は90度以外の適宜の間隔で設定することが可能である。ただし、間隔が異なれば位相差ψを求める算式は異なる。また、4期間の受光光量に対応した電荷を取り出す周期は、物体Obの反射率および外光成分が変化せず、かつ位相差ψも変化しない時間内であれば、変調信号の1周期内で4個の信号電荷を取り出すことも必須ではない。さらに、太陽光や照明光のような外乱光の影響があるときには、発光源2から放射される光の波長のみを透過させる光学フィルタを感光部11の前に配置するのが望ましい。図8、図9を用いて説明した構成例では、感光部11ごとに3個ずつの制御電極23を対応付けているが、制御電極23を4個以上設けるようにしてもよい。また、上述の例ではFT方式のCCDイメージセンサと同様の構成を採用しているが、インターライン・トランスファ(IT)方式、フレーム・インターライン・トランスファ(FIT)方式と同様の構成を採用することも可能である。   In the configuration example of the distance image sensor DS described above, four periods corresponding to the received light amounts A0, A1, A2, and A3 are set so that the phase interval is 90 degrees within one period of the modulation signal. However, if the phase for the modulation signal is known, the four periods can be set at appropriate intervals other than 90 degrees. However, the formula for obtaining the phase difference ψ differs if the interval is different. Also, the period of taking out the charge corresponding to the amount of received light in the four periods is within one period of the modulation signal as long as the reflectance and the external light component of the object Ob do not change and the phase difference ψ does not change. It is not essential to take out four signal charges. Furthermore, when there is an influence of disturbance light such as sunlight or illumination light, it is desirable to dispose an optical filter that transmits only the wavelength of light emitted from the light source 2 in front of the photosensitive portion 11. In the configuration example described with reference to FIGS. 8 and 9, three control electrodes 23 are associated with each photosensitive portion 11. However, four or more control electrodes 23 may be provided. In the above example, the same configuration as the FT type CCD image sensor is adopted, but the same configuration as the interline transfer (IT) method and the frame interline transfer (FIT) method is adopted. Is also possible.

次に、上述した距離画像センサDSで生成された距離画像に基づいて検知対象エリアに存在する人の特定部位を抽出する特定部位抽出部5について説明する。ここでは、距離画像を生成する際の光検出素子1への外光成分の入射を低減するために、発光源2から赤外線を対象空間に照射し、光検出素子1の前方に赤外線透過フィルタを配置しているものとする。したがって、濃淡画像は赤外線に対する濃淡画像になる。   Next, the specific part extraction unit 5 that extracts a specific part of a person existing in the detection target area based on the distance image generated by the distance image sensor DS described above will be described. Here, in order to reduce the incidence of external light components on the light detection element 1 when generating a distance image, the target space is irradiated with infrared light from the light source 2 and an infrared transmission filter is provided in front of the light detection element 1. Assume that it is arranged. Therefore, the grayscale image becomes a grayscale image with respect to infrared rays.

本実施形態のジェスチャースイッチでは、図1に示すように、距離画像センサDSの画像生成部4で生成された距離画像は特定部位抽出部5に与えられ、特定部位抽出部5では、距離画像に基づいて検知対象エリアに存在する人の特定部位が抽出され、ジェスチャー認識部6では、特定部位抽出部5から出力されるデータに基づいて特定空間(ここにおいて、特定空間は、検知対象エリアと同じ空間、つまり、距離画像の全範囲として規定してもよいし、検知対象エリア内の一部の空間、つまり、距離画像の一部の小領域として規定してもよい)内での所定のジェスチャーが認識される。要するに、本実施形態のジェスチャースイッチでは、検知対象エリアEに存在する物体Obまでの距離値を画素値とする距離画像を連続的に生成する1つの距離画像センサDSで生成された距離画像に基づいて検知対象エリアEに存在する人の特定部位が特定部位抽出部5にて連続的に抽出され、ジェスチャー認識部6において特定部位抽出部5から出力されるデータに基づいて特定空間内での人の所定のジェスチャーが認識されるので、制御対象機器や制御対象機器の制御用のスイッチなどを設置場所へ行って触れる必要がなくて、しかも、人が何も装着する必要がなくて使い勝手が良く、且つ、検知対象エリアEの背景に影響されずに人の特定部位を抽出することが可能となる。   In the gesture switch of this embodiment, as shown in FIG. 1, the distance image generated by the image generation unit 4 of the distance image sensor DS is given to the specific part extraction unit 5, and the specific part extraction unit 5 converts the distance image into the distance image. Based on the data extracted from the specific part extraction unit 5, the specific part of the person existing in the detection target area is extracted based on the data output from the specific part extraction unit 5, and the specific space is the same as the detection target area. A predetermined gesture in a space, that is, a whole range of the distance image, or a part of the space in the detection target area, that is, a part of the distance image) Is recognized. In short, the gesture switch according to the present embodiment is based on a distance image generated by one distance image sensor DS that continuously generates a distance image having a pixel value as a distance value to the object Ob existing in the detection target area E. The specific part of the person existing in the detection target area E is continuously extracted by the specific part extraction unit 5, and the person in the specific space is based on the data output from the specific part extraction unit 5 in the gesture recognition unit 6. It is easy to use because there is no need to go to the installation location and touch the control target device or the control switch for the control target device, and there is no need for a person to wear anything. In addition, it is possible to extract a specific part of a person without being affected by the background of the detection target area E.

上述のように距離画像センサDSの画像生成部4で生成された距離画像は距離画像センサDSから物体Obまでの距離値を画素値とするものであり、特定部位抽出部5では、距離画像から人の特定部位を抽出するにあたって、距離画像毎に最小の距離値に所定値を加算した値を閾値として距離画像を2値化し、閾値以下となる領域を特定部位として抽出するようになっている。したがって、所定値を適宜設定することにより、例えば、距離画像センサDSへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用する場合、人の手の手首よりも先の部分を特定部位として容易に抽出することが可能となる。この場合、距離画像センサDSから特定部位抽出部5へ図3(a)に示すような距離画像(距離画像データ)が与えられたとすると、特定部位抽出部5では図3(b)に示すような2値化画像が得られ(距離画像において距離値が閾値以下の画素では2値化画像の画素を白とし、距離画像において距離値が閾値よりも大きな画素では2値化画像の画素を黒としてある)、このような2値化画像から白領域Wを特定部位(手の手首よりも先の部分)として抽出する。図3(a)の距離画像は、距離値に応じて画素の色を4段階に変化させた例を示しており、画像生成部4において基準距離値としてL1、L2、L3、L4、L5(L1<L2<L3<L4<L5)を設定し、距離値が基準距離値L1以下の画素からなる領域をF1、距離値が基準距離値L1よりも大きく基準距離値L2以下の画素からなる領域をF2、距離値が基準距離値L2よりも大きく基準距離値L3以下の画素からなる領域をF3、距離値が基準距離値L3よりも大きく基準距離値L4以下の画素からなる領域をF4、距離値が基準距離値L4よりも大きな画素からなる領域をF5とすれば、領域F1が白色、領域F5が黒色、領域F2が白色に近い灰色、領域F4が黒に近い灰色、領域F3が領域F2と領域F4との中間的な灰色となるような距離画像を生成している(なお、図3(a)中の点Pは距離値が最小となる画素の位置を示している)。一方、図3(b)の2値化画像は、人の手の手首よりも先の部分が白領域Wとなるように上記所定値を設定してあるときの2値化画像を示している。   As described above, the distance image generated by the image generation unit 4 of the distance image sensor DS has a pixel value as the distance value from the distance image sensor DS to the object Ob. When extracting a specific part of a person, the distance image is binarized using a value obtained by adding a predetermined value to the minimum distance value for each distance image as a threshold, and an area that is equal to or less than the threshold is extracted as the specific part. . Therefore, by appropriately setting the predetermined value, for example, when using the distance image sensor DS by holding a hand and performing a gesture at a portion ahead of the wrist, a portion ahead of the wrist of a human hand is used. It can be easily extracted as a specific part. In this case, if a distance image (distance image data) as shown in FIG. 3A is given from the distance image sensor DS to the specific part extraction unit 5, the specific part extraction unit 5 as shown in FIG. A binary image is obtained (the pixel of the binarized image is white if the pixel has a distance value less than or equal to the threshold in the distance image, and the pixel of the binarized image is black if the pixel has a distance value greater than the threshold in the distance image. The white region W is extracted from such a binarized image as a specific part (a part ahead of the wrist of the hand). The distance image in FIG. 3A shows an example in which the color of the pixel is changed in four stages according to the distance value. The image generation unit 4 uses L1, L2, L3, L4, L5 (reference distance values) as reference distance values. L1 <L2 <L3 <L4 <L5) is set, and an area composed of pixels whose distance value is equal to or smaller than the reference distance value L1 is F1, and an area composed of pixels whose distance value is larger than the reference distance value L1 and equal to or smaller than the reference distance value L2. F2, an area composed of pixels with a distance value greater than the reference distance value L2 and less than or equal to the reference distance value L3, F3, an area composed of pixels with a distance value greater than the reference distance value L3 and less than or equal to the reference distance value L4, distance Assuming that an area composed of pixels whose values are larger than the reference distance value L4 is F5, the area F1 is white, the area F5 is black, the area F2 is gray near white, the area F4 is near gray, and the area F3 is area F2. And gray in between area F4 And generating a distance image such that (Note, P point in FIG. 3 (a) shows the position of the pixel distance value is minimized). On the other hand, the binarized image in FIG. 3B shows the binarized image when the predetermined value is set so that the portion ahead of the wrist of the human hand is the white region W. .

ところで、特定部位抽出部5において距離画像から人の特定部位を抽出する方法は上述の例に限らず、例えば、距離画像を所定の閾値で2値化し、閾値以下となる領域を人体の輪郭として抽出するようすれば、閾値を適宜設定することにより、例えば、人の全身や上半身などを上記特定部位として抽出することが可能となり、人の全身や上半身を使ったジェスチャーの認識が可能となる。また、特定部位抽出部5が、距離画像において最小の距離値となる画素の周囲領域に関して閾値以下となる画素の数が一定値となるように上記閾値を調整して上記距離画像を上記閾値で2値化し、上記閾値以下となる領域を特定部位として抽出するようにすれば、例えば、距離画像センサDSへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用する場合、人の手の手首よりも先の部分を特定部位として安定して抽出することが可能となる。この場合の特定部位抽出部5では、以下の流れ(a)〜(e)で閾値が調整される。
(a)距離画像から距離値が最小値となる画素を探し基準画素とする処理を行う。
(b)閾値の初期値を上記最小値とする処理を行う。
(c)上記距離画像において上記基準画素の周辺領域で距離値が閾値以下となる画素の画素数を調べる処理を行う。
(d)画素数が所定の一定値以下の場合には、閾値に値1を加算して(c)の処理に戻り、一定値を超えている場合には、次の処理へ移行する。
(e)画素数>上記一定値となる直前の閾値を最終的な閾値として決定する。
By the way, the method of extracting the specific part of the person from the distance image in the specific part extraction unit 5 is not limited to the above example. For example, the distance image is binarized with a predetermined threshold value, and an area that is equal to or less than the threshold value is used as the contour of the human body. If extraction is performed, by appropriately setting the threshold value, for example, the whole body or upper body of a person can be extracted as the specific part, and a gesture using the whole body or upper body of the person can be recognized. In addition, the specific part extraction unit 5 adjusts the threshold value so that the number of pixels that are equal to or less than the threshold value with respect to the surrounding area of the pixel that has the minimum distance value in the distance image, and sets the distance image to the threshold value. If binarization is performed and an area that is equal to or less than the threshold value is extracted as a specific part, for example, when a hand is held over the distance image sensor DS and a gesture is performed at a part beyond the wrist, It is possible to stably extract the portion ahead of the wrist of the hand as the specific part. In the specific part extraction unit 5 in this case, the threshold value is adjusted by the following flows (a) to (e).
(A) A process for searching for a pixel having a minimum distance value from the distance image is performed as a reference pixel.
(B) Processing for setting the initial value of the threshold to the minimum value is performed.
(C) In the distance image, a process for examining the number of pixels whose distance value is equal to or smaller than a threshold value in the peripheral area of the reference pixel is performed.
(D) When the number of pixels is equal to or smaller than a predetermined constant value, the value 1 is added to the threshold value, and the process returns to the process (c). When it exceeds the predetermined value, the process proceeds to the next process.
(E) The threshold immediately before the number of pixels> the above constant value is determined as the final threshold.

また、特定部位抽出部5が距離画像における特定の入力判定領域についてのみ2値化を行って上記閾値との比較結果に基づいて上記特定部位の抽出を行うようにすれば、距離画像における全画素について2値化を行う場合に比べて、特定部位抽出部5の処理速度の高速化を図れる。   Further, if the specific part extraction unit 5 binarizes only a specific input determination region in the distance image and extracts the specific part based on the comparison result with the threshold value, all pixels in the distance image As compared with the case where binarization is performed, the processing speed of the specific part extraction unit 5 can be increased.

ジェスチャー認識部6では、例えば、特定部位抽出部5において抽出された特定部位に関する形状(情報)の時系列データに基づいてジェスチャーを認識する。この場合、ジェスチャー認識部6において、ジェスチャーを認識するにあたっては、例えば、図4に示すような特定部位の形状における手の5本の指の3D重心O1〜O5および手のひらの3D重心O6を特徴量として特徴量の時系列データをHMM(Hidden Markov Model)により学習してジェスチャーを認識するようにすれば、距離画像センサDSへ手をかざして手首よりも先の部分でジェスチャーを行うようにして使用するにあたって、ジェスチャー認識部6におけるジェスチャーの認識性能(ジェスチャー認識の精度)を向上させることができる。なお、上述の特徴量としては、指の3D重心に限らず、指の傾きや、指の数などを特徴量として規定してもよい。また、ジェスチャーの認識方法も上述の方法以外の周知の方法を採用してもよく、特定部位抽出部5において抽出された特定部位に関する形状の時系列データに基づいてジェスチャーを認識するにあたって、例えば、指の数が時間経過とともに1本→2本→3本と変化した場合(つまり、特定部位の形状が時系列的に変化した場合)に所定のジェスチャーが行われたと認識するようにしてもよいし、また、所定の形状(例えば、一般的に片手でじゃんけんをするときの「ぐう」、「ちょき」、「ぱあ」などの形状)が規定時間以上継続された場合に所定のジェスチャーが行われたと認識するようにし、且つ、所定の形状が上記規定時間未満しか継続されない場合にはジェスチャーとは認識しないようにしてもよい。ここで、上記規定時間を適宜設定しておけば、制御対象機器の制御を意図していない手の動きがジェスチャーとして認識されて制御対象機器へ制御出力が与えられるのを防止することができる。   In the gesture recognition unit 6, for example, a gesture is recognized based on time-series data of a shape (information) regarding the specific part extracted by the specific part extraction unit 5. In this case, when the gesture recognition unit 6 recognizes the gesture, for example, the 3D centroids O1 to O5 of the five fingers and the 3D centroid O6 of the palm in the shape of the specific part as shown in FIG. If the feature time series data is learned by HMM (Hidden Markov Model) and the gesture is recognized, it is used by holding the hand to the distance image sensor DS and performing the gesture at the part ahead of the wrist. In doing so, the gesture recognition performance (gesture recognition accuracy) in the gesture recognition unit 6 can be improved. Note that the above-described feature amount is not limited to the 3D center of gravity of the finger, and the tilt of the finger, the number of fingers, and the like may be defined as the feature amount. In addition, a well-known method other than the above-described method may be adopted as the gesture recognition method. For example, when recognizing a gesture based on time-series data of a shape related to a specific part extracted by the specific part extraction unit 5, for example, It may be recognized that a predetermined gesture has been made when the number of fingers changes from 1 to 2 to 3 over time (that is, when the shape of a specific part changes in time series). In addition, a predetermined gesture is performed when a predetermined shape (for example, the shape of “guo”, “chokki”, “paa”, etc. in general when playing with a single hand) is continued for a specified time or longer). If the predetermined shape continues for less than the specified time, it may not be recognized as a gesture. Here, if the specified time is appropriately set, it is possible to prevent a movement of a hand not intended to control the control target device from being recognized as a gesture and giving a control output to the control target device.

制御部7は、ジェスチャーと制御出力とをあらかじめ対応付けたテーブルを記憶したメモリ(図示せず)を備えており、ジェスチャー認識部6にて認識されたジェスチャーに対応する制御出力を制御対象機器へ与えるようになっている。ここにおいて、図10(a)に示すように、距離画像センサDSの検知対象エリアE内に所定のジェスチャーによる入力を受けつけるための空間として2つの入力空間(ここでは、上述の特定空間)G1,G2を設定しておき、人Mが入力空間G2近傍で所定のジェスチャーを行った場合、制御部7が、図10(b)に示すように距離画像において入力空間G2に対応する入力領域H2(図示例では、入力空間G1に対応する入力領域H1は黒領域となっている)の画素数に対する特定部位の画素(閾値以下となる領域であって白領域Wとなっている)の画素数の割合が規定値を超えているときに上記制御出力を制御対象機器へ与えるようにすれば、上記特定空間以外の空間での人の制御対象機器の制御を意図しない動きがジェスチャーとして認識されても制御対象機器へ制御出力が与えられるのを防止することができる。人Mが入力空間G1の近傍でジェスチャーを行った場合も同様であるから、入力空間G1,G2とを互いに異なる制御対象機器へ割り当てることも可能となる。また、図11に示すように、距離画像センサDSの検知対象エリアE内に所定のジェスチャーによる入力を受けつけるための空間である1つの入力空間(ここでは、特定空間)Gを設定しておき、人Mが入力空間G近傍でジェスチャーを行った場合にも、制御部7が、距離画像において入力空間Gに対応する入力領域の画素数に対する特定部位の画素数の割合が規定値を超えているときに上記制御出力を制御対象機器へ与えるようにすれば、上記特定空間以外の空間での人の制御対象機器の制御を意図しない動きがジェスチャーとして認識されても制御対象機器へ制御出力が与えられるのを防止することができる。   The control unit 7 includes a memory (not shown) that stores a table in which gestures and control outputs are associated with each other in advance. The control output corresponding to the gesture recognized by the gesture recognition unit 6 is sent to the control target device. To give. Here, as shown in FIG. 10 (a), two input spaces (here, the above-mentioned specific spaces) G1, as spaces for receiving an input by a predetermined gesture within the detection target area E of the distance image sensor DS. When G2 is set and the person M performs a predetermined gesture in the vicinity of the input space G2, the control unit 7 causes the input region H2 (in FIG. 10B) corresponding to the input space G2 ( In the illustrated example, the number of pixels of a specific portion (the area below the threshold and the white area W) is the number of pixels of the input area H1 corresponding to the input space G1 is a black area). If the control output is given to the device to be controlled when the ratio exceeds the specified value, a motion that is not intended to control the device to be controlled in a space other than the specific space is a gesture. Be recognized can be prevented from control output to the control target device is given. The same applies when the person M performs a gesture in the vicinity of the input space G1, and the input spaces G1 and G2 can be assigned to different control target devices. Also, as shown in FIG. 11, one input space (here, a specific space) G that is a space for receiving an input by a predetermined gesture is set in the detection target area E of the distance image sensor DS, Even when the person M performs a gesture in the vicinity of the input space G, the control unit 7 determines that the ratio of the number of pixels in the specific part to the number of pixels in the input area corresponding to the input space G in the distance image exceeds the specified value. If the control output is given to the control target device from time to time, the control output is given to the control target device even if a movement that is not intended to control the human control target device in a space other than the specific space is recognized as a gesture. Can be prevented.

なお、図12(a)に示すように距離画像センサDSの検知対象エリアEが設定される部屋Rに、図12(b)に示すように仮想の立体空間にあるマニプレータ50を画面に表示する表示装置Uを設け、人Mの手Hを特定部位として特定部位抽出部5により抽出し、表示装置Uの画面上に上記マニプレータ50を操作する仮想の手H’を表示させて人Mの手Hの動きに仮想の手H’の動きを同調させるようにしてもよい(図12(a)(b)中の矢印はそれぞれ手H,H’の動く方向を示している)。要するに、特定部位抽出部5により抽出された手Hの動きを、仮想空間の制御対象機器の操作の動きとして利用してもよい。   As shown in FIG. 12A, a manipulator 50 in a virtual three-dimensional space is displayed on the screen in a room R where the detection target area E of the distance image sensor DS is set as shown in FIG. The display device U is provided, the hand H of the person M is extracted as a specific part by the specific part extraction unit 5, and the virtual hand H ′ for operating the manipulator 50 is displayed on the screen of the display apparatus U to display the hand of the person M The movement of the virtual hand H ′ may be synchronized with the movement of H (the arrows in FIGS. 12A and 12B indicate the directions of movement of the hands H and H ′, respectively). In short, the movement of the hand H extracted by the specific part extraction unit 5 may be used as the operation movement of the control target device in the virtual space.

(実施形態2)
本実施形態のジェスチャースイッチの基本構成は実施形態1と略同じであって、感度制御部12の具体的な構成において、電荷集積部13に与える電荷の割合を調節する技術として、感光部11から電荷集積部13への通過率を調節する技術と、感光部11から電荷を廃棄する廃棄率を調節する技術との両方の技術を用いている点が相違する。他の構成は実施形態1と同じなので図示および説明を省略する。
(Embodiment 2)
The basic configuration of the gesture switch of the present embodiment is substantially the same as that of the first embodiment. In the specific configuration of the sensitivity control unit 12, as a technique for adjusting the ratio of charges given to the charge accumulation unit 13, the photosensitive unit 11 starts. The difference is that both the technique for adjusting the passing rate to the charge accumulating unit 13 and the technique for adjusting the discard rate for discarding charges from the photosensitive unit 11 are used. Since other configurations are the same as those of the first embodiment, illustration and description thereof are omitted.

感度制御部12において通過率と廃棄率とを調節する技術では、図13に示すように、感光部11と電荷集積部13との間にゲート電極12aを設け、ゲート電極12aに印加する通過電圧を変化させることにより、感光部11から電荷集積部13への電荷の移動(つまり、通過率)を制御する。また、電荷廃棄部12cを設け、電荷廃棄部12cに付設した廃棄電極12bに印加する廃棄電圧を変化させることにより、感光部11から電荷廃棄部12cへの電荷の移動(つまり、廃棄率)を制御する。電荷集積部13は感光部11ごとに一対一に対応するように設けられ、電荷廃棄部12cは複数個の感光部11に共通させて一対多に対応するように設けられる。図示例では、光検出素子1のすべての感光部11で1組の廃棄電極12bおよび電荷廃棄部12cを共用している。   In the technique of adjusting the pass rate and the discard rate in the sensitivity control unit 12, as shown in FIG. 13, a gate electrode 12a is provided between the photosensitive unit 11 and the charge accumulation unit 13, and the pass voltage applied to the gate electrode 12a. Is changed to control the movement of charges from the photosensitive portion 11 to the charge accumulating portion 13 (that is, the passing rate). Further, by providing the charge discarding part 12c and changing the discarding voltage applied to the disposal electrode 12b attached to the charge discarding part 12c, the movement of the charge from the photosensitive part 11 to the charge discarding part 12c (that is, the discard rate) is changed. Control. The charge accumulating units 13 are provided so as to correspond one-to-one for each photosensitive unit 11, and the charge discarding units 12c are provided so as to correspond to the plurality of photosensitive units 11 so as to correspond one-to-many. In the illustrated example, all of the photosensitive portions 11 of the photodetecting element 1 share a set of discarding electrode 12b and charge discarding portion 12c.

感度を制御するために、感光部11からの電荷の廃棄を行わずに感光部11から電荷集積部13への通過率の制御のみを行うことが考えられるが、電荷の廃棄を行わなければ感光部11において電荷が暫時残留するから、感光部11で生成された電荷のうち不要な残留電荷が、利用する電荷(以下、信号電荷という)に雑音成分として混入する。したがって、信号電荷への残留電荷の混入を防止するために、ゲート電極12aに印加する通過電圧だけでなく廃棄電極12bに印加する廃棄電圧を制御する。なお、電荷集積部13には発光源2から空間に照射される光の変調信号の複数周期(数万〜数十万周期)において変調信号に同期する特定の区間の受光光量A0,A1,A2,A3に相当する電荷を集積し、各区間の電荷の集積毎に集積した信号電荷を取り出して次の区間の電荷を集積する。ここで、電荷集積部13に得られた信号電荷は実施形態1と同様に電荷取出部14(図1参照)により取り出される。   In order to control the sensitivity, it is conceivable to control only the pass rate from the photosensitive unit 11 to the charge accumulating unit 13 without discarding the charge from the photosensitive unit 11. Since charges remain in the unit 11 for a while, unnecessary residual charges out of the charges generated in the photosensitive unit 11 are mixed as noise components in the used charges (hereinafter referred to as signal charges). Therefore, in order to prevent the residual charge from being mixed into the signal charge, not only the passing voltage applied to the gate electrode 12a but also the discard voltage applied to the discard electrode 12b is controlled. The charge accumulating unit 13 receives received light amounts A0, A1, A2 in a specific section synchronized with the modulation signal in a plurality of cycles (tens of thousands to hundreds of thousands) of the modulation signal of the light emitted from the light source 2 to the space. , A3 are accumulated, the signal charges accumulated for each charge accumulation in each section are taken out, and the charges in the next section are accumulated. Here, the signal charge obtained in the charge accumulating unit 13 is extracted by the charge extracting unit 14 (see FIG. 1) as in the first embodiment.

図13に示した感度制御部12を備える光検出素子1は、オーバーフロードレインを備えたCCDイメージセンサにより実現することができ、CCDイメージセンサにおける電荷の転送方式としてはインターライントランスファ(IT)方式を採用している。   The photodetecting element 1 having the sensitivity control unit 12 shown in FIG. 13 can be realized by a CCD image sensor having an overflow drain, and an interline transfer (IT) method is used as a charge transfer method in the CCD image sensor. Adopted.

図14に縦型オーバーフロードレインを備えるインターライントランスファ方式のCCDイメージセンサの構成を示す。図示例は、感光部11となるフォトダイオード41を水平方向と垂直方向とに複数個ずつ(図では3×4個)配列した2次元イメージセンサであって、垂直方向に配列したフォトダイオード41の各列の右側方にCCDからなる垂直転送レジスタ42を備え、フォトダイオード41および垂直転送レジスタ42が配列された領域の下方にCCDからなる水平転送レジスタ43を備える。垂直転送レジスタ42は各フォトダイオード41ごとに2個ずつの転送電極42a,42bを備え、水平転送レジスタ43は各垂直転送レジスタ42ごとに2個ずつの転送電極43a,43bを備える。   FIG. 14 shows a configuration of an interline transfer type CCD image sensor having a vertical overflow drain. The illustrated example is a two-dimensional image sensor in which a plurality of photodiodes 41 serving as the photosensitive portions 11 are arranged in a horizontal direction and a vertical direction (3 × 4 in the figure), and the photodiodes 41 arranged in the vertical direction are arranged. A vertical transfer register 42 made of a CCD is provided on the right side of each column, and a horizontal transfer register 43 made of a CCD is provided below the area where the photodiodes 41 and the vertical transfer registers 42 are arranged. The vertical transfer register 42 includes two transfer electrodes 42 a and 42 b for each photodiode 41, and the horizontal transfer register 43 includes two transfer electrodes 43 a and 43 b for each vertical transfer register 42.

フォトダイオード41と垂直転送レジスタ42と水平転送レジスタ43とは1枚の半導体基板40上に形成され、半導体基板40の主表面には、フォトダイオード41と垂直転送レジスタ42と水平転送レジスタ43との全体を囲む形でアルミニウム電極であるオーバーフロー電極44が、半導体基板40の全周に亘って絶縁膜を介さずに半導体基板40に直接接触するように設けられる。オーバーフロー電極44に半導体基板40に対して正極性になる適宜の廃棄電圧を印加すればフォトダイオード41で生成された電子(電荷)はオーバーフロー電極44を通して廃棄される。オーバーフロー電極44は、感光部11であるフォトダイオード41において生成した電荷のうち不要電荷を廃棄する際に廃棄電圧が印加されるから廃棄電極12bとして機能し、オーバーフロー電極44に廃棄電圧を印加する電源が感光部11で生成された電子(電荷)を廃棄する電荷廃棄部12cとして機能する。半導体基板40の表面はフォトダイオード41に対応する部位を除いて遮光膜46(図15参照)により覆われる。   The photodiode 41, the vertical transfer register 42, and the horizontal transfer register 43 are formed on one semiconductor substrate 40, and the photodiode 41, the vertical transfer register 42, and the horizontal transfer register 43 are formed on the main surface of the semiconductor substrate 40. An overflow electrode 44 which is an aluminum electrode is provided so as to directly contact the semiconductor substrate 40 without going through an insulating film over the entire circumference of the semiconductor substrate 40 so as to surround the whole. If an appropriate disposal voltage that is positive with respect to the semiconductor substrate 40 is applied to the overflow electrode 44, electrons (charges) generated by the photodiode 41 are discarded through the overflow electrode 44. The overflow electrode 44 functions as the discard electrode 12b because a discard voltage is applied when discarding unnecessary charges among the charges generated in the photodiode 41 which is the photosensitive portion 11, and the power supply for applying the discard voltage to the overflow electrode 44 Functions as a charge discarding unit 12c that discards electrons (charges) generated in the photosensitive unit 11. The surface of the semiconductor substrate 40 is covered with a light-shielding film 46 (see FIG. 15) except for the portion corresponding to the photodiode 41.

図14に示したCCDイメージセンサについて、1個のフォトダイオード41に関連する部分を切り出して図15に示す。半導体基板40にはn形半導体を用い、半導体基板40の主表面にはフォトダイオード41と垂直転送レジスタ42とに跨る領域にp形半導体からなるウェル領域31を形成している。ウェル領域31は、フォトダイオード41に対応する領域に比較して垂直転送レジスタ42に対応する領域の厚み寸法が大きくなるように形成してある。ウェル領域31のうちフォトダイオード41に対応する領域にはn形半導体層32を重ねて設けてあり、ウェル領域31とn形半導体層32とのpn接合によってフォトダイオード41が形成される。フォトダイオード41の表面にはp形半導体からなる表面層33を積層してある。表面層33はフォトダイオード41で生成された電荷を垂直転送レジスタ42に移動させる際に、n形半導体層32の表面付近が電荷の通過経路にならないように制御する目的で設けてある。このような構造は、埋込フォトダイオードとして知られている。 For the CCD image sensor shown in FIG. 14, a portion related to one photodiode 41 is cut out and shown in FIG. 15. An n-type semiconductor is used for the semiconductor substrate 40, and a well region 31 made of a p-type semiconductor is formed in a region straddling the photodiode 41 and the vertical transfer register 42 on the main surface of the semiconductor substrate 40. The well region 31 is formed so that the thickness dimension of the region corresponding to the vertical transfer register 42 is larger than the region corresponding to the photodiode 41. An n + -type semiconductor layer 32 is provided in a region corresponding to the photodiode 41 in the well region 31, and the photodiode 41 is formed by a pn junction between the well region 31 and the n + -type semiconductor layer 32. A surface layer 33 made of a p + type semiconductor is laminated on the surface of the photodiode 41. The surface layer 33 is provided for the purpose of controlling the vicinity of the surface of the n + -type semiconductor layer 32 so as not to be a charge passage path when the charge generated by the photodiode 41 is moved to the vertical transfer register 42. Such a structure is known as a buried photodiode.

ウェル領域31のうち垂直転送レジスタ42に対応する領域にはn形半導体からなる蓄積転送層34を重ねて設けてある。蓄積転送層34の表面と表面層33の表面とは略同一平面であって、蓄積転送層34の厚み寸法は表面層33の厚み寸法よりも大きくしてある。蓄積転送層34は、表面層33とは接触しているが、n形半導体層32との間には、表面層33と不純物濃度が等しいp形半導体からなる分離層35が介在する。蓄積転送層34の表面には、絶縁膜45を介して転送電極42a,42bが配置される。転送電極42a,42bは1個のフォトダイオード41に対して2個ずつ設けられ、垂直方向において2個の転送電極42a,42bのうちの一方は他方よりも広幅に形成される。具体的には、図16のように、1個のフォトダイオード41に対応する2個の転送電極42a,42bのうち狭幅の転送電極42bは平板状に形成されており、広幅の転送電極42aは、幅狭の転送電極42bと同一平面上に配列され一対の転送電極42bの間に配置される平板状の部分と、平板状の部分の垂直方向(図16の左右方向)における両端部からそれぞれ延長され転送電極42bの上に重複する湾曲した部分とを備える。ここに、絶縁膜45はSiOにより形成され、また転送電極42a,42bはポリシリコンにより形成され、各転送電極42a,42bは絶縁膜45を介して互いに絶縁されている。さらに、フォトダイオード41に光を入射させる部位を除いて光検出素子1の表面は遮光膜46により覆われる。ウェル領域31において垂直転送レジスタ42に対応する領域および蓄積転送層34は垂直転送レジスタ42の全長に亘って形成され、したがって、蓄積転送層34には広幅の転送電極42aと狭幅の転送電極42bとが交互に配列される。 An accumulation transfer layer 34 made of an n-type semiconductor is overlaid in a region corresponding to the vertical transfer register 42 in the well region 31. The surface of the accumulation / transfer layer 34 and the surface of the surface layer 33 are substantially flush with each other, and the thickness dimension of the accumulation / transfer layer 34 is larger than the thickness dimension of the surface layer 33. The accumulation transfer layer 34 is in contact with the surface layer 33, but a separation layer 35 made of a p + type semiconductor having the same impurity concentration as that of the surface layer 33 is interposed between the storage layer 34 and the n + type semiconductor layer 32. Transfer electrodes 42 a and 42 b are disposed on the surface of the accumulation transfer layer 34 via an insulating film 45. Two transfer electrodes 42a and 42b are provided for each photodiode 41, and one of the two transfer electrodes 42a and 42b is formed wider than the other in the vertical direction. Specifically, as shown in FIG. 16, of the two transfer electrodes 42a and 42b corresponding to one photodiode 41, the narrow transfer electrode 42b is formed in a flat plate shape, and the wide transfer electrode 42a. Are arranged on the same plane as the narrow transfer electrode 42b and disposed between the pair of transfer electrodes 42b, and from both ends in the vertical direction (left and right direction in FIG. 16) of the flat plate portion. And a curved portion that extends and overlaps the transfer electrode 42b. Here, the insulating film 45 is formed of SiO 2 , the transfer electrodes 42 a and 42 b are formed of polysilicon, and the transfer electrodes 42 a and 42 b are insulated from each other through the insulating film 45. Further, the surface of the light detection element 1 is covered with a light shielding film 46 except for a portion where light is incident on the photodiode 41. In the well region 31, the region corresponding to the vertical transfer register 42 and the storage transfer layer 34 are formed over the entire length of the vertical transfer register 42. Therefore, the storage transfer layer 34 has a wide transfer electrode 42a and a narrow transfer electrode 42b. And are alternately arranged.

上述した光検出素子1では、フォトダイオード41が感光部11に相当し、転送電極42aがゲート電極12aに相当し、オーバーフロー電極44が廃棄電極12bに相当し、垂直転送レジスタ42が電荷集積部13および電荷取出部14の一部として機能する。また、水平転送レジスタ43も電荷取出部14の一部になる。すなわち、フォトダイオード41に光が入射すれば電荷が生成され、フォトダイオード41で生成された電荷のうち垂直転送レジスタ42に信号電荷として引き渡される電荷の割合は転送電極42aに印加する通過電圧とオーバーフロー電極44に印加する廃棄電圧との関係によって決めることができる。転送電極42aに通過電圧を印加すると蓄積転送層34にポテンシャル井戸が形成され、通過電圧の制御によりポテンシャル井戸の深さを制御することができる。したがって、ポテンシャル井戸の深さおよび通過電圧を印加する時間とを制御すれば、フォトダイオード41から垂直転送レジスタ42に引き渡される電荷の割合を調節することができる。また、オーバーフロー電極44に印加する廃棄電圧を制御すれば、フォトダイオード41と半導体基板40との間の電位勾配を制御することができるから、電位勾配と廃棄電圧を印加する時間とを制御すれば、垂直転送レジスタ42に引き渡される電荷の割合を調節することができる。   In the photodetector 1 described above, the photodiode 41 corresponds to the photosensitive portion 11, the transfer electrode 42 a corresponds to the gate electrode 12 a, the overflow electrode 44 corresponds to the discard electrode 12 b, and the vertical transfer register 42 corresponds to the charge accumulation portion 13. And functions as a part of the charge extraction unit 14. Further, the horizontal transfer register 43 also becomes a part of the charge extraction unit 14. That is, if light enters the photodiode 41, a charge is generated, and the ratio of the charge generated as a signal charge to the vertical transfer register 42 among the charges generated by the photodiode 41 is equal to the passing voltage applied to the transfer electrode 42a and the overflow. It can be determined according to the relationship with the waste voltage applied to the electrode 44. When a pass voltage is applied to the transfer electrode 42a, a potential well is formed in the storage transfer layer 34, and the depth of the potential well can be controlled by controlling the pass voltage. Therefore, by controlling the depth of the potential well and the time during which the passing voltage is applied, the ratio of charges delivered from the photodiode 41 to the vertical transfer register 42 can be adjusted. Further, if the discard voltage applied to the overflow electrode 44 is controlled, the potential gradient between the photodiode 41 and the semiconductor substrate 40 can be controlled. Therefore, if the potential gradient and the time for applying the discard voltage are controlled. The rate of charge delivered to the vertical transfer register 42 can be adjusted.

フォトダイオード41から垂直転送レジスタ42に引き渡された信号電荷は、上述した4区間の受光光量A0,A1,A2,A3のうちの各1区間の受光光量A0,A1,A2,A3に相当する信号電荷が集積されるたびに読み出される。例えば、受光光量A0に相当する信号電荷が各フォトダイオード41に対応して形成されるポテンシャル井戸に集積されると信号電荷を読み出し、次に受光光量A1に相当する信号電荷がポテンシャル井戸に集積されると再び信号電荷を読み出すという動作を繰り返す。   The signal charges delivered from the photodiode 41 to the vertical transfer register 42 are signals corresponding to the received light amounts A0, A1, A2, and A3 of each one of the four received light amounts A0, A1, A2, and A3 described above. It is read each time charge is accumulated. For example, when a signal charge corresponding to the received light amount A0 is accumulated in a potential well formed corresponding to each photodiode 41, the signal charge is read, and then a signal charge corresponding to the received light amount A1 is accumulated in the potential well. Then, the operation of reading the signal charge again is repeated.

実施形態1のジェスチャースイッチのブロック図である。It is a block diagram of the gesture switch of Embodiment 1. 同上に用いる距離画像センサの設置場所の説明図である。It is explanatory drawing of the installation place of the distance image sensor used for the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上に用いる光検出素子の平面図である。It is a top view of the photon detection element used for the same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上の他の構成例の動作説明図である。It is operation | movement explanatory drawing of the other structural example same as the above. 同上の他の構成例の動作説明図である。It is operation | movement explanatory drawing of the other structural example same as the above. 同上の他の構成例の動作説明図である。It is operation | movement explanatory drawing of the other structural example same as the above. 実施形態2のジェスチャースイッチにおける感度制御部の構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of a sensitivity control unit in the gesture switch of Embodiment 2. FIG. 同上に用いる光検出素子の構成例を示す平面図である。It is a top view which shows the structural example of the photon detection element used for the same as the above. 図14に示した光検出素子の要部分解斜視図である。It is a principal part disassembled perspective view of the photon detection element shown in FIG. 図15のA−A線断面図である。It is the sectional view on the AA line of FIG.

符号の説明Explanation of symbols

1 光検出素子
2 発光源
3 制御回路部
4 画像生成部
5 特定部位抽出部
6 ジェスチャー認識部
7 制御部
11 感光部
Ob 物体
DS 距離画像センサ
DESCRIPTION OF SYMBOLS 1 Light detection element 2 Light emission source 3 Control circuit part 4 Image generation part 5 Specific site | part extraction part 6 Gesture recognition part 7 Control part 11 Photosensitive part Ob Object DS Distance image sensor

Claims (7)

検知対象エリアに存在する物体までの距離値を画素値とする距離画像を連続的に生成する距離画像センサと、距離画像センサで生成された距離画像に基づいて検知対象エリアに存在する人の特定部位を抽出する特定部位抽出部と、特定部位抽出部により抽出された特定部位の形状の時系列的なデータに基づいて特定空間内での所定のジェスチャーを認識するジェスチャー認識部と、ジェスチャー認識部により認識されたジェスチャーに予め対応付けられた制御出力を制御対象機器へ与える制御部とを備えることを特徴とするジェスチャースイッチ。   A distance image sensor that continuously generates a distance image having a pixel value as a distance value to an object existing in the detection target area, and identification of a person existing in the detection target area based on the distance image generated by the distance image sensor A specific part extraction unit for extracting a part, a gesture recognition unit for recognizing a predetermined gesture in a specific space based on time-series data of the shape of the specific part extracted by the specific part extraction unit, and a gesture recognition unit A gesture switch comprising: a control unit that gives a control output associated with the gesture recognized in advance to the device to be controlled. 前記制御部は、前記距離画像における前記特定空間の画素数に対する前記特定部位の画素数の割合が規定値を超えているときに前記制御出力を前記制御対象機器へ与えることを特徴とする請求項1記載のジェスチャースイッチ。   The control unit provides the control output to the control target device when a ratio of the number of pixels of the specific part to the number of pixels of the specific space in the distance image exceeds a specified value. The gesture switch according to 1. 前記特定部位抽出部は、前記距離画像を所定の閾値で2値化し、閾値以下となる領域を前記特定部位として抽出することを特徴とする請求項1または請求項2記載のジェスチャースイッチ。   The gesture switch according to claim 1, wherein the specific part extraction unit binarizes the distance image with a predetermined threshold and extracts a region that is equal to or less than the threshold as the specific part. 前記特定部位抽出部は、前記距離画像毎に最小の距離値に所定値を加算した値を閾値として前記距離画像を2値化し、閾値以下となる領域を前記特定部位として抽出することを特徴とする請求項1または請求項2記載のジェスチャースイッチ。   The specific part extraction unit binarizes the distance image using a value obtained by adding a predetermined value to a minimum distance value for each distance image as a threshold, and extracts a region that is equal to or less than the threshold as the specific part. The gesture switch according to claim 1 or 2. 前記特定部位抽出部は、前記距離画像センサへ向けられる手の手首よりも先の部分を前記特定部位として想定して前記所定値が設定されており、前記ジェスチャー認識部は、前記特定部位抽出部により抽出された前記特定部位である手の指および手のひらそれぞれの3D重心を特徴量として特徴量の時系列データに基づいてジェスチャーを認識することを特徴とする請求項4記載のジェスチャースイッチ。   The specific part extraction unit is set with the predetermined value on the assumption that a part ahead of a wrist of a hand directed to the distance image sensor is the specific part, and the gesture recognition unit includes the specific part extraction unit. The gesture switch according to claim 4, wherein the gesture is recognized based on time-series data of the feature amount using the 3D centroid of each of the finger and the palm as the specific portion extracted by the feature. 前記特定部位抽出部は、前記距離画像において最小の距離値となる画素の周囲領域に関して閾値以下となる画素の数が一定値となるように前記閾値を調整して前記距離画像を前記閾値で2値化し、前記閾値以下となる領域を前記特定部位として抽出することを特徴とする請求項1または請求項2記載のジェスチャースイッチ。   The specific part extraction unit adjusts the threshold value so that the number of pixels that are equal to or less than the threshold value with respect to the surrounding area of the pixel that has the minimum distance value in the distance image is a constant value, and sets the distance image to the threshold value of 2 The gesture switch according to claim 1, wherein the gesture switch is extracted and an area that is equal to or less than the threshold is extracted as the specific part. 前記特定部位抽出部は、前記距離画像における入力判定領域についてのみ2値化を行うことを特徴とする請求項3ないし請求項6のいずれかに記載のジェスチャースイッチ。   The gesture switch according to any one of claims 3 to 6, wherein the specific part extraction unit binarizes only the input determination region in the distance image.
JP2005246812A 2004-08-31 2005-08-26 Gesture switch Expired - Fee Related JP4692159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246812A JP4692159B2 (en) 2004-08-31 2005-08-26 Gesture switch

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004252966 2004-08-31
JP2004252966 2004-08-31
JP2005246812A JP4692159B2 (en) 2004-08-31 2005-08-26 Gesture switch

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010289528A Division JP4961035B2 (en) 2004-08-31 2010-12-27 Gesture switch

Publications (2)

Publication Number Publication Date
JP2006099749A true JP2006099749A (en) 2006-04-13
JP4692159B2 JP4692159B2 (en) 2011-06-01

Family

ID=36239430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246812A Expired - Fee Related JP4692159B2 (en) 2004-08-31 2005-08-26 Gesture switch

Country Status (1)

Country Link
JP (1) JP4692159B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
JP2010525432A (en) * 2007-04-20 2010-07-22 ソフトキネティック エス.エイ. Volume recognition method and system
JP2010181981A (en) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd Operation display device
JP2012008998A (en) * 2010-06-23 2012-01-12 Ind Technol Res Inst Method for recognizing three-dimensional control point and computer-readable recording medium using the same
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP2012173098A (en) * 2011-02-21 2012-09-10 Stanley Electric Co Ltd Indicated position detector
JP2012220366A (en) * 2011-04-11 2012-11-12 Optex Co Ltd Distance image camera and object surface shape recognition method using the same
US8384011B2 (en) 2009-12-10 2013-02-26 Sharp Kabushiki Kaisha Optical detection device and electronic equipment for detecting at least one of an X-coordinate and a Y-coordinate of an object
WO2013035554A1 (en) * 2011-09-07 2013-03-14 日東電工株式会社 Method for detecting motion of input body and input device using same
WO2013035553A1 (en) * 2011-09-07 2013-03-14 日東電工株式会社 User interface display device
JP2013242850A (en) * 2012-04-27 2013-12-05 Nitto Denko Corp Display input device
WO2014002803A1 (en) * 2012-06-25 2014-01-03 オムロン株式会社 Motion sensor, method for detecting object action, and game device
JP2014006727A (en) * 2012-06-25 2014-01-16 Omron Corp Motion sensor and object motion detection method
JP2014004154A (en) * 2012-06-25 2014-01-16 Omron Corp Game machine
CN103562821A (en) * 2011-04-28 2014-02-05 Nec软件系统科技有限公司 Information processing device, information processing method, and recording medium
US8726196B2 (en) 2010-03-25 2014-05-13 Sony Corporation Gesture input device, gesture input method, and program
JP2014099184A (en) * 2008-03-04 2014-05-29 Qualcomm Inc Enhanced gesture-based image manipulation
CN104025154A (en) * 2012-02-07 2014-09-03 日本系统工具株式会社 Gesture recognition device using vehicle steering wheel, hand recognition method and program therefor
JP5709228B2 (en) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 Information processing apparatus, information processing method, and program
KR101517932B1 (en) * 2013-06-27 2015-05-06 에이오스 주식회사 The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition
CN104908048A (en) * 2014-03-14 2015-09-16 本田技研工业株式会社 Motion estimation device, robot, and motion estimation method
WO2016208215A1 (en) * 2015-06-24 2016-12-29 株式会社村田製作所 Distance sensor and user interface device
CN107444998A (en) * 2016-05-31 2017-12-08 株式会社日立制作所 Conveying equipment control system and conveying equipment control method
US9990540B2 (en) 2015-05-18 2018-06-05 Honda Motor Co., Ltd. Operation estimation apparatus, robot, and operation estimation method
WO2019142787A1 (en) * 2018-01-16 2019-07-25 Necソリューションイノベータ株式会社 Human body part estimation device, human body part estimation method, and computer-readable storage medium
JP2020143941A (en) * 2019-03-04 2020-09-10 ファナック株式会社 Object monitoring system having distance-measuring device
CN113494802A (en) * 2020-05-28 2021-10-12 海信集团有限公司 Intelligent refrigerator control method and intelligent refrigerator
WO2023238846A1 (en) * 2022-06-08 2023-12-14 川崎重工業株式会社 Image generating device, object recognition device, and image generating method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809738B (en) * 2012-11-13 2017-03-29 联想(北京)有限公司 A kind of information collecting method and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991079A (en) * 1995-09-28 1997-04-04 Toshiba Corp Information input device and image processing method
JPH1165744A (en) * 1997-08-21 1999-03-09 Sharp Corp Input device
JP2002150440A (en) * 2000-11-13 2002-05-24 Fujitsu General Ltd Monitoring object detection device
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991079A (en) * 1995-09-28 1997-04-04 Toshiba Corp Information input device and image processing method
JPH1165744A (en) * 1997-08-21 1999-03-09 Sharp Corp Input device
JP2002150440A (en) * 2000-11-13 2002-05-24 Fujitsu General Ltd Monitoring object detection device
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525432A (en) * 2007-04-20 2010-07-22 ソフトキネティック エス.エイ. Volume recognition method and system
JP2014099184A (en) * 2008-03-04 2014-05-29 Qualcomm Inc Enhanced gesture-based image manipulation
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
JP2010181981A (en) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd Operation display device
US8384011B2 (en) 2009-12-10 2013-02-26 Sharp Kabushiki Kaisha Optical detection device and electronic equipment for detecting at least one of an X-coordinate and a Y-coordinate of an object
US8726196B2 (en) 2010-03-25 2014-05-13 Sony Corporation Gesture input device, gesture input method, and program
US8433131B2 (en) 2010-06-23 2013-04-30 Industrial Technology Research Institute Method for recognizing three-dimensional control point and computer readable medium using the same thereof
JP2012008998A (en) * 2010-06-23 2012-01-12 Ind Technol Res Inst Method for recognizing three-dimensional control point and computer-readable recording medium using the same
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP2012173098A (en) * 2011-02-21 2012-09-10 Stanley Electric Co Ltd Indicated position detector
JP2012220366A (en) * 2011-04-11 2012-11-12 Optex Co Ltd Distance image camera and object surface shape recognition method using the same
CN103562821B (en) * 2011-04-28 2016-11-09 日本电气方案创新株式会社 Information processing device, information processing method, and recording medium
US9367732B2 (en) 2011-04-28 2016-06-14 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
CN103562821A (en) * 2011-04-28 2014-02-05 Nec软件系统科技有限公司 Information processing device, information processing method, and recording medium
US9329673B2 (en) 2011-04-28 2016-05-03 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
JP5709228B2 (en) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 Information processing apparatus, information processing method, and program
JP2013069272A (en) * 2011-09-07 2013-04-18 Nitto Denko Corp User interface display device
JP2013069273A (en) * 2011-09-07 2013-04-18 Nitto Denko Corp Motion detection method of input body and input device using the same
WO2013035554A1 (en) * 2011-09-07 2013-03-14 日東電工株式会社 Method for detecting motion of input body and input device using same
WO2013035553A1 (en) * 2011-09-07 2013-03-14 日東電工株式会社 User interface display device
CN104025154A (en) * 2012-02-07 2014-09-03 日本系统工具株式会社 Gesture recognition device using vehicle steering wheel, hand recognition method and program therefor
CN104025154B (en) * 2012-02-07 2016-06-22 日本系统工具株式会社 Use gesture identifying device and the hands recognition methods of vehicle steering
JP2013242850A (en) * 2012-04-27 2013-12-05 Nitto Denko Corp Display input device
US9789393B2 (en) 2012-06-25 2017-10-17 Omron Corporation Motion sensor, object-motion detection method, and game machine
WO2014002803A1 (en) * 2012-06-25 2014-01-03 オムロン株式会社 Motion sensor, method for detecting object action, and game device
JP2014004154A (en) * 2012-06-25 2014-01-16 Omron Corp Game machine
JP2014006727A (en) * 2012-06-25 2014-01-16 Omron Corp Motion sensor and object motion detection method
KR101517932B1 (en) * 2013-06-27 2015-05-06 에이오스 주식회사 The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition
CN104908048A (en) * 2014-03-14 2015-09-16 本田技研工业株式会社 Motion estimation device, robot, and motion estimation method
US9684824B2 (en) 2014-03-14 2017-06-20 Honda Motor Co., Ltd Motion estimation device, robot, and method to estimate reaction of a person
US9990540B2 (en) 2015-05-18 2018-06-05 Honda Motor Co., Ltd. Operation estimation apparatus, robot, and operation estimation method
WO2016208215A1 (en) * 2015-06-24 2016-12-29 株式会社村田製作所 Distance sensor and user interface device
CN107444998A (en) * 2016-05-31 2017-12-08 株式会社日立制作所 Conveying equipment control system and conveying equipment control method
WO2019142787A1 (en) * 2018-01-16 2019-07-25 Necソリューションイノベータ株式会社 Human body part estimation device, human body part estimation method, and computer-readable storage medium
JPWO2019142787A1 (en) * 2018-01-16 2021-01-07 Necソリューションイノベータ株式会社 Human body part estimation device, human body part estimation method, and program
JP2020143941A (en) * 2019-03-04 2020-09-10 ファナック株式会社 Object monitoring system having distance-measuring device
JP7306840B2 (en) 2019-03-04 2023-07-11 ファナック株式会社 Object monitoring system with rangefinder
CN113494802A (en) * 2020-05-28 2021-10-12 海信集团有限公司 Intelligent refrigerator control method and intelligent refrigerator
WO2023238846A1 (en) * 2022-06-08 2023-12-14 川崎重工業株式会社 Image generating device, object recognition device, and image generating method
JP2023179840A (en) * 2022-06-08 2023-12-20 川崎重工業株式会社 Image generation device, object identification device, and image generation method

Also Published As

Publication number Publication date
JP4692159B2 (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP4692159B2 (en) Gesture switch
JP7592702B2 (en) Light receiving element, distance measuring module, and electronic device
JP4466260B2 (en) Image processing device
US11233085B2 (en) Multi-photo pixel cell having vertical gate structure
KR100820261B1 (en) Image processing unit
US20120154535A1 (en) Capturing gated and ungated light in the same frame on the same photosurface
JP4466366B2 (en) Human body detection method and human body detection apparatus using range image
JP4259419B2 (en) Human body detection sensor
KR20210150765A (en) Image Sensing Device and Image photographing apparatus including the same
JP2006105694A (en) Distance image sensor
JP4650565B2 (en) Human body detection sensor
US9431440B2 (en) Optical sensor
JP4961035B2 (en) Gesture switch
JP4543904B2 (en) Distance image sensor
JP4543903B2 (en) Image processing device
JP4259418B2 (en) Image processing device
US11435452B2 (en) Pixel for time-of-flight applications
JP4432744B2 (en) Image processing device
JP4534670B2 (en) Camera device and television intercom slave using the same
JP2006048156A (en) Image processor
JP4645177B2 (en) Measuring device
JP4353086B2 (en) Safety confirmation device
JP2006048157A (en) Intrusion warning sensor
JP2006053791A (en) Image processor
JP4270067B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees