[go: up one dir, main page]

JP2015148565A - Information acquisition device and object detection device - Google Patents

Information acquisition device and object detection device Download PDF

Info

Publication number
JP2015148565A
JP2015148565A JP2014022720A JP2014022720A JP2015148565A JP 2015148565 A JP2015148565 A JP 2015148565A JP 2014022720 A JP2014022720 A JP 2014022720A JP 2014022720 A JP2014022720 A JP 2014022720A JP 2015148565 A JP2015148565 A JP 2015148565A
Authority
JP
Japan
Prior art keywords
light
imaging
information acquisition
light source
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014022720A
Other languages
Japanese (ja)
Inventor
直史 生田
Tadashi Ikuta
直史 生田
岸田 孝範
Takanori Kishida
孝範 岸田
浩司 細川
Koji Hosokawa
浩司 細川
良二 浜辺
Ryoji Hamabe
良二 浜辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014022720A priority Critical patent/JP2015148565A/en
Publication of JP2015148565A publication Critical patent/JP2015148565A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information acquisition device and an object detection device, capable of properly detecting an object, while removing background light.SOLUTION: An information acquisition unit 2 includes a projection part 100 projecting light to a target area, an imaging part 200 receiving reflected light, to image the target area, a light source control part 21a controlling the light source 110 of the projection part 100, and imaging information acquisition part 21b controlling the CMOS image sensor 240 of the imaging part 200, to acquire a background light removal image referred to for object detection on the basis of a light emission image and a light-off image. The imaging information acquisition part 21b sequentially performs exposure control for each line of the CMOS image sensor 240. The light source control part 21a controls the light source 110, so that a period in which the light is emitted in the exposure period of a line group used for the object detection of the CMOS image sensor 240 is longer than that in the exposure period of the line group not used for the object detection.

Description

本発明は、目標領域内の情報を取得する情報取得装置および当該情報取得装置を備えた物体検出装置に関する。   The present invention relates to an information acquisition device that acquires information in a target area and an object detection device that includes the information acquisition device.

従来、光を用いた物体検出装置が種々の分野で開発されている。この種の物体検出装置では、投射部により光が目標領域に投射され、イメージセンサを備える撮像部により目標領域が撮像される(たとえば、特許文献1)。   Conventionally, object detection devices using light have been developed in various fields. In this type of object detection apparatus, light is projected onto a target area by a projection unit, and the target area is imaged by an imaging unit including an image sensor (for example, Patent Document 1).

また、この種の物体検出において、目標領域にある蛍光灯等の背景光が写り込んだ撮像画像から背景光を除去させる物体検出装置が知られている(たとえば、特許文献2)。この物体検出装置では、2次元平面上に並ぶ受光素子を1ラインごとに露光制御するローリングシャッター方式のCMOSイメージセンサが用いられる。   In addition, in this type of object detection, an object detection device is known that removes background light from a captured image in which background light such as a fluorescent lamp in a target area is reflected (for example, Patent Document 2). This object detection apparatus uses a rolling shutter type CMOS image sensor that controls exposure of light receiving elements arranged on a two-dimensional plane for each line.

特開2008−225985号公報JP 2008-225985 A 特開2011−169701号公報JP 2011-169701 A

しかしながら、上記のようなCMOSイメージセンサが用いられると、露光開始タイミングがラインごとに遅延していくとの問題が生じる。露光開始タイミングがラインごとに遅延すると、撮像画像中に、光源の発光時に取得された画素と、消灯時に取得された画素が混在することとなる。この場合、適正に背景光を除去できず、物体検出に悪影響を与える惧れがある。   However, when the above CMOS image sensor is used, there arises a problem that the exposure start timing is delayed for each line. If the exposure start timing is delayed for each line, the pixel acquired when the light source emits light and the pixel acquired when the light source is turned off are mixed in the captured image. In this case, the background light cannot be properly removed, and there is a possibility of adversely affecting the object detection.

上記課題に鑑み、本発明は、背景光を除去しつつ、適正に物体検出することが可能な情報取得装置、および物体検出装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an information acquisition apparatus and an object detection apparatus that can appropriately detect an object while removing background light.

本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域に所定の波長の光を投射する投射部と、前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、前記投射部の光源を制御する光源制御部と、前記撮像部のイメージセンサを制御する撮像制御部と、前記撮像部により取得された撮像信号に基づいて前記目標領域内の物体検出に参照される情報を取得する情報取得部と、を備える。前記撮像制御部は、前記イメージセンサのライン毎に順番に露光制御を行い、前記光源制御部は、前記イメージセンサ上の物体検出に用いるライン群の露光期間の方が、物体検出に用いないライン群の露光期間よりも、前記光が出射される期間がより多く掛かるように、前記光源を制御する。   A first aspect of the present invention relates to an information acquisition device. The information acquisition apparatus according to this aspect includes a projection unit that projects light of a predetermined wavelength onto a target region, an imaging unit that receives reflected light from the target region and images the target region, and a light source of the projection unit A light source control unit for controlling the image sensor, an imaging control unit for controlling an image sensor of the imaging unit, and information for acquiring information referred to for object detection in the target area based on an imaging signal acquired by the imaging unit An acquisition unit. The imaging control unit sequentially performs exposure control for each line of the image sensor, and the light source control unit uses a line group that is used for object detection on the image sensor for an exposure period that is not used for object detection. The light source is controlled so that the light emission period is longer than the group exposure period.

本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置と、前記情報取得装置の情報取得部によって取得された情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。   A 2nd aspect of this invention is related with an object detection apparatus. An object detection device according to this aspect detects an object present in the target area based on the information acquisition device according to the first aspect and information acquired by an information acquisition unit of the information acquisition device. A section.

本発明によれば、背景光を除去しつつ、適正に物体検出することが可能な情報取得装置、および物体検出装置を提供することができる。   According to the present invention, it is possible to provide an information acquisition apparatus and an object detection apparatus that can appropriately detect an object while removing background light.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.

実施の形態に係る物体検出装置を内蔵したパーソナルコンピュータの外観構成を示す図である。It is a figure which shows the external appearance structure of the personal computer which incorporated the object detection apparatus which concerns on embodiment. 実施の形態に係る情報取得装置および物体検出装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus and object detection apparatus which concern on embodiment. 実施の形態に係る情報取得装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus which concerns on embodiment. 実施の形態に係る情報取得装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus which concerns on embodiment. 実施の形態に係る背景光を除去する方法を説明する図である。It is a figure explaining the method to remove the background light which concerns on embodiment. 実施の形態に係るCMOSイメージセンサの信号値の読み出し方法を説明する図である。It is a figure explaining the reading method of the signal value of the CMOS image sensor concerning an embodiment. 実施の形態に係る撮像タイミングと光源の発光タイミング、およびCMOSイメージセンサの露光タイミングを示す図である。It is a figure which shows the imaging timing which concerns on embodiment, the light emission timing of a light source, and the exposure timing of a CMOS image sensor. 実施の形態に係る背景光除去の例を示す図である。It is a figure which shows the example of the background light removal which concerns on embodiment. 比較例に係る撮像タイミングと光源の発光タイミング、およびCMOSイメージセンサの露光タイミングを示す図である。It is a figure which shows the imaging timing which concerns on a comparative example, the light emission timing of a light source, and the exposure timing of a CMOS image sensor. 変更例に係る背景光除去の例を示す図である。It is a figure which shows the example of the background light removal which concerns on the example of a change. 変更例に係る撮像タイミングと光源の発光タイミング、およびCMOSイメージセンサの露光タイミングを示す図である。It is a figure which shows the imaging timing which concerns on the example of a change, the light emission timing of a light source, and the exposure timing of a CMOS image sensor. 本実施の形態に係る露光制御、発光制御、および撮像制御の処理を示すフローチャートである。It is a flowchart which shows the process of exposure control which concerns on this Embodiment, light emission control, and imaging control. 変更例に係る撮像タイミングと光源の発光タイミング、およびCMOSイメージセンサの露光タイミングを示す図である。It is a figure which shows the imaging timing which concerns on the example of a change, the light emission timing of a light source, and the exposure timing of a CMOS image sensor. 変更例に係る背景光除去の例を示す図である。It is a figure which shows the example of the background light removal which concerns on the example of a change. 変更例に係る情報取得装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus which concerns on the example of a change. 変更例に係るイメージセンサの感度、および、輝度値と距離の関係を規定する距離変換関数の波形を示す図である。It is a figure which shows the sensitivity of the image sensor which concerns on the example of a change, and the waveform of the distance conversion function which prescribes | regulates the relationship between a luminance value and distance.

以下、本発明の実施の形態につき図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施の形態は、ノート型のパーソナルコンピュータに本発明に係る物体検出装置を適用したものである。この他、本発明に係る物体検出装置は、デスクトップ型のパーソナルコンピュータやテレビ等の他の機器にも適宜適用可能なものである。なお、本発明に係る情報取得装置および物体検出装置は、必ずしも、他の機器に一体的に搭載されなくとも良く、単独で一つの装置を構成するものであっても良い。   In this embodiment, the object detection apparatus according to the present invention is applied to a notebook personal computer. In addition, the object detection apparatus according to the present invention can be appropriately applied to other devices such as a desktop personal computer and a television. It should be noted that the information acquisition device and the object detection device according to the present invention do not necessarily have to be mounted integrally with other devices, and may constitute a single device alone.

以下に示す実施の形態において、パーソナルコンピュータ1の本体部11に備えられた開口11a、窓部11bと情報取得ユニット2からなる構成が、特許請求の範囲に記載の「情報取得装置」に相当する。   In the embodiment described below, the configuration including the opening 11a, the window 11b, and the information acquisition unit 2 provided in the main body 11 of the personal computer 1 corresponds to the “information acquisition device” described in the claims. .

図1(a)は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1(b)は、情報取得ユニット2周辺の一部拡大図である。なお、図1(b)では、本体部11の内部が透視されるように示されている。   FIG. 1A is a diagram showing a schematic configuration of a personal computer 1 according to the present embodiment. FIG. 1B is a partially enlarged view around the information acquisition unit 2. In FIG. 1B, the inside of the main body portion 11 is shown to be seen through.

図1(a)に示すように、パーソナルコンピュータ1は、本体部11と、モニタ部12を備えている。本体部11は、情報取得ユニット2と、情報処理部3を備えている。この他、本体部11は、キーボード4と、操作パッド5を備えている。モニタ部12は、モニタ6を備えている。   As shown in FIG. 1A, the personal computer 1 includes a main body unit 11 and a monitor unit 12. The main body 11 includes an information acquisition unit 2 and an information processing unit 3. In addition, the main body 11 includes a keyboard 4 and an operation pad 5. The monitor unit 12 includes a monitor 6.

情報取得ユニット2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体の撮像情報を取得する。情報取得ユニット2は、図1(b)に示すように、前後方向がZ軸方向からYZ平面の面内方向に傾いた状態で本体部11の内部に取り付けられている。情報処理部3は、情報取得ユニット2により取得された撮像情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。   The information acquisition unit 2 projects light (infrared light) in an infrared wavelength band longer than the visible light wavelength band over the entire target region, and receives the reflected light with a CMOS image sensor, thereby achieving the target. Imaging information of an object existing in the region is acquired. As shown in FIG. 1B, the information acquisition unit 2 is attached to the inside of the main body 11 with the front-rear direction tilted from the Z-axis direction to the in-plane direction of the YZ plane. The information processing unit 3 detects a predetermined object existing in the target area based on the imaging information acquired by the information acquisition unit 2, and further detects the movement of the object. Then, the information processing unit 3 controls the function of the personal computer 1 according to the movement of the object.

たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得ユニット2からジェスチャに応じた撮像情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。   For example, when the user performs a predetermined gesture using his / her hand, imaging information corresponding to the gesture is transmitted from the information acquisition unit 2 to the information processing unit 3. Based on this information, the information processing unit 3 detects the user's hand as a detection target object, and functions associated with the movement of the hand (screen enlargement / reduction, screen brightness adjustment, page turning, etc.) Execute.

図2は、情報取得ユニット2と情報処理部3の構成を示す図である。   FIG. 2 is a diagram showing the configuration of the information acquisition unit 2 and the information processing unit 3.

情報取得ユニット2は、光学部の構成として、投射部100と撮像部200とを備えている。投射部100と撮像部200は、X軸方向に並ぶように、配置されている。   The information acquisition unit 2 includes a projection unit 100 and an imaging unit 200 as the configuration of the optical unit. The projection unit 100 and the imaging unit 200 are arranged so as to be aligned in the X-axis direction.

投射部100は、赤外の波長帯域の光を出射する4つの光源110を備えている。   The projection unit 100 includes four light sources 110 that emit light in the infrared wavelength band.

撮像部200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得ユニット2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。   The imaging unit 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240. In addition, the information acquisition unit 2 includes a CPU (Central Processing Unit) 21, an infrared light source driving circuit 22, an imaging signal processing circuit 23, an input / output circuit 24, and a memory 25 as a circuit unit. Yes.

4つの光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。   Light projected from the four light sources 110 onto the target area is reflected by an object existing in the target area, and enters the imaging lens 220 via the aperture 210.

アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタである。   The aperture 210 limits light from the outside so as to match the F number of the imaging lens 220. The imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240. The filter 230 is a bandpass filter that transmits light in the wavelength band including the emission wavelength of the light source 110 and cuts light in the visible wavelength band.

CMOSイメージセンサ240は、可視光の波長帯域と、光源110から出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。CMOSイメージセンサ240は、2次元平面上に並ぶ受光素子を有する。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。CMOSイメージセンサ240では、2次元平面上に並ぶ受光素子のうち、1ライン上に並ぶ受光素子毎に露光制御される、いわゆるローリングシャッター方式により受光素子が露光制御される。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。撮像部200のイメージセンサとして、ローリングシャッター方式のCMOSイメージセンサ240が用いられることにより、消費電力を抑えつつ、高速に目標領域を撮像することができる。   The CMOS image sensor 240 is a color image sensor having sensitivity to the wavelength band of visible light and the wavelength band of infrared light emitted from the light source 110. The CMOS image sensor 240 has light receiving elements arranged on a two-dimensional plane. The CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal corresponding to the amount of received light to the imaging signal processing circuit 23 for each pixel. In the CMOS image sensor 240, exposure control is performed by a so-called rolling shutter system in which exposure control is performed for each light receiving element arranged on one line among light receiving elements arranged on a two-dimensional plane. Here, in the CMOS image sensor 240, the output speed of the signal is increased so that the signal of the pixel can be output to the imaging signal processing circuit 23 with high response from the light reception in each pixel. By using a rolling shutter type CMOS image sensor 240 as the image sensor of the imaging unit 200, the target area can be imaged at high speed while suppressing power consumption.

CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、撮像情報取得部21bの機能が付与される。   The CPU 21 controls each unit according to a control program stored in the memory 25. With this control program, the functions of the light source control unit 21a and the imaging information acquisition unit 21b are given to the CPU 21.

光源制御部21aは、所定の時間間隔で発光期間と消灯期間が繰り返されるよう赤外光源駆動回路22を制御する。   The light source control unit 21a controls the infrared light source driving circuit 22 so that the light emission period and the light extinction period are repeated at predetermined time intervals.

撮像情報取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、輝度情報等の検出対象物体に関する撮像情報を取得する。撮像情報取得部21bは、CMOSイメージセンサ240の露光時間とゲインを撮像信号処理回路23に設定する。   The imaging information acquisition unit 21b acquires imaging information related to a detection target object such as luminance information based on a signal output from the CMOS image sensor 240. The imaging information acquisition unit 21 b sets the exposure time and gain of the CMOS image sensor 240 in the imaging signal processing circuit 23.

赤外光源駆動回路22は、CPU21からの制御信号に応じて4つの光源110を駆動する。   The infrared light source driving circuit 22 drives the four light sources 110 according to control signals from the CPU 21.

撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号をライン毎に順次取得する。撮像信号処理回路23は、各画素の輝度信号を取得し、取得した信号をCPU21に出力する。撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。   The imaging signal processing circuit 23 drives the CMOS image sensor 240 under the control of the CPU 21 and sequentially acquires signals output from the CMOS image sensor 240 for each line. The imaging signal processing circuit 23 acquires the luminance signal of each pixel and outputs the acquired signal to the CPU 21. The imaging signal processing circuit 23 applies the exposure time set by the CPU 21 to each pixel of the CMOS image sensor 240, and further applies the gain set by the CPU 21 to the signal output from the CMOS image sensor 240. A luminance signal is acquired for each pixel.

入出力回路24は、情報処理部3とのデータ通信を制御する。   The input / output circuit 24 controls data communication with the information processing unit 3.

メモリ25は、CPU21により実行される制御プログラムの他、CPU21における処理の際のワーク領域としても用いられる。   The memory 25 is used not only as a control program executed by the CPU 21 but also as a work area during processing in the CPU 21.

情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。   The information processing unit 3 includes a CPU 31, an input / output circuit 32, and a memory 33. In addition to the configuration shown in FIG. 2, the information processing unit 3 is provided with a configuration for driving and controlling each unit of the personal computer 1. For convenience, the configuration of these peripheral circuits is not shown.

CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。   The CPU 31 controls each unit according to a control program stored in the memory 33. With this control program, the function of the function detection unit 31b for controlling the function of the personal computer 1 is given to the CPU 31 in accordance with the function of the object detection unit 31a and the signal from the object detection unit 31a.

物体検出部31aは、光源110の発光時に撮像情報取得部21bによって取得される撮像情報の輝度信号と、光源110の消灯時に撮像情報取得部21bによって取得される撮像情報の輝度信号の差分を取得し、光源110の発光の有無に影響しない背景光を除去する。物体検出部31aは、背景光を除去した撮像情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。   The object detection unit 31a acquires a difference between the luminance signal of the imaging information acquired by the imaging information acquisition unit 21b when the light source 110 emits light and the luminance signal of the imaging information acquired by the imaging information acquisition unit 21b when the light source 110 is turned off. Then, background light that does not affect the light emission of the light source 110 is removed. The object detection unit 31a extracts the shape of the object from the imaging information from which the background light is removed, and further detects the movement of the extracted object shape. The function control unit 31b determines whether the movement of the object detected by the object detection unit 31a matches a predetermined movement pattern. If the movement of the object matches the predetermined movement pattern, the movement pattern The control corresponding to is executed.

図3は、情報取得ユニット2の構成を示す模式図である。   FIG. 3 is a schematic diagram showing the configuration of the information acquisition unit 2.

図3を参照して、情報取得ユニット2は、投射部100と、撮像部200と、回路基板300と、回路部400とを備える。   With reference to FIG. 3, the information acquisition unit 2 includes a projection unit 100, an imaging unit 200, a circuit board 300, and a circuit unit 400.

投射部100は、上述のように、4つの光源110を備える。4つの光源110は、発光ダイオード(LED:Light Emitting Diode)からなっている。赤外光を発する発光素子(図示せず)は、ハウジング内に収容される。発光素子から発せられた赤外光は、上面の出射部から所定の放射角にて外部に出射される。図3に示すように、4つの光源110は、回路基板300上に実装されている。   The projection unit 100 includes the four light sources 110 as described above. The four light sources 110 are made up of light emitting diodes (LEDs). A light emitting element (not shown) that emits infrared light is accommodated in a housing. Infrared light emitted from the light emitting element is emitted to the outside at a predetermined radiation angle from the emission portion on the upper surface. As shown in FIG. 3, the four light sources 110 are mounted on the circuit board 300.

撮像部200は、アパーチャ210と、撮像レンズ220を収容するレンズバレル250と、フィルタ230と、CMOSイメージセンサ240を収容する撮像レンズホルダ260を備える。CMOSイメージセンサ240は、回路基板300上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、フィルタ230が装着される。こうして、撮像レンズ220とフィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板300上に設置される。   The imaging unit 200 includes an aperture 210, a lens barrel 250 that houses the imaging lens 220, a filter 230, and an imaging lens holder 260 that houses the CMOS image sensor 240. The CMOS image sensor 240 is mounted on the circuit board 300. The imaging lens 220 is attached to the lens barrel 250, and the lens barrel 250 is attached to the imaging lens holder 260 while holding the imaging lens 220. The imaging lens holder 260 has a recess on the lower surface, and the filter 230 is attached to the recess. In this way, the imaging lens holder 260 is installed on the circuit board 300 so as to cover the CMOS image sensor 240 while holding the imaging lens 220 and the filter 230.

回路基板300には、投射部100と撮像部200の他、情報取得ユニット2を構成する回路部400が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、入出力回路24およびメモリ25は、かかる回路部400に含まれる。   In addition to the projection unit 100 and the imaging unit 200, the circuit unit 400 constituting the information acquisition unit 2 is mounted on the circuit board 300. The CPU 21, the infrared light source driving circuit 22, the imaging signal processing circuit 23, the input / output circuit 24 and the memory 25 shown in FIG. 2 are included in the circuit unit 400.

図4は、情報取得ユニット2が本体部11に組付けられた状態を示す斜視図である。 図4に示すように、情報取得ユニット2は、前後方向がZ軸方向からYZ平面の面内方向にやや傾くように本体部11に取り付けられる。4つの光源110により情報取得ユニット2の上部に光が投射されると、光は、窓部11bを透過し、キーボード4(図1(a)参照)の上部周辺に向けて投射される。   FIG. 4 is a perspective view showing a state in which the information acquisition unit 2 is assembled to the main body 11. As shown in FIG. 4, the information acquisition unit 2 is attached to the main body 11 so that the front-rear direction is slightly inclined from the Z-axis direction to the in-plane direction of the YZ plane. When light is projected onto the upper portion of the information acquisition unit 2 by the four light sources 110, the light is transmitted through the window portion 11b and projected toward the upper periphery of the keyboard 4 (see FIG. 1A).

図5(a)〜(c)は、背景光を除去する方法を説明する図である。   5A to 5C are diagrams for explaining a method of removing background light.

図5(a)に示すように、撮像領域内に蛍光灯LDが含まれている場合、光源110から赤外光を照射しつつ、撮像部200により撮像領域を撮像すると、図5(b)に示すような撮像画像が取得される。このように、光源110を発光させた状態で撮像した撮像画像を「発光画像」と称する。   As shown in FIG. 5A, when a fluorescent lamp LD is included in the imaging region, when the imaging unit 200 images the imaging region while irradiating infrared light from the light source 110, FIG. A captured image as shown in FIG. A captured image that is captured in a state where the light source 110 is caused to emit light is referred to as a “light-emitting image”.

また、光源110から赤外光を照射させずに、撮像部200により撮像領域を撮像すると、図5(c)に示すような撮像画像が取得される。このように、光源110を消灯させた状態で撮像した撮像画像を「消灯画像」と称する。   Further, when an imaging region is imaged by the imaging unit 200 without irradiating infrared light from the light source 110, a captured image as illustrated in FIG. 5C is acquired. In this manner, a captured image captured with the light source 110 turned off is referred to as a “light-off image”.

図5(b)の発光画像の輝度値から図5(c)の消灯画像の輝度値を減算すると、図5(d)に示すような撮像画像が取得される。このように、光源110の発光時に取得された発光画像の輝度値から光源110の消灯時に取得された消灯画像の輝度値を減算することにより、光源110から照射された赤外光以外の光によるノイズ成分(たとえば、蛍光灯LD)を除去することができる。このような、赤外光の照射以外の光によるノイズ成分が除去された撮像画像を「背景光除去画像」と称する。   When the luminance value of the extinguished image of FIG. 5C is subtracted from the luminance value of the light emitting image of FIG. 5B, a captured image as shown in FIG. 5D is acquired. In this way, by subtracting the luminance value of the extinguished image acquired when the light source 110 is extinguished from the luminance value of the luminous image acquired when the light source 110 is emitting light, light other than infrared light emitted from the light source 110 is used. Noise components (for example, fluorescent lamp LD) can be removed. Such a captured image from which noise components due to light other than infrared light irradiation are removed is referred to as a “background light removed image”.

図6は、CMOSイメージセンサ240の信号値の読み出し方法を説明する図である。   FIG. 6 is a diagram for explaining a method of reading a signal value of the CMOS image sensor 240.

CMOSイメージセンサ240は、図6に示すように、画素に対応するフォトダイオード240aを有している。フォトダイオード240aは、光を受光すると、光量に応じた電荷を蓄積する。蓄積された電荷は、増幅器240bによって電圧に変換され、増幅される。増幅された電圧は、スイッチ240cがONにされると、ラインL毎に垂直信号線240dに伝送される。伝送された電圧は、垂直信号線240d毎に配置されている列回路240eにより一時的に保管される。保管された電圧は、列選択スイッチ240fがONにされると、水平信号線240gに送られる。そして、水平信号線240gに送られた電圧は、撮像信号処理回路23に送られる。   As shown in FIG. 6, the CMOS image sensor 240 includes a photodiode 240a corresponding to a pixel. When the photodiode 240a receives light, the photodiode 240a accumulates electric charge according to the amount of light. The accumulated electric charge is converted into a voltage by the amplifier 240b and amplified. The amplified voltage is transmitted to the vertical signal line 240d for each line L when the switch 240c is turned on. The transmitted voltage is temporarily stored by the column circuit 240e arranged for each vertical signal line 240d. The stored voltage is sent to the horizontal signal line 240g when the column selection switch 240f is turned on. Then, the voltage sent to the horizontal signal line 240g is sent to the imaging signal processing circuit 23.

このように、CMOSイメージセンサ240では、ラインL毎に電圧信号が送信される。   Thus, the CMOS image sensor 240 transmits a voltage signal for each line L.

図7は、光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。   FIG. 7 is a diagram illustrating the light emission timing of the light source 110 by the light source control unit 21a and the exposure timing for each of the lines L0 to Ln of the CMOS image sensor 240 by the imaging information acquisition unit 21b.

垂直同期信号は、所定の撮像間隔ΔF1でON/OFFを繰り返し、CMOSイメージセンサ240のラインL0の露光開始タイミングと同期している。発光タイミングは、光源110を発光させるタイミングと光源110を消灯させるタイミングを示している。発光期間ΔL1と消灯期間ΔL2は、撮像間隔ΔF1と同じ時間間隔に設定されている。露光タイミングは、所定の撮像タイミングに対応するCMOSイメージセンサ240のラインL0〜Lnのフォトダイオード240aを露光させるタイミングを示している。所定の撮像タイミングに対応するラインL0〜Lnの露光タイミングは、同じハッチングで示されており、その次の撮像タイミングに対応するラインL0〜Lnの露光タイミングは、異なるハッチングで示されている。   The vertical synchronization signal repeats ON / OFF at a predetermined imaging interval ΔF1 and is synchronized with the exposure start timing of the line L0 of the CMOS image sensor 240. The light emission timing indicates the timing at which the light source 110 emits light and the timing at which the light source 110 is turned off. The light emission period ΔL1 and the turn-off period ΔL2 are set to the same time interval as the imaging interval ΔF1. The exposure timing indicates the timing at which the photodiodes 240a of the lines L0 to Ln of the CMOS image sensor 240 corresponding to a predetermined imaging timing are exposed. The exposure timings of the lines L0 to Ln corresponding to the predetermined imaging timing are indicated by the same hatching, and the exposure timings of the lines L0 to Ln corresponding to the next imaging timing are indicated by different hatching.

CMOSイメージセンサ240は、垂直同期信号により、所定の撮像間隔ΔF1でラインL0の露光が開始される。これにより、CMOSイメージセンサ240は、ラインL0に配された各フォトダイオード240aに入射した光量に応じた電荷の蓄積を開始する。CMOSイメージセンサ240は、所定の露光期間ΔP1の間、電荷の蓄積を継続する。ラインL0では、発光期間ΔL1の間、露光が継続される。   The CMOS image sensor 240 starts exposure of the line L0 at a predetermined imaging interval ΔF1 by the vertical synchronization signal. As a result, the CMOS image sensor 240 starts accumulating charges according to the amount of light incident on each photodiode 240a arranged on the line L0. The CMOS image sensor 240 continues to accumulate charges for a predetermined exposure period ΔP1. In the line L0, the exposure is continued during the light emission period ΔL1.

CMOSイメージセンサ240では、ライン毎に露光制御が行われるため、ラインが進むごとに、露光開始タイミングが僅かに遅延する。たとえば、ラインL1は、ラインL0に比べて、1回目の露光開始タイミングが僅かに遅延している。これにより、ラインL1の1回目の露光終了タイミングは、発光終了タイミングよりも僅かに遅れている。すなわち、ラインL1の1回目の露光終了タイミング間際では、光源110の消灯期間ΔL2で露光されている。したがって、ラインL1の1回目の露光タイミングでは、ラインL0に比べて、フォトダイオード240aに蓄積される電荷量が僅かに小さいものとなる。なお、ラインL1では、消灯期間ΔL2に重なる露光期間は、ごく僅かであるため、フォトダイオード240aに受光される光量の減衰量もごく僅かである。   In the CMOS image sensor 240, since exposure control is performed for each line, the exposure start timing is slightly delayed each time the line advances. For example, in the line L1, the first exposure start timing is slightly delayed compared to the line L0. As a result, the first exposure end timing of the line L1 is slightly delayed from the light emission end timing. That is, the exposure is performed in the extinction period ΔL2 of the light source 110 just before the first exposure end timing of the line L1. Therefore, at the first exposure timing of the line L1, the amount of charge accumulated in the photodiode 240a is slightly smaller than that of the line L0. In the line L1, since the exposure period that overlaps the extinguishing period ΔL2 is very short, the amount of attenuation of the amount of light received by the photodiode 240a is also very small.

同様にして、ラインL2、L3とラインが進むごとに、露光終了タイミングが遅延していき、最後のラインLnでは、1回目の露光期間の大部分が消灯期間ΔL2に重なっている。したがって、最後のラインLnおよびラインLnに近いラインでは、略光源110の発光期間ΔL1中に露光することができず、適切に光源110の発光時の光量を得ることができない。   Similarly, as the lines L2 and L3 progress, the exposure end timing is delayed, and in the last line Ln, most of the first exposure period overlaps the extinguishing period ΔL2. Therefore, the last line Ln and the line close to the line Ln cannot be exposed substantially during the light emission period ΔL1 of the light source 110, and the amount of light when the light source 110 emits light cannot be obtained appropriately.

このように、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングまでの間隔ΔPe1は、撮像間隔ΔF1および発光期間ΔL1よりも大幅に長いものとなる。   Thus, the interval ΔPe1 from the exposure start timing of the line L0 to the exposure end timing of the last line Ln at the first imaging timing is significantly longer than the imaging interval ΔF1 and the light emission period ΔL1.

最後のラインLnの1回目の撮像タイミングにおける露光が開始された後、2回目の撮像タイミングが到来すると、最後のラインLnの露光が継続中であっても、最初のラインL0の露光が開始される。   After the exposure at the first imaging timing of the last line Ln is started, when the second imaging timing comes, the exposure of the first line L0 is started even if the exposure of the last line Ln is continuing. The

2回目の撮像タイミングでは、ラインL0では、適切に消灯期間ΔL2で露光することができるものの、最後のラインLnでは、大部分の露光期間が発光期間ΔL1に重なることとなる。したがって、最後のラインLnおよびラインLnに近いラインでは、略光源110の消灯期間ΔL2中に露光することができず、適切に光源110の消灯時の輝度値を得ることができない。   At the second imaging timing, the line L0 can be appropriately exposed in the extinguishing period ΔL2, but in the last line Ln, most of the exposure period overlaps the light emission period ΔL1. Therefore, the last line Ln and the line close to the line Ln cannot be exposed substantially during the light extinction period ΔL2 of the light source 110, and the luminance value when the light source 110 is extinguished cannot be obtained appropriately.

図8(a)は、発光画像の例を示す模式図である。図8(b)は、消灯画像の例を示す模式図である。図8(c)は、背景光除去画像の例を示す模式図である。図8(d)は、ノイズ光が入射した発光画像の例を示す模式図である。なお、図8(a)〜(d)では、輝度値が高いほど、明るいハッチングで示されており、輝度値が低いほど、暗いハッチングで示されている。図8(a)〜(d)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。   FIG. 8A is a schematic diagram illustrating an example of a light emission image. FIG. 8B is a schematic diagram illustrating an example of a light-off image. FIG. 8C is a schematic diagram illustrating an example of a background light removed image. FIG. 8D is a schematic diagram illustrating an example of a light emission image on which noise light is incident. In FIGS. 8A to 8D, the higher the luminance value, the brighter the hatching, and the lower the luminance value, the darker the hatching. 8A to 8D, the uppermost portion of the image corresponds to the first line L0 of the CMOS image sensor 240, and the lowermost portion of the image corresponds to the last line Ln of the CMOS image sensor 240.

図8(a)に示すように、光源110の発光時に撮像した発光画像は、下部の領域D1が暗くなっている。これは、下部の領域D1に対応するCMOSイメージセンサ240のラインでは、露光開始タイミングが遅延し、光源110から出射された赤外光を十分に受光できないためである。   As shown in FIG. 8A, the lower region D1 of the light emission image captured when the light source 110 emits light is dark. This is because the exposure start timing is delayed in the line of the CMOS image sensor 240 corresponding to the lower region D1, and the infrared light emitted from the light source 110 cannot be received sufficiently.

また、図8(b)に示すように、光源110の消灯時に撮像した消灯画像は、下部の領域D2が明るくなっている。これは、下部の領域D2に対応するCMOSイメージセンサ240のラインでは、露光開始タイミングが遅延し、次の発光タイミングで光源110から出射された赤外光が受光されるためである。   Further, as shown in FIG. 8B, the lower region D2 of the extinguished image captured when the light source 110 is extinguished is bright. This is because the exposure start timing is delayed in the CMOS image sensor 240 line corresponding to the lower region D2, and infrared light emitted from the light source 110 is received at the next light emission timing.

たとえば、図8(a)に示す発光画像の輝度値から図8(b)に示す消灯画像の輝度値が減算されると、図8(c)に示すような背景光除去画像が取得される。図8(c)に示す下部の領域D3では、低い輝度値が高い輝度値で減算されることにより、画素の輝度値が負の階調となっている。なお、輝度値が負の階調となる場合、輝度値が0の場合と同様に黒で示される。   For example, when the luminance value of the extinguished image shown in FIG. 8B is subtracted from the luminance value of the light emitting image shown in FIG. 8A, a background light removed image as shown in FIG. 8C is acquired. . In the lower region D3 shown in FIG. 8C, the luminance value of the pixel has a negative gradation by subtracting the low luminance value by the high luminance value. When the luminance value has a negative gradation, it is shown in black as in the case where the luminance value is 0.

このように、同一撮像画像中に発光期間ΔL1と消灯期間ΔL2で露光されるラインが混在すると、その部分については、適切に背景光を除去することができない。このような背景光が適切に除去できない領域を「露光遅延領域」と称する。露光遅延領域D3が検出対象物体に重なると、適正に物体検出ができない惧れがある。   As described above, when lines exposed in the light emission period ΔL1 and the extinguishing period ΔL2 coexist in the same captured image, the background light cannot be appropriately removed from that portion. Such an area where background light cannot be removed appropriately is referred to as an “exposure delay area”. If the exposure delay region D3 overlaps the detection target object, there is a possibility that the object cannot be detected properly.

同一撮像画像中に光源110の発光期間ΔL1と消灯期間ΔL2で露光されるラインが混在されることを防ぐために、たとえば、図9に示す比較例のように、撮像間隔ΔF2と発光期間ΔL3および消灯期間ΔL4を長くする方法が採られ得る。   In order to prevent a line exposed in the light emission period ΔL1 and the light extinction period ΔL2 of the light source 110 from being mixed in the same captured image, for example, as in the comparative example shown in FIG. A method of lengthening the period ΔL4 can be adopted.

図9は、比較例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。   FIG. 9 is a diagram illustrating the light emission timing of the light source 110 by the light source control unit 21a according to the comparative example and the exposure timing for each of the lines L0 to Ln of the CMOS image sensor 240 by the imaging information acquisition unit 21b.

図9に示すように、比較例に係る撮像間隔ΔF2は、図7に示す場合の撮像間隔ΔF1の2倍に設定されている。また、比較例に係る発光期間ΔL3、消灯期間ΔL4は、それぞれ、図7に示す場合の発光期間ΔL1、消灯期間ΔL2の2倍に設定されている。比較例に係る露光期間ΔP1は、図7に示す場合と同じ値に設定されている。   As shown in FIG. 9, the imaging interval ΔF2 according to the comparative example is set to twice the imaging interval ΔF1 in the case shown in FIG. Further, the light emission period ΔL3 and the light extinction period ΔL4 according to the comparative example are set to be twice the light emission period ΔL1 and the light extinction period ΔL2 in the case shown in FIG. The exposure period ΔP1 according to the comparative example is set to the same value as that shown in FIG.

こうすると、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングの間隔ΔPe1は、撮像間隔ΔF2および発光期間ΔL3よりも小さくなる。したがって、比較例の場合、同一撮像画像中に、光源110の発光期間ΔL3と消灯期間ΔL4で露光されるラインが混在しないため、適切に背景光を除去することができる。   Thus, the interval ΔPe1 between the exposure start timing of the line L0 and the exposure end timing of the last line Ln at the first imaging timing is smaller than the imaging interval ΔF2 and the light emission period ΔL3. Therefore, in the case of the comparative example, since the lines exposed in the light emission period ΔL3 and the light extinction period ΔL4 of the light source 110 are not mixed in the same captured image, the background light can be appropriately removed.

しかしながら、比較例の場合、図7の場合に比べ、時間単位に取得可能な撮像画像の数(フレームレート)が低下するとの問題が生じる。たとえば、図9に示す比較例の場合、光源110の発光時に必要な撮像間隔ΔF2は、図7の場合の撮像間隔ΔF1の2倍であり、比較例に係るフレームレートは、図7に示す場合のフレームレートの1/2倍となる。   However, in the case of the comparative example, there arises a problem that the number of captured images (frame rate) that can be acquired in time units is lower than in the case of FIG. For example, in the case of the comparative example shown in FIG. 9, the imaging interval ΔF2 required when the light source 110 emits light is twice the imaging interval ΔF1 in the case of FIG. 7, and the frame rate according to the comparative example is as shown in FIG. Is ½ times the frame rate.

ここで、物体検出の処理では、撮像画像から検出対象物体の基準点(マーカー)を設定し、マーカーの経時的な位置の変化を検出することにより、物体の動き(ジェスチャ)が検出される。マーカーは、たとえば、指の先端、指の重心位置等に設定される。物体検出の処理では、少なくとも、撮像画像中において、このようなマーカーが設定可能であれば、適正に物体の動きを検出することができる。すなわち、マーカーの設定に必要な領域以外の領域は、物体検出の処理においては、さほど重要ではない。   Here, in the object detection process, the reference point (marker) of the detection target object is set from the captured image, and the movement of the object (gesture) is detected by detecting the change in the position of the marker over time. For example, the marker is set at the tip of the finger, the center of gravity of the finger, or the like. In the object detection process, at least if such a marker can be set in the captured image, the movement of the object can be detected appropriately. That is, the area other than the area necessary for setting the marker is not so important in the object detection process.

そこで、本実施の形態では、物体検出において着目する必要のない領域に、露光遅延領域D3が位置付けられるように、光源110が発光制御される。   Therefore, in the present embodiment, the light source 110 is controlled to emit light so that the exposure delay area D3 is positioned in an area that does not need attention in object detection.

たとえば、図8(a)〜(c)に示すように、検出対象物体が手である場合、指の先端や指の付け根に露光遅延領域D3が重ならないようにすれば、適正に指の動きを検出することができる。図8(a)〜(c)のように、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の1番目のラインL0側に位置付けられるような場合、CMOSイメージセンサ240の最後のラインLn側に露光遅延領域D3が位置付けられるように、光源110の発光制御がなされれば良い。すなわち、図7に示すように光源110が発光制御されれば良い。   For example, as shown in FIGS. 8A to 8C, when the detection target object is a hand, if the exposure delay region D3 is not overlapped with the tip of the finger or the base of the finger, the finger moves properly. Can be detected. As shown in FIGS. 8A to 8C, when the tip of a finger important for object detection processing is positioned on the first line L0 side of the CMOS image sensor 240, the last line of the CMOS image sensor 240 is used. The light emission control of the light source 110 may be performed so that the exposure delay region D3 is positioned on the Ln side. That is, the light source 110 may be controlled to emit light as shown in FIG.

これにより、フレームレートの低下を抑えつつ、背景光の影響を除去することができ、適正に物体検出を行うことができる。   Thereby, it is possible to remove the influence of background light while suppressing a decrease in the frame rate, and to perform object detection appropriately.

また、上記比較例の場合、図8(d)に示すように、発光画像にのみ下部の領域にノイズ光が写り込み、消灯画像にはノイズ光が写り込んでいなかったような場合、ノイズ光の部分が検出対象物体であると誤認識される惧れがある。   In the case of the comparative example, as shown in FIG. 8D, when the noise light is reflected in the lower region only in the luminescent image and the noise light is not reflected in the extinguished image, There is a possibility that the light portion is misrecognized as an object to be detected.

本実施の形態では、物体検出において着目する必要のない下部の領域には、露光遅延領域D3が位置付けられているため、消灯画像の下部の明るい領域D2に含まれる画素の輝度値から発光画像の下部の暗い領域D1に含まれる画素の輝度値が減算される。したがって、図8(d)に示すように、発光画像の下部の領域にノイズ光が写り込んだとしても、発光画像のノイズ光によって増幅された輝度値が、消灯画像の下部の明るい領域D2に含まれる画素の輝度値により減算される。これにより、ノイズ光の輝度値が大きく減じられ、ノイズ光が写り込んだ領域が、検出対象物体であると誤認識されることを防ぐことができる。   In the present embodiment, since the exposure delay area D3 is positioned in the lower area that does not need attention in object detection, the luminance value of the light emission image is determined from the luminance value of the pixel included in the bright area D2 below the unlit image. The luminance value of the pixel included in the lower dark area D1 is subtracted. Therefore, as shown in FIG. 8D, even if noise light is reflected in the lower area of the luminescent image, the luminance value amplified by the noise light of the luminescent image is displayed in the bright area D2 below the extinguished image. Subtracted by the luminance value of the included pixel. As a result, the luminance value of the noise light is greatly reduced, and it can be prevented that the area where the noise light is reflected is erroneously recognized as the detection target object.

図10(a)は、変更例に係る発光画像の例を示す模式図である。図10(b)は、変更例に係る消灯画像の例を示す模式図である。図10(c)は、変更例に係る背景光除去画像の例を示す模式図である。図10(a)〜(c)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。   FIG. 10A is a schematic diagram illustrating an example of a light emission image according to the modified example. FIG. 10B is a schematic diagram illustrating an example of a light-off image according to the modification example. FIG. 10C is a schematic diagram illustrating an example of the background light removal image according to the modification example. 10A to 10C, the uppermost portion of the image corresponds to the first line L0 of the CMOS image sensor 240, and the lowermost portion of the image corresponds to the last line Ln of the CMOS image sensor 240.

図8(a)〜(d)に示す例では、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の1番目のラインL0側に位置付けられたが、図10(a)〜(c)では、情報取得ユニット2の配置や向き等が変更されたことにより、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の最後のラインLn側に位置付けられている。この場合、CMOSイメージセンサ240の一番上のラインL0側に露光遅延領域D3が位置付けられるよう、光源110が発光制御されれば良い。   In the example shown in FIGS. 8A to 8D, the tip of the finger that is important for the object detection process is positioned on the first line L0 side of the CMOS image sensor 240. However, FIGS. ), The tip of the finger important for the object detection processing is positioned on the last line Ln side of the CMOS image sensor 240 by changing the arrangement, orientation, and the like of the information acquisition unit 2. In this case, the light source 110 may be controlled to emit light so that the exposure delay region D3 is positioned on the uppermost line L0 side of the CMOS image sensor 240.

図11は、変更例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。   FIG. 11 is a diagram illustrating the light emission timing of the light source 110 by the light source control unit 21a according to the modification and the exposure timing for each of the lines L0 to Ln of the CMOS image sensor 240 by the imaging information acquisition unit 21b.

図11に示すように、撮像間隔ΔF1、露光期間ΔP1は、図7の場合と同様に設定されている。本変更例では、発光期間ΔL1が、CMOSイメージセンサ240の最後のラインLnの露光期間ΔP1の完了タイミングを含んでいる。また、本変更例では、消灯期間ΔL2が、CMOSイメージセンサ240の最後のラインLnの露光期間ΔP1の完了タイミングを含んでいる。   As shown in FIG. 11, the imaging interval ΔF1 and the exposure period ΔP1 are set in the same manner as in FIG. In the present modification, the light emission period ΔL1 includes the completion timing of the exposure period ΔP1 of the last line Ln of the CMOS image sensor 240. In the present modification, the extinguishing period ΔL2 includes the completion timing of the exposure period ΔP1 of the last line Ln of the CMOS image sensor 240.

このように、光源110が制御されることにより、図10(a)に示すような発光画像と図10(b)に示すような消灯画像が取得される。そして、発光画像から消灯画像の輝度値が減算され、図10(c)に示すような背景光除去画像が取得される。   In this way, by controlling the light source 110, a light emission image as shown in FIG. 10A and a light-off image as shown in FIG. 10B are acquired. Then, the luminance value of the extinguished image is subtracted from the light emitting image, and a background light removed image as shown in FIG.

本変更例においても、物体検出の処理において着目する必要のない上部の領域には、露光遅延領域D3が位置付けられているため、フレームレートの低下を抑えつつ、背景光の影響を除去することができ、適正に物体検出を行うことができる。また、上記同様、このような物体検出の処理において着目する必要のない上部の領域に写り込むノイズ光の影響を抑えることができる。   Also in this modified example, since the exposure delay region D3 is positioned in the upper region that does not need to be focused on in the object detection process, the influence of the background light can be removed while suppressing the decrease in the frame rate. And object detection can be performed properly. In addition, as described above, it is possible to suppress the influence of noise light that appears in the upper region that does not need attention in such object detection processing.

図12(a)は、CMOSイメージセンサ240の露光制御の処理を示すフローチャートである。図12(b)は、光源110の発光制御の処理を示すフローチャートである。図12(c)は、撮像制御の処理を示すフローチャートである。図12(a)、(c)の処理は、図2に示すCPU21の機能のうち、撮像情報取得部21bの機能によって実行される。図12(b)の処理は、図2に示すCPU21の機能のうち、光源制御部21aの機能によって実行される。   FIG. 12A is a flowchart showing exposure control processing of the CMOS image sensor 240. FIG. 12B is a flowchart showing the light emission control process of the light source 110. FIG. 12C is a flowchart illustrating imaging control processing. The processes in FIGS. 12A and 12C are executed by the function of the imaging information acquisition unit 21b among the functions of the CPU 21 shown in FIG. The process of FIG.12 (b) is performed by the function of the light source control part 21a among the functions of CPU21 shown in FIG.

図12(a)を参照して、CPU21は、目標領域を撮像するために、撮像間隔ΔF1で露光期間ΔP1の間、各ラインに順次、露光が継続されるように、CMOSイメージセンサ240の露光動作を開始させる(S101)。そして、CPU21は、CMOSイメージセンサ240の露光動作が停止されるか否かを判定する(S102)。露光動作が停止されない場合(S102:NO)、CPU21は、CMOSイメージセンサ240の各ラインに対する露光動作を継続させる。露光動作が停止される場合(S102:YES)、CPU21は、CMOSイメージセンサ240の露光動作を停止させる(S103)。   Referring to FIG. 12A, the CPU 21 exposes the CMOS image sensor 240 so as to continuously expose each line during the exposure period ΔP1 at the imaging interval ΔF1 in order to image the target area. The operation is started (S101). Then, the CPU 21 determines whether or not the exposure operation of the CMOS image sensor 240 is stopped (S102). When the exposure operation is not stopped (S102: NO), the CPU 21 continues the exposure operation for each line of the CMOS image sensor 240. When the exposure operation is stopped (S102: YES), the CPU 21 stops the exposure operation of the CMOS image sensor 240 (S103).

図12(b)を参照して、CPU21は、CMOSイメージセンサ240のラインL0〜Lnの露光期間ΔP1のうち、物体検出の処理において重要な領域が適正な発光/消灯タイミングに位置付けられるよう光源110の発光/消灯動作を開始させる(S201)。CPU21は、光源110の発光/消灯動作が停止されるか否かを判定する(S202)。発光/消灯動作が停止されない場合(S202:NO)、CPU21は、光源110の発光/消灯動作を継続させる。発光/消灯動作が停止される場合(S202:YES)、CPU21は、光源110の発光/消灯動作を停止させる(S203)。   Referring to FIG. 12B, the CPU 21 sets the light source 110 so that an important area in the object detection process is positioned at an appropriate light emission / extinction timing in the exposure period ΔP1 of the lines L0 to Ln of the CMOS image sensor 240. The light emission / extinguishing operation is started (S201). The CPU 21 determines whether or not the light emission / extinguishing operation of the light source 110 is stopped (S202). When the light emission / light-off operation is not stopped (S202: NO), the CPU 21 continues the light emission / light-off operation of the light source 110. When the light emission / extinction operation is stopped (S202: YES), the CPU 21 stops the light emission / extinction operation of the light source 110 (S203).

これにより、図7または図11に示すように、CMOSイメージセンサ240が露光制御され、且つ、光源110が発光制御される。   Thereby, as shown in FIG. 7 or FIG. 11, the CMOS image sensor 240 is controlled to be exposed and the light source 110 is controlled to emit light.

図12(c)を参照して、CPU21は、所定の発光タイミングに対応する露光制御によりライン毎に取得された各画素の輝度信号に基づき、発光画像を取得する(S301)。図12(a)に示すようにして、CMOSイメージセンサ240が露光制御されているため、たとえば、図8(a)に示すように、物体検出において着目する必要のない下部の領域D1が暗くなった発光画像が取得される。   With reference to FIG.12 (c), CPU21 acquires a light emission image based on the luminance signal of each pixel acquired for every line by the exposure control corresponding to predetermined | prescribed light emission timing (S301). Since the CMOS image sensor 240 is controlled to be exposed as shown in FIG. 12A, for example, as shown in FIG. 8A, the lower region D1 that does not need to be noticed in object detection becomes dark. The emitted light image is acquired.

CPU21は、所定の消灯タイミングに対応する露光制御によりライン毎に取得された各画素の輝度信号に基づき、消灯画像を取得する(S302)。これにより、たとえば、図8(b)に示すように、物体検出において着目する必要のない下部の領域D2が明るくなった消灯画像が取得される。   The CPU 21 acquires a light-off image based on the luminance signal of each pixel acquired for each line by exposure control corresponding to a predetermined light-off timing (S302). As a result, for example, as shown in FIG. 8B, an extinguished image in which the lower region D <b> 2 that does not need attention in object detection becomes bright is acquired.

CPU21は、発光画像の輝度値から消灯画像の輝度値を画素ごとに減算する(S303)。CPU21は、減算結果に基づいて、背景光除去画像を取得する(S304)。これにより、たとえば、図8(c)に示すように、物体検出において着目する必要のない下部の領域に露光遅延領域D3が位置付けられた背景光除去画像が取得される。   The CPU 21 subtracts the luminance value of the extinguished image for each pixel from the luminance value of the light emitting image (S303). The CPU 21 acquires a background light removed image based on the subtraction result (S304). As a result, for example, as shown in FIG. 8C, a background light removed image in which the exposure delay region D3 is positioned in the lower region that does not need attention in object detection is acquired.

そして、CPU21は、撮像処理を終了するか否かを判定する(S305)。撮像処理が終了でない場合(S305:NO)、CPU21は、処理をS301に戻し、撮像処理を繰り返す(S301〜S304)。撮像処理が終了すると(S305:YES)、CPU21は、処理を完了させる。   Then, the CPU 21 determines whether or not to end the imaging process (S305). When the imaging process is not finished (S305: NO), the CPU 21 returns the process to S301 and repeats the imaging process (S301 to S304). When the imaging process ends (S305: YES), the CPU 21 completes the process.

このように制御されることにより、図8(a)〜(c)、または、図10(a)〜(c)に示すように、物体検出の処理において着目する必要のない領域に、露光遅延領域D3を位置付けることができる。   By controlling in this way, as shown in FIG. 8A to FIG. 8C or FIG. 10A to FIG. 10C, an exposure delay is applied to an area that does not need attention in the object detection process. Region D3 can be positioned.

<実施形態の効果>
以上、本実施の形態によれば、物体検出の処理において着目する必要のない領域に、露光遅延領域D3を位置付けることができる。したがって、フレームレートの低下を抑えつつ、背景光の影響を除去することができる。よって、適正に物体検出を行うことができる。
<Effect of embodiment>
As described above, according to the present embodiment, it is possible to position the exposure delay area D3 in an area that does not need attention in the object detection process. Therefore, the influence of background light can be removed while suppressing a decrease in the frame rate. Therefore, object detection can be performed appropriately.

また、本実施の形態によれば、物体検出の処理において着目する必要のない領域に写り込むノイズの影響を抑えることができる。   Further, according to the present embodiment, it is possible to suppress the influence of noise that appears in an area that does not need attention in object detection processing.

また、本実施の形態によれば、図9に示す比較例のように撮像間隔が引き伸ばされないため、撮像画像のフレームレートの低下を抑制することができる。   Further, according to the present embodiment, since the imaging interval is not extended as in the comparative example shown in FIG. 9, it is possible to suppress a decrease in the frame rate of the captured image.

<変更例>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
<Example of change>
While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the configuration example of the present invention.

たとえば、上記実施の形態では、CMOSイメージセンサ240の露光期間ΔP1は、図7に示すように撮像間隔ΔF1と略同じ時間に設定されたが、CMOSイメージセンサ240の露光期間ΔP1は、図13に示すように、撮像間隔ΔF1よりも短く設定されても良い。   For example, in the above embodiment, the exposure period ΔP1 of the CMOS image sensor 240 is set to substantially the same time as the imaging interval ΔF1 as shown in FIG. 7, but the exposure period ΔP1 of the CMOS image sensor 240 is shown in FIG. As shown, it may be set shorter than the imaging interval ΔF1.

図13は、変更例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。   FIG. 13 is a diagram illustrating the light emission timing of the light source 110 by the light source control unit 21a according to the modification and the exposure timing for each of the lines L0 to Ln of the CMOS image sensor 240 by the imaging information acquisition unit 21b.

図13に示すように、撮像間隔ΔF1、発光期間ΔL1、および消灯期間ΔL2は、図7に示す場合と同様に設定されている。本変更例では、露光期間ΔP2は、図7に示す場合の露光期間ΔP1よりも短く設定されている。露光期間ΔP2は、撮像間隔ΔF1よりも短い。   As shown in FIG. 13, the imaging interval ΔF1, the light emission period ΔL1, and the extinguishing period ΔL2 are set similarly to the case shown in FIG. In this modification, the exposure period ΔP2 is set shorter than the exposure period ΔP1 in the case shown in FIG. The exposure period ΔP2 is shorter than the imaging interval ΔF1.

このように、露光期間ΔP2を短く設定することにより、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングの間隔ΔPe2は、図7に示す間隔ΔPe1よりも短くなる。   Thus, by setting the exposure period ΔP2 to be short, the interval ΔPe2 between the exposure start timing of the line L0 and the exposure end timing of the last line Ln at the first imaging timing becomes shorter than the interval ΔPe1 shown in FIG. .

図14(a)は、変更例に係る発光画像の例を示す模式図である。図14(b)は、変更例に係る消灯画像の例を示す模式図である。図14(c)は、変更例に係る背景光除去画像の例を示す模式図である。図14(a)〜(c)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。   FIG. 14A is a schematic diagram illustrating an example of a light emission image according to the modified example. FIG. 14B is a schematic diagram illustrating an example of a light-off image according to the modification example. FIG. 14C is a schematic diagram illustrating an example of the background light removal image according to the modification example. 14A to 14C, the uppermost portion of the image corresponds to the first line L0 of the CMOS image sensor 240, and the lowermost portion of the image corresponds to the last line Ln of the CMOS image sensor 240.

図14(a)〜(c)に示すように、露光期間ΔP2を撮像間隔ΔF1よりも短く設定することにより、露光遅延領域D3の幅を小さく抑えることができる。これにより、CMOSイメージセンサ240の露光開始タイミングの遅延の影響を抑えることができる。また、このように露光遅延領域D3の幅を小さくすることができるため、より適正に物体検出を行うことができる。   As shown in FIGS. 14A to 14C, by setting the exposure period ΔP2 to be shorter than the imaging interval ΔF1, the width of the exposure delay region D3 can be kept small. Thereby, the influence of the delay of the exposure start timing of the CMOS image sensor 240 can be suppressed. In addition, since the width of the exposure delay region D3 can be reduced in this manner, object detection can be performed more appropriately.

なお、露光期間ΔP2を短くした場合、CMOSイメージセンサ240のフォトダイオード240aで電荷を蓄積する時間が短くなるため、出力される撮像画像の輝度値も小さいものとなり易い。したがって、露光期間ΔP2を短くする場合は、輝度値の増幅率(ゲイン)が、上記実施の形態よりも大きく設定されることが望ましい。   When the exposure period ΔP2 is shortened, the time for accumulating charges in the photodiode 240a of the CMOS image sensor 240 is shortened, so that the luminance value of the output captured image tends to be small. Therefore, when the exposure period ΔP2 is shortened, it is preferable that the amplification factor (gain) of the luminance value is set larger than that in the above embodiment.

こうすると、撮像画像の輝度値を低下させることなく、露光遅延領域D3の幅を小さく抑えることができる。   In this way, the width of the exposure delay area D3 can be kept small without reducing the luminance value of the captured image.

なお、本変更例のように、CMOSイメージセンサ240の露光期間ΔP2を撮像間隔ΔF1よりも短く設定し、且つ、輝度値のゲインが大きくなるように設定する構成では、露光遅延領域D3の幅が小さいため、物体検出の処理に重要な領域(指の先端等)に露光遅延領域D3が重なりにくくなる。このため、露光遅延領域D3は、必ずしも、物体検出の処理に重要な領域(指の先端等)から大きく離れた端縁の位置に位置付けられていなくても良く、この端縁からやや物体検出の処理に重要な領域に近づいていても良い。   In the configuration in which the exposure period ΔP2 of the CMOS image sensor 240 is set to be shorter than the imaging interval ΔF1 and the gain of the luminance value is increased as in this modification, the width of the exposure delay region D3 is Since it is small, it becomes difficult for the exposure delay region D3 to overlap the region important for object detection processing (such as the tip of a finger). For this reason, the exposure delay area D3 does not necessarily have to be positioned at an edge position far away from an area important for object detection processing (such as the tip of a finger). You may approach an area important for processing.

なお、本変更例においても、上記実施の形態と同じく、物体検出の処理において着目する必要のない端縁領域に露光遅延領域D3が位置付けられるように光源110が発光制御された方が望ましい。これにより、物体検出の処理に重要な領域(指の先端等)に露光遅延領域D3が重なりにくくなり、物体の検出精度を高めることができる。   In this modified example as well, it is desirable that the light source 110 is controlled to emit light so that the exposure delay region D3 is positioned in the edge region that does not need attention in the object detection process, as in the above embodiment. This makes it difficult for the exposure delay region D3 to overlap the region important for object detection processing (such as the tip of a finger), thereby improving the object detection accuracy.

また、上記実施の形態では、情報取得ユニット2により撮像情報が取得されて、情報処理部3により検出対象物体の形状、動きが検出されたが、情報取得ユニット2によりさらに検出対象物体までの距離情報が取得されても良い。   In the above embodiment, the imaging information is acquired by the information acquisition unit 2 and the shape and movement of the detection target object are detected by the information processing unit 3, but the distance to the detection target object is further detected by the information acquisition unit 2. Information may be acquired.

図15は、変更例に係る情報取得ユニット2と情報処理部3の構成を示す図である。   FIG. 15 is a diagram illustrating configurations of the information acquisition unit 2 and the information processing unit 3 according to the modification.

本変更例では、CPU21に撮像情報取得部21bの機能とともに、距離取得部21cの機能が付与される。   In this modified example, the function of the distance acquisition unit 21c is given to the CPU 21 together with the function of the imaging information acquisition unit 21b.

距離取得部21cは、CMOSイメージセンサ240から出力される信号に基づいて、距離情報を取得する。また、メモリ25は、距離情報の取得に用いられる距離変換関数を保持している。   The distance acquisition unit 21c acquires distance information based on a signal output from the CMOS image sensor 240. The memory 25 holds a distance conversion function used for acquiring distance information.

図15(a)は、CMOSイメージセンサ240上の各画素の感度を模式的に示す図である。   FIG. 15A is a diagram schematically showing the sensitivity of each pixel on the CMOS image sensor 240.

本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。   In the present embodiment, a color sensor is used as the CMOS image sensor 240. Therefore, the CMOS image sensor 240 includes three types of pixels that detect red, green, and blue, respectively.

図15(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図15(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図15(a)の斜線部分を参照)。したがって、図15(b)に示すフィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。   In FIG. 15A, R, G, and B indicate the sensitivity of red, green, and blue pixels included in the CMOS image sensor 240, respectively. As shown in FIG. 15A, the red, green, and blue pixels have substantially the same sensitivity in the infrared wavelength band of 800 nm or more (the hatched portion in FIG. 15A is shown). reference). Therefore, when the visible light wavelength band is removed by the filter 230 shown in FIG. 15B, the sensitivity of the red, green, and blue pixels of the CMOS image sensor 240 becomes substantially equal to each other. For this reason, when the same amount of infrared light is incident on the red, green, and blue pixels, the values of the signals output from the pixels of the respective colors are substantially equal. Therefore, there is no need to adjust the signal from each pixel between the pixels, and the signal from each pixel can be used as it is for obtaining distance information.

図15(b)は、メモリ25に保持された距離変換関数の波形を模式的に示す図である。   FIG. 15B is a diagram schematically showing the waveform of the distance conversion function held in the memory 25.

図15(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、撮像部200によって受光される。このため、図15(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図15(b)に示すような曲線波形になる。   As shown in FIG. 15B, the distance conversion function defines the relationship between the luminance value acquired via the CMOS image sensor 240 and the distance corresponding to the luminance value. In general, the amount of light traveling straight is attenuated in inverse proportion to the square of the distance. Accordingly, the infrared light emitted from the projection unit 100 is attenuated to one-quarter of the distance obtained by adding the distance from the projection unit 100 to the target area and the distance from the target area to the imaging unit 200. The light is received by the imaging unit 200. For this reason, as shown in FIG. 15B, the luminance value acquired via the CMOS image sensor 240 decreases as the distance to the object increases, and increases as the distance to the object decreases. Therefore, the distance conversion function that defines the relationship between the distance and the luminance has a curved waveform as shown in FIG.

距離取得部21cは、距離変換関数を用いて、CMOSイメージセンサ240を介して画素毎に取得される輝度値を距離情報に変換する。このようにして、情報取得ユニット2から検出対象物体の各部までの距離情報が取得される。   The distance acquisition unit 21c converts a luminance value acquired for each pixel through the CMOS image sensor 240 into distance information using a distance conversion function. In this way, distance information from the information acquisition unit 2 to each part of the detection target object is acquired.

本変更例の場合、さらに、輝度値に応じて距離情報が取得されるため、物体の上下左右方向の動きとともに、奥行き方向の動きをも精度良く検出することができる。このように、本変更例では、3次元方向の物体の動きを検出できるため、多種多様なジェスチャに応じて、パーソナルコンピュータ1の機能を制御することができる。   In the case of this modified example, since distance information is acquired according to the luminance value, it is possible to accurately detect the movement in the depth direction as well as the vertical and horizontal movements of the object. As described above, in this modified example, since the motion of the object in the three-dimensional direction can be detected, the function of the personal computer 1 can be controlled according to various gestures.

また、上記実施の形態では、CPU21が撮像情報を取得する機能を有したが、撮像情報の取得が回路によるハードウエア処理により実現されても良い。   Moreover, in the said embodiment, although CPU21 had the function which acquires imaging information, acquisition of imaging information may be implement | achieved by the hardware process by a circuit.

さらに、上記実施の形態では、赤外光の波長帯域の光が用いられたが、赤外以外の波長帯域の光を距離取得に用いることもできる。   Further, in the above embodiment, light in the wavelength band of infrared light is used, but light in a wavelength band other than infrared light can also be used for distance acquisition.

また、上記実施の形態および変更例では、パーソナルコンピュータ1の本体部11に情報取得ユニット2が組み付けられて情報処理装置が構成されたが、情報処理装置が単体として構成されても良い。この場合、情報取得ユニット2は情報処理装置の筐体に収容され、この筐体に赤外光の透光部(開口11a、窓部11b)が設けられる。   Moreover, in the said embodiment and modification, although the information acquisition unit 2 was assembled | attached to the main-body part 11 of the personal computer 1, and the information processing apparatus was comprised, an information processing apparatus may be comprised as a single-piece | unit. In this case, the information acquisition unit 2 is housed in a housing of the information processing apparatus, and infrared light transmitting portions (opening 11a and window portion 11b) are provided in the housing.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

1 … パーソナルコンピュータ(物体検出装置)
2 … 情報取得ユニット(情報取得装置)
21a … 光源制御部
21b … 撮像情報取得部(撮像制御部、情報取得部)
22 … 赤外光源駆動回路(光源制御部)
23 … 撮像信号処理回路(撮像制御部)
100 … 投射部
110 … 光源
200 … 撮像部
240 … CMOSイメージセンサ(イメージセンサ)
L … ライン
L0〜Ln … ライン
1 ... Personal computer (object detection device)
2 ... Information acquisition unit (information acquisition device)
21a: Light source control unit 21b: Imaging information acquisition unit (imaging control unit, information acquisition unit)
22 ... Infrared light source drive circuit (light source control unit)
23 ... Imaging signal processing circuit (imaging controller)
DESCRIPTION OF SYMBOLS 100 ... Projection part 110 ... Light source 200 ... Imaging part 240 ... CMOS image sensor (image sensor)
L ... Line L0-Ln ... Line

Claims (6)

目標領域に所定の波長の光を投射する投射部と、
前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、
前記投射部の光源を制御する光源制御部と、
前記撮像部のイメージセンサを制御する撮像制御部と、
前記撮像部により取得された撮像信号に基づいて前記目標領域内の物体検出に参照される情報を取得する情報取得部と、を備え、
前記撮像制御部は、前記イメージセンサのライン毎に順番に露光制御を行い、
前記光源制御部は、前記イメージセンサ上の物体検出に用いるライン群の露光期間の方が、物体検出に用いないライン群の露光期間よりも、前記光が出射される期間がより多く掛かるように、前記光源を制御する、
ことを特徴とする情報取得装置。
A projection unit that projects light of a predetermined wavelength onto the target area;
An imaging unit that receives reflected light from the target area and images the target area;
A light source control unit for controlling the light source of the projection unit;
An imaging control unit that controls an image sensor of the imaging unit;
An information acquisition unit that acquires information referred to object detection in the target area based on an imaging signal acquired by the imaging unit;
The imaging control unit performs exposure control in order for each line of the image sensor,
The light source control unit is configured so that the exposure period of the line group used for object detection on the image sensor takes a longer period of light emission than the exposure period of the line group not used for object detection. Control the light source;
An information acquisition apparatus characterized by that.
請求項1に記載の情報取得装置において、
前記光源制御部は、隣り合う2つの撮像期間に、それぞれ、前記光の発光期間と前記光の消灯期間が割り当てられるように、前記光源を制御し、
前記情報取得部は、前記発光期間に対応する露光制御により取得された第1撮像情報と、前記消灯期間に対応する露光制御によって取得された第2撮像情報とを減算した第3撮像情報を、前記目標領域内の物体検出に参照される情報として取得する、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 1,
The light source control unit controls the light source so that the light emission period and the light extinction period are assigned to two adjacent imaging periods, respectively.
The information acquisition unit subtracts the third imaging information obtained by subtracting the first imaging information acquired by the exposure control corresponding to the light emission period and the second imaging information acquired by the exposure control corresponding to the extinguishing period, Obtained as information referenced for object detection within the target area,
An information acquisition apparatus characterized by that.
請求項2に記載の情報取得装置において、
前記光源制御部は、物体検出に用いる前記ライン群の所定のラインに対して露光制御が開始されるタイミングと、前記発光期間の開始タイミングとが、同期するように、前記光源を制御する、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 2,
The light source control unit controls the light source so that a timing at which exposure control is started for a predetermined line of the line group used for object detection and a start timing of the light emission period are synchronized.
An information acquisition apparatus characterized by that.
請求項3に記載の情報取得装置において、
前記光源制御部は、物体検出に用いる前記ライン群の前記所定のラインに対して露光制御が開始されるタイミングと、前記消灯期間の開始タイミングとが、同期するように、前記光源を制御する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 3,
The light source control unit controls the light source so that a timing at which exposure control is started for the predetermined line of the line group used for object detection and a start timing of the extinguishing period are synchronized.
An information acquisition apparatus characterized by that.
請求項1ないし4の何れか一項に記載の情報取得装置において、
前記撮像制御部は、前記撮像期間よりも、前記各ラインに対する前記露光期間を短く設定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 1 to 4,
The imaging control unit sets the exposure period for each line shorter than the imaging period;
An information acquisition apparatus characterized by that.
請求項1ないし5の何れか一項に記載の情報取得装置と、
前記情報取得装置の情報取得部によって取得された情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。
An information acquisition device according to any one of claims 1 to 5,
An object detection unit that detects an object present in the target region based on information acquired by an information acquisition unit of the information acquisition device;
An object detection apparatus characterized by that.
JP2014022720A 2014-02-07 2014-02-07 Information acquisition device and object detection device Pending JP2015148565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014022720A JP2015148565A (en) 2014-02-07 2014-02-07 Information acquisition device and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022720A JP2015148565A (en) 2014-02-07 2014-02-07 Information acquisition device and object detection device

Publications (1)

Publication Number Publication Date
JP2015148565A true JP2015148565A (en) 2015-08-20

Family

ID=53892014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022720A Pending JP2015148565A (en) 2014-02-07 2014-02-07 Information acquisition device and object detection device

Country Status (1)

Country Link
JP (1) JP2015148565A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021075563A1 (en) * 2019-10-17 2021-04-22
JP2021526219A (en) * 2018-04-16 2021-09-30 ▲寧▼波▲飛▼芯▲電▼子科技有限公司Ningbo Abax Sensing Co., Ltd. Distance measurement method, device, sensor and sensor array
JP7401129B1 (en) 2022-11-15 2023-12-19 株式会社SEtech Product display shelf

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526219A (en) * 2018-04-16 2021-09-30 ▲寧▼波▲飛▼芯▲電▼子科技有限公司Ningbo Abax Sensing Co., Ltd. Distance measurement method, device, sensor and sensor array
JP7251742B2 (en) 2018-04-16 2023-04-04 ▲寧▼波▲飛▼芯▲電▼子科技有限公司 Ranging methods, devices, sensors and sensor arrays
JPWO2021075563A1 (en) * 2019-10-17 2021-04-22
JP7401129B1 (en) 2022-11-15 2023-12-19 株式会社SEtech Product display shelf
JP2024071797A (en) * 2022-11-15 2024-05-27 株式会社SEtech Product display shelves

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
CN104685318B (en) Motion sensor device, circuit, recording medium, and image processing device
JP6367973B2 (en) Lighting device
JP6307972B2 (en) REFLECTOR, ADJUSTING METHOD, AND POSITION DETECTION DEVICE
JP6417690B2 (en) Projector, display device, and projector control method
CN110308825B (en) Display device and method for controlling display device
TW201308288A (en) Bidirectional display and control thereof
JP2011043876A (en) Image display device
US20160063711A1 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
WO2016031359A1 (en) Control device, control method, and program
JP2015148565A (en) Information acquisition device and object detection device
JPWO2017033385A1 (en) Lighting system and program
JP6562124B2 (en) Position detection system and method for controlling position detection system
US11314334B2 (en) Gesture recognition apparatus, control method thereof, and display apparatus
JP2014181949A (en) Information acquisition device and object detection device
US20200125213A1 (en) Position detection device, display device, and position detection method
JP6459620B2 (en) Light receiving unit, light emission control method and program
JP6503828B2 (en) Interactive projection system, pointer, and control method of interactive projection system
JP2012053603A (en) Information display system
WO2017033386A1 (en) Illumination system and program
JP4954143B2 (en) Position detection device
WO2020188689A1 (en) Driver state monitoring device and driver state monitoring method
JP6690271B2 (en) Position detection system, position detection device, and position detection method
JP2014163830A (en) Information acquisition device and object detection device