JP2015148565A - Information acquisition device and object detection device - Google Patents
Information acquisition device and object detection device Download PDFInfo
- Publication number
- JP2015148565A JP2015148565A JP2014022720A JP2014022720A JP2015148565A JP 2015148565 A JP2015148565 A JP 2015148565A JP 2014022720 A JP2014022720 A JP 2014022720A JP 2014022720 A JP2014022720 A JP 2014022720A JP 2015148565 A JP2015148565 A JP 2015148565A
- Authority
- JP
- Japan
- Prior art keywords
- light
- imaging
- information acquisition
- light source
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、目標領域内の情報を取得する情報取得装置および当該情報取得装置を備えた物体検出装置に関する。 The present invention relates to an information acquisition device that acquires information in a target area and an object detection device that includes the information acquisition device.
従来、光を用いた物体検出装置が種々の分野で開発されている。この種の物体検出装置では、投射部により光が目標領域に投射され、イメージセンサを備える撮像部により目標領域が撮像される(たとえば、特許文献1)。 Conventionally, object detection devices using light have been developed in various fields. In this type of object detection apparatus, light is projected onto a target area by a projection unit, and the target area is imaged by an imaging unit including an image sensor (for example, Patent Document 1).
また、この種の物体検出において、目標領域にある蛍光灯等の背景光が写り込んだ撮像画像から背景光を除去させる物体検出装置が知られている(たとえば、特許文献2)。この物体検出装置では、2次元平面上に並ぶ受光素子を1ラインごとに露光制御するローリングシャッター方式のCMOSイメージセンサが用いられる。 In addition, in this type of object detection, an object detection device is known that removes background light from a captured image in which background light such as a fluorescent lamp in a target area is reflected (for example, Patent Document 2). This object detection apparatus uses a rolling shutter type CMOS image sensor that controls exposure of light receiving elements arranged on a two-dimensional plane for each line.
しかしながら、上記のようなCMOSイメージセンサが用いられると、露光開始タイミングがラインごとに遅延していくとの問題が生じる。露光開始タイミングがラインごとに遅延すると、撮像画像中に、光源の発光時に取得された画素と、消灯時に取得された画素が混在することとなる。この場合、適正に背景光を除去できず、物体検出に悪影響を与える惧れがある。 However, when the above CMOS image sensor is used, there arises a problem that the exposure start timing is delayed for each line. If the exposure start timing is delayed for each line, the pixel acquired when the light source emits light and the pixel acquired when the light source is turned off are mixed in the captured image. In this case, the background light cannot be properly removed, and there is a possibility of adversely affecting the object detection.
上記課題に鑑み、本発明は、背景光を除去しつつ、適正に物体検出することが可能な情報取得装置、および物体検出装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an information acquisition apparatus and an object detection apparatus that can appropriately detect an object while removing background light.
本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域に所定の波長の光を投射する投射部と、前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、前記投射部の光源を制御する光源制御部と、前記撮像部のイメージセンサを制御する撮像制御部と、前記撮像部により取得された撮像信号に基づいて前記目標領域内の物体検出に参照される情報を取得する情報取得部と、を備える。前記撮像制御部は、前記イメージセンサのライン毎に順番に露光制御を行い、前記光源制御部は、前記イメージセンサ上の物体検出に用いるライン群の露光期間の方が、物体検出に用いないライン群の露光期間よりも、前記光が出射される期間がより多く掛かるように、前記光源を制御する。 A first aspect of the present invention relates to an information acquisition device. The information acquisition apparatus according to this aspect includes a projection unit that projects light of a predetermined wavelength onto a target region, an imaging unit that receives reflected light from the target region and images the target region, and a light source of the projection unit A light source control unit for controlling the image sensor, an imaging control unit for controlling an image sensor of the imaging unit, and information for acquiring information referred to for object detection in the target area based on an imaging signal acquired by the imaging unit An acquisition unit. The imaging control unit sequentially performs exposure control for each line of the image sensor, and the light source control unit uses a line group that is used for object detection on the image sensor for an exposure period that is not used for object detection. The light source is controlled so that the light emission period is longer than the group exposure period.
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置と、前記情報取得装置の情報取得部によって取得された情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。 A 2nd aspect of this invention is related with an object detection apparatus. An object detection device according to this aspect detects an object present in the target area based on the information acquisition device according to the first aspect and information acquired by an information acquisition unit of the information acquisition device. A section.
本発明によれば、背景光を除去しつつ、適正に物体検出することが可能な情報取得装置、および物体検出装置を提供することができる。 According to the present invention, it is possible to provide an information acquisition apparatus and an object detection apparatus that can appropriately detect an object while removing background light.
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。 The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.
以下、本発明の実施の形態につき図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本実施の形態は、ノート型のパーソナルコンピュータに本発明に係る物体検出装置を適用したものである。この他、本発明に係る物体検出装置は、デスクトップ型のパーソナルコンピュータやテレビ等の他の機器にも適宜適用可能なものである。なお、本発明に係る情報取得装置および物体検出装置は、必ずしも、他の機器に一体的に搭載されなくとも良く、単独で一つの装置を構成するものであっても良い。 In this embodiment, the object detection apparatus according to the present invention is applied to a notebook personal computer. In addition, the object detection apparatus according to the present invention can be appropriately applied to other devices such as a desktop personal computer and a television. It should be noted that the information acquisition device and the object detection device according to the present invention do not necessarily have to be mounted integrally with other devices, and may constitute a single device alone.
以下に示す実施の形態において、パーソナルコンピュータ1の本体部11に備えられた開口11a、窓部11bと情報取得ユニット2からなる構成が、特許請求の範囲に記載の「情報取得装置」に相当する。
In the embodiment described below, the configuration including the opening 11a, the
図1(a)は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1(b)は、情報取得ユニット2周辺の一部拡大図である。なお、図1(b)では、本体部11の内部が透視されるように示されている。
FIG. 1A is a diagram showing a schematic configuration of a
図1(a)に示すように、パーソナルコンピュータ1は、本体部11と、モニタ部12を備えている。本体部11は、情報取得ユニット2と、情報処理部3を備えている。この他、本体部11は、キーボード4と、操作パッド5を備えている。モニタ部12は、モニタ6を備えている。
As shown in FIG. 1A, the
情報取得ユニット2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体の撮像情報を取得する。情報取得ユニット2は、図1(b)に示すように、前後方向がZ軸方向からYZ平面の面内方向に傾いた状態で本体部11の内部に取り付けられている。情報処理部3は、情報取得ユニット2により取得された撮像情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。
The
たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得ユニット2からジェスチャに応じた撮像情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。
For example, when the user performs a predetermined gesture using his / her hand, imaging information corresponding to the gesture is transmitted from the
図2は、情報取得ユニット2と情報処理部3の構成を示す図である。
FIG. 2 is a diagram showing the configuration of the
情報取得ユニット2は、光学部の構成として、投射部100と撮像部200とを備えている。投射部100と撮像部200は、X軸方向に並ぶように、配置されている。
The
投射部100は、赤外の波長帯域の光を出射する4つの光源110を備えている。
The
撮像部200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得ユニット2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。
The
4つの光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。
Light projected from the four
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタである。
The
CMOSイメージセンサ240は、可視光の波長帯域と、光源110から出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。CMOSイメージセンサ240は、2次元平面上に並ぶ受光素子を有する。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。CMOSイメージセンサ240では、2次元平面上に並ぶ受光素子のうち、1ライン上に並ぶ受光素子毎に露光制御される、いわゆるローリングシャッター方式により受光素子が露光制御される。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。撮像部200のイメージセンサとして、ローリングシャッター方式のCMOSイメージセンサ240が用いられることにより、消費電力を抑えつつ、高速に目標領域を撮像することができる。
The
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、撮像情報取得部21bの機能が付与される。
The
光源制御部21aは、所定の時間間隔で発光期間と消灯期間が繰り返されるよう赤外光源駆動回路22を制御する。
The light
撮像情報取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、輝度情報等の検出対象物体に関する撮像情報を取得する。撮像情報取得部21bは、CMOSイメージセンサ240の露光時間とゲインを撮像信号処理回路23に設定する。
The imaging
赤外光源駆動回路22は、CPU21からの制御信号に応じて4つの光源110を駆動する。
The infrared light
撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号をライン毎に順次取得する。撮像信号処理回路23は、各画素の輝度信号を取得し、取得した信号をCPU21に出力する。撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。
The imaging
入出力回路24は、情報処理部3とのデータ通信を制御する。
The input /
メモリ25は、CPU21により実行される制御プログラムの他、CPU21における処理の際のワーク領域としても用いられる。
The
情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
The
CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。
The
物体検出部31aは、光源110の発光時に撮像情報取得部21bによって取得される撮像情報の輝度信号と、光源110の消灯時に撮像情報取得部21bによって取得される撮像情報の輝度信号の差分を取得し、光源110の発光の有無に影響しない背景光を除去する。物体検出部31aは、背景光を除去した撮像情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。
The
図3は、情報取得ユニット2の構成を示す模式図である。
FIG. 3 is a schematic diagram showing the configuration of the
図3を参照して、情報取得ユニット2は、投射部100と、撮像部200と、回路基板300と、回路部400とを備える。
With reference to FIG. 3, the
投射部100は、上述のように、4つの光源110を備える。4つの光源110は、発光ダイオード(LED:Light Emitting Diode)からなっている。赤外光を発する発光素子(図示せず)は、ハウジング内に収容される。発光素子から発せられた赤外光は、上面の出射部から所定の放射角にて外部に出射される。図3に示すように、4つの光源110は、回路基板300上に実装されている。
The
撮像部200は、アパーチャ210と、撮像レンズ220を収容するレンズバレル250と、フィルタ230と、CMOSイメージセンサ240を収容する撮像レンズホルダ260を備える。CMOSイメージセンサ240は、回路基板300上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、フィルタ230が装着される。こうして、撮像レンズ220とフィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板300上に設置される。
The
回路基板300には、投射部100と撮像部200の他、情報取得ユニット2を構成する回路部400が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、入出力回路24およびメモリ25は、かかる回路部400に含まれる。
In addition to the
図4は、情報取得ユニット2が本体部11に組付けられた状態を示す斜視図である。 図4に示すように、情報取得ユニット2は、前後方向がZ軸方向からYZ平面の面内方向にやや傾くように本体部11に取り付けられる。4つの光源110により情報取得ユニット2の上部に光が投射されると、光は、窓部11bを透過し、キーボード4(図1(a)参照)の上部周辺に向けて投射される。
FIG. 4 is a perspective view showing a state in which the
図5(a)〜(c)は、背景光を除去する方法を説明する図である。 5A to 5C are diagrams for explaining a method of removing background light.
図5(a)に示すように、撮像領域内に蛍光灯LDが含まれている場合、光源110から赤外光を照射しつつ、撮像部200により撮像領域を撮像すると、図5(b)に示すような撮像画像が取得される。このように、光源110を発光させた状態で撮像した撮像画像を「発光画像」と称する。
As shown in FIG. 5A, when a fluorescent lamp LD is included in the imaging region, when the
また、光源110から赤外光を照射させずに、撮像部200により撮像領域を撮像すると、図5(c)に示すような撮像画像が取得される。このように、光源110を消灯させた状態で撮像した撮像画像を「消灯画像」と称する。
Further, when an imaging region is imaged by the
図5(b)の発光画像の輝度値から図5(c)の消灯画像の輝度値を減算すると、図5(d)に示すような撮像画像が取得される。このように、光源110の発光時に取得された発光画像の輝度値から光源110の消灯時に取得された消灯画像の輝度値を減算することにより、光源110から照射された赤外光以外の光によるノイズ成分(たとえば、蛍光灯LD)を除去することができる。このような、赤外光の照射以外の光によるノイズ成分が除去された撮像画像を「背景光除去画像」と称する。
When the luminance value of the extinguished image of FIG. 5C is subtracted from the luminance value of the light emitting image of FIG. 5B, a captured image as shown in FIG. 5D is acquired. In this way, by subtracting the luminance value of the extinguished image acquired when the
図6は、CMOSイメージセンサ240の信号値の読み出し方法を説明する図である。
FIG. 6 is a diagram for explaining a method of reading a signal value of the
CMOSイメージセンサ240は、図6に示すように、画素に対応するフォトダイオード240aを有している。フォトダイオード240aは、光を受光すると、光量に応じた電荷を蓄積する。蓄積された電荷は、増幅器240bによって電圧に変換され、増幅される。増幅された電圧は、スイッチ240cがONにされると、ラインL毎に垂直信号線240dに伝送される。伝送された電圧は、垂直信号線240d毎に配置されている列回路240eにより一時的に保管される。保管された電圧は、列選択スイッチ240fがONにされると、水平信号線240gに送られる。そして、水平信号線240gに送られた電圧は、撮像信号処理回路23に送られる。
As shown in FIG. 6, the
このように、CMOSイメージセンサ240では、ラインL毎に電圧信号が送信される。
Thus, the
図7は、光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。
FIG. 7 is a diagram illustrating the light emission timing of the
垂直同期信号は、所定の撮像間隔ΔF1でON/OFFを繰り返し、CMOSイメージセンサ240のラインL0の露光開始タイミングと同期している。発光タイミングは、光源110を発光させるタイミングと光源110を消灯させるタイミングを示している。発光期間ΔL1と消灯期間ΔL2は、撮像間隔ΔF1と同じ時間間隔に設定されている。露光タイミングは、所定の撮像タイミングに対応するCMOSイメージセンサ240のラインL0〜Lnのフォトダイオード240aを露光させるタイミングを示している。所定の撮像タイミングに対応するラインL0〜Lnの露光タイミングは、同じハッチングで示されており、その次の撮像タイミングに対応するラインL0〜Lnの露光タイミングは、異なるハッチングで示されている。
The vertical synchronization signal repeats ON / OFF at a predetermined imaging interval ΔF1 and is synchronized with the exposure start timing of the line L0 of the
CMOSイメージセンサ240は、垂直同期信号により、所定の撮像間隔ΔF1でラインL0の露光が開始される。これにより、CMOSイメージセンサ240は、ラインL0に配された各フォトダイオード240aに入射した光量に応じた電荷の蓄積を開始する。CMOSイメージセンサ240は、所定の露光期間ΔP1の間、電荷の蓄積を継続する。ラインL0では、発光期間ΔL1の間、露光が継続される。
The
CMOSイメージセンサ240では、ライン毎に露光制御が行われるため、ラインが進むごとに、露光開始タイミングが僅かに遅延する。たとえば、ラインL1は、ラインL0に比べて、1回目の露光開始タイミングが僅かに遅延している。これにより、ラインL1の1回目の露光終了タイミングは、発光終了タイミングよりも僅かに遅れている。すなわち、ラインL1の1回目の露光終了タイミング間際では、光源110の消灯期間ΔL2で露光されている。したがって、ラインL1の1回目の露光タイミングでは、ラインL0に比べて、フォトダイオード240aに蓄積される電荷量が僅かに小さいものとなる。なお、ラインL1では、消灯期間ΔL2に重なる露光期間は、ごく僅かであるため、フォトダイオード240aに受光される光量の減衰量もごく僅かである。
In the
同様にして、ラインL2、L3とラインが進むごとに、露光終了タイミングが遅延していき、最後のラインLnでは、1回目の露光期間の大部分が消灯期間ΔL2に重なっている。したがって、最後のラインLnおよびラインLnに近いラインでは、略光源110の発光期間ΔL1中に露光することができず、適切に光源110の発光時の光量を得ることができない。
Similarly, as the lines L2 and L3 progress, the exposure end timing is delayed, and in the last line Ln, most of the first exposure period overlaps the extinguishing period ΔL2. Therefore, the last line Ln and the line close to the line Ln cannot be exposed substantially during the light emission period ΔL1 of the
このように、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングまでの間隔ΔPe1は、撮像間隔ΔF1および発光期間ΔL1よりも大幅に長いものとなる。 Thus, the interval ΔPe1 from the exposure start timing of the line L0 to the exposure end timing of the last line Ln at the first imaging timing is significantly longer than the imaging interval ΔF1 and the light emission period ΔL1.
最後のラインLnの1回目の撮像タイミングにおける露光が開始された後、2回目の撮像タイミングが到来すると、最後のラインLnの露光が継続中であっても、最初のラインL0の露光が開始される。 After the exposure at the first imaging timing of the last line Ln is started, when the second imaging timing comes, the exposure of the first line L0 is started even if the exposure of the last line Ln is continuing. The
2回目の撮像タイミングでは、ラインL0では、適切に消灯期間ΔL2で露光することができるものの、最後のラインLnでは、大部分の露光期間が発光期間ΔL1に重なることとなる。したがって、最後のラインLnおよびラインLnに近いラインでは、略光源110の消灯期間ΔL2中に露光することができず、適切に光源110の消灯時の輝度値を得ることができない。
At the second imaging timing, the line L0 can be appropriately exposed in the extinguishing period ΔL2, but in the last line Ln, most of the exposure period overlaps the light emission period ΔL1. Therefore, the last line Ln and the line close to the line Ln cannot be exposed substantially during the light extinction period ΔL2 of the
図8(a)は、発光画像の例を示す模式図である。図8(b)は、消灯画像の例を示す模式図である。図8(c)は、背景光除去画像の例を示す模式図である。図8(d)は、ノイズ光が入射した発光画像の例を示す模式図である。なお、図8(a)〜(d)では、輝度値が高いほど、明るいハッチングで示されており、輝度値が低いほど、暗いハッチングで示されている。図8(a)〜(d)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。
FIG. 8A is a schematic diagram illustrating an example of a light emission image. FIG. 8B is a schematic diagram illustrating an example of a light-off image. FIG. 8C is a schematic diagram illustrating an example of a background light removed image. FIG. 8D is a schematic diagram illustrating an example of a light emission image on which noise light is incident. In FIGS. 8A to 8D, the higher the luminance value, the brighter the hatching, and the lower the luminance value, the darker the hatching. 8A to 8D, the uppermost portion of the image corresponds to the first line L0 of the
図8(a)に示すように、光源110の発光時に撮像した発光画像は、下部の領域D1が暗くなっている。これは、下部の領域D1に対応するCMOSイメージセンサ240のラインでは、露光開始タイミングが遅延し、光源110から出射された赤外光を十分に受光できないためである。
As shown in FIG. 8A, the lower region D1 of the light emission image captured when the
また、図8(b)に示すように、光源110の消灯時に撮像した消灯画像は、下部の領域D2が明るくなっている。これは、下部の領域D2に対応するCMOSイメージセンサ240のラインでは、露光開始タイミングが遅延し、次の発光タイミングで光源110から出射された赤外光が受光されるためである。
Further, as shown in FIG. 8B, the lower region D2 of the extinguished image captured when the
たとえば、図8(a)に示す発光画像の輝度値から図8(b)に示す消灯画像の輝度値が減算されると、図8(c)に示すような背景光除去画像が取得される。図8(c)に示す下部の領域D3では、低い輝度値が高い輝度値で減算されることにより、画素の輝度値が負の階調となっている。なお、輝度値が負の階調となる場合、輝度値が0の場合と同様に黒で示される。 For example, when the luminance value of the extinguished image shown in FIG. 8B is subtracted from the luminance value of the light emitting image shown in FIG. 8A, a background light removed image as shown in FIG. 8C is acquired. . In the lower region D3 shown in FIG. 8C, the luminance value of the pixel has a negative gradation by subtracting the low luminance value by the high luminance value. When the luminance value has a negative gradation, it is shown in black as in the case where the luminance value is 0.
このように、同一撮像画像中に発光期間ΔL1と消灯期間ΔL2で露光されるラインが混在すると、その部分については、適切に背景光を除去することができない。このような背景光が適切に除去できない領域を「露光遅延領域」と称する。露光遅延領域D3が検出対象物体に重なると、適正に物体検出ができない惧れがある。 As described above, when lines exposed in the light emission period ΔL1 and the extinguishing period ΔL2 coexist in the same captured image, the background light cannot be appropriately removed from that portion. Such an area where background light cannot be removed appropriately is referred to as an “exposure delay area”. If the exposure delay region D3 overlaps the detection target object, there is a possibility that the object cannot be detected properly.
同一撮像画像中に光源110の発光期間ΔL1と消灯期間ΔL2で露光されるラインが混在されることを防ぐために、たとえば、図9に示す比較例のように、撮像間隔ΔF2と発光期間ΔL3および消灯期間ΔL4を長くする方法が採られ得る。
In order to prevent a line exposed in the light emission period ΔL1 and the light extinction period ΔL2 of the
図9は、比較例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。
FIG. 9 is a diagram illustrating the light emission timing of the
図9に示すように、比較例に係る撮像間隔ΔF2は、図7に示す場合の撮像間隔ΔF1の2倍に設定されている。また、比較例に係る発光期間ΔL3、消灯期間ΔL4は、それぞれ、図7に示す場合の発光期間ΔL1、消灯期間ΔL2の2倍に設定されている。比較例に係る露光期間ΔP1は、図7に示す場合と同じ値に設定されている。 As shown in FIG. 9, the imaging interval ΔF2 according to the comparative example is set to twice the imaging interval ΔF1 in the case shown in FIG. Further, the light emission period ΔL3 and the light extinction period ΔL4 according to the comparative example are set to be twice the light emission period ΔL1 and the light extinction period ΔL2 in the case shown in FIG. The exposure period ΔP1 according to the comparative example is set to the same value as that shown in FIG.
こうすると、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングの間隔ΔPe1は、撮像間隔ΔF2および発光期間ΔL3よりも小さくなる。したがって、比較例の場合、同一撮像画像中に、光源110の発光期間ΔL3と消灯期間ΔL4で露光されるラインが混在しないため、適切に背景光を除去することができる。
Thus, the interval ΔPe1 between the exposure start timing of the line L0 and the exposure end timing of the last line Ln at the first imaging timing is smaller than the imaging interval ΔF2 and the light emission period ΔL3. Therefore, in the case of the comparative example, since the lines exposed in the light emission period ΔL3 and the light extinction period ΔL4 of the
しかしながら、比較例の場合、図7の場合に比べ、時間単位に取得可能な撮像画像の数(フレームレート)が低下するとの問題が生じる。たとえば、図9に示す比較例の場合、光源110の発光時に必要な撮像間隔ΔF2は、図7の場合の撮像間隔ΔF1の2倍であり、比較例に係るフレームレートは、図7に示す場合のフレームレートの1/2倍となる。
However, in the case of the comparative example, there arises a problem that the number of captured images (frame rate) that can be acquired in time units is lower than in the case of FIG. For example, in the case of the comparative example shown in FIG. 9, the imaging interval ΔF2 required when the
ここで、物体検出の処理では、撮像画像から検出対象物体の基準点(マーカー)を設定し、マーカーの経時的な位置の変化を検出することにより、物体の動き(ジェスチャ)が検出される。マーカーは、たとえば、指の先端、指の重心位置等に設定される。物体検出の処理では、少なくとも、撮像画像中において、このようなマーカーが設定可能であれば、適正に物体の動きを検出することができる。すなわち、マーカーの設定に必要な領域以外の領域は、物体検出の処理においては、さほど重要ではない。 Here, in the object detection process, the reference point (marker) of the detection target object is set from the captured image, and the movement of the object (gesture) is detected by detecting the change in the position of the marker over time. For example, the marker is set at the tip of the finger, the center of gravity of the finger, or the like. In the object detection process, at least if such a marker can be set in the captured image, the movement of the object can be detected appropriately. That is, the area other than the area necessary for setting the marker is not so important in the object detection process.
そこで、本実施の形態では、物体検出において着目する必要のない領域に、露光遅延領域D3が位置付けられるように、光源110が発光制御される。
Therefore, in the present embodiment, the
たとえば、図8(a)〜(c)に示すように、検出対象物体が手である場合、指の先端や指の付け根に露光遅延領域D3が重ならないようにすれば、適正に指の動きを検出することができる。図8(a)〜(c)のように、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の1番目のラインL0側に位置付けられるような場合、CMOSイメージセンサ240の最後のラインLn側に露光遅延領域D3が位置付けられるように、光源110の発光制御がなされれば良い。すなわち、図7に示すように光源110が発光制御されれば良い。
For example, as shown in FIGS. 8A to 8C, when the detection target object is a hand, if the exposure delay region D3 is not overlapped with the tip of the finger or the base of the finger, the finger moves properly. Can be detected. As shown in FIGS. 8A to 8C, when the tip of a finger important for object detection processing is positioned on the first line L0 side of the
これにより、フレームレートの低下を抑えつつ、背景光の影響を除去することができ、適正に物体検出を行うことができる。 Thereby, it is possible to remove the influence of background light while suppressing a decrease in the frame rate, and to perform object detection appropriately.
また、上記比較例の場合、図8(d)に示すように、発光画像にのみ下部の領域にノイズ光が写り込み、消灯画像にはノイズ光が写り込んでいなかったような場合、ノイズ光の部分が検出対象物体であると誤認識される惧れがある。 In the case of the comparative example, as shown in FIG. 8D, when the noise light is reflected in the lower region only in the luminescent image and the noise light is not reflected in the extinguished image, There is a possibility that the light portion is misrecognized as an object to be detected.
本実施の形態では、物体検出において着目する必要のない下部の領域には、露光遅延領域D3が位置付けられているため、消灯画像の下部の明るい領域D2に含まれる画素の輝度値から発光画像の下部の暗い領域D1に含まれる画素の輝度値が減算される。したがって、図8(d)に示すように、発光画像の下部の領域にノイズ光が写り込んだとしても、発光画像のノイズ光によって増幅された輝度値が、消灯画像の下部の明るい領域D2に含まれる画素の輝度値により減算される。これにより、ノイズ光の輝度値が大きく減じられ、ノイズ光が写り込んだ領域が、検出対象物体であると誤認識されることを防ぐことができる。 In the present embodiment, since the exposure delay area D3 is positioned in the lower area that does not need attention in object detection, the luminance value of the light emission image is determined from the luminance value of the pixel included in the bright area D2 below the unlit image. The luminance value of the pixel included in the lower dark area D1 is subtracted. Therefore, as shown in FIG. 8D, even if noise light is reflected in the lower area of the luminescent image, the luminance value amplified by the noise light of the luminescent image is displayed in the bright area D2 below the extinguished image. Subtracted by the luminance value of the included pixel. As a result, the luminance value of the noise light is greatly reduced, and it can be prevented that the area where the noise light is reflected is erroneously recognized as the detection target object.
図10(a)は、変更例に係る発光画像の例を示す模式図である。図10(b)は、変更例に係る消灯画像の例を示す模式図である。図10(c)は、変更例に係る背景光除去画像の例を示す模式図である。図10(a)〜(c)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。
FIG. 10A is a schematic diagram illustrating an example of a light emission image according to the modified example. FIG. 10B is a schematic diagram illustrating an example of a light-off image according to the modification example. FIG. 10C is a schematic diagram illustrating an example of the background light removal image according to the modification example. 10A to 10C, the uppermost portion of the image corresponds to the first line L0 of the
図8(a)〜(d)に示す例では、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の1番目のラインL0側に位置付けられたが、図10(a)〜(c)では、情報取得ユニット2の配置や向き等が変更されたことにより、物体検出の処理に重要な指の先端がCMOSイメージセンサ240の最後のラインLn側に位置付けられている。この場合、CMOSイメージセンサ240の一番上のラインL0側に露光遅延領域D3が位置付けられるよう、光源110が発光制御されれば良い。
In the example shown in FIGS. 8A to 8D, the tip of the finger that is important for the object detection process is positioned on the first line L0 side of the
図11は、変更例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。
FIG. 11 is a diagram illustrating the light emission timing of the
図11に示すように、撮像間隔ΔF1、露光期間ΔP1は、図7の場合と同様に設定されている。本変更例では、発光期間ΔL1が、CMOSイメージセンサ240の最後のラインLnの露光期間ΔP1の完了タイミングを含んでいる。また、本変更例では、消灯期間ΔL2が、CMOSイメージセンサ240の最後のラインLnの露光期間ΔP1の完了タイミングを含んでいる。
As shown in FIG. 11, the imaging interval ΔF1 and the exposure period ΔP1 are set in the same manner as in FIG. In the present modification, the light emission period ΔL1 includes the completion timing of the exposure period ΔP1 of the last line Ln of the
このように、光源110が制御されることにより、図10(a)に示すような発光画像と図10(b)に示すような消灯画像が取得される。そして、発光画像から消灯画像の輝度値が減算され、図10(c)に示すような背景光除去画像が取得される。
In this way, by controlling the
本変更例においても、物体検出の処理において着目する必要のない上部の領域には、露光遅延領域D3が位置付けられているため、フレームレートの低下を抑えつつ、背景光の影響を除去することができ、適正に物体検出を行うことができる。また、上記同様、このような物体検出の処理において着目する必要のない上部の領域に写り込むノイズ光の影響を抑えることができる。 Also in this modified example, since the exposure delay region D3 is positioned in the upper region that does not need to be focused on in the object detection process, the influence of the background light can be removed while suppressing the decrease in the frame rate. And object detection can be performed properly. In addition, as described above, it is possible to suppress the influence of noise light that appears in the upper region that does not need attention in such object detection processing.
図12(a)は、CMOSイメージセンサ240の露光制御の処理を示すフローチャートである。図12(b)は、光源110の発光制御の処理を示すフローチャートである。図12(c)は、撮像制御の処理を示すフローチャートである。図12(a)、(c)の処理は、図2に示すCPU21の機能のうち、撮像情報取得部21bの機能によって実行される。図12(b)の処理は、図2に示すCPU21の機能のうち、光源制御部21aの機能によって実行される。
FIG. 12A is a flowchart showing exposure control processing of the
図12(a)を参照して、CPU21は、目標領域を撮像するために、撮像間隔ΔF1で露光期間ΔP1の間、各ラインに順次、露光が継続されるように、CMOSイメージセンサ240の露光動作を開始させる(S101)。そして、CPU21は、CMOSイメージセンサ240の露光動作が停止されるか否かを判定する(S102)。露光動作が停止されない場合(S102:NO)、CPU21は、CMOSイメージセンサ240の各ラインに対する露光動作を継続させる。露光動作が停止される場合(S102:YES)、CPU21は、CMOSイメージセンサ240の露光動作を停止させる(S103)。
Referring to FIG. 12A, the
図12(b)を参照して、CPU21は、CMOSイメージセンサ240のラインL0〜Lnの露光期間ΔP1のうち、物体検出の処理において重要な領域が適正な発光/消灯タイミングに位置付けられるよう光源110の発光/消灯動作を開始させる(S201)。CPU21は、光源110の発光/消灯動作が停止されるか否かを判定する(S202)。発光/消灯動作が停止されない場合(S202:NO)、CPU21は、光源110の発光/消灯動作を継続させる。発光/消灯動作が停止される場合(S202:YES)、CPU21は、光源110の発光/消灯動作を停止させる(S203)。
Referring to FIG. 12B, the
これにより、図7または図11に示すように、CMOSイメージセンサ240が露光制御され、且つ、光源110が発光制御される。
Thereby, as shown in FIG. 7 or FIG. 11, the
図12(c)を参照して、CPU21は、所定の発光タイミングに対応する露光制御によりライン毎に取得された各画素の輝度信号に基づき、発光画像を取得する(S301)。図12(a)に示すようにして、CMOSイメージセンサ240が露光制御されているため、たとえば、図8(a)に示すように、物体検出において着目する必要のない下部の領域D1が暗くなった発光画像が取得される。
With reference to FIG.12 (c), CPU21 acquires a light emission image based on the luminance signal of each pixel acquired for every line by the exposure control corresponding to predetermined | prescribed light emission timing (S301). Since the
CPU21は、所定の消灯タイミングに対応する露光制御によりライン毎に取得された各画素の輝度信号に基づき、消灯画像を取得する(S302)。これにより、たとえば、図8(b)に示すように、物体検出において着目する必要のない下部の領域D2が明るくなった消灯画像が取得される。
The
CPU21は、発光画像の輝度値から消灯画像の輝度値を画素ごとに減算する(S303)。CPU21は、減算結果に基づいて、背景光除去画像を取得する(S304)。これにより、たとえば、図8(c)に示すように、物体検出において着目する必要のない下部の領域に露光遅延領域D3が位置付けられた背景光除去画像が取得される。
The
そして、CPU21は、撮像処理を終了するか否かを判定する(S305)。撮像処理が終了でない場合(S305:NO)、CPU21は、処理をS301に戻し、撮像処理を繰り返す(S301〜S304)。撮像処理が終了すると(S305:YES)、CPU21は、処理を完了させる。
Then, the
このように制御されることにより、図8(a)〜(c)、または、図10(a)〜(c)に示すように、物体検出の処理において着目する必要のない領域に、露光遅延領域D3を位置付けることができる。 By controlling in this way, as shown in FIG. 8A to FIG. 8C or FIG. 10A to FIG. 10C, an exposure delay is applied to an area that does not need attention in the object detection process. Region D3 can be positioned.
<実施形態の効果>
以上、本実施の形態によれば、物体検出の処理において着目する必要のない領域に、露光遅延領域D3を位置付けることができる。したがって、フレームレートの低下を抑えつつ、背景光の影響を除去することができる。よって、適正に物体検出を行うことができる。
<Effect of embodiment>
As described above, according to the present embodiment, it is possible to position the exposure delay area D3 in an area that does not need attention in the object detection process. Therefore, the influence of background light can be removed while suppressing a decrease in the frame rate. Therefore, object detection can be performed appropriately.
また、本実施の形態によれば、物体検出の処理において着目する必要のない領域に写り込むノイズの影響を抑えることができる。 Further, according to the present embodiment, it is possible to suppress the influence of noise that appears in an area that does not need attention in object detection processing.
また、本実施の形態によれば、図9に示す比較例のように撮像間隔が引き伸ばされないため、撮像画像のフレームレートの低下を抑制することができる。 Further, according to the present embodiment, since the imaging interval is not extended as in the comparative example shown in FIG. 9, it is possible to suppress a decrease in the frame rate of the captured image.
<変更例>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
<Example of change>
While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the configuration example of the present invention.
たとえば、上記実施の形態では、CMOSイメージセンサ240の露光期間ΔP1は、図7に示すように撮像間隔ΔF1と略同じ時間に設定されたが、CMOSイメージセンサ240の露光期間ΔP1は、図13に示すように、撮像間隔ΔF1よりも短く設定されても良い。
For example, in the above embodiment, the exposure period ΔP1 of the
図13は、変更例に係る光源制御部21aによる光源110の発光タイミングと、撮像情報取得部21bによるCMOSイメージセンサ240のラインL0〜Ln毎の露光タイミングを示す図である。
FIG. 13 is a diagram illustrating the light emission timing of the
図13に示すように、撮像間隔ΔF1、発光期間ΔL1、および消灯期間ΔL2は、図7に示す場合と同様に設定されている。本変更例では、露光期間ΔP2は、図7に示す場合の露光期間ΔP1よりも短く設定されている。露光期間ΔP2は、撮像間隔ΔF1よりも短い。 As shown in FIG. 13, the imaging interval ΔF1, the light emission period ΔL1, and the extinguishing period ΔL2 are set similarly to the case shown in FIG. In this modification, the exposure period ΔP2 is set shorter than the exposure period ΔP1 in the case shown in FIG. The exposure period ΔP2 is shorter than the imaging interval ΔF1.
このように、露光期間ΔP2を短く設定することにより、1回目の撮像タイミングにおけるラインL0の露光開始タイミングから最後のラインLnの露光終了タイミングの間隔ΔPe2は、図7に示す間隔ΔPe1よりも短くなる。 Thus, by setting the exposure period ΔP2 to be short, the interval ΔPe2 between the exposure start timing of the line L0 and the exposure end timing of the last line Ln at the first imaging timing becomes shorter than the interval ΔPe1 shown in FIG. .
図14(a)は、変更例に係る発光画像の例を示す模式図である。図14(b)は、変更例に係る消灯画像の例を示す模式図である。図14(c)は、変更例に係る背景光除去画像の例を示す模式図である。図14(a)〜(c)では、画像の最上部がCMOSイメージセンサ240の1番目のラインL0に相当し、画像の最下部がCMOSイメージセンサ240の最後のラインLnに相当する。
FIG. 14A is a schematic diagram illustrating an example of a light emission image according to the modified example. FIG. 14B is a schematic diagram illustrating an example of a light-off image according to the modification example. FIG. 14C is a schematic diagram illustrating an example of the background light removal image according to the modification example. 14A to 14C, the uppermost portion of the image corresponds to the first line L0 of the
図14(a)〜(c)に示すように、露光期間ΔP2を撮像間隔ΔF1よりも短く設定することにより、露光遅延領域D3の幅を小さく抑えることができる。これにより、CMOSイメージセンサ240の露光開始タイミングの遅延の影響を抑えることができる。また、このように露光遅延領域D3の幅を小さくすることができるため、より適正に物体検出を行うことができる。
As shown in FIGS. 14A to 14C, by setting the exposure period ΔP2 to be shorter than the imaging interval ΔF1, the width of the exposure delay region D3 can be kept small. Thereby, the influence of the delay of the exposure start timing of the
なお、露光期間ΔP2を短くした場合、CMOSイメージセンサ240のフォトダイオード240aで電荷を蓄積する時間が短くなるため、出力される撮像画像の輝度値も小さいものとなり易い。したがって、露光期間ΔP2を短くする場合は、輝度値の増幅率(ゲイン)が、上記実施の形態よりも大きく設定されることが望ましい。
When the exposure period ΔP2 is shortened, the time for accumulating charges in the
こうすると、撮像画像の輝度値を低下させることなく、露光遅延領域D3の幅を小さく抑えることができる。 In this way, the width of the exposure delay area D3 can be kept small without reducing the luminance value of the captured image.
なお、本変更例のように、CMOSイメージセンサ240の露光期間ΔP2を撮像間隔ΔF1よりも短く設定し、且つ、輝度値のゲインが大きくなるように設定する構成では、露光遅延領域D3の幅が小さいため、物体検出の処理に重要な領域(指の先端等)に露光遅延領域D3が重なりにくくなる。このため、露光遅延領域D3は、必ずしも、物体検出の処理に重要な領域(指の先端等)から大きく離れた端縁の位置に位置付けられていなくても良く、この端縁からやや物体検出の処理に重要な領域に近づいていても良い。
In the configuration in which the exposure period ΔP2 of the
なお、本変更例においても、上記実施の形態と同じく、物体検出の処理において着目する必要のない端縁領域に露光遅延領域D3が位置付けられるように光源110が発光制御された方が望ましい。これにより、物体検出の処理に重要な領域(指の先端等)に露光遅延領域D3が重なりにくくなり、物体の検出精度を高めることができる。
In this modified example as well, it is desirable that the
また、上記実施の形態では、情報取得ユニット2により撮像情報が取得されて、情報処理部3により検出対象物体の形状、動きが検出されたが、情報取得ユニット2によりさらに検出対象物体までの距離情報が取得されても良い。
In the above embodiment, the imaging information is acquired by the
図15は、変更例に係る情報取得ユニット2と情報処理部3の構成を示す図である。
FIG. 15 is a diagram illustrating configurations of the
本変更例では、CPU21に撮像情報取得部21bの機能とともに、距離取得部21cの機能が付与される。
In this modified example, the function of the
距離取得部21cは、CMOSイメージセンサ240から出力される信号に基づいて、距離情報を取得する。また、メモリ25は、距離情報の取得に用いられる距離変換関数を保持している。
The
図15(a)は、CMOSイメージセンサ240上の各画素の感度を模式的に示す図である。
FIG. 15A is a diagram schematically showing the sensitivity of each pixel on the
本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。
In the present embodiment, a color sensor is used as the
図15(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図15(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図15(a)の斜線部分を参照)。したがって、図15(b)に示すフィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。
In FIG. 15A, R, G, and B indicate the sensitivity of red, green, and blue pixels included in the
図15(b)は、メモリ25に保持された距離変換関数の波形を模式的に示す図である。
FIG. 15B is a diagram schematically showing the waveform of the distance conversion function held in the
図15(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、撮像部200によって受光される。このため、図15(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図15(b)に示すような曲線波形になる。
As shown in FIG. 15B, the distance conversion function defines the relationship between the luminance value acquired via the
距離取得部21cは、距離変換関数を用いて、CMOSイメージセンサ240を介して画素毎に取得される輝度値を距離情報に変換する。このようにして、情報取得ユニット2から検出対象物体の各部までの距離情報が取得される。
The
本変更例の場合、さらに、輝度値に応じて距離情報が取得されるため、物体の上下左右方向の動きとともに、奥行き方向の動きをも精度良く検出することができる。このように、本変更例では、3次元方向の物体の動きを検出できるため、多種多様なジェスチャに応じて、パーソナルコンピュータ1の機能を制御することができる。
In the case of this modified example, since distance information is acquired according to the luminance value, it is possible to accurately detect the movement in the depth direction as well as the vertical and horizontal movements of the object. As described above, in this modified example, since the motion of the object in the three-dimensional direction can be detected, the function of the
また、上記実施の形態では、CPU21が撮像情報を取得する機能を有したが、撮像情報の取得が回路によるハードウエア処理により実現されても良い。 Moreover, in the said embodiment, although CPU21 had the function which acquires imaging information, acquisition of imaging information may be implement | achieved by the hardware process by a circuit.
さらに、上記実施の形態では、赤外光の波長帯域の光が用いられたが、赤外以外の波長帯域の光を距離取得に用いることもできる。 Further, in the above embodiment, light in the wavelength band of infrared light is used, but light in a wavelength band other than infrared light can also be used for distance acquisition.
また、上記実施の形態および変更例では、パーソナルコンピュータ1の本体部11に情報取得ユニット2が組み付けられて情報処理装置が構成されたが、情報処理装置が単体として構成されても良い。この場合、情報取得ユニット2は情報処理装置の筐体に収容され、この筐体に赤外光の透光部(開口11a、窓部11b)が設けられる。
Moreover, in the said embodiment and modification, although the
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。 In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.
1 … パーソナルコンピュータ(物体検出装置)
2 … 情報取得ユニット(情報取得装置)
21a … 光源制御部
21b … 撮像情報取得部(撮像制御部、情報取得部)
22 … 赤外光源駆動回路(光源制御部)
23 … 撮像信号処理回路(撮像制御部)
100 … 投射部
110 … 光源
200 … 撮像部
240 … CMOSイメージセンサ(イメージセンサ)
L … ライン
L0〜Ln … ライン
1 ... Personal computer (object detection device)
2 ... Information acquisition unit (information acquisition device)
21a: Light
22 ... Infrared light source drive circuit (light source control unit)
23 ... Imaging signal processing circuit (imaging controller)
DESCRIPTION OF
L ... Line L0-Ln ... Line
Claims (6)
前記目標領域からの反射光を受光して前記目標領域を撮像する撮像部と、
前記投射部の光源を制御する光源制御部と、
前記撮像部のイメージセンサを制御する撮像制御部と、
前記撮像部により取得された撮像信号に基づいて前記目標領域内の物体検出に参照される情報を取得する情報取得部と、を備え、
前記撮像制御部は、前記イメージセンサのライン毎に順番に露光制御を行い、
前記光源制御部は、前記イメージセンサ上の物体検出に用いるライン群の露光期間の方が、物体検出に用いないライン群の露光期間よりも、前記光が出射される期間がより多く掛かるように、前記光源を制御する、
ことを特徴とする情報取得装置。 A projection unit that projects light of a predetermined wavelength onto the target area;
An imaging unit that receives reflected light from the target area and images the target area;
A light source control unit for controlling the light source of the projection unit;
An imaging control unit that controls an image sensor of the imaging unit;
An information acquisition unit that acquires information referred to object detection in the target area based on an imaging signal acquired by the imaging unit;
The imaging control unit performs exposure control in order for each line of the image sensor,
The light source control unit is configured so that the exposure period of the line group used for object detection on the image sensor takes a longer period of light emission than the exposure period of the line group not used for object detection. Control the light source;
An information acquisition apparatus characterized by that.
前記光源制御部は、隣り合う2つの撮像期間に、それぞれ、前記光の発光期間と前記光の消灯期間が割り当てられるように、前記光源を制御し、
前記情報取得部は、前記発光期間に対応する露光制御により取得された第1撮像情報と、前記消灯期間に対応する露光制御によって取得された第2撮像情報とを減算した第3撮像情報を、前記目標領域内の物体検出に参照される情報として取得する、
ことを特徴とする情報取得装置。 The information acquisition device according to claim 1,
The light source control unit controls the light source so that the light emission period and the light extinction period are assigned to two adjacent imaging periods, respectively.
The information acquisition unit subtracts the third imaging information obtained by subtracting the first imaging information acquired by the exposure control corresponding to the light emission period and the second imaging information acquired by the exposure control corresponding to the extinguishing period, Obtained as information referenced for object detection within the target area,
An information acquisition apparatus characterized by that.
前記光源制御部は、物体検出に用いる前記ライン群の所定のラインに対して露光制御が開始されるタイミングと、前記発光期間の開始タイミングとが、同期するように、前記光源を制御する、
ことを特徴とする情報取得装置。 The information acquisition device according to claim 2,
The light source control unit controls the light source so that a timing at which exposure control is started for a predetermined line of the line group used for object detection and a start timing of the light emission period are synchronized.
An information acquisition apparatus characterized by that.
前記光源制御部は、物体検出に用いる前記ライン群の前記所定のラインに対して露光制御が開始されるタイミングと、前記消灯期間の開始タイミングとが、同期するように、前記光源を制御する、
ことを特徴とする情報取得装置。 In the information acquisition device according to claim 3,
The light source control unit controls the light source so that a timing at which exposure control is started for the predetermined line of the line group used for object detection and a start timing of the extinguishing period are synchronized.
An information acquisition apparatus characterized by that.
前記撮像制御部は、前記撮像期間よりも、前記各ラインに対する前記露光期間を短く設定する、
ことを特徴とする情報取得装置。 In the information acquisition device according to any one of claims 1 to 4,
The imaging control unit sets the exposure period for each line shorter than the imaging period;
An information acquisition apparatus characterized by that.
前記情報取得装置の情報取得部によって取得された情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。 An information acquisition device according to any one of claims 1 to 5,
An object detection unit that detects an object present in the target region based on information acquired by an information acquisition unit of the information acquisition device;
An object detection apparatus characterized by that.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014022720A JP2015148565A (en) | 2014-02-07 | 2014-02-07 | Information acquisition device and object detection device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014022720A JP2015148565A (en) | 2014-02-07 | 2014-02-07 | Information acquisition device and object detection device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015148565A true JP2015148565A (en) | 2015-08-20 |
Family
ID=53892014
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014022720A Pending JP2015148565A (en) | 2014-02-07 | 2014-02-07 | Information acquisition device and object detection device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015148565A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021075563A1 (en) * | 2019-10-17 | 2021-04-22 | ||
| JP2021526219A (en) * | 2018-04-16 | 2021-09-30 | ▲寧▼波▲飛▼芯▲電▼子科技有限公司Ningbo Abax Sensing Co., Ltd. | Distance measurement method, device, sensor and sensor array |
| JP7401129B1 (en) | 2022-11-15 | 2023-12-19 | 株式会社SEtech | Product display shelf |
-
2014
- 2014-02-07 JP JP2014022720A patent/JP2015148565A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021526219A (en) * | 2018-04-16 | 2021-09-30 | ▲寧▼波▲飛▼芯▲電▼子科技有限公司Ningbo Abax Sensing Co., Ltd. | Distance measurement method, device, sensor and sensor array |
| JP7251742B2 (en) | 2018-04-16 | 2023-04-04 | ▲寧▼波▲飛▼芯▲電▼子科技有限公司 | Ranging methods, devices, sensors and sensor arrays |
| JPWO2021075563A1 (en) * | 2019-10-17 | 2021-04-22 | ||
| JP7401129B1 (en) | 2022-11-15 | 2023-12-19 | 株式会社SEtech | Product display shelf |
| JP2024071797A (en) * | 2022-11-15 | 2024-05-27 | 株式会社SEtech | Product display shelves |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6398248B2 (en) | Position detection system and method for controlling position detection system | |
| CN104685318B (en) | Motion sensor device, circuit, recording medium, and image processing device | |
| JP6367973B2 (en) | Lighting device | |
| JP6307972B2 (en) | REFLECTOR, ADJUSTING METHOD, AND POSITION DETECTION DEVICE | |
| JP6417690B2 (en) | Projector, display device, and projector control method | |
| CN110308825B (en) | Display device and method for controlling display device | |
| TW201308288A (en) | Bidirectional display and control thereof | |
| JP2011043876A (en) | Image display device | |
| US20160063711A1 (en) | Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method | |
| JP6375660B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
| WO2016031359A1 (en) | Control device, control method, and program | |
| JP2015148565A (en) | Information acquisition device and object detection device | |
| JPWO2017033385A1 (en) | Lighting system and program | |
| JP6562124B2 (en) | Position detection system and method for controlling position detection system | |
| US11314334B2 (en) | Gesture recognition apparatus, control method thereof, and display apparatus | |
| JP2014181949A (en) | Information acquisition device and object detection device | |
| US20200125213A1 (en) | Position detection device, display device, and position detection method | |
| JP6459620B2 (en) | Light receiving unit, light emission control method and program | |
| JP6503828B2 (en) | Interactive projection system, pointer, and control method of interactive projection system | |
| JP2012053603A (en) | Information display system | |
| WO2017033386A1 (en) | Illumination system and program | |
| JP4954143B2 (en) | Position detection device | |
| WO2020188689A1 (en) | Driver state monitoring device and driver state monitoring method | |
| JP6690271B2 (en) | Position detection system, position detection device, and position detection method | |
| JP2014163830A (en) | Information acquisition device and object detection device |