[go: up one dir, main page]

JP4150506B2 - Image capturing apparatus and distance measuring method - Google Patents

Image capturing apparatus and distance measuring method Download PDF

Info

Publication number
JP4150506B2
JP4150506B2 JP2001036761A JP2001036761A JP4150506B2 JP 4150506 B2 JP4150506 B2 JP 4150506B2 JP 2001036761 A JP2001036761 A JP 2001036761A JP 2001036761 A JP2001036761 A JP 2001036761A JP 4150506 B2 JP4150506 B2 JP 4150506B2
Authority
JP
Japan
Prior art keywords
light
wavelength
subject
intensity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001036761A
Other languages
Japanese (ja)
Other versions
JP2001304821A (en
Inventor
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2001036761A priority Critical patent/JP4150506B2/en
Publication of JP2001304821A publication Critical patent/JP2001304821A/en
Application granted granted Critical
Publication of JP4150506B2 publication Critical patent/JP4150506B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、被写体の奥行き距離に関する情報を取得する画像撮像装置及び距離測定方法に関する。特に本発明は、光が照射された被写体から得られる出射光を撮影して被写体の奥行きに関する情報を取得する画像撮像装置及び距離測定方法に関する。
【0002】
【従来の技術】
物体までの距離情報や物体の位置情報を得るために、物体にスリットや縞模様などのパターン光を投影し、物体に投影されたパターンを撮影して解析する三次元画像計測の手法が知られている。代表的な計測手法として、スリット光投影法(別名、光切断法)、コード化パターン光投影法などがあり、井口征士、佐藤宏介著『三次元画像計測』(昭晃堂)に詳しい。
【0003】
特開昭61−155909号公報(公開日昭和61年7月15日)及び特開昭63−233312号公報(公開日昭和63年9月29日)には、異なる光源位置から被写体に光を照射し、被写体からの反射光の強度比に基づいて、被写体までの距離を測定する距離測定装置及び距離測定方法が開示されている。
【0004】
特開昭62−46207号公報(公開日昭和62年2月28日)には、位相の異なる2つの光を被写体に照射し、被写体からの反射光の位相差に基づいて、被写体までの距離を測定する距離検出装置が開示されている。
【0005】
また、河北他「三次元撮像装置Axi-Vision Cameraの開発」(3次元画像コンファレンス99、1999年)には、投影光に超高速の強度変調を加え、強度変調光で照明された被写体を高速シャッター機能を備えたカメラで撮影し、被写体までの距離によって変化する強度変調度合いから、距離を測定する方法が開示されている。
【0006】
【発明が解決しようとする課題】
従来の光投影法による計測手法は、3角測量の原理に基づいて、投影パターンが投影された被写体の領域までの距離を測定する。したがって、距離測定の高い分解能を得るためには、原理的に投影光学系と撮影光学系を十分に離して配置する必要があり、測定装置の大型化が避けられないという問題が生じていた。また、投影光学系と撮影光学系の光軸が離れているために、撮影光学系から見た場合に、投影されたパターンが被写体の陰に隠れて観察されない場所ができ、距離情報が得られない「死角」となるという問題も生じていた。
【0007】
特開昭61−155909号公報及び特開昭63−233312号公報に開示された距離測定装置及び距離測定方法では、放射位置を異ならせて光を順次照射し、それぞれの反射光を測定する必要があるため、測定に時間差が生じる。そのため、動きのある被写体の場合、距離を測定することができないという問題が生じる。また光源の位置を変えて照射する間に、撮影装置のぶれにより、測定誤差が生じる可能性がある。
【0008】
また、波長特性の異なる光の場合、同時に照射し、反射光を照射光の波長特性に合わせたフィルターを用いて、分光し、反射光強度を測定することができる。しかし、物体の分光反射率が異なる場合、照射光の波長の違いから反射光強度に違いが生じるため、反射光強度の比から奥行き距離を計算する際の誤差要因となり、正確な奥行き距離が計算できないという問題が生じていた。
【0009】
特開昭62−46207号公報に開示された距離検出装置では、位相差を検出するための精度の高い位相検出器が必要となり、装置が高価になり、簡便性に欠ける。また、被写体の点からの反射光の位相を測定するため、被写体全体の奥行き分布を測定することはできない。
【0010】
また、河北他「三次元撮像装置Axi-Vision Cameraの開発」(3次元画像コンファレンス99、1999年)に開示された強度変調を用いた距離測定手法は、非常に高速に光変調や光シャッター操作を行う必要があり、測定装置は大型で高価になり、簡便に測定することができないという問題がある。
【0011】
そこで本発明は、上記の課題を解決することのできる画像撮像装置及び距離測定装置を提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0012】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の形態においては、被写体の奥行きに関する情報を取得する画像撮像装置であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射する照射部と、照射部により第1及び第2の照射光が照射された被写体からの出射光に基づいて、被写体までの奥行き距離を算出する奥行き算出部とを備えたことを特徴とする。
【0013】
照射部は、第1及び第2の照射光を同時に照射してもよい。照射部により第1及び第2の照射光が照射された被写体から得られる出射光を結像する光学結像部と、被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2の波長を有する第2の出射光と、第3の波長を有する第3の出射光とを光学的に分離する分光部と、分光部によって分離され、光学結像部が結像する第1、第2及び第3の出射光を受光する受光部と、受光部が受光する第1、第2及び第3の出射光の強度を検出する光強度検出部とをさらに備え、奥行き算出部は、第1、第2及び第3の出射光の強度を用いて、被写体までの奥行き距離を算出してもよい。
【0014】
受光部は、3板の固体撮像素子を有し、分光部は、光路分割手段を用いて第1、第2及び第3の出射光を分離し、それぞれを3板の固体撮像素子のいずれか1つに受光させてもよい。受光部は、固体撮像素子を有し、分光部は、第1の波長の光を透過する第1の光学フィルターと、第2の波長の光を透過する第2の光学フィルターと、第3の波長の光を透過する第3の光学フィルターとを有し、第1、第2及び第3の光学フィルターが固体撮像素子の受光面に交互に配置させてもよい。
【0015】
照射部は、所定の第1の境界波長より短い波長領域の光を透過する第1の光学フィルターと、所定の第2の境界波長より長い波長領域の光を透過する第2の光学フィルターを有し、第1の光学フィルターを透過する第1の照射光と、第2の光学フィルターを透過する第2の照射光とを、光学的に異なる放射位置から被写体に照射し、分光部は、第1及び第2の境界波長の短い方よりも短い第1の波長の光を透過する第1の光学フィルターと、第1及び第2の境界波長の長い方よりも長い第2及び第3の波長の光をそれぞれ透過する第2及び第3の光学フィルターとを有し、被写体から得られる出射光を第1の光学フィルターに透過させることにより、第1の波長を有する第1の出射光を分離し、出射光をそれぞれ第2及び第3の光学フィルターに透過させることにより、第2の波長を有する第2の出射光及び第3の波長を有する第3の出射光を分離させてもよい。
【0016】
奥行き算出部は、第2及び第3の出射光の強度に基づく値と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出部は、第2及び第3の出射光の強度に基づいて、第1の波長を有する光を第2の照射光の放射位置から照射したと仮定した場合の被写体からの仮の出射光の強度を求め、第1の出射光の強度と仮の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出部は、第2の出射光と第3の出射光の平均強度と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。
【0017】
本発明の第2の形態においては、被写体の奥行きに関する情報を取得する画像撮像装置であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射する照射部と、照射部により第1及び第2の照射光が照射された被写体からの出射光に基づいて、被写体までの奥行き距離を算出する奥行き算出部とを備えたことを特徴とする。
【0018】
照射部は、第1及び第2の照射光を同時に照射してもよい。照射部は、第1の波長を主要な波長成分とする第1の照射光と、第1の波長より短い第2の波長、及び第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射し、照射部により第1及び第2の照射光が照射された被写体からの出射光を結像する光学結像部と、被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2及び第3の波長を有する第2の出射光とを光学的に分離する分光部と、分光部によって分離され、光学結像部が結像する第1の出射光及び第2の出射光を受光する受光部と、受光部が受光する第1及び第2の出射光の強度を検出する光強度検出部とをさらに備え、奥行き算出部は、第1及び第2の出射光の強度を用いて、被写体までの奥行き距離を算出してもよい。
【0019】
受光部は、2板の固体撮像素子を有し、分光部は、光路分割手段を用いて、第1の出射光と第2の出射光の光路を光学的に分岐させ、それぞれ2板の固体撮像素子のいずれか1つに受光させてもよい。受光部は、固体撮像素子を有し、分光部は、第1の波長の光を透過する第1の光学フィルターと、第2及び第3の波長の光を透過する第2の光学フィルターとを有し、第1の光学フィルターと第2の光学フィルターとが固体撮像素子の受光面に交互に配置されてもよい。
【0020】
奥行き算出部は、第1の出射光の強度と第2の出射光の強度の半分の値との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0021】
上記の第1及び第2の形態において、照射部が被写体に第1及び第2の照射光を照射するときの光軸と、結像部が被写体からの出射光を撮像するときの光軸とが略同一であってもよい。光強度検出部は、受光部に撮像された被写体の画像の各画素において第1及び第2の出射光の強度を検出し、奥行き算出部は、画素の各々に対応する被写体の領域までの奥行きを各々求めることにより、被写体の奥行き分布を算出してもよい。
【0022】
上記の第1及び第2の形態において、第1及び第2の照射光は赤外線領域の光であり、分光部は、被写体から得られる出射光から可視光を光学的に分離する手段をさらに備え、受光部は、分光部により光学的に分離され、光学結像部が結像する可視光を受光する可視光用の固体撮像素子をさらに備え、奥行き算出部が算出する被写体の奥行き分布とともに可視光用の固体撮像素子に撮像された被写体の画像を記録する記録部をさらに備えてもよい。
【0023】
上記の第1及び第2の形態において、光強度検出部が検出する被写体からの出射光の強度、及び奥行き算出部が算出する被写体までの奥行き距離の少なくとも1つに基づいて、照射部が照射する第1及び第2の照射光の発光時間、強度、放射位置、及び受光部の露光時間の少なくとも1つを制御する制御部をさらに備えてもよい。
【0024】
本発明の第3の形態においては、被写体の奥行きに関する情報を取得する距離測定方法であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する照射段階と、第1及び第2の照射光が照射された被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2の波長を有する第2の出射光と、第3の波長を有する第3の出射光とを光学的に分離する分光段階と、分離された第1、第2及び第3の出射光を撮像する撮像段階と、撮像された第1、第2及び第3の出射光の強度を検出する光強度検出段階と、第1、第2及び第3の出射光の強度を用いて、被写体までの奥行き距離を算出する奥行き算出段階とを備えたことを特徴とする。
【0025】
奥行き算出段階は、第2及び第3の出射光の強度に基づく値と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出段階は、第2及び第3の出射光の強度に基づいて、第1の波長を有する光を第2の照射光の放射位置から照射したと仮定した場合の被写体からの仮の出射光の強度を求め、第1の出射光の強度と仮の出射光の強度の比に基づいて、被写体までの奥行き距離を算出してもよい。奥行き算出段階は、第2の出射光と第3の出射光の平均強度と、第1の出射光の強度との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0026】
本発明の第4の形態においては、被写体の奥行きに関する情報を取得する距離測定方法であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長より短い第2の波長、及び第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する照射段階と、第1及び第2の照射光が照射された被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2及び第3の波長を有する第2の出射光とを光学的に分離する分光段階と、分離された第1の出射光及び第2の出射光を撮像する撮像段階と、受光された第1の出射光及び第2の出射光の強度をそれぞれ検出する光強度検出段階と、第1の出射光の強度と第2の出射光の強度を用いて、被写体までの奥行き距離を算出する奥行き算出段階とを備えたことを特徴とする。
【0027】
奥行き算出段階は、第1の出射光の強度と第2の出射光の強度の半分の値との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0028】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0029】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0030】
(実施形態1)
本発明の第1の実施形態を説明する。最初に、被写体からの反射光の強度から被写体までの奥行き距離を測定する基本原理について説明する。図1は、本発明の原理説明図である。光源6、8はそれぞれ放射光強度I、Iを有する同一波長特性の点光源である。光源6、8はそれぞれ物体2から距離R、Rの位置にあり、光源6、8の放射位置の間隔はLである。光源6を発光させ、照射された物体2からの反射光をカメラ5によって撮影する。次に光源8を発光させ、照射された物体2からの反射光をカメラ5によって撮影する。
【0031】
光源6から放射された光は全方位に放射される。光源6を中心とする半径rの球を考えると、光の半径rの球面上の単位面積当たりの光密度は、
【0032】
/(4πr
で与えられる。したがって、光源6から距離Rだけ離れた位置に存在する物体2の領域4からの反射光強度Wは、物体2の表面反射率をRfとすると、
【0033】
=Rf・I/(4πR
で与えられる。同様にして、光源8から距離Rだけ離れた位置に存在する物体2の領域4からの反射光強度Wは、
【0034】
=Rf・I/(4πR
で与えられる。
【0035】
光源6による反射光強度Wと光源8による反射光強度Wの比Wは、
=W/W=(I・R )/(I・R
と求められる。これと、R−R=Lの関係から、光源6と光源8の放射位置間隔Lが既知であれば、反射光強度比Wを測定して、距離Rを式
【0036】
=L/{(W・I/I1/2−1}
により求めることができる。
【0037】
このように、同色の光源を用いれば、反射光強度比Wを求める過程で、表面反射率Rfの影響がキャンセルされるため、被写体の奥行き距離に関する情報を取得することができる。この方法では、光源6と光源8を順に発光し、撮像するため、撮影に時間差が生じる。したがって動きのある被写体には適用することができない。そこで光源6と光源8の波長特性を異ならせ、光源6と光源8を同時に発光し、被写体からの反射光から光源6による反射光と光源8による反射光を波長分離して、それぞれの反射光の強度を測定する方法が考えられる。物体2の表面反射率は一般に波長によって異なる。波長λの光を照射した場合の表面反射率をRf(λ)とする。光源6の波長をλ、光源8の波長をλとすると、光源6による反射光強度Wは、
【0038】
=Rf(λ)・I/(4πR
で与えられる。一方、光源8による反射光強度Wは、
【0039】
=Rf(λ)・I/(4πR
で与えられる。
【0040】
波長による表面反射率の違いがあるため、反射光強度比Wを求めても、表面反射率Rfの項がキャンセルされないため、被写体の奥行き距離に関する情報を取得することができない。波長λとλの差を微小にして、表面反射率Rf(λ)とRf(λ)の違いを無視して、反射光強度比Wを求め、被写体の奥行き距離を算出することもできるが、計算に誤差が生じる。表面反射率Rf(λ)とRf(λ)の違いによる計算誤差を小さくするためには、波長λとλの差を十分に小さくしなければならないが、波長λとλの差を小さくすると、波長分離の精度が悪くなり、波長毎の強度測定に誤差が含まれることになる。したがって、波長分離の分解能を上げて強度測定の精度を上げるためには、波長λとλの差を大きくしなければならないし、表面反射率Rf(λ)とRf(λ)の違いを小さくして、距離測定の精度を上げるためには、波長λとλの差を小さくしなければならないというジレンマに陥り、距離測定の精度を改善することに自ずと限界が生じる。
【0041】
そこで、本実施形態では、第1の波長特性を有する光と、第1の波長特性とは異なる第2の波長特性を有する光を光学的に異なる放射位置から同時に被写体に照射し、第1の波長特性を有する光による反射光と、第2の波長特性を有する光による反射光とを光学的に分離し、第2の波長特性の反射光を用いて、仮に第1の波長特性を有する光を第2の波長特性の光の放射位置から照射した場合に、被写体から得られるであろう仮の反射光強度を求め、第1の波長特性の反射光強度と、仮の反射光強度との比に基づいて、被写体の奥行き距離を算出する。仮の反射光強度を求めることにより、波長による表面反射率の違いをキャンセルすることができるため、奥行き距離を正確に求めることができる。
【0042】
図2は、本実施形態の画像撮像装置200の構成図である。画像撮像装置200として、デジタルスチルカメラや静止画像を撮影できるデジタルビデオカメラ等が考えられる。画像撮像装置200は、照射部100と、撮像部120と、処理部60と、制御部80とを有する。
【0043】
照射部100は被写体に光を照射し、撮像部120は照射部100が照射した被写体を撮像する。処理部60は撮像部120が撮像した被写体の画像を処理して、撮像された被写体の奥行き距離を求め、被写体の奥行き分布情報として記録する。処理部60はまた、撮像部120が撮像した被写体の画像を記録することもできる。制御部80は、処理部60が求めた被写体の奥行き距離に基づいてフィードバック制御を行い、照射部100が照射する光の強度、発光のタイミング、発光時間、放射位置等を制御し、撮像部120の露光時間等を制御する。
【0044】
照射部100は、光源10A、10Bと、光学フィルター12A、12Bとを有する。光源10A、10Bは異なる位置に設置され、光源10A、10Bからの光は、それぞれ特定の波長成分を透過する光学フィルター12A、12Bを透過し、被写体に同時に照射される。照射部100は、光量を効率的に利用したい場合や、光源10A、10Bの放射位置の差を光学的に大きくしたい場合には、コンデンサーレンズ等の光学レンズを照射光の光路に挿入して、光を集光させたり、レンズ効果により照射光の光学的な放射位置を変更させてもよい。
【0045】
撮像部120は、光学結像部の一例としての光学レンズ20と、分光部30と、受光部40とを有する。光学レンズ20は、被写体からの反射光を結像する。分光部30は、被写体からの反射光を、照射部100が照射した波長特性に合わせて波長分離する。受光部40は、光学レンズ20が結像し、分光部30によって波長分離された反射光を受光する。
【0046】
受光部40は、一例として固体撮像素子である。被写体像は固体撮像素子の受光面上に結像される。結像された被写体像の光量に応じ、固体撮像素子の各センサエレメントに電荷が蓄積され、蓄積された電荷は、一定の順序に走査され、電気信号として読み出される。
【0047】
固体撮像素子は、被写体からの反射光の強度を、画素単位に高い精度で検出可能なように、S/N比が良く、画素数が大きい電荷結合素子(CCD)イメージセンサであることが望ましい。固体撮像素子としてCCD以外に、MOSイメージセンサ、CdS−Se密着型イメージセンサ、a−Si(アモルファスシリコン)密着型イメージセンサ、又はバイポーラ密着型イメージセンサのいずれかを用いてもよい。
【0048】
処理部60は、画像メモリ62と、光強度検出部64と、奥行き算出部66と、画像補正部67と、記録部68とを有する。画像メモリ62は、撮像部120が撮像した被写体の画像を、照射部100が照射した照射光の波長特性に合わせて格納する。光強度検出部64が画像メモリ62に格納された被写体の画像から反射光の強度を画素単位または画素領域単位で検出する。奥行き算出部66は、光強度検出部64が検出した反射光強度に基づいて、各画素領域に写された被写体の領域までの奥行き距離を算出する。記録部68は奥行き算出部66が算出した被写体の奥行き距離の分布を記録する。画像補正部67は、画像メモリ62に格納された被写体の画像について、階調補正、ホワイトバランス等の補正を行う。記録部68は画像補正部67が処理した被写体の画像を記録する。また、光強度検出部64及び奥行き算出部66はそれぞれ、被写体からの反射光の検出レベル及び被写体の奥行き分布の情報を制御部80に出力する。記録部68は、フラッシュメモリ、メモリカード等の半導体メモリに画像データ及び奥行き分布情報を記録する。
【0049】
制御部80は、処理部60が求めた被写体の奥行き距離に基づいてフィードバック制御を行い、照射部100が照射する光の強度、発光のタイミング、光の放射位置等を制御し、撮像部120の受光部40の受光感度や露光時間等を制御する。制御部80は、図示しない測光センサの測光データや、測距センサの測距データを用いて、照射部100と撮像部120を制御してもよい。また、制御部80は、処理部60が求めた被写体の奥行き距離に基づいて、被写体の画像を撮影するときの撮像部120のフォーカス、絞り、露光時間等を調整してもよい。
【0050】
図3は、本実施形態の照射部100と撮像部120の構成図である。光源10A、10Bはそれぞれ物体2から距離R1、R2の位置にあり、光源10A、10Bの放射位置間隔はLである。光学フィルター12Aは主に波長λの光を透過し、光学フィルター12Bは主に波長λ、λを有する光を透過する。照射部100は、光源10Aの位置から波長λの光を、光源10Bの位置から波長λ及びλを有する光を同時に物体2に照射する。
【0051】
光源10A、10Bからの光が照射された物体2からの反射光を撮像部120の光学レンズ20が結像する。分光部30は、波長λ、λ、λの3つの光に波長分離して光路を分割するプリズムである。受光部40A、40B、及び40Cは3板の固体撮像素子である。分光部30によって、分光された波長λ、λ、λを有する光はそれぞれ受光部40A、40B、40Cに受光される。各受光部40A、40B、40Cに受光された光は、光電効果により電荷として読み出され、図示しないA/D変換器によりデジタル電気信号に変換され、処理部60に入力される。
【0052】
図4は、本実施形態の処理部60の構成図である。各受光部40A、40B、40Cが出力する被写体像は、それぞれ画像メモリ62A、62B、62Cに格納される。光強度検出部64は各画像メモリ62A、62B、62Cに格納された画像データを用いて、波長λ、λ、λの反射光の強度を検出する。奥行き算出部66は、光強度検出部64が検出した波長λ、λ、λの反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。
【0053】
光強度検出部64は、検出した波長λ、λ、λの反射光の強度を制御部80へ出力する。奥行き算出部66は、被写体の奥行き分布情報を制御部80へ出力する。制御部80は、強度レベルが適正でない場合や奥行き距離の測定精度が良くない場合、光源10Aまたは10Bの放射光強度を調整するか、または光源10Aと10Bの放射位置間隔を調整する。制御部80は、光源10A、10Bの放射光強度比をあらかじめいくつか容易しておき、被写体の奥行き距離によって、放射光強度比を選択してもよい。たとえば、被写体が近距離にある場合には、放射光強度比を1に近い値に設定し、被写体が遠距離にある場合に、被写体から遠い位置にある光源10Bの放射光強度が大きくなるように、放射光強度比を設定してもよい。
【0054】
図5は、光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。光強度検出部64は、波長λの反射光の強度W、波長λの反射光のW、波長λの反射光のWをそれぞれ検出する。光源10A、10Bの強度をそれぞれI、Iとし、物体2の波長λにおける表面反射率をRf(λ)とすると、波長λの反射光の強度Wは、
【0055】
=Rf(λ)・I/(4πR
と表され、波長λの反射光の強度W、波長λの反射光の強度Wは、
=Rf(λ)・I/(4πR
=Rf(λ)・I/(4πR
と表される。
【0056】
奥行き算出部66は、波長λの反射光の強度W、及び波長λの反射光の強度Wを用いて、波長λを有する放射光強度Iの光を光源10Bの放射位置から照射したと仮定した場合に、被写体から得られる仮の反射光の強度Wを求める。求められたWの値は、理想的には
【0057】
=Rf(λ)・I/(4πR
である。したがって、波長λを有する光源10Aからの光による反射光の強度Wと、同じ波長λを有する光源10Bからの光による仮の反射光の強度Wとの比を求めると、表面反射率Rf(λ)の項がキャンセルされ、
【0058】
/W=(I・R )/(I・R
が得られ、これとR−R=Lより、被写体の奥行き距離Rを算出することができる。
【0059】
波長λの反射光の強度W、及び波長λの反射光の強度Wを用いて、仮の反射光の強度Wを求める方法には、いくつもの変形がありうる。図6は、補間によって仮の反射光の強度を求める方法の説明図である。波長λの反射光の強度W、及び波長λの反射光の強度Wを補間することにより、波長λの場合の仮の強度Wを求める。線形補間して仮の強度Wを求めてもよく、また単純に波長λの反射光の強度W、及び波長λの反射光の強度Wの中間値を仮の強度Wとしてもよい。
【0060】
図7は、外挿によって仮の反射光の強度を求める方法の説明図である。波長λの反射光の強度W、及び波長λの反射光の強度Wを外挿し、波長λより短い波長λの場合の仮の強度Wを求める。
【0061】
さらに次の変形例がある。図8は、光源10A、10Bによるそれぞれの反射光から仮の反射光強度を求める方法を説明する図である。照射部100は、光源10Aから波長λ1及びλ2を有する照射光を、光源10Bから波長λ3及びλ4を有する照射光を同時に照射し、撮像部120は、被写体から得られる反射光を、光源10Aからの波長λ1、λ2を有するそれぞれの反射光と、光源10Bからの波長λ3、λ4を有するそれぞれの反射光とに分離する。光強度検出部64は、光源10Aからの波長λ1、λ2の反射光の強度を求め、奥行き算出部66は、光源10Aの位置から、同一強度で波長λ5の光を照射したと仮定した場合の反射光強度Wを算出する。また、光強度検出部64は、光源10Bからの波長λ3、λ4の反射光の強度を求め、奥行き算出部66は、光源10Bの位置から、同一強度で波長λ5の光を照射したと仮定した場合の反射光強度WDを算出する。奥行き算出部66は仮の反射光強度WとWDの比を求め、被写体の奥行き距離を算出することができる。
【0062】
さらに次の変形例がある。図9(a)〜(d)は、長波長または短波長の光のみを透過させるバンドパスフィルターを用いて照射した場合の仮の反射光強度を求める方法を説明する図である。光源10Aの光学フィルター12Aは、第1の境界波長λよりも長い波長の光のみを透過させるバンドパスフィルターであり、光源10Aからの放射光は光学フィルター12Aを透過し、図9(a)に示した波長特性を有する光として被写体に照射される。光源10Bの光学フィルター12Bは、第2の境界波長λよりも短い波長の光のみを透過させるバンドパスフィルターであり、光源10Bからの放射光は光学フィルター12Bを透過し、図9(b)に示した波長特性を有する光として被写体に照射される。第1の境界波長λは第2の境界波長λより短い波長であってもよい。すなわち光学フィルター12A、12Bが透過させる光の波長特性は、第1の境界波長λから第2の境界波長λまでの波長領域に重なりを有してもよい。したがって、第1の境界波長λが第2の境界波長λより短い場合、光源10A、10Bからの照射光の波長特性は、第1の境界波長λから第2の境界波長λまでの波長領域に重なりを有する。
【0063】
分光部30は、波長λ、λ、λの光をそれぞれ透過する光学フィルターを有し、被写体から得られる反射光を波長分離し、波長λ、λ、λを有する反射光を受光部40に受光させる。光源10Aによる反射光は、分光部30を通過する前は、図9(a)の波長特性を有するが、光学フィルターによって図9(c)のように、波長λの成分だけが取り出される。光源10Bによる反射光についても同様であり、分光部30を通過する前は、図9(b)の波長特性を有するが、光学フィルターによって図9(d)にように、波長λ、λの成分だけがそれぞれ取り出される。ここで、波長λは、第1の境界波長λと第2の境界波長λのどちらか長い方よりも長い波長であり、波長λ、λは、第1の境界波長λと第2の境界波長λのどちらか短い方よりも短い波長であることが必要である。なぜなら、分離された波長λを有する反射光には、光源10Bの照射光による干渉が含まれてはならないし、分離された波長λ、λを有するそれぞれの反射光には、光源10Aの照射光による干渉が含まれてはならないからである。波長λを有する反射光の強度Wを検出し、波長λ、波長λをそれぞれ有する反射光の強度を外挿して、波長λの成分が含まれていたと仮定した場合の仮の反射光強度Wを求める。反射光強度比W/Wから被写体の奥行き距離を求める過程は既に述べた通りである。
【0064】
上記のいずれの方法においても、仮の反射光強度を補間、外挿、平均などの処理によって正確に求めることができるように、波長λと波長λは線形補間または線形の外挿が可能な範囲で近接した値に設定することがより好ましい。図10は、3種の物体の表面反射率を示す図である。グラフの横軸は波長、縦軸は反射率である。グラフ302、304、306は、それぞれ人間の肌、道、木の葉の3種の物体の表面反射率を分光計で測定した結果である。630nm、650nm、670nmの波長に対する各グラフ上の点をマークした。630nm、650nm、670nmの波長領域では、いずれの物体でも線形補間が可能である。また、同波長領域の光源は入手しやすい。波長λ、λ、λとして、このような線形補間が可能で、光源としても入手しやすい波長領域の値を選択することができる。また、受光部40の固体撮像素子の出力信号に対して、通常のデジタルカメラ等で行われる階調補正等の画像補正処理を行うと、信号の線形性が失われる。そこで固体撮像素子への入射光強度に対して線形性を有する信号強度の段階で、強度を検出し、補間、外挿、平均等の処理をすることが好ましい。あるいは、階調補正等の画像補正処理による信号変換関数の逆関数を表すテーブルを用意しておき、画像補正後の信号出力を一旦逆関数のテーブルを参照して、固体撮像素子への入射光強度に対して線形性を有する信号強度に変換してから、強度を検出し、補間、外挿、平均等の処理を行うようにしてもよい。
【0065】
さらに、上記の説明では分光部30として、波長分離して光路を分割する光学分割素子、たとえばプリズム、ビームスプリッターを用いたが、分光部30として、受光部40の受光面に配置した光学フィルターを用いてもよい。図11は、受光部40に設けられる特定波長成分を透過する光学フィルターを説明する図である。受光部40として単板の固体撮像素子を用い、固体撮像素子の受光面に、光学フィルター32を設ける。光学フィルター32は、波長λ、λ、λのみをそれぞれ透過させるフィルターが交互に配置される。これにより、固体撮像素子の画素によって波長λ、λ、λのいずれの光を受光したものであるかがわかり、波長λ、λ、λを有する光を波長分離して受光することができる。プリズムやビームスプリッターを用いる場合と比べて、単板の固体撮像素子に受光させるため、装置を小型化することができる。
【0066】
上記の実施形態の説明において、照射される光の波長によって表面反射率の違いが大きい被写体を対象にする場合、波長λ、λ、λは仮の反射光強度の算出に誤差が生じないように、できるだけ近接していることが望ましい。一方で、各波長成分の反射光の強度の検出精度を上げるためには、波長λ、λ、λの以外の波長成分ができるだけ含まれないようにするか、波長λ、λ、λの値を互いに離れた値にして、波長λ、λ、λの分解能を上げ、波長の干渉をできるだけ少なくすることが望ましい。したがって、被写体の表面反射率の特性や要求される測定精度に応じて、照射部100の光源10の波長特性、光学フィルター12の波長透過特性、撮像部120の分光部30の波長透過特性を設計することが好ましい。
【0067】
図12は、本実施形態の距離測定方法のフローチャートである。照射部100は、波長λを主要な波長成分とする第1の照射光と、波長λとは異なる波長λ及び波長λを主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する(S100)。
【0068】
撮像部120の光学レンズ20は、第1及び第2の照射光が照射された被写体からの反射光を結像する(S102)。分光部30は、被写体からの反射光から、波長λを有する第1の反射光と、波長λを有する第2の反射光と、波長λを有する第3の反射光とを光学的に分離する(S104)。
【0069】
受光部40は、分離された第1、第2、第3の反射光を受光する(S106)。処理部60の光強度検出部64は、第1、第2、第3の反射光の強度W、W、Wを検出する(S108)。
【0070】
奥行き算出部66は、第1、第2、第3の反射光の強度W、W、Wを用いて、被写体までの奥行き距離を算出する(S110)。
【0071】
図13は、奥行き距離算出処理S110のフローチャートである。第2及び第3の反射光の強度W、Wに基づいて、波長λで強度がI2の光が第2の照射光の放射位置から照射されたと仮定した場合の被写体からの仮の反射光の強度Wを求める(S112)。仮の反射光の強度Wは、第2及び第3の反射光の強度W及びWを補間または外挿することにより求める。第1の反射光の強度Wと仮の反射光の強度Wの比W/Wを求める(S114)。第1、第2の照射光の強度I、I、第1、第2の照射光の放射位置間隔L、反射光強度比W/Wに基づいて、被写体までの距離を算出する(S116)。
【0072】
図14は、奥行き距離算出処理S110の変形例のフローチャートである。第2及び第3の反射光の強度W、Wの平均値W=(W+W)/2を求める(S118)。第1の反射光の強度Wと、第2及び第3の反射光の平均強度Wの比W/Wを求める(S120)。第1、第2の照射光の強度I、I、第1、第2の照射光の放射位置間隔L、反射光強度比W/Wに基づいて、被写体までの距離を算出する(S122)。
【0073】
以上述べたように、本実施形態の画像撮像装置によれば、異なる波長特性を有する光を光学的に異なる放射位置から同時に被写体に照射し、被写体から得られる反射光から波長特性に合わせて波長分離し、波長分離された反射光の強度を用いて、被写体までの奥行き距離を簡便に求めることができる。
【0074】
また、被写体からの反射光による像を固体撮像素子に撮像し、画像データとして格納するため、画素または画素領域単位で反射光強度を検出して奥行き距離を算出することができ、撮像された被写体の領域の奥行き分布を得ることができる。したがって、被写体の2次元画像から被写体の奥行き分布を獲得して、被写体の3次元立体画像を作成することが可能である。
【0075】
(実施形態2)
本発明の第2の実施形態を説明する。本実施形態の画像撮像装置は、第1の実施形態の画像撮像装置と比較して、照射部100と撮像部120の一部の構成が異なるだけであるから、同一の構成要素については説明を省略し、異なる構成要素についてのみ説明する。図15は、本実施形態の照射部100と撮像部120の構成図である。本実施形態では、照射部100の光学フィルター12Aは主に波長λの光を透過し、光学フィルター12Bは、主に波長λより短い波長λと、波長λより長い波長λを有する光を透過する。照射部100は、光源10Aの位置から波長λの光と、光源10Bの位置から波長λ及びλを有する光を同時に物体2に照射する。
【0076】
撮像部120の分光部30は、波長λを有する光と、波長λ及びλを有する光とに波長分離して光路を分割するプリズムである。受光部40A及び40Bは2板の固体撮像素子である。分光部30によって、分光された波長λを有する光は、受光部40Aに、波長λ及びλを有する光は受光部40Bにそれぞれ受光される。受光部40A、40Bに受光された光は、電気信号に変換され、処理部60に入力される。
【0077】
図16は、本実施形態の処理部60の構成図である。各受光部40A、40Bが出力する被写体像は、それぞれ画像メモリ62A、62Bに格納される。光強度検出部64は各画像メモリ62A、62Bに格納された画像データを用いて、波長λを有する反射光、波長λとλを有する反射光の強度を検出する。奥行き算出部66は、光強度検出部64が検出した波長λの反射光の強度、波長λ及びλの反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。
【0078】
図17は、光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。光強度検出部64は、波長λの反射光の強度W、波長λとλを有する反射光の強度Wをそれぞれ検出する。光源10A、10Bの強度をそれぞれI、Iとし、物体2の波長λにおける表面反射率をRf(λ)とすると、波長λの反射光の強度Wは、
【0079】
=Rf(λ)・I/(4πR
と表され、波長λとλを有する反射光の強度Wは、
E=Rf(λ)・I/(4πR
+Rf(λ)・I/(4πR
と表される。
【0080】
奥行き算出部66は、波長λと波長λを有する反射光の強度Wの半分の値をWとする。波長λは、波長λと波長λの中間の値であるから、Wの値は、波長λを有する放射光強度Iの光を光源10Bの放射位置から照射したと仮定した場合に、被写体から得られる仮の反射光の強度にほぼ等しい。得られたWの値は、理想的には
【0081】
=Rf(λ)・I/(4πR
である。したがって、波長λを有する光源10Aからの光による反射光の強度Wと、同じ波長λを有する光源10Bからの光による仮の反射光の強度Wとの比を求めると、表面反射率Rf(λ)の項がキャンセルされ、
【0082】
/W=(I・R )/(I・R
が得られ、これとR−R=Lより、被写体の奥行き距離Rを算出することができる。
【0083】
仮の反射光強度Wが正確に得られるように、波長λは、波長λ、λの中間の波長であることがより好ましい。上記の説明では、分光部30は、波長λを有する光と、波長λ及びλを有する光とに波長分離したが、フィルタリングの方法として、波長λ、λを選択的に透過する必要は必ずしもなく、波長λをカットするバンドカットフィルターを用いても同じ効果を奏する。図18(a)〜(d)は、バンドカットフィルターを用いて反射光を分離する方法を説明する図である。図18(a)のように、光源10Aからの照射光は、波長λを主要な波長成分とする波長特性を有する。図18(b)のように、光源10Bからの照射光は、波長λを間に挟む波長λ、λを主要な波長成分とする波長特性を有する。分光部30は、図18(c)に示すような、主に波長λだけを透過するバンドパスフィルターと、図18(d)に示すような、主に波長λの波長成分をカットするバンドカットフィルターとを有し、被写体からの反射光をバンドパスフィルターに透過させることにより、波長λを有する反射光を分離し、被写体からの反射光をバンドカットフィルターに透過させることにより、波長λと波長λを有する反射光を分離する。波長λと波長λを有する反射光の強度の半分の値と、波長λを有する反射光の強度の比に基づいて、被写体の奥行き値を求める方法は上述の通りである。
【0084】
図19は、本実施形態の距離測定方法のフローチャートである。照射部100は、波長λを主要な波長成分とする第1の照射光と、波長λより短い波長λと、波長λより長い波長λを主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する(S200)。
【0085】
撮像部120の光学レンズ20は、第1及び第2の照射光が照射された被写体からの反射光を結像する(S202)。分光部30は、被写体からの反射光から、波長λを有する第1の反射光と、波長λ及び波長λを有する第2の反射光とを光学的に分離する(S204)。
【0086】
受光部40は、分離された第1、第2の反射光を受光する(S206)。処理部60の光強度検出部64は、第1、第2の反射光の強度W、Wを検出する(S208)。
【0087】
奥行き算出部66は、第1の反射光の強度W、第2の反射光の強度Wの半分の値Wの比W/Wを求め(S212)、第1、第2の照射光の強度I、I、第1、第2の照射光の放射位置間隔L、反射光強度比W/Wに基づいて、被写体までの距離を算出する(S214)。
【0088】
上記の説明では分光部30として、波長分離して光路を分割する光学分割素子、たとえばプリズム、ビームスプリッターを用いたが、分光部30として、第1の実施形態と同様に、受光部40として単板の固体撮像素子を用い、固体撮像素子の受光面に、光学フィルター32を設けてもよい。光学フィルター32は、波長λのみを透過させるフィルターと、波長λ及びλを透過させるフィルターが交互に配置される。プリズムやビームスプリッターを用いる場合と比べて、単板の固体撮像素子に受光させるため、装置を小型化することができる。
【0089】
以上述べたように、本実施形態の画像撮像装置によれば、第1の波長を主要な波長成分とする第1の照射光と、第1の波長を中間に挟む第2、第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射し、被写体から得られる反射光から、第1の波長を有する第1の反射光と、第2及び第3の波長を有する第2の反射光とに分離し、第1の反射光強度と、第2の反射光強度の半分の値との比に基づいて被写体の奥行き距離を算出することができる。第2の反射光強度を半分にするだけで、第1の波長を有する光を第2の照射光の放射位置から照射した場合の仮の反射光強度を求めることができるため、非常に簡便に被写体の奥行き距離を算出することができる。また、被写体からの反射光を受光する固体撮像素子を2板にすることができ、装置の小型化を図ることができる。
【0090】
(実施形態3)
本発明の第3の実施形態を説明する。本実施形態の画像撮像装置は、第1の実施形態の画像撮像装置と比較して、照射部100と撮像部120の一部の構成が異なるだけであるから、同一の構成要素については説明を省略し、異なる構成要素についてのみ説明する。図20は、本実施形態の照射部100と撮像部120の構成図である。本実施形態では、照射部100の光源10A、10Bは赤外光源である。光学フィルター12Aは赤外領域における波長λの光を透過し、光学フィルター12Bは、赤外領域における波長λ及び波長λを有する光を透過する。照射部100は、光源10Aの位置から赤外領域の波長λの光と、光源10Bの位置から赤外領域の波長λ及びλを有する光とを同時に物体2に照射する。物体2にはさらに可視光領域の光、たとえば自然光や照明光が照射されている。
【0091】
撮像部120の分光部30は、赤外領域の波長λを有する光と、赤外領域の波長λ及びλを有する光と、可視光領域の光とに波長分離して光路を分割するプリズムである。受光部40A、40B、及び40Cは3板の固体撮像素子である。分光部30によって、分光された波長λを有する光は、受光部40Aに、波長λ及びλを有する光は受光部40Bに、可視光は受光部40Cにそれぞれ受光される。赤外領域の反射光の撮影像がピンぼけしないように、受光部40A、40Bはピントが合う位置にあらかじめ設定しておく。受光部40A、40B、40Cに受光された光は、電気信号に変換され、処理部60に入力される。
【0092】
図21は、本実施形態の処理部60の構成図である。各受光部40A、40Bが出力する被写体像は、それぞれ画像メモリ62A、62Bに格納される。光強度検出部64は各画像メモリ62A、62Bに格納された画像データを用いて、反射光の強度を検出し、奥行き算出部66は、光強度検出部64が検出した反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。光強度検出部64と奥行き算出部66の動作は、第2の実施形態と同様であるから、説明を省略する。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。さらに、受光部40Cが出力する被写体像は画像メモリ62Cに格納される。画像補正部67は、画像メモリ62に格納された画像データに対して、階調補正等の画像補正を行い、被写体の画像データとして出力し、記録部68は被写体の画像データを被写体の奥行き分布情報とともに記録する。
【0093】
上記では、波長λ及びλを有する反射光を分離せずに、受光部40Bに受光させたが、受光部40として、4板の固体撮像素子を用いて、分光部30によって波長λを有する反射光と波長λを有する反射光とを分離させて、異なる固体撮像素子にそれぞれの反射光を受光させてもよい。その場合、第1の実施形態と同様の方法で、波長λ、λ、λのそれぞれの反射光の強度を用いて、被写体の奥行き距離を求めることができる。
【0094】
以上述べたように、本実施形態の画像撮像装置によれば、被写体の奥行き距離測定には赤外光を用いるため、被写体に自然光や照明光が照射された自然な条件のもとでも、被写体の奥行き距離を測定することができる。したがって、被写体の奥行き距離測定のために、部屋を暗室にする必要がない。また、可視光領域の反射光を分離させて撮像することができるため、被写体の奥行き分布を測定すると同時に、被写体の画像を撮影することができる。撮影された被写体の画像から奥行き分布に基づいて、主要被写体を抽出したり、背景と人物像を分離するなど、被写体の奥行き分布を用いた、被写体の画像処理が可能である。
【0095】
(実施形態4)
本発明の第4の実施形態を説明する。本実施形態の画像撮像装置は、第1、第2、第3の実施形態の画像撮像装置と比較して、照射部100と撮像部120の光軸を同一にするために、ハーフミラー17と18を用いた点だけが異なる。図22は、本実施形態の照射部100と撮像部120の構成図である。第1の実施形態において、ハーフミラー17と18を用いた例を示すが、第2、第3の実施形態においても同様の構成を取ることができる。照射部100の光源10Aと10Bの放射位置は距離Lだけ離れており、光源10Bからの照射光はハーフミラー17に反射し、さらにハーフミラー18に反射して、物体2に照射される。光源10Aからの照射光はハーフミラー17を通過し、ハーフミラー18に反射して、物体2に照射される。被写体からの反射光はハーフミラー18と通過し、撮像部120の光学レンズ20によって結像される。
【0096】
本実施形態では、照射部100と撮像部120の光軸が光学的に同軸であるため、照射部100によって照射された被写体を撮像部120が撮影する際、影になって撮影できない領域が生じることがない。したがって照射された被写体の全領域の奥行き分布を算出することができ、奥行き距離を算出できない死角が生じることはない。また、照射部100と撮像部120の光軸を同軸にすることにより、画像撮像装置200全体を小型化することができる。
【0097】
(実施形態5)
図23は、本発明の実施形態5にかかる原理説明図である。照射位置112及び照射位置114から、それぞれ強度P1,P2の光を物体120に照射し、物体120によるそれぞれの光の反射光をカメラ110で撮像する。カメラ110は、例えば電荷結合素子(CCD)であって、複数の画素を有し、各画素単位で物体120の被測定部122及び砒素区手部の近傍124からの反射光を撮影し、画素毎にそれぞれの強度を検出する。カメラ110で撮像した反射光に基づいて物体120の被測定部122までの距離L、被測定部122の表面の傾きθ及び、被測定部122の表面の反射率RObjを算出する。照射位置(112,114)は、任意の位置に配置されてよい。照射位置(112,114)から物体120に照射される光の照射角のうち、いずれかを算出するが、本例においては、カメラ110を、照射位置(112,114)のいずれか一つと光学的に同じ位置に配置し、カメラ110が撮像する反射光の入射角に基づいて物体120に照射される光の照射角を算出する。本例においては、照射位置112とカメラ110を光学的に同じ位置に配置した場合について説明する。
【0098】
図23に示すように、照射位置114は、照射位置112からL12離れた位置に配置される。距離L12は、計測系固有の既知の値である。また、照射位置(112,114)から物体120の被測定部122に光を照射する角度をそれぞれθ、θとし、照射位置(112,114)から物体120の被測定部の近傍124に光を照射する角度をそれぞれθ’、θ’とする。また、カメラ110は、照射位置112と光学的に同じ位置に配置されているので、被測定部122からの反射光を受光する角度をθ、被測定部の近傍124からの反射光を受光する角度をθ’とした場合、θ=θ、θ’=θ’である。また、照射位置112から被測定部122までの距離をそれぞれL、被測定部の近傍124までの距離をL’とし、照射位置114から被測定部までの距離をL、被測定部の近傍124までの距離をL’とする。
【0099】
照射位置(112,114)から照射された光の、被測定部122からの反射光の強度をそれぞれD、Dとすると、D、Dは次のように与えられる。
【0100】
【数1】

Figure 0004150506
すなわち、
【数2】
Figure 0004150506
となる。
【0101】
また、
【数3】
Figure 0004150506
であるので、
【数4】
Figure 0004150506
となる。また、
【0102】
【数5】
Figure 0004150506
であり、L12、θは既知の値であるので、θはLの関数で与えられる。すなわち、
【0103】
【数6】
Figure 0004150506
となる。よって、
【0104】
【数7】
Figure 0004150506
となる。ここで、D1、D、P、P、θは、計測値又は既知の値であるので、上の式の未知数はθ及びLの2つである。したがって上の条件を満たす(θ、L)の組み合わせを求めることができる。すなわち、被測定部122までの距離Lを仮定した場合、仮定した距離Lに対応する被測定部の面傾きθを算出することができる。また、被測定部の近傍124についても、同様に被測定部の近傍124までの距離L’と被測定部の近傍124の面傾きθ’の組み合わせを求めることができる。
【0105】
本発明は、物体120の被測定部122までの距離Lと被測定部122の面傾きθとの組み合わせと、物体120の被測定部の近傍124までの距離L’と被測定部の近傍124の面傾きθ’との組み合わせに基づいて、被測定部122までの距離L及び面傾きθを算出する。以下、算出方法について詳細に説明する。
【0106】
図24は、被測定部122までの距離L、被測定部122の面傾きθを算出する方法の一例の説明図である。まず、被測定部122までの距離LをLaと仮定する。図23に関連して説明した数式に基づいて、仮定した距離Laに対応する被測定部122の面傾きθを算出する。次に、算出した面傾きθによって定まる被測定部122の面を延長し、被測定部の近傍124からの反射光の光路と交わる点に、被測定部の近傍124が存在すると仮定した場合の被測定部の近傍124までの仮の距離Lbを算出する。このとき被測定部の近傍124までの仮の距離Lbは、カメラ110と被測定部122までの仮の距離La、被測定部122からの反射光の入射角θ、被測定部の近傍124からの反射光の入射角θ’及び、被測定部122の面傾きθに基づいて幾何的に算出することができる。
【0107】
次に、算出した仮の距離Lbに対応する、被測定部の近傍124の面傾きθ’を算出する。面傾きθ’は、図23に関連して説明した数式により算出することができる。物体120の被測定部122と被測定部の近傍124との間隔は、微小であるので、被測定部122と被測定部の近傍124の面傾きはほぼ同一となる。したがって、算出した面傾きθとθ’とを比較することにより、最初に仮定した被測定部122までの距離Laが正しい値であるかを判定することができる。すなわち、面傾きθとθ’との差が所定の範囲内であれば、仮定した距離Laを被測定部122までの距離Lとすることができる。
【0108】
また、面傾きθとθ’との差が所定の範囲内に無い場合は、最初に仮定した距離Laの設定に誤りがあったとして、被測定部122までの距離Lを他の値に設定して同様の計算を行えばよい。図23に関連して説明した数式を満たす、被測定部122までの距離Lが、上限値を有することは明らかであり、下限値は零であるので、仮の距離Laについて、有限の範囲において調べればよい。例えば、有限の範囲の距離Laについて2分探索法によって、被測定部122までの真の距離Lを抽出してよい。また、仮の距離Laについて、有限の範囲で所定の距離間隔でθ、θ’の差を算出し、真の距離Lを抽出してもよい。また、仮の距離Laについて、複数の値についてθ、θ’の差を算出し、差が最小となる仮の距離Laを真の距離Lとしてもよい。また、被測定部の面傾き情報は、被測定部までの距離情報に基づいて、図23に関連して説明した数式によって算出することができる。また、図23に関連して説明した数式によって被測定部の表面反射率情報も算出することができる。
【0109】
図25は、仮の距離Laについての所定の範囲で所定の距離間隔で、面傾きθ及び面傾きθ’を算出した結果の一例を示す。図25のグラフにおいて、横軸は、被測定部122までの仮の距離Laを示し、縦軸は被測定部122及び被測定部の近傍124の面傾きを示す。本例において、物体120の被測定部122までの距離Lを200mm、被測定部122の面傾きを0度とした。また、照射位置112と照射位置114との距離を10mm、θを20度、仮の距離Laの間隔を10mmとして計算を行った。
【0110】
データ192は、横軸に示される仮の距離Laに対応する被測定部122の面傾きを示し、データ194は、被測定部の近傍124の面傾きを示す。仮の距離200mmにおいて、被測定部122及び被測定部の近傍124の面傾きが0度で一致する。
【0111】
(実施形態6)
図26は、物体までの距離情報等を獲得する情報獲得方法の原理説明図である。照射位置212、照射位置214、照射位置216から、それぞれ強度P1,P2,P3の光を物体220に照射し、物体220によるそれぞれの光の反射光をカメラ210で撮像する。カメラ210は、例えば電荷結合素子(CCD)であって、複数の画素を有し、各画素単位で物体220の被照射部224からの反射光を撮影し、画素毎にそれぞれの強度を検出する。カメラ210で撮像した反射光に基づいて物体220の被照射部224までの距離L、被照射部224の表面の傾きθ及び、被照射部224の表面の反射率RObjを算出する。照射位置(212,214,216)及び、カメラ210は、任意の位置に配置されてよいが、本例においては、照射位置212,照射位置216、カメラ210を一直線上に配置した場合について説明する。
【0112】
図26に示すように、照射位置216は、照射位置212からL12離れた位置に、照射位置214は、照射位置212からL23離れた位置に、カメラ210は照射位置212からX離れた位置に配置される。距離L12、L23、Xは、計測系固有の既知の値である。また、照射位置(212,214,216)が、物体220の被照射部224に、光を照射する角度をそれぞれθ、θ、θとし、カメラ210が、被照射部224における反射光を受光する角度をθとする。このうち、θは、カメラ210の画素毎に撮影された反射光に基づいて算出される。また、照射位置(212,214,216)から被照射部224までの距離をそれぞれL、L、Lとする。
【0113】
照射位置(212,214,216)から照射された光の、被照射部224における反射光の強度をそれぞれD、D、Dとすると、D、D、Dは、次のように与えられる。
【0114】
【数8】
Figure 0004150506
すなわち、
【数9】
Figure 0004150506
ただし、f( )は関数とする。また、
【0115】
【数10】
Figure 0004150506
であるので、
【数11】
Figure 0004150506
となる。また、
【0116】
【数12】
Figure 0004150506
であり、X、L12、θは既知の値であるので、θ、θ、θはそれぞれLの関数で与えられる。すなわち、
【0117】
【数13】
Figure 0004150506
となる。よって、
【0118】
【数14】
Figure 0004150506
となる。D、D、D3、θ、P、P、Pは、計測値又は既知の値であるので、上の2式から、未知数θ、Lを求めることができる。また、θが求まれば、D、D、Dのいずれかの式からRobjを求めることができる。以上より、光学的に異なる3点以上の照射位置から照射した光の、物体による反射光をそれぞれ撮像することにより、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出することができる。
【0119】
本例においては、照射位置212、照射位置216、カメラ210を一直線上に配置したが、各要素間の距離がわかっていれば、反射光により、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出できることは明らかである。
【0120】
以上説明した情報獲得方法によれば、物体220の表面の傾き等による誤差を無くし、物体220までの距離情報を獲得することができる。また、物体220の表面の傾き情報、物体220の表面の反射率情報を獲得することができる。
【0121】
ただし、照射位置(212,214,216)が一直線上に配置されている場合は、図26に関連して説明した方法では、物体までの距離情報等を算出することができない。以下、照射位置(212,214,216)が一直線上に配置されている場合において、物体までの距離情報、物体の表面の傾き情報及び、物体表面の反射率情報の獲得方法について説明する。
【0122】
図27は、照射位置が一直線上に配置された場合の、物体までの距離情報等を獲得する情報獲得方法の説明図である。照射位置212、照射位置214、照射位置216から、それぞれ強度P1,P2,P3の光を物体220に照射し、物体220によるそれぞれの光の反射光をカメラ210で撮像する。
【0123】
図27に示すように、照射位置216は、照射位置212からL13離れた位置に、照射位置214は、照射位置212からL12離れた位置に、カメラ210は照射位置212と実質的に同位置に配置される。距離L12、L1 は、計測系固有の既知の値である。また、照射位置(212,214,216)が、物体220の被照射部224に、光を照射する角度をそれぞれθ、θ、θとし、カメラ210が、被照射部224における反射光を受光する角度をθとする。このうち、θは、カメラ210の画素毎に撮影された反射光に基づいて算出される。本例においては、カメラ210が照射位置212と同一の位置に配置されているのでθ=θである。また、照射位置(212,214,216)から被照射部224までの距離をそれぞれL、L、Lとする。
【0124】
照射位置(212,214,216)から照射された光の、被照射部224における反射光の強度をそれぞれD、D、Dとすると、D、D、Dは、次のように与えられる。
【0125】
【数15】
Figure 0004150506
すなわち、
【数16】
Figure 0004150506
である。また、
【0126】
【数17】
Figure 0004150506
であるので、
【数18】
Figure 0004150506
となる。また、
【0127】
【数19】
Figure 0004150506
であり、θはθと等しく、L12、L13、θは既知であるのでθ、θはLの関数で与えられる。すなわち、
【0128】
【数20】
Figure 0004150506
となる。よって、
【0129】
【数21】
Figure 0004150506
となる。D、D、D3、θ、P、P、Pは、計測値又は既知の値であるので、上の2式から、未知数θ、Lを求めることができる。また、θが求まれば、D、D、Dのいずれかの式からRobjを求めることができる。以上より、光学的に一直線上にある3点の照射位置から照射した光の、物体220による反射光を、3点の照射位置のいずれか一つと光学的に同位置でそれぞれ撮像することにより、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出することができる。本例においては、照射位置212とカメラ210の位置を実質的に同一としたが、θ、θ、θのいずれかとθを同一とすればよいので、照射位置214又は照射位置216のいずれかと、カメラ210の位置を実質的に同一としてもよいことは明らかである。
【0130】
図27に関連して説明した情報獲得方法では、カメラ210と照射位置(212,214,216)のいずれかとの光軸が光学的に同軸であるため、照射位置(212,214,216)から照射された物体220をカメラ210が撮像する際、影になって撮像できない領域を少なくすることができる。また、カメラ210と照射位置(212,214,216)のいずれかとの位置が実質的に同じとすることで、カメラ210と照射位置との距離を予め調べる必要が無く、また、カメラ210と照射位置との距離測定における誤差を無くすことができる。
【0131】
図26又は図27に関連して説明した情報獲得方法においては、3点の照射位置から物体220に光を照射したが、他の例においては、3点以上の照射位置から物体220に光を照射してもよい。また、反射光の強度に基づいて、物体220までの距離情報、物体220の表面の傾き情報及び、物体220の表面の反射率情報を算出することが好ましい。また、カメラ210の画素毎に、距離情報、傾き情報及び、反射率情報を算出し、物体220の距離情報、傾き情報及び反射率情報の分布を算出してもよい。
【0132】
また、図26又は図27に関連して説明した情報獲得方法において、3点の照射位置から照射される光は、それぞれ異なる波長を主要な波長成分とし、それぞれの照射位置において、実質的に同時に物体220に光を照射してもよい。このとき、カメラ210は、異なる波長の光をそれぞれ選択的に透過させる波長選択手段を有し、それぞれの照射位置から照射された光により物体220からの反射光をそれぞれ撮像することが好ましい。異なる波長を主要な波長成分とする光を同時に物体220に照射することにより、動きのある物体についても、距離情報、傾き情報及び、反射率情報を精度よく獲得することが可能となる。しかし、物体220の表面の反射率は、光の波長によってことなるので、測定結果に誤差が生じる。誤差を小さくするためには、波長による反射率の違いを補正する必要がある。
【0133】
図28は、波長による物体220の表面の反射率の違いを補正した情報獲得方法の説明図である。一例として図28(a)に示すように、照射位置212から照射された光の波長をλ、照射位置214から照射された光の波長をλ及びλ、照射位置216から照射された光の波長をλ、λとする。また、照射位置212から照射された光の強度をP、照射位置214から照射された光の強度をP、照射位置216から照射された光の強度をPとし、それぞれの波長毎の反射光の強度をWa、、W、W、Wとする。図28(b)に示すように、照射位置214から強度Pで照射された、波長λ、λの光の反射光の強度W、Wに基づいて、照射位置214から強度Pで波長λの光が照射された場合の反射光の強度Wを算出する。本例においては、波長λ、λに基づいて強度Wを算出しているが、他の例においては、さらに多くの波長成分の反射光に基づいて強度Wを算出してもよい。同様に、図28(c)に示すように、照射位置216から強度Pで照射された、波長λ、λの光の反射光の強度W、Wに基づいて、照射位置214から強度Pで波長λの光が照射された場合の反射光の強度Wを算出する。算出された強度W、W、及び検出された強度Wに基づいて物体220までの距離情報、物体220の表面の傾き情報及び、物体220の表面の反射率情報を算出する。上述した情報獲得方法によれば、3点の照射位置において同時に光を照射するので、動きのある物体に対しても、精度良く距離情報、傾き情報、反射率情報を獲得することが可能となる。
【0134】
図29は、本発明に係る情報獲得方法の一例を示すフローチャートである。本実施例における情報獲得方法は、照射段階(S200)、撮像段階(S202)及び、算出段階(S204)を備える。
【0135】
照射段階(S200)は、図26に関連して説明したように、光学的に異なる3点以上の照射位置から、物体220に光を照射する。撮像段階(S202)は、3点以上の照射位置から照射された光による物体からの反射光をそれぞれ撮像する。算出段階(S204)は、撮像段階によって撮像された反射光に基づいて、物体220までの距離情報、物体220の表面の傾き情報、物体220の表面の反射率情報を算出する。
【0136】
照射段階(S200)は、図27に関連して説明した情報獲得手段と同様に、光学的に一直線上にある3点の照射位置から物体220に光を照射し、また、撮像段階(S202)は、3点以上の照射位置のいずれか一つと光学的に同位置で、3点以上の照射位置からの光の反射光をそれぞれ撮像してもよい。
【0137】
また、算出段階(S204)は、図26又は図2に関連して説明したように、反射光の強度に基づいて物体220までの距離情報、物体220の表面の傾き情報、物体220の表面の反射率情報を算出してもよい。また、照射段階(S200)は、光学的に三角形を形成する3点の照射位置から、物体220に光を照射してもよい。
【0138】
また、照射段階(S200)は、図28に関連して説明した情報獲得方法と同様に、それぞれの照射位置において、異なる波長の光を物体220に照射し、それぞれの照射位置において、実質的に同時に物体220に光を照射してもよい。この場合、撮像段階(S202)は、異なる波長の光のそれぞれを選択的に透過させる波長選択手段を有し、それぞれの照射位置における光による物体220からの反射光をそれぞれ撮像することが好ましい。
【0139】
以上述べたように、本発明の画像撮像装置及び距離測定方法によれば、異なる波長特性を有する光を異なる放射位置から同時に被写体に照射し、被写体からの反射光を波長特性に合わせて光学的に分離し、強度を測定することにより、被写体の奥行き距離を簡便に算出することができる。
【0140】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることができる。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0141】
そのような変更例として、上記の説明では、光が照射された被写体から得られる出射光の一例として反射光を撮像し、反射光の強度の違いから被写体までの距離を求めたが、被写体が光を透過する透明もしくは半透明の物体である場合、被写体を透過した透過光の強度の違いから被写体の奥行き距離を求めることもできる。
【0142】
【発明の効果】
上記説明から明らかなように、本発明によれば、光が照射された被写体から得られる出射光を撮影することにより、被写体の奥行き距離を簡便に測定することができる。
【図面の簡単な説明】
【図1】 本発明の原理説明図である。
【図2】 第1の実施形態の画像撮像装置200の構成図である。
【図3】 第1の実施形態の照射部100と撮像部120の構成図である。
【図4】 第1の実施形態の処理部60の構成図である。
【図5】 光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。
【図6】 補間によって仮の反射光の強度を求める方法の説明図である。
【図7】 外挿によって仮の反射光の強度を求める方法の説明図である。
【図8】 光源10A、10Bによるそれぞれの反射光から仮の反射光強度を求める方法を説明する図である。
【図9】 長波長または短波長の光のみを透過させるバンドパスフィルターを用いて照射した場合の仮の反射光強度を求める方法を説明する図である。
【図10】 3種の物体の表面反射率を示す図である。
【図11】 受光部40に設けられる特定波長成分を透過する光学フィルターを説明する図である。
【図12】 第1の実施形態の距離測定方法のフローチャートである。
【図13】 奥行き距離算出処理S110のフローチャートである。
【図14】 奥行き距離算出処理S110の変形例のフローチャートである。
【図15】 第2の実施形態の照射部100と撮像部120の構成図である。
【図16】 第2の実施形態の処理部60の構成図である。
【図17】 光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。
【図18】 バンドカットフィルターを用いて反射光を分離する方法を説明する図である。
【図19】 第2の実施形態の距離測定方法のフローチャートである。
【図20】 第3の実施形態の照射部100と撮像部120の構成図である。
【図21】 第3の実施形態の処理部60の構成図である。
【図22】 第4の実施形態の照射部100と撮像部120の構成図である。
【図23】 本発明実施形態5に係る原理説明図である。
【図24】 被測定部122までの距離L、被測定部122の面傾きθ0を算出する方法の一例の説明図である。
【図25】 仮の距離Laについての所定の範囲で所定の距離間隔で、面傾きθ0及び面傾きθ0’を算出した結果の一例を示す。
【図26】 本発明実施形態5に係る情報獲得方法の原理説明図である。
【図27】 照射位置が一直線上に配置された場合の、情報獲得方法の説明図である。
【図28】 波長による物体20の表面の反射率の違いを補正した情報獲得方法の説明図である。
【図29】 情報獲得方法の一例を示すフローチャートである。
【符号の説明】
10 光源 12 光学フィルター
20 光学レンズ 30 分光部
40 受光部 60 処理部
62 画像メモリ 64 光強度検出部
66 奥行き算出部 67 画像補正部
68 記録部 80 制御部
100 照射部 120 撮像部
200 画像撮像装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image capturing apparatus and a distance measurement method for acquiring information related to the depth distance of a subject. In particular, the present invention relates to an image capturing apparatus and a distance measurement method that captures information on the depth of a subject by photographing emitted light obtained from the subject irradiated with light.
[0002]
[Prior art]
In order to obtain distance information to an object and position information of an object, a method of 3D image measurement is known in which pattern light such as a slit or a stripe pattern is projected onto an object, and the pattern projected on the object is photographed and analyzed. ing. Typical measurement methods include the slit light projection method (also known as the light cutting method), the coded pattern light projection method, and so on.
[0003]
Japanese Patent Laid-Open Nos. 61-155909 (published on July 15, 1986) and Japanese Patent Laid-Open No. 63-23312 (published on September 29, 1988) radiate light from different light source positions onto a subject. A distance measuring device and a distance measuring method for measuring the distance to a subject based on the intensity ratio of the reflected and reflected light from the subject are disclosed.
[0004]
In Japanese Patent Laid-Open No. 62-46207 (publication date: February 28, 1987), a subject is irradiated with two lights having different phases, and the distance to the subject is determined based on the phase difference of reflected light from the subject. A distance detection device for measuring the above is disclosed.
[0005]
Hebei et al., “Development of Axi-Vision Camera 3D Imager” (3D Image Conference 99, 1999) adds high-speed intensity modulation to projected light, and subjects illuminated by intensity-modulated light at high speed. A method is disclosed in which a distance is measured from an intensity modulation degree that varies depending on the distance to a subject, which is taken with a camera having a shutter function.
[0006]
[Problems to be solved by the invention]
The conventional measurement method using the light projection method measures the distance to the subject area onto which the projection pattern is projected, based on the principle of triangulation. Therefore, in order to obtain a high resolution for distance measurement, in principle, it is necessary to dispose the projection optical system and the photographing optical system sufficiently apart from each other, resulting in a problem that an increase in the size of the measuring apparatus cannot be avoided. In addition, since the optical axes of the projection optical system and the photographing optical system are separated from each other, when viewed from the photographing optical system, there is a place where the projected pattern is hidden behind the subject and cannot be observed, and distance information is obtained. There was also a problem that there was no “dead spot”.
[0007]
In the distance measuring apparatus and the distance measuring method disclosed in JP-A-61-155909 and JP-A-63-233312, it is necessary to sequentially irradiate light at different radiation positions and measure each reflected light. Therefore, there is a time difference in measurement. Therefore, in the case of a moving subject, there arises a problem that the distance cannot be measured. Further, there is a possibility that a measurement error may occur due to shaking of the photographing apparatus during irradiation with changing the position of the light source.
[0008]
In the case of light having different wavelength characteristics, it is possible to measure the reflected light intensity by irradiating simultaneously and spectroscopically reflecting the reflected light using a filter that matches the wavelength characteristics of the irradiated light. However, when the spectral reflectance of the object is different, the reflected light intensity varies due to the difference in the wavelength of the irradiating light. There was a problem of being unable to do so.
[0009]
The distance detection device disclosed in Japanese Patent Application Laid-Open No. 62-46207 requires a highly accurate phase detector for detecting a phase difference, which makes the device expensive and lacks simplicity. Further, since the phase of the reflected light from the point of the subject is measured, the depth distribution of the entire subject cannot be measured.
[0010]
In addition, the distance measurement method using intensity modulation disclosed in Hebei et al. “Development of 3D Imager Axi-Vision Camera” (3D Image Conference 99, 1999) uses light modulation and optical shutter operation very quickly. There is a problem that the measuring apparatus becomes large and expensive and cannot be measured easily.
[0011]
Accordingly, an object of the present invention is to provide an image capturing apparatus and a distance measuring apparatus that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problem, in the first embodiment of the present invention, there is provided an image pickup apparatus that acquires information related to the depth of a subject, the first irradiation light having a first wavelength as a main wavelength component, and The irradiation unit that irradiates the subject from the optically different radiation position with the second irradiation light having the second and third wavelengths different from the first wavelength as main wavelength components, and the irradiation unit And a depth calculation unit that calculates a depth distance to the subject based on light emitted from the subject irradiated with the second irradiation light.
[0013]
The irradiating unit may irradiate the first and second irradiation lights at the same time. An optical imaging unit that images emitted light obtained from the subject irradiated with the first and second irradiated light by the irradiating unit, and first emitted light having a first wavelength from the emitted light obtained from the subject. And the second outgoing light having the second wavelength and the third outgoing light having the third wavelength are optically separated, and the optical imaging part is imaged by the spectral part. A light receiving unit that receives the first, second, and third outgoing light, and a light intensity detection unit that detects the intensity of the first, second, and third outgoing light received by the light receiving unit, The calculation unit may calculate the depth distance to the subject using the intensity of the first, second, and third emitted light.
[0014]
The light receiving unit has a three-plate solid-state image sensor, and the spectroscopic unit separates the first, second, and third emitted light using an optical path dividing unit, and each of them is one of the three-plate solid-state image sensor. One light may be received. The light receiving unit includes a solid-state image sensor, and the spectroscopic unit includes a first optical filter that transmits light having a first wavelength, a second optical filter that transmits light having a second wavelength, and a third optical filter. A third optical filter that transmits light of a wavelength, and the first, second, and third optical filters may be alternately arranged on the light receiving surface of the solid-state imaging device.
[0015]
The irradiator has a first optical filter that transmits light in a wavelength region shorter than a predetermined first boundary wavelength, and a second optical filter that transmits light in a wavelength region longer than the predetermined second boundary wavelength. Then, the subject is irradiated with the first irradiation light transmitted through the first optical filter and the second irradiation light transmitted through the second optical filter from an optically different radiation position. A first optical filter that transmits light of a first wavelength shorter than the shorter one of the first and second boundary wavelengths, and a second and third wavelength longer than the longer one of the first and second boundary wavelengths The second and third optical filters that respectively transmit the first light, and the first outgoing light having the first wavelength is separated by transmitting the outgoing light obtained from the subject to the first optical filter. And second and third optical filters for the emitted light, respectively. In by transmitting a third outgoing light may be separated with the second outgoing light and the third wavelength having a second wavelength.
[0016]
The depth calculation unit may calculate the depth distance to the subject using a value based on the intensity of the second and third outgoing lights and the intensity of the first outgoing light. The depth calculation unit tentatively emits light from the subject when it is assumed that light having the first wavelength is emitted from the radiation position of the second irradiation light based on the intensities of the second and third emission lights. And the depth distance to the subject may be calculated using the intensity of the first outgoing light and the intensity of the temporary outgoing light. The depth calculation unit may calculate the depth distance to the subject using the average intensity of the second emitted light and the third emitted light and the intensity of the first emitted light.
[0017]
In the second embodiment of the present invention, the image pickup apparatus acquires information related to the depth of the subject, and the first irradiation light having the first wavelength as the main wavelength component is different from the first wavelength. An irradiation unit that irradiates the subject from the optically different radiation position with the second irradiation light having the second and third wavelengths as main wavelength components, and the irradiation unit emits the first and second irradiation light. And a depth calculation unit that calculates a depth distance to the subject based on the emitted light from the subject.
[0018]
The irradiating unit may irradiate the first and second irradiation lights at the same time. The irradiation unit includes a first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An optical imaging unit that irradiates the subject with the second irradiation light that is optically different from the radiation position and images the emitted light from the subject irradiated with the first and second irradiation light by the irradiation unit; A spectroscopic unit that optically separates the first outgoing light having the first wavelength and the second outgoing light having the second and third wavelengths from the outgoing light obtained from the subject; A light receiving unit that receives the first outgoing light and the second outgoing light that are separated and imaged by the optical imaging unit, and a light intensity detection that detects the intensity of the first and second outgoing light received by the light receiving unit. And a depth calculation unit using the first and second emitted light intensities to obtain a depth distance to the subject. Calculation may be.
[0019]
The light receiving unit has two plates of the solid-state imaging device, and the spectroscopic unit optically branches the optical paths of the first outgoing light and the second outgoing light by using the optical path dividing means, and each of the two solid plates. Any one of the imaging elements may receive light. The light receiving unit includes a solid-state imaging device, and the spectroscopic unit includes a first optical filter that transmits light of the first wavelength and a second optical filter that transmits light of the second and third wavelengths. And the first optical filter and the second optical filter may be alternately arranged on the light receiving surface of the solid-state imaging device.
[0020]
The depth calculation unit may calculate the depth distance to the subject based on a ratio between the intensity of the first emitted light and a value that is half the intensity of the second emitted light.
[0021]
In the first and second embodiments described above, an optical axis when the irradiating unit irradiates the subject with the first and second irradiation lights, and an optical axis when the imaging unit images the emitted light from the subject. May be substantially the same. The light intensity detection unit detects the intensity of the first and second emitted light in each pixel of the subject image captured by the light receiving unit, and the depth calculation unit determines the depth to the subject region corresponding to each pixel. , The depth distribution of the subject may be calculated.
[0022]
In the first and second embodiments, the first and second irradiation lights are light in the infrared region, and the spectroscopic unit further includes means for optically separating visible light from the emitted light obtained from the subject. The light receiving unit is further optically separated by the spectroscopic unit and further includes a visible light solid-state imaging device that receives visible light formed by the optical imaging unit, and is visible together with the depth distribution of the subject calculated by the depth calculation unit. You may further provide the recording part which records the image of the to-be-photographed object by the solid-state image sensor for light.
[0023]
In the first and second embodiments, the irradiation unit performs irradiation based on at least one of the intensity of light emitted from the subject detected by the light intensity detection unit and the depth distance to the subject calculated by the depth calculation unit. You may further provide the control part which controls at least 1 of the light emission time of the 1st and 2nd irradiation light to perform, an intensity | strength, a radiation position, and the exposure time of the light-receiving part.
[0024]
According to a third aspect of the present invention, there is provided a distance measuring method for acquiring information related to the depth of a subject, and the first irradiation light having the first wavelength as a main wavelength component is different from the first wavelength. An irradiation stage in which the subject is irradiated simultaneously with the second irradiation light having the second and third wavelengths as main wavelength components from the optically different radiation positions, and the first and second irradiation lights were irradiated. From the emitted light obtained from the subject, the first emitted light having the first wavelength, the second emitted light having the second wavelength, and the third emitted light having the third wavelength are optically changed. Spectroscopic stage for separating, imaging stage for imaging the separated first, second and third outgoing lights, and light intensity detecting stage for detecting the intensity of the taken first, second and third outgoing lights And the depth distance to the subject is calculated using the intensities of the first, second and third outgoing lights. Characterized in that a depth calculation step.
[0025]
In the depth calculation step, the depth distance to the subject may be calculated using a value based on the intensity of the second and third emitted lights and the intensity of the first emitted light. In the depth calculation stage, provisional outgoing light from the subject when it is assumed that light having the first wavelength is emitted from the radiation position of the second irradiation light based on the intensities of the second and third outgoing lights. The depth distance to the subject may be calculated based on the ratio of the intensity of the first outgoing light and the intensity of the temporary outgoing light. In the depth calculation step, the depth distance to the subject may be calculated based on the ratio between the average intensity of the second emitted light and the third emitted light and the intensity of the first emitted light.
[0026]
According to a fourth aspect of the present invention, there is provided a distance measurement method for acquiring information related to the depth of a subject, the first irradiation light having a first wavelength as a main wavelength component, and a first wavelength shorter than the first wavelength. An irradiation stage for simultaneously irradiating the subject with the second irradiation light having the main wavelength component of the second wavelength and the third wavelength longer than the first wavelength from the optically different radiation positions; The first outgoing light having the first wavelength and the second outgoing light having the second and third wavelengths are optically separated from the outgoing light obtained from the subject irradiated with the second irradiation light. A spectroscopic stage; an imaging stage for imaging the separated first outgoing light and second outgoing light; and a light intensity detection stage for detecting the intensity of the received first outgoing light and second outgoing light, respectively. Using the intensity of the first outgoing light and the intensity of the second outgoing light, Characterized in that a depth calculation step of calculating the distance can.
[0027]
In the depth calculation step, the depth distance to the subject may be calculated based on the ratio between the intensity of the first emitted light and the half value of the intensity of the second emitted light.
[0028]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are described below. However, this is not always essential for the solution of the invention.
[0030]
(Embodiment 1)
A first embodiment of the present invention will be described. First, the basic principle of measuring the depth distance to the subject from the intensity of the reflected light from the subject will be described. FIG. 1 is an explanatory diagram of the principle of the present invention. The light sources 6 and 8 are respectively radiated light intensity I1, I2Is a point light source having the same wavelength characteristics. The light sources 6 and 8 are each a distance R from the object 21, R2The distance between the radiation positions of the light sources 6 and 8 is L. The light source 6 is caused to emit light, and the reflected light from the irradiated object 2 is photographed by the camera 5. Next, the light source 8 is caused to emit light, and the reflected light from the irradiated object 2 is photographed by the camera 5.
[0031]
The light emitted from the light source 6 is emitted in all directions. Considering a sphere with a radius r centered on the light source 6, the light density per unit area on the spherical surface with the radius r of light is
[0032]
I1/ (4πr2)
Given in. Therefore, the distance R from the light source 61Reflected light intensity W from the region 4 of the object 2 existing at a position separated by1If the surface reflectance of the object 2 is Rf,
[0033]
W1= Rf · I1/ (4πR1 2)
Given in. Similarly, the distance R from the light source 82Reflected light intensity W from the region 4 of the object 2 existing at a position separated by2Is
[0034]
W2= Rf · I2/ (4πR2 2)
Given in.
[0035]
Reflected light intensity W from light source 61And reflected light intensity W from the light source 82Ratio WRIs
WR= W1/ W2= (I1・ R2 2) / (I2・ R1 2)
Is required. This and R2-R1If the radiation position interval L between the light source 6 and the light source 8 is known from the relationship of = L, the reflected light intensity ratio WRAnd measure the distance R1The formula
[0036]
R1= L / {(WR・ I2/ I1)1/2-1}
It can ask for.
[0037]
Thus, if the light source of the same color is used, the reflected light intensity ratio WRSince the influence of the surface reflectance Rf is canceled in the process of obtaining the information, information on the depth distance of the subject can be acquired. In this method, since the light source 6 and the light source 8 emit light in order and pick up an image, a time difference occurs in photographing. Therefore, it cannot be applied to a moving subject. Therefore, the wavelength characteristics of the light source 6 and the light source 8 are made different so that the light source 6 and the light source 8 emit light at the same time, and the reflected light from the light source 6 and the reflected light from the light source 8 are wavelength-separated from the reflected light from the subject. A method for measuring the strength of the glass can be considered. The surface reflectance of the object 2 generally varies depending on the wavelength. The surface reflectivity when irradiated with light of wavelength λ is Rf (λ). The wavelength of the light source 6 is λ1, The wavelength of the light source 8 is λ2Then, the reflected light intensity W from the light source 61Is
[0038]
W1= Rf (λ1) ・ I1/ (4πR1 2)
Given in. On the other hand, the reflected light intensity W from the light source 82Is
[0039]
W2= Rf (λ2) ・ I2/ (4πR2 2)
Given in.
[0040]
Since there is a difference in surface reflectance depending on the wavelength, the reflected light intensity ratio WRHowever, since the term of the surface reflectance Rf is not canceled, it is impossible to acquire information on the depth distance of the subject. Wavelength λ1And λ2The surface reflectance Rf (λ1) And Rf (λ2), Ignoring the difference, reflected light intensity ratio WRIt is possible to calculate the depth distance of the subject, but an error occurs in the calculation. Surface reflectance Rf (λ1) And Rf (λ2In order to reduce the calculation error due to the difference in1And λ2The difference between the two must be small enough, but the wavelength λ1And λ2If the difference is made smaller, the accuracy of wavelength separation becomes worse, and errors are included in the intensity measurement for each wavelength. Therefore, in order to increase the resolution of wavelength separation and increase the accuracy of intensity measurement, the wavelength λ1And λ2Must be increased and the surface reflectance Rf (λ1) And Rf (λ2) To reduce the difference and increase the accuracy of distance measurement, the wavelength λ1And λ2The dilemma of having to reduce the difference between the two is naturally limited in improving the accuracy of distance measurement.
[0041]
Therefore, in this embodiment, the subject is irradiated with light having the first wavelength characteristic and light having the second wavelength characteristic different from the first wavelength characteristic from an optically different radiation position at the same time. The light having the first wavelength characteristic is temporarily separated using the reflected light having the second wavelength characteristic by optically separating the reflected light by the light having the wavelength characteristic and the reflected light by the light having the second wavelength characteristic. Is obtained from the radiation position of the light having the second wavelength characteristic, the provisional reflected light intensity that will be obtained from the subject is obtained, and the reflected light intensity of the first wavelength characteristic and the provisional reflected light intensity Based on the ratio, the depth distance of the subject is calculated. By obtaining the provisional reflected light intensity, the difference in surface reflectance depending on the wavelength can be canceled, so that the depth distance can be obtained accurately.
[0042]
FIG. 2 is a configuration diagram of the image capturing apparatus 200 of the present embodiment. As the image capturing apparatus 200, a digital still camera, a digital video camera capable of capturing a still image, or the like can be considered. The image capturing apparatus 200 includes an irradiation unit 100, an image capturing unit 120, a processing unit 60, and a control unit 80.
[0043]
The irradiation unit 100 irradiates the subject with light, and the imaging unit 120 images the subject irradiated by the irradiation unit 100. The processing unit 60 processes the subject image picked up by the image pickup unit 120, obtains the depth distance of the picked up subject, and records it as the depth distribution information of the subject. The processing unit 60 can also record the subject image captured by the imaging unit 120. The control unit 80 performs feedback control based on the depth distance of the subject obtained by the processing unit 60, controls the intensity of light emitted by the irradiation unit 100, the timing of light emission, the light emission time, the radiation position, and the like, and the imaging unit 120. To control the exposure time and the like.
[0044]
The irradiation unit 100 includes light sources 10A and 10B and optical filters 12A and 12B. The light sources 10A and 10B are installed at different positions, and light from the light sources 10A and 10B passes through the optical filters 12A and 12B that transmit specific wavelength components, respectively, and is simultaneously irradiated onto the subject. The irradiation unit 100 inserts an optical lens such as a condenser lens into the optical path of the irradiation light when it is desired to efficiently use the light amount or when the difference between the radiation positions of the light sources 10A and 10B is optically increased. The light may be condensed, or the optical emission position of the irradiation light may be changed by a lens effect.
[0045]
The imaging unit 120 includes an optical lens 20 as an example of an optical imaging unit, a spectroscopic unit 30, and a light receiving unit 40. The optical lens 20 forms an image of reflected light from the subject. The spectroscopic unit 30 separates the wavelength of the reflected light from the subject in accordance with the wavelength characteristics irradiated by the irradiation unit 100. The light receiving unit 40 receives the reflected light that is imaged by the optical lens 20 and wavelength-separated by the spectroscopic unit 30.
[0046]
The light receiving unit 40 is a solid-state image sensor as an example. The subject image is formed on the light receiving surface of the solid-state imaging device. Charges are accumulated in each sensor element of the solid-state imaging device in accordance with the amount of light of the imaged subject image, and the accumulated charges are scanned in a certain order and read out as electrical signals.
[0047]
The solid-state imaging device is preferably a charge coupled device (CCD) image sensor having a good S / N ratio and a large number of pixels so that the intensity of reflected light from the subject can be detected with high accuracy in units of pixels. . In addition to the CCD, any of a MOS image sensor, a CdS-Se contact image sensor, an a-Si (amorphous silicon) contact image sensor, or a bipolar contact image sensor may be used as the solid-state imaging device.
[0048]
The processing unit 60 includes an image memory 62, a light intensity detection unit 64, a depth calculation unit 66, an image correction unit 67, and a recording unit 68. The image memory 62 stores the image of the subject captured by the imaging unit 120 in accordance with the wavelength characteristics of the irradiation light irradiated by the irradiation unit 100. The light intensity detector 64 detects the intensity of the reflected light from the subject image stored in the image memory 62 in units of pixels or pixel areas. Based on the reflected light intensity detected by the light intensity detection unit 64, the depth calculation unit 66 calculates a depth distance to the subject area captured in each pixel area. The recording unit 68 records the distribution of the depth distance of the subject calculated by the depth calculation unit 66. The image correction unit 67 performs correction such as gradation correction and white balance on the image of the subject stored in the image memory 62. The recording unit 68 records the image of the subject processed by the image correction unit 67. In addition, the light intensity detection unit 64 and the depth calculation unit 66 output information on the detection level of reflected light from the subject and the depth distribution of the subject to the control unit 80, respectively. The recording unit 68 records image data and depth distribution information in a semiconductor memory such as a flash memory or a memory card.
[0049]
The control unit 80 performs feedback control based on the depth distance of the subject obtained by the processing unit 60, controls the intensity of light irradiated by the irradiation unit 100, the timing of light emission, the light emission position, and the like. The light receiving sensitivity of the light receiving unit 40, the exposure time, and the like are controlled. The control unit 80 may control the irradiation unit 100 and the imaging unit 120 using photometric data of a photometric sensor (not shown) or distance measurement data of the distance measuring sensor. The control unit 80 may adjust the focus, aperture, exposure time, and the like of the imaging unit 120 when capturing an image of the subject based on the depth distance of the subject obtained by the processing unit 60.
[0050]
FIG. 3 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. The light sources 10A and 10B are respectively located at distances R1 and R2 from the object 2, and the radiation position interval between the light sources 10A and 10B is L. The optical filter 12A mainly has a wavelength λAThe optical filter 12B mainly has a wavelength λ.B, ΛCTransmits light having The irradiation unit 100 has a wavelength λ from the position of the light source 10A.ALight having a wavelength λ from the position of the light source 10B.BAnd λCThe object 2 is simultaneously irradiated with light having
[0051]
The optical lens 20 of the imaging unit 120 forms an image of the reflected light from the object 2 irradiated with light from the light sources 10A and 10B. The spectroscopic unit 30 has a wavelength λA, ΛB, ΛCThis is a prism that divides the optical path by wavelength separation into the three lights. The light receiving units 40A, 40B, and 40C are three-plate solid-state image sensors. Wavelength λ separated by the spectroscopic unit 30A, ΛB, ΛCAre received by the light receiving portions 40A, 40B, and 40C, respectively. The light received by each of the light receiving units 40A, 40B, and 40C is read as a charge by the photoelectric effect, converted into a digital electrical signal by an A / D converter (not shown), and input to the processing unit 60.
[0052]
FIG. 4 is a configuration diagram of the processing unit 60 of the present embodiment. The subject images output by the light receiving units 40A, 40B, and 40C are stored in the image memories 62A, 62B, and 62C, respectively. The light intensity detector 64 uses the image data stored in each of the image memories 62A, 62B, and 62C, and uses the wavelength λ.A, ΛB, ΛCThe intensity of the reflected light is detected. The depth calculation unit 66 uses the wavelength λ detected by the light intensity detection unit 64.A, ΛB, ΛCThe distance R1 from the light source 10A to the region 4 of the object 2 is obtained using the intensity of the reflected light. The depth calculation unit 66 calculates the depth distance to the pixel or the area of the subject imaged in the pixel area in units of pixels of the captured image or the pixel area, and calculates and outputs the depth distribution of the object. The recording unit 68 records the depth distribution information of the subject.
[0053]
The light intensity detector 64 detects the detected wavelength λA, ΛB, ΛCThe intensity of the reflected light is output to the control unit 80. The depth calculation unit 66 outputs the depth distribution information of the subject to the control unit 80. When the intensity level is not appropriate or the measurement accuracy of the depth distance is not good, the control unit 80 adjusts the emitted light intensity of the light source 10A or 10B, or adjusts the emission position interval between the light sources 10A and 10B. The control unit 80 may facilitate some of the emitted light intensity ratios of the light sources 10A and 10B in advance, and may select the emitted light intensity ratio according to the depth distance of the subject. For example, when the subject is at a short distance, the radiated light intensity ratio is set to a value close to 1, and when the subject is at a long distance, the radiated light intensity of the light source 10B located far from the subject is increased. Alternatively, a synchrotron radiation intensity ratio may be set.
[0054]
FIG. 5 is an explanatory diagram of a depth distance calculation method by the light intensity detection unit 64 and the depth calculation unit 66. The light intensity detector 64 has a wavelength λAReflected light intensity WA, Wavelength λBReflected light WB, Wavelength λCReflected light WCAre detected respectively. The intensity of each of the light sources 10A and 10B is I1, I2And the surface reflectance at the wavelength λ of the object 2 is Rf (λ), the wavelength λAReflected light intensity WAIs
[0055]
WA= Rf (λA) ・ I1/ (4πR1 2)
And the wavelength λBReflected light intensity WB, Wavelength λCReflected light intensity WCIs
WB= Rf (λB) ・ I2/ (4πR2 2)
WC= Rf (λC) ・ I2/ (4πR2 2)
It is expressed.
[0056]
The depth calculation unit 66 has a wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCUsing the wavelength λASynchrotron radiation intensity I2Is assumed to have been irradiated from the radiation position of the light source 10B, the intensity W of temporary reflected light obtained from the subjectDAsk for. Required WDThe value of is ideally
[0057]
WD= Rf (λA) ・ I2/ (4πR2 2)
It is. Therefore, the wavelength λAThe intensity W of the reflected light by the light from the light source 10A havingAAnd the same wavelength λAIntensity W of temporary reflected light by light from light source 10B havingDThe ratio of the surface reflectance Rf (λA) Is canceled,
[0058]
WA/ WD= (I1・ R2 2) / (I2・ R1 2)
And this and R2-R1= Depth distance R of subject from L1Can be calculated.
[0059]
Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCUsing the intensity W of temporary reflected lightDThere can be many variations in the method for obtaining. FIG. 6 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by interpolation. Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCBy interpolating the wavelength λATemporary strength WDAsk for. Temporary intensity W after linear interpolationDOr simply wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCThe intermediate value of tentative strength WDIt is good.
[0060]
FIG. 7 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by extrapolation. Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCExtrapolated to wavelength λBShorter wavelength λATemporary strength WDAsk for.
[0061]
Further, there are the following modifications. FIG. 8 is a diagram for explaining a method of obtaining the provisional reflected light intensity from the respective reflected lights from the light sources 10A and 10B. The irradiation unit 100 simultaneously emits irradiation light having wavelengths λ1 and λ2 from the light source 10A and irradiation light having wavelengths λ3 and λ4 from the light source 10B, and the imaging unit 120 receives reflected light obtained from the subject from the light source 10A. Are divided into respective reflected lights having the wavelengths λ1 and λ2 and reflected lights having the wavelengths λ3 and λ4 from the light source 10B. The light intensity detection unit 64 obtains the intensity of the reflected light of the wavelengths λ1 and λ2 from the light source 10A, and the depth calculation unit 66 assumes that the light of the wavelength λ5 is irradiated with the same intensity from the position of the light source 10A. Reflected light intensity WAIs calculated. Further, the light intensity detection unit 64 calculates the intensity of the reflected light of the wavelengths λ3 and λ4 from the light source 10B, and the depth calculation unit 66 assumes that the light of the wavelength λ5 is irradiated with the same intensity from the position of the light source 10B. Reflected light intensity WDIs calculated. The depth calculation unit 66 calculates the provisional reflected light intensity W.AAnd WDThe depth distance of the subject can be calculated.
[0062]
Further, there are the following modifications. FIGS. 9A to 9D are diagrams for explaining a method of obtaining provisional reflected light intensity when irradiation is performed using a band-pass filter that transmits only long-wavelength or short-wavelength light. The optical filter 12A of the light source 10A has a first boundary wavelength λ1The band-pass filter transmits only light having a longer wavelength, and the emitted light from the light source 10A passes through the optical filter 12A and is irradiated to the subject as light having the wavelength characteristics shown in FIG. The optical filter 12B of the light source 10B has a second boundary wavelength λ.2The band-pass filter transmits only light having a shorter wavelength, and the emitted light from the light source 10B passes through the optical filter 12B and is irradiated onto the subject as light having the wavelength characteristics shown in FIG. 9B. First boundary wavelength λ1Is the second boundary wavelength λ2It may be a shorter wavelength. That is, the wavelength characteristic of the light transmitted through the optical filters 12A and 12B is the first boundary wavelength λ.1To the second boundary wavelength λ2There may be overlap in the wavelength region up to. Therefore, the first boundary wavelength λ1Is the second boundary wavelength λ2When the wavelength is shorter, the wavelength characteristics of the light emitted from the light sources 10A and 10B are expressed by the first boundary wavelength λ.1To the second boundary wavelength λ2There is an overlap in the wavelength region up to.
[0063]
The spectroscopic unit 30 has a wavelength λA, ΛB, ΛCOptical filters that transmit each of the light of each wavelength, the wavelength of the reflected light obtained from the subject is separated, and the wavelength λA, ΛB, ΛCThe light receiving unit 40 receives the reflected light having The reflected light from the light source 10A has the wavelength characteristic of FIG. 9A before passing through the spectroscopic unit 30, but the wavelength λ is reflected by the optical filter as shown in FIG. 9C.AOnly the components are extracted. The same applies to the reflected light from the light source 10B, and has the wavelength characteristic of FIG. 9B before passing through the spectroscopic unit 30, but with the wavelength λ as shown in FIG.B, ΛCOnly the components are extracted. Where the wavelength λAIs the first boundary wavelength λ1And the second boundary wavelength λ2Which is longer than the longer one, and wavelength λB, ΛCIs the first boundary wavelength λ1And the second boundary wavelength λ2It is necessary that the wavelength be shorter than the shorter one. Because the separated wavelength λAThe reflected light having a wavelength of λ must not include interference caused by the light emitted from the light source 10B and the separated wavelength λ.B, ΛCThis is because each reflected light having the following must not include interference caused by the light emitted from the light source 10A. Wavelength λAThe intensity W of the reflected light havingADetect the wavelength λB, Wavelength λCExtrapolate the intensity of the reflected light havingATemporary reflected light intensity W when it is assumed thatDAsk for. Reflected light intensity ratio WA/ WDThe process for obtaining the depth distance of the subject from the above is as described above.
[0064]
In any of the above methods, the wavelength λ can be obtained so that the provisional reflected light intensity can be accurately obtained by processing such as interpolation, extrapolation, and averaging.BAnd wavelength λCIt is more preferable to set values close to each other within a range where linear interpolation or linear extrapolation is possible. FIG. 10 is a diagram showing the surface reflectance of three types of objects. The horizontal axis of the graph is wavelength, and the vertical axis is reflectance. Graphs 302, 304, and 306 are results obtained by measuring the surface reflectance of three kinds of objects, that is, human skin, road, and leaves, respectively, with a spectrometer. Points on each graph were marked for wavelengths of 630 nm, 650 nm, and 670 nm. In the wavelength regions of 630 nm, 650 nm, and 670 nm, linear interpolation is possible for any object. In addition, a light source in the same wavelength region is easily available. Wavelength λA, ΛB, ΛCThus, it is possible to select a value in a wavelength region that allows such linear interpolation and is easily available as a light source. In addition, when image correction processing such as gradation correction performed by a normal digital camera or the like is performed on the output signal of the solid-state imaging device of the light receiving unit 40, the linearity of the signal is lost. Therefore, it is preferable to detect the intensity at the stage of the signal intensity having linearity with respect to the incident light intensity to the solid-state imaging device, and perform processing such as interpolation, extrapolation, and averaging. Alternatively, a table representing the inverse function of the signal conversion function by image correction processing such as gradation correction is prepared, and the signal output after image correction is temporarily referred to the inverse function table, and the incident light to the solid-state image sensor After converting the signal strength to linearity with respect to the strength, the strength may be detected and processing such as interpolation, extrapolation, and averaging may be performed.
[0065]
Further, in the above description, an optical splitting element that splits the optical path by wavelength separation is used as the spectroscopic unit 30, for example, a prism or a beam splitter. It may be used. FIG. 11 is a diagram illustrating an optical filter that transmits a specific wavelength component provided in the light receiving unit 40. A single-plate solid-state image sensor is used as the light-receiving unit 40, and an optical filter 32 is provided on the light-receiving surface of the solid-state image sensor. The optical filter 32 has a wavelength λA, ΛB, ΛCFilters that transmit only each of them are alternately arranged. As a result, the wavelength λ depends on the pixel of the solid-state image sensor.A, ΛB, ΛCOf which light is received, and the wavelength λA, ΛB, ΛCCan be received after wavelength separation. Compared to the case of using a prism or a beam splitter, the single plate solid-state imaging device receives light, so that the apparatus can be miniaturized.
[0066]
In the description of the above embodiment, when targeting a subject having a large difference in surface reflectance depending on the wavelength of the irradiated light, the wavelength λA, ΛB, ΛCIt is desirable that they be as close as possible so that no error occurs in the calculation of the provisional reflected light intensity. On the other hand, in order to increase the detection accuracy of the reflected light intensity of each wavelength component, the wavelength λA, ΛB, ΛCWavelength components other than are not included as much as possible, or wavelength λA, ΛB, ΛCThe wavelength of λA, ΛB, ΛCIt is desirable to increase the resolution of the wavelength and to reduce the wavelength interference as much as possible. Therefore, the wavelength characteristics of the light source 10 of the irradiation unit 100, the wavelength transmission characteristics of the optical filter 12, and the wavelength transmission characteristics of the spectroscopic unit 30 of the imaging unit 120 are designed according to the characteristics of the surface reflectance of the subject and the required measurement accuracy. It is preferable to do.
[0067]
FIG. 12 is a flowchart of the distance measurement method of this embodiment. The irradiation unit 100 has a wavelength λAA first irradiation light having a main wavelength component and a wavelength λAA wavelength different from λBAnd wavelength λCThe object is simultaneously irradiated from the optically different radiation position with the second irradiation light whose main wavelength component is (S100).
[0068]
The optical lens 20 of the imaging unit 120 forms an image of the reflected light from the subject irradiated with the first and second irradiation lights (S102). The spectroscopic unit 30 calculates the wavelength λ from the reflected light from the subject.AA first reflected light having a wavelength λBA second reflected light having a wavelength λCIs optically separated from the third reflected light (S104).
[0069]
The light receiver 40 receives the separated first, second, and third reflected light (S106). The light intensity detection unit 64 of the processing unit 60 has the first, second, and third reflected light intensities W.A, WB, WCIs detected (S108).
[0070]
The depth calculation unit 66 calculates the intensity W of the first, second, and third reflected light.A, WB, WCIs used to calculate the depth distance to the subject (S110).
[0071]
FIG. 13 is a flowchart of the depth distance calculation process S110. Intensities W of second and third reflected lightB, WCBased on the wavelength λAAnd the intensity W of the temporary reflected light from the subject when it is assumed that the light having the intensity I2 is irradiated from the radiation position of the second irradiation lightDIs obtained (S112). Temporary reflected light intensity WDIs the intensity W of the second and third reflected lightBAnd WCIs obtained by interpolation or extrapolation. The intensity W of the first reflected lightAAnd temporary reflected light intensity WDRatio WA/ WDIs obtained (S114). Intensity I of the first and second irradiation light I1, I2, Radiation position interval L of first and second irradiation light, reflected light intensity ratio WA/ WDBased on the above, the distance to the subject is calculated (S116).
[0072]
FIG. 14 is a flowchart of a modification of the depth distance calculation process S110. Intensities W of second and third reflected lightB, WCAverage value WD= (WB+ WC) / 2 is obtained (S118). The intensity W of the first reflected lightAAnd the average intensity W of the second and third reflected lightDRatio WA/ WDIs obtained (S120). Intensity I of the first and second irradiation light I1, I2, Radiation position interval L of first and second irradiation light, reflected light intensity ratio WA/ WDBased on the above, the distance to the subject is calculated (S122).
[0073]
As described above, according to the image pickup apparatus of the present embodiment, light having different wavelength characteristics is irradiated onto the subject simultaneously from optically different radiation positions, and the wavelength of the reflected light obtained from the subject is adjusted according to the wavelength characteristics. The depth distance to the subject can be easily obtained by using the intensity of the reflected light that has been separated and wavelength-separated.
[0074]
In addition, since an image of reflected light from the subject is picked up by a solid-state image sensor and stored as image data, the depth distance can be calculated by detecting the reflected light intensity in units of pixels or pixel areas. Can be obtained. Therefore, it is possible to acquire the depth distribution of the subject from the two-dimensional image of the subject and create a three-dimensional stereoscopic image of the subject.
[0075]
(Embodiment 2)
A second embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment is different from the image capturing apparatus according to the first embodiment only in a part of the configuration of the irradiation unit 100 and the image capturing unit 120, and therefore the same components are described. Omitted, only different components will be described. FIG. 15 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. In this embodiment, the optical filter 12A of the irradiation unit 100 mainly has a wavelength λ.AThe optical filter 12B mainly transmits the wavelength λ.AShorter wavelength λBAnd wavelength λALonger wavelength λCTransmits light having The irradiation unit 100 has a wavelength λ from the position of the light source 10A.AAnd the wavelength λ from the position of the light source 10BBAnd λCThe object 2 is simultaneously irradiated with light having
[0076]
The spectral unit 30 of the imaging unit 120 has a wavelength λAAnd a wavelength λBAnd λCIt is a prism that divides the optical path by separating the wavelength into light having light. The light receiving units 40A and 40B are two-plate solid-state image sensors. Wavelength λ separated by the spectroscopic unit 30AThe light having the wavelength λ enters the light receiving unit 40A.BAnd λCAre received by the light receiving unit 40B. The light received by the light receiving units 40A and 40B is converted into an electric signal and input to the processing unit 60.
[0077]
FIG. 16 is a configuration diagram of the processing unit 60 of the present embodiment. The subject images output by the light receiving units 40A and 40B are stored in the image memories 62A and 62B, respectively. The light intensity detector 64 uses the image data stored in each of the image memories 62A and 62B, and uses the wavelength λ.AReflected light with wavelength λBAnd λCDetecting the intensity of the reflected light. The depth calculation unit 66 uses the wavelength λ detected by the light intensity detection unit 64.AReflected light intensity, wavelength λBAnd λCThe distance R1 from the light source 10A to the region 4 of the object 2 is obtained using the intensity of the reflected light. The depth calculation unit 66 calculates the depth distance to the pixel or the area of the subject imaged in the pixel area in units of pixels of the captured image or the pixel area, and calculates and outputs the depth distribution of the object. The recording unit 68 records the depth distribution information of the subject.
[0078]
FIG. 17 is an explanatory diagram of a depth distance calculation method by the light intensity detection unit 64 and the depth calculation unit 66. The light intensity detector 64 has a wavelength λAReflected light intensity WA, Wavelength λBAnd λCThe intensity W of the reflected light havingEAre detected respectively. The intensity of each of the light sources 10A and 10B is I1, I2And the surface reflectance at the wavelength λ of the object 2 is Rf (λ), the wavelength λAReflected light intensity WAIs
[0079]
WA= Rf (λA) ・ I1/ (4πR1 2)
And the wavelength λBAnd λCThe intensity W of the reflected light havingEIs
WE= Rf (λB) ・ I2/ (4πR2 2)
+ Rf (λC) ・ I2/ (4πR2 2)
It is expressed.
[0080]
The depth calculation unit 66 has a wavelength λBAnd wavelength λCThe intensity W of the reflected light havingEHalf the value of WDAnd Wavelength λAIs the wavelength λBAnd wavelength λCSince it is an intermediate value, WDIs the wavelength λASynchrotron radiation intensity I2Is assumed to be emitted from the radiation position of the light source 10B, the intensity of provisional reflected light obtained from the subject is approximately equal. W obtainedDThe value of is ideally
[0081]
WD= Rf (λA) ・ I2/ (4πR2 2)
It is. Therefore, the wavelength λAThe intensity W of the reflected light by the light from the light source 10A havingAAnd the same wavelength λAIntensity W of temporary reflected light by light from light source 10B havingDThe ratio of the surface reflectance Rf (λA) Is canceled,
[0082]
WA/ WD= (I1・ R2 2) / (I2・ R1 2)
And this and R2-R1= Depth distance R of subject from L1Can be calculated.
[0083]
Temporary reflected light intensity WDSo that is accurately obtainedAIs the wavelength λB, ΛCIt is more preferable that the wavelength is in the middle. In the above description, the spectroscopic unit 30 has the wavelength λ.AAnd a wavelength λBAnd λCThe wavelength is separated into light having a wavelength λ as a filtering method.B, ΛCIs not necessarily selectively transmitted, and the wavelength λAThe same effect can be achieved by using a band-cut filter that cuts the. 18A to 18D are diagrams illustrating a method of separating reflected light using a band cut filter. As shown in FIG. 18A, the irradiation light from the light source 10A has a wavelength λ.AHas a wavelength characteristic with a main wavelength component. As shown in FIG. 18B, the irradiation light from the light source 10B has a wavelength λ.AWavelength λ betweenB, ΛCHas a wavelength characteristic with a main wavelength component. The spectroscopic unit 30 mainly has a wavelength λ as shown in FIG.AA bandpass filter that only transmits light, and a wavelength λ mainly as shown in FIG.AA band-cut filter that cuts the wavelength component of the light, and transmits the reflected light from the subject through the band-pass filter, so that the wavelength λABy separating the reflected light having a wavelength and transmitting the reflected light from the subject to the band cut filter, the wavelength λBAnd wavelength λCTo separate reflected light. Wavelength λBAnd wavelength λCHalf the intensity of the reflected light having a wavelength λAThe method for obtaining the depth value of the subject based on the ratio of the intensity of the reflected light having the above is as described above.
[0084]
FIG. 19 is a flowchart of the distance measurement method of this embodiment. The irradiation unit 100 has a wavelength λAA first irradiation light having a main wavelength component and a wavelength λAShorter wavelength λBAnd wavelength λALonger wavelength λCThe subject is simultaneously irradiated with the second irradiation light having the main wavelength component as from the optically different radiation position (S200).
[0085]
The optical lens 20 of the imaging unit 120 forms an image of the reflected light from the subject irradiated with the first and second irradiation lights (S202). The spectroscopic unit 30 calculates the wavelength λ from the reflected light from the subject.AA first reflected light having a wavelength λBAnd wavelength λCIs optically separated from the second reflected light having (S204).
[0086]
The light receiver 40 receives the separated first and second reflected lights (S206). The light intensity detection unit 64 of the processing unit 60 has the first and second reflected light intensities W.A, WEIs detected (S208).
[0087]
The depth calculation unit 66 calculates the intensity W of the first reflected light.A, Second reflected light intensity WEHalf of the value WDRatio WA/ WD(S212), the intensity I of the first and second irradiation light I1, I2, Radiation position interval L of first and second irradiation light, reflected light intensity ratio WA/ WDBased on the above, the distance to the subject is calculated (S214).
[0088]
In the above description, an optical splitting element, such as a prism or a beam splitter, that splits the optical path by wavelength separation is used as the spectroscopic unit 30. However, as the spectroscopic unit 30, a single light receiving unit 40 is used as in the first embodiment. An optical filter 32 may be provided on the light receiving surface of the solid-state image sensor using a solid-state image sensor of a plate. The optical filter 32 has a wavelength λAFilter that only transmits light, wavelength λBAnd λCFilters that transmit light are alternately arranged. Compared to the case of using a prism or a beam splitter, the single plate solid-state imaging device receives light, so that the apparatus can be miniaturized.
[0089]
As described above, according to the image pickup apparatus of the present embodiment, the first irradiation light having the first wavelength as the main wavelength component and the second and third wavelengths sandwiching the first wavelength in the middle. Irradiating the subject simultaneously with the second irradiation light having the main wavelength component from the optically different radiation positions, and from the reflected light obtained from the subject, the first reflected light having the first wavelength; Separating the second reflected light having the second and third wavelengths, and calculating the depth distance of the subject based on the ratio between the first reflected light intensity and a half value of the second reflected light intensity. Can do. By simply halving the second reflected light intensity, the provisional reflected light intensity when the light having the first wavelength is irradiated from the radiation position of the second irradiation light can be obtained. The depth distance of the subject can be calculated. In addition, the number of solid-state imaging elements that receive reflected light from the subject can be two, and the apparatus can be downsized.
[0090]
(Embodiment 3)
A third embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment is different from the image capturing apparatus according to the first embodiment only in a part of the configuration of the irradiation unit 100 and the image capturing unit 120, and therefore the same components are described. Omitted, only different components will be described. FIG. 20 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. In the present embodiment, the light sources 10A and 10B of the irradiation unit 100 are infrared light sources. The optical filter 12A has a wavelength λ in the infrared region.AThe optical filter 12B has a wavelength λ in the infrared region.BAnd wavelength λCTransmits light having The irradiation unit 100 has a wavelength λ in the infrared region from the position of the light source 10A.AAnd the wavelength λ in the infrared region from the position of the light source 10BBAnd λCThe object 2 is simultaneously irradiated with light having The object 2 is further irradiated with light in the visible light region, such as natural light or illumination light.
[0091]
The spectral unit 30 of the imaging unit 120 has a wavelength λ in the infrared region.AAnd a wavelength λ in the infrared regionBAnd λCIs a prism that splits the optical path by separating the wavelength of the light into light having visible light and light in the visible light region. The light receiving units 40A, 40B, and 40C are three-plate solid-state image sensors. Wavelength λ separated by the spectroscopic unit 30AThe light having the wavelength λ enters the light receiving unit 40A.BAnd λCIs received by the light receiving unit 40B, and visible light is received by the light receiving unit 40C. The light receiving units 40A and 40B are set in advance at a position where focus is achieved so that a photographed image of reflected light in the infrared region is not out of focus. The light received by the light receiving units 40A, 40B, and 40C is converted into an electrical signal and input to the processing unit 60.
[0092]
FIG. 21 is a configuration diagram of the processing unit 60 of the present embodiment. The subject images output by the light receiving units 40A and 40B are stored in the image memories 62A and 62B, respectively. The light intensity detector 64 detects the intensity of the reflected light using the image data stored in each of the image memories 62A and 62B, and the depth calculator 66 uses the intensity of the reflected light detected by the light intensity detector 64. Thus, the distance R1 from the light source 10A to the region 4 of the object 2 is obtained. Since the operations of the light intensity detection unit 64 and the depth calculation unit 66 are the same as those in the second embodiment, description thereof will be omitted. The depth calculation unit 66 calculates the depth distance to the pixel or the area of the subject imaged in the pixel area in units of pixels of the captured image or the pixel area, and calculates and outputs the depth distribution of the object. The recording unit 68 records the depth distribution information of the subject. Further, the subject image output by the light receiving unit 40C is stored in the image memory 62C. The image correction unit 67 performs image correction such as gradation correction on the image data stored in the image memory 62, and outputs it as subject image data. The recording unit 68 converts the subject image data into the depth distribution of the subject. Record with information.
[0093]
In the above, the wavelength λBAnd λCThe light receiving unit 40B receives the reflected light without separating the light having a wavelength of λ by the spectroscopic unit 30 using a four-plate solid-state imaging device as the light receiving unit 40.BReflected light with wavelength λCThe reflected light may be separated from each other, and each of the reflected lights may be received by different solid-state imaging devices. In that case, the wavelength λ is the same as in the first embodiment.A, ΛB, ΛCThe depth distance of the subject can be obtained using the intensity of each reflected light.
[0094]
As described above, according to the image pickup apparatus of the present embodiment, since infrared light is used to measure the depth distance of the subject, the subject can be obtained even under natural conditions where the subject is irradiated with natural light or illumination light. The depth distance can be measured. Therefore, it is not necessary to turn the room into a dark room for measuring the depth distance of the subject. Further, since the reflected light in the visible light region can be separated and imaged, it is possible to measure the depth distribution of the subject and simultaneously take an image of the subject. Image processing of the subject using the depth distribution of the subject is possible, such as extracting the main subject from the photographed subject image and separating the background and the person image.
[0095]
(Embodiment 4)
A fourth embodiment of the present invention will be described. Compared with the image pickup devices of the first, second, and third embodiments, the image pickup device of the present embodiment has a half mirror 17 in order to make the optical axes of the irradiation unit 100 and the image pickup unit 120 the same. The only difference is that 18 is used. FIG. 22 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. Although the example using the half mirrors 17 and 18 is shown in the first embodiment, the same configuration can be adopted in the second and third embodiments. The radiation positions of the light sources 10A and 10B of the irradiation unit 100 are separated by a distance L, and the irradiation light from the light source 10B is reflected by the half mirror 17 and further reflected by the half mirror 18 to be irradiated onto the object 2. The irradiation light from the light source 10A passes through the half mirror 17, is reflected by the half mirror 18, and is irradiated onto the object 2. Reflected light from the subject passes through the half mirror 18 and is imaged by the optical lens 20 of the imaging unit 120.
[0096]
In the present embodiment, since the optical axes of the irradiation unit 100 and the imaging unit 120 are optically coaxial, when the imaging unit 120 captures a subject irradiated by the irradiation unit 100, a shadowed area cannot be captured. There is nothing. Therefore, it is possible to calculate the depth distribution of the entire region of the irradiated subject, and no blind spot that cannot calculate the depth distance is generated. In addition, by making the optical axes of the irradiation unit 100 and the imaging unit 120 coaxial, the entire image imaging device 200 can be reduced in size.
[0097]
(Embodiment 5)
FIG. 23 is a diagram for explaining the principle according to the fifth embodiment of the present invention. The object 120 is irradiated with light of intensities P1 and P2 from the irradiation position 112 and the irradiation position 114, and the reflected light of each light from the object 120 is imaged by the camera 110. The camera 110 is, for example, a charge coupled device (CCD), has a plurality of pixels, and captures reflected light from the measured portion 122 of the object 120 and the vicinity 124 of the arsenic section in each pixel unit. Each intensity is detected every time. Based on the reflected light imaged by the camera 110, the distance L of the object 120 to the measured part 122 and the inclination θ of the surface of the measured part 122.0And the reflectance R of the surface of the measured part 122ObjIs calculated. The irradiation positions (112, 114) may be arranged at arbitrary positions. One of the irradiation angles of light irradiated on the object 120 from the irradiation position (112, 114) is calculated. In this example, the camera 110 is optically connected to any one of the irradiation positions (112, 114). Therefore, the irradiation angle of the light irradiated on the object 120 is calculated based on the incident angle of the reflected light captured by the camera 110. In this example, the case where the irradiation position 112 and the camera 110 are optically arranged at the same position will be described.
[0098]
As shown in FIG. 23, the irradiation position 114 is L from the irradiation position 112.12It is arranged at a distant position. Distance L12Is a known value unique to the measurement system. In addition, the angle at which light is irradiated from the irradiation position (112, 114) to the part to be measured 122 of the object 120 is set to θ.1, Θ2And the angle at which light is irradiated from the irradiation position (112, 114) to the vicinity 124 of the measured portion of the object 120 is θ.1', Θ2'. In addition, since the camera 110 is optically disposed at the same position as the irradiation position 112, the angle at which the reflected light from the measured part 122 is received is θ.CThe angle at which the reflected light from the vicinity 124 of the measured part is received is θCIf ’,C= Θ1, ΘC′ = Θ1'. In addition, the distance from the irradiation position 112 to the measured part 122 is set to L, respectively.1, The distance to the vicinity 124 of the measured part is L1′, And the distance from the irradiation position 114 to the part to be measured is L2, The distance to the vicinity 124 of the measured part is L2'.
[0099]
The intensity of the reflected light from the part to be measured 122 of the light irradiated from the irradiation position (112, 114) is D, respectively.1, D2Then D1, D2Is given as:
[0100]
[Expression 1]
Figure 0004150506
That is,
[Expression 2]
Figure 0004150506
It becomes.
[0101]
Also,
[Equation 3]
Figure 0004150506
So
[Expression 4]
Figure 0004150506
It becomes. Also,
[0102]
[Equation 5]
Figure 0004150506
And L12, Θ1Is a known value, so θ2Is given by a function of L. That is,
[0103]
[Formula 6]
Figure 0004150506
It becomes. Therefore,
[0104]
[Expression 7]
Figure 0004150506
It becomes. Where D1, D2, P1, P2, Θ1Is a measured or known value, so the unknown in the above equation is θ0And L. Therefore, the above condition is satisfied (θ0, L) can be determined. That is, when the distance L to the measured part 122 is assumed, the surface inclination θ of the measured part corresponding to the assumed distance L0Can be calculated. Similarly, in the vicinity 124 of the measured portion, the distance L ′ to the vicinity 124 of the measured portion and the surface inclination θ of the vicinity 124 of the measured portion.0A combination of 'can be obtained.
[0105]
The present invention relates to the distance L of the object 120 to the measured part 122 and the surface inclination θ of the measured part 122.0And the distance L ′ to the vicinity 124 of the measured part of the object 120 and the surface inclination θ of the vicinity 124 of the measured part.0Based on the combination with ′, the distance L to the measured portion 122 and the surface inclination θ0Is calculated. Hereinafter, the calculation method will be described in detail.
[0106]
FIG. 24 shows the distance L to the measured part 122 and the surface inclination θ of the measured part 122.0It is explanatory drawing of an example of the method of calculating. First, it is assumed that the distance L to the measured part 122 is La. Based on the mathematical formula described with reference to FIG. 23, the surface inclination θ of the measured portion 122 corresponding to the assumed distance La0Is calculated. Next, the calculated surface inclination θ0The surface of the measured part 122 determined by the above is extended, and it is assumed that the vicinity 124 of the measured part exists at the point where it intersects the optical path of the reflected light from the vicinity 124 of the measured part. A temporary distance Lb is calculated. At this time, the temporary distance Lb to the vicinity 124 of the measurement target is the temporary distance La between the camera 110 and the measurement target 122 and the incident angle θ of the reflected light from the measurement target 122.1, The incident angle θ of the reflected light from the vicinity 124 of the part to be measured1′ And the surface inclination θ of the measured part 1220Can be calculated geometrically.
[0107]
Next, the surface inclination θ of the vicinity 124 of the measured portion corresponding to the calculated temporary distance Lb0'Is calculated. Face tilt θ0'Can be calculated by the mathematical formula described with reference to FIG. Since the distance between the measured part 122 of the object 120 and the vicinity 124 of the measured part is very small, the surface inclinations of the measured part 122 and the vicinity 124 of the measured part are substantially the same. Therefore, the calculated surface inclination θ0And θ0By comparing with ', it is possible to determine whether or not the initially assumed distance La to the measured part 122 is a correct value. That is, the surface inclination θ0And θ0If the difference from 'is within a predetermined range, the assumed distance La can be set as the distance L to the measured portion 122.
[0108]
Also, the surface inclination θ0And θ0If the difference from 'is not within the predetermined range, assuming that there is an error in the setting of the initially assumed distance La, the distance L to the measured part 122 is set to another value and the same calculation is performed. Just do it. It is clear that the distance L to the measured part 122 that satisfies the mathematical formula described in relation to FIG. 23 has an upper limit value, and the lower limit value is zero. Find out. For example, the true distance L to the measured part 122 may be extracted by the binary search method for the distance La in a finite range. Further, with respect to the temporary distance La, θ at a predetermined distance interval within a finite range.0, Θ0The true distance L may be extracted by calculating the difference '. Further, regarding the temporary distance La, θ0, Θ0The difference of ′ is calculated, and the temporary distance La that minimizes the difference may be set as the true distance L. Further, the surface tilt information of the part to be measured can be calculated based on the distance information to the part to be measured by the mathematical formula described in relation to FIG. Further, the surface reflectance information of the part to be measured can also be calculated by the mathematical formula described with reference to FIG.
[0109]
FIG. 25 shows a surface inclination θ at a predetermined distance interval within a predetermined range with respect to the temporary distance La.0And surface tilt θ0An example of the result of calculating 'is shown. In the graph of FIG. 25, the horizontal axis indicates the provisional distance La to the measurement target 122, and the vertical axis indicates the surface inclination of the measurement target 122 and the vicinity 124 of the measurement target. In this example, the distance L of the object 120 to the measured part 122 is 200 mm, and the surface inclination of the measured part 122 is 0 degree. Further, the distance between the irradiation position 112 and the irradiation position 114 is 10 mm, θ1Was calculated by setting the distance of the temporary distance La to 10 mm.
[0110]
Data 192 indicates the surface inclination of the measurement target 122 corresponding to the provisional distance La indicated on the horizontal axis, and data 194 indicates the surface inclination of the vicinity 124 of the measurement target. At a temporary distance of 200 mm, the surface inclinations of the measured part 122 and the vicinity 124 of the measured part match at 0 degree.
[0111]
(Embodiment 6)
FIG. 26 is a diagram illustrating the principle of an information acquisition method for acquiring distance information to an object. From the irradiation position 212, the irradiation position 214, and the irradiation position 216, the object 220 is irradiated with light of intensities P1, P2, and P3, respectively, and the reflected light of each light by the object 220 is imaged by the camera 210. The camera 210 is, for example, a charge coupled device (CCD), has a plurality of pixels, captures reflected light from the irradiated portion 224 of the object 220 for each pixel, and detects the intensity of each pixel. . Based on the reflected light imaged by the camera 210, the distance L of the object 220 to the irradiated portion 224 and the surface inclination θ of the irradiated portion 224.0And the reflectance R of the surface of the irradiated part 224ObjIs calculated. The irradiation position (212, 214, 216) and the camera 210 may be arranged at arbitrary positions. In this example, the case where the irradiation position 212, the irradiation position 216, and the camera 210 are arranged in a straight line will be described. .
[0112]
As shown in FIG. 26, the irradiation position 216 is shifted from the irradiation position 212 to L.12At a distant position, the irradiation position 214 is L from the irradiation position 212.23The camera 210 is arranged at a position X away from the irradiation position 212 at a position away from it. Distance L12, L23, X are known values specific to the measurement system. In addition, the irradiation positions (212, 214, 216) indicate the angles at which the irradiated part 224 of the object 220 is irradiated with light by θ1, Θ2, Θ3And the angle at which the camera 210 receives the reflected light at the irradiated portion 224 is θCAnd Of these, θCIs calculated based on the reflected light imaged for each pixel of the camera 210. Further, the distance from the irradiation position (212, 214, 216) to the irradiated portion 224 is set to L, respectively.1, L2, L3And
[0113]
The intensity of the reflected light at the irradiated portion 224 of the light irradiated from the irradiation position (212, 214, 216) is D, respectively.1, D2, D3Then D1, D2, D3Is given by:
[0114]
[Equation 8]
Figure 0004150506
That is,
[Equation 9]
Figure 0004150506
However, f () is a function. Also,
[0115]
[Expression 10]
Figure 0004150506
So
[Expression 11]
Figure 0004150506
It becomes. Also,
[0116]
[Expression 12]
Figure 0004150506
X, L12, ΘCIs a known value, so θ1, Θ2, Θ3Is given by a function of L, respectively. That is,
[0117]
[Formula 13]
Figure 0004150506
It becomes. Therefore,
[0118]
[Expression 14]
Figure 0004150506
It becomes. D1, D2, D3,θC, P1, P2, P3Is a measured value or a known value, so from the above two equations, the unknown θ0, L can be obtained. And θ0D1, D2, D3From any of the formulasobjCan be requested. As described above, the distance information to the object, the tilt information of the surface of the object, and the reflectance of the surface of the object can be obtained by imaging the reflected light of the object irradiated from three or more optically different irradiation positions. Information can be calculated.
[0119]
In this example, the irradiation position 212, the irradiation position 216, and the camera 210 are arranged in a straight line. However, if the distance between each element is known, the distance information to the object and the inclination information of the surface of the object are obtained by reflected light. It is obvious that the reflectance information of the surface of the object can be calculated.
[0120]
According to the information acquisition method described above, it is possible to eliminate the error due to the inclination of the surface of the object 220 and acquire the distance information to the object 220. Further, the tilt information of the surface of the object 220 and the reflectance information of the surface of the object 220 can be acquired.
[0121]
However, when the irradiation positions (212, 214, 216) are arranged on a straight line, the method described with reference to FIG. 26 cannot calculate distance information to the object. Hereinafter, when the irradiation positions (212, 214, 216) are arranged on a straight line, a method for acquiring distance information to the object, inclination information of the surface of the object, and reflectance information of the object surface will be described.
[0122]
FIG. 27 is an explanatory diagram of an information acquisition method for acquiring distance information to an object and the like when the irradiation positions are arranged on a straight line. From the irradiation position 212, the irradiation position 214, and the irradiation position 216, the object 220 is irradiated with light of intensities P1, P2, and P3, respectively, and the reflected light of each light by the object 220 is imaged by the camera 210.
[0123]
As shown in FIG. 27, the irradiation position 216 is shifted from the irradiation position 212 to L.13At a distant position, the irradiation position 214 is L from the irradiation position 212.12At a distance, the camera 210 is disposed at substantially the same position as the irradiation position 212. Distance L12, L1 3Is a known value unique to the measurement system. In addition, the irradiation positions (212, 214, 216) indicate the angles at which the irradiated part 224 of the object 220 is irradiated with light by θ1, Θ2, Θ3And the angle at which the camera 210 receives the reflected light at the irradiated portion 224 is θCAnd Of these, θCIs calculated based on the reflected light imaged for each pixel of the camera 210. In this example, since the camera 210 is disposed at the same position as the irradiation position 212, θC= Θ1It is. Further, the distance from the irradiation position (212, 214, 216) to the irradiated portion 224 is set to L, respectively.1, L2, L3And
[0124]
The intensity of the reflected light at the irradiated portion 224 of the light irradiated from the irradiation position (212, 214, 216) is D, respectively.1, D2, D3Then D1, D2, D3Is given by:
[0125]
[Expression 15]
Figure 0004150506
That is,
[Expression 16]
Figure 0004150506
It is. Also,
[0126]
[Expression 17]
Figure 0004150506
So
[Expression 18]
Figure 0004150506
It becomes. Also,
[0127]
[Equation 19]
Figure 0004150506
And θ1Is θCEqual to L12, L13, ΘCIs known, so θ2, Θ3Is given by a function of L. That is,
[0128]
[Expression 20]
Figure 0004150506
It becomes. Therefore,
[0129]
[Expression 21]
Figure 0004150506
It becomes. D1, D2, D3,θC, P1, P2, P3Is a measured value or a known value, so from the above two equations, the unknown θ0, L can be obtained. And θ0D1, D2, D3From any of the formulasobjCan be requested. As described above, the reflected light from the object 220 of the light irradiated from the three irradiation positions that are optically in a straight line is imaged at the same optical position as any one of the three irradiation positions, respectively. The distance information to the object, the tilt information of the object surface, and the reflectance information of the object surface can be calculated. In this example, the irradiation position 212 and the position of the camera 210 are substantially the same.1, Θ2, Θ3And one ofCTherefore, it is clear that either the irradiation position 214 or the irradiation position 216 and the position of the camera 210 may be substantially the same.
[0130]
In the information acquisition method described with reference to FIG. 27, since the optical axis of the camera 210 and one of the irradiation positions (212, 214, 216) is optically coaxial, the irradiation position (212, 214, 216) is determined. When the camera 210 captures an image of the irradiated object 220, it is possible to reduce the area that is shadowed and cannot be captured. In addition, since the position of the camera 210 and one of the irradiation positions (212, 214, 216) is substantially the same, there is no need to previously check the distance between the camera 210 and the irradiation position, and the camera 210 and the irradiation position are also irradiated. An error in measuring the distance to the position can be eliminated.
[0131]
In the information acquisition method described with reference to FIG. 26 or FIG. 27, the object 220 is irradiated with light from three irradiation positions. In another example, the object 220 is irradiated with light from three or more irradiation positions. It may be irradiated. Further, it is preferable to calculate the distance information to the object 220, the inclination information of the surface of the object 220, and the reflectance information of the surface of the object 220 based on the intensity of the reflected light. Alternatively, distance information, inclination information, and reflectance information may be calculated for each pixel of the camera 210, and the distribution of distance information, inclination information, and reflectance information of the object 220 may be calculated.
[0132]
In the information acquisition method described with reference to FIG. 26 or FIG. 27, the light emitted from the three irradiation positions has different wavelength as the main wavelength components, and at the respective irradiation positions, substantially simultaneously. The object 220 may be irradiated with light. At this time, it is preferable that the camera 210 has wavelength selection means for selectively transmitting light of different wavelengths, and images reflected light from the object 220 with the light irradiated from the respective irradiation positions. By irradiating the object 220 with light having different wavelengths as main wavelength components at the same time, distance information, tilt information, and reflectance information can be obtained with high accuracy even for a moving object. However, since the reflectance of the surface of the object 220 varies depending on the wavelength of light, an error occurs in the measurement result. In order to reduce the error, it is necessary to correct the difference in reflectance depending on the wavelength.
[0133]
FIG. 28 is an explanatory diagram of an information acquisition method in which the difference in reflectance of the surface of the object 220 due to wavelength is corrected. As an example, as shown in FIG. 28A, the wavelength of light emitted from the irradiation position 212 is λ.a, The wavelength of the light emitted from the irradiation position 214 is λbAnd λC, The wavelength of the light emitted from the irradiation position 216 is λd, ΛeAnd Further, the intensity of light emitted from the irradiation position 212 is expressed as P.1, P represents the intensity of light emitted from the irradiation position 2142, P represents the intensity of light emitted from the irradiation position 2163And the intensity of the reflected light for each wavelength is Wa,Wb, Wc, Wd, WeAnd As shown in FIG. 28B, the intensity P from the irradiation position 214 is obtained.2At a wavelength of λb, ΛcIntensity W of reflected lightb, WcBased on the intensity P from the irradiation position 2142At wavelength λaIntensity W of reflected light when irradiated withfIs calculated. In this example, the wavelength λb, ΛcStrength W based onfIn other examples, the intensity W is based on the reflected light of more wavelength components.fMay be calculated. Similarly, as shown in FIG. 28C, the intensity P from the irradiation position 216 is obtained.3At a wavelength of λd, ΛeIntensity W of reflected lightd, WeBased on the intensity P from the irradiation position 2143At wavelength λaIntensity W of reflected light when irradiated withgIs calculated. Calculated intensity Wb, Wc, And detected intensity WaThe distance information to the object 220, the inclination information of the surface of the object 220, and the reflectance information of the surface of the object 220 are calculated based on According to the information acquisition method described above, since light is irradiated simultaneously at three irradiation positions, distance information, inclination information, and reflectance information can be accurately acquired even for a moving object. .
[0134]
FIG. 29 is a flowchart showing an example of an information acquisition method according to the present invention. The information acquisition method in the present embodiment includes an irradiation stage (S200), an imaging stage (S202), and a calculation stage (S204).
[0135]
In the irradiation step (S200), as described with reference to FIG. 26, the object 220 is irradiated with light from three or more irradiation positions that are optically different. In the imaging step (S202), the reflected light from the object by the light irradiated from three or more irradiation positions is imaged. In the calculation step (S204), the distance information to the object 220, the inclination information of the surface of the object 220, and the reflectance information of the surface of the object 220 are calculated based on the reflected light imaged in the imaging step.
[0136]
In the irradiation step (S200), similarly to the information acquisition unit described with reference to FIG. 27, the object 220 is irradiated with light from three irradiation positions that are optically in a straight line, and the imaging step (S202). May image the reflected light of the light from three or more irradiation positions at the same optical position as any one of the three or more irradiation positions.
[0137]
Further, in the calculation step (S204), as described with reference to FIG. 26 or FIG. 2, the distance information to the object 220, the inclination information of the surface of the object 220, the surface information of the object 220 based on the intensity of reflected light The reflectance information may be calculated. In the irradiation step (S200), the object 220 may be irradiated with light from three irradiation positions that optically form a triangle.
[0138]
In the irradiation step (S200), similarly to the information acquisition method described with reference to FIG. 28, the object 220 is irradiated with light of a different wavelength at each irradiation position, and substantially at each irradiation position. At the same time, the object 220 may be irradiated with light. In this case, it is preferable that the imaging step (S202) includes wavelength selection means for selectively transmitting light of different wavelengths, and images reflected light from the object 220 by light at each irradiation position.
[0139]
As described above, according to the image pickup apparatus and the distance measuring method of the present invention, light having different wavelength characteristics is irradiated onto a subject simultaneously from different radiation positions, and reflected light from the subject is optically matched to the wavelength characteristics. The depth distance of the subject can be easily calculated by measuring the intensity.
[0140]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.
[0141]
As an example of such a change, in the above description, reflected light is imaged as an example of outgoing light obtained from a subject irradiated with light, and the distance to the subject is obtained from the difference in intensity of the reflected light. In the case of a transparent or translucent object that transmits light, the depth distance of the subject can also be obtained from the difference in intensity of transmitted light that has passed through the subject.
[0142]
【The invention's effect】
As apparent from the above description, according to the present invention, the depth distance of the subject can be easily measured by photographing the emitted light obtained from the subject irradiated with light.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a configuration diagram of an image capturing apparatus 200 according to the first embodiment.
FIG. 3 is a configuration diagram of an irradiation unit 100 and an imaging unit 120 according to the first embodiment.
FIG. 4 is a configuration diagram of a processing unit 60 according to the first embodiment.
FIG. 5 is an explanatory diagram of a depth distance calculation method by a light intensity detection unit 64 and a depth calculation unit 66;
FIG. 6 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by interpolation.
FIG. 7 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by extrapolation.
FIG. 8 is a diagram for explaining a method of obtaining provisional reflected light intensity from each reflected light from the light sources 10A and 10B.
FIG. 9 is a diagram for explaining a method for obtaining provisional reflected light intensity when irradiation is performed using a band-pass filter that transmits only long-wavelength or short-wavelength light.
FIG. 10 is a diagram showing the surface reflectance of three types of objects.
11 is a diagram illustrating an optical filter that transmits a specific wavelength component provided in the light receiving unit 40. FIG.
FIG. 12 is a flowchart of a distance measurement method according to the first embodiment.
FIG. 13 is a flowchart of depth distance calculation processing S110.
FIG. 14 is a flowchart of a modification of depth distance calculation processing S110.
FIG. 15 is a configuration diagram of an irradiation unit 100 and an imaging unit 120 according to the second embodiment.
FIG. 16 is a configuration diagram of a processing unit 60 according to the second embodiment.
17 is an explanatory diagram of a depth distance calculation method by a light intensity detection unit 64 and a depth calculation unit 66. FIG.
FIG. 18 is a diagram for explaining a method of separating reflected light using a band cut filter.
FIG. 19 is a flowchart of a distance measurement method according to the second embodiment.
FIG. 20 is a configuration diagram of an irradiation unit 100 and an imaging unit 120 according to the third embodiment.
FIG. 21 is a configuration diagram of a processing unit 60 according to the third embodiment.
FIG. 22 is a configuration diagram of an irradiation unit 100 and an imaging unit 120 according to the fourth embodiment.
FIG. 23 is a principle explanatory diagram according to Embodiment 5 of the present invention.
24 is an explanatory diagram of an example of a method for calculating a distance L to a measured unit 122 and a surface inclination θ0 of the measured unit 122. FIG.
FIG. 25 shows an example of a result of calculating the surface inclination θ0 and the surface inclination θ0 ′ at predetermined distance intervals within a predetermined range with respect to the temporary distance La.
FIG. 26 is a diagram illustrating the principle of an information acquisition method according to Embodiment 5 of the present invention.
FIG. 27 is an explanatory diagram of an information acquisition method when irradiation positions are arranged on a straight line.
FIG. 28 is an explanatory diagram of an information acquisition method in which a difference in reflectance of the surface of the object 20 due to wavelength is corrected.
FIG. 29 is a flowchart illustrating an example of an information acquisition method.
[Explanation of symbols]
10 Light source 12 Optical filter
20 Optical lens 30 Spectrometer
40 light receiving unit 60 processing unit
62 Image memory 64 Light intensity detector
66 Depth calculation unit 67 Image correction unit
68 Recording unit 80 Control unit
100 Irradiation unit 120 Imaging unit
200 imaging device

Claims (20)

被写体の奥行きに関する情報を取得する画像撮像装置であって、
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から前記被写体に照射する照射部と、
前記照射部により前記第1及び第2の照射光が照射された前記被写体からの出射光から、前記第1の波長を有する第1の出射光と、前記第2の波長を有する第2の出射光と、前記第3の波長を有する第3の出射光とを光学的に分離する分光部と、
前記第2及び第3の出射光の強度に基づいて、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度を求め、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出部と
を備えた画像撮像装置。
An image capturing device that acquires information about the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically An irradiating unit that irradiates the subject from different radiation positions;
A first outgoing light having the first wavelength and a second outgoing light having the second wavelength are emitted from the subject irradiated with the first and second irradiation lights by the irradiation unit. A spectroscopic unit for optically separating the incident light and the third emitted light having the third wavelength;
Based on the intensities of the second and third emitted lights, the provisional emitted light from the subject when it is assumed that the light having the first wavelength is emitted from the radiation position of the second irradiated light. An image pickup apparatus comprising: a depth calculating unit that obtains an intensity and calculates a depth distance to the subject by using the intensity of the first emitted light and the intensity of the temporary emitted light .
前記照射部は、前記第1及び第2の照射光を同時に照射する請求項1に記載の画像撮像装置。  The image capturing apparatus according to claim 1, wherein the irradiation unit irradiates the first and second irradiation lights simultaneously. 前記照射部により前記第1及び第2の照射光が照射された前記被写体から得られる出射光を結像する光学結像部と、
前記分光部によって分離され、前記光学結像部が結像する前記第1、第2及び第3の出射光を受光する受光部と、
前記受光部が受光する前記第1、第2及び第3の出射光の強度を検出する光強度検出部とをさらに備え、
前記奥行き算出部は、前記第1、第2及び第3の出射光の強度を用いて、前記被写体までの奥行き距離を算出する請求項2に記載の画像撮像装置。
An optical imaging unit that images emitted light obtained from the subject irradiated with the first and second irradiation lights by the irradiation unit;
A light receiving unit that receives the first, second, and third outgoing lights separated by the spectroscopic unit and imaged by the optical imaging unit;
A light intensity detector that detects the intensity of the first, second, and third emitted light received by the light receiver;
The image capturing apparatus according to claim 2, wherein the depth calculation unit calculates a depth distance to the subject using intensities of the first, second, and third outgoing lights.
前記受光部は、3板の固体撮像素子を有し、前記分光部は、光路分割手段を用いて前記第1、第2及び第3の出射光を分離し、それぞれを前記3板の固体撮像素子のいずれか1つに受光させる請求項3に記載の画像撮像装置。  The light receiving unit includes a three-plate solid-state imaging device, and the spectroscopic unit separates the first, second, and third outgoing lights using an optical path dividing unit, and each of them separates the three-plate solid-state imaging. The image capturing apparatus according to claim 3, wherein any one of the elements receives light. 前記受光部は、固体撮像素子を有し、前記分光部は、前記第1の波長の光を透過する第1の光学フィルターと、前記第2の波長の光を透過する第2の光学フィルターと、前記第3の波長の光を透過する第3の光学フィルターとを有し、前記第1、第2及び第3の光学フィルターが前記固体撮像素子の受光面に交互に配置された請求項3に記載の画像撮像装置。  The light receiving unit includes a solid-state image sensor, and the spectroscopic unit includes a first optical filter that transmits light of the first wavelength, and a second optical filter that transmits light of the second wavelength. And a third optical filter that transmits light of the third wavelength, and the first, second, and third optical filters are alternately disposed on the light receiving surface of the solid-state imaging device. An image capturing apparatus according to claim 1. 前記照射部は、所定の第1の境界波長より短い波長領域の光を透過する第1の光学フィルターと、所定の第2の境界波長より長い波長領域の光を透過する第2の光学フィルターを有し、第1の光学フィルターを透過する第1の照射光と、第2の光学フィルターを透過する第2の照射光とを、光学的に異なる放射位置から前記被写体に照射し、
前記分光部は、前記第1及び第2の境界波長の短い方よりも短い第1の波長の光を透過する第1の光学フィルターと、前記第1及び第2の境界波長の長い方よりも長い第2及び第3の波長の光をそれぞれ透過する第2及び第3の光学フィルターとを有し、前記被写体から得られる前記出射光を前記第1の光学フィルターに透過させることにより、前記第1の波長を有する前記第1の出射光を分離し、前記出射光をそれぞれ前記第2及び第3の光学フィルターに透過させることにより、前記第2の波長を有する前記第2の出射光及び前記第3の波長を有する前記第3の出射光を分離する請求項3に記載の画像撮像装置。
The irradiation unit includes: a first optical filter that transmits light in a wavelength region shorter than a predetermined first boundary wavelength; and a second optical filter that transmits light in a wavelength region longer than a predetermined second boundary wavelength. And irradiating the subject with first irradiation light that passes through the first optical filter and second irradiation light that passes through the second optical filter from an optically different radiation position,
The spectroscopic unit includes a first optical filter that transmits light having a shorter first wavelength than a shorter one of the first and second boundary wavelengths, and a longer one of the first and second boundary wavelengths. Second and third optical filters that respectively transmit light having a long second and third wavelengths, and transmitting the emitted light obtained from the subject to the first optical filter, thereby allowing the first optical filter to transmit the first and second optical filters. Separating the first outgoing light having a wavelength of 1 and transmitting the outgoing light through the second and third optical filters, respectively, and the second outgoing light having the second wavelength and The image capturing apparatus according to claim 3, wherein the third emitted light having a third wavelength is separated.
前記奥行き算出部は、前記第2の出射光と前記第3の出射光の平均強度と、前記第1の出射光の強度とを用いて、前記被写体までの前記奥行き距離を算出する請求項に記載の画像撮像装置。The depth calculation unit, and the average intensity of the second outgoing light the third outgoing light, by using the intensity of the first outgoing light, according to claim 3 for calculating the depth distance to the subject An image capturing apparatus according to claim 1. 被写体の奥行きに関する情報を取得する画像撮像装置であって、
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長より短い第2の波長、及び前記第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から前記被写体に照射する照射部と
前記照射部により前記第1及び第2の照射光が照射された前記被写体からの出射光を結像する光学結像部と、
前記被写体から得られる前記出射光から、前記第1の波長を有する第1の出射光と、前記第2及び第3の波長を有する第2の出射光とを光学的に分離する分光部と、
前記分光部によって分離され、前記光学結像部が結像する前記第1の出射光及び前記第2の出射光を受光する受光部と、
前記受光部が受光する前記第1及び第2の出射光の強度を検出する光強度検出部と
前記第2の出射光の強度の半分の値を、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度として、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出部と
を備える画像撮像装置。
An image capturing device that acquires information about the depth of a subject,
A first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An irradiation unit that irradiates the subject with the irradiation light of 2 from an optically different radiation position;
An optical imaging unit that images the emitted light from the subject irradiated with the first and second irradiation lights by the irradiation unit;
A spectroscopic unit that optically separates the first emitted light having the first wavelength and the second emitted light having the second and third wavelengths from the emitted light obtained from the subject;
A light receiving unit that receives the first emitted light and the second emitted light separated by the spectroscopic unit and imaged by the optical imaging unit;
A light intensity detector that detects the intensity of the first and second emitted light received by the light receiver ;
The intensity of the temporary emitted light from the subject when it is assumed that half of the intensity of the second emitted light is the light having the first wavelength emitted from the radiation position of the second emitted light as, by using the intensity of the first intensity of the emitted light and the provisional emitted light, a depth calculation unit for calculating a depth distance to the subject
An image pickup apparatus comprising:
前記受光部は、2板の固体撮像素子を有し、前記分光部は、光路分割手段を用いて、前記第1の出射光と前記第2の出射光の光路を光学的に分岐させ、それぞれ前記2板の固体撮像素子のいずれか1つに受光させる請求項に記載の画像撮像装置。The light receiving unit has a two-plate solid-state imaging device, and the spectroscopic unit optically branches the optical paths of the first outgoing light and the second outgoing light using an optical path dividing unit, The image pickup device according to claim 8 , wherein any one of the two-plate solid-state image pickup devices receives light. 前記受光部は、固体撮像素子を有し、前記分光部は、前記第1の波長の光を透過する第1の光学フィルターと、前記第2及び第3の波長の光を透過する第2の光学フィルターとを有し、前記第1の光学フィルターと前記第2の光学フィルターとが前記固体撮像素子の受光面に交互に配置された請求項に記載の画像撮像装置。The light receiving unit includes a solid-state image sensor, and the spectroscopic unit transmits a first optical filter that transmits the light having the first wavelength and a second optical that transmits the light having the second and third wavelengths. The image capturing apparatus according to claim 8 , further comprising: an optical filter, wherein the first optical filter and the second optical filter are alternately arranged on a light receiving surface of the solid-state image sensor. 前記奥行き算出部は、前記第1の出射光の強度と前記第2の出射光の強度の半分の値との比に基づいて、前記被写体までの前記奥行き距離を算出する請求項に記載の画像撮像装置。The depth calculation unit according to claim 8 , wherein the depth calculation unit calculates the depth distance to the subject based on a ratio between an intensity of the first emitted light and a half value of an intensity of the second emitted light. Imaging device. 前記照射部が前記被写体に前記第1及び第2の照射光を照射するときの光軸と、前記結像部が前記被写体からの前記出射光を撮像するときの光軸とが略同一である請求項4、5、6、、または10に記載の画像撮像装置。The optical axis when the irradiation unit irradiates the subject with the first and second irradiation light and the optical axis when the imaging unit images the emitted light from the subject are substantially the same. The image capturing device according to claim 4, 5, 6, 9 , or 10 . 前記光強度検出部は、前記受光部に撮像された前記被写体の画像の各画素において前記第1及び第2の出射光の強度を検出し、前記奥行き算出部は、前記画素の各々に対応する前記被写体の領域までの前記奥行きを各々求めることにより、前記被写体の奥行き分布を算出する請求項12に記載の画像撮像装置。The light intensity detection unit detects the intensity of the first and second emitted light in each pixel of the subject image captured by the light receiving unit, and the depth calculation unit corresponds to each of the pixels. The image capturing apparatus according to claim 12 , wherein the depth distribution of the subject is calculated by obtaining each of the depths up to the region of the subject. 前記第1及び第2の照射光は赤外線領域の光であり、
前記分光部は、前記被写体から得られる前記出射光から可視光を光学的に分離する手段をさらに備え、
前記受光部は、前記分光部により光学的に分離され、前記光学結像部が結像する前記可視光を受光する可視光用の固体撮像素子をさらに備え、
前記奥行き算出部が算出する前記被写体の前記奥行き分布とともに前記可視光用の固体撮像素子に撮像された前記被写体の画像を記録する記録部をさらに備えた
請求項13に記載の画像撮像装置。
The first and second irradiation lights are light in the infrared region,
The spectroscopic unit further includes means for optically separating visible light from the emitted light obtained from the subject,
The light-receiving unit further includes a solid-state imaging device for visible light that is optically separated by the spectroscopic unit and receives the visible light formed by the optical imaging unit,
Imaging apparatus according to claim 13 comprising recording unit further for recording an image of the said object with depth distribution is captured in the solid-state image pickup element for the visible light of the object the depth calculation unit calculates.
前記光強度検出部が検出する前記被写体からの前記出射光の強度、及び前記奥行き算出部が算出する前記被写体までの前記奥行き距離の少なくとも1つに基づいて、前記照射部が照射する前記第1及び第2の照射光の発光時間、強度、放射位置、及び前記受光部の露光時間の少なくとも1つを制御する制御部をさらに備えた請求項4、5、6、、または10に記載の画像撮像装置。The first irradiation that the irradiation unit irradiates based on at least one of the intensity of the emitted light from the subject detected by the light intensity detection unit and the depth distance to the subject calculated by the depth calculation unit. and light emission time of the second irradiation light intensity, the radiation position, and the claims 4, 5 and 6 the control unit further comprising controlling at least one of exposure time of the light receiving portion, according to 9 or 10, Imaging device. 被写体の奥行きに関する情報を取得する距離測定方法であって、
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に前記被写体に照射する照射段階と、
前記第1及び第2の照射光が照射された前記被写体から得られる出射光から、前記第1の波長を有する第1の出射光と、前記第2の波長を有する第2の出射光と、前記第3の波長を有する第3の出射光とを光学的に分離する分光段階と、
分離された前記第1、第2及び第3の出射光を撮像する撮像段階と、
撮像された前記第1、第2及び第3の出射光の強度を検出する光強度検出段階と、
前記第2及び第3の出射光の強度に基づいて、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度を求め、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出段階と
を備えた距離測定方法。
A distance measurement method for acquiring information related to the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically Irradiating the subject simultaneously from different radiation positions;
From outgoing light obtained from the subject irradiated with the first and second irradiation light, first outgoing light having the first wavelength, second outgoing light having the second wavelength, and A spectroscopic step of optically separating the third outgoing light having the third wavelength;
An imaging stage for imaging the separated first, second and third outgoing lights;
A light intensity detection step of detecting the intensity of the first, second and third emitted lights imaged;
Based on the intensities of the second and third emitted lights, the provisional emitted light from the subject when it is assumed that the light having the first wavelength is emitted from the radiation position of the second irradiated light. A distance measurement method comprising: a depth calculation step of obtaining an intensity and calculating a depth distance to the subject using the intensity of the first emitted light and the intensity of the temporary emitted light .
前記奥行き算出段階は、前記第1の出射光の強度と前記仮の出射光の強度の比に基づいて、前記被写体までの前記奥行き距離を算出する請求項16に記載の距離測定方法。The distance measuring method according to claim 16 , wherein the depth calculating step calculates the depth distance to the subject based on a ratio of the intensity of the first emitted light and the intensity of the temporary emitted light. 前記奥行き算出段階は、前記第2の出射光と前記第3の出射光の平均強度と、前記第1の出射光の強度との比に基づいて、前記被写体までの前記奥行き距離を算出する請求項16に記載の距離測定方法The depth calculation step calculates the depth distance to the subject based on a ratio of an average intensity of the second emitted light and the third emitted light and an intensity of the first emitted light. Item 17. The distance measuring method according to Item 16 . 被写体の奥行きに関する情報を取得する距離測定方法であって、
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長より短い第2の波長、及び前記第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に前記被写体に照射する照射段階と、
前記第1及び第2の照射光が照射された前記被写体から得られる出射光から、前記第1の波長を有する第1の出射光と、前記第2及び第3の波長を有する第2の出射光とを光学的に分離する分光段階と、
分離された前記第1の出射光及び前記第2の出射光を撮像する撮像段階と、
受光された前記第1の出射光及び前記第2の出射光の強度をそれぞれ検出する光強度検出段階と、
前記第2の出射光の強度の半分の値を、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度として、前記第1の出射光の強度と前記仮の出射光の強度を用いて、前記被写体までの奥行き距離を算出する奥行き算出段階とを備えた距離測定方法。
A distance measurement method for acquiring information related to the depth of a subject,
A first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An irradiation stage for simultaneously irradiating the subject with two irradiation lights from different optically radiating positions;
From the emitted light obtained from the subject irradiated with the first and second irradiated light, the first emitted light having the first wavelength and the second emitted light having the second and third wavelengths. A spectroscopic stage for optically separating incident light;
An imaging stage for imaging the separated first outgoing light and second outgoing light;
A light intensity detection step of detecting the intensity of the received first emitted light and the second emitted light, respectively;
The intensity of the temporary emitted light from the subject when it is assumed that half of the intensity of the second emitted light is the light having the first wavelength emitted from the radiation position of the second emitted light as the intensity of the first outgoing light and with the strength of the temporary emitted light, the distance measuring method and a depth calculation step of calculating a depth distance to the subject.
前記奥行き算出段階は、前記第1の出射光の強度と前記第2の出射光の強度の半分の値との比に基づいて、前記被写体までの前記奥行き距離を算出する請求項19に記載の距離測定方法。20. The depth calculation step according to claim 19 , wherein the depth calculation step calculates the depth distance to the subject based on a ratio between an intensity of the first emitted light and a half value of an intensity of the second emitted light. Distance measurement method.
JP2001036761A 2000-02-16 2001-02-14 Image capturing apparatus and distance measuring method Expired - Lifetime JP4150506B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001036761A JP4150506B2 (en) 2000-02-16 2001-02-14 Image capturing apparatus and distance measuring method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000037771 2000-02-16
JP2000-37771 2000-02-16
JP2001036761A JP4150506B2 (en) 2000-02-16 2001-02-14 Image capturing apparatus and distance measuring method

Publications (2)

Publication Number Publication Date
JP2001304821A JP2001304821A (en) 2001-10-31
JP4150506B2 true JP4150506B2 (en) 2008-09-17

Family

ID=26585448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001036761A Expired - Lifetime JP4150506B2 (en) 2000-02-16 2001-02-14 Image capturing apparatus and distance measuring method

Country Status (1)

Country Link
JP (1) JP4150506B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719372B2 (en) 2004-10-12 2010-05-18 Epson Toyocom Corporation Voltage controlled piezoelectric oscillator that can be linear frequency controlled

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334311A (en) * 2006-05-18 2007-12-27 Nippon Hoso Kyokai <Nhk> Visible light / infrared light optical system
JP5112702B2 (en) * 2007-01-16 2013-01-09 富士フイルム株式会社 Imaging apparatus, method, and program
KR101591471B1 (en) * 2008-11-03 2016-02-04 삼성전자주식회사 Apparatus and method for extracting feature information of an object, and apparatus and method for generating feature map using the apparatus and method
US9128036B2 (en) * 2011-03-21 2015-09-08 Federal-Mogul Corporation Multi-spectral imaging system and method of surface inspection therewith
KR101658985B1 (en) * 2015-01-30 2016-09-23 한국기계연구원 Optical Layout Apparatus for Lithography
JP7076951B2 (en) * 2017-05-23 2022-05-30 株式会社ディスコ Reflectance detector
CN108629325B (en) * 2018-05-11 2021-06-22 北京旷视科技有限公司 Method, device and system for determining the position of an item
CN118140114A (en) * 2021-10-29 2024-06-04 索尼集团公司 Light emitting device and electronic apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642915A (en) * 1992-06-03 1994-02-18 Stanley Electric Co Ltd Optical measuring device
JPH0989553A (en) * 1995-09-26 1997-04-04 Olympus Optical Co Ltd Distance measuring device
JP3414624B2 (en) * 1997-09-16 2003-06-09 松下電器産業株式会社 Real-time range finder
JP2000002521A (en) * 1998-06-18 2000-01-07 Minolta Co Ltd Three dimensional input device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719372B2 (en) 2004-10-12 2010-05-18 Epson Toyocom Corporation Voltage controlled piezoelectric oscillator that can be linear frequency controlled

Also Published As

Publication number Publication date
JP2001304821A (en) 2001-10-31

Similar Documents

Publication Publication Date Title
JP4040825B2 (en) Image capturing apparatus and distance measuring method
EP1126412B1 (en) Image capturing apparatus and distance measuring method
US12335455B2 (en) User interface for intraoral scanning with tooth color detection
JP6480441B2 (en) Time-of-flight camera system
JP3979670B2 (en) 3D color imaging
KR101296780B1 (en) Obstacle Detecting system using of laser, and method thereof
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US6765606B1 (en) Three dimension imaging by dual wavelength triangulation
US10067058B1 (en) Auto-focus system
JP4516590B2 (en) Image capturing apparatus and distance measuring method
JP4150506B2 (en) Image capturing apparatus and distance measuring method
US6222631B1 (en) Two-dimensional spectral characteristic measuring apparatus
JP2007528028A (en) Optical system for generating images with different focus
JP3805791B2 (en) Method and apparatus for reducing undesirable effects of noise in three-dimensional color imaging systems
KR101438748B1 (en) Optical coherence tomography device and tomography method thereof
JP4141627B2 (en) Information acquisition method, image capturing apparatus, and image processing apparatus
KR101226442B1 (en) Spectral domain optical coherence tomograpy including of high resolution spectromiter and the method
JP4204746B2 (en) Information acquisition method, imaging apparatus, and image processing apparatus
JP4010360B2 (en) Spectral imaging device
JP4266286B2 (en) Distance information acquisition device and distance information acquisition method
JP2000258154A (en) Image pickup device
JP2003014422A (en) Real-time range finder
JP2022126704A (en) Imaging apparatus, imaging method, program, and recording medium
JPH07311089A (en) Spectral characteristics measuring device
TW202429042A (en) Film thickness measuring device and film thickness measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060110

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4150506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term