JP4150506B2 - Image capturing apparatus and distance measuring method - Google Patents
Image capturing apparatus and distance measuring method Download PDFInfo
- Publication number
- JP4150506B2 JP4150506B2 JP2001036761A JP2001036761A JP4150506B2 JP 4150506 B2 JP4150506 B2 JP 4150506B2 JP 2001036761 A JP2001036761 A JP 2001036761A JP 2001036761 A JP2001036761 A JP 2001036761A JP 4150506 B2 JP4150506 B2 JP 4150506B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- wavelength
- subject
- intensity
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、被写体の奥行き距離に関する情報を取得する画像撮像装置及び距離測定方法に関する。特に本発明は、光が照射された被写体から得られる出射光を撮影して被写体の奥行きに関する情報を取得する画像撮像装置及び距離測定方法に関する。
【0002】
【従来の技術】
物体までの距離情報や物体の位置情報を得るために、物体にスリットや縞模様などのパターン光を投影し、物体に投影されたパターンを撮影して解析する三次元画像計測の手法が知られている。代表的な計測手法として、スリット光投影法(別名、光切断法)、コード化パターン光投影法などがあり、井口征士、佐藤宏介著『三次元画像計測』(昭晃堂)に詳しい。
【0003】
特開昭61−155909号公報(公開日昭和61年7月15日)及び特開昭63−233312号公報(公開日昭和63年9月29日)には、異なる光源位置から被写体に光を照射し、被写体からの反射光の強度比に基づいて、被写体までの距離を測定する距離測定装置及び距離測定方法が開示されている。
【0004】
特開昭62−46207号公報(公開日昭和62年2月28日)には、位相の異なる2つの光を被写体に照射し、被写体からの反射光の位相差に基づいて、被写体までの距離を測定する距離検出装置が開示されている。
【0005】
また、河北他「三次元撮像装置Axi-Vision Cameraの開発」(3次元画像コンファレンス99、1999年)には、投影光に超高速の強度変調を加え、強度変調光で照明された被写体を高速シャッター機能を備えたカメラで撮影し、被写体までの距離によって変化する強度変調度合いから、距離を測定する方法が開示されている。
【0006】
【発明が解決しようとする課題】
従来の光投影法による計測手法は、3角測量の原理に基づいて、投影パターンが投影された被写体の領域までの距離を測定する。したがって、距離測定の高い分解能を得るためには、原理的に投影光学系と撮影光学系を十分に離して配置する必要があり、測定装置の大型化が避けられないという問題が生じていた。また、投影光学系と撮影光学系の光軸が離れているために、撮影光学系から見た場合に、投影されたパターンが被写体の陰に隠れて観察されない場所ができ、距離情報が得られない「死角」となるという問題も生じていた。
【0007】
特開昭61−155909号公報及び特開昭63−233312号公報に開示された距離測定装置及び距離測定方法では、放射位置を異ならせて光を順次照射し、それぞれの反射光を測定する必要があるため、測定に時間差が生じる。そのため、動きのある被写体の場合、距離を測定することができないという問題が生じる。また光源の位置を変えて照射する間に、撮影装置のぶれにより、測定誤差が生じる可能性がある。
【0008】
また、波長特性の異なる光の場合、同時に照射し、反射光を照射光の波長特性に合わせたフィルターを用いて、分光し、反射光強度を測定することができる。しかし、物体の分光反射率が異なる場合、照射光の波長の違いから反射光強度に違いが生じるため、反射光強度の比から奥行き距離を計算する際の誤差要因となり、正確な奥行き距離が計算できないという問題が生じていた。
【0009】
特開昭62−46207号公報に開示された距離検出装置では、位相差を検出するための精度の高い位相検出器が必要となり、装置が高価になり、簡便性に欠ける。また、被写体の点からの反射光の位相を測定するため、被写体全体の奥行き分布を測定することはできない。
【0010】
また、河北他「三次元撮像装置Axi-Vision Cameraの開発」(3次元画像コンファレンス99、1999年)に開示された強度変調を用いた距離測定手法は、非常に高速に光変調や光シャッター操作を行う必要があり、測定装置は大型で高価になり、簡便に測定することができないという問題がある。
【0011】
そこで本発明は、上記の課題を解決することのできる画像撮像装置及び距離測定装置を提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0012】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の形態においては、被写体の奥行きに関する情報を取得する画像撮像装置であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射する照射部と、照射部により第1及び第2の照射光が照射された被写体からの出射光に基づいて、被写体までの奥行き距離を算出する奥行き算出部とを備えたことを特徴とする。
【0013】
照射部は、第1及び第2の照射光を同時に照射してもよい。照射部により第1及び第2の照射光が照射された被写体から得られる出射光を結像する光学結像部と、被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2の波長を有する第2の出射光と、第3の波長を有する第3の出射光とを光学的に分離する分光部と、分光部によって分離され、光学結像部が結像する第1、第2及び第3の出射光を受光する受光部と、受光部が受光する第1、第2及び第3の出射光の強度を検出する光強度検出部とをさらに備え、奥行き算出部は、第1、第2及び第3の出射光の強度を用いて、被写体までの奥行き距離を算出してもよい。
【0014】
受光部は、3板の固体撮像素子を有し、分光部は、光路分割手段を用いて第1、第2及び第3の出射光を分離し、それぞれを3板の固体撮像素子のいずれか1つに受光させてもよい。受光部は、固体撮像素子を有し、分光部は、第1の波長の光を透過する第1の光学フィルターと、第2の波長の光を透過する第2の光学フィルターと、第3の波長の光を透過する第3の光学フィルターとを有し、第1、第2及び第3の光学フィルターが固体撮像素子の受光面に交互に配置させてもよい。
【0015】
照射部は、所定の第1の境界波長より短い波長領域の光を透過する第1の光学フィルターと、所定の第2の境界波長より長い波長領域の光を透過する第2の光学フィルターを有し、第1の光学フィルターを透過する第1の照射光と、第2の光学フィルターを透過する第2の照射光とを、光学的に異なる放射位置から被写体に照射し、分光部は、第1及び第2の境界波長の短い方よりも短い第1の波長の光を透過する第1の光学フィルターと、第1及び第2の境界波長の長い方よりも長い第2及び第3の波長の光をそれぞれ透過する第2及び第3の光学フィルターとを有し、被写体から得られる出射光を第1の光学フィルターに透過させることにより、第1の波長を有する第1の出射光を分離し、出射光をそれぞれ第2及び第3の光学フィルターに透過させることにより、第2の波長を有する第2の出射光及び第3の波長を有する第3の出射光を分離させてもよい。
【0016】
奥行き算出部は、第2及び第3の出射光の強度に基づく値と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出部は、第2及び第3の出射光の強度に基づいて、第1の波長を有する光を第2の照射光の放射位置から照射したと仮定した場合の被写体からの仮の出射光の強度を求め、第1の出射光の強度と仮の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出部は、第2の出射光と第3の出射光の平均強度と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。
【0017】
本発明の第2の形態においては、被写体の奥行きに関する情報を取得する画像撮像装置であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射する照射部と、照射部により第1及び第2の照射光が照射された被写体からの出射光に基づいて、被写体までの奥行き距離を算出する奥行き算出部とを備えたことを特徴とする。
【0018】
照射部は、第1及び第2の照射光を同時に照射してもよい。照射部は、第1の波長を主要な波長成分とする第1の照射光と、第1の波長より短い第2の波長、及び第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から被写体に照射し、照射部により第1及び第2の照射光が照射された被写体からの出射光を結像する光学結像部と、被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2及び第3の波長を有する第2の出射光とを光学的に分離する分光部と、分光部によって分離され、光学結像部が結像する第1の出射光及び第2の出射光を受光する受光部と、受光部が受光する第1及び第2の出射光の強度を検出する光強度検出部とをさらに備え、奥行き算出部は、第1及び第2の出射光の強度を用いて、被写体までの奥行き距離を算出してもよい。
【0019】
受光部は、2板の固体撮像素子を有し、分光部は、光路分割手段を用いて、第1の出射光と第2の出射光の光路を光学的に分岐させ、それぞれ2板の固体撮像素子のいずれか1つに受光させてもよい。受光部は、固体撮像素子を有し、分光部は、第1の波長の光を透過する第1の光学フィルターと、第2及び第3の波長の光を透過する第2の光学フィルターとを有し、第1の光学フィルターと第2の光学フィルターとが固体撮像素子の受光面に交互に配置されてもよい。
【0020】
奥行き算出部は、第1の出射光の強度と第2の出射光の強度の半分の値との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0021】
上記の第1及び第2の形態において、照射部が被写体に第1及び第2の照射光を照射するときの光軸と、結像部が被写体からの出射光を撮像するときの光軸とが略同一であってもよい。光強度検出部は、受光部に撮像された被写体の画像の各画素において第1及び第2の出射光の強度を検出し、奥行き算出部は、画素の各々に対応する被写体の領域までの奥行きを各々求めることにより、被写体の奥行き分布を算出してもよい。
【0022】
上記の第1及び第2の形態において、第1及び第2の照射光は赤外線領域の光であり、分光部は、被写体から得られる出射光から可視光を光学的に分離する手段をさらに備え、受光部は、分光部により光学的に分離され、光学結像部が結像する可視光を受光する可視光用の固体撮像素子をさらに備え、奥行き算出部が算出する被写体の奥行き分布とともに可視光用の固体撮像素子に撮像された被写体の画像を記録する記録部をさらに備えてもよい。
【0023】
上記の第1及び第2の形態において、光強度検出部が検出する被写体からの出射光の強度、及び奥行き算出部が算出する被写体までの奥行き距離の少なくとも1つに基づいて、照射部が照射する第1及び第2の照射光の発光時間、強度、放射位置、及び受光部の露光時間の少なくとも1つを制御する制御部をさらに備えてもよい。
【0024】
本発明の第3の形態においては、被写体の奥行きに関する情報を取得する距離測定方法であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する照射段階と、第1及び第2の照射光が照射された被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2の波長を有する第2の出射光と、第3の波長を有する第3の出射光とを光学的に分離する分光段階と、分離された第1、第2及び第3の出射光を撮像する撮像段階と、撮像された第1、第2及び第3の出射光の強度を検出する光強度検出段階と、第1、第2及び第3の出射光の強度を用いて、被写体までの奥行き距離を算出する奥行き算出段階とを備えたことを特徴とする。
【0025】
奥行き算出段階は、第2及び第3の出射光の強度に基づく値と、第1の出射光の強度とを用いて、被写体までの奥行き距離を算出してもよい。奥行き算出段階は、第2及び第3の出射光の強度に基づいて、第1の波長を有する光を第2の照射光の放射位置から照射したと仮定した場合の被写体からの仮の出射光の強度を求め、第1の出射光の強度と仮の出射光の強度の比に基づいて、被写体までの奥行き距離を算出してもよい。奥行き算出段階は、第2の出射光と第3の出射光の平均強度と、第1の出射光の強度との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0026】
本発明の第4の形態においては、被写体の奥行きに関する情報を取得する距離測定方法であって、第1の波長を主要な波長成分とする第1の照射光と、第1の波長より短い第2の波長、及び第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する照射段階と、第1及び第2の照射光が照射された被写体から得られる出射光から、第1の波長を有する第1の出射光と、第2及び第3の波長を有する第2の出射光とを光学的に分離する分光段階と、分離された第1の出射光及び第2の出射光を撮像する撮像段階と、受光された第1の出射光及び第2の出射光の強度をそれぞれ検出する光強度検出段階と、第1の出射光の強度と第2の出射光の強度を用いて、被写体までの奥行き距離を算出する奥行き算出段階とを備えたことを特徴とする。
【0027】
奥行き算出段階は、第1の出射光の強度と第2の出射光の強度の半分の値との比に基づいて、被写体までの奥行き距離を算出してもよい。
【0028】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0029】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0030】
(実施形態1)
本発明の第1の実施形態を説明する。最初に、被写体からの反射光の強度から被写体までの奥行き距離を測定する基本原理について説明する。図1は、本発明の原理説明図である。光源6、8はそれぞれ放射光強度I1、I2を有する同一波長特性の点光源である。光源6、8はそれぞれ物体2から距離R1、R2の位置にあり、光源6、8の放射位置の間隔はLである。光源6を発光させ、照射された物体2からの反射光をカメラ5によって撮影する。次に光源8を発光させ、照射された物体2からの反射光をカメラ5によって撮影する。
【0031】
光源6から放射された光は全方位に放射される。光源6を中心とする半径rの球を考えると、光の半径rの球面上の単位面積当たりの光密度は、
【0032】
I1/(4πr2)
で与えられる。したがって、光源6から距離R1だけ離れた位置に存在する物体2の領域4からの反射光強度W1は、物体2の表面反射率をRfとすると、
【0033】
W1=Rf・I1/(4πR1 2)
で与えられる。同様にして、光源8から距離R2だけ離れた位置に存在する物体2の領域4からの反射光強度W2は、
【0034】
W2=Rf・I2/(4πR2 2)
で与えられる。
【0035】
光源6による反射光強度W1と光源8による反射光強度W2の比WRは、
WR=W1/W2=(I1・R2 2)/(I2・R1 2)
と求められる。これと、R2−R1=Lの関係から、光源6と光源8の放射位置間隔Lが既知であれば、反射光強度比WRを測定して、距離R1を式
【0036】
R1=L/{(WR・I2/I1)1/2−1}
により求めることができる。
【0037】
このように、同色の光源を用いれば、反射光強度比WRを求める過程で、表面反射率Rfの影響がキャンセルされるため、被写体の奥行き距離に関する情報を取得することができる。この方法では、光源6と光源8を順に発光し、撮像するため、撮影に時間差が生じる。したがって動きのある被写体には適用することができない。そこで光源6と光源8の波長特性を異ならせ、光源6と光源8を同時に発光し、被写体からの反射光から光源6による反射光と光源8による反射光を波長分離して、それぞれの反射光の強度を測定する方法が考えられる。物体2の表面反射率は一般に波長によって異なる。波長λの光を照射した場合の表面反射率をRf(λ)とする。光源6の波長をλ1、光源8の波長をλ2とすると、光源6による反射光強度W1は、
【0038】
W1=Rf(λ1)・I1/(4πR1 2)
で与えられる。一方、光源8による反射光強度W2は、
【0039】
W2=Rf(λ2)・I2/(4πR2 2)
で与えられる。
【0040】
波長による表面反射率の違いがあるため、反射光強度比WRを求めても、表面反射率Rfの項がキャンセルされないため、被写体の奥行き距離に関する情報を取得することができない。波長λ1とλ2の差を微小にして、表面反射率Rf(λ1)とRf(λ2)の違いを無視して、反射光強度比WRを求め、被写体の奥行き距離を算出することもできるが、計算に誤差が生じる。表面反射率Rf(λ1)とRf(λ2)の違いによる計算誤差を小さくするためには、波長λ1とλ2の差を十分に小さくしなければならないが、波長λ1とλ2の差を小さくすると、波長分離の精度が悪くなり、波長毎の強度測定に誤差が含まれることになる。したがって、波長分離の分解能を上げて強度測定の精度を上げるためには、波長λ1とλ2の差を大きくしなければならないし、表面反射率Rf(λ1)とRf(λ2)の違いを小さくして、距離測定の精度を上げるためには、波長λ1とλ2の差を小さくしなければならないというジレンマに陥り、距離測定の精度を改善することに自ずと限界が生じる。
【0041】
そこで、本実施形態では、第1の波長特性を有する光と、第1の波長特性とは異なる第2の波長特性を有する光を光学的に異なる放射位置から同時に被写体に照射し、第1の波長特性を有する光による反射光と、第2の波長特性を有する光による反射光とを光学的に分離し、第2の波長特性の反射光を用いて、仮に第1の波長特性を有する光を第2の波長特性の光の放射位置から照射した場合に、被写体から得られるであろう仮の反射光強度を求め、第1の波長特性の反射光強度と、仮の反射光強度との比に基づいて、被写体の奥行き距離を算出する。仮の反射光強度を求めることにより、波長による表面反射率の違いをキャンセルすることができるため、奥行き距離を正確に求めることができる。
【0042】
図2は、本実施形態の画像撮像装置200の構成図である。画像撮像装置200として、デジタルスチルカメラや静止画像を撮影できるデジタルビデオカメラ等が考えられる。画像撮像装置200は、照射部100と、撮像部120と、処理部60と、制御部80とを有する。
【0043】
照射部100は被写体に光を照射し、撮像部120は照射部100が照射した被写体を撮像する。処理部60は撮像部120が撮像した被写体の画像を処理して、撮像された被写体の奥行き距離を求め、被写体の奥行き分布情報として記録する。処理部60はまた、撮像部120が撮像した被写体の画像を記録することもできる。制御部80は、処理部60が求めた被写体の奥行き距離に基づいてフィードバック制御を行い、照射部100が照射する光の強度、発光のタイミング、発光時間、放射位置等を制御し、撮像部120の露光時間等を制御する。
【0044】
照射部100は、光源10A、10Bと、光学フィルター12A、12Bとを有する。光源10A、10Bは異なる位置に設置され、光源10A、10Bからの光は、それぞれ特定の波長成分を透過する光学フィルター12A、12Bを透過し、被写体に同時に照射される。照射部100は、光量を効率的に利用したい場合や、光源10A、10Bの放射位置の差を光学的に大きくしたい場合には、コンデンサーレンズ等の光学レンズを照射光の光路に挿入して、光を集光させたり、レンズ効果により照射光の光学的な放射位置を変更させてもよい。
【0045】
撮像部120は、光学結像部の一例としての光学レンズ20と、分光部30と、受光部40とを有する。光学レンズ20は、被写体からの反射光を結像する。分光部30は、被写体からの反射光を、照射部100が照射した波長特性に合わせて波長分離する。受光部40は、光学レンズ20が結像し、分光部30によって波長分離された反射光を受光する。
【0046】
受光部40は、一例として固体撮像素子である。被写体像は固体撮像素子の受光面上に結像される。結像された被写体像の光量に応じ、固体撮像素子の各センサエレメントに電荷が蓄積され、蓄積された電荷は、一定の順序に走査され、電気信号として読み出される。
【0047】
固体撮像素子は、被写体からの反射光の強度を、画素単位に高い精度で検出可能なように、S/N比が良く、画素数が大きい電荷結合素子(CCD)イメージセンサであることが望ましい。固体撮像素子としてCCD以外に、MOSイメージセンサ、CdS−Se密着型イメージセンサ、a−Si(アモルファスシリコン)密着型イメージセンサ、又はバイポーラ密着型イメージセンサのいずれかを用いてもよい。
【0048】
処理部60は、画像メモリ62と、光強度検出部64と、奥行き算出部66と、画像補正部67と、記録部68とを有する。画像メモリ62は、撮像部120が撮像した被写体の画像を、照射部100が照射した照射光の波長特性に合わせて格納する。光強度検出部64が画像メモリ62に格納された被写体の画像から反射光の強度を画素単位または画素領域単位で検出する。奥行き算出部66は、光強度検出部64が検出した反射光強度に基づいて、各画素領域に写された被写体の領域までの奥行き距離を算出する。記録部68は奥行き算出部66が算出した被写体の奥行き距離の分布を記録する。画像補正部67は、画像メモリ62に格納された被写体の画像について、階調補正、ホワイトバランス等の補正を行う。記録部68は画像補正部67が処理した被写体の画像を記録する。また、光強度検出部64及び奥行き算出部66はそれぞれ、被写体からの反射光の検出レベル及び被写体の奥行き分布の情報を制御部80に出力する。記録部68は、フラッシュメモリ、メモリカード等の半導体メモリに画像データ及び奥行き分布情報を記録する。
【0049】
制御部80は、処理部60が求めた被写体の奥行き距離に基づいてフィードバック制御を行い、照射部100が照射する光の強度、発光のタイミング、光の放射位置等を制御し、撮像部120の受光部40の受光感度や露光時間等を制御する。制御部80は、図示しない測光センサの測光データや、測距センサの測距データを用いて、照射部100と撮像部120を制御してもよい。また、制御部80は、処理部60が求めた被写体の奥行き距離に基づいて、被写体の画像を撮影するときの撮像部120のフォーカス、絞り、露光時間等を調整してもよい。
【0050】
図3は、本実施形態の照射部100と撮像部120の構成図である。光源10A、10Bはそれぞれ物体2から距離R1、R2の位置にあり、光源10A、10Bの放射位置間隔はLである。光学フィルター12Aは主に波長λAの光を透過し、光学フィルター12Bは主に波長λB、λCを有する光を透過する。照射部100は、光源10Aの位置から波長λAの光を、光源10Bの位置から波長λB及びλCを有する光を同時に物体2に照射する。
【0051】
光源10A、10Bからの光が照射された物体2からの反射光を撮像部120の光学レンズ20が結像する。分光部30は、波長λA、λB、λCの3つの光に波長分離して光路を分割するプリズムである。受光部40A、40B、及び40Cは3板の固体撮像素子である。分光部30によって、分光された波長λA、λB、λCを有する光はそれぞれ受光部40A、40B、40Cに受光される。各受光部40A、40B、40Cに受光された光は、光電効果により電荷として読み出され、図示しないA/D変換器によりデジタル電気信号に変換され、処理部60に入力される。
【0052】
図4は、本実施形態の処理部60の構成図である。各受光部40A、40B、40Cが出力する被写体像は、それぞれ画像メモリ62A、62B、62Cに格納される。光強度検出部64は各画像メモリ62A、62B、62Cに格納された画像データを用いて、波長λA、λB、λCの反射光の強度を検出する。奥行き算出部66は、光強度検出部64が検出した波長λA、λB、λCの反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。
【0053】
光強度検出部64は、検出した波長λA、λB、λCの反射光の強度を制御部80へ出力する。奥行き算出部66は、被写体の奥行き分布情報を制御部80へ出力する。制御部80は、強度レベルが適正でない場合や奥行き距離の測定精度が良くない場合、光源10Aまたは10Bの放射光強度を調整するか、または光源10Aと10Bの放射位置間隔を調整する。制御部80は、光源10A、10Bの放射光強度比をあらかじめいくつか容易しておき、被写体の奥行き距離によって、放射光強度比を選択してもよい。たとえば、被写体が近距離にある場合には、放射光強度比を1に近い値に設定し、被写体が遠距離にある場合に、被写体から遠い位置にある光源10Bの放射光強度が大きくなるように、放射光強度比を設定してもよい。
【0054】
図5は、光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。光強度検出部64は、波長λAの反射光の強度WA、波長λBの反射光のWB、波長λCの反射光のWCをそれぞれ検出する。光源10A、10Bの強度をそれぞれI1、I2とし、物体2の波長λにおける表面反射率をRf(λ)とすると、波長λAの反射光の強度WAは、
【0055】
WA=Rf(λA)・I1/(4πR1 2)
と表され、波長λBの反射光の強度WB、波長λCの反射光の強度WCは、
WB=Rf(λB)・I2/(4πR2 2)
WC=Rf(λC)・I2/(4πR2 2)
と表される。
【0056】
奥行き算出部66は、波長λBの反射光の強度WB、及び波長λCの反射光の強度WCを用いて、波長λAを有する放射光強度I2の光を光源10Bの放射位置から照射したと仮定した場合に、被写体から得られる仮の反射光の強度WDを求める。求められたWDの値は、理想的には
【0057】
WD=Rf(λA)・I2/(4πR2 2)
である。したがって、波長λAを有する光源10Aからの光による反射光の強度WAと、同じ波長λAを有する光源10Bからの光による仮の反射光の強度WDとの比を求めると、表面反射率Rf(λA)の項がキャンセルされ、
【0058】
WA/WD=(I1・R2 2)/(I2・R1 2)
が得られ、これとR2−R1=Lより、被写体の奥行き距離R1を算出することができる。
【0059】
波長λBの反射光の強度WB、及び波長λCの反射光の強度WCを用いて、仮の反射光の強度WDを求める方法には、いくつもの変形がありうる。図6は、補間によって仮の反射光の強度を求める方法の説明図である。波長λBの反射光の強度WB、及び波長λCの反射光の強度WCを補間することにより、波長λAの場合の仮の強度WDを求める。線形補間して仮の強度WDを求めてもよく、また単純に波長λBの反射光の強度WB、及び波長λCの反射光の強度WCの中間値を仮の強度WDとしてもよい。
【0060】
図7は、外挿によって仮の反射光の強度を求める方法の説明図である。波長λBの反射光の強度WB、及び波長λCの反射光の強度WCを外挿し、波長λBより短い波長λAの場合の仮の強度WDを求める。
【0061】
さらに次の変形例がある。図8は、光源10A、10Bによるそれぞれの反射光から仮の反射光強度を求める方法を説明する図である。照射部100は、光源10Aから波長λ1及びλ2を有する照射光を、光源10Bから波長λ3及びλ4を有する照射光を同時に照射し、撮像部120は、被写体から得られる反射光を、光源10Aからの波長λ1、λ2を有するそれぞれの反射光と、光源10Bからの波長λ3、λ4を有するそれぞれの反射光とに分離する。光強度検出部64は、光源10Aからの波長λ1、λ2の反射光の強度を求め、奥行き算出部66は、光源10Aの位置から、同一強度で波長λ5の光を照射したと仮定した場合の反射光強度WAを算出する。また、光強度検出部64は、光源10Bからの波長λ3、λ4の反射光の強度を求め、奥行き算出部66は、光源10Bの位置から、同一強度で波長λ5の光を照射したと仮定した場合の反射光強度WDを算出する。奥行き算出部66は仮の反射光強度WAとWDの比を求め、被写体の奥行き距離を算出することができる。
【0062】
さらに次の変形例がある。図9(a)〜(d)は、長波長または短波長の光のみを透過させるバンドパスフィルターを用いて照射した場合の仮の反射光強度を求める方法を説明する図である。光源10Aの光学フィルター12Aは、第1の境界波長λ1よりも長い波長の光のみを透過させるバンドパスフィルターであり、光源10Aからの放射光は光学フィルター12Aを透過し、図9(a)に示した波長特性を有する光として被写体に照射される。光源10Bの光学フィルター12Bは、第2の境界波長λ2よりも短い波長の光のみを透過させるバンドパスフィルターであり、光源10Bからの放射光は光学フィルター12Bを透過し、図9(b)に示した波長特性を有する光として被写体に照射される。第1の境界波長λ1は第2の境界波長λ2より短い波長であってもよい。すなわち光学フィルター12A、12Bが透過させる光の波長特性は、第1の境界波長λ1から第2の境界波長λ2までの波長領域に重なりを有してもよい。したがって、第1の境界波長λ1が第2の境界波長λ2より短い場合、光源10A、10Bからの照射光の波長特性は、第1の境界波長λ1から第2の境界波長λ2までの波長領域に重なりを有する。
【0063】
分光部30は、波長λA、λB、λCの光をそれぞれ透過する光学フィルターを有し、被写体から得られる反射光を波長分離し、波長λA、λB、λCを有する反射光を受光部40に受光させる。光源10Aによる反射光は、分光部30を通過する前は、図9(a)の波長特性を有するが、光学フィルターによって図9(c)のように、波長λAの成分だけが取り出される。光源10Bによる反射光についても同様であり、分光部30を通過する前は、図9(b)の波長特性を有するが、光学フィルターによって図9(d)にように、波長λB、λCの成分だけがそれぞれ取り出される。ここで、波長λAは、第1の境界波長λ1と第2の境界波長λ2のどちらか長い方よりも長い波長であり、波長λB、λCは、第1の境界波長λ1と第2の境界波長λ2のどちらか短い方よりも短い波長であることが必要である。なぜなら、分離された波長λAを有する反射光には、光源10Bの照射光による干渉が含まれてはならないし、分離された波長λB、λCを有するそれぞれの反射光には、光源10Aの照射光による干渉が含まれてはならないからである。波長λAを有する反射光の強度WAを検出し、波長λB、波長λCをそれぞれ有する反射光の強度を外挿して、波長λAの成分が含まれていたと仮定した場合の仮の反射光強度WDを求める。反射光強度比WA/WDから被写体の奥行き距離を求める過程は既に述べた通りである。
【0064】
上記のいずれの方法においても、仮の反射光強度を補間、外挿、平均などの処理によって正確に求めることができるように、波長λBと波長λCは線形補間または線形の外挿が可能な範囲で近接した値に設定することがより好ましい。図10は、3種の物体の表面反射率を示す図である。グラフの横軸は波長、縦軸は反射率である。グラフ302、304、306は、それぞれ人間の肌、道、木の葉の3種の物体の表面反射率を分光計で測定した結果である。630nm、650nm、670nmの波長に対する各グラフ上の点をマークした。630nm、650nm、670nmの波長領域では、いずれの物体でも線形補間が可能である。また、同波長領域の光源は入手しやすい。波長λA、λB、λCとして、このような線形補間が可能で、光源としても入手しやすい波長領域の値を選択することができる。また、受光部40の固体撮像素子の出力信号に対して、通常のデジタルカメラ等で行われる階調補正等の画像補正処理を行うと、信号の線形性が失われる。そこで固体撮像素子への入射光強度に対して線形性を有する信号強度の段階で、強度を検出し、補間、外挿、平均等の処理をすることが好ましい。あるいは、階調補正等の画像補正処理による信号変換関数の逆関数を表すテーブルを用意しておき、画像補正後の信号出力を一旦逆関数のテーブルを参照して、固体撮像素子への入射光強度に対して線形性を有する信号強度に変換してから、強度を検出し、補間、外挿、平均等の処理を行うようにしてもよい。
【0065】
さらに、上記の説明では分光部30として、波長分離して光路を分割する光学分割素子、たとえばプリズム、ビームスプリッターを用いたが、分光部30として、受光部40の受光面に配置した光学フィルターを用いてもよい。図11は、受光部40に設けられる特定波長成分を透過する光学フィルターを説明する図である。受光部40として単板の固体撮像素子を用い、固体撮像素子の受光面に、光学フィルター32を設ける。光学フィルター32は、波長λA、λB、λCのみをそれぞれ透過させるフィルターが交互に配置される。これにより、固体撮像素子の画素によって波長λA、λB、λCのいずれの光を受光したものであるかがわかり、波長λA、λB、λCを有する光を波長分離して受光することができる。プリズムやビームスプリッターを用いる場合と比べて、単板の固体撮像素子に受光させるため、装置を小型化することができる。
【0066】
上記の実施形態の説明において、照射される光の波長によって表面反射率の違いが大きい被写体を対象にする場合、波長λA、λB、λCは仮の反射光強度の算出に誤差が生じないように、できるだけ近接していることが望ましい。一方で、各波長成分の反射光の強度の検出精度を上げるためには、波長λA、λB、λCの以外の波長成分ができるだけ含まれないようにするか、波長λA、λB、λCの値を互いに離れた値にして、波長λA、λB、λCの分解能を上げ、波長の干渉をできるだけ少なくすることが望ましい。したがって、被写体の表面反射率の特性や要求される測定精度に応じて、照射部100の光源10の波長特性、光学フィルター12の波長透過特性、撮像部120の分光部30の波長透過特性を設計することが好ましい。
【0067】
図12は、本実施形態の距離測定方法のフローチャートである。照射部100は、波長λAを主要な波長成分とする第1の照射光と、波長λAとは異なる波長λB及び波長λCを主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する(S100)。
【0068】
撮像部120の光学レンズ20は、第1及び第2の照射光が照射された被写体からの反射光を結像する(S102)。分光部30は、被写体からの反射光から、波長λAを有する第1の反射光と、波長λBを有する第2の反射光と、波長λCを有する第3の反射光とを光学的に分離する(S104)。
【0069】
受光部40は、分離された第1、第2、第3の反射光を受光する(S106)。処理部60の光強度検出部64は、第1、第2、第3の反射光の強度WA、WB、WCを検出する(S108)。
【0070】
奥行き算出部66は、第1、第2、第3の反射光の強度WA、WB、WCを用いて、被写体までの奥行き距離を算出する(S110)。
【0071】
図13は、奥行き距離算出処理S110のフローチャートである。第2及び第3の反射光の強度WB、WCに基づいて、波長λAで強度がI2の光が第2の照射光の放射位置から照射されたと仮定した場合の被写体からの仮の反射光の強度WDを求める(S112)。仮の反射光の強度WDは、第2及び第3の反射光の強度WB及びWCを補間または外挿することにより求める。第1の反射光の強度WAと仮の反射光の強度WDの比WA/WDを求める(S114)。第1、第2の照射光の強度I1、I2、第1、第2の照射光の放射位置間隔L、反射光強度比WA/WDに基づいて、被写体までの距離を算出する(S116)。
【0072】
図14は、奥行き距離算出処理S110の変形例のフローチャートである。第2及び第3の反射光の強度WB、WCの平均値WD=(WB+WC)/2を求める(S118)。第1の反射光の強度WAと、第2及び第3の反射光の平均強度WDの比WA/WDを求める(S120)。第1、第2の照射光の強度I1、I2、第1、第2の照射光の放射位置間隔L、反射光強度比WA/WDに基づいて、被写体までの距離を算出する(S122)。
【0073】
以上述べたように、本実施形態の画像撮像装置によれば、異なる波長特性を有する光を光学的に異なる放射位置から同時に被写体に照射し、被写体から得られる反射光から波長特性に合わせて波長分離し、波長分離された反射光の強度を用いて、被写体までの奥行き距離を簡便に求めることができる。
【0074】
また、被写体からの反射光による像を固体撮像素子に撮像し、画像データとして格納するため、画素または画素領域単位で反射光強度を検出して奥行き距離を算出することができ、撮像された被写体の領域の奥行き分布を得ることができる。したがって、被写体の2次元画像から被写体の奥行き分布を獲得して、被写体の3次元立体画像を作成することが可能である。
【0075】
(実施形態2)
本発明の第2の実施形態を説明する。本実施形態の画像撮像装置は、第1の実施形態の画像撮像装置と比較して、照射部100と撮像部120の一部の構成が異なるだけであるから、同一の構成要素については説明を省略し、異なる構成要素についてのみ説明する。図15は、本実施形態の照射部100と撮像部120の構成図である。本実施形態では、照射部100の光学フィルター12Aは主に波長λAの光を透過し、光学フィルター12Bは、主に波長λAより短い波長λBと、波長λAより長い波長λCを有する光を透過する。照射部100は、光源10Aの位置から波長λAの光と、光源10Bの位置から波長λB及びλCを有する光を同時に物体2に照射する。
【0076】
撮像部120の分光部30は、波長λAを有する光と、波長λB及びλCを有する光とに波長分離して光路を分割するプリズムである。受光部40A及び40Bは2板の固体撮像素子である。分光部30によって、分光された波長λAを有する光は、受光部40Aに、波長λB及びλCを有する光は受光部40Bにそれぞれ受光される。受光部40A、40Bに受光された光は、電気信号に変換され、処理部60に入力される。
【0077】
図16は、本実施形態の処理部60の構成図である。各受光部40A、40Bが出力する被写体像は、それぞれ画像メモリ62A、62Bに格納される。光強度検出部64は各画像メモリ62A、62Bに格納された画像データを用いて、波長λAを有する反射光、波長λBとλCを有する反射光の強度を検出する。奥行き算出部66は、光強度検出部64が検出した波長λAの反射光の強度、波長λB及びλCの反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。
【0078】
図17は、光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。光強度検出部64は、波長λAの反射光の強度WA、波長λBとλCを有する反射光の強度WEをそれぞれ検出する。光源10A、10Bの強度をそれぞれI1、I2とし、物体2の波長λにおける表面反射率をRf(λ)とすると、波長λAの反射光の強度WAは、
【0079】
WA=Rf(λA)・I1/(4πR1 2)
と表され、波長λBとλCを有する反射光の強度WEは、
WE=Rf(λB)・I2/(4πR2 2)
+Rf(λC)・I2/(4πR2 2)
と表される。
【0080】
奥行き算出部66は、波長λBと波長λCを有する反射光の強度WEの半分の値をWDとする。波長λAは、波長λBと波長λCの中間の値であるから、WDの値は、波長λAを有する放射光強度I2の光を光源10Bの放射位置から照射したと仮定した場合に、被写体から得られる仮の反射光の強度にほぼ等しい。得られたWDの値は、理想的には
【0081】
WD=Rf(λA)・I2/(4πR2 2)
である。したがって、波長λAを有する光源10Aからの光による反射光の強度WAと、同じ波長λAを有する光源10Bからの光による仮の反射光の強度WDとの比を求めると、表面反射率Rf(λA)の項がキャンセルされ、
【0082】
WA/WD=(I1・R2 2)/(I2・R1 2)
が得られ、これとR2−R1=Lより、被写体の奥行き距離R1を算出することができる。
【0083】
仮の反射光強度WDが正確に得られるように、波長λAは、波長λB、λCの中間の波長であることがより好ましい。上記の説明では、分光部30は、波長λAを有する光と、波長λB及びλCを有する光とに波長分離したが、フィルタリングの方法として、波長λB、λCを選択的に透過する必要は必ずしもなく、波長λAをカットするバンドカットフィルターを用いても同じ効果を奏する。図18(a)〜(d)は、バンドカットフィルターを用いて反射光を分離する方法を説明する図である。図18(a)のように、光源10Aからの照射光は、波長λAを主要な波長成分とする波長特性を有する。図18(b)のように、光源10Bからの照射光は、波長λAを間に挟む波長λB、λCを主要な波長成分とする波長特性を有する。分光部30は、図18(c)に示すような、主に波長λAだけを透過するバンドパスフィルターと、図18(d)に示すような、主に波長λAの波長成分をカットするバンドカットフィルターとを有し、被写体からの反射光をバンドパスフィルターに透過させることにより、波長λAを有する反射光を分離し、被写体からの反射光をバンドカットフィルターに透過させることにより、波長λBと波長λCを有する反射光を分離する。波長λBと波長λCを有する反射光の強度の半分の値と、波長λAを有する反射光の強度の比に基づいて、被写体の奥行き値を求める方法は上述の通りである。
【0084】
図19は、本実施形態の距離測定方法のフローチャートである。照射部100は、波長λAを主要な波長成分とする第1の照射光と、波長λAより短い波長λBと、波長λAより長い波長λCを主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射する(S200)。
【0085】
撮像部120の光学レンズ20は、第1及び第2の照射光が照射された被写体からの反射光を結像する(S202)。分光部30は、被写体からの反射光から、波長λAを有する第1の反射光と、波長λB及び波長λCを有する第2の反射光とを光学的に分離する(S204)。
【0086】
受光部40は、分離された第1、第2の反射光を受光する(S206)。処理部60の光強度検出部64は、第1、第2の反射光の強度WA、WEを検出する(S208)。
【0087】
奥行き算出部66は、第1の反射光の強度WA、第2の反射光の強度WEの半分の値WDの比WA/WDを求め(S212)、第1、第2の照射光の強度I1、I2、第1、第2の照射光の放射位置間隔L、反射光強度比WA/WDに基づいて、被写体までの距離を算出する(S214)。
【0088】
上記の説明では分光部30として、波長分離して光路を分割する光学分割素子、たとえばプリズム、ビームスプリッターを用いたが、分光部30として、第1の実施形態と同様に、受光部40として単板の固体撮像素子を用い、固体撮像素子の受光面に、光学フィルター32を設けてもよい。光学フィルター32は、波長λAのみを透過させるフィルターと、波長λB及びλCを透過させるフィルターが交互に配置される。プリズムやビームスプリッターを用いる場合と比べて、単板の固体撮像素子に受光させるため、装置を小型化することができる。
【0089】
以上述べたように、本実施形態の画像撮像装置によれば、第1の波長を主要な波長成分とする第1の照射光と、第1の波長を中間に挟む第2、第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に被写体に照射し、被写体から得られる反射光から、第1の波長を有する第1の反射光と、第2及び第3の波長を有する第2の反射光とに分離し、第1の反射光強度と、第2の反射光強度の半分の値との比に基づいて被写体の奥行き距離を算出することができる。第2の反射光強度を半分にするだけで、第1の波長を有する光を第2の照射光の放射位置から照射した場合の仮の反射光強度を求めることができるため、非常に簡便に被写体の奥行き距離を算出することができる。また、被写体からの反射光を受光する固体撮像素子を2板にすることができ、装置の小型化を図ることができる。
【0090】
(実施形態3)
本発明の第3の実施形態を説明する。本実施形態の画像撮像装置は、第1の実施形態の画像撮像装置と比較して、照射部100と撮像部120の一部の構成が異なるだけであるから、同一の構成要素については説明を省略し、異なる構成要素についてのみ説明する。図20は、本実施形態の照射部100と撮像部120の構成図である。本実施形態では、照射部100の光源10A、10Bは赤外光源である。光学フィルター12Aは赤外領域における波長λAの光を透過し、光学フィルター12Bは、赤外領域における波長λB及び波長λCを有する光を透過する。照射部100は、光源10Aの位置から赤外領域の波長λAの光と、光源10Bの位置から赤外領域の波長λB及びλCを有する光とを同時に物体2に照射する。物体2にはさらに可視光領域の光、たとえば自然光や照明光が照射されている。
【0091】
撮像部120の分光部30は、赤外領域の波長λAを有する光と、赤外領域の波長λB及びλCを有する光と、可視光領域の光とに波長分離して光路を分割するプリズムである。受光部40A、40B、及び40Cは3板の固体撮像素子である。分光部30によって、分光された波長λAを有する光は、受光部40Aに、波長λB及びλCを有する光は受光部40Bに、可視光は受光部40Cにそれぞれ受光される。赤外領域の反射光の撮影像がピンぼけしないように、受光部40A、40Bはピントが合う位置にあらかじめ設定しておく。受光部40A、40B、40Cに受光された光は、電気信号に変換され、処理部60に入力される。
【0092】
図21は、本実施形態の処理部60の構成図である。各受光部40A、40Bが出力する被写体像は、それぞれ画像メモリ62A、62Bに格納される。光強度検出部64は各画像メモリ62A、62Bに格納された画像データを用いて、反射光の強度を検出し、奥行き算出部66は、光強度検出部64が検出した反射光の強度を用いて、光源10Aから物体2の領域4までの距離R1を求める。光強度検出部64と奥行き算出部66の動作は、第2の実施形態と同様であるから、説明を省略する。奥行き算出部66は撮像された画像の画素または画素の領域単位で、画素または画素領域に写された被写体の領域までの奥行き距離を算出し、被写体の奥行き分布を求め、出力する。記録部68は被写体の奥行き分布情報を記録する。さらに、受光部40Cが出力する被写体像は画像メモリ62Cに格納される。画像補正部67は、画像メモリ62に格納された画像データに対して、階調補正等の画像補正を行い、被写体の画像データとして出力し、記録部68は被写体の画像データを被写体の奥行き分布情報とともに記録する。
【0093】
上記では、波長λB及びλCを有する反射光を分離せずに、受光部40Bに受光させたが、受光部40として、4板の固体撮像素子を用いて、分光部30によって波長λBを有する反射光と波長λCを有する反射光とを分離させて、異なる固体撮像素子にそれぞれの反射光を受光させてもよい。その場合、第1の実施形態と同様の方法で、波長λA、λB、λCのそれぞれの反射光の強度を用いて、被写体の奥行き距離を求めることができる。
【0094】
以上述べたように、本実施形態の画像撮像装置によれば、被写体の奥行き距離測定には赤外光を用いるため、被写体に自然光や照明光が照射された自然な条件のもとでも、被写体の奥行き距離を測定することができる。したがって、被写体の奥行き距離測定のために、部屋を暗室にする必要がない。また、可視光領域の反射光を分離させて撮像することができるため、被写体の奥行き分布を測定すると同時に、被写体の画像を撮影することができる。撮影された被写体の画像から奥行き分布に基づいて、主要被写体を抽出したり、背景と人物像を分離するなど、被写体の奥行き分布を用いた、被写体の画像処理が可能である。
【0095】
(実施形態4)
本発明の第4の実施形態を説明する。本実施形態の画像撮像装置は、第1、第2、第3の実施形態の画像撮像装置と比較して、照射部100と撮像部120の光軸を同一にするために、ハーフミラー17と18を用いた点だけが異なる。図22は、本実施形態の照射部100と撮像部120の構成図である。第1の実施形態において、ハーフミラー17と18を用いた例を示すが、第2、第3の実施形態においても同様の構成を取ることができる。照射部100の光源10Aと10Bの放射位置は距離Lだけ離れており、光源10Bからの照射光はハーフミラー17に反射し、さらにハーフミラー18に反射して、物体2に照射される。光源10Aからの照射光はハーフミラー17を通過し、ハーフミラー18に反射して、物体2に照射される。被写体からの反射光はハーフミラー18と通過し、撮像部120の光学レンズ20によって結像される。
【0096】
本実施形態では、照射部100と撮像部120の光軸が光学的に同軸であるため、照射部100によって照射された被写体を撮像部120が撮影する際、影になって撮影できない領域が生じることがない。したがって照射された被写体の全領域の奥行き分布を算出することができ、奥行き距離を算出できない死角が生じることはない。また、照射部100と撮像部120の光軸を同軸にすることにより、画像撮像装置200全体を小型化することができる。
【0097】
(実施形態5)
図23は、本発明の実施形態5にかかる原理説明図である。照射位置112及び照射位置114から、それぞれ強度P1,P2の光を物体120に照射し、物体120によるそれぞれの光の反射光をカメラ110で撮像する。カメラ110は、例えば電荷結合素子(CCD)であって、複数の画素を有し、各画素単位で物体120の被測定部122及び砒素区手部の近傍124からの反射光を撮影し、画素毎にそれぞれの強度を検出する。カメラ110で撮像した反射光に基づいて物体120の被測定部122までの距離L、被測定部122の表面の傾きθ0及び、被測定部122の表面の反射率RObjを算出する。照射位置(112,114)は、任意の位置に配置されてよい。照射位置(112,114)から物体120に照射される光の照射角のうち、いずれかを算出するが、本例においては、カメラ110を、照射位置(112,114)のいずれか一つと光学的に同じ位置に配置し、カメラ110が撮像する反射光の入射角に基づいて物体120に照射される光の照射角を算出する。本例においては、照射位置112とカメラ110を光学的に同じ位置に配置した場合について説明する。
【0098】
図23に示すように、照射位置114は、照射位置112からL12離れた位置に配置される。距離L12は、計測系固有の既知の値である。また、照射位置(112,114)から物体120の被測定部122に光を照射する角度をそれぞれθ1、θ2とし、照射位置(112,114)から物体120の被測定部の近傍124に光を照射する角度をそれぞれθ1’、θ2’とする。また、カメラ110は、照射位置112と光学的に同じ位置に配置されているので、被測定部122からの反射光を受光する角度をθC、被測定部の近傍124からの反射光を受光する角度をθC’とした場合、θC=θ1、θC’=θ1’である。また、照射位置112から被測定部122までの距離をそれぞれL1、被測定部の近傍124までの距離をL1’とし、照射位置114から被測定部までの距離をL2、被測定部の近傍124までの距離をL2’とする。
【0099】
照射位置(112,114)から照射された光の、被測定部122からの反射光の強度をそれぞれD1、D2とすると、D1、D2は次のように与えられる。
【0100】
【数1】
すなわち、
【数2】
となる。
【0101】
また、
【数3】
であるので、
【数4】
となる。また、
【0102】
【数5】
であり、L12、θ1は既知の値であるので、θ2はLの関数で与えられる。すなわち、
【0103】
【数6】
となる。よって、
【0104】
【数7】
となる。ここで、D1、D2、P1、P2、θ1は、計測値又は既知の値であるので、上の式の未知数はθ0及びLの2つである。したがって上の条件を満たす(θ0、L)の組み合わせを求めることができる。すなわち、被測定部122までの距離Lを仮定した場合、仮定した距離Lに対応する被測定部の面傾きθ0を算出することができる。また、被測定部の近傍124についても、同様に被測定部の近傍124までの距離L’と被測定部の近傍124の面傾きθ0’の組み合わせを求めることができる。
【0105】
本発明は、物体120の被測定部122までの距離Lと被測定部122の面傾きθ0との組み合わせと、物体120の被測定部の近傍124までの距離L’と被測定部の近傍124の面傾きθ0’との組み合わせに基づいて、被測定部122までの距離L及び面傾きθ0を算出する。以下、算出方法について詳細に説明する。
【0106】
図24は、被測定部122までの距離L、被測定部122の面傾きθ0を算出する方法の一例の説明図である。まず、被測定部122までの距離LをLaと仮定する。図23に関連して説明した数式に基づいて、仮定した距離Laに対応する被測定部122の面傾きθ0を算出する。次に、算出した面傾きθ0によって定まる被測定部122の面を延長し、被測定部の近傍124からの反射光の光路と交わる点に、被測定部の近傍124が存在すると仮定した場合の被測定部の近傍124までの仮の距離Lbを算出する。このとき被測定部の近傍124までの仮の距離Lbは、カメラ110と被測定部122までの仮の距離La、被測定部122からの反射光の入射角θ1、被測定部の近傍124からの反射光の入射角θ1’及び、被測定部122の面傾きθ0に基づいて幾何的に算出することができる。
【0107】
次に、算出した仮の距離Lbに対応する、被測定部の近傍124の面傾きθ0’を算出する。面傾きθ0’は、図23に関連して説明した数式により算出することができる。物体120の被測定部122と被測定部の近傍124との間隔は、微小であるので、被測定部122と被測定部の近傍124の面傾きはほぼ同一となる。したがって、算出した面傾きθ0とθ0’とを比較することにより、最初に仮定した被測定部122までの距離Laが正しい値であるかを判定することができる。すなわち、面傾きθ0とθ0’との差が所定の範囲内であれば、仮定した距離Laを被測定部122までの距離Lとすることができる。
【0108】
また、面傾きθ0とθ0’との差が所定の範囲内に無い場合は、最初に仮定した距離Laの設定に誤りがあったとして、被測定部122までの距離Lを他の値に設定して同様の計算を行えばよい。図23に関連して説明した数式を満たす、被測定部122までの距離Lが、上限値を有することは明らかであり、下限値は零であるので、仮の距離Laについて、有限の範囲において調べればよい。例えば、有限の範囲の距離Laについて2分探索法によって、被測定部122までの真の距離Lを抽出してよい。また、仮の距離Laについて、有限の範囲で所定の距離間隔でθ0、θ0’の差を算出し、真の距離Lを抽出してもよい。また、仮の距離Laについて、複数の値についてθ0、θ0’の差を算出し、差が最小となる仮の距離Laを真の距離Lとしてもよい。また、被測定部の面傾き情報は、被測定部までの距離情報に基づいて、図23に関連して説明した数式によって算出することができる。また、図23に関連して説明した数式によって被測定部の表面反射率情報も算出することができる。
【0109】
図25は、仮の距離Laについての所定の範囲で所定の距離間隔で、面傾きθ0及び面傾きθ0’を算出した結果の一例を示す。図25のグラフにおいて、横軸は、被測定部122までの仮の距離Laを示し、縦軸は被測定部122及び被測定部の近傍124の面傾きを示す。本例において、物体120の被測定部122までの距離Lを200mm、被測定部122の面傾きを0度とした。また、照射位置112と照射位置114との距離を10mm、θ1を20度、仮の距離Laの間隔を10mmとして計算を行った。
【0110】
データ192は、横軸に示される仮の距離Laに対応する被測定部122の面傾きを示し、データ194は、被測定部の近傍124の面傾きを示す。仮の距離200mmにおいて、被測定部122及び被測定部の近傍124の面傾きが0度で一致する。
【0111】
(実施形態6)
図26は、物体までの距離情報等を獲得する情報獲得方法の原理説明図である。照射位置212、照射位置214、照射位置216から、それぞれ強度P1,P2,P3の光を物体220に照射し、物体220によるそれぞれの光の反射光をカメラ210で撮像する。カメラ210は、例えば電荷結合素子(CCD)であって、複数の画素を有し、各画素単位で物体220の被照射部224からの反射光を撮影し、画素毎にそれぞれの強度を検出する。カメラ210で撮像した反射光に基づいて物体220の被照射部224までの距離L、被照射部224の表面の傾きθ0及び、被照射部224の表面の反射率RObjを算出する。照射位置(212,214,216)及び、カメラ210は、任意の位置に配置されてよいが、本例においては、照射位置212,照射位置216、カメラ210を一直線上に配置した場合について説明する。
【0112】
図26に示すように、照射位置216は、照射位置212からL12離れた位置に、照射位置214は、照射位置212からL23離れた位置に、カメラ210は照射位置212からX離れた位置に配置される。距離L12、L23、Xは、計測系固有の既知の値である。また、照射位置(212,214,216)が、物体220の被照射部224に、光を照射する角度をそれぞれθ1、θ2、θ3とし、カメラ210が、被照射部224における反射光を受光する角度をθCとする。このうち、θCは、カメラ210の画素毎に撮影された反射光に基づいて算出される。また、照射位置(212,214,216)から被照射部224までの距離をそれぞれL1、L2、L3とする。
【0113】
照射位置(212,214,216)から照射された光の、被照射部224における反射光の強度をそれぞれD1、D2、D3とすると、D1、D2、D3は、次のように与えられる。
【0114】
【数8】
すなわち、
【数9】
ただし、f( )は関数とする。また、
【0115】
【数10】
であるので、
【数11】
となる。また、
【0116】
【数12】
であり、X、L12、θCは既知の値であるので、θ1、θ2、θ3はそれぞれLの関数で与えられる。すなわち、
【0117】
【数13】
となる。よって、
【0118】
【数14】
となる。D1、D2、D3、θC、P1、P2、P3は、計測値又は既知の値であるので、上の2式から、未知数θ0、Lを求めることができる。また、θ0が求まれば、D1、D2、D3のいずれかの式からRobjを求めることができる。以上より、光学的に異なる3点以上の照射位置から照射した光の、物体による反射光をそれぞれ撮像することにより、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出することができる。
【0119】
本例においては、照射位置212、照射位置216、カメラ210を一直線上に配置したが、各要素間の距離がわかっていれば、反射光により、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出できることは明らかである。
【0120】
以上説明した情報獲得方法によれば、物体220の表面の傾き等による誤差を無くし、物体220までの距離情報を獲得することができる。また、物体220の表面の傾き情報、物体220の表面の反射率情報を獲得することができる。
【0121】
ただし、照射位置(212,214,216)が一直線上に配置されている場合は、図26に関連して説明した方法では、物体までの距離情報等を算出することができない。以下、照射位置(212,214,216)が一直線上に配置されている場合において、物体までの距離情報、物体の表面の傾き情報及び、物体表面の反射率情報の獲得方法について説明する。
【0122】
図27は、照射位置が一直線上に配置された場合の、物体までの距離情報等を獲得する情報獲得方法の説明図である。照射位置212、照射位置214、照射位置216から、それぞれ強度P1,P2,P3の光を物体220に照射し、物体220によるそれぞれの光の反射光をカメラ210で撮像する。
【0123】
図27に示すように、照射位置216は、照射位置212からL13離れた位置に、照射位置214は、照射位置212からL12離れた位置に、カメラ210は照射位置212と実質的に同位置に配置される。距離L12、L1 3は、計測系固有の既知の値である。また、照射位置(212,214,216)が、物体220の被照射部224に、光を照射する角度をそれぞれθ1、θ2、θ3とし、カメラ210が、被照射部224における反射光を受光する角度をθCとする。このうち、θCは、カメラ210の画素毎に撮影された反射光に基づいて算出される。本例においては、カメラ210が照射位置212と同一の位置に配置されているのでθC=θ1である。また、照射位置(212,214,216)から被照射部224までの距離をそれぞれL1、L2、L3とする。
【0124】
照射位置(212,214,216)から照射された光の、被照射部224における反射光の強度をそれぞれD1、D2、D3とすると、D1、D2、D3は、次のように与えられる。
【0125】
【数15】
すなわち、
【数16】
である。また、
【0126】
【数17】
であるので、
【数18】
となる。また、
【0127】
【数19】
であり、θ1はθCと等しく、L12、L13、θCは既知であるのでθ2、θ3はLの関数で与えられる。すなわち、
【0128】
【数20】
となる。よって、
【0129】
【数21】
となる。D1、D2、D3、θC、P1、P2、P3は、計測値又は既知の値であるので、上の2式から、未知数θ0、Lを求めることができる。また、θ0が求まれば、D1、D2、D3のいずれかの式からRobjを求めることができる。以上より、光学的に一直線上にある3点の照射位置から照射した光の、物体220による反射光を、3点の照射位置のいずれか一つと光学的に同位置でそれぞれ撮像することにより、物体までの距離情報、物体の表面の傾き情報及び、物体の表面の反射率情報を算出することができる。本例においては、照射位置212とカメラ210の位置を実質的に同一としたが、θ1、θ2、θ3のいずれかとθCを同一とすればよいので、照射位置214又は照射位置216のいずれかと、カメラ210の位置を実質的に同一としてもよいことは明らかである。
【0130】
図27に関連して説明した情報獲得方法では、カメラ210と照射位置(212,214,216)のいずれかとの光軸が光学的に同軸であるため、照射位置(212,214,216)から照射された物体220をカメラ210が撮像する際、影になって撮像できない領域を少なくすることができる。また、カメラ210と照射位置(212,214,216)のいずれかとの位置が実質的に同じとすることで、カメラ210と照射位置との距離を予め調べる必要が無く、また、カメラ210と照射位置との距離測定における誤差を無くすことができる。
【0131】
図26又は図27に関連して説明した情報獲得方法においては、3点の照射位置から物体220に光を照射したが、他の例においては、3点以上の照射位置から物体220に光を照射してもよい。また、反射光の強度に基づいて、物体220までの距離情報、物体220の表面の傾き情報及び、物体220の表面の反射率情報を算出することが好ましい。また、カメラ210の画素毎に、距離情報、傾き情報及び、反射率情報を算出し、物体220の距離情報、傾き情報及び反射率情報の分布を算出してもよい。
【0132】
また、図26又は図27に関連して説明した情報獲得方法において、3点の照射位置から照射される光は、それぞれ異なる波長を主要な波長成分とし、それぞれの照射位置において、実質的に同時に物体220に光を照射してもよい。このとき、カメラ210は、異なる波長の光をそれぞれ選択的に透過させる波長選択手段を有し、それぞれの照射位置から照射された光により物体220からの反射光をそれぞれ撮像することが好ましい。異なる波長を主要な波長成分とする光を同時に物体220に照射することにより、動きのある物体についても、距離情報、傾き情報及び、反射率情報を精度よく獲得することが可能となる。しかし、物体220の表面の反射率は、光の波長によってことなるので、測定結果に誤差が生じる。誤差を小さくするためには、波長による反射率の違いを補正する必要がある。
【0133】
図28は、波長による物体220の表面の反射率の違いを補正した情報獲得方法の説明図である。一例として図28(a)に示すように、照射位置212から照射された光の波長をλa、照射位置214から照射された光の波長をλb及びλC、照射位置216から照射された光の波長をλd、λeとする。また、照射位置212から照射された光の強度をP1、照射位置214から照射された光の強度をP2、照射位置216から照射された光の強度をP3とし、それぞれの波長毎の反射光の強度をWa、Wb、Wc、Wd、Weとする。図28(b)に示すように、照射位置214から強度P2で照射された、波長λb、λcの光の反射光の強度Wb、Wcに基づいて、照射位置214から強度P2で波長λaの光が照射された場合の反射光の強度Wfを算出する。本例においては、波長λb、λcに基づいて強度Wfを算出しているが、他の例においては、さらに多くの波長成分の反射光に基づいて強度Wfを算出してもよい。同様に、図28(c)に示すように、照射位置216から強度P3で照射された、波長λd、λeの光の反射光の強度Wd、Weに基づいて、照射位置214から強度P3で波長λaの光が照射された場合の反射光の強度Wgを算出する。算出された強度Wb、Wc、及び検出された強度Waに基づいて物体220までの距離情報、物体220の表面の傾き情報及び、物体220の表面の反射率情報を算出する。上述した情報獲得方法によれば、3点の照射位置において同時に光を照射するので、動きのある物体に対しても、精度良く距離情報、傾き情報、反射率情報を獲得することが可能となる。
【0134】
図29は、本発明に係る情報獲得方法の一例を示すフローチャートである。本実施例における情報獲得方法は、照射段階(S200)、撮像段階(S202)及び、算出段階(S204)を備える。
【0135】
照射段階(S200)は、図26に関連して説明したように、光学的に異なる3点以上の照射位置から、物体220に光を照射する。撮像段階(S202)は、3点以上の照射位置から照射された光による物体からの反射光をそれぞれ撮像する。算出段階(S204)は、撮像段階によって撮像された反射光に基づいて、物体220までの距離情報、物体220の表面の傾き情報、物体220の表面の反射率情報を算出する。
【0136】
照射段階(S200)は、図27に関連して説明した情報獲得手段と同様に、光学的に一直線上にある3点の照射位置から物体220に光を照射し、また、撮像段階(S202)は、3点以上の照射位置のいずれか一つと光学的に同位置で、3点以上の照射位置からの光の反射光をそれぞれ撮像してもよい。
【0137】
また、算出段階(S204)は、図26又は図2に関連して説明したように、反射光の強度に基づいて物体220までの距離情報、物体220の表面の傾き情報、物体220の表面の反射率情報を算出してもよい。また、照射段階(S200)は、光学的に三角形を形成する3点の照射位置から、物体220に光を照射してもよい。
【0138】
また、照射段階(S200)は、図28に関連して説明した情報獲得方法と同様に、それぞれの照射位置において、異なる波長の光を物体220に照射し、それぞれの照射位置において、実質的に同時に物体220に光を照射してもよい。この場合、撮像段階(S202)は、異なる波長の光のそれぞれを選択的に透過させる波長選択手段を有し、それぞれの照射位置における光による物体220からの反射光をそれぞれ撮像することが好ましい。
【0139】
以上述べたように、本発明の画像撮像装置及び距離測定方法によれば、異なる波長特性を有する光を異なる放射位置から同時に被写体に照射し、被写体からの反射光を波長特性に合わせて光学的に分離し、強度を測定することにより、被写体の奥行き距離を簡便に算出することができる。
【0140】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることができる。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0141】
そのような変更例として、上記の説明では、光が照射された被写体から得られる出射光の一例として反射光を撮像し、反射光の強度の違いから被写体までの距離を求めたが、被写体が光を透過する透明もしくは半透明の物体である場合、被写体を透過した透過光の強度の違いから被写体の奥行き距離を求めることもできる。
【0142】
【発明の効果】
上記説明から明らかなように、本発明によれば、光が照射された被写体から得られる出射光を撮影することにより、被写体の奥行き距離を簡便に測定することができる。
【図面の簡単な説明】
【図1】 本発明の原理説明図である。
【図2】 第1の実施形態の画像撮像装置200の構成図である。
【図3】 第1の実施形態の照射部100と撮像部120の構成図である。
【図4】 第1の実施形態の処理部60の構成図である。
【図5】 光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。
【図6】 補間によって仮の反射光の強度を求める方法の説明図である。
【図7】 外挿によって仮の反射光の強度を求める方法の説明図である。
【図8】 光源10A、10Bによるそれぞれの反射光から仮の反射光強度を求める方法を説明する図である。
【図9】 長波長または短波長の光のみを透過させるバンドパスフィルターを用いて照射した場合の仮の反射光強度を求める方法を説明する図である。
【図10】 3種の物体の表面反射率を示す図である。
【図11】 受光部40に設けられる特定波長成分を透過する光学フィルターを説明する図である。
【図12】 第1の実施形態の距離測定方法のフローチャートである。
【図13】 奥行き距離算出処理S110のフローチャートである。
【図14】 奥行き距離算出処理S110の変形例のフローチャートである。
【図15】 第2の実施形態の照射部100と撮像部120の構成図である。
【図16】 第2の実施形態の処理部60の構成図である。
【図17】 光強度検出部64と奥行き算出部66による奥行き距離計算方法の説明図である。
【図18】 バンドカットフィルターを用いて反射光を分離する方法を説明する図である。
【図19】 第2の実施形態の距離測定方法のフローチャートである。
【図20】 第3の実施形態の照射部100と撮像部120の構成図である。
【図21】 第3の実施形態の処理部60の構成図である。
【図22】 第4の実施形態の照射部100と撮像部120の構成図である。
【図23】 本発明実施形態5に係る原理説明図である。
【図24】 被測定部122までの距離L、被測定部122の面傾きθ0を算出する方法の一例の説明図である。
【図25】 仮の距離Laについての所定の範囲で所定の距離間隔で、面傾きθ0及び面傾きθ0’を算出した結果の一例を示す。
【図26】 本発明実施形態5に係る情報獲得方法の原理説明図である。
【図27】 照射位置が一直線上に配置された場合の、情報獲得方法の説明図である。
【図28】 波長による物体20の表面の反射率の違いを補正した情報獲得方法の説明図である。
【図29】 情報獲得方法の一例を示すフローチャートである。
【符号の説明】
10 光源 12 光学フィルター
20 光学レンズ 30 分光部
40 受光部 60 処理部
62 画像メモリ 64 光強度検出部
66 奥行き算出部 67 画像補正部
68 記録部 80 制御部
100 照射部 120 撮像部
200 画像撮像装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image capturing apparatus and a distance measurement method for acquiring information related to the depth distance of a subject. In particular, the present invention relates to an image capturing apparatus and a distance measurement method that captures information on the depth of a subject by photographing emitted light obtained from the subject irradiated with light.
[0002]
[Prior art]
In order to obtain distance information to an object and position information of an object, a method of 3D image measurement is known in which pattern light such as a slit or a stripe pattern is projected onto an object, and the pattern projected on the object is photographed and analyzed. ing. Typical measurement methods include the slit light projection method (also known as the light cutting method), the coded pattern light projection method, and so on.
[0003]
Japanese Patent Laid-Open Nos. 61-155909 (published on July 15, 1986) and Japanese Patent Laid-Open No. 63-23312 (published on September 29, 1988) radiate light from different light source positions onto a subject. A distance measuring device and a distance measuring method for measuring the distance to a subject based on the intensity ratio of the reflected and reflected light from the subject are disclosed.
[0004]
In Japanese Patent Laid-Open No. 62-46207 (publication date: February 28, 1987), a subject is irradiated with two lights having different phases, and the distance to the subject is determined based on the phase difference of reflected light from the subject. A distance detection device for measuring the above is disclosed.
[0005]
Hebei et al., “Development of Axi-Vision Camera 3D Imager” (3D Image Conference 99, 1999) adds high-speed intensity modulation to projected light, and subjects illuminated by intensity-modulated light at high speed. A method is disclosed in which a distance is measured from an intensity modulation degree that varies depending on the distance to a subject, which is taken with a camera having a shutter function.
[0006]
[Problems to be solved by the invention]
The conventional measurement method using the light projection method measures the distance to the subject area onto which the projection pattern is projected, based on the principle of triangulation. Therefore, in order to obtain a high resolution for distance measurement, in principle, it is necessary to dispose the projection optical system and the photographing optical system sufficiently apart from each other, resulting in a problem that an increase in the size of the measuring apparatus cannot be avoided. In addition, since the optical axes of the projection optical system and the photographing optical system are separated from each other, when viewed from the photographing optical system, there is a place where the projected pattern is hidden behind the subject and cannot be observed, and distance information is obtained. There was also a problem that there was no “dead spot”.
[0007]
In the distance measuring apparatus and the distance measuring method disclosed in JP-A-61-155909 and JP-A-63-233312, it is necessary to sequentially irradiate light at different radiation positions and measure each reflected light. Therefore, there is a time difference in measurement. Therefore, in the case of a moving subject, there arises a problem that the distance cannot be measured. Further, there is a possibility that a measurement error may occur due to shaking of the photographing apparatus during irradiation with changing the position of the light source.
[0008]
In the case of light having different wavelength characteristics, it is possible to measure the reflected light intensity by irradiating simultaneously and spectroscopically reflecting the reflected light using a filter that matches the wavelength characteristics of the irradiated light. However, when the spectral reflectance of the object is different, the reflected light intensity varies due to the difference in the wavelength of the irradiating light. There was a problem of being unable to do so.
[0009]
The distance detection device disclosed in Japanese Patent Application Laid-Open No. 62-46207 requires a highly accurate phase detector for detecting a phase difference, which makes the device expensive and lacks simplicity. Further, since the phase of the reflected light from the point of the subject is measured, the depth distribution of the entire subject cannot be measured.
[0010]
In addition, the distance measurement method using intensity modulation disclosed in Hebei et al. “Development of 3D Imager Axi-Vision Camera” (3D Image Conference 99, 1999) uses light modulation and optical shutter operation very quickly. There is a problem that the measuring apparatus becomes large and expensive and cannot be measured easily.
[0011]
Accordingly, an object of the present invention is to provide an image capturing apparatus and a distance measuring apparatus that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problem, in the first embodiment of the present invention, there is provided an image pickup apparatus that acquires information related to the depth of a subject, the first irradiation light having a first wavelength as a main wavelength component, and The irradiation unit that irradiates the subject from the optically different radiation position with the second irradiation light having the second and third wavelengths different from the first wavelength as main wavelength components, and the irradiation unit And a depth calculation unit that calculates a depth distance to the subject based on light emitted from the subject irradiated with the second irradiation light.
[0013]
The irradiating unit may irradiate the first and second irradiation lights at the same time. An optical imaging unit that images emitted light obtained from the subject irradiated with the first and second irradiated light by the irradiating unit, and first emitted light having a first wavelength from the emitted light obtained from the subject. And the second outgoing light having the second wavelength and the third outgoing light having the third wavelength are optically separated, and the optical imaging part is imaged by the spectral part. A light receiving unit that receives the first, second, and third outgoing light, and a light intensity detection unit that detects the intensity of the first, second, and third outgoing light received by the light receiving unit, The calculation unit may calculate the depth distance to the subject using the intensity of the first, second, and third emitted light.
[0014]
The light receiving unit has a three-plate solid-state image sensor, and the spectroscopic unit separates the first, second, and third emitted light using an optical path dividing unit, and each of them is one of the three-plate solid-state image sensor. One light may be received. The light receiving unit includes a solid-state image sensor, and the spectroscopic unit includes a first optical filter that transmits light having a first wavelength, a second optical filter that transmits light having a second wavelength, and a third optical filter. A third optical filter that transmits light of a wavelength, and the first, second, and third optical filters may be alternately arranged on the light receiving surface of the solid-state imaging device.
[0015]
The irradiator has a first optical filter that transmits light in a wavelength region shorter than a predetermined first boundary wavelength, and a second optical filter that transmits light in a wavelength region longer than the predetermined second boundary wavelength. Then, the subject is irradiated with the first irradiation light transmitted through the first optical filter and the second irradiation light transmitted through the second optical filter from an optically different radiation position. A first optical filter that transmits light of a first wavelength shorter than the shorter one of the first and second boundary wavelengths, and a second and third wavelength longer than the longer one of the first and second boundary wavelengths The second and third optical filters that respectively transmit the first light, and the first outgoing light having the first wavelength is separated by transmitting the outgoing light obtained from the subject to the first optical filter. And second and third optical filters for the emitted light, respectively. In by transmitting a third outgoing light may be separated with the second outgoing light and the third wavelength having a second wavelength.
[0016]
The depth calculation unit may calculate the depth distance to the subject using a value based on the intensity of the second and third outgoing lights and the intensity of the first outgoing light. The depth calculation unit tentatively emits light from the subject when it is assumed that light having the first wavelength is emitted from the radiation position of the second irradiation light based on the intensities of the second and third emission lights. And the depth distance to the subject may be calculated using the intensity of the first outgoing light and the intensity of the temporary outgoing light. The depth calculation unit may calculate the depth distance to the subject using the average intensity of the second emitted light and the third emitted light and the intensity of the first emitted light.
[0017]
In the second embodiment of the present invention, the image pickup apparatus acquires information related to the depth of the subject, and the first irradiation light having the first wavelength as the main wavelength component is different from the first wavelength. An irradiation unit that irradiates the subject from the optically different radiation position with the second irradiation light having the second and third wavelengths as main wavelength components, and the irradiation unit emits the first and second irradiation light. And a depth calculation unit that calculates a depth distance to the subject based on the emitted light from the subject.
[0018]
The irradiating unit may irradiate the first and second irradiation lights at the same time. The irradiation unit includes a first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An optical imaging unit that irradiates the subject with the second irradiation light that is optically different from the radiation position and images the emitted light from the subject irradiated with the first and second irradiation light by the irradiation unit; A spectroscopic unit that optically separates the first outgoing light having the first wavelength and the second outgoing light having the second and third wavelengths from the outgoing light obtained from the subject; A light receiving unit that receives the first outgoing light and the second outgoing light that are separated and imaged by the optical imaging unit, and a light intensity detection that detects the intensity of the first and second outgoing light received by the light receiving unit. And a depth calculation unit using the first and second emitted light intensities to obtain a depth distance to the subject. Calculation may be.
[0019]
The light receiving unit has two plates of the solid-state imaging device, and the spectroscopic unit optically branches the optical paths of the first outgoing light and the second outgoing light by using the optical path dividing means, and each of the two solid plates. Any one of the imaging elements may receive light. The light receiving unit includes a solid-state imaging device, and the spectroscopic unit includes a first optical filter that transmits light of the first wavelength and a second optical filter that transmits light of the second and third wavelengths. And the first optical filter and the second optical filter may be alternately arranged on the light receiving surface of the solid-state imaging device.
[0020]
The depth calculation unit may calculate the depth distance to the subject based on a ratio between the intensity of the first emitted light and a value that is half the intensity of the second emitted light.
[0021]
In the first and second embodiments described above, an optical axis when the irradiating unit irradiates the subject with the first and second irradiation lights, and an optical axis when the imaging unit images the emitted light from the subject. May be substantially the same. The light intensity detection unit detects the intensity of the first and second emitted light in each pixel of the subject image captured by the light receiving unit, and the depth calculation unit determines the depth to the subject region corresponding to each pixel. , The depth distribution of the subject may be calculated.
[0022]
In the first and second embodiments, the first and second irradiation lights are light in the infrared region, and the spectroscopic unit further includes means for optically separating visible light from the emitted light obtained from the subject. The light receiving unit is further optically separated by the spectroscopic unit and further includes a visible light solid-state imaging device that receives visible light formed by the optical imaging unit, and is visible together with the depth distribution of the subject calculated by the depth calculation unit. You may further provide the recording part which records the image of the to-be-photographed object by the solid-state image sensor for light.
[0023]
In the first and second embodiments, the irradiation unit performs irradiation based on at least one of the intensity of light emitted from the subject detected by the light intensity detection unit and the depth distance to the subject calculated by the depth calculation unit. You may further provide the control part which controls at least 1 of the light emission time of the 1st and 2nd irradiation light to perform, an intensity | strength, a radiation position, and the exposure time of the light-receiving part.
[0024]
According to a third aspect of the present invention, there is provided a distance measuring method for acquiring information related to the depth of a subject, and the first irradiation light having the first wavelength as a main wavelength component is different from the first wavelength. An irradiation stage in which the subject is irradiated simultaneously with the second irradiation light having the second and third wavelengths as main wavelength components from the optically different radiation positions, and the first and second irradiation lights were irradiated. From the emitted light obtained from the subject, the first emitted light having the first wavelength, the second emitted light having the second wavelength, and the third emitted light having the third wavelength are optically changed. Spectroscopic stage for separating, imaging stage for imaging the separated first, second and third outgoing lights, and light intensity detecting stage for detecting the intensity of the taken first, second and third outgoing lights And the depth distance to the subject is calculated using the intensities of the first, second and third outgoing lights. Characterized in that a depth calculation step.
[0025]
In the depth calculation step, the depth distance to the subject may be calculated using a value based on the intensity of the second and third emitted lights and the intensity of the first emitted light. In the depth calculation stage, provisional outgoing light from the subject when it is assumed that light having the first wavelength is emitted from the radiation position of the second irradiation light based on the intensities of the second and third outgoing lights. The depth distance to the subject may be calculated based on the ratio of the intensity of the first outgoing light and the intensity of the temporary outgoing light. In the depth calculation step, the depth distance to the subject may be calculated based on the ratio between the average intensity of the second emitted light and the third emitted light and the intensity of the first emitted light.
[0026]
According to a fourth aspect of the present invention, there is provided a distance measurement method for acquiring information related to the depth of a subject, the first irradiation light having a first wavelength as a main wavelength component, and a first wavelength shorter than the first wavelength. An irradiation stage for simultaneously irradiating the subject with the second irradiation light having the main wavelength component of the second wavelength and the third wavelength longer than the first wavelength from the optically different radiation positions; The first outgoing light having the first wavelength and the second outgoing light having the second and third wavelengths are optically separated from the outgoing light obtained from the subject irradiated with the second irradiation light. A spectroscopic stage; an imaging stage for imaging the separated first outgoing light and second outgoing light; and a light intensity detection stage for detecting the intensity of the received first outgoing light and second outgoing light, respectively. Using the intensity of the first outgoing light and the intensity of the second outgoing light, Characterized in that a depth calculation step of calculating the distance can.
[0027]
In the depth calculation step, the depth distance to the subject may be calculated based on the ratio between the intensity of the first emitted light and the half value of the intensity of the second emitted light.
[0028]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are described below. However, this is not always essential for the solution of the invention.
[0030]
(Embodiment 1)
A first embodiment of the present invention will be described. First, the basic principle of measuring the depth distance to the subject from the intensity of the reflected light from the subject will be described. FIG. 1 is an explanatory diagram of the principle of the present invention. The
[0031]
The light emitted from the
[0032]
I1/ (4πr2)
Given in. Therefore, the distance R from the
[0033]
W1= Rf · I1/ (4πR1 2)
Given in. Similarly, the distance R from the
[0034]
W2= Rf · I2/ (4πR2 2)
Given in.
[0035]
Reflected light intensity W from
WR= W1/ W2= (I1・ R2 2) / (I2・ R1 2)
Is required. This and R2-R1If the radiation position interval L between the
[0036]
R1= L / {(WR・ I2/ I1)1/2-1}
It can ask for.
[0037]
Thus, if the light source of the same color is used, the reflected light intensity ratio WRSince the influence of the surface reflectance Rf is canceled in the process of obtaining the information, information on the depth distance of the subject can be acquired. In this method, since the
[0038]
W1= Rf (λ1) ・ I1/ (4πR1 2)
Given in. On the other hand, the reflected light intensity W from the
[0039]
W2= Rf (λ2) ・ I2/ (4πR2 2)
Given in.
[0040]
Since there is a difference in surface reflectance depending on the wavelength, the reflected light intensity ratio WRHowever, since the term of the surface reflectance Rf is not canceled, it is impossible to acquire information on the depth distance of the subject. Wavelength λ1And λ2The surface reflectance Rf (λ1) And Rf (λ2), Ignoring the difference, reflected light intensity ratio WRIt is possible to calculate the depth distance of the subject, but an error occurs in the calculation. Surface reflectance Rf (λ1) And Rf (λ2In order to reduce the calculation error due to the difference in1And λ2The difference between the two must be small enough, but the wavelength λ1And λ2If the difference is made smaller, the accuracy of wavelength separation becomes worse, and errors are included in the intensity measurement for each wavelength. Therefore, in order to increase the resolution of wavelength separation and increase the accuracy of intensity measurement, the wavelength λ1And λ2Must be increased and the surface reflectance Rf (λ1) And Rf (λ2) To reduce the difference and increase the accuracy of distance measurement, the wavelength λ1And λ2The dilemma of having to reduce the difference between the two is naturally limited in improving the accuracy of distance measurement.
[0041]
Therefore, in this embodiment, the subject is irradiated with light having the first wavelength characteristic and light having the second wavelength characteristic different from the first wavelength characteristic from an optically different radiation position at the same time. The light having the first wavelength characteristic is temporarily separated using the reflected light having the second wavelength characteristic by optically separating the reflected light by the light having the wavelength characteristic and the reflected light by the light having the second wavelength characteristic. Is obtained from the radiation position of the light having the second wavelength characteristic, the provisional reflected light intensity that will be obtained from the subject is obtained, and the reflected light intensity of the first wavelength characteristic and the provisional reflected light intensity Based on the ratio, the depth distance of the subject is calculated. By obtaining the provisional reflected light intensity, the difference in surface reflectance depending on the wavelength can be canceled, so that the depth distance can be obtained accurately.
[0042]
FIG. 2 is a configuration diagram of the
[0043]
The
[0044]
The
[0045]
The
[0046]
The
[0047]
The solid-state imaging device is preferably a charge coupled device (CCD) image sensor having a good S / N ratio and a large number of pixels so that the intensity of reflected light from the subject can be detected with high accuracy in units of pixels. . In addition to the CCD, any of a MOS image sensor, a CdS-Se contact image sensor, an a-Si (amorphous silicon) contact image sensor, or a bipolar contact image sensor may be used as the solid-state imaging device.
[0048]
The
[0049]
The
[0050]
FIG. 3 is a configuration diagram of the
[0051]
The
[0052]
FIG. 4 is a configuration diagram of the
[0053]
The
[0054]
FIG. 5 is an explanatory diagram of a depth distance calculation method by the light
[0055]
WA= Rf (λA) ・ I1/ (4πR1 2)
And the wavelength λBReflected light intensity WB, Wavelength λCReflected light intensity WCIs
WB= Rf (λB) ・ I2/ (4πR2 2)
WC= Rf (λC) ・ I2/ (4πR2 2)
It is expressed.
[0056]
The
[0057]
WD= Rf (λA) ・ I2/ (4πR2 2)
It is. Therefore, the wavelength λAThe intensity W of the reflected light by the light from the
[0058]
WA/ WD= (I1・ R2 2) / (I2・ R1 2)
And this and R2-R1= Depth distance R of subject from L1Can be calculated.
[0059]
Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCUsing the intensity W of temporary reflected lightDThere can be many variations in the method for obtaining. FIG. 6 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by interpolation. Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCBy interpolating the wavelength λATemporary strength WDAsk for. Temporary intensity W after linear interpolationDOr simply wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCThe intermediate value of tentative strength WDIt is good.
[0060]
FIG. 7 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by extrapolation. Wavelength λBReflected light intensity WB, And wavelength λCReflected light intensity WCExtrapolated to wavelength λBShorter wavelength λATemporary strength WDAsk for.
[0061]
Further, there are the following modifications. FIG. 8 is a diagram for explaining a method of obtaining the provisional reflected light intensity from the respective reflected lights from the
[0062]
Further, there are the following modifications. FIGS. 9A to 9D are diagrams for explaining a method of obtaining provisional reflected light intensity when irradiation is performed using a band-pass filter that transmits only long-wavelength or short-wavelength light. The
[0063]
The
[0064]
In any of the above methods, the wavelength λ can be obtained so that the provisional reflected light intensity can be accurately obtained by processing such as interpolation, extrapolation, and averaging.BAnd wavelength λCIt is more preferable to set values close to each other within a range where linear interpolation or linear extrapolation is possible. FIG. 10 is a diagram showing the surface reflectance of three types of objects. The horizontal axis of the graph is wavelength, and the vertical axis is reflectance.
[0065]
Further, in the above description, an optical splitting element that splits the optical path by wavelength separation is used as the
[0066]
In the description of the above embodiment, when targeting a subject having a large difference in surface reflectance depending on the wavelength of the irradiated light, the wavelength λA, ΛB, ΛCIt is desirable that they be as close as possible so that no error occurs in the calculation of the provisional reflected light intensity. On the other hand, in order to increase the detection accuracy of the reflected light intensity of each wavelength component, the wavelength λA, ΛB, ΛCWavelength components other than are not included as much as possible, or wavelength λA, ΛB, ΛCThe wavelength of λA, ΛB, ΛCIt is desirable to increase the resolution of the wavelength and to reduce the wavelength interference as much as possible. Therefore, the wavelength characteristics of the
[0067]
FIG. 12 is a flowchart of the distance measurement method of this embodiment. The
[0068]
The
[0069]
The
[0070]
The
[0071]
FIG. 13 is a flowchart of the depth distance calculation process S110. Intensities W of second and third reflected lightB, WCBased on the wavelength λAAnd the intensity W of the temporary reflected light from the subject when it is assumed that the light having the intensity I2 is irradiated from the radiation position of the second irradiation lightDIs obtained (S112). Temporary reflected light intensity WDIs the intensity W of the second and third reflected lightBAnd WCIs obtained by interpolation or extrapolation. The intensity W of the first reflected lightAAnd temporary reflected light intensity WDRatio WA/ WDIs obtained (S114). Intensity I of the first and second irradiation light I1, I2, Radiation position interval L of first and second irradiation light, reflected light intensity ratio WA/ WDBased on the above, the distance to the subject is calculated (S116).
[0072]
FIG. 14 is a flowchart of a modification of the depth distance calculation process S110. Intensities W of second and third reflected lightB, WCAverage value WD= (WB+ WC) / 2 is obtained (S118). The intensity W of the first reflected lightAAnd the average intensity W of the second and third reflected lightDRatio WA/ WDIs obtained (S120). Intensity I of the first and second irradiation light I1, I2, Radiation position interval L of first and second irradiation light, reflected light intensity ratio WA/ WDBased on the above, the distance to the subject is calculated (S122).
[0073]
As described above, according to the image pickup apparatus of the present embodiment, light having different wavelength characteristics is irradiated onto the subject simultaneously from optically different radiation positions, and the wavelength of the reflected light obtained from the subject is adjusted according to the wavelength characteristics. The depth distance to the subject can be easily obtained by using the intensity of the reflected light that has been separated and wavelength-separated.
[0074]
In addition, since an image of reflected light from the subject is picked up by a solid-state image sensor and stored as image data, the depth distance can be calculated by detecting the reflected light intensity in units of pixels or pixel areas. Can be obtained. Therefore, it is possible to acquire the depth distribution of the subject from the two-dimensional image of the subject and create a three-dimensional stereoscopic image of the subject.
[0075]
(Embodiment 2)
A second embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment is different from the image capturing apparatus according to the first embodiment only in a part of the configuration of the
[0076]
The
[0077]
FIG. 16 is a configuration diagram of the
[0078]
FIG. 17 is an explanatory diagram of a depth distance calculation method by the light
[0079]
WA= Rf (λA) ・ I1/ (4πR1 2)
And the wavelength λBAnd λCThe intensity W of the reflected light havingEIs
WE= Rf (λB) ・ I2/ (4πR2 2)
+ Rf (λC) ・ I2/ (4πR2 2)
It is expressed.
[0080]
The
[0081]
WD= Rf (λA) ・ I2/ (4πR2 2)
It is. Therefore, the wavelength λAThe intensity W of the reflected light by the light from the
[0082]
WA/ WD= (I1・ R2 2) / (I2・ R1 2)
And this and R2-R1= Depth distance R of subject from L1Can be calculated.
[0083]
Temporary reflected light intensity WDSo that is accurately obtainedAIs the wavelength λB, ΛCIt is more preferable that the wavelength is in the middle. In the above description, the
[0084]
FIG. 19 is a flowchart of the distance measurement method of this embodiment. The
[0085]
The
[0086]
The
[0087]
The
[0088]
In the above description, an optical splitting element, such as a prism or a beam splitter, that splits the optical path by wavelength separation is used as the
[0089]
As described above, according to the image pickup apparatus of the present embodiment, the first irradiation light having the first wavelength as the main wavelength component and the second and third wavelengths sandwiching the first wavelength in the middle. Irradiating the subject simultaneously with the second irradiation light having the main wavelength component from the optically different radiation positions, and from the reflected light obtained from the subject, the first reflected light having the first wavelength; Separating the second reflected light having the second and third wavelengths, and calculating the depth distance of the subject based on the ratio between the first reflected light intensity and a half value of the second reflected light intensity. Can do. By simply halving the second reflected light intensity, the provisional reflected light intensity when the light having the first wavelength is irradiated from the radiation position of the second irradiation light can be obtained. The depth distance of the subject can be calculated. In addition, the number of solid-state imaging elements that receive reflected light from the subject can be two, and the apparatus can be downsized.
[0090]
(Embodiment 3)
A third embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment is different from the image capturing apparatus according to the first embodiment only in a part of the configuration of the
[0091]
The
[0092]
FIG. 21 is a configuration diagram of the
[0093]
In the above, the wavelength λBAnd λCThe
[0094]
As described above, according to the image pickup apparatus of the present embodiment, since infrared light is used to measure the depth distance of the subject, the subject can be obtained even under natural conditions where the subject is irradiated with natural light or illumination light. The depth distance can be measured. Therefore, it is not necessary to turn the room into a dark room for measuring the depth distance of the subject. Further, since the reflected light in the visible light region can be separated and imaged, it is possible to measure the depth distribution of the subject and simultaneously take an image of the subject. Image processing of the subject using the depth distribution of the subject is possible, such as extracting the main subject from the photographed subject image and separating the background and the person image.
[0095]
(Embodiment 4)
A fourth embodiment of the present invention will be described. Compared with the image pickup devices of the first, second, and third embodiments, the image pickup device of the present embodiment has a
[0096]
In the present embodiment, since the optical axes of the
[0097]
(Embodiment 5)
FIG. 23 is a diagram for explaining the principle according to the fifth embodiment of the present invention. The
[0098]
As shown in FIG. 23, the
[0099]
The intensity of the reflected light from the part to be measured 122 of the light irradiated from the irradiation position (112, 114) is D, respectively.1, D2Then D1, D2Is given as:
[0100]
[Expression 1]
That is,
[Expression 2]
It becomes.
[0101]
Also,
[Equation 3]
So
[Expression 4]
It becomes. Also,
[0102]
[Equation 5]
And L12, Θ1Is a known value, so θ2Is given by a function of L. That is,
[0103]
[Formula 6]
It becomes. Therefore,
[0104]
[Expression 7]
It becomes. Where D1, D2, P1, P2, Θ1Is a measured or known value, so the unknown in the above equation is θ0And L. Therefore, the above condition is satisfied (θ0, L) can be determined. That is, when the distance L to the measured
[0105]
The present invention relates to the distance L of the
[0106]
FIG. 24 shows the distance L to the measured
[0107]
Next, the surface inclination θ of the
[0108]
Also, the surface inclination θ0And θ0If the difference from 'is not within the predetermined range, assuming that there is an error in the setting of the initially assumed distance La, the distance L to the measured
[0109]
FIG. 25 shows a surface inclination θ at a predetermined distance interval within a predetermined range with respect to the temporary distance La.0And surface tilt θ0An example of the result of calculating 'is shown. In the graph of FIG. 25, the horizontal axis indicates the provisional distance La to the
[0110]
[0111]
(Embodiment 6)
FIG. 26 is a diagram illustrating the principle of an information acquisition method for acquiring distance information to an object. From the
[0112]
As shown in FIG. 26, the
[0113]
The intensity of the reflected light at the
[0114]
[Equation 8]
That is,
[Equation 9]
However, f () is a function. Also,
[0115]
[Expression 10]
So
[Expression 11]
It becomes. Also,
[0116]
[Expression 12]
X, L12, ΘCIs a known value, so θ1, Θ2, Θ3Is given by a function of L, respectively. That is,
[0117]
[Formula 13]
It becomes. Therefore,
[0118]
[Expression 14]
It becomes. D1, D2, D3,θC, P1, P2, P3Is a measured value or a known value, so from the above two equations, the unknown θ0, L can be obtained. And θ0D1, D2, D3From any of the formulasobjCan be requested. As described above, the distance information to the object, the tilt information of the surface of the object, and the reflectance of the surface of the object can be obtained by imaging the reflected light of the object irradiated from three or more optically different irradiation positions. Information can be calculated.
[0119]
In this example, the
[0120]
According to the information acquisition method described above, it is possible to eliminate the error due to the inclination of the surface of the
[0121]
However, when the irradiation positions (212, 214, 216) are arranged on a straight line, the method described with reference to FIG. 26 cannot calculate distance information to the object. Hereinafter, when the irradiation positions (212, 214, 216) are arranged on a straight line, a method for acquiring distance information to the object, inclination information of the surface of the object, and reflectance information of the object surface will be described.
[0122]
FIG. 27 is an explanatory diagram of an information acquisition method for acquiring distance information to an object and the like when the irradiation positions are arranged on a straight line. From the
[0123]
As shown in FIG. 27, the
[0124]
The intensity of the reflected light at the
[0125]
[Expression 15]
That is,
[Expression 16]
It is. Also,
[0126]
[Expression 17]
So
[Expression 18]
It becomes. Also,
[0127]
[Equation 19]
And θ1Is θCEqual to L12, L13, ΘCIs known, so θ2, Θ3Is given by a function of L. That is,
[0128]
[Expression 20]
It becomes. Therefore,
[0129]
[Expression 21]
It becomes. D1, D2, D3,θC, P1, P2, P3Is a measured value or a known value, so from the above two equations, the unknown θ0, L can be obtained. And θ0D1, D2, D3From any of the formulasobjCan be requested. As described above, the reflected light from the
[0130]
In the information acquisition method described with reference to FIG. 27, since the optical axis of the
[0131]
In the information acquisition method described with reference to FIG. 26 or FIG. 27, the
[0132]
In the information acquisition method described with reference to FIG. 26 or FIG. 27, the light emitted from the three irradiation positions has different wavelength as the main wavelength components, and at the respective irradiation positions, substantially simultaneously. The
[0133]
FIG. 28 is an explanatory diagram of an information acquisition method in which the difference in reflectance of the surface of the
[0134]
FIG. 29 is a flowchart showing an example of an information acquisition method according to the present invention. The information acquisition method in the present embodiment includes an irradiation stage (S200), an imaging stage (S202), and a calculation stage (S204).
[0135]
In the irradiation step (S200), as described with reference to FIG. 26, the
[0136]
In the irradiation step (S200), similarly to the information acquisition unit described with reference to FIG. 27, the
[0137]
Further, in the calculation step (S204), as described with reference to FIG. 26 or FIG. 2, the distance information to the
[0138]
In the irradiation step (S200), similarly to the information acquisition method described with reference to FIG. 28, the
[0139]
As described above, according to the image pickup apparatus and the distance measuring method of the present invention, light having different wavelength characteristics is irradiated onto a subject simultaneously from different radiation positions, and reflected light from the subject is optically matched to the wavelength characteristics. The depth distance of the subject can be easily calculated by measuring the intensity.
[0140]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.
[0141]
As an example of such a change, in the above description, reflected light is imaged as an example of outgoing light obtained from a subject irradiated with light, and the distance to the subject is obtained from the difference in intensity of the reflected light. In the case of a transparent or translucent object that transmits light, the depth distance of the subject can also be obtained from the difference in intensity of transmitted light that has passed through the subject.
[0142]
【The invention's effect】
As apparent from the above description, according to the present invention, the depth distance of the subject can be easily measured by photographing the emitted light obtained from the subject irradiated with light.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a configuration diagram of an
FIG. 3 is a configuration diagram of an
FIG. 4 is a configuration diagram of a
FIG. 5 is an explanatory diagram of a depth distance calculation method by a light
FIG. 6 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by interpolation.
FIG. 7 is an explanatory diagram of a method for obtaining the intensity of provisional reflected light by extrapolation.
FIG. 8 is a diagram for explaining a method of obtaining provisional reflected light intensity from each reflected light from the
FIG. 9 is a diagram for explaining a method for obtaining provisional reflected light intensity when irradiation is performed using a band-pass filter that transmits only long-wavelength or short-wavelength light.
FIG. 10 is a diagram showing the surface reflectance of three types of objects.
11 is a diagram illustrating an optical filter that transmits a specific wavelength component provided in the
FIG. 12 is a flowchart of a distance measurement method according to the first embodiment.
FIG. 13 is a flowchart of depth distance calculation processing S110.
FIG. 14 is a flowchart of a modification of depth distance calculation processing S110.
FIG. 15 is a configuration diagram of an
FIG. 16 is a configuration diagram of a
17 is an explanatory diagram of a depth distance calculation method by a light
FIG. 18 is a diagram for explaining a method of separating reflected light using a band cut filter.
FIG. 19 is a flowchart of a distance measurement method according to the second embodiment.
FIG. 20 is a configuration diagram of an
FIG. 21 is a configuration diagram of a
FIG. 22 is a configuration diagram of an
FIG. 23 is a principle explanatory diagram according to
24 is an explanatory diagram of an example of a method for calculating a distance L to a measured
FIG. 25 shows an example of a result of calculating the surface inclination θ0 and the surface inclination θ0 ′ at predetermined distance intervals within a predetermined range with respect to the temporary distance La.
FIG. 26 is a diagram illustrating the principle of an information acquisition method according to
FIG. 27 is an explanatory diagram of an information acquisition method when irradiation positions are arranged on a straight line.
FIG. 28 is an explanatory diagram of an information acquisition method in which a difference in reflectance of the surface of the
FIG. 29 is a flowchart illustrating an example of an information acquisition method.
[Explanation of symbols]
10 Light source 12 Optical filter
20
40
62
66
68
100
200 imaging device
Claims (20)
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から前記被写体に照射する照射部と、
前記照射部により前記第1及び第2の照射光が照射された前記被写体からの出射光から、前記第1の波長を有する第1の出射光と、前記第2の波長を有する第2の出射光と、前記第3の波長を有する第3の出射光とを光学的に分離する分光部と、
前記第2及び第3の出射光の強度に基づいて、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度を求め、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出部と
を備えた画像撮像装置。An image capturing device that acquires information about the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically An irradiating unit that irradiates the subject from different radiation positions;
A first outgoing light having the first wavelength and a second outgoing light having the second wavelength are emitted from the subject irradiated with the first and second irradiation lights by the irradiation unit. A spectroscopic unit for optically separating the incident light and the third emitted light having the third wavelength;
Based on the intensities of the second and third emitted lights, the provisional emitted light from the subject when it is assumed that the light having the first wavelength is emitted from the radiation position of the second irradiated light. An image pickup apparatus comprising: a depth calculating unit that obtains an intensity and calculates a depth distance to the subject by using the intensity of the first emitted light and the intensity of the temporary emitted light .
前記分光部によって分離され、前記光学結像部が結像する前記第1、第2及び第3の出射光を受光する受光部と、
前記受光部が受光する前記第1、第2及び第3の出射光の強度を検出する光強度検出部とをさらに備え、
前記奥行き算出部は、前記第1、第2及び第3の出射光の強度を用いて、前記被写体までの奥行き距離を算出する請求項2に記載の画像撮像装置。An optical imaging unit that images emitted light obtained from the subject irradiated with the first and second irradiation lights by the irradiation unit;
A light receiving unit that receives the first, second, and third outgoing lights separated by the spectroscopic unit and imaged by the optical imaging unit;
A light intensity detector that detects the intensity of the first, second, and third emitted light received by the light receiver;
The image capturing apparatus according to claim 2, wherein the depth calculation unit calculates a depth distance to the subject using intensities of the first, second, and third outgoing lights.
前記分光部は、前記第1及び第2の境界波長の短い方よりも短い第1の波長の光を透過する第1の光学フィルターと、前記第1及び第2の境界波長の長い方よりも長い第2及び第3の波長の光をそれぞれ透過する第2及び第3の光学フィルターとを有し、前記被写体から得られる前記出射光を前記第1の光学フィルターに透過させることにより、前記第1の波長を有する前記第1の出射光を分離し、前記出射光をそれぞれ前記第2及び第3の光学フィルターに透過させることにより、前記第2の波長を有する前記第2の出射光及び前記第3の波長を有する前記第3の出射光を分離する請求項3に記載の画像撮像装置。The irradiation unit includes: a first optical filter that transmits light in a wavelength region shorter than a predetermined first boundary wavelength; and a second optical filter that transmits light in a wavelength region longer than a predetermined second boundary wavelength. And irradiating the subject with first irradiation light that passes through the first optical filter and second irradiation light that passes through the second optical filter from an optically different radiation position,
The spectroscopic unit includes a first optical filter that transmits light having a shorter first wavelength than a shorter one of the first and second boundary wavelengths, and a longer one of the first and second boundary wavelengths. Second and third optical filters that respectively transmit light having a long second and third wavelengths, and transmitting the emitted light obtained from the subject to the first optical filter, thereby allowing the first optical filter to transmit the first and second optical filters. Separating the first outgoing light having a wavelength of 1 and transmitting the outgoing light through the second and third optical filters, respectively, and the second outgoing light having the second wavelength and The image capturing apparatus according to claim 3, wherein the third emitted light having a third wavelength is separated.
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長より短い第2の波長、及び前記第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から前記被写体に照射する照射部と、
前記照射部により前記第1及び第2の照射光が照射された前記被写体からの出射光を結像する光学結像部と、
前記被写体から得られる前記出射光から、前記第1の波長を有する第1の出射光と、前記第2及び第3の波長を有する第2の出射光とを光学的に分離する分光部と、
前記分光部によって分離され、前記光学結像部が結像する前記第1の出射光及び前記第2の出射光を受光する受光部と、
前記受光部が受光する前記第1及び第2の出射光の強度を検出する光強度検出部と、
前記第2の出射光の強度の半分の値を、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度として、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出部と
を備える画像撮像装置。 An image capturing device that acquires information about the depth of a subject,
A first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An irradiation unit that irradiates the subject with the irradiation light of 2 from an optically different radiation position;
An optical imaging unit that images the emitted light from the subject irradiated with the first and second irradiation lights by the irradiation unit;
A spectroscopic unit that optically separates the first emitted light having the first wavelength and the second emitted light having the second and third wavelengths from the emitted light obtained from the subject;
A light receiving unit that receives the first emitted light and the second emitted light separated by the spectroscopic unit and imaged by the optical imaging unit;
A light intensity detector that detects the intensity of the first and second emitted light received by the light receiver ;
The intensity of the temporary emitted light from the subject when it is assumed that half of the intensity of the second emitted light is the light having the first wavelength emitted from the radiation position of the second emitted light as, by using the intensity of the first intensity of the emitted light and the provisional emitted light, a depth calculation unit for calculating a depth distance to the subject
An image pickup apparatus comprising:
前記分光部は、前記被写体から得られる前記出射光から可視光を光学的に分離する手段をさらに備え、
前記受光部は、前記分光部により光学的に分離され、前記光学結像部が結像する前記可視光を受光する可視光用の固体撮像素子をさらに備え、
前記奥行き算出部が算出する前記被写体の前記奥行き分布とともに前記可視光用の固体撮像素子に撮像された前記被写体の画像を記録する記録部をさらに備えた
請求項13に記載の画像撮像装置。The first and second irradiation lights are light in the infrared region,
The spectroscopic unit further includes means for optically separating visible light from the emitted light obtained from the subject,
The light-receiving unit further includes a solid-state imaging device for visible light that is optically separated by the spectroscopic unit and receives the visible light formed by the optical imaging unit,
Imaging apparatus according to claim 13 comprising recording unit further for recording an image of the said object with depth distribution is captured in the solid-state image pickup element for the visible light of the object the depth calculation unit calculates.
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長とは異なる第2及び第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に前記被写体に照射する照射段階と、
前記第1及び第2の照射光が照射された前記被写体から得られる出射光から、前記第1の波長を有する第1の出射光と、前記第2の波長を有する第2の出射光と、前記第3の波長を有する第3の出射光とを光学的に分離する分光段階と、
分離された前記第1、第2及び第3の出射光を撮像する撮像段階と、
撮像された前記第1、第2及び第3の出射光の強度を検出する光強度検出段階と、
前記第2及び第3の出射光の強度に基づいて、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度を求め、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出段階と
を備えた距離測定方法。A distance measurement method for acquiring information related to the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically Irradiating the subject simultaneously from different radiation positions;
From outgoing light obtained from the subject irradiated with the first and second irradiation light, first outgoing light having the first wavelength, second outgoing light having the second wavelength, and A spectroscopic step of optically separating the third outgoing light having the third wavelength;
An imaging stage for imaging the separated first, second and third outgoing lights;
A light intensity detection step of detecting the intensity of the first, second and third emitted lights imaged;
Based on the intensities of the second and third emitted lights, the provisional emitted light from the subject when it is assumed that the light having the first wavelength is emitted from the radiation position of the second irradiated light. A distance measurement method comprising: a depth calculation step of obtaining an intensity and calculating a depth distance to the subject using the intensity of the first emitted light and the intensity of the temporary emitted light .
第1の波長を主要な波長成分とする第1の照射光と、前記第1の波長より短い第2の波長、及び前記第1の波長より長い第3の波長を主要な波長成分とする第2の照射光とを、光学的に異なる放射位置から同時に前記被写体に照射する照射段階と、
前記第1及び第2の照射光が照射された前記被写体から得られる出射光から、前記第1の波長を有する第1の出射光と、前記第2及び第3の波長を有する第2の出射光とを光学的に分離する分光段階と、
分離された前記第1の出射光及び前記第2の出射光を撮像する撮像段階と、
受光された前記第1の出射光及び前記第2の出射光の強度をそれぞれ検出する光強度検出段階と、
前記第2の出射光の強度の半分の値を、前記第1の波長を有する光を前記第2の照射光の放射位置から照射したと仮定した場合の前記被写体からの仮の出射光の強度として、前記第1の出射光の強度と前記仮の出射光の強度とを用いて、前記被写体までの奥行き距離を算出する奥行き算出段階とを備えた距離測定方法。A distance measurement method for acquiring information related to the depth of a subject,
A first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An irradiation stage for simultaneously irradiating the subject with two irradiation lights from different optically radiating positions;
From the emitted light obtained from the subject irradiated with the first and second irradiated light, the first emitted light having the first wavelength and the second emitted light having the second and third wavelengths. A spectroscopic stage for optically separating incident light;
An imaging stage for imaging the separated first outgoing light and second outgoing light;
A light intensity detection step of detecting the intensity of the received first emitted light and the second emitted light, respectively;
The intensity of the temporary emitted light from the subject when it is assumed that half of the intensity of the second emitted light is the light having the first wavelength emitted from the radiation position of the second emitted light as the intensity of the first outgoing light and with the strength of the temporary emitted light, the distance measuring method and a depth calculation step of calculating a depth distance to the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001036761A JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000037771 | 2000-02-16 | ||
JP2000-37771 | 2000-02-16 | ||
JP2001036761A JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001304821A JP2001304821A (en) | 2001-10-31 |
JP4150506B2 true JP4150506B2 (en) | 2008-09-17 |
Family
ID=26585448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001036761A Expired - Lifetime JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4150506B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7719372B2 (en) | 2004-10-12 | 2010-05-18 | Epson Toyocom Corporation | Voltage controlled piezoelectric oscillator that can be linear frequency controlled |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334311A (en) * | 2006-05-18 | 2007-12-27 | Nippon Hoso Kyokai <Nhk> | Visible light / infrared light optical system |
JP5112702B2 (en) * | 2007-01-16 | 2013-01-09 | 富士フイルム株式会社 | Imaging apparatus, method, and program |
KR101591471B1 (en) * | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | Apparatus and method for extracting feature information of an object, and apparatus and method for generating feature map using the apparatus and method |
US9128036B2 (en) * | 2011-03-21 | 2015-09-08 | Federal-Mogul Corporation | Multi-spectral imaging system and method of surface inspection therewith |
KR101658985B1 (en) * | 2015-01-30 | 2016-09-23 | 한국기계연구원 | Optical Layout Apparatus for Lithography |
JP7076951B2 (en) * | 2017-05-23 | 2022-05-30 | 株式会社ディスコ | Reflectance detector |
CN108629325B (en) * | 2018-05-11 | 2021-06-22 | 北京旷视科技有限公司 | Method, device and system for determining the position of an item |
CN118140114A (en) * | 2021-10-29 | 2024-06-04 | 索尼集团公司 | Light emitting device and electronic apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0642915A (en) * | 1992-06-03 | 1994-02-18 | Stanley Electric Co Ltd | Optical measuring device |
JPH0989553A (en) * | 1995-09-26 | 1997-04-04 | Olympus Optical Co Ltd | Distance measuring device |
JP3414624B2 (en) * | 1997-09-16 | 2003-06-09 | 松下電器産業株式会社 | Real-time range finder |
JP2000002521A (en) * | 1998-06-18 | 2000-01-07 | Minolta Co Ltd | Three dimensional input device |
-
2001
- 2001-02-14 JP JP2001036761A patent/JP4150506B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7719372B2 (en) | 2004-10-12 | 2010-05-18 | Epson Toyocom Corporation | Voltage controlled piezoelectric oscillator that can be linear frequency controlled |
Also Published As
Publication number | Publication date |
---|---|
JP2001304821A (en) | 2001-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4040825B2 (en) | Image capturing apparatus and distance measuring method | |
EP1126412B1 (en) | Image capturing apparatus and distance measuring method | |
US12335455B2 (en) | User interface for intraoral scanning with tooth color detection | |
JP6480441B2 (en) | Time-of-flight camera system | |
JP3979670B2 (en) | 3D color imaging | |
KR101296780B1 (en) | Obstacle Detecting system using of laser, and method thereof | |
US20140168424A1 (en) | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene | |
US6765606B1 (en) | Three dimension imaging by dual wavelength triangulation | |
US10067058B1 (en) | Auto-focus system | |
JP4516590B2 (en) | Image capturing apparatus and distance measuring method | |
JP4150506B2 (en) | Image capturing apparatus and distance measuring method | |
US6222631B1 (en) | Two-dimensional spectral characteristic measuring apparatus | |
JP2007528028A (en) | Optical system for generating images with different focus | |
JP3805791B2 (en) | Method and apparatus for reducing undesirable effects of noise in three-dimensional color imaging systems | |
KR101438748B1 (en) | Optical coherence tomography device and tomography method thereof | |
JP4141627B2 (en) | Information acquisition method, image capturing apparatus, and image processing apparatus | |
KR101226442B1 (en) | Spectral domain optical coherence tomograpy including of high resolution spectromiter and the method | |
JP4204746B2 (en) | Information acquisition method, imaging apparatus, and image processing apparatus | |
JP4010360B2 (en) | Spectral imaging device | |
JP4266286B2 (en) | Distance information acquisition device and distance information acquisition method | |
JP2000258154A (en) | Image pickup device | |
JP2003014422A (en) | Real-time range finder | |
JP2022126704A (en) | Imaging apparatus, imaging method, program, and recording medium | |
JPH07311089A (en) | Spectral characteristics measuring device | |
TW202429042A (en) | Film thickness measuring device and film thickness measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060110 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080630 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4150506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |