[go: up one dir, main page]

JP2013044844A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2013044844A
JP2013044844A JP2011181240A JP2011181240A JP2013044844A JP 2013044844 A JP2013044844 A JP 2013044844A JP 2011181240 A JP2011181240 A JP 2011181240A JP 2011181240 A JP2011181240 A JP 2011181240A JP 2013044844 A JP2013044844 A JP 2013044844A
Authority
JP
Japan
Prior art keywords
image
subject
processing apparatus
image processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011181240A
Other languages
English (en)
Inventor
Hitoshi Yamada
整 山田
Yusuke Monobe
祐亮 物部
Takashi Fujii
隆志 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011181240A priority Critical patent/JP2013044844A/ja
Publication of JP2013044844A publication Critical patent/JP2013044844A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明は、複数のフォーカス状態で撮影される複数枚の画像と、複数のフォーカス状態の全てにおける合焦範囲を有する参照画像を用いて被写体距離を測定する場合に、被写体距離推定精度が低下することを課題とする。
【解決手段】上記の課題を解決するために、本発明では、n枚の画像のうちどの画像を被写体までの距離を計測するのに用いるかを選択する被写体距離計測画像選択部104を備える。被写体距離計測画像選択部104は参照画像と適切なペアとなるフォーカス状態の画像を選択し、被写体距離計測する。これにより、高精度に被写体距離を推定できる画像処理装置を提供する。
【選択図】図1

Description

本発明は複数のフォーカス状態で撮影された複数の撮影画像から被写体距離を計測する画像処理装置および画像処理方法に関する。
カメラの撮影で画像と同時に、3次元シーンの奥行き、すなわち、被写体距離を計測できれば、画像表示・変換・認識等において様々な応用が可能となる。例えば、1枚の撮影画像と、この画像に対する被写体距離が得られれば、三角測距の原理で異なる視点から見た画像を擬似的に生成することができ、ステレオ、あるいは、多視点に対応する3次元画像の生成が可能になる。また、被写体距離に基づいて画像の領域分割を行えば、特定の距離に存在する被写体だけを切り出したり、画質調整したりすることも可能になる。
被写体距離を非接触で計測する主な方式は、以下の能動的手法と受動的手法の2つに大別できる。1つ目の能動的手法は、赤外線や超音波、レーザーなどを照射し、反射波が戻ってくるまでの時間や反射波の角度などをもとに被写体距離を計測するものである。一般に、この手法を用いた場合には、被写体距離が近い時には高精度に計測できるものの、通常のカメラには必要のない能動的な照射/受光デバイスが必要になるという課題がある。また、被写体が遠方にあるときには、照射デバイスの出力レベルが低いと、被写体に届く照射光が弱くなり、被写体距離の計測精度が低下するという課題があり、一方、照射デバイスの出力レベルが高いと、消費電力が増大するという課題の他に、レーザーを用いる場合には安全性の問題もあるため、使用できる環境が制限されるという課題もある。一方、2つ目の手法は、カメラで撮影された画像だけを用いて被写体距離を計測するものである。
受動的手法にも多くの手法が存在するが、その一つに、撮影された画像に生じるぼけ量の相関値を利用するDepth from Defocus(以下、DFDと呼ぶ)と呼ばれる手法がある。一般に、撮影画像に生じるぼけ量は、撮影時のフォーカス状態と被写体距離の関係に応じてカメラ毎に一意に決まる。DFDではこの特性を利用し、あらかじめ既知の被写体距離にある被写体を複数のフォーカス状態で撮影することによって、被写体距離と撮影画像に生じるぼけ量の相関値の関係を計測しておく。これにより、実際の撮影において複数のフォーカス状態で撮影を行えば、画像間のぼけ量の相関値を算出することにより、被写体距離を計測することが可能となる(特許文献1参照)。
特許文献1に開示されている手法では、異なるフォーカス状態で撮影された2枚の画像を用いる。この2枚の画像は、異なるフォーカス状態で撮影されているため、特定距離に存在する被写体のぼけ量が2枚の画像で異なるという性質があり、この性質を利用して被写体距離の計測を行う。例として、近距離に存在する被写体を、それぞれ近距離側と遠距離側のフォーカス状態で2枚撮影した場合を考えるとする。この場合、近距離側にフォーカスを合わせて撮影された1枚の画像ではその被写体は鮮明に写る一方で、遠距離側にフォーカスを合わせて撮影されたもう1枚の画像ではその被写体はぼけた状態で写る。この被写体の写り方の差とあらかじめ計測されている被写体距離と撮影画像に生じるぼけ量の相関値を利用する事で、被写体距離を計測する。
特表2009−505104号公報
Flexible Depth of Field Photography,H.Nagahara,S.Kuthirummal,C.Zhou,S.K.Nayer,European Conference on Computer Vision(ECCV),Oct,2008
特許文献1に開示されている手法では、絞りを大きく絞らない限り撮影画像の被写界深度の幅が狭くなる。被写界深度の深さによって画像でぼけずに写る距離間隔が決まるため、被写界深度は、距離ごとのぼけ量の違いを利用するDFDで計測可能な距離を決める重要な要素である。そのため、DFDにおいて計測可能な被写体距離を長く得る、つまり被写界深度を広げるには多数の画像を撮影する必要がある。これは少数の画像で距離計測が可能であるというDFDのメリットを相殺する事となる。加えて絞りを大きく絞ることで少ない枚数の画像から参照画像を得ることが出来るが、入射光量が低下するためこれを補うためには撮像素子の感度を高くするか露光時間を長くするかのいずれかが必要になる。しかし前者は撮影画像のノイズの増大を、後者は被写体ぶれを招き、これらによって被写体のスペクトル成分が乱れ、結果として被写体距離の計測精度が低下してしまう。このため、2枚以上の画像から広範囲の被写体距離を計測する場合には、多数の画像を用いる必要があった。
しかしながら、従来法で複数枚の画像を用いて距離計測を行う場合、計測した距離においてぼけ量の異なる複数枚の画像を用いる必要があるが、事前には被写体の距離が不明あり、被写体の存在する最適な画像を選択できないため距離計測が困難であるという課題が存在した。
本発明は上述の問題に鑑みてなされたものであり、異なるぼけを有する複数枚の撮影画像から安定に距離計測を可能にする画像処理装置および画像処理方法を提供することを目的とする。
上記課題を解決するために、本願発明は、複数のフォーカス状態で撮影された複数の撮影画像から被写体距離を計測する画像処理装置であって、複数のフォーカス状態で画像をn枚(ただし、n≧2)撮影する撮像部と、前記撮像部の合焦位置および被写界深度を変化させる合焦範囲制御部と、前記撮像部によって撮影される複数のフォーカス状態の全てにおける合焦範囲を有する第一の参照画像を生成する参照画像生成部と、前期n枚の画像のうち、被写体までの距離を計測するのに用いる距離計測用画像を選択する被写体距離計測画像選択部と、前記距離計測用画像および前記第一の参照画像のぼけの度合いから被写体までの距離を計測する距離計測部とを備える、ことを特徴とする。
本発明によれば、合焦範囲制御部によって絞りを絞ることなく通常より合焦範囲の広い画像を得ることが出来るため、3枚の画像から被写体距離の計測を行うことが可能となる。加えて、詳細な被写体距離を計測する前に、画像の画素ごとに被写体計測に適切な画像を選択し、その被写体計測に適切な画像と合焦範囲の広い画像の2枚を用いて被写体距離を計測可能となるため、フォーカス状態が異なる画像間であっても、被写体距離を高精度に計測する事が可能になる。
本発明の実施の形態1の画像処理装置の構成を示すブロック図 フォーカスを変化させた際の集光の様子を示す模式図 本発明の実施の形態1の処理の流れを示すフロー図 近距離に存在する被写体の距離計測結果を示す図 本発明の実施の形態2の画像処理装置の構成を示すブロック図 本発明の実施の形態2の処理の流れを示すフロー図 ブロックマッチング法の処理を表す図
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は本発明の実施の形態1に係る画像処理装置の構成を示す図である。画像処理装置100は撮像部101、合焦範囲制御部102、参照画像生成部103、被写体距離計測画像選択部104、被写体距離計測部105を有する。
撮像部101は光線を集めるレンズが組み込まれたレンズユニットとCCDやCMOSなどの撮像素子を含んで構成され、被写体の像を撮像して画像を出力する機能を有する。
合焦範囲制御部102は撮像部101が有するレンズユニットを制御し、合焦位置および被写界深度を制御する機能を有する。具体的にはレンズユニットに組み込まれたオートフォーカス機構を特定のパターンで動作させる、あるいは特定の光学素子を切り替えるなどによって制御を行う。
参照画像生成部103は合焦範囲制御部102の作用によって異なる合焦位置および被写界深度を有する一または複数枚の画像から、レンズによるぼけがない状態を推定した参照画像を生成する。
被写体距離計測画像選択部104は撮影された異なる合焦位置および被写界深度を有する複数枚の画像、および参照画像から画像の画素あるいは領域ごとの被写体距離計測に適した画像の組み合わせを選択する。
被写体距離計測部105は被写体距離計測画像選択部104で選択された画像を用いて、DFDの手法に基づいて被写体距離の計測を行う。
以下、実施形態1の構成を示す図1おける各ブロック間のデータフローについて説明する。
撮像部101では、第1画像、第3画像及び、合焦範囲制御部102から出力される合焦範囲制御情報を基に合焦位置を変化させた第2画像を撮像する。
合焦範囲制御部102では、第2画像を撮影する際の合焦位置範囲の開始位置、及び終了位置等の合焦範囲制御情報を撮像部101に出力し、合焦範囲を制御する。
参照画像生成部103は、撮像部101にて撮像された第2画像から、レンズによるぼけがない状態を推定した参照画像を生成し、被写体距離計測画像選択部104に出力する。
被写体距離計測画像選択部104は、撮像部101で撮像された第1画像、第3画像と、参照画像生成部103で生成された参照画像のから、画像の画素あるいは領域ごとの被写体距離計測に適した画像の組み合わせを選択し、画像選択情報を生成する。そして、第1画像、画像、第3画像、参照画像に加え、生成された画像選択情報を、被写体距離計測部105に出力する。
被写体距離計測部105は被写体距離計測画像選択部104で生成された画像選択情報によって選択された画像を用いて、DFDの手法に基づいて被写体距離の計測を行う。
次に、撮影される画像の被写界深度を拡張する手法について説明する。一般的な被写界深度の幅は以下のように定義される。まず、過焦点距離(Hyperfocal Distance)について説明する。過焦点距離は、その距離にフォーカスを合わせた場合、その距離から後側に無限遠までが合焦していると判断される距離のことで、レンズの焦点距離をf、レンズのFナンバーをF、検知可能な最小のぼけを表す許容錯乱円の大きさをcとした時、過焦点距離hは以下の数1で近似される。
Figure 2013044844
距離sにフォーカスを合わせた際の被写界深度は、sより前側の被写界深度をDn、後側の被写界深度をDfとした時、以下の数2で表される。
Figure 2013044844
以上の式より、焦点距離を固定した場合、被写界深度の幅は絞りによってのみ変更可能である。
これに対して、絞りを絞ることなく被写界深度の幅を広げる種々の手法が提案されており、被写界深度拡張(Extended Depth of Field、以下EDOFと表記)と称される。以下、EDOFの具体的な手法について説明する。
最も単純なEDOF手法は、合焦位置を少しずつずらしながら複数の画像を撮影し、それらの画像から合焦している部分を抜き出して合成する手法である。
これに対して、露光中にフォーカスを変化させることで、多数の画像を合成するのと同様の効果を実現する手法が、非特許文献1に開示されている。
図2はフォーカスを変化させた際の集光の様子を模式的に示す図である。図2のように、被写体距離a1に合焦する撮像素子の位置をb1、被写体位置a2に合焦する撮像素子の位置をb2とする。レンズの公式よりa1とa2の間の距離に対して合焦する撮像素子の位置は必ずb1とb2の間にある。従って、露光中に撮像素子がb1からb2まで移動すると、a1に対しては始め合焦していたところから段々とぼけが大きくなり、画像にはこれらのぼけが積分されて重なって写る。一方、a2に対しては逆にぼけが大きかったところから段々と合焦していき、やはり画像にはこれらのぼけが重なって写る。
このことを数式を用いてさらに詳しく説明する。光学系のぼけの状態を表す点広がり関数(Point Spread Function、以下PSFと表記)が、以下の数3で表す形状であるとする。
Figure 2013044844
ただし、fは光学系の焦点距離、aは光学系の開口部の直径、uは被写体距離、vはレンズの公式1/f=1/u+1/vで定まる像面位置、Δvはvからの像面の移動量、Rはぼけの中心からの距離、gは定数をそれぞれ表す。
数3は像面の移動量Δvの関数なので、Δvがある関数V(t)に従って時刻0からTにわたって変化する場合、最終的に得られるPSFは以下の数4のように定義できる。
Figure 2013044844
ここで、V(t)が等速運動、即ちV(t)=v0+stで表されるとすると、数4は以下の数5のように解ける。
Figure 2013044844
ここで、erfc(x)は相補誤差関数(Complementary Error FUnction)である。u>>f、即ち被写体距離が光学系の焦点距離より十分大きいとすると、数5はuによらず一定の値であると考えることが出来る。つまり被写体距離によらず一定のぼけを有する画像が得られることを意味する。像面位置の始点v+V(0)、および終点v+V(T)を変化させることで、ぼけが一定となる被写体距離の範囲を変化させることが出来る。
次に、参照画像を用いたDFDの手法について説明する。参照画像Rと撮影画像Iの間には、以下の数6で示す関係が成立する。
Figure 2013044844
ここで、hは位置(x、y)におけるPSFを、d(x、y)は位置(x、y)における被写体距離を表す。また、式中の*は畳み込み演算を表す。例えば数3のように、PSFは被写体距離によって異なるため、異なる複数の距離にある被写体が存在する場合、画像の位置ごとに異なるPSFが畳み込まれた画像が撮影画像として得られる。
ここで、被写体距離d1、d2、…、dnに対応するPSFをh(x、y、d1)、h(x、y、d2)、…、h(x、y、dn)とする。例えば参照画像R(x、y)に存在する被写体が距離d1にある場合、撮影画像I(x、y)はR(x、y)にH(x、y、d1)を畳み込んだものに等しく、R(x、y)に他の被写体距離に対応するPSFを畳み込んだ場合には観測画像との差が生じる。よって、R(x、y)に各PSFを畳み込んだ画像と撮影画像の差を順に比較し、その差が最小となるPSFに対応する距離を調べれば、D(x、y)を求めることが出来る。具体的には以下の数7によって求められる。
Figure 2013044844
実際には撮影画像Iに含まれるノイズの影響を低減するため、画像をブロックに区切ってブロック内での誤差の総和を求め、誤差が最小となる距離をそのブロック全体の距離とするなどの処理を行うことで、より安定に距離計測を行うことが出来る。尚、数6および数7をフーリエ変換し、周波数領域上での比較を行うことで距離計測を行ってもよい。周波数領域では数6および数7における畳み込み演算が乗算に変換され、より高速に距離計測を行うことが出来る。
本発明では、これらのEDOF及びDFDを応用して、被写体距離の計測を行う。本発明の実施の形態1に係る画像処理装置によって、被写界深度を拡張した参照画像と異なるフォーカス状態で撮影された2枚の画像、合計3枚の画像から被写体距離計測を行う処理の流れについて図3に基づいて説明する。なお、以下では被写界深度を拡張する手法として、露光時間中にフォーカスを変化させる方法を用いるものとして説明を行う。
まず、撮像部101によって、それぞれ異なる合焦範囲を有する第1画像および第3画像を撮影する(ステップS101およびS105)。説明のため、第1画像の合焦位置は、第3画像の合焦位置よりも手前とする。更に、第1画像および第3画像に加え、合焦位置制御部102によって合焦位置を変化させて撮像する第2画像を撮影する。第2画像は、合焦位置を変更開始後(ステップS102)から、合焦位置変更終了後(ステップS104)まで、合焦位置を変更させている間に撮影する(ステップS103)。具体的には第1画像の撮影後に、合焦範囲制御部2によってフォーカス位置を等速で移動させ、合焦位置を所定の間隔だけ移動させて第2画像を撮影する。図2上で各画像の撮影位置を説明すると、第1画像はa1の位置で撮影、第2画像はa1からa2へ合焦位置変更中に撮影、第3画像はa2の位置で撮影される。このようにして撮影された第2画像は合焦位置変更範囲内で均一なぼけを有する。被写体距離に対して均一なぼけは参照画像の生成に、被写体距離に応じたぼけはDFDによる距離計測にそれぞれ寄与する事になる。ここで第1、第3画像では合焦位置を変更しないと記述しているが、この場合に限らず、第1、第3画像の撮影中に合焦位置の変更を伴っても構わない。また、第2画像の露光中におけるフォーカスの移動速度は等速でなくともよい。
次に、参照画像生成部103によって第2画像から参照画像を生成する(ステップS106)。参照画像は数6より撮影画像に対してPSFを逆畳み込みすることで求められる。本来参照画像を正しく求めるためには被写体距離D(x、y)が既知である必要があるが、第2画像は被写界深度が拡張されているため、拡張された範囲の被写体距離に対してPSFは一定である。第2画像に対して、均一なぼけに対応する1種類のPSFによる逆畳み込み演算を行うことにより、a1からa2の範囲全てに合焦した参照画像が得られる。尚、逆畳み込みのアルゴリズムはウィーナーフィルタ(Wiener Filter)のような既知の手法を用いることが出来る。
このように、第1、第3画像の2枚に加え、広い被写界深度を有する参照画像を用いる事で広範囲の距離計測を行う事が可能となる。
ここで、第1、第3画像及び参照画像の3枚の画像から被写体距離を計測する際には、数7を数8のように3枚用に拡張する。
Figure 2013044844
これにより、3枚以上の画像を用いたDFDが可能となる。しかし、数8のように拡張してしまうと、それぞれ合焦位置の異なる位置で撮影された画像I1、I3の結果を足しこむ事となるため、正確な被写体距離を求める際の阻害要因となる。
そこで、本実施形態における被写体距離計測画像選択部104では、第2画像の参照画像を用いて被写体距離を計測する際に、第1画像、第3画像のどちらの画像を用いるのが適切かを選択する(ステップS107)。高精度な被写体距離を求めるため、各画素または領域ごとに、事前に第1画像、第3画像のうち、どちらの画像を用いるのが適切かを選択した上で被写体距離を求める。
被写体距離計測画像選択部104では、予め計測済の各フォーカス状態のボケパラメータを参照画像へ畳み込む事で各フォーカス状態における参照画像のボケを表す画像を生成する。そして、撮像部において撮影された複数枚の画像と、各フォーカス状態における参照画像のボケを表す画像との差分値を計算する。さらに、画素または特定領域ごとに差分値の最小値を求め、画素または特定領域ごとにその最小値を持つ1枚の画像を選択し、参照画像と選択された1枚の画像を用いて距離計測を行う。以下その具体例について説明する。
まず、それぞれ参照画像と第1画像I1、参照画像と第3画像I3とで数7のように、参照画像R(x、y)に距離dごとのPSF:hを畳み込んだ画像と撮影画像I1、I3の差分値を順に計算する。その計算結果を数9のように、それぞれD1、D3に格納する。
Figure 2013044844
図4は近距離に存在する被写体の座標x、y位置における、D1、D3それぞれの差分値の例を、横軸をdとして図示したものである。近距離に存在する被写体の場合は、参照画像Rに被写体距離と一致する距離のhを畳み込んだ画像と、撮影画像が一致する。このため、I1はI3よりも手前側で合焦しており、D1は図4(a)のように手前側で最小値を取り、かつ差分値の勾配変化は大きい。一方でI3はI1よりも奥側で合焦しており、近距離に存在する被写体は撮影された段階でぼけてしまっているため、D3は図4(b)のように特定の被写体距離で最小値を取るようなことがなく、差分値の勾配変化は小さくなる。この性質を計測する事で、各画素もしくは領域において被写体計測に好適な画像の選択が可能となる。尚、2枚の画像からの選択について述べたが、複数枚の画像から選択する場合にも同様に、上記の性質を計測し、最も適する画像を選べば良い。また、複数枚の画像の中で最も適する画像が上記の性質を示さない場合には数8のような拡張を行い、被写体距離を計測しても良い。
最後に、被写体距離計測部105では、ステップS106で生成された参照画像と、第1、第3画像を用いステップS107で生成されたIm(x,y)から、数7に従って距離マップD(x、y)を算出する(ステップS108)。具体的には、ステップS107で画素単位、あるいは領域単位でどちらの画像を用いるかを、例えば0なら第1画像、1なら第3画像を指し示すような画像選択情報をIm(x、y)へ記録しておき、画素単位、あるいは領域単位でどちらの画像を用いるかを数10のように変えながら距離マップD(x、y)を算出する。これにより、より好適に被写体距離の計測を行う事が可能となる。
Figure 2013044844
以上に示すように、本実施の形態では被写界深度を拡張した参照画像を用いることで、少数の画像から距離計測を高精度に行うことができる。さらに、詳細な被写体距離を計測する前に、画像の画素ごとに被写体計測に適切な画像を選択し、その被写体計測に適切な画像と合焦範囲の広い画像の2枚を用いて被写体距離を計測可能となるため、フォーカス状態が異なる画像間であっても、被写体距離を高精度に計測する事が可能になる。
なお、露光中のフォーカスの変化は標準的なオートフォーカス機構を流用することで実現可能なため、特殊な機構を必要とすることもない。
なお、本実施の形態における撮像部は、光路長がそれぞれ異なるように配置されたn個の撮像素子と、光線をn個の撮像素子のそれぞれに分割するビームスプリッタを備えてもよい。また、本実施の形態における合焦範囲制御部は、露光中にフォーカス位置を略等速で変化させることで被写界深度を拡張してもよい。
なお、本実施の形態における撮像部は、n個の撮像素子と、光線の光軸方向を変化させる光軸変化手段と、光軸の向きを撮像素子のいずれか1つの方へ向けるための駆動手段を備えても良い。また、本実施の形態における合焦範囲制御部は、露光中にフォーカス位置を略等速で変化させるとともに、駆動手段を所定のパターンで動作させ、光軸方向を変化させてもよい。
(実施の形態2)
以下本発明における実施の形態2について、実施の形態1と同様の内容は省略し説明する。
本実施の形態における画像処理装置及び画像処理方法について、図5を参照しながら説明する。以下、実施の形態1と同じ動作については説明を省略し、異なる動作についてのみ説明を行う。
本実施の形態における画像処理装置200は、撮像部201、合焦範囲制御部202、参照画像生成部203、被写体距離計測画像選択部204、被写体距離計測部205、動き量推定部206とを有する。なお、本実施の形態では実施の形態1の構成に、新たな構成として動き量推定部206が追加される。
動き量推定部206では、撮像部201で撮影された第1画像と第3画像、参照画像生成部203で第2画像から生成された参照画像の3枚の画像間に生じる動き量の推定を行う。
以下、実施形態2の構成を示す図5おける各ブロック間のデータフローについて、実施の形態1の構成との差分について説明する。
撮像部201は、第1画像及び第3画像を、動き推定部206及び被写体距離計測画像選択部204に出力する。
参照画像生成部203は、撮像部201によって出力された第2画像から、参照画像を生成し、動き推定部206及び被写体距離計測画像選択部204に出力する。
動き量推定部206は、動き量の推定を行い動き量評価値情報として被写体距離計測画像選択部204へ出力する。
被写体距離計測画像選択部204は、撮像部201から出力された第1第3画像及び、参照画像生成部203から出力された参照画像及び、動き量推定部206から出力された動き量評価値情報とから、画像選択情報を生成する。そして、画像選択情報、動き量評価値情報、参照画像、第1、第3画像とを、被写体距離計測部205へ出力する。
ここで、動き量推定部206の作用を説明する。画像処理装置200のように、フォーカス調整機構を制御して順に複数画像を撮影する手法では、画像の撮影タイミングが異なるため、複数画像を撮影している間に被写体が動く場合や、複数画像を撮影している間にカメラが動く場合は、画像間で被写体の位置にずれが生じる。DFDを用いた被写体距離の計測では、複数のフォーカス状態で撮影された複数の画像間で、同一画素に対するぼけ量の相関値を比較する必要があるが、被写体の位置ずれが生じると、この比較が正確に行えず、計測される被写体距離に誤りが生じる。このように、被写体距離の計測精度は被写体の位置ずれによって低下するため、各画像間で生じた被写体の位置ずれを補正する必要がある。この被写体の位置ずれを推定するのが、動き量推定部206である。
本発明の実施の形態2に係る画像処理装置によって、被写界深度を拡張した参照画像と異なるフォーカス状態で撮影された2枚の画像、合計3枚の画像から被写体距離計測を行う処理の流れについて図6に基づいて説明する。なお、被写界深度を拡張する手法として、露光時間中にフォーカスを変化させる方法を用いるものとして説明を行う。以下、図6のステップのうち、図2と同じステップについては同じ符号を用いて説明を省略し、異なるステップを含むステップS109、ステップS107について説明を行う。
ステップS109では被写体の位置ずれを補正するために、動き量推定部206にて動き推定を行う。動き量の推定には、ブロックマッチング法を用いることができる。ここで、ブロックマッチング法の処理について図7を用いて説明する。
ブロックマッチング法は、画像間の動き量を特定サイズのブロック領域毎に推定する手法であり、一方の画像(以下、探索元画像と呼ぶ)内に設定したブロック領域の画像と最も相関が高くなる領域を他方の画像(以下、探索先画像と呼ぶ)内から特定することで動き量を推定する。図7に示すように、まず、探索元画像内において複数の画素で構成される注目ブロック領域を設定する。このブロック領域のサイズとしては、8×8画素や16×16画素など任意に設定できる。次に、探索先画像内に探索エリアを設定する。この探索エリアは、探索元画像内の注目ブロック領域と最も相関が高くなる領域を探索する範囲を示すものであり、探索元画像内における注目ブロック領域の位置と近い位置に設定することが好ましい。次に、探索元画像内の注目ブロック領域と同じサイズのブロック領域を探索先画像の探索エリア内から切り出し、数11に基づいて画像の相関を表す評価値rx,yを算出する。
Figure 2013044844
ここで、x,yは探索先画像内からブロック領域を切り出した座標位置、(x,y)はブロック領域内の相対的な座標位置、f(x,y)は探索元画像内に設定した注目ブロック領域の画素値、gx,y(x,y)は探索先画像内から切り出したブロック領域の画素値をそれぞれ表す。探索先画像の探索エリア内からブロック領域を切り出す座標位置x,yをずらしながら、数11に基づく評価値rx,yを算出する。この評価値rx,yは、高ければ高いほど、座標位置x,yは正確な位置ずれ量から外れている事を意味する。ブロック領域内のx,yの中から評価値rx,yが最も小さくなる座標位置を求める。この座標位置と、探索元画像内における注目ブロック領域の座標位置との相対的な位置ずれが画像間の動き量を表す。この処理を探索元画像内の全てのブロック領域に対して行うことにより、画像全体で動き量を推定できる。第1画像と第2画像の参照画像間で推定された動き量をSx1(x,y)、Sy1(x,y)に格納し、数11に基づく評価値をr1x,yに格納する。第3画像と第2画像の参照画像間で推定された動き量をSx3(x,y)、Sy3(x,y)に格納し、数11に基づく評価値r3x,yに格納する。尚、動き量推定手法としてブロックマッチング法を用いた説明を行ったが、ブロックマッチング法に限定する必要はなく、オプティカルフロー推定などの他の手法を用いても良い。
ステップS109では、推定された動き量Sx1(x,y)、Sy1(x,y)、Sx3(x,y)、Sy3(x,y)を用いて各画像間で生じた被写体の位置ずれの補正を行った後に、被写体距離計測を行う。数10はSx1(x,y)、Sy1(x,y)、Sx3(x,y)、Sy3(x,y)を用いて数12のように変更され、この数12を用いて被写体距離計測を行う。
Figure 2013044844
なお、ステップS107において求められるIm(x,y)は前述のように、数9を用いて計算してもよいし、ステップS109で算出される評価値r1x,y、r3x,yを用いて計算しても良い。
動き量推定部で算出される評価値r1x,y、r3x,yを用いて計算する場合は、第1画像と第3画像のぼけ方の違いを利用して、画像選択情報Im(x,y)を決定する。既に説明してある通り、第1画像の合焦位置は、第3画像の合焦位置よりも手前に設定しているため、第1画像では手前の距離に位置する被写体は、第3画像と比べ、くっきりと写る。また、手前の距離に位置する被写体は、第2画像から生成される参照画像上でも第1画像と同程度にくっきりと写る。その一方で、第3画像では手前の距離に位置する被写体はぼやけて写る。そのため、手前の距離に位置する被写体上の画素で、ステップS109のr1x,yとr3x,yを計算すると第2画像から生成される参照画像と、第3画像ではぼけ方が異なる分、評価値r3x,yはr1x,yよりも高い値となり、r1x,yとr3x,yの値の差を計測する事により、Im(x,y)は決定できる。同様に、遠方の距離に位置する被写体の画素では、r1x,yはr3x,yよりも高い値となるため、r1x,yとr3x,yの値の差を計測する事により、Im(x,y)は決定できる。
例えば、画像上のある位置x、yにおける評価値が、ある閾値shを設定した場合に、r3x,y―r1x,y>shの関係にある場合には、x、yに存在する被写体は手前側にあると考えられるため、Im(x,y)=0として第1画像を指し示す値を記録する。逆にr1x,y―r3x,y>shの関係にある場合には、x、yに存在する被写体は奥側にあると考えられるため、Im(x,y)=1として第3画像を指し示す値を記録する。r1x,yとr3x,yの差がsh未満の場合には、数8のような拡張を行い、被写体距離を計測しても良い。
また、数9と、ステップS109で算出される評価値r1x,y、r3x,yの両方を用いて計算しても良い。両方用いる場合は、画像上のある位置x、yの被写体が手前側、もしくは、奥側に存在する事を数9と、ステップS109で算出される評価値r1x,y、r3x,yが共に指し示している場合にIm(x,y)=0もしくはIm(x,y)=1として記録すると良い。
このように、動き量推定部206を用いて各画像間で生じた被写体の位置ずれを推定する事で、複数のフォーカス状態で撮影された画像で被写体の位置ずれを抑え、被写体距離を計測する事が可能となる。
本発明に係る画像処理装置および画像処理方法は、被写体の動きや撮影方向の変化が生じる場合でも、複数のフォーカス状態で撮影された複数の撮影画像から被写体距離を高精度に計測することを可能にする。これらの構成は、例えば民生用もしくは業務用の撮像装置(デジタルスチルカメラ、ビデオカメラ)などの分野において有用である。
101,201 撮像部
102,202 合焦範囲制御部
103,203 参照画像生成部
104,204 被写体距離計測画像選択部
105,205 被写体距離計測部
206 動き量推定部

Claims (9)

  1. 複数のフォーカス状態で撮影された複数の撮影画像から被写体距離を計測する画像処理装置であって、
    複数のフォーカス状態で画像をn枚(ただし、n≧2)撮影する撮像部と、
    前記撮像部の合焦位置および被写界深度を変化させる合焦範囲制御部と、
    前記撮像部によって撮影される複数のフォーカス状態の全てにおける合焦範囲を有する第一の参照画像を生成する参照画像生成部と、
    前期n枚の画像のうち、被写体までの距離を計測するのに用いる距離計測用画像を選択する被写体距離計測画像選択部と、
    前記距離計測用画像および前記第一の参照画像のぼけの度合いから被写体までの距離を計測する距離計測部とを備える、
    ことを特徴とする画像処理装置。
  2. 前記画像処理装置は、
    さらに前記距離計測用画像と前記第一の参照画像間の動き量を推定する動き量推定部を備える、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記距離計測用画像と前記第一の参照画像間で生じた前記動き量を打ち消すように補正し、前記距離計測用画像と前記第一の参照画像での画素位置を合わせた状態で、前記距離計測用画像および前記第一の参照画像のぼけの度合いから被写体までの距離を計測する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記被写体距離計測画像選択部は、
    予め計測済の各フォーカス状態のボケパラメータを前記第一の参照画像へ畳み込む事で各フォーカス状態における前記第一の参照画像のボケを表す第二の参照画像を生成し、
    前記撮像部において撮影されたn枚の画像と前記第二の参照画像との差分値を計算し、
    画素または特定領域ごとに前記差分値の最小値を求め、
    画素または特定領域ごとに前記最小値を持つ1枚の画像を選択し、
    前記第一の参照画像と前記選択された1枚の画像を用いて距離計測を行う、
    ことを特徴とする請求項1から請求項3のいずれかに記載の画像処理装置。
  5. 前記被写体距離計測画像選択部は、
    前記動き量を求める際の評価値を基準に、n枚のぼけ画像群から被写体計測用に用いる画像を選択する、
    ことを特徴とする請求項2または請求項3に記載の画像処理装置。
  6. 前記被写体距離計測画像選択部は、
    前記撮像部で撮影されたn枚の画像のうち、画像選択時に特定領域または画素単位で被写体距離を計測するための画像を選択する、
    ことを特徴とする請求項4または請求項5に記載の画像処理装置。
  7. 前記撮像部は、光路長がそれぞれ異なるように配置されたn個の撮像素子と、光線を前記n個の撮像素子のそれぞれに分割するビームスプリッタを備え、
    前記合焦範囲制御部は、露光中にフォーカス位置を略等速で変化させることで被写界深度を拡張する、
    ことを特徴とする請求項1から請求項6のいずれかに記載の画像処理装置。
  8. 前記撮像部は、n個の撮像素子と、光線の光軸方向を変化させる光軸変化手段と、前記光軸の向きを前記撮像素子のいずれか1つの方へ向けるための駆動手段を備え、
    前記合焦範囲制御部は、露光中にフォーカス位置を略等速で変化させるとともに、前記駆動手段を所定のパターンで動作させ、光軸方向を変化させる、
    ことを特徴とする請求項1から請求項6のいずれかに記載の画像処理装置。
  9. 複数のフォーカス状態で撮影された複数の撮影画像から被写体距離を計測するステップと、
    複数のフォーカス状態で画像をn枚(ただし、n≧2)撮影するステップと、
    合焦位置および被写界深度を変化させるステップと、
    複数のフォーカス状態の全てにおける合焦範囲を有する第一の参照画像を生成するステップと、
    前期n枚の画像のうち、被写体までの距離を計測するのに用いる距離計測用画像を選択するステップと、
    前記距離計測用画像および前記第一の参照画像のぼけの度合いから被写体までの距離を計測するステップとを有する、
    画像処理方法。
JP2011181240A 2011-08-23 2011-08-23 画像処理装置および画像処理方法 Withdrawn JP2013044844A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181240A JP2013044844A (ja) 2011-08-23 2011-08-23 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181240A JP2013044844A (ja) 2011-08-23 2011-08-23 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2013044844A true JP2013044844A (ja) 2013-03-04

Family

ID=48008818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181240A Withdrawn JP2013044844A (ja) 2011-08-23 2011-08-23 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP2013044844A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015121774A (ja) * 2013-11-19 2015-07-02 パナソニックIpマネジメント株式会社 撮像装置
JP2015194686A (ja) * 2014-03-19 2015-11-05 パナソニックIpマネジメント株式会社 撮像装置
JP2015200907A (ja) * 2013-11-19 2015-11-12 パナソニックIpマネジメント株式会社 撮像装置
JP2016111609A (ja) * 2014-12-09 2016-06-20 株式会社東芝 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2016122199A (ja) * 2014-03-28 2016-07-07 パナソニックIpマネジメント株式会社 撮像装置
US9531938B2 (en) 2014-03-28 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image-capturing apparatus
US9576370B2 (en) 2014-02-17 2017-02-21 Canon Kabushiki Kaisha Distance measurement apparatus, imaging apparatus, distance measurement method and program
JP2020005108A (ja) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP2021018376A (ja) * 2019-07-23 2021-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 装置、撮像装置、移動体、方法、及びプログラム
WO2021065065A1 (ja) * 2019-10-03 2021-04-08 株式会社ザクティ 撮像装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9571719B2 (en) 2013-11-19 2017-02-14 Panasonic Intellectual Property Management Co., Ltd. Image-capturing apparatus
US9832362B2 (en) 2013-11-19 2017-11-28 Panasonic Intellectual Property Management Co., Ltd. Image-capturing apparatus
JP2015200907A (ja) * 2013-11-19 2015-11-12 パナソニックIpマネジメント株式会社 撮像装置
JP2015200908A (ja) * 2013-11-19 2015-11-12 パナソニックIpマネジメント株式会社 撮像装置
JP2015207019A (ja) * 2013-11-19 2015-11-19 パナソニックIpマネジメント株式会社 撮像装置
JP2015121774A (ja) * 2013-11-19 2015-07-02 パナソニックIpマネジメント株式会社 撮像装置
US9576370B2 (en) 2014-02-17 2017-02-21 Canon Kabushiki Kaisha Distance measurement apparatus, imaging apparatus, distance measurement method and program
JP2015194686A (ja) * 2014-03-19 2015-11-05 パナソニックIpマネジメント株式会社 撮像装置
US10250805B2 (en) 2014-03-19 2019-04-02 Panasonic Intellectual Property Management Co., Ltd. Imaging device for performing DFD processing at appropriate timing
US9531938B2 (en) 2014-03-28 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image-capturing apparatus
JP2016122199A (ja) * 2014-03-28 2016-07-07 パナソニックIpマネジメント株式会社 撮像装置
JP2016111609A (ja) * 2014-12-09 2016-06-20 株式会社東芝 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2020005108A (ja) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP2021018376A (ja) * 2019-07-23 2021-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 装置、撮像装置、移動体、方法、及びプログラム
WO2021065065A1 (ja) * 2019-10-03 2021-04-08 株式会社ザクティ 撮像装置
JP2021060450A (ja) * 2019-10-03 2021-04-15 株式会社ザクティ 撮像装置

Similar Documents

Publication Publication Date Title
JP5869883B2 (ja) 画像処理装置
JP2013044844A (ja) 画像処理装置および画像処理方法
CN102713512B (zh) 摄像装置以及距离测量方法
US9208396B2 (en) Image processing method and device, and program
US9530213B2 (en) Single-sensor system for extracting depth information from image blur
JP6245885B2 (ja) 撮像装置およびその制御方法
JP5173665B2 (ja) 画像撮影装置およびその距離演算方法と合焦画像取得方法
EP3318054B1 (en) Systems and methods for autofocus trigger
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
JPWO2011158498A1 (ja) 撮像装置及び撮像方法
US11347133B2 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
KR101715553B1 (ko) 합초 위치 검출 장치, 합초 위치 검출 방법 및 합초 위치 검출용 컴퓨터 프로그램
JP2013037166A (ja) 焦点検出装置及びそれを有するレンズ装置及び撮像装置
JP2014022806A (ja) 撮像装置および撮像装置制御方法
JP2019168479A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
WO2016194576A1 (ja) 情報処理装置および方法
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2020148628A (ja) 3次元測量装置、撮像装置、制御方法及びプログラム
JP6900228B2 (ja) 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP2004037732A (ja) デジタルカメラ
JP2017134322A (ja) レンズ装置
JP2021015162A (ja) 画像処理装置及びその制御方法
JP2019143986A (ja) 測距装置および撮像装置
JP2016157039A (ja) 撮像装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104