JP2010081002A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2010081002A JP2010081002A JP2008243665A JP2008243665A JP2010081002A JP 2010081002 A JP2010081002 A JP 2010081002A JP 2008243665 A JP2008243665 A JP 2008243665A JP 2008243665 A JP2008243665 A JP 2008243665A JP 2010081002 A JP2010081002 A JP 2010081002A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- subject distance
- field
- signals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004075 alteration Effects 0.000 claims abstract description 43
- 238000012937 correction Methods 0.000 claims abstract description 30
- 230000003287 optical effect Effects 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims description 68
- 238000001914 filtration Methods 0.000 claims description 20
- 239000003086 colorant Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 37
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 21
- 238000000605 extraction Methods 0.000 description 21
- 230000007423 decrease Effects 0.000 description 19
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000006837 decompression Effects 0.000 description 6
- 230000006866 deterioration Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003321 amplification Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮影後に、撮影画像から所望の被写界深度を有する補正画像を生成する。
【解決手段】軸上色収差を有する光学系10を介して被写体を撮影することにより原画像のG、R及びB信号(G0、R0及びB0)を生成する。原画像のG、R及びB信号の高域周波数成分の大きさから、原画像の各位置における被写体距離を推定する。一方において、原画像のG、R及びB信号の高域周波数成分の大きさの内、最大の大きさに対応する色信号の高域周波数成分を他の2つの色信号に付加することにより、広い被写体距離範囲に対して高い解像度を有する、中間生成画像のG、R及びB信号(G1、R1及びB1)を生成する。その後、推定被写体距離に基づき、主要被写体の被写体距離以外の被写体距離に対する、中間生成画像のG、R及びB信号の解像度を低下させることにより、被写界深度の浅い補正画像のG、R及びB信号(G2、R2及びB2)を生成する。
【選択図】図6
【解決手段】軸上色収差を有する光学系10を介して被写体を撮影することにより原画像のG、R及びB信号(G0、R0及びB0)を生成する。原画像のG、R及びB信号の高域周波数成分の大きさから、原画像の各位置における被写体距離を推定する。一方において、原画像のG、R及びB信号の高域周波数成分の大きさの内、最大の大きさに対応する色信号の高域周波数成分を他の2つの色信号に付加することにより、広い被写体距離範囲に対して高い解像度を有する、中間生成画像のG、R及びB信号(G1、R1及びB1)を生成する。その後、推定被写体距離に基づき、主要被写体の被写体距離以外の被写体距離に対する、中間生成画像のG、R及びB信号の解像度を低下させることにより、被写界深度の浅い補正画像のG、R及びB信号(G2、R2及びB2)を生成する。
【選択図】図6
Description
本発明は、デジタルスチルカメラ又はデジタルビデオカメラ等の撮像装置に関し、特に、被写界深度を制御する技術に関する。
単体のレンズには、軸上色収差が存在する。撮像装置に用いられる光学系には、通常、軸上色収差を補正するためのレンズ群が設けられ、全体として、軸上色収差が無視できる程度に小さくなっている。図23に、従来の一般的なレンズ910Lと撮像素子911と撮像素子911に対する入射光の関係を示す。レンズ910Lは、光学系に含まれるレンズ群を1つのレンズとみなしたものである。
点光源900からレンズ910Lに向かう光901は、レンズ910Lによって青色光、緑色光及び赤色光に分離されるものの、軸上色収差の補正機能によって、青色光、緑色光及び赤色光は同じ結像点に結像する。この結像点に撮像素子911を配置することによって、ピントの合った点光源900の像が撮像素子911の撮像面に形成される。
図24に、レンズ910Lと撮像素子911との距離を固定した場合における、被写体距離と撮像素子911から得られる画像信号の解像度との関係を示す。ここにおける解像度とは、画像の画素数を表すものではなく、画像上で表現可能な最大の空間周波数を指す。換言すれば、解像度とは、画像上にどの程度まで細かなものを再現できるかを表す尺度であり、解像力とも呼ばれる。
図24において、曲線920B、920G及び920Rは、夫々、撮影画像のB、G及びR信号における解像度の被写体距離依存性を表している。B、G及びR信号の解像度の夫々は、被写体距離が或る特定距離にある時に最大となり、被写体距離がその特定距離から減少又は増大するにつれて減少する。つまり、被写体距離が上記特定距離と合致する被写体(例えば人物)にピントが合い、且つ、被写体距離が上記特定距離からかけ離れた被写体(例えば背景)がぼけている画像が撮影画像として得られる。
尚、図24は、撮像素子910として、ベイヤ配列を採用した単板のイメージセンサを用いることを想定している。ベイヤ配列のイメージセンサでは、光の緑成分を受光する受光画素の密度が、光の青又は赤成分を受光する受光画素の密度よりも多い。故に、G信号の解像度が、B及びR信号のそれらよりも高くなっている。
図24の920Yは、撮影画像のB、G及びR信号から生成されるY信号(輝度信号)の解像度の被写体距離依存性を表している。各被写体距離において、Y信号の解像度は、G信号の解像度と同程度であるか或いはG信号の解像度を上回る。
Y信号(又はB、G及びR信号の全て)の有する解像度が或る一定の基準解像度RSO以上になる被写体距離の範囲を合焦範囲又は被写界深度と呼ぶ。
第1被写体(例えば主要被写体としての人物)と第2被写体(例えば背景)が撮像装置の被写体に含まれており、第1及び第2被写体の被写体距離が互いに異なる第1及び第2被写体距離であることを想定する。第1被写体にピントを合わせた場合、被写界深度の浅い画像では、第1及び第2被写体距離間の距離差が若干異なるだけで第2被写体はぼかされる。一方、被写界深度が深い場合は、その距離差が随分異なっていても、第1及び第2被写体の双方にピントが合ったような画像が得られる。
大型の一眼レフカメラを用いれば被写界深度の浅い画像を容易に取得することができる。大型の一眼レフカメラでは、大型のレンズを採用できるためレンズの開口部を大きくとることができ、結果、被写界深度の深さを比較的大きく設定することができるからである。これに対して、小型デジタルカメラにおいて、一眼レフカメラ並みの被写界深度の浅い画像を撮影することは困難である。小型デジタルカメラに用いられるレンズ及び撮像素子は小型であるため、必然的に、大型の一眼レフカメラと比べて、レンズの開口部が小さくなって被写界深度が深くなるからである。
被写界深度が深い画像が被写界深度の浅い画像に必ずしも劣るわけではないが、被写体距離に応じて自然なぼけが再現された芸術性の高い画像を取得するために、時として、浅い被写界深度が求められる。また、撮影後に、画像の被写界深度を任意の調整することができれば利便性は高い。
尚、下記特許文献1には、レンズの軸上色収差を利用して、フォーカス制御の高速化を図った技術が開示されている。また、軸上色収差に由来して生じた画像のぼけを、点広がり関数の逆関数を用いて修正する技術も開示されている。しかしながら、この技術は、被写界深度の調整に寄与するものではない。
そこで本発明は、所望の被写界深度を有する画像の取得に寄与する撮像装置を提供することを目的とする。
本発明に係る撮像装置は、軸上色収差を有する光学系を介して被写体を撮影する撮像素子と、撮影画像を表す複数色の色信号に含まれる所定の高域周波数成分を色信号ごとに抽出し、色信号ごとの高域周波数成分の大きさに基づいて、前記撮影画像中の各部分画像領域における被写体距離を推定する被写体距離推定手段と、前記撮影画像から補正画像を生成する画像処理手段と、前記補正画像に対する被写界深度の深さを指定するとともに、その被写界深度内に位置すべき特定被写体距離を指定することにより、前記補正画像に対する被写界深度を設定する設定手段と、を備え、前記画像処理手段は、前記被写体距離推定手段による推定被写体距離と前記設定手段による設定被写界深度に応じた画像処理を前記撮影画像に施すことによって、前記設定被写界深度に従った前記補正画像を生成することを特徴とする。
軸上色収差を積極的に利用し、撮影画像の各部分画像領域における推定被写体距離に基づいて、設定被写界深度に従った補正画像を撮影後に生成する。これにより、撮影後に、所望の被写界深度を有する補正画像を生成することができる。また、撮影後のフォーカス制御が可能となるため、ピント合わせミスによる撮影の失敗をなくすことができる。
具体的には例えば、前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づいて、前記撮影画像及び前記補正画像の夫々の全体画像領域は、対応する推定被写体距離が前記設定被写界深度内に収まる第1部分画像領域と対応する推定被写体距離が前記設定被写界深度外に位置する第2部分画像領域に分類され、前記画像処理手段は、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記撮影画像から前記補正画像を生成する。
より具体的には例えば、前記複数色の色信号は、互いに異なる第1、第2及び第3の色信号から成り、前記画像処理手段は、第1〜第3の色信号の高域周波数成分の大きさの内、最大の大きさに対応する色信号の高域周波数成分を他の2つの色信号に付加することにより、第1〜第3の高域付加後色信号を生成する第1補正手段と、前記第1〜第3の高域付加後色信号に対して所定のフィルタリングを施すことにより、前記第1〜第3の高域付加後色信号から前記補正画像を表す第1〜第3の補正色信号を生成する第2補正手段と、を備え、前記第2補正手段は、前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づき、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように前記フィルタリングを実行する。
そして例えば、前記第2補正手段による前記フィルタリングは、カットオフ周波数を可変設定可能なローパスフィルタによるフィルタリングであり、前記カットオフ周波数の可変設定により、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされる。
或いは例えば、前記撮影画像中の各部分画像領域における推定被写体距離から、前記撮影画像中の各部分画像領域における色信号ごとの、前記軸上色収差に由来する点広がり関数が定まり、前記画像処理手段は、前記点広がり関数、前記設定被写界深度、及び、前記撮影画像中の各部分画像領域における推定被写体距離に基づき、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記撮影画像から前記補正画像を生成する。
そして例えば、前記画像処理手段は、前記点広がり関数から推定される、前記軸上色収差に由来する前記撮影画像中の各部分画像領域におけるボケ量を、前記補正画像中の各部分画像領域における設定ボケ量へと修正するためのフィルタリングを前記撮影画像の各色信号に対して実行することにより、前記設定ボケ量に応じてぼかされた前記補正画像を生成し、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づいて前記設定ボケ量は定められる。
また例えば、前記撮像装置は、前記撮影画像を表示する表示手段を更に備え、前記撮影画像の撮影後、前記撮影画像又は前記撮影画像に基づく画像が前記表示手段の表示画面上に表示され、前記設定手段は、その表示が行われている状態において、前記表示画面上の特定被写体を指定する操作を受け付けて前記特定被写体に対応する推定被写体距離から前記特定被写体距離を指定する一方、所定操作を受け付けることによって前記補正画像に対する被写界深度の深さを指定する。
本発明によれば、所望の被写界深度を有する画像の取得に寄与する撮像装置を提供することが可能となる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施形態を説明するが、まず、各実施形態に共通する事項又は各実施形態にて参照される事項について説明する。
図1、図2(a)〜(c)及び図3を参照して、本発明の実施形態に係る撮像装置にて利用されるレンズ10Lの特性を説明する。レンズ10Lは、比較的大きな所定の軸上色収差を有している。従って、図1に示す如く、点光源300からレンズ10Lに向かう光301は、レンズ10Lによって青色光301B、緑色光301G及び赤色光301Rに分離され、青色光301B、緑色光301G及び赤色光301Rは、互いに異なる結像点302B、302G及び302R上に結像する。青色光301B、緑色光301G及び赤色光301Rは、夫々、光301の青、緑及び赤成分である。
図2(a)等において、符号11は、撮像装置にて利用される撮像素子を表している。撮像素子11は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子である。撮像素子11は、いわゆる単板方式のイメージセンサであり、撮像素子11としての1枚のイメージセンサにおける各受光画素の前面には、光の赤成分のみを透過させる赤フィルタ、光の緑成分のみを透過させる緑フィルタ、及び、光の青成分のみを透過させる青フィルタの何れかが配置されている。赤フィルタ、緑フィルタ及び青フィルタの配列は、ベイヤ配列である。
レンズ10Lの中心から結像点302B、302G及び302Rまでの距離を、図3に示す如く、それぞれXB、XG及びXRにて表す。そうすると、レンズ10Lが有する軸上色収差により、不等式「XB<XG<XR」が成立する。また、レンズ10Lの中心から撮像素子11までの距離をXISにて表す。図3では、「XB<XG<XR<XIS」が成立しているが、光源300とレンズ10Lの中心までの距離310(図1参照)が変化することによって、距離XB、XG及びXRと距離XISとの大小関係は変化する。
図2(a)〜(c)は、被写体距離とも言うべき距離310が変化することによって結像点302B、302G及び302Rの位置が変化する様子を示した図である。図2(a)は、距離310が比較的小さな距離であって「XB=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。図2(b)は、距離310が図2(a)の状態から増大することによって「XG=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。図2(c)は、距離310が図2(b)の状態から更に増大することによって「XR=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。
距離XISが距離XB、XG、XBと一致する時におけるレンズ10Lの位置は、青色光301B、緑色光301G、赤色光301Rに対するレンズ10Lの合焦位置である。従って、「XB=XIS」、「XG=XIS」、「XR=XIS」が成立する場合においては、夫々、青色光301B、緑色光301G、赤色光301Rに対して完全にピントが合った状態の画像が撮像素子11から得られる。但し、青色光301Bに対して完全にピントが合った状態の画像においては、緑色光301G及び赤色光301Rの像がぼける。緑色光301G及び赤色光301Rに対して完全にピントが合った状態の画像についても同様である。また、「XB=XIS」、「XG=XIS」及び「XR=XIS」の何れもが成立しない場合に撮像素子11から得られた画像上においては、青色光301B、緑色光301G及び赤色光301Rの像が全てぼける。画像におけるぼけの大きさ(ぼけの度合い)をボケ量と呼ぶ。
撮像素子11の撮像面上に形成される青色光301B、緑色光301G及び赤色光301Rの画像の半径を、夫々、YB、YG及びYRにて表す。青色光301B、緑色光301G及び赤色光301Rの画像のボケ量は、夫々、半径YB、YG及びYRと比例関係にある。即ち、半径YBが大きいほど青色光301Bの画像のボケ量は大きくなる(緑色光301G及び赤色光301Rについても同様)。軸上色収差の特性を含むレンズ10Lの特性は撮像装置の設計段階で予め分かっているともに撮像装置は距離XISをも当然に認識可能である。よって、撮像装置は、距離310が分かれば、レンズ10Lの特性と距離XISを用いて半径YB、YG及びYRを推定可能である(即ち、撮像素子11から得られる画像上の、各色成分に対するボケ量を推定可能である)。また、距離310が分かれば、青色光301B、緑色光301G及び赤色光301Rの画像の点広がり関数(Point Spread Function)が決まるので、点広がり関数の逆関数を用いて、それらの画像のぼけを除去することも可能である。
尚、距離XISを変化させることも可能ではあるが、以下の説明では、説明の簡略化上、特に記述なき限り距離XISは一定距離に固定されているものとする。
或る被写体と撮像装置との間における実空間上の距離(厳密には、或る被写体とレンズ10Lの中心との間における実空間上の距離)を被写体距離と呼ぶ。点光源300が注目した被写体であると考えれば、距離310は、注目した被写体にとっての被写体距離である。また、
図4に、被写体距離と撮像素子11から得られた原画像のB、G及びR信号の解像度との関係を示す。ここにおける原画像とは、撮像素子11から得られたRAWデータに対してデモザイキング処理を施して得られる画像を指し、後述の各実施形態では、デモザイキング処理部14にて生成される原画像に相当する(図6等参照)。B、G及びR信号とは、夫々、青色光301Bに対応する画像上の青色成分を表す信号、緑色光301Gに対応する画像上の緑色成分を表す信号及び赤色光301Rに対応する画像上の赤色成分を表す信号を指す。
本明細書における解像度とは、画像の画素数を表すものではなく、画像上で表現可能な最大の空間周波数を指す。換言すれば、本明細書における解像度とは、画像上にどの程度まで細かなものを再現できるかを表す尺度であり、解像力とも呼ばれる。
図4において、曲線320B、320G及び320Rは、夫々、原画像のB、G及びR信号における解像度の被写体距離依存性を表している。図4(及び後述の図5等)の、解像度と被写体距離との関係を表すグラフにおいて、横軸及び縦軸は夫々被写体距離及び解像度を表し、横軸上を左から右に向かうにつれて対応する被写体距離は増大すると共に縦軸上を下から上に向かうにつれて対応する解像度は増大する。
被写体距離DDB、DDG及びDDRは、夫々、図2(a)に対応する「XB=XIS」、図2(b)に対応する「XG=XIS」及び図2(c)に対応する「XR=XIS」が成立する場合における被写体距離である。従って、「DDB<DDG<DDR」が成立する。
曲線320Bに示す如く、原画像のB信号の解像度は、被写体距離が距離DDBである時に最大となり、被写体距離が距離DDBを起点として減少又は増大するにつれて減少する。同様に、曲線320Gに示す如く、原画像のG信号の解像度は、被写体距離が距離DDGである時に最大となり、被写体距離が距離DDGを起点として減少又は増大するにつれて減少する。同様に、曲線320Rに示す如く、原画像のR信号の解像度は、被写体距離が距離DDRである時に最大となり、被写体距離が距離DDRを起点として減少又は増大するにつれて減少する。
上述した解像度の定義から分かるように、原画像のB信号の解像度は、原画像上のB信号の最大空間周波数を表す(G及びR信号についても同様)。或る信号の解像度が比較的高ければ、その信号には高域周波数成分が比較的多く含まれる。或る信号に含まれる周波数成分の内、所定の周波数以上の周波数成分を高域周波数成分(以下、高域成分と略記する)と呼び、所定の周波数未満の周波数成分を低域周波数成分(以下、低域成分と略記する)と呼ぶ。
このように、被写体距離が比較的近い被写体(例えば、被写体距離がDDBの被写体)に対しては、原信号のB信号に高域周波数成分が含まれ、被写体距離が比較的遠い被写体(例えば、被写体距離がDDRの被写体)に対しては、原信号のR信号に高域周波数成分が含まれ、被写体距離が中程度の被写体(例えば、被写体距離がDDGの被写体)に対しては、原信号のG信号に高域周波数成分が含まれる。
これらの高域成分を補完しあえば、合焦範囲の広い、即ち被写界深度の深い画像を生成可能である。図5は、原信号のB、G及びR信号の高域成分を補完しあうことで生成されるY信号の解像度を表す曲線320Yを、図4に付加した図である。このような補完を行った後、合焦を望む被写体(例えば主要被写体としての人物)との間で被写体距離が異なる被写体(例えば背景)をぼかすようにすれば、合焦を望む被写体にピントが合った、合焦範囲の狭い画像(即ち、被写界深度の浅い画像)を生成することができる。
尚、上述したように、Y信号(又はB、G及びR信号の全て)の有する解像度が或る一定の基準解像度RSO以上になる被写体距離の範囲を合焦範囲又は被写界深度と呼ぶ。
以下の第1〜第3実施形態において、被写界深度の浅い画像の生成方法をより具体的に説明する。
<<第1実施形態>>
まず、本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1(及び後述の撮像装置1a)は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。尚、撮影と撮像は同義である。
まず、本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1(及び後述の撮像装置1a)は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。尚、撮影と撮像は同義である。
撮像装置1は、符号10〜24によって参照される各部位を備えている。光学系10は、光学ズームを行うためのズームレンズ及び焦点位置を調整するためのフォーカスレンズを含むレンズ群と、撮像素子11への入射光量を調節するための絞りによって形成され、所望の画角を有し且つ所望の明るさを有する画像を撮像素子11の撮像面に結像させる。光学系10を単体のレンズとして捉えたものが上述のレンズ10Lである。従って、光学系10は、レンズ10Lが有する軸上色収差と同じ軸上色収差を有する。
撮像素子11は、光学系10を介して入射した被写体を表す光学像(被写体像)を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子11は、マトリクス状に二次元配列された複数の受光画素を備え、夫々の撮影において、各受光画素は露光時間の長さに応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。
AFE(Analog Front End)12は、撮像素子11から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから出力する。また、AFE12の信号増幅における増幅度は、AFE12の出力信号レベルが最適化されるように、光学系10の絞り値に対する調整と連動して調整される。尚、AFE12の出力信号をRAWデータとも呼ぶ。RAWデータを、DRAM(Dynamic Random Access Memory)13に一時記憶させることができる。また、DRAM13は、RAWデータだけではなく、撮像装置1内で生成される各種データを一時的に記憶することができる。
上述したように、撮像素子11はベイヤ配列を採用した単板方式のイメージセンサであるため、RAWデータによって表される二次元画像には、赤の色信号がベイヤ配列に従ってモザイク状に配置される(緑及び青についても同様)。
デモザイキング処理部14は、RAWデータに対して周知のデモザイキング処理を実行することにより、RGB形式の画像データを生成する。デモザイキング処理部14が生成した画像データによって表される二次元画像を、以下、原画像と呼ぶ。原画像を形成する1つ1つの画素にはR、G及びB信号の全てが割り当てられる。或る画素についてのR、G及びB信号は、夫々、その画素の赤、緑及び青の強度を表す色信号である。原画像のR、G及びB信号を、夫々、R0、G0及びB0にて表す。
高域成分抽出/距離推定部15(以下、抽出/推定部15と略記する)は、色信号R0、G0及びB0の夫々の高域成分を抽出すると共に、その抽出を介して原画像の各位置における被写体距離を推定し、推定被写体距離を表す被写体距離情報DISTを生成する。また、高域成分の抽出結果に応じた情報が被写界深度拡大処理部16に出力される。
被写界深度拡大処理部16(以下、拡大処理部16と略記する)は、抽出/推定部15からの情報に基づき、色信号R0、G0及びB0によって表される原画像の被写界深度を拡大する(即ち、被写界深度の深さを増大する)ことにより中間生成画像を生成する。中間生成画像のR、G及びB信号を、夫々、R1、G1及びB1にて表す。拡大処理部16は、原画像を表す色信号R0、G0及びB0を補正することにより中間生成画像を表す色信号R1、G1及びB1を生成する。
被写界深度制御部17は、被写体距離情報DISTと補正画像に対する被写界深度を指定する被写界深度設定情報に基づいて中間生成画像の被写界深度を調整することにより、被写界深度の浅い補正画像を生成する。被写界深度設定情報によって、補正画像に対する被写界深度の深さと何れの被写体を合焦対象とするのかが定められる。被写界深度設定情報は、ユーザの指示等に基づき、CPU23によって作成される。補正画像のR、G及びB信号を、夫々、R2、G2及びB2にて表す。被写界深度制御部17は、中間生成画像を表す色信号R1、G1及びB1を補正することにより補正画像を表す色信号R2、G2及びB2を生成する。
補正画像のR、G及びB信号はカメラ信号処理部18に与えられる。原画像又は中間生成画像のR、G及びB信号をカメラ信号処理部18に与えることも可能である。
カメラ信号処理部18は、原画像、中間生成画像又は補正画像のR、G及びB信号を輝度信号Y並びに色差信号U及びVに変換すると共に、原画像、中間生成画像又は補正画像に対して輪郭強調処理などの必要な画質調整を行い、画質調整後の原画像、中間生成画像又は補正画像の映像信号(即ちYUV信号)を出力する。カメラ信号処理部18から出力される映像信号が液晶ディスプレイであるLCD19又は撮像装置1の外部に設けられた外部表示装置(不図示)に供給されることによって、LCD19の表示画面上または外部表示装置の表示画面上に、原画像、中間生成画像又は補正画像(厳密には画質調整後のそれら)が表示される。
撮像装置1において、いわゆるタッチパネル操作が可能となっている。ユーザは、LCD19の表示画面に触れることによって撮像装置1に対する操作(即ち、タッチパネル操作)を行うことができる。タッチパネル制御部20が、LCD19の表示画面上に加えられた圧力を検出することなどによって、タッチパネル操作を受け付ける。
圧縮/伸張処理部21は、カメラ信号処理部18から出力される映像信号を所定の圧縮方式を用いて圧縮することにより圧縮映像信号(即ち、原画像、中間生成画像又は補正画像の圧縮画像データ)を生成する。また、その圧縮映像信号を伸張することにより、圧縮前の映像信号を復元することもできる。圧縮映像信号を、SD(Secure Digital)メモリカード等の不揮発性メモリである記録媒体22に記録することができる。また、記録媒体22に、RAWデータを記録することもできる。CPU(Central Processing Unit)23は、撮像装置1を形成する各部位の動作を統括的に制御する。操作部24は、撮像装置1に対する様々な操作を受け付ける。操作部24に対する操作内容は、CPU23に伝達される。
[補正画像の生成原理:被写界深度の制御原理]
図7(a)〜(d)を参照して、原画像から補正画像を生成する方法の原理を説明する。図7(a)において、曲線400B、400G及び400Rは、夫々、原画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B0、G0及びR0における解像度の被写体距離依存性を表している。曲線400B、400G及び400Rは、夫々、図4の曲線320B、320G及び320Rと同じものである。図7(a)及び(b)の距離DDB、DDG及びDDRは、図4に示したそれらと同じものである。
図7(a)〜(d)を参照して、原画像から補正画像を生成する方法の原理を説明する。図7(a)において、曲線400B、400G及び400Rは、夫々、原画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B0、G0及びR0における解像度の被写体距離依存性を表している。曲線400B、400G及び400Rは、夫々、図4の曲線320B、320G及び320Rと同じものである。図7(a)及び(b)の距離DDB、DDG及びDDRは、図4に示したそれらと同じものである。
軸上色収差により、色信号B0、G0及びR0の解像度が高まる被写体距離は互いに異なる。被写体距離が比較的近い被写体に対しては色信号B0に高域成分が含まれ、被写体距離が比較的遠い被写体に対しては色信号R0に高域成分が含まれ、被写体距離が中程度の被写体に対しては色信号G0に高域成分が含まれる。
このような色信号B0、G0及びR0を得た後、色信号B0、G0及びR0の内、最も大きな高域成分を有する信号を特定し、特定した色信号の高域成分を他の2つの色信号に付加することにより中間生成画像の色信号B1、G1及びR1を生成する。各色信号の高域成分の大きさは被写体距離の変化に伴って変化するため、この生成処理は、互いに異なる第1、第2、第3・・・の被写体距離に対して別個に実行される。原画像の全体画像領域内には様々な被写体距離を有する被写体が表れるが、各被写体の被写体距離は、図6の抽出/推定部15によって推定される。
図7(b)において、曲線410は、中間生成画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B1、G1及びR1における解像度の被写体距離依存性を表している。曲線410は、第1の被写体距離における色信号B0、G0及びR0の解像度の最大値、第2の被写体距離における色信号B0、G0及びR0の解像度の最大値、第3の被写体距離における色信号B0、G0及びR0の解像度の最大値、・・・を繋ぎ合わせたような曲線となる。中間生成画像の合焦範囲(被写界深度)は、原画像のそれよりも大きく、中間生成画像の合焦範囲(被写界深度)内に距離DDB、DDG及びDDRが包含される。
中間生成画像を生成する一方で、ユーザの指示などに基づき、図7(c)に示すような被写界深度曲線420を設定する。図6の被写界深度制御部17は、補正画像のB、G及びR信号における解像度の被写体距離依存性を表す曲線が被写界深度曲線420と概ね同じとなるように、中間生成画像のB、G及びR信号を補正する。図7(d)の実線曲線430は、この補正により得られた補正画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B2、G2及びR2における解像度の被写体距離依存性を表している。被写界深度曲線420を適切に設定すれば、合焦範囲の狭い補正画像(被写界深度の浅い補正画像)を生成することができる。即ち、所望の被写体距離の被写体にのみピントが合い、他の被写体距離の被写体がぼけたような補正画像を生成することができる。
色信号B0、G0及びR0から色信号B1、G1及びR1を生成する方法の原理について補足説明を行う。色信号B0、G0、R0、B1、G1及びR1を被写体距離Dの関数とみなし、それらを夫々、B0(D)、G0(D)、R0(D)、B1(D)、G1(D)及びR1(D)と表記する。色信号G0(D)は、高域成分Gh(D)と低域成分GL(D)に分離することができる。同様に、色信号B0(D)は高域成分Bh(D)と低域成分BL(D)に分離することができ、色信号R0(D)は高域成分Rh(D)と低域成分RL(D)に分離することができる。即ち、
G0(D)=Gh(D)+GL(D)、
B0(D)=Bh(D)+BL(D)、
R0(D)=Rh(D)+RL(D)、
が成り立つ。
G0(D)=Gh(D)+GL(D)、
B0(D)=Bh(D)+BL(D)、
R0(D)=Rh(D)+RL(D)、
が成り立つ。
光学系10に軸上色収差がなかったと仮定したならば、局所的には色の変化が少ないという画像の性質から、通常、下記式(1)が成り立つと共に下記式(2)も成り立つ。これは、任意の被写体距離に対して成り立つ。実空間上における被写体は様々な色成分を有しているが、被写体が有する色成分を局所的に見た場合、微小領域内では輝度は変化するものの色は殆ど変化しないことが多い。例えば、緑の葉の色成分を或る方向に走査した時、葉の模様によって輝度は変化するものの色(色相など)は殆ど変化しない。故に、光学系10に軸上色収差がなかったと仮定したならば、式(1)及び(2)が成り立つことが多い。
Gh(D)/Bh(D)=GL(D)/BL(D) …(1)
Gh(D)/GL(D)=Bh(D)/BL(D)=Rh(D)/RL(D) …(2)
Gh(D)/Bh(D)=GL(D)/BL(D) …(1)
Gh(D)/GL(D)=Bh(D)/BL(D)=Rh(D)/RL(D) …(2)
一方、実際には光学系10に軸上色収差が存在するため、任意の被写体距離に対して、色信号B0(D)、G0(D)及びR0(D)の高域成分は互いに異なる。逆に考えれば、或る被写体距離に対して大きな高域成分を有する1つの色信号を用いて、他の2つの色信号の高域成分を補うことができる。例えば、今、図8に示す如く、色信号G0(D)の解像度が最大値をとる被写体距離がD1であるとし、D1よりも大きな或る被写体距離をD2とする。また、図9に示す如く、被写体距離D1の被写体SUB1の画像データが存在する、原画像中の部分画像領域を符号441によって表し、被写体距離D2の被写体SUB2の画像データが存在する、原画像中の部分画像領域を符号442によって表す。原画像、中間生成画像又は補正画像などの、任意の画像の全体画像領域の一部を部分画像領域と呼ぶ。部分画像領域441及び442には、夫々、被写体SUB1及びSUB2の画像が現れる。
部分画像領域441におけるG信号、即ちG0(D1)(=Gh(D1)+GL(D1))には高域成分が多く含まれることになるが、軸上色収差に由来して、部分画像領域441におけるB信号及びR信号、即ちB0(D1)(=Bh(D1)+BL(D1))及びR0(D1)(=Rh(D1)+RL(D1))に含まれる高域成分は少ない。この部分画像領域441におけるB及びR信号の高域成分を、部分画像領域441におけるG信号の高域成分を用いて生成する。生成された部分画像領域441におけるB及びR信号の高域成分を夫々Bh’(D1)及びRh’(D1)にて表すとすると、Bh’(D1)及びRh’(D1)は下記式(3)及び(4)によって求められる。
Bh’(D1)=BL(D1)×Gh(D1)/GL(D1) …(3)
Rh’(D1)=RL(D1)×Gh(D1)/GL(D1) …(4)
Bh’(D1)=BL(D1)×Gh(D1)/GL(D1) …(3)
Rh’(D1)=RL(D1)×Gh(D1)/GL(D1) …(4)
光学系10に軸上色収差がなかったならば上記式(1)及び(2)より「Bh(D1)=BL(D1)×Gh(D1)/GL(D1)」及び「Rh(D1)=RL(D1)×Gh(D1)/GL(D1)」が成立すると考えられるが、実在する光学系10の軸上色収差により、被写体距離D1に関しては原画像のB及びR信号から高域成分Bh(D1)及びRh(D1)が欠落している。この欠落分を、上記式(3)及び(4)によって生成する。
尚、実際には、B0(D1)の高域成分Bh(D1)及びR0(D1)の高域成分Rh(D1)は少ないため、B0(D1)≒BL(D1)且つR0(D1)≒RL(D1)とみなすことができる。故に、被写体距離D1に関しては、式(5)及び(6)に従い、B0(D1)、R0(D1)及びGh(D1)/GL(D1)を用いてB1(D1)及びR1(D1)を求めることで高域成分を含む信号B1及びR1を生成する。G1(D1)は、式(7)に示す如く、G0(D1)そのものとされる。
B1(D1)=BL(D1)+Bh’(D1)
≒B0(D1)+B0(D1)×Gh(D1)/GL(D1) …(5)
R1(D1)=RL(D1)+Rh’(D1)
≒R0(D1)+R0(D1)×Gh(D1)/GL(D1) …(6)
G1(D1)=G0(D1) …(7)
B1(D1)=BL(D1)+Bh’(D1)
≒B0(D1)+B0(D1)×Gh(D1)/GL(D1) …(5)
R1(D1)=RL(D1)+Rh’(D1)
≒R0(D1)+R0(D1)×Gh(D1)/GL(D1) …(6)
G1(D1)=G0(D1) …(7)
G信号が多くの高域成分を含むこととなる部分画像領域441に注目して信号B1、G1及びR1の生成方法を説明したが、B又はR信号が多くの高域成分を含む部分画像領域に対しても同様の生成処理がなされる。
[高域成分抽出、距離推定、被写界深度拡大]
上述の原理に基づく処理を担う部位の詳細構成例を説明する。図10は、図6に示される抽出/推定部15及び拡大処理部16の内部ブロック図である。原画像の色信号G0、R0及びB0が、抽出/推定部15及び拡大処理部16に入力される。抽出/推定部15は、HPF(ハイパスフィルタ)51G、51R及び51B、LPF(ローパスフィルタ)52G、52R及び52B、最大値検出部53、被写体距離推定部54、選択部55並びに演算部56を備える。拡大処理部16は、選択部61G、61R及び61B並びに演算部62を備える。
上述の原理に基づく処理を担う部位の詳細構成例を説明する。図10は、図6に示される抽出/推定部15及び拡大処理部16の内部ブロック図である。原画像の色信号G0、R0及びB0が、抽出/推定部15及び拡大処理部16に入力される。抽出/推定部15は、HPF(ハイパスフィルタ)51G、51R及び51B、LPF(ローパスフィルタ)52G、52R及び52B、最大値検出部53、被写体距離推定部54、選択部55並びに演算部56を備える。拡大処理部16は、選択部61G、61R及び61B並びに演算部62を備える。
原画像、中間生成画像又は補正画像などの、任意の二次元画像は、水平及び垂直方向に複数の画素がマトリクス状に配列されて形成されており、図11(a)〜(c)に示す如く、その二次元画像上の注目画素の位置を(x,y)にて表す。x及びyは、夫々、注目画素の水平及び垂直方向の座標値を表す。そして、原画像の画素位置(x,y)における色信号G0、R0及びB0を夫々G0(x,y)、R0(x,y)及びB0(x,y)にて表し、中間生成画像の画素位置(x,y)における色信号G1、R1及びB1を夫々G1(x,y)、R1(x,y)及びB1(x,y)にて表し、補正画像の画素位置(x,y)における色信号G2、R2及びB2を夫々G2(x,y)、R2(x,y)及びB2(x,y)にて表す。
HPF51G、51R及び51Gは、同一構成及び同一特性を有する、二次元の空間フィルタである。HPF51G、51R及び51Gは、入力信号G0、R0及びB0をフィルタリングすることによって、信号G0、R0及びB0に含まれる所定の高域成分Gh、Rh及びBhを抽出する。画素位置(x,y)に対して抽出された高域成分Gh、Rh及びBhを、夫々、Gh(x,y)、Rh(x,y)及びBh(x,y)にて表す。
空間フィルタは、空間フィルタに対する入力信号をフィルタリングすることにより得た信号を出力する。空間フィルタによるフィルタリングとは、注目画素位置(x,y)における入力信号と注目画素位置(x,y)の周辺位置における入力信号とを用いて空間フィルタの出力信号を得る操作を指す。注目画素位置(x,y)における入力信号の値をIIN(x,y)にて表し、注目画素位置(x,y)に対する空間フィルタの出力信号をIO(x,y)にて表した場合、両者は下記式(8)の関係を満たす。h(u,v)は、空間フィルタの位置(u,v)におけるフィルタ係数を表す。式(8)に従う空間フィルタのフィルタサイズは(2w+1)×(2w+1)である。wは自然数である。
HPF51Gは、ラプラシアンフィルタなどの、入力信号の高域成分を抽出して出力する空間フィルタであり、注目画素位置(x,y)における入力信号G0(x,y)と注目画素位置(x,y)の周辺位置における入力信号(G0(x+1,y+1)などを含む)を用いて、注目画素位置(x,y)に対する出力信号Gh(x,y)を得る。HPF51R及び51Bについても同様である。
LPF52G、52R及び52Gは、同一構成及び同一特性を有する、二次元の空間フィルタである。LPF52G、52R及び52Gは、入力信号G0、R0及びB0をフィルタリングすることによって、信号G0、R0及びB0に含まれる所定の低域成分GL、RL及びBLを抽出する。画素位置(x,y)に対して抽出された低域成分GL、RL及びBLを、夫々、GL(x,y)、RL(x,y)及びBL(x,y)にて表す。「GL(x,y)=G0(x,y)−Gh(x,y)、RL(x,y)=R0(x,y)−Rh(x,y)及びBL(x,y)=B0(x,y)−Bh(x,y)」に従って、低域成分GL(x,y)、RL(x,y)及びBL(x,y)を求めるようにしてもよい。
演算部56は、色信号ごとに且つ画素位置ごとに、上述のようにして得られた高域成分を低域成分にて正規化することにより、値Gh(x,y)/GL(x,y)、Rh(x,y)/RL(x,y)及びBh(x,y)/BL(x,y)を求める。更に、色信号ごとに且つ画素位置ごとに、それらの絶対値Ghh(x,y)=|Gh(x,y)/GL(x,y)|、Rhh(x,y)=|Rh(x,y)/RL(x,y)|、及び、Bhh(x,y)=|Bh(x,y)/BL(x,y)|も求める。
演算部56にて得られる信号Ghh、Rhh及びBhhと被写体距離との関係を図12に示す。絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)は、夫々信号Ghh、Rhh及びBhhの位置(x,y)における値である。曲線450G、450R及び450Bは、夫々、被写体距離の変化に対して信号Ghh、Rhh及びBhhがどのように変化していくかをプロットしたものである。図7(a)の曲線400Gと図12の曲線450Gとの比較から分かるように、信号Ghhの被写体距離依存性は、信号G0の解像度の被写体距離依存性と同一又は類似している(信号Rhh及びBhhについても同様)。信号G0の解像度の増減に連動して、信号G0の高域成分Gh及びそれの絶対値に比例する信号Ghhも増減するからである。
低域成分による正規化を行うことなく、Ghh(x,y)=|Gh(x,y)|、Rhh(x,y)=|Rh(x,y)|、及び、Bhh(x,y)=|Bh(x,y)|に従って絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)を求めることも可能ではあるが、この場合は、被写体の色に依存して絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の大小関係が変化しうる。故に、Ghh(x,y)=|Gh(x,y)/GL(x,y)|、Rhh(x,y)=|Rh(x,y)/RL(x,y)|、及び、Bhh(x,y)=|Bh(x,y)/BL(x,y)|に従って、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)を求めることが望ましい。
最大値検出部53は、画素位置ごとに、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内の最大値を特定し、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、何れが最大であるかを表す信号SEL_GRB(x,y)を出力する。絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、Bhh(x,y)が最大である場合をケース1と呼び、Ghh(x,y)が最大である場合をケース2と呼び、Rhh(x,y)が最大である場合をケース3と呼ぶ。
被写体距離推定部54は、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)に基づいて、画素位置(x,y)における被写体の被写体距離DIST(x,y)を推定する。この推定方法を、図13を参照して説明する。被写体距離推定部54では、まず、0<DA<DBを満たす、2つの被写体距離DA及びDBが予め定義される。被写体距離推定部54は、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、何れが最大であるかに応じて被写体距離の推定方法を変更する。
ケース1においては、画素位置(x,y)における被写体の被写体距離は比較的小さいと判断して、0<DIST(x,y)<DAが満たされる範囲内で、Rhh(x,y)/Ghh(x,y)から推定被写体距離DIST(x,y)を求める。図13の線分461は、ケース1における、Rhh(x,y)/Ghh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Bhh(x,y)が最大となるケース1においては、図12に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてGhh(x,y)及びRhh(x,y)が共に増大するが、被写体距離の増大に対するGhh(x,y)及びRhh(x,y)の増大の程度は、Ghh(x,y)の方が高いと考えられる。従って、ケース1においては、Rhh(x,y)/Ghh(x,y)が減少につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
ケース2においては、画素位置(x,y)における被写体の被写体距離は中程度であると判断して、DA≦DIST(x,y)<DBが満たされる範囲内で、Bhh(x,y)/Rhh(x,y)から推定被写体距離DIST(x,y)を求める。図13の線分462は、ケース2における、Bhh(x,y)/Rhh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Ghh(x,y)が最大となるケース2においては、図12に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてBhh(x,y)が減少する一方でRhh(x,y)が増大する。従って、ケース2においては、Rhh(x,y)/Ghh(x,y)が減少につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
ケース3においては、画素位置(x,y)における被写体の被写体距離は比較的大きいと判断して、DB<DIST(x,y)が満たされる範囲内で、Bhh(x,y)/Ghh(x,y)から推定被写体距離DIST(x,y)を求める。図13の線分463は、ケース3における、Bhh(x,y)/Ghh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Rhh(x,y)が最大となるケース3においては、図12に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてGhh(x,y)及びBhh(x,y)が共に減少するが、被写体距離の増大に対するGhh(x,y)及びBhh(x,y)の減少の程度は、Ghh(x,y)の方が高いと考えられる。従って、ケース3においては、Bhh(x,y)/Ghh(x,y)が増大につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
このように、被写体距離推定部54は、色信号G0、R0及びB0に含まれる高域成分Gh、Rh及びBhの大きさに応じた値、即ち、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)に基づいて、原画像の各位置における被写体の被写体距離を推定する。DIST(x,y)は画素位置(x,y)に対して求められる推定被写体距離である。全ての画素位置に対する推定被写体距離を包含する情報を被写体距離情報DISTと呼ぶ。
選択部55は、演算部56にて算出される値Gh(x,y)/GL(x,y)、Rh(x,y)/RL(x,y)及びBh(x,y)/BL(x,y)の内の1つを信号SEL_GRB(x,y)に基づいて選択し、選択値をH(x,y)/L(x,y)として出力する。具体的には、
Bhh(x,y)が最大となるケース1においては、Bh(x,y)/BL(x,y)をH(x,y)/L(x,y)として出力し、
Ghh(x,y)が最大となるケース2においては、Gh(x,y)/GL(x,y)をH(x,y)/L(x,y)として出力し、
Rhh(x,y)が最大となるケース3においては、Rh(x,y)/RL(x,y)をH(x,y)/L(x,y)として出力する。
Bhh(x,y)が最大となるケース1においては、Bh(x,y)/BL(x,y)をH(x,y)/L(x,y)として出力し、
Ghh(x,y)が最大となるケース2においては、Gh(x,y)/GL(x,y)をH(x,y)/L(x,y)として出力し、
Rhh(x,y)が最大となるケース3においては、Rh(x,y)/RL(x,y)をH(x,y)/L(x,y)として出力する。
拡大処理部16には、原画像の色信号G0(x,y)、R0(x,y)及びB0(x,y)と信号H(x,y)/L(x,y)とが与えられる。選択部61G、61R及び61Bは、第1及び第2入力信号の内の一方を信号SEL_GRB(x,y)に基づいて選択し、選択した信号をG1(x,y)、R1(x,y)及びB1(x,y)として出力する。選択部61G、61R及び61Bの第1入力信号は、夫々、G0(x,y)、R0(x,y)及びB0(x,y)であり、選択部61G、61R及び61Bの第2入力信号は、夫々、演算部62にて求められる「G0(x,y)+G0(x,y)×H(x,y)/L(x,y)」、「R0(x,y)+R0(x,y)×H(x,y)/L(x,y)」及び「B0(x,y)+B0(x,y)×H(x,y)/L(x,y)」である。
Bhh(x,y)が最大となるケース1においては、
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)、
となるように選択部61G、61R及び61Bの選択処理がなされ、
Ghh(x,y)が最大となるケース2においては、
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされ、
Rhh(x,y)が最大となるケース3においては、
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされる。
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)、
となるように選択部61G、61R及び61Bの選択処理がなされ、
Ghh(x,y)が最大となるケース2においては、
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされ、
Rhh(x,y)が最大となるケース3においては、
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされる。
例えば、注目した画素位置(x,y)が図9の部分画素領域441内の画素位置である場合(図8も参照)、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、Ghh(x,y)が最大となる。故にこの場合は、H(x,y)/L(x,y)=Gh(x,y)/GL(x,y)となるため、被写体距離D1に対応する画素位置(x,y)に対しては、
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×Gh(x,y)/GL(x,y)、且つ
B1(x,y)=B0(x,y)+B0(x,y)×Gh(x,y)/GL(x,y)、となる。この3つの式は、上記式(5)〜(7)における“(D1)”を“(x,y)”に置き換えたものに等しい。
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×Gh(x,y)/GL(x,y)、且つ
B1(x,y)=B0(x,y)+B0(x,y)×Gh(x,y)/GL(x,y)、となる。この3つの式は、上記式(5)〜(7)における“(D1)”を“(x,y)”に置き換えたものに等しい。
図14は、図6に示される被写界深度制御部17の内部ブロック図である。図14の被写界深度制御部17は、可変LPF部71と、カットオフ周波数制御部72と、を備える。可変LPF部71には、カットオフ周波数を可変設定することが可能に形成された3つの可変LPF(ローパスフィルタ)71G、71R及び71Bが備えられており、カットオフ周波数制御部72が、被写体距離情報DIST及び被写界深度設定情報に基づいて可変LPF71G、71R及び71Bのカットオフ周波数を制御する。信号G1、R1及びB1を、可変LPF71G、71R及び71Bに入力することにより、可変LPF71G、71R及び71Bから、補正画像を表す色信号G2、R2及びB2が得られる。
被写界深度設定情報は、色信号G2、R2及びB2の生成に先立って、ユーザの指示等に基づき生成される。被写界深度設定情報から、図7(c)に示すものと同じ、図15の被写界深度曲線420が設定される。尚、図14の構成例では、カットオフ周波数制御部72が被写界深度設定情報から被写界深度曲線420を設定するが、カットオフ周波数制御部72と異なる部位にて被写界深度設定情報から被写界深度曲線420を設定し、設定した被写界深度曲線420を表す情報を、カットオフ周波数制御部72に与えるようにしてもよい。
上述したように、被写界深度設定情報によって、補正画像に対する被写界深度の深さが指定される。換言すれば、被写界深度設定情報によって、補正画像における合焦範囲の幅が指定される。被写界深度設定情報によって指定される合焦範囲の内、最短の被写体距離をDMINにて表し、最長の被写体距離をDMAXにて表す。当然、0<DMIN<DMAXである。
被写界深度設定情報は合焦対象情報を含む。合焦対象情報によって、何れの被写体を合焦対象とするのかが定められると共に補正画像の被写界深度内に位置すべき特定の被写体距離(DCN)が指定される。合焦対象情報は、特定の被写体距離を直接指定する距離設定情報又は特定被写体を指定する被写体設定情報である。
合焦対象情報が距離設定情報である場合、合焦対象情報によって指定される特定被写体距離が、補正画像の合焦範囲の中心における距離(被写界深度の中心における距離)DCNとされる。DCN=(DMIN+DMAX)/2である。
一方、合焦対象情報が被写体設定情報である場合、合焦対象情報によって指定される特定被写体の推定被写体距離を被写体距離情報DISTから読み取り、読み取った推定被写体距離をDCNに設定する。ユーザは、特定被写体を指定することができる。例えば、原画像又は中間生成画像をLCD19の表示画面に表示させた状態で、ユーザが、特定被写体が表示されている表示部分を、タッチパネル機能を利用して指定する。その指定結果と被写体距離情報DISTからDCNが設定される。例えば、ユーザにとっての特定被写体が図9の被写体SUB1であって、部分画像領域441を指定する被写体設定情報が与えられた場合、被写体SUB1に対して推定された被写体距離DIST(x,y)がDCNに設定される(推定が理想的に成された場合は、DCN=D1となる)。
被写界深度曲線420は、被写体距離と解像度の関係を定める曲線であり、被写界深度曲線420上の解像度は、被写体距離DCNにて最大値をとり、被写体距離がDCNから離れるに従って徐々に減少していく。被写体距離DCNにおける被写界深度曲線420上の解像度は基準解像度RSOよりも大きく、被写体距離DMIN及びDMAXにおける被写界深度曲線420上の解像度は基準解像度RSOと一致する。
カットオフ周波数制御部72では、あらゆる被写体距離に対して解像度が被写界深度曲線420上の最大解像度と一致する仮想信号が想定される。図15における破線421は、仮想信号における解像度の被写体距離依存性を表している。カットオフ周波数制御部72では、破線421をローパルフィルタ処理によって被写界深度曲線420に変換するために必要な、ローパスフィルタのカットオフ周波数が求められる。つまり、仮想信号が可変LPF71G、71R及び71Bへの入力信号であると仮定した時における可変LPF71G、71R及び71Bの出力信号を仮想出力信号と呼んだ場合、カットオフ周波数制御部72は、仮想出力信号の解像度の被写体距離依存性を表す曲線が被写界深度曲線420と一致するように、可変LPF71G、71R及び71Bのカットオフ周波数を設定する。
被写体距離情報DISTより、カットオフ周波数制御部72は、どの部分画像領域に対して、どのようなカットオフ周波数を設定すべきかを決める。例えば(図9参照)、被写体距離D1の被写体SUB1の画像データが存在する部分画像領域441内に画素位置(x1,y1)が存在すると共に、被写体距離D2の被写体SUB2の画像データが存在する部分画像領域442内に画素位置(x2,y2)が存在する場合を考える。この場合、被写体距離の推定誤差を無視すれば、画素位置(x1,y1)に対する推定被写体距離DIST(x1,y1)及びその周辺画素位置に対する推定被写体距離はD1となり、画素位置(x2,y2)に対する推定被写体距離DIST(x2,y2)及びその周辺画素位置に対する推定被写体距離はD2となる。また、図16に示す如く、被写体距離D1及びD2に対応する、被写界深度曲線420上の解像度が、それぞれRS1及びRS2であったとする。
この場合、カットオフ周波数制御部72は、仮想信号の解像度を解像度RS1まで低下させるために必要なローパスフィルタのカットオフ周波数CUT1を決定し、カットオフ周波数CUT1を部分画像領域441内の信号G1、R1及びB1に適用させる。これにより、可変LPF71G、71R及び71Bでは、部分画像領域441内の信号G1、R1及びB1に対してカットオフ周波数CUT1のローパスフィルタ処理が施される。このローパスフィルタ処理後の信号は、補正画像の部分画像領域441内の信号G2、R2及びB2として出力される。
同様に、カットオフ周波数制御部72は、仮想信号の解像度を解像度RS2まで低下させるために必要なローパスフィルタのカットオフ周波数CUT2を決定し、カットオフ周波数CUT2を部分画像領域442内の信号G1、R1及びB1に適用する。これにより、可変LPF71G、71R及び71Bでは、部分画像領域442内の信号G1、R1及びB1に対してカットオフ周波数CUT2のローパスフィルタ処理が施される。このローパスフィルタ処理後の信号は、補正画像の部分画像領域442内の信号G2、R2及びB2として出力される。
ローパスフィルタ処理後に得られる解像度とローパスフィルタのカットオフ周波数との関係を規定するテーブルデータ又は演算式を事前に用意しておき、該テーブルデータ又は演算式を用いて、可変LPF部71に設定されるべきカットオフ周波数を決定することができる。このテーブルデータ又は演算式によって、解像度RS1及びRS2に対応するカットオフ周波数が夫々CUT1及びCUT2であることが規定される。
図16に示す如く、被写体距離D1が補正画像の被写界深度内に属し且つ被写体距離D2が補正画像の被写界深度に含まれないなら、CUT1>CUT2が成立するようにカットオフ周波数CUT1及びCUT2が設定され、可変LPF部71により部分画像領域442内の画像は部分画像領域441内の画像に比べてぼかされ、結果、補正画像において部分画像領域442内の画像の解像度は部分画像領域441のそれよりも低くなる。また、図16に示す状況とは異なり、DMAX<D1<D2である場合も、CUT1>CUT2が成立するようにカットオフ周波数CUT1及びCUT2が設定されるが、指定された被写界深度内に被写体距離D1及びD2が属しないために、可変LPF部71により中間生成画像中における部分画像領域441及び442内の画像は共にぼかされる。但し、そのぼかしの程度は部分画像領域441よりも部分画像領域442の方が大きく、結果、補正画像において部分画像領域442内の画像の解像度は部分画像領域441のそれよりも低くなる。
このようなローパスフィルタ処理が、中間生成画像の全体画像領域に対して行われることで、補正画像の各画素位置における色信号G2、R2及びB2が可変LPF部71から出力される。上述したように、この色信号G2、R2及びB2の解像度の被写体距離依存性は、図7(d)の曲線430にて示される。カットオフ周波数制御部72にて定められるカットオフ周波数は、仮想信号の解像度特性を被写界深度曲線420の解像度特性に変換するためのものであるのに対して、実際の色信号G1、R1及びB1の解像度特性は仮想信号のそれとは異なる。故に、曲線430と被写界深度曲線420とは若干異なる。
尚、上述の説明では、被写界深度設定情報に基づいて、一旦、被写界深度曲線420を設定し、その後、被写界深度曲線420と被写体距離情報DISTからカットオフ周波数を設定しているが、被写界深度設定情報及び被写体距離情報DISTに基づいて、被写界深度曲線420を設定することなく一気に可変LPF部71のカットオフ周波数を設定するようにしてもよい。
<<第2実施形態>>
次に、本発明の第2実施形態を説明する。図17は、本発明の第2実施形態に係る撮像装置1aの全体ブロック図である。撮像装置1aは、符号10〜14、15a、26、18〜24によって参照される各部位を備えている。符号10〜14及び18〜24によって参照される各部位は、第1実施形態におけるそれらと同じである(図6参照)。
次に、本発明の第2実施形態を説明する。図17は、本発明の第2実施形態に係る撮像装置1aの全体ブロック図である。撮像装置1aは、符号10〜14、15a、26、18〜24によって参照される各部位を備えている。符号10〜14及び18〜24によって参照される各部位は、第1実施形態におけるそれらと同じである(図6参照)。
撮像装置1aには、図6の撮像装置1が有していた抽出/推定部15、拡大処理部16及び被写界深度制御部17の代わりに、高域成分抽出/距離推定部15a(以下、抽出/推定部15aと略記する)及び被写界深度制御部26が設けられており、この相違点を除き、第1実施形態に係る撮像装置1と第2実施形態に係る撮像装置1aは同じものである。以下、第1実施形態との相違点に注目した説明を行う。第2実施形態において、特に述べられない事項に関しては、第1実施形態の記載が適用される。但し、第1実施形態に記載の事項を第2実施形態に適用する場合、同一名称の部位についての符号の相違(例えば、符号1と1aの相違)は無視される。
デモザイキング処理部14によって生成される原画像のR、G及びB信号、即ち、色信号R0、G0及びB0は、抽出/推定部15a及び被写界深度制御部26に与えられる。抽出/推定部15aは、図10に示される、HPF51G、51R及び51B、LPF52G、52R及び52B、演算部56並びに被写体距離推定部54を有し、色信号R0、G0及びB0から原画像の各位置における被写体距離を推定して、推定被写体距離を表す被写体距離情報DISTを生成する。抽出/推定部15aによる被写体距離情報DISTを生成方法(被写体距離の推定方法を含む)は、図10の抽出/推定部15によるそれと同じである。
被写界深度制御部26は、抽出/推定部15aによって生成された被写体距離情報DISTと、被写界深度設定情報に基づいて、原画像の色信号R0、G0及びB0を補正することにより所望の被写界深度を有する補正画像を生成する。被写界深度制御部26によって生成された補正画像のR、G及びB信号を、夫々、R2’、G2’及びB2’にて表す。被写界深度制御部26によって生成された補正画像のR、G及びB信号は、カメラ信号処理部18に送られる。
図18に、被写界深度制御部26の内部ブロック図の例を示す。図18の被写界深度制御部26は、符号81〜84によって参照される各部位を備える。
軸上色収差の特性を含む光学系10の特性は、撮像装置1aの設計段階で予め分かっているため、原画像上の注目部分画像領域における注目被写体の被写体距離が分かれば、その注目部分画像領域における色信号ごとの画像のボケの特性が分かる。例えば、注目被写体の被写体距離が、赤色光301Rの結像点302Rを撮像素子11の撮像面上に位置させる被写体距離DDRである場合(図1、図2(c)、図4参照)、注目被写体からの青色光301B及び緑色光301Gは注目部分画像領域内においてぼけ、注目被写体を点光源とみなしたならば、その青色光301B及び緑色光301Gの画像の半径はYB及びYBであることが分かる(図3参照)。被写体距離が被写体距離DDRと異なる場合も同様である。
原画像は、軸上色収差によって劣化した画像であると考えることができる。ここにおける劣化は、軸上色収差に由来する画像のぼけである。この劣化過程を表す関数又は空間フィルタは、点広がり関数(Point Spread Function;以下、PSFという)と呼ばれる。被写体距離が定まれば色信号ごとのPSFが求まるため、被写体距離情報DISTに含まれる原画像上の各位置における推定被写体距離に基づけば、原画像上の各位置における、色信号ごとのPSFが定まる。このようなPSFの逆関数を用いた畳み込み演算を色信号G0、R0及びB0に行えば、軸上色収差に由来する原画像の劣化(ぼけ)は除去される。劣化を除去する画像処理は画像復元処理とも呼ばれる。この除去によって得られる画像が第2実施形態における中間生成画像であり、第2実施形態における中間生成画像のR、G及びB信号を、夫々、R1’、G1’及びB1’にて表す。
図18の画像復元フィルタ81は、上記の逆関数を信号G0、R0及びB0に作用させるための二次元の空間フィルタである。画像復元フィルタ81は、軸上色収差に由来する原画像の劣化過程を表すPSFの逆フィルタに相当する。フィルタ係数演算部83は、被写体距離情報DISTから、原画像上の各位置における、色信号G0、R0及びB0に対するPSFの逆関数を求め、その求めた逆関数を信号G0、R0及びB0に作用させるべく、画像復元フィルタ81のフィルタ係数を算出する。画像復元フィルタ81は、フィルタ係数演算部83によって算出されたフィルタ係数を用いて、色信号G0、R0及びB0に対して個別にフィルタリングを行うことで、色信号G1’、R1’及びB1’を生成する。
図19の破線500は、色信号G1’、R1’及びB1’における解像度の被写体距離依存性を表している。曲線400G、400R及び400Bは、上述したように、色信号G0、R0及びB0における解像度の被写体距離依存性を表している。色信号ごとの画像復元処理によって、G、R及びB信号の全てにおいて解像度の高い中間生成画像が得られる。
被写界深度調整フィルタ82も、二次元の空間フィルタである。被写界深度調整フィルタ82は、色信号G1’、R1’及びB1’を色信号ごとにフィルタリングすることにより、補正画像を表す色信号G2’、R2’及びB2’を生成する。被写界深度調整フィルタ82としての空間フィルタのフィルタ係数は、フィルタ係数演算部84によって算出される。
被写界深度設定情報によって、図15又は図16に示すような被写界深度曲線420が設定される。被写界深度設定情報及び被写界深度曲線420の意義は、第1実施形態で述べたものと同様である。図19の破線500に対応する色信号G1’、R1’及びB1’は、図15又は図16の破線421に対応する、第1実施形態にて述べた仮想信号に相当する。被写界深度調整フィルタ82は、色信号G2’、R2’及びB2’の解像度の被写体距離依存性を表す曲線が被写界深度曲線420と一致するように、色信号G1’、R1’及びB1’に対するフィルタリングを行う。
このようなフィルタリングを実現するための、被写界深度調整フィルタ82のフィルタ係数が、被写界深度設定情報と被写体距離情報DISTに基づいてフィルタ係数演算部84により算出される。
中間生成画像及び補正画像の色信号の解像度特性は第1及び第2実施形態間で同じであるため、図18の被写界深度制御部26内における被写界深度調整フィルタ82及びフィルタ係数演算部84を図14の可変LPF71部及びカットオフ周波数制御部72に置き換え、これらの可変LPF71部及びカットオフ周波数制御部72を用いて色信号G1’、R1’及びB1’にローパスフィルタ処理を施すことにより色信号G2’、R2’及びB2’を生成するようにしてもよい。この場合も、第1実施形態で述べたように、被写界深度設定情報及び被写体距離情報DISTに基づいて、可変LPF71部のカットオフ周波数を定めればよい。
図18の被写界深度制御部26にて実行される処理の意義を補足説明する。原画像の注目部分画像領域内における青、緑及び赤の画像の内、少なくとも2つは軸上色収差に由来してぼけ、そのぼけの大きさ(ボケ量)は、光学系10の軸上色収差の特性と注目部分画像領域における注目被写体の被写体距離に依存する。従って、被写界深度制御部26は、原画像の注目部分画像領域内における青、緑及び赤の画像のボケ量を、予め分かっている軸上色収差の特性と被写体距離情報DISTに含まれる注目被写体の推定被写体距離に基づいて推定することができる。
原画像に対して色信号ごとに画像復元処理を行えば、軸上色収差に由来する原画像の劣化(ぼけ)は除去され、結果、中間生成画像の注目部分画像領域内における青、緑及び赤の画像のボケ量(ぼけの大きさ)は、無視できる程度に小さくなる。即ち、画像復元処理が理想的になされたならば、中間生成画像において、それらのぼけの直径は、所定の許容錯乱円の直径以下となる。
被写界深度制御部26では、中間生成画像の生成後、補正画像の注目部分画像領域内における青、緑及び赤の画像のボケ量(ぼけの大きさ)が被写界深度曲線420によって規定されるボケ量になるように、中間生成画像に対して補正を加える。
或る注目した色信号の解像度と注目した色信号による画像のボケ量は概ね反比例の関係にあり、前者が増大するにつれて後者は減少し、逆に、前者が減少するにつれて後者は増大する。従って、色信号G0、R0及びB0から色信号G2’、R2’及びB2’を生成する処理は、軸上色収差に由来する原画像中の各部分画像領域におけるボケ量(解像度)を補正画像中の各部分画像領域における設定ボケ量(設定解像度)へと修正する処理であると言え、この処理は色信号ごとに実行される。前者のボケ量は、軸上色収差の特性と被写体距離情報DISTに基づいて推定される。換言すれば、前者のボケ量は、軸上色収差の特性と被写体距離情報DISTに基づいて定まる、原画像上の各位置における色信号ごとのPSFから推定される。後者の設定ボケ量は、被写界深度曲線420を規定する被写界深度設定情報と被写体距離情報DISTに基づいて設定される。
また、図18の構成では、中間生成画像を得るためのフィルタリングを行ってから補正画像を得るためのフィルタリングを行っているが、両者のフィルタリングを一度に行うようにしてもよい。即ち、被写界深度制御部26を、図20の被写界深度制御部26aのように構成してもよい。図20は、被写界深度制御部26aの内部ブロック図である。被写界深度制御部26aを被写界深度制御部26として用いることができる。被写界深度制御部26aは、被写界深度調整フィルタ91とフィルタ係数演算部92を備える。
被写界深度調整フィルタ91は、図18の画像復元フィルタ81によるフィルタリングと被写界深度調整フィルタ82によるフィルタリングを統合したフィルタリングを行う、二次元の空間フィルタである。原画像の色信号G0’、R0’及びB0’に対して色信号ごとに被写界深度調整フィルタ91によるフィルタリングを行うことで、直接、色信号G2’、R2’及びB2’が生成される。
フィルタ係数演算部92は、図18のフィルタ係数演算部83及び84を統合したフィルタ係数演算部であり、被写体距離情報DISTと被写界深度設定情報から色信号ごとに被写界深度調整フィルタ91のフィルタ係数を算出する。
<<第3実施形態>>
次に、本発明の第3実施形態を説明する。第3実施形態では、ユーザの操作との関係において原画像から補正画像を生成する動作の流れを説明する。第3実施形態に係る撮像装置の動作モードには、画像の撮影が可能な撮影モードと、記録媒体22に記録された画像をLCD19上で再生表示する再生モードと、が含まれる。操作部24に対する操作に応じて、各モード間の遷移は実施される。第1又は第2実施形態に係る撮像装置1又は1aが、第3実施形態に係る撮像装置として用いられる。第1又は第2実施形態において説明された事項は、矛盾なき限り、第3実施形態にも適用される。
次に、本発明の第3実施形態を説明する。第3実施形態では、ユーザの操作との関係において原画像から補正画像を生成する動作の流れを説明する。第3実施形態に係る撮像装置の動作モードには、画像の撮影が可能な撮影モードと、記録媒体22に記録された画像をLCD19上で再生表示する再生モードと、が含まれる。操作部24に対する操作に応じて、各モード間の遷移は実施される。第1又は第2実施形態に係る撮像装置1又は1aが、第3実施形態に係る撮像装置として用いられる。第1又は第2実施形態において説明された事項は、矛盾なき限り、第3実施形態にも適用される。
まず、図21を参照し、撮影モードにおいて補正画像が生成される場合における、撮像装置(1又は1a)の動作を説明する。図21は、この動作の流れを表すフローチャートである。LCD19は、画像が表示可能な状態にされる。
撮影モードでは、原則として、所定のフレーム周期にて順次撮影が行われて、撮像素子11から時系列で並ぶ原画像列が取得され、原画像列が動画像としてLCD19に表示される。ステップS11において、CPU23は、操作部24に設けられたシャッタボタン(不図示)が押下されたか否かを監視し、シャッタボタンの押下が確認された時、ステップS12〜S14の処理を行う。ステップS12において、CPU23は、シャッタボタンの押下直後に得られた1枚の原画像分のRAWデータをDRAM13に保持させ、ステップS13において、そのRAWデータに基づく原画像又は中間生成画像をLCD19の表示画面上に表示させる。更に、ステップS14において、そのRAWデータ及び該RAWデータに対応する圧縮画像の画像データを記録媒体22に記録させる。この際、RAWデータと圧縮画像の画像データを互いに関連付け、1つの画像ファイルに格納した上で記録媒体22に記録させる。尚、ここにおける圧縮画像とは、DRAM13に保持されたRAWデータに基づく原画像又は中間生成画像を圧縮/伸張処理部21にて圧縮した画像である。
撮像装置1又は1aによる、補正画像を生成する機能を被写界深度制御機能と呼ぶ。シャッタボタンが押下されてステップS12〜S14の処理がなされた後、ステップS15にて、被写界深度制御機能が有効になっているかが確認され、それが有効になっている場合はステップS15からステップS16に移行する一方、それが有効になっていない場合はステップS15からステップS11に戻る。ステップS16では、ステップS12にてDARM13に保持されたRAWデータに基づく原画像が補正対象原画像に設定される。
ステップS16に続くステップS17では、補正対象原画像又はそれに基づく中間生成画像をLCD19に表示した状態で、ユーザによる、補正対象原画像上の合焦対象を指定する合焦対象指定操作を受け付ける。ユーザは、タッチパネル機能を利用して、この合焦対象指定操作をLCD19上で行うことができる。即ち、第1実施形態で述べたように、ユーザが、特定被写体が表示されている、LCD19の表示画面上の一部分をタッチパネル機能を利用して指定することにより、特定被写体を合焦対象に指定することができる。その指定結果と補正対象原画像についての被写体距離情報DISTから、第1実施形態で述べた距離DCNが設定される(図15参照)。例えば、ユーザにとっての特定被写体が図9の被写体SUB1であって且つ被写体SUB1の画像データが存在する部分画像領域441内の画像の表示部位が指定された場合は、被写体SUB1に対して推定された被写体距離DIST(x,y)がDCNに設定される(被写体距離の推定が理想的に成された場合は、DCN=D1となる)。
尚、タッチパネル機能を利用することなく、操作部24に対する操作によって上記の特定被写体を合焦対象に指定することもできる。また、ユーザは、操作部24に対する操作によって、距離DCNを直接指定することもできる。
ステップS17では、更に、ユーザによる、被写界深度の深さを指定する深度指定操作も受け付ける。この深度指定操作は、タッチパネル機能又は操作部24を利用して実行される。深度指定操作によって指定された被写界深度の深さにより、補正対象原画像から生成されるべき補正画像の被写界深度の深さ(即ち、図15における距離DMIN及びDMAX間の距離差)が決まる。
ステップS17に続くステップS18において、CPU23は、ステップS17における合焦対象指定操作及び深度指定操作の内容に基づき、第1又は第2実施形態で述べた被写界深度設定情報を作成する。その後、ステップS19において、CPU23は、被写界深度制御処理をオンとする。被写界深度制御処理がオンとされると、補正対象原画像のR、G及びB信号から補正画像のR、G及びB信号を生成するための、撮像装置1又は1a内の部位が動作する。このため、ステップS19において、ステップS18にて作成された被写界深度設定情報に基づき、補正対象原画像のR、G及びB信号から補正画像のR、G及びB信号が生成される。
ステップS19にて生成された補正画像のR、G及びB信号は、カメラ信号処理部18にてY、U及びV信号から成る映像信号に変換された後、圧縮/伸張処理部21にて圧縮され、得られた圧縮映像信号、即ち補正画像の圧縮画像データ(圧縮された補正画像の画像データ)は、ステップS20において記録媒体22に記録される。この際、ステップS14にて記録したRAWデータ及び/又は圧縮画像の画像データを記録媒体22から消去するようにしてもよい。また、ステップS19にて生成された補正画像をLCD19に表示してもよい。その後、ステップ21において被写界深度制御処理がオフにされた後、ステップS11に戻る。
次に、図22を参照し、再生モードにおいて補正画像が生成される場合における、撮像装置(1又は1a)の動作を説明する。図22は、この動作の流れを表すフローチャートである。LCD19は、画像が表示可能な状態にされる。
まず、再生モードにて生成されるべき補正画像の元となるRAWデータが、ステップS31〜33にて取得される。ステップS31〜S33の処理は、撮影モードにおける処理である。ステップS31において、CPU23は、操作部24に設けられたシャッタボタン(不図示)が押下されたか否かを監視し、シャッタボタンの押下が確認された時、ステップS32及びS33の処理を行う。ステップS32において、CPU23は、シャッタボタンの押下直後に得られた1枚の原画像分のRAWデータをDRAM13に一時的に記憶させ、そのRAWデータに基づく原画像又は中間生成画像を一時的にLCD19の表示画面上に表示させる。更に、ステップS33において、そのRAWデータ及び該RAWデータに対応する圧縮画像の画像データを記録媒体22に記録させる。この際、RAWデータと圧縮画像の画像データを互いに関連付け、1つの画像ファイルに格納した上で記録媒体22に記録させる。尚、ここにおける圧縮画像とは、DRAM13に一時記憶されたRAWデータに基づく原画像又は中間生成画像を圧縮/伸張処理部21にて圧縮した画像である。
ステップS33における記録処理が完了すると、撮像装置(1又1a)の動作モードが撮影モードから再生モードに遷移したか否かが確認される。撮像装置(1又1a)の動作モードが撮影モードに維持されている場合はステップS31に戻ってステップS31〜S33の処理が繰り返し実行され、それが再生モードに遷移した場合は、ステップS41に移行して、以後、S41〜S48の各処理が実行される。ステップS41〜S48の各処理は再生モードにおける処理である。
ステップS41において、ユーザは、記録媒体22に記録されている1枚又は複数枚の圧縮画像の中から1つを選択する。選択された圧縮画像は、伸張処理を介してLCD19に表示される。ステップ41の選択後、ステップS42にて、被写界深度制御機能が有効になっているかが確認され、それが有効になっている場合はステップS42からステップS43に移行する一方、それが有効になっていない場合はステップS42からステップS41に戻る。ステップS43において、ステップS41にて選択された圧縮画像に関連付けられているRAWデータが記録媒体22から読み出され、読み出されたRAWデータに基づく原画像が補正対象原画像に設定される。
ステップS43に続くステップS44〜S48の処理内容は、図21のステップS17〜S21のそれらと同様であり、図21を参照して上述した内容がステップS44〜S48にも適用される。
即ち、ステップS43に続くステップS44では、補正対象原画像又はそれに基づく中間生成画像をLCD19に表示した状態で、ユーザによる、補正対象原画像上の合焦対象を指定する合焦対象指定操作を受け付けると共に被写界深度の深さを指定する深度指定操作も受け付ける。その後、ステップS45において、CPU23は、ステップS44における合焦対象指定操作及び深度指定操作の内容に基づき、第1又は第2実施形態で述べた被写界深度設定情報を作成する。続いてステップS46において、CPU23は、被写界深度制御処理をオンとする。これにより、ステップS46において、ステップS45にて作成された被写界深度設定情報に基づき、補正対象原画像のR、G及びB信号から補正画像のR、G及びB信号が生成される。
ステップS46にて生成された補正画像のR、G及びB信号は、カメラ信号処理部18にてY、U及びV信号から成る映像信号に変換された後、圧縮/伸張処理部21にて圧縮され、得られた圧縮映像信号、即ち補正画像の圧縮画像データ(圧縮された補正画像の画像データ)は、ステップS47において記録媒体22に記録される。この際、補正対象原画像に対応し且つ撮影モードにおいて記録されたRAWデータ及び/又は圧縮画像の画像データを記録媒体22から消去するようにしてもよい。また、ステップS46にて生成された補正画像をLCD19に表示してもよい。その後、ステップ48において被写界深度制御処理がオフにされた後、ステップS41に戻る。
第1〜第3実施形態によれば、大型の一眼レフカメラにおいてのみ取得することが可能であった被写界深度の浅い画像(被写体距離に応じて自然なぼけが再現された画像)を、小型且つ簡素な構成を有するデジタルカメラにおいて生成することが可能となる。また、原画像の撮影後に、任意の被写体にピントが合った、任意の被写界深度を有する補正画像を生成することができる。つまり、撮影後のフォーカス制御が可能となるため、ピント合わせミスによる撮影の失敗をなくすことができる。
尚、本発明に係る撮像装置(1又は1a)は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図10、図18又は図20に示される各部位が実行する演算処理は、ソフトウェア、ハードウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
1、1a 撮像装置
10 光学系
11 撮像素子
14 デモザイキング処理部
15、15a 高域成分抽出/距離推定部
16 被写界深度拡大処理部
17、26、26a 被写界深度制御部
10 光学系
11 撮像素子
14 デモザイキング処理部
15、15a 高域成分抽出/距離推定部
16 被写界深度拡大処理部
17、26、26a 被写界深度制御部
Claims (6)
- 軸上色収差を有する光学系を介して被写体を撮影する撮像素子と、
撮影画像を表す複数色の色信号に含まれる所定の高域周波数成分を色信号ごとに抽出し、色信号ごとの高域周波数成分の大きさに基づいて、前記撮影画像中の各部分画像領域における被写体距離を推定する被写体距離推定手段と、
前記撮影画像から補正画像を生成する画像処理手段と、
前記補正画像に対する被写界深度の深さを指定するとともに、その被写界深度内に位置すべき特定被写体距離を指定することにより、前記補正画像に対する被写界深度を設定する設定手段と、を備え、
前記画像処理手段は、前記被写体距離推定手段による推定被写体距離と前記設定手段による設定被写界深度に応じた画像処理を前記撮影画像に施すことによって、前記設定被写界深度に従った前記補正画像を生成する
ことを特徴とする撮像装置。 - 前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づいて、前記撮影画像及び前記補正画像の夫々の全体画像領域は、対応する推定被写体距離が前記設定被写界深度内に収まる第1部分画像領域と対応する推定被写体距離が前記設定被写界深度外に位置する第2部分画像領域に分類され、
前記画像処理手段は、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記撮影画像から前記補正画像を生成する
ことを特徴とする請求項1に記載の撮像装置。 - 前記複数色の色信号は、互いに異なる第1、第2及び第3の色信号から成り、
前記画像処理手段は、
第1〜第3の色信号の高域周波数成分の大きさの内、最大の大きさに対応する色信号の高域周波数成分を他の2つの色信号に付加することにより、第1〜第3の高域付加後色信号を生成する第1補正手段と、
前記第1〜第3の高域付加後色信号に対して所定のフィルタリングを施すことにより、前記第1〜第3の高域付加後色信号から前記補正画像を表す第1〜第3の補正色信号を生成する第2補正手段と、を備え、
前記第2補正手段は、前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づき、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように前記フィルタリングを実行する
ことを特徴とする請求項2に記載の撮像装置。 - 前記撮影画像中の各部分画像領域における推定被写体距離から、前記撮影画像中の各部分画像領域における色信号ごとの、前記軸上色収差に由来する点広がり関数が定まり、
前記画像処理手段は、前記点広がり関数、前記設定被写界深度、及び、前記撮影画像中の各部分画像領域における推定被写体距離に基づき、前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記撮影画像から前記補正画像を生成する
ことを特徴とする請求項2に記載の撮像装置。 - 前記画像処理手段は、前記点広がり関数から推定される、前記軸上色収差に由来する前記撮影画像中の各部分画像領域におけるボケ量を、前記補正画像中の各部分画像領域における設定ボケ量へと修正するためのフィルタリングを前記撮影画像の各色信号に対して実行することにより、前記設定ボケ量に応じてぼかされた前記補正画像を生成し、
前記補正画像において第2部分画像領域内の画像が第1部分画像領域内の画像と比べてぼかされるように、前記設定被写界深度と前記撮影画像中の各部分画像領域における推定被写体距離とに基づいて前記設定ボケ量は定められる
ことを特徴とする請求項3に記載の撮像装置。 - 前記撮影画像を表示する表示手段を更に備え、
前記撮影画像の撮影後、前記撮影画像又は前記撮影画像に基づく画像が前記表示手段の表示画面上に表示され、
前記設定手段は、その表示が行われている状態において、前記表示画面上の特定被写体を指定する操作を受け付けて前記特定被写体に対応する推定被写体距離から前記特定被写体距離を指定する一方、所定操作を受け付けることによって前記補正画像に対する被写界深度の深さを指定する
ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008243665A JP2010081002A (ja) | 2008-09-24 | 2008-09-24 | 撮像装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008243665A JP2010081002A (ja) | 2008-09-24 | 2008-09-24 | 撮像装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010081002A true JP2010081002A (ja) | 2010-04-08 |
Family
ID=42210997
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008243665A Pending JP2010081002A (ja) | 2008-09-24 | 2008-09-24 | 撮像装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010081002A (ja) |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011176487A (ja) * | 2010-02-23 | 2011-09-08 | Toshiba Corp | 信号処理装置及び撮像装置 |
| CN102985788A (zh) * | 2010-07-23 | 2013-03-20 | 丰田自动车株式会社 | 距离测定装置以及距离测定方法 |
| US8908068B2 (en) | 2011-04-13 | 2014-12-09 | Sony Corporation | Image pickup device and image pickup unit to form composite image |
| US9638916B2 (en) | 2014-05-19 | 2017-05-02 | Socionext Inc. | Image processing device for correcting chromatic aberration |
| WO2017186851A1 (en) * | 2016-04-28 | 2017-11-02 | Trinamix Gmbh | Detector for optically detecting at least one object |
| WO2018003502A1 (ja) * | 2016-06-28 | 2018-01-04 | ソニー株式会社 | 撮像装置、撮像方法、プログラム |
| CN109416402A (zh) * | 2016-04-28 | 2019-03-01 | 特里纳米克斯股份有限公司 | 用于光学检测至少一个对象的检测器 |
| US10353049B2 (en) | 2013-06-13 | 2019-07-16 | Basf Se | Detector for optically detecting an orientation of at least one object |
| US10412283B2 (en) | 2015-09-14 | 2019-09-10 | Trinamix Gmbh | Dual aperture 3D camera and method using differing aperture areas |
| US10775505B2 (en) | 2015-01-30 | 2020-09-15 | Trinamix Gmbh | Detector for an optical detection of at least one object |
| US10823818B2 (en) | 2013-06-13 | 2020-11-03 | Basf Se | Detector for optically detecting at least one object |
| US10890491B2 (en) | 2016-10-25 | 2021-01-12 | Trinamix Gmbh | Optical detector for an optical detection |
| JP2021501946A (ja) * | 2017-11-03 | 2021-01-21 | グーグル エルエルシーGoogle LLC | 単視点深度予測のための絞りの監視 |
| US10948567B2 (en) | 2016-11-17 | 2021-03-16 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US10955936B2 (en) | 2015-07-17 | 2021-03-23 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US11041718B2 (en) | 2014-07-08 | 2021-06-22 | Basf Se | Detector for determining a position of at least one object |
| US11060922B2 (en) | 2017-04-20 | 2021-07-13 | Trinamix Gmbh | Optical detector |
| US11067692B2 (en) | 2017-06-26 | 2021-07-20 | Trinamix Gmbh | Detector for determining a position of at least one object |
| US11125880B2 (en) | 2014-12-09 | 2021-09-21 | Basf Se | Optical detector |
| US11211513B2 (en) | 2016-07-29 | 2021-12-28 | Trinamix Gmbh | Optical sensor and detector for an optical detection |
| US11428787B2 (en) | 2016-10-25 | 2022-08-30 | Trinamix Gmbh | Detector for an optical detection of at least one object |
| US11860292B2 (en) | 2016-11-17 | 2024-01-02 | Trinamix Gmbh | Detector and methods for authenticating at least one object |
-
2008
- 2008-09-24 JP JP2008243665A patent/JP2010081002A/ja active Pending
Cited By (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8804025B2 (en) | 2010-02-23 | 2014-08-12 | Kabushiki Kaisha Toshiba | Signal processing device and imaging device |
| JP2011176487A (ja) * | 2010-02-23 | 2011-09-08 | Toshiba Corp | 信号処理装置及び撮像装置 |
| CN102985788A (zh) * | 2010-07-23 | 2013-03-20 | 丰田自动车株式会社 | 距离测定装置以及距离测定方法 |
| US8908068B2 (en) | 2011-04-13 | 2014-12-09 | Sony Corporation | Image pickup device and image pickup unit to form composite image |
| US10353049B2 (en) | 2013-06-13 | 2019-07-16 | Basf Se | Detector for optically detecting an orientation of at least one object |
| US10845459B2 (en) | 2013-06-13 | 2020-11-24 | Basf Se | Detector for optically detecting at least one object |
| US10823818B2 (en) | 2013-06-13 | 2020-11-03 | Basf Se | Detector for optically detecting at least one object |
| US9638916B2 (en) | 2014-05-19 | 2017-05-02 | Socionext Inc. | Image processing device for correcting chromatic aberration |
| US11041718B2 (en) | 2014-07-08 | 2021-06-22 | Basf Se | Detector for determining a position of at least one object |
| US11125880B2 (en) | 2014-12-09 | 2021-09-21 | Basf Se | Optical detector |
| US10775505B2 (en) | 2015-01-30 | 2020-09-15 | Trinamix Gmbh | Detector for an optical detection of at least one object |
| US10955936B2 (en) | 2015-07-17 | 2021-03-23 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US10412283B2 (en) | 2015-09-14 | 2019-09-10 | Trinamix Gmbh | Dual aperture 3D camera and method using differing aperture areas |
| CN109416249A (zh) * | 2016-04-28 | 2019-03-01 | 特里纳米克斯股份有限公司 | 用于光学检测至少一个对象的检测器 |
| WO2017186851A1 (en) * | 2016-04-28 | 2017-11-02 | Trinamix Gmbh | Detector for optically detecting at least one object |
| CN109416402A (zh) * | 2016-04-28 | 2019-03-01 | 特里纳米克斯股份有限公司 | 用于光学检测至少一个对象的检测器 |
| JPWO2018003502A1 (ja) * | 2016-06-28 | 2019-04-18 | ソニー株式会社 | 撮像装置、撮像方法、プログラム |
| CN109314749A (zh) * | 2016-06-28 | 2019-02-05 | 索尼公司 | 成像设备、成像方法和程序 |
| US10742872B2 (en) | 2016-06-28 | 2020-08-11 | Sony Corporation | Imaging device, imaging method, and program |
| WO2018003502A1 (ja) * | 2016-06-28 | 2018-01-04 | ソニー株式会社 | 撮像装置、撮像方法、プログラム |
| US11425298B2 (en) | 2016-06-28 | 2022-08-23 | Sony Corporation | Imaging device, imaging method, and program |
| US11211513B2 (en) | 2016-07-29 | 2021-12-28 | Trinamix Gmbh | Optical sensor and detector for an optical detection |
| US10890491B2 (en) | 2016-10-25 | 2021-01-12 | Trinamix Gmbh | Optical detector for an optical detection |
| US11428787B2 (en) | 2016-10-25 | 2022-08-30 | Trinamix Gmbh | Detector for an optical detection of at least one object |
| US11860292B2 (en) | 2016-11-17 | 2024-01-02 | Trinamix Gmbh | Detector and methods for authenticating at least one object |
| US11698435B2 (en) | 2016-11-17 | 2023-07-11 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US11415661B2 (en) | 2016-11-17 | 2022-08-16 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US10948567B2 (en) | 2016-11-17 | 2021-03-16 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US11635486B2 (en) | 2016-11-17 | 2023-04-25 | Trinamix Gmbh | Detector for optically detecting at least one object |
| US11060922B2 (en) | 2017-04-20 | 2021-07-13 | Trinamix Gmbh | Optical detector |
| US11067692B2 (en) | 2017-06-26 | 2021-07-20 | Trinamix Gmbh | Detector for determining a position of at least one object |
| JP2021501946A (ja) * | 2017-11-03 | 2021-01-21 | グーグル エルエルシーGoogle LLC | 単視点深度予測のための絞りの監視 |
| JP7013578B2 (ja) | 2017-11-03 | 2022-01-31 | グーグル エルエルシー | 単視点深度予測のための絞りの監視 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2010081002A (ja) | 撮像装置 | |
| JP5300133B2 (ja) | 画像表示装置及び撮像装置 | |
| US8659672B2 (en) | Image processing apparatus and image pickup apparatus using same | |
| JP4315971B2 (ja) | 撮像装置 | |
| US8018520B2 (en) | Imaging device, imaging method, display control device, display control method, and program | |
| JP5213688B2 (ja) | 撮像装置 | |
| JP5123137B2 (ja) | 撮像装置および撮像方法 | |
| JP5830186B2 (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
| US10762600B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable recording medium | |
| JP2006345054A (ja) | 画像撮像装置 | |
| JP4596987B2 (ja) | 画像撮像装置 | |
| JP5933306B2 (ja) | 撮像装置 | |
| JP2009055415A (ja) | カメラ | |
| JP5284183B2 (ja) | 画像処理装置およびその方法 | |
| JP6547742B2 (ja) | 撮像制御装置、撮像装置および撮像制御方法 | |
| JP2006345053A (ja) | 画像撮像装置 | |
| JP4781670B2 (ja) | 撮像装置 | |
| JP2012216947A (ja) | 撮像装置及び画像処理方法 | |
| US20200162660A1 (en) | Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium | |
| JP2017224915A (ja) | 撮像装置、再生装置および画像処理装置 | |
| JP6247513B2 (ja) | 撮像装置、制御方法およびプログラム | |
| JP4449692B2 (ja) | 電子カメラ | |
| WO2023166912A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
| JP2009089228A (ja) | 撮像装置 | |
| JP6019587B2 (ja) | 画像処理装置 |