[go: up one dir, main page]

JP2004289383A - Imaging device, image data generation method, image data processing device, and image data processing program - Google Patents

Imaging device, image data generation method, image data processing device, and image data processing program Download PDF

Info

Publication number
JP2004289383A
JP2004289383A JP2003077644A JP2003077644A JP2004289383A JP 2004289383 A JP2004289383 A JP 2004289383A JP 2003077644 A JP2003077644 A JP 2003077644A JP 2003077644 A JP2003077644 A JP 2003077644A JP 2004289383 A JP2004289383 A JP 2004289383A
Authority
JP
Japan
Prior art keywords
image
images
distance
focus
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003077644A
Other languages
Japanese (ja)
Inventor
Masaru Tanaka
大 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003077644A priority Critical patent/JP2004289383A/en
Publication of JP2004289383A publication Critical patent/JP2004289383A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To flexibly correct the distance in focus regarding the photographed image. <P>SOLUTION: The image pickup device 1 photographs images with the same field angle and different distances in focus by one release operation. It can falsely generate the image in the case of changing the distance in focus on the basis of the images and lens information after the photographing. Accordingly, it is possible to flexibly change the distance in focus such as moving the focus forward and backward ex post and changing the depth of field in the photographed images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、距離情報を含む画像データに係る撮像装置、画像データ生成方法、画像データ処理装置および画像データ処理プログラムに関する。
【0002】
【従来の技術】
近年、撮像素子によって画像をデジタル撮影するデジタルカメラが普及しつつある。
デジタルカメラは、フィルムカメラに比べ、撮影された画像を撮影後に補正することが容易であるという特徴を有する。即ち、フィルムカメラにおいては、プリントされた写真の画質は、撮影時の条件に大きく依存しており、撮影後に色調および露出量についての修正を行うことは可能であるものの、画質に大きな影響を及ぼすピントのずれ(合焦距離のずれ)を修正することは不可能である。一方、デジタルカメラにおいては、撮影後に色調および露出量についての修正を行うことに加え、アンシャープマスクやぼかしといった技術により、ピントのずれを修正することも可能である。
【0003】
ここで、従来、高い画質の写真をより確実に撮影するため、被写体を複数回撮影することが行われている。
特に、フィルムカメラにおいては、露出の過不足による撮影の失敗を防止するため、適正であると想定される撮影条件に対し、絞りやシャッタ速度あるいはフラッシュの発光量を所定量変化させることにより、露出量を変えて複数回撮影することが行われている。
【0004】
このように撮影した結果、現像された複数の写真はそれぞれ異なる画質のものとなり、それらのうちから適切なものを選択することが可能となる。
また、デジタルカメラやスキャナ等のデジタル機器においては、同一の被写体を同一条件で複数回撮影し、それらの撮影データを平均化することで、撮像素子等において発生するランダムノイズを平滑化することが行われている。
【0005】
さらに、特開2001−238128号公報には、同一の被写体を異なる撮影条件で複数枚撮影し、撮影された画像それぞれの適正な露光領域を抽出して合成することで、ダイナミックレンジの広い適切な彩度の画像を得る技術が開示されている。なお、本技術は露光量に関するものであるが、ピントの位置に関しても同様の方法を適用することは可能である。
【0006】
【特許文献1】
特開2001−238128号公報
【0007】
【発明が解決しようとする課題】
しかしながら、特開2001−238128号公報に記載された技術は、撮影された複数枚の画像から、所定処理の結果、最適であると想定される1枚の画像を生成するものであることから、処理の結果得られる画像は一意に定められることとなる。
【0008】
すなわち、特開2001−238128号公報に記載された技術は、一度の撮影によって得られる画像の欠陥を、複数回の撮影を行うことによって得られた他の画像を用いて補完するための技術であり、これは、他の従来技術においても共通する概念であった。
一方、撮影された画像において、撮影時に意図していたピントの位置が必ずしも適切でない場合や、画像内のピントが合っている範囲(被写界深度)を変化させたい場合等、事後的に合焦距離を任意に変化させる要求が発生する場合もある。
【0009】
このような場合、従来の技術においては、ピントの合っていない領域について、ピントを合わせる補正は行えるものの、画像内においてピントを前後にずらしたり、被写界深度を変化させたりするといったように、事後的に合焦距離を変化させる補正を行うことは困難であった。
なお、デジタルカメラにおいては、撮像素子の面積が小さいことから、レンズを通過した光束が一定面積となるように絞る必要がある。そのため、被写界深度が深くなる傾向にあり、風景写真のように画面全体にピントを合わせる場合には適するものの、ポートレートのように、主要な被写体にのみピントを合わせ、他の被写体のピントをぼかすといったことが困難であった。即ち、デジタルカメラにおいては、フィルムカメラに比べて、撮影時に合焦距離を柔軟に変化させることが困難であるという問題もあった。
【0010】
本発明の課題は、撮影された画像について、柔軟に合焦距離を補正可能とすることである。
【0011】
【課題を解決するための手段】
以上の課題を解決するため、本発明は、
レンズを通過した被写体からの光を撮像素子によって撮影し、デジタル画像を生成する撮像装置であって、レリーズ動作に対応して、同一画角で異なる合焦距離に設定された複数の画像(例えば、発明の実施の形態中の「グループ画像」)を連続的に撮影する撮影手段(例えば、図1のレンズユニット部10およびカメラユニット部20)と、前記複数の画像それぞれの撮影条件を取得する撮影条件取得手段(例えば、図1のレンズユニット部10および中央演算装置22)と、前記レンズの特性(例えば、発明の実施の形態中のレンズ11の伝達関数)あるいは所定のレンズの特性(例えば、備えられたレンズより浅い被写界深度となるレンズ等、ユーザが選択したレンズの伝達関数)と、前記異なる合焦距離の複数の画像と、該複数の画像の撮影条件(例えば、撮影時の合焦距離等)とに基づいて、撮影された画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整手段(例えば、図1のレンズ情報記憶装置13および中央演算装置22)とを備えることを特徴としている。
【0012】
また、前記画像調整手段は、前記複数の画像それぞれにおいて、ピントが合っている合焦領域を抽出する合焦領域抽出手段(例えば、図1の中央演算装置22)と、前記レンズの特性あるいは所定のレンズの特性と、前記撮影条件とに基づいて、前記合焦領域それぞれの画像を変化させる合焦領域調整手段(例えば、図1のレンズ情報記憶装置13および中央演算装置22)とを備えることを特徴としている。
【0013】
また、前記合焦領域抽出手段は、前記複数の画像の画角内における各領域について、該複数の画像のいずれがより正確な合焦状態であるかを判定し、より正確な合焦状態であると判定された各領域の画像を抽出することを特徴としている。
また、前記撮影手段は、前記複数の画像の被写界深度範囲が連続的となるように撮影条件を設定することを特徴としている。
【0014】
また、前記合焦領域抽出手段によって抽出された各領域に基づいて、前記複数の画像と同一画角の1つの画像を生成し、該1つの画像を記憶する合焦画像記憶手段(例えば、図1のメモリユニット部30)をさらに備えることを特徴としている。
また、前記撮影手段によって撮影された複数の画像を関連付けて記憶するグループ画像記憶手段(例えば、図1のメモリユニット部30)をさらに備えることを特徴としている。
【0015】
また、前記画像調整手段によって画像を変化させる場合に、前記複数の画像における合焦領域以外の画像に基づいて、ピントが合っていない領域の画像を生成することを特徴としている。
また、前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、撮影時に合焦距離あるいは被写界深度を変化させた場合に想定される画像を、物理的な変化態様に即して擬似的に生成することを特徴としている。
【0016】
また、前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、画角内の任意の領域について、任意の合焦距離あるいは被写界深度に変化させることが可能であることを特徴としている。
即ち、物理的な変化態様にとらわれることなく、遠方と近接領域にピントを合わせ、中間距離の領域のピントをぼかすといったことも可能である。
【0017】
また、本発明は、
表示装置上に表示可能な画像データを生成する画像データ生成方法であって、
同一画角で異なる合焦距離に設定された複数の画像を撮影し、画角内の各領域について、複数の画像のいずれがより正確な合焦状態であるかを判定し、各領域について、より正確な合焦状態であると判定された画像の合焦距離と対応づけることにより、被写体の色彩に関する情報と距離に関する情報とを含む画像データを生成することを特徴としている。
【0018】
また、本発明は、
デジタル画像データに基づいて画像を表示可能な画像データ処理装置であって、撮影された被写体の色彩に関する情報と距離に関する情報とを含む画像データに基づいて、該画像データに係る画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整手段を備え、任意に設定された合焦距離あるいは被写界深度の画像を表示可能であることを特徴としている。
【0019】
なお、前記画像調整手段は、前記複数の画像それぞれにおいて、ピントが合っている合焦領域を抽出する合焦領域抽出手段と、撮影に使用されたレンズの特性あるいは所定のレンズの特性と、撮影条件とに基づいて、前記合焦領域それぞれの画像を変化させる合焦領域調整手段とを備えることとしてもよい。
また、前記合焦領域抽出手段は、前記複数の画像の画角内における各領域について、該複数の画像のいずれがより正確な合焦状態であるかを判定し、より正確な合焦状態であると判定された各領域の画像を抽出することとしてもよい。
【0020】
また、前記合焦領域抽出手段によって抽出された各領域に基づいて、前記複数の画像と同一画角の1つの画像を生成し、該1つの画像を記憶する合焦画像記憶手段をさらに備えることとしてもよい。
また、撮影された複数の画像を関連付けて記憶するグループ画像記憶手段をさらに備えることとしてもよい。
【0021】
また、前記画像調整手段によって画像を変化させる場合に、前記複数の画像における合焦領域以外の画像に基づいて、ピントが合っていない領域の画像を生成することとしてもよい。
また、前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、撮影時に合焦距離あるいは被写界深度を変化させた場合に想定される画像を、物理的な変化態様に即して擬似的に生成することとしてもよい。
【0022】
また、前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、画角内の任意の領域について、任意の合焦距離あるいは被写界深度に変化させることとしてもよい。
また、本発明は、
デジタル画像データに基づいて画像を表示するための画像データ処理プログラムであって、撮影された被写体の色彩に関する情報と距離に関する情報とを含む画像データに基づいて、該画像データに係る画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整機能をコンピュータに実現させ、任意に設定された合焦距離あるいは被写界深度の画像を表示可能とすることを特徴としている。
【0023】
なお、前記画像調整機能は、前記複数の画像それぞれにおいて、ピントが合っている合焦領域を抽出する合焦領域抽出機能と、撮影に使用されたレンズの特性あるいは所定のレンズの特性と、撮影条件とに基づいて、前記合焦領域それぞれの画像を変化させる合焦領域調整機能とを備えることとしてもよい。
また、前記合焦領域抽出機能は、前記複数の画像の画角内における各領域について、該複数の画像のいずれがより正確な合焦状態であるかを判定し、より正確な合焦状態であると判定された各領域の画像を抽出することとしてもよい。
【0024】
また、前記合焦領域抽出機能によって抽出された各領域に基づいて、前記複数の画像と同一画角の1つの画像を生成し、該1つの画像を記憶させる合焦画像記憶機能をさらに備えることとしてもよい。
また、撮影された複数の画像を関連付けて記憶させるグループ画像記憶機能をさらに備えることとしてもよい。
【0025】
また、前記画像調整機能によって画像を変化させる場合に、前記複数の画像における合焦領域以外の画像に基づいて、ピントが合っていない領域の画像を生成することとしてもよい。
また、前記画像調整機能は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、撮影時に合焦距離あるいは被写界深度を変化させた場合に想定される画像を、物理的な変化態様に即して擬似的に生成することとしてもよい。
【0026】
また、前記画像調整機能は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、画角内の任意の領域について、任意の合焦距離あるいは被写界深度に変化させることとしてもよい。
本発明によれば、レリーズ動作によって、同一画角で異なる合焦距離の画像を撮影しておき、それらの画像と、撮影に使用されたレンズの特性あるいは他のレンズの特性および撮影条件とに基づいて、合焦距離を変化させた場合の画像を撮影後に擬似的に生成することができる。
【0027】
したがって、撮影された画像において、事後的にピントを前後にずらしたり、被写界深度を変化させるといったように、合焦距離を柔軟に変化させることが可能となる。
【0028】
【発明の実施の形態】
以下、図を参照して本発明に係る撮像装置の実施の形態を説明する。
本発明に係る撮像装置は、一度のレリーズ動作に対応して、同一の画角で異なる位置にピントを合わせた画像を連続して撮影しておく。そして、撮影された複数の画像に基づいて、撮影された画像のピントを変化させる補正や、被写界深度を変化させる補正等、合焦距離の変化を伴う補正を事後的に行うことが可能な撮像装置である。
【0029】
まず、構成を説明する。
図1は、本発明を適用した撮像装置1の機能構成を示すブロック図である。
図1において、撮像装置1は、レンズユニット部10と、カメラユニット部20と、メモリユニット部30とを含んで構成される。なお、これらの各ユニット部は、一体的な構成および着脱可能な構成のいずれとすることも可能であるが、ここでは着脱可能な構成であるものとして説明する。
【0030】
レンズユニット部10は、レンズ11と、絞り装置12と、レンズ情報記憶装置13とをさらに含んで構成される。
レンズ11は、複数枚のレンズによって構成された光学系であり、被写体からの反射光を収束して結像させる。
絞り装置12は、複数枚の羽根によって開口面積を変化可能な機構を有し、レンズ11を通過する光量を調整する。また、絞り装置12は、カメラユニット部20の中央演算装置22によって開口面積が制御される。
【0031】
レンズ情報記憶装置13は、レンズ11の伝達関数、絞りおよび合焦距離に対応する被写界深度、現在の絞り値および開放絞り値、合焦距離、レンズの焦点距離といったレンズ11に関連する各種情報をレンズ情報として記憶している。このレンズ情報は、撮影時等にカメラユニット部20に出力される。
ここで、レンズ11の伝達関数とは、レンズ11に入射する被写体からの光と、その結像との関係を表す関数であり、レンズ11の光学特性に基づいて特定される。そのため、絞りおよび合焦距離に対する被写界深度は、レンズ11の伝達関数から算出することが可能であるが、その算出には複雑な演算を伴うため、予め算出された値を記憶しておくものとする。ただし、絞りおよび合焦距離に対する被写界深度を逐次算出することも可能である。
【0032】
カメラユニット部20は、入力装置21と、中央演算装置22と、シャッタ装置23と、撮像素子24と、主記憶装置25と、補助記憶装置26と、表示装置27とをさらに含んで構成される。
入力装置21は、画像を撮影するためにユーザによって押下されるシャッタボタンを備え、シャッタボタンの押下信号は中央演算装置22に出力される。また、入力装置21は、撮影時の設定および撮影画像の処理のための各種ボタンを備えており、これらのボタンの操作信号も中央演算装置22に出力される。各種ボタンとして、例えば、入力装置21には、撮影を行う際に拡大率を調整するためのズームボタン、絞り値を設定するための絞り設定ボタン、シャッタ速度を設定するためのシャッタ速度設定ボタン、撮像装置1に備えられている撮影モードを変更するためのモード設定ボタン等が備えられている。また、入力装置21には、後述する撮影後補正処理において、撮影された画像の合焦距離を変化させるためのピント位置ボタンおよび被写界深度を変化させるための被写界深度調整ボタンが備えられている。
【0033】
中央演算装置22は、撮像装置1全体を制御するものであり、例えば、後述する画像撮影処理プログラムあるいは撮影後補正処理プログラムを補助記憶装置26から読み出し、画像撮影処理あるいは撮影後補正処理を実行したり、撮像装置1の制御のための各種プログラムを補助記憶装置26から読み出し、それぞれのプログラムを実行したりする。
【0034】
また、中央演算装置22は、入力装置21への操作に対応する信号を受け付け、各操作に対応する所定処理を実行する。
シャッタ装置23は、開閉動作を行うことにより、レンズ11を通過した光を撮像素子24に所定時間だけ露光させるための機構を備えている。なお、シャッタ装置23は、シャッタボタンの押下に対応して中央演算装置22から入力される指示信号に基づいて開閉動作を行う。
【0035】
撮像素子24は、CCD(Charge Coupled Diode)あるいはCMOS(Complementary Metal Oxide Semiconductor)センサ等の素子を含んで構成され、レンズ11を通過した光を受光し、電気信号に変換することによって、その結像を画像データとする。
主記憶装置25は、SDRAM(Synchronous Dynamic Random Access Memory)等のメモリによって構成され、撮像装置1が動作する際に生成される種々のデータを一時的に保持する。
【0036】
補助記憶装置26は、フラッシュROM等の不揮発性のメモリによって構成され、画像撮影処理プログラムや撮影後補正処理プログラムおよび撮像装置1を制御するための種々のプログラムを記憶している。
表示装置27は、LCD(Liquid Crystal Display)等からなる小型の表示装置であり、撮像装置1によって撮影された画像や、メモリユニット30に記憶された画像等を表示する。
【0037】
メモリユニット部30は、メモリカード等の着脱可能な記憶媒体を含んで構成され、撮影された画像や、撮影後補正処理によって生成された画像等を記憶することが可能である。
上述のように、本発明に係る撮像装置1は、カメラユニット部20に対し、それぞれ着脱可能なレンズユニット部10、メモリユニット部30から構成される。そして、着脱可能な任意のレンズユニット部10内にあるレンズ11についてのレンズ情報は、同じくレンズユニット部10に内蔵されるレンズ情報記憶装置13に記録されている。カメラユニット部20は、レンズ情報記憶装置13に記録されたレンズ情報を読み込み、主記憶装置または補助記憶装置内に記憶している。
【0038】
次に、動作を説明する。
本発明の動作を説明するにあたり、本発明の基本的な考え方について、手順を追って説明する。
本発明に係る撮像装置1は、レンズ情報として、レンズ11の伝達関数を含むレンズ情報を記憶している。
【0039】
したがって、撮像装置1においては、合焦距離を定めた場合に、任意の距離に存在する被写体の画像が変化する特性(以下、「焦点ずれ特性」という。)が把握されている。
図2は、種々の合焦距離における焦点ずれ特性を示す図である。なお、図2においては、合焦距離以外の要素が特定の条件に定められている場合を示しており、横軸を距離、縦軸を画像パラメータとして示している。画像パラメータとは、コントラスト、色彩あるいは輝度等、画像の各画素を表すそれぞれの要素である。また、図2において、各特性曲線の頂点の横軸座標は、合焦距離を示している。
【0040】
図2に示すように、特定の合焦距離の場合(1つの特性曲線に注目した場合)、種々の距離に位置する被写体の画像は、合焦距離を離れるに従って変化する(いわゆるピンぼけ状態となる)。
また、合焦距離が変化した場合(一連の異なる特性曲線に注目した場合)、特定の距離に位置する被写体の画像は、合焦距離から離れるに従って変化する。
【0041】
さらに、合焦距離が撮像装置1から近いほど、特性曲線は急峻なものとなり、変化が著しいものとなっている。
このように、画像の変化態様が把握されている状態において、ある合焦距離で画像を撮影することにより、図2に示す特性曲線の1つに対応する実データが取得されることとなる。
【0042】
例えば、2m、10m、500mの3つの合焦距離で画像を撮影したとする。すると、図2に示す特性曲線のうち、3つの合焦距離の特性曲線に対応する画像データが取得される。
図3は、画像データが取得された3つの特性曲線を示す図である。
図3において、3つの合焦距離を基準とする被写界深度内に位置する被写体については、ピントが合っているとみなせる画像が取得されている。さらに、これらの画像については、合焦距離が変化された場合に、画像が変化する態様が推定可能である。
【0043】
また、3つの画像における被写界深度の範囲が互いに連続して分布していることから、画角内の全ての被写体について、少なくとも一つはピントが合っているとみなせる画像が取得されていることとなる。
そこで、画像の各領域について、2m、10m、500mのいずれの合焦距離の画像が最も画質が優れている(ピントがより正確に合っている)かを判定し、最も画質が優れていると判定された距離をそれぞれの領域に対応付ける。
【0044】
即ち、図4に示すように、画角内の各被写体の距離を、撮影された画像の画質に基づいて、2m、10m、500mのいずれかに分類し、いずれかの距離に位置するものとみなす。
ここで、図2において、ある距離に注目すると、合焦距離が変化された場合の特性は、図2に示す複数の特性曲線から把握することが可能である。例えば、10mの距離の被写体については、合焦距離が変化されると、図5に示すように画像が変化することが把握可能である。
【0045】
したがって、図4に示すように分類された各被写体の領域について、合焦距離を変化させた場合の画像は、それぞれの領域内が同一の距離であるとみなされていることから、図6に示すように、それぞれの領域毎に同様の特性に従って変化させることができる。
図6は、撮影された画像の合焦距離を変化させた場合に、各領域の画像が対応して変化する様子を示す図である。
【0046】
即ち、図5に示すような特性に基づいて、各領域の画像を対応させながら、合焦距離を撮影後に変化させることにより、撮影時において合焦距離を変化させたのと同様の画像を擬似的に生成することができる。
そこで、本発明においては、一度のレリーズ動作で合焦距離の異なる複数の画像を撮影しておき、撮影された複数の画像に基づいて、撮影後に、補正対象となる画像において合焦距離を変化させることを可能とする。
【0047】
このとき、撮影後に合焦距離を変化させた際に生成される画像は、実際に撮影された画像に基づくものであり、合焦距離を実際に変化させて撮影された画像をより正確に再現(擬似生成)することができる。また、一度のレリーズ動作において撮影する画像の枚数をより多くすることで、撮影後に合焦距離を変化させて得られる画像について、より正確な再現が可能となる。
【0048】
以下、本発明を適用した撮像装置1の具体的な動作について説明する。
まず、画像撮影処理について説明する。
図7は、撮像装置1が実行する画像撮影処理を示すフローチャートである。画像撮影処理は、シャッタボタンが押下されることに対応して開始される。
図7において、画像撮影処理が開始されると、撮像装置1は、被写体までの距離(合焦距離)、レンズ11の焦点距離、絞り値等、撮影条件に応じて、そのレリーズ動作で撮影する複数の画像(以下、「グループ画像」と言う。)の枚数を決定するための撮影枚数決定処理(後述)を実行する(ステップS1)。なお、ステップS1においては、グループ画像の枚数に併せて、撮影される画像の被写界深度が互いに連続的となるように、撮影される各画像の合焦距離も決定される。
【0049】
次に、撮像装置1は、ステップS1において決定したグループ画像の撮影を行い、撮影された画像に合焦距離をデータとして加える(ステップS2)。
そして、撮像装置1は、グループ画像の撮影が全て終了したか否かの判定を行い(ステップS3)、グループ画像の撮影が全ては終了していないと判定した場合、ステップS2の処理に移行する。
【0050】
一方、ステップS3において、グループ画像の撮影が全て終了したと判定した場合、撮像装置1は、撮影されたグループ画像それぞれから、ピントが合っている領域を抽出する(ステップS4)。
ここで、撮影された画像において、ピントが合っているか否かを判定する方法としては、各画素について、異なる合焦距離で撮影された画像を比較し、隣接画素間のコントラストが最大となっているものを選択する方法等が知られている。
【0051】
次に、撮像装置1は、ステップS4において抽出された領域それぞれを合成し、画角内の全ての被写体にピントが合っている画像(以下、「合焦画像」と言う。)を生成する(ステップS5)。なお、合焦画像の各画素には、その画素が属する領域の合焦距離のデータが付加されている。
そして、撮像装置1は、画像撮影処理を終了する。
【0052】
このように、画像撮影処理を実行することにより、例えば、図8に示す撮影条件の場合、図9(a)〜(c)の画像がグループ画像として撮影され、これらの画像それぞれから、図10(a)〜(c)の画像が抽出される。
そして、図10(a)〜(c)の画像に基づいて、図11に示す画像が合焦画像として生成される。
【0053】
図11に示す合焦画像のデータ量は、図9(a)〜(c)の画像のデータ量の合計より少ないものとなっている。したがって、後述する撮影後補正処理において参照するためには、図11に示す合焦画像を記憶しておく方が、記憶容量を効率的に使用できる。
ただし、図9(a)〜(c)の画像をそれぞれ記憶しておくことも可能であり、この場合、ステップS4において抽出された領域以外の領域、即ち、ピントが合っていない被写体の画像も記憶されることから、後述する撮影後補正処理において、ピントが合っていない領域の画像を参照することが可能となる。
【0054】
次に、上述の画像撮影処理におけるサブフローである撮影枚数決定処理について説明する。
撮影枚数決定処理は、グループ画像として撮影する画像の枚数を決定するための処理であり、グループ画像の枚数を決定するためには、被写体までの距離と被写界深度とが重要な要素となることから、初めに、これらの関係について説明する。
【0055】
図12は、被写体までの距離と被写界深度の位置範囲(ピントが合う距離範囲)との関係を示す図であり、図12(a)は、レンズ11の焦点距離が長い場合、図12(b)は、レンズ11の焦点距離が短い場合を示している。
一般に、レンズの焦点距離が長いほど被写界深度が浅くなり、また、絞り値が小さい(絞りを開く)ほど被写界深度は浅くなる。さらに、被写体までの距離が短いほど被写界深度は浅くなる。
【0056】
したがって、画角に含まれる被写体の全てについて、ピントが合った画像を撮影するためには、各被写体が少なくとも一度、合焦距離に対する被写界深度内に含まれる必要がある。
図12(a),(b)において、各線分の幅は被写界深度を示しており、画角内の各被写体が少なくとも一度、合焦距離を基準とした被写界深度内に含まれるということは、被写界深度を示す各線分によって、横軸における被写体の存在する全範囲が網羅されることを意味する。
【0057】
即ち、図12(a)によれば、被写界深度が浅い撮影条件の場合、少ない枚数(ここでは7枚)の画像で全画角を少なくとも被写界深度内に包含可能であることがわかる。反対に、図12(b)によれば、被写界深度が深い撮影条件の場合、多くの枚数(ここでは4枚)の画像を要することがわかる。
なお、より正確な合焦画像を得るためには、合焦距離を小間隔で変化させ、多数のグループ画像を撮影することが理想的である。しかしながら、撮影枚数が多くなることに伴って、グループ画像の全てを撮影するために要する時間が長くなり、撮像装置1を同じ姿勢で長時間保持しておく必要が生じると共に、必要な記憶容量も増大することとなる。
【0058】
そこで、以下に説明する撮影枚数決定処理においては、3枚から10枚程度の範囲でグループ画像を撮影し、画角内の全ての被写体が少なくとも一度、合焦距離を基準とした被写界深度内に含まれるような設定を行うものとする。
このとき、いかなる合焦距離の画像を撮影するかについては、図12(a),(b)に示すように予め定めた間隔に合焦距離を設定して撮影する方法が可能であり、この方法は、画角内の被写体が近距離から遠距離まで連続的に分布している場合に適している。
【0059】
また、画角内に存在する主要な被写体が離散的な距離に分布している場合、例えば、図8のように、近距離に人物、数百メートルの遠距離に山、それらの中間距離に建物が分布している場合には、それら主要な被写体(人物、建物および山)に合焦距離を設定し、それらの合焦距離のみを設定して画像を撮影したり、さらに、それらの合焦距離の間を補完するように画像を撮影したりすることが可能である。
【0060】
以下、撮影枚数決定処理の具体的な処理内容について説明する。
図13は、撮像装置1が実行する撮影枚数決定処理を示すフローチャートである。撮影枚数決定処理は、画像撮影処理のステップS1で呼び出されることに対応して開始される。
図13において、撮影枚数決定処理が開始されると、撮像装置1は、レンズ情報記憶装置13に記憶しているレンズ11の状態に変更があるか否かの判定を行う(ステップS101)。
【0061】
ここで、レンズの状態の変更とは、レンズの焦点距離、絞り値および被写体までの距離が変化することを言い、AE(自動露出制御)機能によって、ズーム操作が行われた場合に絞りが自動的に変更される場合等も含むものである。
具体的には、レンズの焦点距離が変化するとは、ズームレンズにおいて焦点距離が変更されることあるいはレンズが交換されることを言う。また、絞り値が変化するとは、撮影者が絞り設定ボタンを操作することにより絞りが変化することを言い、被写体までの距離が変化するとは、撮像装置1もしくは被写体が位置を移動することにより、撮像装置1と被写体との距離が変化することを言う。
【0062】
ステップS101において、レンズ11の状態に変更がないと判定した場合、撮像装置1は、補助記憶装置26にグループ画像として撮影する枚数が記憶されているか否かの判定を行い(ステップS102)、記憶されていると判定した場合、記憶されている撮影枚数に決定する(ステップS103)。
そして、撮像装置1は、撮影枚数決定処理を終了する。
【0063】
一方、ステップS102において、補助記憶装置26にグループ画像として撮影する枚数が記憶されていないと判定した場合、撮像装置1は、ステップS104の処理に移行する。
また、ステップS101において、レンズ11の状態に変更があると判定した場合、撮像装置1は、レンズ11に関するレンズ情報をレンズ情報記憶装置13から読み込み(ステップS104)、読み込んだレンズ情報に基づいて、グループ画像として撮影する枚数を決定する(ステップS105)。
【0064】
次に、撮像装置1は、補助記憶装置26にステップS105において決定した枚数を記憶し(ステップS106)、撮影枚数決定処理を終了する。
次に、撮影後補正処理について説明する。
図14は、撮像装置1が実行する撮影後補正処理を示すフローチャートである。撮影後補正処理は、画像撮影処理によって生成された合焦画像に対し、撮影後に合焦距離あるいは被写界深度を変化させるための処理であり、撮像装置1のユーザが撮影後補正処理の実行を指示することに対応して起動される。
【0065】
図14において、撮影後補正処理が開始されると、撮像装置1は、合焦画像および必要なレンズ情報(レンズ11の伝達関数等)を読み込み(ステップS201)、表示装置27に撮影後補正処理のユーザインターフェースを表示する(ステップS202)。
図15は、撮影後補正処理のユーザインターフェースを示す図である。
【0066】
図15において、合焦距離を変化させるためのピント位置スライダは、表示されている画像の合焦距離を示している。また、ピント位置スライダは、入力装置21のピント位置ボタンが操作されることに対応して移動する。
また、図15において、被写界深度を変化させるための被写界深度スライダは、いずれの絞り値に対応する被写界深度であるかを示している。さらに、被写界深度スライダは、入力装置21の被写界深度調整ボタンが操作されることに対応して移動する。
【0067】
図14に戻り、撮像装置1は、ユーザインターフェースに対して、ピント位置スライダあるいは被写界深度スライダいずれの操作が行われたかの判定を行い(ステップS203)、被写界深度スライダの操作が行われたと判定した場合、選択された被写界深度に合わせて、合焦画像における各領域の画像を補正する(ステップS204)。
【0068】
一方、ステップS203において、ピント位置スライダの操作が行われたと判定した場合、撮像装置1は、選択されたピント位置に合わせて、合焦画像における各領域の画像を補正する(ステップS205)。
ステップS204およびステップS205の後、撮像装置1は、撮影後補正処理の終了が指示されたか否かの判定を行い(ステップS206)、撮影後補正処理の終了が指示されていないと判定した場合、ステップS203の処理に移行する。一方、撮影後補正処理の終了が指示されたと判定した場合、撮影後補正処理を終了する。
【0069】
以上のように、本実施の形態に係る撮像装置1は、一度のレリーズ動作によって、同一画角で異なる合焦距離の画像を撮影しておき、それらの画像とレンズ情報とに基づいて、合焦距離を変化させた場合の画像を撮影後に擬似的に生成することができる。
したがって、撮影された画像において、事後的にピントを前後にずらしたり、被写界深度を変化させるといったように、合焦距離を柔軟に変化させることが可能となる。
【0070】
また、このようにして生成された合焦画像のデータには、被写体の色彩に関する情報(例えばR,G,Bの各情報等)および被写体までの距離に関する情報が含まれている。
そのため、視差を利用した疑似立体ディスプレイ等のための画像データとして利用することができ、本発明を適用することによって、そのような画像データを簡単に取得することが可能である。
【0071】
なお、本実施の形態においては、撮影に用いたレンズ11の伝達関数に基づいて、合焦画像を変化させることとして説明したが、レンズ11以外のレンズの伝達関数に基づいて、合焦画像を変化させることとしてもよい。
即ち、レンズ情報として、レンズ11以外のレンズの伝達関数を記憶しておき、撮影後補正処理等において任意のレンズの伝達関数を選択して用いることが可能である。
【0072】
この場合、撮影に用いたレンズ11より浅い被写界深度となるレンズの伝達関数を用いることによって、被写界深度が浅い画像を得ることができる等、ユーザが意図する画像を容易に生成することが可能となる。つまり、被写界深度が深くなる傾向にあるデジタルカメラにおいて、被写界深度が浅い画像を容易に取得することが可能となる。
【0073】
また、本実施の形態においては、撮像装置1において、グループ画像の撮影から合焦画像の生成までを行うこととして説明したが、撮影されたグループ画像をメモリカード等に記憶してPC(Personal Computer)等の情報処理装置にデータを移し、その装置上で合焦画像の生成処理を行うこととしてもよい。
以下、このときのグループ画像を撮影する処理(グループ画像撮影処理)および合焦画像を生成する処理(合焦画像生成処理)について説明する。
【0074】
初めに、グループ画像撮影処理について説明する。
グループ画像撮影処理は、図7に示す画像撮影処理において、グループ画像を撮影した後、撮影した複数の画像を関連づけて記憶するものとなる。
図16は、グループ画像撮影処理を示すフローチャートである。
図16において、ステップS301〜ステップS303の処理は、図7に示す画像撮影処理のステップS1〜ステップS3の処理とそれぞれ同様であるため説明を省略し、以後の処理についてのみ説明する。
【0075】
ステップS303において、グループ画像の撮影が全て終了したと判定した場合、撮像装置1は、撮影されたグループ画像を関連づけて記憶する(ステップS304)。
そして、撮像装置1は、グループ画像撮影処理を終了する。
ここで、グループ画像を関連づけて記憶する方法としては、画像ファイル名によってグループを識別する方法と、フォルダあるいはディレクトリによってグループを識別する方法とが例として挙げられる。
【0076】
画像ファイル名によってグループを識別する場合、ファイル名の形式をグループ名とファイルの番号とによって構成することが可能である。例えば、13時43分に撮影された3枚のグループ画像には、「1343_1.jpg」、「1343_2.jpg」、「1343_3.jpg」といったファイル名を付すことが可能である。
【0077】
また、フォルダあるいはディレクトリによってグループを識別する場合、グループ名を付したフォルダあるいはディレクトリを作成し、そのフォルダあるいはディレクトリ内に、ファイルの番号を付して、グループ画像を格納することが可能である。例えば、13時43分に撮影された3枚のグループ画像の場合、フォルダ名が「1343」というフォルダを作成し、そのフォルダ内に、「1.jpg」、「2.jpg」、「3.jpg」といったファイル名の画像を格納することが可能である。
【0078】
なお、他の方法として、Exif(Exchangeable Image File Format)タグ内にグループ内の写真が同一グループに所属するという情報を付加し、PC内のアプリケーションがそれを判別する方法が考えられる。
また、1つのグループ画像に対し、その撮影に用いたレンズ情報を記録する必要がある。このレンズ情報は画像と同じ階層内の別のファイルに記録する方法や、特定の画像ファイル(たとえばグループ内で最初に撮影した画像)に埋め込む方法、複数の画像ファイルに分散して記録する方法が考えられる。
【0079】
画像ファイルにレンズ情報を記録する場合には、Exifフォーマットのメーカーノートタグ部を利用することが考えられる。
次に、合焦画像生成処理について説明する。
図17は、合焦画像生成処理を示すフローチャートである。
合焦画像生成処理は、PC等の情報処理装置において、合焦画像を生成するために、ユーザが実行を指示することにより開始される。
【0080】
合焦画像生成処理が開始されると、情報処理装置は、メモリカード等、外部から画像を読み込み(ステップS401)、読み込んだ画像をグループに分類する(ステップS402)。なお、ステップS401において、メモリカード等の記憶媒体を介して読み込む場合以外にも、撮像装置1から直接読み込むことも可能である。
【0081】
次に、情報処理装置は、グループに分類された画像(グループ画像)それぞれからピントが合っている領域を抽出し(ステップS403)、そのグループ画像の処理が全て終了したか否かの判定を行う(ステップS404)。
ステップS404において、そのグループ画像の処理が全ては終了していないと判定した場合、情報処理装置は、ステップS403の処理に移行し、一方、そのグループ画像の処理が全て終了したと判定した場合、ステップS404において抽出された領域それぞれを合成し、画角内の全ての被写体にピントが合っている画像(合焦画像)を生成する(ステップS405)。なお、合焦画像の各画素には、その画素が属する領域の合焦距離のデータが付加されている。
【0082】
このように、撮像装置1においてはグループ画像の撮影のみを行い、情報処理装置において合焦画像の生成を行うこととすると、撮像装置1の処理負担が軽減される。
なお、本実施の形態において、撮影後補正処理を行う場合、撮影時に合焦距離あるいは被写界深度を変化させた場合を擬似的に再現するものとして説明したが、合焦距離あるいは被写界深度をより柔軟に変化させることも可能である。
【0083】
即ち、撮影時に合焦距離等を変化させた状態を物理的な正確性をもって再現する場合に加え、物理的に不可能な合焦距離あるいは被写界深度の状態を任意に再現することとしてもよい。
例えば、図8のように、2m、10m、500mの位置に被写体が存在する場合、物理的には、2mの位置と500mの位置にピントが合うことは不可能であるが、撮影後補正処理において、これらの距離に対応する領域を合焦状態とし、他の距離に対応する領域を合焦状態でない画像とすることにより、物理的に不可能な合焦状態を任意に再現することができる。
【0084】
図18は、任意に合焦状態を変更する場合のユーザインターフェースを示す図である。図18において、合焦画像、ピント位置スライダおよび被写界深度スライダは、図15に示すインターフェースと同様である。また、図18において、合焦画像には、レイヤ−1およびレイヤ−2の2つの領域が設定されており、図18(a)は、レイヤ−1の調整画面を、図18(b)は、レイヤ−2の調整画面を示している。
【0085】
レイヤ−1およびレイヤ−2に領域を区分けする基準としては、被写体までの距離によって区分けする方法や、ユーザが任意に領域を選択する方法等が可能であるが、ここでは、被写体までの距離が0〜50mの領域(レイヤ−1とする)と、50m〜∞の領域(レイヤ−2とする)とに区分けすることとする。なお、合焦画像の各画素は、合焦距離のデータを有していることから、画面の右半分と左半分に区分けすること等も可能であり、区分けの方法は任意である。
【0086】
図18(a)において、ピント位置スライダおよび被写界深度スライダの左に表示された小ウィンドウは操作対象領域を示す画面であり、操作対象外であるレイヤ−2の領域(背景の山等)については、画像がマスクされ、操作対象外であることがユーザに通知されている。ユーザは、図18(a)に示す調整画面において、操作対象領域であるレイヤ−1の領域について合焦距離や被写界深度を調整することが可能である。また、図18(a)の合焦画像においては、合焦距離を人物に合わせ、被写界深度を浅くすることにより、人物にのみピントが合い、建物はピントが合っていない状態に補正されている。
【0087】
なお、図18(a)において、レイヤ−2を示すタブをクリックすることにより、図18(b)の画面に移行する。
図18(b)の合焦画像においては、レイヤ−2の領域について、合焦距離を山に合わせ、山のピントが合った状態に補正されている。
したがって、近距離の人物と遠距離の山にピントが合い、中間の建物にピントが合わないという、物理的に不可能な合焦状態とすることができる。
【0088】
このような画像は、任意の位置にある被写体を強調する場合や、背景に移したくないものが写り込んでしまったため、目立たせないようにする場合等に利用することができる。
【図面の簡単な説明】
【図1】本発明を適用した撮像装置1の機能構成を示すブロック図である。
【図2】種々の合焦距離における焦点ずれ特性を示す図である。
【図3】画像データが取得された3つの特性曲線を示す図である。
【図4】画角内の各被写体の距離を、撮影された画像の画質に基づいて分類する例を示す概念図である。
【図5】特定の距離における被写体について、合焦距離が変化することに対応して画像が変化する特性を示す図である。
【図6】領域毎に同様の特性に従って変化する様子を示す概念図である。
【図7】撮像装置1が実行する画像撮影処理を示すフローチャートである。
【図8】被写体の撮影条件を示す図である。
【図9】グループ画像の例を示す図である。
【図10】ピントが合っている領域の画像の例を示す図である。
【図11】合焦画像の例を示す図である。
【図12】被写体までの距離と被写界深度の位置範囲との関係を示す図である。
【図13】撮像装置1が実行する撮影枚数決定処理を示すフローチャートである。
【図14】撮像装置1が実行する撮影後補正処理を示すフローチャートである。
【図15】撮影後補正処理のユーザインターフェースを示す図である。
【図16】グループ画像撮影処理を示すフローチャートである。
【図17】合焦画像生成処理を示すフローチャートである。
【図18】任意に合焦状態を変更する場合のユーザインターフェースを示す図である。
【符号の説明】
1 撮像装置,10 レンズユニット部,11 レンズ,12 絞り装置,13レンズ情報記憶装置,20 カメラユニット部,21 入力装置,22 中央演算装置,23 シャッタ装置,24 撮像素子,25 主記憶装置,26 補助記憶装置,27 表示装置,30 メモリユニット部,30 メモリユニット部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image capturing apparatus, an image data generating method, an image data processing apparatus, and an image data processing program for image data including distance information.
[0002]
[Prior art]
2. Description of the Related Art In recent years, digital cameras that digitally shoot an image using an image sensor have become widespread.
A digital camera has a feature that it is easier to correct a photographed image after photographing than a film camera. That is, in a film camera, the image quality of a printed photograph greatly depends on the conditions at the time of shooting, and although it is possible to correct the color tone and the exposure amount after shooting, the image quality is greatly affected. It is impossible to correct the focus shift (shift of the focusing distance). On the other hand, in a digital camera, in addition to correcting the color tone and the exposure amount after shooting, it is also possible to correct the out-of-focus by using a technique such as an unsharp mask or a blur.
[0003]
Here, conventionally, in order to more reliably photograph a high-quality photograph, a subject is photographed a plurality of times.
In particular, in the case of a film camera, in order to prevent a failure in photographing due to overexposure or underexposure, the exposure, by changing the aperture, the shutter speed, or the light emission amount of the flash by a predetermined amount with respect to the imaging conditions assumed to be appropriate. A plurality of shots are performed with different amounts.
[0004]
As a result of photographing in this manner, the plurality of developed photographs have different image quality, and it is possible to select an appropriate one from them.
In digital devices such as digital cameras and scanners, the same subject can be photographed a plurality of times under the same conditions, and the photographed data can be averaged to smooth random noise generated in the imaging device. Is being done.
[0005]
Further, Japanese Patent Application Laid-Open No. 2001-238128 discloses that an appropriate subject having a wide dynamic range is obtained by shooting a plurality of images of the same subject under different shooting conditions, extracting and combining appropriate exposure regions of the shot images. A technique for obtaining a saturation image has been disclosed. Although the present technology relates to an exposure amount, a similar method can be applied to a focus position.
[0006]
[Patent Document 1]
JP 2001-238128 A
[0007]
[Problems to be solved by the invention]
However, the technique described in Japanese Patent Application Laid-Open No. 2001-238128 generates a single image that is assumed to be optimal as a result of a predetermined process from a plurality of captured images. An image obtained as a result of the processing is uniquely determined.
[0008]
In other words, the technique described in Japanese Patent Application Laid-Open No. 2001-238128 is a technique for complementing a defect of an image obtained by one shooting by using another image obtained by performing a plurality of shootings. Yes, this was a common concept in other prior arts.
On the other hand, when the focus position intended at the time of photographing is not always appropriate in the photographed image, or when it is desired to change the in-focus range (depth of field) in the image, the focus is adjusted after the fact. A request to arbitrarily change the focal length may occur.
[0009]
In such a case, in the related art, for an out-of-focus area, the focus can be corrected, but in the image, the focus is shifted back and forth, and the depth of field is changed. It has been difficult to make a correction to change the focusing distance afterwards.
In a digital camera, since the area of the image sensor is small, it is necessary to stop down the light beam passing through the lens so as to have a constant area. For this reason, the depth of field tends to be deep, which is suitable for focusing on the entire screen like a landscape photograph, but focusing only on the main subject like a portrait It was difficult to blur. That is, in the digital camera, there is a problem that it is difficult to flexibly change the focusing distance at the time of shooting as compared with the film camera.
[0010]
An object of the present invention is to make it possible to flexibly correct a focusing distance of a captured image.
[0011]
[Means for Solving the Problems]
In order to solve the above problems, the present invention provides
An image capturing apparatus that captures light from a subject that has passed through a lens with an image capturing element and generates a digital image. The image capturing apparatus includes a plurality of images (for example, a plurality of images set at different focal lengths at the same angle of view corresponding to a release operation). A photographing means (for example, the lens unit 10 and the camera unit 20 in FIG. 1) for continuously photographing “group images” in the embodiment of the present invention, and photographing conditions of each of the plurality of images. The photographing condition acquiring means (for example, the lens unit 10 and the central processing unit 22 in FIG. 1) and the characteristics of the lens (for example, the transfer function of the lens 11 in the embodiment of the invention) or the characteristics of a predetermined lens (for example, Transfer function of a lens selected by a user such as a lens having a shallower depth of field than the provided lens), a plurality of images at different focal lengths, and a plurality of images. Image adjustment means (e.g., FIG. 5) for changing at least one of the focal length and the depth of field of a captured image based on the shooting conditions (for example, the focusing distance at the time of shooting). One lens information storage device 13 and a central processing unit 22).
[0012]
Further, the image adjusting means includes a focused area extracting means (for example, a central processing unit 22 in FIG. 1) for extracting a focused focused area in each of the plurality of images, and a characteristic of the lens or a predetermined characteristic. Focusing area adjusting means (for example, the lens information storage device 13 and the central processing unit 22 in FIG. 1) that changes the image of each of the focusing regions based on the characteristics of the lens and the shooting conditions. It is characterized by.
[0013]
Further, the in-focus area extracting means determines which of the plurality of images is in a more accurate in-focus state for each area in the angle of view of the plurality of images, and It is characterized in that an image of each region determined to be present is extracted.
Further, the imaging means sets the imaging conditions so that the depth of field range of the plurality of images is continuous.
[0014]
Further, based on each area extracted by the in-focus area extracting means, one image having the same angle of view as the plurality of images is generated, and the in-focus image storing means (for example, FIG. One memory unit 30) is further provided.
Further, the image processing apparatus further includes a group image storage unit (for example, the memory unit unit 30 in FIG. 1) that stores a plurality of images captured by the imaging unit in association with each other.
[0015]
Further, when the image is changed by the image adjusting means, an image of an out-of-focus area is generated based on an image other than the focused area in the plurality of images.
Further, the image adjustment means, when changing the focal distance or the depth of field of the captured image, the image assumed when the focal distance or the depth of field is changed at the time of shooting, physically It is characterized in that it is generated in a pseudo manner in accordance with various changes.
[0016]
Further, when changing the focal length or the depth of field of the photographed image, the image adjusting means may change the focal length or the depth of field for an arbitrary region within the angle of view to an arbitrary focal length or a depth of field. It is characterized by being possible.
That is, it is also possible to focus on the far and near areas and to blur the focus on the intermediate distance area without being restricted by the physical change mode.
[0017]
Also, the present invention
An image data generation method for generating image data that can be displayed on a display device,
Shooting a plurality of images set at different focusing distances at the same angle of view, for each area within the angle of view, determine which of the plurality of images is in a more accurate focus state, for each area, It is characterized in that image data including information on the color of the subject and information on the distance is generated by associating the information with the focusing distance of the image determined to be in a more accurate focusing state.
[0018]
Also, the present invention
An image data processing device capable of displaying an image based on digital image data, the image data processing device including: a focus distance of an image related to the image data based on image data including information on a color of a photographed subject and information on a distance. Alternatively, an image adjusting means for changing at least one of the depth of field afterward is provided, and an image of an arbitrarily set focusing distance or depth of field can be displayed.
[0019]
The image adjustment means includes a focus area extracting means for extracting a focused area in each of the plurality of images, a characteristic of a lens used for photographing or a characteristic of a predetermined lens, A focusing area adjusting unit that changes an image of each of the focusing areas based on the condition.
Further, the in-focus area extracting means determines which of the plurality of images is in a more accurate in-focus state for each area in the angle of view of the plurality of images, and The image of each area determined to be present may be extracted.
[0020]
The image processing apparatus further includes a focused image storage unit that generates one image having the same angle of view as the plurality of images based on each region extracted by the focused region extraction unit, and stores the one image. It may be.
Further, the image processing apparatus may further include a group image storage unit that stores a plurality of captured images in association with each other.
[0021]
When the image is changed by the image adjustment unit, an image of an out-of-focus area may be generated based on an image other than the focused area in the plurality of images.
Further, the image adjustment means, when changing the focal distance or the depth of field of the captured image, the image assumed when the focal distance or the depth of field is changed at the time of shooting, physically It may be generated in a pseudo manner in accordance with various changes.
[0022]
Further, the image adjusting means, when changing the focal distance or the depth of field of the photographed image, for an arbitrary area within the angle of view, by changing to an arbitrary focal distance or an arbitrary depth of field Is also good.
Also, the present invention
An image data processing program for displaying an image based on digital image data, the image data processing program focusing on an image related to the image data based on image data including information on a color of a photographed subject and information on a distance. At least one of the distance or the depth of field is realized by a computer with an image adjustment function of changing the ex post facto, and an image of an arbitrarily set focusing distance or a depth of field can be displayed. I have.
[0023]
The image adjustment function includes a focus area extraction function for extracting a focused area in each of the plurality of images, a characteristic of a lens used for photographing or a characteristic of a predetermined lens, A focusing area adjusting function for changing an image of each of the focusing areas based on the condition.
The in-focus area extracting function may determine which of the plurality of images is in a more accurate in-focus state for each area in the angle of view of the plurality of images, and in the more accurate in-focus state. The image of each area determined to be present may be extracted.
[0024]
Further, the apparatus further includes a focused image storage function of generating one image having the same angle of view as the plurality of images based on each area extracted by the focused area extraction function, and storing the one image. It may be.
Further, a group image storage function for storing a plurality of captured images in association with each other may be further provided.
[0025]
In the case where an image is changed by the image adjustment function, an image of an out-of-focus area may be generated based on an image other than a focused area in the plurality of images.
Further, the image adjustment function, when changing the focus distance or depth of field of the captured image, the image assumed when the focus distance or depth of field is changed at the time of shooting, the physical image It may be generated in a pseudo manner in accordance with various changes.
[0026]
Further, the image adjustment function, when changing the focus distance or depth of field of the captured image, for any area within the angle of view, by changing to any focus distance or depth of field Is also good.
According to the present invention, images of different focusing distances are taken at the same angle of view by the release operation, and the images and the characteristics of the lens used for shooting or the characteristics of other lenses and shooting conditions are taken. Based on this, an image in the case where the focusing distance is changed can be generated in a pseudo manner after photographing.
[0027]
Therefore, in a captured image, it is possible to flexibly change the focus distance, such as shifting the focus back and forth or changing the depth of field.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of an imaging device according to the present invention will be described with reference to the drawings.
The imaging apparatus according to the present invention continuously captures images focused on different positions at the same angle of view in response to a single release operation. Then, based on a plurality of captured images, it is possible to perform post-correction correction with a change in focusing distance, such as a correction for changing the focus of the captured image or a correction for changing the depth of field. It is a simple imaging device.
[0029]
First, the configuration will be described.
FIG. 1 is a block diagram illustrating a functional configuration of an imaging device 1 to which the present invention has been applied.
In FIG. 1, the imaging apparatus 1 includes a lens unit 10, a camera unit 20, and a memory unit 30. Each of these units can be either an integral structure or a detachable structure, but here, the description will be made assuming that the structure is detachable.
[0030]
The lens unit 10 further includes a lens 11, a diaphragm device 12, and a lens information storage device 13.
The lens 11 is an optical system including a plurality of lenses, and converges reflected light from a subject to form an image.
The diaphragm device 12 has a mechanism capable of changing the opening area by a plurality of blades, and adjusts the amount of light passing through the lens 11. The aperture area of the aperture device 12 is controlled by the central processing unit 22 of the camera unit 20.
[0031]
The lens information storage device 13 stores various information related to the lens 11 such as the transfer function of the lens 11, the depth of field corresponding to the aperture and the focusing distance, the current aperture value and the open aperture value, the focusing distance, and the focal length of the lens. Information is stored as lens information. This lens information is output to the camera unit 20 at the time of photographing or the like.
Here, the transfer function of the lens 11 is a function indicating the relationship between light from a subject incident on the lens 11 and its image formation, and is specified based on the optical characteristics of the lens 11. Therefore, the depth of field with respect to the aperture and the focusing distance can be calculated from the transfer function of the lens 11, but since the calculation involves a complicated calculation, a value calculated in advance is stored. Shall be. However, it is also possible to sequentially calculate the depth of field with respect to the aperture and the focusing distance.
[0032]
The camera unit 20 further includes an input device 21, a central processing unit 22, a shutter device 23, an image sensor 24, a main storage device 25, an auxiliary storage device 26, and a display device 27. .
The input device 21 includes a shutter button pressed by a user to capture an image, and a signal for pressing the shutter button is output to the central processing unit 22. Further, the input device 21 includes various buttons for setting at the time of photographing and processing the photographed image, and operation signals of these buttons are also output to the central processing unit 22. As various buttons, for example, the input device 21 includes a zoom button for adjusting an enlargement ratio when shooting, an aperture setting button for setting an aperture value, a shutter speed setting button for setting a shutter speed, A mode setting button or the like for changing a shooting mode provided in the imaging apparatus 1 is provided. Further, the input device 21 includes a focus position button for changing a focusing distance of a shot image and a depth of field adjustment button for changing a depth of field in a post-shooting correction process described later. Have been.
[0033]
The central processing unit 22 controls the entire image capturing apparatus 1, and reads, for example, an image capturing processing program or a post-photographing correction processing program described later from the auxiliary storage device 26, and executes the image capturing processing or the post-photographing correction processing. Alternatively, various programs for controlling the imaging apparatus 1 are read from the auxiliary storage device 26, and the respective programs are executed.
[0034]
Further, the central processing unit 22 receives a signal corresponding to an operation on the input device 21 and executes a predetermined process corresponding to each operation.
The shutter device 23 includes a mechanism for exposing the light passing through the lens 11 to the image sensor 24 for a predetermined time by performing an opening / closing operation. Note that the shutter device 23 performs an opening / closing operation based on an instruction signal input from the central processing unit 22 in response to the pressing of the shutter button.
[0035]
The imaging device 24 includes an element such as a CCD (Charge Coupled Diode) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. Is image data.
The main storage device 25 is configured by a memory such as an SDRAM (Synchronous Dynamic Random Access Memory), and temporarily holds various data generated when the imaging apparatus 1 operates.
[0036]
The auxiliary storage device 26 is configured by a nonvolatile memory such as a flash ROM, and stores an image photographing processing program, a post-photographing correction processing program, and various programs for controlling the image capturing apparatus 1.
The display device 27 is a small display device such as an LCD (Liquid Crystal Display), and displays an image captured by the imaging device 1, an image stored in the memory unit 30, and the like.
[0037]
The memory unit 30 is configured to include a removable storage medium such as a memory card, and can store a captured image, an image generated by a post-imaging correction process, and the like.
As described above, the imaging device 1 according to the present invention includes the lens unit 10 and the memory unit 30 which are detachable from the camera unit 20. The lens information about the lens 11 in the detachable lens unit 10 is recorded in a lens information storage device 13 built in the lens unit 10. The camera unit section 20 reads the lens information recorded in the lens information storage device 13 and stores it in the main storage device or the auxiliary storage device.
[0038]
Next, the operation will be described.
In describing the operation of the present invention, the basic concept of the present invention will be described step by step.
The imaging device 1 according to the present invention stores lens information including a transfer function of the lens 11 as lens information.
[0039]
Therefore, in the imaging apparatus 1, when the focusing distance is determined, a characteristic that an image of a subject existing at an arbitrary distance changes (hereinafter, referred to as “defocus characteristic”) is grasped.
FIG. 2 is a diagram showing defocus characteristics at various focusing distances. Note that FIG. 2 shows a case where elements other than the focusing distance are defined under specific conditions, in which the horizontal axis represents distance and the vertical axis represents image parameters. The image parameters are each element representing each pixel of the image, such as contrast, color or luminance. Further, in FIG. 2, the abscissa coordinate of the vertex of each characteristic curve indicates the focusing distance.
[0040]
As shown in FIG. 2, in the case of a specific focusing distance (when focusing on one characteristic curve), images of subjects located at various distances change as the focusing distance is increased (so-called out-of-focus state). ).
Further, when the focusing distance changes (when a series of different characteristic curves are noticed), the image of the subject located at a specific distance changes as the distance from the focusing distance increases.
[0041]
Furthermore, as the focusing distance is closer to the imaging device 1, the characteristic curve becomes steeper, and the change becomes more remarkable.
As described above, by capturing an image at a certain focusing distance in a state where the change state of the image is grasped, actual data corresponding to one of the characteristic curves shown in FIG. 2 is obtained.
[0042]
For example, it is assumed that an image is captured at three focusing distances of 2 m, 10 m, and 500 m. Then, image data corresponding to the three focusing distance characteristic curves among the characteristic curves shown in FIG. 2 is obtained.
FIG. 3 is a diagram showing three characteristic curves from which image data has been acquired.
In FIG. 3, for an object located within the depth of field based on three focusing distances, images that can be regarded as being in focus have been acquired. Further, with respect to these images, it is possible to estimate the manner in which the images change when the focusing distance is changed.
[0043]
In addition, since the ranges of the depth of field in the three images are continuously distributed with each other, at least one image that can be regarded as being in focus has been obtained for all the subjects within the angle of view. It will be.
Therefore, for each region of the image, it is determined whether the image at the focusing distance of 2 m, 10 m, or 500 m has the best image quality (focus is more accurately achieved). The determined distance is associated with each area.
[0044]
That is, as shown in FIG. 4, the distance of each subject within the angle of view is classified into one of 2 m, 10 m, and 500 m based on the image quality of the captured image, and I reckon.
Here, paying attention to a certain distance in FIG. 2, the characteristics when the focusing distance is changed can be grasped from a plurality of characteristic curves shown in FIG. For example, for a subject at a distance of 10 m, when the focusing distance is changed, it can be understood that the image changes as shown in FIG.
[0045]
Accordingly, in the case where the focusing distance is changed for the regions of the respective subjects classified as shown in FIG. 4, since the respective regions are regarded as having the same distance, FIG. As shown, it can be changed according to similar characteristics for each region.
FIG. 6 is a diagram illustrating a state in which the image of each region changes correspondingly when the focal distance of the captured image is changed.
[0046]
That is, based on the characteristics as shown in FIG. 5, by changing the focusing distance after shooting while associating the images of the respective regions, an image similar to the one obtained by changing the focusing distance during shooting is simulated. Can be generated dynamically.
Therefore, in the present invention, a plurality of images having different focusing distances are photographed by a single release operation, and the focusing distance is changed in the image to be corrected after photographing based on the plurality of photographed images. It is possible to make.
[0047]
At this time, the image generated when the focal distance is changed after shooting is based on the actually shot image, and the image shot with the focus distance actually changed is reproduced more accurately (Simulation generation). Further, by increasing the number of images to be photographed in one release operation, it is possible to more accurately reproduce an image obtained by changing the focusing distance after photographing.
[0048]
Hereinafter, a specific operation of the imaging device 1 to which the present invention is applied will be described.
First, the image photographing process will be described.
FIG. 7 is a flowchart illustrating an image photographing process performed by the imaging apparatus 1. The image photographing process is started in response to the depression of the shutter button.
In FIG. 7, when the image photographing process is started, the imaging apparatus 1 performs photographing by a release operation according to photographing conditions such as a distance to a subject (focusing distance), a focal length of the lens 11, an aperture value, and the like. A photographing number determination process (described later) for determining the number of a plurality of images (hereinafter, referred to as “group images”) is executed (step S1). In step S1, the focal distance of each image to be photographed is also determined so that the depth of field of the images to be photographed is continuous with each other in accordance with the number of group images.
[0049]
Next, the imaging device 1 shoots the group image determined in step S1, and adds a focusing distance to the shot image as data (step S2).
Then, the imaging apparatus 1 determines whether or not all the group images have been shot (step S3). If it is determined that all of the group images have not been shot, the process proceeds to step S2. .
[0050]
On the other hand, when it is determined in step S3 that the capturing of all the group images has been completed, the imaging apparatus 1 extracts a focused region from each of the captured group images (step S4).
Here, as a method for determining whether or not the captured image is in focus, for each pixel, an image captured at a different focusing distance is compared, and the contrast between adjacent pixels is maximized. There is a known method for selecting an item.
[0051]
Next, the imaging device 1 combines the regions extracted in step S4 to generate an image in which all the subjects within the angle of view are in focus (hereinafter, referred to as a “focused image”) ( Step S5). It should be noted that data of the focal distance of the area to which the pixel belongs is added to each pixel of the focused image.
Then, the imaging device 1 ends the image photographing process.
[0052]
As described above, by executing the image photographing process, for example, in the case of the photographing conditions shown in FIG. 8, the images of FIGS. 9A to 9C are photographed as a group image, and each of these images is The images (a) to (c) are extracted.
Then, based on the images shown in FIGS. 10A to 10C, the image shown in FIG. 11 is generated as a focused image.
[0053]
The data amount of the focused image shown in FIG. 11 is smaller than the sum of the data amounts of the images in FIGS. 9A to 9C. Therefore, in order to refer to the post-imaging correction processing described later, storing the focused image shown in FIG. 11 can use the storage capacity more efficiently.
However, it is also possible to store the images of FIGS. 9A to 9C, respectively. In this case, the image other than the region extracted in step S4, that is, the image of the subject out of focus is also included. Since the image is stored, it is possible to refer to an image in an out-of-focus area in a post-imaging correction process described later.
[0054]
Next, the number-of-shots determination process, which is a sub-flow in the above-described image shooting process, will be described.
The number-of-shots determination process is a process for determining the number of images to be captured as a group image. In order to determine the number of group images, the distance to the subject and the depth of field are important factors. First, these relationships will be described.
[0055]
FIG. 12 is a diagram showing the relationship between the distance to the subject and the position range of the depth of field (range of focus). FIG. 12A shows the case where the focal length of the lens 11 is long. (B) shows a case where the focal length of the lens 11 is short.
In general, the longer the focal length of the lens, the shallower the depth of field, and the smaller the aperture value (opening the aperture), the shallower the depth of field. Further, the shorter the distance to the subject, the shallower the depth of field.
[0056]
Therefore, in order to capture an in-focus image for all subjects included in the angle of view, each subject needs to be included at least once within the depth of field with respect to the focusing distance.
12A and 12B, the width of each line segment indicates the depth of field, and each subject within the angle of view is included at least once within the depth of field based on the focusing distance. This means that each line segment indicating the depth of field covers the entire range where the subject exists on the horizontal axis.
[0057]
That is, according to FIG. 12A, in the case of a shooting condition with a shallow depth of field, it is possible that a small number of images (here, seven images) can cover the entire angle of view at least within the depth of field. Understand. Conversely, according to FIG. 12B, it is understood that a large number of images (here, four images) are required in the case of a shooting condition with a large depth of field.
In order to obtain a more accurate in-focus image, it is ideal to change the in-focus distance at small intervals and to shoot a large number of group images. However, as the number of shots increases, the time required to shoot all of the group images increases, and it becomes necessary to hold the imaging device 1 in the same posture for a long time, and the required storage capacity also increases. Will increase.
[0058]
Therefore, in the photographing number determination process described below, group images are photographed in the range of about 3 to 10 images, and all the subjects within the angle of view are at least once in the depth of field based on the focusing distance. It is assumed that settings are included in the URL.
At this time, regarding the image at which focusing distance is to be photographed, a method of photographing by setting the focusing distance to a predetermined interval as shown in FIGS. 12A and 12B is possible. The method is suitable when the objects within the angle of view are continuously distributed from a short distance to a long distance.
[0059]
Further, when the main subjects present in the angle of view are distributed at discrete distances, for example, as shown in FIG. 8, a person is located at a short distance, a mountain is located at a distance of several hundred meters, and an intermediate distance between them. When buildings are distributed, the focal distance is set for the main subjects (persons, buildings, and mountains), and an image is taken by setting only those focal distances. It is possible to capture an image so as to complement the focal length.
[0060]
Hereinafter, the specific processing content of the photograph number determination processing will be described.
FIG. 13 is a flowchart illustrating the number-of-shots determination process performed by the imaging apparatus 1. The photographing number determination process is started in response to being called in step S1 of the image photographing process.
In FIG. 13, when the photographing number determination process is started, the imaging device 1 determines whether or not there is a change in the state of the lens 11 stored in the lens information storage device 13 (step S101).
[0061]
Here, the change of the state of the lens means that the focal length of the lens, the aperture value, and the distance to the subject change, and the AE (automatic exposure control) function automatically controls the aperture when a zoom operation is performed. This also includes cases where it is changed in some way.
Specifically, a change in the focal length of the lens means that the focal length is changed or the lens is replaced in the zoom lens. In addition, a change in the aperture value means that the photographer operates the aperture setting button to change the aperture, and a change in the distance to the subject means that the imaging device 1 or the subject moves. This means that the distance between the imaging device 1 and the subject changes.
[0062]
If it is determined in step S101 that there is no change in the state of the lens 11, the imaging device 1 determines whether or not the number of images to be captured as a group image is stored in the auxiliary storage device 26 (step S102). If it is determined that the number of images has been captured, the stored number of images is determined (step S103).
Then, the imaging device 1 ends the number-of-shots determination process.
[0063]
On the other hand, when it is determined in step S102 that the number of images to be captured as a group image is not stored in the auxiliary storage device 26, the imaging device 1 proceeds to the process of step S104.
If it is determined in step S101 that the state of the lens 11 has changed, the imaging device 1 reads lens information on the lens 11 from the lens information storage device 13 (step S104), and based on the read lens information, The number of images to be photographed as a group image is determined (step S105).
[0064]
Next, the imaging device 1 stores the number of images determined in step S105 in the auxiliary storage device 26 (step S106), and ends the number-of-images determination process.
Next, the post-shooting correction process will be described.
FIG. 14 is a flowchart illustrating a post-imaging correction process performed by the imaging apparatus 1. The post-shooting correction process is a process for changing the in-focus distance or the depth of field of the focused image generated by the image shooting process after shooting, and the user of the imaging apparatus 1 executes the post-shooting correction process. Is activated in response to the instruction of.
[0065]
In FIG. 14, when the post-shooting correction process is started, the imaging apparatus 1 reads the focused image and necessary lens information (the transfer function of the lens 11 and the like) (step S201), and displays the post-shooting correction process on the display device 27. Is displayed (step S202).
FIG. 15 is a diagram illustrating a user interface of the post-shooting correction process.
[0066]
In FIG. 15, the focus position slider for changing the focus distance indicates the focus distance of the displayed image. The focus position slider moves in response to the operation of the focus position button of the input device 21.
In FIG. 15, a depth of field slider for changing the depth of field indicates which aperture value corresponds to the depth of field. Further, the depth of field slider moves in response to the operation of the depth of field adjustment button of the input device 21.
[0067]
Returning to FIG. 14, the imaging apparatus 1 determines whether the focus position slider or the depth of field slider has been operated on the user interface (step S203), and the operation of the depth of field slider is performed. If it is determined that there is no image, the image of each area in the focused image is corrected according to the selected depth of field (step S204).
[0068]
On the other hand, when it is determined in step S203 that the focus position slider has been operated, the imaging device 1 corrects the image of each area in the focused image according to the selected focus position (step S205).
After step S204 and step S205, the imaging apparatus 1 determines whether or not the end of the post-imaging correction process has been instructed (step S206). If it is determined that the end of the post-imaging correction process has not been instructed, The process moves to step S203. On the other hand, if it is determined that the end of the post-shooting correction process has been instructed, the post-shooting correction process ends.
[0069]
As described above, the imaging apparatus 1 according to the present embodiment captures images at the same angle of view and at different focal lengths by a single release operation, and focuses on images based on those images and lens information. An image when the focal length is changed can be artificially generated after photographing.
Therefore, in a captured image, it is possible to flexibly change the focus distance, such as shifting the focus back and forth or changing the depth of field.
[0070]
Further, the data of the in-focus image generated in this manner includes information on the color of the subject (for example, information on each of R, G, and B) and information on the distance to the subject.
Therefore, the image data can be used as image data for a pseudo three-dimensional display or the like using parallax, and such image data can be easily obtained by applying the present invention.
[0071]
In the present embodiment, it has been described that the focused image is changed based on the transfer function of the lens 11 used for shooting, but the focused image is changed based on the transfer function of a lens other than the lens 11. It may be changed.
That is, a transfer function of a lens other than the lens 11 is stored as lens information, and a transfer function of an arbitrary lens can be selected and used in a post-imaging correction process or the like.
[0072]
In this case, by using a transfer function of a lens having a depth of field shallower than that of the lens 11 used for shooting, it is possible to easily obtain an image intended by the user, such as to obtain an image having a shallow depth of field. It becomes possible. That is, in a digital camera that tends to have a large depth of field, an image with a small depth of field can be easily acquired.
[0073]
Further, in the present embodiment, the imaging device 1 has been described as performing operations from capturing a group image to generating a focused image. However, the captured group images are stored in a memory card or the like and stored in a PC (Personal Computer). The data may be transferred to an information processing device such as (1), and a focused image generation process may be performed on the device.
Hereinafter, a process of capturing a group image (group image capturing process) and a process of generating a focused image (focused image generation process) will be described.
[0074]
First, the group image photographing process will be described.
In the group image photographing process, a plurality of photographed images are stored in association with each other after photographing a group image in the image photographing process shown in FIG.
FIG. 16 is a flowchart showing the group image photographing process.
In FIG. 16, the processing of steps S301 to S303 is the same as the processing of steps S1 to S3 of the image photographing processing shown in FIG. 7, respectively, and thus the description thereof will be omitted, and only the subsequent processing will be described.
[0075]
If it is determined in step S303 that the shooting of all the group images has been completed, the imaging device 1 stores the shot group images in association with each other (step S304).
Then, the imaging device 1 ends the group image photographing process.
Here, examples of a method of storing group images in association with each other include a method of identifying a group by an image file name and a method of identifying a group by a folder or a directory.
[0076]
When a group is identified by an image file name, the format of the file name can be configured by the group name and the file number. For example, file names such as “1343_1.jpg”, “1343_2.jpg”, and “1343_3.jpg” can be assigned to three group images captured at 13:43.
[0077]
When a group is identified by a folder or a directory, it is possible to create a folder or a directory with a group name, and store a group image with a file number in the folder or the directory. For example, in the case of three group images shot at 13:43, a folder having a folder name of “1343” is created, and “1.jpg”, “2.jpg”, and “3. jpg ”can be stored.
[0078]
As another method, a method may be considered in which information indicating that the photos in the group belong to the same group is added to an Exif (Exchangeable Image File Format) tag, and an application in the PC determines this.
In addition, it is necessary to record lens information used for photographing one group image. This lens information can be recorded in another file in the same layer as the image, embedded in a specific image file (for example, the first image captured in a group), or recorded in multiple image files. Conceivable.
[0079]
When recording lens information in an image file, it is conceivable to use a maker note tag section in Exif format.
Next, the focused image generation processing will be described.
FIG. 17 is a flowchart showing the focused image generation processing.
The in-focus image generation process is started by the user instructing execution in an information processing apparatus such as a PC in order to generate an in-focus image.
[0080]
When the in-focus image generation process is started, the information processing apparatus reads an image from an external device such as a memory card (step S401), and classifies the read images into groups (step S402). Note that, in step S401, in addition to the case where the data is read via a storage medium such as a memory card, the data may be directly read from the imaging device 1.
[0081]
Next, the information processing apparatus extracts an in-focus area from each of the images (group images) classified into the group (step S403), and determines whether or not all the processing of the group images has been completed. (Step S404).
If it is determined in step S404 that all the processing of the group image has not been completed, the information processing apparatus proceeds to the processing of step S403, while if it is determined that the processing of the group image has all been completed, The respective regions extracted in step S404 are combined to generate an image (focused image) in which all subjects within the angle of view are in focus (step S405). It should be noted that data of the focal distance of the area to which the pixel belongs is added to each pixel of the focused image.
[0082]
As described above, when only the group image is photographed in the imaging device 1 and the focused image is generated in the information processing device, the processing load on the imaging device 1 is reduced.
Note that, in the present embodiment, when the post-shooting correction processing is performed, the case where the focal distance or the depth of field is changed at the time of photographing is described as a pseudo reproduction, but the focusing distance or the It is also possible to change the depth more flexibly.
[0083]
In other words, in addition to reproducing the state in which the focusing distance and the like are changed at the time of shooting with physical accuracy, it is also possible to arbitrarily reproduce the state of the focusing distance or the depth of field that is physically impossible. Good.
For example, as shown in FIG. 8, when the subject exists at the positions of 2 m, 10 m, and 500 m, it is physically impossible to focus on the position of 2 m and the position of 500 m. In the above, the areas corresponding to these distances are set to the in-focus state, and the areas corresponding to the other distances are set to images that are not in the focus state, whereby a physically impossible focus state can be arbitrarily reproduced. .
[0084]
FIG. 18 is a diagram illustrating a user interface when the focus state is arbitrarily changed. 18, a focused image, a focus position slider, and a depth of field slider are the same as those in the interface shown in FIG. In addition, in FIG. 18, two regions of layer-1 and layer-2 are set in the focused image. FIG. 18A shows an adjustment screen of layer-1, and FIG. , Layer-2 adjustment screen.
[0085]
As a criterion for dividing an area into layer-1 and layer-2, a method of dividing an area by a distance to a subject, a method of arbitrarily selecting a region by a user, and the like are possible. It is divided into an area of 0 to 50 m (referred to as layer-1) and an area of 50 m to ∞ (referred to as layer-2). Since each pixel of the in-focus image has data of the in-focus distance, it can be divided into the right half and the left half of the screen, and the method of division is arbitrary.
[0086]
In FIG. 18A, a small window displayed to the left of the focus position slider and the depth of field slider is a screen showing the operation target area, and is a layer-2 area (such as a background mountain) that is not the operation target. For, the image is masked and the user is notified that the image is out of the operation target. On the adjustment screen shown in FIG. 18A, the user can adjust the focusing distance and the depth of field for the layer-1 area, which is the operation target area. Also, in the in-focus image of FIG. 18A, by adjusting the in-focus distance to the person and reducing the depth of field, only the person is in focus, and the building is corrected to be out of focus. ing.
[0087]
In addition, in FIG. 18A, by clicking the tab indicating the layer-2, the screen shifts to the screen of FIG. 18B.
In the in-focus image of FIG. 18B, the focus distance is adjusted to the mountain for the layer-2 area, and the area is corrected to be in focus.
Therefore, it is possible to achieve a physically impossible focusing state in which a person at a short distance is focused on a mountain at a long distance, and an intermediate building is not focused.
[0088]
Such an image can be used for emphasizing a subject at an arbitrary position, or for making an object that is not desired to be moved to the background less visible.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a functional configuration of an imaging apparatus 1 to which the present invention has been applied.
FIG. 2 is a diagram showing defocus characteristics at various focusing distances.
FIG. 3 is a diagram showing three characteristic curves from which image data has been acquired.
FIG. 4 is a conceptual diagram showing an example of classifying the distance of each subject within the angle of view based on the image quality of a captured image.
FIG. 5 is a diagram illustrating a characteristic that an image changes in response to a change in a focusing distance for a subject at a specific distance.
FIG. 6 is a conceptual diagram showing a state in which a region changes according to similar characteristics for each region.
FIG. 7 is a flowchart illustrating an image photographing process executed by the imaging apparatus 1.
FIG. 8 is a diagram showing photographing conditions of a subject.
FIG. 9 is a diagram illustrating an example of a group image.
FIG. 10 is a diagram illustrating an example of an image of a focused area.
FIG. 11 is a diagram illustrating an example of a focused image.
FIG. 12 is a diagram illustrating a relationship between a distance to a subject and a position range of a depth of field.
FIG. 13 is a flowchart showing the number-of-shots determination process executed by the imaging apparatus 1.
FIG. 14 is a flowchart illustrating a post-shooting correction process performed by the imaging apparatus 1.
FIG. 15 is a diagram illustrating a user interface of a post-shooting correction process.
FIG. 16 is a flowchart showing a group image photographing process.
FIG. 17 is a flowchart illustrating a focused image generation process.
FIG. 18 is a diagram illustrating a user interface when an in-focus state is arbitrarily changed.
[Explanation of symbols]
Reference Signs List 1 imaging device, 10 lens unit, 11 lens, 12 aperture device, 13 lens information storage device, 20 camera unit portion, 21 input device, 22 central processing unit, 23 shutter device, 24 imaging device, 25 main storage device, 26 Auxiliary storage device, 27 display device, 30 memory unit, 30 memory unit

Claims (12)

レンズを通過した被写体からの光を撮像素子によって撮影し、デジタル画像を生成する撮像装置であって、
レリーズ動作に対応して、同一画角で異なる合焦距離に設定された複数の画像を連続的に撮影する撮影手段と、
前記複数の画像それぞれの撮影条件を取得する撮影条件取得手段と、
前記レンズの特性あるいは所定のレンズの特性と、前記異なる合焦距離の複数の画像と、該複数の画像の撮影条件とに基づいて、撮影された画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整手段と、
を備えることを特徴とする撮像装置。
An imaging device that captures light from a subject that has passed through a lens with an imaging element and generates a digital image,
Photographing means for continuously photographing a plurality of images set at different focusing distances at the same angle of view corresponding to the release operation,
Shooting condition obtaining means for obtaining shooting conditions of each of the plurality of images,
Based on the characteristics of the lens or the characteristics of the predetermined lens, the plurality of images at the different focusing distances, and the shooting conditions of the plurality of images, at least the focusing distance or the depth of field of the captured image. An image adjustment means for changing one of them afterwards,
An imaging device comprising:
前記画像調整手段は、
前記複数の画像それぞれにおいて、ピントが合っている合焦領域を抽出する合焦領域抽出手段と、
前記レンズの特性あるいは所定のレンズの特性と、前記撮影条件とに基づいて、前記合焦領域それぞれの画像を変化させる合焦領域調整手段と、
を備えることを特徴とする請求項1記載の撮像装置。
The image adjustment means,
In each of the plurality of images, a focused area extracting unit that extracts a focused area that is in focus,
A focusing area adjusting unit that changes an image of each of the focusing areas based on the characteristics of the lens or the characteristics of a predetermined lens and the shooting conditions;
The imaging device according to claim 1, further comprising:
前記合焦領域抽出手段は、前記複数の画像の画角内における各領域について、該複数の画像のいずれがより正確な合焦状態であるかを判定し、より正確な合焦状態であると判定された各領域の画像を抽出することを特徴とする請求項2記載の撮像装置。The in-focus area extracting unit determines which of the plurality of images is in a more accurate in-focus state for each area in the angle of view of the plurality of images, and determines that the in-focus area is in a more accurate in-focus state. 3. The imaging device according to claim 2, wherein an image of each of the determined areas is extracted. 前記撮影手段は、前記複数の画像の被写界深度範囲が連続的となるように撮影条件を設定することを特徴とする請求項1〜3のいずれかに記載の撮像装置。The imaging apparatus according to claim 1, wherein the imaging unit sets the imaging conditions such that a depth of field range of the plurality of images is continuous. 前記合焦領域抽出手段によって抽出された各領域に基づいて、前記複数の画像と同一画角の1つの画像を生成し、該1つの画像を記憶する合焦画像記憶手段をさらに備えることを特徴とする請求項2〜4のいずれかに記載の撮像装置。The apparatus further includes a focused image storage unit that generates one image having the same angle of view as the plurality of images based on each region extracted by the focused region extraction unit, and stores the one image. The imaging device according to claim 2. 前記撮影手段によって撮影された複数の画像を関連付けて記憶するグループ画像記憶手段をさらに備えることを特徴とする請求項1〜4のいずれかに記載の撮像装置。The imaging apparatus according to claim 1, further comprising a group image storage unit that stores a plurality of images taken by the imaging unit in association with each other. 前記画像調整手段によって画像を変化させる場合に、前記複数の画像における合焦領域以外の画像に基づいて、ピントが合っていない領域の画像を生成することを特徴とする請求項2〜6のいずれかに記載の撮像装置。7. The image processing apparatus according to claim 2, wherein when the image is changed by the image adjusting unit, an image of an out-of-focus area is generated based on an image other than a focused area in the plurality of images. An imaging device according to any one of the above. 前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、撮影時に合焦距離あるいは被写界深度を変化させた場合に想定される画像を、物理的な変化態様に即して擬似的に生成することを特徴とする請求項1〜7のいずれかに記載の撮像装置。The image adjustment means, when changing the focus distance or depth of field of the captured image, the image assumed when the focus distance or depth of field is changed during shooting, physical change The imaging device according to claim 1, wherein the imaging device is generated in a pseudo manner in accordance with the mode. 前記画像調整手段は、撮影された画像の合焦距離あるいは被写界深度を変化させる際、画角内の任意の領域について、任意の合焦距離あるいは被写界深度に変化させることが可能であることを特徴とする請求項1〜7のいずれかに記載の撮像装置。The image adjusting means can change the focal distance or the depth of field of a captured image to an arbitrary focal distance or an arbitrary depth of field for an arbitrary area within the angle of view. The imaging device according to any one of claims 1 to 7, wherein: 表示装置上に表示可能な画像データを生成する画像データ生成方法であって、
同一画角で異なる合焦距離に設定された複数の画像を撮影し、画角内の各領域について、複数の画像のいずれがより正確な合焦状態であるかを判定し、各領域について、より正確な合焦状態であると判定された画像の合焦距離と対応づけることにより、被写体の色彩に関する情報と距離に関する情報とを含む画像データを生成することを特徴とする画像データ生成方法。
An image data generation method for generating image data that can be displayed on a display device,
Shooting a plurality of images set at different focusing distances at the same angle of view, for each area within the angle of view, determine which of the plurality of images is in a more accurate focus state, for each area, An image data generation method characterized by generating image data including information on a color of a subject and information on a distance by associating the image data with a focus distance of an image determined to be in a more accurate focus state.
デジタル画像データに基づいて画像を表示可能な画像データ処理装置であって、
撮影された被写体の色彩に関する情報と距離に関する情報とを含む画像データに基づいて、該画像データに係る画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整手段を備え、
任意に設定された合焦距離あるいは被写界深度の画像を表示可能であることを特徴とする画像データ処理装置。
An image data processing device capable of displaying an image based on digital image data,
Image adjustment means for changing at least one of a focal distance and a depth of field of an image related to the image data based on image data including information on a color of a photographed subject and information on a distance. With
An image data processing apparatus capable of displaying an image having an arbitrarily set focusing distance or depth of field.
デジタル画像データに基づいて画像を表示するための画像データ処理プログラムであって、
撮影された被写体の色彩に関する情報と距離に関する情報とを含む画像データに基づいて、該画像データに係る画像の合焦距離あるいは被写界深度の少なくともいずれかを、事後的に変化させる画像調整機能をコンピュータに実現させ、
任意に設定された合焦距離あるいは被写界深度の画像を表示可能とすることを特徴とする画像データ処理プログラム。
An image data processing program for displaying an image based on digital image data,
An image adjustment function for changing at least one of a focal distance and a depth of field of an image related to the image data based on image data including information on a color of a photographed subject and information on a distance. To the computer,
An image data processing program capable of displaying an image having an arbitrarily set focusing distance or depth of field.
JP2003077644A 2003-03-20 2003-03-20 Imaging device, image data generation method, image data processing device, and image data processing program Pending JP2004289383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077644A JP2004289383A (en) 2003-03-20 2003-03-20 Imaging device, image data generation method, image data processing device, and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077644A JP2004289383A (en) 2003-03-20 2003-03-20 Imaging device, image data generation method, image data processing device, and image data processing program

Publications (1)

Publication Number Publication Date
JP2004289383A true JP2004289383A (en) 2004-10-14

Family

ID=33292344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077644A Pending JP2004289383A (en) 2003-03-20 2003-03-20 Imaging device, image data generation method, image data processing device, and image data processing program

Country Status (1)

Country Link
JP (1) JP2004289383A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162724A (en) * 2004-12-03 2006-06-22 Casio Comput Co Ltd Camera apparatus and photographing control program
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008292894A (en) * 2007-05-28 2008-12-04 Nikon Corp Image tracking device, image tracking method, and imaging device
JP2009290816A (en) * 2008-06-02 2009-12-10 Nikon Corp Camera
JP2010183477A (en) * 2009-02-09 2010-08-19 Nikon Corp Imaging apparatus and image display device
JP2014220564A (en) * 2013-05-01 2014-11-20 キヤノン株式会社 Image reproducing device, image reproducing method, program, and imaging device
JP2015065635A (en) * 2013-08-29 2015-04-09 株式会社Jvcケンウッド Imaging apparatus, and method for color correction of captured image
JP2015079519A (en) * 2014-11-04 2015-04-23 ソニー株式会社 Image processing device, image processing method, and image processing program
JP2016178706A (en) * 2016-07-07 2016-10-06 キヤノン株式会社 Image reproducing apparatus and control method of the same
US9503629B2 (en) 2010-03-19 2016-11-22 Sony Corporation Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
JP2017161941A (en) * 2017-06-07 2017-09-14 キヤノン株式会社 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
US10021309B2 (en) 2012-06-15 2018-07-10 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
JP2020092372A (en) * 2018-12-07 2020-06-11 キヤノン株式会社 Image processing apparatus and control method of the same
CN114554086A (en) * 2022-02-10 2022-05-27 支付宝(杭州)信息技术有限公司 Auxiliary shooting method and device and electronic equipment
WO2025205729A1 (en) * 2024-03-29 2025-10-02 富士フイルム株式会社 Information processing device, imaging device, information processing method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162724A (en) * 2004-12-03 2006-06-22 Casio Comput Co Ltd Camera apparatus and photographing control program
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2008292894A (en) * 2007-05-28 2008-12-04 Nikon Corp Image tracking device, image tracking method, and imaging device
US8254773B2 (en) 2007-05-28 2012-08-28 Nikon Corporation Image tracking apparatus and tracking evaluation method
JP2009290816A (en) * 2008-06-02 2009-12-10 Nikon Corp Camera
JP2010183477A (en) * 2009-02-09 2010-08-19 Nikon Corp Imaging apparatus and image display device
US9503629B2 (en) 2010-03-19 2016-11-22 Sony Corporation Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
US10021309B2 (en) 2012-06-15 2018-07-10 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
JP2014220564A (en) * 2013-05-01 2014-11-20 キヤノン株式会社 Image reproducing device, image reproducing method, program, and imaging device
JP2015065635A (en) * 2013-08-29 2015-04-09 株式会社Jvcケンウッド Imaging apparatus, and method for color correction of captured image
JP2015079519A (en) * 2014-11-04 2015-04-23 ソニー株式会社 Image processing device, image processing method, and image processing program
JP2016178706A (en) * 2016-07-07 2016-10-06 キヤノン株式会社 Image reproducing apparatus and control method of the same
JP2017161941A (en) * 2017-06-07 2017-09-14 キヤノン株式会社 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP2020092372A (en) * 2018-12-07 2020-06-11 キヤノン株式会社 Image processing apparatus and control method of the same
JP7242278B2 (en) 2018-12-07 2023-03-20 キヤノン株式会社 Image processing device and its control method
CN114554086A (en) * 2022-02-10 2022-05-27 支付宝(杭州)信息技术有限公司 Auxiliary shooting method and device and electronic equipment
WO2025205729A1 (en) * 2024-03-29 2025-10-02 富士フイルム株式会社 Information processing device, imaging device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5454158B2 (en) Imaging apparatus, control method thereof, and program
JP3873994B2 (en) Imaging apparatus and image acquisition method
KR100942634B1 (en) Image Correction Device, Image Correction Method and Computer-readable Media
US7668451B2 (en) System for and method of taking image
CN104205797B (en) Camera head
KR20110043162A (en) Multiple exposure control device and method
CN103108133A (en) Imaging device
JP4533119B2 (en) Imaging device and image display method of imaging device
JP2004289383A (en) Imaging device, image data generation method, image data processing device, and image data processing program
US20020060739A1 (en) Image capture device and method of image processing
JP4360318B2 (en) Digital still camera
JP5277863B2 (en) Imaging apparatus and imaging method
JP2006050149A (en) Panning photographic method and photographing apparatus
JP3974798B2 (en) Imaging device
JP2019047365A (en) Image processing apparatus, image processing apparatus control method, imaging apparatus, and program
JP2009124602A (en) Imaging apparatus and control method thereof
JP5406619B2 (en) MOVING IMAGE REPRODUCTION DEVICE, IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2006308813A (en) Imaging apparatus with focus bracket function
JP2019029778A (en) Imaging apparatus, image processing apparatus, image processing method
JP2009139423A (en) Imaging apparatus and subject distance calculation method
JP2008209760A (en) Photographing method and photographing apparatus
JP2007019726A (en) Imaging apparatus
JPH10136298A (en) Camera and printer
JP4887840B2 (en) Imaging apparatus and program