JP2015041865A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2015041865A JP2015041865A JP2013171638A JP2013171638A JP2015041865A JP 2015041865 A JP2015041865 A JP 2015041865A JP 2013171638 A JP2013171638 A JP 2013171638A JP 2013171638 A JP2013171638 A JP 2013171638A JP 2015041865 A JP2015041865 A JP 2015041865A
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- image
- background
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】 フォーカスの異なる複数枚の撮影画像からエッジ情報を用いて被写体領域と背景領域を判別する際に、精度良く領域判別して背景領域のみにぼかし処理を行う。
【解決手段】 前記撮影画像にぼかし処理を行うぼかし処理ステップと、前記ぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、領域判別ステップにて得られた領域判別結果に従って合成し、背景領域のぼけた合成画像を生成する合成ステップを備え、領域判別ステップでは、第1の領域の大きさで領域判別を行った後に、前記第1の領域判別の領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする。
【選択図】 図1
【解決手段】 前記撮影画像にぼかし処理を行うぼかし処理ステップと、前記ぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、領域判別ステップにて得られた領域判別結果に従って合成し、背景領域のぼけた合成画像を生成する合成ステップを備え、領域判別ステップでは、第1の領域の大きさで領域判別を行った後に、前記第1の領域判別の領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする。
【選択図】 図1
Description
本発明は、撮影された画像について被写体と背景の領域を判別する技術に関するものである。
画像処理にて疑似的に背景にぼかし効果を与える機能を実現したコンパクトデジタルカメラが数多く開発されている。その手法の一例として、合焦位置を変化させて複数枚の画像データを撮影し、その差分情報により被写体領域と背景領域とを判別し、背景領域の画像データにぼかし処理を行って被写体領域の画像データと合成する方法が挙げられる。
特許文献1では、被写体に合焦した画像と無現遠に合焦した画像について高周波成分のパワーを比較することで被写体領域と背景領域を判別する技術が開示されている。
特許文献1では、被写体に合焦した画像と無現遠に合焦した画像について高周波成分のパワーを比較することで、被写体領域と背景領域を判別することを可能としている。
しかしながら、高周波成分が大きい被写体では有効であるが、被写体および背景が低コントラストシーンの場合には高周波成分が小さいため、被写体と背景の領域について誤判別してしまう問題が生じる。
そこで本発明の目的は、被写体の背景をぼかした画像を生成する際に適切な被写体領域と背景領域の判別が可能である画像処理装置を提供することである。
前述の課題を解決するために本発明の画像処理装置は、焦点位置の異なる複数枚の撮影画像を取得する取得手段と、前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別手段と、前記撮影画像にぼかし処理を行うぼかし処理手段と、前記ぼかし処理手段によるぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別手段によって得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成手段と、を備え、前記領域判別手段は、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域判別の領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする。
本発明の画像処理装置によれば、被写体の背景をぼかした画像を生成する際に適切な被写体領域と背景領域の判別が可能である。
(第1の実施形態)
図1は本発明の実施形態を適用した画像処理装置を備える撮像装置の概略構成を示す図である。
図1は本発明の実施形態を適用した画像処理装置を備える撮像装置の概略構成を示す図である。
本実施形態の撮像装置は光学系101およびフォーカスレンズ102を備え、これらにより入射した光を固体撮像素子上に結像させることで被写体を撮像する。光学系制御部103は、光学系101の露出(シャッタ速度および絞り値)やズーム、光学式ブレ補正等を制御し、フォーカスレンズ駆動制御部104はフォーカスレンズ102の制御を行う。フォーカスレンズ駆動制御部104は、画像データのコントラスト信号や、固体撮像素子105の撮像面や固体撮像素子105とは別途設けられた測距センサからの信号によってフォーカスレンズ102を駆動しAF(オートフォーカス)制御を行う。固体撮像素子105は、例えばベイヤー配列などの撮像面上のRGBカラーフィルタを通して結像させた光学像を電気信号に変換する。撮像系制御部106は、固体撮像素子105を駆動するための制御系である。アナログ信号処理部107は、固体撮像素子105の出力にクランプ、ゲインをかける等の処理を行う。アナログ/デジタル(A/D)変換部108は、アナログ信号のデジタル変換を行い画像データとして出力する。本実施形態では、光学系101からA/D変換部108までを含めて撮像手段とし、撮像装置は、撮像手段から出力された画像データを単独、または連続して複数フレーム記録することで静止画及び動画を撮影可能としている。また、本発明の画像処理装置は必ずしも撮像機能を有している必要はなく、予め記憶された画像データを読み出すことで取得してもよい。
デジタル信号処理部109は、A/D変換されたデジタル画像データの現像処理および圧縮処理を行って出力画像データを生成する。デジタル信号処理部109の行う現像処理とは例えば、デモザイキング処理、ホワイトバランス処理、シェーディング補正処理、色空間変換処理、ガンマ処理等のことである。内部記憶部110は、デジタル信号処理部109にて出力画像データを生成する際の画像データや、ライブ画像を表示する電子ビューファインダ(以下EVFと記す)動作用の画像データなどを一時的に格納する。
インターフェース(I/F)部111は、生成された出力画像データを最終的に保存するための外部記録装置とつながっている。画像表示部112は、EVF動作の表示機能を備え、ライブ画像のほか撮像装置の撮影条件等の各種設定情報などを表示する。
システム制御部113は、後述するフローチャートに従って光学系制御部103やフォーカスレンズ駆動制御部104、撮像系制御部106などのシステム全体の制御を行う。なお、114は撮影スタンバイ動作を行うためのスイッチ(以下SW1と記す)、115はSW1の操作後、撮影を行う撮影スイッチ(以下SW2と記す)、116はシステムに電源を投入するためのメインスイッチ(以下メインSWと記す)である。
図2は図1におけるデジタル信号処理部109の構成の一例を示す図である。
入力した画像信号は、輝度信号処理を施す輝度信号処理部201と色信号処理を施す色信号処理部202を経て背景ぼかし画像生成部203に入力される。内部記憶部110は背景ぼかし処理時の一時記憶用途で使われる。画像圧縮部204にて圧縮して出力した画像信号は、インターフェース部111を介して外部記録装置に保存する。
さらに、背景ぼかし画像生成部203は、エッジ検出部205、エッジ積分値算出部206、エッジ積分値評価部207、領域マップ生成部208、ぼかし処理部209、画像合成部210から構成される。背景ぼかしが造成西部203は、各種処理の履歴情報など必要に応じて内部記憶部110に一時記憶する。
図3は本発明の実施例を適用した撮像装置の撮影動作を表すフローチャート図である。
まず、ステップS301ではシステムに電源を投入するメインSWの状態を検出し、ONであればステップS302へ進む。ステップS302ではインターフェース部111を介した外部記録装置の残容量を調べ、残容量が0であればステップS303へ進み、そうでなければステップS304へ進む。ステップS303では残容量が0であることを警告してステップS301に戻る。警告は画像表示部112に表示するか又は図示しない音声出力部から警告音を出すか、又はその両方を行ってもよい。
ステップS304では、撮像手段から出力されたライブ画像を画像表示部112に表示するEVF動作を行う。ステップS305ではスイッチSW1の状態を調べ、ONであればステップS307へ進み、そうでなければステップS306へ進む。ここでSW1の機能は、AFやAE(自動露出制御)などの撮影スタンバイ動作を行うことである。ステップS306ではメインSWの状態を調べ、ONであればステップS304へ、そうでなければステップS301へ進む。ステップS307では光学系制御部103を介してAE処理を行い、ステップS308ではフォーカスレンズ駆動制御部104を介してAF処理を行う。
撮影スタンバイ動作を済ませた後のステップS309は、SW2のONによる撮影動作スタート前準備状態であり、撮像手段から出力されたライブ画像を画像表示部112に表示して、撮影者のSW2操作を待つ。
ステップS310ではSW2の状態を調べ、ONであればステップS312へ、そうでなければステップS311へ進む。ここに、SW2の機能はSW1の操作後撮影動作を開始することである。ステップS311ではSW1の状態を調べ、ONであればステップS309へ戻り、そうでなければステップS304へ戻る。ステップS312では後述する図4のフローチャートにしたがって撮影動作を行う。ステップS313ではインターフェース部111を介した外部記録装置の残容量を調べ、残容量が0であればステップS303へ進み、そうでなければステップS314へ進む。ステップS314ではSW2の状態を調べ、ONでなければステップS311へ進む。
図4は、図3のフローチャートにおける撮影のサブルーチンのフローチャート図である。
本フローチャートは、背景ぼかし処理用に2枚の画像を撮影し、背景ぼかし生成部203による背景ぼかし処理画像を生成するまでの処理のフローを示す。
本実施例においては、主要被写体に合焦した画像(以下、本画像と記す)と、背景にフォーカスが合う方向にフォーカスレンズを移動して撮影した背景検出用画像の、焦点位置の異なる2枚の画像を撮影する。ただし、焦点位置を異ならせて撮影する画像の数はこれに限らず、複数枚であればよい。
まず、ステップS401では、図3のフローチャートにおけるステップS308のAF処理にて設定された、主要被写体に合焦したフォーカスレンズ位置にて本画像の撮影を行う。
ステップS402では、背景検出用画像の撮影のためフォーカスレンズを移動する。フォーカスレンズの移動量は絞りや焦点距離などの撮影条件別にあらかじめ設定され、本画像と背景検出用画像の2つの画像のフォーカス状態の違いから生じる鮮鋭度変化から背景領域を検出可能なフォーカスレンズ移動量である。
ステップS403では、ステップS402で移動した後のフォーカスレンズ位置で、背景検出用画像を撮影する。
ここまでの撮影処理で、主要被写体に合焦した本画像と、より背景に合焦した背景検出用画像の2枚の撮影画像を得ることができた。以下は、背景ぼかし生成部203による背景ぼかし処理のフローである。
ステップS404においてエッジ検出部205は、本画像と背景検出用画像の2枚の撮影画像の輝度信号についてエッジ検出を行い、それぞれエッジ画像(エッジ情報)を得る。ここで、輝度信号のエッジとは、撮影画像にバンドパスフィルタ処理を施して得られるものとする。また、エッジの抽出方法は他の手法を用いても良い。
ステップS405では、エッジ積分値算出部206およびエッジ積分値評価部207により後述する図5のフローチャートにしたがって、ステップS404で得られたエッジ画像に対して領域判別を行う。
ステップS406において領域マップ生成部208は、ステップS405における領域判別結果に基づき、被写体領域と背景領域が判別可能な切り出しマップを生成する。切り出しマップ生成時には、背景領域と主要被写体領域の境界における不連続部分を目立たなくさせるため、ローパスフィルタをかけるなどしてもよい。本実施形態では、切り出しマップとして、被写体領域を255、背景領域を0、境界部領域はその中間値として、画素ごとの合成比率を8bitの画素値で表現した画像形式で生成している。しかし、マップの形式としてはこれに限らない。
ステップS407においてぼかし処理部209は、本画像に切り出しマップに基づくぼかし処理を行い、背景ぼけ画像を生成する。ぼかし処理は、例えばぼけ味のきれいなレンズ特性を反映させたフィルタを選択するなどして、より好印象な背景ぼかし処理が可能となる。
ステップS408において画像合成部210は、切り出しマップに基づいて、被写体に合焦した(ぼかし処理なしの)本画像と、本画像にぼかし処理を行った背景ぼけ画像から画像合成を行う。
具体的には、画像合成部210は、切り出しマップの画素値から求まるα[i,j](0≦α≦255)に基づき、被写体に合焦した本画像IMG1と背景ぼけ画像IMG2の画像合成を行い、合成画像Bを生成する。画像合成部210は、合成画像Bの各画素B[i,j]を以下の式(1)を用いて算出する。
B[i,j]=IMG1[i,j]*α[i,j]/255+IMG2[i,j]*(1−α)/255 ・・・式(1)
B[i,j]=IMG1[i,j]*α[i,j]/255+IMG2[i,j]*(1−α)/255 ・・・式(1)
図5は図4のフローチャートのステップS405における領域判別の処理を説明する図である。図5(a)は領域判別の処理のフローチャート図、図5(b)は図5(a)の領域判別の処理のフローチャートにおける領域評価の処理のフローチャート図、図5(c)は領域分割の説明図である。
図5(a)のフローチャートは、複数領域に分割、各領域を評価、孤立評価結果領域を補正、というサイクルを複数回行う。まず、比較的粗い領域分割(第1の領域の大きさで領域分割)にて実施した後に、被写体領域でも背景領域でもない中間領域、低コントラスト領域について、細かい領域分割(第1の領域の大きさより小さい第2の領域の大きさで領域分割)にて実施する。
ステップS501では画像全体を対象として複数の領域に分割する。分割を適用する画像は、図4のフローチャートステップS404で得られた本画像と背景検出用画像の各エッジ画像であり、領域分割は2つの画像で対応づけられている。
ステップS502では、エッジ積分値算出部206およびエッジ積分値評価部207において、後述する図5(b)のフローチャートにしたがって、ステップS501で分割設定した各領域について領域評価を行う。領域評価結果は、エッジ積分値と被写体比率に応じて、被写体領域、背景領域、境界領域および低コントラスト領域、のいずれかの評価結果が得られる。
ステップS503では、ステップS502の領域評価結果が周囲の領域の評価結果に対し孤立した領域について、評価結果を周りの評価結果に合わせる(反映させる)補正により孤立領域を除去する。
ステップS504では孤立領域除去後の領域評価結果が境界領域および低コントラスト領域であった分割領域を対象として、ステップS501で設定したサイズよりも細かいサイズにて領域分割を行う。分割を適用する画像はステップS501と同様、図4のフローチャートステップS404で得られた本画像と背景検出用画像の各エッジ画像であり、また領域分割は2つの画像で共通である。
ステップS505では、ステップS502と同様にステップS504で設定した各領域について領域評価を行う。ステップS506では、ステップS503と同様にステップS505の領域評価結果が周りの領域の評価結果に対し孤立した領域について、評価結果を周りの評価結果に合わせる(反映させる)補正により孤立領域を除去する。
このようにステップS504にて再度細かく領域分割された領域と再度細かく領域分割されなかった領域とで、粗い領域分割による領域評価結果と細かい領域分割による領域評価結果がそれぞれ最終的な領域判別結果となる。
次に、図5(b)の領域評価の処理のフローチャート図について説明する。ここでは着目するひとつの分割領域に対する領域評価を求めるフローとして説明する。しかし、図5(a)のフローチャートのステップS502またはステップS505においては、領域評価対象となる分割領域それぞれについて図5(b)の領域評価のサブルーチンを実施する。
ステップS511ではエッジ積分値算出部206にて、図4のフローチャートステップS404で得られた本画像のエッジ画像と背景検出用画像のエッジ画像の2つの画像に対して、着目する分割領域のエッジ積分値を算出する。以下、ステップS512〜S518は領域ごとに処理が行われる。
ステップS512ではエッジ積分値評価部207おいて、着目領域における本画像のエッジ画像より求めたエッジ積分値と背景検出用画像のエッジ画像より求めた積分値を足し合わせた総エッジ積分値が所定閾値以上であるか調べる。総エッジ積分値が所定閾値以上であればステップS514へ進み、そうでなければステップS513へ進む。
ステップS513では、着目領域の総エッジ積分値は所定閾値未満であることから、着目領域の領域評価結果を低コントラスト領域とする。
ステップS514ではエッジ積分値評価部207おいて、本画像のエッジ画像より求めたエッジ積分値を背景検出用画像のエッジ画像より求めた積分値により除算した被写体比率の値が所定被写体閾値以上であるか調べる。被写体比率が所定被写体閾値以上であればステップS515へ進み、そうでなければステップS516へ進む。被写体比率は、本画像と背景検出用画像でピントが異なりエッジ成分が異なる被写体領域では高く算出され、背景領域では低く検出されるはずである。
ステップS515では、被写体比率の値が所定被写体閾値以上の領域で被写体領域であることから、着目領域の領域評価結果を被写体領域とする。前述したように、切り出しマップは、被写体領域を255、背景領域を0、境界部領域はその中間値として、画素ごとの合成比率を8bitの画素値で表現した画像形式で生成しているので、被写体領域として認定される領域には255を割り当てる。
ステップS516ではエッジ積分値評価部207おいて、被写体比率の値が所定背景閾値未満であるか調べ、所定背景閾値未満であればステップS517へ進み、そうでなければステップS518へ進む。
ステップS517では、被写体比率の値が所定背景閾値未満であることから、着目領域の領域評価結果を背景領域として切り出しマップではゼロを割り当てる。
ステップS518では、被写体比率の値から被写体領域か背景領域か判別が困難であるため、着目領域の領域評価結果を境界領域として切り出しマップでは0から255の中間値を割り当てる。
被写体比率の値は、着目領域が被写体あるいは背景で占められる場合には、所定被写体閾値あるいは所定背景閾値により被写体であるか背景であるかの領域評価が可能である。しかし、どちらでもない場合には、例えば被写体と背景の境界で面積的に半分ずつ占めるような着目領域であることが考えられるため、領域評価結果は境界領域とする。
このようにして着目領域ごとに領域評価を行うが、図5(a)のフローチャートステップS502の粗い分割領域による領域評価時と、図5(a)のフローチャートステップS505の細かい分割領域による領域評価時では、各所定閾値は異なる設定を行う。これは着目領域のサイズ違いによる理由の他、粗い分割領域による領域評価時には、境界領域と判別されても次に細かい分割領域により再度領域評価される。しかし、細かい分割領域による領域判別ではさらなる再評価をしないため、なるべく境界領域の判定を減らす必要があるためである。また細かい分割領域による領域評価結果が境界領域判定であった場合には、粗い分割領域におけるエッジ積分値を考慮して領域評価結果を補正しても良い。
図5(c)の領域分割の説明図について説明する。c−0は背景ぼかし処理を行う画像の全体図で、c−1〜c−3は領域判別および領域評価における領域分割処理について一例を示した図である。なお、c−1〜c−3はc−0に示した主被写体の右耳付近の領域のみを、簡単のため切り出して示した図である。
c−1は粗い領域分割による領域評価結果を示した図、c−2はc−1の境界領域を細かい領域分割による領域評価結果を示した図、c−3は本実施例の効果を分かりやすく比較する例として最初から細かい領域分割による領域評価結果を示した図である。
c−3のように最初から細かい領域判別を行った場合には、白飛びした肌部や表面に光沢のある金属面を持つイヤリングなどは低コントラストと判定されやすい問題があり、被写体領域であるにもかかわらず背景領域と誤って処理されるエラーの危険性が高い。一方で本実施例に示すようにc−1の後にc−2と分割領域を2段階として領域判別した場合には、粗い分割領域ではエッジ積分値が大きな値で得られる。また、低コントラスト判定された場合でも前述の孤立領域除去のような簡単な領域結果の補正が可能な利点がある。一般的な人物シーンなどに境界領域が比較的単純なシーンにおいては、例えば人の顔の一部を背景領域としてぼかし処理してしまうことなく、被写体と背景の領域判別を行うことが可能である。
また、境界領域は細かい分割領域で第2の領域判別を行っているため、切り出しマップに必要な分解能も確保される。そして、再度領域判別を行う境界領域はその面積が限られるため、領域判別処理にかかる演算時間の増大も、画面全体を再度領域判別する場合と比較して少なくて済む。
本実施例の図5(a)のフローチャートステップS503およびステップS506において、エッジ積分値による領域評価結果を周辺領域との関係のみで補正しているが、これに限定されるものではない。例えば、各分割領域の色信号を利用して分割領域のグループ化処理を行うことで、同グループの領域評価結果にて補正するなど、各分割領域の色情報を領域判別の補助情報として用いてもよい。また、パターンマッチング等による公知の顔検出の結果の顔検出情報(被写体検出情報)を、主被写体領域を求める補助情報として用いてもよい。
以上のように、本実施形態では、被写体と背景の領域判別における誤判別をなくして背景領域のみにぼかし処理を行う画像処理装置を提供することが可能となる。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。
また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。
101 光学系
102 フォーカスレンズ
103 光学系制御部
104 フォーカスレンズ駆動制御部
105 撮像素子
106 撮像系制御部
107 アナログ信号処理部
108 A/D変換部
109 デジタル信号処理部
110 内部記憶部
111 I/F
112 画像表示部
113 システム制御部
114 SW1
115 SW2
116 メインSW
102 フォーカスレンズ
103 光学系制御部
104 フォーカスレンズ駆動制御部
105 撮像素子
106 撮像系制御部
107 アナログ信号処理部
108 A/D変換部
109 デジタル信号処理部
110 内部記憶部
111 I/F
112 画像表示部
113 システム制御部
114 SW1
115 SW2
116 メインSW
Claims (8)
- 焦点位置の異なる複数枚の撮影画像を取得する取得手段と、
前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別手段と、
前記撮影画像にぼかし処理を行うぼかし処理手段と、
前記ぼかし処理手段によるぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別手段によって得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成手段と、を備え、
前記領域判別手段は、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域の大きさでの領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする画像処理装置。 - 前記領域判別手段は、周囲の領域とは異なる判別結果である領域について、周囲の領域の領域判別結果を反映させることを特徴とすることを特徴とする請求項1に記載の画像処理装置。
- 前記領域判別手段は、前記複数枚の撮影画像の各領域のエッジ情報を用いて前記領域判別を行うことを特徴とする請求項1または請求項2に記載の画像処理装置。
- 前記領域判別手段は、前記複数枚の撮影画像の各領域の色情報を用いて前記領域判別を行うことを特徴とする請求項3に記載の画像処理装置。
- 前記領域判別手段は、前記撮影画像より検出される顔検出情報を用いて前記領域判別を行うことを特徴とする請求項3または4に記載の画像処理装置。
- 焦点位置の異なる複数枚の撮影画像を取得する取得ステップと、
前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別ステップと、
前記撮影画像にぼかし処理を行うぼかし処理ステップと、
前記ぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別ステップにて得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成ステップと、を備え、
前記領域判別ステップでは、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域の大きさでの領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする画像処理方法。 - 請求項6に記載の画像処理方法のステップが記述されたコンピュータで実行可能なプログラム。
- コンピュータに、請求項6に記載の画像処理方法の各ステップを実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013171638A JP2015041865A (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013171638A JP2015041865A (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置及び画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015041865A true JP2015041865A (ja) | 2015-03-02 |
Family
ID=52695799
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013171638A Pending JP2015041865A (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置及び画像処理方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015041865A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190028349A (ko) * | 2017-09-08 | 2019-03-18 | 삼성전자주식회사 | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 |
| US10379318B2 (en) | 2015-10-02 | 2019-08-13 | Olympus Corporation | Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium |
| US10855910B2 (en) | 2018-08-27 | 2020-12-01 | Kyocera Corporation | Electronic device, method, and program |
-
2013
- 2013-08-21 JP JP2013171638A patent/JP2015041865A/ja active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10379318B2 (en) | 2015-10-02 | 2019-08-13 | Olympus Corporation | Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium |
| KR20190028349A (ko) * | 2017-09-08 | 2019-03-18 | 삼성전자주식회사 | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 |
| KR102117050B1 (ko) * | 2017-09-08 | 2020-05-29 | 삼성전자주식회사 | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 |
| US10872420B2 (en) | 2017-09-08 | 2020-12-22 | Samsung Electronics Co., Ltd. | Electronic device and method for automatic human segmentation in image |
| US10855910B2 (en) | 2018-08-27 | 2020-12-01 | Kyocera Corporation | Electronic device, method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6157242B2 (ja) | 画像処理装置及び画像処理方法 | |
| CN101998053B (zh) | 图像处理方法、图像处理设备和成像设备 | |
| KR101303410B1 (ko) | 촬상장치 및 촬상방법 | |
| KR101521441B1 (ko) | 촬상장치, 촬상장치의 제어 방법, 및 기억매체 | |
| KR101566081B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 기억 매체 | |
| US8837864B2 (en) | Image synthesis and rotation processing apparatus and image synthesis processing method | |
| US20120056997A1 (en) | Digital photographing apparatus for generating three-dimensional image having appropriate brightness, and method of controlling the same | |
| JP2008129554A (ja) | 撮像装置及びオートフォーカス制御方法 | |
| JP2004064676A (ja) | 撮像装置 | |
| CN101582989A (zh) | 摄影装置以及程序 | |
| CN107872631B (zh) | 基于双摄像头的图像拍摄方法、装置及移动终端 | |
| JP6116299B2 (ja) | 撮像装置及びその制御方法 | |
| CN105554370A (zh) | 图像处理设备和图像处理方法 | |
| CN101076997B (zh) | 照相机和用于照相机的图像处理方法 | |
| JP2013165487A (ja) | 画像処理装置、撮像装置、およびプログラム | |
| JP2011114823A (ja) | 画像処理装置及び撮像装置 | |
| JP6116436B2 (ja) | 画像処理装置および画像処理方法 | |
| JP2015041901A (ja) | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 | |
| JP2015041865A (ja) | 画像処理装置及び画像処理方法 | |
| JP2010199681A (ja) | 画像処理装置、および画像処理プログラム | |
| JP6029464B2 (ja) | 撮像装置、その制御方法、および制御プログラム | |
| JP2010245613A (ja) | カメラ、表示画像制御方法および表示画像制御用プログラム | |
| JP2015186062A (ja) | 画像合成処理装置 | |
| JP2015080157A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP6025555B2 (ja) | 画像処理装置、画像処理方法及びプログラム |