[go: up one dir, main page]

JP6320075B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP6320075B2
JP6320075B2 JP2014029962A JP2014029962A JP6320075B2 JP 6320075 B2 JP6320075 B2 JP 6320075B2 JP 2014029962 A JP2014029962 A JP 2014029962A JP 2014029962 A JP2014029962 A JP 2014029962A JP 6320075 B2 JP6320075 B2 JP 6320075B2
Authority
JP
Japan
Prior art keywords
information
image
subject
processing apparatus
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014029962A
Other languages
English (en)
Other versions
JP2015156054A (ja
Inventor
知教 飯田
知教 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014029962A priority Critical patent/JP6320075B2/ja
Priority to US14/625,262 priority patent/US9727585B2/en
Publication of JP2015156054A publication Critical patent/JP2015156054A/ja
Application granted granted Critical
Publication of JP6320075B2 publication Critical patent/JP6320075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、特に光線情報を取り扱う画像処理装置およびその制御方法に関するものである。
近年、画素位置に入射する光の積分強度のみならず、画素位置に入射する光の入射方向ごとの強度を記録する撮像装置が提案され、ライトフィールドカメラなどと呼ばれている(非特許文献1)。例えば、撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、撮像素子の複数の画素で1つのマイクロレンズの出射光を受光するように構成すると、各画素では異なる方向からマイクロレンズに入射した光の強度を得ることができる。
このように取得された画素信号(光線情報)は、マイクロレンズの位置における方向別の入射光強度の情報を有する。そのため、「Light Field Photography」と呼ばれる手法を適用することで、任意の像面にピントを合わせた画像(以下、リフォーカス画像)を生成(再構成)することができる。したがってライトフィールドカメラで撮影した場合は、リフォーカス画像を生成することで、撮影時にはピントが合っていない被写体の認識、特定が可能である。
Ren.Ng、他、"Light Field Photography with a Hand-Held Plenoptic Camera",Stanford Tech Report CTSR 2005-02、2005.4.20
画像の検索を容易にするため、画像に写っている個人名や画像が関連するイベント名などの付加情報(タグと呼ばれることもある)を画像データに関連付けることが知られている。例えば光線情報に、この光線情報から生成可能な異なる距離に合焦した複数のリフォーカス画像から得られる付加情報を関連付けたとする。
この場合、光線情報から、別の光線情報や画像(派生画像とよぶ)を生成した場合、派生画像に対してどのような付加情報を付加するかが問題となる。元の光線情報に関連付けられていた付加情報をそのまま派生画像にも関連付けた場合、派生画像には対応しない付加情報が含まれる可能性があるからである。
例えば、元の光線情報にはリフォーカス可能な範囲において特定可能な全ての被写体(ここでは人物とする)の名前が付加情報として関連付けられており、派生画像として特定の距離に合焦したリフォーカス画像を生成したとする。この場合、元の光線情報の付加情報には、リフォーカス画像ではピントが合っていない人物の名前が含まれる可能性が生じる。
本発明は従来検討されていなかったこのような課題を解決し、光線情報やその派生画像に対して適切な付加情報を関連付けることが可能な画像処理装置およびその制御方法を提供することを目的とする。
上述の目的は、光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置であって、光線情報から派生画像を生成する画像生成手段と、派生画像を解析し、派生画像の特徴を表す情報を取得する解析手段と、派生画像の特徴を表す情報に基づいて、派生画像に付与する付加情報を生成する情報生成手段と、情報生成手段が生成した付加情報を派生画像に付加する付与手段と、を有することを特徴とする画像処理装置によって達成される。
本発明によれば、光線情報やその派生画像に対して適切な付加情報を関連付けることが可能な画像処理装置およびその制御方法を提供することができる。
実施形態1に係る画像処理装置の機能構成例を示すブロック図 実施形態1におけるタグ情報の例を示す図 実施形態1における付加情報編集部の動作を模式的に示す図 実施形態1におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態2に係る画像処理装置の機能構成例を示すブロック図 実施形態2におけるタグ情報の例を示す図 実施形態2における距離情報算出部の動作例を模式的に示す図 実施形態2における付加情報編集部の動作例を模式的に示す図 実施形態2におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態3における派生画像解析部の動作例を模式的に示す図 実施形態3におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態4に係る画像処理装置の機能構成例を示すブロック図 実施形態4におけるタグ情報の例を示す図 実施形態4における被写体認識部の動作例を模式的に示す図 実施形態4におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態5に係る画像処理装置の機能構成例を示すブロック図 実施形態5におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態5における付加情報チェック処理を説明するためのフローチャート 実施形態6に係る画像処理装置の機能構成例を示すブロック図 実施形態6におけるリフォーカス画像生成処理を説明するためのフローチャート 実施形態6における被写体検出処理を説明するためのフローチャート
以下、添付図面を参照して本発明の例示的な実施形態について詳細に説明する。
●(実施形態1)
図1は、本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。
画像処理装置100は、光の強度分布及び光の入射方向を示す情報を有する、リフォーカス可能な画像信号(光線情報)を入力信号とし、光線情報から任意の距離に合焦したリフォーカス画像を生成して出力可能な装置である。
以下、図4に示すフローチャートも合わせて参照し、画像処理装置100の構成および動作について説明する。画像処理装置100はまず光線情報101を取得する(S401)。光線情報は例えば、特開2011−22796号公報に記載されているような、視点の異なる複数のカメラで撮影された光線情報であってよい。あるいは、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた画素を複数配列した撮像素子から得られる光線情報(非特許文献1参照)であってもよい。このような周知の方法のいずれかを用いて光線情報を取得することが可能である。あるいは、例えばメモリカード等の記録媒体やハードディスクなどの記憶装置から読み出してもよいし、ネットワークを通じて他の装置から取得してもよい。あるいは、光線情報101を撮影可能な撮像装置から取得してもよい。この場合、撮像装置は画像処理装置の一部であっても、別個の装置であってもよい。取得した光線情報101は付加情報取得部111および派生画像生成部112に供給される。
付加情報取得部111は光線情報101の付加情報(以下「タグ情報」と呼ぶ)を取得する(S402)。本実施形態においては、タグ情報として、図2に示すように、光線情報101のリフォーカス可能な範囲で検出される特定被写体(ここでは人物とする)についての識別情報(氏名など)と距離情報とが付加されているものとする。
一方、派生画像生成部112は光線情報101を基にした画像もしくは別の光線情報を生成する(S403)。本実施形態において派生画像生成部112は、ある距離に合焦した画像(以下「リフォーカス画像」と呼ぶ)を生成するものとする。リフォーカス画像を生成する際の合焦距離は、操作部116から受け取る。操作部116はスイッチ等で構成され、ユーザの指示やデータの入力を受けつけることができる。
そして、派生画像解析部113は、派生画像生成部112で生成したリフォーカス画像の被写界深度を算出する(S404)。派生画像解析部113は被写界深度をリフォーカス画像の生成の際に使用した合焦距離、光線情報101を撮影した際のレンズの焦点距離(画角)と絞り値、光線情報101を撮影した撮影機器の撮像センサーのサイズとから算出しても良いし、別の方法でもよい。光線情報101の撮影時のレンズおよび撮影機器の情報は、例えば光線情報101にタグ情報とは別に付加されている情報から取得してよい。
そして、情報生成手段としての付加情報編集部114は、付加情報取得部111が取得したタグ情報と、派生画像解析部113が算出した被写界深度とから、付加情報取得部111が取得したタグ情報から特定のタグ情報を抽出する(S405,S406)。詳細は図3をさらに用いて説明する。
付加情報付与部115は、派生画像生成部112が生成したリフォーカス画像に、付加情報編集部114が抽出したタグ情報を付加して出力画像102を生成し(S407)、出力する(S408)。なお、出力画像102の用途は特に制限されず、記録媒体に記録されてもよいし、表示装置に表示されてもよいし、外部機器に送信されてもよいし、それらの組み合わせであってもよい。
図2を用いて本実施形態におけるタグ情報の構造例を説明する。
図2(a)光線情報101撮影した視野の一例を示すリフォーカス画像である。光線情報101そのものは画像を表さないが、図2(a)では理解および説明を容易にするため、光線情報101から生成したリフォーカス画像を示している。また、ここでは、光線情報101のリフォーカス可能範囲の全域にわたり、被写体201〜203以外の被写体は識別できないものとする。
図2(a)に対応するタグ情報の一例を図2(b)に示す。図2(b)に示すタグ情報は、3人の被写体201〜203それぞれについて、識別名(A氏、B氏、C氏)と、距離情報が関連付けられている。なお、ここでの距離情報は、光線情報101を撮影した撮影機器からそれぞれの被写体までの距離(単位は任意)である。
次に、図3を用いて本実施形態における付加情報編集部114の動作を説明する。図3(a)は、図2(a)に示した光線情報101の撮影時における被写体201〜203の位置関係を、横軸に撮影機器からの距離をとって示したものである。
距離311〜313は光線情報101を撮影した撮影機器から被写体201〜203までの距離をそれぞれ示す。図2(b)のタグ情報から、距離311〜313はそれぞれ“30”、”50”、”90”である。また、図3(a)および(c)には、派生画像生成部112にてリフォーカス画像を生成する際に使用した合焦距離321と、生成したリフォーカス画像の被写界深度322を合わせて示している。
図3(a)に示すように付加情報編集部114は、タグ情報に示された各被写体の距離情報と、リフォーカス画像の被写界深度とをマッピングし(S405)、被写界深度内に存在する被写体のタグ情報を抽出して付加情報付与部115に出力する(S406)。図3に示す例では、被写界深度322内に距離311と距離312が含まれるため、付加情報編集部114は被写体201と被写体202のタグ情報を抽出する(図3(b))。
なお、上述の例では、付加情報編集部114は、距離が被写界深度外の被写体についてはタグ情報を抽出しなかった。しかし、被写界深度外であっても被写界深度に近い距離の被写体であれば個人の識別は可能であることを考慮し、被写界深度を拡張してタグ情報の抽出を行うようにしてもよい。
例えば図3(c)に示すように、被写界深度322の近位端および遠位端にそれぞれ余裕範囲423および424を追加し、“余裕範囲423+被写界深度322+余裕範囲424”の範囲に含まれる被写体のタグ情報を抽出してもよい。図3(c)の例では、余裕範囲を追加したことで新たな被写体のタグ情報が抽出されることはないが、被写体201の少し手前や被写体202の少し奥に被写体が存在していればそれらのタグ情報が抽出されるようになる。なお、余裕範囲は被写界深度を近位側もしくは遠位側の少なくとも一方拡大するように設定することができ、近位側と遠位側の拡張量は同じでも異なってもよい。また、拡張量は絞り値やリフォーカス画像の生成に用いた合焦距離などの条件に応じて変化させてもよい。
このように本実施形態によれば、リフォーカス画像の被写界深度に基づいて光線空間情報の付加情報を抽出することにより、光線情報から生成したリフォーカス画像に適切な付加情報を、光線情報の付加情報を用いて生成することができる。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
●(実施形態2)
次に、本発明の実施形態2について説明する。図5は、本実施形態に係る画像処理装置の機能構成例を示すブロック図であり、実施形態1の画像処理装置100と同様の機能ブロックには同じ参照数字を付して重複する説明を省略する。
図1と図5の対比から明らかなように、本実施形態の画像処理装置500は、実施形態1の画像処理装置100に対して距離情報算出部516を新たに有することと、付加情報編集部114’の動作において異なる。また、後述するように、光線情報101の付加情報の形式が異なる。従って、以下ではこれら相異点を中心に説明する。
まず、図6を用いて本実施形態における光線情報101の付加情報(タグ情報)の構造を説明する。図6(a)は、図2(a)と同様に光線情報101をリフォーカス画像で模式的に示した図である。本実施形態においても実施形態1と同様の被写体が撮影されているが、付加情報の形式が異なっている。具体的には、図6(b)に示すように、各被写体201〜203に対するタグ情報が、被写体の識別名と、被写体の画像内の位置情報とが関連付けられた形式を有する。ここで、被写体の位置情報は、被写体画像の特徴領域の外接矩形領域を特定する画像座標情報であり、被写体が人物の場合には顔領域の外接矩形領域が特徴領域611〜613であるものとする。また、特徴領域を特定する画像座標情報は、矩形領域の対角頂点の座標情報であるものとし、ここでは、左上および右下の頂点の画像座標情報であるとする。
なお、人物被写体の特徴領域は、顔領域だけでなく、身体を含めた領域とするなど、他の領域としてもよい。また、被写体が動物であれば人物被写体と同様に扱えばよい。被写体が動物でない場合には、被写体全体の外接矩形領域としてもよい。また、矩形領域に限らず、円形領域や一般的な四角形領域など、他の形状であってもよい。なお、画像座標の原点については予め定められていてもよいし、付加情報に原点位置に関する情報が含まれていてもよい。
図6(b)に示すように、タグ情報は、各被写体について、特徴領域の左上角を座標Start(x,y)、右下角を座標End(x,y)で特定する被写体位置情報として含んでいる。例えば、被写体202のタグ情報には、特徴領域612の左上角622に対応する座標Start(x,y)と、右下角632に対応する座標End(x,y)が位置情報として関連付けられている。
以下、図9に示すフローチャートも合わせて参照し、画像処理装置500の構成および動作について、実施形態1との相異点を重点的に説明する。図9において実施形態1と同様の処理ステップには同じ参照数字を付して説明を省略する。
距離算出手段としての距離情報算出部516は、光線情報101から距離マップを生成する(S901、S902)。距離情報算出部516の動作については、図7を用いて後述する。
付加情報編集部114’は、派生画像解析部113が算出した被写界深度と、付加情報取得部111が取得したタグ情報と、距離情報算出部516が生成した距離マップとに基づいて特定のタグ情報を抽出する(S903、S405〜S406)。詳細は図7(c)および図8を用いて説明する。
距離情報算出部516の動作の詳細を説明する。距離情報算出部516は、図7(a)に示すように、まず光線情報101から生成されるリフォーカス画像の領域を、予め決められた複数の距離情報取得エリア(「Dエリア」と呼ぶ)701に分割する。ここで、Dエリア701の分割数は画像処理装置500の演算能力や光線情報101から生成されるリフォーカス画像のサイズなどに応じて適宜定めることができる。
距離情報算出部516は、次にDエリア701に対応する光線情報101を用いて、Dエリア701毎に1つの被写体距離を算出する(S901)。算出方法に特に制限は無いが、例えば派生画像生成部112を用いて合焦距離の異なる複数のリフォーカス画像を生成してDエリア701内の画像のコントラスト値を求めたり、Dエリア701内の各画素位置が合焦する位置を光線情報101から求めたりしてよい。
被写体距離は、Dエリア701の中心にある被写体までの距離としてもよいし、Dエリア701内の被写体距離の平均値としてもよい。そして、距離マップ生成手段としての距離情報算出部516は、撮影範囲の被写体距離の分布をDエリア701単位で示す距離マップを生成する(S902)。図7(b)は距離マップを模式的に示した図であり、同じパターンで塗りつぶされているDエリアは同じ被写体距離であることを示している。従って、領域711、712、713はそれぞれ被写体距離が同じDエリアから構成されている。
次に、付加情報編集部114’の動作の詳細を説明する。付加情報編集部114’は、まずタグ情報に含まれる被写体位置情報と距離情報算出部516が生成した距離マップとから、被写体ごとの距離情報を決定する(S903)。具体的には、付加情報編集部114’は、図7(c)に示すように、被写体の特徴領域611、612、613ごとに、対応する被写体距離を距離マップから取得し、最も多く含まれる被写体距離を特徴領域の距離(被写体201〜203の被写体距離)とする。
図7(c)の例では、特徴領域611は領域711、特徴領域612は領域712、特徴領域613は領域713との重なりが最も大きい。従って、付加情報編集部114’は、被写体201の距離は領域711の被写体距離、被写体202の距離は領域712の被写体距離、被写体203の距離は領域713の被写体距離とする。
なお、距離マップを用いた特徴領域に対する距離は、他の方法で決定してもよい。例えば、特徴領域に含まれる被写体距離を、重複する面積に応じた重みで加重平均したり、特徴領域の中心部分の被写体距離で代表させたり、他の任意の方法で決定することができる。
そして、付加情報編集部114’は、派生画像解析部113がS404で算出した被写界深度と、タグ情報に示された各被写体についてS903で決定した距離とから、光線情報101のタグ情報のうち、実施形態1と同様に特定のタグ情報を抽出する。
図8(a)は、本実施形態において被写体201〜203について被写体位置と距離マップとを用いて決定した距離の関係を図3(a)と同様に示している。合焦距離921は、派生画像生成部112にてリフォーカス画像を生成する際に使用した合焦距離を示す。被写界深度922は、派生画像解析部113が算出したリフォーカス画像の被写界深度を示す。
図8(a)に示すように付加情報編集部114’は、被写体201〜203の特徴領域611〜613に対して決定した距離(距離マップの領域711〜713の距離)と、リフォーカス画像の被写界深度とをマッピングする(S405)。そして、被写界深度内に存在する被写体のタグ情報を抽出する(S406)。図8(a)に示す例では、被写界深度922内に被写体201と202が含まれるため、付加情報編集部114’は光線情報101の付加情報から被写体201と202のタグ情報を抽出し、付加情報付与部115に出力する(図8(b))。
その後の付加情報付与部115の動作は実施形態1と同様である(S407〜S408)。
本実施形態によっても、リフォーカス画像の被写界深度に基づいて光線空間情報の付加情報を抽出することにより、光線情報から生成したリフォーカス画像に適切な付加情報を、光線情報の付加情報を用いて生成することができる。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
●(実施形態3)
次に、本発明の実施形態3について説明する。本実施形態の画像処理装置は、派生画像解析部と付加情報編集部の動作が異なる以外、図1に示した画像処理装置100と同様の機能構成であるため、機能ブロック図は省略する。ただし、本実施形態の画像処理装置は110”、派生画像解析部は113”、付加情報編集部は114”として区別する。
実施形態3において光線情報101が有するタグ情報の構造は、実施形態2で図6を参照して説明したものと同様であるので、ここでは説明を省略する。
以下、図11に示すフローチャートも合わせて参照し、画像処理装置100”の構成および動作について、実施形態1との相異点を重点的に説明する。図11において実施形態1と同様の処理ステップには同じ参照数字を付して説明を省略する。
ボケ量マップ生成手段としての派生画像解析部113"は、派生画像生成部112で生成したリフォーカス画像のボケ量を算出し、ボケ量マップを生成する(S1101〜S1102)。ボケ量の算出例については図10を使用して後述する。
付加情報編集部114"は、付加情報取得部111が取得したタグ情報と、派生画像解析部113"が生成したボケ量マップとから、付加情報取得部111が取得したタグ情報から特定のタグ情報を抽出する(S1103〜S1104)。詳細は図10を用いて後述する。
図10を用いて、実施形態3における派生画像解析部113"の動作を説明する。
派生画像解析部113"は、まずリフォーカス画像1000を予め決められたボケ量算出エリア(以下「Bエリア」と呼ぶ)に分割する。図10(a)は、リフォーカス画像1000を実施形態2のDエリアと同様に複数のBエリア1001に分割した例を示す。ここで、Bエリア1001の分割数は画像処理装置100”の演算能力やリフォーカス画像1000の画像サイズなどに応じて適宜決めることができる。
派生画像解析部113"は、リフォーカス画像1000のBエリア1001ごとにボケ量を算出する(S1101)。ボケ量の算出方法に特に制限は無いが、例えばBエリア1001にハイパスフィルタを適用し、適用後の画素値(の大きさや平均値など)に応じてボケ量を決定することができる。ハイパスフィルタは高周波成分を強調するフィルタであるため、ボケ量が大きい場合にはフィルタ処理後の画素値の最小値と最大値との差は小さくなる。なお、ハイパスフィルタを適用する方法以外にも、例えばBエリア1001のコントラスト値を算出し、コントラストが低いほど大きなボケ量を決定してもよい。また、エッジの幅を求めるなど、他の方法を用いてもよい。
派生画像解析部113”は、Bエリア1001ごとのボケ量からボケ量マップを生成する(S1102)。図10(b)は撮影範囲におけるボケ量の分布をのBエリア単位で示したボケ量マップを模式的に示し、同じパターンで塗りつぶされているエリアは同じボケ量であることを示している。従って、領域1011〜1014はそれぞれボケ量が同じBエリアから構成されている。ここで、ボケ量の大小関係は、領域1011のボケ量<領域1012のボケ量<領域1013のボケ量<領域1014のボケ量とする。
図10(c)を用いて実施形態3における付加情報編集部114"の動作を説明する。付加情報編集部114”は、まずタグ情報に含まれる被写体位置情報と派生画像生成部112’が生成したボケ量マップとから、被写体ごとのボケ量を決定する(S1103)。具体的には、付加情報編集部114”は、図10(c)に示すように、被写体の特徴領域611、612、613ごとに、対応するボケ量をボケ量マップから取得し、最も多く含まれるボケ量を特徴領域(被写体201〜203)のボケ量とする。
図10(c)の例では、特徴領域611は領域1011、特徴領域612は領域1012、特徴領域613は領域1013との重なりが最も大きい。従って、付加情報編集部114”は、被写体201のボケ量は領域1011のボケ量、被写体202のボケ量は領域1012のボケ量、被写体203のボケ量は領域713のボケ量と決定する。
なお、ボケ量マップを用いた特徴領域に対する距離は、他の方法で決定してもよい。例えば、特徴領域に含まれるボケ量を、重複する面積に応じた重みで加重平均したり、特徴領域の中心部分のボケ量で代表させたり、他の任意の方法で決定することができる。
そして、付加情報編集部114”は、派生画像解析部113が算出した被写界深度と、タグ情報に示された各被写体について決定したボケ量とから、光線情報101のタグ情報から特定のタグ情報を抽出する。具体的には付加情報編集部114"がボケ量の閾値(以下「ボケ量閾値」と呼ぶ。)を保持し、ボケ量閾値よりも小さいボケ量を持つ被写体のタグ情報を抽出する(S1104)。例えば、領域1011のボケ量<領域1012のボケ量<領域1013のボケ量<領域1014のボケ量である場合、付加情報取得部111が取得したタグ情報の内、被写体601、602の情報を抽出する。
ここで、ボケ量閾値は付加情報編集部114"が保有していなくてもよい。操作部116を通じてボケ量閾値を設定できるようにしたり、リフォーカス画像の解像度などの条件に応じてボケ量閾値の値を変更するようにしたりすることができる。
その後の付加情報付与部115の動作は実施形態1と同様である(S407〜S408)。
リフォーカス画像のボケ量に基づいて光線空間情報の付加情報を抽出することにより、本実施形態によっても、光線情報から生成したリフォーカス画像に適切な付加情報を、光線情報の付加情報を用いて生成することができる。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
●(実施形態4)
次に、本発明の実施形態4について説明する。実施形態1〜3では、光線情報101に付加されているタグ情報からリフォーカス画像に適したタグ情報を抽出するものであった。本実施形態は、光線情報101のタグ情報を用いずに、派生画像からタグ情報を生成する構成を有する。
図12は、本実施形態に係る画像処理装置120の機能構成例を示すブロック図である。図12において、図1に示した画像処理装置100と同様の機能構成には同じ参照数字を付して説明を省略する。以下、図15に示すフローチャートも合わせて参照し、画像処理装置120の構成および動作について、実施形態1との相異点を重点的に説明する。図15において実施形態1と同様の処理ステップには同じ参照数字を付して説明を省略する。
被写体検出部117は、派生画像生成部112で生成したリフォーカス画像から複数の被写体を検出し、検出した被写体の情報(以下「被写体検出情報」と呼ぶ)を出力する(S1501)例えば被写体が人物である場合、人物の顔を検出対象とし、顔領域の座標を被写体検出情報として被写体認識部118へ出力することができる。あるいは、被写体検出部117は、例えば、顔領域の画像をリフォーカス画像から切り出し、被写体検出情報として被写体検出部117へ出力してもよい。
被写体認識部118は、被写体検出部117で検出した被写体について、データベース部119に予め用意された情報を用いて認識し、被写体の識別情報を付加情報として付加情報付与部115へ出力する(S1502)。例えば、被写体認識部118は、被写体検出部117で検出した被写体の画像領域から特徴量を算出し、認識済み被写体の識別情報とその特徴量とを対応付けて保存しているデータベース部119を参照することで、被写体を認識する。
図13を用いて、実施形態4における被写体検出部117の動作の一例を説明する。
図13(a)に実施形態1と同様の被写体が撮影されているリフォーカス画像の一例を示す。被写体検出部117は、図13(a)のリフォーカス画像から被写体領域として顔領域を検出し、その位置情報を被写体検出情報として出力する。ここで、被写体の位置情報は、被写体の顔領域の外接矩形領域211〜213を特定する画像座標情報であり、ここでは、左上および右下の頂点の画像座標情報であるとする。
なお、人物被写体の特徴領域は、顔領域だけでなく、身体を含めた領域とするなど、他の領域としてもよい。また、被写体が動物であれば人物被写体と同様に扱えばよい。被写体が動物でない場合には、被写体全体の外接矩形領域としてもよい。また、矩形領域に限らず、円形領域や一般的な四角形領域など、他の形状であってもよい。なお、画像座標の原点については予め定められていてもよいし、付加情報に原点位置に関する情報が含まれていてもよい。
図13(b)は、被写体検出部117が出力する被写体情報の例を示す。図13(b)に示すように、被写体検出部117は、検出した顔領域ごとにそれを特定する座標情報を出力する。外接矩形領域211〜213のそれぞれについての位置情報として、左上角の座標Start(x,y)と右下角の座標End(x,y)を含んでいる。この状態では被写体は認識されていないため、顔領域の通し番号と座標対とが関連付けられている。
図14を用いて、実施形態4における被写体認識部118の動作の一例を説明する。
被写体認識部118は、被写体検出部117から得られる被写体領域(顔領域)の位置情報に基づき、リフォーカス画像の各顔領域について特徴量を求める。ここでの特徴量とは顔画像の個人差を示す値であり、例えば、特開2001−256496号公報に記載されているような値であってよいが、顔領域から得られ、かつ個人識別に利用可能な任意の値を特徴量として用いることができる。
図14(a)は特徴量の算出処理を模式的に示したものであり、被写体201、202、203の顔領域からそれぞれ特徴量AAA、BBB、CCCが得られたことを示している。被写体認識部118は、特徴量を算出すると、特徴量を用いてデータベース部119をサーチする。
本実施形態においてデータベース部119には、図14(b)に示すように複数の被写体について、識別名(例えば氏名)と特徴量とが関連付けられた認識データが予め用意されている。なお、データベース部119は画像処理装置120が内蔵している必要は無く、画像処理装置120がアクセス可能な任意の場所に存在していてよい。
被写体認識部118は、算出した特徴量をクエリとしてデータベース部119に問い合わせ、合致するか、閾値以上の類似度の特徴量に関連付けられた1つの識別名を得る。例えば、被写体201の特徴量はAAAであるため、識別名“A氏”を、被写体202の特徴量はBBBであるため、識別名“B氏”を、被写体203の特徴量はCCCであるため、識別名“C氏”を、被写体認識部118は認識結果として得ることができる。
データベース部119に類似度が閾値以上の特徴量が存在せず、識別名を得ることができない場合、“該当なし”など特定の識別名を認識結果としてもよい。あるいは、顔領域を提示しながら、ユーザに識別名を入力させてもよい。この場合、ユーザが入力した識別名は認識結果として用いられるととともに、対応する特徴量と関連付けて新たな認識データとしてデータベース部119に追加してもよい。
このようにして取得した認識結果を、被写体認識部118は付加情報付与部115に出力する。付加情報付与部115は、被写体認識部118から得た認識結果(被写体の識別名)を付加情報としてリフォーカス画像に付与して出力する。
本実施形態によれば、リフォーカス画像から付加情報を生成することにより、リフォーカス画像に適切な付加情報を付与することができる。
また、本実施形態は光線情報の付加情報を用いないので、光線情報に付加情報が付加されていない場合や、何らかの理由で付加情報が利用できない場合であっても適切な付加情報をリフォーカス画像に付与することができるという利点がある。
●(実施形態5)
以下、本発明の実施形態5について説明する。図16は、本実施形態に係る画像処理装置400の機能構成例を示すブロック図である。図16において、図1に示した画像処理装置100もしくは図12に示した画像処理装置120と同様の機能構成には同じ参照数字を付して説明を省略する。以下、図17に示すフローチャートも合わせて参照し、画像処理装置400の構成および動作について、実施形態1および4との相異点を重点的に説明する。図17において実施形態1または4と同様の処理ステップには同じ参照数字を付して説明を省略する。
二次被写体認識部416は、被写体認識部118が生成した付加情報に対してチェック処理を行う(S1710)。付加情報チェック処理は、被写体認識部118で認識することができなかった被写体に対し、付加情報取得部111が光線情報101から抽出したタグ情報を基に、被写体認識処理を実行し、付加情報を更新する処理である。詳細は図18を用いて後述する。
本実施形態では、実施形態2で図6を用いて説明したようなタグ情報、もしくは図6に示したタグ情報から被写体の位置情報が省かれたタグ情報が光線情報101に付加されているものとする。
また、データベース部119には、図14(b)に示した識別データのうち、C氏の認識データ以外が保存されており、リフォーカス画像は図13(a)に示す画像と同じであるとする。また、被写体認識部118が被写体201〜203に対して算出した特徴量は、図14に示した実施形態4での特徴量と同じであるとする。

本実施形態のデータベース部119はC氏に関する認識データがないので、被写体203について求めた特徴量CCCをクエリとしてデータベース部119に問い合わせても、識別名を得ることはできない。この場合、実施形態4と同様、被写体認識部118は“該当なし”を認識結果として出力する。
図18に示すフローチャートを用いて、図17のS1701で二次被写体認識部416が行う付加情報チェック処理の一例を詳細に説明する。二次被写体認識部416は被写体認識部118より受け取る認識結果(付加情報)に対して、タグ情報を用いて付加情報チェック処理を実行する。
S1801で二次被写体認識部416は、被写体認識部118より受け取った最初の付加情報が”該当なし”か否かを判断し、YESの場合は処理をS1802へ進める。NOと判断された場合は、二次被写体認識部416は、処理をS1805に進める。S1805で二次被写体認識部416は未チェックの付加情報が残っているか調べ、未チェックの付加情報があれば処理をS1801に戻し、未チェックの付加情報が無ければチェック処理を終了し、付加情報を付加情報付与部115へ出力する。
S1802で二次被写体認識部416は、光線情報101から抽出したタグ情報を、付加情報取得部111から取得する。
S1803で二次被写体認識部416は、S1802で取得したタグ情報の中から、リフォーカス画像で検出されたがデータベース部119に認識データが存在しない被写体の識別名を取得する。
この取得方法に特に制限は無いが、例えば光線情報101から抽出したタグ情報に特徴量の情報が含まれていれば、データベース部119への照会と同様、識別名”該当無し”に対応する特徴量を用いてタグ情報を探索して該当する識別名を取得することができる。また、図6に示したようにタグ情報が各被写体の位置情報を含んでいれば、リフォーカス画像中の被写体位置と合致もしくは特徴領域の重複量もしくは比率が閾値以上である被写体の識別名を取得すればよい。
また、利用可能な情報が無い場合でも、タグ情報に情報が含まれる被写体のうち、被写体認識部118で認識されていない被写体が1人であればその被写体を”該当無し”に対応する被写体と特定できる。これは、光線情報101のタグ情報はリフォーカス可能範囲で検出される全ての被写体の情報を含んでいるのが通常だからである。
もちろん、画像処理装置が自動的に決定する方法に限らず、ユーザに指定させるようにしてもよい。例えば、光線情報から抽出したタグ情報に含まれる識別名の一覧を、操作部116によって選択可能に例えば画像処理装置の表示部に表示し、ユーザが選択した識別名を取得してもよい。識別名の一覧を表示する際、被写体認識部118で認識されているものを除いたり、認識されていることを表すマークなどを表示するようにしてもよい。
画像処理装置が自動的に決定できない場合に、ユーザに指定させるようにするなど、複数の方法を組み合わせて用いてもよい。
このようにして、被写体認識部118で認識できなかった被写体に対する識別名をタグ情報から取得すると、二次被写体認識部416は処理をS1804に進める。
S1804で二次被写体認識部416は、被写体認識部118から取得した付加情報の識別名“該当なし”をS1803で取得した識別名に更新し、処理をS1805に進める。
本実施形態によれば、リフォーカス画像から付加情報が生成できなかった場合でも、光線情報のタグ情報を用いて被写体の情報を取得することで、リフォーカス画像で必要となるタグ情報を付与することができる。
●(実施形態6)
以下、本発明の実施形態6について説明する。図19は、本実施形態に係る画像処理装置900の機能構成例を示すブロック図である。図19において、図1に示した画像処理装置100、図12に示した画像処理装置120、もしくは図16に示した画像処理装置400と同様の機能構成には同じ参照数字を付して説明を省略する。以下、図20に示すフローチャートも合わせて参照し、画像処理装置900の構成および動作について、実施形態1、4との相異点を重点的に説明する。図20において実施形態1または4と同様の処理ステップには同じ参照数字を付して説明を省略する。
被写体検出部117’は、付加情報取得部111から出力されるタグ情報と派生画像生成部112で生成したリフォーカス画像とを受け、被写体検出処理を実行する(S2001)。そして、被写体検出部117’は、被写体検出処理によって認識に成功した被写体(S2002,YES)のタグ情報を付加情報付与部115”’へ、検出できなかった被写体(S2002,NO)の被写体検出情報を被写体認識部118へ、それぞれ出力する。
被写体認識部118は、被写体検出部117’から被写体検出情報を取得した被写体について、実施形態4と同様にデータベース部119に登録された情報を用いて認識し、被写体の識別情報を付加情報として付加情報付与部115”’へ出力する(S1502)。
付加情報付与部115”’は、派生画像生成部112が生成したリフォーカス画像に、被写体認識部118からの付加情報と被写体検出部117’からの付加情報の両方を付与し(S407)、出力画像102を生成する(S408)。
本実施形態では、実施形態2で図6を用いて説明したようなタグ情報が光線情報101に付加され、データベース部119には、図14(b)に示した識別データが保存されており、リフォーカス画像は図13(a)に示す画像と同じであるとする。
図21に示すフローチャート用いて、図20のS2001で被写体検出部117’が行う被写体検出処理の一例を詳細に説明する。被写体検出部117’は派生画像生成部112が生成した派生画像に対して被写体検出処理を実行する。
S1501で被写体検出部117’は、実施形態4と同様に、リフォーカス画像に対して被写体検出を実施し、検出された被写体ごとに位置情報(特徴領域を特定する座標情報)を求める。
S2102で被写体検出部117’は、S1501で検出した全ての被写体に対してS2103以降の処理を実行したか否かを判断し、未処理の被写体があれば処理をS2103へ、未処理の被写体がなければ処理を終了する。
S2103で被写体検出部117’は、S1501で検出した座標情報に対応する座標情報が、光線情報101から付加情報取得部111によって抽出されたタグ情報に含まれているか否かを判断する。ここで、対応するとは一致する場合だけに限らず、座標情報で特定される特徴領域の重複量もしくは比率が閾値以上である場合を含んでもよい。
S2103で被写体検出部117’は、対応する座標情報がタグ情報にある場合は処理をS2104へ、対応する座標情報がタグ情報に無い場合は処理をS2102に進める。
S2104で被写体検出部117’は、S2103で見つかった、座標情報の対応するタグ情報に含まれる被写体の識別名を付加情報として取得する。
上述の通り、被写体検出部117’は被写体検出処理を実行した後、座標情報の対応するタグ情報が見つかった(認識に成功した)被写体に関しては、S2104で取得した識別名を付加情報として付加情報付与部115”’へ出力する。また、座標情報の対応するタグ情報が見つからなかった(認識に成功しなかった)被写体に関しては、被写体認識部118へ被写体の座標情報を出力する。
本実施形態によれば、特徴量を用いた認識処理を行わずにリフォーカス画像と光線情報のタグ情報とから特定可能な被写体については、光線情報のタグ情報を用いて付加情報を生成する。そのため、被写体認識部で行う処理を軽減しながら、リフォーカス画像で必要となるタグ情報を付与することができる。
(その他の実施形態)
上述の実施形態では、派生画像生成部がリフォーカス画像を生成する場合のみを説明したが、元の光線情報よりもリフォーカス可能範囲の狭い光線情報を生成する場合であっても本発明を適用可能である。元の光線情報よりもリフォーカス可能範囲の狭い光線情報は、例えば、視差の違いの小さい画素同士を加算したり、一部の視点や一部の瞳領域を通過する画素からの光線情報を削減したりすることで生成できる。この場合、リフォーカス可能範囲が合焦距離の範囲を示すため、例えば実施形態1,2の場合であれば、リフォーカス可能範囲の近位端から近位側の被写界深度と、遠位端から遠位側の被写界深度との間に含まれる被写体の情報を付加すればよい。他の実施形態においても、リフォーカス可能範囲の少なくとも近位端と遠位端に対応する合焦距離でリフォーカス画像を生成し、各リフォーカス画像についての処理結果を合成すればよい。
また、上述の実施形態に係る画像処理装置の機能ブロックのそれぞれは、ASICなどのハードウェアによって実現されてもよいし、MPUやCPUのようなプログラマブルプロセッサを機能ブロックと同様に機能させるソフトウェアによって実現されてもよい。この場合、装置の制御を司るMPUやCPUを用いても、別個のMPUやCPUを用いてもよい。あるいは、ソフトウェアとハードウェアの組み合わせで実現されてもよい。また、個別の機能ブロックとして図示されていても、個別のハードウェアおよび/またはソフトウェアに対応することに限定されない。上述の実施形態に係る画像処理装置は、撮像装置、通信装置、情報処理装置など任意の電子機器において実施可能である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (16)

  1. 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置であって、
    前記光線情報から派生画像を生成する画像生成手段と、
    前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
    前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析手段と、
    前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成手段と、
    前記情報生成手段が生成した前記付加情報を前記派生画像に付加する付与手段と、
    を有し、
    前記情報生成手段が、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得手段が取得した付加情報から抽出することにより、前記派生画像に付与する付加情報を生成する、
    ことを特徴とする画像処理装置。
  2. 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置であって、
    前記光線情報から派生画像を生成する画像生成手段と、
    前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析手段と、
    前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成手段と、
    前記情報生成手段が生成した前記付加情報を前記派生画像に付加する付与手段と、
    を有し、
    前記派生画像は、前記光線情報よりも合焦可能な被写体距離の範囲が狭い光線情報に対応する画像であることを特徴とする画像処理装置。
  3. 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段をさらに有し、
    前記情報生成手段が、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得手段が取得した付加情報から抽出することにより前記派生画像に付与する付加情報を生成する、
    ことを特徴とする請求項記載の画像処理装置。
  4. 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
    前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、被写体距離が前記被写界深度に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
    ことを特徴とする請求項1または3記載の画像処理装置。
  5. 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
    前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、被写体距離が前記被写界深度を予め定められた拡張した範囲に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
    ことを特徴とする請求項1または3記載の画像処理装置。
  6. 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
    前記画像処理装置が、前記光線情報と前記付加情報とから、前記付加情報に含まれる被写体情報の各々についての被写体距離を求める距離算出手段をさらに有し、
    前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、前記距離算出手段が求めた被写体距離が前記被写界深度に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
    ことを特徴とする請求項1または3記載の画像処理装置。
  7. 前記距離算出手段が、
    前記光線情報から、前記光線情報の撮影範囲の被写体距離の分布を表す距離マップを生成する距離マップ生成手段と、
    前記取得手段が取得した付加情報に含まれる被写体情報に含まれる被写体の位置情報と、前記距離マップとから前記被写体距離を求める算出手段と、
    を有することを特徴とする請求項記載の画像処理装置。
  8. 前記派生画像におけるボケ量の分布を表すボケ量マップを生成するボケ量マップ生成手段と、
    前記取得手段が取得した付加情報に含まれる被写体情報に含まれる被写体の位置情報と、前記ボケ量マップとから、被写体ごとのボケ量を求めるボケ量算出手段と、をさらに有し、
    前記情報生成手段が、前記ボケ量算出手段が求めたボケ量が予め定められた閾値より小さい被写体の被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、ことを特徴とする請求項1または3記載の画像処理装置。
  9. 前記解析手段が、前記派生画像に含まれる予め定められた被写体の情報を前記派生画像の特徴を表す情報として取得し、
    前記情報生成手段は、前記被写体の情報を用いて、前記派生画像に含まれる予め定められた被写体の識別情報を、前記派生画像に付与する付加情報として取得することを特徴とする請求項記載の画像処理装置。
  10. 前記情報生成手段は、予め用意された、被写体の識別情報と被写体の情報とが関連付けられた認識データを用いて、前記識別情報を取得することを特徴とする請求項記載の画像処理装置。
  11. 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
    前記情報生成手段が前記被写体情報を取得できなかった被写体について、前記取得手段が取得した付加情報から前記派生画像に付与する付加情報を生成する第2情報生成手段と、をさらに有し、
    前記付与手段が、前記情報生成手段と前記第2情報生成手段が生成する付加情報を前記派生画像に付与する、ことを特徴とする請求項または10に記載の画像処理装置。
  12. 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
    前記派生画像に含まれる予め定められた被写体の特徴を表す情報を用いて、前記派生画像に付与する付加情報を生成する第2情報生成手段と、をさらに有し、
    前記解析手段が、前記予め定められた被写体の位置情報を前記派生画像の特徴を表す情報として取得し、
    前記情報生成手段は、前記位置情報を用いて、前記付加情報に含まれる被写体情報から、前記予め定められた被写体の識別情報を、前記派生画像に付与する付加情報として取得し、
    前記第2情報生成手段は、前記予め定められた被写体のうち、前記情報生成手段によって識別情報が取得できなかった被写体について、前記付加情報を生成する、
    ことを特徴とする請求項記載の画像処理装置。
  13. 前記派生画像は、いずれかの被写体距離に合焦した画像であることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置の制御方法であって、
    画像生成手段が、前記光線情報から派生画像を生成する画像生成工程と、
    取得手段が、前記光線情報から、被写体情報を含んだ付加情報を取得する取得工程と、
    解析手段が、前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析工程と、
    情報生成手段が、前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成工程と、
    前記情報生成工程で生成された付加情報を付与手段が前記派生画像に付加する付与工程と、
    を有し、
    前記情報生成工程では、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得工程で取得した付加情報から抽出することにより、前記派生画像に付与する付加情報を生成する、
    することを特徴とする画像処理装置の制御方法。
  15. 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置の制御方法であって、
    画像生成手段が、前記光線情報から派生画像を生成する画像生成工程と、
    解析手段が、前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析工程と、
    情報生成手段が、前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成工程と、
    前記情報生成工程で生成された前記付加情報を付与手段が前記派生画像に付加する付与工程と、
    を有し、
    前記派生画像は、前記光線情報よりも合焦可能な被写体距離の範囲が狭い光線情報に対応する画像であることを特徴とする画像処理装置の制御方法。
  16. コンピュータを、請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2014029962A 2014-02-19 2014-02-19 画像処理装置およびその制御方法 Active JP6320075B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014029962A JP6320075B2 (ja) 2014-02-19 2014-02-19 画像処理装置およびその制御方法
US14/625,262 US9727585B2 (en) 2014-02-19 2015-02-18 Image processing apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029962A JP6320075B2 (ja) 2014-02-19 2014-02-19 画像処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2015156054A JP2015156054A (ja) 2015-08-27
JP6320075B2 true JP6320075B2 (ja) 2018-05-09

Family

ID=53798289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029962A Active JP6320075B2 (ja) 2014-02-19 2014-02-19 画像処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US9727585B2 (ja)
JP (1) JP6320075B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5671842B2 (ja) * 2010-06-03 2015-02-18 株式会社ニコン 画像処理装置および撮像装置
EP3026628A1 (en) * 2014-11-26 2016-06-01 Thomson Licensing Method and apparatus for estimating depth of unfocused plenoptic data
JP6626257B2 (ja) 2015-03-03 2019-12-25 キヤノン株式会社 画像表示装置、撮像装置、画像表示方法、プログラム、記憶媒体
JP6800671B2 (ja) * 2016-09-15 2020-12-16 ヤフー株式会社 付与装置、付与方法および付与プログラム
JP2019215489A (ja) * 2018-06-14 2019-12-19 オリンパス株式会社 撮像装置および焦点調節方法
WO2021124873A1 (ja) * 2019-12-19 2021-06-24 富士フイルム株式会社 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム
US20240096119A1 (en) * 2020-12-30 2024-03-21 Synchronoss Technologies, Inc. Depth Based Image Tagging
JP7447042B2 (ja) * 2021-03-17 2024-03-11 株式会社東芝 画像処理装置、方法及びプログラム
WO2022201826A1 (ja) * 2021-03-26 2022-09-29 ソニーグループ株式会社 情報処理システム、情報処理方法、及び、情報処理装置
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US12254644B2 (en) 2021-03-31 2025-03-18 Leica Camera Ag Imaging system and method
US12450701B2 (en) * 2023-06-28 2025-10-21 Motorola Mobility Llc Electronic devices and corresponding methods for creating and presenting altered image sensor data simulating a bokeh effect

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4521086B2 (ja) 2000-03-13 2010-08-11 株式会社東芝 顔画像認識装置及び顔画像認識方法
JP5300133B2 (ja) * 2008-12-18 2013-09-25 株式会社ザクティ 画像表示装置及び撮像装置
US8233078B2 (en) * 2009-02-19 2012-07-31 Apple Inc. Auto focus speed enhancement using object recognition and resolution
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
JP2011022796A (ja) 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置
US8611592B2 (en) * 2009-08-26 2013-12-17 Apple Inc. Landmark identification using metadata
JP5371686B2 (ja) * 2009-10-22 2013-12-18 オリンパス株式会社 撮像装置、撮像方法、及び撮像システム
US8311278B2 (en) * 2009-12-22 2012-11-13 Xerox Corporation Method and system for automated subject identification in group photos
WO2012034174A1 (en) * 2010-09-14 2012-03-22 Dynamic Digital Depth Research Pty Ltd A method for enhancing depth maps
US8842213B2 (en) * 2011-04-18 2014-09-23 Panasonic Corporation Image capture device, image capture device focus control method, and integrated circuit
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
JP5854984B2 (ja) * 2012-02-20 2016-02-09 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
KR20130098042A (ko) * 2012-02-27 2013-09-04 삼성전자주식회사 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치
JP5882805B2 (ja) * 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
JP6207202B2 (ja) * 2012-06-08 2017-10-04 キヤノン株式会社 画像処理装置及び画像処理方法
US9124762B2 (en) * 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
JP6047025B2 (ja) * 2013-02-01 2016-12-21 キヤノン株式会社 撮像装置及びその制御方法
JP6112925B2 (ja) * 2013-03-15 2017-04-12 オリンパス株式会社 表示機器及び表示方法
KR20140123302A (ko) * 2013-04-12 2014-10-22 삼성전자주식회사 영상 처리 장치 및 그 제어방법
JP6288952B2 (ja) * 2013-05-28 2018-03-07 キヤノン株式会社 撮像装置およびその制御方法
JP2014238731A (ja) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
JP5713055B2 (ja) * 2013-06-20 2015-05-07 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
CN104281397B (zh) * 2013-07-10 2018-08-14 华为技术有限公司 多深度区间的重聚焦方法、装置及电子设备
JP6061816B2 (ja) * 2013-08-22 2017-01-18 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
CN104427237B (zh) * 2013-09-05 2018-08-21 华为技术有限公司 一种聚焦图片的显示方法及图像处理设备
US9420168B2 (en) * 2013-09-20 2016-08-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法

Also Published As

Publication number Publication date
US20150234865A1 (en) 2015-08-20
US9727585B2 (en) 2017-08-08
JP2015156054A (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6320075B2 (ja) 画像処理装置およびその制御方法
KR101893047B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
TWI434567B (zh) An image processing apparatus, an image processing method, an image processing program, and a recording medium
JP6305053B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2016213825A (ja) 非ライトフィールドイメージングデバイスを用いてライトフィールドデータを取得する方法、対応するデバイス、コンピュータプログラム製品、および非一時的コンピュータ可読キャリア媒体
JP2016533566A (ja) 虹彩撮像装置及び虹彩撮像装置を構成するための方法
JP6376474B2 (ja) 多眼撮像システム、取得画像の合成処理方法、及びプログラム
CN107690673A (zh) 图像处理方法、装置及服务器
CN108076278A (zh) 一种自动对焦方法、装置及电子设备
US12038966B2 (en) Method and apparatus for data retrieval in a lightfield database
HK1209884A1 (en) Method, apparatus and system for generating interior 2d plan
JP2014153890A5 (ja)
JP2009047497A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2012015642A (ja) 撮像装置
JP2016122444A (ja) 焦点スタックから適応スライス画像を生成する方法および装置
JP2018029270A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN105180802A (zh) 一种物体尺寸信息识别方法和装置
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6294703B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR20180069312A (ko) 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム
JP2015084517A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151