JP6320075B2 - 画像処理装置およびその制御方法 - Google Patents
画像処理装置およびその制御方法 Download PDFInfo
- Publication number
- JP6320075B2 JP6320075B2 JP2014029962A JP2014029962A JP6320075B2 JP 6320075 B2 JP6320075 B2 JP 6320075B2 JP 2014029962 A JP2014029962 A JP 2014029962A JP 2014029962 A JP2014029962 A JP 2014029962A JP 6320075 B2 JP6320075 B2 JP 6320075B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- subject
- processing apparatus
- additional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
●(実施形態1)
図1は、本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。
画像処理装置100は、光の強度分布及び光の入射方向を示す情報を有する、リフォーカス可能な画像信号(光線情報)を入力信号とし、光線情報から任意の距離に合焦したリフォーカス画像を生成して出力可能な装置である。
付加情報付与部115は、派生画像生成部112が生成したリフォーカス画像に、付加情報編集部114が抽出したタグ情報を付加して出力画像102を生成し(S407)、出力する(S408)。なお、出力画像102の用途は特に制限されず、記録媒体に記録されてもよいし、表示装置に表示されてもよいし、外部機器に送信されてもよいし、それらの組み合わせであってもよい。
図2(a)は光線情報101を撮影した視野の一例を示すリフォーカス画像である。光線情報101そのものは画像を表さないが、図2(a)では理解および説明を容易にするため、光線情報101から生成したリフォーカス画像を示している。また、ここでは、光線情報101のリフォーカス可能範囲の全域にわたり、被写体201〜203以外の被写体は識別できないものとする。
図2(a)に対応するタグ情報の一例を図2(b)に示す。図2(b)に示すタグ情報は、3人の被写体201〜203それぞれについて、識別名(A氏、B氏、C氏)と、距離情報が関連付けられている。なお、ここでの距離情報は、光線情報101を撮影した撮影機器からそれぞれの被写体までの距離(単位は任意)である。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
次に、本発明の実施形態2について説明する。図5は、本実施形態に係る画像処理装置の機能構成例を示すブロック図であり、実施形態1の画像処理装置100と同様の機能ブロックには同じ参照数字を付して重複する説明を省略する。
付加情報編集部114’は、派生画像解析部113が算出した被写界深度と、付加情報取得部111が取得したタグ情報と、距離情報算出部516が生成した距離マップとに基づいて特定のタグ情報を抽出する(S903、S405〜S406)。詳細は図7(c)および図8を用いて説明する。
図8(a)に示すように付加情報編集部114’は、被写体201〜203の特徴領域611〜613に対して決定した距離(距離マップの領域711〜713の距離)と、リフォーカス画像の被写界深度とをマッピングする(S405)。そして、被写界深度内に存在する被写体のタグ情報を抽出する(S406)。図8(a)に示す例では、被写界深度922内に被写体201と202が含まれるため、付加情報編集部114’は光線情報101の付加情報から被写体201と202のタグ情報を抽出し、付加情報付与部115に出力する(図8(b))。
その後の付加情報付与部115の動作は実施形態1と同様である(S407〜S408)。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
次に、本発明の実施形態3について説明する。本実施形態の画像処理装置は、派生画像解析部と付加情報編集部の動作が異なる以外、図1に示した画像処理装置100と同様の機能構成であるため、機能ブロック図は省略する。ただし、本実施形態の画像処理装置は110”、派生画像解析部は113”、付加情報編集部は114”として区別する。
以下、図11に示すフローチャートも合わせて参照し、画像処理装置100”の構成および動作について、実施形態1との相異点を重点的に説明する。図11において実施形態1と同様の処理ステップには同じ参照数字を付して説明を省略する。
付加情報編集部114"は、付加情報取得部111が取得したタグ情報と、派生画像解析部113"が生成したボケ量マップとから、付加情報取得部111が取得したタグ情報から特定のタグ情報を抽出する(S1103〜S1104)。詳細は図10を用いて後述する。
派生画像解析部113"は、まずリフォーカス画像1000を予め決められたボケ量算出エリア(以下「Bエリア」と呼ぶ)に分割する。図10(a)は、リフォーカス画像1000を実施形態2のDエリアと同様に複数のBエリア1001に分割した例を示す。ここで、Bエリア1001の分割数は画像処理装置100”の演算能力やリフォーカス画像1000の画像サイズなどに応じて適宜決めることができる。
また、本実施形態は光線情報の付加情報から適切なものを抽出する構成であるため、リフォーカス画像から新たに付加情報を生成するよりも軽い処理で済むという利点がある。
次に、本発明の実施形態4について説明する。実施形態1〜3では、光線情報101に付加されているタグ情報からリフォーカス画像に適したタグ情報を抽出するものであった。本実施形態は、光線情報101のタグ情報を用いずに、派生画像からタグ情報を生成する構成を有する。
図13(a)に実施形態1と同様の被写体が撮影されているリフォーカス画像の一例を示す。被写体検出部117は、図13(a)のリフォーカス画像から被写体領域として顔領域を検出し、その位置情報を被写体検出情報として出力する。ここで、被写体の位置情報は、被写体の顔領域の外接矩形領域211〜213を特定する画像座標情報であり、ここでは、左上および右下の頂点の画像座標情報であるとする。
被写体認識部118は、被写体検出部117から得られる被写体領域(顔領域)の位置情報に基づき、リフォーカス画像の各顔領域について特徴量を求める。ここでの特徴量とは顔画像の個人差を示す値であり、例えば、特開2001−256496号公報に記載されているような値であってよいが、顔領域から得られ、かつ個人識別に利用可能な任意の値を特徴量として用いることができる。
また、本実施形態は光線情報の付加情報を用いないので、光線情報に付加情報が付加されていない場合や、何らかの理由で付加情報が利用できない場合であっても適切な付加情報をリフォーカス画像に付与することができるという利点がある。
以下、本発明の実施形態5について説明する。図16は、本実施形態に係る画像処理装置400の機能構成例を示すブロック図である。図16において、図1に示した画像処理装置100もしくは図12に示した画像処理装置120と同様の機能構成には同じ参照数字を付して説明を省略する。以下、図17に示すフローチャートも合わせて参照し、画像処理装置400の構成および動作について、実施形態1および4との相異点を重点的に説明する。図17において実施形態1または4と同様の処理ステップには同じ参照数字を付して説明を省略する。
また、データベース部119には、図14(b)に示した識別データのうち、C氏の認識データ以外が保存されており、リフォーカス画像は図13(a)に示す画像と同じであるとする。また、被写体認識部118が被写体201〜203に対して算出した特徴量は、図14に示した実施形態4での特徴量と同じであるとする。
。
本実施形態のデータベース部119はC氏に関する認識データがないので、被写体203について求めた特徴量CCCをクエリとしてデータベース部119に問い合わせても、識別名を得ることはできない。この場合、実施形態4と同様、被写体認識部118は“該当なし”を認識結果として出力する。
この取得方法に特に制限は無いが、例えば光線情報101から抽出したタグ情報に特徴量の情報が含まれていれば、データベース部119への照会と同様、識別名”該当無し”に対応する特徴量を用いてタグ情報を探索して該当する識別名を取得することができる。また、図6に示したようにタグ情報が各被写体の位置情報を含んでいれば、リフォーカス画像中の被写体位置と合致もしくは特徴領域の重複量もしくは比率が閾値以上である被写体の識別名を取得すればよい。
画像処理装置が自動的に決定できない場合に、ユーザに指定させるようにするなど、複数の方法を組み合わせて用いてもよい。
以下、本発明の実施形態6について説明する。図19は、本実施形態に係る画像処理装置900の機能構成例を示すブロック図である。図19において、図1に示した画像処理装置100、図12に示した画像処理装置120、もしくは図16に示した画像処理装置400と同様の機能構成には同じ参照数字を付して説明を省略する。以下、図20に示すフローチャートも合わせて参照し、画像処理装置900の構成および動作について、実施形態1、4との相異点を重点的に説明する。図20において実施形態1または4と同様の処理ステップには同じ参照数字を付して説明を省略する。
S2104で被写体検出部117’は、S2103で見つかった、座標情報の対応するタグ情報に含まれる被写体の識別名を付加情報として取得する。
上述の実施形態では、派生画像生成部がリフォーカス画像を生成する場合のみを説明したが、元の光線情報よりもリフォーカス可能範囲の狭い光線情報を生成する場合であっても本発明を適用可能である。元の光線情報よりもリフォーカス可能範囲の狭い光線情報は、例えば、視差の違いの小さい画素同士を加算したり、一部の視点や一部の瞳領域を通過する画素からの光線情報を削減したりすることで生成できる。この場合、リフォーカス可能範囲が合焦距離の範囲を示すため、例えば実施形態1,2の場合であれば、リフォーカス可能範囲の近位端から近位側の被写界深度と、遠位端から遠位側の被写界深度との間に含まれる被写体の情報を付加すればよい。他の実施形態においても、リフォーカス可能範囲の少なくとも近位端と遠位端に対応する合焦距離でリフォーカス画像を生成し、各リフォーカス画像についての処理結果を合成すればよい。
Claims (16)
- 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置であって、
前記光線情報から派生画像を生成する画像生成手段と、
前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析手段と、
前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成手段と、
前記情報生成手段が生成した前記付加情報を前記派生画像に付加する付与手段と、
を有し、
前記情報生成手段が、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得手段が取得した付加情報から抽出することにより、前記派生画像に付与する付加情報を生成する、
ことを特徴とする画像処理装置。 - 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置であって、
前記光線情報から派生画像を生成する画像生成手段と、
前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析手段と、
前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成手段と、
前記情報生成手段が生成した前記付加情報を前記派生画像に付加する付与手段と、
を有し、
前記派生画像は、前記光線情報よりも合焦可能な被写体距離の範囲が狭い光線情報に対応する画像であることを特徴とする画像処理装置。 - 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段をさらに有し、
前記情報生成手段が、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得手段が取得した付加情報から抽出することにより前記派生画像に付与する付加情報を生成する、
ことを特徴とする請求項2記載の画像処理装置。 - 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、被写体距離が前記被写界深度に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
ことを特徴とする請求項1または3記載の画像処理装置。 - 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、被写体距離が前記被写界深度を予め定められた拡張した範囲に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
ことを特徴とする請求項1または3記載の画像処理装置。 - 前記派生画像の特徴を表す情報が、前記派生画像の被写界深度であり、
前記画像処理装置が、前記光線情報と前記付加情報とから、前記付加情報に含まれる被写体情報の各々についての被写体距離を求める距離算出手段をさらに有し、
前記情報生成手段が、前記取得手段が取得した付加情報に含まれる被写体情報のうち、前記距離算出手段が求めた被写体距離が前記被写界深度に含まれる被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、
ことを特徴とする請求項1または3記載の画像処理装置。 - 前記距離算出手段が、
前記光線情報から、前記光線情報の撮影範囲の被写体距離の分布を表す距離マップを生成する距離マップ生成手段と、
前記取得手段が取得した付加情報に含まれる被写体情報に含まれる被写体の位置情報と、前記距離マップとから前記被写体距離を求める算出手段と、
を有することを特徴とする請求項6記載の画像処理装置。 - 前記派生画像におけるボケ量の分布を表すボケ量マップを生成するボケ量マップ生成手段と、
前記取得手段が取得した付加情報に含まれる被写体情報に含まれる被写体の位置情報と、前記ボケ量マップとから、被写体ごとのボケ量を求めるボケ量算出手段と、をさらに有し、
前記情報生成手段が、前記ボケ量算出手段が求めたボケ量が予め定められた閾値より小さい被写体の被写体情報を抽出することにより前記派生画像に付与する付加情報を生成する、ことを特徴とする請求項1または3記載の画像処理装置。 - 前記解析手段が、前記派生画像に含まれる予め定められた被写体の情報を前記派生画像の特徴を表す情報として取得し、
前記情報生成手段は、前記被写体の情報を用いて、前記派生画像に含まれる予め定められた被写体の識別情報を、前記派生画像に付与する付加情報として取得することを特徴とする請求項2記載の画像処理装置。 - 前記情報生成手段は、予め用意された、被写体の識別情報と被写体の情報とが関連付けられた認識データを用いて、前記識別情報を取得することを特徴とする請求項9記載の画像処理装置。
- 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
前記情報生成手段が前記被写体情報を取得できなかった被写体について、前記取得手段が取得した付加情報から前記派生画像に付与する付加情報を生成する第2情報生成手段と、をさらに有し、
前記付与手段が、前記情報生成手段と前記第2情報生成手段が生成する付加情報を前記派生画像に付与する、ことを特徴とする請求項9または10に記載の画像処理装置。 - 前記光線情報から、被写体情報を含んだ付加情報を取得する取得手段と、
前記派生画像に含まれる予め定められた被写体の特徴を表す情報を用いて、前記派生画像に付与する付加情報を生成する第2情報生成手段と、をさらに有し、
前記解析手段が、前記予め定められた被写体の位置情報を前記派生画像の特徴を表す情報として取得し、
前記情報生成手段は、前記位置情報を用いて、前記付加情報に含まれる被写体情報から、前記予め定められた被写体の識別情報を、前記派生画像に付与する付加情報として取得し、
前記第2情報生成手段は、前記予め定められた被写体のうち、前記情報生成手段によって識別情報が取得できなかった被写体について、前記付加情報を生成する、
ことを特徴とする請求項9記載の画像処理装置。 - 前記派生画像は、いずれかの被写体距離に合焦した画像であることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
- 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置の制御方法であって、
画像生成手段が、前記光線情報から派生画像を生成する画像生成工程と、
取得手段が、前記光線情報から、被写体情報を含んだ付加情報を取得する取得工程と、
解析手段が、前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析工程と、
情報生成手段が、前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成工程と、
前記情報生成工程で生成された付加情報を付与手段が前記派生画像に付加する付与工程と、
を有し、
前記情報生成工程では、前記派生画像の特徴を表す情報に基づく被写体情報を、前記取得工程で取得した付加情報から抽出することにより、前記派生画像に付与する付加情報を生成する、
することを特徴とする画像処理装置の制御方法。 - 光の強度分布及び光の入射方向を示す光線情報を処理する画像処理装置の制御方法であって、
画像生成手段が、前記光線情報から派生画像を生成する画像生成工程と、
解析手段が、前記派生画像を解析し、前記派生画像の特徴を表す情報を取得する解析工程と、
情報生成手段が、前記派生画像の特徴を表す情報に基づいて、前記派生画像に付与する付加情報を生成する情報生成工程と、
前記情報生成工程で生成された前記付加情報を付与手段が前記派生画像に付加する付与工程と、
を有し、
前記派生画像は、前記光線情報よりも合焦可能な被写体距離の範囲が狭い光線情報に対応する画像であることを特徴とする画像処理装置の制御方法。 - コンピュータを、請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014029962A JP6320075B2 (ja) | 2014-02-19 | 2014-02-19 | 画像処理装置およびその制御方法 |
| US14/625,262 US9727585B2 (en) | 2014-02-19 | 2015-02-18 | Image processing apparatus and method for controlling the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014029962A JP6320075B2 (ja) | 2014-02-19 | 2014-02-19 | 画像処理装置およびその制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015156054A JP2015156054A (ja) | 2015-08-27 |
| JP6320075B2 true JP6320075B2 (ja) | 2018-05-09 |
Family
ID=53798289
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014029962A Active JP6320075B2 (ja) | 2014-02-19 | 2014-02-19 | 画像処理装置およびその制御方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9727585B2 (ja) |
| JP (1) | JP6320075B2 (ja) |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5671842B2 (ja) * | 2010-06-03 | 2015-02-18 | 株式会社ニコン | 画像処理装置および撮像装置 |
| EP3026628A1 (en) * | 2014-11-26 | 2016-06-01 | Thomson Licensing | Method and apparatus for estimating depth of unfocused plenoptic data |
| JP6626257B2 (ja) | 2015-03-03 | 2019-12-25 | キヤノン株式会社 | 画像表示装置、撮像装置、画像表示方法、プログラム、記憶媒体 |
| JP6800671B2 (ja) * | 2016-09-15 | 2020-12-16 | ヤフー株式会社 | 付与装置、付与方法および付与プログラム |
| JP2019215489A (ja) * | 2018-06-14 | 2019-12-19 | オリンパス株式会社 | 撮像装置および焦点調節方法 |
| WO2021124873A1 (ja) * | 2019-12-19 | 2021-06-24 | 富士フイルム株式会社 | 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム |
| US20240096119A1 (en) * | 2020-12-30 | 2024-03-21 | Synchronoss Technologies, Inc. | Depth Based Image Tagging |
| JP7447042B2 (ja) * | 2021-03-17 | 2024-03-11 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
| WO2022201826A1 (ja) * | 2021-03-26 | 2022-09-29 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、及び、情報処理装置 |
| US11893668B2 (en) | 2021-03-31 | 2024-02-06 | Leica Camera Ag | Imaging system and method for generating a final digital image via applying a profile to image information |
| US12254644B2 (en) | 2021-03-31 | 2025-03-18 | Leica Camera Ag | Imaging system and method |
| US12450701B2 (en) * | 2023-06-28 | 2025-10-21 | Motorola Mobility Llc | Electronic devices and corresponding methods for creating and presenting altered image sensor data simulating a bokeh effect |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4521086B2 (ja) | 2000-03-13 | 2010-08-11 | 株式会社東芝 | 顔画像認識装置及び顔画像認識方法 |
| JP5300133B2 (ja) * | 2008-12-18 | 2013-09-25 | 株式会社ザクティ | 画像表示装置及び撮像装置 |
| US8233078B2 (en) * | 2009-02-19 | 2012-07-31 | Apple Inc. | Auto focus speed enhancement using object recognition and resolution |
| JP5206494B2 (ja) * | 2009-02-27 | 2013-06-12 | 株式会社リコー | 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法 |
| JP2011022796A (ja) | 2009-07-15 | 2011-02-03 | Canon Inc | 画像処理方法および画像処理装置 |
| US8611592B2 (en) * | 2009-08-26 | 2013-12-17 | Apple Inc. | Landmark identification using metadata |
| JP5371686B2 (ja) * | 2009-10-22 | 2013-12-18 | オリンパス株式会社 | 撮像装置、撮像方法、及び撮像システム |
| US8311278B2 (en) * | 2009-12-22 | 2012-11-13 | Xerox Corporation | Method and system for automated subject identification in group photos |
| WO2012034174A1 (en) * | 2010-09-14 | 2012-03-22 | Dynamic Digital Depth Research Pty Ltd | A method for enhancing depth maps |
| US8842213B2 (en) * | 2011-04-18 | 2014-09-23 | Panasonic Corporation | Image capture device, image capture device focus control method, and integrated circuit |
| JP6080417B2 (ja) * | 2011-08-19 | 2017-02-15 | キヤノン株式会社 | 画像処理装置、及び画像処理方法 |
| JP5854984B2 (ja) * | 2012-02-20 | 2016-02-09 | キヤノン株式会社 | 画像処理装置、撮像装置、制御方法、及びプログラム |
| KR20130098042A (ko) * | 2012-02-27 | 2013-09-04 | 삼성전자주식회사 | 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치 |
| JP5882805B2 (ja) * | 2012-03-26 | 2016-03-09 | キヤノン株式会社 | 情報処理装置、その処理方法及びプログラム |
| JP6207202B2 (ja) * | 2012-06-08 | 2017-10-04 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
| US9124762B2 (en) * | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
| JP6047025B2 (ja) * | 2013-02-01 | 2016-12-21 | キヤノン株式会社 | 撮像装置及びその制御方法 |
| JP6112925B2 (ja) * | 2013-03-15 | 2017-04-12 | オリンパス株式会社 | 表示機器及び表示方法 |
| KR20140123302A (ko) * | 2013-04-12 | 2014-10-22 | 삼성전자주식회사 | 영상 처리 장치 및 그 제어방법 |
| JP6288952B2 (ja) * | 2013-05-28 | 2018-03-07 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP2014238731A (ja) * | 2013-06-07 | 2014-12-18 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、および画像処理方法 |
| JP5713055B2 (ja) * | 2013-06-20 | 2015-05-07 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
| CN104281397B (zh) * | 2013-07-10 | 2018-08-14 | 华为技术有限公司 | 多深度区间的重聚焦方法、装置及电子设备 |
| JP6061816B2 (ja) * | 2013-08-22 | 2017-01-18 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体 |
| CN104427237B (zh) * | 2013-09-05 | 2018-08-21 | 华为技术有限公司 | 一种聚焦图片的显示方法及图像处理设备 |
| US9420168B2 (en) * | 2013-09-20 | 2016-08-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| JP6173156B2 (ja) * | 2013-10-02 | 2017-08-02 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
-
2014
- 2014-02-19 JP JP2014029962A patent/JP6320075B2/ja active Active
-
2015
- 2015-02-18 US US14/625,262 patent/US9727585B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20150234865A1 (en) | 2015-08-20 |
| US9727585B2 (en) | 2017-08-08 |
| JP2015156054A (ja) | 2015-08-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6320075B2 (ja) | 画像処理装置およびその制御方法 | |
| KR101893047B1 (ko) | 이미지 처리 방법 및 이미지 처리 장치 | |
| TWI434567B (zh) | An image processing apparatus, an image processing method, an image processing program, and a recording medium | |
| JP6305053B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
| JP2016213825A (ja) | 非ライトフィールドイメージングデバイスを用いてライトフィールドデータを取得する方法、対応するデバイス、コンピュータプログラム製品、および非一時的コンピュータ可読キャリア媒体 | |
| JP2016533566A (ja) | 虹彩撮像装置及び虹彩撮像装置を構成するための方法 | |
| JP6376474B2 (ja) | 多眼撮像システム、取得画像の合成処理方法、及びプログラム | |
| CN107690673A (zh) | 图像处理方法、装置及服务器 | |
| CN108076278A (zh) | 一种自动对焦方法、装置及电子设备 | |
| US12038966B2 (en) | Method and apparatus for data retrieval in a lightfield database | |
| HK1209884A1 (en) | Method, apparatus and system for generating interior 2d plan | |
| JP2014153890A5 (ja) | ||
| JP2009047497A (ja) | 立体撮像装置および立体撮像装置の制御方法並びにプログラム | |
| JP6234401B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
| JP2012015642A (ja) | 撮像装置 | |
| JP2016122444A (ja) | 焦点スタックから適応スライス画像を生成する方法および装置 | |
| JP2018029270A (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
| CN105180802A (zh) | 一种物体尺寸信息识别方法和装置 | |
| CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
| JP6294703B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
| KR20180069312A (ko) | 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치 | |
| JP6491442B2 (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
| JP7373297B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP2018049396A (ja) | 形状推定方法、形状推定装置および形状推定プログラム | |
| JP2015084517A (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180117 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180126 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180131 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180305 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180403 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6320075 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |