[go: up one dir, main page]

JP2008067093A - Camera system, image processing apparatus, and image processing program - Google Patents

Camera system, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2008067093A
JP2008067093A JP2006243260A JP2006243260A JP2008067093A JP 2008067093 A JP2008067093 A JP 2008067093A JP 2006243260 A JP2006243260 A JP 2006243260A JP 2006243260 A JP2006243260 A JP 2006243260A JP 2008067093 A JP2008067093 A JP 2008067093A
Authority
JP
Japan
Prior art keywords
image
image processing
unit
depth
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006243260A
Other languages
Japanese (ja)
Inventor
Tomomi Takashina
知巳 高階
Yuji Kuniyone
祐司 國米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006243260A priority Critical patent/JP2008067093A/en
Publication of JP2008067093A publication Critical patent/JP2008067093A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for effectively using three-dimensional measurement data of each part of a field for image processing. <P>SOLUTION: A camera system obtains depth data of the field in each part of an image by three-dimensional measurement. The depth data are made into a gradation map so as to generate an image file with a depth map. An image processor acquires the depth map from the image file with the depth map and controls the image processing in each part of the image on the basis of the depth map. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラシステム、画像処理装置、および画像処理プログラムに関する。   The present invention relates to a camera system, an image processing apparatus, and an image processing program.

下記の特許文献1には、画像ファイルから撮像レンズのピント距離(被写体距離レンジ,被写体距離情報)を取得して、ピント距離から主要被写体を推定する技術が開示されている。例えば、被写体距離レンジが近景撮影を示す場合は、人物が主要被写体であると判断し、肌色検出を行うことで主要被写体を検出する。また、被写体距離レンジが遠景撮影を示す場合は、景色が主要被写体であると判断し、青空検出などにより主要被写体を検出する。
特開2005−174247公報
Patent Document 1 below discloses a technique for acquiring a focus distance (subject distance range, subject distance information) of an imaging lens from an image file and estimating a main subject from the focus distance. For example, when the subject distance range indicates foreground shooting, it is determined that the person is the main subject, and the main subject is detected by performing skin color detection. Further, when the subject distance range indicates distant shooting, it is determined that the scenery is the main subject, and the main subject is detected by blue sky detection or the like.
JP 2005-174247 A

ところで、公知の3次元計測技術(視差検出、光切断法、レンズのフォーカススキャンに伴う鮮鋭箇所の検出など)を用いた3次元計測装置が知られている。この種の3次元計測装置を用いることで、被写界の各部について3次元計測データを得ることができる。
本発明は、この被写界の3次元計測データを、画像処理に有効利用するための技術を提供することを目的とする。
By the way, a three-dimensional measurement apparatus using a known three-dimensional measurement technique (parallax detection, light cutting method, detection of a sharp portion accompanying a focus scan of a lens, etc.) is known. By using this type of three-dimensional measurement apparatus, three-dimensional measurement data can be obtained for each part of the object scene.
An object of the present invention is to provide a technique for effectively using the three-dimensional measurement data of the object scene for image processing.

《1》 本発明のカメラシステムは、撮像部、3次元計測装置、データ処理部、およびファイル生成部を備える。
撮像部は、被写界を撮影して画像データを生成する。
3次元計測装置は、撮像部が撮影する被写界について3次元計測を実施し、被写界の3次元計測データを生成する。
データ処理部は、3次元計測データから得られる被写界の奥行きデータを、画像データの画素単位または画像領域単位に配列して階調マップ化することにより、画像データと対応する奥行きマップを生成する。
ファイル生成部は、奥行きマップを画像データに付属させて記録することにより、奥行きマップ付きの画像ファイルを生成する。
《2》 本発明の画像処理装置は、ファイル取得部、および画像処理部を備える。
ファイル取得部は、請求項1に記載のカメラシステムにおいて生成された奥行きマップ付きの画像ファイルを取り込み、画像データと奥行きマップを得る。
画像処理部は、奥行きマップに基づいて、画像データの画像各部における画像処理を制御する。
なお、ここでの画像処理は、画質調整のように画像を加工する処理、または光源推定のように画像を解析する処理のいずれでもよい。
《3》 なお好ましくは、画像処理部は、操作部、マスク生成部、および処理演算部を備える。
操作部は、ユーザー操作に従って、画像上の位置(以下コントロールポイントという)の入力を受け付ける。
マスク生成部は、奥行きマップに基づいて、コントロールポイントを含む所定の奥行き範囲に収まる選択範囲を抽出して処理マスクを生成する。
処理演算部は、処理マスクに応じて、画像各部の画像処理の反映度合いを制御する。
《4》 また好ましくは、画像処理部は、閃光マップ生成部、および処理演算部を備える。
閃光マップ生成部は、画像ファイルから閃光照明の発光量を情報取得する。閃光マップ生成部は、奥行きマップと発光量とに基づいて、画像各部における閃光照明の光量分布を求めて、閃光マップとする。
処理演算部は、この閃光マップに応じて画像データの画像各部の明るさ調整を制御する。
《5》 また好ましくは、画像処理部は、ブレ検出部、フィルタ作成部、および処理演算部を備える。
ブレ検出部は、奥行きマップに基づいて、画像データを奥行き別に領域分割し、領域分割された画像データごとに画像ブレを検出する。
フィルタ作成部は、奥行き別に画像ブレを表す点像関数の逆フィルタを求める。
処理演算部は、画像データの奥行き別に逆フィルタをかけて、画像データの画像ブレを軽減する。
《6》 なお好ましくは、画像処理部は、光源推定部、および処理演算部を備える。
光源推定部は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。光源推定部は、これら領域分割された画像データごとに光源推定の画像処理を実施する。
処理演算部は、奥行き別に求めた光源推定結果に応じて、画像データに施すホワイトバランス調整を制御する。
《7》 本発明の画像処理プログラムは、コンピュータを、上記《1》〜《6》のいずれか1項に記載の画像処理装置として機能させるためのプログラムである。
<< 1 >> The camera system of the present invention includes an imaging unit, a three-dimensional measurement device, a data processing unit, and a file generation unit.
The imaging unit shoots the scene and generates image data.
The three-dimensional measuring device performs three-dimensional measurement on the scene captured by the imaging unit, and generates three-dimensional measurement data of the scene.
The data processing unit generates a depth map corresponding to the image data by arranging the depth data of the object scene obtained from the three-dimensional measurement data in a pixel unit or image area unit of the image data and converting it into a gradation map. To do.
The file generation unit generates an image file with a depth map by recording the depth map attached to the image data.
<< 2 >> The image processing apparatus of the present invention includes a file acquisition unit and an image processing unit.
The file acquisition unit takes in an image file with a depth map generated in the camera system according to claim 1 and obtains image data and a depth map.
The image processing unit controls image processing in each part of the image data based on the depth map.
The image processing here may be either processing for processing an image like image quality adjustment or processing for analyzing an image like light source estimation.
<< 3 >> Preferably, the image processing unit includes an operation unit, a mask generation unit, and a processing calculation unit.
The operation unit receives an input of a position on the image (hereinafter referred to as a control point) according to a user operation.
Based on the depth map, the mask generation unit extracts a selection range that falls within a predetermined depth range including the control point, and generates a processing mask.
The processing operation unit controls the degree of reflection of the image processing of each part of the image according to the processing mask.
<< 4 >> Preferably, the image processing unit includes a flash map generation unit and a processing calculation unit.
The flash map generation unit acquires information on the amount of flash illumination from the image file. The flash map generation unit obtains a light amount distribution of flash illumination in each part of the image based on the depth map and the light emission amount, and sets it as a flash map.
The processing calculation unit controls the brightness adjustment of each part of the image data in accordance with the flash map.
<< 5 >> Preferably, the image processing unit includes a shake detection unit, a filter creation unit, and a processing calculation unit.
The blur detection unit divides the image data into regions based on the depth based on the depth map, and detects image blur for each of the divided image data.
The filter creation unit obtains an inverse filter of a point spread function representing image blur for each depth.
The processing calculation unit applies an inverse filter according to the depth of the image data to reduce image blur of the image data.
<< 6 >> Preferably, the image processing unit includes a light source estimation unit and a processing calculation unit.
The light source estimation unit divides the image data into regions by depth based on the depth map. The light source estimation unit performs light source estimation image processing for each of the divided image data.
The processing calculation unit controls white balance adjustment applied to the image data in accordance with the light source estimation result obtained for each depth.
<< 7 >> The image processing program of the present invention is a program for causing a computer to function as the image processing apparatus described in any one of the above << 1 >> to << 6 >>.

本発明のカメラシステムでは、被写界の奥行きマップを生成して、画像データに付属させる。したがって、画像データの表示や後処理などにおいて、付属する奥行きマップを参照することで、画像各部の被写体の奥行きを知ることができる。   In the camera system of the present invention, a depth map of the object scene is generated and attached to the image data. Therefore, it is possible to know the depth of the subject in each part of the image by referring to the attached depth map in image data display or post-processing.

一方、本発明の画像処理装置およびそのプログラムでは、奥行きマップに基づいて、画像各部の画像処理を制御する。その結果、画像各部の奥行きによる影響を考慮した高度な画質調整や画像解析が可能になる。   On the other hand, in the image processing apparatus and the program of the present invention, image processing of each part of the image is controlled based on the depth map. As a result, it is possible to perform advanced image quality adjustment and image analysis in consideration of the influence of the depth of each part of the image.

[カメラシステム101の構成]
図1は、カメラシステム101のシステム構成を示すブロック図である。
図1において、カメラシステム101には、撮像部11、データ処理部12、およびファイル生成部13などからなるカメラ本体が設けられる。さらに、このカメラ本体のアクセサリーシューなどには、3次元計測装置14が装着される。
[Configuration of Camera System 101]
FIG. 1 is a block diagram showing a system configuration of the camera system 101.
In FIG. 1, the camera system 101 is provided with a camera body including an imaging unit 11, a data processing unit 12, a file generation unit 13, and the like. Further, a three-dimensional measuring device 14 is attached to an accessory shoe or the like of the camera body.

[画像処理装置102の構成]
図2は、画像処理装置102のシステム構成を示すブロック図である。
図2において、画像処理装置102は、ファイル取得部21、画像処理部22、およびモニタ装置23を備えて概略構成される。
この画像処理部22は、処理演算部24、操作部25、マスク生成部26、閃光マップ生成部27、ブレ検出部28、フィルタ作成部29、および光源推定部30を備えて構成される。
なお、この画像処理装置102については、画像処理プログラムとコンピュータによってソフトウェア的に実現してもよい。
[Configuration of Image Processing Device 102]
FIG. 2 is a block diagram illustrating a system configuration of the image processing apparatus 102.
In FIG. 2, the image processing apparatus 102 is schematically configured to include a file acquisition unit 21, an image processing unit 22, and a monitor device 23.
The image processing unit 22 includes a processing calculation unit 24, an operation unit 25, a mask generation unit 26, a flash map generation unit 27, a shake detection unit 28, a filter generation unit 29, and a light source estimation unit 30.
The image processing apparatus 102 may be realized as software by an image processing program and a computer.

[カメラシステム101の動作説明]
図3は、カメラシステム101の動作を説明する流れ図である。
以下、図3に示すステップ番号に沿って、この動作を説明する。
[Description of Operation of Camera System 101]
FIG. 3 is a flowchart for explaining the operation of the camera system 101.
Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS1: 撮像部11は、ユーザーによるレリーズ操作を待機する。このレリーズ操作を受け付けると、ステップS2に動作を移行する。 Step S1: The imaging unit 11 waits for a release operation by the user. When this release operation is accepted, the operation proceeds to step S2.

ステップS2: 撮像部11は、被写界を撮影し、画像データAを生成する。画像データAは、データ処理部12へ出力される。 Step S2: The imaging unit 11 captures an object scene and generates image data A. Image data A is output to the data processing unit 12.

ステップS3: データ処理部12は、3次元計測装置14に対して、3次元計測を指示する。3次元計測装置14は、撮像部11から所定の基線長だけ離れた位置から被写界を撮影し、視差比較用の画像データBを生成する。 Step S3: The data processing unit 12 instructs the three-dimensional measurement device 14 to perform three-dimensional measurement. The three-dimensional measuring device 14 captures the object scene from a position away from the imaging unit 11 by a predetermined baseline length, and generates image data B for parallax comparison.

ステップS4: データ処理部12は、撮像部11の焦点距離から撮影画角を求め、3次元計測装置14に伝達する。3次元計測装置14は、この撮影画角に基づいて、画像データA,Bに写る被写体の画素数サイズが等しくなるよう解像度調整を実施する。 Step S <b> 4: The data processing unit 12 obtains a shooting angle of view from the focal length of the imaging unit 11 and transmits it to the three-dimensional measurement device 14. The three-dimensional measuring device 14 adjusts the resolution based on the shooting angle of view so that the size of the number of pixels of the subject in the image data A and B becomes equal.

ステップS5: 3次元計測装置14は、ステップS4で処理された画像データA,Bの間でブロックマッチングを行い、基線長方向の視差を検出する。 Step S5: The three-dimensional measuring device 14 performs block matching between the image data A and B processed in step S4, and detects parallax in the baseline length direction.

ステップS6: 3次元計測装置14は、ブロック単位の視差に基づいて、ブロック単位の奥行きデータを求める。なお、この奥行きデータは、計測精度や人間の距離感覚の観点から、対数値のように遠いほど数値間隔を圧縮した値にすることが好ましい。 Step S6: The three-dimensional measurement device 14 obtains depth data in units of blocks based on the parallax in units of blocks. The depth data is preferably a value obtained by compressing the numerical interval as the distance increases, from the viewpoint of measurement accuracy and human distance perception.

ステップS7: 3次元計測装置14は、ブロック単位の奥行きデータを、ステップS2で生成された画像データAの画素単位または画像領域単位に配列して階調マップ化し、奥行きマップを生成する。 Step S7: The three-dimensional measurement device 14 arranges the depth data in units of blocks in pixel units or image area units of the image data A generated in step S2 and generates a gradation map, thereby generating a depth map.

ステップS8: ファイル生成部13は、ステップS2で生成された画像データAと、奥行きマップとをまとめて画像ファイルを生成する。
例えば、画像データAのαチャネルに奥行きマップを格納してもよい。
また例えば、画像ファイル内の付随情報領域(メーカーノートなど)に奥行きマップを格納してもよい。
また例えば、画像ファイルと対応付けられる別ファイル(画像ファイルと同一ファイル名で拡張子のみを変えるなど)に奥行きマップを格納してもよい。
このように作成された奥行きマップ付きの画像ファイルは、ファイル生成部13を介して、メモリーカードなどの記録媒体に保存される。
Step S8: The file generation unit 13 generates an image file by combining the image data A generated in step S2 and the depth map.
For example, the depth map may be stored in the α channel of the image data A.
Further, for example, the depth map may be stored in an accompanying information area (such as a manufacturer note) in the image file.
Also, for example, the depth map may be stored in another file associated with the image file (for example, only the extension is changed with the same file name as the image file).
The image file with the depth map created in this way is stored in a recording medium such as a memory card via the file generation unit 13.

[画像処理装置102の動作説明]
カメラシステム101で作成された奥行きマップ付きの画像ファイルは、記録媒体や通信媒体などを介して、画像処理装置102に伝達される。画像処理装置102では、奥行きマップを参照しつつ、画像ファイルに対して事後的な画像処理を実施する。この画像処理により、画像各部の奥行きを考慮した高度な画質調整または画像解析が実現する。
以下、これら画像処理ごとに、画像処理装置102の動作を具体的に説明する。
[Description of Operation of Image Processing Device 102]
The image file with the depth map created by the camera system 101 is transmitted to the image processing apparatus 102 via a recording medium or a communication medium. The image processing apparatus 102 performs subsequent image processing on the image file while referring to the depth map. By this image processing, advanced image quality adjustment or image analysis in consideration of the depth of each part of the image is realized.
Hereinafter, the operation of the image processing apparatus 102 will be specifically described for each of these image processes.

(1)コントロールポイントによる処理
画像処理装置102では、ユーザーがGUI(Graphical User Interface)操作を行うことにより、画像上にコントロールポイントを配置する。このコントロールポイントを介して、所望の画質調整を行うことができる。
図4は、このコントロールポイントを用いた画像処理の流れを説明する図である。以下、図4に示すステップ番号に沿って、この動作を説明する。
(1) Processing by Control Point In the image processing apparatus 102, a user performs a GUI (Graphical User Interface) operation to arrange a control point on the image. A desired image quality adjustment can be performed via this control point.
FIG. 4 is a diagram for explaining the flow of image processing using this control point. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS11: 画像処理装置102のファイル取得部21は、カメラシステム101で作成された奥行きマップ付きの画像ファイルを取り込み、内部のメモリ領域に格納する。ファイル取得部21は、この奥行きマップ付きの画像ファイルから、画像データと奥行きマップを抽出する。 Step S11: The file acquisition unit 21 of the image processing apparatus 102 takes in an image file with a depth map created by the camera system 101 and stores it in an internal memory area. The file acquisition unit 21 extracts image data and a depth map from the image file with the depth map.

ステップS12: 操作部25は、ユーザーからのGUI操作により、画像上の位置指定を受け付け、その位置にコントロールポインタPを配置する(図5参照)。
このコントロールポインタPには、下記の調整スライダが表示される。
(a)奥行き範囲の前後幅の調整スライダ
(b)色相パラメータの調整スライダ
(c)彩度パラメータの調整スライダ
(d)明るさパラメータの調整スライダ
(e)コントラストパラメータの調整スライダ
(f)赤成分パラメータの調整スライダ
(g)緑成分パラメータの調整スライダ
(h)青成分パラメータの調整スライダ
(i)暖色系パラメータの調整スライダ
なお、サイズパラメータの調整スライダを加えて、コントロールポインタPから所定半径内に選択範囲(後述)を範囲制限してもよい。
Step S12: The operation unit 25 receives a position designation on the image by a GUI operation from the user, and places a control pointer P at the position (see FIG. 5).
On the control pointer P, the following adjustment slider is displayed.
(a) Front / rear width adjustment slider in the depth range
(b) Hue parameter adjustment slider
(c) Saturation parameter adjustment slider
(d) Brightness parameter adjustment slider
(e) Contrast parameter adjustment slider
(f) Red component parameter adjustment slider
(g) Green component parameter adjustment slider
(h) Blue component parameter adjustment slider
(i) Warm Color Parameter Adjustment Slider A size parameter adjustment slider may be added to limit the selection range (described later) within a predetermined radius from the control pointer P.

ステップS13: マスク生成部26は、奥行きマップを参照して、コントロールポインタPの配置箇所に位置する被写体の奥行きを求める。 Step S13: The mask generation unit 26 refers to the depth map to obtain the depth of the subject located at the position where the control pointer P is disposed.

ステップS14: マスク生成部26は、コントロールポインタPの奥行きに対して、予め設定される前後幅だけ広げて、奥行き範囲を定める。マスク生成部26は、奥行きマップを参照して、この奥向き範囲に入る画像領域を選択範囲として抽出する。 Step S <b> 14: The mask generation unit 26 determines the depth range by widening the depth of the control pointer P by a predetermined front-rear width. The mask generation unit 26 refers to the depth map, and extracts an image area that falls within the depth range as a selection range.

ステップS15: マスク生成部26は、選択範囲に高い不透明度を与えて、処理マスクを作成する。このとき、コントロールポインタPの奥行きに近いほど、高い不透明度を与えてもよい。 Step S15: The mask generation unit 26 gives a high opacity to the selection range and creates a processing mask. At this time, the closer to the depth of the control pointer P, the higher opacity may be given.

ステップS16: 操作部25は、コントロールポインタPの前後幅の調整スライダ(図5参照)の変更操作を受け付けると、ステップS14に動作を移行し、処理マスクの再設定を行う。前後幅の調整スライダの変更操作が無い場合、操作部25はステップS17に動作を移行する。
なお、この前後幅の調整プロセスにおいて、選択範囲を画像上に重ねて表示してもよい。このような選択範囲の表示により、選択範囲の状態をユーザーに知らせることができる。
Step S16: When the operation unit 25 receives an operation of changing the front-rear width adjustment slider (see FIG. 5) of the control pointer P, the operation unit 25 shifts the operation to step S14 and resets the processing mask. When there is no change operation of the front / rear width adjustment slider, the operation unit 25 shifts the operation to step S17.
It should be noted that the selection range may be displayed over the image in the front-rear width adjustment process. Such display of the selection range can inform the user of the state of the selection range.

ステップS17: 操作部25は、コントロールポインタPの画像処理パラメータの調整スライダ(図5参照)の変更操作を受け付けると、ステップS18に動作を移行する。画像処理パラメータの変更操作が無い場合、操作部25はステップS19に動作を移行する。 Step S17: When the operation unit 25 receives an operation for changing the image processing parameter adjustment slider (see FIG. 5) of the control pointer P, the operation unit 25 shifts the operation to step S18. When there is no image processing parameter change operation, the operation unit 25 shifts the operation to step S19.

ステップS18: 処理演算部24は、ステップS17で受け付けた画像処理パラメータの変更を、処理マスクの不透明度に応じて、画像データに反映させる。 Step S18: The processing calculation unit 24 reflects the change in the image processing parameter received in step S17 on the image data according to the opacity of the processing mask.

ステップS19: 操作部25は、ユーザーからコントロールポインタPの処理完了を指示されると、上述した一連の処理を完了する。一方、処理完了の指示が無い場合、ステップS16に動作を戻し、コントロールポインタPに関する画像処理を継続する。
このようなコントロールポインタPに関する処理により、所望の奥行き範囲に位置する被写体を選択範囲として抽出し、その被写体に対する画像処理を選択的に実施することが可能になる。
Step S19: When the operation unit 25 is instructed by the user to complete the process of the control pointer P, the operation unit 25 completes the series of processes described above. On the other hand, if there is no instruction to complete the processing, the operation returns to step S16, and the image processing relating to the control pointer P is continued.
By such processing related to the control pointer P, it is possible to extract a subject located in a desired depth range as a selection range and selectively perform image processing on the subject.

(2)閃光マップの処理
画像処理装置102では、閃光照明を行って撮影された画像データに対し、閃光マップを用いた画像処理が可能になる。
図6は、この閃光マップを用いた画像処理の流れを説明する図である。以下、図6に示すステップ番号に沿って、この動作を説明する。
(2) Flash Map Processing The image processing apparatus 102 can perform image processing using a flash map on image data shot with flash illumination.
FIG. 6 is a diagram for explaining the flow of image processing using this flash map. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS31: 上述したステップS11と同じ処理。 Step S31: The same process as step S11 described above.

ステップS32: 閃光マップ生成部27は、画像ファイルの付随情報から、閃光照明の発光量(またはその発光量の照射角分布)を情報取得する。 Step S32: The flash map generation unit 27 acquires information on the light emission amount of the flash illumination (or the irradiation angle distribution of the light emission amount) from the accompanying information of the image file.

ステップS33: 閃光マップ生成部27は、奥行きマップに基づいて、下記の情報を検出する。
(a)閃光照明の発光部から画像各部の被写体までの距離、
(b)閃光照明の中心軸から画像各部の被写体までの角度
(c)画像各部の被写体の面角度(奥行きデータを面方向に結んで得られる傾斜角度)
Step S33: The flash map generation unit 27 detects the following information based on the depth map.
(a) The distance from the light emitting part of the flashlight to the subject in each part of the image,
(b) Angle from the central axis of flash illumination to the subject in each part of the image
(c) Surface angle of subject in each part of image (inclination angle obtained by connecting depth data in the surface direction)

ステップS34: 閃光マップ生成部27は、発光量(または発光量の照射角分布)と、上記(a),(b)の情報から、画像各部の被写体に到達する照射光量を推定する。
さらに、閃光マップ生成部27は、上記(c)の面角度から、照射光量の何割がカメラ側に戻るかを求めることにより、反射光量を推定することもできる。
閃光マップ生成部27は、このように求めた画像各部の照射光量(または反射光量)を、画像データの画素単位または画像領域単位に配列して階調マップ化することにより、閃光マップを生成する。
Step S34: The flash map generation unit 27 estimates the amount of irradiation light reaching the subject of each part of the image from the light emission amount (or the irradiation angle distribution of the light emission amount) and the information (a) and (b).
Further, the flash map generation unit 27 can estimate the amount of reflected light by obtaining what percentage of the amount of irradiation light returns to the camera side from the surface angle of (c).
The flash map generation unit 27 generates the flash map by arranging the irradiation light amount (or reflection light amount) of each part of the image thus obtained in a pixel unit or image region unit of the image data and forming a gradation map. .

ステップS35: 閃光マップ生成部27は、閃光マップの照射光量(または反射光量)の低い箇所ほど高い不透明度を与えて、処理マスクを作成する。 Step S35: The flash map generation unit 27 creates a processing mask by giving a higher opacity to a portion where the irradiation light amount (or reflection light amount) of the flash map is lower.

ステップS36: 処理演算部24は、処理マスクの不透明度が高い箇所ほど、画像データを明るく調整する。また、処理マスクの不透明度が低い箇所ほど、画像データの明るさを下げる。
このような閃光マップに関する処理により、閃光照明の届きにくい被写体を選別し、その被写体を明るく調整することができる。また、閃光照明が強く当たるハイライト箇所を選別し、そのハイライト箇所の明るさを抑制することができる。
したがって、閃光照明の照明ムラを適度に抑え、自然な照明状態の画像データを得ることが可能になる。
Step S36: The processing calculation unit 24 adjusts the image data brighter as the opacity of the processing mask is higher. Further, the brightness of the image data is lowered as the opacity of the processing mask is lower.
By such processing related to the flash map, it is possible to select a subject that is difficult to reach flash light and to adjust the subject brightly. In addition, it is possible to select a highlight portion where the flash illumination is strongly applied, and to suppress the brightness of the highlight portion.
Therefore, it is possible to moderate the uneven illumination of the flash illumination and obtain image data in a natural illumination state.

(3)奥行き別のブレ補正処理
画像処理装置102では、奥行きマップを用いて、奥行き別のブレ補正処理を行うことができる。
図7は、この奥行き別のブレ補正処理の流れを説明する図である。以下、図7に示すステップ番号に沿って、この動作を説明する。
(3) Depth-specific blur correction processing The image processing apparatus 102 can perform depth-specific blur correction processing using a depth map.
FIG. 7 is a diagram for explaining the flow of the blur correction process for each depth. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS51: 上述したステップS11と同一の処理。 Step S51: The same process as step S11 described above.

ステップS52: ブレ検出部28は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。 Step S52: The shake detection unit 28 divides the image data into regions based on the depth based on the depth map.

ステップS53: ブレ検出部28は、領域分割された画像データごとに、画像ブレ(ブレ方向、ブレ幅)を検出する。
例えば、縦横斜めなどそれぞれの方向に隣接画素差の絶対値和を算出する。この絶対値和の最も小さくなる方向を、ブレ方向とすればよい。
また例えば、求めたブレ方向に画像をずらしながら画像の自己相関を求め、その自己相関特性の広がり具合からブレ幅を検出してもよい。
Step S53: The blur detection unit 28 detects an image blur (blur direction, blur width) for each image data divided into regions.
For example, the absolute value sum of the adjacent pixel differences is calculated in each direction such as vertical and horizontal directions. The direction in which the absolute value sum is smallest may be the blur direction.
Further, for example, the autocorrelation of the image may be obtained while shifting the image in the obtained blur direction, and the blur width may be detected from the extent of the autocorrelation characteristics.

ステップS54: フィルタ作成部29は、奥行き別に求めた画像ブレ(ブレ方向,ブレ幅)に基づいて、奥行き別の画像ブレを表す点像関数を求める。 Step S54: Based on the image blur (blur direction, blur width) obtained for each depth, the filter creation unit 29 obtains a point spread function representing the image blur for each depth.

ステップS55: フィルタ作成部29は、奥行き別の点像関数の逆フィルタを決定する。なお、画像ブレと逆フィルタとの対応テーブルを予め用意することにより、画像ブレから逆フィルタを即座に決定することも可能である。 Step S55: The filter creation unit 29 determines an inverse filter of the point spread function for each depth. Note that by preparing a correspondence table of image blur and inverse filter in advance, it is also possible to immediately determine the inverse filter from image blur.

ステップS56: 処理演算部24は、奥行き別に領域分割された画像データに対して、奥行き別の逆フィルタを個別にかけることにより、奥行き別に画像ブレを補正する。 Step S56: The processing calculation unit 24 corrects image blur for each depth by individually applying an inverse filter for each depth to the image data divided into regions for each depth.

ステップS57: 処理演算部24は、奥行き別に画像ブレを補正した画像データを合成する。
このような奥行き別の画像ブレ補正により、奥行き別に生じる被写体ブレを補正することができる。また、カメラの平行ブレに起因して奥行き別に生じるカメラブレを補正することもできる。
Step S57: The processing calculation unit 24 synthesizes image data in which image blur is corrected for each depth.
By such image blur correction for each depth, it is possible to correct subject blur that occurs for each depth. It is also possible to correct camera shake caused by depth due to parallel camera shake.

(4)奥行き別の光源推定処理
画像処理装置102では、奥行きマップを用いて、奥行き別に光源推定を行うことができる。
図8は、この奥行き別の光源推定処理の流れを説明する図である。以下、図8に示すステップ番号に沿って、この動作を説明する。
(4) Light source estimation processing by depth The image processing apparatus 102 can perform light source estimation by depth using a depth map.
FIG. 8 is a diagram for explaining the flow of the light source estimation processing for each depth. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS71: 上述したステップS11と同一の処理。 Step S71: The same process as step S11 described above.

ステップS72: 光源推定部30は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。 Step S72: The light source estimation unit 30 divides the image data into regions by depth based on the depth map.

ステップS73: 光源推定部30は、奥行き別に領域分割した画像データごとに、光源推定を実施する。
例えば、低彩度箇所について色相分布を求め、この色相分布の偏りから光源推定を実施してもよい。また例えば、画素単位の色相を平均化し、色度空間上でその平均色相に最も近い黒体放射軌跡上の色温度を求めることにより、光源推定を行ってもよい。
Step S <b> 73: The light source estimation unit 30 performs light source estimation for each image data divided into regions by depth.
For example, a hue distribution may be obtained for a low-saturation location, and light source estimation may be performed from this hue distribution bias. Further, for example, light source estimation may be performed by averaging hues in pixel units and obtaining a color temperature on a black body radiation locus closest to the average hue in the chromaticity space.

ステップS74: 画像処理装置102では、カスタム設定によって、ホワイトバランスにおいて混合光源の特徴をどの程度活かすかが予め設定される。
光源推定部30は、このカスタム設定に基づいて、混合光源の特徴を画像処理に活かすか否かを決定する。
混合光源の特徴を活かす場合、光源推定部30はステップS76に動作を移行する。
一方、混合光源の特徴を活かさない場合、光源推定部30はステップS75に動作を移行する。
Step S74: In the image processing apparatus 102, how much the characteristics of the mixed light source are utilized in white balance is set in advance by custom setting.
Based on the custom setting, the light source estimation unit 30 determines whether to use the characteristics of the mixed light source for image processing.
When taking advantage of the characteristics of the mixed light source, the light source estimation unit 30 shifts the operation to step S76.
On the other hand, when the characteristics of the mixed light source are not utilized, the light source estimation unit 30 shifts the operation to step S75.

ステップS75: このステップでは、光源推定部30は、奥行き別に独立してホワイトバランス調整値を決定する。このように独立に決定されるホワイトバランス調整値は、奥行き別に色の偏りを抑制する。その結果、混合光源のような複雑な光源下にあっても、個々の被写体の持つ本来の色あいを正確に再現することが可能になる。
このようなホワイトバランス調整値の決定後、光源推定部30は、ステップS77に動作を移行する。
Step S75: In this step, the light source estimation unit 30 determines a white balance adjustment value independently for each depth. The white balance adjustment value determined independently in this way suppresses color deviation for each depth. As a result, even under a complicated light source such as a mixed light source, it is possible to accurately reproduce the original color tone of each subject.
After determining such a white balance adjustment value, the light source estimation unit 30 shifts the operation to step S77.

ステップS76: このステップでは、光源推定部30は、奥行き別の光源推定結果を、予め定められた光源優先ルールに照合して、ホワイトバランス調整値を決定する。
例えば、近景が色温度の低い室内光源であり、かつ遠景が太陽光源の場合、太陽光源を中心にして近景および遠景のホワイトバランス調整値を決定する。この場合、室内光の色合いを若干残すホワイトバランス調整(その場の光を活かした調整)が実現する。
また例えば、近景が色温度の高い日陰であり、かつ遠景が太陽光源の場合、奥行き別にホワイトバランス調整値を決定する。この場合、日陰の青味を抑制しつつ、遠景についても自然な色合いに調整することができる。
Step S76: In this step, the light source estimation unit 30 collates the light source estimation result for each depth with a predetermined light source priority rule to determine a white balance adjustment value.
For example, when the near view is an indoor light source with a low color temperature and the distant view is a solar light source, white balance adjustment values for the close view and distant view are determined with the solar light source as the center. In this case, white balance adjustment (adjustment that makes use of the light on the spot) that achieves a slight shade of room light is realized.
For example, when the near view is a shade with a high color temperature and the distant view is a solar light source, the white balance adjustment value is determined for each depth. In this case, the distant view can be adjusted to a natural hue while suppressing shaded blue.

ステップS77: 処理演算部24は、奥行き別に領域分割された画像データに対して、
ステップS75またはステップS76で決定したホワイトバランス調整値を適用して、ホワイトバランス調整を行う。
Step S77: The processing calculation unit 24 applies the image data divided into regions by depth.
White balance adjustment is performed by applying the white balance adjustment value determined in step S75 or step S76.

ステップS78: 処理演算部24は、奥行き別にホワイトバランス調整を実施した画像データを再合成することにより、ホワイトバランス調整を完了した画像データを得る。
このような奥行き別の光源推定により、被写界の混合光源を適切に判別することが可能になる。また、奥行き別のホワイトバランス調整により、混合光源による複雑な色の偏りを除去して、被写体の持つ本来の色あいを忠実に再現することが可能になる。また、光源優先ルールに従って、近景/遠景の光源の特徴を選択的に残すことも可能になる。
Step S78: The processing calculation unit 24 re-synthesizes the image data subjected to the white balance adjustment for each depth, thereby obtaining image data for which the white balance adjustment has been completed.
Such depth-based light source estimation makes it possible to appropriately determine the mixed light source of the object scene. Further, by adjusting the white balance for each depth, it is possible to remove the complicated color deviation caused by the mixed light source and faithfully reproduce the original color tone of the subject. In addition, according to the light source priority rule, it is possible to selectively leave the characteristics of the near view / distant view light source.

[本実施形態の効果など]
上述したカメラシステム101では、奥行きデータを階調マップ化して、画像データに付属させる。その結果、画像各部の被写体の奥行きを活かした表示や画像処理を後から実施することが可能になる。
[Effects of this embodiment, etc.]
In the camera system 101 described above, the depth data is converted into a gradation map and attached to the image data. As a result, display and image processing that make use of the depth of the subject in each part of the image can be performed later.

一方、上述した画像処理装置102では、この奥行きマップの情報を利用することにより、画像各部の被写体の奥行きを考慮した画像処理が可能になる。   On the other hand, the image processing apparatus 102 described above can perform image processing in consideration of the depth of the subject of each part of the image by using the information of the depth map.

また、上述した画像処理装置102では、画像上にコントロールポイントPを配置して、前後幅の調整スライダを調整することにより、所定の奥行き範囲に位置する被写体を感覚的に選別することができる。さらに、コントロールポインタPに対する画像処理パラメータの調整スライダを調整することにより、所定の奥行き範囲に位置する被写体に対して所望の画像処理を施すことも可能になる。その結果、奥行き別の画像処理を簡易かつ感覚的に実施することが可能になる。   Further, in the above-described image processing apparatus 102, it is possible to sensuously select subjects located in a predetermined depth range by arranging the control point P on the image and adjusting the front-rear width adjustment slider. Furthermore, by adjusting the adjustment slider for the image processing parameter with respect to the control pointer P, it is possible to perform desired image processing on the subject located in a predetermined depth range. As a result, it is possible to easily and intuitively perform image processing for each depth.

さらに、上述した画像処理装置102では、奥行きマップの情報から、画像各部の被写体に閃光照明がどの程度当たっているかを判断できる。この判断に基づいて、画像各部の明るさ調整を行うことにより、画像データに現れる閃光照明の照明ムラを適度に抑制することが可能になる。   Further, the image processing apparatus 102 described above can determine how much flash illumination is applied to the subject of each part of the image from the information of the depth map. By adjusting the brightness of each part of the image based on this determination, it is possible to moderately suppress the uneven illumination of the flash illumination that appears in the image data.

また、上述した画像処理装置102では、奥行き別に画像ブレを補正する。したがって、被写体ブレやカメラの平行ブレなどに起因する奥行き別に生じる画像ブレを適切に補正することが可能になる。   Further, the image processing apparatus 102 described above corrects image blur for each depth. Therefore, it is possible to appropriately correct image blur caused by depth due to subject blur or camera parallel blur.

さらに、上述した画像処理装置102では、奥行き別に光源推定を実施する。したがって、複雑な混合光源などを奥行き別に区別することが可能になり、より正確な光源推定が可能になる。   Further, the above-described image processing apparatus 102 performs light source estimation for each depth. Therefore, it is possible to distinguish complicated mixed light sources by depth, and more accurate light source estimation is possible.

《実施形態の補足事項》
なお、上述した実施形態では、3次元計測装置14として、視差検出によって3次元計測を行う装置を示した。しかしながら、本発明は3次元計測の方式に限定されるものではない。
<< Additional items of embodiment >>
In the above-described embodiment, the three-dimensional measurement device 14 is a device that performs three-dimensional measurement by parallax detection. However, the present invention is not limited to the three-dimensional measurement method.

また、上述した実施形態では、カメラ本体に3次元計測装置14を外付けするケースについて説明した。しかしながら、本発明はこれに限定されるものではない。カメラ本体に3次元計測装置を内蔵してもよい。   In the above-described embodiment, the case where the three-dimensional measuring device 14 is externally attached to the camera body has been described. However, the present invention is not limited to this. A three-dimensional measuring device may be built in the camera body.

なお、本発明は、その精神または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、前述の実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、すべて本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiments are merely examples in all respects and should not be interpreted in a limited manner. The scope of the present invention is indicated by the scope of claims, and is not restricted by the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

以上説明したように、本発明は、カメラシステム、画像処理装置、および画像処理プログラムなどに利用可能な技術である。   As described above, the present invention is a technique that can be used for a camera system, an image processing apparatus, an image processing program, and the like.

カメラシステム101のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of a camera system 101. FIG. 画像処理装置102のシステム構成を示すブロック図である。2 is a block diagram showing a system configuration of an image processing apparatus 102. FIG. カメラシステム101の動作を説明する流れ図である。3 is a flowchart illustrating the operation of the camera system 101. コントロールポイントを用いた画像処理の流れを説明する図である。It is a figure explaining the flow of the image processing using a control point. コントロールポイントの操作の様子を説明する図である。It is a figure explaining the mode of operation of a control point. 閃光マップを用いた画像処理の流れを説明する図である。It is a figure explaining the flow of the image processing using a flash map. 奥行き別のブレ補正処理の流れを説明する図である。It is a figure explaining the flow of the blurring correction process according to depth. 奥行き別の光源推定処理の流れを説明する図である。It is a figure explaining the flow of the light source estimation process according to depth.

符号の説明Explanation of symbols

11…撮像部,12…データ処理部,13…ファイル生成部,14…3次元計測装置,21…ファイル取得部,22…画像処理部,23…モニタ装置,24…処理演算部,25…操作部,26…マスク生成部,27…閃光マップ生成部,28…ブレ検出部,29…フィルタ作成部,30…光源推定部,101…カメラシステム,102…画像処理装置
DESCRIPTION OF SYMBOLS 11 ... Image pick-up part, 12 ... Data processing part, 13 ... File generation part, 14 ... Three-dimensional measuring device, 21 ... File acquisition part, 22 ... Image processing part, 23 ... Monitor apparatus, 24 ... Processing operation part, 25 ... Operation 26: Mask generation unit, 27: Flash map generation unit, 28 ... Blur detection unit, 29 ... Filter generation unit, 30 ... Light source estimation unit, 101 ... Camera system, 102 ... Image processing device

Claims (7)

被写界を撮影して画像データを生成する撮像部と、
前記撮像部が撮影する前記被写界について3次元計測を実施し、前記被写界の3次元計測データを得る3次元計測装置と、
前記3次元計測データから得られる前記被写界の奥行きデータを、前記画像データの画素単位または画像領域単位に配列して階調マップ化することにより、前記画像データと対応する奥行きマップを生成するデータ処理部と、
前記奥行きマップを前記画像データに付属させて記録することにより、奥行きマップ付きの画像ファイルを生成するファイル生成部と
を備えたことを特徴とするカメラシステム。
An imaging unit that shoots an object scene and generates image data;
A three-dimensional measurement device that performs three-dimensional measurement on the object scene captured by the imaging unit and obtains three-dimensional measurement data of the object field;
The depth data corresponding to the image data is generated by arranging the depth data of the object scene obtained from the three-dimensional measurement data in a pixel unit or an image area unit of the image data and making a gradation map. A data processing unit;
A camera system comprising: a file generation unit that generates an image file with a depth map by recording the depth map attached to the image data.
請求項1に記載のカメラシステムにおいて生成された奥行きマップ付きの画像ファイルを取り込み、画像データと奥行きマップを得るファイル取得部と、
前記奥行きマップに基づいて、前記画像データの画像各部における画像処理を制御する画像処理部と
を備えたことを特徴とする画像処理装置。
A file acquisition unit that captures an image file with a depth map generated in the camera system according to claim 1 and obtains image data and a depth map;
An image processing apparatus comprising: an image processing unit that controls image processing in each part of the image data based on the depth map.
請求項2に記載の画像処理装置において、
前記画像処理部は、
ユーザー操作に従って、画像上の位置(以下コントロールポイントという)の入力を受け付ける操作部と、
前記奥行きマップに基づいて、前記コントロールポイントを含む所定の奥行き範囲に収まる選択範囲を抽出して処理マスクを生成するマスク生成部と、
前記処理マスクに応じて、画像各部の画像処理の反映度合いを制御する処理演算部とを備えた
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing unit
An operation unit that accepts input of a position on an image (hereinafter referred to as a control point) according to a user operation,
A mask generation unit that generates a processing mask by extracting a selection range that falls within a predetermined depth range including the control point based on the depth map;
An image processing apparatus comprising: a processing operation unit that controls a degree of reflection of image processing of each part of the image according to the processing mask.
請求項2に記載の画像処理装置において、
前記画像処理部は、
前記画像ファイルから閃光照明の発光量を情報取得し、前記奥行きマップと前記発光量とに基づいて、画像各部における前記閃光照明の光量分布を示す閃光マップを生成する閃光マップ生成部と、
前記閃光マップに基づいて、前記画像データの画像各部の明るさ調整を制御する処理演算部とを備えた
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing unit
A flash map generation unit that obtains information on the amount of flash illumination from the image file, and generates a flash map indicating the light intensity distribution of the flash illumination in each part of the image based on the depth map and the amount of light emission;
An image processing apparatus comprising: a processing calculation unit that controls brightness adjustment of each part of the image data based on the flash map.
請求項2に記載の画像処理装置において、
前記画像処理部は、
前記奥行きマップに基づいて、前記画像データを奥行き別に領域分割して、領域分割された画像データごとに画像ブレを検出するブレ検出部と、
前記奥行き別に前記画像ブレを表す点像関数の逆フィルタを求めるフィルタ作成部と、
前記画像データの前記奥行き別に前記逆フィルタをかけて、前記画像データの画像ブレを軽減する処理演算部とを備えた
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing unit
Based on the depth map, the image data is divided into regions by depth, and a blur detection unit that detects image blur for each of the divided image data;
A filter creation unit for obtaining an inverse filter of a point spread function representing the image blur for each depth;
An image processing apparatus, comprising: a processing operation unit that reduces the image blur of the image data by applying the inverse filter according to the depth of the image data.
請求項2に記載の画像処理装置において、
前記画像処理部は、
前記奥行きマップに基づいて、前記画像データを奥行き別に領域分割して、領域分割された画像データごとに光源推定の画像処理を実施する光源推定部と、
前記奥行き別の光源推定結果に応じて前記画像データに施すホワイトバランス調整を制御する処理演算部とを備えた
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing unit
A light source estimation unit that divides the image data into regions based on the depth based on the depth map, and performs image processing of light source estimation for each of the divided image data;
An image processing apparatus comprising: a processing operation unit that controls white balance adjustment performed on the image data according to the light source estimation result for each depth.
コンピュータを、請求項2ないし請求項6のいずれか1項に記載の画像処理装置として機能させるための画像処理プログラム。   An image processing program for causing a computer to function as the image processing apparatus according to any one of claims 2 to 6.
JP2006243260A 2006-09-07 2006-09-07 Camera system, image processing apparatus, and image processing program Pending JP2008067093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006243260A JP2008067093A (en) 2006-09-07 2006-09-07 Camera system, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006243260A JP2008067093A (en) 2006-09-07 2006-09-07 Camera system, image processing apparatus, and image processing program

Publications (1)

Publication Number Publication Date
JP2008067093A true JP2008067093A (en) 2008-03-21

Family

ID=39289391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006243260A Pending JP2008067093A (en) 2006-09-07 2006-09-07 Camera system, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP2008067093A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102640189A (en) * 2009-12-16 2012-08-15 索尼电子有限公司 Algorithms for estimating precise and relative object distances in a scene
JP2014003486A (en) * 2012-06-19 2014-01-09 Sharp Corp Image processing device, image capturing device, image display device, image processing method, and program
JP2014220793A (en) * 2013-04-10 2014-11-20 株式会社エム・ソフト Image color adjustment method and image color adjustment system
JP2015133758A (en) * 2015-04-20 2015-07-23 キヤノン株式会社 Image processing device, image processing method and program thereof
KR101797040B1 (en) * 2011-11-28 2017-11-13 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2023156394A (en) * 2018-05-30 2023-10-24 マクセル株式会社 wearable device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244810A (en) * 1999-02-19 2000-09-08 Sony Corp Image organizing apparatus, image organizing method, image recording apparatus, image reproducing apparatus, image recording / reproducing apparatus, imaging apparatus, and computer-readable recording medium on which data is recorded
JP2001346226A (en) * 2000-06-02 2001-12-14 Canon Inc Image processing apparatus, three-dimensional photo print system, image processing method, three-dimensional photo print method, and medium recording processing program
JP2003346188A (en) * 2002-05-27 2003-12-05 Canon Inc 3D image forming system
JP2004173300A (en) * 1997-01-10 2004-06-17 Casio Comput Co Ltd Imaging device and imaging image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173300A (en) * 1997-01-10 2004-06-17 Casio Comput Co Ltd Imaging device and imaging image processing method
JP2000244810A (en) * 1999-02-19 2000-09-08 Sony Corp Image organizing apparatus, image organizing method, image recording apparatus, image reproducing apparatus, image recording / reproducing apparatus, imaging apparatus, and computer-readable recording medium on which data is recorded
JP2001346226A (en) * 2000-06-02 2001-12-14 Canon Inc Image processing apparatus, three-dimensional photo print system, image processing method, three-dimensional photo print method, and medium recording processing program
JP2003346188A (en) * 2002-05-27 2003-12-05 Canon Inc 3D image forming system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102640189A (en) * 2009-12-16 2012-08-15 索尼电子有限公司 Algorithms for estimating precise and relative object distances in a scene
JP2013512626A (en) * 2009-12-16 2013-04-11 ソニー エレクトロニクス インク Algorithm for estimating accurate and relative subject distance in a scene
KR101797040B1 (en) * 2011-11-28 2017-11-13 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2014003486A (en) * 2012-06-19 2014-01-09 Sharp Corp Image processing device, image capturing device, image display device, image processing method, and program
JP2014220793A (en) * 2013-04-10 2014-11-20 株式会社エム・ソフト Image color adjustment method and image color adjustment system
JP2015133758A (en) * 2015-04-20 2015-07-23 キヤノン株式会社 Image processing device, image processing method and program thereof
JP2023156394A (en) * 2018-05-30 2023-10-24 マクセル株式会社 wearable device

Similar Documents

Publication Publication Date Title
JP5460173B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
CN107277356B (en) Method and device for processing human face area of backlight scene
JP6700840B2 (en) Image processing device, imaging device, control method, and program
JP6724027B2 (en) System and method for high dynamic range imaging
JP5303692B1 (en) Stereoscopic image processing apparatus and stereoscopic image processing method
JP7620704B2 (en) A foldable electronic device for multi-view image capture
JPWO2017159312A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JPWO2018230098A1 (en) ENDOSCOPE SYSTEM, METHOD OF OPERATING ENDOSCOPE SYSTEM
WO2013032008A1 (en) Image processing device and program
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
WO2020027210A1 (en) Image processing device, image processing method, and image processing program
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP7699157B2 (en) Correction of halos in digital images and device for performing the correction - Patents.com
KR101680446B1 (en) Creation device for color table, correction and control device for camera image and method thereof
JP7307541B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6624785B2 (en) Image processing method, image processing device, imaging device, program, and storage medium
JP7301683B2 (en) Image processing device, image processing method, and program
JP2008067093A (en) Camera system, image processing apparatus, and image processing program
JP6702752B2 (en) Image processing device, imaging device, control method, and program
JP7059076B2 (en) Image processing device, its control method, program, recording medium
CN113542543B (en) Image processing device, image processing method and storage medium
JPWO2006057314A1 (en) Image processing apparatus and image processing method
JP4583844B2 (en) Image processing apparatus, image processing method, and program
JP2020024581A (en) Image processing apparatus, image processing method, and program
JP2014060480A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120207