JP2008067093A - Camera system, image processing apparatus, and image processing program - Google Patents
Camera system, image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP2008067093A JP2008067093A JP2006243260A JP2006243260A JP2008067093A JP 2008067093 A JP2008067093 A JP 2008067093A JP 2006243260 A JP2006243260 A JP 2006243260A JP 2006243260 A JP2006243260 A JP 2006243260A JP 2008067093 A JP2008067093 A JP 2008067093A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- unit
- depth
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラシステム、画像処理装置、および画像処理プログラムに関する。 The present invention relates to a camera system, an image processing apparatus, and an image processing program.
下記の特許文献1には、画像ファイルから撮像レンズのピント距離(被写体距離レンジ,被写体距離情報)を取得して、ピント距離から主要被写体を推定する技術が開示されている。例えば、被写体距離レンジが近景撮影を示す場合は、人物が主要被写体であると判断し、肌色検出を行うことで主要被写体を検出する。また、被写体距離レンジが遠景撮影を示す場合は、景色が主要被写体であると判断し、青空検出などにより主要被写体を検出する。
ところで、公知の3次元計測技術(視差検出、光切断法、レンズのフォーカススキャンに伴う鮮鋭箇所の検出など)を用いた3次元計測装置が知られている。この種の3次元計測装置を用いることで、被写界の各部について3次元計測データを得ることができる。
本発明は、この被写界の3次元計測データを、画像処理に有効利用するための技術を提供することを目的とする。
By the way, a three-dimensional measurement apparatus using a known three-dimensional measurement technique (parallax detection, light cutting method, detection of a sharp portion accompanying a focus scan of a lens, etc.) is known. By using this type of three-dimensional measurement apparatus, three-dimensional measurement data can be obtained for each part of the object scene.
An object of the present invention is to provide a technique for effectively using the three-dimensional measurement data of the object scene for image processing.
《1》 本発明のカメラシステムは、撮像部、3次元計測装置、データ処理部、およびファイル生成部を備える。
撮像部は、被写界を撮影して画像データを生成する。
3次元計測装置は、撮像部が撮影する被写界について3次元計測を実施し、被写界の3次元計測データを生成する。
データ処理部は、3次元計測データから得られる被写界の奥行きデータを、画像データの画素単位または画像領域単位に配列して階調マップ化することにより、画像データと対応する奥行きマップを生成する。
ファイル生成部は、奥行きマップを画像データに付属させて記録することにより、奥行きマップ付きの画像ファイルを生成する。
《2》 本発明の画像処理装置は、ファイル取得部、および画像処理部を備える。
ファイル取得部は、請求項1に記載のカメラシステムにおいて生成された奥行きマップ付きの画像ファイルを取り込み、画像データと奥行きマップを得る。
画像処理部は、奥行きマップに基づいて、画像データの画像各部における画像処理を制御する。
なお、ここでの画像処理は、画質調整のように画像を加工する処理、または光源推定のように画像を解析する処理のいずれでもよい。
《3》 なお好ましくは、画像処理部は、操作部、マスク生成部、および処理演算部を備える。
操作部は、ユーザー操作に従って、画像上の位置(以下コントロールポイントという)の入力を受け付ける。
マスク生成部は、奥行きマップに基づいて、コントロールポイントを含む所定の奥行き範囲に収まる選択範囲を抽出して処理マスクを生成する。
処理演算部は、処理マスクに応じて、画像各部の画像処理の反映度合いを制御する。
《4》 また好ましくは、画像処理部は、閃光マップ生成部、および処理演算部を備える。
閃光マップ生成部は、画像ファイルから閃光照明の発光量を情報取得する。閃光マップ生成部は、奥行きマップと発光量とに基づいて、画像各部における閃光照明の光量分布を求めて、閃光マップとする。
処理演算部は、この閃光マップに応じて画像データの画像各部の明るさ調整を制御する。
《5》 また好ましくは、画像処理部は、ブレ検出部、フィルタ作成部、および処理演算部を備える。
ブレ検出部は、奥行きマップに基づいて、画像データを奥行き別に領域分割し、領域分割された画像データごとに画像ブレを検出する。
フィルタ作成部は、奥行き別に画像ブレを表す点像関数の逆フィルタを求める。
処理演算部は、画像データの奥行き別に逆フィルタをかけて、画像データの画像ブレを軽減する。
《6》 なお好ましくは、画像処理部は、光源推定部、および処理演算部を備える。
光源推定部は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。光源推定部は、これら領域分割された画像データごとに光源推定の画像処理を実施する。
処理演算部は、奥行き別に求めた光源推定結果に応じて、画像データに施すホワイトバランス調整を制御する。
《7》 本発明の画像処理プログラムは、コンピュータを、上記《1》〜《6》のいずれか1項に記載の画像処理装置として機能させるためのプログラムである。
<< 1 >> The camera system of the present invention includes an imaging unit, a three-dimensional measurement device, a data processing unit, and a file generation unit.
The imaging unit shoots the scene and generates image data.
The three-dimensional measuring device performs three-dimensional measurement on the scene captured by the imaging unit, and generates three-dimensional measurement data of the scene.
The data processing unit generates a depth map corresponding to the image data by arranging the depth data of the object scene obtained from the three-dimensional measurement data in a pixel unit or image area unit of the image data and converting it into a gradation map. To do.
The file generation unit generates an image file with a depth map by recording the depth map attached to the image data.
<< 2 >> The image processing apparatus of the present invention includes a file acquisition unit and an image processing unit.
The file acquisition unit takes in an image file with a depth map generated in the camera system according to claim 1 and obtains image data and a depth map.
The image processing unit controls image processing in each part of the image data based on the depth map.
The image processing here may be either processing for processing an image like image quality adjustment or processing for analyzing an image like light source estimation.
<< 3 >> Preferably, the image processing unit includes an operation unit, a mask generation unit, and a processing calculation unit.
The operation unit receives an input of a position on the image (hereinafter referred to as a control point) according to a user operation.
Based on the depth map, the mask generation unit extracts a selection range that falls within a predetermined depth range including the control point, and generates a processing mask.
The processing operation unit controls the degree of reflection of the image processing of each part of the image according to the processing mask.
<< 4 >> Preferably, the image processing unit includes a flash map generation unit and a processing calculation unit.
The flash map generation unit acquires information on the amount of flash illumination from the image file. The flash map generation unit obtains a light amount distribution of flash illumination in each part of the image based on the depth map and the light emission amount, and sets it as a flash map.
The processing calculation unit controls the brightness adjustment of each part of the image data in accordance with the flash map.
<< 5 >> Preferably, the image processing unit includes a shake detection unit, a filter creation unit, and a processing calculation unit.
The blur detection unit divides the image data into regions based on the depth based on the depth map, and detects image blur for each of the divided image data.
The filter creation unit obtains an inverse filter of a point spread function representing image blur for each depth.
The processing calculation unit applies an inverse filter according to the depth of the image data to reduce image blur of the image data.
<< 6 >> Preferably, the image processing unit includes a light source estimation unit and a processing calculation unit.
The light source estimation unit divides the image data into regions by depth based on the depth map. The light source estimation unit performs light source estimation image processing for each of the divided image data.
The processing calculation unit controls white balance adjustment applied to the image data in accordance with the light source estimation result obtained for each depth.
<< 7 >> The image processing program of the present invention is a program for causing a computer to function as the image processing apparatus described in any one of the above << 1 >> to << 6 >>.
本発明のカメラシステムでは、被写界の奥行きマップを生成して、画像データに付属させる。したがって、画像データの表示や後処理などにおいて、付属する奥行きマップを参照することで、画像各部の被写体の奥行きを知ることができる。 In the camera system of the present invention, a depth map of the object scene is generated and attached to the image data. Therefore, it is possible to know the depth of the subject in each part of the image by referring to the attached depth map in image data display or post-processing.
一方、本発明の画像処理装置およびそのプログラムでは、奥行きマップに基づいて、画像各部の画像処理を制御する。その結果、画像各部の奥行きによる影響を考慮した高度な画質調整や画像解析が可能になる。 On the other hand, in the image processing apparatus and the program of the present invention, image processing of each part of the image is controlled based on the depth map. As a result, it is possible to perform advanced image quality adjustment and image analysis in consideration of the influence of the depth of each part of the image.
[カメラシステム101の構成]
図1は、カメラシステム101のシステム構成を示すブロック図である。
図1において、カメラシステム101には、撮像部11、データ処理部12、およびファイル生成部13などからなるカメラ本体が設けられる。さらに、このカメラ本体のアクセサリーシューなどには、3次元計測装置14が装着される。
[Configuration of Camera System 101]
FIG. 1 is a block diagram showing a system configuration of the camera system 101.
In FIG. 1, the camera system 101 is provided with a camera body including an
[画像処理装置102の構成]
図2は、画像処理装置102のシステム構成を示すブロック図である。
図2において、画像処理装置102は、ファイル取得部21、画像処理部22、およびモニタ装置23を備えて概略構成される。
この画像処理部22は、処理演算部24、操作部25、マスク生成部26、閃光マップ生成部27、ブレ検出部28、フィルタ作成部29、および光源推定部30を備えて構成される。
なお、この画像処理装置102については、画像処理プログラムとコンピュータによってソフトウェア的に実現してもよい。
[Configuration of Image Processing Device 102]
FIG. 2 is a block diagram illustrating a system configuration of the image processing apparatus 102.
In FIG. 2, the image processing apparatus 102 is schematically configured to include a
The image processing unit 22 includes a
The image processing apparatus 102 may be realized as software by an image processing program and a computer.
[カメラシステム101の動作説明]
図3は、カメラシステム101の動作を説明する流れ図である。
以下、図3に示すステップ番号に沿って、この動作を説明する。
[Description of Operation of Camera System 101]
FIG. 3 is a flowchart for explaining the operation of the camera system 101.
Hereinafter, this operation will be described along the step numbers shown in FIG.
ステップS1: 撮像部11は、ユーザーによるレリーズ操作を待機する。このレリーズ操作を受け付けると、ステップS2に動作を移行する。
Step S1: The
ステップS2: 撮像部11は、被写界を撮影し、画像データAを生成する。画像データAは、データ処理部12へ出力される。
Step S2: The
ステップS3: データ処理部12は、3次元計測装置14に対して、3次元計測を指示する。3次元計測装置14は、撮像部11から所定の基線長だけ離れた位置から被写界を撮影し、視差比較用の画像データBを生成する。
Step S3: The
ステップS4: データ処理部12は、撮像部11の焦点距離から撮影画角を求め、3次元計測装置14に伝達する。3次元計測装置14は、この撮影画角に基づいて、画像データA,Bに写る被写体の画素数サイズが等しくなるよう解像度調整を実施する。
Step S <b> 4: The
ステップS5: 3次元計測装置14は、ステップS4で処理された画像データA,Bの間でブロックマッチングを行い、基線長方向の視差を検出する。
Step S5: The three-
ステップS6: 3次元計測装置14は、ブロック単位の視差に基づいて、ブロック単位の奥行きデータを求める。なお、この奥行きデータは、計測精度や人間の距離感覚の観点から、対数値のように遠いほど数値間隔を圧縮した値にすることが好ましい。
Step S6: The three-
ステップS7: 3次元計測装置14は、ブロック単位の奥行きデータを、ステップS2で生成された画像データAの画素単位または画像領域単位に配列して階調マップ化し、奥行きマップを生成する。
Step S7: The three-
ステップS8: ファイル生成部13は、ステップS2で生成された画像データAと、奥行きマップとをまとめて画像ファイルを生成する。
例えば、画像データAのαチャネルに奥行きマップを格納してもよい。
また例えば、画像ファイル内の付随情報領域(メーカーノートなど)に奥行きマップを格納してもよい。
また例えば、画像ファイルと対応付けられる別ファイル(画像ファイルと同一ファイル名で拡張子のみを変えるなど)に奥行きマップを格納してもよい。
このように作成された奥行きマップ付きの画像ファイルは、ファイル生成部13を介して、メモリーカードなどの記録媒体に保存される。
Step S8: The
For example, the depth map may be stored in the α channel of the image data A.
Further, for example, the depth map may be stored in an accompanying information area (such as a manufacturer note) in the image file.
Also, for example, the depth map may be stored in another file associated with the image file (for example, only the extension is changed with the same file name as the image file).
The image file with the depth map created in this way is stored in a recording medium such as a memory card via the
[画像処理装置102の動作説明]
カメラシステム101で作成された奥行きマップ付きの画像ファイルは、記録媒体や通信媒体などを介して、画像処理装置102に伝達される。画像処理装置102では、奥行きマップを参照しつつ、画像ファイルに対して事後的な画像処理を実施する。この画像処理により、画像各部の奥行きを考慮した高度な画質調整または画像解析が実現する。
以下、これら画像処理ごとに、画像処理装置102の動作を具体的に説明する。
[Description of Operation of Image Processing Device 102]
The image file with the depth map created by the camera system 101 is transmitted to the image processing apparatus 102 via a recording medium or a communication medium. The image processing apparatus 102 performs subsequent image processing on the image file while referring to the depth map. By this image processing, advanced image quality adjustment or image analysis in consideration of the depth of each part of the image is realized.
Hereinafter, the operation of the image processing apparatus 102 will be specifically described for each of these image processes.
(1)コントロールポイントによる処理
画像処理装置102では、ユーザーがGUI(Graphical User Interface)操作を行うことにより、画像上にコントロールポイントを配置する。このコントロールポイントを介して、所望の画質調整を行うことができる。
図4は、このコントロールポイントを用いた画像処理の流れを説明する図である。以下、図4に示すステップ番号に沿って、この動作を説明する。
(1) Processing by Control Point In the image processing apparatus 102, a user performs a GUI (Graphical User Interface) operation to arrange a control point on the image. A desired image quality adjustment can be performed via this control point.
FIG. 4 is a diagram for explaining the flow of image processing using this control point. Hereinafter, this operation will be described along the step numbers shown in FIG.
ステップS11: 画像処理装置102のファイル取得部21は、カメラシステム101で作成された奥行きマップ付きの画像ファイルを取り込み、内部のメモリ領域に格納する。ファイル取得部21は、この奥行きマップ付きの画像ファイルから、画像データと奥行きマップを抽出する。
Step S11: The
ステップS12: 操作部25は、ユーザーからのGUI操作により、画像上の位置指定を受け付け、その位置にコントロールポインタPを配置する(図5参照)。
このコントロールポインタPには、下記の調整スライダが表示される。
(a)奥行き範囲の前後幅の調整スライダ
(b)色相パラメータの調整スライダ
(c)彩度パラメータの調整スライダ
(d)明るさパラメータの調整スライダ
(e)コントラストパラメータの調整スライダ
(f)赤成分パラメータの調整スライダ
(g)緑成分パラメータの調整スライダ
(h)青成分パラメータの調整スライダ
(i)暖色系パラメータの調整スライダ
なお、サイズパラメータの調整スライダを加えて、コントロールポインタPから所定半径内に選択範囲(後述)を範囲制限してもよい。
Step S12: The
On the control pointer P, the following adjustment slider is displayed.
(a) Front / rear width adjustment slider in the depth range
(b) Hue parameter adjustment slider
(c) Saturation parameter adjustment slider
(d) Brightness parameter adjustment slider
(e) Contrast parameter adjustment slider
(f) Red component parameter adjustment slider
(g) Green component parameter adjustment slider
(h) Blue component parameter adjustment slider
(i) Warm Color Parameter Adjustment Slider A size parameter adjustment slider may be added to limit the selection range (described later) within a predetermined radius from the control pointer P.
ステップS13: マスク生成部26は、奥行きマップを参照して、コントロールポインタPの配置箇所に位置する被写体の奥行きを求める。
Step S13: The
ステップS14: マスク生成部26は、コントロールポインタPの奥行きに対して、予め設定される前後幅だけ広げて、奥行き範囲を定める。マスク生成部26は、奥行きマップを参照して、この奥向き範囲に入る画像領域を選択範囲として抽出する。
Step S <b> 14: The
ステップS15: マスク生成部26は、選択範囲に高い不透明度を与えて、処理マスクを作成する。このとき、コントロールポインタPの奥行きに近いほど、高い不透明度を与えてもよい。
Step S15: The
ステップS16: 操作部25は、コントロールポインタPの前後幅の調整スライダ(図5参照)の変更操作を受け付けると、ステップS14に動作を移行し、処理マスクの再設定を行う。前後幅の調整スライダの変更操作が無い場合、操作部25はステップS17に動作を移行する。
なお、この前後幅の調整プロセスにおいて、選択範囲を画像上に重ねて表示してもよい。このような選択範囲の表示により、選択範囲の状態をユーザーに知らせることができる。
Step S16: When the
It should be noted that the selection range may be displayed over the image in the front-rear width adjustment process. Such display of the selection range can inform the user of the state of the selection range.
ステップS17: 操作部25は、コントロールポインタPの画像処理パラメータの調整スライダ(図5参照)の変更操作を受け付けると、ステップS18に動作を移行する。画像処理パラメータの変更操作が無い場合、操作部25はステップS19に動作を移行する。
Step S17: When the
ステップS18: 処理演算部24は、ステップS17で受け付けた画像処理パラメータの変更を、処理マスクの不透明度に応じて、画像データに反映させる。
Step S18: The processing
ステップS19: 操作部25は、ユーザーからコントロールポインタPの処理完了を指示されると、上述した一連の処理を完了する。一方、処理完了の指示が無い場合、ステップS16に動作を戻し、コントロールポインタPに関する画像処理を継続する。
このようなコントロールポインタPに関する処理により、所望の奥行き範囲に位置する被写体を選択範囲として抽出し、その被写体に対する画像処理を選択的に実施することが可能になる。
Step S19: When the
By such processing related to the control pointer P, it is possible to extract a subject located in a desired depth range as a selection range and selectively perform image processing on the subject.
(2)閃光マップの処理
画像処理装置102では、閃光照明を行って撮影された画像データに対し、閃光マップを用いた画像処理が可能になる。
図6は、この閃光マップを用いた画像処理の流れを説明する図である。以下、図6に示すステップ番号に沿って、この動作を説明する。
(2) Flash Map Processing The image processing apparatus 102 can perform image processing using a flash map on image data shot with flash illumination.
FIG. 6 is a diagram for explaining the flow of image processing using this flash map. Hereinafter, this operation will be described along the step numbers shown in FIG.
ステップS31: 上述したステップS11と同じ処理。 Step S31: The same process as step S11 described above.
ステップS32: 閃光マップ生成部27は、画像ファイルの付随情報から、閃光照明の発光量(またはその発光量の照射角分布)を情報取得する。
Step S32: The flash
ステップS33: 閃光マップ生成部27は、奥行きマップに基づいて、下記の情報を検出する。
(a)閃光照明の発光部から画像各部の被写体までの距離、
(b)閃光照明の中心軸から画像各部の被写体までの角度
(c)画像各部の被写体の面角度(奥行きデータを面方向に結んで得られる傾斜角度)
Step S33: The flash
(a) The distance from the light emitting part of the flashlight to the subject in each part of the image,
(b) Angle from the central axis of flash illumination to the subject in each part of the image
(c) Surface angle of subject in each part of image (inclination angle obtained by connecting depth data in the surface direction)
ステップS34: 閃光マップ生成部27は、発光量(または発光量の照射角分布)と、上記(a),(b)の情報から、画像各部の被写体に到達する照射光量を推定する。
さらに、閃光マップ生成部27は、上記(c)の面角度から、照射光量の何割がカメラ側に戻るかを求めることにより、反射光量を推定することもできる。
閃光マップ生成部27は、このように求めた画像各部の照射光量(または反射光量)を、画像データの画素単位または画像領域単位に配列して階調マップ化することにより、閃光マップを生成する。
Step S34: The flash
Further, the flash
The flash
ステップS35: 閃光マップ生成部27は、閃光マップの照射光量(または反射光量)の低い箇所ほど高い不透明度を与えて、処理マスクを作成する。
Step S35: The flash
ステップS36: 処理演算部24は、処理マスクの不透明度が高い箇所ほど、画像データを明るく調整する。また、処理マスクの不透明度が低い箇所ほど、画像データの明るさを下げる。
このような閃光マップに関する処理により、閃光照明の届きにくい被写体を選別し、その被写体を明るく調整することができる。また、閃光照明が強く当たるハイライト箇所を選別し、そのハイライト箇所の明るさを抑制することができる。
したがって、閃光照明の照明ムラを適度に抑え、自然な照明状態の画像データを得ることが可能になる。
Step S36: The processing
By such processing related to the flash map, it is possible to select a subject that is difficult to reach flash light and to adjust the subject brightly. In addition, it is possible to select a highlight portion where the flash illumination is strongly applied, and to suppress the brightness of the highlight portion.
Therefore, it is possible to moderate the uneven illumination of the flash illumination and obtain image data in a natural illumination state.
(3)奥行き別のブレ補正処理
画像処理装置102では、奥行きマップを用いて、奥行き別のブレ補正処理を行うことができる。
図7は、この奥行き別のブレ補正処理の流れを説明する図である。以下、図7に示すステップ番号に沿って、この動作を説明する。
(3) Depth-specific blur correction processing The image processing apparatus 102 can perform depth-specific blur correction processing using a depth map.
FIG. 7 is a diagram for explaining the flow of the blur correction process for each depth. Hereinafter, this operation will be described along the step numbers shown in FIG.
ステップS51: 上述したステップS11と同一の処理。 Step S51: The same process as step S11 described above.
ステップS52: ブレ検出部28は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。
Step S52: The
ステップS53: ブレ検出部28は、領域分割された画像データごとに、画像ブレ(ブレ方向、ブレ幅)を検出する。
例えば、縦横斜めなどそれぞれの方向に隣接画素差の絶対値和を算出する。この絶対値和の最も小さくなる方向を、ブレ方向とすればよい。
また例えば、求めたブレ方向に画像をずらしながら画像の自己相関を求め、その自己相関特性の広がり具合からブレ幅を検出してもよい。
Step S53: The
For example, the absolute value sum of the adjacent pixel differences is calculated in each direction such as vertical and horizontal directions. The direction in which the absolute value sum is smallest may be the blur direction.
Further, for example, the autocorrelation of the image may be obtained while shifting the image in the obtained blur direction, and the blur width may be detected from the extent of the autocorrelation characteristics.
ステップS54: フィルタ作成部29は、奥行き別に求めた画像ブレ(ブレ方向,ブレ幅)に基づいて、奥行き別の画像ブレを表す点像関数を求める。
Step S54: Based on the image blur (blur direction, blur width) obtained for each depth, the
ステップS55: フィルタ作成部29は、奥行き別の点像関数の逆フィルタを決定する。なお、画像ブレと逆フィルタとの対応テーブルを予め用意することにより、画像ブレから逆フィルタを即座に決定することも可能である。
Step S55: The
ステップS56: 処理演算部24は、奥行き別に領域分割された画像データに対して、奥行き別の逆フィルタを個別にかけることにより、奥行き別に画像ブレを補正する。
Step S56: The processing
ステップS57: 処理演算部24は、奥行き別に画像ブレを補正した画像データを合成する。
このような奥行き別の画像ブレ補正により、奥行き別に生じる被写体ブレを補正することができる。また、カメラの平行ブレに起因して奥行き別に生じるカメラブレを補正することもできる。
Step S57: The processing
By such image blur correction for each depth, it is possible to correct subject blur that occurs for each depth. It is also possible to correct camera shake caused by depth due to parallel camera shake.
(4)奥行き別の光源推定処理
画像処理装置102では、奥行きマップを用いて、奥行き別に光源推定を行うことができる。
図8は、この奥行き別の光源推定処理の流れを説明する図である。以下、図8に示すステップ番号に沿って、この動作を説明する。
(4) Light source estimation processing by depth The image processing apparatus 102 can perform light source estimation by depth using a depth map.
FIG. 8 is a diagram for explaining the flow of the light source estimation processing for each depth. Hereinafter, this operation will be described along the step numbers shown in FIG.
ステップS71: 上述したステップS11と同一の処理。 Step S71: The same process as step S11 described above.
ステップS72: 光源推定部30は、奥行きマップに基づいて、画像データを奥行き別に領域分割する。
Step S72: The light
ステップS73: 光源推定部30は、奥行き別に領域分割した画像データごとに、光源推定を実施する。
例えば、低彩度箇所について色相分布を求め、この色相分布の偏りから光源推定を実施してもよい。また例えば、画素単位の色相を平均化し、色度空間上でその平均色相に最も近い黒体放射軌跡上の色温度を求めることにより、光源推定を行ってもよい。
Step S <b> 73: The light
For example, a hue distribution may be obtained for a low-saturation location, and light source estimation may be performed from this hue distribution bias. Further, for example, light source estimation may be performed by averaging hues in pixel units and obtaining a color temperature on a black body radiation locus closest to the average hue in the chromaticity space.
ステップS74: 画像処理装置102では、カスタム設定によって、ホワイトバランスにおいて混合光源の特徴をどの程度活かすかが予め設定される。
光源推定部30は、このカスタム設定に基づいて、混合光源の特徴を画像処理に活かすか否かを決定する。
混合光源の特徴を活かす場合、光源推定部30はステップS76に動作を移行する。
一方、混合光源の特徴を活かさない場合、光源推定部30はステップS75に動作を移行する。
Step S74: In the image processing apparatus 102, how much the characteristics of the mixed light source are utilized in white balance is set in advance by custom setting.
Based on the custom setting, the light
When taking advantage of the characteristics of the mixed light source, the light
On the other hand, when the characteristics of the mixed light source are not utilized, the light
ステップS75: このステップでは、光源推定部30は、奥行き別に独立してホワイトバランス調整値を決定する。このように独立に決定されるホワイトバランス調整値は、奥行き別に色の偏りを抑制する。その結果、混合光源のような複雑な光源下にあっても、個々の被写体の持つ本来の色あいを正確に再現することが可能になる。
このようなホワイトバランス調整値の決定後、光源推定部30は、ステップS77に動作を移行する。
Step S75: In this step, the light
After determining such a white balance adjustment value, the light
ステップS76: このステップでは、光源推定部30は、奥行き別の光源推定結果を、予め定められた光源優先ルールに照合して、ホワイトバランス調整値を決定する。
例えば、近景が色温度の低い室内光源であり、かつ遠景が太陽光源の場合、太陽光源を中心にして近景および遠景のホワイトバランス調整値を決定する。この場合、室内光の色合いを若干残すホワイトバランス調整(その場の光を活かした調整)が実現する。
また例えば、近景が色温度の高い日陰であり、かつ遠景が太陽光源の場合、奥行き別にホワイトバランス調整値を決定する。この場合、日陰の青味を抑制しつつ、遠景についても自然な色合いに調整することができる。
Step S76: In this step, the light
For example, when the near view is an indoor light source with a low color temperature and the distant view is a solar light source, white balance adjustment values for the close view and distant view are determined with the solar light source as the center. In this case, white balance adjustment (adjustment that makes use of the light on the spot) that achieves a slight shade of room light is realized.
For example, when the near view is a shade with a high color temperature and the distant view is a solar light source, the white balance adjustment value is determined for each depth. In this case, the distant view can be adjusted to a natural hue while suppressing shaded blue.
ステップS77: 処理演算部24は、奥行き別に領域分割された画像データに対して、
ステップS75またはステップS76で決定したホワイトバランス調整値を適用して、ホワイトバランス調整を行う。
Step S77: The processing
White balance adjustment is performed by applying the white balance adjustment value determined in step S75 or step S76.
ステップS78: 処理演算部24は、奥行き別にホワイトバランス調整を実施した画像データを再合成することにより、ホワイトバランス調整を完了した画像データを得る。
このような奥行き別の光源推定により、被写界の混合光源を適切に判別することが可能になる。また、奥行き別のホワイトバランス調整により、混合光源による複雑な色の偏りを除去して、被写体の持つ本来の色あいを忠実に再現することが可能になる。また、光源優先ルールに従って、近景/遠景の光源の特徴を選択的に残すことも可能になる。
Step S78: The processing
Such depth-based light source estimation makes it possible to appropriately determine the mixed light source of the object scene. Further, by adjusting the white balance for each depth, it is possible to remove the complicated color deviation caused by the mixed light source and faithfully reproduce the original color tone of the subject. In addition, according to the light source priority rule, it is possible to selectively leave the characteristics of the near view / distant view light source.
[本実施形態の効果など]
上述したカメラシステム101では、奥行きデータを階調マップ化して、画像データに付属させる。その結果、画像各部の被写体の奥行きを活かした表示や画像処理を後から実施することが可能になる。
[Effects of this embodiment, etc.]
In the camera system 101 described above, the depth data is converted into a gradation map and attached to the image data. As a result, display and image processing that make use of the depth of the subject in each part of the image can be performed later.
一方、上述した画像処理装置102では、この奥行きマップの情報を利用することにより、画像各部の被写体の奥行きを考慮した画像処理が可能になる。 On the other hand, the image processing apparatus 102 described above can perform image processing in consideration of the depth of the subject of each part of the image by using the information of the depth map.
また、上述した画像処理装置102では、画像上にコントロールポイントPを配置して、前後幅の調整スライダを調整することにより、所定の奥行き範囲に位置する被写体を感覚的に選別することができる。さらに、コントロールポインタPに対する画像処理パラメータの調整スライダを調整することにより、所定の奥行き範囲に位置する被写体に対して所望の画像処理を施すことも可能になる。その結果、奥行き別の画像処理を簡易かつ感覚的に実施することが可能になる。 Further, in the above-described image processing apparatus 102, it is possible to sensuously select subjects located in a predetermined depth range by arranging the control point P on the image and adjusting the front-rear width adjustment slider. Furthermore, by adjusting the adjustment slider for the image processing parameter with respect to the control pointer P, it is possible to perform desired image processing on the subject located in a predetermined depth range. As a result, it is possible to easily and intuitively perform image processing for each depth.
さらに、上述した画像処理装置102では、奥行きマップの情報から、画像各部の被写体に閃光照明がどの程度当たっているかを判断できる。この判断に基づいて、画像各部の明るさ調整を行うことにより、画像データに現れる閃光照明の照明ムラを適度に抑制することが可能になる。 Further, the image processing apparatus 102 described above can determine how much flash illumination is applied to the subject of each part of the image from the information of the depth map. By adjusting the brightness of each part of the image based on this determination, it is possible to moderately suppress the uneven illumination of the flash illumination that appears in the image data.
また、上述した画像処理装置102では、奥行き別に画像ブレを補正する。したがって、被写体ブレやカメラの平行ブレなどに起因する奥行き別に生じる画像ブレを適切に補正することが可能になる。 Further, the image processing apparatus 102 described above corrects image blur for each depth. Therefore, it is possible to appropriately correct image blur caused by depth due to subject blur or camera parallel blur.
さらに、上述した画像処理装置102では、奥行き別に光源推定を実施する。したがって、複雑な混合光源などを奥行き別に区別することが可能になり、より正確な光源推定が可能になる。 Further, the above-described image processing apparatus 102 performs light source estimation for each depth. Therefore, it is possible to distinguish complicated mixed light sources by depth, and more accurate light source estimation is possible.
《実施形態の補足事項》
なお、上述した実施形態では、3次元計測装置14として、視差検出によって3次元計測を行う装置を示した。しかしながら、本発明は3次元計測の方式に限定されるものではない。
<< Additional items of embodiment >>
In the above-described embodiment, the three-
また、上述した実施形態では、カメラ本体に3次元計測装置14を外付けするケースについて説明した。しかしながら、本発明はこれに限定されるものではない。カメラ本体に3次元計測装置を内蔵してもよい。
In the above-described embodiment, the case where the three-
なお、本発明は、その精神または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、前述の実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、すべて本発明の範囲内のものである。 The present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiments are merely examples in all respects and should not be interpreted in a limited manner. The scope of the present invention is indicated by the scope of claims, and is not restricted by the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
以上説明したように、本発明は、カメラシステム、画像処理装置、および画像処理プログラムなどに利用可能な技術である。 As described above, the present invention is a technique that can be used for a camera system, an image processing apparatus, an image processing program, and the like.
11…撮像部,12…データ処理部,13…ファイル生成部,14…3次元計測装置,21…ファイル取得部,22…画像処理部,23…モニタ装置,24…処理演算部,25…操作部,26…マスク生成部,27…閃光マップ生成部,28…ブレ検出部,29…フィルタ作成部,30…光源推定部,101…カメラシステム,102…画像処理装置
DESCRIPTION OF
Claims (7)
前記撮像部が撮影する前記被写界について3次元計測を実施し、前記被写界の3次元計測データを得る3次元計測装置と、
前記3次元計測データから得られる前記被写界の奥行きデータを、前記画像データの画素単位または画像領域単位に配列して階調マップ化することにより、前記画像データと対応する奥行きマップを生成するデータ処理部と、
前記奥行きマップを前記画像データに付属させて記録することにより、奥行きマップ付きの画像ファイルを生成するファイル生成部と
を備えたことを特徴とするカメラシステム。 An imaging unit that shoots an object scene and generates image data;
A three-dimensional measurement device that performs three-dimensional measurement on the object scene captured by the imaging unit and obtains three-dimensional measurement data of the object field;
The depth data corresponding to the image data is generated by arranging the depth data of the object scene obtained from the three-dimensional measurement data in a pixel unit or an image area unit of the image data and making a gradation map. A data processing unit;
A camera system comprising: a file generation unit that generates an image file with a depth map by recording the depth map attached to the image data.
前記奥行きマップに基づいて、前記画像データの画像各部における画像処理を制御する画像処理部と
を備えたことを特徴とする画像処理装置。 A file acquisition unit that captures an image file with a depth map generated in the camera system according to claim 1 and obtains image data and a depth map;
An image processing apparatus comprising: an image processing unit that controls image processing in each part of the image data based on the depth map.
前記画像処理部は、
ユーザー操作に従って、画像上の位置(以下コントロールポイントという)の入力を受け付ける操作部と、
前記奥行きマップに基づいて、前記コントロールポイントを含む所定の奥行き範囲に収まる選択範囲を抽出して処理マスクを生成するマスク生成部と、
前記処理マスクに応じて、画像各部の画像処理の反映度合いを制御する処理演算部とを備えた
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing unit
An operation unit that accepts input of a position on an image (hereinafter referred to as a control point) according to a user operation,
A mask generation unit that generates a processing mask by extracting a selection range that falls within a predetermined depth range including the control point based on the depth map;
An image processing apparatus comprising: a processing operation unit that controls a degree of reflection of image processing of each part of the image according to the processing mask.
前記画像処理部は、
前記画像ファイルから閃光照明の発光量を情報取得し、前記奥行きマップと前記発光量とに基づいて、画像各部における前記閃光照明の光量分布を示す閃光マップを生成する閃光マップ生成部と、
前記閃光マップに基づいて、前記画像データの画像各部の明るさ調整を制御する処理演算部とを備えた
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing unit
A flash map generation unit that obtains information on the amount of flash illumination from the image file, and generates a flash map indicating the light intensity distribution of the flash illumination in each part of the image based on the depth map and the amount of light emission;
An image processing apparatus comprising: a processing calculation unit that controls brightness adjustment of each part of the image data based on the flash map.
前記画像処理部は、
前記奥行きマップに基づいて、前記画像データを奥行き別に領域分割して、領域分割された画像データごとに画像ブレを検出するブレ検出部と、
前記奥行き別に前記画像ブレを表す点像関数の逆フィルタを求めるフィルタ作成部と、
前記画像データの前記奥行き別に前記逆フィルタをかけて、前記画像データの画像ブレを軽減する処理演算部とを備えた
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing unit
Based on the depth map, the image data is divided into regions by depth, and a blur detection unit that detects image blur for each of the divided image data;
A filter creation unit for obtaining an inverse filter of a point spread function representing the image blur for each depth;
An image processing apparatus, comprising: a processing operation unit that reduces the image blur of the image data by applying the inverse filter according to the depth of the image data.
前記画像処理部は、
前記奥行きマップに基づいて、前記画像データを奥行き別に領域分割して、領域分割された画像データごとに光源推定の画像処理を実施する光源推定部と、
前記奥行き別の光源推定結果に応じて前記画像データに施すホワイトバランス調整を制御する処理演算部とを備えた
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing unit
A light source estimation unit that divides the image data into regions based on the depth based on the depth map, and performs image processing of light source estimation for each of the divided image data;
An image processing apparatus comprising: a processing operation unit that controls white balance adjustment performed on the image data according to the light source estimation result for each depth.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006243260A JP2008067093A (en) | 2006-09-07 | 2006-09-07 | Camera system, image processing apparatus, and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006243260A JP2008067093A (en) | 2006-09-07 | 2006-09-07 | Camera system, image processing apparatus, and image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008067093A true JP2008067093A (en) | 2008-03-21 |
Family
ID=39289391
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006243260A Pending JP2008067093A (en) | 2006-09-07 | 2006-09-07 | Camera system, image processing apparatus, and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008067093A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102640189A (en) * | 2009-12-16 | 2012-08-15 | 索尼电子有限公司 | Algorithms for estimating precise and relative object distances in a scene |
| JP2014003486A (en) * | 2012-06-19 | 2014-01-09 | Sharp Corp | Image processing device, image capturing device, image display device, image processing method, and program |
| JP2014220793A (en) * | 2013-04-10 | 2014-11-20 | 株式会社エム・ソフト | Image color adjustment method and image color adjustment system |
| JP2015133758A (en) * | 2015-04-20 | 2015-07-23 | キヤノン株式会社 | Image processing device, image processing method and program thereof |
| KR101797040B1 (en) * | 2011-11-28 | 2017-11-13 | 삼성전자주식회사 | Digital photographing apparatus and control method thereof |
| JP2023156394A (en) * | 2018-05-30 | 2023-10-24 | マクセル株式会社 | wearable device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000244810A (en) * | 1999-02-19 | 2000-09-08 | Sony Corp | Image organizing apparatus, image organizing method, image recording apparatus, image reproducing apparatus, image recording / reproducing apparatus, imaging apparatus, and computer-readable recording medium on which data is recorded |
| JP2001346226A (en) * | 2000-06-02 | 2001-12-14 | Canon Inc | Image processing apparatus, three-dimensional photo print system, image processing method, three-dimensional photo print method, and medium recording processing program |
| JP2003346188A (en) * | 2002-05-27 | 2003-12-05 | Canon Inc | 3D image forming system |
| JP2004173300A (en) * | 1997-01-10 | 2004-06-17 | Casio Comput Co Ltd | Imaging device and imaging image processing method |
-
2006
- 2006-09-07 JP JP2006243260A patent/JP2008067093A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004173300A (en) * | 1997-01-10 | 2004-06-17 | Casio Comput Co Ltd | Imaging device and imaging image processing method |
| JP2000244810A (en) * | 1999-02-19 | 2000-09-08 | Sony Corp | Image organizing apparatus, image organizing method, image recording apparatus, image reproducing apparatus, image recording / reproducing apparatus, imaging apparatus, and computer-readable recording medium on which data is recorded |
| JP2001346226A (en) * | 2000-06-02 | 2001-12-14 | Canon Inc | Image processing apparatus, three-dimensional photo print system, image processing method, three-dimensional photo print method, and medium recording processing program |
| JP2003346188A (en) * | 2002-05-27 | 2003-12-05 | Canon Inc | 3D image forming system |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102640189A (en) * | 2009-12-16 | 2012-08-15 | 索尼电子有限公司 | Algorithms for estimating precise and relative object distances in a scene |
| JP2013512626A (en) * | 2009-12-16 | 2013-04-11 | ソニー エレクトロニクス インク | Algorithm for estimating accurate and relative subject distance in a scene |
| KR101797040B1 (en) * | 2011-11-28 | 2017-11-13 | 삼성전자주식회사 | Digital photographing apparatus and control method thereof |
| JP2014003486A (en) * | 2012-06-19 | 2014-01-09 | Sharp Corp | Image processing device, image capturing device, image display device, image processing method, and program |
| JP2014220793A (en) * | 2013-04-10 | 2014-11-20 | 株式会社エム・ソフト | Image color adjustment method and image color adjustment system |
| JP2015133758A (en) * | 2015-04-20 | 2015-07-23 | キヤノン株式会社 | Image processing device, image processing method and program thereof |
| JP2023156394A (en) * | 2018-05-30 | 2023-10-24 | マクセル株式会社 | wearable device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5460173B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
| CN107277356B (en) | Method and device for processing human face area of backlight scene | |
| JP6700840B2 (en) | Image processing device, imaging device, control method, and program | |
| JP6724027B2 (en) | System and method for high dynamic range imaging | |
| JP5303692B1 (en) | Stereoscopic image processing apparatus and stereoscopic image processing method | |
| JP7620704B2 (en) | A foldable electronic device for multi-view image capture | |
| JPWO2017159312A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JPWO2018230098A1 (en) | ENDOSCOPE SYSTEM, METHOD OF OPERATING ENDOSCOPE SYSTEM | |
| WO2013032008A1 (en) | Image processing device and program | |
| JP6412386B2 (en) | Image processing apparatus, control method therefor, program, and recording medium | |
| WO2020027210A1 (en) | Image processing device, image processing method, and image processing program | |
| JP7292905B2 (en) | Image processing device, image processing method, and imaging device | |
| JP7699157B2 (en) | Correction of halos in digital images and device for performing the correction - Patents.com | |
| KR101680446B1 (en) | Creation device for color table, correction and control device for camera image and method thereof | |
| JP7307541B2 (en) | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
| JP6624785B2 (en) | Image processing method, image processing device, imaging device, program, and storage medium | |
| JP7301683B2 (en) | Image processing device, image processing method, and program | |
| JP2008067093A (en) | Camera system, image processing apparatus, and image processing program | |
| JP6702752B2 (en) | Image processing device, imaging device, control method, and program | |
| JP7059076B2 (en) | Image processing device, its control method, program, recording medium | |
| CN113542543B (en) | Image processing device, image processing method and storage medium | |
| JPWO2006057314A1 (en) | Image processing apparatus and image processing method | |
| JP4583844B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2020024581A (en) | Image processing apparatus, image processing method, and program | |
| JP2014060480A (en) | Imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090904 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100922 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110325 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110620 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120207 |