[go: up one dir, main page]

JP2012119761A - Electronic apparatus, image processing method and program - Google Patents

Electronic apparatus, image processing method and program Download PDF

Info

Publication number
JP2012119761A
JP2012119761A JP2010265278A JP2010265278A JP2012119761A JP 2012119761 A JP2012119761 A JP 2012119761A JP 2010265278 A JP2010265278 A JP 2010265278A JP 2010265278 A JP2010265278 A JP 2010265278A JP 2012119761 A JP2012119761 A JP 2012119761A
Authority
JP
Japan
Prior art keywords
image
input
images
hdr
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265278A
Other languages
Japanese (ja)
Inventor
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010265278A priority Critical patent/JP2012119761A/en
Publication of JP2012119761A publication Critical patent/JP2012119761A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a dynamic range expanded image complying with user's preference.SOLUTION: An HDR image having an expanded dynamic range is created by combining a plurality of input images having different exposure conditions, and a plurality of combined result images are created by applying a plurality of gradation conversion processing (tone mapping) individually to the HDR image thus created. Meanwhile, a tone correction image having a dynamic range expanded artificially is created by performing tone correction of a single input image. Based on the movement, presence/absence of flicker or saturation of an object in an input image array, priority is set in a plurality of combined result images and tone correction signals, and then display control or recording control of the plurality of combined result images and tone correction signals is performed according to the priority.

Description

本発明は、撮像装置等の電子機器に関する。また、画像に対して様々な処理を施すための画像処理方法及びプログラムに関する。   The present invention relates to an electronic apparatus such as an imaging apparatus. The present invention also relates to an image processing method and program for performing various processes on an image.

撮影によって得られた入力画像のダイナミックレンジを拡大することで、HDR(High Dynamic range)画像を生成する方法が知られている。   A method of generating an HDR (High Dynamic range) image by expanding the dynamic range of an input image obtained by photographing is known.

この方法を実現する一般的なHDR処理では、露出条件が互いに異なる複数の入力画像を合成することでダイナミックレンジの拡大を図っている。ダイナミックレンジが拡大された画像に対し、ビット長圧縮などを目的とした階調変換を成すことで、最終的なHDR画像を生成することも多い。また、単一画像に対して適切な階調補正を行うことにより、ダイナミックレンジ(見かけ上のダイナミックレンジ)を拡大する方法も提案されている。   In a general HDR process for realizing this method, a dynamic range is expanded by synthesizing a plurality of input images having different exposure conditions. In many cases, final HDR images are generated by performing gradation conversion for the purpose of bit length compression or the like on an image with an expanded dynamic range. There has also been proposed a method of expanding the dynamic range (apparent dynamic range) by performing appropriate gradation correction on a single image.

この他、ダイナミックレンジの拡大を図った従来方法として、以下の第1及び第2従来方法が存在する。   In addition, the following first and second conventional methods exist as conventional methods for expanding the dynamic range.

第1従来方法に係る撮像装置は、単一画像に階調補正を行うことでダイナミックレンジを拡大する第1のダイナミックレンジ拡大手段と、互いに異なる露出条件にて撮影された複数の画像を合成することでダイナミックレンジを拡大する第2のダイナミックレンジ拡大手段と、第1及び第2のダイナミックレンジ拡大手段のどちらを用いてダイナミックレンジを拡大した画像を取得するかを選択する選択手段と、選択されたダイナミックレンジ拡大手段が必要とする画像を撮像手段に撮影させる手段と、を備える(例えば、下記特許文献1参照)。   An imaging apparatus according to a first conventional method combines a first dynamic range expansion unit that expands a dynamic range by performing gradation correction on a single image, and a plurality of images captured under different exposure conditions. A second dynamic range expansion unit that expands the dynamic range, and a selection unit that selects which of the first and second dynamic range expansion units is used to acquire an image with an expanded dynamic range. Means for causing the image pickup means to take an image required by the dynamic range expansion means (see, for example, Patent Document 1 below).

第2従来方法に係る撮像装置は、互いに異なる露出条件にて撮影された複数の画像を合成することによりダイナミックレンジを拡大する画像合成手段を備え、画像合成手段において、画像の合焦状態の詳細度の高低に応じてダイナミックレンジ拡大幅を変更している(例えば、下記特許文献2参照)。   The image pickup apparatus according to the second conventional method includes image combining means for expanding a dynamic range by combining a plurality of images taken under different exposure conditions. In the image combining means, details of the focused state of the image The dynamic range expansion width is changed according to the degree of the degree (see, for example, Patent Document 2 below).

特開2010−093679号公報JP 2010-093679 A 特開2009−218895号公報JP 2009-218895 A

複数の画像を用いたHDR処理の結果画像は、当然に、処理の内容に依存して変化し、特に上記の階調変換に依存して大きく変化する。ユーザの好みに合った結果画像が生成されるように、階調変換を含むHDR処理の内容をユーザが指定するといったことも考えられるが、そのような指定は比較的大きな操作負担をユーザに課す。ユーザに過度の負担を与えることなく、ユーザの好みに合った結果画像を提供することができれば有益であることは言うまでもないが、上記第1及び第2従来方法を含む従来方法では、これが十分に実現されていない。   Naturally, the result image of the HDR processing using a plurality of images changes depending on the contents of the processing, and particularly changes greatly depending on the above-described gradation conversion. It is conceivable that the user designates the contents of HDR processing including gradation conversion so that a result image that suits the user's preference is generated, but such designation imposes a relatively large operational burden on the user. . It goes without saying that it would be beneficial if a result image suitable for the user's preference could be provided without imposing an excessive burden on the user. However, in the conventional methods including the first and second conventional methods, this is sufficient. Not realized.

そこで本発明は、ユーザの好みに合ったダイナミックレンジ拡大画像の提供に寄与する電子機器、画像処理方法及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an electronic device, an image processing method, and a program that contribute to providing a dynamic range expanded image that suits a user's preference.

本発明に係る第1の電子機器は、互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得部と、前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理部と、前記合成処理部の生成画像に対し、互いに異なる複数の階調変換条件を個別に用いて階調変換を行うことにより複数の合成結果画像を生成する階調変換部と、を備えたことを特徴とする。   The first electronic device according to the present invention includes an image data acquisition unit that acquires image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions; A synthesis processing unit that generates an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images, and a generated image of the synthesis processing unit, And a tone conversion unit that generates a plurality of combined result images by performing tone conversion using a plurality of different tone conversion conditions individually.

これにより、ユーザは、複数の合成結果画像の中から、自分の好みにあった合成結果画像(ダイナミックレンジ拡大画像)を抽出することが可能となる。   Accordingly, the user can extract a synthesis result image (dynamic range expanded image) according to his / her preference from a plurality of synthesis result images.

そして例えば、前記入力画像列の画像データに基づき前記複数の合成結果画像に対して優先順位を設定する優先順位設定部と、前記優先順位に応じて前記複数の合成結果画像の表示又は記録を制御する画像出力制御部とを、前記第1の電子機器に更に設けると良い。   And, for example, a priority setting unit that sets priority for the plurality of combined result images based on image data of the input image sequence, and controls display or recording of the plurality of combined result images according to the priority It is preferable that an image output control unit to be provided is further provided in the first electronic device.

これにより、ユーザの好みに合っていると推測される合成結果画像を優先的に表示又は記録することが可能となる。   As a result, it is possible to preferentially display or record a synthesis result image that is presumed to be suitable for the user's preference.

また例えば、前記n枚の入力画像に含まれる1枚の入力画像に階調補正を行うことで階調補正画像を生成する階調補正部を、前記第1の電子機器に更に設けてもよい。   For example, the first electronic apparatus may further include a gradation correction unit that generates a gradation correction image by performing gradation correction on one input image included in the n input images. .

そして例えば、前記入力画像列の画像データに基づき前記複数の合成結果画像及び前記階調補正画像に対して優先順位を設定する優先順位設定部と、前記優先順位に応じて前記複数の合成結果画像及び前記階調補正画像の表示又は記録を制御する画像出力制御部とを、前記第1の電子機器に更に設けても良い。   And, for example, a priority setting unit that sets priority for the plurality of combined result images and the gradation correction image based on image data of the input image sequence, and the plurality of combined result images according to the priority An image output control unit that controls display or recording of the gradation correction image may be further provided in the first electronic device.

これにより、ユーザの好みに合っていると推測される合成結果画像又は階調補正画像を優先的に表示又は記録することが可能となる。   As a result, it is possible to preferentially display or record the synthesis result image or the gradation correction image that is presumed to match the user's preference.

具体的は例えば、前記優先順位設定部は、前記入力画像列の画像データに基づいて、前記入力画像列上の物体の動き、前記入力画像列におけるフリッカの有無、及び、前記入力画像列における彩度の内の1以上を評価し、評価結果に基づいて前記優先順位を設定しても良い。   Specifically, for example, the priority order setting unit, based on the image data of the input image sequence, the movement of the object on the input image sequence, the presence or absence of flicker in the input image sequence, and the color in the input image sequence. One or more of the degrees may be evaluated, and the priority order may be set based on the evaluation result.

また例えば、前記第1の電子機器は、前記入力画像列の画像データを撮影によって取得する撮像装置であって、前記入力画像列を形成する各入力画像の露出条件を設定する露出条件設定部と、前記複数の合成結果画像を生成することの要否を判定する要否判定部と、を更に備え、前記複数の合成結果画像を生成するか否かは、前記要否の判定結果に従って定められ、前記n枚の入力画像に先立って撮影される入力画像には、第1及び第2の判定用入力画像が含まれ、前記露出条件設定部は、前記第1の判定用入力画像において所定の第1基準輝度以上の輝度を有する画素の数が所定の第1基準値以下になるように、前記第1の判定用入力画像の撮影時における第1の露出条件を設定するとともに、前記第2の判定用入力画像において所定の第2基準輝度以下の輝度を有する画素の数が所定の第2基準値以下になるように、前記第2の判定用入力画像の撮影時における第2の露出条件を設定し、前記要否判定部は、前記第1及び第2の露出条件に基づいて前記要否の判定を行っても良い。   Further, for example, the first electronic device is an imaging device that acquires image data of the input image sequence by photographing, and an exposure condition setting unit that sets an exposure condition of each input image forming the input image sequence; A necessity determining unit that determines whether or not it is necessary to generate the plurality of combined result images, and whether or not to generate the plurality of combined result images is determined according to the determination result of the necessity. The input image captured prior to the n input images includes the first and second determination input images, and the exposure condition setting unit has a predetermined value in the first determination input image. The first exposure condition at the time of shooting the first determination input image is set so that the number of pixels having a luminance equal to or higher than the first reference luminance is equal to or less than a predetermined first reference value, and the second In the predetermined input image A second exposure condition at the time of shooting the second determination input image is set so that the number of pixels having a luminance equal to or lower than a reference luminance is equal to or lower than a predetermined second reference value, and the necessity determination unit includes: The necessity determination may be performed based on the first and second exposure conditions.

本発明に係る第2の電子機器は、互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得部と、前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理部と、前記合成処理部の生成画像に対し、階調変換を行うことにより合成結果画像を生成する階調変換部と、を備え、前記階調変換部は、前記階調変換の内容を前記入力画像列の画像データに基づいて変更することを特徴とする。   The second electronic device according to the present invention includes an image data acquisition unit that acquires image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions, A synthesis processing unit that generates an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images, and for the generated image of the synthesis processing unit, A tone conversion unit that generates a composite result image by performing tone conversion, wherein the tone conversion unit changes the content of the tone conversion based on image data of the input image sequence. And

これにより、ユーザの好みにあった合成結果画像(ダイナミックレンジ拡大画像)の提供が期待される。   Thereby, provision of a synthesis result image (dynamic range expanded image) that suits the user's preference is expected.

本発明に係る第1の画像処理方法は、互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得ステップと、前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理ステップと、前記合成処理ステップの生成画像に対し、互いに異なる複数の階調変換条件を個別に用いて階調変換を行うことにより複数の合成結果画像を生成する階調変換ステップと、を実行することを特徴とする。   The first image processing method according to the present invention includes an image data acquisition step of acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions; A synthesis processing step for generating an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images, and for the generated image of the synthesis processing step, A gradation conversion step of generating a plurality of combined result images by performing gradation conversion using a plurality of different gradation conversion conditions individually.

本発明に係る第2の画像処理方法は、互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得ステップと、前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理ステップと、前記合成処理ステップの生成画像に対し、階調変換を行うことにより合成結果画像を生成する階調変換ステップと、を実行し、前記階調変換ステップでは、前記階調変換の内容を前記入力画像列の画像データに基づいて変更することを特徴とする。   The second image processing method according to the present invention includes an image data acquisition step of acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions; A synthesis processing step for generating an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images, and for the generated image of the synthesis processing step, A gradation conversion step of generating a composite result image by performing gradation conversion, and in the gradation conversion step, the content of the gradation conversion is changed based on image data of the input image sequence It is characterized by.

そして例えば、第1又は第2の画像処理方法における画像データ取得ステップ、合成処理ステップ及び階調変換ステップをコンピュータに実行させるためのプログラムを形成すると良い。   For example, a program for causing a computer to execute the image data acquisition step, the synthesis processing step, and the gradation conversion step in the first or second image processing method may be formed.

本発明によれば、ユーザの好みに合ったダイナミックレンジ拡大画像の提供に寄与する電子機器、画像処理方法及びプログラムを提供することが可能である。   ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the electronic device, the image processing method, and program which contribute to provision of the dynamic range expansion image suitable for a user's liking.

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. 二次元の画像空間と二次元画像との関係を示す図である。It is a figure which shows the relationship between a two-dimensional image space and a two-dimensional image. ダイナミックレンジ拡大に特に関与する部位のブロック図である。It is a block diagram of the part which is especially concerned with dynamic range expansion. 短露光画像としての入力画像、長露光画像としての入力画像及びそれらから生成されるHDR画像を示す図(a)と、短露光画像の輝度の増大処理を示す図(b)である。FIG. 4A is a diagram showing an input image as a short exposure image, an input image as a long exposure image, and an HDR image generated from the input image, and FIG. 4B is a diagram showing a process for increasing the brightness of the short exposure image. 入力画像における入射光量と信号レベルとの関係を表す図である。It is a figure showing the relationship between the incident light quantity and signal level in an input image. HDR画像における入射光量と信号レベルとの関係を表す図である。It is a figure showing the relationship between the incident light quantity and signal level in a HDR image. 階調変換によってHDR画像から合成結果画像が得られる様子を示す図である。It is a figure which shows a mode that a synthetic | combination result image is obtained from an HDR image by gradation conversion. 第1の階調変換処理で用いられるトーンカーブを示す図である。It is a figure which shows the tone curve used by the 1st gradation conversion process. 第2の階調変換処理によって、HDR画像から合成結果画像を生成される様子を示す図である。It is a figure which shows a mode that a synthetic | combination result image is produced | generated from an HDR image by the 2nd gradation conversion process. 第2の階調変換処理における単純ビット長圧縮を説明するための図である。It is a figure for demonstrating the simple bit length compression in a 2nd gradation conversion process. 第2の階調変換処理において参照されるHDR画像及び合成結果画像の輝度ヒストグラムである。It is a brightness | luminance histogram of the HDR image and synthetic | combination result image referred in a 2nd gradation conversion process. 入力画像から階調補正画像が得られる様子を示す図である。It is a figure which shows a mode that a gradation correction image is obtained from an input image. HDR画像及び階調補正画像の輝度ヒストグラムを示す図(a)(b)と、階調補正処理におけるゲイン関数を示す図(c)である。FIG. 4A is a diagram showing a luminance histogram of an HDR image and a tone correction image, and FIG. 3C is a diagram showing a gain function in tone correction processing. HDR撮影要否判定用期間と本撮影期間との関係を示す図(a)と、それらの期間に撮影される入力画像を説明するための図(b)である。FIG. 4A is a diagram illustrating a relationship between a HDR imaging necessity determination period and a main imaging period, and FIG. 4B is a diagram for explaining an input image captured during those periods. 短露光判定用画像及び長露光判定用画像を含む判定用画像列を示す図である。It is a figure which shows the image sequence for determination containing the image for short exposure determination, and the image for long exposure determination. 短露光判定用画像及び長露光判定用画像の輝度ヒストグラムである。It is a brightness | luminance histogram of the image for short exposure determination, and the image for long exposure determination. 2枚の対象入力画像から3種類の合成結果画像が得られる様子を示す図である。It is a figure which shows a mode that three types of synthetic | combination result images are obtained from two object input images. 5枚の対象入力画像から3種類の合成結果画像が得られる様子を示す図である。It is a figure which shows a mode that three types of synthetic result images are obtained from five object input images. 図1の撮像装置の動作フローチャートである。2 is an operation flowchart of the imaging apparatus in FIG. 1. 優先順位に従った画像表示方法例を説明するための図である。It is a figure for demonstrating the example of the image display method according to a priority. 図1の撮像装置に設けておくことのできる複数の検出部を示した図である。It is the figure which showed the some detection part which can be provided in the imaging device of FIG. 画像間でオプティカルフローが導出される様子を示す図である。It is a figure which shows a mode that the optical flow is derived | led-out between images. 第1〜第3の出力HDR画像に対する優先順位の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the priority with respect to the 1st-3rd output HDR image.

以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, an example of an embodiment of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は、撮像装置1の外部装置(不図示)に設けられたものであってもよい。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 has each part referred by the codes | symbols 11-28. The imaging apparatus 1 is a digital video camera, and can capture a moving image and a still image, and can also capture a still image during moving image capturing. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25. The display unit 27 and / or the speaker 28 may be provided in an external device (not shown) of the imaging device 1.

図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、CPU(Central Processing Unit)23からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量(換言すれば、絞り値)を制御する。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. The imaging unit 11 drives and controls the optical system 35, the diaphragm 32, the imaging element 33 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the optical system 35 or the diaphragm 32. And a driver 34. The optical system 35 is formed from a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 drives and controls the positions of the zoom lens 30 and the focus lens 31 and the opening of the diaphragm 32 based on a control signal from a CPU (Central Processing Unit) 23, so that the focal length (view angle) of the imaging unit 11 is controlled. ), The focal position, and the amount of light incident on the image sensor 33 (in other words, the aperture value).

撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE(Analog Front End)12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各画像の撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。   The image sensor 33 photoelectrically converts an optical image representing a subject incident through the optical system 35 and the diaphragm 32 and outputs an electric signal obtained by the photoelectric conversion to an AFE (Analog Front End) 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels arranged two-dimensionally in a matrix, and each light receiving pixel stores a signal charge having a charge amount corresponding to the exposure time in photographing each image. An analog signal from each light receiving pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the AFE 12 in accordance with a drive pulse generated in the imaging device 1.

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして映像信号処理部13に出力する。AFE12における信号増幅の増幅度は、CPU23によって制御される。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 outputs this digital signal to the video signal processing unit 13 as RAW data. The degree of signal amplification in the AFE 12 is controlled by the CPU 23.

映像信号処理部13は、RAWデータにて表される画像に対して必要な画像処理を施し、画像処理後の画像についての映像信号を生成する。マイク14は、撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The video signal processing unit 13 performs necessary image processing on the image represented by the RAW data, and generates a video signal for the image after the image processing. The microphone 14 converts the ambient sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号及び音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の映像信号及び音声信号を互いに関連付けた状態で記録する。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 using a predetermined compression method. The internal memory 17 is composed of a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores various data. The external memory 18 as a recording medium is a non-volatile memory such as a semiconductor memory or a magnetic disk, and records the video signal and the audio signal compressed by the compression processing unit 16 in a state of being associated with each other.

伸張処理部19は、外部メモリ18から読み出された圧縮された映像信号及び音声信号を伸張する。伸張処理部19による伸張後の映像信号又は映像信号処理部13からの映像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音声信号は、音声出力回路21を介してスピーカ28に送られて音として出力される。   The decompression processing unit 19 decompresses the compressed video signal and audio signal read from the external memory 18. The video signal expanded by the expansion processing unit 19 or the video signal from the video signal processing unit 13 is sent to the display unit 27 such as a liquid crystal display via the display processing unit 20 and displayed as an image. Further, the audio signal that has been expanded by the expansion processing unit 19 is sent to the speaker 28 via the audio output circuit 21 and output as sound.

TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b及び操作キー26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。   The TG (timing generator) 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and gives the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The CPU 23 comprehensively controls the operation of each part in the imaging apparatus 1. The operation unit 26 includes a recording button 26a for instructing start / end of moving image shooting and recording, a shutter button 26b for instructing shooting and recording of a still image, an operation key 26c, and the like. Accept the operation. The operation content for the operation unit 26 is transmitted to the CPU 23.

撮像装置1の動作モードには、画像(静止画像又は動画像)の撮影及び記録が可能な撮影モードと、外部メモリ18に記録された画像(静止画像又は動画像)を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。   The operation mode of the imaging apparatus 1 includes a shooting mode in which an image (still image or moving image) can be shot and recorded, and an image (still image or moving image) recorded in the external memory 18 is reproduced and displayed on the display unit 27. Playback mode to be included. Transition between the modes is performed according to the operation on the operation key 26c.

撮影モードでは、次々と被写体の撮影が行われ、被写体の撮影画像が順次取得される。画像を表すデジタルの映像信号を画像データとも呼ぶ。上記RAWデータも画像データの一種である。   In the photographing mode, the subject is photographed one after another, and photographed images of the subject are sequentially acquired. A digital video signal representing an image is also called image data. The RAW data is also a kind of image data.

尚、画像データの圧縮及び伸張は、本発明の本質とは関係ないため、以下の説明では、画像データの圧縮及び伸張の存在を無視する(即ち例えば、圧縮された画像データを記録することを、単に、画像データを記録すると表現する)。また、本明細書では、或る画像の画像データのことを単に画像と言うこともある。また、本明細書において、単に表示又は表示画面といった場合、それは、表示部27における表示又は表示画面を指す。   Since the compression and expansion of image data is not related to the essence of the present invention, the following description ignores the existence of compression and expansion of image data (ie, recording compressed image data, for example). Simply expressed as recording image data). In this specification, image data of a certain image may be simply referred to as an image. Further, in this specification, when the term “display” or “display screen” is used, it refers to the display or display screen in the display unit 27.

図3に、二次元の画像空間XYを示す。画像空間XYは、X軸及びY軸を座標軸として有する、空間領域(spatial domain)上の二次元座標系である。任意の二次元画像300は、画像空間XY上に配置された画像であると考えることができる。X軸及びY軸は、夫々、二次元画像300の水平方向及び垂直方向に沿った軸である。二次元画像300は、水平方向及び垂直方向の夫々に複数の画素がマトリクス状に配列されて形成されており、二次元画像300上の何れかの画素である画素301の位置を(x,y)にて表す。本明細書では、画素の位置を、単に画素位置とも言う。x及びyは、夫々、画素301のX軸及びY軸方向の座標値である。二次元座標系XYにおいて、或る画素の位置が右側に1画素分ずれると該画素のX軸方向における座標値は1だけ増大し、或る画素の位置が下側に1画素分ずれると該画素のY軸方向における座標値は1だけ増大する。従って、画素301の位置が(x,y)である場合、画素301の右側、左側、下側及び上側に隣接する画素の位置は、夫々、(x+1,y)、(x−1,y)、(x,y+1)及び(x,y―1)にて表される。   FIG. 3 shows a two-dimensional image space XY. The image space XY is a two-dimensional coordinate system on a spatial domain having the X axis and the Y axis as coordinate axes. The arbitrary two-dimensional image 300 can be considered as an image arranged on the image space XY. The X axis and the Y axis are axes along the horizontal direction and the vertical direction of the two-dimensional image 300, respectively. The two-dimensional image 300 is formed by arranging a plurality of pixels in a matrix in each of the horizontal direction and the vertical direction, and the position of a pixel 301 that is any pixel on the two-dimensional image 300 is (x, y ). In this specification, the position of a pixel is also simply referred to as a pixel position. x and y are coordinate values of the pixel 301 in the X-axis and Y-axis directions, respectively. In the two-dimensional coordinate system XY, when the position of a certain pixel is shifted to the right by one pixel, the coordinate value of the pixel in the X-axis direction increases by 1, and when the position of a certain pixel is shifted downward by one pixel, The coordinate value of the pixel in the Y-axis direction increases by 1. Therefore, when the position of the pixel 301 is (x, y), the positions of the pixels adjacent to the right side, the left side, the lower side, and the upper side of the pixel 301 are (x + 1, y) and (x-1, y), respectively. , (X, y + 1) and (x, y-1).

撮像装置1には、撮影によって得られた入力画像のダイナミックレンジを拡大する機能が設けられている。図4に、この機能に特に関与する部位のブロック図を示す。図4に示される各部位を撮像装置1内に設けておくことができる。例えば、画像処理部50及び画像データ取得部51を図1の映像信号処理部13に設けておくことができると共に、露出制御部(露出条件設定部)52及び画像出力制御部58をCPU23にて実現することができる。画像処理部50は、符号53〜57によって参照される各部位を備える。   The imaging apparatus 1 is provided with a function for expanding the dynamic range of an input image obtained by shooting. FIG. 4 shows a block diagram of a part particularly related to this function. Each part shown in FIG. 4 can be provided in the imaging apparatus 1. For example, the image processing unit 50 and the image data acquisition unit 51 can be provided in the video signal processing unit 13 of FIG. Can be realized. The image processing unit 50 includes each part referred to by reference numerals 53 to 57.

画像データ取得部51は、入力画像列の画像データを取得する。入力画像列の画像データは、画像データ取得部51を介して画像処理部50及び露出制御部52に供給される。入力画像列に代表される画像列とは、時系列上に並ぶ複数の画像の集まりを指す。従って、入力画像列は、時系列上に並ぶ複数の入力画像から成る。画像列は、動画像とも読み替えられる。入力画像は、RAWデータそのものにて表される静止画像、又は、RAWデータにて表される静止画像に所定の画像処理(例えば、ノイズ除去処理やデモザイキング処理)を施して得られる静止画像を指す。画像データ取得部51は、再生モードにおいて入力画像列の画像データを取得することもできる。この場合、画像データ取得部51は、外部メモリ18に記録された任意の画像列を入力画像列として外部メモリ18から読み出すことにより、入力画像列の画像データを取得する。但し、以下では、特に断りなき限り、撮影モードにおいて入力画像列の画像データが取得されることを想定する。   The image data acquisition unit 51 acquires image data of the input image sequence. The image data of the input image sequence is supplied to the image processing unit 50 and the exposure control unit 52 via the image data acquisition unit 51. An image sequence represented by an input image sequence refers to a collection of a plurality of images arranged in time series. Therefore, the input image sequence is composed of a plurality of input images arranged in time series. The image sequence is also read as a moving image. The input image is a still image represented by RAW data itself, or a still image obtained by performing predetermined image processing (for example, noise removal processing or demosaicing processing) on a still image represented by RAW data. Point to. The image data acquisition unit 51 can also acquire image data of an input image sequence in the reproduction mode. In this case, the image data acquisition unit 51 acquires image data of the input image sequence by reading an arbitrary image sequence recorded in the external memory 18 from the external memory 18 as an input image sequence. However, hereinafter, it is assumed that image data of the input image sequence is acquired in the shooting mode unless otherwise specified.

露出制御部52は、入力画像の露出条件を設定する。この際、既に撮影された入力画像列の画像データに基づいて、以後の撮影によって得られることになる入力画像の露出条件を設定することができる(詳細は後述)。入力画像の露出条件とは、入力画像の露出状態を定める条件である。入力画像の露出条件には、入力画像の露光時間(即ちシャッタスピード)、入力画像の撮影時における絞り値、及び、入力画像の撮影時におけるISO感度が含まれる。入力画像の露光時間とは、入力画像の画像データを得るために撮像素子33が露光される時間の長さを指す。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで入力画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。その増幅度はISO感度に比例している。ISO感度が2倍になれば、その増幅度も2倍となり、これによって入力画像の各画素の輝度も2倍となる(但し、飽和を無視)。   The exposure control unit 52 sets exposure conditions for the input image. At this time, based on the image data of the already captured input image sequence, it is possible to set the exposure condition of the input image to be obtained by the subsequent shooting (details will be described later). The input image exposure condition is a condition for determining the exposure state of the input image. The exposure condition of the input image includes the exposure time (that is, shutter speed) of the input image, the aperture value at the time of shooting the input image, and the ISO sensitivity at the time of shooting of the input image. The exposure time of the input image refers to the length of time that the image sensor 33 is exposed to obtain image data of the input image. The ISO sensitivity means sensitivity defined by ISO (International Organization for Standardization), and the brightness (luminance level) of the input image can be adjusted by adjusting the ISO sensitivity. Actually, the amplification factor of the signal amplification in the AFE 12 is determined according to the ISO sensitivity. The amplification degree is proportional to the ISO sensitivity. If the ISO sensitivity is doubled, the degree of amplification is also doubled, whereby the luminance of each pixel of the input image is also doubled (however, saturation is ignored).

合成処理部53は、互いに異なる露出条件にて撮影された複数の入力画像を合成する画像合成処理を行い、これによって各入力画像のダイナミックレンジよりも広いダイナミックレンジを有するHDR(High Dynamic Range)画像を生成する。HDR画像の各画素位置における画素信号のビット長は、入力画像のそれよりも長い。従って、HDR画像のビット長を維持したまま、HDR画像を表示部27に表示することができないこともある、或いは、HDR画像を外部メモリ18に記録できないこともある。   The composition processing unit 53 performs image composition processing for composing a plurality of input images photographed under different exposure conditions, and thereby an HDR (High Dynamic Range) image having a dynamic range wider than the dynamic range of each input image. Is generated. The bit length of the pixel signal at each pixel position of the HDR image is longer than that of the input image. Therefore, the HDR image may not be displayed on the display unit 27 while maintaining the bit length of the HDR image, or the HDR image may not be recorded in the external memory 18.

このため、階調変換部54は、生成されたHDR画像の階調を圧縮するための階調変換処理をHDR画像に施し、階調変換処理後のHDR画像を合成結果画像として生成する。階調変換部54における階調圧縮の条件、即ち、HDR画像から合成結果画像を生成するための階調変換処理の条件を階調変換条件と呼ぶ。階調変換部54における階調変換処理及び階調変換条件を、夫々、階調圧縮処理及び階調圧縮条件と呼ぶこともできる。階調変換部54は、互いに異なる複数の階調変換条件を個別に用いてHDR画像に階調変換処理を成すことができ、これによって互いに異なる複数の合成結果画像を生成することができる。   For this reason, the gradation conversion unit 54 performs gradation conversion processing for compressing the gradation of the generated HDR image on the HDR image, and generates the HDR image after the gradation conversion processing as a synthesis result image. The conditions for gradation compression in the gradation conversion unit 54, that is, the conditions for gradation conversion processing for generating a composite result image from the HDR image are referred to as gradation conversion conditions. The gradation conversion process and the gradation conversion condition in the gradation conversion unit 54 can also be referred to as a gradation compression process and a gradation compression condition, respectively. The gradation conversion unit 54 can perform gradation conversion processing on the HDR image by individually using a plurality of different gradation conversion conditions, thereby generating a plurality of different composite result images.

HDR画像及び合成結果画像は、入力画像のダイナミックレンジを拡大した画像に相当する。複数の入力画像から入力画像のダイナミックレンジを拡大した画像を生成する方法として、公知の方法(例えば、特開2008−109176号公報、特開2008−136113号公報又は特開2010−93679号公報に記載された方法)を含む任意のダイナミックレンジ拡大方法を利用可能である。   The HDR image and the synthesis result image correspond to images obtained by expanding the dynamic range of the input image. As a method for generating an image in which the dynamic range of an input image is expanded from a plurality of input images, a known method (for example, Japanese Patent Laid-Open No. 2008-109176, Japanese Patent Laid-Open No. 2008-136113, or Japanese Patent Laid-Open No. 2010-93679). Any dynamic range expansion method can be used, including the described method).

階調補正部55は、1枚の入力画像に対して階調補正処理を施すことで当該入力画像の階調を補正する。階調補正後の入力画像を階調補正画像と呼ぶ。階調補正部55は、入力画像の見かけ上のダイナミックレンジが拡大されるように(換言すれば、入力画像のダイナミックレンジが擬似的に拡大されるように)階調補正処理を行う。   The gradation correction unit 55 corrects the gradation of the input image by performing gradation correction processing on one input image. The input image after gradation correction is called a gradation corrected image. The tone correction unit 55 performs tone correction processing so that the apparent dynamic range of the input image is expanded (in other words, the dynamic range of the input image is pseudo-expanded).

階調補正画像も、入力画像のダイナミックレンジを拡大した画像に相当する。1枚の入力画像に対する階調補正により入力画像のダイナミックレンジを拡大する方法として、公知の方法(例えば、特開2010−93679号公報に記載された方法)を含む任意のダイナミックレンジ拡大方法を利用可能である。   The tone correction image also corresponds to an image in which the dynamic range of the input image is expanded. As a method for expanding the dynamic range of an input image by gradation correction for one input image, any dynamic range expansion method including a known method (for example, a method described in Japanese Patent Laid-Open No. 2010-93679) is used. Is possible.

HDR撮影要否判定部56(以下、要否判定部56と略記することがある)は、入力画像列の画像データに基づいてHDR撮影の要否を判定する。HDR撮影とは、合成結果画像及び階調補正画像の生成元になる複数の入力画像の撮影を指す。要否判定部56又はCPU23は、HDR撮影が必要と判断された場合においてのみ、合成結果画像及び階調補正画像の生成元になる複数の入力画像が撮影されるように、撮像部11を制御することができる。HDR撮影が必要と判断された場合においてのみ合成結果画像及び階調補正画像が生成されるため、要否判定部56にて、合成結果画像及び階調補正画像の生成要否が判定されているとも言える。   The HDR shooting necessity determination unit 56 (hereinafter sometimes abbreviated as the necessity determination unit 56) determines whether HDR shooting is necessary based on the image data of the input image sequence. HDR imaging refers to imaging of a plurality of input images that are generation sources of the synthesis result image and the gradation correction image. The necessity determination unit 56 or the CPU 23 controls the imaging unit 11 so that a plurality of input images that are generation sources of the synthesis result image and the gradation correction image are captured only when it is determined that HDR imaging is necessary. can do. Only when it is determined that HDR shooting is necessary, the synthesis result image and the gradation correction image are generated. Therefore, the necessity determination unit 56 determines whether the synthesis result image and the gradation correction image need to be generated. It can also be said.

優先順位設定部57は、階調変換部54から得られる複数の合成結果画像及び階調補正部55から得られる階調補正画像に対して、優先順位を設定する。優先順位設定部57は、優先順位の設定を入力画像列の画像データに基づいて行うことができる。   The priority order setting unit 57 sets priorities for the plurality of synthesis result images obtained from the tone conversion unit 54 and the tone correction images obtained from the tone correction unit 55. The priority order setting unit 57 can set the priority order based on the image data of the input image sequence.

画像出力制御部58は、複数の合成結果画像及び階調補正画像を表示部27に表示させるための表示制御及び外部メモリ18に記録させるための記録制御を行う。画像出力制御部58は、優先順位設定部57にて設定された優先順位に応じて表示制御及び記録制御を成すことができる。   The image output control unit 58 performs display control for displaying a plurality of synthesis result images and gradation correction images on the display unit 27 and recording control for recording in the external memory 18. The image output control unit 58 can perform display control and recording control according to the priority order set by the priority order setting unit 57.

以下、図4に示される各部位の動作を更に詳細を説明する。   Hereinafter, the operation of each part shown in FIG. 4 will be described in more detail.

[画像合成処理]
合成処理部53による画像合成処理の一例を説明する。図5(a)及び(b)を参照する。ここでは、2枚の入力画像331及び332からHDR画像333を生成する方法を説明する。入力画像331及び332は、共通の被写体を撮影することで得られた入力画像であり、互いになるだけ近接した時刻で撮影される。例えば、入力画像331及び332は、連続的に撮影された2枚の入力画像である。
[Image composition processing]
An example of image composition processing by the composition processing unit 53 will be described. Reference is made to FIGS. 5 (a) and 5 (b). Here, a method of generating the HDR image 333 from the two input images 331 and 332 will be described. The input images 331 and 332 are input images obtained by photographing a common subject, and are taken at a time as close as possible to each other. For example, the input images 331 and 332 are two input images taken continuously.

露出制御部52は、入力画像331の露出条件と入力画像332の露出条件とを互いに異ならせる。具体的には例えば、入力画像331の露光時間を入力画像332の露光時間よりも短く設定する。ここでは説明の具体化のため、長露光画像である入力画像332の露光時間が、短露光画像である入力画像331の露光時間の2倍であるものとし、露光時間以外の露出条件は入力画像331及び332間で同じであるとする。入力画像331の画素位置(x,y)における画素信号、入力画像332の画素位置(x,y)における画素信号及びHDR画像333の画素位置(x,y)における画素信号を、夫々、S(x,y)、S(x,y)及びS(x,y)にて表す。合成処理部53は、入力画像331の各画素位置における画素信号に2を乗じることにより、図5(b)の入力画像331’を生成することができる。入力画像331’の画素位置(x,y)における画素信号をS’(x,y)にて表す。S’(x,y)=2×S(x,y)である。或る画素又は画素位置における画素信号は当該画素又は当該画素位置における映像信号を指し、映像信号はRAWデータ形式にて表現される、或いは、映像信号は輝度信号及び色差信号を含む。 The exposure control unit 52 makes the exposure condition of the input image 331 different from the exposure condition of the input image 332. Specifically, for example, the exposure time of the input image 331 is set shorter than the exposure time of the input image 332. Here, for the sake of concrete description, it is assumed that the exposure time of the input image 332 that is a long exposure image is twice the exposure time of the input image 331 that is a short exposure image, and the exposure conditions other than the exposure time are input images. Assume that 331 and 332 are the same. The pixel signal at the pixel position (x, y) of the input image 331, the pixel signal at the pixel position (x, y) of the input image 332, and the pixel signal at the pixel position (x, y) of the HDR image 333 are respectively S S. (X, y), S L (x, y) and S H (x, y). The composition processing unit 53 can generate the input image 331 ′ of FIG. 5B by multiplying the pixel signal at each pixel position of the input image 331 by 2. The pixel signal at the pixel position (x, y) of the input image 331 ′ is represented by S S ′ (x, y). S S ′ (x, y) = 2 × S S (x, y). A pixel signal at a certain pixel or pixel position indicates a video signal at the pixel or the pixel position, and the video signal is expressed in a RAW data format, or the video signal includes a luminance signal and a color difference signal.

図6において、実線341は、入力画像331における入射光量と信号レベルとの関係を表し、実線342は、入力画像332における入射光量と信号レベルとの関係を表している。破線341’は、入力画像331’における入射光量と信号レベルとの関係を表している。ここにおける入射光量とは、単位時間当たりにおける撮像素子33への入射光量を指し、信号レベルとは、入力画像における画素信号の大きさを指す。各画素位置において、理想的には入力画像332の信号レベルは入力画像331の信号レベルの2倍になり、結果、理想的には実線342と破線341’は完全に一致する。しかしながら、撮像素子33はアナログデバイスであるため、入射光量と撮像素子33の各受光画素の蓄積電荷量との間には、非線形性が存在する。この他、蓄積電荷の信号を増幅する増幅器にも非線形性が存在する。このため、正確には、入力画像332の信号レベルが入力画像331の信号レベルの2倍にならず、結果、実線342と破線341’も完全には重なり合わない。   In FIG. 6, the solid line 341 represents the relationship between the incident light amount and the signal level in the input image 331, and the solid line 342 represents the relationship between the incident light amount and the signal level in the input image 332. A broken line 341 'represents the relationship between the incident light amount and the signal level in the input image 331'. The incident light amount here refers to the incident light amount to the image sensor 33 per unit time, and the signal level refers to the magnitude of the pixel signal in the input image. At each pixel position, the signal level of the input image 332 is ideally twice the signal level of the input image 331. As a result, the solid line 342 and the broken line 341 'ideally coincide completely. However, since the image sensor 33 is an analog device, there is a non-linearity between the amount of incident light and the accumulated charge amount of each light receiving pixel of the image sensor 33. In addition, non-linearity exists in the amplifier that amplifies the signal of the accumulated charge. For this reason, precisely, the signal level of the input image 332 does not double the signal level of the input image 331, and as a result, the solid line 342 and the broken line 341 'do not completely overlap.

図7を参照する。合成処理部53は、入射光量が光量IL以下の画素位置に対しては、入力画像332の画素信号がHDR画像333の画素信号として用いられるように、且つ、入射光量が光量IL以上の画素位置に対しては、入力画像331’の画素信号がHDR画像333の画素信号として用いられるように、且つ、入射光量が光量ILよりも大きいが光量IL未満の画素位置に対しては、入力画像332の画素信号と入力画像331’の画素信号との混合信号がHDR画像333の画素信号として用いられるように、HDR画像333の画素信号を生成する。ここで、0<IL<ILである。 Please refer to FIG. Combining processor 53, for the amount of incident light is light intensity IL 1 following pixel position, the pixel signal of the input image 332 to be used as a pixel signal of the HDR image 333, and, the amount of incident light is light intensity IL 2 or more For the pixel position, the pixel signal of the input image 331 ′ is used as the pixel signal of the HDR image 333, and for the pixel position where the incident light amount is greater than the light amount IL 1 but less than the light amount IL 2. The pixel signal of the HDR image 333 is generated so that the mixed signal of the pixel signal of the input image 332 and the pixel signal of the input image 331 ′ is used as the pixel signal of the HDR image 333. Here, 0 <IL 1 <IL 2 .

より具体的には例えば、
(x,y)≦STH1の成立時には、S(x,y)=S(x,y)となるように、
’(x,y)≧STH2の成立時には、S(x,y)=S’(x,y)となるように、S(x,y)を生成する。S(x,y)≦STH1及びS’(x,y)≧STH2の双方が成立しないときには、S(x,y)及びS’(x,y)を混合することによって、即ち、
(x,y)=k・S(x,y)+k・S’(x,y)
に従ってS(x,y)を生成する。STH1及びSTH2は、光量IL及びILに対応する信号閾値であり、0<STH1<STH2を満たす。
More specifically, for example,
When S L (x, y) ≦ S TH1 is satisfied, S H (x, y) = S L (x, y)
When S S ′ (x, y) ≧ S TH2 is satisfied, S H (x, y) is generated so that S H (x, y) = S S ′ (x, y). When both S L (x, y) ≦ S TH1 and S S ′ (x, y) ≧ S TH2 are not satisfied, by mixing S L (x, y) and S S ′ (x, y) That is,
S H (x, y) = k L · S L (x, y) + k S · S S ′ (x, y)
To generate S H (x, y). S TH1 and S TH2 are signal threshold values corresponding to the light amounts IL 1 and IL 2 , and satisfy 0 <S TH1 <S TH2 .

係数k及びkは、
=(S(x,y)−STH1)/(STH2−STH1)、及び、
=1−k
を満たすように設定される。但し、k>0且つk>0且つk+k=1を満たす範囲内で、k及びkの値を任意に決定することもできる(例えば、k=k=0.5、とすることも可能である)。
The coefficients k S and k L are
k S = (S L (x, y) −S TH1 ) / (S TH2 −S TH1 ), and
k L = 1−k S
It is set to satisfy. However, the values of k S and k L can be arbitrarily determined within a range satisfying k S > 0 and k L > 0 and k S + k L = 1 (for example, k S = k L = 0. 5 is also possible).

合成処理部53は、HDR画像333の画素信号S(x,y)を得るための、上述のような処理を画素位置ごとに行う。これにより、HDR画像333の全画素位置の画素信号が得られる(即ち、HDR画像333が完成する)。入力画像331’は入力画像331の各画素信号を2倍にすることで得られた画像であるため、入力画像331’の内、比較的輝度の大きい部分の信号レベルは、撮像素子33の信号飽和レベルSSATを超える(図7参照)。従って、HDR画像333のダイナミックレンジ352は、撮像素子33のダイナミックレンジ351よりも広くなる。 The composition processing unit 53 performs the above-described processing for obtaining the pixel signal S H (x, y) of the HDR image 333 for each pixel position. Thereby, pixel signals at all pixel positions of the HDR image 333 are obtained (that is, the HDR image 333 is completed). Since the input image 331 ′ is an image obtained by doubling each pixel signal of the input image 331, the signal level of the relatively high luminance portion of the input image 331 ′ is the signal of the image sensor 33. The saturation level S SAT is exceeded (see FIG. 7). Accordingly, the dynamic range 352 of the HDR image 333 is wider than the dynamic range 351 of the image sensor 33.

[階調変換処理]
次に、階調変換部54による階調変換処理について説明する。例として、上述のHDR画像333(図5(a)参照)に対し、階調変換処理を成す方法を説明する。図8の画像360は、HDR画像333に階調変換処理を施して得られる画像であり、上述の合成結果画像(図4参照)に相当する。合成結果画像360の画素位置(x,y)における画素信号をS’(x,y)にて表す。
[Tone conversion processing]
Next, the gradation conversion process by the gradation conversion unit 54 will be described. As an example, a method of performing gradation conversion processing on the above-described HDR image 333 (see FIG. 5A) will be described. An image 360 in FIG. 8 is an image obtained by performing gradation conversion processing on the HDR image 333, and corresponds to the above-described synthesis result image (see FIG. 4). Pixel position of the synthesized result image 360 (x, y) of the pixel signal in representing at S H '(x, y) .

上述したように、階調変換部54は、互いに異なる複数の階調変換条件を個別に用いてHDR画像333に階調変換処理を成すことができる。以下に説明する階調変換処理は、トーンマッピングとも呼ばれ、トーンマッピングによってHDR画像333の各画素信号のビット長BLHDRが、所望のビット長BLOUTに変換される。0<BLOUT<BLHDRである。ビット長BLOUTは、例えば、表示部27にて表示可能な画像のビット長と同じに設定される、或いは、所定の画像記録フォーマットに従った画像のビット長と同じに設定される。ビット長BLOUTは、入力画像の各画素信号のビット長と同じであっても良い。上記複数の階調変換条件には、互いに異なる第1及び第2の階調変換条件が含まれる。 As described above, the gradation conversion unit 54 can perform gradation conversion processing on the HDR image 333 using a plurality of mutually different gradation conversion conditions. The tone conversion process described below is also called tone mapping, and the bit length BL HDR of each pixel signal of the HDR image 333 is converted to a desired bit length BL OUT by tone mapping. 0 <BL OUT <BL HDR . For example, the bit length BL OUT is set to be the same as the bit length of an image that can be displayed on the display unit 27, or is set to be the same as the bit length of an image according to a predetermined image recording format. The bit length BL OUT may be the same as the bit length of each pixel signal of the input image. The plurality of gradation conversion conditions include different first and second gradation conversion conditions.

第1の階調変換条件を用いた階調変換処理(以下、第1の階調変換処理とも呼ぶ)を説明する。第1の階調変換処理では、HDR画像333の全体に対して共通の階調変換関数(gray-level transformation function)を設定し、該共通の階調変換関数を用いてHDR画像333の各画素信号を合成結果画像360の各画素信号に変換する。階調変換関数をグラフで表したものは、一般にトーンカーブ(tone curve)と呼ばれる。図9に、第1の階調変換条件の採用時に用いられるトーンカーブ380を示す。トーンカーブ380によって表される階調変換関数は、HDR画像333の画素信号S(x,y)と合成結果画像360の画素信号S’(x,y)との関係を規定する関数である。トーンカーブ380による階調変換処理は、最も一般的な階調変換処理であるが、自然な階調圧縮を実現することができる。 A gradation conversion process using the first gradation conversion condition (hereinafter also referred to as a first gradation conversion process) will be described. In the first gradation conversion process, a common gray-level transformation function is set for the entire HDR image 333, and each pixel of the HDR image 333 is set using the common gradation transformation function. The signal is converted into each pixel signal of the synthesis result image 360. A graph representing the tone conversion function is generally called a tone curve. FIG. 9 shows a tone curve 380 used when the first gradation conversion condition is adopted. Gradation conversion function represented by the tone curve 380, the pixel signals of the HDR image 333 S H (x, y) pixel signal with synthesized result image 360 S H '(x, y ) a function which defines the relationship between is there. The tone conversion process using the tone curve 380 is the most common tone conversion process, but natural tone compression can be realized.

第2の階調変換条件を用いた階調変換処理(以下、第2の階調変換処理とも呼ぶ)を説明する。第2の階調変換処理では、階調圧縮の自由度が高い、絵画調のトーンマッピングが可能である。以下、一方法例を説明する。第2の階調変換処理では、まず、図10に示す如く、HDR画像333に対して単純ビット長圧縮を施すことでHDR画像334を生成する。即ち例えば、図11に示す如く、HDR画像333の各画素信号を表すデジタル信号の内、下位側の(BLHDR−BLOUT)ビットを切り捨てることによって、HDR画像334を生成する。そうすると、HDR画像334の画素位置(x,y)における画素信号SHA(x,y)のデジタル値は、画素信号S(x,y)のデジタル値の1/(BLHDR−BLOUT)になる。一方で、HDR画像334の各画素信号のビット長はBLOUTになる。 A gradation conversion process using the second gradation conversion condition (hereinafter also referred to as a second gradation conversion process) will be described. In the second tone conversion processing, painting-like tone mapping with a high degree of freedom in tone compression is possible. Hereinafter, an example of a method will be described. In the second gradation conversion processing, first, as shown in FIG. 10, the HDR image 334 is generated by performing simple bit length compression on the HDR image 333. That is, for example, as shown in FIG. 11, the HDR image 334 is generated by truncating the lower (BL HDR -BL OUT ) bits of the digital signal representing each pixel signal of the HDR image 333. Then, the pixel position of the HDR image 334 (x, y) pixel signal S HA in (x, y) digital values of a pixel signal S H (x, y) 1 / digital values (BL HDR -BL OUT) become. On the other hand, the bit length of each pixel signal of the HDR image 334 is BL OUT .

図12(a)に、HDR画像334の輝度ヒストグラムHST334を示す。第2の階調変換処理では、基準輝度LREFを設定し、基準輝度LREF付近に輝度レベルが集中するようにHDR画像334の輝度ヒストグラムHST334を変化させる。この変化後の輝度ヒストグラムが、図12(b)に示す合成結果画像360の輝度ヒストグラムHST360である。具体的には以下のようにすれば良い。 FIG. 12A shows a luminance histogram HST 334 of the HDR image 334. In the second gradation conversion process, the reference luminance L REF is set, and the luminance histogram HST 334 of the HDR image 334 is changed so that the luminance level is concentrated near the reference luminance L REF . The luminance histogram after this change is the luminance histogram HST 360 of the synthesis result image 360 shown in FIG. Specifically, the following may be performed.

HDR画像334の全画素を、基準輝度LREFよりも低い輝度を有する画素である暗画素、又は、基準輝度LREF以上の輝度を有する明画素に分類する。そして、各暗画素の画素信号に対しては1以上のゲインGUPを乗じる一方で、各明画素の画素信号に対しては1以下のゲインGDOWNを乗じることにより、合成結果画像360の各画素信号を生成する。即ち、合成結果画像360の画素位置(x,y)における画素信号S’(x,y)は、HDR画像334の画素位置(x,y)における画素が暗画素である場合には、
’(x,y)=GUP×SHA(x,y)、に従って求められ、
HDR画像334の画素位置(x,y)における画素が明画素である場合には、
’(x,y)=GDOWM×SHA(x,y)、に従って求められる。
All the pixels of the HDR image 334, the dark pixel is a pixel having a lower luminance than the reference brightness L REF, or, classifying the bright pixel with the reference luminance L REF more brightness. Each pixel signal of each dark pixel is multiplied by a gain G UP of 1 or more, while each pixel signal of each bright pixel is multiplied by a gain G DOWN of 1 or less. A pixel signal is generated. That is, the pixel signal S H ′ (x, y) at the pixel position (x, y) of the synthesis result image 360 is obtained when the pixel at the pixel position (x, y) of the HDR image 334 is a dark pixel.
S H ′ (x, y) = G UP × S HA (x, y)
When the pixel at the pixel position (x, y) of the HDR image 334 is a bright pixel,
S H ′ (x, y) = G DOM × S HA (x, y)

ゲインGUPを1よりも大きな値に設定すると良い。また、暗画素の輝度と基準輝度LREFとの差が大きくなるに従って(GUP−1)が大きくなるように、暗画素ごとに暗画素の輝度に応じてゲインGUPの値を設定すると良い。但し、ゲインGUPの値を、1よりも大きな一定値に固定することも可能である。
ゲインGDOWNを1よりも小さな値に設定すると良い(但し、GDOWN>0)。また、明画素の輝度と基準輝度LREFとの差が大きくなるに従って(1−GDOWN)が大きくなるように、明画素ごとに明画素の輝度に応じてゲインGDOWNの値を設定すると良い。但し、GDOWNの値を、1よりも小さな一定値に固定することも可能である。
The gain G UP may be set to a value larger than 1. Further, it is preferable to set the gain G UP value for each dark pixel according to the brightness of the dark pixel so that (G UP −1) increases as the difference between the brightness of the dark pixel and the reference brightness L REF increases. . However, it is also possible to fix the value of the gain G UP to a constant value larger than 1.
The gain G DOWN may be set to a value smaller than 1 (where G DOWN > 0). In addition, the value of the gain G DOWN may be set for each bright pixel according to the brightness of the bright pixel so that (1-G DOWN ) increases as the difference between the brightness of the bright pixel and the reference brightness L REF increases. . However, it is also possible to fix the value of G DOWN to a constant value smaller than 1.

如何なる輝度を基準輝度LREFに設定するのかは任意である。通常は、合成結果画像360の中間階調付近に基準輝度LREFが設定される。輝度ヒストグラムHST334において最大頻度を有する輝度を基準にして、基準輝度LREFを設定することもできる。 It is arbitrary what luminance is set as the reference luminance LREF . Usually, the reference luminance L REF is set near the intermediate gradation of the synthesis result image 360. The reference luminance L REF can be set based on the luminance having the maximum frequency in the luminance histogram HST 334 .

ゲインGUPを各暗画素の画素信号に乗じると共にゲインGDOWNを各明画素の画素信号に乗じることにより、輝度の頻度が基準輝度LREF付近に集中化する。図12(b)の輝度ヒストグラムHST360から、その集中化の様子が見てとれる。輝度ヒストグラムHST360に対応する合成結果画像360は、絵画調のHDR画像であると言える。絵画調の画像とは、絵の具などの画材を用いて紙面に描いた絵の雰囲気を有する画像である。絵の具などの画材を用いて紙面に描いた絵は、一般に彩度が高い一方で濃淡変化が少ない。第2の階調変換処理では、彩度を維持しつつ濃淡変化が減少せしめられるため、時として幻想的な雰囲気を持つ絵画調の合成結果画像360が得られる。 By multiplying the pixel signal of each dark pixel by the gain G UP and multiplying the pixel signal of each bright pixel by the gain G DOWN , the luminance frequency is concentrated in the vicinity of the reference luminance L REF . The state of concentration can be seen from the luminance histogram HST 360 in FIG. It can be said that the synthesis result image 360 corresponding to the luminance histogram HST 360 is a pictorial HDR image. A picture-like image is an image having an atmosphere of a picture drawn on paper using an art material such as paint. A picture drawn on paper using an art material such as a paint generally has high saturation but little change in shading. In the second gradation conversion process, since the change in shading is reduced while maintaining the saturation, a painting-like composite result image 360 sometimes having a fantastic atmosphere is obtained.

絵画調の合成結果画像360を得るための第2の階調変換処理の方法として、公知の方法を用いることができ、例えば、非特許文献「Raanan Fattal、外2名、“Gradient Domain High Dynamic Range Compression”、[online]、[平成22年10月31日検索]、インターネット<URL:http://www.cs.huji.ac.il/~danix/hdr/>」に記載の方法、又は、非特許文献「Erik Reinhard、外3名、“Photographic Tone Reproduction for Digital Images”、[online]、[平成22年10月31日検索]、インターネット<URL:http://www.cs.utah.edu/~reinhard/cdrom/>」に記載の階調変換方法を用いることもできる。   A known method can be used as the second gradation conversion processing method for obtaining the painting-like composite result image 360. For example, the non-patent document “Raanan Fattal, the other two,“ Gradient Domain High Dynamic Range Compression ", [online], [October 31, 2010 search], Internet <URL: http://www.cs.huji.ac.il/~danix/hdr/>", or Non-patent literature “Erik Reinhard, three others,“ Photographic Tone Reproduction for Digital Images ”, [online], [October 31, 2010 search], Internet <URL: http://www.cs.utah.edu The gradation conversion method described in “/ ~ reinhard / cdrom />” can also be used.

[階調補正処理]
次に、階調補正部55による階調補正処理について説明する。例として、短露光画像としての入力画像331(図5(a)参照)に対して階調補正処理を成す方法を説明する。図13における画像390は、入力画像331に階調補正処理を施して得られる画像であり、上述の階調補正画像(図4参照)に相当する。階調補正画像390の画素位置(x,y)における画素信号をSCS(x,y)にて表す。
[Tone correction processing]
Next, the gradation correction process by the gradation correction unit 55 will be described. As an example, a method of performing gradation correction processing on an input image 331 (see FIG. 5A) as a short exposure image will be described. An image 390 in FIG. 13 is an image obtained by performing gradation correction processing on the input image 331, and corresponds to the above-described gradation correction image (see FIG. 4). A pixel signal at the pixel position (x, y) of the gradation correction image 390 is represented by S CS (x, y).

図14(a)及び(b)に、夫々、入力画像331の輝度ヒストグラムHST331及び階調補正画像390の輝度ヒストグラムHST390を示す。図14(c)の実線395は、入力画像331から階調補正画像390を得る際に用いるゲイン関数を表している。階調補正画像390の各画素信号は、ゲイン関数395に従うゲインGを入力画像331の各画素信号に乗じることで得られる。即ち、
CS(x,y)=G×S(x,y)、である。
In FIGS. 14 (a) and (b), respectively show, the luminance histogram HST 390 of the luminance histogram HST 331 and tone correction image 390 of the input image 331. A solid line 395 in FIG. 14C represents a gain function used when obtaining the gradation corrected image 390 from the input image 331. Each pixel signal of the gradation-corrected image 390 is obtained by multiplying a gain G C according to the gain function 395 in each pixel signal of the input image 331. That is,
S CS (x, y) = G C × S S (x, y).

ゲインGの値は、入力画像331の各画素位置の輝度に応じて画素位置ごとに設定される。GCH及びGCLは、夫々、ゲインGがとり得る数値範囲の上限値及び下限値である。画素信号S(x,y)に乗じられるゲインGは、入力画像331の画素位置(x,y)における輝度がゼロ又はゼロ近傍であるとき上限値GCHに設定され、入力画像331の画素位置(x,y)における輝度がゼロから増大するにつれて、上限値GCHから下限値GCLに向けて減少せしめられる。この減少は線形的な減少であってもよいし、非線形的な減少であっても良い。0<GCL<GCHであり、例えば、GCL=1且つGCH=2である。 The value of the gain G C is set for each pixel position according to the respective pixel positions of the input image 331 brightness. G CH and G CL, respectively, an upper limit value and the lower limit of the numerical range gain G C can take. Gain G C to be multiplied to the pixel signal S S (x, y) is set pixel position of the input image 331 (x, y) to the upper limit value G CH when the brightness in is zero or near zero, the input image 331 as the brightness at the pixel position (x, y) is increased from zero, is caused to decrease toward the lower limit value G CL from the upper limit value G CH. This decrease may be a linear decrease or a non-linear decrease. 0 <G CL <G CH , for example, G CL = 1 and G CH = 2.

上述のようなゲインGを用いた階調補正により、短露光画像としての入力画像331各画素の階調は高輝度側にシフトされ、そのシフトの程度は、暗い画素に対してほど大きくなる。結果、高輝度側の画像情報を維持したまま低輝度側の画像情報が比較的大きなビット長を用いて表現されるようになり、見かけ上、ダイナミックレンジが拡大されたような階調補正画像390を生成することが可能となる。 By the gradation correction using the gain G C as described above, the gradation of the input image 331 each pixel of the short-exposure image is shifted to the high luminance side, the degree of shift is larger as against a dark pixels . As a result, the image information on the low luminance side is expressed by using a relatively large bit length while maintaining the image information on the high luminance side, and the gradation corrected image 390 whose apparent dynamic range is expanded. Can be generated.

尚、上述の方法例では、短露光画像としての入力画像331から階調補正画像を生成しているが、長露光画像としての入力画像332から階調補正画像を生成することも可能である。   In the above-described method example, the gradation correction image is generated from the input image 331 as the short exposure image, but the gradation correction image can also be generated from the input image 332 as the long exposure image.

[HDR撮影の要否判定]
次に、図4の要否判定部56による、HDR撮影の要否判定方法を説明する。図15(a)及び(b)を参照する。要否判定部56は、HDR撮影要否判定用期間(以下、判定用期間と略記することがある)内に撮影された入力画像の画像データに基づき、HDR撮影の要否を判定することができる。時間が進行するにつれ、時刻t、t及びtが、この順番で訪れるものとする。判定用期間は、時刻tから時刻tまでの期間である。また、時刻tから時刻tまでの期間を本撮影期間と呼ぶ。本撮影期間は、合成結果画像及び階調補正画像の元となる複数の入力画像が撮影される期間であり、以下では、本撮影期間中に撮影される入力画像を特に対象入力画像とも呼ぶ(図15(b)参照)。図5(a)の入力画像331及び332の夫々は対象入力画像である。
[Necessity determination of HDR shooting]
Next, a method for determining necessity of HDR shooting by the necessity determination unit 56 of FIG. 4 will be described. Reference is made to FIGS. 15 (a) and 15 (b). The necessity determination unit 56 determines whether or not HDR shooting is necessary based on the image data of the input image shot during the HDR shooting necessity determination period (hereinafter sometimes referred to as a determination period). it can. As time progresses, time t A , t B and t C shall be visited in this order. The determination period is a period from time t A to time t B. A period from time t B to time t C is referred to as a main imaging period. The main shooting period is a period during which a plurality of input images that are the basis of the synthesis result image and the gradation correction image are shot. In the following, an input image shot during the main shooting period is also referred to as a target input image. (Refer FIG.15 (b)). Each of the input images 331 and 332 in FIG. 5A is a target input image.

また、時刻tより前に撮影される各入力画像をプレビュー画像とも呼び、更に、判定用期間内に撮影される各入力画像を判定用画像とも呼ぶ(図15(b)参照)。判定用画像はプレビュー画像の一種である。プレビュー画像は所定のフレーム周期で順次撮影され、得られたプレビュー画像列は動画像として表示部27に表示されてユーザによる構図確認に利用される。 Further, referred to the input images taken before time t B with the preview image, further, also called determination image each input image to be photographed in the determination period (see FIG. 15 (b)). The determination image is a kind of preview image. The preview images are sequentially taken at a predetermined frame period, and the obtained preview image sequence is displayed as a moving image on the display unit 27 and used for composition confirmation by the user.

本撮影期間の開始時刻である時刻tを、ユーザの指示によって決定することができる。判定用期間の開示時刻である時刻tは、ユーザの指示によって決定されても良いし、時刻tを基準にして定められても良い(例えば、時刻tから所定時間前が時刻tであると定めても良い)。ここでは、時刻tと同様、時刻tもユーザの指示によって決定されることを想定し、シャッタボタン26bに対して半押し操作、全押し操作が成された時点が、夫々、時刻t、tに相当すると考える。シャッタボタン26bは2段階の押下操作が可能なボタンであり、シャッタボタン26bに圧力が付与されていない開放状態からユーザがシャッタボタン26bを軽く押しこむとシャッタボタン26bの状態は半押し状態となり、その状態から更にユーザがシャッタボタン26bを押しこむとシャッタボタン26bの状態は全押し状態となる。シャッタボタン26bの状態を開放状態から半押し状態へと変化させる操作が半押し操作であり、シャッタボタン26bの状態を半押し状態から全押し状態へと変化させる操作が全押し操作である。 The time t B that is the start time of the main photographing period can be determined by a user instruction. Time t A is the start time of the judgment period may be determined by a user's instruction, the time t may be determined on the basis of the B (e.g., time t B before a predetermined time from the time t A May be determined). Here, similarly to the time t B, assume that also the time t A is determined by the instruction of the user, half-pressed the shutter button 26b, point to full-press operation is performed, respectively, the time t A , T B. The shutter button 26b is a button that can be pressed in two steps. When the user lightly presses the shutter button 26b from an open state where no pressure is applied to the shutter button 26b, the shutter button 26b is in a half-pressed state. If the user further presses the shutter button 26b from that state, the shutter button 26b is fully pressed. An operation for changing the state of the shutter button 26b from the open state to the half-pressed state is a half-press operation, and an operation for changing the state of the shutter button 26b from the half-pressed state to the fully-pressed state is a full-press operation.

判定用期間において、露出制御部52(図4参照)は、露光時間ETと露光時間ETよりも長い露光時間ETを設定し、図16に示す如く、露光時間ETによる入力画像の撮影と露光時間ETによる入力画像の撮影とが交互に行われるように露出制御を行う。判定用期間において、露光時間ETが特定の露光時間ETSOに収束するように且つ露光時間ETが特定の露光時間ETLOに収束するように、露光時間ET及びETは逐次変更される。露光時間ETLOは、露光時間ETSOよりも長い。 In determination period, the exposure control unit 52 (see FIG. 4) sets the long exposure time ET L than the exposure time ET S and exposure time ET S, as shown in FIG. 16, the input image by the exposure time ET S It performs exposure control such photographing and the photographing of the input image by the exposure time ET L are alternately performed. In determination period, as and exposure time ET L so that the exposure time ET S is converged to a certain exposure time ET SO converges to a specific exposure time ET LO, exposure time ET S and ET L are sequentially changed The The exposure time ET LO is longer than the exposure time ET SO .

図16において、画像411〜416は、夫々、判定用期間において連続的に撮影された判定用画像である。判定用画像の内、露光時間ETにて撮影された判定用画像を短露光判定用画像とも呼び、露光時間ETにて撮影された判定用画像を長露光判定用画像とも呼ぶ。画像411、413及び415は、夫々、第1、第2及び第3枚目の短露光判定用画像であり、画像412、414及び416は、夫々、第1、第2及び第3枚目の長露光判定用画像である。 In FIG. 16, images 411 to 416 are determination images that are continuously captured in the determination period. Of determination image, the determination image that has been captured by the exposure time ET S is also called short-exposure determination image, the determination image that has been captured by the exposure time ET L referred to as the long-exposure determination image. Images 411, 413, and 415 are the first, second, and third short exposure determination images, respectively, and images 412, 414, and 416 are the first, second, and third images, respectively. It is an image for long exposure determination.

図17(a)及び(b)は、夫々、任意の短露光判定用画像の輝度ヒストグラムHST及び任意の長露光判定用画像の輝度ヒストグラムHSTを表している。要否判定部56は、短露光判定用画像及び長露光判定用画像の画像データに基づき、短露光判定用画像において所定の基準輝度LTH1以上の輝度を有する画素の総数PNUMS及び長露光判定用画像において所定の基準輝度LTH2以下の輝度を有する画素の総数PNUMLを求める。総数PNUMSは図17(a)の斜線領域の面積に相当し、総数PNUMLは図17(b)の斜線領域の面積に相当する。総数PNUMSの導出は短露光判定用画像ごとに行われ、総数PNUMLの導出は長露光判定用画像ごとに行われる。 Figure 17 (a) and (b), respectively, represent the luminance histogram HST L of the luminance histogram HST S and any length exposure determination image of any short-exposure determination image. The necessity determination unit 56 is based on the image data of the short exposure determination image and the long exposure determination image, and the total number P NUMS and long exposure determination of the pixels having a luminance equal to or higher than a predetermined reference luminance L TH1 in the short exposure determination image. The total number P NUML of pixels having a luminance equal to or lower than a predetermined reference luminance L TH2 in the image for use is obtained. The total number P NUMS corresponds to the area of the hatched area in FIG. 17A, and the total number P NUML corresponds to the area of the hatched area in FIG. The total number P NUMS is derived for each short exposure determination image, and the total number P NUML is derived for each long exposure determination image.

露出制御部52は、導出されたPNUMSの値を参照して、PNUMSを基準値REF以下にするための露光時間ETを探索すると共に、導出されたPNUMLの値を参照して、PNUMLを基準値REF以下にするための露光時間ETを探索する。より具体的には、短露光判定用画像411について導出されたPNUMSに基づき、短露光判定用画像413又は415について導出されることになるPNUMSが“REF−ΔREF≦PNUMS≦REF”を満たすように、露出制御部52は、短露光判定用画像413又は415に対する露光時間ETを調整する。同様に、長露光判定用画像412について導出されたPNUMLに基づき、長露光判定用画像414又は416について導出されることになるPNUMLが“REF−ΔREF≦PNUML≦REF”を満たすように、露出制御部52は、長露光判定用画像414又は416に対する露光時間ETを調整する。REF、REF、ΔREF及びΔREFの各値を予め設定しておくことができる。REF、REF、ΔREF及びΔREFは全て正の整数値を有し、REF>ΔREF、且つ、REF−ΔREF、である。 Exposure control unit 52, referring to the value of the derived P nums, with searching for the exposure time ET S to the P nums below the reference value REF S, with reference to the derived value of P NUML searches the exposure time ET L to the P NUML below the reference value REF L. More specifically, based on the P nums derived for the short-exposure determination image 411, P nums will be derived for the short-exposure determination image 413 or 415 is "REF S -ΔREF S ≦ P NUMS ≦ REF so as to satisfy S ", the exposure control unit 52 adjusts the exposure time ET S for short-exposure determination image 413 or 415. Similarly, based on the P NUML derived for the long exposure determination image 412, the P NUML to be derived for the long exposure determination image 414 or 416 satisfies “REF L −ΔREF L ≦ P NUML ≦ REF L ”. as satisfied, the exposure control unit 52 adjusts the exposure time ET S for long exposure determination image 414 or 416. Each value of REF S , REF L , ΔREF S and ΔREF L can be set in advance. REF S , REF L , ΔREF S and ΔREF L all have positive integer values, REF S > ΔREF S , and REF L −ΔREF L.

露光時間ET及びETの調整により、判定用期間において、露光時間ETは特定の露光時間ETSOに収束し且つ露光時間ETは特定の露光時間ETLOに収束する。例えば、これらの調整の結果、短露光判定用画像415について導出されたPNUMSが“REF−ΔREF≦PNUMS≦REF”を満たすように、且つ、長露光判定用画像416について導出されたPNUMLが“REF−ΔREF≦PNUML≦REF”を満たすように、判定用画像415及び416の露光時間が設定される。そうすると、短露光判定用画像415の露光時間ETを露光時間ETSOに代入すると共に、長露光判定用画像416の露光時間ETを露光時間ETLOに代入することができる。 By adjusting the exposure time ET S and ET L, the determination period, the exposure time ET S converge to a specific exposure time ET SO and the exposure time ET L is converged to a certain exposure time ET LO. For example, as a result of these adjustments, P NUMS derived for the short exposure determination image 415 is derived so as to satisfy “REF S −ΔREF S ≦ P NUMS ≦ REF S ” and for the long exposure determination image 416. and P NUML is to meet the "REF L -ΔREF L ≦ P NUML ≦ REF L", the exposure time of the determination image 415 and 416 are set. Then, the substitutes exposure time ET S short-exposure determination image 415 to the exposure time ET SO, can be substituted for the exposure time ET L long exposure determination image 416 to the exposure time ET LO.

要否判定部56は、上記調整を経て得られる短露光判定用画像及び長露光判定用画像の露出条件に基づき、HDR撮影の要否を判定する。具体的には、
要否判定不等式“ETLO/ETSO≧J”
が満たされる場合、HDR撮影が必要であると判断する一方、その要否判定不等式が満たされない場合、HDR撮影が不要であると判断する。Jは、1よりも大きな所定値であり、例えばJ=2である。後に述べるように、本撮影期間に撮影される入力画像331及び332(図5参照)の露光時間は露光時間ETSO及びETLOを基準に設定される。これを考慮すれば、“ETLO/ETSO<J”であるとき(即ち、ETSOとETLOとの間に、あまり差がないとき)、ダイナミックレンジ拡大用の処理を行っても、その処理の効果は小さい或いは殆ど無い。このことから、上記要否判定不等式の意義が理解される。
The necessity determination unit 56 determines whether HDR shooting is necessary based on the exposure conditions of the short exposure determination image and the long exposure determination image obtained through the above adjustment. In particular,
Necessity determination inequality “ET LO / ET SO ≧ J”
Is satisfied, it is determined that HDR imaging is necessary. On the other hand, if the necessity determination inequality is not satisfied, it is determined that HDR imaging is unnecessary. J is a predetermined value larger than 1, for example, J = 2. As will be described later, the exposure times of the input images 331 and 332 (see FIG. 5) photographed during the main photographing period are set with reference to the exposure times ET SO and ET LO . Considering this, when “ET LO / ET SO <J” (that is, when there is not much difference between ET SO and ET LO ), even if processing for expanding the dynamic range is performed, The effect of the treatment is small or little. From this, the significance of the above necessity determination inequality is understood.

[対象入力画像について]
HDR撮影が必要と判断されたときに、本撮影期間において撮影される対象入力画像の枚数は2であっても良い(図15(a)及び(b)参照)。この場合、本撮影期間において、図18に示す2枚の対象入力画像501及び502が連続的に撮影される。対象入力画像501及び502は、夫々、図5(a)の入力画像331及び332と同じものである。露出制御部52は、対象入力画像501及び502の露光時間を、それぞれ露光時間ETSO及びETLOを基準にして設定する。単純には例えば、露光時間ETSOをそのまま対象入力画像501の露光時間に設定すると共に露光時間ETLOをそのまま対象入力画像502の露光時間に設定することができる。或いは例えば、所定の規則に従って露光時間ETSOを増加又は減少させて露光時間ETSO’を求め、露光時間ETSO’を対象入力画像501の露光時間に設定しても良い。同様に、所定の規則に従って露光時間ETLOを増加又は減少させて露光時間ETLO’を求め、露光時間ETLO’を対象入力画像502の露光時間に設定しても良い。但し、露光時間ETLO’は露光時間ETSO及びETSO’よりも長い。
[About the target input image]
When it is determined that HDR shooting is necessary, the number of target input images shot during the main shooting period may be two (see FIGS. 15A and 15B). In this case, in the main shooting period, the two target input images 501 and 502 shown in FIG. 18 are continuously shot. The target input images 501 and 502 are the same as the input images 331 and 332 in FIG. The exposure control unit 52 sets the exposure times of the target input images 501 and 502 based on the exposure times ET SO and ET LO , respectively. For example, the exposure time ET SO can be set as it is as the exposure time of the target input image 501 and the exposure time ET LO can be set as it is as the exposure time of the target input image 502. Alternatively, for example, the exposure time ET SO ′ may be obtained by increasing or decreasing the exposure time ET SO according to a predetermined rule, and the exposure time ET SO ′ may be set as the exposure time of the target input image 501. Similarly, the exposure time ET LO ′ may be obtained by increasing or decreasing the exposure time ET LO according to a predetermined rule, and the exposure time ET LO ′ may be set as the exposure time of the target input image 502. However, the exposure time ET LO ′ is longer than the exposure times ET SO and ET SO ′.

対象入力画像501及び502に対し、第1のHDR処理を施すことで合成結果画像511が得られ、第2のHDR処理を施すことで合成結果画像512が得られ、第3のHDR処理を施すことで階調補正画像513が得られる。第1及び第2のHDR処理は合成処理部53及び階調変換部54によって成され、第3のHDR処理は階調補正部55によって成される。
第1のHDR処理は画像合成処理と第1の階調変換処理から成る。即ち、対象入力画像501及び502を合成する画像合成処理によりHDR画像を生成した後、そのHDR画像に第1の階調変換処理を施すことで合成結果画像511が得られる。合成結果画像511は、第1の階調変換処理を用いた場合における、上述の合成結果画像360(図8参照)に相当する。
第2のHDR処理は画像合成処理と第2の階調変換処理から成る。即ち、対象入力画像501及び502を合成する画像合成処理によりHDR画像を生成した後、そのHDR画像に第2の階調変換処理を施すことで合成結果画像512が得られる。合成結果画像512は、第2の階調変換処理を用いた場合における、上述の合成結果画像360(図10参照)に相当する。
第3のHDR処理は階調補正処理から成る。即ち、対象入力画像501又は502に階調補正処理を施すことで階調補正画像513が得られる。階調補正画像513は、図13の階調補正画像390に相当する。
By applying the first HDR processing to the target input images 501 and 502, a synthesis result image 511 is obtained, and by applying the second HDR processing, a synthesis result image 512 is obtained and the third HDR processing is performed. As a result, a gradation corrected image 513 is obtained. The first and second HDR processes are performed by the synthesis processing unit 53 and the gradation conversion unit 54, and the third HDR process is performed by the gradation correction unit 55.
The first HDR process includes an image composition process and a first gradation conversion process. That is, after an HDR image is generated by an image combining process that combines the target input images 501 and 502, a first gradation conversion process is performed on the HDR image to obtain a combined result image 511. The synthesis result image 511 corresponds to the above-described synthesis result image 360 (see FIG. 8) when the first gradation conversion process is used.
The second HDR process includes an image composition process and a second gradation conversion process. That is, after an HDR image is generated by an image combining process that combines the target input images 501 and 502, a second gradation conversion process is performed on the HDR image to obtain a combined result image 512. The synthesis result image 512 corresponds to the above-described synthesis result image 360 (see FIG. 10) when the second gradation conversion process is used.
The third HDR process is a gradation correction process. That is, a gradation correction image 513 is obtained by performing gradation correction processing on the target input image 501 or 502. The tone correction image 513 corresponds to the tone correction image 390 of FIG.

HDR撮影が必要と判断されたときに、本撮影期間において撮影される対象入力画像の枚数は3枚以上であっても良い。例えば、本撮影期間において、図19に示す5枚の対象入力画像521〜525が連続的に撮影されても良い。対象入力画像521〜525は、共通の被写体を撮影することで得られる。露出制御部52は、対象入力画像521、523及び525の露光時間を、露光時間ETSOを基準にして設定する。例えば、露光時間ETSO又はETSO’を、対象入力画像521、523及び525の露光時間に設定することができる。対象入力画像521、523及び525の露出条件は互いに一致していても良いし、互いに異なっていても良い。露出制御部52は、対象入力画像522及び524の露光時間を、露光時間ETLOを基準にして設定する。例えば、露光時間ETLO又はETLO’を、対象入力画像522及び524の露光時間に設定することができる。対象入力画像522及び524の露出条件は互いに一致していても良いし、互いに異なっていても良い。尚、上述の説明とは異なるが、露光時間ETLO又はETLO’を対象入力画像525の露光時間に設定することも可能である。 When it is determined that HDR shooting is necessary, the number of target input images shot during the main shooting period may be three or more. For example, during the main shooting period, the five target input images 521 to 525 shown in FIG. 19 may be continuously shot. The target input images 521 to 525 are obtained by photographing a common subject. Exposure control unit 52, the exposure time of the target input image 521, 523 and 525, set on the basis of the exposure time ET SO. For example, the exposure time ET SO or ET SO ′ can be set to the exposure time of the target input images 521, 523, and 525. The exposure conditions of the target input images 521, 523, and 525 may be the same or different from each other. The exposure control unit 52 sets the exposure time of the target input images 522 and 524 with reference to the exposure time ET LO . For example, the exposure time ET LO or ET LO ′ can be set to the exposure time of the target input images 522 and 524. The exposure conditions of the target input images 522 and 524 may be the same or different from each other. Although different from the above description, the exposure time ET LO or ET LO ′ can be set as the exposure time of the target input image 525.

対象入力画像521及び522に対し、第1のHDR処理を施すことで合成結果画像531が得られる。即ち、対象入力画像521及び522を合成する画像合成処理によりHDR画像を生成した後、そのHDR画像に第1の階調変換処理を施すことで合成結果画像531が得られる。
対象入力画像523及び524に対し、第2のHDR処理を施すことで合成結果画像532が得られる。即ち、対象入力画像523及び524を合成する画像合成処理によりHDR画像を生成した後、そのHDR画像に第2の階調変換処理を施すことで合成結果画像532が得られる。
対象入力画像525に対し、第3のHDR処理を施すことで階調補正画像533が得られる。即ち、対象入力画像525に階調補正処理を施すことで階調補正画像533が得られる。
A composite result image 531 is obtained by subjecting the target input images 521 and 522 to the first HDR processing. That is, an HDR image is generated by an image combining process that combines the target input images 521 and 522, and then a first gradation conversion process is performed on the HDR image to obtain a combined result image 531.
By performing the second HDR processing on the target input images 523 and 524, a synthesis result image 532 is obtained. That is, an HDR image is generated by an image combining process that combines the target input images 523 and 524, and then a second gradation conversion process is performed on the HDR image to obtain a combined result image 532.
A gradation correction image 533 is obtained by performing a third HDR process on the target input image 525. That is, a gradation correction image 533 is obtained by performing gradation correction processing on the target input image 525.

以下では(図18及び図19参照)、第1のHDR処理にて得られた合成結果画像(511又は531)を第1の出力HDR画像とも呼び、第2のHDR処理にて得られた合成結果画像(512又は532)を第2の出力HDR画像とも呼び、第3のHDR処理にて得られた階調補正画像(513又は533)を第3の出力HDR画像とも呼ぶ。   In the following (see FIGS. 18 and 19), the synthesis result image (511 or 531) obtained by the first HDR processing is also referred to as a first output HDR image, and the synthesis obtained by the second HDR processing. The result image (512 or 532) is also referred to as a second output HDR image, and the tone correction image (513 or 533) obtained by the third HDR process is also referred to as a third output HDR image.

[動作フローチャート]
図4に示される優先順位設定部57の機能説明の前に、図20を参照して、撮像装置1の動作手順を説明する。図20は、HDR撮影に関与する動作の手順を表すフローチャートである。
[Operation flowchart]
Before describing the function of the priority setting unit 57 shown in FIG. 4, the operation procedure of the imaging apparatus 1 will be described with reference to FIG. FIG. 20 is a flowchart showing a procedure of operations involved in HDR imaging.

撮影モードにおける動作が開始されると、ステップS11においてプレビュー画像列の撮影が開始される。得られたプレビュー画像列は動画像として表示される。一方で、ステップS12において、CPU23は、シャッタボタン26bに対して半押し操作が成されたか否かを監視し、半押し操作が成されるとステップS12からステップS13への遷移が発生する。ステップS13において、要否判定部56は、プレビュー画像の一種である判定用画像の画像データに基づきHDR撮影の要否判定を行い、一方で、ステップS14では、シャッタボタン26bに対して全押し操作が成されたか否かがCPU23により監視される。ステップS14において、全押し操作が成されたことが確認されるとステップS15への遷移が発生し、以後、ステップS16〜S19の処理又はステップS20の処理が実行される。要否判定部56によりHDR撮影が必要と判断されている場合には、ステップS16〜S19の処理が順次実行され、HDR撮影が不要と判断されている場合にはステップS20の処理が実行される。   When the operation in the shooting mode is started, shooting of the preview image sequence is started in step S11. The obtained preview image sequence is displayed as a moving image. On the other hand, in step S12, the CPU 23 monitors whether or not a half-press operation has been performed on the shutter button 26b. When the half-press operation is performed, a transition from step S12 to step S13 occurs. In step S13, the necessity determination unit 56 determines whether HDR shooting is necessary based on the image data of the determination image that is a kind of preview image. On the other hand, in step S14, the shutter button 26b is fully pressed. The CPU 23 monitors whether or not the above has been performed. In step S14, when it is confirmed that the full-press operation has been performed, a transition to step S15 occurs, and thereafter, the processing in steps S16 to S19 or the processing in step S20 is executed. When the necessity determination unit 56 determines that HDR shooting is necessary, the processing of steps S16 to S19 is sequentially executed, and when it is determined that HDR shooting is unnecessary, the processing of step S20 is executed. .

ステップS20では、1枚の入力画像が撮影されて、得られた入力画像の表示及び外部メモリ18への記録が成される。これに対し、ステップS16では、複数の露出条件にて複数の対象入力画像(例えば、図18の対象入力画像501及び502、又は、図19の対象入力画像521〜525)が連続的に撮影される。ステップS17では、ステップS16で得られた複数の対象入力画像に対し、第1〜第3のHDR処理が実行され、これによって第1〜第3の出力HDR画像が生成される。   In step S <b> 20, one input image is photographed, and the obtained input image is displayed and recorded in the external memory 18. On the other hand, in step S16, a plurality of target input images (for example, target input images 501 and 502 in FIG. 18 or target input images 521 to 525 in FIG. 19) are continuously photographed under a plurality of exposure conditions. The In step S17, the first to third HDR processes are executed on the plurality of target input images obtained in step S16, thereby generating the first to third output HDR images.

続くステップS18において、図4の優先順位設定部57は、第1〜第3の出力HDR画像に対して優先順位を設定するための処理(以下、優先順位設定処理という)を実行する。優先順位設定処理によって、第1〜第3の出力HDR画像の夫々に、第1、第2又は第3の優先順位が1つずつ付与される。第1の優先順位は第2の優先順位よりも高い優先順位であり、第2の優先順位は第3の優先順位よりも高い優先順位である。その後のステップS19において、図4の画像出力制御部58は、優先順位に従って第1〜第3の出力HDR画像の表示及び外部メモリ18への記録を成す。ステップS19において、1又は2つの出力HDR画像しか表示されないこともあるし、1又は2つの出力HDR画像しか外部メモリ18に記録されないこともある。   In the subsequent step S18, the priority order setting unit 57 of FIG. 4 executes a process for setting the priority order for the first to third output HDR images (hereinafter referred to as a priority order setting process). Through the priority order setting process, the first, second, or third priority order is assigned to each of the first to third output HDR images. The first priority is a higher priority than the second priority, and the second priority is a higher priority than the third priority. In subsequent step S <b> 19, the image output control unit 58 of FIG. 4 displays the first to third output HDR images and records them in the external memory 18 according to the priority order. In step S19, only one or two output HDR images may be displayed, or only one or two output HDR images may be recorded in the external memory 18.

優先順位に従った第1〜第3の出力HDR画像の表示及び記録方法の例として、第1〜第3の表示/記録方法を説明する。   As examples of the display and recording methods of the first to third output HDR images according to the priority order, the first to third display / recording methods will be described.

第1の表示/記録方法を説明する。第1の表示/記録方法では、図21(a)に示す如く、表示画面の全表示領域内に互いに異なる表示領域551〜553を設け、ユーザからの特段の指示がない限り、図21(b)に示す如く、表示領域551〜553に、それぞれ第1〜第3の優先順位が与えられた出力HDR画像を表示する。ここで、表示領域551の大きさは、表示領域552及び553のそれらよりも大きい。表示領域552の大きさは、表示領域553のそれよりも大きくてもよいし、表示領域552及び553の大きさは互いに同じであっても良い。ユーザは、操作部26に対する所定操作又はタッチパネル操作により、表示領域551に表示される出力HDR画像を、第1〜第3の出力HDR画像の中で切り替えることができる。
第1の表示/記録方法において、ユーザの記録指示があったとき、表示領域551に表示されている出力HDR画像のみを外部メモリ18に記録すると良い。記録指示は、操作部26に対する所定操作又はタッチパネル操作によって実現される。
A first display / recording method will be described. In the first display / recording method, as shown in FIG. 21A, different display areas 551 to 553 are provided in the entire display area of the display screen, and unless otherwise specified by the user, FIG. ), The output HDR images to which the first to third priorities are given are displayed in the display areas 551 to 553, respectively. Here, the size of the display area 551 is larger than those of the display areas 552 and 553. The size of the display area 552 may be larger than that of the display area 553, and the sizes of the display areas 552 and 553 may be the same. The user can switch the output HDR image displayed in the display area 551 among the first to third output HDR images by a predetermined operation or a touch panel operation on the operation unit 26.
In the first display / recording method, it is preferable that only the output HDR image displayed in the display area 551 is recorded in the external memory 18 when the user instructs to record. The recording instruction is realized by a predetermined operation on the operation unit 26 or a touch panel operation.

第2の表示/記録方法を説明する。第2の表示/記録方法では、図21(c)に示す如く、表示画面の全表示領域内に互いに異なる表示領域561〜564を設け、図21(d)に示す如く、表示領域562〜564に、夫々、第1〜第3の優先順位が与えられた出力HDR画像を表示する。表示領域562〜564の大きさを互いに同じにしておくことができる。一方で、表示領域561の大きさは、表示領域562〜564のそれらよりも大きい。表示領域561には、第1〜第3の出力HDR画像の中から選択された出力HDR画像が拡大表示される。ユーザからの特段の指示がない限り、表示領域561には、第1優先順位が与えられた出力HDR画像が表示される(図21(d)参照)。ユーザは、操作部26に対する所定操作又はタッチパネル操作により、表示領域561に表示される出力HDR画像を、第1〜第3の出力HDR画像の中で切り替えることができる。
第2の表示/記録方法において、ユーザの記録指示があったとき、表示領域561に表示されている出力HDR画像のみを外部メモリ18に記録すると良い。
A second display / recording method will be described. In the second display / recording method, different display areas 561 to 564 are provided in the entire display area of the display screen as shown in FIG. 21C, and display areas 562 to 564 are provided as shown in FIG. In addition, the output HDR images to which the first to third priorities are given are displayed. The display areas 562 to 564 can have the same size. On the other hand, the size of the display area 561 is larger than those of the display areas 562 to 564. In the display area 561, an output HDR image selected from the first to third output HDR images is enlarged and displayed. Unless there is a special instruction from the user, the output HDR image to which the first priority is given is displayed in the display area 561 (see FIG. 21D). The user can switch the output HDR image displayed in the display area 561 among the first to third output HDR images by a predetermined operation or a touch panel operation on the operation unit 26.
In the second display / recording method, it is preferable to record only the output HDR image displayed in the display area 561 in the external memory 18 when the user instructs to record.

第3の表示/記録方法を説明する。第3の表示/記録方法では、図21(e)に示す如く、1つの時刻に1枚の出力HDR画像しか表示しない。ユーザからの特段の指示がない限り、第1の優先順位が与えられた出力HDR画像のみが表示される。ユーザは、スクロール指示を撮像装置1に与えることにより、表示画面に表示される出力HDR画像を、第1〜第3の出力HDR画像の中で切り替えることができる。スクロール指示は、操作部26に対する所定操作又はタッチパネル操作によって実現される。第1の優先順位の出力HDR画像が表示されている状態において1回分のスクロール指示が成されると、表示画像が第1の優先順位の出力HDR画像から第2の優先順位の出力HDR画像に切り替わり、第2の優先順位の出力HDR画像が表示されている状態において1回分のスクロール指示が成されると、表示画像が第2の優先順位の出力HDR画像から第1又は第3の優先順位の出力HDR画像に切り替わる。
第3の表示/記録方法において、ユーザの記録指示があったとき、表示されている出力HDR画像のみを外部メモリ18に記録すると良い。
A third display / recording method will be described. In the third display / recording method, only one output HDR image is displayed at one time as shown in FIG. Unless there is a special instruction from the user, only the output HDR image to which the first priority is given is displayed. The user can switch the output HDR image displayed on the display screen among the first to third output HDR images by giving a scroll instruction to the imaging apparatus 1. The scroll instruction is realized by a predetermined operation on the operation unit 26 or a touch panel operation. When a scroll instruction for one time is made in a state where the output HDR image having the first priority is displayed, the display image is changed from the output HDR image having the first priority to the output HDR image having the second priority. When the scroll instruction for one time is made while the output HDR image of the second priority is displayed, the display image is changed from the output HDR image of the second priority to the first or third priority. The output HDR image is switched to.
In the third display / recording method, it is preferable to record only the displayed output HDR image in the external memory 18 when the user instructs to record.

尚、第1〜第3の表示/記録方法において、第1の優先順位の出力HDR画像のみを常に外部メモリ18に記録するようにしても良いし、或いは、第1、第2及び第3の優先順位の出力HDR画像が夫々第1、第2及び第3番目に外部メモリ18に記録されるように第1〜第3の出力HDR画像の並べ替えを行った上で、第1〜第3の出力HDR画像を全て外部メモリ18に記録するようにしても良い。優先順位に応じた上述の表示/記録方法例は、あくまで例示であり、第1〜第3の出力HDR画像の表示又は記録に対して、優先順位に応じた何らかの序列を与える任意の方法を採用可能である。   In the first to third display / recording methods, only the output HDR image having the first priority may be always recorded in the external memory 18, or the first, second, and third methods may be used. The first to third output HDR images are rearranged so that the priority output HDR images are recorded in the external memory 18 first, second, and third, respectively. All the output HDR images may be recorded in the external memory 18. The above-described display / recording method examples according to the priorities are merely examples, and any method that gives some order according to the priorities is adopted for the display or recording of the first to third output HDR images. Is possible.

[優先順位設定処理]
優先順位設定部57は、プレビュー画像列の画像データから抽出された設定指標に基づき、第1〜第3の出力HDR画像に対して優先順位を設定することができる。設定指標の抽出方法の説明を交えながら、優先順位設定処理を詳説する。
[Priority setting processing]
The priority order setting unit 57 can set the priority order for the first to third output HDR images based on the setting index extracted from the image data of the preview image sequence. The priority setting process will be described in detail while explaining the setting index extraction method.

優先順位を設定するために、露出制御部52(図4参照)は、2つの露光時間ET及びETを設定し、露光時間ETによる入力画像の撮影と露光時間ETによる入力画像の撮影とが交互に行われるように露出制御を行う。このような露出制御が行われる期間は、図15(a)の本撮影期間前に設定され、上記の判定用期間と同じであっても良いし異なっていてもよい。ここでは、優先順位を設定するため行われる、露光時間ETによる入力画像と露光時間ETによる入力画像との交互撮影が、図15(b)の判定用期間中に成されると考える。そうすると、図16の判定用画像411〜416の画像データが、優先順位の設定に利用される。 To set the priority exposure control unit 52 (see FIG. 4) sets the two exposure times ET S and ET L, of the input image by the exposure time ET S shooting with the input image by the exposure time ET L Exposure control is performed so that shooting is performed alternately. The period during which such exposure control is performed is set before the main photographing period in FIG. 15A, and may be the same as or different from the above-described determination period. Here is performed to set the priority, alternating shooting the input image by the exposure time ET S and the input image according to the exposure time ET L is considered to be made during determination period in FIG. 15 (b). Then, the image data of the determination images 411 to 416 in FIG. 16 is used for setting the priority order.

図4の優先順位設定部57又は画像処理部50に、任意の2枚の入力画像間のオプティカルフローを導出する動き検出部71(図22参照)を設けておくことができる。動き検出部71は、時間的に隣接する2枚の短露光判定用画像間のオプティカルフローを導出し、時間的に隣接する2枚の長露光判定用画像間のオプティカルフローを導出する。判定用画像411〜416に対しては、図23に示す如く、画像411及び413間のオプティカルフローと、画像412及び414間のオプティカルフローと、画像413及び415間のオプティカルフローと、画像414及び416間のオプティカルフローと、が導出される。   A motion detection unit 71 (see FIG. 22) for deriving an optical flow between any two input images can be provided in the priority order setting unit 57 or the image processing unit 50 in FIG. The motion detection unit 71 derives an optical flow between two short exposure determination images that are temporally adjacent and derives an optical flow between two long exposure determination images that are temporally adjacent. For the determination images 411 to 416, as shown in FIG. 23, an optical flow between the images 411 and 413, an optical flow between the images 412 and 414, an optical flow between the images 413 and 415, and an image 414 and The optical flow between 416 is derived.

第1及び第2入力画像間のオプティカルフローは、第1及び第2入力画像上に現われる物体の動きベクトルの束である。或る物体の動きベクトルは、当該物体の動きの向き及び大きさを表すベクトル量である。動き検出部71は、導出したオプティカルフローごとに、オプティカルフローを形成する動きベクトルの大きさの平均値又は積算値を動き評価値として求める。優先順位設定部57は、動き評価値を優先順位設定用の第1の設定指標として用いた上で、優先順位を設定することができる(設定の詳細は図24(a)及び(b)を参照して後述する)。   The optical flow between the first and second input images is a bundle of motion vectors of objects appearing on the first and second input images. The motion vector of a certain object is a vector quantity representing the direction and magnitude of the motion of the object. For each derived optical flow, the motion detection unit 71 obtains an average value or integrated value of the magnitudes of motion vectors forming the optical flow as a motion evaluation value. The priority order setting unit 57 can set the priority order after using the motion evaluation value as the first setting index for setting the priority order (see FIGS. 24A and 24B for details of the setting). Reference later).

また、図4の優先順位設定部57又は画像処理部50に、図22のフリッカ検出部72を設けておくことができる。   Further, the flicker detection unit 72 of FIG. 22 can be provided in the priority order setting unit 57 or the image processing unit 50 of FIG.

撮像素子33は、電子シャッタ機能を備えており、所謂ローリングシャッタによって各受光画素の露光を実施する。ローリングシャッタでは、撮像面の各受光画素が露光されるタイミング(時刻)が水平ラインごとに異なる。つまり、撮像面において、互いに異なる水平ライン間では露光タイミングが互いに異なる。非インバータ式の蛍光灯の照明下で、ローリングシャッタ特性を有する撮像素子33(XYアドレス型のCMOSイメージセンサ等)を用いて撮影を行った場合、各入力画像の露光時間を蛍光灯の発光周期より著しく短くすると、各入力画像において垂直方向の輝度ムラが生じる。このような、各々の入力画像において発生しうる輝度ムラを、フレーム内フリッカと呼ぶ。非インバータ式の蛍光灯とは、インバータを用いることなく、商用交流電源によって直接点灯される蛍光灯を意味する。また、撮影のフレームレートと非インバータ式の蛍光灯を駆動する商用交流電源の周波数とが異なる場合、垂直方向の輝度ムラの状態がフレーム間で変化し、時間方向に輝度のフリッカが生じる。このような、時間方向に生じる輝度のフリッカ(互いに異なる入力画像間で輝度が変化することによるフリッカ)をフレーム間フリッカと呼ぶ。   The image sensor 33 has an electronic shutter function, and performs exposure of each light receiving pixel by a so-called rolling shutter. In the rolling shutter, the timing (time) at which each light receiving pixel on the imaging surface is exposed differs for each horizontal line. That is, on the imaging surface, the exposure timing is different between different horizontal lines. When photographing is performed using an imaging device 33 (XY address type CMOS image sensor or the like) having a rolling shutter characteristic under illumination of a non-inverter type fluorescent lamp, the exposure time of each input image is set as the light emission cycle of the fluorescent lamp. If it is made considerably shorter, the luminance unevenness in the vertical direction occurs in each input image. Such luminance unevenness that can occur in each input image is called intra-frame flicker. The non-inverter type fluorescent lamp means a fluorescent lamp that is directly lit by a commercial AC power source without using an inverter. Further, when the photographing frame rate and the frequency of the commercial AC power source that drives the non-inverter type fluorescent lamp are different, the state of uneven luminance in the vertical direction changes between frames, and luminance flicker occurs in the time direction. Such luminance flicker occurring in the time direction (flicker due to luminance change between different input images) is called inter-frame flicker.

フリッカ検出部72は、露光時間ETによる入力画像の撮影と露光時間ETによる入力画像の撮影とを交互に行うことで得られた判定用画像列(例えば、図16の判定用画像411〜416)に基づき、フリッカの有無を検出することができる。有無検出の対象となるフリッカは、少なくともフレーム内フリッカを含み、更にフレーム間フリッカをも含みうる。フリッカ検出部72は、公知のフリッカ検出方法(例えば、特開2008−109253号公報)を利用することができる。例えば、判定画像列のフレームレートを60fps(frame per second)に設定し、且つ、露光時間ETを1/240秒に設定すると共に露光時間ETを1/60秒に設定する。この場合において、撮像装置1の光源が非インバータ式の蛍光灯であると、短露光判定用画像では垂直方向に輝度ムラが発生する一方で長露光判定用画像では垂直方向に輝度ムラが全く又は殆ど発生しない。従って、時間的に隣接する短露光判定用画像と長露光判定用画像との間で垂直方向の輝度分布を対比することにより、判定用画像列にフリッカが存在しているか否かを判定することができる。フリッカ検出部72は、判定用画像列にフリッカが存在していると判定した場合、対象入力画像列にもフリッカが存在すると判断することができる。 Flicker detection unit 72, the exposure time ET S by the input image photographing and the exposure time ET L by the input image determination image string obtained by performing alternately shooting and the (e.g., determination image 411 in FIG. 16 416), the presence or absence of flicker can be detected. The flicker that is subject to presence / absence detection includes at least intra-frame flicker and may further include inter-frame flicker. The flicker detection unit 72 can use a known flicker detection method (for example, Japanese Patent Application Laid-Open No. 2008-109253). For example, to set the frame rate of the determination image column 60fps (frame per second), and sets the exposure time ET L with an exposure time ET S is set to 1/240 second to 1/60 second. In this case, if the light source of the image pickup apparatus 1 is a non-inverter type fluorescent lamp, luminance unevenness occurs in the vertical direction in the short exposure determination image, while luminance unevenness in the vertical direction does not occur in the vertical direction. It hardly occurs. Therefore, by comparing the vertical luminance distribution between the temporally adjacent short exposure determination image and the long exposure determination image, it is determined whether or not flicker exists in the determination image sequence. Can do. If the flicker detection unit 72 determines that flicker is present in the determination image sequence, it can determine that flicker is also present in the target input image sequence.

フリッカ検出部72は、判定用画像列及び対象入力画像列にフリッカが存在するか否かを表すフリッカ有無信号を出力する。判定用画像列及び対象入力画像列にフリッカが存在すると判定した場合、「1」の値を有するフリッカ有無信号を出力し、判定用画像列及び対象入力画像列にフリッカが存在すると判定しなかった場合、「0」の値を有するフリッカ有無信号を出力する。優先順位設定部57は、フリッカ有無信号を優先順位設定用の第2の設定指標として用いた上で、優先順位を設定することができる(設定の詳細は図24(a)及び(b)を参照して後述する)。   The flicker detection unit 72 outputs a flicker presence / absence signal indicating whether or not flicker exists in the determination image sequence and the target input image sequence. When it is determined that flicker exists in the determination image sequence and the target input image sequence, a flicker presence / absence signal having a value of “1” is output, and it is not determined that flicker exists in the determination image sequence and the target input image sequence. In this case, a flicker presence / absence signal having a value of “0” is output. The priority order setting unit 57 can set the priority order using the flicker presence / absence signal as the second setting index for setting the priority order (see FIGS. 24A and 24B for details of the setting). Reference later).

また、図4の優先順位設定部57又は画像処理部50に、図22の彩度検出部73を設けておくことができる。彩度検出部73は、判定用期間に得られた判定用画像から1枚以上の判定用画像を抽出し、抽出した判定用画像の彩度に応じた彩度評価値を算出する。判定用期間内の判定用画像から任意の1枚の判定用画像を抽出することができ、この場合、抽出した判定用画像の各画素の彩度の平均値を彩度評価値として算出すればよい。また例えば、判定用期間内の判定用画像から任意の複数の判定用画像を抽出することができ、この場合、抽出した複数の判定用画像の各画素における彩度の平均値を彩度評価値として算出すればよい。優先順位設定部57は、彩度評価値を優先順位設定用の第3の設定指標として用いた上で、優先順位を設定することができる。   Further, the saturation detection unit 73 of FIG. 22 can be provided in the priority order setting unit 57 or the image processing unit 50 of FIG. The saturation detection unit 73 extracts one or more determination images from the determination image obtained in the determination period, and calculates a saturation evaluation value corresponding to the saturation of the extracted determination image. An arbitrary determination image can be extracted from the determination image within the determination period. In this case, if the average value of the saturation of each pixel of the extracted determination image is calculated as the saturation evaluation value Good. Further, for example, it is possible to extract an arbitrary plurality of determination images from the determination image within the determination period, and in this case, an average value of the saturation in each pixel of the extracted plurality of determination images is a saturation evaluation value Can be calculated as The priority order setting unit 57 can set the priority order after using the saturation evaluation value as the third setting index for setting the priority order.

判定用期間中に、プレビュー画像列の画像データから第1〜第3の設定指標又はそれの元になる情報を抽出して内部メモリ17に保存しておくことができる。この場合、全押し操作後に、優先順位設定部57は、保存された情報から第1〜第3の設定指標を得ることができる。但し、プレビュー画像列の画像データを必要分だけ内部メモリ17又は外部メモリ18に一時的に記録しておき、全押し操作後に、一時記録された画像データから第1〜第3の設定指標を導出するようにしてもよい。   During the determination period, it is possible to extract the first to third setting indexes or information based on the first to third setting indexes from the image data of the preview image sequence and store them in the internal memory 17. In this case, the priority setting unit 57 can obtain the first to third setting indices from the stored information after the full pressing operation. However, the image data of the preview image sequence is temporarily recorded in the internal memory 17 or the external memory 18 as much as necessary, and the first to third setting indexes are derived from the temporarily recorded image data after the full pressing operation. You may make it do.

優先順位設定部57は、第1〜第3の設定指標の内、少なくとも1つの設定指標に基づいて優先順位を設定することができる。   The priority order setting unit 57 can set the priority order based on at least one of the first to third setting indices.

図24(a)に、第1及び第3の設定指標(即ち動き評価値及び彩度評価値)を用いた場合における優先順位の設定内容を示す。優先順位設定部57は、動き評価値が所定の基準動き値以上であるとき「動きは大きい」と判断し、動き評価値が該基準動き値未満であるとき「動きは小さい」と判断する。また、優先順位設定部57は、彩度評価値が所定の基準彩度値以上であるとき「彩度は高い」と判断し、彩度評価値が該基準彩度値未満であるとき「彩度は低い」と判断する。そして、
彩度が高く且つ動きが小さいと判断した場合には第1規則に従って、
彩度が低く且つ動きが小さいと判断した場合には第2規則に従って、
彩度が低く且つ動きが大きいと判断した場合には第3規則に従って、
彩度が高く且つ動きが大きいと判断した場合には第4規則に従って、
優先順位を設定する。
FIG. 24A shows the setting contents of the priority order when the first and third setting indexes (that is, the motion evaluation value and the saturation evaluation value) are used. The priority setting unit 57 determines that “the motion is large” when the motion evaluation value is equal to or greater than a predetermined reference motion value, and determines that “the motion is small” when the motion evaluation value is less than the reference motion value. The priority setting unit 57 determines that “the saturation is high” when the saturation evaluation value is equal to or higher than the predetermined reference saturation value, and “saturation” when the saturation evaluation value is less than the reference saturation value. It is judged that the degree is low. And
When it is judged that the saturation is high and the movement is small, according to the first rule,
When it is judged that the saturation is low and the movement is small, according to the second rule,
When it is judged that the saturation is low and the movement is large, according to the third rule,
When it is judged that the saturation is high and the movement is large, according to the fourth rule,
Set the priority.

第1規則が適用される場合、第2、第1及び第3の出力HDR画像に、夫々、第1、第2及び第3の優先順位が与えられる。
第2規則が適用される場合、第1、第2及び第3の出力HDR画像に、夫々、第1、第2及び第3の優先順位が与えられる。
第3規則が適用される場合、第3、第1及び第2の出力HDR画像に、夫々、第1、第2及び第3の優先順位が与えられる。
第4規則が適用される場合、第3、第2及び第1の出力HDR画像に、夫々、第1、第2及び第3の優先順位が与えられる。
When the first rule is applied, the first, second, and third priorities are given to the second, first, and third output HDR images, respectively.
When the second rule is applied, the first, second, and third output HDR images are given first, second, and third priorities, respectively.
When the third rule is applied, first, second, and third priorities are given to the third, first, and second output HDR images, respectively.
When the fourth rule is applied, the first, second, and third priorities are given to the third, second, and first output HDR images, respectively.

図24(b)に、第2及び第3の設定指標(即ちフリッカ有無信号及び彩度評価値)を用いた場合における優先順位の設定内容を示す。フリッカ有無信号の値が「1」であるときフリッカは有ると判断され、フリッカ有無信号の値が「0」であるときフリッカは無いと判断される。
彩度が高く且つフリッカが無いと判断した場合には第1規則に従って、
彩度が低く且つフリッカが無いと判断した場合には第2規則に従って、
彩度が低く且つフリッカが有ると判断した場合には第3規則に従って、
彩度が高く且つフリッカが有ると判断した場合には第4規則に従って、
優先順位を設定することができる。
FIG. 24B shows the setting contents of the priority order when the second and third setting indexes (that is, the flicker presence / absence signal and the saturation evaluation value) are used. When the value of the flicker presence / absence signal is “1”, it is determined that there is flicker, and when the value of the flicker presence / absence signal is “0”, it is determined that there is no flicker.
When it is judged that the saturation is high and there is no flicker, according to the first rule,
If it is determined that the saturation is low and there is no flicker,
If it is determined that the saturation is low and flicker is present,
If it is determined that the saturation is high and flicker is present,
Priorities can be set.

入力画像の彩度が高いとき、ユーザは、彩度の高い鮮やかな画像の取得を望んでいると推測されるため、自然なトーンマッピングを利用した第1の出力HDR画像よりも、絵画調のHDR画像とも言うべき第2の出力HDR画像の方が、ユーザの好みに合致する可能性が高い。これを考慮し、彩度評価値から彩度が高いと判断される場合には、第2の出力HDR画像に付与される優先順位を第1の出力HDR画像のそれよりも高める。
逆に、入力画像の彩度が低いときには、絵画調のHDR画像が望まれている可能性は比較的低いと推測されるため、自然なトーンマッピングを利用した出力HDR画像の方がユーザに好まれやすいと考えられる。これを考慮し、彩度評価値から彩度が低いと判断される場合には、第1の出力HDR画像に付与される優先順位を第2の出力HDR画像のそれよりも高める。
When the saturation of the input image is high, it is presumed that the user desires to acquire a bright image with high saturation, so that the painting-like image is more effective than the first output HDR image using natural tone mapping. The second output HDR image, which should be referred to as the HDR image, is more likely to match the user's preference. Considering this, when it is determined that the saturation is high from the saturation evaluation value, the priority given to the second output HDR image is higher than that of the first output HDR image.
On the contrary, when the saturation of the input image is low, it is presumed that a painting-like HDR image is relatively unlikely to be desired. Therefore, the output HDR image using natural tone mapping is preferred by the user. It seems to be rare. Considering this, when it is determined that the saturation is low from the saturation evaluation value, the priority given to the first output HDR image is higher than that of the second output HDR image.

また、入力画像上の物体の動きが大きい場合又はフリッカが存在する場合、複数画像の合成が困難になることが多く、合成によって輪郭のぼけや二重像の発生等を招くこともある。これを考慮し、動き評価値から動きが大きいと判断される場合又はフリッカ有無信号からフリッカが有ると判断される場合には、第3の出力HDR画像に付与される優先順位を第1及び第2の出力HDR画像のそれらよりも高める。逆に、動き評価値から動きが小さいと判断される場合又はフリッカ有無信号からフリッカが無いと判断される場合には、複数画像の合成によるダイナミックレンジ拡大が有効に機能すると考えられるため、第3の出力HDR画像に付与される優先順位を第1及び第2の出力HDR画像のそれらよりも低くする。   In addition, when the movement of an object on the input image is large or flicker exists, it is often difficult to combine a plurality of images, and the combination may cause blurring of the outline, generation of a double image, or the like. Considering this, when it is determined that the motion is large from the motion evaluation value, or when it is determined that there is flicker from the flicker presence / absence signal, the priority given to the third output HDR image is set to the first and the second priority. 2 higher than those of the output HDR image. Conversely, when it is determined that the motion is small from the motion evaluation value or when it is determined that there is no flicker from the flicker presence / absence signal, it is considered that the dynamic range expansion by combining a plurality of images functions effectively. The priority given to the output HDR image is set lower than those of the first and second output HDR images.

図24(a)及び(b)では2つの設定指標を用いて優先順位を決定しているが、第1〜第3の設定指標を全て用いて優先順位を決定しても良い。この場合、動きが小さいという第1条件、フリッカが無いという第2条件、及び、彩度が高いという第3条件を設定する。そして例えば、
第1〜第3条件が全て満たされる場合には第1規則に従って、
第3条件が満たされるが第1及び第2条件の少なくとも一方が満たされない場合には第4規則に従って、
第3条件は満たされないが第1及び第2条件が双方満たされる場合には第2規則に従って、
第3条件が満たされず且つ第1及び第2条件が少なくとも一方が満たされない場合には第3規則に従って、
優先順位を設定することができる。
In FIGS. 24A and 24B, the priority order is determined using two setting indexes, but the priority order may be determined using all of the first to third setting indexes. In this case, the first condition that the movement is small, the second condition that there is no flicker, and the third condition that the saturation is high are set. And for example,
When all of the first to third conditions are satisfied, according to the first rule,
If the third condition is satisfied but at least one of the first and second conditions is not satisfied, according to the fourth rule,
If the third condition is not met but both the first and second conditions are met, according to the second rule:
If the third condition is not satisfied and at least one of the first and second conditions is not satisfied, according to the third rule,
Priorities can be set.

また、第1の設定指標のみを用いて優先順位を決定することも可能である。
この場合例えば、
動きが小さいと判断したときには第1規則に従って、
動きが大きいと判断したときには第4規則に従って優先順位を設定する、
或いは例えば、
動きが小さいと判断したときには第2規則に従って、
動きが大きいと判断したときには第3規則に従って優先順位を設定する。
It is also possible to determine the priority order using only the first setting index.
In this case, for example,
When it is judged that the movement is small, according to the first rule,
When it is determined that the movement is large, priority is set according to the fourth rule.
Or, for example,
When it is judged that the movement is small, according to the second rule,
When it is determined that the movement is large, priority is set according to the third rule.

また、第2の設定指標のみを用いて優先順位を決定することも可能である。
この場合例えば、
フリッカが無いと判断したときには第1規則に従って、
フリッカが有ると判断したときには第4規則に従って優先順位を設定する、
或いは例えば、
フリッカが無いと判断したときには第2規則に従って、
フリッカが有ると判断したときには第3規則に従って優先順位を設定する。
It is also possible to determine the priority order using only the second setting index.
In this case, for example,
When it is determined that there is no flicker, according to the first rule,
When it is determined that there is flicker, priority is set according to the fourth rule.
Or, for example,
When it is determined that there is no flicker,
When it is determined that there is flicker, priority is set according to the third rule.

また、第3の設定指標のみを用いて優先順位を決定することも可能である。
この場合例えば、
彩度が高いと判断したときには第1規則に従って、
彩度が低いと判断したときには第2規則に従って、優先順位を設定する、
或いは例えば、
彩度が高いと判断したときには第4規則に従って、
彩度が低いと判断したときには第3規則に従って、優先順位を設定する。
It is also possible to determine the priority order using only the third setting index.
In this case, for example,
When it is judged that the saturation is high, according to the first rule,
When it is determined that the saturation is low, priority is set according to the second rule.
Or, for example,
When it is judged that the saturation is high, according to the fourth rule,
When it is determined that the saturation is low, priority is set according to the third rule.

上述の撮像装置1によれば、複数のHDR処理によって複数の出力HDR画像を生成することができる。このため、ユーザは、複数の出力HDR画像の中から、自分の好みにあった出力HDR画像を選択的に表示又は記録するといったことが可能となる。また、優先順位に応じた表示制御又は記録制御により、ユーザの好みに合っていると推測される出力HDR画像を優先的に表示又は記録することができる。ユーザの好みに沿った優先表示又は優先記録が、ユーザの利便性向上(ユーザの操作負担軽減など)に寄与することは言うまでもない。仮に、高い優先順位を与えられた出力HDR画像がユーザの好みに合ったものでない場合においても、ユーザは、低い優先順位が与えられた出力HDR画像の中から、好みの出力HDR画像を選択的に表示又は記録させることができる。また、HDR撮影の要否判定により、必要性の少ないHDR撮影及びHDR処理の実行を回避することができる。   According to the imaging device 1 described above, a plurality of output HDR images can be generated by a plurality of HDR processes. Therefore, the user can selectively display or record an output HDR image that suits his / her preference from among a plurality of output HDR images. In addition, by the display control or the recording control according to the priority order, it is possible to display or record the output HDR image presumed to meet the user's preference with priority. Needless to say, priority display or priority recording according to the user's preference contributes to improving the convenience of the user (reducing the operation burden on the user). Even if the output HDR image given a high priority does not meet the user's preference, the user can selectively select the desired output HDR image from the output HDR images given a low priority. Can be displayed or recorded. Moreover, it is possible to avoid execution of HDR imaging and HDR processing that are less necessary by determining whether HDR imaging is necessary.

尚、当然ではあるが、HDR処理は、HDR撮影が必要と判断されて対象入力画像が撮影されたときにのみ実行される。従って、要否判定部56によるHDR撮影の要否判定は、HDR処理の要否判定(HDR処理の実行が必要か否かの判定)であるとも言え、出力HDR画像の要否判定(出力HDR画像の生成が必要か否かの判定)であるとも言える。   Of course, the HDR processing is executed only when it is determined that HDR shooting is necessary and the target input image is shot. Therefore, it can be said that the necessity determination of the HDR shooting by the necessity determination unit 56 is the necessity determination of the HDR processing (determination of whether or not the HDR processing is necessary), and the necessity determination of the output HDR image (output HDR) It can also be said that the determination of whether or not image generation is necessary.

[高優先順位の画像のみの生成]
図20の動作では、生成した第1〜第3の出力HDR画像に対して優先順位を設定しているが、ステップS18の優先順位設定処理をステップS17の処理の実行前に実行し、第1〜第3の出力HDR画像の内、第1の優先順位が設定された出力HDR画像のみ、或いは、第1及び第2の優先順位が設定された出力HDR画像のみを生成するようにしても良い。このような生成を実現する方法を、便宜上、方法αと呼ぶ。
[Generate only high priority images]
In the operation of FIG. 20, the priority order is set for the generated first to third output HDR images. However, the priority order setting process in step S18 is executed before the process in step S17, Of the third output HDR images, only the output HDR images set with the first priority order or only the output HDR images set with the first and second priority orders may be generated. . A method for realizing such generation is referred to as a method α for convenience.

方法αでは、例えば、
上記の第1規則が適用される状況下において、
第1〜第3の出力HDR画像の内、第2の出力HDR画像のみ、或いは、第2及び第1の出力HDR画像のみを生成し、
上記の第2規則が適用される状況下において、
第1〜第3の出力HDR画像の内、第1の出力HDR画像のみ、或いは、第1及び第2の出力HDR画像のみを生成し、
上記の第3規則が適用される状況下において、
第1〜第3の出力HDR画像の内、第3の出力HDR画像のみ、或いは、第3及び第1の出力HDR画像のみを生成し、
上記の第4規則が適用される状況下において、
第1〜第3の出力HDR画像の内、第3の出力HDR画像のみ、或いは、第3及び第2の出力HDR画像のみを生成する。
図4の画像出力制御部58は、生成された出力HDR画像を表示部27に表示させることができると共に外部メモリ18に記録させることができる。
In method α, for example,
Under the circumstances where the first rule applies,
Of the first to third output HDR images, only the second output HDR image or only the second and first output HDR images are generated,
In situations where the second rule above applies,
Of the first to third output HDR images, only the first output HDR image or only the first and second output HDR images are generated,
Under circumstances where the above third rule applies:
Of the first to third output HDR images, only the third output HDR image or only the third and first output HDR images are generated,
Under the circumstances where the fourth rule applies,
Of the first to third output HDR images, only the third output HDR image or only the third and second output HDR images are generated.
The image output control unit 58 of FIG. 4 can display the generated output HDR image on the display unit 27 and can record the output HDR image in the external memory 18.

方法αでは、第1〜第3のHDR処理の内、1つ又は2つのHDR処理のみが選択的に実行され、第1〜第3の出力HDR画像の内、1枚又は2枚の出力HDR画像のみが生成される。このため、方法αでは、出力HDR画像を生成するためのHDR処理の内容が優先順位に従って変更される、と言える。優先順位をプレビュー画像列の画像データから設定することができるため、方法αでは、出力HDR画像を生成するためのHDR処理の内容がプレビュー画像列の画像データに基づいて変更される、とも言える。   In the method α, only one or two HDR processes among the first to third HDR processes are selectively executed, and one or two output HDRs of the first to third output HDR images are selected. Only an image is generated. For this reason, in the method α, it can be said that the content of the HDR processing for generating the output HDR image is changed according to the priority order. Since the priority can be set from the image data of the preview image sequence, it can be said that the method α changes the content of the HDR processing for generating the output HDR image based on the image data of the preview image sequence.

更に、方法αを、以下のような方法αに変形することもできる。方法αでは、第1及び第2の出力HDR画像の内、より高い優先順位が設定された出力HDR画像のみを生成する。従って、方法αを用いる場合、
上記の第1又は第4規則が適用される状況下においては、
第1及び第2の出力HDR画像の内、第2の出力HDR画像のみ生成するようにし、
上記の第2又は第3規則が適用される状況下においては、
第1及び第2の出力HDR画像の内、第1の出力HDR画像のみを生成するようにする。
図4の画像出力制御部58は、生成された出力HDR画像を表示部27に表示させることができると共に外部メモリ18に記録させることができる。
Furthermore, the method α can be modified to the following method α A. In the method α A , only the output HDR image having a higher priority order is generated from the first and second output HDR images. Thus, when using method α A :
Under circumstances where the above first or fourth rule applies,
Of the first and second output HDR images, only the second output HDR image is generated,
In situations where the second or third rule above applies,
Of the first and second output HDR images, only the first output HDR image is generated.
The image output control unit 58 of FIG. 4 can display the generated output HDR image on the display unit 27 and can record the output HDR image in the external memory 18.

方法αでは、第1及び第2のHDR処理の内、一方のHDR処理のみが選択され、選択されたHDR処理を用いて、第1及び第2の出力HDR画像の内、一方の出力HDR画像のみが生成される。このため、方法αと同様に、方法αにおいても、出力HDR画像を生成するためのHDR処理の内容が優先順位に従って変更される、と言え、出力HDR画像を生成するためのHDR処理の内容がプレビュー画像列の画像データに基づいて変更される、とも言える。他方、第1及び第2の出力HDR画像は、常に画像合成処理及び階調変換処理を介して生成される。従って、方法αでは、出力HDR画像を生成するための階調変換処理の内容が優先順位に従って変更される、と言え、出力HDR画像を生成するための階調変換処理の内容がプレビュー画像列の画像データに基づいて変更される、とも言える。 In the method α A , only one HDR process is selected from the first and second HDR processes, and one output HDR of the first and second output HDR images is selected by using the selected HDR process. Only an image is generated. Therefore, similarly to the method α, in the method α A , it can be said that the content of the HDR processing for generating the output HDR image is changed according to the priority order, and the content of the HDR processing for generating the output HDR image Can be said to be changed based on the image data of the preview image sequence. On the other hand, the first and second output HDR images are always generated through an image synthesis process and a gradation conversion process. Therefore, in the method α A , it can be said that the content of the gradation conversion processing for generating the output HDR image is changed according to the priority order, and the content of the gradation conversion processing for generating the output HDR image is the preview image sequence. It can be said that it is changed based on the image data.

方法α又はαによれば、ユーザの好みに合っていると推測される出力HDR画像を選択的に生成することが可能となる。 According to the method α or α A , it is possible to selectively generate an output HDR image that is presumed to meet the user's preference.

<<変形等>>
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The embodiment of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an example of the embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As annotations applicable to the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述の動作例では、画像処理部50にて実現可能なHDR処理の種類数が3になっているが、その種類数は2以上であれば幾つでもよい。画像処理部50から、HDR処理の種類数と同数の出力HDR画像を得ることができる。
[Note 1]
In the above-described operation example, the number of types of HDR processing that can be realized by the image processing unit 50 is three. However, the number of types is not limited as long as the number of types is two or more. From the image processing unit 50, the same number of output HDR images as the number of types of HDR processing can be obtained.

[注釈2]
図4に示される画像処理部50、画像データ取得部51及び画像出力制御部58並びに図1に示される任意の部位(表示部27等)は、撮像装置1以外の電子機器(不図示)に設けられていても良く、その電子機器上において上述の各動作を実現させても良い。電子機器は、例えば、パーソナルコンピュータ、携帯情報端末、携帯電話機である。尚、撮像装置1も、電子機器の一種である。
[Note 2]
The image processing unit 50, the image data acquisition unit 51, the image output control unit 58 shown in FIG. 4 and any part (display unit 27 etc.) shown in FIG. It may be provided, and each operation described above may be realized on the electronic device. The electronic device is, for example, a personal computer, a portable information terminal, or a mobile phone. The imaging device 1 is also a kind of electronic device.

[注釈3]
図1の撮像装置1及び上記電子機器を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1及び電子機器を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。特に、図4の各部位にて実現される機能の全部又は一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部又は一部を実現するようにしてもよい。
[Note 3]
The imaging apparatus 1 and the electronic apparatus in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 and the electronic device are configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. In particular, all or part of the functions realized in each part of FIG. 4 are described as a program, and all or part of the functions are realized by executing the program on a program execution device (for example, a computer). You may make it do.

1 撮像装置
11 撮像部
27 表示部
50 画像処理部
51 画像データ取得部
52 露出制御部
53 合成処理部
54 階調変換部
55 階調補正部
56 HDR撮影要否判定部
57 優先順位設定部
58 画像出力制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 27 Display part 50 Image processing part 51 Image data acquisition part 52 Exposure control part 53 Composition processing part 54 Gradation conversion part 55 Gradation correction part 56 HDR imaging | photography necessity determination part 57 Priority order setting part 58 Image Output control unit

Claims (10)

互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得部と、
前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理部と、
前記合成処理部の生成画像に対し、互いに異なる複数の階調変換条件を個別に用いて階調変換を行うことにより複数の合成結果画像を生成する階調変換部と、を備えた
ことを特徴とする電子機器。
An image data acquisition unit for acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions;
A synthesis processing unit that generates an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images;
A tone conversion unit that generates a plurality of synthesis result images by performing tone conversion on the generated image of the synthesis processing unit by individually using a plurality of different tone conversion conditions. Electronic equipment.
前記入力画像列の画像データに基づき前記複数の合成結果画像に対して優先順位を設定する優先順位設定部と、
前記優先順位に応じて前記複数の合成結果画像の表示又は記録を制御する画像出力制御部と、を更に備えた
ことを特徴とする請求項1に記載の電子機器。
A priority setting unit that sets a priority for the plurality of combined result images based on image data of the input image sequence;
The electronic apparatus according to claim 1, further comprising: an image output control unit that controls display or recording of the plurality of composite result images according to the priority order.
前記n枚の入力画像に含まれる1枚の入力画像に階調補正を行うことで階調補正画像を生成する階調補正部を更に備えた
ことを特徴とする請求項1に記載の電子機器。
The electronic apparatus according to claim 1, further comprising a gradation correction unit configured to generate a gradation correction image by performing gradation correction on one input image included in the n input images. .
前記入力画像列の画像データに基づき前記複数の合成結果画像及び前記階調補正画像に対して優先順位を設定する優先順位設定部と、
前記優先順位に応じて前記複数の合成結果画像及び前記階調補正画像の表示又は記録を制御する画像出力制御部と、を更に備えた
ことを特徴とする請求項3に記載の電子機器。
A priority setting unit that sets priority for the plurality of combined result images and the gradation correction image based on image data of the input image sequence;
The electronic apparatus according to claim 3, further comprising: an image output control unit that controls display or recording of the plurality of combined result images and the gradation correction image according to the priority order.
前記優先順位設定部は、前記入力画像列の画像データに基づいて、
前記入力画像列上の物体の動き、
前記入力画像列におけるフリッカの有無、及び、
前記入力画像列における彩度、
の内の1以上を評価し、評価結果に基づいて前記優先順位を設定する
ことを特徴とする請求項2又は請求項4に記載の電子機器。
The priority order setting unit is based on the image data of the input image sequence,
Movement of an object on the input image sequence;
Presence or absence of flicker in the input image sequence, and
Saturation in the input image sequence,
The electronic apparatus according to claim 2, wherein one or more of the electronic devices are evaluated, and the priority order is set based on an evaluation result.
当該電子機器は、前記入力画像列の画像データを撮影によって取得する撮像装置であって、
前記入力画像列を形成する各入力画像の露出条件を設定する露出条件設定部と、
前記複数の合成結果画像を生成することの要否を判定する要否判定部と、を更に備え、
前記複数の合成結果画像を生成するか否かは、前記要否の判定結果に従って定められ、
前記n枚の入力画像に先立って撮影される入力画像には、第1及び第2の判定用入力画像が含まれ、
前記露出条件設定部は、前記第1の判定用入力画像において所定の第1基準輝度以上の輝度を有する画素の数が所定の第1基準値以下になるように、前記第1の判定用入力画像の撮影時における第1の露出条件を設定するとともに、前記第2の判定用入力画像において所定の第2基準輝度以下の輝度を有する画素の数が所定の第2基準値以下になるように、前記第2の判定用入力画像の撮影時における第2の露出条件を設定し、
前記要否判定部は、前記第1及び第2の露出条件に基づいて前記要否の判定を行う
ことを特徴とする請求項1〜請求項5の何れかに記載の電子機器。
The electronic device is an imaging device that acquires image data of the input image sequence by photographing,
An exposure condition setting unit for setting an exposure condition of each input image forming the input image sequence;
A necessity determination unit that determines whether or not it is necessary to generate the plurality of combined result images,
Whether to generate the plurality of combined result images is determined according to the determination result of necessity,
The input image captured prior to the n input images includes the first and second determination input images,
The exposure condition setting unit includes the first determination input so that the number of pixels having a luminance equal to or higher than a predetermined first reference luminance in the first determination input image is equal to or less than a predetermined first reference value. A first exposure condition at the time of image shooting is set, and the number of pixels having a luminance equal to or lower than a predetermined second reference luminance in the second determination input image is equal to or lower than a predetermined second reference value. , Setting a second exposure condition at the time of shooting the second determination input image,
The electronic device according to claim 1, wherein the necessity determination unit performs the necessity determination based on the first and second exposure conditions.
互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得部と、
前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理部と、
前記合成処理部の生成画像に対し、階調変換を行うことにより合成結果画像を生成する階調変換部と、を備え、
前記階調変換部は、前記階調変換の内容を前記入力画像列の画像データに基づいて変更する
ことを特徴とする電子機器。
An image data acquisition unit for acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions;
A synthesis processing unit that generates an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images;
A gradation conversion unit that generates a composition result image by performing gradation conversion on the generated image of the composition processing unit;
The electronic device according to claim 1, wherein the gradation conversion unit changes the content of the gradation conversion based on image data of the input image sequence.
互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得ステップと、
前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理ステップと、
前記合成処理ステップの生成画像に対し、互いに異なる複数の階調変換条件を個別に用いて階調変換を行うことにより複数の合成結果画像を生成する階調変換ステップと、を実行する
ことを特徴とする画像処理方法。
An image data acquisition step of acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions;
A synthesis processing step of generating an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images;
A gradation conversion step of generating a plurality of combined result images by performing gradation conversion on the generated image of the combining processing step using a plurality of different gradation conversion conditions individually. An image processing method.
互いに異なる露出条件で撮影されたn枚の入力画像(nは2以上の整数)を含む入力画像列の画像データを取得する画像データ取得ステップと、
前記n枚の入力画像に含まれる複数の入力画像を合成することで各入力画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成する合成処理ステップと、
前記合成処理ステップの生成画像に対し、階調変換を行うことにより合成結果画像を生成する階調変換ステップと、を実行し、
前記階調変換ステップでは、前記階調変換の内容を前記入力画像列の画像データに基づいて変更する
ことを特徴とする画像処理方法。
An image data acquisition step of acquiring image data of an input image sequence including n input images (n is an integer of 2 or more) photographed under different exposure conditions;
A synthesis processing step of generating an image having a dynamic range wider than the dynamic range of each input image by synthesizing a plurality of input images included in the n input images;
A gradation conversion step of generating a composition result image by performing gradation conversion on the generated image of the composition processing step;
In the gradation conversion step, the content of the gradation conversion is changed based on image data of the input image sequence.
請求項8又は請求項9に記載の画像データ取得ステップ、合成処理ステップ及び階調変換ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image data acquisition step, the composition processing step, and the gradation conversion step according to claim 8 or 9.
JP2010265278A 2010-11-29 2010-11-29 Electronic apparatus, image processing method and program Pending JP2012119761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265278A JP2012119761A (en) 2010-11-29 2010-11-29 Electronic apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265278A JP2012119761A (en) 2010-11-29 2010-11-29 Electronic apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2012119761A true JP2012119761A (en) 2012-06-21

Family

ID=46502164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265278A Pending JP2012119761A (en) 2010-11-29 2010-11-29 Electronic apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2012119761A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841384A (en) * 2012-11-20 2014-06-04 腾讯科技(深圳)有限公司 Image-quality optimization method and device
KR20140070345A (en) 2012-11-30 2014-06-10 삼성테크윈 주식회사 Image processing apparatus and image processing method
CN103856720A (en) * 2012-11-30 2014-06-11 三星泰科威株式会社 Image processing apparatus and method
JP2014110621A (en) * 2012-12-04 2014-06-12 Samsung Techwin Co Ltd Evaluation value calculation device and evaluation value calculation method
JP2015056758A (en) * 2013-09-11 2015-03-23 キヤノン株式会社 Imaging apparatus, its control method and control program
JP2015210804A (en) * 2014-04-30 2015-11-24 コニカミノルタ株式会社 HDR image generation program, apparatus and method thereof
WO2019064757A1 (en) * 2017-09-29 2019-04-04 富士フイルム株式会社 Image pickup device, image pickup method and program
JP2021125820A (en) * 2020-02-06 2021-08-30 キヤノン株式会社 Imaging equipment, control methods, programs and recording media
CN114424520A (en) * 2019-09-30 2022-04-29 三星电子株式会社 Image processing method and electronic device supporting the same

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841384A (en) * 2012-11-20 2014-06-04 腾讯科技(深圳)有限公司 Image-quality optimization method and device
KR20140070345A (en) 2012-11-30 2014-06-10 삼성테크윈 주식회사 Image processing apparatus and image processing method
CN103856720A (en) * 2012-11-30 2014-06-11 三星泰科威株式会社 Image processing apparatus and method
US9131172B2 (en) 2012-11-30 2015-09-08 Hanwha Techwin Co., Ltd. Image processing apparatus and method for detecting motion using long exposures images and then performing infinite impulse response filtering on short exposure image
JP2014110621A (en) * 2012-12-04 2014-06-12 Samsung Techwin Co Ltd Evaluation value calculation device and evaluation value calculation method
JP2015056758A (en) * 2013-09-11 2015-03-23 キヤノン株式会社 Imaging apparatus, its control method and control program
JP2015210804A (en) * 2014-04-30 2015-11-24 コニカミノルタ株式会社 HDR image generation program, apparatus and method thereof
WO2019064757A1 (en) * 2017-09-29 2019-04-04 富士フイルム株式会社 Image pickup device, image pickup method and program
CN111095912A (en) * 2017-09-29 2020-05-01 富士胶片株式会社 Camera device, camera method and program
JPWO2019064757A1 (en) * 2017-09-29 2020-11-05 富士フイルム株式会社 Imaging equipment, imaging methods, and programs
US11032483B2 (en) 2017-09-29 2021-06-08 Fujifilm Corporation Imaging apparatus, imaging method, and program
CN111095912B (en) * 2017-09-29 2021-08-06 富士胶片株式会社 Image pickup device, image pickup method, and recording medium
CN114424520A (en) * 2019-09-30 2022-04-29 三星电子株式会社 Image processing method and electronic device supporting the same
JP2021125820A (en) * 2020-02-06 2021-08-30 キヤノン株式会社 Imaging equipment, control methods, programs and recording media
JP7566470B2 (en) 2020-02-06 2024-10-15 キヤノン株式会社 Imaging device and control method

Similar Documents

Publication Publication Date Title
JP4293174B2 (en) Imaging apparatus and image processing apparatus
JP2012119761A (en) Electronic apparatus, image processing method and program
JP2008124625A (en) Imaging device
KR20130069039A (en) Display apparatus and method and computer-readable storage medium
WO2013141071A1 (en) Image display device and method
JP2011109638A (en) Image processing apparatus and image processing method
JP2010136224A (en) Imaging apparatus and imaging method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
US20130293733A1 (en) Imaging apparatus, image processing apparatus, and imaging method
CN101310526A (en) Motion picture playback device with camera shake correction function
KR20130071794A (en) Digital photographing apparatus splay apparatus and control method thereof
JP2017085481A (en) Video processing device, video processing method, and video processing program
CN104253941B (en) Dynamic image generating means, dynamic image generation method and recording medium
JP4912113B2 (en) Light source state detection apparatus and method, and imaging apparatus
CN110278375A (en) Image processing method, image processing device, storage medium and electronic equipment
KR20130031176A (en) Display apparatus and method
JP2015195582A (en) Image processing device, control method thereof, imaging apparatus, control method thereof, and recording medium
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP5803233B2 (en) Imaging apparatus and imaging method
JP2008139683A (en) Imaging apparatus and autofocus control method
JP2015061236A (en) Image processing apparatus, image processing method and program
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2014049882A (en) Imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404