JP2018148420A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2018148420A JP2018148420A JP2017042017A JP2017042017A JP2018148420A JP 2018148420 A JP2018148420 A JP 2018148420A JP 2017042017 A JP2017042017 A JP 2017042017A JP 2017042017 A JP2017042017 A JP 2017042017A JP 2018148420 A JP2018148420 A JP 2018148420A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- hdr
- control unit
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 114
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 239000000203 mixture Substances 0.000 claims abstract description 92
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 27
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 27
- 239000002131 composite material Substances 0.000 claims description 49
- 230000002194 synthesizing effect Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 125
- 230000008569 process Effects 0.000 description 115
- 238000003384 imaging method Methods 0.000 description 101
- 238000004891 communication Methods 0.000 description 28
- 230000008859 change Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】より自由度の高いHDR処理を行うことができる画像処理装置及び画像処理方法を提供すること。
【解決手段】画像処理装置は、第1の画像データの座標毎にHDR処理の際の合成比を対応付けた合成比マップを生成する合成比マップ生成部2164と、第1の画像データと露出の異なる少なくとも1つの第2の画像データとを合成比マップに従って座標毎に合成するHDR処理を行う画像処理部2165とを備える。
【選択図】図1An image processing apparatus and an image processing method capable of performing HDR processing with a higher degree of freedom are provided.
An image processing apparatus includes a composition ratio map generation unit 2164 that generates a composition ratio map in which a composition ratio in HDR processing is associated with each coordinate of first image data, and first image data and exposure. And an image processing unit 2165 for performing HDR processing for synthesizing at least one second image data different from each other for each coordinate according to the synthesis ratio map.
[Selection] Figure 1
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
近年の撮像装置の機能の1つとして、例えば特許文献1において提案されているようなハイダイナミックレンジ(HDR)機能が知られている。HDR機能は、露出値の異なる複数回の撮像によって得られた画像データを合成することによって、撮像装置の本来の仕様よりも広いダイナミックレンジの画像を得るHDR処理を行う機能である。このようなHDR機能を用いることにより、例えば明暗差の大きいシーンにおける黒潰れ及び白飛びを抑制することができる。 As one of the functions of recent imaging apparatuses, for example, a high dynamic range (HDR) function as proposed in Patent Document 1 is known. The HDR function is a function of performing HDR processing that obtains an image with a wider dynamic range than the original specification of the imaging apparatus by combining image data obtained by multiple imaging with different exposure values. By using such an HDR function, for example, black crushing and whiteout in a scene with a large contrast can be suppressed.
従来のHDR処理では、黒潰れ領域又は白飛び領域と同程度の輝度の領域については一律に処理が行われてしまう。このため、ユーザが意図していない箇所も処理が行われて、HDR処理後に得られる画像は必ずしもユーザの望むものとならないことがある。画像内の一部の領域のみの輝度を調整するための手法として、ハーフNDフィルタを装着して撮影を行う手法もある。しかしながら、ハーフNDフィルタであっても必ずしもユーザの意図した領域だけの輝度を調整することができるとは限らない。 In the conventional HDR processing, processing is uniformly performed on an area having a luminance comparable to that of a blackout area or a whiteout area. For this reason, a part which is not intended by the user is also processed, and an image obtained after the HDR process may not necessarily be what the user desires. As a method for adjusting the luminance of only a part of the area in the image, there is also a method of performing shooting by attaching a half ND filter. However, even in the case of a half ND filter, it is not always possible to adjust the luminance only in the region intended by the user.
本発明は、前記の事情に鑑みてなされたものであり、より自由度の高いHDR処理を行うことができる画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus and an image processing method capable of performing HDR processing with a higher degree of freedom.
前記の目的を達成するために、本発明の第1の態様の画像処理装置は、第1の画像データの座標毎にHDR処理の際の合成比を対応付けた合成比マップを生成する合成比マップ生成部と、前記第1の画像データと露出の異なる少なくとも1つの第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行う画像処理部とを具備する。 In order to achieve the above object, the image processing apparatus according to the first aspect of the present invention generates a composition ratio map in which a composition ratio in HDR processing is associated with each coordinate of first image data. A map generation unit; and an image processing unit that performs HDR processing for combining the first image data and at least one second image data having a different exposure for each coordinate according to the combination ratio map.
前記の目的を達成するために、本発明の第2の態様の画像処理方法は、第1の画像データの座標毎にHDR処理の際の合成比を対応付けた合成比マップを生成することと、前記第1の画像データと露出の異なる少なくとも1つの第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行うこととを具備する。 In order to achieve the above object, the image processing method according to the second aspect of the present invention generates a composite ratio map in which a composite ratio in HDR processing is associated with each coordinate of the first image data. Performing HDR processing for synthesizing the first image data and at least one second image data having a different exposure for each coordinate according to the synthesis ratio map.
本発明によれば、より自由度の高いHDR処理を行うことができる画像処理装置及び画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of performing HDR processing with a higher degree of freedom.
以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の一実施形態に係る画像処理装置の適用例としての撮像装置の構成を示すブロック図である。図1に示す撮像装置1は、例えばレンズ交換式のデジタルカメラであって、交換レンズ100と、本体200とを有する。交換レンズ100は、本体200に対して着脱できるように構成されている。本体200に交換レンズ100が装着されると、交換レンズ100と本体200とは通信できるようになる。これにより、交換レンズ100は、本体200の制御に従って動作する。なお、図1に示す撮像装置1は、レンズ交換式のデジタルカメラである。しかしながら、撮像装置1は、必ずしもレンズ交換式でなくてもよい。例えば、撮像装置1は、レンズ一体式のデジタルカメラであってもよい。また、レンズ自体が撮像機能を有しているものであってもよい。この場合、レンズと本体との無線通信によって情報の伝達が行われるように構成されていてもよい。さらに、本実施形態の技術は必ずしも撮像装置に適用しなくてもよい。すなわち、本実施形態においては撮像機能は必須の機能ではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus as an application example of an image processing apparatus according to an embodiment of the present invention. An imaging apparatus 1 illustrated in FIG. 1 is, for example, an interchangeable lens digital camera, and includes an interchangeable lens 100 and a main body 200. The interchangeable lens 100 is configured to be detachable from the main body 200. When the interchangeable lens 100 is attached to the main body 200, the interchangeable lens 100 and the main body 200 can communicate with each other. Thereby, the interchangeable lens 100 operates according to the control of the main body 200. Note that the imaging apparatus 1 shown in FIG. 1 is an interchangeable lens digital camera. However, the imaging apparatus 1 does not necessarily have to be a lens interchangeable type. For example, the imaging device 1 may be a lens-integrated digital camera. Further, the lens itself may have an imaging function. In this case, information may be transmitted by wireless communication between the lens and the main body. Furthermore, the technique of this embodiment does not necessarily have to be applied to an imaging apparatus. That is, the imaging function is not an essential function in the present embodiment.
図1に示すように、交換レンズ100は、撮像光学系102と、駆動部104と、位置検出部106と、レンズ制御部108と、記録部110と、操作部112と、通信部114とを有している。ここで、交換レンズ100の各ブロックは、例えばハードウェアによって構成されている。しかしながら、交換レンズ100の一部のブロックは、ソフトウェアによって、又はハードウェアとソフトウェアの組み合わせによって構成されていてもよい。 As shown in FIG. 1, the interchangeable lens 100 includes an imaging optical system 102, a drive unit 104, a position detection unit 106, a lens control unit 108, a recording unit 110, an operation unit 112, and a communication unit 114. Have. Here, each block of the interchangeable lens 100 is configured by hardware, for example. However, some blocks of the interchangeable lens 100 may be configured by software or a combination of hardware and software.
撮像光学系102は、レンズ及び絞りを有し、図示しない被写体からの光束を本体200の撮像素子202に入射させる。撮像光学系102のレンズは、フォーカスレンズを含んでいてもよい。また、撮像光学系102は、ズームレンズを含んでいてもよい。 The imaging optical system 102 includes a lens and a diaphragm, and causes a light beam from a subject (not shown) to enter the imaging element 202 of the main body 200. The lens of the imaging optical system 102 may include a focus lens. The imaging optical system 102 may include a zoom lens.
駆動部104は、撮像光学系102のレンズ及び絞りを駆動するためのモータ等の駆動機構を有する。駆動部104は、レンズ制御部108の制御の下、撮像光学系102のレンズ及び絞りを駆動する。 The driving unit 104 includes a driving mechanism such as a motor for driving the lens and the diaphragm of the imaging optical system 102. The driving unit 104 drives the lens and the diaphragm of the imaging optical system 102 under the control of the lens control unit 108.
位置検出部106は、例えばエンコーダであり、撮像光学系102のフォーカスレンズの位置、ズームレンズの位置を検出する。また、位置検出部106は、撮像光学系の絞りの開口量を検出する。位置検出部106の検出結果は、レンズ制御部108によって取得される。 The position detection unit 106 is an encoder, for example, and detects the position of the focus lens and the position of the zoom lens of the imaging optical system 102. Further, the position detection unit 106 detects the aperture amount of the stop of the imaging optical system. The detection result of the position detection unit 106 is acquired by the lens control unit 108.
レンズ制御部108は、CPU及びASIC等の制御回路であり、交換レンズ100の動作を制御する。レンズ制御部108と同等の機能は、ソフトウェアによって実現されてもよいし、ハードウェアとソフトウェアの組み合わせによって実現されてもよい。 The lens control unit 108 is a control circuit such as a CPU and an ASIC, and controls the operation of the interchangeable lens 100. The function equivalent to the lens control unit 108 may be realized by software, or may be realized by a combination of hardware and software.
記録部110は、例えばフラッシュROMによって構成されている。この記録部110には、交換レンズ100の特性情報が記録されている。この特性情報は、例えば撮像光学系102の焦点距離の情報を含む。 The recording unit 110 is configured by, for example, a flash ROM. In the recording unit 110, characteristic information of the interchangeable lens 100 is recorded. This characteristic information includes information on the focal length of the imaging optical system 102, for example.
操作部112は、フォーカスリング及びズームリングといった、ユーザが交換レンズ100に対する操作をするための操作部材を含む。操作部112の操作内容は、レンズ制御部108によって検出される。レンズ制御部108は、操作部112の操作内容に従った処理を行う。 The operation unit 112 includes operation members such as a focus ring and a zoom ring for the user to operate the interchangeable lens 100. The operation content of the operation unit 112 is detected by the lens control unit 108. The lens control unit 108 performs processing according to the operation content of the operation unit 112.
通信部114は、交換レンズ100と本体200との通信をするための交換レンズ100の側のインターフェイスである。例えば、通信部114は、電気接点を含み、交換レンズ100と本体200との間を有線接続する。前述したように、通信部114は、交換レンズ100と本体200とは無線通信によって両者の通信を行うものであってもよい。 The communication unit 114 is an interface on the interchangeable lens 100 side for communication between the interchangeable lens 100 and the main body 200. For example, the communication unit 114 includes an electrical contact and makes a wired connection between the interchangeable lens 100 and the main body 200. As described above, the communication unit 114 may perform communication between the interchangeable lens 100 and the main body 200 by wireless communication.
本体200は、撮像素子202と、記憶部204と、表示部206と、タッチパネル208と、操作部210と、記録部212と、顔検出部214と、制御部216と、通信部218と、外部通信部220とを有している。 The main body 200 includes an image sensor 202, a storage unit 204, a display unit 206, a touch panel 208, an operation unit 210, a recording unit 212, a face detection unit 214, a control unit 216, a communication unit 218, an external device And a communication unit 220.
撮像素子202は、例えばCMOSイメージセンサ又はCCDイメージセンサを含み、対象物を撮像し、対象物に係る画像データを取得する。撮像素子202は、撮影の対象物までの距離検出が可能なように位相差検出画素を含んでいてもよい。 The imaging element 202 includes, for example, a CMOS image sensor or a CCD image sensor, images an object, and acquires image data related to the object. The image sensor 202 may include a phase difference detection pixel so that the distance to the object to be photographed can be detected.
記憶部204は、例えばDRAMであり、撮像素子202で取得された画像データを一時的に記憶する。この他、記憶部204は、制御部216における各種の処理結果を一時的に記憶する。 The storage unit 204 is, for example, a DRAM, and temporarily stores image data acquired by the image sensor 202. In addition, the storage unit 204 temporarily stores various processing results in the control unit 216.
表示部206は、例えば液晶ディスプレイや有機ELディスプレイであり、各種の画像を表示する。 The display unit 206 is a liquid crystal display or an organic EL display, for example, and displays various images.
タッチパネル208は、例えば表示部206の表示画面に重ねて配置されている。このタッチパネル208は、ユーザの表示画面上でのタッチ操作を検出する。ここで、タッチパネル208は、ユーザの表示画面上でのタッチ操作として、タッチされた座標を検出するだけでなく、タッチの強さを検出できるように構成されていてもよい。また、タッチパネル208は、必ずしも表示部206の表示画面に重ねて配置されていなくてもよい。 The touch panel 208 is disposed so as to overlap the display screen of the display unit 206, for example. This touch panel 208 detects a user's touch operation on the display screen. Here, the touch panel 208 may be configured not only to detect the touched coordinates but also to detect the strength of the touch as a touch operation on the display screen of the user. Further, the touch panel 208 is not necessarily arranged so as to overlap the display screen of the display unit 206.
操作部210は、タッチパネル208以外のボタン、スイッチ、ダイヤル等の操作部材を含む。操作部210には、例えば、レリーズボタン、動画ボタン、設定ボタン、選択キー、電源ボタンが含まれる。レリーズボタンは、静止画撮影の指示をするための操作部材である。動画ボタンは、動画撮影の開始又は終了を指示するための操作部材である。設定ボタンは、撮像装置1の設定画面を表示させるための操作部材である。選択キーは、例えば設定画面上での項目の選択や決定をするための操作部材である。電源ボタンは、撮像装置1の電源をオン又はオフするための操作部材である。なお、タッチパネル208によって前述したレリーズボタン、動画ボタン、設定ボタン、選択キー、電源ボタンと同等の操作ができるように構成されていてもよい。さらに、操作部210は、前述した以外の他の操作部材を有していてもよい。 The operation unit 210 includes operation members such as buttons, switches, and dials other than the touch panel 208. The operation unit 210 includes, for example, a release button, a moving image button, a setting button, a selection key, and a power button. The release button is an operation member for instructing still image shooting. The moving image button is an operation member for instructing the start or end of moving image shooting. The setting button is an operation member for displaying a setting screen of the imaging apparatus 1. The selection key is an operation member for selecting and determining an item on the setting screen, for example. The power button is an operation member for turning on or off the power of the imaging apparatus 1. Note that the touch panel 208 may be configured to perform operations equivalent to the release button, moving image button, setting button, selection key, and power button described above. Furthermore, the operation unit 210 may have other operation members other than those described above.
記録部212は、例えばフラッシュROMで構成されている。記録部212には、制御部216で生成される画像ファイルが記録される。また、記録部212には、本体200の制御のために用いられる各種のプログラム及び設定値が記録されていてもよい。 The recording unit 212 is configured by a flash ROM, for example. An image file generated by the control unit 216 is recorded in the recording unit 212. The recording unit 212 may record various programs and setting values used for controlling the main body 200.
顔検出部214は、画像データから人物の顔を検出する。顔の検出手法としては、例えばテンプレートマッチングが用いられる。ただし、本実施形態においては顔の検出手法は特に限定されない。また、顔検出部214は、人物の顔の表情等を検出できるように構成されていてもよい。さらに、顔検出部214は、人物の顔以外も検出できるように構成されていてもよい。 The face detection unit 214 detects a human face from the image data. For example, template matching is used as the face detection method. However, the face detection method is not particularly limited in the present embodiment. The face detection unit 214 may be configured to detect a facial expression of a person. Furthermore, the face detection unit 214 may be configured to detect other than a human face.
制御部216は、CPU及びASIC等の制御回路であり、本体200の動作を統括的に制御する。制御部216は、撮像制御部2161と、表示制御部2162と、輪郭検出部2163と、合成比マップ生成部2164と、画像処理部2165とを有している。制御部216の各ブロックの機能は、ソフトウェアによって実現されてもよいし、ハードウェアとソフトウェアの組み合わせによって実現されてもよい。また、制御部216の一部のブロックの機能は、制御部216と別個に設けられていてもよい。 The control unit 216 is a control circuit such as a CPU and an ASIC, and comprehensively controls the operation of the main body 200. The control unit 216 includes an imaging control unit 2161, a display control unit 2162, a contour detection unit 2163, a composition ratio map generation unit 2164, and an image processing unit 2165. The function of each block of the control unit 216 may be realized by software, or may be realized by a combination of hardware and software. The functions of some blocks of the control unit 216 may be provided separately from the control unit 216.
撮像制御部2161は、撮像素子202による撮像(露出)動作を制御する。撮像制御部2161は、例えば撮像素子202の露出時間を制御する。また、撮像制御部2161は、撮像光学系102の絞りの開口量を制御する。後で詳しく説明するが、HDR処理の際に、撮像制御部2161は、異なる露出値で撮像素子202による複数回の撮像が行われるように撮像素子202を制御する。 The imaging control unit 2161 controls the imaging (exposure) operation by the imaging element 202. The imaging control unit 2161 controls the exposure time of the imaging element 202, for example. Further, the imaging control unit 2161 controls the aperture amount of the diaphragm of the imaging optical system 102. As will be described in detail later, during the HDR process, the imaging control unit 2161 controls the imaging device 202 so that imaging with the imaging device 202 is performed a plurality of times with different exposure values.
表示制御部2162は、表示部206に各種の画像を表示する際の制御をする。例えば、表示制御部2162は、記録部212に記録されている画像ファイルを読み出して表示部206に再生する。 A display control unit 2162 performs control when displaying various images on the display unit 206. For example, the display control unit 2162 reads out the image file recorded in the recording unit 212 and reproduces it on the display unit 206.
輪郭検出部2163は、例えばハイパスフィルタ(HPF)処理によって画像データから輪郭を検出する。輪郭は、例えば後で説明するマスクパターンを特定するために用いられる。 The contour detection unit 2163 detects the contour from the image data by, for example, high-pass filter (HPF) processing. The contour is used, for example, to specify a mask pattern described later.
合成比マップ生成部2164は、HDR処理のための合成比マップを生成する。合成比マップは、HDR画像を生成するための露出の異なる複数の画像データの合成比を画像データの座標と対応づけて記録したマップである。HDR処理の際には、合成比マップに従って画像データの合成が行われる。詳細については後で説明する。 The composite ratio map generation unit 2164 generates a composite ratio map for HDR processing. The composition ratio map is a map in which a composition ratio of a plurality of image data with different exposures for generating an HDR image is recorded in association with the coordinates of the image data. In HDR processing, image data is synthesized according to a synthesis ratio map. Details will be described later.
画像処理部2165は、画像データに対して各種の画像処理を施す。この画像処理は、ホワイトバランス補正、色補正といった画像データを表示や記録に用いるための基本的な画像処理を含む。さらに、本実施形態においては、画像処理は、HDR処理を含む。前述したように、本実施形態におけるHDR処理は、合成比マップに従って行われる。 The image processing unit 2165 performs various types of image processing on the image data. This image processing includes basic image processing for using image data such as white balance correction and color correction for display and recording. Furthermore, in the present embodiment, the image processing includes HDR processing. As described above, the HDR processing in this embodiment is performed according to the synthesis ratio map.
通信部218は、交換レンズ100と本体200との通信をするための本体200の側のインターフェイスである。例えば、通信部218は、電気接点を含み、交換レンズ100と本体200との間を有線接続する。前述したように、通信部218は、交換レンズ100と本体200との通信は無線通信によって行うものであってもよい。 The communication unit 218 is an interface on the main body 200 side for communicating between the interchangeable lens 100 and the main body 200. For example, the communication unit 218 includes an electrical contact and makes a wired connection between the interchangeable lens 100 and the main body 200. As described above, the communication unit 218 may perform communication between the interchangeable lens 100 and the main body 200 by wireless communication.
外部通信部220は、撮像装置1の外部機器と通信するための本体200の側のインターフェイスである。外部通信部220は、例えば無線通信によって外部機器と通信する。 The external communication unit 220 is an interface on the main body 200 side for communicating with an external device of the imaging apparatus 1. The external communication unit 220 communicates with an external device by wireless communication, for example.
以下、本実施形態の撮像装置1の動作について説明する。図2A、図2B、図2Cは、撮像装置1の基本的な動作を示すフローチャートである。図2A−図2Cのフローチャートの動作は、本体200の制御部216によって制御される。 Hereinafter, the operation of the imaging apparatus 1 of the present embodiment will be described. 2A, 2B, and 2C are flowcharts showing the basic operation of the imaging apparatus 1. FIG. 2A to 2C are controlled by the control unit 216 of the main body 200.
ステップS1において、制御部216は、現在の撮像装置1の動作モードが撮影モードであるか否かを判定する。撮像装置1は、動作モードとして撮影モードと、再生モードと、通信モードとを有している。撮影モードは、静止画又は動画を記録する処理を行う動作モードである。再生モードは、記録部212に記録されている画像ファイルを表示部206に再生する処理を行う動作モードである。通信モードは、記録部212に記録されている画像ファイルを外部機器に送信したり、外部機器から画像ファイルを受信したりといった通信を行うためのモードである。動作モードは、例えばユーザによるタッチパネル208の操作よって設定される。ステップS1において、現在の撮像装置1の動作モードが撮影モードであると判定されたときには、処理はステップS2に移行する。ステップS1において、現在の撮像装置1の動作モードが撮影モードでないと判定されたときには、処理はステップS28に移行する。 In step S1, the control unit 216 determines whether or not the current operation mode of the imaging device 1 is the shooting mode. The imaging apparatus 1 has a shooting mode, a playback mode, and a communication mode as operation modes. The shooting mode is an operation mode for performing processing for recording a still image or a moving image. The reproduction mode is an operation mode for performing processing for reproducing the image file recorded in the recording unit 212 on the display unit 206. The communication mode is a mode for performing communication such as transmitting an image file recorded in the recording unit 212 to an external device or receiving an image file from the external device. The operation mode is set, for example, by the user operating the touch panel 208. If it is determined in step S1 that the current operation mode of the imaging apparatus 1 is the shooting mode, the process proceeds to step S2. If it is determined in step S1 that the current operation mode of the imaging apparatus 1 is not the shooting mode, the process proceeds to step S28.
ステップS2において、制御部216は、交換レンズ100が交換されたか否かを判定する。ステップS2において、交換レンズ100が交換されたと判定されたときには、処理はステップS3に移行する。ステップS2において、交換レンズ100が交換されていないと判定されたときには、処理はステップS4に移行する。 In step S2, the control unit 216 determines whether or not the interchangeable lens 100 has been replaced. If it is determined in step S2 that the interchangeable lens 100 has been replaced, the process proceeds to step S3. If it is determined in step S2 that the interchangeable lens 100 has not been replaced, the process proceeds to step S4.
ステップS3において、制御部216は、通信部218を介して交換レンズ100のレンズ制御部108と通信を行い、記録部110に記録されている特性情報を取得する。その後、処理はステップS4に移行する。これ以降、制御部216は、取得した特性情報を必要に応じて参照する。 In step S <b> 3, the control unit 216 communicates with the lens control unit 108 of the interchangeable lens 100 via the communication unit 218 and acquires characteristic information recorded in the recording unit 110. Thereafter, the process proceeds to step S4. Thereafter, the control unit 216 refers to the acquired characteristic information as necessary.
ステップS4において、制御部216は、スルー画表示のための撮像動作を開始させる。スルー画表示のための撮像動作として、制御部216は、撮像素子202による撮像動作を所定のフレームレートで実行させる。このとき、制御部216は、顔が検出されているときには、顔の露出値が予め定められた基準値となるように撮像素子202の撮像動作を制御する。また、顔が検出されていないときには、制御部216は、画面中央部の露出値が基準値となるように撮像素子202の撮像動作を制御する。この他、制御部216は、画面全体の露出値の平均値が基準値となるように撮像素子202の撮像動作を制御するように構成されていてもよい。 In step S4, the control unit 216 starts an imaging operation for displaying a through image. As an imaging operation for displaying a through image, the control unit 216 causes the imaging device 202 to perform an imaging operation at a predetermined frame rate. At this time, when a face is detected, the control unit 216 controls the imaging operation of the image sensor 202 so that the exposure value of the face becomes a predetermined reference value. When the face is not detected, the control unit 216 controls the imaging operation of the imaging element 202 so that the exposure value at the center of the screen becomes the reference value. In addition, the control unit 216 may be configured to control the imaging operation of the imaging device 202 so that the average value of the exposure values of the entire screen becomes the reference value.
ステップS5において、制御部216は、撮像素子202の撮像動作によって逐次に得られる画像データに基づく画像をリアルタイムで表示部206に表示させることでスルー画表示を行う。 In step S <b> 5, the control unit 216 performs live view display by causing the display unit 206 to display an image based on image data sequentially obtained by the imaging operation of the image sensor 202 on the display unit 206.
ステップS6において、制御部216は、現在の撮影モードがHDR撮影モードであるか否かを判定する。撮像装置1は、撮影モードとして通常撮影モードとHDR撮影モードとを有している。通常撮影モードは、HDR処理を伴わない撮影モードである。HDR撮影モードは、HDR処理を伴う撮影モードである。なお、前述したように、本実施形態におけるHDR処理は、合成比マップに従って露出の異なる複数の画像データを合成する処理である。撮影モードは、例えばユーザによるタッチパネル208の操作よって設定される。ステップS6において、現在の撮影モードがHDR撮影モードであると判定されたときには、処理はステップS7に移行する。ステップS6において、現在の撮影モードがHDR撮影モードでないと判定されたときには、処理はステップS14に移行する。 In step S6, the control unit 216 determines whether or not the current shooting mode is the HDR shooting mode. The imaging apparatus 1 has a normal shooting mode and an HDR shooting mode as shooting modes. The normal shooting mode is a shooting mode that does not involve HDR processing. The HDR shooting mode is a shooting mode that involves HDR processing. As described above, the HDR processing in the present embodiment is processing for combining a plurality of image data with different exposures according to the combination ratio map. The shooting mode is set by, for example, a user operating the touch panel 208. If it is determined in step S6 that the current shooting mode is the HDR shooting mode, the process proceeds to step S7. If it is determined in step S6 that the current shooting mode is not the HDR shooting mode, the process proceeds to step S14.
ステップS7において、制御部216は、タッチパネル208の出力からユーザによる画面タッチ操作が検出されたか否かを判定する。ステップS7において、画面タッチ操作が検出されたと判定されたときには、処理はステップS8に移行する。ステップS7において、画面タッチ操作が検出されていないと判定されたときには、処理はステップS9に移行する。 In step S <b> 7, the control unit 216 determines whether a screen touch operation by the user is detected from the output of the touch panel 208. If it is determined in step S7 that a screen touch operation has been detected, the process proceeds to step S8. If it is determined in step S7 that no screen touch operation has been detected, the process proceeds to step S9.
ステップS8において、制御部216は、タッチパネル208の出力に応じて合成比マップを生成する。その後、処理はステップS9に移行する。ここで、合成比マップの生成処理について説明する。図3は、本実施形態における合成比マップの生成処理について示すフローチャートである。 In step S <b> 8, the control unit 216 generates a synthesis ratio map according to the output of the touch panel 208. Thereafter, the process proceeds to step S9. Here, the composition ratio map generation processing will be described. FIG. 3 is a flowchart showing the composition ratio map generation processing in this embodiment.
ステップS101において、制御部216は、現在の合成比マップの生成モードが焼き込みモードであるか否かを判定する。本実施形態においては、制御部216は、合成比マップの生成モードとして焼き込みモードと、覆い焼きモードと、グラデーションモードとを有している。焼き込みモードは、ユーザによって指定された部分の露出を変えるようにHDR処理を行うモードである。覆い焼きモードは、ユーザによって指定された部分以外の露出を変えるようにHDR処理を行うモードである。焼き込みモード及び覆い焼きモードは、フィルム写真における焼き込み及び覆い焼きと同様の表現を画像処理によって実現するためのモードである。一方、グラデーションモードは、ユーザによって指定された方向に向けて露出を徐々に変えるようにHDR処理を行うモードである。合成比マップの生成モードは、例えばユーザによるタッチパネル208の操作よって設定される。他にも、スイッチやダイヤルで設定する方法もあるが、ユーザの操作履歴を記録しておいて嗜好を参考にしたり、シーン解析で一般的に行われる方を優先するようにしたりして、特定の判断プログラムに応じて判定するようにしてもよい。ステップS101において、現在の合成比マップの生成モードが焼き込みモードであると判定されたときには、処理はステップS102に移行する。ステップS101において、現在の合成比マップの生成モードが焼き込みモードでないと判定されたときには、処理はステップS107に移行する。 In step S101, the control unit 216 determines whether or not the current composition ratio map generation mode is the burn-in mode. In the present embodiment, the control unit 216 has a burning mode, a dodging mode, and a gradation mode as the synthesis ratio map generation mode. The burn-in mode is a mode in which HDR processing is performed so as to change the exposure of a portion designated by the user. The dodging mode is a mode in which HDR processing is performed so as to change exposure other than the portion designated by the user. The burn-in mode and the dodging mode are modes for realizing the same expression as the burn-in and dodging in a film photograph by image processing. On the other hand, the gradation mode is a mode in which the HDR process is performed so that the exposure is gradually changed in the direction specified by the user. The generation ratio map generation mode is set, for example, by the user operating the touch panel 208. There are other methods of setting with switches and dials, but the user's operation history is recorded and the preference is used as a reference, and priority is given to those generally used in scene analysis. The determination may be made according to the determination program. If it is determined in step S101 that the current composition ratio map generation mode is the burn-in mode, the process proceeds to step S102. If it is determined in step S101 that the current composition ratio map generation mode is not the burn-in mode, the process proceeds to step S107.
ステップS102において、制御部216は、タッチされている座標に対するタッチ時間を取得する。なお、制御部216は、タッチ時間の代わりに、タッチ強さ、タッチ回数等を取得するように構成されていてもよい。このようなタッチ操作であれば、タッチの変化やタッチのバリエーションに応じて、座標的にも、合成する画像の画質的にも、直感的かつ、感覚的な多様なアナログ的な変更を行うことができる。これにより、一律なHDR処理技術とは一線を画した制御を行うことができる。つまり、従来のHDR処理技術では、画面全体に予め決められた合成が行われる場合が多く、ユーザのこだわりの絵作りには十分対応できなかった。 In step S102, the control unit 216 acquires the touch time for the touched coordinates. Note that the control unit 216 may be configured to acquire the touch strength, the number of touches, and the like instead of the touch time. With such touch operations, various intuitive and sensual analog changes can be made both in terms of coordinates and in terms of image quality of the image to be synthesized, depending on touch changes and touch variations. Can do. As a result, it is possible to perform control that is completely different from the uniform HDR processing technology. In other words, the conventional HDR processing technique often performs predetermined synthesis on the entire screen, and cannot sufficiently cope with the user's particular picture creation.
ステップS103において、制御部216は、タッチされている座標における合成比を設定する。その後、処理はステップS104に移行する。図4は、焼き込みモードにおける合成比の設定について示した図である。図4においては、暗い部分ほど、合成比が大きいことを示している。図4に示すように、合成比は、タッチ時間に比例するように設定される。すなわち、タッチ時間は長くなるほどに合成比は大きくなる。このような制御が可能となることから、座標的にも合成の比率的にも制御を行っていくことができる。さらにずっとタッチが継続されると、合成する画像の露出等までを変更することもできる。このとき、後のHDR処理において得られるHDR画像のタッチされている座標における、顔部や中央部以外に露出が合わせられた画像データの合成される割合が大きくなる。なお、合成比は、例えば初期値が0で、0から1の値をとるものとする。そして、設定された合成比は、リセットされるまでは保持される。したがって、焼き込みモードにおいては、タッチされた座標の合成比だけが0よりも大きい値を持ち、それ以外の座標の合成比は0である合成比マップが生成される。このようにして生成された合成比マップは例えば記憶部204に記憶される。 In step S103, the control unit 216 sets the composition ratio at the touched coordinates. Thereafter, the process proceeds to step S104. FIG. 4 is a diagram showing the setting of the composition ratio in the burn-in mode. FIG. 4 shows that the darker portion has a higher synthesis ratio. As shown in FIG. 4, the composition ratio is set to be proportional to the touch time. That is, the longer the touch time, the greater the synthesis ratio. Since such control is possible, control can be performed both in terms of coordinates and composition ratio. If the touch continues further, it is possible to change the exposure of the image to be synthesized. At this time, in the touched coordinates of the HDR image obtained in the subsequent HDR processing, the ratio of the image data whose exposure is adjusted other than the face portion and the central portion is increased. The synthesis ratio is assumed to have an initial value of 0 and a value from 0 to 1, for example. The set synthesis ratio is held until it is reset. Therefore, in the burn-in mode, a composite ratio map is generated in which only the composite ratio of touched coordinates has a value larger than 0, and the composite ratio of other coordinates is 0. The composite ratio map generated in this way is stored in the storage unit 204, for example.
また、合成比は、タッチ時間ではなく、タッチ強さ又はタッチ回数に比例するように設定されてもよいし、タッチ時間、タッチ強さ、タッチ回数に比例しないように設定されてもよい。例えば、タッチの初期においては合成比の変化量を小さくし、タッチ時間が長くなるにつれて合成比の変化量を大きくするように設定されてもよい。 Further, the composition ratio may be set so as not to be proportional to the touch strength or the number of touches, but to the touch strength or the number of touches, or not to be proportional to the touch time, the touch strength, or the number of touches. For example, the amount of change in the composition ratio may be set to be small at the initial stage of touch, and the amount of change in the composition ratio may be increased as the touch time increases.
ステップS104において、制御部216は、合成比が限界であるか否かを判定する。合成比が0から1の値をとるものとしたとき、合成比が1を超える時間までタッチがされていたときには、合成比が限界であると判定される。ステップS104において、合成比が限界であると判定されたときには、処理はステップS105に移行する。ステップS104において、合成比が限界でないと判定されたときには、処理はステップS106に移行する。 In step S104, the control unit 216 determines whether or not the combination ratio is a limit. Assuming that the composition ratio takes a value from 0 to 1, if the touch has been made until the time when the composition ratio exceeds 1, the composition ratio is determined to be the limit. If it is determined in step S104 that the synthesis ratio is the limit, the process proceeds to step S105. If it is determined in step S104 that the composite ratio is not the limit, the process proceeds to step S106.
ステップS105において、制御部216は、これ以上のタッチをしてもタッチしている座標の明るさが変わらないことをユーザに対して警告する。その後、処理はステップS106に移行する。ステップS105における警告は、例えば表示部206にメッセージを表示することで行われる。この他、ステップS105における警告は、音声等で行われてもよい。 In step S105, the control unit 216 warns the user that the brightness of the touched coordinate does not change even if the touch is further performed. Thereafter, the process proceeds to step S106. The warning in step S105 is performed by displaying a message on the display unit 206, for example. In addition, the warning in step S105 may be performed by voice or the like.
ステップS106において、制御部216は、ユーザによるタッチが終了されたか否かを判定する。例えば、ユーザの指がタッチパネル208から離れた状態であることが検出されたときユーザによるタッチが終了されたと判定される。一方、ユーザの指がタッチパネル208から離れておらずに座標だけが変わったときには(ユーザの指がタッチパネル208の上をスライド等しているときには)、ユーザによるタッチが終了されていないと判定される。ステップS106において、ユーザによるタッチが終了されていないと判定されたときには、処理はステップS101に戻る。この場合、現在の座標において合成比が再設定される。ステップS106において、ユーザによるタッチが終了されたと判定されたときには、図3の処理は終了する。 In step S106, the control unit 216 determines whether or not the touch by the user has been terminated. For example, when it is detected that the user's finger is away from the touch panel 208, it is determined that the touch by the user is finished. On the other hand, when the user's finger is not separated from the touch panel 208 and only the coordinates are changed (when the user's finger slides on the touch panel 208 or the like), it is determined that the user's touch is not finished. . If it is determined in step S106 that the touch by the user has not been completed, the process returns to step S101. In this case, the composition ratio is reset at the current coordinates. If it is determined in step S106 that the touch by the user has been completed, the processing in FIG. 3 ends.
ステップS101において現在の合成比マップの生成モードが焼き込みモードでないと判定されたときのステップS107において、制御部216は、現在の合成比マップの生成モードが覆い焼きモードであるか否かを判定する。ステップS107において、現在の合成比マップの生成モードが覆い焼きモードであると判定されたときには、処理はステップS108に移行する。ステップS107において、現在の合成比マップの生成モードが覆い焼きモードでないと判定されたときには、処理はステップS110に移行する。 In step S107 when it is determined in step S101 that the current composite ratio map generation mode is not the burn-in mode, the control unit 216 determines whether or not the current composite ratio map generation mode is the dodging mode. To do. If it is determined in step S107 that the current composition ratio map generation mode is the dodging mode, the process proceeds to step S108. If it is determined in step S107 that the current composition ratio map generation mode is not the dodging mode, the process proceeds to step S110.
ステップS108において、制御部216は、タッチされている座標に対するタッチ時間を取得する。なお、制御部216は、タッチ時間の代わりに、タッチ強さ、タッチ回数等を取得するように構成されていてもよい。 In step S108, the control unit 216 acquires the touch time for the touched coordinates. Note that the control unit 216 may be configured to acquire the touch strength, the number of touches, and the like instead of the touch time.
ステップS109において、制御部216は、タッチされている座標以外の座標における合成比を設定する。その後、処理はステップS104に移行する。焼き込みモードのときと同様、覆い焼きモードにおいても、合成比は、タッチ時間に比例するように設定される。ただし、焼き込みモードのときは、タッチされている座標だけの合成比を設定するのに対し、覆い焼きモードのときは、タッチされている座標以外の座標の合成比を設定する点が異なる。なお、焼き込みモードのときと同様、覆い焼きモードにおいても、合成比は、例えば初期値が0で、0から1の値をとるものとする。そして、設定された合成比は、リセットされるまでは保持される。したがって、覆い焼きモードにおいては、タッチされた座標の合成比だけが0であり、それ以外の座標の合成比は0よりも大きい値を有する合成比マップが生成される。このようにして生成された合成比マップは例えば記憶部204に記憶される。このような制御が可能となることから、座標的にも合成の比率的にも制御を行っていくことができる。さらにずっとタッチ操作が継続されると、合成する画像の露出等までを変更することも可能である。例えば、基準画像との露出差をタッチの時間を含むタッチパターンで変更すればよい。近年では、タッチパネルの接触前からの情報が得られるパネルもあり、こうしたパネル上の空中での指の動きなどを反映させてもよい。つまり、このような工夫、改良が出来る点が本願の特徴であって、タッチパネルを有する画像関連機器には広く応用できる。当該タッチパネルの操作の位置とタッチパターンによって、第1の画像データの座標毎にHDR処理の際の合成比又はHDR処理時の合成画像の露出差を対応付けた合成比マップを生成する合成比マップ生成部と、第1の画像データと前述の露出差の第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行う画像処理部とを具備する画像処理装置とすることによって、これまでの一様なHDR処理とは異なる、ユーザの嗜好を反映した絵作りがなされた画像を取得することができる。 In step S109, the control unit 216 sets a composition ratio in coordinates other than the touched coordinates. Thereafter, the process proceeds to step S104. As in the burn-in mode, in the dodging mode, the composition ratio is set to be proportional to the touch time. However, in the burn-in mode, the composition ratio of only the touched coordinates is set, whereas in the dodging mode, the composition ratio of coordinates other than the touched coordinates is set. Note that, as in the burn-in mode, in the dodging mode, the synthesis ratio is assumed to be 0 to 1 with an initial value of 0, for example. The set synthesis ratio is held until it is reset. Therefore, in the dodging mode, only the composite ratio of the touched coordinates is 0, and a composite ratio map is generated in which the composite ratio of the other coordinates is greater than zero. The composite ratio map generated in this way is stored in the storage unit 204, for example. Since such control is possible, control can be performed both in terms of coordinates and composition ratio. Furthermore, if the touch operation is continued for a long time, it is possible to change the exposure of the image to be synthesized. For example, the exposure difference from the reference image may be changed with a touch pattern including a touch time. In recent years, there is a panel that can obtain information from before touching the touch panel, and the movement of a finger in the air on the panel may be reflected. That is, the feature of the present application is that such a device can be improved and applied widely to image-related devices having a touch panel. A composite ratio map that generates a composite ratio map in which the composite ratio at the time of HDR processing or the exposure difference of the composite image at the time of HDR processing is associated with the coordinates of the operation of the touch panel and the coordinates of the first image data By providing an image processing apparatus comprising: a generation unit; and an image processing unit that performs HDR processing for combining the first image data and the second image data of the exposure difference described above for each coordinate according to the combination ratio map. Different from conventional uniform HDR processing, it is possible to acquire an image that has been created to reflect the user's preference.
ステップS107において現在の合成比マップの生成モードが覆い焼きモードでないと判定されたときのステップS110において、制御部216は、現在の合成比マップの生成モードがグラデーションモードであるか否かを判定する。ステップS110において、現在の合成比マップの生成モードがグラデーションモードであると判定されたときには、処理はステップS111に移行する。ステップS110において、現在の合成比マップの生成モードがグラデーションモードでないと判定されたときには、処理はステップS101に戻る。 In step S110 when it is determined in step S107 that the current composition ratio map generation mode is not the dodging mode, the control unit 216 determines whether or not the current composition ratio map generation mode is the gradation mode. . If it is determined in step S110 that the current composition ratio map generation mode is the gradation mode, the process proceeds to step S111. If it is determined in step S110 that the current composition ratio map generation mode is not the gradation mode, the process returns to step S101.
ステップS111において、制御部216は、ユーザによるタッチが終了されたか否かを判定する。ステップS111における判定は、ステップS106における判定と同様に行われる。ステップS111において、ユーザによるタッチが終了されていないと判定されたときには、処理はステップS110に戻る。ステップS111において、ユーザによるタッチが終了されたと判定されたときには、処理はステップS112に移行する。 In step S111, the control unit 216 determines whether or not the touch by the user is finished. The determination in step S111 is performed similarly to the determination in step S106. If it is determined in step S111 that the touch by the user has not been completed, the process returns to step S110. If it is determined in step S111 that the touch by the user has been completed, the process proceeds to step S112.
ステップS112において、制御部216は、タッチの開始座標と終了座標とを含む領域においてグラデーションを有する合成比を算出する。生成された合成比マップは例えば記憶部204に記憶される。その後、図3の処理は終了する。 In step S <b> 112, the control unit 216 calculates a composition ratio having gradation in an area including the touch start coordinates and the end coordinates. The generated combination ratio map is stored in the storage unit 204, for example. Thereafter, the process of FIG. 3 ends.
図5Aは、グラデーションモードにおける合成比の設定の第1の例について示した図である。ここで、図5Aの矢印Aは、タッチパネル208の上でのユーザの指の動きを示している。すなわち、図5Aにおいて、ユーザの指はタッチパネル208の中央部から右方向に向けてスライドしている。グラデーションモードでは、ユーザの指のタッチの始点の座標と終点の座標とを含む矩形の領域Rに対して合成比が設定される。図5Aでは、領域Rの水平方向の長さはタッチの始点の座標と終点の座標であり、垂直方向の長さはタッチパネル208の垂直方向の長さ(すなわち表示部206の画面の垂直方向の長さ)と一致している。領域Rの垂直方向の長さはタッチパネル208の垂直方向の長さと一致させる必要はない。 FIG. 5A is a diagram showing a first example of setting of the composition ratio in the gradation mode. Here, an arrow A in FIG. 5A indicates the movement of the user's finger on the touch panel 208. That is, in FIG. 5A, the user's finger slides in the right direction from the center of the touch panel 208. In the gradation mode, the composition ratio is set for a rectangular region R including the coordinates of the start point and end point of the touch of the user's finger. In FIG. 5A, the horizontal length of the region R is the coordinates of the start point and the end point of the touch, and the vertical length is the vertical length of the touch panel 208 (that is, the vertical direction of the screen of the display unit 206). Length). The vertical length of the region R does not need to match the vertical length of the touch panel 208.
第1の例においては、合成比は、始点の座標で0になり、始点の座標から終点の座標に向けて徐々に大きくなって終点の座標で1になるように設定される。始点の座標と終点の座標との間の合成比の階調数は例えば256階調である。この場合、始点の座標から終点の座標にかけて合成比が256段階で変化する。 In the first example, the composition ratio is set to 0 at the coordinates of the starting point, gradually increasing from the coordinates of the starting point toward the coordinates of the ending point, and to 1 at the coordinates of the ending point. The number of gradations of the synthesis ratio between the start point coordinates and the end point coordinates is, for example, 256 gradations. In this case, the composition ratio changes in 256 steps from the start point coordinates to the end point coordinates.
図5Bは、グラデーションモードにおける合成比の設定の第2の例について示した図である。ここで、図5Bの矢印Bは、タッチパネル208の上でのユーザの指の動きを示している。すなわち、図5Bにおいて、ユーザの指はタッチパネル208の左端中央部から上下に動きながらタッチパネル208の右端中央部までスライドしている。 FIG. 5B is a diagram showing a second example of setting the composition ratio in the gradation mode. Here, an arrow B in FIG. 5B indicates the movement of the user's finger on the touch panel 208. That is, in FIG. 5B, the user's finger slides up and down from the center of the left end of the touch panel 208 to the center of the right end of the touch panel 208.
第2の例においては、合成比は、垂直方向の位置に応じて設定される。すなわち、合成比は、タッチされた座標がタッチパネルの下方になるほどに0に近づき、上方になるほどに1に近づくように設定される。この場合も指の動きに伴ってグラデーションを有する合成比が設定される。 In the second example, the composition ratio is set according to the position in the vertical direction. In other words, the composition ratio is set so that the touched coordinate approaches 0 as it goes down the touch panel, and approaches 1 as it goes up. Also in this case, a composition ratio having gradation is set with the movement of the finger.
なお、合成比マップが生成された後、再度の合成比マップの生成処理が行われた場合には、前回の合成比マップをリセットしてから合成比マップを生成するようにしてもよいし、前回の合成比マップに重ねる形で合成比マップを生成するようにしてもよい。また、合成比マップの生成手法は、前述した手法に限るものではない。すなわち、合成比マップは、焼き込みモード、覆い焼きモード、グラデーションモード以外の各種の手法によって生成され得る。 In addition, after the composition ratio map is generated, when the composition ratio map is generated again, the composition ratio map may be generated after resetting the previous composition ratio map. The composite ratio map may be generated so as to overlap the previous composite ratio map. Further, the method for generating the composition ratio map is not limited to the method described above. That is, the composite ratio map can be generated by various methods other than the burn mode, the dodge mode, and the gradation mode.
ここで、図2A−図2Cの説明に戻る。合成比マップ生成処理の後のステップS9において、制御部216は、HDR処理のための撮像動作を開始させる。その後、処理はステップS10に移行する。ステップS9の撮像動作として、制御部216は、例えばスルー画表示のための撮像動作に対して予め定められた段数だけ低い又は高い露出値(例えば基準値に対して+3段又は−3段)となるように撮像素子202の撮像動作を制御する。なお、低い露出値と高い露出値の何れで撮像動作を行うかは例えばユーザによって予め設定される。 Here, it returns to description of FIG. 2A-FIG. 2C. In step S9 after the synthesis ratio map generation process, the control unit 216 starts an imaging operation for the HDR process. Thereafter, the process proceeds to step S10. As the imaging operation in step S9, the control unit 216 sets the exposure value lower or higher by a predetermined number of steps than the imaging operation for displaying a through image (for example, +3 steps or −3 steps with respect to the reference value). The imaging operation of the imaging device 202 is controlled so that Note that whether the image capturing operation is performed with a low exposure value or a high exposure value is set in advance by the user, for example.
また、ステップS9の撮像動作として、制御部216は、例えばユーザによって合成比マップの生成開始時点でタッチされた画像データ上の座標(すなわち最初にタッチされた座標)の露出値が予め定められた基準値となるように2回目の撮像素子202の撮像動作を制御するように構成されていてもよい。さらに、HDR処理のための撮像動作は2回以上行われてもよい。例えば、制御部216は、スルー画表示のための撮像動作に対して予め定められた段数だけ低い露出値の撮像動作(例えば基準値に対して−3段)と高い露出値の撮像動作(例えば基準値に対して+3段)とを制御するように構成されていてもよい。この場合、3枚の画像データを用いてHDR処理が行われる。なお、3枚の画像データを用いてHDR処理を行うように構成されているときには、1枚目の画像データと2枚目の画像データとの合成に用いられる合成比マップに対して1枚目の画像データと2枚目の画像データとの合成結果と3枚目の画像データとの合成に用いられる合成比マップを変えることができるように構成されていてもよい。 In addition, as the imaging operation in step S9, the control unit 216, for example, has predetermined exposure values of coordinates on the image data touched by the user at the start of generation of the composite ratio map (that is, the coordinates touched first). The imaging operation of the second imaging element 202 may be controlled so as to be the reference value. Furthermore, the imaging operation for HDR processing may be performed twice or more. For example, the control unit 216 performs an imaging operation with an exposure value that is lower by a predetermined number of stages than an imaging operation for displaying a through image (for example, −3 stages with respect to a reference value) and an imaging operation with a high exposure value (for example, It may be configured to control +3 steps) with respect to the reference value. In this case, HDR processing is performed using three pieces of image data. Note that when the HDR processing is performed using three pieces of image data, the first piece is compared with the combination ratio map used for the combination of the first piece of image data and the second piece of image data. The combination ratio map used for combining the result of combining the second image data with the second image data and the third image data may be changed.
ステップS10において、制御部216は、HDR処理を行う。その後、処理はステップS11に移行する。ステップS10において、合成比マップが生成されていないときには、制御部216は、通常のHDR処理を行う。通常のHDR処理として、制御部216は、例えばスルー画表示のための撮像動作で得られた画像データ(すなわち顔又は画面中央部が適正露出となっている画像データ)における白飛び又は黒潰れ領域にHDR処理のための撮像動作で得られた画像データを合成する。一方、ステップS10において、合成比マップが生成されているときには、制御部216は、画面タッチ操作がなされる直前のスルー画表示のための撮像動作で得られた画像データ(すなわち顔又は画面中央部が適正露出となっている画像データ)とHDR処理のための撮像動作で得られた画像データとを合成比マップに従って合成する。 In step S10, the control unit 216 performs HDR processing. Thereafter, the process proceeds to step S11. In step S10, when the composite ratio map is not generated, the control unit 216 performs a normal HDR process. As normal HDR processing, the control unit 216 performs, for example, an overexposure or underexposure region in image data (that is, image data in which the face or the center of the screen is properly exposed) obtained by an imaging operation for displaying a through image. The image data obtained by the imaging operation for HDR processing is synthesized. On the other hand, when the composite ratio map is generated in step S10, the control unit 216 displays the image data (that is, the face or the center of the screen) obtained by the imaging operation for the through image display immediately before the screen touch operation is performed. Are combined with the image data obtained by the imaging operation for the HDR processing according to the combination ratio map.
例えば、スルー画表示のための撮像動作で得られた画像データの座標(x,y)の画素の値をI1(x,y)とし、HDR処理のための撮像動作で得られた画像データの座標(x,y)の画素の値をI2(x,y)とし、座標(x,y)における合成比がa(0≦a≦1)であるとすると、座標(x,y)に合成画像データの画素の値I3(x,y)は、以下の式によって得られる。以下の処理を画像データのすべての座標に対して行うことによってHDR画像データが生成される。
I3(x,y)=(1−a)×I1(x,y)+a×I2(x,y)
For example, the value of the pixel of the coordinate (x, y) of the image data obtained by the imaging operation for displaying a through image is I1 (x, y), and the image data obtained by the imaging operation for HDR processing is Assuming that the pixel value at the coordinates (x, y) is I2 (x, y) and the composition ratio at the coordinates (x, y) is a (0 ≦ a ≦ 1), the composition is performed at the coordinates (x, y). The pixel value I3 (x, y) of the image data is obtained by the following equation. HDR image data is generated by performing the following processing on all coordinates of the image data.
I3 (x, y) = (1-a) * I1 (x, y) + a * I2 (x, y)
以下、具体的に本実施形態のHDR処理を説明する。例えば、ユーザは、焼き込みモードにおいて、スルー画表示されている画像I1上(実際には画像I1の各座標と対応するタッチパネル208上)を、タッチ時間を徐々に長くしながら指Fを図6の上段に示す矢印Cの方向にスライドしたとする。このときの矢印Cの方向に沿った合成比マップは、図6の下段に示すような合成比マップになる。 Hereinafter, the HDR processing of this embodiment will be specifically described. For example, in the burn-in mode, the user moves the finger F on the image I1 displayed on the through image (actually on the touch panel 208 corresponding to each coordinate of the image I1) while gradually increasing the touch time. Suppose that it slides in the direction of the arrow C shown in the upper stage. The composite ratio map along the direction of the arrow C at this time is a composite ratio map as shown in the lower part of FIG.
一方、スルー画のための撮像で得られた画像データが図7に示す画像データI1であり、その後のHDR処理のための撮像で得られた画像データが図7に示す画像データI2であるとする。なお、画像データI1は、顔に対して露出が合わせられている画像データである。このため、画像データI1においては、背景は白飛びしている。また、画像データI2は、背景に対して露出が合わせられている画像データである。このため、顔については黒潰れしている。 On the other hand, the image data obtained by imaging for the through image is the image data I1 shown in FIG. 7, and the image data obtained by imaging for the subsequent HDR processing is the image data I2 shown in FIG. To do. Note that the image data I1 is image data in which exposure is adjusted to the face. For this reason, in the image data I1, the background is white. The image data I2 is image data whose exposure is adjusted with respect to the background. For this reason, the face is crushed black.
画像データI1と画像データI2とを図6に示す合成比マップに従って合成すると図7に示すHDR画像データI3が生成される。なお、図7においては、矢印Cに沿った方向だけの合成が行われた状態のHDR画像データI3が模式的に示されている。図7に示すように、HDR画像データI3の左端の明るさは、合成が行われていないために画像データI1の明るさである。一方、HDR画像データI3の左端から右端に向かうにしたがって画像データI2の合成の割合が大きくなって、画像データI2に写っている背景が表示され始める。そして、HDR画像データI3の右端の明るさは、画像データI2の明るさになって適正な露出の背景が表示される。 When the image data I1 and the image data I2 are combined according to the combination ratio map shown in FIG. 6, HDR image data I3 shown in FIG. 7 is generated. Note that FIG. 7 schematically shows HDR image data I3 in a state where the composition is performed only in the direction along the arrow C. As shown in FIG. 7, the brightness at the left end of the HDR image data I3 is the brightness of the image data I1 because no composition is performed. On the other hand, as the HDR image data I3 moves from the left end to the right end, the proportion of the image data I2 increases and the background shown in the image data I2 starts to be displayed. Then, the brightness of the right end of the HDR image data I3 becomes the brightness of the image data I2, and a background with appropriate exposure is displayed.
なお、図では示していないが、覆い焼きモードでは、図6の矢印Cで示した部分以外の明るさが左端から右端にかけて徐々に変化するHDR画像データが生成される。グラデーションモードでは、画像全体の明るさが左端から右端にかけて徐々に変化するHDR画像データが生成される。グラデーションモードでは、所謂ハーフNDフィルタを装着して撮影が行われたのと同様の効果を画像処理によって表現することもできる。 Although not shown in the figure, in the dodging mode, HDR image data in which the brightness other than the portion indicated by the arrow C in FIG. 6 gradually changes from the left end to the right end is generated. In the gradation mode, HDR image data in which the brightness of the entire image gradually changes from the left end to the right end is generated. In the gradation mode, an effect similar to that obtained when a so-called half ND filter is mounted can be expressed by image processing.
このように本実施形態では画像データの座標毎にHDR処理の合成比を変えることができる。これにより、本実施形態では種々の表現のHDR画像データを生成することができる。このようにして本実施形態ではHDR処理の自由度を高めることができる。 As described above, in the present embodiment, the HDR processing composition ratio can be changed for each coordinate of the image data. Thereby, in this embodiment, HDR image data of various expressions can be generated. Thus, in this embodiment, the degree of freedom of HDR processing can be increased.
ここで、図2A−図2Cの説明に戻る。ステップS11において、制御部216は、HDR処理によって得られた画像データに基づくスルー画像を表示部206に表示させる。 Here, it returns to description of FIG. 2A-FIG. 2C. In step S11, the control unit 216 causes the display unit 206 to display a through image based on the image data obtained by the HDR process.
ステップS12において、制御部216は、シーン変化があったか否かを判定する。シーン変化とは、明るさの変化、コントラストの変化、被写体の変化等を含む。これらの変化が予め定めた所定値以上であるときには、シーン変化があったと判定される。ステップS12において、シーン変化があったと判定されたときには、処理はステップS13に移行する。ステップS12において、シーン変化がないと判定されたときには、処理はステップS14に移行する。 In step S12, the control unit 216 determines whether or not there is a scene change. The scene change includes a change in brightness, a change in contrast, a change in subject, and the like. When these changes are equal to or greater than a predetermined value, it is determined that a scene change has occurred. If it is determined in step S12 that there has been a scene change, the process proceeds to step S13. If it is determined in step S12 that there is no scene change, the process proceeds to step S14.
ステップS13において、制御部216は、合成比マップをリセットする。その後、処理はステップS14に移行する。シーン変化前の合成比マップに従ってHDR処理がされてしまうと、ユーザの意図とは異なった処理がなされてしまう可能性が高い。したがって、シーン変化があったときには、合成比マップをリセットしている。なお、ステップS13の処理は省略されてもよい。すなわち、シーン変化があったとしても合成比マップが保持されるようにしてもよい。 In step S13, the control unit 216 resets the composite ratio map. Thereafter, the process proceeds to step S14. If HDR processing is performed according to the composition ratio map before the scene change, there is a high possibility that processing different from the user's intention is performed. Therefore, when there is a scene change, the composition ratio map is reset. Note that the process of step S13 may be omitted. That is, even if there is a scene change, the composite ratio map may be held.
ステップS14において、制御部216は、ユーザによる撮影操作がなされたか否かを判定する。撮影操作は、例えばユーザによるレリーズボタンの操作又は動画ボタンの操作である。ステップS14において、ユーザによる撮影操作がなされたと判定されたときには、処理はステップS15に移行する。ステップS14において、ユーザによる撮影操作がなされていないと判定されたときには、処理はステップS25に移行する。 In step S14, the control unit 216 determines whether or not a shooting operation has been performed by the user. The shooting operation is, for example, a release button operation or a moving image button operation by the user. If it is determined in step S14 that the user has performed a shooting operation, the process proceeds to step S15. If it is determined in step S14 that the user has not performed a shooting operation, the process proceeds to step S25.
ステップS15において、制御部216は、現在の撮影モードがHDR撮影モードであるか否かを判定する。ステップS15において、現在の撮影モードがHDR撮影モードであると判定されたときには、処理はステップS16に移行する。ステップS15において、現在の撮影モードがHDR撮影モードでないと判定されたときには、処理はステップS26に移行する。 In step S15, the control unit 216 determines whether or not the current shooting mode is the HDR shooting mode. If it is determined in step S15 that the current shooting mode is the HDR shooting mode, the process proceeds to step S16. If it is determined in step S15 that the current shooting mode is not the HDR shooting mode, the process proceeds to step S26.
ステップS16において、制御部216は、HDR画像データの記録のための撮像動作を開始させる。その後、処理はステップS17に移行する。ステップS16の撮像動作として、制御部216は、顔又は画面中央部の露出値が予め定められた基準値となるように撮像素子202の撮像動作を制御する。その後、制御部216は、顔又は画面中央部の露出値が予め定められた基準値よりも予め定められた段数だけ低い又は高い露出値となるように撮像素子202の撮像動作を制御する。前述したように、制御部216は、3回以上の撮像動作を行うように構成されていてもよい。 In step S16, the control unit 216 starts an imaging operation for recording HDR image data. Thereafter, the process proceeds to step S17. As the imaging operation in step S <b> 16, the control unit 216 controls the imaging operation of the imaging element 202 so that the exposure value of the face or the center of the screen becomes a predetermined reference value. Thereafter, the control unit 216 controls the imaging operation of the image sensor 202 so that the exposure value of the face or the center of the screen is lower or higher than the predetermined reference value by a predetermined number of steps. As described above, the control unit 216 may be configured to perform an imaging operation three times or more.
ステップS17において、制御部216は、合成比マップがあるか否かを判定する。ステップS17において、合成比マップがあると判定されたときに、処理はステップS18に移行する。ステップS17において、合成比マップが無いと判定されたときに、処理はステップS19に移行する。 In step S17, the control unit 216 determines whether there is a composite ratio map. When it is determined in step S17 that there is a composite ratio map, the process proceeds to step S18. When it is determined in step S17 that there is no composite ratio map, the process proceeds to step S19.
ステップS18において、制御部216は、合成比マップに従ってHDR処理を行う。その後、処理はステップS20に移行する。HDR処理の手法は、ステップS10と同様でよい。 In step S18, the control unit 216 performs HDR processing according to the composite ratio map. Thereafter, the process proceeds to step S20. The HDR processing method may be the same as that in step S10.
ステップS19において、制御部216は、通常のHDR処理を行う。その後、処理はステップS20に移行する。通常のHDR処理として、制御部216は、例えば1枚目の画像データにおける白飛び又は黒潰れ領域に2枚目の画像データを合成する。 In step S19, the control unit 216 performs normal HDR processing. Thereafter, the process proceeds to step S20. As a normal HDR process, the control unit 216 synthesizes the second image data with, for example, a whiteout or blackout region in the first image data.
ステップS20において、制御部216は、HDR処理によって得られた画像データに基づく画像を表示部206に表示させる。 In step S20, the control unit 216 causes the display unit 206 to display an image based on the image data obtained by the HDR process.
ステップS21において、制御部216は、ユーザによって決定操作がされたか否かを判定する。決定操作は、例えばステップS20においてHDR画像とともに表示される決定ボタンへのタッチ操作である。ステップS21において、制御部216は、ユーザによって決定操作がされていないと判定されたときには、処理はステップS22に移行する。ステップS21において、制御部216は、ユーザによって決定操作がされたと判定されたときには、処理はステップS24に移行する。 In step S21, the control unit 216 determines whether or not a determination operation has been performed by the user. The determination operation is, for example, a touch operation on the determination button displayed together with the HDR image in step S20. In step S21, when the control unit 216 determines that the determination operation is not performed by the user, the process proceeds to step S22. In step S21, when the control unit 216 determines that the determination operation has been performed by the user, the process proceeds to step S24.
ステップS22において、制御部216は、タッチパネル208の出力からユーザによる画面タッチ操作が検出されたか否かを判定する。ステップS22において、画面タッチ操作が検出されたと判定されたときには、処理はステップS23に移行する。ステップS22において、画面タッチ操作が検出されていないと判定されたときには、処理はステップS17に移行する。 In step S <b> 22, the control unit 216 determines whether a screen touch operation by the user is detected from the output of the touch panel 208. If it is determined in step S22 that a screen touch operation has been detected, the process proceeds to step S23. If it is determined in step S22 that no screen touch operation has been detected, the process proceeds to step S17.
ステップS23において、制御部216は、タッチパネル208の出力に応じて合成比マップを生成する。その後、処理はステップS17に移行する。なお、合成比マップの生成処理は、図3でと同様でよい。ステップS23において合成比マップの生成処理が行われた場合、再度のHDR画像の表示の際にはステップS23で生成された合成比マップに従ってステップS18においてHDR処理が行われる。すなわち、本実施形態では、撮影時においてもHDR処理の調整を行うことができる。 In step S <b> 23, the control unit 216 generates a synthesis ratio map according to the output of the touch panel 208. Thereafter, the process proceeds to step S17. Note that the composition ratio map generation process may be the same as in FIG. When the composite ratio map generation process is performed in step S23, the HDR process is performed in step S18 according to the composite ratio map generated in step S23 when the HDR image is displayed again. That is, in the present embodiment, the HDR process can be adjusted even during shooting.
ステップS24において、制御部216は、HDR画像データを画像ファイル(HDR画像ファイル)として記録部212に記録する。その後、処理はステップS25に移行する。ここで、本実施形態では、HDR画像データの生成に用いられた画像データも1つのHDR画像ファイルとして記録される。これにより、画像ファイルの再生時の編集処理によってもHDR処理の調整を行うことができる。なお、HDR画像データとその生成に用いられた画像データとは別個のファイルに記録されていてもよい。この場合、例えばファイル名によって両ファイルの関連付けがされている必要がある。 In step S24, the control unit 216 records the HDR image data in the recording unit 212 as an image file (HDR image file). Thereafter, the process proceeds to step S25. Here, in the present embodiment, the image data used for generating the HDR image data is also recorded as one HDR image file. Thereby, the HDR process can be adjusted also by the editing process at the time of reproducing the image file. The HDR image data and the image data used for generating the HDR image data may be recorded in separate files. In this case, for example, both files need to be associated by a file name.
ステップS25において、制御部216は、本体200の電源がオフされたか否かを判定する。ステップS25において、本体200の電源がオフされたと判定されたときには、図2A−図2Cの処理は終了する。ステップS25において、本体200の電源がオフされていないと判定されたときには、処理はステップS1に戻る。 In step S25, the control unit 216 determines whether the power source of the main body 200 is turned off. When it is determined in step S25 that the power source of the main body 200 has been turned off, the processing in FIGS. 2A to 2C ends. If it is determined in step S25 that the main body 200 is not turned off, the process returns to step S1.
ステップS15において現在の撮影モードがHDR撮影モードでないと判定されたときのステップS26において、制御部216は、通常の記録のための撮像動作を開始させる。その後、処理はステップS27に移行する。ステップS26の撮像動作として、制御部216は、顔又は画面中央部の露出値が予め定められた基準値となるように撮像素子202の撮像動作を制御する。なお、ステップS26であっても、連写時又は動画撮影時においてはユーザによって終了が指示されるまでは記録のための撮像動作が繰り返し行われる。 In step S26 when it is determined in step S15 that the current shooting mode is not the HDR shooting mode, the control unit 216 starts an imaging operation for normal recording. Thereafter, the process proceeds to step S27. As the imaging operation in step S26, the control unit 216 controls the imaging operation of the image sensor 202 so that the exposure value of the face or the center of the screen becomes a predetermined reference value. Even in step S26, at the time of continuous shooting or moving image shooting, the image pickup operation for recording is repeatedly performed until the user instructs the end.
ステップS27において、制御部216は、画像データを画像ファイルとして記録部212に記録する。その後、処理はステップS25に移行する。 In step S27, the control unit 216 records the image data in the recording unit 212 as an image file. Thereafter, the process proceeds to step S25.
ステップS1において現在の撮像装置1の動作モードが撮影モードでないと判定されたときのステップS28において、制御部216は、現在の撮像装置1の動作モードが再生モードであるか否かを判定する。ステップS28において、現在の撮像装置1の動作モードが再生モードであると判定されたときには、処理はステップS29に移行する。ステップS28において、現在の撮像装置1の動作モードが再生モードでないと判定されたときには、処理はステップS41に移行する。 In step S28 when it is determined in step S1 that the current operation mode of the imaging device 1 is not the shooting mode, the control unit 216 determines whether or not the current operation mode of the imaging device 1 is the playback mode. In step S28, when it is determined that the current operation mode of the imaging apparatus 1 is the reproduction mode, the process proceeds to step S29. If it is determined in step S28 that the current operation mode of the imaging apparatus 1 is not the playback mode, the process proceeds to step S41.
ステップS29において、制御部216は、記録部212に記録されている画像ファイルの一覧を表示部206に表示させる。その後、処理はステップS30に移行する。 In step S29, the control unit 216 causes the display unit 206 to display a list of image files recorded in the recording unit 212. Thereafter, the process proceeds to step S30.
ステップS30において、制御部216は、ユーザによって画像ファイルが選択されたか否かを判定する。ステップS30において、ユーザによって画像ファイルが選択されたと判定されたときには、処理はステップS31に移行する。ステップS30において、ユーザによって画像ファイルが選択されていないと判定されたときには、処理はステップS40に移行する。 In step S30, the control unit 216 determines whether an image file has been selected by the user. If it is determined in step S30 that an image file has been selected by the user, the process proceeds to step S31. If it is determined in step S30 that the user has not selected an image file, the process proceeds to step S40.
ステップS31において、制御部216は、選択された画像ファイルを表示部206に再生する。なお、選択された画像ファイルがHDR画像ファイルであるときには、制御部216は、HDR画像データを再生する。 In step S31, the control unit 216 reproduces the selected image file on the display unit 206. Note that when the selected image file is an HDR image file, the control unit 216 reproduces the HDR image data.
ステップS32において、制御部216は、再生中の画像ファイルがHDR画像ファイルであるか否かを判定する。ステップS32において、再生中の画像ファイルがHDR画像ファイルであると判定されたときには、処理はステップS33に移行する。ステップS32において、再生中の画像ファイルがHDR画像ファイルでないと判定されたときには、処理はステップS39に移行する。 In step S32, the control unit 216 determines whether or not the image file being reproduced is an HDR image file. If it is determined in step S32 that the image file being reproduced is an HDR image file, the process proceeds to step S33. If it is determined in step S32 that the image file being reproduced is not an HDR image file, the process proceeds to step S39.
ステップS33において、制御部216は、タッチパネル208の出力からユーザによる画面タッチ操作が検出されたか否かを判定する。ステップS33において、画面タッチ操作が検出されたと判定されたときには、処理はステップS34に移行する。ステップS33において、画面タッチ操作が検出されていないと判定されたときには、処理はステップS39に移行する。 In step S <b> 33, the control unit 216 determines whether a screen touch operation by the user is detected from the output of the touch panel 208. If it is determined in step S33 that a screen touch operation has been detected, the process proceeds to step S34. If it is determined in step S33 that no screen touch operation has been detected, the process proceeds to step S39.
ステップS34において、制御部216は、タッチパネル208の出力に応じて合成比マップを生成する。その後、処理はステップS35に移行する。なお、合成比マップの生成処理は、図3で示したものと同様にして行われる。 In step S <b> 34, the control unit 216 generates a synthesis ratio map according to the output of the touch panel 208. Thereafter, the process proceeds to step S35. Note that the composition ratio map generation processing is performed in the same manner as shown in FIG.
ステップS35において、制御部216は、合成比マップに従ってHDR処理を行う。その後、処理はステップS36に移行する。ステップS35において、制御部216は、現在再生中の画像ファイルに記録されているHDR画像データの作成に用いられた露出の異なる複数の画像データを用いてHDR処理を行う。HDR処理の手法は、ステップS10と同様でよい。 In step S35, the control unit 216 performs HDR processing according to the composite ratio map. Thereafter, the process proceeds to step S36. In step S <b> 35, the control unit 216 performs HDR processing using a plurality of image data with different exposures used for creating the HDR image data recorded in the currently reproduced image file. The HDR processing method may be the same as that in step S10.
ステップS36において、制御部216は、HDR処理によって得られた画像データに基づく画像を表示部206に表示させる。 In step S36, the control unit 216 causes the display unit 206 to display an image based on the image data obtained by the HDR process.
ステップS37において、制御部216は、ユーザによって決定操作がされたか否かを判定する。ステップS37において、制御部216は、ユーザによって決定操作がされていないと判定されたときには、処理はステップS39に移行する。ステップS37において、制御部216は、ユーザによって決定操作がされたと判定されたときには、処理はステップS38に移行する。 In step S37, the control unit 216 determines whether or not a determination operation has been performed by the user. In step S37, when the control unit 216 determines that the determination operation is not performed by the user, the process proceeds to step S39. In step S37, when it is determined that the determination operation has been performed by the user, the control unit 216 proceeds to step S38.
ステップS38において、制御部216は、ステップS35において変更された後のHDR画像データをHDR画像ファイルとして記録部212に記録する。その後、処理はステップS39に移行する。ステップS38においても、HDR画像データの生成に用いられた画像データもHDR画像ファイルとして記録される。なお、HDR画像データの生成に用いられた画像データがHDR画像データと別のファイルになっているときには、改めてHDR画像データの生成に用いられた画像データを記録する必要はない。 In step S38, the control unit 216 records the HDR image data after the change in step S35 in the recording unit 212 as an HDR image file. Thereafter, the process proceeds to step S39. Also in step S38, the image data used to generate the HDR image data is recorded as an HDR image file. When the image data used for generating the HDR image data is in a file different from the HDR image data, it is not necessary to record the image data used for generating the HDR image data again.
ステップS39において、制御部216は、画像ファイルの再生を終了するか否かを判定する。ステップS39においては、例えばユーザによる操作部210の操作によって画像ファイルの再生の終了が指示されたときに、画像ファイルの再生を終了すると判定される。ステップS39において、画像ファイルの再生を終了しないと判定されたときには、処理はステップS31に戻る。この場合には、画像ファイルの再生は継続される。ステップS39において、画像ファイルの再生を終了すると判定されたときには、処理はステップS29に戻る。 In step S39, the control unit 216 determines whether or not to end the reproduction of the image file. In step S39, for example, when the end of the reproduction of the image file is instructed by the operation of the operation unit 210 by the user, it is determined that the reproduction of the image file is ended. In step S39, when it is determined not to end the reproduction of the image file, the process returns to step S31. In this case, the reproduction of the image file is continued. If it is determined in step S39 that the reproduction of the image file is to end, the process returns to step S29.
ステップS30においてユーザによって画像ファイルが選択されていないと判定されたときのステップS40において、制御部216は、再生モードの処理を終了するか否かを判定する。ステップS40において、再生モードの処理を終了しないと判定されたときには処理はステップS29に戻る。ステップS40において、再生モードの処理を終了すると判定されたときには処理はステップS25に移行する。 In step S40 when it is determined in step S30 that an image file has not been selected by the user, the control unit 216 determines whether or not to end the processing in the playback mode. If it is determined in step S40 that the playback mode process is not to end, the process returns to step S29. If it is determined in step S40 that the playback mode process is to be terminated, the process proceeds to step S25.
ステップS28において、現在の撮像装置1の動作モードが再生モードでないと判定されたときのステップS41において、制御部216は、通信モードの処理を行う。通信モードにおいては、制御部216は、ユーザによって指定された画像ファイルを外部機器に送信したり、外部機器から画像ファイル等を受信したりする処理を行う。通信モードの処理の終了後、処理はステップS25に移行する。 In step S <b> 41 when it is determined in step S <b> 28 that the current operation mode of the imaging device 1 is not the playback mode, the control unit 216 performs processing in the communication mode. In the communication mode, the control unit 216 performs processing of transmitting an image file designated by the user to an external device or receiving an image file or the like from the external device. After the communication mode process ends, the process proceeds to step S25.
以上説明したように本実施形態では、ユーザの操作に従ってHDR処理のための合成比マップを生成している。この合成比マップに従ってHDR処理を行うことにより、種々の表現のHDR画像データを生成することができる。これにより、HDR処理の自由度を高めることができる。 As described above, in the present embodiment, a composite ratio map for HDR processing is generated according to a user operation. By performing the HDR process according to the synthesis ratio map, it is possible to generate HDR image data of various expressions. Thereby, the freedom degree of HDR processing can be raised.
ここで、前述した実施形態においては、ユーザのタッチパネル208の操作に従って合成比を設定する座標が指定されている。しかしながら、座標を指定できるのであれば、必ずしもタッチパネル208の操作でなくてもよい。 Here, in the above-described embodiment, the coordinates for setting the composition ratio are designated in accordance with the user's operation on the touch panel 208. However, the operation of the touch panel 208 is not necessarily required as long as the coordinates can be designated.
[変形例1]
以下、本実施形態の変形例を説明する。前述した実施形態では、タッチされた座標に対して合成比が設定される例を説明している。これに対し、タッチされた座標だけでなく、タッチされた座標を含むマスクパターンに対して合成比が設定されるように構成されていてもよい。例えば、図8Aに示す人物Oの領域内の座標へのタッチがあったときに、制御部216は、図8Bに示すように、タッチされた座標を含む輪郭を検出し、検出した輪郭をマスクパターンMとする。そして、制御部216は、マスクパターンMに対して合成比を設定する。例えば、焼き込みモードの場合には、制御部216は、マスクパターンMに含まれる各座標の合成比をタッチ時間、タッチ強さ、タッチ回数等に応じて設定する。また、覆い焼きモードの場合には、制御部216は、マスクパターンMを除く各座標の合成比をタッチ時間、タッチ強さ、タッチ回数等に応じて設定する。さらに、グラデーションモードの場合には、制御部216は、マスクパターンMの中でグラデーションを有するように合成比を設定する。このようにマスクパターンMに基づいて合成比を設定することで、ユーザの操作回数を減らすことが可能である。
[Modification 1]
Hereinafter, modifications of the present embodiment will be described. In the above-described embodiment, an example in which the composition ratio is set for the touched coordinates has been described. On the other hand, the composition ratio may be set not only for the touched coordinates but also for the mask pattern including the touched coordinates. For example, when there is a touch on the coordinates in the region of the person O shown in FIG. 8A, the control unit 216 detects an outline including the touched coordinates and masks the detected outline as shown in FIG. 8B. Let it be pattern M. Then, the control unit 216 sets a synthesis ratio for the mask pattern M. For example, in the burn-in mode, the control unit 216 sets the composition ratio of each coordinate included in the mask pattern M according to the touch time, the touch strength, the number of touches, and the like. In the dodging mode, the control unit 216 sets the composition ratio of each coordinate excluding the mask pattern M according to the touch time, the touch strength, the number of touches, and the like. Further, in the gradation mode, the control unit 216 sets the composition ratio so that the mask pattern M has gradation. Thus, by setting the composition ratio based on the mask pattern M, it is possible to reduce the number of user operations.
[変形例2]
前述した実施形態では基本的にはタッチされた座標に対しては合成比が設定される。これに対し、タッチされた座標であっても合成比の設定を禁止できるようにしてもよい。例えば、前述した例では、焼き込みモードにおいて図6のような顔を含むスライド操作がされたときには、顔もHDR処理の対象となる。この場合、露出値が基準値に合わせられた顔の画像に基準値よりも低い露出値の顔の画像が合成されるので、顔の露出値は基準値よりも低くなる。変形例2は、図6と同様のスライド操作がなされた場合であっても、顔の露出値を変えずにその他の部分のみの露出値を変えるように構成した例である。以下、このような画像データの一部をHDR処理の対象から除外できるようにしたモードをマスクタッチモードと言う。マスクタッチモードのときには、例えば図9に示すようにマスクタッチモードであることを示す表示Dがなされてもよい。
[Modification 2]
In the embodiment described above, basically, a composition ratio is set for the touched coordinates. On the other hand, setting of the composition ratio may be prohibited even if the coordinates are touched. For example, in the above-described example, when a slide operation including a face as shown in FIG. 6 is performed in the burn-in mode, the face is also subject to HDR processing. In this case, a face image having an exposure value lower than the reference value is combined with the face image whose exposure value is matched with the reference value, so that the face exposure value is lower than the reference value. Modification 2 is an example in which the exposure value of only the other part is changed without changing the exposure value of the face even when the slide operation similar to that in FIG. 6 is performed. Hereinafter, a mode in which a part of such image data can be excluded from the HDR processing target is referred to as a mask touch mode. In the mask touch mode, for example, as shown in FIG. 9, a display D indicating the mask touch mode may be displayed.
マスクタッチモードのときに、ユーザは、複数本の指によってタッチパネル208を操作する。ユーザは、図9に示すように、指F1によってHDR処理の対象から除外したい座標をタッチする。さらに、ユーザは、図9に示すように、もう1本の指F2によって前述したようなスライド操作をする。このとき、制御部216は、指F1によってタッチされた座標を含む輪郭によって囲まれる各座標をHDR処理の対象から除外して合成比マップを生成する。そして、このようにして生成された合成比マップに従ってHDR処理が行われることにより、図10に示すように顔はHDR処理の対象から除外され、顔の露出値は基準値のままになる。 In the mask touch mode, the user operates the touch panel 208 with a plurality of fingers. As shown in FIG. 9, the user touches the coordinates to be excluded from the HDR processing target with the finger F1. Further, as shown in FIG. 9, the user performs the slide operation as described above with the other finger F2. At this time, the control unit 216 generates a composite ratio map by excluding the coordinates surrounded by the contour including the coordinates touched by the finger F1 from the HDR processing target. Then, the HDR processing is performed according to the composite ratio map generated in this manner, so that the face is excluded from the HDR processing target as shown in FIG. 10, and the exposure value of the face remains the reference value.
図11A及び図11Bは、変形例2における合成比マップの生成処理について示すフローチャートである。ここで、図11A及び図11Bにおいて、図3と同一の処理については図3と同一の符号を付している。したがって、同一の符号を付している処理については説明を適宜省略する。 FIG. 11A and FIG. 11B are flowcharts showing the composition ratio map generation processing in the second modification. Here, in FIGS. 11A and 11B, the same processes as those in FIG. 3 are denoted by the same reference numerals as those in FIG. Therefore, the description of the processes denoted by the same reference numerals is omitted as appropriate.
ステップS101において、制御部216は、現在の合成比マップの生成モードが焼き込みモードであるか否かを判定する。ステップS101において、現在の合成比マップの生成モードが焼き込みモードであると判定されたときには、処理はステップS102に移行する。ステップS101において、現在の合成比マップの生成モードが焼き込みモードでないと判定されたときには、処理はステップS107に移行する。 In step S101, the control unit 216 determines whether or not the current composition ratio map generation mode is the burn-in mode. If it is determined in step S101 that the current composition ratio map generation mode is the burn-in mode, the process proceeds to step S102. If it is determined in step S101 that the current composition ratio map generation mode is not the burn-in mode, the process proceeds to step S107.
ステップS102において、制御部216は、タッチされている座標を含むマスクパターンに対するタッチ時間を取得する。なお、制御部216は、タッチ時間の代わりに、タッチ強さ、タッチ回数等を取得するように構成されていてもよい。その後、処理はステップS113に移行する。 In step S102, the control unit 216 acquires the touch time for the mask pattern including the touched coordinates. Note that the control unit 216 may be configured to acquire the touch strength, the number of touches, and the like instead of the touch time. Thereafter, the process proceeds to step S113.
ステップS113において、制御部216は、マスクタッチがされているか否かを判定する。例えば、同一のマスクパターンに含まれる2か所以上の座標へのタッチが検出されたときにはマスクタッチがされていると判定される。ステップS113において、マスクタッチがされていないと判定されたときには、処理はステップS103に移行する。ステップS113において、マスクタッチがされていると判定されたときには、処理はステップS114に移行する。 In step S113, the control unit 216 determines whether or not a mask touch is performed. For example, when a touch on two or more coordinates included in the same mask pattern is detected, it is determined that a mask touch is being made. If it is determined in step S113 that no mask touch has been made, the process proceeds to step S103. If it is determined in step S113 that a mask touch has been made, the process proceeds to step S114.
ステップS114において、制御部216は、マスクタッチがされている座標を含むマスクパターンを合成比の設定対象から除外する。その後、処理はステップS104に移行する。 In step S <b> 114, the control unit 216 excludes the mask pattern including the coordinates on which the mask is touched from the synthesis ratio setting target. Thereafter, the process proceeds to step S104.
ステップS103−S106の処理は図3のステップS103−S106の処理と同一である。したがって、説明を省略する。 Steps S103-S106 are the same as steps S103-S106 in FIG. Therefore, the description is omitted.
ステップS101において現在の合成比マップの生成モードが焼き込みモードでないと判定されたときのステップS107において、制御部216は、現在の合成比マップの生成モードが覆い焼きモードであるか否かを判定する。ステップS107において、現在の合成比マップの生成モードが覆い焼きモードであると判定されたときには、処理はステップS108に移行する。ステップS107において、現在の合成比マップの生成モードが覆い焼きモードでないと判定されたときには、処理はステップS110に移行する。 In step S107 when it is determined in step S101 that the current composite ratio map generation mode is not the burn-in mode, the control unit 216 determines whether or not the current composite ratio map generation mode is the dodging mode. To do. If it is determined in step S107 that the current composition ratio map generation mode is the dodging mode, the process proceeds to step S108. If it is determined in step S107 that the current composition ratio map generation mode is not the dodging mode, the process proceeds to step S110.
ステップS108において、制御部216は、タッチされている座標に対するタッチ時間を取得する。なお、制御部216は、タッチ時間の代わりに、タッチ強さ、タッチ回数等を取得するように構成されていてもよい。その後、処理はステップS114に移行する。 In step S108, the control unit 216 acquires the touch time for the touched coordinates. Note that the control unit 216 may be configured to acquire the touch strength, the number of touches, and the like instead of the touch time. Thereafter, the process proceeds to step S114.
ステップS115において、制御部216は、マスクタッチがされているか否かを判定する。例えば、同一のマスクパターンに含まれる2か所以上の座標へのタッチが検出されたときにはマスクタッチがされていると判定される。ステップS115において、マスクタッチがされていないと判定されたときには、処理はステップS109に移行する。ステップS115において、マスクタッチがされていると判定されたときには、処理はステップS116に移行する。 In step S115, the control unit 216 determines whether or not a mask touch is performed. For example, when a touch on two or more coordinates included in the same mask pattern is detected, it is determined that a mask touch is being made. If it is determined in step S115 that the mask touch has not been made, the process proceeds to step S109. If it is determined in step S115 that a mask touch has been made, the process proceeds to step S116.
ステップS116において、制御部216は、マスクタッチがされている座標を含むマスクパターンを合成比の設定対象から除外する。その後、処理はステップS104に移行する。 In step S116, the control unit 216 excludes the mask pattern including the coordinates where the mask is touched from the synthesis ratio setting target. Thereafter, the process proceeds to step S104.
ステップS107において現在の合成比マップの生成モードが覆い焼きモードでないと判定されたときのステップS110において、制御部216は、現在の合成比マップの生成モードがグラデーションモードであるか否かを判定する。ステップS110において、現在の合成比マップの生成モードがグラデーションモードであると判定されたときには、処理はステップS111に移行する。ステップS110において、現在の合成比マップの生成モードがグラデーションモードでないと判定されたときには、処理はステップS101に戻る。 In step S110 when it is determined in step S107 that the current composition ratio map generation mode is not the dodging mode, the control unit 216 determines whether or not the current composition ratio map generation mode is the gradation mode. . If it is determined in step S110 that the current composition ratio map generation mode is the gradation mode, the process proceeds to step S111. If it is determined in step S110 that the current composition ratio map generation mode is not the gradation mode, the process returns to step S101.
ステップS111において、制御部216は、ユーザによるタッチが終了されたか否かを判定する。ステップS111において、ユーザによるタッチが終了されていないと判定されたときには、処理はステップS110に戻る。ステップS111において、ユーザによるタッチが終了されたと判定されたときには、処理はステップS117に移行する。 In step S111, the control unit 216 determines whether or not the touch by the user is finished. If it is determined in step S111 that the touch by the user has not been completed, the process returns to step S110. If it is determined in step S111 that the touch by the user has been completed, the process proceeds to step S117.
ステップS117において、制御部216は、マスクタッチがされていたか否かを判定する。ステップS117において、マスクタッチがされていないと判定されたときには、処理はステップS112に移行する。ステップS117において、マスクタッチがされていたと判定されたときには、処理はステップS118に移行する。 In step S117, the control unit 216 determines whether a mask touch has been performed. If it is determined in step S117 that the mask touch is not performed, the process proceeds to step S112. If it is determined in step S117 that the mask touch has been made, the process proceeds to step S118.
ステップS118において、制御部216は、マスクタッチがされている座標を含むマスクパターンを合成比の設定対象から除外する。その後、図11A及び図11Bの処理は終了する。 In step S <b> 118, the control unit 216 excludes the mask pattern including the coordinates where the mask touch is made from the synthesis ratio setting targets. Thereafter, the processing of FIGS. 11A and 11B ends.
以上説明したようなマスクタッチモードを搭載することにより、よりユーザの意図したHDR画像データを生成することができる。 By installing the mask touch mode as described above, HDR image data intended by the user can be generated.
[変形例3]
前述した実施形態及び変形例ではユーザの画面タッチ操作があったときに合成比マップが生成される。これに対し、ユーザの画面タッチ操作の傾向とシーンとの関係を例えば機械学習によって学習することにより、以前に合成比マップを生成したシーンと同様のシーンであることが判定されたときに、自動的に以前に生成した合成比マップを生成するように制御部216が構成されてもよい。例えば、制御部216は、AIを搭載しており、図12の画像データI1と画像データI2とが得られるシーンにおいて、HDR画像データI3が生成されることを学習した後の撮影時において画像データI1が得られるシーンであることを判定したときには、ユーザの画面タッチ操作を待たずに合成比マップMPを生成してHDR処理を行うように構成されてもよい。なお、このときには、合成比マップが自動的に生成されたことをユーザに通知してもよい。このような構成により、ユーザの操作回数を減らすことが期待される。
[Modification 3]
In the embodiment and the modification described above, the composite ratio map is generated when the user performs a screen touch operation. On the other hand, when it is determined that the scene is similar to the scene in which the composite ratio map was previously generated by learning the relationship between the user's screen touch operation tendency and the scene, for example, by machine learning, Specifically, the control unit 216 may be configured to generate a previously generated composite ratio map. For example, the control unit 216 is equipped with an AI, and image data at the time of shooting after learning that the HDR image data I3 is generated in a scene where the image data I1 and the image data I2 in FIG. 12 are obtained. When it is determined that the scene can obtain I1, the composition ratio map MP may be generated and the HDR process may be performed without waiting for the user's screen touch operation. At this time, the user may be notified that the composite ratio map has been automatically generated. Such a configuration is expected to reduce the number of user operations.
以上実施形態に基づいて本発明を説明したが、本発明は前述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、前述した実施形態で示した撮像装置は、レンズ交換式のデジタルカメラである。しかしながら、本実施形態で想定される撮像装置は、デジタルカメラ以外の撮像機能を有する各種の装置、例えば内視鏡、顕微鏡、監視カメラ、車載カメラといった装置も含まれる。さらに、前述したように、本実施形態におけるHDR処理は再生モード中にも行われ得る。すなわち、本実施形態の技術においては必ずしも撮像動作は必要なく、露出の異なる複数の画像データが入力される各種の画像処理装置に対して本実施形態の技術は適用可能である。近年では、撮像時に様々な露出やピント位置の情報を取得しておき、画像合成用に記録しておく機器が増加しているからである。 Although the present invention has been described based on the above embodiment, the present invention is not limited to the above-described embodiment, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, the imaging device shown in the above-described embodiment is a lens interchangeable digital camera. However, the imaging apparatus assumed in this embodiment includes various apparatuses having an imaging function other than the digital camera, such as an endoscope, a microscope, a monitoring camera, and an in-vehicle camera. Furthermore, as described above, the HDR processing in the present embodiment can be performed during the playback mode. In other words, the technique of this embodiment does not necessarily require an imaging operation, and the technique of this embodiment can be applied to various image processing apparatuses to which a plurality of image data with different exposures are input. This is because in recent years, an increasing number of devices acquire various exposure and focus position information at the time of imaging and record them for image composition.
また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.
また、前述した実施形態による各処理は、コンピュータである制御部216に実行させることができるプログラムとして記憶させておくこともできる。この他、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、制御部216は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、前述した処理を実行することができる。 Each process according to the above-described embodiment may be stored as a program that can be executed by the control unit 216 that is a computer. In addition, it can be stored and distributed in a storage medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory. And the control part 216 can perform the process mentioned above by reading the program memorize | stored in the storage medium of this external storage device, and operation | movement being controlled by this read program.
本発明は、前記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。さらに、前記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
例えば、本願出願の当初の特許請求の範囲に記載された発明の他に以下の発明が抽出され得る。
[1] タッチパネルを有し、当該タッチパネルの操作の位置とタッチパターンによって、第1の画像データの座標毎にHDR処理の際の合成比又はHDR処理時の合成画像の露出差を対応付けた合成比マップを生成する合成比マップ生成部と、
前記第1の画像データと前述の露出差の第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行う画像処理部と、
を具備する画像処理装置。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention when it is practiced. Further, the embodiments may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, the invention includes various inventions, and various inventions can be extracted by combinations selected from a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the problem can be solved and an effect can be obtained, the configuration from which the constituent requirements are deleted can be extracted as an invention.
For example, the following invention can be extracted in addition to the invention described in the initial claims of the present application.
[1] A composition that has a touch panel and associates the composition ratio at the time of HDR processing or the exposure difference of the composite image at the time of HDR processing for each coordinate of the first image data by the operation position and touch pattern of the touch panel. A composite ratio map generator for generating a ratio map;
An image processing unit for performing HDR processing for combining the first image data and the second image data of the above-described exposure difference for each coordinate according to the combination ratio map;
An image processing apparatus comprising:
1 撮像装置、100 交換レンズ、102 撮像光学系、104 駆動部、106 位置検出部、108 レンズ制御部、110 記録部、112 操作部、114 通信部、200 本体、202 撮像素子、204 記憶部、206 表示部、208 タッチパネル、210 操作部、212 記録部、214 顔検出部、216 制御部、218 通信部、220 外部通信部、2161 撮像制御部、2162 表示制御部、2163 輪郭検出部、2164 合成比マップ生成部、2165 画像処理部。 DESCRIPTION OF SYMBOLS 1 Imaging device, 100 Interchangeable lens, 102 Imaging optical system, 104 Drive part, 106 Position detection part, 108 Lens control part, 110 Recording part, 112 Operation part, 114 Communication part, 200 Main body, 202 Imaging element, 204 Storage part, 206 Display unit 208 Touch panel 210 Operation unit 212 Recording unit 214 Face detection unit 216 Control unit 218 Communication unit 220 External communication unit 2161 Imaging control unit 2162 Display control unit 2163 Contour detection unit 2164 Synthesis Ratio map generation unit, 2165 image processing unit.
Claims (6)
前記第1の画像データと露出の異なる少なくとも1つの第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行う画像処理部と、
を具備する画像処理装置。 A composition ratio map generation unit that generates a composition ratio map in which the composition ratio at the time of HDR processing is associated with each coordinate of the first image data;
An image processing unit that performs HDR processing for combining the first image data and at least one second image data having a different exposure for each coordinate according to the combination ratio map;
An image processing apparatus comprising:
前記表示部に表示された画像上の座標をタッチによって指定するように構成されたタッチパネルと、
をさらに具備し、
前記合成比マップ生成部は、前記タッチパネルによって指定された座標に対するタッチ時間、タッチの強さ、タッチの回数の少なくとも何れかに応じて前記指定された座標に対する前記合成比を算出する請求項1に記載の画像処理装置。 A display unit for displaying an image based on the first image data;
A touch panel configured to specify coordinates on an image displayed on the display unit by touch;
Further comprising
The composition ratio map generation unit calculates the composition ratio for the designated coordinates according to at least one of a touch time, a touch strength, and the number of touches for the coordinates designated by the touch panel. The image processing apparatus described.
前記合成比マップ生成部は、前記HDR処理を行わない座標を除いた座標に対して前記合成比を算出する請求項2に記載の画像処理装置。 The touch panel is further configured to be able to specify coordinates for which HDR processing is not performed from coordinates on the image displayed on the display unit,
The image processing apparatus according to claim 2, wherein the synthesis ratio map generation unit calculates the synthesis ratio with respect to coordinates excluding coordinates for which the HDR processing is not performed.
前記第1の画像データと露出の異なる少なくとも1つの第2の画像データとを前記合成比マップに従って座標毎に合成するHDR処理を行うことと、
を具備する画像処理方法。 Generating a composite ratio map in which the composite ratio at the time of HDR processing is associated with each coordinate of the first image data;
Performing HDR processing for combining the first image data and at least one second image data having different exposures for each coordinate according to the combination ratio map;
An image processing method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017042017A JP6925827B2 (en) | 2017-03-06 | 2017-03-06 | Image processing device and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017042017A JP6925827B2 (en) | 2017-03-06 | 2017-03-06 | Image processing device and image processing method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2018148420A true JP2018148420A (en) | 2018-09-20 |
| JP2018148420A5 JP2018148420A5 (en) | 2020-04-02 |
| JP6925827B2 JP6925827B2 (en) | 2021-08-25 |
Family
ID=63591688
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017042017A Expired - Fee Related JP6925827B2 (en) | 2017-03-06 | 2017-03-06 | Image processing device and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6925827B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3608490A1 (en) | 2018-08-07 | 2020-02-12 | Kobelco Construction Machinery Co., Ltd. | Door unlocking device of construction machine |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09307740A (en) * | 1996-05-17 | 1997-11-28 | Canon Inc | Image processing device |
| JP2012238086A (en) * | 2011-05-10 | 2012-12-06 | Casio Comput Co Ltd | Image processing apparatus, image processing method and image processing program |
| JP2013074301A (en) * | 2011-09-26 | 2013-04-22 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and program |
| JP2014036297A (en) * | 2012-08-08 | 2014-02-24 | Olympus Imaging Corp | Imaging apparatus |
| US20150043811A1 (en) * | 2013-08-12 | 2015-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for dynamic range enhancement of an image |
| US8995783B2 (en) * | 2012-09-19 | 2015-03-31 | Qualcomm Incorporation | System for photograph enhancement by user controlled local image enhancement |
-
2017
- 2017-03-06 JP JP2017042017A patent/JP6925827B2/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09307740A (en) * | 1996-05-17 | 1997-11-28 | Canon Inc | Image processing device |
| JP2012238086A (en) * | 2011-05-10 | 2012-12-06 | Casio Comput Co Ltd | Image processing apparatus, image processing method and image processing program |
| JP2013074301A (en) * | 2011-09-26 | 2013-04-22 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and program |
| JP2014036297A (en) * | 2012-08-08 | 2014-02-24 | Olympus Imaging Corp | Imaging apparatus |
| US8995783B2 (en) * | 2012-09-19 | 2015-03-31 | Qualcomm Incorporation | System for photograph enhancement by user controlled local image enhancement |
| US20150043811A1 (en) * | 2013-08-12 | 2015-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for dynamic range enhancement of an image |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3608490A1 (en) | 2018-08-07 | 2020-02-12 | Kobelco Construction Machinery Co., Ltd. | Door unlocking device of construction machine |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6925827B2 (en) | 2021-08-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101786049B1 (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method | |
| JP5769768B2 (en) | Imaging apparatus, imaging method, and program | |
| JP5719223B2 (en) | Image recording apparatus, recording method, and program | |
| JP5713885B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
| JP2014039084A (en) | Imaging apparatus | |
| JP2009224994A (en) | Photographing apparatus, and image combining method of photographing apparatus | |
| JP2010154365A (en) | Color correction device, camera, color correction method, and color correction program | |
| US9261771B2 (en) | Digital photographing apparatus for displaying panoramic images and methods of controlling the same | |
| JP2013162420A (en) | Camera | |
| JP2017163339A (en) | Video processing apparatus, video processing method, and program | |
| US10362213B2 (en) | Imaging apparatus and imaging method | |
| JP6925827B2 (en) | Image processing device and image processing method | |
| JP6223173B2 (en) | Image processing apparatus, control method thereof, and program | |
| JP4475118B2 (en) | Camera device, white balance bracketing shooting method | |
| JP2013135398A (en) | Image composition device | |
| US11336802B2 (en) | Imaging apparatus | |
| JP5289354B2 (en) | Imaging device | |
| JP2018148353A (en) | Imaging apparatus and imaging method | |
| JP5980535B2 (en) | Imaging device and image data recording method | |
| JP6320463B2 (en) | Electronic device, imaging method and program | |
| JP6084310B2 (en) | Imaging apparatus and imaging method | |
| JP5964937B2 (en) | Image processing method, electronic device, and program | |
| JP6773057B2 (en) | Image processing equipment, image processing methods and programs | |
| JP2013150030A (en) | Imaging device, imaging method, and program | |
| JP5338248B2 (en) | Image processing apparatus, electronic camera, and image processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200219 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200219 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210804 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6925827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |