JP2018148353A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2018148353A JP2018148353A JP2017040668A JP2017040668A JP2018148353A JP 2018148353 A JP2018148353 A JP 2018148353A JP 2017040668 A JP2017040668 A JP 2017040668A JP 2017040668 A JP2017040668 A JP 2017040668A JP 2018148353 A JP2018148353 A JP 2018148353A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- imaging
- unit
- image
- hdr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 172
- 238000012545 processing Methods 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims description 101
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims 2
- 238000004891 communication Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method.
近年の撮像装置には、露出条件の異なる複数の画像を合成することで本来の撮像装置の仕様よりも広いダイナミックレンジの画像を取得するHDR画像記録機能を有しているものがある。このようなHDR画像記録機能を有する撮像装置の中で、例えば、特許文献1において提案されている撮像装置は、HDR動画記録中において静止画撮影指示があったときには、HDR動画記録用の撮像とは異なる露出設定の撮像を追加することによってHDR静止画を生成するための画像データの数を増やすようにしている。 Some recent imaging apparatuses have an HDR image recording function for acquiring an image having a wider dynamic range than the specification of the original imaging apparatus by combining a plurality of images having different exposure conditions. Among such imaging devices having an HDR image recording function, for example, the imaging device proposed in Patent Document 1 is configured to perform imaging for HDR movie recording when there is a still image shooting instruction during HDR movie recording. Increases the number of image data for generating HDR still images by adding imaging with different exposure settings.
特許文献1の撮像装置は、静止画撮影指示がなされたタイミングの直後の連続する複数の画像データを合成してHDR静止画データを作成している。すなわち、特許文献1の撮像装置は、HDR静止画データを作成するための画像データが予め決まっている。しかしながら、複数の画像データの撮像タイミングにはずれがあるので、これらの複数の画像データは必ずしもHDR静止画データを作成するのに適切であるとは限らない。 The imaging apparatus of Patent Literature 1 creates HDR still image data by combining a plurality of continuous image data immediately after the timing at which a still image capturing instruction is given. That is, in the imaging device of Patent Document 1, image data for creating HDR still image data is determined in advance. However, since there are deviations in the imaging timing of the plurality of image data, these plurality of image data are not necessarily suitable for creating HDR still image data.
本発明は、前記の事情に鑑みてなされたものであり、HDR静止画データの生成に適した画像データを選択してHDR静止画データを生成することができる撮像装置及び撮像方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an imaging apparatus and an imaging method capable of generating HDR still image data by selecting image data suitable for generating HDR still image data. With the goal.
前記の目的を達成するために、本発明の第1の態様の撮像装置は、異なる露出条件での複数回の撮像を繰り返し行って複数の画像データを生成する撮像部と、複数の前記画像データを仮記憶する仮記憶部と、前記仮記憶部に仮記憶された複数の前記画像データの中から、前記異なる露出条件での複数回の撮像で得られた第1の組の画像データに対して第1の合成処理を施して動画データを生成する第1の画像処理部と、複数の前記画像データにおける対象物のずれに基づいて、複数の前記画像データの中から、前記第1の組の画像データとは異なる第2の組の画像データを選択する制御部と、前記選択された前記第2の組の画像データに対して第2の合成処理を施して静止画データを生成することが可能なように、前記第2の組の画像データを記録部に記録する記録処理部とを具備する。 In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes an imaging unit that repeatedly performs imaging a plurality of times under different exposure conditions to generate a plurality of image data, and a plurality of the image data And a first set of image data obtained by imaging a plurality of times under the different exposure conditions from among the plurality of image data temporarily stored in the temporary storage unit. A first image processing unit that performs a first combining process to generate moving image data, and the first set of the plurality of image data based on a shift of the object in the plurality of image data. A control unit for selecting a second set of image data different from the image data of the selected image data, and generating a still image data by performing a second combining process on the selected second set of image data The second set of image data so that ; And a recording unit for recording the recording unit.
前記の目的を達成するために、本発明の第2の態様の撮像方法は、撮像部により、異なる露出条件での複数回の撮像を繰り返し行って複数の画像データを生成することと、複数の前記画像データを仮記憶部に仮記憶させることと、前記仮記憶部に仮記憶された複数の前記画像データの中から、前記異なる露出条件での複数回の撮像で得られた第1の組の画像データに対して第1の合成処理を施して動画データを生成することと、複数の前記画像データにおける対象物のずれに基づいて、複数の前記画像データの中から、前記第1の組の画像データとは異なる第2の組の画像データを選択することと、前記選択された前記第2の組の画像データに対して第2の合成処理を施して静止画データを生成することが可能なように、前記第2の組の画像データを記録部に記録することとを具備する。 In order to achieve the above object, the imaging method according to the second aspect of the present invention includes generating a plurality of image data by repeatedly performing imaging a plurality of times under different exposure conditions by an imaging unit, A first set obtained by temporarily storing the image data in a temporary storage unit, and from a plurality of the image data temporarily stored in the temporary storage unit, by a plurality of times of imaging under the different exposure conditions; Generating the moving image data by performing a first combining process on the image data of the plurality of image data and the first set of the plurality of the image data based on a shift of the object in the plurality of the image data. Selecting a second set of image data different from the image data of the selected image data, and generating a still image data by performing a second combining process on the selected second set of image data. The second set of images as possible ; And a recording the over data to the recording unit.
本発明によれば、HDR静止画データの生成に適した画像データを選択してHDR静止画データを生成することができる撮像装置及び撮像方法を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus and an imaging method capable of generating HDR still image data by selecting image data suitable for generating HDR still image data.
以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の一実施形態に係る撮像装置の一例の構成を示すブロック図である。図1に示す撮像装置100は、例えばデジタルカメラ、スマートフォン、カメラ機能付き携帯電話機といった撮像機能を有する各種の機器である。図1に示す撮像装置100は、撮像部102と、記憶部104と、画像処理部106と、再生部108と、表示部110と、記録部112と、通信部114と、操作部116と、制御部118とを有している。ここで、撮像装置100の各ブロックは、例えばハードウェアとソフトウェアとの組み合わせによって構成されている。撮像装置100の各ブロックは、単一のハードウェア又はソフトウェアによって構成されていなくてもよく、複数のハードウェア又は複数のソフトウェアによって構成されていてもよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus according to an embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 1 is various devices having an imaging function such as a digital camera, a smartphone, and a mobile phone with a camera function. 1 includes an imaging unit 102, a storage unit 104, an image processing unit 106, a playback unit 108, a display unit 110, a recording unit 112, a communication unit 114, an operation unit 116, And a control unit 118. Here, each block of the imaging apparatus 100 is configured by, for example, a combination of hardware and software. Each block of the imaging apparatus 100 may not be configured by a single hardware or software, but may be configured by a plurality of hardware or a plurality of software.
撮像部102は、撮像光学系102aと、撮像素子102bと、駆動部102cとを有している。撮像光学系102aは、絞り及びレンズ等を有し、図示しない被写体からの光束を撮像素子102bに入射させる。また、撮像光学系102aは、合焦状態を調節するためのフォーカスレンズを含んでいる。撮像素子102bは、例えばCMOSイメージセンサ又はCCDイメージセンサを含み、対象物を撮像し、対象物に係る画像データ(RAWデータ)を取得する。撮像素子102bは、撮影の対象物までの距離検出が可能なように位相差検出画素を含んでいてもよい。また、本実施形態における撮像素子102bは、撮像光学系102aに光軸と直交する平面内で移動可能に構成されていてもよい。駆動部102cは、制御部118による制御に従って、撮像光学系102aのフォーカスレンズをその光軸方向に駆動したり、撮像素子102bを駆動したりする。 The imaging unit 102 includes an imaging optical system 102a, an imaging element 102b, and a driving unit 102c. The imaging optical system 102a has a diaphragm, a lens, and the like, and makes a light beam from a subject (not shown) enter the imaging element 102b. The imaging optical system 102a includes a focus lens for adjusting the in-focus state. The imaging element 102b includes, for example, a CMOS image sensor or a CCD image sensor, images an object, and acquires image data (RAW data) related to the object. The image sensor 102b may include a phase difference detection pixel so that the distance to the object to be photographed can be detected. Further, the image sensor 102b in the present embodiment may be configured to be movable in a plane orthogonal to the optical axis with respect to the imaging optical system 102a. The drive unit 102c drives the focus lens of the imaging optical system 102a in the optical axis direction or drives the imaging element 102b according to control by the control unit 118.
記憶部104は、例えばDRAMであり、撮像部102で取得された画像データを一時的に記憶する。ここで、本実施形態における記憶部104には、仮記憶部104aとしての記憶領域が設けられている。仮記憶部104aは、HDR動画撮像に伴って撮像部102で逐次に取得される画像データをコピーして記憶しておくための記憶領域である。なお、仮記憶部104aは、記憶部104とは別途に設けられてもよい。 The storage unit 104 is, for example, a DRAM, and temporarily stores image data acquired by the imaging unit 102. Here, the storage unit 104 in the present embodiment is provided with a storage area as the temporary storage unit 104a. The temporary storage unit 104a is a storage area for copying and storing image data sequentially acquired by the imaging unit 102 along with HDR moving image imaging. Note that the temporary storage unit 104 a may be provided separately from the storage unit 104.
画像処理部106は、撮像部102で取得されて記憶部104に記憶された画像データに対して画像処理を施す。画像処理部106は、第1の画像処理部106aと、第2の画像処理部106bと、記録処理部106cとを有している。 The image processing unit 106 performs image processing on the image data acquired by the imaging unit 102 and stored in the storage unit 104. The image processing unit 106 includes a first image processing unit 106a, a second image processing unit 106b, and a recording processing unit 106c.
第1の画像処理部106aは、記憶部104に記憶された画像データに対して動画データの生成に係る画像処理を施す。ここで、本実施形態における動画データは、通常動画データとHDR動画データとを含む。通常動画データは、撮像部102によって取得された複数の画像データのそれぞれを動画コマとする動画データである。HDR動画データは、撮像部102による異なる露出条件での複数回の撮像で得られた露出条件の異なる組(第1の組)の画像データを合成することで構成される合成画像データのそれぞれを動画コマとするダイナミックレンジの広い動画データである。 The first image processing unit 106 a performs image processing related to generation of moving image data on the image data stored in the storage unit 104. Here, the moving image data in the present embodiment includes normal moving image data and HDR moving image data. The normal moving image data is moving image data in which each of a plurality of image data acquired by the imaging unit 102 is a moving image frame. The HDR video data is obtained by synthesizing each piece of composite image data configured by combining image data of different sets (first set) of exposure conditions obtained by multiple imaging under different exposure conditions by the imaging unit 102. This is video data with a wide dynamic range for video frames.
第2の画像処理部106bは、記憶部104に記憶された画像データに対して静止画データの生成に係る画像処理を施す。ここで、本実施形態における静止画データは、通常静止画データとHDR静止画データとを含む。通常静止画データは、撮像部102によって取得された1つの画像データから生成される静止画データである。HDR静止画データは、撮像部102による異なる露出条件での複数回の撮像で得られた露出条件の異なる組(第2の組)の画像データを合成することで構成されるダイナミックレンジの広い静止画データである。動画では画像に的確な動きがあれば細部の階調が気にされないことが多く、見たものがそのままスピーディになめらかに再現されていればよいことが多い。一方、静止画ではすみずみまで鑑賞に耐える作品となっていることが要求される。このため、静止画の場合には、動画とは異なり、静止画にふさわしい表現のHDR画像となっていることが望ましい。このような状況を想定すれば、HDR静止画データは、HDR動画データと異なる表現の画像データとなるように画像処理されてもよい。この他、静止画にはプリントの用途もあるので、印刷機の特性に応じて合成されるHDR静止画データの特性を変えるようにするようにしてもよい。 The second image processing unit 106 b performs image processing related to generation of still image data on the image data stored in the storage unit 104. Here, the still image data in the present embodiment includes normal still image data and HDR still image data. The normal still image data is still image data generated from one image data acquired by the imaging unit 102. The HDR still image data is a still image with a wide dynamic range configured by combining image data of a set (second set) with different exposure conditions obtained by multiple imaging under different exposure conditions by the imaging unit 102. Image data. In moving images, if there is an accurate movement in an image, the gradation of details is often not concerned, and what is seen only needs to be reproduced smoothly and smoothly as it is. On the other hand, still images are required to be works that can be enjoyed everywhere. For this reason, unlike a moving image, it is desirable that the still image is an HDR image that is suitable for a still image. Assuming such a situation, the HDR still image data may be subjected to image processing so as to be image data having a different expression from the HDR moving image data. In addition, since the still image has a printing purpose, the characteristics of the HDR still image data to be synthesized may be changed according to the characteristics of the printing press.
記録処理部106cは、第1の画像処理部106a又は第2の画像処理部106bによって生成された画像データから記録用の画像ファイルを生成するための処理を行う。例えば、記録処理部106cは、動画データをH.264方式等の所定の動画圧縮方式で圧縮し、圧縮した動画データに対して所定のタグ情報を付与して動画ファイルを生成する。また、例えば、記録処理部106cは、静止画データをJPEG方式等の所定の静止画圧縮方式で圧縮し、圧縮した静止画データに対して所定のタグ情報を付与して静止画ファイルを生成する。ここで、記録処理部106cは、静止画ファイルが動画撮影中に生成されたものであるときには、静止画ファイルと動画ファイルとを関連付けるための処理を行う。例えば、記録処理部106cは、静止画ファイルと動画ファイルとを関連付けるための情報(例えば関連しているファイルのファイル名)をタグ情報として記録する。また、記録処理部106cは、HDR動画撮影中に生成されたHDR静止画データを生成するときには、HDR静止画データの合成に用いられた画像データをRAW形式で記録する。このようなRAWデータを記録することにより、既に記録されているHDR静止画データとは異なる画像表現のHDR静止画データを後の編集において生成することができる。 The recording processing unit 106c performs processing for generating a recording image file from the image data generated by the first image processing unit 106a or the second image processing unit 106b. For example, the recording processing unit 106c converts the moving image data to H.264. The video data is compressed by a predetermined video compression method such as the H.264 method, and predetermined tag information is added to the compressed video data to generate a video file. For example, the recording processing unit 106c compresses still image data by a predetermined still image compression method such as the JPEG method, and adds predetermined tag information to the compressed still image data to generate a still image file. . Here, when the still image file is generated during moving image shooting, the recording processing unit 106c performs processing for associating the still image file with the moving image file. For example, the recording processing unit 106c records information for associating a still image file and a moving image file (for example, the file name of the associated file) as tag information. Further, when generating the HDR still image data generated during HDR moving image shooting, the recording processing unit 106c records the image data used for the synthesis of the HDR still image data in the RAW format. By recording such RAW data, HDR still image data having an image representation different from that of the already recorded HDR still image data can be generated in later editing.
再生部108は、画像処理部106で生成された画像データを再生するための処理を行う。再生部108は、第1の再生処理部108aと、第2の再生処理部108bとを有している。 The reproduction unit 108 performs processing for reproducing the image data generated by the image processing unit 106. The playback unit 108 includes a first playback processing unit 108a and a second playback processing unit 108b.
第1の再生処理部108aは、動画データを表示部110で再生するための処理を行う。例えば、第1の再生処理部108aは、第1の画像処理部106aで生成された動画データを表示部110に入力して表示部110における画像の表示を行わせる。画像データが圧縮されているときには、第1の再生処理部108aは、圧縮されている画像データを伸長することも行う。 The first reproduction processing unit 108a performs processing for reproducing moving image data on the display unit 110. For example, the first reproduction processing unit 108a inputs the moving image data generated by the first image processing unit 106a to the display unit 110 and causes the display unit 110 to display an image. When the image data is compressed, the first reproduction processing unit 108a also decompresses the compressed image data.
第2の再生処理部108bは、静止画データを表示部110で再生するための処理を行う。例えば、第2の再生処理部108bは、第2の画像処理部106bで生成された静止画データを表示部110に入力して表示部110における画像の表示を行わせる。画像データが圧縮されているときには、第2の再生処理部108bは、圧縮されている画像データを伸長することも行う。 The second reproduction processing unit 108b performs a process for reproducing the still image data on the display unit 110. For example, the second reproduction processing unit 108b inputs the still image data generated by the second image processing unit 106b to the display unit 110 and causes the display unit 110 to display an image. When the image data is compressed, the second reproduction processing unit 108b also decompresses the compressed image data.
表示部110は、例えば液晶ディスプレイや有機ELディスプレイであり、再生部108から入力された画像データに基づく画像等の各種の画像を表示する。 The display unit 110 is, for example, a liquid crystal display or an organic EL display, and displays various images such as an image based on the image data input from the reproduction unit 108.
記録部112は、例えばフラッシュROMで構成されている。記録部112には、画像処理部106の記録処理部106cで生成された画像ファイルが記録される。また、記録部112には、撮像装置100の制御のために用いられる各種のプログラムが記録されていてもよい。 The recording unit 112 is configured by a flash ROM, for example. In the recording unit 112, the image file generated by the recording processing unit 106c of the image processing unit 106 is recorded. The recording unit 112 may store various programs used for controlling the imaging apparatus 100.
通信部114は、撮像装置100と各種の機器との通信を仲介するための処理を行う。通信部114は、例えばテレビに画像を通信したり、プリンタに画像を通信したり、クラウドサーバに画像を通信したりするための処理を行う。 The communication unit 114 performs processing for mediating communication between the imaging apparatus 100 and various devices. For example, the communication unit 114 performs processing for communicating an image with a television, communicating an image with a printer, and communicating an image with a cloud server.
操作部116は、ユーザが撮像装置100の操作をするための操作部材である。操作部116は、例えば、レリーズボタン、動画ボタン、設定ボタン、選択キー、電源ボタン、タッチパネル等が含まれる。レリーズボタンは、静止画撮影の指示をするための操作部材である。動画ボタンは、動画撮影の開始又は終了を指示するための操作部材である。設定ボタンは、撮像装置100の設定画面を表示させるための操作部材である。選択キーは、例えば設定画面上での項目の選択や決定をするための操作部材である。電源ボタンは、撮像装置100の電源をオン又はオフするための操作部材である。タッチパネルは、表示部110の表示画面と一体的に設けられており、ユーザの表示画面上でのタッチ操作を検出する。タッチパネルによって前述したレリーズボタン、動画ボタン、設定ボタン、選択キー、電源ボタンと同等の操作ができるように構成されていてもよい。さらに、操作部116は、前述した以外の他の操作部材を有していてもよい。 The operation unit 116 is an operation member for the user to operate the imaging apparatus 100. The operation unit 116 includes, for example, a release button, a moving image button, a setting button, a selection key, a power button, a touch panel, and the like. The release button is an operation member for instructing still image shooting. The moving image button is an operation member for instructing the start or end of moving image shooting. The setting button is an operation member for displaying a setting screen of the imaging apparatus 100. The selection key is an operation member for selecting and determining an item on the setting screen, for example. The power button is an operation member for turning on or off the power of the imaging apparatus 100. The touch panel is provided integrally with the display screen of the display unit 110 and detects a user's touch operation on the display screen. You may be comprised so that operation equivalent to the release button mentioned above, the moving image button, the setting button, the selection key, and the power button can be performed with a touch panel. Furthermore, the operation unit 116 may have other operation members other than those described above.
制御部118は、CPU及びASIC等の制御回路であり、撮像装置100の動作を統括的に制御する。制御部118と同等の機能は、ソフトウェアによって実現されてもよいし、ハードウェアとソフトウェアの組み合わせによって実現されてもよい。また、制御部118の一部の機能は、制御部118と別個に設けられていてもよい。 The control unit 118 is a control circuit such as a CPU and an ASIC, and comprehensively controls the operation of the imaging apparatus 100. Functions equivalent to the control unit 118 may be realized by software, or may be realized by a combination of hardware and software. In addition, some functions of the control unit 118 may be provided separately from the control unit 118.
次に、本実施形態に係る撮像装置の動作について説明する。図2A及び図2Bは、本実施形態に係る撮像装置のメインの処理について示すフローチャートである。図2A及び図2Bの処理は、制御部118が主体となって行われる。 Next, the operation of the imaging apparatus according to the present embodiment will be described. 2A and 2B are flowcharts illustrating main processing of the imaging apparatus according to the present embodiment. The processing in FIGS. 2A and 2B is performed mainly by the control unit 118.
図2A及び図2Bの処理は、電源がオンされたときに開始される。ステップS1において、制御部118は、現在の動作モードが撮影モードであるか否かを判定する。ユーザによる操作部116の操作によって設定された動作モードに従って、制御部118は、現在の動作モードが撮影モードであるか否かを判定する。ステップS1において、撮像装置100の動作モードが撮影モードであると判定されたときに、処理はステップS2に移行する。ステップS1において、撮像装置100の動作モードが撮影モードでないと判定されたときに、処理はステップS23に移行する。 The process of FIGS. 2A and 2B is started when the power is turned on. In step S1, the control unit 118 determines whether or not the current operation mode is the shooting mode. In accordance with the operation mode set by the operation of the operation unit 116 by the user, the control unit 118 determines whether or not the current operation mode is the shooting mode. In step S1, when it is determined that the operation mode of the imaging apparatus 100 is the shooting mode, the process proceeds to step S2. In step S1, when it is determined that the operation mode of the imaging apparatus 100 is not the shooting mode, the process proceeds to step S23.
ステップS2において、制御部118は、スルー画表示のために、撮像部102による撮像を行わせて画像データを取得する。ステップS3において、制御部118は、ステップS2で取得された画像データに基づいて再生部108を制御することによってスルー画表示を行う。 In step S <b> 2, the control unit 118 acquires image data by performing imaging by the imaging unit 102 for through image display. In step S3, the control unit 118 controls the reproduction unit 108 based on the image data acquired in step S2 to perform a through image display.
ステップS4において、制御部118は、ユーザによる操作部116の操作によって設定指示がされたか否かを判定する。ステップS4において、例えば設定ボタンの操作によって設定指示がされたと判定されたときには、処理はステップS5に移行する。ステップS4において、設定指示がされていないと判定されたときには、処理はステップS6に移行する。 In step S <b> 4, the control unit 118 determines whether or not a setting instruction is given by the operation of the operation unit 116 by the user. If it is determined in step S4 that a setting instruction has been given, for example, by operating a setting button, the process proceeds to step S5. If it is determined in step S4 that no setting instruction has been given, the process proceeds to step S6.
ステップS5において、制御部118は、表示部110に設定画面を表示させるように再生部108を制御する。設定画面の表示後、制御部118は、設定画面上でのユーザの操作に従って各種の設定を変更する。設定画面上での設定の終了後、処理はステップS6に移行する。 In step S <b> 5, the control unit 118 controls the playback unit 108 to display the setting screen on the display unit 110. After the setting screen is displayed, the control unit 118 changes various settings in accordance with a user operation on the setting screen. After the setting on the setting screen is completed, the process proceeds to step S6.
ステップS6において、制御部118は、動画撮影の開始が指示されたか否かを判定する。例えば、ユーザによって動画ボタンが操作されたときに、動画撮影の開始が指示されたと判定される。ステップS6において、動画撮影の開始が指示されたと判定されたときに、処理はステップS7に移行する。ステップS6において、動画撮影の開始が指示されていないと判定されたときに、処理はステップS20に移行する。 In step S6, the control unit 118 determines whether or not an instruction to start moving image shooting has been given. For example, it is determined that the start of moving image shooting is instructed when a moving image button is operated by the user. When it is determined in step S6 that the start of moving image shooting has been instructed, the process proceeds to step S7. When it is determined in step S6 that the start of moving image shooting has not been instructed, the process proceeds to step S20.
ステップS7において、制御部118は、HDR記録モードがオンになっているか否かを判定する。HDR記録モードのオン/オフは、例えばステップS5の設定画面におけるユーザの操作によって行われる。ステップS7において、HDR記録モードがオンになっていると判定されたときには、処理はステップS8に移行する。ステップS7において、HDR記録モードがオンになっていないと判定されたときには、処理はステップS15に移行する。ここでは、単純にHDR記録モードのオン/オフとしている。この場合、動画HDRと静止画HDRとを一括して設定できるというメリットがある。一方で、静止画と動画で別々にHDRモードを設定可能でもよい。 In step S7, the control unit 118 determines whether or not the HDR recording mode is on. The HDR recording mode is turned on / off by, for example, a user operation on the setting screen in step S5. If it is determined in step S7 that the HDR recording mode is on, the process proceeds to step S8. If it is determined in step S7 that the HDR recording mode is not turned on, the process proceeds to step S15. Here, the HDR recording mode is simply turned on / off. In this case, there is an advantage that the moving image HDR and the still image HDR can be set collectively. On the other hand, the HDR mode may be set separately for still images and moving images.
ステップS8において、制御部118は、HDR動画撮像を行う。すなわち、制御部118は、HDR動画コマを生成できるように露出条件(例えば露出時間)を適宜に変更しながら撮像部102による撮像を実行する。その後、処理はステップS9に移行する。 In step S8, the control unit 118 performs HDR moving image imaging. That is, the control unit 118 performs imaging by the imaging unit 102 while appropriately changing the exposure condition (for example, exposure time) so that an HDR moving image frame can be generated. Thereafter, the process proceeds to step S9.
図3は、HDR動画撮像の開始後の動作を示すタイミングチャートである。ここで、図3の「撮像レート」は、撮像のタイミング及び各撮像における露出設定を示している。また、図3の「記録レート」は、動画コマ生成のタイミング及び生成される動画コマを示している。また、図3の「RAW」は、後で説明するステップS9において仮記憶部104aに記憶されるRAW形式の画像データを示している。また、図3の「静止画合成パターン」は、後で説明するHDR静止画作成処理において作成されるHDR静止画の合成パターンの例を示した図である。また、図3の「撮影」は、後で説明する静止画記録の指示が行われたタイミングである。 FIG. 3 is a timing chart showing the operation after the start of HDR moving image imaging. Here, “imaging rate” in FIG. 3 indicates the timing of imaging and the exposure setting in each imaging. In addition, “recording rate” in FIG. 3 indicates the timing of moving image frame generation and the generated moving image frame. Further, “RAW” in FIG. 3 indicates RAW format image data stored in the temporary storage unit 104a in step S9 described later. Also, the “still image synthesis pattern” in FIG. 3 is a diagram showing an example of a HDR still image synthesis pattern created in an HDR still image creation process described later. Further, “shooting” in FIG. 3 is a timing when an instruction to record a still image, which will be described later, is given.
HDR動画撮像では、露出の異なる撮像が繰り返し行われる。例えば、図3では、露出オーバーの撮像(図3の露出オーバー1)と露出アンダーの撮像(図3の露出アンダー1)とを含む第1の組の撮像が繰り返して行われる。ここで、露出オーバーの撮像は、標準の撮像よりも高い露出設定(例えば標準の露出設定に対して+1段の露出設定)で行われる撮像である。露出アンダーの撮像は、標準の撮像よりも低い露出設定(例えば標準の露出設定に対して−1段の露出設定)で行われる撮像である。標準の撮像とは、HDR動画撮像ではない通常の動画撮像時の露出設定で行われる撮像であり、シーン内の主要な対象物(例えば、中央の対象物、人物)の露出を適正値とする露出設定で行われる撮像である。露出は、例えば露出時間を変更することによって変更される。すなわち、露出オーバーの撮像のときには、露出時間は標準の撮像における露出時間よりも長く設定される。また、露出アンダーの撮像のときには、露出時間は標準の撮像における露出時間よりも短く設定される。ここで、シーン内の主要な対象物は、ユーザによって予め設定されるように構成されていてもよい。また、シーン内の主要な対象物は、ユーザの対象物の撮影傾向を学習することで判定できるようにしてもよい。 In HDR video imaging, imaging with different exposure is repeatedly performed. For example, in FIG. 3, the first set of imaging including the overexposed imaging (overexposed 1 in FIG. 3) and the underexposed imaging (underexposed 1 in FIG. 3) is repeatedly performed. Here, the over-exposure imaging is an imaging performed with a higher exposure setting than the standard imaging (for example, +1 step exposure setting with respect to the standard exposure setting). Under-exposure imaging is imaging performed with an exposure setting lower than that of standard imaging (for example, -1 step exposure setting with respect to the standard exposure setting). Standard imaging is imaging performed with exposure settings during normal video imaging that is not HDR video imaging, and the exposure of main objects in the scene (for example, a central object or a person) is set to an appropriate value. It is imaging performed by exposure setting. The exposure is changed, for example, by changing the exposure time. That is, during overexposed imaging, the exposure time is set longer than the exposure time in standard imaging. In the case of underexposed imaging, the exposure time is set shorter than the exposure time in standard imaging. Here, main objects in the scene may be configured to be preset by the user. Further, the main object in the scene may be determined by learning the shooting tendency of the user's object.
ステップS9において、制御部118は、撮像部102による撮像によって得られた画像データを記憶部104に記憶させる。また、制御部118は、撮像部102による撮像によって得られた画像データをコピーして記憶部104の仮記憶部104aに記憶させる。 In step S <b> 9, the control unit 118 causes the storage unit 104 to store image data obtained by imaging by the imaging unit 102. In addition, the control unit 118 copies the image data obtained by imaging by the imaging unit 102 and stores the image data in the temporary storage unit 104 a of the storage unit 104.
ステップS10において、制御部118は、画像処理部106の第1の画像処理部106aによってHDR動画コマを生成する。図3に示すように、HDR動画コマの生成は、2コマ分の画像データの撮像が完了する毎に行われる。そして、HDR動画コマは、直近の2コマの画像データから生成される。例えば、露出オーバー1の撮像と露出アンダー1の撮像との完了後にはこれらの2枚の画像データを用いてHDR動画コマ1が生成される。HDR動画コマは、例えば露出オーバーの画像データにおける白飛び部分に露出アンダーの画像データを合成することで行われる。なお、HDR動画コマの生成手法は、ここで示した手法に限定されるものではない。ここで、本実施形態においては、HDR動画コマの生成は、記憶部104に記憶されているコピー元の画像データを用いて行われる。すなわち、仮記憶部104aにおいては、コピーされた画像データが残される。このコピーされた画像データは、後で説明するHDR静止画記録に使用される。 In step S <b> 10, the control unit 118 generates an HDR moving image frame by the first image processing unit 106 a of the image processing unit 106. As shown in FIG. 3, the generation of the HDR moving image frame is performed every time imaging of image data for two frames is completed. The HDR moving image frame is generated from the image data of the two most recent frames. For example, after completion of overexposed 1 imaging and underexposed 1 imaging, the HDR moving image frame 1 is generated using these two pieces of image data. The HDR moving image frame is performed, for example, by combining underexposed image data with an overexposed portion of overexposed image data. Note that the method of generating the HDR moving image frame is not limited to the method shown here. Here, in the present embodiment, the generation of the HDR moving image frame is performed using the copy source image data stored in the storage unit 104. That is, the copied image data is left in the temporary storage unit 104a. The copied image data is used for HDR still image recording to be described later.
ステップS11において、制御部118は、HDR動画撮影の終了が指示されたか否かを判定する。例えば、ユーザによって動画ボタンが再度操作されたときに、動画撮影の終了が指示されたと判定される。ステップS11において、動画撮影の終了が指示されていないと判定されたときに、処理はステップS12に移行する。ステップS11において、動画撮影の終了が指示されたと判定されたときに、処理はステップS14に移行する。 In step S <b> 11, the control unit 118 determines whether or not an instruction to end HDR video shooting has been given. For example, when the user operates the moving image button again, it is determined that the end of moving image shooting has been instructed. When it is determined in step S11 that the end of moving image shooting has not been instructed, the process proceeds to step S12. When it is determined in step S11 that the end of moving image shooting has been instructed, the process proceeds to step S14.
ステップS12において、制御部118は、HDR静止画記録をするか否かを判定する。例えばユーザによって静止画記録の指示がされたときにはHDR静止画記録をすると判定される。静止画記録の指示は、例えばレリーズボタンの押し操作である。ステップS12において、HDR静止画記録をすると判定されたときには、処理はステップS13に移行する。ステップS12において、HDR静止画記録をしないと判定されたときには、処理はステップS8に戻る。この場合、HDR動画撮像が継続される。 In step S12, the control unit 118 determines whether to record an HDR still image. For example, when the user instructs to record a still image, it is determined that the HDR still image is recorded. The still image recording instruction is, for example, a pressing operation of a release button. If it is determined in step S12 that HDR still image recording is to be performed, the process proceeds to step S13. If it is determined in step S12 that HDR still image recording is not performed, the process returns to step S8. In this case, HDR moving image capturing is continued.
ステップS13において、制御部118は、HDR静止画ファイルの作成処理を行う。HDR静止画ファイルの作成処理の後、処理はステップS8に戻る。以下、HDR静止画ファイルの作成処理について説明する。図4は、HDR静止画作成処理について示すフローチャートである。 In step S13, the control unit 118 performs processing for creating an HDR still image file. After the HDR still image file creation process, the process returns to step S8. Hereinafter, a process of creating an HDR still image file will be described. FIG. 4 is a flowchart showing HDR still image creation processing.
ステップS101において、制御部118は、仮記憶部104aに記憶されている画像データ(RAWデータ)の中から、静止画記録の指示のタイミングに近い2コマの画像データを選択する。図3の例では、露出オーバー2の撮像の間に静止画記録の指示がなされている。この場合、制御部118は、まず、静止画記録の指示がされたタイミングの撮像で得られた露出オーバー2の画像データとその直前の撮像で得られた露出アンダー1の画像データとを含む第2の組を選択する(図3の合成パターンAの組み合わせ)。 In step S101, the control unit 118 selects, from the image data (RAW data) stored in the temporary storage unit 104a, two frames of image data close to the timing of the still image recording instruction. In the example of FIG. 3, a still image recording instruction is given during overexposed 2 imaging. In this case, the control unit 118 first includes overexposed 2 image data obtained by imaging at the timing when the still image recording instruction is given, and underexposed 1 image data obtained by immediately preceding imaging. 2 sets are selected (combination of synthesis pattern A in FIG. 3).
ステップS102において、制御部118は、選択した2枚の画像データを比較し、2枚の画像データが合成可能な画像データであるか否かを判定する。ステップS102において、2枚の画像データが合成可能な画像データであると判定されたときには、処理はステップS103に移行する。ステップS102において、2枚の画像データが合成可能な画像データでないと判定されたときには、処理はステップS108に移行する。 In step S102, the control unit 118 compares the selected two pieces of image data and determines whether the two pieces of image data are image data that can be combined. If it is determined in step S102 that the two pieces of image data can be combined, the process proceeds to step S103. If it is determined in step S102 that the two pieces of image data are not image data that can be combined, the process proceeds to step S108.
ここで、ステップS102における判定は、選択した2枚の画像データにおける対象物のずれに基づいて行われる。ここでのずれは、対象物の位置のずれと対象物の形状のずれを含む。対象物の形状のずれとは、画像データの主要な対象物(中心の対象物、人物等)の間の輪郭のずれ、人物であれば表情のずれ等を含む。なお、対象物の位置のずれは、例えば2枚の画像データの間の対象物の動きベクトルによって判定される。また、対象物の形状のずれは、画像データの輪郭を抽出して比較する、顔検出技術を利用して顔の表情を特定して比較すること等によって行われる。ここで、比較の対象となる2枚の画像データの露出は異なっているので、ステップS102の判定に際してはこの露出差が考慮されることが望ましい。例えば、両方の露出差がなくなるように一方の画像データに対してゲインをかける露出補正処理を行ってから、ステップS102の判定を行うことが望ましい。 Here, the determination in step S102 is performed based on the deviation of the object in the selected two pieces of image data. The shift here includes a shift in the position of the object and a shift in the shape of the object. The deviation of the shape of the object includes a deviation of the contour between main objects (center object, person, etc.) of the image data, and a deviation of facial expression if it is a person. Note that the displacement of the position of the object is determined by, for example, a motion vector of the object between the two pieces of image data. Further, the deviation of the shape of the object is performed by extracting and comparing the contours of the image data, specifying facial expressions using a face detection technique, and comparing the facial expressions. Here, since the exposure of the two image data to be compared is different, it is desirable to take this exposure difference into consideration in the determination in step S102. For example, it is desirable to perform the determination in step S102 after performing exposure correction processing for applying gain to one of the image data so that both exposure differences are eliminated.
ステップS102においては、対象物の位置のずれと対象物の形状のずれの両方が所定値よりも小さければ合成可能であると判定される。例えば、図5に示す露出オーバーの画像データBと露出アンダーの画像データD1との比較では、露出オーバーの画像データBと露出アンダーの画像データD1との間で対象物である人物の位置のずれはない。しかしながら、露出アンダーの画像データD1において、対象物である人物の表情が黒潰れしてしまっている。この場合、露出オーバーの画像データBと露出アンダーの画像データD1とでは対象物の表情のずれが大きいので、露出オーバーの画像データBと露出アンダーの画像データD1とは合成可能でないと判定される。一方、図5に示す露出オーバーの画像データBと露出アンダーの画像データD2との比較では、露出アンダーの画像データD1において、対象物である人物の表情はアンダーであるものの黒潰れはしていない。この場合、露出オーバーの画像データBと露出アンダーの画像データD1とでは対象物の表情のずれが小さいとして、露出オーバーの画像データBと露出アンダーの画像データD2とは合成可能であると判定される。この場合、後の処理によってHDR静止画データHDRが生成される。 In step S102, it is determined that the composition is possible if both the displacement of the position of the object and the displacement of the shape of the object are smaller than a predetermined value. For example, in the comparison of the overexposed image data B and the underexposed image data D1 shown in FIG. 5, the position of the person as the object is shifted between the overexposed image data B and the underexposed image data D1. There is no. However, in the underexposed image data D1, the facial expression of the person who is the object is crushed in black. In this case, since there is a large difference in facial expression between the overexposed image data B and the underexposed image data D1, it is determined that the overexposed image data B and the underexposed image data D1 cannot be combined. . On the other hand, in the comparison between the overexposed image data B and the underexposed image data D2 shown in FIG. 5, in the underexposed image data D1, the expression of the person who is the object is underexposure but not blackened. . In this case, it is determined that the over-exposure image data B and the under-exposure image data D2 can be combined with each other because the difference in facial expression between the over-exposure image data B and the under-exposure image data D1 is small. The In this case, HDR still image data HDR is generated by subsequent processing.
ここで、図4の説明に戻る。ステップS103において、制御部118は、合成可能であると判定された2枚の画像データの間の輝度差が所定値(例えば2.5段)よりも大きいか否かを判定する。この判定のための所定値については適宜に設定できる。ステップS103において、合成可能であると判定された2枚の画像データの間の輝度差が所定値よりも大きいと判定されたときには、処理はステップS104に移行する。ステップS103において、合成可能であると判定された2枚の画像データの間の輝度差が所定値以内であると判定されたときには、処理はステップS107に移行する。 Returning to the description of FIG. In step S103, the control unit 118 determines whether or not the luminance difference between the two pieces of image data determined to be compositeable is greater than a predetermined value (for example, 2.5 levels). The predetermined value for this determination can be set as appropriate. If it is determined in step S103 that the luminance difference between the two pieces of image data determined to be compositable is greater than a predetermined value, the process proceeds to step S104. If it is determined in step S103 that the luminance difference between the two pieces of image data determined to be compositeable is within a predetermined value, the process proceeds to step S107.
ステップS104においては、制御部118は、次のHDR動画撮像のタイミングまで待機し、次のHDR動画撮像のタイミングとなったときに直近の2コマと露出設定を異ならせて撮像部102による撮像を行う。図3の例では、制御部118は、露出オーバー2の後の撮像のタイミングでは、直近2コマの撮像における露出設定である露出アンダー及び露出オーバーの両方と異なる標準の露出設定での撮像を行う(図3の標準2)。さらにその後の撮像のタイミングでは、制御部118は、直近2コマの撮像における露出設定である露出オーバー及び標準の両方と異なる露出アンダーの露出設定での撮像を行う(図3の露出アンダー2)。撮像の後、制御部118は、撮像部102による撮像によって得られた画像データを記憶部104に記憶させる。また、制御部118は、撮像部102による撮像によって得られた画像データをコピーして記憶部104の仮記憶部104aに記憶させる。さらに、制御部118は、画像処理部106の第1の画像処理部106aによってHDR動画コマを生成する。前述したように、HDR動画コマは、直近の2コマの画像データから生成される。ただし、図3の例では、標準の撮像で得られた画像データについてはそのままHDR動画コマとしている。これは、露出オーバーの画像データと露出アンダーの画像データとで生成されるHDR動画コマとの画質の差を少なくするためである。しかしながら、露出オーバー2の撮像で得られた画像データと標準2の撮像で得られた画像データとでHDR動画コマを生成してもよい。一方、図3の露出アンダー2の撮像で得られた画像データとその後の露出オーバー3の撮像で得られた画像データについてはそのままHDR動画コマの生成に用いてよい。HDR動画コマの生成後、処理はステップS105に移行する。 In step S104, the control unit 118 stands by until the next HDR moving image capturing timing, and when the next HDR moving image capturing timing comes, the exposure setting is different from the most recent two frames, and the image capturing unit 102 performs image capturing. Do. In the example of FIG. 3, at the timing of imaging after overexposure 2, the control unit 118 performs imaging with a standard exposure setting different from both underexposure and overexposure, which are exposure settings in the latest two frames. (Standard 2 in FIG. 3). Further, at the timing of subsequent imaging, the control unit 118 performs imaging with an underexposure setting different from both overexposure and standard, which are exposure settings in the imaging of the two most recent frames (underexposure 2 in FIG. 3). After imaging, the control unit 118 causes the storage unit 104 to store image data obtained by imaging by the imaging unit 102. In addition, the control unit 118 copies the image data obtained by imaging by the imaging unit 102 and stores the image data in the temporary storage unit 104 a of the storage unit 104. Further, the control unit 118 generates an HDR moving image frame by the first image processing unit 106 a of the image processing unit 106. As described above, the HDR moving image frame is generated from the image data of the two most recent frames. However, in the example of FIG. 3, the image data obtained by standard imaging is directly used as an HDR moving image frame. This is to reduce the difference in image quality between HDR video frames generated by overexposed image data and underexposed image data. However, an HDR video frame may be generated from image data obtained by overexposed 2 imaging and image data obtained by standard 2 imaging. On the other hand, the image data obtained by the under-exposure 2 imaging in FIG. 3 and the image data obtained by the subsequent over-exposure 3 imaging may be used as they are for the generation of the HDR video frame. After the generation of the HDR video frame, the process proceeds to step S105.
ステップS105において、制御部118は、露出の異なる直近の3枚(ステップS102で合成可能であると判定された2枚とステップS104で得られた1枚。図3の例では合成パターンCの組み合わせ)の画像データが合成可能な画像データであるか否かを判定する。ステップS105における判定は、ステップS102における判定と同様に行われる。ステップS105において、3枚の画像データが合成可能な画像データであると判定されたときには、処理はステップS106に移行する。ステップS105において、3枚の画像データが合成可能な画像データでないと判定されたときには、処理はステップS107に移行する。 In step S105, the control unit 118 controls the latest three images with different exposures (two images determined to be compositable in step S102 and one image obtained in step S104. In the example of FIG. ) Is determined as to whether or not the image data can be synthesized. The determination in step S105 is performed in the same manner as the determination in step S102. If it is determined in step S105 that the three pieces of image data are image data that can be combined, the process proceeds to step S106. If it is determined in step S105 that the three pieces of image data are not image data that can be combined, the process proceeds to step S107.
ステップS106において、制御部118は、ステップS105で合成可能であると判定された3枚(露出オーバー、標準、露出アンダー)の画像データを用いて画像処理部106の第2の画像処理部106bによってHDR静止画データを生成する。そして、制御部118は、生成したHDR静止画データを記憶部104に記憶させる。その後、図4の処理は終了する。 In step S <b> 106, the control unit 118 uses the second image processing unit 106 b of the image processing unit 106 using the three pieces of image data (overexposed, standard, underexposed) determined to be compositable in step S <b> 105. HDR still image data is generated. Then, the control unit 118 causes the storage unit 104 to store the generated HDR still image data. Thereafter, the process of FIG. 4 ends.
ステップS107において、制御部118は、ステップS102で合成可能であると判定された2枚の画像データを用いて画像処理部106の第2の画像処理部106bによってHDR静止画データを生成する。そして、制御部118は、生成したHDR静止画データを記憶部104に記憶させる。その後、図4の処理は終了する。 In step S107, the control unit 118 generates HDR still image data by the second image processing unit 106b of the image processing unit 106 using the two pieces of image data determined to be compositeable in step S102. Then, the control unit 118 causes the storage unit 104 to store the generated HDR still image data. Thereafter, the process of FIG. 4 ends.
ステップS108において、制御部118は、静止画記録の指示から所定時間が経過したか否かを判定する。この所定時間は、例えば3コマ分の撮像期間である。ステップS108において、静止画記録の指示から所定時間が経過したと判定されたときには、処理はステップS109に移行する。ステップS108において、静止画記録の指示から所定時間が経過していないと判定されたときには、処理はステップS110に移行する。 In step S108, the control unit 118 determines whether or not a predetermined time has elapsed from the instruction to record the still image. This predetermined time is, for example, an imaging period for three frames. If it is determined in step S108 that a predetermined time has elapsed since the instruction to record the still image, the process proceeds to step S109. If it is determined in step S108 that the predetermined time has not elapsed since the still image recording instruction, the process proceeds to step S110.
ステップS109において、制御部118は、静止画記録の指示から所定時間が経過しているので、それまでのステップS101の処理において選択した画像データの中から合成に使用できる部分を集めて画像処理部106の第2の画像処理部106bによってHDR静止画データを生成する。そして、制御部118は、生成したHDR静止画データを記憶部104に記憶させる。その後、図4の処理は終了する。例えば、図5に示す露出オーバーの画像データBと露出アンダーの画像データD1とでは、対象物である人物の表情は合成に使用できないものの、それ以外の部分については合成に使用できる。このような場合には、人物の顔以外をHDR静止画データの作成に用いる。同様にして他の画像データからも合成できる部分を集めて最終的に1枚の画像データを生成する。 In step S109, since the predetermined time has elapsed since the instruction to record the still image, the control unit 118 collects portions that can be used for composition from the image data selected in the processing of step S101 so far, and The HDR still image data is generated by the second image processing unit 106 b 106. Then, the control unit 118 causes the storage unit 104 to store the generated HDR still image data. Thereafter, the process of FIG. 4 ends. For example, in the overexposed image data B and the underexposed image data D1 shown in FIG. 5, the facial expression of the person who is the object cannot be used for composition, but the other portions can be used for composition. In such a case, other than the face of a person is used to create HDR still image data. Similarly, parts that can be combined from other image data are collected and finally one piece of image data is generated.
ステップS110においては、制御部118は、次のHDR動画撮像のタイミングまで待機し、次のHDR動画撮像のタイミングとなったときに直近の2コマと露出設定を異ならせて撮像部102による撮像を行う。その後、処理はステップS101に戻る。 In step S110, the control unit 118 stands by until the next HDR moving image capturing timing, and when the next HDR moving image capturing timing comes, the exposure setting is different from the latest two frames and the image capturing unit 102 performs the image capturing. Do. Thereafter, the process returns to step S101.
なお、2回目以後のステップS101の処理においては、制御部118は、静止画記録の指示がされたタイミングに近いタイミングの撮像で得られた2枚の画像データを選択する。例えば、2回目のステップS101の処理においては、制御部118は、露出オーバー2の撮像で得られた画像データと標準2の撮像で得られた画像データとを選択する(図3の合成パターンBの組み合わせ)。さらに、図3では示していないが、3回目のステップS101の処理においては、制御部118は、露出オーバー2の撮像で得られた画像データと露出アンダー2の撮像で得られた画像データとを選択する。なお、本実施形態では、静止画記録の指示がされたタイミングの撮像で得られた露出オーバー2の画像データを基準にしてもう1枚の画像データを選択するように説明しているが、静止画記録の指示がされたタイミングの直前の撮像で得られた露出アンダー1の画像データを基準にしてもう1枚の画像データを選択する等の変更がなされてもよい。 Note that in the second and subsequent processing of step S101, the control unit 118 selects two pieces of image data obtained by imaging at a timing close to the timing at which the still image recording instruction is given. For example, in the second process of step S101, the control unit 118 selects image data obtained by overexposed 2 imaging and image data obtained by standard 2 imaging (composite pattern B in FIG. 3). Combination). Furthermore, although not shown in FIG. 3, in the process of step S <b> 101 for the third time, the control unit 118 obtains image data obtained by overexposed 2 imaging and image data obtained by underexposed 2 imaging. select. In this embodiment, the description has been made so that another piece of image data is selected on the basis of overexposed 2 image data obtained by imaging at the timing when a still image recording instruction is given. Changes such as selecting another piece of image data based on underexposed 1 image data obtained by imaging immediately before the timing at which the image recording instruction is given may be made.
ここで、図2A及び図2Bの説明に戻る。ステップS11においてHDR動画撮影を終了すると判定されたときのステップS14において、制御部118は、画像処理部106の記録処理部106cによってHDR動画ファイルを生成する。その後、処理はステップS1に戻る。 Here, it returns to description of FIG. 2A and FIG. 2B. In step S14 when it is determined in step S11 that HDR movie shooting is to be terminated, the control unit 118 generates an HDR movie file by the recording processing unit 106c of the image processing unit 106. Thereafter, the process returns to step S1.
図6は、HDR動画ファイルの構造を示す図である。図6に示すように、HDR動画ファイル200は、HDR動画データ201と、HDR静止画データ202と、RAWデータ203と、タグ情報204とを有する。なお、図6では示していないが、HDR動画ファイル200には、撮像装置100に搭載されたマイクを介して取得された音声データも併せて記録されてもよい。 FIG. 6 is a diagram showing the structure of an HDR video file. As illustrated in FIG. 6, the HDR moving image file 200 includes HDR moving image data 201, HDR still image data 202, RAW data 203, and tag information 204. Although not shown in FIG. 6, audio data acquired via a microphone mounted on the imaging apparatus 100 may also be recorded in the HDR moving image file 200.
HDR動画データ201は、動画圧縮されたHDR動画コマF1、F2…からなるデータである。 The HDR moving image data 201 is data including HDR moving image frames F1, F2,.
HDR静止画データ202は、静止画圧縮されたHDR静止画データA1からなるデータである。なお、HDR動画ファイル200には、複数のHDR静止画データ202が記録されることもある。 The HDR still image data 202 is data composed of still image compressed HDR still image data A1. Note that a plurality of HDR still image data 202 may be recorded in the HDR moving image file 200.
RAWデータ203は、HDR静止画データ202の生成用いられた画像データをRAW形式で記録したデータである。RAWデータ203を記録しておくことにより、後の編集作業においてHDR静止画データを生成することもできる。 The RAW data 203 is data in which image data used to generate the HDR still image data 202 is recorded in the RAW format. By recording the RAW data 203, HDR still image data can be generated in a later editing operation.
タグ情報204は、HDR動画ファイル200のファイル名等のファイル情報を有している。また、タグ情報204は、それぞれのHDR動画コマに関連付けされるHDR静止画データを特定するための情報(例えば、HDR静止画データやRAWデータの記録されているアドレス)を含む関連情報を有している。 The tag information 204 includes file information such as the file name of the HDR moving image file 200. The tag information 204 includes related information including information for specifying HDR still image data associated with each HDR video frame (for example, an address where HDR still image data or RAW data is recorded). ing.
なお、図6では、HDR静止画データは、HDR動画ファイルに記録されている。これに対し、HDR静止画データは、HDR動画ファイルとは別のファイルとして記録されてもよい。同様に、RAWデータもHDR動画ファイルとは別のファイルとして記録されてもよい。 In FIG. 6, the HDR still image data is recorded in the HDR moving image file. On the other hand, the HDR still image data may be recorded as a file different from the HDR moving image file. Similarly, the RAW data may be recorded as a file different from the HDR moving image file.
ここで、図2A及び図2Bの説明に戻る。ステップS7においてHDR記録モードがオンになっていないと判定されたときのステップS15において、制御部118は、通常動画撮像を行う。すなわち、制御部118は、露出条件を標準の露出設定として撮像部102による撮像を実行する。そして、制御部118は、撮像毎に動画コマを生成するように画像処理部106に指示する。この指示を受けて、画像処理部106の第1の画像処理部106aは、通常動画撮影に伴って記憶部104に記憶されている画像データから通常動画コマを生成する。その後、処理はステップS16に移行する。 Here, it returns to description of FIG. 2A and FIG. 2B. In step S15 when it is determined in step S7 that the HDR recording mode is not turned on, the control unit 118 performs normal moving image imaging. That is, the control unit 118 performs imaging by the imaging unit 102 with the exposure condition set as a standard exposure setting. Then, the control unit 118 instructs the image processing unit 106 to generate a moving image frame for each imaging. In response to this instruction, the first image processing unit 106a of the image processing unit 106 generates a normal moving image frame from the image data stored in the storage unit 104 along with normal moving image shooting. Thereafter, the process proceeds to step S16.
ステップS16において、制御部118は、動画撮影の終了が指示されたか否かを判定する。例えば、ユーザによって動画ボタンが再度操作されたときに、動画撮影の終了が指示されたと判定される。ステップS16において、動画撮影の終了が指示されていないと判定されたときに、処理はステップS17に移行する。ステップS16において、動画撮影の終了が指示されたと判定されたときに、処理はステップS19に移行する。 In step S16, the control unit 118 determines whether or not an instruction to end moving image shooting has been given. For example, when the user operates the moving image button again, it is determined that the end of moving image shooting has been instructed. When it is determined in step S16 that the end of moving image shooting has not been instructed, the process proceeds to step S17. If it is determined in step S16 that the end of moving image shooting has been instructed, the process proceeds to step S19.
ステップS17において、制御部118は、通常静止画記録をするか否かを判定する。通常静止画記録をするか否かは、HDR静止画記録と同様にして判定されてよい。ステップS17において、通常静止画記録をすると判定されたときには、処理はステップS18に移行する。ステップS17において、通常静止画記録をしないと判定されたときには、処理はステップS15に戻る。 In step S17, the control unit 118 determines whether or not to perform normal still image recording. Whether or not to perform normal still image recording may be determined in the same manner as in HDR still image recording. If it is determined in step S17 that normal still image recording is to be performed, the process proceeds to step S18. If it is determined in step S17 that normal still image recording is not performed, the process returns to step S15.
ステップS18において、制御部118は、通常動画撮影に伴って記憶部104に記憶された画像データを用いて画像処理部106の第2の画像処理部106bにより通常静止画データを生成する。その後、制御部118は、通常静止画データを記憶部104に記憶させる。その後、処理はステップS15に戻る。 In step S <b> 18, the control unit 118 generates normal still image data by the second image processing unit 106 b of the image processing unit 106 using image data stored in the storage unit 104 along with normal moving image shooting. Thereafter, the control unit 118 stores the normal still image data in the storage unit 104. Thereafter, the process returns to step S15.
ステップS19において、制御部118は、画像処理部106の記録処理部106cによって通常動画ファイルを生成する。その後、処理はステップS1に戻る。通常動画ファイルは、記録される動画データが通常動画データである点が図6で示したHDR動画ファイルと異なる。 In step S19, the control unit 118 generates a normal moving image file by the recording processing unit 106c of the image processing unit 106. Thereafter, the process returns to step S1. The normal moving image file is different from the HDR moving image file shown in FIG. 6 in that the moving image data to be recorded is normal moving image data.
ステップS6において動画撮影の開始が指示されていないと判定されたときのステップS20において、制御部118は、静止画撮影の開始が指示されたか否かを判定する。例えば、ユーザによってレリーズボタンが操作されたときに、静止画撮影の開始が指示されたと判定される。ステップS20において、静止画撮影の開始が指示されたと判定されたときに、処理はステップS21に移行する。ステップS20において、静止画撮影の開始が指示されていないと判定されたときに、処理はステップS1に戻る。 In step S20 when it is determined in step S6 that the start of moving image shooting has not been instructed, the control unit 118 determines whether or not the start of still image shooting has been instructed. For example, when the release button is operated by the user, it is determined that the start of still image shooting is instructed. When it is determined in step S20 that the start of still image shooting has been instructed, the process proceeds to step S21. If it is determined in step S20 that the start of still image shooting has not been instructed, the process returns to step S1.
ステップS21において、制御部118は、通常静止画撮像を行う。すなわち、制御部118は、ステップS5で設定された露出条件に従って撮像部102による1回の撮像を実行する。その後、処理はステップS22に移行する。 In step S21, the control unit 118 performs normal still image capturing. That is, the control unit 118 performs one imaging by the imaging unit 102 in accordance with the exposure condition set in step S5. Thereafter, the process proceeds to step S22.
ステップS22において、制御部118は、画像処理部106の第2の画像処理部106bによって通常静止画データを生成する。通常静止画データの生成後、制御部118は、画像処理部106の記録処理部106cによって通常静止画ファイルを生成し、生成した記録部112に記録する。その後、処理はステップS1に戻る。 In step S22, the control unit 118 generates normal still image data by the second image processing unit 106b of the image processing unit 106. After the normal still image data is generated, the control unit 118 generates a normal still image file by the recording processing unit 106 c of the image processing unit 106 and records it in the generated recording unit 112. Thereafter, the process returns to step S1.
ステップS1において動作モードが撮影モードでないと判定されたときのステップS23において、制御部118は、撮影モード以外のその他の処理を行う。その他の処理の後、処理はステップS1に戻る。 In step S23 when it is determined in step S1 that the operation mode is not the shooting mode, the control unit 118 performs other processes other than the shooting mode. After the other processes, the process returns to step S1.
図7A及び図7Bは、その他の処理について示すフローチャートである。ステップS201において、制御部118は、現在の動作モードが再生モードであるか否かを判定する。ステップS201において、撮像装置100の動作モードが再生モードでないと判定されたときに、処理はステップS216に移行する。ステップS201において、撮像装置100の動作モードが再生モードであると判定されたときに、処理はステップS202に移行する。 7A and 7B are flowcharts showing other processes. In step S201, the control unit 118 determines whether or not the current operation mode is the reproduction mode. In step S201, when it is determined that the operation mode of the imaging apparatus 100 is not the reproduction mode, the process proceeds to step S216. In step S201, when it is determined that the operation mode of the imaging apparatus 100 is the reproduction mode, the process proceeds to step S202.
ステップS202において、制御部118は、記録部112に記録されている画像ファイルの一覧を表示させるように再生部108を制御する。これにより、例えば記録部112に記録されている画像ファイルの一覧を示すサムネイル画像が表示部110に表示される。その後、処理はステップS203に移行する。 In step S202, the control unit 118 controls the reproduction unit 108 to display a list of image files recorded in the recording unit 112. Thereby, for example, a thumbnail image indicating a list of image files recorded in the recording unit 112 is displayed on the display unit 110. Thereafter, the process proceeds to step S203.
ステップS203において、制御部118は、一覧表示の中からユーザによって動画ファイルが選択されたか否かを判定する。ステップS203において、ユーザによって動画ファイルが選択されたと判定されたときには、処理はステップS204に移行する。ステップS203において、ユーザによって動画ファイルが選択されていないと判定されたときには、処理はステップS208に移行する。 In step S203, the control unit 118 determines whether or not a moving image file has been selected by the user from the list display. If it is determined in step S203 that the moving image file has been selected by the user, the process proceeds to step S204. If it is determined in step S203 that the moving image file has not been selected by the user, the process proceeds to step S208.
ステップS204において、制御部118は、選択された動画ファイルに対応した動画コマを表示部110に表示するように再生部108に指示する。これを受けて、再生部108の第1の再生処理部108aは、動画コマを表示部110に表示させる。 In step S <b> 204, the control unit 118 instructs the playback unit 108 to display a moving image frame corresponding to the selected moving image file on the display unit 110. In response to this, the first reproduction processing unit 108a of the reproduction unit 108 causes the display unit 110 to display the moving image frame.
ステップS205において、制御部118は、静止画を再生するタイミングであるか否かを判定する。例えば、再生中の動画コマに関連付けされている静止画データがあるときには、静止画を再生するタイミングであると判定される。ステップS205において、静止画を再生するタイミングであると判定されたときには、処理はステップS206に移行する。ステップS205において、静止画を再生するタイミングでないと判定されたときには、処理はステップS207に移行する。 In step S205, the control unit 118 determines whether it is time to reproduce a still image. For example, when there is still image data associated with the moving image frame being reproduced, it is determined that it is time to reproduce the still image. If it is determined in step S205 that it is time to reproduce a still image, the process proceeds to step S206. If it is determined in step S205 that it is not time to reproduce the still image, the process proceeds to step S207.
ステップS206において、制御部118は、再生中の動画コマに関連付けられた静止画(HDR静止画を含む)を表示部110に表示させるように再生部108に指示する。これを受けて、再生部108の第2の再生処理部108bは、静止画を表示部110に表示させる。これにより、表示部110において静止画の再生が行われる。 In step S206, the control unit 118 instructs the playback unit 108 to display on the display unit 110 a still image (including an HDR still image) associated with the moving image frame being played back. In response to this, the second reproduction processing unit 108b of the reproduction unit 108 causes the display unit 110 to display a still image. As a result, the still image is reproduced on the display unit 110.
ステップS207において、制御部118は、動画再生を終了するか否かを判定する。ステップS207においては、最終の動画コマの再生が終了したか又はユーザによる操作部116の操作によって動画再生の終了が指示されたときに、動画再生を終了すると判定される。ステップS207において、動画再生を終了しないと判定されたときには、処理はステップS204に戻る。この場合には、動画再生は継続される。ステップS207において、動画再生を終了すると判定されたときには、処理はステップS215に移行する。 In step S207, the control unit 118 determines whether or not to end the moving image reproduction. In step S207, it is determined that the moving image reproduction is to be ended when the reproduction of the final moving image frame has been completed or when the end of the moving image reproduction is instructed by the operation of the operation unit 116 by the user. In step S207, when it is determined not to end the moving image reproduction, the process returns to step S204. In this case, the moving image reproduction is continued. If it is determined in step S207 that the moving image reproduction is to be terminated, the process proceeds to step S215.
ステップS203においてユーザによって動画ファイルが選択されていないと判定されたときのステップS208において、制御部118は、ユーザの操作部116の操作によってスライドショーの再生指示がされたか否かを判定する。ステップS208において、スライドショーの再生指示がされたと判定されたときには、処理はステップS209に移行する。ステップS208において、スライドショーの再生指示がされていないと判定されたときには、処理はステップS212に移行する。 In step S208 when it is determined in step S203 that the moving image file has not been selected by the user, the control unit 118 determines whether or not a slide show reproduction instruction has been issued by the operation of the operation unit 116 of the user. If it is determined in step S208 that a slide show playback instruction has been issued, the process proceeds to step S209. If it is determined in step S208 that a slide show reproduction instruction has not been issued, the process proceeds to step S212.
ステップS209において、制御部118は、記録部112に記録されている静止画ファイルの再生を順次に開始するように再生部108に指示する。これを受けて、再生部108の第2の再生処理部108bは、静止画を表示部110に表示させる。これにより、表示部110において静止画の再生が行われる。 In step S209, the control unit 118 instructs the playback unit 108 to sequentially start playback of the still image files recorded in the recording unit 112. In response to this, the second reproduction processing unit 108b of the reproduction unit 108 causes the display unit 110 to display a still image. As a result, the still image is reproduced on the display unit 110.
ステップS210において、制御部118は、静止画再生を終了するか否かを判定する。ステップS210においては、ユーザによる操作部116の操作によってスライドショーの再生の終了が指示されたときに、静止画再生を終了すると判定される。ステップS210において、静止画再生を終了しないと判定されたときには、処理はステップS211に移行する。ステップS210において、静止画再生を終了すると判定されたときには、処理はステップS215に移行する。ステップS210において、制御部118は、静止画再生を終了するか否かを判定する。ステップS211において、制御部118は、次の静止画があるか否かを判定する。ステップS211において、次の静止画があると判定されたときには、処理はステップS209に戻る。この場合には、次の静止画ファイルの再生が行われる。ステップS211において、次の静止画がないと判定されたときには、処理はステップS215に移行する。 In step S210, the control unit 118 determines whether or not to end still image reproduction. In step S <b> 210, it is determined that the still image reproduction is to be terminated when an instruction to end the slide show reproduction is given by the user operating the operation unit 116. If it is determined in step S210 that the still image reproduction is not finished, the process proceeds to step S211. If it is determined in step S210 that the still image reproduction is to end, the process proceeds to step S215. In step S210, the control unit 118 determines whether or not to end still image reproduction. In step S211, the control unit 118 determines whether there is a next still image. If it is determined in step S211 that there is a next still image, the process returns to step S209. In this case, the next still image file is played back. If it is determined in step S211 that there is no next still image, the process proceeds to step S215.
ステップS208においてユーザによってスライドショーを再生指示がされていないと判定されたときのステップS212において、制御部118は、一覧表示の中からユーザによって静止画ファイルが選択されたか否かを判定する。ステップS212において、ユーザによって静止画ファイルが選択されたと判定されたときには、処理はステップS213に移行する。ステップS212において、ユーザによって静止画ファイルが選択されていないと判定されたときには、処理はステップS215に移行する。 In step S212 when it is determined in step S208 that the user has not instructed playback of the slide show, the control unit 118 determines whether or not a still image file has been selected by the user from the list display. If it is determined in step S212 that a still image file has been selected by the user, the process proceeds to step S213. If it is determined in step S212 that the still image file has not been selected by the user, the process proceeds to step S215.
ステップS213において、制御部118は、記録部112に記録されている静止画ファイルの再生を開始するように再生部108に指示する。これを受けて、再生部108の第2の再生処理部108bは、静止画を表示部110に表示させる。これにより、表示部110において静止画の再生が行われる。 In step S213, the control unit 118 instructs the playback unit 108 to start playback of the still image file recorded in the recording unit 112. In response to this, the second reproduction processing unit 108b of the reproduction unit 108 causes the display unit 110 to display a still image. As a result, the still image is reproduced on the display unit 110.
ステップS214において、制御部118は、静止画再生の終了が指示されたか否かを判定する。ステップS214において、静止画再生の終了が指示されていないと判定されたときに、処理はステップS213に戻る。ステップS214において、静止画再生の終了が指示されたと判定されたときに、処理はステップS215に移行する。 In step S214, the control unit 118 determines whether or not the end of still image reproduction has been instructed. If it is determined in step S214 that the end of still image reproduction has not been instructed, the process returns to step S213. When it is determined in step S214 that the end of still image reproduction has been instructed, the process proceeds to step S215.
ステップS215において、制御部118は、再生モードの処理を終了するか否かを判定する。ステップS215において、再生モードの処理を終了しないと判定されたときには処理はステップS202に戻る。ステップS215において、再生モードの処理を終了すると判定されたときには処理は図7A及び図7Bの処理は終了する。この場合、処理は図2AのステップS1に戻る。 In step S215, the control unit 118 determines whether or not to end the playback mode process. If it is determined in step S215 that the playback mode process is not to end, the process returns to step S202. When it is determined in step S215 that the playback mode process is to be ended, the process ends in FIGS. 7A and 7B. In this case, the process returns to step S1 in FIG. 2A.
ステップS216において、制御部118は、現在の動作モードが通信モードであるか否かを判定する。ステップS216において、撮像装置100の動作モードが通信モードであると判定されたときに、処理はステップS217に移行する。ステップS216において、撮像装置100の動作モードが通信モードでないと判定されたときに、図7A及び図7Bの処理は終了する。この場合、処理は図2AのステップS1に戻る。 In step S216, the control unit 118 determines whether or not the current operation mode is the communication mode. In step S216, when it is determined that the operation mode of the imaging apparatus 100 is the communication mode, the process proceeds to step S217. In step S216, when it is determined that the operation mode of the imaging apparatus 100 is not the communication mode, the processing in FIGS. 7A and 7B ends. In this case, the process returns to step S1 in FIG. 2A.
ステップS217において、制御部118は、通信モードの処理を行う。通信モードの処理において、制御部118は、通信部114を制御して、例えば記録部112に記録されている画像ファイルを外部機器に送信したり、外部機器に記録されている画像ファイルを受信したりといった処理を行う。通信モードの処理の後、図7A及び図7Bの処理は終了する。この場合、処理は図2AのステップS1に戻る。 In step S217, the control unit 118 performs communication mode processing. In the processing in the communication mode, the control unit 118 controls the communication unit 114 to transmit, for example, an image file recorded in the recording unit 112 to an external device or receive an image file recorded in the external device. Process. After the communication mode processing, the processing in FIGS. 7A and 7B ends. In this case, the process returns to step S1 in FIG. 2A.
以上説明したように本実施形態では、HDR動画撮影中に得られた画像データからHDR静止画を記録するに当たり、静止画記録の指示がされたタイミングや画像データの間のずれを考慮してHDR合成に適した画像データを選択するようにしている。これにより、HDR静止画の画質を向上することができる。 As described above, in the present embodiment, when recording an HDR still image from image data obtained during HDR moving image shooting, HDR is considered in consideration of the timing at which a still image recording is instructed and a shift between image data. Image data suitable for composition is selected. Thereby, the image quality of the HDR still image can be improved.
また、本実施形態では、最初に2枚の画像データからHDR静止画合成を行うことができるか否かを判定している。そして、HDR静止画合成ができる画像であって、画像データの間の輝度差が大きい場合には、選択した2枚の画像データとは異なる露出での追加の撮像を行うようにしている。異なる露出での追加の撮像を行うことでHDR静止画の画質を向上させることはできる。しかしながら、追加の撮像により、HDR動画の画質に若干の影響がある。本実施形態では、必要なときのみ追加の撮像を行うことでHDR動画の画質も維持することができる。なお、本実施形態では、輝度差が大きいときには追加の撮像が行われるものとしているが、この追加の撮像は行われないように構成されていてもよい。 In this embodiment, it is first determined whether HDR still image composition can be performed from two pieces of image data. When the HDR still image can be combined and the luminance difference between the image data is large, additional imaging is performed with an exposure different from that of the two selected image data. The image quality of the HDR still image can be improved by performing additional imaging with different exposures. However, the additional imaging has a slight effect on the image quality of the HDR video. In this embodiment, the image quality of the HDR video can be maintained by performing additional imaging only when necessary. In the present embodiment, additional imaging is performed when the luminance difference is large. However, the additional imaging may be configured not to be performed.
また、本実施形態では、異なる露出での2回の撮像によって得られた画像データからHDR動画データを生成している。撮像レートが許すのであれば、撮像の回数は3回以上であってもよい。この場合、HDR静止画データも初めから3枚以上の画像データから生成されてもよい。この場合、高撮像レートで撮像された動画の再生中においてユーザによって一時停止操作がされたときには、その停止されたフレームの画像データとその前後のフレームデータとを合わせたHDR静止画を表示させるようにしてもよい。このようにして一時停止中に表示される画像をHDR静止画とすることにより、単純に1フレームの画像を表示させるよりもユーザにとって効果的な一時停止をすることができる。 In the present embodiment, HDR moving image data is generated from image data obtained by two imaging operations at different exposures. If the imaging rate allows, the number of times of imaging may be three or more. In this case, HDR still image data may also be generated from three or more pieces of image data from the beginning. In this case, when a user performs a pause operation during playback of a moving image captured at a high imaging rate, an HDR still image that combines the image data of the stopped frame and the frame data before and after the frame is displayed. It may be. Thus, by setting the image displayed during the pause as the HDR still image, it is possible to pause more effectively for the user than simply displaying one frame image.
また、本実施形態の技術において、HDR動画撮影はHDRスルー画表示に置き替えることもできる。この場合、本実施形態の技術は、例えば内視鏡装置、顕微鏡装置、監視装置といった撮像装置に対しても適用され得る。 In the technique of the present embodiment, HDR moving image shooting can be replaced with HDR live view display. In this case, the technique of the present embodiment can be applied to an imaging apparatus such as an endoscope apparatus, a microscope apparatus, and a monitoring apparatus.
また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.
また、上述した実施形態による各処理は、コンピュータである制御部118に実行させることができるプログラムとして記憶させておくこともできる。この他、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記録媒体に格納して配布することができる。そして、制御部118は、この外部記憶装置の記録媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。 Each process according to the above-described embodiment may be stored as a program that can be executed by the control unit 118 that is a computer. In addition, it can be stored and distributed in a recording medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory. The control unit 118 reads the program stored in the recording medium of the external storage device, and the operation described above can be executed by the operation being controlled by the read program.
100 撮像装置、102 撮像部、102a 撮像光学系、102b 撮像素子、102c 駆動部、104 記憶部、104a 仮記憶部、106 画像処理部、106a 第1の画像処理部、106b 第2の画像処理部、106c 記録処理部、108 再生部、108a 第1の再生処理部、108b 第2の再生処理部、110 表示部、112 記録部、114 通信部、116 操作部、118 制御部。 DESCRIPTION OF SYMBOLS 100 Imaging device, 102 Imaging part, 102a Imaging optical system, 102b Imaging element, 102c Drive part, 104 Storage part, 104a Temporary storage part, 106 Image processing part, 106a 1st image processing part, 106b 2nd image processing part 106c Recording processing unit, 108 playback unit, 108a first playback processing unit, 108b second playback processing unit, 110 display unit, 112 recording unit, 114 communication unit, 116 operation unit, 118 control unit.
Claims (8)
複数の前記画像データを仮記憶する仮記憶部と、
前記仮記憶部に仮記憶された複数の前記画像データの中から、前記異なる露出条件での複数回の撮像で得られた第1の組の画像データに対して第1の合成処理を施して動画データを生成する第1の画像処理部と、
複数の前記画像データにおける対象物のずれに基づいて、複数の前記画像データの中から、前記第1の組の画像データとは異なる第2の組の画像データを選択する制御部と、
前記選択された前記第2の組の画像データに対して第2の合成処理を施して静止画データを生成することが可能なように、前記第2の組の画像データを記録部に記録する記録処理部と、
を具備する撮像装置。 An imaging unit that repeatedly performs imaging at different exposure conditions to generate a plurality of image data; and
A temporary storage unit that temporarily stores a plurality of the image data;
A first combining process is performed on a first set of image data obtained by multiple imaging under the different exposure conditions from the plurality of image data temporarily stored in the temporary storage unit. A first image processing unit for generating moving image data;
A control unit that selects a second set of image data different from the first set of image data from a plurality of the image data based on a shift of an object in the plurality of image data;
The second set of image data is recorded in a recording unit so that still image data can be generated by performing a second combining process on the selected second set of image data. A recording processing unit;
An imaging apparatus comprising:
前記仮記憶部は、前記静止画記録の指示がなされたタイミングの前後の所定時間までの撮像で得られた複数の前記画像データを仮記憶する請求項1に記載の撮像装置。 An operation unit for instructing still image recording;
The imaging apparatus according to claim 1, wherein the temporary storage unit temporarily stores a plurality of the image data obtained by imaging up to a predetermined time before and after the timing when the still image recording instruction is given.
複数の前記画像データを仮記憶部に仮記憶させることと、
前記仮記憶部に仮記憶された複数の前記画像データの中から、前記異なる露出条件での複数回の撮像で得られた第1の組の画像データに対して第1の合成処理を施して動画データを生成することと、
複数の前記画像データにおける対象物のずれに基づいて、複数の前記画像データの中から、前記第1の組の画像データとは異なる第2の組の画像データを選択することと、
前記選択された前記第2の組の画像データに対して第2の合成処理を施して静止画データを生成することが可能なように、前記第2の組の画像データを記録部に記録することと、
を具備する撮像方法。 The imaging unit repeatedly generates a plurality of images under different exposure conditions to generate a plurality of image data,
Temporarily storing a plurality of the image data in a temporary storage unit;
A first combining process is performed on a first set of image data obtained by multiple imaging under the different exposure conditions from the plurality of image data temporarily stored in the temporary storage unit. Generating video data,
Selecting a second set of image data different from the first set of image data from a plurality of the image data based on deviations of objects in the plurality of image data;
The second set of image data is recorded in a recording unit so that still image data can be generated by performing a second combining process on the selected second set of image data. And
An imaging method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017040668A JP2018148353A (en) | 2017-03-03 | 2017-03-03 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017040668A JP2018148353A (en) | 2017-03-03 | 2017-03-03 | Imaging apparatus and imaging method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018148353A true JP2018148353A (en) | 2018-09-20 |
Family
ID=63591610
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017040668A Pending JP2018148353A (en) | 2017-03-03 | 2017-03-03 | Imaging apparatus and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018148353A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023010980A (en) * | 2019-02-28 | 2023-01-20 | キヤノン株式会社 | IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
| US12439169B2 (en) | 2021-03-08 | 2025-10-07 | Samsung Electronics Co., Ltd. | Image capturing method for acquiring image frame using two or more exposure values, and electronic device therefor |
-
2017
- 2017-03-03 JP JP2017040668A patent/JP2018148353A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023010980A (en) * | 2019-02-28 | 2023-01-20 | キヤノン株式会社 | IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
| JP7399247B2 (en) | 2019-02-28 | 2023-12-15 | キヤノン株式会社 | Imaging device and its control method and program |
| US12439169B2 (en) | 2021-03-08 | 2025-10-07 | Samsung Electronics Co., Ltd. | Image capturing method for acquiring image frame using two or more exposure values, and electronic device therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4931845B2 (en) | Imaging apparatus and captured image display control method | |
| JP2018042198A (en) | Imaging apparatus and imaging method | |
| JP6304293B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2010130437A (en) | Imaging device and program | |
| KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
| US20100149367A1 (en) | Digital image signal processing apparatus and method of displaying scene recognition | |
| JP2020136823A (en) | Image processing device, imaging device, image processing method, image processing device control method, and program | |
| JP2001203926A (en) | Device and method for picking up image | |
| JP6049425B2 (en) | Imaging apparatus, image processing apparatus, and control method | |
| JP6057705B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
| JP2018042200A (en) | Imaging apparatus and imaging method | |
| KR20130031176A (en) | Display apparatus and method | |
| JP6460783B2 (en) | Image processing apparatus and control method thereof | |
| JP7175772B2 (en) | Imaging device and imaging method | |
| KR101480407B1 (en) | Digital image processing apparatus, control method thereof, and recording medium recording the control method | |
| JP2018148353A (en) | Imaging apparatus and imaging method | |
| JP6355333B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
| JP6008716B2 (en) | Imaging apparatus, image processing apparatus, image processing system, and control method | |
| JP2019080194A (en) | Image processing device, image processing method, and image processing program | |
| JP2018074523A (en) | Imaging device, control method thereof, program, and recording medium | |
| JP2001094924A (en) | Zoom data recorder and method, and image reproducing device and method therefor | |
| JP2022187301A (en) | IMAGING DEVICE, CONTROL METHOD, AND PROGRAM | |
| JP4110007B2 (en) | Digital movie video camera and video playback device | |
| JP6925827B2 (en) | Image processing device and image processing method | |
| JP2014138259A (en) | Photographing apparatus |