[go: up one dir, main page]

JP2015033020A - Imaging apparatus, imaging method, program and recording medium - Google Patents

Imaging apparatus, imaging method, program and recording medium Download PDF

Info

Publication number
JP2015033020A
JP2015033020A JP2013161857A JP2013161857A JP2015033020A JP 2015033020 A JP2015033020 A JP 2015033020A JP 2013161857 A JP2013161857 A JP 2013161857A JP 2013161857 A JP2013161857 A JP 2013161857A JP 2015033020 A JP2015033020 A JP 2015033020A
Authority
JP
Japan
Prior art keywords
imaging
frame rate
image
image processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013161857A
Other languages
Japanese (ja)
Other versions
JP6152009B2 (en
Inventor
近藤 浩
Hiroshi Kondo
浩 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013161857A priority Critical patent/JP6152009B2/en
Publication of JP2015033020A publication Critical patent/JP2015033020A/en
Application granted granted Critical
Publication of JP6152009B2 publication Critical patent/JP6152009B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve image quality in the case where the combination/non-combination of captured images is switched during motion picture recording.SOLUTION: An imaging apparatus is provided which comprises: imaging means; control means for controlling the imaging means so as to continuously perform imaging at a first frame rate or a second frame rate that is higher than the first frame rate; and image processing means for processing image data continuously produced by the continuous imaging, the image processing means being configured to operate under a non-combination mode in which image data are processed without being combined with the other image data, or under a combination mode in which processing for combining a predetermined number of image data items is performed. When switching the image processing means from the non-combination mode to the combination mode during the continuous imaging, the control means switches the first frame rate to the second frame rate and when switching the image processing means from the combination mode to the non-combination mode during the continuous imaging, the control means switches the second frame rate to the first frame rate.

Description

本発明は、撮像装置、撮像方法、プログラム、及び記録媒体に関する。   The present invention relates to an imaging apparatus, an imaging method, a program, and a recording medium.

近年のデジタルカメラなどの撮像装置では、一般的に、音声付き動画を撮影記録することができる。また、高いフレームレートで撮像した画像を低いフレームレートで記録することができる撮像装置が知られている。こうして記録された動画を再生すると、スロー再生の効果が得られる。   In recent years, an imaging apparatus such as a digital camera can generally capture and record a moving image with sound. In addition, an imaging apparatus that can record an image captured at a high frame rate at a low frame rate is known. When the recorded moving image is reproduced, the effect of slow reproduction can be obtained.

また、最近では、連続撮像した複数の画像を合成して記録する技術が知られている。特許文献1は、時系列的に連続撮像した複数の画像を合成する際に、被写体の変化、或いは被写体に対する撮像条件の変化に応じて合成を行うか否かを決定する画像処理方法を開示している。合成を行う場合、撮像装置は、露光時間を長秒・短秒と交互に変更しながら連続撮像して各画像を合成することにより、ダイナミックレンジの広い動画(以降、「HDR動画」と記述)を生成することが可能である。被写体の状況に応じて合成・非合成を切り替えれば、HDR動画と通常(非合成)動画とを記録中に動的に切り替えることも可能である。動画記録中にHDR動画から通常動画に切り替える場合、撮像装置は、HDR動画の場合と同じ記録フレームレートで記録を行うために、撮像画像を間引いて記録する。   In recent years, a technique for synthesizing and recording a plurality of continuously captured images has been known. Patent Document 1 discloses an image processing method for determining whether or not to perform synthesis in accordance with a change in a subject or a change in imaging conditions with respect to a subject when a plurality of images continuously captured in time series are combined. ing. When synthesizing, the imaging apparatus continuously captures images while alternately changing the exposure time between long seconds and short seconds, and synthesizes each image, thereby moving a wide dynamic range (hereinafter referred to as “HDR movie”). Can be generated. If the composition / non-composition is switched according to the state of the subject, it is also possible to dynamically switch between the HDR moving image and the normal (non-combined) moving image during recording. When switching from an HDR video to a normal video during video recording, the imaging device thins out and records the captured image in order to perform recording at the same recording frame rate as that of the HDR video.

特開2007−036742号公報JP 2007-036742 A

上述の通り、特許文献1の技術に従って動画記録中にHDR動画から通常動画に切り替えた場合には時系列的に間引かれた動画が生成されるため、画質が低下する(不連続な画像に見えてしまう)問題があった。また、露光時間が記録フレームレートよりも高い撮像フレームレートによって制限されてしまい、画質が低下する問題もあった。このような問題は、複数の画像を合成する処理において発生するもので、HDR動画を生成するために合成を行う場合だけではなく、巡回型ノイズリダクション処理を行う場合にも発生し得る。   As described above, when switching from an HDR video to a normal video during video recording according to the technique of Patent Document 1, a video that is thinned out in time series is generated, so that the image quality deteriorates (discontinuous images). There was a problem. Further, the exposure time is limited by the imaging frame rate higher than the recording frame rate, and there is a problem that the image quality is deteriorated. Such a problem occurs in the process of synthesizing a plurality of images, and may occur not only when synthesizing to generate an HDR video, but also when performing a cyclic noise reduction process.

本発明はこのような状況に鑑みてなされたものであり、動画記録中に撮像画像の合成・非合成が切り替えられた場合の画質を向上させる技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for improving the image quality when the synthesis / non-synthesis of a captured image is switched during moving image recording.

上記課題を解決するために、本発明は、撮像手段と、第1のフレームレート又は前記第1のフレームレートよりも高い第2のフレームレートで連続的に撮像を行うように前記撮像手段を制御する制御手段と、前記連続的な撮像により連続的に生成される画像データを処理する画像処理手段であって、各画像データを他の画像データと合成せずに処理する非合成モード、又は、所定数の画像データを合成する処理を行う合成モードで動作する画像処理手段と、を備え、前記制御手段は、前記連続的な撮像の間に前記画像処理手段が前記非合成モードから前記合成モードに切り替わる場合、前記第1のフレームレートから前記第2のフレームレートに切り替え、前記連続的な撮像の間に前記画像処理手段が前記合成モードから前記非合成モードに切り替わる場合、前記第2のフレームレートから前記第1のフレームレートに切り替えることを特徴とする撮像装置を提供する。   In order to solve the above-described problem, the present invention controls the imaging unit and the imaging unit to continuously perform imaging at a first frame rate or a second frame rate higher than the first frame rate. A control means for processing and image processing means for processing image data continuously generated by the continuous imaging, wherein each image data is processed without being combined with other image data, or Image processing means that operates in a synthesis mode for performing a process of synthesizing a predetermined number of image data, and the control means is configured to change the image processing means from the non-synthesis mode to the synthesis mode during the continuous imaging. When switching to, the first frame rate is switched to the second frame rate, and the image processing means changes from the synthesis mode to the non-synthesis mode during the continuous imaging. Ri If alternative, to provide an imaging apparatus, characterized in that switching from the second frame rate to the first frame rate.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the preferred embodiments.

本発明によれば、動画記録中に撮像画像の合成・非合成が切り替えられた場合の画質を向上させることが可能となる。   According to the present invention, it is possible to improve the image quality when the synthesized / non-synthesized captured image is switched during moving image recording.

撮像装置100の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus 100. FIG. 第1の実施形態に係る動画撮影処理のフローチャート。5 is a flowchart of a moving image shooting process according to the first embodiment. 通常動画からHDR動画への切り替え処理のフローチャート。The flowchart of the switching process from a normal moving image to a HDR moving image. HDR動画処理のフローチャート。The flowchart of a HDR moving image process. HDR動画から通常動画への切り替え処理のフローチャート。The flowchart of the switching process from a HDR moving image to a normal moving image. 通常動画処理のフローチャート。The flowchart of normal moving image processing. 通常動画からHDR動画への切り替え処理の様子を時系列で表した概念図。The conceptual diagram which represented the mode of the switching process from a normal moving image to a HDR moving image in time series. HDR動画から通常動画への切り替え処理の様子を時系列で表した概念図。The conceptual diagram which represented the mode of the switching process from a HDR moving image to a normal moving image in time series. 第2の実施形態に係る巡回NR処理のフローチャート。The flowchart of the cyclic | annular NR process which concerns on 2nd Embodiment.

以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.

[第1の実施形態]
図1は、第1の実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、ズームレンズ110、撮像装置100の手ブレを補正するシフトレンズ111、フォーカスレンズ112、後段への光束を遮断するメカニカルシャッタ113、及び、後段への光束を調節する絞り114を備える。撮像装置100はまた、撮像素子115、及び、撮像素子115を駆動し、サンプリングに必要なタイミングパルスを発生するタイミング発生器116を備える。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 includes a zoom lens 110, a shift lens 111 that corrects camera shake of the imaging apparatus 100, a focus lens 112, a mechanical shutter 113 that blocks a light beam to the subsequent stage, and a diaphragm 114 that adjusts the light beam to the subsequent stage. . The imaging apparatus 100 also includes an imaging element 115 and a timing generator 116 that drives the imaging element 115 and generates timing pulses necessary for sampling.

撮像装置100はまた、画像処理部117を備える。画像処理部117は、撮像駆動用の同期信号を発生するSSG回路、撮像によるデジタル出力を受信して前処理を行う前処理回路、AF評価値演算回路、輝度積分回路、信号処理回路、画像合成回路、縮小回路、ラスタ−ブロック変換回路、及び圧縮回路を含む。   The imaging apparatus 100 also includes an image processing unit 117. The image processing unit 117 is an SSG circuit that generates a synchronization signal for imaging driving, a preprocessing circuit that receives digital output from imaging and performs preprocessing, an AF evaluation value calculation circuit, a luminance integration circuit, a signal processing circuit, and image synthesis A circuit, a reduction circuit, a raster-block conversion circuit, and a compression circuit.

SSG回路は、タイミング発生器116から撮像駆動用のクロックを受けて、水平及び垂直同期信号を発生し、タイミング発生器116と撮像素子115に出力する。前処理回路は、入力画像を行単位で輝度積分回路と信号処理回路とに分配する。また、前処理回路は、撮像データに必要となるチャネル間のデータ補正等の処理を行う。AF評価値演算回路は、設定された複数の評価領域内に入力される画像信号の輝度成分について水平方向のフィルタ処理を施し、コントラストを表す所定周波数を抽出しながら最大値を選択し、垂直方向に積分演算を行う。輝度積分回路は、RGB信号から輝度成分を混合生成し、入力画像を複数領域に分割し、領域毎に輝度成分を生成する。信号処理回路は、撮像素子115の出力データに色キャリア除去、アパーチャー補正、ガンマ補正処理等を行って輝度信号を生成する。同時に、信号処理回路は、色補間、マトリックス変換、ガンマ処理、ゲイン調整等を施して色差信号を生成し、メモリ部123にYUV形式の画像データを格納する。また、信号処理回路は、生成するYUV形式の画像データの輝度信号(Y)をそのレベル毎に集計し、画像データ毎の輝度分布データを生成する。画像合成回路は、メモリ部123に格納された複数のRGB形式の撮像画像、或いはその撮像画像に対して信号処理を施した複数のYUV形式の画像データを取得し、画像データに対して画素単位で設定された係数を乗じて加算することにより合成画像を生成する。縮小回路は、信号処理回路の出力を受けて、入力される画素データの切り出し、間引き、及び線形補間処理等を行い、水平垂直方向に画素データの縮小処理を施す。ラスタ−ブロック変換回路は、縮小回路で変倍されたラスタスキャン画像データをブロックスキャン画像データに変換する。こうした一連の画像処理は、メモリ部123がバッファメモリとして用いられて実現される。圧縮回路は、ブロックスキャン画像データに変換されたYUV画像データを動画圧縮方式に従って圧縮することにより、動画ビットストリームを出力する。   The SSG circuit receives an imaging drive clock from the timing generator 116, generates horizontal and vertical synchronization signals, and outputs them to the timing generator 116 and the image sensor 115. The preprocessing circuit distributes the input image to the luminance integration circuit and the signal processing circuit in units of rows. Further, the preprocessing circuit performs processing such as data correction between channels necessary for imaging data. The AF evaluation value calculation circuit performs horizontal filtering on the luminance component of the image signal input in the set plurality of evaluation areas, selects the maximum value while extracting a predetermined frequency representing the contrast, and selects the vertical direction Perform the integral operation. The luminance integration circuit mixes and generates luminance components from the RGB signals, divides the input image into a plurality of regions, and generates a luminance component for each region. The signal processing circuit performs color carrier removal, aperture correction, gamma correction processing, and the like on the output data of the image sensor 115 to generate a luminance signal. At the same time, the signal processing circuit performs color interpolation, matrix conversion, gamma processing, gain adjustment, and the like to generate color difference signals, and stores YUV format image data in the memory unit 123. Further, the signal processing circuit aggregates the luminance signals (Y) of the YUV format image data to be generated for each level, and generates luminance distribution data for each image data. The image composition circuit acquires a plurality of RGB-format captured images stored in the memory unit 123 or a plurality of YUV-format image data obtained by performing signal processing on the captured images, and performs pixel unit processing on the image data. A composite image is generated by multiplying and adding the coefficients set in (1). The reduction circuit receives the output of the signal processing circuit, performs cutout, thinning, linear interpolation processing, and the like of input pixel data, and performs pixel data reduction processing in the horizontal and vertical directions. The raster-block conversion circuit converts raster scan image data scaled by the reduction circuit into block scan image data. Such a series of image processing is realized by using the memory unit 123 as a buffer memory. The compression circuit outputs the moving image bit stream by compressing the YUV image data converted into the block scan image data according to the moving image compression method.

露出制御部118は、メカニカルシャッタ113及び絞り114を制御する。レンズ駆動部119は、ズームレンズ110及びフォーカスレンズ112を光軸上に沿って移動させ、被写界像を撮像素子115上に結像させる。また、レンズ駆動部119は、角速度センサ及び加速度センサ(不図示)の出力に応じてシフトレンズ111を駆動し、撮像装置100の手ブレを光学的に補正する。レリーズスイッチ120は、ユーザが撮影指示を行うためのものである。動画ボタン180は、ユーザが動画記録を指示するためのものである。   The exposure control unit 118 controls the mechanical shutter 113 and the diaphragm 114. The lens driving unit 119 moves the zoom lens 110 and the focus lens 112 along the optical axis, and forms an object scene image on the image sensor 115. In addition, the lens driving unit 119 drives the shift lens 111 in accordance with outputs from an angular velocity sensor and an acceleration sensor (not shown), and optically corrects camera shake of the imaging apparatus 100. The release switch 120 is for a user to give a shooting instruction. The movie button 180 is for the user to instruct movie recording.

システム制御部121は、CPUとそのインタフェース回路、DMAC(Direct Memory Access Controller)、及びバスアービター等を含む。CPUが実行するプログラムは、フラッシュメモリ122に記憶されている。メモリ部123は、DRAM等であり、各処理の途中のデータを一時的に保存する。また、フラッシュメモリ122内のプログラムは、メモリ部123に展開されて使用される。撮像装置100の各種の制御はシステム制御部121で行われる。   The system control unit 121 includes a CPU and its interface circuit, a DMAC (Direct Memory Access Controller), a bus arbiter, and the like. A program executed by the CPU is stored in the flash memory 122. The memory unit 123 is a DRAM or the like, and temporarily stores data in the middle of each process. In addition, the program in the flash memory 122 is developed and used in the memory unit 123. Various controls of the imaging apparatus 100 are performed by the system control unit 121.

I/F部124は、記録媒体200に対するインタフェースである。コネクタ125は、記録媒体200を接続するためのコネクタである。記録媒体着脱検知スイッチ126は、記録媒体200の着脱を検知する。マイクロフォン127は、入力された音声を音声信号に変換する。A/D変換器128は、マイクロフォン127の音声出力をデジタル音声信号に変換する。音声処理部129は、デジタル音声データに所定の音声処理を施し、音声ビットストリームを出力する。   The I / F unit 124 is an interface to the recording medium 200. The connector 125 is a connector for connecting the recording medium 200. The recording medium attachment / detachment detection switch 126 detects attachment / detachment of the recording medium 200. The microphone 127 converts the input sound into an audio signal. The A / D converter 128 converts the sound output of the microphone 127 into a digital sound signal. The audio processing unit 129 performs predetermined audio processing on the digital audio data and outputs an audio bitstream.

電源制御部130は、電池検出回路及びDC−DCコンバータ(不図示)を制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源コネクタ131は、電源132のためのコネクタであり、電源132は、一次電池、二次電池、又はACアダプター等からなる電源である。   The power supply control unit 130 controls a battery detection circuit and a DC-DC converter (not shown), and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power connector 131 is a connector for the power source 132, and the power source 132 is a power source including a primary battery, a secondary battery, an AC adapter, or the like.

再生回路150は、画像処理部117で生成されてメモリ部123に記憶された画像データを表示用画像に変換してモニタ151に転送する。モニタ151は、再生回路150から出力された画像を表示する。再生回路150は、YUV形式の画像データを輝度成分信号Yと変調色差成分Cとに分離し、D/A変換を行ったアナログ化されたY信号にLPF処理を施す。また、再生回路150は、D/A変換を行ったアナログ化されたC信号にBPF処理を施して変調色差成分の周波数成分のみを抽出する。再生回路150は、こうして生成された信号成分とサブキャリア周波数に基づいて、Y信号とRGB信号に変換生成して、モニタ151に出力する。このように、撮像素子115からの画像データを逐次処理して表示することによって電子ビューファインダ(EVF)が実現される。   The reproduction circuit 150 converts the image data generated by the image processing unit 117 and stored in the memory unit 123 into a display image and transfers it to the monitor 151. The monitor 151 displays the image output from the reproduction circuit 150. The reproduction circuit 150 separates the YUV format image data into a luminance component signal Y and a modulated color difference component C, and performs LPF processing on the analog Y signal that has undergone D / A conversion. In addition, the reproduction circuit 150 performs BPF processing on the analog C signal that has been subjected to D / A conversion, and extracts only the frequency component of the modulated color difference component. Based on the signal component thus generated and the subcarrier frequency, the reproduction circuit 150 converts and generates a Y signal and an RGB signal and outputs the Y signal and the RGB signal to the monitor 151. In this manner, an electronic viewfinder (EVF) is realized by sequentially processing and displaying the image data from the image sensor 115.

記録媒体200は、半導体メモリ等から構成される記録部201、撮像装置100とのインタフェースであるI/F部202、撮像装置100と接続を行うコネクタ203、及び、媒体記録禁止スイッチ204を含む。   The recording medium 200 includes a recording unit 201 composed of a semiconductor memory, an I / F unit 202 that is an interface with the imaging device 100, a connector 203 that connects to the imaging device 100, and a medium recording prohibition switch 204.

ここから、第1の実施形態に係る動画撮影処理について詳細に説明する。本実施形態の動画撮影処理によれば、撮像装置100の画像処理部117は、システム制御部121からの指示に従い、非合成モード又は合成モードで動作することができる。非合成モードの場合、画像処理部117は、撮像素子115により連続的に生成される画像データの各々を、他の画像データと合成せずに処理する。合成モードの場合、画像処理部117は、それぞれ異なる露光時間の撮像により撮像素子115が生成した所定数の画像データを合成することにより、HDR画像を生成する。画像処理部117は、動画撮影中に合成モードと非合成モードとを動的に切り替えることができる。例えば、システム制御部121は、撮影シーンを自動判別し、画像処理部117は、その判別結果により、合成モードと非合成モードとを切り替える。   From here, the moving image shooting processing according to the first embodiment will be described in detail. According to the moving image shooting process of the present embodiment, the image processing unit 117 of the imaging apparatus 100 can operate in the non-compositing mode or the combining mode in accordance with an instruction from the system control unit 121. In the non-synthesizing mode, the image processing unit 117 processes each piece of image data continuously generated by the image sensor 115 without being combined with other image data. In the combination mode, the image processing unit 117 generates an HDR image by combining a predetermined number of image data generated by the image sensor 115 by imaging with different exposure times. The image processing unit 117 can dynamically switch between the synthesis mode and the non-synthesis mode during moving image shooting. For example, the system control unit 121 automatically determines the shooting scene, and the image processing unit 117 switches between the synthesis mode and the non-synthesis mode based on the determination result.

本実施形態では、撮像素子115はCMOSセンサであり、記録フレームレートは60FPSとする。また、撮像素子115は、撮像フレームレートとして60FPS(第1のフレームレート)又は120FPS(第2のフレームレート)で動作可能である。撮像装置100は、撮影シーンに応じて、HDRが必要となるケースでは120FPSで撮像を行い、所定数の画像データを合成することにより、1枚のHDRフレームを生成する。本実施形態では、長秒露光・短秒露光で得られた2枚の画像データを合成することで1枚のHDRフレームを作成するものとする。一方、HDRが不要となるケースでは、撮像装置100は、撮像フレームレートを60FPSに切り替える。   In this embodiment, the image sensor 115 is a CMOS sensor, and the recording frame rate is 60 FPS. The image sensor 115 can operate at an imaging frame rate of 60 FPS (first frame rate) or 120 FPS (second frame rate). In a case where HDR is required, the imaging apparatus 100 captures an image at 120 FPS and generates a single HDR frame by synthesizing a predetermined number of image data. In this embodiment, one HDR frame is created by combining two pieces of image data obtained by long-second exposure and short-second exposure. On the other hand, in the case where HDR is not necessary, the imaging apparatus 100 switches the imaging frame rate to 60 FPS.

図2は、第1の実施形態に係る動画撮影処理のフローチャートである。図2を含め、以下で説明するフローチャートにおける各処理は、特に断らない限り、システム制御部121がフラッシュメモリ122に格納されたプログラムをメモリ部123に展開して実行することにより実現される。なお、図2は、動画ボタン180により動画記録開始が指示された後の処理を表している。   FIG. 2 is a flowchart of the moving image shooting process according to the first embodiment. Each process in the flowchart described below including FIG. 2 is realized by the system control unit 121 developing and executing the program stored in the flash memory 122 in the memory unit 123 unless otherwise specified. FIG. 2 shows processing after the moving image recording start is instructed by the moving image button 180.

S201で、システム制御部121は、画像処理部117に対して動画記録用の撮像駆動指示を行う。撮像駆動指示に応えて、画像処理部117は、SSG回路内の撮像同期信号の設定を行う。また、画像処理部117は、撮像素子115及びタイミング発生器116に対して動画用のタイミング設定を行う。   In step S <b> 201, the system control unit 121 instructs the image processing unit 117 to perform an imaging drive for moving image recording. In response to the imaging drive instruction, the image processing unit 117 sets an imaging synchronization signal in the SSG circuit. In addition, the image processing unit 117 performs moving image timing settings for the image sensor 115 and the timing generator 116.

S202で、システム制御部121は、HDR動画が選択されているか否かを示すフラグ”HDR_FLAG”を0に初期化する。これは、初期状態では通常動画が選択されていることを示している。   In step S202, the system control unit 121 initializes a flag “HDR_FLAG” indicating whether or not an HDR video is selected to 0. This indicates that a normal moving image is selected in the initial state.

S203で、画像処理部117は、撮像素子115から入力された画像を分割してブロック毎に積分し、システム制御部121は、その結果に基づいて、露出制御を行う。   In step S203, the image processing unit 117 divides the image input from the image sensor 115 and integrates it for each block, and the system control unit 121 performs exposure control based on the result.

S204で、画像処理部117は、順次読み出される画像データを、信号処理回路及び縮小回路により表示用画像データに加工し、メモリ部123に格納する。そして、表示用画像データに対応する画像は、再生回路150を通してモニタ151に表示される。   In step S <b> 204, the image processing unit 117 processes the sequentially read image data into display image data by the signal processing circuit and the reduction circuit, and stores the display image data in the memory unit 123. Then, the image corresponding to the display image data is displayed on the monitor 151 through the reproduction circuit 150.

S205で、画像処理部117は、適正露光で得られた画像データ(以下、適正露光画像と呼ぶ)のブロック毎の積分結果から、画像内の高輝度ブロックと低輝度ブロックとの間の明暗差を検出する。S206で、システム制御部121は、明暗差が所定の閾値以上か否かを判定する。閾値未満であった場合、処理はS207へ進み、閾値以上であった場合、処理はS213に進む。   In S205, the image processing unit 117 determines the difference in brightness between the high-luminance block and the low-luminance block in the image based on the integration result for each block of the image data obtained by appropriate exposure (hereinafter referred to as the proper exposure image). Is detected. In step S206, the system control unit 121 determines whether or not the light / dark difference is equal to or greater than a predetermined threshold. If it is less than the threshold, the process proceeds to S207, and if it is greater than or equal to the threshold, the process proceeds to S213.

S207で、システム制御部121は、HDR_FLAGが1であるか否か、即ち、HDR動画が選択されているかを判定する。HDR_FLAGが1であった場合、S208で、HDR動画から通常動画への切り替え処理が行われ、その後、処理はS209へ進む。S208の詳細については後述する。S207においてHDR_FLAGが1でなかった場合、即ち、既に通常動画が選択されていた場合、処理はS208をスキップしてS209へ進む。S209で、通常動画処理が行われる。S209の詳細については後述する。S210で、システム制御部121は、HDR_FLAGを0に設定する。   In S207, the system control unit 121 determines whether HDR_FLAG is 1, that is, whether an HDR video is selected. When HDR_FLAG is 1, in S208, switching processing from the HDR moving image to the normal moving image is performed, and then the process proceeds to S209. Details of S208 will be described later. If HDR_FLAG is not 1 in S207, that is, if a normal moving image has already been selected, the process skips S208 and proceeds to S209. In S209, normal moving image processing is performed. Details of S209 will be described later. In S210, the system control unit 121 sets HDR_FLAG to 0.

S211で、システム制御部121は、動画ボタン180が再度押下されたか否かを判定する。押下された場合、S212で、システム制御部121は、動画記録を停止し、本フローチャートの処理が終了する。S211において動画ボタン180が押下されていないと判定された場合、処理はS203へ戻る。   In step S211, the system control unit 121 determines whether or not the moving image button 180 has been pressed again. If pressed, the system control unit 121 stops moving image recording in S212, and the processing of this flowchart ends. If it is determined in S211 that the moving image button 180 has not been pressed, the process returns to S203.

S206において明暗差が所定の閾値以上であった場合、S213で、システム制御部121は、HDR_FLAGが0であるか否か、即ち、通常動画が選択されているか否かを判定する。HDR_FLAGが0であった場合、S214で、通常動画からHDR動画への切り替え処理が行われ、その後、処理はS215へ進む。S214の詳細については後述する。S213においてHDR_FLAGが0でなかった場合、即ち、既にHDR動画が選択されていた場合、処理はS214をスキップしてS215へ進む。S215で、HDR動画処理が行われる。S215の詳細については後述する。S216で、システム制御部121は、HDR_FLAGを1に設定し、処理をS211へ進める。   If the brightness difference is greater than or equal to the predetermined threshold value in S206, in S213, the system control unit 121 determines whether HDR_FLAG is 0, that is, whether a normal moving image is selected. If HDR_FLAG is 0, in S214, switching processing from the normal moving image to the HDR moving image is performed, and then the process proceeds to S215. Details of S214 will be described later. If HDR_FLAG is not 0 in S213, that is, if an HDR video has already been selected, the process skips S214 and proceeds to S215. In S215, HDR moving image processing is performed. Details of S215 will be described later. In S216, the system control unit 121 sets HDR_FLAG to 1, and advances the process to S211.

図3は、通常動画からHDR動画への切り替え処理のフローチャートである。S301で、システム制御部121は、図2のS203及びS205で得られた露出情報及び明暗差をもとに、適正露光時間Exp_justを算出する。また、システム制御部121は、合成画像の元となる2枚の画像データを得るための各露光時間Exp_long及びExp_shortを算出する。以下では、露光時間Exp_longで得られた画像データをオーバー画像、露光時間Exp_shortで得られた画像データをアンダー画像と呼ぶ。   FIG. 3 is a flowchart of the switching process from the normal moving image to the HDR moving image. In step S301, the system control unit 121 calculates an appropriate exposure time Exp_just based on the exposure information and brightness difference obtained in steps S203 and S205 in FIG. In addition, the system control unit 121 calculates each exposure time Exp_long and Exp_short for obtaining two pieces of image data serving as a base of the composite image. Hereinafter, the image data obtained at the exposure time Exp_long is referred to as an over image, and the image data obtained at the exposure time Exp_short is referred to as an under image.

S302で、システム制御部121は、露光時間Expの初期値として適正露光時間Exp_justを代入する。S303で、システム制御部121は、HDR動画への切り替え後の撮像V周期Vaを求める。本実施形態においては、HDR動画時の撮像フレームレートは120FPSであるため、Vaはその逆数、即ち、Va=8.33(ms)となる。   In step S302, the system control unit 121 substitutes an appropriate exposure time Exp_just as an initial value of the exposure time Exp. In step S303, the system control unit 121 obtains the imaging V cycle Va after switching to the HDR video. In the present embodiment, since the imaging frame rate during HDR video is 120 FPS, Va is the reciprocal thereof, that is, Va = 8.33 (ms).

S304で、システム制御部121は、露光時間ExpとHDR動画への切り替え後の撮像V周期Vaとを比較する。Exp>Vaであれば、処理はS305へ進み、そうでない場合、処理はS308へ進む。   In step S304, the system control unit 121 compares the exposure time Exp with the imaging V cycle Va after switching to the HDR video. If Exp> Va, the process proceeds to S305; otherwise, the process proceeds to S308.

S305で、システム制御部121は、露光時間をVa/2だけ短縮する(Exp = Exp - Va/2)。S306で、システム制御部121は、撮像素子115に対して、短縮後の露光時間での露光・読み出し動作を実施する。また、システム制御部121は、露光時間の短縮による輝度低下を補償するために、読み出しの際のゲインを変化(増加)させる。読み出された画像データは、メモリ部123に一旦格納される。システム制御部121は、この画像データを読み出し、画像処理部117内の信号処理回路、ラスタ−ブロック変換回路、及び圧縮回路を経て、記録用画像をメモリ部123に格納する。S307で、記録用画像が順次読み出され、記録媒体200に書き込まれる。S304からS307の処理の繰り返しにより、露光時間は、HDR動画時の撮像フレームレートの逆数以下になるまで段階的に短縮される。   In step S305, the system control unit 121 shortens the exposure time by Va / 2 (Exp = Exp−Va / 2). In step S <b> 306, the system control unit 121 performs an exposure / readout operation with the exposure time after shortening on the image sensor 115. In addition, the system control unit 121 changes (increases) the gain at the time of reading in order to compensate for the luminance decrease due to the shortening of the exposure time. The read image data is temporarily stored in the memory unit 123. The system control unit 121 reads out the image data, and stores the recording image in the memory unit 123 through the signal processing circuit, the raster-block conversion circuit, and the compression circuit in the image processing unit 117. In S307, the recording images are sequentially read and written to the recording medium 200. By repeating the processing from S304 to S307, the exposure time is shortened step by step until it is equal to or less than the reciprocal of the imaging frame rate for HDR moving images.

S308で、システム制御部121は、露光時間Expにオーバー画像用の露光時間Exp_longを代入する。S309で、システム制御部121は、画像処理部117内のSSG回路において撮像垂直同期信号(撮像VD)が16.67(ms)から8.33(ms)となるように制御することで、フレームレートを60FPSから120FPSに変更する。S310及びS311で、システム制御部121は、S306及びS307と同様に、画像の露光、読み出し、及び記録を行う。以上の処理により、通常動画からHDR動画への切り替え処理が完了する。   In step S308, the system control unit 121 assigns the overimage exposure time Exp_long to the exposure time Exp. In S309, the system control unit 121 controls the SSG circuit in the image processing unit 117 so that the imaging vertical synchronization signal (imaging VD) is changed from 16.67 (ms) to 8.33 (ms), so that the frame Change the rate from 60 FPS to 120 FPS. In steps S310 and S311, the system control unit 121 performs image exposure, reading, and recording in the same manner as in steps S306 and S307. With the above processing, the switching process from the normal moving image to the HDR moving image is completed.

図4は、HDR動画処理のフローチャートである。S401で、システム制御部121は、図2のS203及びS205で得られた露出情報及び明暗差をもとに、合成画像の元となるオーバー画像及びアンダー画像のための各露光時間Exp_long及びExp_shortを算出する。   FIG. 4 is a flowchart of the HDR moving image process. In step S401, the system control unit 121 calculates exposure times Exp_long and Exp_short for the over image and the under image, which are the basis of the composite image, based on the exposure information and brightness difference obtained in steps S203 and S205 of FIG. calculate.

S402で、システム制御部121は、露光時間Exp_shortにて露光したアンダー画像の露光・読み出し動画を行う。S403で、システム制御部121は、露光時間Exp_longにて露光したオーバー画像の露光・読み出し動作を行う。読み出されたオーバー画像及びアンダー画像は、メモリ部123に一旦格納される。S404で、システム制御部121は、メモリ部123からオーバー画像及びアンダー画像を読み出し、画像処理部117内で画像合成を行うことにより、ダイナミックレンジが拡大された画像データ(HDR画像)を生成する。S405で、システム制御部121は、図3のS307と同様に、HDR画像を記録媒体200に書き込む。以上の処理により1フレーム分のHDR画像の記録が完了する。   In step S <b> 402, the system control unit 121 performs exposure / reading moving images of the under image exposed with the exposure time Exp_short. In step S <b> 403, the system control unit 121 performs an exposure / read-out operation for the over image exposed with the exposure time Exp_long. The read over image and under image are temporarily stored in the memory unit 123. In step S <b> 404, the system control unit 121 reads out an over image and an under image from the memory unit 123 and performs image composition in the image processing unit 117, thereby generating image data (HDR image) with an expanded dynamic range. In step S405, the system control unit 121 writes the HDR image to the recording medium 200 in the same manner as in step S307 in FIG. With the above processing, recording of an HDR image for one frame is completed.

図5は、HDR動画から通常動画への切り替え処理のフローチャートである。S502で、システム制御部121は、露光時間Expにオーバー画像用の露光時間Exp_longを代入する。S503及びS504で、システム制御部121は、図3のS306及びS307と同様に、画像の露光、読み出し、及び記録を行う。S505で、システム制御部121は、露光時間Expに、現在の露光時間Expと適正露光時間Exp_justの中間値((Exp + Exp_just) / 2)を代入する。S506で、システム制御部121は、画像処理部117内のSSG回路において撮像垂直同期信号(撮像VD)が8.33(ms)から16.67(ms)となるように制御することで、フレームレートを120FPSから60FPSに変更する。S507及びS508で、システム制御部121は、図3のS306及びS307と同様に、画像の露光、読み出し、及び記録を行う。以上の処理により、HDR動画から通常動画への切り替え処理が完了する。   FIG. 5 is a flowchart of the switching process from the HDR moving image to the normal moving image. In step S502, the system control unit 121 substitutes the exposure time Exp_long for the over image into the exposure time Exp. In S503 and S504, the system control unit 121 performs image exposure, reading, and recording in the same manner as in S306 and S307 in FIG. In step S505, the system control unit 121 substitutes an intermediate value ((Exp + Exp_just) / 2) between the current exposure time Exp and the appropriate exposure time Exp_just for the exposure time Exp. In step S506, the system control unit 121 controls the SSG circuit in the image processing unit 117 so that the imaging vertical synchronization signal (imaging VD) is changed from 8.33 (ms) to 16.67 (ms). Change the rate from 120 FPS to 60 FPS. In S507 and S508, the system control unit 121 performs exposure, reading, and recording of an image in the same manner as in S306 and S307 of FIG. With the above processing, the switching process from the HDR moving image to the normal moving image is completed.

図6は、通常動画処理のフローチャートである。S601で、システム制御部121は、図2のS203及びS205で得られた露出情報及び明暗差をもとに、適正露光時間Exp_justを算出し、露光時間Expに適正露光時間Exp_justを代入する。S602及びS603で、システム制御部121は、図3のS306及びS307と同様に、画像の露光、読み出し、及び記録を行う。以上の処理により1フレーム分の通常画像の記録が完了する。   FIG. 6 is a flowchart of normal moving image processing. In step S601, the system control unit 121 calculates an appropriate exposure time Exp_just based on the exposure information and the light / dark difference obtained in steps S203 and S205 in FIG. 2, and substitutes the appropriate exposure time Exp_just into the exposure time Exp. In steps S602 and S603, the system control unit 121 performs image exposure, reading, and recording in the same manner as in steps S306 and S307 in FIG. With the above processing, recording of a normal image for one frame is completed.

図7は、通常動画からHDR動画への切り替え処理の様子を時系列で表した概念図である。図7において、(a)は撮像垂直同期信号(撮像VD)を表し、(b)は各撮像VDタイミングにおける時刻を表す。(c)は露光画像を表しており、CMOSセンサ特有のローリングシャッタ方式により、画面上部と下部で露光タイミングに差があることから、平行四辺形で表現されている。(d)は実際に撮像素子より読み出しが行われるタイミングを表しており、本実施形態では、露光画像が次の撮像VDタイミングから順次読み出され、読み出しにかかる時間tr=4msであるものとする。(e)は記録タイミングを表し、(f)は記録垂直同期信号(記録VD)を表す。各記録画像(出力画像)には露光画像に対応した画像番号が付されている。(g)は撮像素子からの画像読み出し時にかけるゲインレベルを表している。このゲインは、通常、撮像素子115内部で調節できるが、画像処理部117内の前処理回路で変更できる仕組みであっても構わない。   FIG. 7 is a conceptual diagram showing the state of switching processing from a normal moving image to an HDR moving image in time series. 7A shows an imaging vertical synchronization signal (imaging VD), and FIG. 7B shows a time at each imaging VD timing. (C) represents an exposure image, which is expressed by a parallelogram because there is a difference in exposure timing between the upper part and the lower part of the screen by a rolling shutter method unique to the CMOS sensor. (D) represents the timing at which reading is actually performed from the image sensor. In this embodiment, the exposure image is sequentially read from the next imaging VD timing, and the time required for reading is tr = 4 ms. . (E) represents a recording timing, and (f) represents a recording vertical synchronizing signal (recording VD). Each recorded image (output image) is assigned an image number corresponding to the exposure image. (G) represents the gain level applied when reading an image from the image sensor. This gain can usually be adjusted inside the image sensor 115, but it may be a mechanism that can be changed by a pre-processing circuit in the image processing unit 117.

時刻t1では、通常動画記録が行われている状態であり、撮像フレームレートは60FPS、1垂直期間は16.67msである。時刻t1〜t2の間で、通常動画からHDR動画への切り替え指示がシステム制御部121より行われると、画像合成のための準備が行われる。まず、時刻t2〜t3では、システム制御部121は、露光時間を露光画像(1)と比べて少し短く設定する(図3のS305)。システム制御部121は、こうして撮像された露光画像(2)を時刻t3で撮像素子115から読み出す際に、ゲインg1をかけることで、露光画像(2)が露光画像(1)と同じ撮像出力レベルとなるよう調節する。時刻t3〜t4では、システム制御部121は、露光時間をオーバー画像用の露光時間に設定する(図3のS308)。加えて、システム制御部121は、画像処理部117内のSSG回路を制御することにより撮像の1垂直期間を120FPS相当(8.33ms)に変更する(図3のS309)。時刻t4で、システム制御部121は、撮像素子115から露光画像(3)を読み出す際に、ゲインg2をかけることで、露光画像(3)が露光画像(1)と同じ撮像出力レベルとなるよう調節する。時刻t4〜t5の間で、システム制御部121は、アンダー画像用の露光時間で撮像を行い、露光画像(4)を生成する(図4のS402)。時刻t5〜t6の間で、システム制御部121は、オーバー画像用の露光時間で撮像を行い、露光画像(5)を生成する(図4のS403)。露光画像(4)及び露光画像(5)の読み出しは、画像合成が前提であるため、ゲインg3で行われる。そして、システム制御部121は、画像処理部117により、露光画像(4)及び露光画像(5)を合成してHDR画像を生成する。時刻t6〜t8の間は、時刻t4〜t6の間と同様の処理が繰り返される。   At time t1, normal moving image recording is being performed, the imaging frame rate is 60 FPS, and the vertical period is 16.67 ms. When a switching instruction from the normal moving image to the HDR moving image is issued from the system control unit 121 between times t1 and t2, preparation for image composition is performed. First, at times t2 to t3, the system control unit 121 sets the exposure time slightly shorter than the exposure image (1) (S305 in FIG. 3). The system control unit 121 applies the gain g1 when reading the exposure image (2) thus captured from the image sensor 115 at time t3, so that the exposure image (2) has the same imaging output level as the exposure image (1). Adjust so that From time t3 to t4, the system control unit 121 sets the exposure time to the overimage exposure time (S308 in FIG. 3). In addition, the system control unit 121 controls the SSG circuit in the image processing unit 117 to change one vertical period of imaging to 120 FPS equivalent (8.33 ms) (S309 in FIG. 3). At time t4, the system control unit 121 applies the gain g2 when reading the exposure image (3) from the image sensor 115 so that the exposure image (3) has the same imaging output level as the exposure image (1). Adjust. Between times t4 and t5, the system control unit 121 captures an image with an under image exposure time, and generates an exposure image (4) (S402 in FIG. 4). Between times t5 and t6, the system control unit 121 captures an image with an overimage exposure time, and generates an exposure image (5) (S403 in FIG. 4). Reading of the exposure image (4) and the exposure image (5) is performed with a gain g3 since image synthesis is a premise. Then, the system control unit 121 uses the image processing unit 117 to combine the exposure image (4) and the exposure image (5) to generate an HDR image. During time t6 to t8, the same processing as during time t4 to t6 is repeated.

なお、図7において、各時刻でのゲインレベルの大小関係は、
g2>g1>g3>g0 (g0はt1時点でのゲインレベル)
であるが、これは露光時間の変動分を吸収するようにゲイン制御が行われるためである。
In FIG. 7, the magnitude relationship between the gain levels at each time is as follows.
g2>g1>g3> g0 (g0 is a gain level at time t1)
However, this is because the gain control is performed so as to absorb the fluctuation of the exposure time.

このように、通常動画からHDR動画への切り替え処理の際に、露光時間及びゲインレベルを段階的に変更させる過渡状態を経て、フレームレート変更が行われる。これにより、画質の急激な変動を抑えるとともに、露光時間を最適に制御することができる。また、動画の撮像駆動モードを変更せず、撮像フレームレートを変更することで、記録レートをキープしながら、動的に通常動画からHDR動画への切り替えを行うことができる。   As described above, in the process of switching from the normal moving image to the HDR moving image, the frame rate is changed through the transient state in which the exposure time and the gain level are changed stepwise. As a result, it is possible to optimally control the exposure time while suppressing rapid fluctuations in image quality. Further, by changing the imaging frame rate without changing the moving image shooting drive mode, it is possible to dynamically switch from the normal moving image to the HDR moving image while keeping the recording rate.

なお、この過渡状態は、何らかの条件の下、スキップされてもよい。条件としては、例えば、(1)通常動画からHDR動画への切り替えがユーザ指示をトリガーとして行われる場合、及び、(2)撮影モードが所定の撮影モードに設定されている場合が挙げられる。   Note that this transient state may be skipped under some condition. Conditions include, for example, (1) when switching from a normal movie to an HDR movie is triggered by a user instruction, and (2) when the shooting mode is set to a predetermined shooting mode.

まず、通常動画からHDR動画への切り替えがユーザ指示をトリガーとして行われる場合について説明する。ユーザは、撮像装置100の操作部(不図示)を操作することにより、通常動画からHDR動画への切り替えを手動で行うことができる。この場合、図2において、S206の判定結果に関わらず処理はS213に進み、S213の判定結果に関わらずS214の処理はスキップされる。   First, a case where switching from a normal moving image to an HDR moving image is performed using a user instruction as a trigger will be described. The user can manually switch from the normal moving image to the HDR moving image by operating an operation unit (not shown) of the imaging apparatus 100. In this case, in FIG. 2, the process proceeds to S213 regardless of the determination result of S206, and the process of S214 is skipped regardless of the determination result of S213.

次に、撮影モードが所定の撮影モードに設定されている場合について説明する。ユーザは、撮像装置100の操作部(不図示)を操作することにより、撮影モードを設定することができる。設定可能な撮影モードの例として、スポーツモードや夜景モードが挙げられる。このうち所定の撮影モード(例えば、スポーツモード)が設定されている場合、図2において、S213の判定結果に関わらずS214の処理はスキップされる。   Next, a case where the shooting mode is set to a predetermined shooting mode will be described. The user can set the shooting mode by operating an operation unit (not shown) of the imaging apparatus 100. Examples of shooting modes that can be set include a sports mode and a night view mode. When a predetermined shooting mode (for example, sport mode) is set, the process of S214 is skipped regardless of the determination result of S213 in FIG.

図8は、HDR動画から通常動画への切り替え処理の様子を時系列で表した概念図である。図8において、(a)〜(g)の意味は図7と同様である。   FIG. 8 is a conceptual diagram showing the state of the switching process from the HDR moving image to the normal moving image in time series. In FIG. 8, the meanings of (a) to (g) are the same as those in FIG.

時刻t1ではHDR動画の記録が行われている状態であり、撮像フレームレートは120FPS、1垂直期間は8.33msである。時刻t3〜t4の間で、HDR動画から通常動画への切り替え指示がシステム制御部121より行われると、次の露光画像より合成は解除となる。まず、時刻t2〜t3では、システム制御部121は、露光時間をオーバー画像用の露光時間に設定する(図5のS502)。システム制御部121は、こうして撮像された露光画像(5)を時刻t5で撮像素子115から読み出す際に、ゲインg1をかけることで、露光画像(5)が露光画像(3)+(4)と同じ撮像出力レベルとなるよう調節する。時刻t5〜t6では、システム制御部121は、露光時間を現在の露光時間と適正露光時間の中間値((Exp + Exp_just) / 2)に設定する(図5のS505)。加えて、システム制御部121は、画像処理部117内のSSG回路を制御することにより撮像の1垂直期間を60FPS相当(16.67ms)に変更する。システム制御部121は、こうして撮像された露光画像(6)を時刻t6で撮像素子115から読み出す際に、ゲインg2をかけることで、露光画像(6)が露光画像(5)と同じ撮像出力レベルとなるよう調節する。時刻t6〜t7の間で、システム制御部121は、露光時間を適正露光時間に設定する(図6のS601)。システム制御部121は、こうして撮像された露光画像(7)を時刻t7で撮像素子115から読み出す際に、ゲインg3をかけることで、露光画像(7)が露光画像(6)と同じ撮像出力レベルとなるよう調節する。   At time t1, the HDR moving image is being recorded, the imaging frame rate is 120 FPS, and the vertical period is 8.33 ms. When the system control unit 121 gives an instruction to switch from the HDR movie to the normal movie between times t3 and t4, the composition is canceled from the next exposure image. First, at time t2 to t3, the system control unit 121 sets the exposure time to the overimage exposure time (S502 in FIG. 5). The system control unit 121 applies the gain g1 when reading the exposure image (5) thus captured from the image sensor 115 at time t5, so that the exposure image (5) becomes the exposure image (3) + (4). Adjust to the same imaging output level. At times t5 to t6, the system control unit 121 sets the exposure time to an intermediate value ((Exp + Exp_just) / 2) between the current exposure time and the appropriate exposure time (S505 in FIG. 5). In addition, the system control unit 121 controls the SSG circuit in the image processing unit 117 to change one vertical period of imaging to 60 FPS equivalent (16.67 ms). The system control unit 121 applies the gain g2 when reading the exposure image (6) thus captured from the image sensor 115 at time t6, so that the exposure image (6) has the same imaging output level as the exposure image (5). Adjust so that Between times t6 and t7, the system control unit 121 sets the exposure time to an appropriate exposure time (S601 in FIG. 6). The system control unit 121 applies the gain g3 when reading the exposure image (7) thus captured from the image sensor 115 at time t7, so that the exposure image (7) has the same imaging output level as the exposure image (6). Adjust so that

なお、図8において、各時刻でのゲインレベルの大小関係は、
g1>g2>g0>g3 (g0はt1時点でのゲインレベル)
であるが、これは露光時間の変動分を吸収するようにゲイン制御が行われるためである。
In FIG. 8, the magnitude relationship between the gain levels at each time is as follows.
g1>g2>g0> g3 (g0 is the gain level at time t1)
However, this is because the gain control is performed so as to absorb the fluctuation of the exposure time.

このように、HDR動画から通常動画への切り替え処理の際は、切り替え指示から記録画像が実際に通常動画に切り替わるまでの時間を短くすることができる。また、通常動画では撮像フレームレートが60FPSとなった分、露光時間も長くとれるようになるため、ゲインレベルを下げることができ、ノイズの少ない画像を提供することができる。   As described above, in the switching process from the HDR moving image to the normal moving image, it is possible to shorten the time from the switching instruction until the recorded image is actually switched to the normal moving image. Further, since the exposure time can be increased as much as the imaging frame rate is 60 FPS in a normal moving image, the gain level can be lowered and an image with less noise can be provided.

以上説明したように、本実施形態によれば、撮像装置100は、通常動画処理の際には60FPSで撮像を行い、HDR動画処理の際には120FPSで撮像を行う。従って、通常動画処理の際に画像を間引く必要が無く、露光時間をHDR動画処理の場合よりも長くすることができるので、動画記録中に撮像画像の合成・非合成が切り替えられた場合の画質を向上させることができる。   As described above, according to the present embodiment, the imaging apparatus 100 captures images at 60 FPS during normal moving image processing and captures images at 120 FPS during HDR moving image processing. Therefore, there is no need to thin out images during normal moving image processing, and the exposure time can be made longer than in HDR moving image processing. Therefore, the image quality when combined / non-combined captured images are switched during moving image recording. Can be improved.

[第2の実施形態]
第1の実施形態では、HDR動画を生成するために画像合成を行う例について説明したが、第1の実施形態の基本的な考え方は、他の目的のために画像合成を行う場合にも適用可能である。第2の実施形態では、他の目的の例として、動画記録時に一般に用いられている、巡回型ノイズリダクション(巡回NR)を取り上げる。本実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1参照)が、画像処理部117の構成が巡回NRを実行可能なように適宜変更される。
[Second Embodiment]
In the first embodiment, an example in which image composition is performed to generate an HDR video has been described. However, the basic idea of the first embodiment is also applicable to image composition for other purposes. Is possible. In the second embodiment, cyclic noise reduction (cyclic NR) generally used during moving image recording is taken up as another example of the purpose. In this embodiment, the basic configuration of the imaging apparatus 100 is the same as that of the first embodiment (see FIG. 1), but the configuration of the image processing unit 117 is appropriately changed so that cyclic NR can be performed.

巡回NRは、ノイズ除去が行われた1フレーム前の画像信号と現フレームの画像を用いてノイズを抽出し、このノイズを現フレームの画像信号から差し引いてノイズを除去する方法である。巡回NRでは、その仕組み上、画像に動きがある場合は残像が発生するため、動きに応じて巡回係数を変更したり、巡回そのものを行わなくするなどの対応が必要とされている。   The cyclic NR is a method of extracting noise by using the image signal of the previous frame from which noise has been removed and the image of the current frame, and subtracting this noise from the image signal of the current frame to remove the noise. In the cyclic NR, because of the mechanism, an afterimage is generated when there is a motion in an image. Therefore, it is necessary to take measures such as changing the cyclic coefficient according to the motion or not performing the tour itself.

図9は、第2の実施形態に係る巡回NR処理のフローチャートである。本フローチャートにおける画像(フレームと記載)は全て、撮像素子115からの露光読み出し後、信号処理済で圧縮前の状態を指している。これらのフレームはメモリ部123に一時保存され、動画撮像処理により所定のフレームレートで更新される。   FIG. 9 is a flowchart of the cyclic NR process according to the second embodiment. All the images (denoted as frames) in this flowchart indicate a state after signal processing after exposure reading from the image sensor 115 and before compression. These frames are temporarily stored in the memory unit 123 and updated at a predetermined frame rate by moving image capturing processing.

S901で、撮像装置100は、現フレームIMG1を取得する。S902で、撮像装置100は、このフレームから前回のフレームIMG0を減算して差分フレームIMG_Sを生成する。S903で、撮像装置100は、差分フレームIMG_Sから動き量を抽出する。S904で、撮像装置100は、この動き量と閾値B0及びB1(B1>B0)との比較を行う。S904においてB1>動き量>B0である場合、S909で撮像フレームレートが120FPSに設定された後、処理はS906へ進む。S904において動き量<B0である場合、S909で撮像フレームレートが120FPSに設定された後、処理はS906へ進む。   In step S901, the imaging apparatus 100 acquires the current frame IMG1. In S902, the imaging apparatus 100 subtracts the previous frame IMG0 from this frame to generate a difference frame IMG_S. In S903, the imaging apparatus 100 extracts a motion amount from the difference frame IMG_S. In S904, the imaging apparatus 100 compares the amount of motion with the threshold values B0 and B1 (B1> B0). If B1> motion amount> B0 in S904, the process proceeds to S906 after the imaging frame rate is set to 120 FPS in S909. If the amount of motion <B0 in S904, the process proceeds to S906 after the imaging frame rate is set to 120 FPS in S909.

S906で、撮像装置100は、次にIMG_Sにおける高周波成分を抽出し、IMG_NOISE_Hに代入する。S907で、撮像装置100は、IMG_1からIMG_NOISE_Hを減算し、結果を出力フレームIMGに代入する。S908で、撮像装置100は、次回の参照用としてIMG0にIMGを代入し、処理を終了する。   In S906, the imaging apparatus 100 next extracts a high frequency component in IMG_S and substitutes it into IMG_NOISE_H. In S907, the imaging apparatus 100 subtracts IMG_NOISE_H from IMG_1, and substitutes the result into the output frame IMG. In step S908, the imaging apparatus 100 substitutes IMG for IMG0 for the next reference, and ends the process.

S904において動き量>B1であった場合、S910で撮像フレームレートが60FPSに設定される。この場合、S911で、撮像装置100は出力フレームIMGに現フレームIMG1をそのまま代入し、処理をS908に進める。   If the amount of motion> B1 in S904, the imaging frame rate is set to 60 FPS in S910. In this case, in S911, the imaging apparatus 100 substitutes the current frame IMG1 as it is for the output frame IMG, and the process proceeds to S908.

本実施形態では、例えば、動き量が少ない場合は、撮像装置100は、60FPSの撮像フレームレートにより巡回NRを実施し、動き量がある程度大きくなった場合は120FPSの撮像フレームレートにより巡回NRを実施する。さらに動き量が大きくなった場合は、撮像装置100は、巡回NRそのものを行わない。   In this embodiment, for example, when the amount of motion is small, the imaging apparatus 100 performs cyclic NR at an imaging frame rate of 60 FPS, and when the amount of motion increases to some extent, performs cyclic NR at an imaging frame rate of 120 FPS. To do. When the amount of motion further increases, the imaging device 100 does not perform the cyclic NR itself.

このように構成すれば、動きが比較的小さいシーンではノイズ除去効果が大きくなり、動きが大きくなった場合には残像の発生を抑えて動画記録することが可能となる。   With such a configuration, the noise removal effect is increased in a scene with relatively small motion, and when the motion becomes large, it is possible to record a moving image while suppressing the occurrence of an afterimage.

以上説明したように、本実施形態によれば、動画記録中の複数フレームの合成・非合成をスムーズかつ最適に行うことができる。そして、非合成の場合、合成を行う場合よりも低い撮像フレームレートを使用可能である(図9のS909及びS910)。   As described above, according to the present embodiment, it is possible to smoothly and optimally combine a plurality of frames during moving image recording. In the case of non-synthesis, a lower imaging frame rate can be used than in the case of performing synthesis (S909 and S910 in FIG. 9).

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

撮像手段と、
第1のフレームレート又は前記第1のフレームレートよりも高い第2のフレームレートで連続的に撮像を行うように前記撮像手段を制御する制御手段と、
前記連続的な撮像により連続的に生成される画像データを処理する画像処理手段であって、各画像データを他の画像データと合成せずに処理する非合成モード、又は、所定数の画像データを合成する処理を行う合成モードで動作する画像処理手段と、
を備え、
前記制御手段は、前記連続的な撮像の間に前記画像処理手段が前記非合成モードから前記合成モードに切り替わる場合、前記第1のフレームレートから前記第2のフレームレートに切り替え、前記連続的な撮像の間に前記画像処理手段が前記合成モードから前記非合成モードに切り替わる場合、前記第2のフレームレートから前記第1のフレームレートに切り替える
ことを特徴とする撮像装置。
Imaging means;
Control means for controlling the imaging means so as to continuously perform imaging at a first frame rate or a second frame rate higher than the first frame rate;
Image processing means for processing image data continuously generated by the continuous imaging, wherein each image data is processed without being combined with other image data, or a predetermined number of image data Image processing means that operates in a synthesis mode for performing a process of synthesizing
With
The control means switches from the first frame rate to the second frame rate when the image processing means switches from the non-synthesizing mode to the synthesizing mode during the continuous imaging. When the image processing means switches from the synthesis mode to the non-synthesis mode during imaging, the imaging apparatus switches from the second frame rate to the first frame rate.
前記画像処理手段が前記合成モードで動作する場合、前記制御手段は、前記所定数の画像データがそれぞれ異なる露光時間の撮像により生成されるように前記撮像手段を制御し、前記画像処理手段は、前記所定数の画像データを合成することによりダイナミックレンジが拡大された画像データを生成する
ことを特徴とする請求項1に記載の撮像装置。
When the image processing unit operates in the synthesis mode, the control unit controls the imaging unit so that the predetermined number of image data is generated by imaging with different exposure times, and the image processing unit includes: The image pickup apparatus according to claim 1, wherein image data having an expanded dynamic range is generated by combining the predetermined number of image data.
前記画像処理手段が前記非合成モードから前記合成モードに切り替わる場合に、前記撮像手段の露光時間が前記第2のフレームレートの逆数よりも長いか否かを判定する判定手段を更に備え、
前記撮像手段の露光時間が前記第2のフレームレートの逆数よりも長いと判定された場合、前記制御手段は、前記撮像手段の露光時間を前記第2のフレームレートの逆数以下に短縮し、当該短縮された露光時間での撮像が行われた後に、前記第1のフレームレートから前記第2のフレームレートに切り替える
ことを特徴とする請求項2に記載の撮像装置。
A determination means for determining whether an exposure time of the imaging means is longer than a reciprocal of the second frame rate when the image processing means is switched from the non-synthesis mode to the synthesis mode;
When it is determined that the exposure time of the imaging means is longer than the reciprocal of the second frame rate, the control means reduces the exposure time of the imaging means to be equal to or less than the reciprocal of the second frame rate, The imaging apparatus according to claim 2, wherein after the imaging with the shortened exposure time is performed, the first frame rate is switched to the second frame rate.
前記制御手段は、前記撮像手段の露光時間を前記第2のフレームレートの逆数以下に短縮する際に、前記撮像手段の露光時間を前記第2のフレームレートの逆数以下になるまで段階的に短縮する
ことを特徴とする請求項3に記載の撮像装置。
The control means reduces the exposure time of the imaging means stepwise until it becomes less than the reciprocal of the second frame rate when reducing the exposure time of the imaging means to be less than or equal to the reciprocal of the second frame rate. The imaging apparatus according to claim 3, wherein:
前記制御手段は、前記短縮された露光時間での撮像により生成される画像データにかけるゲインを、前記短縮による露光時間の変化に応じて変更する
ことを特徴とする請求項3又は4に記載の撮像装置。
The said control means changes the gain applied to the image data produced | generated by the imaging with the said shortened exposure time according to the change of the exposure time by the said shortening. The Claim 3 or 4 characterized by the above-mentioned. Imaging device.
前記画像処理手段を前記非合成モードから前記合成モードに切り替えるユーザ指示を受け付ける受け付け手段を更に備え、
前記ユーザ指示に従って前記画像処理手段が前記非合成モードから前記合成モードに切り替わる場合、前記制御手段は、前記撮像手段の露光時間の長さに関わらず、前記短縮を行わずに、前記第1のフレームレートから前記第2のフレームレートに切り替える
ことを特徴とする請求項3乃至5のいずれか1項に記載の撮像装置。
Receiving means for accepting a user instruction to switch the image processing means from the non-synthesis mode to the synthesis mode;
When the image processing means switches from the non-synthesis mode to the synthesis mode in accordance with the user instruction, the control means does not perform the shortening regardless of the exposure time length of the imaging means. The imaging apparatus according to any one of claims 3 to 5, wherein the frame rate is switched to the second frame rate.
撮影モードを設定する設定手段を更に備え、
前記設定手段により設定された撮影モードが所定の撮影モードである場合、前記制御手段は、前記撮像手段の露光時間の長さに関わらず、前記短縮を行わずに、前記第1のフレームレートから前記第2のフレームレートに切り替える
ことを特徴とする請求項3乃至6のいずれか1項に記載の撮像装置。
It further comprises setting means for setting the shooting mode,
When the shooting mode set by the setting unit is a predetermined shooting mode, the control unit starts from the first frame rate without performing the reduction regardless of the length of the exposure time of the imaging unit. The imaging apparatus according to claim 3, wherein the imaging apparatus is switched to the second frame rate.
前記画像処理手段が前記非合成モードから前記合成モードに切り替わる場合、前記画像処理手段は、前記第2のフレームレートでの撮像により生成された画像データを前記非合成モードで処理した後に、前記合成モードでの動作を開始する
ことを特徴とする請求項2乃至7のいずれか1項に記載の撮像装置。
When the image processing means switches from the non-synthesis mode to the synthesis mode, the image processing means processes the image data generated by imaging at the second frame rate in the non-synthesis mode, and then performs the synthesis. The imaging device according to any one of claims 2 to 7, wherein an operation in a mode is started.
前記画像処理手段が前記合成モードから前記非合成モードに切り替わる場合、前記制御手段は、前記画像処理手段が前記第2のフレームレートでの撮像により生成された画像データを前記非合成モードで処理した後に、前記第2のフレームレートから前記第1のフレームレートに切り替える
ことを特徴とする請求項2乃至8のいずれか1項に記載の撮像装置。
When the image processing means switches from the synthesis mode to the non-synthesis mode, the control means has processed the image data generated by imaging at the second frame rate in the non-synthesis mode. The imaging apparatus according to any one of claims 2 to 8, wherein later, the second frame rate is switched to the first frame rate.
撮像手段を備える撮像装置における撮像方法であって、
前記撮像装置の制御手段が、第1のフレームレート又は前記第1のフレームレートよりも高い第2のフレームレートで連続的に撮像を行うように前記撮像手段を制御する制御工程と、
前記撮像装置の画像処理手段が、前記連続的な撮像により連続的に生成される画像データを処理する画像処理工程であって、各画像データを他の画像データと合成せずに処理する非合成モード、又は、所定数の画像データを合成する処理を行う合成モードで動作する画像処理工程と、
を備え、
前記制御工程では、前記連続的な撮像の間に前記画像処理工程が前記非合成モードから前記合成モードに切り替わる場合、前記第1のフレームレートから前記第2のフレームレートに切り替え、前記連続的な撮像の間に前記画像処理工程が前記合成モードから前記非合成モードに切り替わる場合、前記第2のフレームレートから前記第1のフレームレートに切り替える
ことを特徴とする撮像方法。
An imaging method in an imaging apparatus comprising an imaging means,
A control step in which the control unit of the imaging apparatus controls the imaging unit so as to continuously perform imaging at a first frame rate or a second frame rate higher than the first frame rate;
The image processing means of the imaging apparatus is an image processing step of processing image data continuously generated by the continuous imaging, and each image data is processed without being combined with other image data. An image processing step that operates in a mode or a synthesis mode for performing a process of synthesizing a predetermined number of image data;
With
In the control step, when the image processing step switches from the non-synthesis mode to the synthesis mode during the continuous imaging, the first frame rate is switched to the second frame rate, and the continuous When the image processing step is switched from the synthesis mode to the non-synthesis mode during imaging, the imaging method is characterized by switching from the second frame rate to the first frame rate.
コンピュータを、請求項1乃至9のいずれか1項に記載の撮像装置の前記撮像手段を除く各手段として機能させるためのプログラム。   The program for functioning a computer as each means except the said imaging means of the imaging device of any one of Claims 1 thru | or 9. コンピュータを、請求項1乃至9のいずれか1項に記載の撮像装置の前記撮像手段を除く各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium storing a program for causing a computer to function as each unit other than the imaging unit of the imaging apparatus according to claim 1.
JP2013161857A 2013-08-02 2013-08-02 Imaging apparatus, imaging method, program, and recording medium Expired - Fee Related JP6152009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161857A JP6152009B2 (en) 2013-08-02 2013-08-02 Imaging apparatus, imaging method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161857A JP6152009B2 (en) 2013-08-02 2013-08-02 Imaging apparatus, imaging method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2015033020A true JP2015033020A (en) 2015-02-16
JP6152009B2 JP6152009B2 (en) 2017-06-21

Family

ID=52517993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161857A Expired - Fee Related JP6152009B2 (en) 2013-08-02 2013-08-02 Imaging apparatus, imaging method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6152009B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180084686A (en) * 2017-01-16 2018-07-25 전선곤 Apparatus for Acquiring Multiple Exposure Images Using Optical Shutter
WO2019064757A1 (en) * 2017-09-29 2019-04-04 富士フイルム株式会社 Image pickup device, image pickup method and program
JPWO2022024637A1 (en) * 2020-07-31 2022-02-03
WO2024241702A1 (en) * 2023-05-25 2024-11-28 キヤノン株式会社 Information processing device and imaging device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058922A (en) * 2011-09-08 2013-03-28 Olympus Imaging Corp Photographing device
JP2013070334A (en) * 2011-09-26 2013-04-18 Canon Inc Image recording device, control method therefor, and control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058922A (en) * 2011-09-08 2013-03-28 Olympus Imaging Corp Photographing device
JP2013070334A (en) * 2011-09-26 2013-04-18 Canon Inc Image recording device, control method therefor, and control program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102396062B1 (en) * 2017-01-16 2022-05-11 전선곤 Apparatus for Acquiring Multiple Exposure Images Using Optical Shutter
KR20180084686A (en) * 2017-01-16 2018-07-25 전선곤 Apparatus for Acquiring Multiple Exposure Images Using Optical Shutter
WO2019064757A1 (en) * 2017-09-29 2019-04-04 富士フイルム株式会社 Image pickup device, image pickup method and program
JPWO2019064757A1 (en) * 2017-09-29 2020-11-05 富士フイルム株式会社 Imaging equipment, imaging methods, and programs
US11032483B2 (en) 2017-09-29 2021-06-08 Fujifilm Corporation Imaging apparatus, imaging method, and program
CN116157728A (en) * 2020-07-31 2023-05-23 富士胶片株式会社 Camera device and working method thereof
JPWO2022024637A1 (en) * 2020-07-31 2022-02-03
JP7462759B2 (en) 2020-07-31 2024-04-05 富士フイルム株式会社 Imaging device and method of operation thereof
JP2024071573A (en) * 2020-07-31 2024-05-24 富士フイルム株式会社 Imaging device, imaging device operation method, and program
US12022193B2 (en) 2020-07-31 2024-06-25 Fujifilm Corporation Imaging apparatus and operation method thereof
US12395737B2 (en) 2020-07-31 2025-08-19 Fujifilm Corporation Imaging apparatus and operation method thereof
JP7735460B2 (en) 2020-07-31 2025-09-08 富士フイルム株式会社 Imaging device, imaging device operation method, and program
WO2024241702A1 (en) * 2023-05-25 2024-11-28 キヤノン株式会社 Information processing device and imaging device

Also Published As

Publication number Publication date
JP6152009B2 (en) 2017-06-21

Similar Documents

Publication Publication Date Title
CN102131056B (en) Image-capturing device and image-capturing method
US8638374B2 (en) Image pickup apparatus, image pickup system, and image pickup method
JP2013046259A (en) Video apparatus, control method, and program
US7388607B2 (en) Digital still camera
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP5480025B2 (en) Imaging apparatus, imaging system, and imaging method
JP2012119761A (en) Electronic apparatus, image processing method and program
JP2017216638A (en) Imaging device
JP2009194770A (en) IMAGING DEVICE, MOVIE REPRODUCTION DEVICE, AND PROGRAM THEREOF
KR20150002478A (en) Moving image generating apparatus, moving image generating method, and computer readable recording medium having a computer program
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP2006033123A (en) Image pickup device
JP6118118B2 (en) Imaging apparatus and control method thereof
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2009218895A (en) Imaging apparatus and imaging method
JP6147116B2 (en) Imaging apparatus, control method thereof, and control program
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
JP2010147774A (en) Imaging apparatus
JP2014027460A (en) Imaging apparatus, camera system, control method of imaging apparatus, program and storage medium
JP5750262B2 (en) Imaging apparatus and imaging method
JP2017011676A (en) Image processing apparatus and image processing method
JP2010239267A (en) Imaging apparatus, peripheral dimming correction control method, and program
JP5963601B2 (en) Imaging apparatus, imaging method, and program
JP6800693B2 (en) Imaging device and driving method of imaging device
JP6635722B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170526

R151 Written notification of patent or utility model registration

Ref document number: 6152009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees