[go: up one dir, main page]

JP2017011676A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2017011676A
JP2017011676A JP2016078863A JP2016078863A JP2017011676A JP 2017011676 A JP2017011676 A JP 2017011676A JP 2016078863 A JP2016078863 A JP 2016078863A JP 2016078863 A JP2016078863 A JP 2016078863A JP 2017011676 A JP2017011676 A JP 2017011676A
Authority
JP
Japan
Prior art keywords
frame
unit
moving image
image data
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016078863A
Other languages
Japanese (ja)
Inventor
靖 四方
Yasushi Yomo
靖 四方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/185,213 priority Critical patent/US9819873B2/en
Publication of JP2017011676A publication Critical patent/JP2017011676A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】被写体の動きのボケ具合(被写体のフォーカス感)が好適なHDR合成動画を容易に得ることができる技術を提供する。
【解決手段】本発明の画像処理装置は、撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得手段と、前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、を有し、前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する。
【選択図】図8
An object of the present invention is to provide a technique capable of easily obtaining an HDR synthesized moving image in which the degree of blur of the movement of a subject (a feeling of focus on the subject) is favorable.
An image processing apparatus according to the present invention acquires first moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame. 1 acquisition means, second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data, and synthesis means for combining the first frame and the second frame based on the reproduction information; And the synthesizing unit changes a synthesis ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.
[Selection] Figure 8

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

比較的長い露光時間での撮像によって得られた画像(第1フレーム)と、比較的短い露光時間での撮像によって得られた画像(第2フレーム)とを含む複数の画像を合成することにより、ダイナミックレンジが高い画像を生成する技術がある。このような技術(合成)は「ハイダイナミックレンジ合成(HDR合成)」と呼ばれ、HDR合成によって生成された画像は「ハイダイナミックレンジ合成画像(HDR合成画像)」と呼ばれる。HDR合成を行うことにより、露光時間による受光データのオーバーシュートの発生が抑制されたHDR合成画像を生成することができる。即ち、白とびや黒つぶれの発生が抑制されたHDR合成画像を生成することができる。   By combining a plurality of images including an image (first frame) obtained by imaging with a relatively long exposure time and an image (second frame) obtained by imaging with a relatively short exposure time, There is a technique for generating an image with a high dynamic range. Such a technique (synthesis) is called “high dynamic range synthesis (HDR synthesis)”, and an image generated by HDR synthesis is called “high dynamic range synthesis image (HDR synthesized image)”. By performing HDR composition, it is possible to generate an HDR composite image in which occurrence of overshoot of received light data due to exposure time is suppressed. That is, it is possible to generate an HDR composite image in which occurrence of overexposure and underexposure is suppressed.

近年、撮像時にHDR合成をリアルタイムで行うことで、撮像動画(撮像によって得られた動画)として、各フレームがHDR合成画像である動画(HDR合成動画)を得ることが可能となった。図16は、HDR合成動画が生成される様子を示す。図16の例では、撮像によって第1フレームと第2フレームが交互に得られ、第1フレームと第2フレームが得られる度に、得られた第1フレームと第2フレームを合成することによりHDR合成画像が生成される。それにより、HDR合成動画が生成される。   In recent years, it has become possible to obtain a moving image (HDR combined moving image) in which each frame is an HDR combined image as a captured moving image (moving image obtained by imaging) by performing HDR synthesis in real time during imaging. FIG. 16 shows a state where an HDR synthesized moving image is generated. In the example of FIG. 16, the first frame and the second frame are alternately obtained by imaging, and HDR is obtained by synthesizing the obtained first frame and second frame each time the first frame and the second frame are obtained. A composite image is generated. Thereby, an HDR synthetic moving image is generated.

HDR動画の生成では、HDR合成における第1フレームと第2フレームの重みを変えることで、ダイナミックレンジだけでなく、被写体の動きのボケ具合(被写体のフォーカス感)を変えることができる。図17(A)は、水平方向に動く黒い円形の物体を撮像して得られた第1フレームの一例を示す。第1フレームでは、露光時間が長いため、暗部の階調情報を詳細に保持できるが、動きのボケが大きい。図17(B)は、水平方向に動く黒い円形の物体を撮像して得られた第2フレームの一例を示す。第2フレームでは、露光時間が短いため、明部の階調情報を詳細に保持でき、動きのボケが小さい。図17(C)及び図17(D)は、図17(A)の第1フレームと図17(B)の第2フレームとを合成して得られたHDR合成画像の一例を示す。図17(C)は、第1フレームの重みが大きく、且つ、第2フレームの重みが小さい場合の例を示す。この場合、図17(C)に示すように、動きのボケが残ったHDR画像が生成される。図17(D)は、第1フレームの重みが小さく、且つ、第2フレームの重みが大きい場合の例を示す。この場合、図17(D)に示すように、図17(C)に比べ動きのボケが小さいHDR画像が生成される。一般的に、通常の再生速度での動画の再生では、自然な動きを表現するために、動きのボケがある程度残った画像(例えば、図17(C)のような画像)が使用されることが望ましい。一方、通常の再生速度より遅い再生速度での動画の再生(スロー再生や一時停止再生)では、フォーカス感の高い画像(例えば、図17(D)のような画像)が使用されることが望ましい。   In the generation of an HDR video, not only the dynamic range but also the degree of blur of subject movement (subject focus feeling) can be changed by changing the weights of the first frame and the second frame in HDR synthesis. FIG. 17A shows an example of a first frame obtained by imaging a black circular object moving in the horizontal direction. In the first frame, since the exposure time is long, the gradation information of the dark part can be held in detail, but the motion blur is large. FIG. 17B shows an example of a second frame obtained by imaging a black circular object moving in the horizontal direction. In the second frame, since the exposure time is short, the gradation information of the bright part can be held in detail and the motion blur is small. FIGS. 17C and 17D show examples of HDR synthesized images obtained by synthesizing the first frame of FIG. 17A and the second frame of FIG. 17B. FIG. 17C shows an example in which the weight of the first frame is large and the weight of the second frame is small. In this case, as shown in FIG. 17C, an HDR image in which motion blur remains is generated. FIG. 17D shows an example in which the weight of the first frame is small and the weight of the second frame is large. In this case, as shown in FIG. 17D, an HDR image with less motion blur than in FIG. 17C is generated. In general, in reproducing a moving image at a normal reproduction speed, an image (for example, an image as shown in FIG. 17C) in which motion blur remains to some extent is used to express natural motion. Is desirable. On the other hand, it is desirable to use an image with a high focus feeling (for example, an image as shown in FIG. 17D) for moving image playback (slow playback or pause playback) at a playback speed slower than the normal playback speed. .

近年、ビデオカメラの撮像センサのサイズが増しており、一眼レフカメラに用意された豊富なレンズ群をビデオカメラにマウントできることが一般的になってきている。このような背景から、撮像によって高解像度の動画を取得し、動画の1フレームを静止画として抽出する、といったワークフローが注目されている。以後、このようなワークフローを「モーションキャプチャワークフロー」と記載する。モーションキャプチャワークフローでは、例えば、撮像によってCM(Commercial Message)やPV(Promotion Video)用の高解像度動画が取得され、高解像度動画の1フレームが雑誌や広告用の静止画として抽出される。   In recent years, the size of image sensors in video cameras has increased, and it has become common to mount abundant lens groups prepared for single-lens reflex cameras on video cameras. From such a background, a workflow of acquiring a high-resolution moving image by imaging and extracting one frame of the moving image as a still image has attracted attention. Hereinafter, such a workflow is referred to as a “motion capture workflow”. In the motion capture workflow, for example, a high-resolution moving image for CM (Commercial Message) or PV (Promotion Video) is acquired by imaging, and one frame of the high-resolution moving image is extracted as a still image for a magazine or advertisement.

図18は、モーションキャプチャワークフローで使用される画像表示システムの構成の一例を示す図である。図18の画像表示システムは、撮像装置1100、再生装置1200、現像装置1300、及び、画像表示装置1400を有する。撮像装置1100は、撮像によって動画データを生成し、生成した動画データを出力する。撮像装置1100は、動画データとして、各フレームの画像データがRAW画像データであるRAW動画データを出力する。再生装置1200は、撮像装置1100から出力されたRAW動画データを記憶する。また、再生装置1200は、記憶しているRAW動画データを出力する。現像装置1300は、再生装置1200から出力されたRAW動画データに現像処理を施し、現像処理後の動画データを出力する。画像表示装置1400は、現像装置1300から出力された動画データに基づく動画を表示する。   FIG. 18 is a diagram illustrating an example of a configuration of an image display system used in the motion capture workflow. The image display system in FIG. 18 includes an imaging device 1100, a playback device 1200, a developing device 1300, and an image display device 1400. The imaging device 1100 generates moving image data by imaging and outputs the generated moving image data. The imaging apparatus 1100 outputs RAW moving image data in which the image data of each frame is RAW image data as moving image data. The playback device 1200 stores the RAW moving image data output from the imaging device 1100. Further, the playback device 1200 outputs the stored RAW moving image data. The developing device 1300 performs development processing on the RAW moving image data output from the reproducing device 1200, and outputs the moving image data after the developing processing. The image display device 1400 displays a moving image based on the moving image data output from the developing device 1300.

図18の画像表示システムでは、まず、撮像装置1100によって得られたRAW動画データが、再生装置1200に蓄積される。その後、再生装置1200に蓄積されたRAW動画データが現像装置1300によって現像され、現像結果が画像表示装置1400によって表示される。ユーザ(例えば、カメラマン)は、画像表示装置1400の表示を見ることで、撮像動画の確認、静止画の選定、等を行う。   In the image display system of FIG. 18, first, RAW moving image data obtained by the imaging device 1100 is accumulated in the playback device 1200. Thereafter, the RAW moving image data stored in the playback device 1200 is developed by the developing device 1300, and the development result is displayed by the image display device 1400. A user (for example, a cameraman) checks a captured moving image, selects a still image, and the like by looking at the display on the image display device 1400.

図19は、モーションキャプチャワークフローの一例を示すフローチャートである。ここでは、撮像動画が通常再生されている状態からの作業について説明する。通常再生は、通常の再生速度で動画を再生する再生方法である。   FIG. 19 is a flowchart illustrating an example of a motion capture workflow. Here, an operation from a state in which a captured moving image is normally reproduced will be described. Normal playback is a playback method in which a moving image is played back at a normal playback speed.

まず、ユーザは、画像表示装置1400の表示を確認し、静止画として使用できそうな画像群(シーン)を探す(S1001;確認作業)。そして、ユーザは、探した画像群の近辺のフレームからの一時停止再生のためのユーザ操作(一時停止操作)を行い、コマ送りのためのユーザ操作(コマ送り操作)を繰り返し行う(S1002)。それにより、探した画像群の近辺のフレームが表示され、コマ送り操作が行われる度に次のフレームに表示が切り替えられる。次に、ユーザは、コマ送り操作を行いながら画像表示装置1400の表示を確認し、静止画として使用するフレームを選定する(S1003;選定作業)。一般的に、画像の構図の他に、フォーカス感の有無を考慮して、フレームが選定される。例えば、雑誌や広告に使用する上で必要十分なフォーカス感が残ったフレームが選定される。そして、ユーザは、選定されたフレームのRAW画像データを静止画データとして再生装置1200から抽出するユーザ操作(抽出操作)を行う(S1004)。次に、ユーザは、モーションキャプチャワークフローを終了するか否かを判断する(S1005)。モーションキャプチャワークフローを終了する場合には、本フローチャートが終了され、モーションキャプチャワークフローを終了しない場合には、S1002に作業が戻され、引き続きコマ送り操作が行われる。モーションキャプチャワークフローを終了しない場合に、S1001に作業が戻されてもよい。なお、RAW画像データは、画像の編集に非常に適している。静止画データとしてRAW画像データを抽出することにより、雑誌や広告などの用途に応じたレタッチなどの編集作業を好適に行うことができる。   First, the user confirms the display of the image display device 1400 and searches for an image group (scene) that can be used as a still image (S1001; confirmation work). Then, the user performs a user operation (pause operation) for pause reproduction from a frame in the vicinity of the searched image group, and repeatedly performs a user operation (frame advance operation) for frame advance (S1002). Thereby, a frame in the vicinity of the searched image group is displayed, and the display is switched to the next frame every time a frame advance operation is performed. Next, the user confirms the display of the image display device 1400 while performing a frame advance operation, and selects a frame to be used as a still image (S1003; selection work). In general, in addition to the composition of an image, a frame is selected in consideration of the presence or absence of a focus feeling. For example, a frame that has a necessary and sufficient focus feeling for use in a magazine or an advertisement is selected. Then, the user performs a user operation (extraction operation) for extracting the RAW image data of the selected frame from the playback apparatus 1200 as still image data (S1004). Next, the user determines whether or not to end the motion capture workflow (S1005). If the motion capture workflow is to be terminated, this flowchart is terminated. If the motion capture workflow is not to be terminated, the operation returns to S1002, and the frame advance operation is continued. If the motion capture workflow is not terminated, the work may be returned to S1001. Note that the RAW image data is very suitable for image editing. By extracting the RAW image data as the still image data, it is possible to suitably perform an editing operation such as retouching according to the use such as a magazine or an advertisement.

ところで、モーションキャプチャワークフローにおいてHDR合成動画を生成する場合には、S1001の確認作業では、通常の再生速度での動画の再生に適した重みを用いてHDR合成動画が生成されることが好ましい。しかしながら、そのような重みを使用すると、S1003の選定作業において、フォーカス感が足りない表示が行われることが多い。そして、そのような表示が行わる度にユーザによって重みが調整されることが想定される。   By the way, when generating an HDR composite video in the motion capture workflow, it is preferable that the HDR composite video is generated using weights suitable for playback of a video at a normal playback speed in the confirmation operation in S1001. However, when such weights are used, a display with insufficient focus is often performed in the selection operation in S1003. It is assumed that the weight is adjusted by the user every time such display is performed.

モーションキャプチャワークフローでは、膨大な画像(フレーム)から好適な画像を選定(選別)するのに非常に長い時間を要し、ユーザの負担が非常に大きい。そして、選定
作業において重みの調整が必要になると、作業時間やユーザの負担がさらに増してしまう。
In the motion capture workflow, it takes a very long time to select (select) a suitable image from a large number of images (frames), and the burden on the user is very large. And if adjustment of a weight is needed in selection work, work time and a user's burden will increase further.

HDR合成に関する従来技術は、例えば、特許文献1,2に開示されている。特許文献1に開示の技術では、長時間露光の画像と短時間露光の画像の重みが、HDR合成動画における被写体の動きの有無に基づいて調整される。特許文献2に開示の技術では、HDR合成に用いる画像の枚数と、HDR合成に用いる画像の露光条件とが、ユーザ操作に応じて調整される。   Conventional techniques related to HDR synthesis are disclosed in, for example, Patent Documents 1 and 2. In the technique disclosed in Patent Document 1, the weights of the long-time exposure image and the short-time exposure image are adjusted based on the presence or absence of the movement of the subject in the HDR synthesized moving image. In the technique disclosed in Patent Document 2, the number of images used for HDR composition and the exposure conditions for images used for HDR composition are adjusted according to a user operation.

しかしながら、特許文献1,2に開示の技術では、HDR合成動画の1フレームに関して一意に重みが決定される。1フレームに関して一意に重みが決定されると、S1001の確認作業時に動きのボケが小さい不自然な表示が行われたり、S1003の選定作業時にフォーカス感が足りない表示が行われたりする。そのため、同一のフレームに関する重みとして、確認作業時と選定作業時とで異なる重みが使用されることが好ましい。特許文献1,2に開示の技術を用いたとしても、このような処理は実現できず、重みを調整するユーザ操作が必要となる。   However, in the techniques disclosed in Patent Documents 1 and 2, a weight is uniquely determined for one frame of the HDR synthesized moving image. If the weight is uniquely determined for one frame, an unnatural display with small motion blur is performed during the confirmation operation in S1001, or a display with insufficient focus is performed during the selection operation in S1003. Therefore, it is preferable to use different weights for the same frame between the confirmation work and the selection work. Even if the techniques disclosed in Patent Documents 1 and 2 are used, such processing cannot be realized, and a user operation for adjusting the weight is required.

特開2012−084983号公報JP2012-049883A 特開2012−175277号公報JP 2012-175277 A

本発明は、被写体の動きのボケ具合(被写体のフォーカス感)が好適な合成動画を容易に得ることができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of easily obtaining a synthesized moving image in which the degree of blur of a subject's movement (the subject's focus feeling) is suitable.

本発明の第1の態様は、
撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得手段と、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、
を有し、
前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する
ことを特徴とする画像処理装置である。
The first aspect of the present invention is:
First acquisition means for acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
Second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data;
Combining means for combining the first frame and the second frame based on the reproduction information;
Have
The synthesizing unit is an image processing apparatus that changes a synthesis ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.

本発明の第2の態様は、
撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得ステップと、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得ステップと、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成ステップと、
を有し、
前記合成ステップでは、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率が変更される
ことを特徴とする画像処理方法である。
The second aspect of the present invention is:
A first acquisition step of acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
A second acquisition step of acquiring reproduction information which is information relating to the reproduction speed of the moving image data;
A combining step of combining the first frame and the second frame based on the reproduction information;
Have
In the composition step, the composition ratio of the first frame and the second frame is changed according to the reproduction speed of the moving image data.

本発明の第3の態様は、上述した画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。   A third aspect of the present invention is a program that causes a computer to execute each step of the above-described image processing method.

本発明によれば、被写体の動きのボケ具合(被写体のフォーカス感)が好適な合成動画を容易に得ることができる。   According to the present invention, it is possible to easily obtain a synthesized moving image in which the degree of blur of the subject movement (the subject's focus feeling) is suitable.

実施例1に係る画像表示システムの構成の一例を示す図1 is a diagram illustrating an example of a configuration of an image display system according to a first embodiment. 実施例1に係る撮像装置の機能構成の一例を示すブロック図1 is a block diagram illustrating an example of a functional configuration of an imaging apparatus according to a first embodiment. 実施例1に係るRAW−HDR動画データの一例を示す図The figure which shows an example of the RAW-HDR moving image data which concerns on Example 1. FIG. 実施例1に係る再生装置の機能構成の一例を示すブロック図FIG. 1 is a block diagram illustrating an example of a functional configuration of a playback device according to a first embodiment. 実施例1に係る再生用RAW−HDR動画データの一例を示す図The figure which shows an example of the raw-RAW moving image data for reproduction | regeneration which concerns on Example 1. FIG. 実施例1に係る現像装置の機能構成の一例を示すブロック図FIG. 1 is a block diagram illustrating an example of a functional configuration of a developing device according to a first embodiment. 実施例1に係る画像表示装置の機能構成の一例を示すブロック図FIG. 1 is a block diagram illustrating an example of a functional configuration of an image display device according to a first embodiment. 実施例1に係る画像表示装置の動作の一例を示すフローチャート7 is a flowchart illustrating an example of the operation of the image display apparatus according to the first embodiment. 実施例1に係る表示画像の一例を示す図FIG. 10 is a diagram illustrating an example of a display image according to the first embodiment. 実施例2に係る画像表示装置の機能構成の一例を示すブロック図FIG. 7 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a second embodiment. 実施例2に係る画像表示装置の動作の一例を示すフローチャート10 is a flowchart illustrating an example of the operation of the image display apparatus according to the second embodiment. 実施例2に係るヒストグラムデータの一例を示す図The figure which shows an example of the histogram data which concern on Example 2. 実施例3に係る画像表示装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a third embodiment. 実施例3に係る表示画像の一例を示す図FIG. 10 is a diagram illustrating an example of a display image according to the third embodiment. 実施例4に係る画像表示装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a fourth embodiment. HDR合成動画が生成される様子の一例を示す図The figure which shows an example of a mode that an HDR synthetic | combination animation is produced | generated. 画像の一例を示す図Figure showing an example of an image 画像表示システムの一例を示す図The figure which shows an example of the image display system モーションキャプチャワークフローの一例を示すフローチャートFlow chart showing an example of a motion capture workflow

<実施例1>
以下、本発明の実施例1に係る画像処理装置及び画像処理方法について説明する。なお、以下では、本実施例に係る画像処理装置が画像表示装置に設けられている例を説明するが、本実施例に係る画像処理装置は画像表示装置とは別体の装置であってもよい。本実施例に係る画像処理装置は、画像表示装置とは異なる装置に設けられていてもよい。
<Example 1>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 1 of the present invention will be described. Hereinafter, an example in which the image processing apparatus according to the present embodiment is provided in the image display apparatus will be described. However, the image processing apparatus according to the present embodiment may be a separate apparatus from the image display apparatus. Good. The image processing apparatus according to the present embodiment may be provided in an apparatus different from the image display apparatus.

図1は、本実施例に係る画像表示システムの構成の一例を示す図である。図1の画像表示システムは、例えば、モーションキャプチャワークフローで使用される。図1に示すように、本実施例に係る画像表示システムは、撮像装置100、再生装置200、現像装置300、及び、画像表示装置400を有する。   FIG. 1 is a diagram illustrating an example of the configuration of the image display system according to the present embodiment. The image display system of FIG. 1 is used in, for example, a motion capture workflow. As shown in FIG. 1, the image display system according to the present embodiment includes an imaging device 100, a playback device 200, a developing device 300, and an image display device 400.

撮像装置100は、撮像によって動画データを生成し、生成した動画データを出力する。本実施例では、撮像装置100は、動画データとして、各フレームの画像データがRAW画像データであるRAW動画データを出力する。再生装置200は、撮像装置100から出力されたRAW動画データを記憶部に記録する。また、再生装置200は、RAW動画データを記憶部から読み出し、読み出したRAW動画データから、設定された再生方法に基づくRAW動画データを生成し、生成したRAW動画データを出力する。現像装置300は、再生装置200から出力されたRAW動画データに現像処理を施し、現像処理後の動画データを出力する。画像表示装置400は、現像装置300から出力された動画データに基づく動画を表示する。   The imaging device 100 generates moving image data by imaging and outputs the generated moving image data. In this embodiment, the imaging apparatus 100 outputs RAW moving image data in which the image data of each frame is RAW image data as moving image data. The playback device 200 records the RAW moving image data output from the imaging device 100 in the storage unit. In addition, the playback device 200 reads RAW video data from the storage unit, generates RAW video data based on the set playback method from the read RAW video data, and outputs the generated RAW video data. The developing device 300 performs a developing process on the RAW moving image data output from the reproducing device 200, and outputs the moving image data after the developing process. The image display device 400 displays a moving image based on the moving image data output from the developing device 300.

なお、撮像装置100、再生装置200、現像装置300、及び、画像表示装置400のうちの2つ以上の装置が一体化されていてもよい。例えば、再生装置200と現像装置300が一体化されていてもよいし、撮像装置100、再生装置200、及び、現像装置300が一体化されていてもよいし、現像装置300と画像表示装置400が一体化されていてもよい。   Note that two or more of the imaging device 100, the reproduction device 200, the developing device 300, and the image display device 400 may be integrated. For example, the reproducing device 200 and the developing device 300 may be integrated, the imaging device 100, the reproducing device 200, and the developing device 300 may be integrated, or the developing device 300 and the image display device 400. May be integrated.

なお、撮像装置100が動画データを出力する際に、撮像装置100によって現像処理が行われてもよい。再生装置200が動画データを記憶部に記録する際に、再生装置200によって現像処理が行われてもよい。設定された再生方法に基づく動画データを再生装置200が生成する際に、再生装置200によって現像処理が行われてもよい。再生装置200が動画データを出力する際に、再生装置200によって現像処理が行われてもよい。撮像装置100や再生装置200で現像処理が行われる場合、現像装置300は不要となる。この場合、「撮像装置100や再生装置200に現像装置300が設けられている」とも言える。   Note that when the imaging apparatus 100 outputs moving image data, the imaging apparatus 100 may perform development processing. When the playback device 200 records moving image data in the storage unit, the playback device 200 may perform development processing. When the playback device 200 generates moving image data based on the set playback method, the playback device 200 may perform development processing. When the playback device 200 outputs moving image data, the playback device 200 may perform development processing. When the developing process is performed by the imaging device 100 or the reproduction device 200, the developing device 300 is not necessary. In this case, it can also be said that “the developing device 300 is provided in the imaging device 100 or the reproduction device 200”.

図2は、撮像装置100の機能構成の一例を示すブロック図である。図2に示すように、撮像装置100は、レンズ部101、撮像部102、信号処理部103、出力部104、ユーザI/F部105、及び、制御部106を少なくとも備える。これらの機能部は、内部バス107によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス107を用いて行われる。各機能部の動作は、制御部106によって制御される。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus 100. As illustrated in FIG. 2, the imaging apparatus 100 includes at least a lens unit 101, an imaging unit 102, a signal processing unit 103, an output unit 104, a user I / F unit 105, and a control unit 106. These functional units are connected to each other by an internal bus 107. Data transmission / reception between these functional units is performed using the internal bus 107. The operation of each functional unit is controlled by the control unit 106.

レンズ部101は、撮像部102の前段に設置されており、撮像対象(被写体)からの光である入射光を撮像部102へ結像する。   The lens unit 101 is installed in front of the imaging unit 102 and forms incident light, which is light from an imaging target (subject), on the imaging unit 102.

撮像部102は、レンズ部101によって結像された入射光の露出時間を変更する露出変更処理を行い、入射光をアナログ電気信号に変換し(撮像)、得られたアナログ電気信号を出力する。本実施例では、撮像部102において、第1の撮像と、第1の撮像よりも露光時間が短い第2の撮像とが交互に行われる。そして、第1の撮像によって得られたアナログ電気信号と、第2の撮像によって得られたアナログ電気信号とが、撮像部102から交互に出力される。   The imaging unit 102 performs an exposure change process for changing the exposure time of incident light imaged by the lens unit 101, converts the incident light into an analog electric signal (imaging), and outputs the obtained analog electric signal. In the present embodiment, the imaging unit 102 alternately performs the first imaging and the second imaging with an exposure time shorter than that of the first imaging. Then, the analog electrical signal obtained by the first imaging and the analog electrical signal obtained by the second imaging are alternately output from the imaging unit 102.

信号処理部103は、撮像部102から出力されたアナログ電気信号に対して信号処理を施すことにより、撮像部102から出力されたアナログ電気信号をデジタル電気信号であるRAW画像データに変換する。そして、信号処理部103は、RAW画像データを出力する。信号処理は、アナログ電気信号をデジタル電気信号に変換するA/D変換処理、種々の補正を行う補正処理、等を含む。補正処理では、撮像部102が有する撮像センサ(CCD、CMOS、等)の欠陥に起因した誤差、レンズ部101が有するレンズの光学バラつきに起因した誤差、等が低減される。   The signal processing unit 103 performs signal processing on the analog electrical signal output from the imaging unit 102, thereby converting the analog electrical signal output from the imaging unit 102 into RAW image data that is a digital electrical signal. Then, the signal processing unit 103 outputs RAW image data. The signal processing includes A / D conversion processing for converting an analog electrical signal into a digital electrical signal, correction processing for performing various corrections, and the like. In the correction processing, errors due to defects in the image sensor (CCD, CMOS, etc.) included in the imaging unit 102, errors due to optical variations of the lenses included in the lens unit 101, and the like are reduced.

上述したように、撮像部102からは、第1の撮像によって得られたアナログ電気信号と、第2の撮像によって得られたアナログ電気信号とが交互に出力される。そのため、信号処理部103からは、RAW−HDR動画データが出力される。RAW−HDR動画データは、各フレームの画像データとしてRAW画像データを有する動画データである。また、RAW−HDR動画データは、第1の撮像によって得られた第1フレームと、第2の撮像によって得られた第2フレームとを含むフレームペアが繰り返される動画データでもある。   As described above, the imaging unit 102 alternately outputs the analog electrical signal obtained by the first imaging and the analog electrical signal obtained by the second imaging. Therefore, RAW-HDR moving image data is output from the signal processing unit 103. The RAW-HDR moving image data is moving image data having RAW image data as image data of each frame. The RAW-HDR moving image data is also moving image data in which a frame pair including the first frame obtained by the first imaging and the second frame obtained by the second imaging is repeated.

出力部104は、信号処理部103から出力されたRAW−HDR動画データを、再生
装置200に所定のフレームレートで出力する。出力部104は、RAW−HDR動画データを出力する際に、RAW−HDR動画データの各フレーム(各RAW画像データ)に、そのフレームに関する情報であるHDRメタ情報を含むメタデータを付加する。本実施例では、HDRメタ情報は、HDR識別情報(動画識別情報)、ペア識別情報、フレーム識別情報、及び、露光時間情報を含む。
The output unit 104 outputs the RAW-HDR moving image data output from the signal processing unit 103 to the playback device 200 at a predetermined frame rate. When outputting the RAW-HDR moving image data, the output unit 104 adds metadata including HDR meta information, which is information about the frame, to each frame (each RAW image data) of the RAW-HDR moving image data. In this embodiment, the HDR meta information includes HDR identification information (moving picture identification information), pair identification information, frame identification information, and exposure time information.

HDR識別情報は、出力部104から出力された動画データがHDR動画データ(第1の撮像によって得られた第1フレームと、第2の撮像によって得られた第2フレームとを含むフレームペアが繰り返される動画データ)であるか否かを示す情報である。本実施例では、RAW−HDR動画データが撮像装置100から出力されるため、HDR識別情報は、「出力部104から出力された動画データがRAW−HDR動画データであることを示す情報」とも言える。HDR識別情報は、動画データの全てのフレームに対して付加されてもよいし、そうでなくてもよい。例えば、HDR識別情報は、動画データの先頭のフレームに対してのみ付加されてもよい。先頭のフレームは、例えば、撮像の開始を指示するユーザ操作に応じて検出することができる。   In the HDR identification information, the moving image data output from the output unit 104 is HDR moving image data (a frame pair including a first frame obtained by the first imaging and a second frame obtained by the second imaging is repeated. This is information indicating whether or not it is moving image data. In this embodiment, since the RAW-HDR moving image data is output from the imaging apparatus 100, the HDR identification information can also be said to be “information indicating that the moving image data output from the output unit 104 is RAW-HDR moving image data”. . The HDR identification information may or may not be added to all frames of moving image data. For example, the HDR identification information may be added only to the first frame of the moving image data. The first frame can be detected, for example, according to a user operation that instructs the start of imaging.

ペア識別情報は、出力部104から出力されたHDR動画データ(RAW−HDR動画データ)のフレームペアを識別する情報である。例えば、1つのフレームペアに含まれる第1フレームと第2フレームのそれぞれに対して、同じ識別子が、ペア識別情報として付加される。そのような識別子を使用する場合、HDR動画データの全てのフレームに対してペア識別情報が付加される。第1フレームに対して、当該第1フレームと同じフレームペアに含まれる第2フレームを示す情報が、ペア識別情報として付加されてもよい。第2フレームに対して、当該第2フレームと同じフレームペアに含まれる第1フレームを示す情報が、ペア識別情報として付加されてもよい。そのような情報を使用する場合、HDR動画データの第1フレームと第2フレームの少なくとも一方に対してペア識別情報が付加される。   The pair identification information is information for identifying a frame pair of HDR moving image data (RAW-HDR moving image data) output from the output unit 104. For example, the same identifier is added as pair identification information to each of the first frame and the second frame included in one frame pair. When such an identifier is used, pair identification information is added to all frames of the HDR video data. Information indicating a second frame included in the same frame pair as the first frame may be added to the first frame as pair identification information. Information indicating the first frame included in the same frame pair as the second frame may be added to the second frame as pair identification information. When such information is used, pair identification information is added to at least one of the first frame and the second frame of the HDR video data.

フレーム識別情報と露光時間情報は、HDR動画データの全てのフレームに対して付加される。フレーム識別情報は、出力部104から出力されたHDR動画データ(RAW−HDR動画データ)の第1フレームと第2フレームを識別する情報である。具体的には、フレーム識別情報は、対応するフレームが第1フレームであるか第2フレームであるかを示す情報である。露光時間情報は、出力部104から出力された動画データの各フレームの露光時間を示す情報である。具体的には、露光時間情報は、対応するフレームの露光時間を示す情報である。   Frame identification information and exposure time information are added to all frames of the HDR video data. The frame identification information is information for identifying the first frame and the second frame of the HDR moving image data (RAW-HDR moving image data) output from the output unit 104. Specifically, the frame identification information is information indicating whether the corresponding frame is the first frame or the second frame. The exposure time information is information indicating the exposure time of each frame of the moving image data output from the output unit 104. Specifically, the exposure time information is information indicating the exposure time of the corresponding frame.

なお、HDRメタ情報は、HDR識別情報、ペア識別情報、フレーム識別情報、及び、露光時間情報以外の情報を含んでいてもよい。例えば、HDRメタ情報は、タイムコード等の情報を含んでいてもよい。   The HDR meta information may include information other than HDR identification information, pair identification information, frame identification information, and exposure time information. For example, the HDR meta information may include information such as a time code.

図3は、撮像装置100から出力されたRAW−HDR動画データの一例を示す図である。図3に示すように、RAW−HDR動画データでは、第1フレームと第2フレームが交互に並んでいる。また、各フレームにHDRメタ情報が付加されている。撮像装置100(出力部104)と再生装置200は、有線または無線で互いに接続されている。撮像装置100と再生装置200を互いに接続するためのケーブルとしては、例えば、SDI(Serial Digital Interface)ケーブル、HDMI(High−Definition Multimedia Interface)ケーブル、等が使用される。SDIケーブルを用いて撮像装置100が再生装置200に接続されている場合には、HDRメタ情報は、例えば、垂直ブランキング領域であるアンシラリー領域に付加される。なお、撮像装置100と再生装置200が一体化されている場合には、内部バスを介して出力部104から再生装置200にRAW−HDR動画データが伝送されて
もよい。
FIG. 3 is a diagram illustrating an example of RAW-HDR moving image data output from the imaging apparatus 100. As shown in FIG. 3, in the RAW-HDR moving image data, the first frame and the second frame are arranged alternately. Also, HDR meta information is added to each frame. The imaging device 100 (output unit 104) and the playback device 200 are connected to each other by wire or wirelessly. As a cable for connecting the imaging device 100 and the playback device 200 to each other, for example, an SDI (Serial Digital Interface) cable, an HDMI (High-Definition Multimedia Interface) cable, or the like is used. When the imaging apparatus 100 is connected to the playback apparatus 200 using an SDI cable, the HDR meta information is added to an ancillary area, which is a vertical blanking area, for example. Note that when the imaging device 100 and the playback device 200 are integrated, the RAW-HDR moving image data may be transmitted from the output unit 104 to the playback device 200 via an internal bus.

ユーザI/F部105は、撮像装置100に対するユーザ操作を受け付ける。そして、ユーザI/F部105は、撮像装置100に対して行われたユーザ操作を示す操作情報を、制御部106へ出力する。例えば、不図示のシャッターボタンが押下されると、ユーザI/F部105は、シャッターボタンが押下されたことを示す操作情報を、制御部106へ出力する。   The user I / F unit 105 receives a user operation on the imaging apparatus 100. Then, the user I / F unit 105 outputs operation information indicating a user operation performed on the imaging apparatus 100 to the control unit 106. For example, when a shutter button (not shown) is pressed, the user I / F unit 105 outputs operation information indicating that the shutter button has been pressed to the control unit 106.

制御部106は、撮像装置100が有する各機能部の動作を制御する。例えば、制御部106は、ユーザI/F部105からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、シャッターボタンが押下されたことを示す操作情報がユーザI/F部105から出力されると、制御部106は、撮像部102に第1フレームと第2フレームの露出時間を通知し、撮像部102に撮像の開始を指示する。   The control unit 106 controls the operation of each functional unit included in the imaging device 100. For example, the control unit 106 controls the operation of each functional unit by outputting an instruction to each functional unit based on operation information from the user I / F unit 105. Specifically, when operation information indicating that the shutter button is pressed is output from the user I / F unit 105, the control unit 106 notifies the imaging unit 102 of the exposure time of the first frame and the second frame. The imaging unit 102 is instructed to start imaging.

図4は、再生装置200の機能構成の一例を示すブロック図である。図4に示すように、再生装置200は、入力部201、記憶部202、再生情報付加部203、出力部204、ユーザI/F部205、及び、制御部206を少なくとも備える。これらの機能部は、内部バス207によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス207を用いて行われる。各機能部の動作は、制御部206によって制御される。   FIG. 4 is a block diagram illustrating an example of a functional configuration of the playback apparatus 200. As illustrated in FIG. 4, the playback device 200 includes at least an input unit 201, a storage unit 202, a playback information addition unit 203, an output unit 204, a user I / F unit 205, and a control unit 206. These functional units are connected to each other by an internal bus 207. Data transmission / reception between these functional units is performed using the internal bus 207. The operation of each functional unit is controlled by the control unit 206.

入力部201は、撮像装置100から出力されたRAW−HDR動画データを所定のフレームレートで取得し、記憶部202に記録する。記憶部202は、動画データを記憶可能な記憶装置である。記憶部202としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等が使用される。なお、記憶部202は、再生装置200に対して着脱不可能な記憶装置であってもよいし、再生装置200に対して着脱可能な記憶装置であってもよい。   The input unit 201 acquires RAW-HDR moving image data output from the imaging device 100 at a predetermined frame rate and records it in the storage unit 202. The storage unit 202 is a storage device that can store moving image data. As the storage unit 202, for example, a magnetic disk, an optical disk, a semiconductor memory, or the like is used. Note that the storage unit 202 may be a storage device that is not detachable from the playback device 200, or may be a storage device that is detachable from the playback device 200.

ユーザI/F部205は、再生装置200に対するユーザ操作を受け付ける。そして、ユーザI/F部205は、再生装置200に対して行われたユーザ操作を示す操作情報を、制御部206へ出力する。例えば、不図示の記録開始ボタンが押下されると、ユーザI/F部205は、記録開始ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の再生開始ボタンが押下されると、ユーザI/F部205は、再生開始ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の一時停止ボタンが押下されると、ユーザI/F部205は、一時停止ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示のスロー再生ボタンが押下されると、ユーザI/F部205は、スロー再生ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示のコマ送りボタンが押下されると、ユーザI/F部205は、コマ送りボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の再生停止ボタンが押下されると、ユーザI/F部205は、再生停止ボタンが押下されたことを示す操作情報を、制御部206へ出力する。   The user I / F unit 205 receives a user operation on the playback device 200. Then, the user I / F unit 205 outputs operation information indicating a user operation performed on the playback device 200 to the control unit 206. For example, when a recording start button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the recording start button has been pressed to the control unit 206. When a playback start button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the playback start button has been pressed to the control unit 206. When a pause button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the pause button has been pressed to the control unit 206. When a slow playback button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the slow playback button has been pressed to the control unit 206. When a frame advance button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the frame advance button has been pressed to the control unit 206. When a playback stop button (not shown) is pressed, the user I / F unit 205 outputs operation information indicating that the playback stop button has been pressed to the control unit 206.

制御部206は、再生装置200が有する各機能部の動作を制御する。例えば、制御部206は、ユーザI/F部205からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、記録開始ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、入力部201に動画データの記録を指示する。再生開始ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に通常再生を指示する。それにより、再生方法として通常再生が設定される。一時停止ボタンが押下
されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に一時停止再生を指示する。それにより、再生方法として一時停止再生が設定される。スロー再生ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203にスロー再生を指示する。それにより、再生方法としてスロー再生が設定される。コマ送りボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203にコマ送りを指示する。再生停止ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に再生停止を指示する。
The control unit 206 controls the operation of each functional unit included in the playback device 200. For example, the control unit 206 controls the operation of each functional unit by outputting an instruction to each functional unit based on operation information from the user I / F unit 205. Specifically, when operation information indicating that the recording start button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the input unit 201 to record moving image data. When operation information indicating that the playback start button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the playback information adding unit 203 to perform normal playback. Thereby, normal playback is set as the playback method. When operation information indicating that the pause button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the reproduction information adding unit 203 to perform pause reproduction. Thereby, pause playback is set as the playback method. When operation information indicating that the slow playback button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the playback information adding unit 203 to perform slow playback. Thereby, slow playback is set as the playback method. When operation information indicating that the frame advance button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the reproduction information adding unit 203 to perform frame advance. When operation information indicating that the playback stop button has been pressed is output from the user I / F unit 205, the control unit 206 instructs the playback information adding unit 203 to stop playback.

再生情報付加部203は、制御部206からの指示に応じて設定された再生方法に基づいて、記憶部202に記録されたRAW−HDR動画データから、再生用RAW−HDR動画データを生成する。そして、再生情報付加部203は、再生用RAW−HDR動画データを所定のフレームレートで出力する。また、再生情報付加部203は、再生用RAW−HDR動画データを出力する際に、再生用RAW−HDR動画データの各フレームに再生情報を含むメタデータを付加する。再生情報は、設定された再生方法に関する情報である。   The reproduction information adding unit 203 generates reproduction RAW-HDR moving image data from the RAW-HDR moving image data recorded in the storage unit 202 based on the reproduction method set according to the instruction from the control unit 206. Then, the reproduction information adding unit 203 outputs the reproduction RAW-HDR moving image data at a predetermined frame rate. Further, when outputting the reproduction RAW-HDR moving image data, the reproduction information adding unit 203 adds metadata including reproduction information to each frame of the reproduction RAW-HDR moving image data. The reproduction information is information regarding the set reproduction method.

例えば、制御部206から通常再生が指示されると、再生情報付加部203は、記憶部202に記録されたRAW−HDR動画データの各フレームを順次出力する。このとき、通常再生を示す再生情報が各フレームに付加される。一時停止再生が指示されると、再生情報付加部203は、一時停止再生が指示されたときに取得(又は出力)したフレームペアを繰り返し出力する。このとき、一時停止再生を示す再生情報が各フレームに付加される。一時停止再生が指示された後、コマ送りが指示されると、再生情報付加部203は、一時停止再生が指示されたときに取得(又は出力)したフレームペアの次のフレームペアを記憶部202から読み出し、読み出したフレームペアを繰り返し出力する。このときも、一時停止再生を示す再生情報が各フレームに付加される。スロー再生が指示されると、再生情報付加部203は、記憶部202に記録されたRAW−HDR動画データの各フレームをN回(Nは2以上の整数)ずつ出力する。このとき、スロー再生を示す再生情報が各フレームに付加される。再生停止が指示されると、再生情報付加部203は、再生用RAW−HDR動画データの出力を停止する。   For example, when normal playback is instructed from the control unit 206, the playback information adding unit 203 sequentially outputs each frame of the RAW-HDR moving image data recorded in the storage unit 202. At this time, reproduction information indicating normal reproduction is added to each frame. When pause playback is instructed, the playback information adding unit 203 repeatedly outputs the frame pair acquired (or output) when pause playback is instructed. At this time, reproduction information indicating pause reproduction is added to each frame. When the frame playback is instructed after the pause reproduction is instructed, the reproduction information adding unit 203 stores the next frame pair of the frame pair acquired (or output) when the pause reproduction is instructed. And repeatedly outputs the read frame pair. Also at this time, reproduction information indicating pause reproduction is added to each frame. When the slow reproduction is instructed, the reproduction information adding unit 203 outputs each frame of the RAW-HDR moving image data recorded in the storage unit 202 N times (N is an integer of 2 or more). At this time, reproduction information indicating slow reproduction is added to each frame. When the reproduction stop is instructed, the reproduction information adding unit 203 stops the output of the reproduction RAW-HDR moving image data.

通常再生は、通常の再生速度(第2再生速度)で動画を再生する再生方法である。一時停止再生とスロー再生は、通常の再生速度よりも低い再生速度(第1再生速度)で動画を再生する再生方法である。一時停止再生は、再生対象のフレームペアを更新しない再生方法である。このように、本実施例では、再生速度が互いに異なる複数の再生方法が使用される。そのため、再生情報は、「再生速度に関する情報」とも言える。再生速度を示す情報が再生情報として使用されてもよい。なお、再生方法や再生情報はこれらに限らない。例えば、再生方法として、撮像時刻が遅いフレームから再生する逆再生が使用されてもよい。   Normal playback is a playback method in which a moving image is played back at a normal playback speed (second playback speed). Pause playback and slow playback are playback methods for playing back a moving image at a playback speed (first playback speed) lower than the normal playback speed. Pause playback is a playback method that does not update a frame pair to be played back. As described above, in this embodiment, a plurality of reproduction methods having different reproduction speeds are used. Therefore, it can be said that the reproduction information is “information regarding reproduction speed”. Information indicating the playback speed may be used as the playback information. Note that the playback method and playback information are not limited to these. For example, reverse playback in which playback is performed from a frame with a later imaging time may be used as a playback method.

出力部204は、再生情報付加部203から出力された再生用RAW−HDR動画データを、現像装置300に所定のフレームレートで出力する。図5は、再生装置200から出力された再生用RAW−HDR動画データの一例を示す図である。図5に示すように、再生用RAW−HDR動画データでは、第1フレームと第2フレームが交互に並んでいる。また、各フレームにHDRメタ情報と再生情報が付加されている。再生装置200(出力部204)と現像装置300は、有線または無線で互いに接続されている。再生装置200と現像装置300を互いに接続するためのケーブルとしては、例えば、SDIケーブル、HDMIケーブル、等が使用される。SDIケーブルを用いて再生装置200が現像装置300に接続されている場合には、再生情報は、例えば、垂直ブランキング領域であ
るアンシラリー領域に付加される。なお、再生装置200と現像装置300が一体化されている場合には、内部バスを介して出力部204から現像装置300に再生用RAW−HDR動画データが伝送されてもよい。
The output unit 204 outputs the playback RAW-HDR moving image data output from the playback information adding unit 203 to the developing device 300 at a predetermined frame rate. FIG. 5 is a diagram illustrating an example of RAW-HDR moving image data for reproduction output from the reproduction apparatus 200. As shown in FIG. 5, in the RAW-HDR moving image data for reproduction, the first frame and the second frame are alternately arranged. Also, HDR meta information and reproduction information are added to each frame. The playback device 200 (output unit 204) and the developing device 300 are connected to each other by wire or wirelessly. As a cable for connecting the reproducing device 200 and the developing device 300 to each other, for example, an SDI cable, an HDMI cable, or the like is used. When the playback device 200 is connected to the developing device 300 using an SDI cable, the playback information is added to, for example, an ancillary area that is a vertical blanking area. If the playback device 200 and the developing device 300 are integrated, playback RAW-HDR moving image data may be transmitted from the output unit 204 to the developing device 300 via an internal bus.

図6は、現像装置300の機能構成の一例を示すブロック図である。図6に示すように、現像装置300は、入力部301、現像部302、出力部303、ユーザI/F部304、及び、制御部305を少なくとも備える。これらの機能部は、内部バス306によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス306を用いて行われる。各機能部の動作は、制御部305によって制御される。   FIG. 6 is a block diagram illustrating an example of a functional configuration of the developing device 300. As illustrated in FIG. 6, the developing device 300 includes at least an input unit 301, a developing unit 302, an output unit 303, a user I / F unit 304, and a control unit 305. These functional units are connected to each other by an internal bus 306. Data transmission / reception between these functional units is performed using an internal bus 306. The operation of each functional unit is controlled by the control unit 305.

入力部301は、再生装置200から出力された再生用RAW−HDR動画データを所定のフレームレートで取得し、現像部302に出力する。現像部302は、入力部301から出力された再生用RAW−HDR動画データに現像処理(Debayer処理)を施す。RAW画像データは、撮像部102の素子配列に依存した画素値を有する。現像処理により、RAW画像データの画素値が一般的な画素値に変換される。本実施例では、RAW画像データの画素値をRGB値(サンプリング数4:4:4)に変換する現像処理が行われる。それにより、再生用RAW−HDR動画データの画素値をRGB値に変換した再生用RGB−HDR動画データが生成される。そして、現像部302は、再生用RGB−HDR動画データを出力する。なお、現像処理後の画素値はRGB値に限らない。例えば、現像処理後の画素値はYCbCr値であってもよい。   The input unit 301 acquires the playback RAW-HDR moving image data output from the playback device 200 at a predetermined frame rate, and outputs it to the development unit 302. The developing unit 302 performs a developing process (Debayer process) on the playback RAW-HDR moving image data output from the input unit 301. The RAW image data has pixel values that depend on the element arrangement of the imaging unit 102. By the development process, the pixel value of the RAW image data is converted into a general pixel value. In the present embodiment, development processing is performed to convert the pixel values of the RAW image data into RGB values (sampling number 4: 4: 4). Thereby, reproduction RGB-HDR moving image data in which pixel values of the reproduction RAW-HDR moving image data are converted into RGB values is generated. Then, the developing unit 302 outputs the reproduction RGB-HDR moving image data. The pixel value after the development processing is not limited to the RGB value. For example, the pixel value after the development processing may be a YCbCr value.

出力部303は、現像部302から出力された再生用RGB−HDR動画データを、画像表示装置400に所定のフレームレートで出力する。再生用RGB−HDR動画データの構造は、再生用RAW−HDR動画データ(図5)と同様である。即ち、再生用RGB−HDR動画データにも、HDRメタ情報と再生情報が付加されている。現像装置300(出力部303)と画像表示装置400は、有線または無線で互いに接続されている。現像装置300と画像表示装置400を互いに接続するためのケーブルとしては、例えば、SDIケーブル、HDMIケーブル、等が使用される。なお、現像装置300と画像表示装置400が一体化されている場合には、内部バスを介して出力部303から画像表示装置400に再生用RGB−HDR動画データが伝送されてもよい。   The output unit 303 outputs the reproduction RGB-HDR moving image data output from the developing unit 302 to the image display device 400 at a predetermined frame rate. The structure of the reproduction RGB-HDR moving image data is the same as that of the reproduction RAW-HDR moving image data (FIG. 5). That is, the HDR meta information and the reproduction information are also added to the reproduction RGB-HDR moving image data. The developing device 300 (output unit 303) and the image display device 400 are connected to each other by wire or wirelessly. As a cable for connecting the developing device 300 and the image display device 400 to each other, for example, an SDI cable, an HDMI cable, or the like is used. When the developing device 300 and the image display device 400 are integrated, the reproduction RGB-HDR moving image data may be transmitted from the output unit 303 to the image display device 400 via an internal bus.

ユーザI/F部304は、現像装置300に対するユーザ操作を受け付ける。そして、ユーザI/F部304は、現像装置300に対して行われたユーザ操作を示す操作情報を、制御部305へ出力する。例えば、不図示の現像開始ボタンが押下されると、ユーザI/F部304は、現像開始ボタンが押下されたことを示す操作情報を、制御部305へ出力する。   The user I / F unit 304 receives a user operation on the developing device 300. Then, the user I / F unit 304 outputs operation information indicating a user operation performed on the developing device 300 to the control unit 305. For example, when a development start button (not shown) is pressed, the user I / F unit 304 outputs operation information indicating that the development start button has been pressed to the control unit 305.

制御部305は、現像装置300が有する各機能部の動作を制御する。例えば、制御部305は、ユーザI/F部304からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、現像開始ボタンが押下されたことを示す操作情報がユーザI/F部304から出力されると、制御部305は、現像部302に現像処理の開始を指示する。   The control unit 305 controls the operation of each functional unit included in the developing device 300. For example, the control unit 305 controls the operation of each functional unit by outputting an instruction to each functional unit based on operation information from the user I / F unit 304. Specifically, when operation information indicating that the development start button has been pressed is output from the user I / F unit 304, the control unit 305 instructs the development unit 302 to start development processing.

図7は、画像表示装置400の機能構成の一例を示すブロック図である。図7に示すように、画像表示装置400は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、及び、合成比率決定部408を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。   FIG. 7 is a block diagram illustrating an example of a functional configuration of the image display apparatus 400. As illustrated in FIG. 7, the image display apparatus 400 includes an input unit 401, a reproduction information extraction unit 402, an HDR determination unit 403, an HDR composition unit 404, an image processing unit 405, a display unit 406, a control unit 407, and a composition ratio. At least a determination unit 408 is provided. These functional units are connected to each other by an internal bus 409. Data transmission / reception between these functional units is performed using an internal bus 409. The operation of each functional unit is controlled by the control unit 407.

入力部401は、現像装置300から出力された再生用RGB−HDR動画データを所定のフレームレートで取得する(第1取得処理)。そして、入力部401は、取得した再生用RGB−HDR動画データを所定のフレームレートで再生情報抽出部402とHDR判断部403に出力する。なお、入力部401では、HDR動画データ以外の動画データが取得されることもある。   The input unit 401 acquires the reproduction RGB-HDR moving image data output from the developing device 300 at a predetermined frame rate (first acquisition process). Then, the input unit 401 outputs the acquired reproduction RGB-HDR moving image data to the reproduction information extraction unit 402 and the HDR determination unit 403 at a predetermined frame rate. Note that the input unit 401 may acquire moving image data other than HDR moving image data.

再生情報抽出部402は、入力部401からフレームデータ(1フレーム分の画像データ)が出力される度に、当該フレームデータから再生情報を抽出し(第2取得処理)、抽出した再生情報を制御部407に出力する。   Each time frame data (image data for one frame) is output from the input unit 401, the reproduction information extraction unit 402 extracts reproduction information from the frame data (second acquisition process), and controls the extracted reproduction information. Output to the unit 407.

HDR判断部403は、入力部401からフレームデータが出力される度に、当該フレームデータからHDRメタ情報を抽出する。そして、HDR判断部403は、抽出したHDRメタ情報からHDR識別情報を取得し(第6取得処理)、入力部401によって取得された動画データが再生用RGB−HDR動画データであるか否かをHDR識別情報に応じて判断する(動画判断処理)。入力部401によって取得された動画データが再生用RGB−HDR動画データでない場合には、HDR判断部403は、入力部401からのフレームデータを画像処理部405に出力する。入力部401によって取得された動画データが再生用RGB−HDR動画データである場合には、HDR判断部403は、入力部401からのフレームデータをHDR合成部404に出力する。また、入力部401によって取得された動画データが再生用RGB−HDR動画データである場合には、HDR判断部403は、抽出したHDRメタ情報をHDR合成部404と合成比率決定部408に出力する。   Each time frame data is output from the input unit 401, the HDR determination unit 403 extracts HDR meta information from the frame data. Then, the HDR determination unit 403 acquires HDR identification information from the extracted HDR meta information (sixth acquisition process), and determines whether or not the moving image data acquired by the input unit 401 is reproduction RGB-HDR moving image data. The determination is made according to the HDR identification information (moving image determination process). When the moving image data acquired by the input unit 401 is not reproduction RGB-HDR moving image data, the HDR determination unit 403 outputs the frame data from the input unit 401 to the image processing unit 405. When the moving image data acquired by the input unit 401 is reproduction-use RGB-HDR moving image data, the HDR determination unit 403 outputs the frame data from the input unit 401 to the HDR combining unit 404. If the moving image data acquired by the input unit 401 is reproduction-use RGB-HDR moving image data, the HDR determining unit 403 outputs the extracted HDR meta information to the HDR combining unit 404 and the combining ratio determining unit 408. .

なお、再生用RGB−HDR動画データが画像表示装置400に入力されることが前提である場合には、第6取得処理と動画判断処理は行われなくてもよい。また、動画判断処理の方法は特に限定されない。例えば、ペア識別情報とフレーム識別情報の少なくとも一方を用いて、動画データが再生用RGB−HDR動画データであるか否かが判断されてもよい。即ち、ペア識別情報とフレーム識別情報の少なくとも一方が、HDR識別情報を兼ねていてもよい。第1フレームの露光時間は比較的長いため、第1フレームは明るいことが多い。そして、第2フレームの露光時間は比較的短いため、第2フレームは暗いことが多い。そのため、入力部401によって取得された動画データの輝度の時間変化に基づいて、当該動画データが再生用RGB−HDR動画データであるか否かを判断することもできる。   If it is assumed that the reproduction RGB-HDR moving image data is input to the image display device 400, the sixth acquisition process and the moving image determination process may not be performed. Also, the method of moving image determination processing is not particularly limited. For example, it may be determined whether the moving image data is reproduction-use RGB-HDR moving image data using at least one of pair identification information and frame identification information. That is, at least one of pair identification information and frame identification information may also serve as HDR identification information. Since the exposure time of the first frame is relatively long, the first frame is often bright. Since the exposure time of the second frame is relatively short, the second frame is often dark. Therefore, based on the temporal change in luminance of the moving image data acquired by the input unit 401, it can be determined whether the moving image data is reproduction-use RGB-HDR moving image data.

HDR合成部404は、HDR判断部403から出力されたHDRメタ情報を取得し、取得したHDRメタ情報からフレーム識別情報を取得する(第4取得処理)。そして、HDR合成部404は、HDR判断部403からのフレームデータが第1フレームのデータであるか第2フレームのデータであるかをフレーム識別情報に応じて判断する(フレーム判断処理)。即ち、本実施例では、入力部401によって取得された再生用RGB−HDR動画データの第1フレームと第2フレームが、フレーム識別情報を用いて識別される。また、HDR合成部404は、取得したHDRメタ情報からペア識別情報を取得する(第5取得処理)。そして、HDR合成部404は、入力部401によって取得された再生用RGB−HDR動画データのフレームペアを、ペア識別情報を用いて識別する(ペア識別処理)。   The HDR synthesizing unit 404 acquires the HDR meta information output from the HDR determining unit 403, and acquires frame identification information from the acquired HDR meta information (fourth acquisition process). Then, the HDR synthesizing unit 404 determines whether the frame data from the HDR determining unit 403 is the first frame data or the second frame data according to the frame identification information (frame determination process). That is, in this embodiment, the first frame and the second frame of the reproduction RGB-HDR moving image data acquired by the input unit 401 are identified using the frame identification information. Also, the HDR synthesizing unit 404 acquires pair identification information from the acquired HDR meta information (fifth acquisition process). Then, the HDR synthesizing unit 404 identifies the frame pair of the reproduction RGB-HDR moving image data acquired by the input unit 401 using the pair identification information (pair identification process).

そして、HDR合成部404は、フレームペアが取得される度に、当該フレームペアの第1フレームと第2フレームを合成する合成処理を行い、合成処理の結果(合成フレームデータ)を画像処理部405に出力する。合成処理では、合成比率決定部408から出力された合成比率に応じた重みで第1フレームと第2フレームが合成される。合成処理を行うために、HDR合成部404は、フレームデータを記憶するバッファ(フレームメモリ
)を有する。再生用RGB−HDR動画データの各フレームペアについて合成処理が行われることにより、HDR合成動画データが生成される。
Then, every time a frame pair is acquired, the HDR synthesizing unit 404 performs a synthesizing process for synthesizing the first frame and the second frame of the frame pair, and the result of the synthesizing process (composite frame data) is displayed as an image processing unit 405. Output to. In the combining process, the first frame and the second frame are combined with a weight corresponding to the combining ratio output from the combining ratio determination unit 408. In order to perform the combining process, the HDR combining unit 404 has a buffer (frame memory) that stores frame data. By performing the synthesizing process for each frame pair of the reproduction RGB-HDR moving image data, the HDR combined moving image data is generated.

合成処理では、例えば、以下の式1を用いて第1フレームと第2フレームが合成される。式1は、1つの画素位置に対する合成処理を示す。各画素位置に対して式1を用いた合成処理が行われる。式1において、Kは合成比率、L1は第1フレームの輝度値、L2は第2フレームの輝度値、Lcは合成結果(合成処理後の輝度値)を示す。Kは0以上且つ1以下の値である。

Lc=L2×K+L1×(1−K) ・・・(式1)
In the combining process, for example, the first frame and the second frame are combined using Expression 1 below. Expression 1 shows a composition process for one pixel position. A composition process using Expression 1 is performed on each pixel position. In Equation 1, K is a composition ratio, L1 is a luminance value of the first frame, L2 is a luminance value of the second frame, and Lc is a composition result (luminance value after composition processing). K is a value of 0 or more and 1 or less.

Lc = L2 * K + L1 * (1-K) (Formula 1)

なお、再生用RGB−HDR動画データにおける第1フレームと第2フレームの順番が予め定められていてもよい。そして、再生用RGB−HDR動画データにおける第1フレームと第2フレームの順番を画像表示装置400が予め把握している場合には、第4取得処理とフレーム判断処理は行われなくてもよい。また、フレーム判断処理の方法は特に限定されない。例えば、HDR判断部403からのフレームデータの輝度に基づいて、当該フレームデータが第1フレームのデータであるか第2フレームのデータであるかが判断されてもよい。また、フレームペアに含まれる第1フレームと第2フレームの順番が予め定められていてもよい。そして、フレームペアに含まれる第1フレームと第2フレームの順番を画像表示装置400が予め把握している場合には、第5取得処理とペア識別処理は行われなくてもよい。   Note that the order of the first frame and the second frame in the reproduction RGB-HDR moving image data may be determined in advance. Then, when the image display device 400 knows in advance the order of the first frame and the second frame in the reproduction RGB-HDR moving image data, the fourth acquisition process and the frame determination process may not be performed. Further, the frame determination processing method is not particularly limited. For example, based on the luminance of the frame data from the HDR determination unit 403, it may be determined whether the frame data is the first frame data or the second frame data. The order of the first frame and the second frame included in the frame pair may be determined in advance. Then, when the image display device 400 knows in advance the order of the first frame and the second frame included in the frame pair, the fifth acquisition process and the pair identification process may not be performed.

画像処理部405は、HDR判断部403から出力されたフレームデータ、または、HDR合成部404から出力された合成フレームデータに所定の画像処理を施すことにより、処理フレームデータを生成する。そして、画像処理部405は、生成した処理フレームデータを表示部406に出力する。画像処理部405は、画像処理部405にフレームデータ(合成フレームデータ)が入力される度に、上述した処理を行う。所定の画像処理として、例えば、白色の輝度を変更する白輝度変更処理、階調値を変更する階調変更処理、色度を変更する色度変更処理、等が行われる。
なお、合成フレームデータ間の合成比率の差によって、合成フレームデータが一つ前の合成フレームと比べて暗くなったり明るくなったりするといった顕著な輝度変化が生じる場合がある。画像処理部405は、このような輝度変化を低減するために、輝度を増減させる画像処理を行っても良い。具体的には、合成フレームデータ間の輝度平均値の差やピーク輝度値(最大輝度値)の差を監視し、その差が所定の差以上の場合は、当該差が所定の差以下に収まるよう白輝度(白色の輝度)を変更する処理等を行ってもよい。或いは、合成フレームデータ毎に、合成比率決定部408から合成比率を取得し、その合成比率に応じて輝度を変更する処理等を行ってもよい。
The image processing unit 405 generates processing frame data by performing predetermined image processing on the frame data output from the HDR determination unit 403 or the combined frame data output from the HDR combining unit 404. Then, the image processing unit 405 outputs the generated processing frame data to the display unit 406. The image processing unit 405 performs the above-described processing every time frame data (combined frame data) is input to the image processing unit 405. As the predetermined image processing, for example, white luminance changing processing for changing white luminance, gradation changing processing for changing gradation values, chromaticity changing processing for changing chromaticity, and the like are performed.
Note that there may be a noticeable luminance change in which the composite frame data becomes darker or brighter than the previous composite frame due to the difference in the composite ratio between the composite frame data. The image processing unit 405 may perform image processing for increasing or decreasing the luminance in order to reduce such a luminance change. Specifically, the luminance average value difference or peak luminance value (maximum luminance value) difference between the synthesized frame data is monitored, and if the difference is greater than or equal to a predetermined difference, the difference falls within the predetermined difference. For example, processing for changing white luminance (white luminance) may be performed. Alternatively, for each combination frame data, a combination ratio may be acquired from the combination ratio determination unit 408, and a process of changing the luminance according to the combination ratio may be performed.

表示部406は、画像処理部405から出力された処理動画データに応じた動画を画面に表示する。処理動画データは、各フレームの画像データとして処理フレームデータを有する動画データである。具体的には、表示部406は、フレームデータを記憶するバッファ(フレームメモリ)と表示パネルを有する。表示部406は、画像処理部405から処理フレームデータが出力される度に、画像処理部405から出力された処理フレームデータをバッファに記録(上書き)する。そして、表示部406は、バッファから処理フレームデータを所定のリフレッシュレートで読み出し、読み出した処理フレームデータを表示パネルに出力する。表示パネルに入力された処理フレームデータに応じて表示パネルの各表示素子が駆動され、処理フレームデータに応じた画像が表示される。表示パネルとしては、例えば、液晶パネル、有機ELパネル、プラズマパネル、等が使用される。   The display unit 406 displays a moving image corresponding to the processed moving image data output from the image processing unit 405 on the screen. The processed moving image data is moving image data having processed frame data as image data of each frame. Specifically, the display unit 406 includes a buffer (frame memory) that stores frame data and a display panel. The display unit 406 records (overwrites) the processing frame data output from the image processing unit 405 in the buffer every time processing frame data is output from the image processing unit 405. The display unit 406 reads the processing frame data from the buffer at a predetermined refresh rate, and outputs the read processing frame data to the display panel. Each display element of the display panel is driven according to the processing frame data input to the display panel, and an image corresponding to the processing frame data is displayed. As the display panel, for example, a liquid crystal panel, an organic EL panel, a plasma panel, or the like is used.

制御部407は、画像表示装置400が有する各機能部の動作を制御する。例えば、制御部407は、再生情報抽出部402から出力された再生情報を合成比率決定部408に出力することにより、合成比率決定部408の動作を制御する。なお、制御部407は、再生情報抽出部402から出力された再生情報に基づく情報を生成し、生成した情報を再生情報の代わりに出力してもよい。例えば、制御部407は、再生情報に基づいて、現在の再生方法が一時停止再生であるか否かを示す情報を生成してもよい。   The control unit 407 controls the operation of each functional unit included in the image display device 400. For example, the control unit 407 controls the operation of the combination ratio determination unit 408 by outputting the reproduction information output from the reproduction information extraction unit 402 to the combination ratio determination unit 408. Note that the control unit 407 may generate information based on the reproduction information output from the reproduction information extraction unit 402, and output the generated information instead of the reproduction information. For example, the control unit 407 may generate information indicating whether or not the current reproduction method is pause reproduction based on the reproduction information.

合成比率決定部408は、制御部407からの再生情報に基づいて、合成比率Kを決定する。上述した式1に示されているように、本実施例では、合成比率Kとして、第2フレームの重みが決定される。本実施例では、合成比率決定部408は、再生情報に基づいて、現在の再生方法が一時停止再生であるか否を判断する。そして、合成比率決定部408は、現在の再生方法の判断結果に応じて、以下のように合成比率Kを決定する。合成比率決定部408は、決定した合成比率KをHDR合成部404に出力する。

現在の再生方法が通常再生である場合:K=0.5
現在の再生方法が一時停止再生である場合:K=0.8
The composition ratio determination unit 408 determines the composition ratio K based on the reproduction information from the control unit 407. As shown in Equation 1 described above, in this embodiment, the weight of the second frame is determined as the combination ratio K. In this embodiment, the composition ratio determination unit 408 determines whether the current playback method is pause playback based on the playback information. Then, the composition ratio determination unit 408 determines the composition ratio K as follows according to the determination result of the current reproduction method. The composition ratio determination unit 408 outputs the determined composition ratio K to the HDR composition unit 404.

When the current playback method is normal playback: K = 0.5
When the current playback method is pause playback: K = 0.8

このように、本実施例では、現在の再生方法が一時停止再生である場合に、現在の再生方法が通常再生である場合に比べて大きい値が第2フレームの重みとして使用されるように、合成比率Kが決定される。現在の再生方法が一時停止再生である場合に大きい値が第2フレームの重みとして使用されることにより、合成フレームデータとして、被写体のフォーカス感が高い画像を表す画像データを得ることができる。現在の再生方法が通常再生である場合の合成比率Kは、基準値(デフォルト値)であり、通常再生において被写体の自然な動きを表現可能な値である。再生方法に対応する合成比率Kの値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。   Thus, in the present embodiment, when the current playback method is pause playback, a larger value is used as the weight of the second frame than when the current playback method is normal playback. A composition ratio K is determined. When the current playback method is pause playback, a large value is used as the weight of the second frame, so that image data representing an image with a high focus on the subject can be obtained as composite frame data. The composition ratio K when the current reproduction method is normal reproduction is a reference value (default value), and is a value that can express the natural movement of the subject in normal reproduction. The value of the composition ratio K corresponding to the reproduction method may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

なお、合成比率Kの値は、上述した値(0.5と0.8)に限らない。現在の再生方法が通常再生である場合の合成比率Kは、0.5より大きくても小さくてもよい。現在の再生方法が一時停止再生である場合の合成比率Kは、0.8より大きくても小さくてもよい。例えば、現在の再生方法が一時停止再生である場合の合成比率Kとして1が使用されてもよい。即ち、現在の再生方法が一時停止再生である場合に、第1フレームの合成比率(重み)としてゼロが使用され、第2フレームの合成比率として1が使用されてもよい。その場合、露光時間が長い第1フレームと露光時間が短い第2フレームのうち、第2のフレームのみを選択して出力する選択処理を行い、合成処理を行わなくてもよい。   Note that the value of the composition ratio K is not limited to the above-described values (0.5 and 0.8). When the current reproduction method is normal reproduction, the composition ratio K may be larger or smaller than 0.5. The combination ratio K when the current reproduction method is pause reproduction may be larger or smaller than 0.8. For example, 1 may be used as the composition ratio K when the current reproduction method is pause reproduction. That is, when the current reproduction method is pause reproduction, zero may be used as the synthesis ratio (weight) of the first frame, and 1 may be used as the synthesis ratio of the second frame. In this case, a selection process for selecting and outputting only the second frame from the first frame having a long exposure time and the second frame having a short exposure time may be performed, and the combining process may not be performed.

なお、合成比率Kとして、第2フレームの重み以外の値が決定されてもよい。例えば、合成比率Kとして、第1フレームの重みが決定されてもよい。合成比率Kとして、第1フレームの重みに対する第2フレームの重みの割合が決定されてもよい。合成比率Kとして、第2フレームの重みに対する第1フレームの重みの割合が決定されてもよい。   Note that a value other than the weight of the second frame may be determined as the composition ratio K. For example, the weight of the first frame may be determined as the combination ratio K. As the combination ratio K, the ratio of the weight of the second frame to the weight of the first frame may be determined. As the combination ratio K, the ratio of the weight of the first frame to the weight of the second frame may be determined.

なお、現在の再生方法が一時停止再生と異なる場合に基準値が合成比率Kとして使用されてもよいし、そうでなくてもよい。例えば、現在の再生方法がスロー再生である場合に、現在の再生方法が通常再生である場合に比べて大きい値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。現在の再生方法がスロー再生である場合に、現在の再生方法が一時停止再生である場合と同じ値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。現在の再生方法がスロー再生である場合に、現在の再生方法が通常再生である場合よりも大きく、且つ、現在の再生方法が一時停止再生である場合よりも小さい値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。   It should be noted that the reference value may or may not be used as the composition ratio K when the current reproduction method is different from the pause reproduction. For example, when the current playback method is slow playback, the composition ratio K is determined such that a larger value is used as the weight of the second frame than when the current playback method is normal playback. Good. When the current playback method is slow playback, the composition ratio K may be determined so that the same value as that when the current playback method is pause playback is used as the weight of the second frame. When the current playback method is slow playback, a value larger than that when the current playback method is normal playback and smaller than when the current playback method is pause playback is used as the weight of the second frame. As used, the composition ratio K may be determined.

なお、合成比率Kを決定する決定処理の方法は上記方法に限らない。例えば、現在の再生方法が一時停止再生(またはスロー再生)である場合に、第1フレームと第2フレームの輝度(HDR判断部403からのフレームデータの輝度)に基づいて、合成比率Kが決定(調整)されてもよい。現在の再生方法が一時停止再生(またはスロー再生)である場合に、第1フレームと第2フレームの露光時間に基づいて、合成比率Kが決定されてもよい。第1フレームと第2フレームの露光時間の差が小さい場合には、第2フレームの重みの増加によるフォーカス感の増加が小さい。そのため、第1フレームと第2フレームの露光時間の差が第1閾値未満である場合に、露光時間の差が第1閾値以上である場合に比べて基準値に近い値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。具体的には、以下のように合成比率Kが決定されてもよい。これにより、再生方法の違いによるフォーカス感の変化を低減でき、ユーザの違和感を低減することができる。これらの方法では、例えば、HDRメタ情報から露出時間情報が取得され(第3取得処理)、露出時間情報によって示された露光時間が使用される。第1閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。

現在の再生方法が通常再生である場合:K=0.5
現在の再生方法が一時停止再生であり、
且つ、露光時間の差が第1閾値以上である場合:K=0.8
現在の再生方法が一時停止再生であり、
且つ、露光時間の差が第1閾値未満である場合:K=0.6
Note that the determination processing method for determining the composition ratio K is not limited to the above method. For example, when the current playback method is pause playback (or slow playback), the composition ratio K is determined based on the brightness of the first frame and the second frame (the brightness of the frame data from the HDR determination unit 403). (Adjustment) may be performed. When the current playback method is pause playback (or slow playback), the composition ratio K may be determined based on the exposure times of the first frame and the second frame. When the difference in exposure time between the first frame and the second frame is small, the increase in focus feeling due to the increase in the weight of the second frame is small. Therefore, when the difference between the exposure times of the first frame and the second frame is less than the first threshold, the value closer to the reference value than the case where the difference between the exposure times is equal to or greater than the first threshold is the weight of the second frame. The composite ratio K may be determined to be used as Specifically, the composition ratio K may be determined as follows. Thereby, the change of the focus feeling by the difference in the reproduction | regeneration method can be reduced, and a user's discomfort can be reduced. In these methods, for example, exposure time information is acquired from the HDR meta information (third acquisition process), and the exposure time indicated by the exposure time information is used. The first threshold may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

When the current playback method is normal playback: K = 0.5
The current playback method is pause playback,
When the difference in exposure time is greater than or equal to the first threshold: K = 0.8
The current playback method is pause playback,
When the difference in exposure time is less than the first threshold: K = 0.6

図8は、画像表示装置400の動作の一例を示すフローチャートである。ここでは、画像表示装置400に再生用RGB−HDR動画データが入力された場合の例を説明する。   FIG. 8 is a flowchart showing an example of the operation of the image display apparatus 400. Here, an example in which the reproduction RGB-HDR moving image data is input to the image display device 400 will be described.

まず、制御部407が、再生情報抽出部402から再生情報を取得し、取得した再生情報を合成比率決定部408に出力する(S101)。次に、合成比率決定部408が、制御部407から出力された再生情報に基づいて、現在の再生方法が一時停止再生であるか否かを判断する(S102)。そして、合成比率決定部408が、HDR判断部403から第1フレームと第2フレームの露出時間情報を取得する(S103)。次に、合成比率決定部408が、S102の判断結果とS103で取得された露出時間情報とに基づいて、合成比率Kを決定する(S104)。そして、HDR合成部404は、S104で決定された合成比率Kを用いて、第1フレームと第2フレームを合成する(S105)。S101からS105までの処理は、再生用RGB−HDR動画データの各フレームペアに対して繰り返し行われる(S106)。   First, the control unit 407 acquires reproduction information from the reproduction information extraction unit 402, and outputs the acquired reproduction information to the synthesis ratio determination unit 408 (S101). Next, the composition ratio determination unit 408 determines whether or not the current reproduction method is pause reproduction based on the reproduction information output from the control unit 407 (S102). Then, the composition ratio determination unit 408 acquires the exposure time information of the first frame and the second frame from the HDR determination unit 403 (S103). Next, the composition ratio determination unit 408 determines the composition ratio K based on the determination result in S102 and the exposure time information acquired in S103 (S104). Then, the HDR combining unit 404 combines the first frame and the second frame using the combining ratio K determined in S104 (S105). The processing from S101 to S105 is repeatedly performed for each frame pair of the reproduction RGB-HDR moving image data (S106).

図9(A),9(B)は、本実施例における表示画像(画面に表示された画像)の一例を示す図である。図9(A),9(B)の表示画像は、合成フレームデータに応じて表示された画像である。モーションキャプチャワークフローでは、まず、通常再生が設定され、ユーザによって動画が確認される。このときは、合成比率Kとして基準値が使用される。その結果、図9(A)に示すように、被写体の動きのボケがある程度残った画像が表示される。動きのボケがある程度残った画像が表示されることによって、自然な動きを表現することができる。その後、静止画データとして抽出する合成フレームデータを選定するために、スロー再生や一時停止再生が設定されたり、コマ送りが行われたりする。このときは、合成比率K(第2フレームの重み)として基準値よりも大きい値が使用される。その結果、図9(B)に示すように、被写体のフォーカス感が高い画像が表示される。フォーカス感の高い画像が表示されることにより、ユーザは、静止画データとして抽出する合成フレームデータを容易且つ適切に選定することができる。合成フレームデータの代わりに、静止画データの生成に使用するフレームペアが抽出されてもよい。   FIGS. 9A and 9B are diagrams illustrating examples of display images (images displayed on the screen) in the present embodiment. The display images in FIGS. 9A and 9B are images displayed according to the composite frame data. In the motion capture workflow, first, normal playback is set, and the moving image is confirmed by the user. At this time, a reference value is used as the composition ratio K. As a result, as shown in FIG. 9A, an image in which some blurring of the movement of the subject remains is displayed. By displaying an image in which motion blur remains to some extent, natural motion can be expressed. Thereafter, in order to select composite frame data to be extracted as still image data, slow playback or pause playback is set, or frame advance is performed. At this time, a value larger than the reference value is used as the composition ratio K (weight of the second frame). As a result, as shown in FIG. 9B, an image with a high focus feeling of the subject is displayed. By displaying an image with a high focus feeling, the user can easily and appropriately select composite frame data to be extracted as still image data. Instead of the synthesized frame data, a frame pair used for generating still image data may be extracted.

以上述べたように、本実施例によれば、第1フレームと第2フレームを合成する際に使用される合成比率が、HDR動画データの再生方法に基づいて自動で決定される。それにより、被写体の動きのボケ具合(被写体のフォーカス感)が好適なHDR合成動画データを容易に得ることができる。具体的には、再生方法を変える度に合成比率を変更するユーザの手間を省くことができ、ユーザの作業時間や負担を低減することができる(作業の効率化)。また、モーションキャプチャワークフローにおいて、ユーザは、好適な合成フレームデータやフレームペアを短時間且つ容易に選定(選別)することができる。   As described above, according to the present embodiment, the combination ratio used when combining the first frame and the second frame is automatically determined based on the method of reproducing HDR video data. As a result, it is possible to easily obtain HDR synthesized moving image data in which the degree of blur of the subject movement (the subject's focus feeling) is suitable. Specifically, it is possible to save the user's trouble of changing the composition ratio every time the reproduction method is changed, and to reduce the user's work time and burden (work efficiency). Further, in the motion capture workflow, the user can select (select) suitable composite frame data and frame pairs in a short time and easily.

なお、本実施例では、HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、再生情報、等がメタデータとして伝送される例を説明したが、これに限らない。例えば、HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、及び、再生情報の少なくともいずれかが、動画データとは別に伝送されてもよい。HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、及び、再生情報の少なくともいずれかが、ユーザ操作に応じて取得されてもよい。ユーザ操作は、撮像装置に対するユーザ操作、再生装置に対するユーザ操作、画像表示装置に対するユーザ操作、等である。   In this embodiment, the example in which HDR identification information, pair identification information, frame identification information, exposure time information, reproduction information, and the like are transmitted as metadata has been described, but the present invention is not limited to this. For example, at least one of HDR identification information, pair identification information, frame identification information, exposure time information, and reproduction information may be transmitted separately from the moving image data. At least one of HDR identification information, pair identification information, frame identification information, exposure time information, and reproduction information may be acquired in response to a user operation. User operations include a user operation on the imaging device, a user operation on the playback device, a user operation on the image display device, and the like.

なお、本実施例では、第1フレームと第2フレームの2つのフレームを合成する例を説明したが、これに限らない。HDR動画データは、3つ以上のフレームを含むフレーム群が繰り返される動画データであってもよい。例えば、短時間露光で撮像されたフレーム、適正露光で撮像されたフレーム、及び、長時間露光で撮像されたフレームの3つのフレームを含むフレーム群が繰り返される動画データが使用されてもよい。その場合、フレーム群に含まれる3つ以上のフレームが合成されてもよい。また、HDR動画データにおいて、第1フレームと第2フレームは連続していなくてもよい。   In the present embodiment, an example in which two frames of the first frame and the second frame are combined has been described. However, the present invention is not limited to this. The HDR moving image data may be moving image data in which a frame group including three or more frames is repeated. For example, moving image data in which a frame group including three frames including a frame imaged by short exposure, a frame imaged by appropriate exposure, and a frame imaged by long exposure may be used. In that case, three or more frames included in the frame group may be combined. Further, in the HDR moving image data, the first frame and the second frame may not be continuous.

<実施例2>
以下、本発明の実施例2に係る画像処理装置及び画像処理方法について説明する。本実施例では、合成比率Kの決定方法が実施例1と異なる。以下では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。
<Example 2>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 2 of the present invention will be described. In this embodiment, the method for determining the composition ratio K is different from that in the first embodiment. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment.

図10は、本実施例に係る画像表示装置500の機能構成の一例を示すブロック図である。図10に示すように、画像表示装置500は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部508、及び、ヒストグラム取得部510を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図10において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。   FIG. 10 is a block diagram illustrating an example of a functional configuration of the image display apparatus 500 according to the present embodiment. As illustrated in FIG. 10, the image display apparatus 500 includes an input unit 401, a reproduction information extraction unit 402, an HDR determination unit 403, an HDR synthesis unit 404, an image processing unit 405, a display unit 406, a control unit 407, and a composition ratio determination unit. 508 and a histogram acquisition unit 510 at least. These functional units are connected to each other by an internal bus 409. Data transmission / reception between these functional units is performed using an internal bus 409. The operation of each functional unit is controlled by the control unit 407. In FIG. 10, the same functional parts as those in the first embodiment (FIG. 7) are denoted by the same reference numerals as those in the first embodiment, and the description thereof is omitted.

本実施例では、入力部401によって取得された動画データがHDR動画データ(再生用RGB−HDR動画データ)である場合に、HDR判断部403は、入力部401からのフレームデータをHDR合成部404とヒストグラム取得部510に出力する。また、HDR判断部403は、抽出したHDRメタ情報を、HDR合成部404、合成比率決定部508、及び、ヒストグラム取得部510に出力する。   In this embodiment, when the moving image data acquired by the input unit 401 is HDR moving image data (playback RGB-HDR moving image data), the HDR determination unit 403 converts the frame data from the input unit 401 into the HDR combining unit 404. And output to the histogram acquisition unit 510. Also, the HDR determination unit 403 outputs the extracted HDR meta information to the HDR synthesis unit 404, the synthesis ratio determination unit 508, and the histogram acquisition unit 510.

ヒストグラム取得部510は、入力部401によって取得されたHDR動画データの第1フレーム、第2フレーム、及び、フレームペアを、HDR合成部404と同様の方法で識別する。そして、ヒストグラム取得部510は、フレームペアが取得される度に、当該
フレームペアの第1フレームと第2フレームを合成する合成処理を行い、合成フレームデータの各階調値を取得する(第7取得処理)。ここでは、候補比率を合成比率Kとして用いた合成処理が行われる。具体的には、複数の候補比率のそれぞれについて、その候補比率を合成比率Kとして用いた合成処理が行われる。それにより、複数の候補比率のそれぞれについて、合成フレームデータの各階調値が取得される。候補比率は、合成比率Kの候補である。合成処理を行うために、ヒストグラム取得部510は、フレームデータを記憶するバッファ(フレームメモリ)を有する。
The histogram acquisition unit 510 identifies the first frame, the second frame, and the frame pair of the HDR moving image data acquired by the input unit 401 using the same method as the HDR synthesis unit 404. Then, every time a frame pair is acquired, the histogram acquisition unit 510 performs a combining process of combining the first frame and the second frame of the frame pair, and acquires each gradation value of the combined frame data (seventh acquisition). processing). Here, a composition process using the candidate ratio as the composition ratio K is performed. Specifically, for each of the plurality of candidate ratios, a combining process using the candidate ratio as the combining ratio K is performed. Thereby, each gradation value of the composite frame data is acquired for each of the plurality of candidate ratios. The candidate ratio is a candidate for the combination ratio K. In order to perform the synthesis process, the histogram acquisition unit 510 includes a buffer (frame memory) that stores frame data.

なお、候補比率を合成比率Kとして用いた合成処理はHDR合成部404で行われてもよい。そして、HDR合成部404によって生成された合成フレームデータの各階調値を取得する処理が、第7取得処理として行われてもよい。また、候補比率の値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。   Note that the synthesis process using the candidate ratio as the synthesis ratio K may be performed by the HDR synthesis unit 404. And the process which acquires each gradation value of the synthetic | combination frame data produced | generated by the HDR synthetic | combination part 404 may be performed as a 7th acquisition process. Further, the value of the candidate ratio may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

ヒストグラム取得部510は、取得した階調値を合成比率決定部508に出力する。本実施例では、ヒストグラム取得部510は、複数の候補比率のそれぞれについて、各階調値の数を表すヒストグラムデータを生成する。そして、ヒストグラム取得部510は、生成した複数のヒストグラムデータを合成比率決定部508に出力する。なお、ヒストグラム取得部510によって取得された階調値(ヒストグラムデータ)は黒つぶれの確認に使用されるため、大きな階調値に関する情報を合成比率決定部508に出力する必要はない。そのため、第4閾値以下の階調値のみが合成比率決定部508に出力されてもよい。第4閾値以下の各階調値の数のみを表すヒストグラムデータが合成比率決定部508に出力されてもよい。第4閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。   The histogram acquisition unit 510 outputs the acquired gradation value to the synthesis ratio determination unit 508. In the present embodiment, the histogram acquisition unit 510 generates histogram data representing the number of gradation values for each of a plurality of candidate ratios. Then, the histogram acquisition unit 510 outputs the generated plurality of histogram data to the synthesis ratio determination unit 508. Note that the gradation value (histogram data) acquired by the histogram acquisition unit 510 is used for blackout confirmation, so that it is not necessary to output information regarding a large gradation value to the composition ratio determination unit 508. Therefore, only the gradation value equal to or lower than the fourth threshold value may be output to the composition ratio determination unit 508. Histogram data representing only the number of gradation values equal to or smaller than the fourth threshold value may be output to the composition ratio determination unit 508. The fourth threshold value may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

合成比率決定部508は、実施例1と同様に、再生情報に基づいて合成比率Kを決定する。但し、本実施例では、入力部401に入力されたHDR動画データに基づいて、合成処理に起因した黒つぶれ(暗部階調のつぶれ)が生じないように合成比率Kが決定される(黒つぶれ抑制処理)。黒つぶれ抑制処理の方法は特に限定されない。本実施例では、合成比率決定部508は、ヒストグラム取得部510によって取得された階調値(ヒストグラムデータ)に基づいて、合成フレームデータの画素のうち階調値が第2閾値以下の画素の数が第3閾値以下となるように合成比率を決定する。第2閾値として、第4閾値より小さい値が使用される。   Similar to the first embodiment, the composition ratio determination unit 508 determines the composition ratio K based on the reproduction information. However, in the present embodiment, based on the HDR video data input to the input unit 401, the composition ratio K is determined so as not to cause blackout (dark portion gradation collapse) due to composition processing (blackout). Suppression process). The method of blackout suppression processing is not particularly limited. In the present embodiment, the composition ratio determination unit 508 determines the number of pixels whose gradation value is equal to or less than the second threshold among the pixels of the composition frame data based on the gradation value (histogram data) acquired by the histogram acquisition unit 510. Is determined so as to be less than or equal to the third threshold. A value smaller than the fourth threshold is used as the second threshold.

なお、黒つぶれ抑制処理が常に行われてもよいし、再生方法が所定の再生方法である場合に限って黒つぶれ抑制処理が行われてもよい。第2フレームの重みとして大きい値を使用した場合は、第2フレームの重みとして小さい値を使用した場合に比べ、黒つぶれが発生しやすい。そのため、再生方法が一時停止再生またはスロー再生である場合に限って黒つぶれ抑制処理が行われてもよい。再生方法が一時停止再生である場合に限って黒つぶれ抑制処理が行われてもよい。再生方法がスロー再生である場合に限って黒つぶれ抑制処理が行われてもよい。また、第2閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。第3閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。   Note that the blackout suppression processing may be performed constantly, or the blackout suppression processing may be performed only when the playback method is a predetermined playback method. When a large value is used as the weight of the second frame, blackout is more likely to occur than when a small value is used as the weight of the second frame. For this reason, the blackout suppression processing may be performed only when the playback method is pause playback or slow playback. The blackout suppression process may be performed only when the playback method is pause playback. Only when the playback method is slow playback, the blackout suppression processing may be performed. The second threshold value may be a fixed value determined in advance by the manufacturer or a value that can be changed by the user. The third threshold value may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.

図11は、画像表示装置500の動作の一例を示すフローチャートである。ここでは、画像表示装置500にHDR動画データ(再生用RGB−HDR動画データ)が入力された場合の例を説明する。図11に示すように、本実施例では、S201〜S207の処理が順に行われる。S201〜S203の処理は、図8のS101〜S103の処理と同じであり、S206とS207の処理は、図8のS105とS106の処理と同じである。   FIG. 11 is a flowchart illustrating an example of the operation of the image display apparatus 500. Here, an example in which HDR moving image data (reproduction RGB-HDR moving image data) is input to the image display device 500 will be described. As shown in FIG. 11, in the present embodiment, the processes of S201 to S207 are performed in order. The processing of S201 to S203 is the same as the processing of S101 to S103 of FIG. 8, and the processing of S206 and S207 is the same as the processing of S105 and S106 of FIG.

S204では、ヒストグラム取得部510が、複数の候補比率に対応する複数のヒストグラムデータを取得し、取得した複数のヒストグラムデータを合成比率決定部508に出力する。図12(A)〜12(C)は、ヒストグラムデータの一例を示す。図12(A)〜12(C)において、縦軸は画素数を示し、横軸は階調値を示す。図12(A)は、第1の候補比率に対応するヒストグラムデータを示す。図12(B)は、第1の候補比率よりも大きい第2の候補比率に対応するヒストグラムデータを示す。そして、図12(C)は、第2の候補比率よりも大きい第3の候補比率に対応するヒストグラムデータを示す。第1の候補比率、第2の候補比率、及び、第3の候補比率は、第2フレームの重みである。図12(A)〜12(C)から、第2フレームの重みの増加に伴い黒つぶれが発生及び増加することがわかる。   In S <b> 204, the histogram acquisition unit 510 acquires a plurality of histogram data corresponding to a plurality of candidate ratios, and outputs the acquired plurality of histogram data to the synthesis ratio determination unit 508. 12A to 12C show examples of histogram data. 12A to 12C, the vertical axis represents the number of pixels, and the horizontal axis represents the gradation value. FIG. 12A shows histogram data corresponding to the first candidate ratio. FIG. 12B shows histogram data corresponding to a second candidate ratio that is larger than the first candidate ratio. FIG. 12C shows histogram data corresponding to a third candidate ratio that is larger than the second candidate ratio. The first candidate ratio, the second candidate ratio, and the third candidate ratio are the weights of the second frame. 12 (A) to 12 (C), it can be seen that blackout occurs and increases as the weight of the second frame increases.

S205では、合成比率決定部508が、S102の判断結果、S103で取得された露出時間情報、及び、S204で取得されたヒストグラムデータに基づいて、合成比率Kを決定する。現在の再生方法が一時停止再生でない場合には、基準値が合成比率Kとして決定される。現在の再生方法が一時停止再生である場合には、合成フレームデータの画素のうち階調値が第2閾値以下の画素の数が第3閾値以下となるように、基準値よりも大きい値が合成比率Kとして決定される。現在の再生方法が一時停止再生である場合のS205の処理について、図12(A)〜12(C)を用いて具体的に説明する。図12(A)では、破線で示された矩形領域内の階調値を有する画素が存在しない。図12(B)では、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数の約半分である。図12(C)では、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数よりも多い。S205では、例えば、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数の半分以下になるように、合成比率Kが決定される。そのため、図12(B)に示すヒストグラムデータに対応する第2の候補比率が、合成比率Kとして決定される。   In S205, the composition ratio determination unit 508 determines the composition ratio K based on the determination result in S102, the exposure time information acquired in S103, and the histogram data acquired in S204. If the current playback method is not pause playback, the reference value is determined as the composition ratio K. When the current reproduction method is pause reproduction, a value larger than the reference value is set so that the number of pixels whose gradation value is equal to or smaller than the second threshold among the pixels of the composite frame data is equal to or smaller than the third threshold. It is determined as the composition ratio K. The process of S205 when the current playback method is pause playback will be specifically described with reference to FIGS. 12 (A) to 12 (C). In FIG. 12A, there is no pixel having a gradation value in the rectangular area indicated by the broken line. In FIG. 12B, the number of pixels having gradation values in the rectangular area is about half of the number corresponding to the size of the rectangular area. In FIG. 12C, the number of pixels having gradation values in the rectangular area is larger than the number corresponding to the size of the rectangular area. In S205, for example, the composition ratio K is determined so that the number of pixels having gradation values in the rectangular area is equal to or less than half the number corresponding to the size of the rectangular area. Therefore, the second candidate ratio corresponding to the histogram data shown in FIG.

以上述べたように、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、黒つぶれの発生が抑制されるように合成比率が決定される。それにより、より高画質なHDR合成動画データを得ることができる。   As described above, according to the present embodiment, since the combination ratio is automatically determined based on the imaging information, the same effect as that of the first embodiment can be obtained. Furthermore, in this embodiment, the composition ratio is determined so that occurrence of blackout is suppressed. Thereby, HDR synthetic moving image data with higher image quality can be obtained.

なお、本実施例では、複数の候補比率を使用する例を説明したが、使用される候補比率の数は1つであってもよい。使用される候補比率が1つである場合の例を説明する。階調値が第2閾値以下の画素の数、合成比率K、及び、再生方法の対応関係が予め定められる。そして、再生情報、ヒストグラム取得部510によって取得された階調値、及び、上記対応関係に基づいて、合成比率Kが決定される。具体的には、再生情報によって示された再生方法と、ヒストグラム取得部510によって取得された階調値が第2閾値以下である画素の数との組み合わせに対応する合成比率Kが、上記対応関係から取得される。一時停止再生時にのみ黒つぶれ抑制処理が行われる場合には、階調値が第2閾値以下の画素の数と、合成比率Kとの対応関係が予め定められていればよい。その場合には、ヒストグラム取得部510によって取得された階調値が第2閾値以下である画素の数に対応する合成比率Kが、上記対応関係から取得されればよい。   In this embodiment, an example in which a plurality of candidate ratios are used has been described, but the number of candidate ratios used may be one. An example in which the number of candidate ratios used is one will be described. The correspondence relationship between the number of pixels whose gradation value is equal to or less than the second threshold, the composition ratio K, and the reproduction method is determined in advance. Then, the composition ratio K is determined based on the reproduction information, the gradation value acquired by the histogram acquisition unit 510, and the correspondence relationship. Specifically, the composition ratio K corresponding to the combination of the reproduction method indicated by the reproduction information and the number of pixels whose gradation value acquired by the histogram acquisition unit 510 is equal to or smaller than the second threshold is the above-described correspondence relationship. Obtained from. When blackout suppression processing is performed only during pause playback, the correspondence between the number of pixels with gradation values equal to or smaller than the second threshold and the composition ratio K may be determined in advance. In that case, the composition ratio K corresponding to the number of pixels for which the gradation value acquired by the histogram acquisition unit 510 is equal to or smaller than the second threshold value may be acquired from the correspondence relationship.

<実施例3>
以下、本発明の実施例3に係る画像処理装置及び画像処理方法について説明する。以下では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。なお、以下で述べる本実施例の特徴となる構成は、実施例2や後述の実施例4の構成に組み合わせることもできる。
<Example 3>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 3 of the present invention will be described. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment. In addition, the structure which becomes the characteristic of a present Example described below can also be combined with the structure of Example 2 or Example 4 mentioned later.

図13は、本実施例に係る画像表示装置600の機能構成の一例を示すブロック図である。図13に示すように、画像表示装置600は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部408、及び、画像合成部610を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図13において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。   FIG. 13 is a block diagram illustrating an example of a functional configuration of the image display apparatus 600 according to the present embodiment. As illustrated in FIG. 13, the image display apparatus 600 includes an input unit 401, a reproduction information extraction unit 402, an HDR determination unit 403, an HDR synthesis unit 404, an image processing unit 405, a display unit 406, a control unit 407, and a synthesis ratio determination unit. 408 and an image composition unit 610. These functional units are connected to each other by an internal bus 409. Data transmission / reception between these functional units is performed using an internal bus 409. The operation of each functional unit is controlled by the control unit 407. In FIG. 13, the same functional parts as those in the first embodiment (FIG. 7) are denoted by the same reference numerals as those in the first embodiment, and the description thereof is omitted.

本実施例では、合成比率決定部408は、決定した合成比率KをHDR合成部404と画像合成部610に出力する。また、画像処理部405は、生成した処理フレームデータ(第1処理フレームデータ)を画像合成部610に出力する。   In this embodiment, the composition ratio determination unit 408 outputs the determined composition ratio K to the HDR composition unit 404 and the image composition unit 610. In addition, the image processing unit 405 outputs the generated processing frame data (first processing frame data) to the image composition unit 610.

画像合成部610は、合成比率決定部408から出力された合成比率Kをユーザに通知する。本実施例では、画像合成部610は、フレームデータを記憶するバッファ(フレームメモリ)を有し、画像処理部405から出力された第1処理フレームデータをバッファに記録(上書き)する。そして、画像合成部610は、合成比率決定部408から出力された合成比率Kと、バッファに記録された第1処理フレームデータとに基づいて、合成比率画像を処理フレーム画像に重ねた画像を表すフレームデータ(第2処理フレームデータ)を生成する。合成比率画像は、合成比率を表すグラフィック画像であり、処理フレーム画像は、第1処理フレームデータによって表された画像である。具体的には、画像合成部610は、合成比率Kに基づいて、合成比率画像を表す画像データ(グラフィック画像データ)を生成する。そして、画像合成部610は、グラフィック画像データを第1処理フレームデータに合成することにより、第2処理フレームデータを生成する。その後、画像合成部610は、生成した第2処理フレームデータを表示部406に出力する。その結果、合成比率画像を処理フレーム画像に重ねた画像が表示され、合成比率がユーザに通知される。画像合成部610は、画像処理部405から処理フレームデータが出力される度に上述した処理を行う。それにより、HDR合成動画データに基づく動画に合成比率画像を重ねた動画を表す動画データが生成され、表示される。   The image composition unit 610 notifies the user of the composition ratio K output from the composition ratio determination unit 408. In this embodiment, the image composition unit 610 has a buffer (frame memory) for storing frame data, and records (overwrites) the first processing frame data output from the image processing unit 405 in the buffer. The image composition unit 610 represents an image obtained by superimposing the composition ratio image on the process frame image based on the composition ratio K output from the composition ratio determination unit 408 and the first processing frame data recorded in the buffer. Frame data (second processing frame data) is generated. The composite ratio image is a graphic image representing the composite ratio, and the processing frame image is an image represented by the first processing frame data. Specifically, the image composition unit 610 generates image data (graphic image data) representing a composition ratio image based on the composition ratio K. Then, the image synthesis unit 610 generates second process frame data by synthesizing the graphic image data with the first process frame data. Thereafter, the image composition unit 610 outputs the generated second processing frame data to the display unit 406. As a result, an image obtained by superimposing the composite ratio image on the processing frame image is displayed, and the composite ratio is notified to the user. The image composition unit 610 performs the above-described process every time processing frame data is output from the image processing unit 405. Thereby, moving image data representing a moving image in which a composition ratio image is superimposed on a moving image based on the HDR combined moving image data is generated and displayed.

図14は、本実施例に係る表示画像の一例を示す図である。図14では、合成比率画像として、合成比率Kを示すバー画像が表示されている。なお、合成比率画像は、図14に示す画像に限らない。例えば、合成比率Kの数値が記述されたテキスト画像が合成比率画像として使用されてもよい。合成比率Kの値に対応するアイコンが合成比率画像として使用されてもよい。   FIG. 14 is a diagram illustrating an example of a display image according to the present embodiment. In FIG. 14, a bar image indicating the composition ratio K is displayed as the composition ratio image. The composite ratio image is not limited to the image shown in FIG. For example, a text image in which a numerical value of the composition ratio K is described may be used as the composition ratio image. An icon corresponding to the value of the composition ratio K may be used as the composition ratio image.

以上、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、現在の合成比率がユーザに通知される。それにより、ユーザは、自身が確認している画像の合成比率を把握することができる。ユーザによって把握された合成比率は、例えば、別途行われる作業において利用される。具体的には、静止画データとして抽出された画像データを用いたレタッチ作業などにおいて、ユーザによって把握された合成比率が利用される。第1フレームと第2フレームを様々な合成比率で合成して複数の静止画データを得るために、ユーザによって把握された合成比率が利用されることもある。なお、本実施例では画像表示によって合成比率がユーザに通知される例を説明したが、ユーザへの通知方法はこれに限らない。例えば、音声やランプ(光源)からの光を用いて、合成比率がユーザに通知されてもよい。   As described above, according to the present embodiment, since the composition ratio is automatically determined based on the imaging information, it is possible to obtain the same effect as that of the first embodiment. Furthermore, in this embodiment, the current composition ratio is notified to the user. Thereby, the user can grasp the composition ratio of the images that he / she has confirmed. The composition ratio grasped by the user is used in work performed separately, for example. Specifically, the composition ratio grasped by the user is used in a retouching operation using image data extracted as still image data. In order to obtain a plurality of still image data by synthesizing the first frame and the second frame at various synthesis ratios, the synthesis ratio grasped by the user may be used. In this embodiment, the example in which the user is notified of the composition ratio by image display has been described. However, the method of notifying the user is not limited to this. For example, the synthesis ratio may be notified to the user using sound or light from a lamp (light source).

<実施例4>
以下、本発明の実施例4に係る画像処理装置及び画像処理方法について説明する。以下
では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。なお、以下で述べる本実施例の特徴となる構成は、実施例2や実施例3の構成に組み合わせることもできる。
<Example 4>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 4 of the present invention will be described. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment. In addition, the structure which is the characteristic of the present embodiment described below can be combined with the structure of the second and third embodiments.

図15は、本実施例に係る画像表示装置700の機能構成の一例を示すブロック図である。図15に示すように、画像表示装置700は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部408、比率情報生成部710、及び、出力部711を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図15において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。   FIG. 15 is a block diagram illustrating an example of a functional configuration of the image display apparatus 700 according to the present embodiment. As illustrated in FIG. 15, the image display device 700 includes an input unit 401, a reproduction information extraction unit 402, an HDR determination unit 403, an HDR synthesis unit 404, an image processing unit 405, a display unit 406, a control unit 407, and a synthesis ratio determination unit. 408, a ratio information generation unit 710, and an output unit 711 at least. These functional units are connected to each other by an internal bus 409. Data transmission / reception between these functional units is performed using an internal bus 409. The operation of each functional unit is controlled by the control unit 407. In FIG. 15, the same functional parts as those in the first embodiment (FIG. 7) are denoted by the same reference numerals as those in the first embodiment, and the description thereof is omitted.

本実施例では、HDR判断部403は、抽出したHDRメタ情報をHDR合成部404、合成比率決定部408、及び、比率情報生成部710に出力する。また、合成比率決定部408は、決定した合成比率Kを、HDR合成部404と比率情報生成部710に出力する。   In this embodiment, the HDR determination unit 403 outputs the extracted HDR meta information to the HDR synthesis unit 404, the synthesis ratio determination unit 408, and the ratio information generation unit 710. Further, the composition ratio determination unit 408 outputs the determined composition ratio K to the HDR composition unit 404 and the ratio information generation unit 710.

比率情報生成部710は、HDR判断部403から出力されたHDRメタ情報に、合成比率決定部408から出力された合成比率Kを付加する(関連付ける)ことにより、比率情報を生成する。また、比率情報生成部710は、比率情報(合成比率Kが付加されたHDRメタ情報)を記憶するバッファを有し、比率情報をバッファに記録(上書き)する。そして、比率情報生成部710は、制御部407からの指示に応じて、比率情報をバッファから読み出して出力部711に出力する。制御部407は、例えば、ユーザ操作に応じて、比率情報の出力を比率情報生成部710に指示する。なお、HDRメタ情報は使用されなくてもよい。合成比率Kを表す情報であれば、どのような情報が比率情報として生成されてもよい。但し、合成比率Kがフレームペアに関連付けられた情報が比率情報として使用されることが好ましい。   The ratio information generation unit 710 generates ratio information by adding (associating) the combination ratio K output from the combination ratio determination unit 408 to the HDR meta information output from the HDR determination unit 403. Further, the ratio information generation unit 710 has a buffer for storing ratio information (HDR meta information to which the combination ratio K is added), and records (overwrites) the ratio information in the buffer. Then, the ratio information generation unit 710 reads the ratio information from the buffer and outputs it to the output unit 711 in response to an instruction from the control unit 407. For example, the control unit 407 instructs the ratio information generation unit 710 to output ratio information in response to a user operation. Note that the HDR meta information may not be used. Any information may be generated as the ratio information as long as the information indicates the combination ratio K. However, it is preferable that information in which the composition ratio K is associated with the frame pair is used as the ratio information.

出力部711は、比率情報生成部710から出力された比率情報を外部に出力する。例えば、出力部711は、比率情報をファイル形式で外部に出力することにより、画像表示装置700に接続された外部装置である記憶装置に比率情報を記録する。記憶装置としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等が使用される。半導体メモリとしては、例えば、SDカードが使用される。比率情報用の記憶部を画像表示装置700が有し、比率情報生成部710から出力された比率情報が記憶部に記録されてもよい。比率情報を外部に出力する出力処理と、比率情報を記憶部(画像表示装置700に設けられた記憶部、外部装置である記憶装置、等)に記録する記録処理との一方が行われてもよいし、そうでなくてもよい。出力処理と記録処理の両方が行われてもよい。なお、複数のフレームペアのそれぞれに関する比率情報が出力されたり記録されたりしてもよい。   The output unit 711 outputs the ratio information output from the ratio information generation unit 710 to the outside. For example, the output unit 711 records the ratio information in a storage device that is an external device connected to the image display device 700 by outputting the ratio information to the outside in a file format. As the storage device, for example, a magnetic disk, an optical disk, a semiconductor memory, or the like is used. For example, an SD card is used as the semiconductor memory. The image display device 700 may include a storage unit for ratio information, and the ratio information output from the ratio information generation unit 710 may be recorded in the storage unit. One of the output process for outputting the ratio information to the outside and the recording process for recording the ratio information in a storage unit (a storage unit provided in the image display device 700, a storage device that is an external device, etc.) are performed. Good or not. Both output processing and recording processing may be performed. Note that ratio information regarding each of a plurality of frame pairs may be output or recorded.

以上述べたように、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、合成比率を表す比率情報が、外部に出力されたり、記憶部に記録されたりする。出力または記録された合成比率は、例えば、別途行われる作業において利用される。具体的には、静止画データとして抽出された画像データを用いたレタッチ作業などにおいて、出力または記録された合成比率が利用される。第1フレームと第2フレームを様々な合成比率で合成して複数の静止画データを得るために、出力または記録された合成比率が利用されることもある。   As described above, according to the present embodiment, since the combination ratio is automatically determined based on the imaging information, the same effect as that of the first embodiment can be obtained. Furthermore, in the present embodiment, ratio information indicating the combination ratio is output to the outside or recorded in the storage unit. The output or recorded composition ratio is used, for example, in work performed separately. Specifically, in the retouching operation using image data extracted as still image data, the output or recorded composition ratio is used. In order to obtain a plurality of still image data by synthesizing the first frame and the second frame at various synthesis ratios, an output or recorded synthesis ratio may be used.

<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

400,500,600,700:画像表示装置 401:入力部
402:再生情報抽出部 404:HDR合成部 408,508:合成比率決定部
400, 500, 600, 700: image display device 401: input unit 402: reproduction information extraction unit 404: HDR synthesis unit 408, 508: synthesis ratio determination unit

Claims (19)

撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得手段と、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、
を有し、
前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する
ことを特徴とする画像処理装置。
First acquisition means for acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
Second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data;
Combining means for combining the first frame and the second frame based on the reproduction information;
Have
The image processing apparatus according to claim 1, wherein the combining unit changes a combining ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.
前記合成手段は、第1再生速度に関する再生情報が前記第2取得手段によって取得された場合に、前記第1再生速度よりも高い第2再生速度に関する再生情報が前記第2取得手段によって取得された場合に比べて大きい値を、前記第2フレームの合成比率として決定する
ことを特徴とする請求項1に記載の画像処理装置。
In the synthesizing unit, when the reproduction information related to the first reproduction speed is acquired by the second acquisition unit, the reproduction information related to the second reproduction speed higher than the first reproduction speed is acquired by the second acquisition unit. The image processing apparatus according to claim 1, wherein a larger value than the case is determined as a composition ratio of the second frame.
前記第1再生速度に関する再生情報は、前記動画データの一時停止を示す再生情報である
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the reproduction information related to the first reproduction speed is reproduction information indicating a pause of the moving image data.
前記合成手段は、前記第1再生速度に関する再生情報が前記第2取得手段によって取得された場合に、前記第1フレームの合成比率としてゼロを決定し、前記第2フレームの合成比率として1を決定する
ことを特徴とする請求項3に記載の画像処理装置。
The synthesis means determines zero as the synthesis ratio of the first frame and 1 as the synthesis ratio of the second frame when reproduction information related to the first playback speed is acquired by the second acquisition means. The image processing apparatus according to claim 3, wherein:
前記合成手段は、前記第1再生速度に関する再生情報が前記第2取得手段によって取得された場合に、前記第1フレームと前記第2フレームの露光時間に基づいて前記合成比率を決定する
ことを特徴とする請求項2〜4のいずれか1項に記載の画像処理装置。
The combining means determines the combining ratio based on exposure times of the first frame and the second frame when reproduction information related to the first reproduction speed is acquired by the second acquisition means. The image processing apparatus according to any one of claims 2 to 4.
前記合成手段は、
前記第2再生速度に関する再生情報が前記第2取得手段によって取得された場合に、基準値を前記第2フレームの合成比率として決定し、
前記第1再生速度に関する再生情報が前記第2取得手段によって取得され、且つ、前記第1フレームと前記第2フレームの露光時間の差が第1閾値未満である場合に、前記第1フレームと前記第2フレームの露光時間の差が前記第1閾値以上である場合に比べて前記基準値に近い値を、前記第2フレームの合成比率として決定する
ことを特徴とする請求項5に記載の画像処理装置。
The synthesis means includes
When reproduction information related to the second reproduction speed is acquired by the second acquisition unit, a reference value is determined as a synthesis ratio of the second frame;
When the reproduction information related to the first reproduction speed is acquired by the second acquisition means, and the difference in exposure time between the first frame and the second frame is less than a first threshold, the first frame and the 6. The image according to claim 5, wherein a value closer to the reference value compared to a case where a difference in exposure time of the second frame is equal to or greater than the first threshold is determined as a composition ratio of the second frame. Processing equipment.
前記動画データの各フレームの露光時間を示す時間情報を取得する第3取得手段をさらに有し、
前記合成手段は、前記第1再生速度に関する再生情報が前記第2取得手段によって取得された場合に、前記時間情報を用いて前記合成比率を決定する
ことを特徴とする請求項5または6に記載の画像処理装置。
A third acquisition means for acquiring time information indicating an exposure time of each frame of the moving image data;
7. The composition unit according to claim 5 or 6, wherein when the reproduction information related to the first reproduction speed is acquired by the second acquisition unit, the combination unit determines the combination ratio using the time information. Image processing apparatus.
前記第1フレームと前記第2フレームを識別するフレーム識別情報を取得する第4取得手段をさらに有し、
前記合成手段は、前記第1フレームと前記第2フレームを、前記フレーム識別情報を用
いて識別する
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
A fourth acquisition means for acquiring frame identification information for identifying the first frame and the second frame;
The image processing apparatus according to claim 1, wherein the synthesizing unit identifies the first frame and the second frame using the frame identification information.
前記第1フレームと前記第2フレームを含むフレームペアを識別するペア識別情報を取得する第5取得手段をさらに有し、
前記合成手段は、前記フレームペアを、前記ペア識別情報を用いて識別する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
A fifth acquisition means for acquiring pair identification information for identifying a frame pair including the first frame and the second frame;
The image processing apparatus according to claim 1, wherein the synthesizing unit identifies the frame pair using the pair identification information.
前記第1取得手段によって取得された動画データが前記第1フレームと前記第2フレームを含むか否かを判断する判断手段をさらに有する
ことを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。
10. The apparatus according to claim 1, further comprising a determination unit that determines whether the moving image data acquired by the first acquisition unit includes the first frame and the second frame. The image processing apparatus described.
前記第1取得手段によって取得された動画データが前記第1フレームと前記第2フレームを含むか否かを示す動画識別情報を取得する第6取得手段をさらに有し、
前記判断手段は、前記動画識別情報に応じて、前記第1取得手段によって取得された動画データが前記第1フレームと前記第2フレームを含むか否かを判断する
ことを特徴とする請求項10に記載の画像処理装置。
Further comprising sixth acquisition means for acquiring moving image identification information indicating whether or not the moving image data acquired by the first acquisition means includes the first frame and the second frame;
11. The determination unit according to claim 10, wherein the determination unit determines whether the moving image data acquired by the first acquisition unit includes the first frame and the second frame according to the moving image identification information. An image processing apparatus according to 1.
前記合成手段は、前記動画データに基づいて、前記第1フレームと前記第2フレームの合成に起因した黒つぶれが生じないように、前記合成比率を決定する
ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。
The composition unit determines the composition ratio based on the moving image data so as not to cause blackout due to composition of the first frame and the second frame. The image processing apparatus according to any one of the above.
前記合成比率の候補である候補比率に応じて前記第1フレームと前記第2フレームを合成したフレームの各階調値を取得する第7取得手段をさらに有し、
前記合成手段は、前記第7取得手段によって取得された各階調値に基づいて、前記第1フレームと前記第2フレームを合成した後の階調値が第2閾値以下の画素の数が第3閾値以下となるように、前記合成比率を決定する
ことを特徴とする請求項12に記載の画像処理装置。
A seventh acquisition means for acquiring each gradation value of a frame obtained by combining the first frame and the second frame according to a candidate ratio that is a candidate for the combination ratio;
The synthesizing unit is configured such that, based on each tone value acquired by the seventh acquiring unit, the number of pixels whose tone value after combining the first frame and the second frame is equal to or less than a second threshold is third. The image processing apparatus according to claim 12, wherein the composition ratio is determined so as to be equal to or less than a threshold value.
前記合成比率をユーザに通知する通知手段をさらに有する
ことを特徴とする請求項1〜13のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising notification means for notifying a user of the composition ratio.
前記第1フレームと前記第2フレームとを合成することにより得られた動画データである合成動画データと、前記合成比率とに基づいて、前記合成比率を表すグラフィック画像を前記合成動画データに基づく動画に重ねた動画を表す動画データを生成する生成手段をさらに有する
ことを特徴とする請求項1〜14のいずれか1項に記載の画像処理装置。
A moving image based on the combined moving image data based on the combined moving image data based on the combined moving image data obtained by combining the first frame and the second frame and the combined ratio. The image processing apparatus according to claim 1, further comprising generation means for generating moving image data representing a moving image superimposed on the screen.
前記合成比率を表す比率情報を外部に出力する出力手段をさらに有する
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising an output unit configured to output ratio information representing the synthesis ratio to the outside.
前記合成比率を表す比率情報を記憶部に記録する記録手段をさらに有する
ことを特徴とする請求項1〜16のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a recording unit that records ratio information representing the synthesis ratio in a storage unit.
撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得ステップと、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得ステップと、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成ステップと、
を有し、
前記合成ステップでは、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率が変更される
ことを特徴とする画像処理方法。
A first acquisition step of acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
A second acquisition step of acquiring reproduction information which is information relating to the reproduction speed of the moving image data;
A combining step of combining the first frame and the second frame based on the reproduction information;
Have
In the composition step, the composition ratio of the first frame and the second frame is changed according to the reproduction speed of the moving image data.
請求項18に記載の画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 18.
JP2016078863A 2015-06-25 2016-04-11 Image processing apparatus and image processing method Pending JP2017011676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/185,213 US9819873B2 (en) 2015-06-25 2016-06-17 Image-processing apparatus and image-processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015127843 2015-06-25
JP2015127843 2015-06-25

Publications (1)

Publication Number Publication Date
JP2017011676A true JP2017011676A (en) 2017-01-12

Family

ID=57764180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078863A Pending JP2017011676A (en) 2015-06-25 2016-04-11 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2017011676A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029954A (en) * 2017-08-03 2019-02-21 オリンパス株式会社 Image processing system and image processing method
JP2021114696A (en) * 2020-01-17 2021-08-05 キヤノン株式会社 Image processing device, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029954A (en) * 2017-08-03 2019-02-21 オリンパス株式会社 Image processing system and image processing method
JP2021114696A (en) * 2020-01-17 2021-08-05 キヤノン株式会社 Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
US10440285B2 (en) Imaging apparatus and imaging method
US8804004B2 (en) Imaging apparatus, image control method, and storage medium storing program
US9819873B2 (en) Image-processing apparatus and image-processing method
JP2013046259A (en) Video apparatus, control method, and program
CN110012227B (en) Image processing method, device, storage medium and electronic device
US20100141823A1 (en) Image Processing Apparatus And Electronic Appliance
US11184551B2 (en) Imaging apparatus and control method thereof
KR20120034412A (en) Digital photographing apparatus and control method thereof
US8547479B2 (en) Display apparatus and control method thereof
JP2012119761A (en) Electronic apparatus, image processing method and program
KR20120083085A (en) Digital photographing apparatus and control method thereof
KR20150002478A (en) Moving image generating apparatus, moving image generating method, and computer readable recording medium having a computer program
CN110278375B (en) Image processing method, device, storage medium and electronic device
US8068144B2 (en) Image recording and reproducing apparatus
JP5197801B2 (en) Movie reproduction system and photographing apparatus
JP4912113B2 (en) Light source state detection apparatus and method, and imaging apparatus
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
US10348957B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for shooting a still image without interrupting shooting of moving images
JP2014107837A (en) Imaging apparatus, image processing system, and control method
JP2017011676A (en) Image processing apparatus and image processing method
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012100022A (en) Image processing system
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2017151141A (en) Image display device, image display system, information processing device, control method for image display device, and information processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116