JP2017011676A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2017011676A JP2017011676A JP2016078863A JP2016078863A JP2017011676A JP 2017011676 A JP2017011676 A JP 2017011676A JP 2016078863 A JP2016078863 A JP 2016078863A JP 2016078863 A JP2016078863 A JP 2016078863A JP 2017011676 A JP2017011676 A JP 2017011676A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- unit
- moving image
- image data
- reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【課題】被写体の動きのボケ具合(被写体のフォーカス感)が好適なHDR合成動画を容易に得ることができる技術を提供する。
【解決手段】本発明の画像処理装置は、撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得手段と、前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、を有し、前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する。
【選択図】図8An object of the present invention is to provide a technique capable of easily obtaining an HDR synthesized moving image in which the degree of blur of the movement of a subject (a feeling of focus on the subject) is favorable.
An image processing apparatus according to the present invention acquires first moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame. 1 acquisition means, second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data, and synthesis means for combining the first frame and the second frame based on the reproduction information; And the synthesizing unit changes a synthesis ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.
[Selection] Figure 8
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
比較的長い露光時間での撮像によって得られた画像(第1フレーム)と、比較的短い露光時間での撮像によって得られた画像(第2フレーム)とを含む複数の画像を合成することにより、ダイナミックレンジが高い画像を生成する技術がある。このような技術(合成)は「ハイダイナミックレンジ合成(HDR合成)」と呼ばれ、HDR合成によって生成された画像は「ハイダイナミックレンジ合成画像(HDR合成画像)」と呼ばれる。HDR合成を行うことにより、露光時間による受光データのオーバーシュートの発生が抑制されたHDR合成画像を生成することができる。即ち、白とびや黒つぶれの発生が抑制されたHDR合成画像を生成することができる。 By combining a plurality of images including an image (first frame) obtained by imaging with a relatively long exposure time and an image (second frame) obtained by imaging with a relatively short exposure time, There is a technique for generating an image with a high dynamic range. Such a technique (synthesis) is called “high dynamic range synthesis (HDR synthesis)”, and an image generated by HDR synthesis is called “high dynamic range synthesis image (HDR synthesized image)”. By performing HDR composition, it is possible to generate an HDR composite image in which occurrence of overshoot of received light data due to exposure time is suppressed. That is, it is possible to generate an HDR composite image in which occurrence of overexposure and underexposure is suppressed.
近年、撮像時にHDR合成をリアルタイムで行うことで、撮像動画(撮像によって得られた動画)として、各フレームがHDR合成画像である動画(HDR合成動画)を得ることが可能となった。図16は、HDR合成動画が生成される様子を示す。図16の例では、撮像によって第1フレームと第2フレームが交互に得られ、第1フレームと第2フレームが得られる度に、得られた第1フレームと第2フレームを合成することによりHDR合成画像が生成される。それにより、HDR合成動画が生成される。 In recent years, it has become possible to obtain a moving image (HDR combined moving image) in which each frame is an HDR combined image as a captured moving image (moving image obtained by imaging) by performing HDR synthesis in real time during imaging. FIG. 16 shows a state where an HDR synthesized moving image is generated. In the example of FIG. 16, the first frame and the second frame are alternately obtained by imaging, and HDR is obtained by synthesizing the obtained first frame and second frame each time the first frame and the second frame are obtained. A composite image is generated. Thereby, an HDR synthetic moving image is generated.
HDR動画の生成では、HDR合成における第1フレームと第2フレームの重みを変えることで、ダイナミックレンジだけでなく、被写体の動きのボケ具合(被写体のフォーカス感)を変えることができる。図17(A)は、水平方向に動く黒い円形の物体を撮像して得られた第1フレームの一例を示す。第1フレームでは、露光時間が長いため、暗部の階調情報を詳細に保持できるが、動きのボケが大きい。図17(B)は、水平方向に動く黒い円形の物体を撮像して得られた第2フレームの一例を示す。第2フレームでは、露光時間が短いため、明部の階調情報を詳細に保持でき、動きのボケが小さい。図17(C)及び図17(D)は、図17(A)の第1フレームと図17(B)の第2フレームとを合成して得られたHDR合成画像の一例を示す。図17(C)は、第1フレームの重みが大きく、且つ、第2フレームの重みが小さい場合の例を示す。この場合、図17(C)に示すように、動きのボケが残ったHDR画像が生成される。図17(D)は、第1フレームの重みが小さく、且つ、第2フレームの重みが大きい場合の例を示す。この場合、図17(D)に示すように、図17(C)に比べ動きのボケが小さいHDR画像が生成される。一般的に、通常の再生速度での動画の再生では、自然な動きを表現するために、動きのボケがある程度残った画像(例えば、図17(C)のような画像)が使用されることが望ましい。一方、通常の再生速度より遅い再生速度での動画の再生(スロー再生や一時停止再生)では、フォーカス感の高い画像(例えば、図17(D)のような画像)が使用されることが望ましい。 In the generation of an HDR video, not only the dynamic range but also the degree of blur of subject movement (subject focus feeling) can be changed by changing the weights of the first frame and the second frame in HDR synthesis. FIG. 17A shows an example of a first frame obtained by imaging a black circular object moving in the horizontal direction. In the first frame, since the exposure time is long, the gradation information of the dark part can be held in detail, but the motion blur is large. FIG. 17B shows an example of a second frame obtained by imaging a black circular object moving in the horizontal direction. In the second frame, since the exposure time is short, the gradation information of the bright part can be held in detail and the motion blur is small. FIGS. 17C and 17D show examples of HDR synthesized images obtained by synthesizing the first frame of FIG. 17A and the second frame of FIG. 17B. FIG. 17C shows an example in which the weight of the first frame is large and the weight of the second frame is small. In this case, as shown in FIG. 17C, an HDR image in which motion blur remains is generated. FIG. 17D shows an example in which the weight of the first frame is small and the weight of the second frame is large. In this case, as shown in FIG. 17D, an HDR image with less motion blur than in FIG. 17C is generated. In general, in reproducing a moving image at a normal reproduction speed, an image (for example, an image as shown in FIG. 17C) in which motion blur remains to some extent is used to express natural motion. Is desirable. On the other hand, it is desirable to use an image with a high focus feeling (for example, an image as shown in FIG. 17D) for moving image playback (slow playback or pause playback) at a playback speed slower than the normal playback speed. .
近年、ビデオカメラの撮像センサのサイズが増しており、一眼レフカメラに用意された豊富なレンズ群をビデオカメラにマウントできることが一般的になってきている。このような背景から、撮像によって高解像度の動画を取得し、動画の1フレームを静止画として抽出する、といったワークフローが注目されている。以後、このようなワークフローを「モーションキャプチャワークフロー」と記載する。モーションキャプチャワークフローでは、例えば、撮像によってCM(Commercial Message)やPV(Promotion Video)用の高解像度動画が取得され、高解像度動画の1フレームが雑誌や広告用の静止画として抽出される。 In recent years, the size of image sensors in video cameras has increased, and it has become common to mount abundant lens groups prepared for single-lens reflex cameras on video cameras. From such a background, a workflow of acquiring a high-resolution moving image by imaging and extracting one frame of the moving image as a still image has attracted attention. Hereinafter, such a workflow is referred to as a “motion capture workflow”. In the motion capture workflow, for example, a high-resolution moving image for CM (Commercial Message) or PV (Promotion Video) is acquired by imaging, and one frame of the high-resolution moving image is extracted as a still image for a magazine or advertisement.
図18は、モーションキャプチャワークフローで使用される画像表示システムの構成の一例を示す図である。図18の画像表示システムは、撮像装置1100、再生装置1200、現像装置1300、及び、画像表示装置1400を有する。撮像装置1100は、撮像によって動画データを生成し、生成した動画データを出力する。撮像装置1100は、動画データとして、各フレームの画像データがRAW画像データであるRAW動画データを出力する。再生装置1200は、撮像装置1100から出力されたRAW動画データを記憶する。また、再生装置1200は、記憶しているRAW動画データを出力する。現像装置1300は、再生装置1200から出力されたRAW動画データに現像処理を施し、現像処理後の動画データを出力する。画像表示装置1400は、現像装置1300から出力された動画データに基づく動画を表示する。
FIG. 18 is a diagram illustrating an example of a configuration of an image display system used in the motion capture workflow. The image display system in FIG. 18 includes an
図18の画像表示システムでは、まず、撮像装置1100によって得られたRAW動画データが、再生装置1200に蓄積される。その後、再生装置1200に蓄積されたRAW動画データが現像装置1300によって現像され、現像結果が画像表示装置1400によって表示される。ユーザ(例えば、カメラマン)は、画像表示装置1400の表示を見ることで、撮像動画の確認、静止画の選定、等を行う。
In the image display system of FIG. 18, first, RAW moving image data obtained by the
図19は、モーションキャプチャワークフローの一例を示すフローチャートである。ここでは、撮像動画が通常再生されている状態からの作業について説明する。通常再生は、通常の再生速度で動画を再生する再生方法である。 FIG. 19 is a flowchart illustrating an example of a motion capture workflow. Here, an operation from a state in which a captured moving image is normally reproduced will be described. Normal playback is a playback method in which a moving image is played back at a normal playback speed.
まず、ユーザは、画像表示装置1400の表示を確認し、静止画として使用できそうな画像群(シーン)を探す(S1001;確認作業)。そして、ユーザは、探した画像群の近辺のフレームからの一時停止再生のためのユーザ操作(一時停止操作)を行い、コマ送りのためのユーザ操作(コマ送り操作)を繰り返し行う(S1002)。それにより、探した画像群の近辺のフレームが表示され、コマ送り操作が行われる度に次のフレームに表示が切り替えられる。次に、ユーザは、コマ送り操作を行いながら画像表示装置1400の表示を確認し、静止画として使用するフレームを選定する(S1003;選定作業)。一般的に、画像の構図の他に、フォーカス感の有無を考慮して、フレームが選定される。例えば、雑誌や広告に使用する上で必要十分なフォーカス感が残ったフレームが選定される。そして、ユーザは、選定されたフレームのRAW画像データを静止画データとして再生装置1200から抽出するユーザ操作(抽出操作)を行う(S1004)。次に、ユーザは、モーションキャプチャワークフローを終了するか否かを判断する(S1005)。モーションキャプチャワークフローを終了する場合には、本フローチャートが終了され、モーションキャプチャワークフローを終了しない場合には、S1002に作業が戻され、引き続きコマ送り操作が行われる。モーションキャプチャワークフローを終了しない場合に、S1001に作業が戻されてもよい。なお、RAW画像データは、画像の編集に非常に適している。静止画データとしてRAW画像データを抽出することにより、雑誌や広告などの用途に応じたレタッチなどの編集作業を好適に行うことができる。
First, the user confirms the display of the
ところで、モーションキャプチャワークフローにおいてHDR合成動画を生成する場合には、S1001の確認作業では、通常の再生速度での動画の再生に適した重みを用いてHDR合成動画が生成されることが好ましい。しかしながら、そのような重みを使用すると、S1003の選定作業において、フォーカス感が足りない表示が行われることが多い。そして、そのような表示が行わる度にユーザによって重みが調整されることが想定される。 By the way, when generating an HDR composite video in the motion capture workflow, it is preferable that the HDR composite video is generated using weights suitable for playback of a video at a normal playback speed in the confirmation operation in S1001. However, when such weights are used, a display with insufficient focus is often performed in the selection operation in S1003. It is assumed that the weight is adjusted by the user every time such display is performed.
モーションキャプチャワークフローでは、膨大な画像(フレーム)から好適な画像を選定(選別)するのに非常に長い時間を要し、ユーザの負担が非常に大きい。そして、選定
作業において重みの調整が必要になると、作業時間やユーザの負担がさらに増してしまう。
In the motion capture workflow, it takes a very long time to select (select) a suitable image from a large number of images (frames), and the burden on the user is very large. And if adjustment of a weight is needed in selection work, work time and a user's burden will increase further.
HDR合成に関する従来技術は、例えば、特許文献1,2に開示されている。特許文献1に開示の技術では、長時間露光の画像と短時間露光の画像の重みが、HDR合成動画における被写体の動きの有無に基づいて調整される。特許文献2に開示の技術では、HDR合成に用いる画像の枚数と、HDR合成に用いる画像の露光条件とが、ユーザ操作に応じて調整される。 Conventional techniques related to HDR synthesis are disclosed in, for example, Patent Documents 1 and 2. In the technique disclosed in Patent Document 1, the weights of the long-time exposure image and the short-time exposure image are adjusted based on the presence or absence of the movement of the subject in the HDR synthesized moving image. In the technique disclosed in Patent Document 2, the number of images used for HDR composition and the exposure conditions for images used for HDR composition are adjusted according to a user operation.
しかしながら、特許文献1,2に開示の技術では、HDR合成動画の1フレームに関して一意に重みが決定される。1フレームに関して一意に重みが決定されると、S1001の確認作業時に動きのボケが小さい不自然な表示が行われたり、S1003の選定作業時にフォーカス感が足りない表示が行われたりする。そのため、同一のフレームに関する重みとして、確認作業時と選定作業時とで異なる重みが使用されることが好ましい。特許文献1,2に開示の技術を用いたとしても、このような処理は実現できず、重みを調整するユーザ操作が必要となる。 However, in the techniques disclosed in Patent Documents 1 and 2, a weight is uniquely determined for one frame of the HDR synthesized moving image. If the weight is uniquely determined for one frame, an unnatural display with small motion blur is performed during the confirmation operation in S1001, or a display with insufficient focus is performed during the selection operation in S1003. Therefore, it is preferable to use different weights for the same frame between the confirmation work and the selection work. Even if the techniques disclosed in Patent Documents 1 and 2 are used, such processing cannot be realized, and a user operation for adjusting the weight is required.
本発明は、被写体の動きのボケ具合(被写体のフォーカス感)が好適な合成動画を容易に得ることができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of easily obtaining a synthesized moving image in which the degree of blur of a subject's movement (the subject's focus feeling) is suitable.
本発明の第1の態様は、
撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得手段と、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、
を有し、
前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する
ことを特徴とする画像処理装置である。
The first aspect of the present invention is:
First acquisition means for acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
Second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data;
Combining means for combining the first frame and the second frame based on the reproduction information;
Have
The synthesizing unit is an image processing apparatus that changes a synthesis ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.
本発明の第2の態様は、
撮像によって得られた第1フレームと、前記第1フレームよりも短い露光時間での撮像によって得られた第2フレームとを含む動画データを取得する第1取得ステップと、
前記動画データの再生速度に関する情報である再生情報を取得する第2取得ステップと、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成ステップと、
を有し、
前記合成ステップでは、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率が変更される
ことを特徴とする画像処理方法である。
The second aspect of the present invention is:
A first acquisition step of acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
A second acquisition step of acquiring reproduction information which is information relating to the reproduction speed of the moving image data;
A combining step of combining the first frame and the second frame based on the reproduction information;
Have
In the composition step, the composition ratio of the first frame and the second frame is changed according to the reproduction speed of the moving image data.
本発明の第3の態様は、上述した画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。 A third aspect of the present invention is a program that causes a computer to execute each step of the above-described image processing method.
本発明によれば、被写体の動きのボケ具合(被写体のフォーカス感)が好適な合成動画を容易に得ることができる。 According to the present invention, it is possible to easily obtain a synthesized moving image in which the degree of blur of the subject movement (the subject's focus feeling) is suitable.
<実施例1>
以下、本発明の実施例1に係る画像処理装置及び画像処理方法について説明する。なお、以下では、本実施例に係る画像処理装置が画像表示装置に設けられている例を説明するが、本実施例に係る画像処理装置は画像表示装置とは別体の装置であってもよい。本実施例に係る画像処理装置は、画像表示装置とは異なる装置に設けられていてもよい。
<Example 1>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 1 of the present invention will be described. Hereinafter, an example in which the image processing apparatus according to the present embodiment is provided in the image display apparatus will be described. However, the image processing apparatus according to the present embodiment may be a separate apparatus from the image display apparatus. Good. The image processing apparatus according to the present embodiment may be provided in an apparatus different from the image display apparatus.
図1は、本実施例に係る画像表示システムの構成の一例を示す図である。図1の画像表示システムは、例えば、モーションキャプチャワークフローで使用される。図1に示すように、本実施例に係る画像表示システムは、撮像装置100、再生装置200、現像装置300、及び、画像表示装置400を有する。
FIG. 1 is a diagram illustrating an example of the configuration of the image display system according to the present embodiment. The image display system of FIG. 1 is used in, for example, a motion capture workflow. As shown in FIG. 1, the image display system according to the present embodiment includes an
撮像装置100は、撮像によって動画データを生成し、生成した動画データを出力する。本実施例では、撮像装置100は、動画データとして、各フレームの画像データがRAW画像データであるRAW動画データを出力する。再生装置200は、撮像装置100から出力されたRAW動画データを記憶部に記録する。また、再生装置200は、RAW動画データを記憶部から読み出し、読み出したRAW動画データから、設定された再生方法に基づくRAW動画データを生成し、生成したRAW動画データを出力する。現像装置300は、再生装置200から出力されたRAW動画データに現像処理を施し、現像処理後の動画データを出力する。画像表示装置400は、現像装置300から出力された動画データに基づく動画を表示する。
The
なお、撮像装置100、再生装置200、現像装置300、及び、画像表示装置400のうちの2つ以上の装置が一体化されていてもよい。例えば、再生装置200と現像装置300が一体化されていてもよいし、撮像装置100、再生装置200、及び、現像装置300が一体化されていてもよいし、現像装置300と画像表示装置400が一体化されていてもよい。
Note that two or more of the
なお、撮像装置100が動画データを出力する際に、撮像装置100によって現像処理が行われてもよい。再生装置200が動画データを記憶部に記録する際に、再生装置200によって現像処理が行われてもよい。設定された再生方法に基づく動画データを再生装置200が生成する際に、再生装置200によって現像処理が行われてもよい。再生装置200が動画データを出力する際に、再生装置200によって現像処理が行われてもよい。撮像装置100や再生装置200で現像処理が行われる場合、現像装置300は不要となる。この場合、「撮像装置100や再生装置200に現像装置300が設けられている」とも言える。
Note that when the
図2は、撮像装置100の機能構成の一例を示すブロック図である。図2に示すように、撮像装置100は、レンズ部101、撮像部102、信号処理部103、出力部104、ユーザI/F部105、及び、制御部106を少なくとも備える。これらの機能部は、内部バス107によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス107を用いて行われる。各機能部の動作は、制御部106によって制御される。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the
レンズ部101は、撮像部102の前段に設置されており、撮像対象(被写体)からの光である入射光を撮像部102へ結像する。
The
撮像部102は、レンズ部101によって結像された入射光の露出時間を変更する露出変更処理を行い、入射光をアナログ電気信号に変換し(撮像)、得られたアナログ電気信号を出力する。本実施例では、撮像部102において、第1の撮像と、第1の撮像よりも露光時間が短い第2の撮像とが交互に行われる。そして、第1の撮像によって得られたアナログ電気信号と、第2の撮像によって得られたアナログ電気信号とが、撮像部102から交互に出力される。
The
信号処理部103は、撮像部102から出力されたアナログ電気信号に対して信号処理を施すことにより、撮像部102から出力されたアナログ電気信号をデジタル電気信号であるRAW画像データに変換する。そして、信号処理部103は、RAW画像データを出力する。信号処理は、アナログ電気信号をデジタル電気信号に変換するA/D変換処理、種々の補正を行う補正処理、等を含む。補正処理では、撮像部102が有する撮像センサ(CCD、CMOS、等)の欠陥に起因した誤差、レンズ部101が有するレンズの光学バラつきに起因した誤差、等が低減される。
The
上述したように、撮像部102からは、第1の撮像によって得られたアナログ電気信号と、第2の撮像によって得られたアナログ電気信号とが交互に出力される。そのため、信号処理部103からは、RAW−HDR動画データが出力される。RAW−HDR動画データは、各フレームの画像データとしてRAW画像データを有する動画データである。また、RAW−HDR動画データは、第1の撮像によって得られた第1フレームと、第2の撮像によって得られた第2フレームとを含むフレームペアが繰り返される動画データでもある。
As described above, the
出力部104は、信号処理部103から出力されたRAW−HDR動画データを、再生
装置200に所定のフレームレートで出力する。出力部104は、RAW−HDR動画データを出力する際に、RAW−HDR動画データの各フレーム(各RAW画像データ)に、そのフレームに関する情報であるHDRメタ情報を含むメタデータを付加する。本実施例では、HDRメタ情報は、HDR識別情報(動画識別情報)、ペア識別情報、フレーム識別情報、及び、露光時間情報を含む。
The
HDR識別情報は、出力部104から出力された動画データがHDR動画データ(第1の撮像によって得られた第1フレームと、第2の撮像によって得られた第2フレームとを含むフレームペアが繰り返される動画データ)であるか否かを示す情報である。本実施例では、RAW−HDR動画データが撮像装置100から出力されるため、HDR識別情報は、「出力部104から出力された動画データがRAW−HDR動画データであることを示す情報」とも言える。HDR識別情報は、動画データの全てのフレームに対して付加されてもよいし、そうでなくてもよい。例えば、HDR識別情報は、動画データの先頭のフレームに対してのみ付加されてもよい。先頭のフレームは、例えば、撮像の開始を指示するユーザ操作に応じて検出することができる。
In the HDR identification information, the moving image data output from the
ペア識別情報は、出力部104から出力されたHDR動画データ(RAW−HDR動画データ)のフレームペアを識別する情報である。例えば、1つのフレームペアに含まれる第1フレームと第2フレームのそれぞれに対して、同じ識別子が、ペア識別情報として付加される。そのような識別子を使用する場合、HDR動画データの全てのフレームに対してペア識別情報が付加される。第1フレームに対して、当該第1フレームと同じフレームペアに含まれる第2フレームを示す情報が、ペア識別情報として付加されてもよい。第2フレームに対して、当該第2フレームと同じフレームペアに含まれる第1フレームを示す情報が、ペア識別情報として付加されてもよい。そのような情報を使用する場合、HDR動画データの第1フレームと第2フレームの少なくとも一方に対してペア識別情報が付加される。
The pair identification information is information for identifying a frame pair of HDR moving image data (RAW-HDR moving image data) output from the
フレーム識別情報と露光時間情報は、HDR動画データの全てのフレームに対して付加される。フレーム識別情報は、出力部104から出力されたHDR動画データ(RAW−HDR動画データ)の第1フレームと第2フレームを識別する情報である。具体的には、フレーム識別情報は、対応するフレームが第1フレームであるか第2フレームであるかを示す情報である。露光時間情報は、出力部104から出力された動画データの各フレームの露光時間を示す情報である。具体的には、露光時間情報は、対応するフレームの露光時間を示す情報である。
Frame identification information and exposure time information are added to all frames of the HDR video data. The frame identification information is information for identifying the first frame and the second frame of the HDR moving image data (RAW-HDR moving image data) output from the
なお、HDRメタ情報は、HDR識別情報、ペア識別情報、フレーム識別情報、及び、露光時間情報以外の情報を含んでいてもよい。例えば、HDRメタ情報は、タイムコード等の情報を含んでいてもよい。 The HDR meta information may include information other than HDR identification information, pair identification information, frame identification information, and exposure time information. For example, the HDR meta information may include information such as a time code.
図3は、撮像装置100から出力されたRAW−HDR動画データの一例を示す図である。図3に示すように、RAW−HDR動画データでは、第1フレームと第2フレームが交互に並んでいる。また、各フレームにHDRメタ情報が付加されている。撮像装置100(出力部104)と再生装置200は、有線または無線で互いに接続されている。撮像装置100と再生装置200を互いに接続するためのケーブルとしては、例えば、SDI(Serial Digital Interface)ケーブル、HDMI(High−Definition Multimedia Interface)ケーブル、等が使用される。SDIケーブルを用いて撮像装置100が再生装置200に接続されている場合には、HDRメタ情報は、例えば、垂直ブランキング領域であるアンシラリー領域に付加される。なお、撮像装置100と再生装置200が一体化されている場合には、内部バスを介して出力部104から再生装置200にRAW−HDR動画データが伝送されて
もよい。
FIG. 3 is a diagram illustrating an example of RAW-HDR moving image data output from the
ユーザI/F部105は、撮像装置100に対するユーザ操作を受け付ける。そして、ユーザI/F部105は、撮像装置100に対して行われたユーザ操作を示す操作情報を、制御部106へ出力する。例えば、不図示のシャッターボタンが押下されると、ユーザI/F部105は、シャッターボタンが押下されたことを示す操作情報を、制御部106へ出力する。
The user I /
制御部106は、撮像装置100が有する各機能部の動作を制御する。例えば、制御部106は、ユーザI/F部105からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、シャッターボタンが押下されたことを示す操作情報がユーザI/F部105から出力されると、制御部106は、撮像部102に第1フレームと第2フレームの露出時間を通知し、撮像部102に撮像の開始を指示する。
The
図4は、再生装置200の機能構成の一例を示すブロック図である。図4に示すように、再生装置200は、入力部201、記憶部202、再生情報付加部203、出力部204、ユーザI/F部205、及び、制御部206を少なくとも備える。これらの機能部は、内部バス207によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス207を用いて行われる。各機能部の動作は、制御部206によって制御される。
FIG. 4 is a block diagram illustrating an example of a functional configuration of the
入力部201は、撮像装置100から出力されたRAW−HDR動画データを所定のフレームレートで取得し、記憶部202に記録する。記憶部202は、動画データを記憶可能な記憶装置である。記憶部202としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等が使用される。なお、記憶部202は、再生装置200に対して着脱不可能な記憶装置であってもよいし、再生装置200に対して着脱可能な記憶装置であってもよい。
The
ユーザI/F部205は、再生装置200に対するユーザ操作を受け付ける。そして、ユーザI/F部205は、再生装置200に対して行われたユーザ操作を示す操作情報を、制御部206へ出力する。例えば、不図示の記録開始ボタンが押下されると、ユーザI/F部205は、記録開始ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の再生開始ボタンが押下されると、ユーザI/F部205は、再生開始ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の一時停止ボタンが押下されると、ユーザI/F部205は、一時停止ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示のスロー再生ボタンが押下されると、ユーザI/F部205は、スロー再生ボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示のコマ送りボタンが押下されると、ユーザI/F部205は、コマ送りボタンが押下されたことを示す操作情報を、制御部206へ出力する。不図示の再生停止ボタンが押下されると、ユーザI/F部205は、再生停止ボタンが押下されたことを示す操作情報を、制御部206へ出力する。
The user I /
制御部206は、再生装置200が有する各機能部の動作を制御する。例えば、制御部206は、ユーザI/F部205からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、記録開始ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、入力部201に動画データの記録を指示する。再生開始ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に通常再生を指示する。それにより、再生方法として通常再生が設定される。一時停止ボタンが押下
されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に一時停止再生を指示する。それにより、再生方法として一時停止再生が設定される。スロー再生ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203にスロー再生を指示する。それにより、再生方法としてスロー再生が設定される。コマ送りボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203にコマ送りを指示する。再生停止ボタンが押下されたことを示す操作情報がユーザI/F部205から出力されると、制御部206は、再生情報付加部203に再生停止を指示する。
The
再生情報付加部203は、制御部206からの指示に応じて設定された再生方法に基づいて、記憶部202に記録されたRAW−HDR動画データから、再生用RAW−HDR動画データを生成する。そして、再生情報付加部203は、再生用RAW−HDR動画データを所定のフレームレートで出力する。また、再生情報付加部203は、再生用RAW−HDR動画データを出力する際に、再生用RAW−HDR動画データの各フレームに再生情報を含むメタデータを付加する。再生情報は、設定された再生方法に関する情報である。
The reproduction
例えば、制御部206から通常再生が指示されると、再生情報付加部203は、記憶部202に記録されたRAW−HDR動画データの各フレームを順次出力する。このとき、通常再生を示す再生情報が各フレームに付加される。一時停止再生が指示されると、再生情報付加部203は、一時停止再生が指示されたときに取得(又は出力)したフレームペアを繰り返し出力する。このとき、一時停止再生を示す再生情報が各フレームに付加される。一時停止再生が指示された後、コマ送りが指示されると、再生情報付加部203は、一時停止再生が指示されたときに取得(又は出力)したフレームペアの次のフレームペアを記憶部202から読み出し、読み出したフレームペアを繰り返し出力する。このときも、一時停止再生を示す再生情報が各フレームに付加される。スロー再生が指示されると、再生情報付加部203は、記憶部202に記録されたRAW−HDR動画データの各フレームをN回(Nは2以上の整数)ずつ出力する。このとき、スロー再生を示す再生情報が各フレームに付加される。再生停止が指示されると、再生情報付加部203は、再生用RAW−HDR動画データの出力を停止する。
For example, when normal playback is instructed from the
通常再生は、通常の再生速度(第2再生速度)で動画を再生する再生方法である。一時停止再生とスロー再生は、通常の再生速度よりも低い再生速度(第1再生速度)で動画を再生する再生方法である。一時停止再生は、再生対象のフレームペアを更新しない再生方法である。このように、本実施例では、再生速度が互いに異なる複数の再生方法が使用される。そのため、再生情報は、「再生速度に関する情報」とも言える。再生速度を示す情報が再生情報として使用されてもよい。なお、再生方法や再生情報はこれらに限らない。例えば、再生方法として、撮像時刻が遅いフレームから再生する逆再生が使用されてもよい。 Normal playback is a playback method in which a moving image is played back at a normal playback speed (second playback speed). Pause playback and slow playback are playback methods for playing back a moving image at a playback speed (first playback speed) lower than the normal playback speed. Pause playback is a playback method that does not update a frame pair to be played back. As described above, in this embodiment, a plurality of reproduction methods having different reproduction speeds are used. Therefore, it can be said that the reproduction information is “information regarding reproduction speed”. Information indicating the playback speed may be used as the playback information. Note that the playback method and playback information are not limited to these. For example, reverse playback in which playback is performed from a frame with a later imaging time may be used as a playback method.
出力部204は、再生情報付加部203から出力された再生用RAW−HDR動画データを、現像装置300に所定のフレームレートで出力する。図5は、再生装置200から出力された再生用RAW−HDR動画データの一例を示す図である。図5に示すように、再生用RAW−HDR動画データでは、第1フレームと第2フレームが交互に並んでいる。また、各フレームにHDRメタ情報と再生情報が付加されている。再生装置200(出力部204)と現像装置300は、有線または無線で互いに接続されている。再生装置200と現像装置300を互いに接続するためのケーブルとしては、例えば、SDIケーブル、HDMIケーブル、等が使用される。SDIケーブルを用いて再生装置200が現像装置300に接続されている場合には、再生情報は、例えば、垂直ブランキング領域であ
るアンシラリー領域に付加される。なお、再生装置200と現像装置300が一体化されている場合には、内部バスを介して出力部204から現像装置300に再生用RAW−HDR動画データが伝送されてもよい。
The
図6は、現像装置300の機能構成の一例を示すブロック図である。図6に示すように、現像装置300は、入力部301、現像部302、出力部303、ユーザI/F部304、及び、制御部305を少なくとも備える。これらの機能部は、内部バス306によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス306を用いて行われる。各機能部の動作は、制御部305によって制御される。
FIG. 6 is a block diagram illustrating an example of a functional configuration of the developing
入力部301は、再生装置200から出力された再生用RAW−HDR動画データを所定のフレームレートで取得し、現像部302に出力する。現像部302は、入力部301から出力された再生用RAW−HDR動画データに現像処理(Debayer処理)を施す。RAW画像データは、撮像部102の素子配列に依存した画素値を有する。現像処理により、RAW画像データの画素値が一般的な画素値に変換される。本実施例では、RAW画像データの画素値をRGB値(サンプリング数4:4:4)に変換する現像処理が行われる。それにより、再生用RAW−HDR動画データの画素値をRGB値に変換した再生用RGB−HDR動画データが生成される。そして、現像部302は、再生用RGB−HDR動画データを出力する。なお、現像処理後の画素値はRGB値に限らない。例えば、現像処理後の画素値はYCbCr値であってもよい。
The
出力部303は、現像部302から出力された再生用RGB−HDR動画データを、画像表示装置400に所定のフレームレートで出力する。再生用RGB−HDR動画データの構造は、再生用RAW−HDR動画データ(図5)と同様である。即ち、再生用RGB−HDR動画データにも、HDRメタ情報と再生情報が付加されている。現像装置300(出力部303)と画像表示装置400は、有線または無線で互いに接続されている。現像装置300と画像表示装置400を互いに接続するためのケーブルとしては、例えば、SDIケーブル、HDMIケーブル、等が使用される。なお、現像装置300と画像表示装置400が一体化されている場合には、内部バスを介して出力部303から画像表示装置400に再生用RGB−HDR動画データが伝送されてもよい。
The
ユーザI/F部304は、現像装置300に対するユーザ操作を受け付ける。そして、ユーザI/F部304は、現像装置300に対して行われたユーザ操作を示す操作情報を、制御部305へ出力する。例えば、不図示の現像開始ボタンが押下されると、ユーザI/F部304は、現像開始ボタンが押下されたことを示す操作情報を、制御部305へ出力する。
The user I /
制御部305は、現像装置300が有する各機能部の動作を制御する。例えば、制御部305は、ユーザI/F部304からの操作情報に基づいて各機能部に指示を出力することにより、各機能部の動作を制御する。具体的には、現像開始ボタンが押下されたことを示す操作情報がユーザI/F部304から出力されると、制御部305は、現像部302に現像処理の開始を指示する。
The
図7は、画像表示装置400の機能構成の一例を示すブロック図である。図7に示すように、画像表示装置400は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、及び、合成比率決定部408を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。
FIG. 7 is a block diagram illustrating an example of a functional configuration of the
入力部401は、現像装置300から出力された再生用RGB−HDR動画データを所定のフレームレートで取得する(第1取得処理)。そして、入力部401は、取得した再生用RGB−HDR動画データを所定のフレームレートで再生情報抽出部402とHDR判断部403に出力する。なお、入力部401では、HDR動画データ以外の動画データが取得されることもある。
The
再生情報抽出部402は、入力部401からフレームデータ(1フレーム分の画像データ)が出力される度に、当該フレームデータから再生情報を抽出し(第2取得処理)、抽出した再生情報を制御部407に出力する。
Each time frame data (image data for one frame) is output from the
HDR判断部403は、入力部401からフレームデータが出力される度に、当該フレームデータからHDRメタ情報を抽出する。そして、HDR判断部403は、抽出したHDRメタ情報からHDR識別情報を取得し(第6取得処理)、入力部401によって取得された動画データが再生用RGB−HDR動画データであるか否かをHDR識別情報に応じて判断する(動画判断処理)。入力部401によって取得された動画データが再生用RGB−HDR動画データでない場合には、HDR判断部403は、入力部401からのフレームデータを画像処理部405に出力する。入力部401によって取得された動画データが再生用RGB−HDR動画データである場合には、HDR判断部403は、入力部401からのフレームデータをHDR合成部404に出力する。また、入力部401によって取得された動画データが再生用RGB−HDR動画データである場合には、HDR判断部403は、抽出したHDRメタ情報をHDR合成部404と合成比率決定部408に出力する。
Each time frame data is output from the
なお、再生用RGB−HDR動画データが画像表示装置400に入力されることが前提である場合には、第6取得処理と動画判断処理は行われなくてもよい。また、動画判断処理の方法は特に限定されない。例えば、ペア識別情報とフレーム識別情報の少なくとも一方を用いて、動画データが再生用RGB−HDR動画データであるか否かが判断されてもよい。即ち、ペア識別情報とフレーム識別情報の少なくとも一方が、HDR識別情報を兼ねていてもよい。第1フレームの露光時間は比較的長いため、第1フレームは明るいことが多い。そして、第2フレームの露光時間は比較的短いため、第2フレームは暗いことが多い。そのため、入力部401によって取得された動画データの輝度の時間変化に基づいて、当該動画データが再生用RGB−HDR動画データであるか否かを判断することもできる。
If it is assumed that the reproduction RGB-HDR moving image data is input to the
HDR合成部404は、HDR判断部403から出力されたHDRメタ情報を取得し、取得したHDRメタ情報からフレーム識別情報を取得する(第4取得処理)。そして、HDR合成部404は、HDR判断部403からのフレームデータが第1フレームのデータであるか第2フレームのデータであるかをフレーム識別情報に応じて判断する(フレーム判断処理)。即ち、本実施例では、入力部401によって取得された再生用RGB−HDR動画データの第1フレームと第2フレームが、フレーム識別情報を用いて識別される。また、HDR合成部404は、取得したHDRメタ情報からペア識別情報を取得する(第5取得処理)。そして、HDR合成部404は、入力部401によって取得された再生用RGB−HDR動画データのフレームペアを、ペア識別情報を用いて識別する(ペア識別処理)。
The
そして、HDR合成部404は、フレームペアが取得される度に、当該フレームペアの第1フレームと第2フレームを合成する合成処理を行い、合成処理の結果(合成フレームデータ)を画像処理部405に出力する。合成処理では、合成比率決定部408から出力された合成比率に応じた重みで第1フレームと第2フレームが合成される。合成処理を行うために、HDR合成部404は、フレームデータを記憶するバッファ(フレームメモリ
)を有する。再生用RGB−HDR動画データの各フレームペアについて合成処理が行われることにより、HDR合成動画データが生成される。
Then, every time a frame pair is acquired, the
合成処理では、例えば、以下の式1を用いて第1フレームと第2フレームが合成される。式1は、1つの画素位置に対する合成処理を示す。各画素位置に対して式1を用いた合成処理が行われる。式1において、Kは合成比率、L1は第1フレームの輝度値、L2は第2フレームの輝度値、Lcは合成結果(合成処理後の輝度値)を示す。Kは0以上且つ1以下の値である。
Lc=L2×K+L1×(1−K) ・・・(式1)
In the combining process, for example, the first frame and the second frame are combined using Expression 1 below. Expression 1 shows a composition process for one pixel position. A composition process using Expression 1 is performed on each pixel position. In Equation 1, K is a composition ratio, L1 is a luminance value of the first frame, L2 is a luminance value of the second frame, and Lc is a composition result (luminance value after composition processing). K is a value of 0 or more and 1 or less.
Lc = L2 * K + L1 * (1-K) (Formula 1)
なお、再生用RGB−HDR動画データにおける第1フレームと第2フレームの順番が予め定められていてもよい。そして、再生用RGB−HDR動画データにおける第1フレームと第2フレームの順番を画像表示装置400が予め把握している場合には、第4取得処理とフレーム判断処理は行われなくてもよい。また、フレーム判断処理の方法は特に限定されない。例えば、HDR判断部403からのフレームデータの輝度に基づいて、当該フレームデータが第1フレームのデータであるか第2フレームのデータであるかが判断されてもよい。また、フレームペアに含まれる第1フレームと第2フレームの順番が予め定められていてもよい。そして、フレームペアに含まれる第1フレームと第2フレームの順番を画像表示装置400が予め把握している場合には、第5取得処理とペア識別処理は行われなくてもよい。
Note that the order of the first frame and the second frame in the reproduction RGB-HDR moving image data may be determined in advance. Then, when the
画像処理部405は、HDR判断部403から出力されたフレームデータ、または、HDR合成部404から出力された合成フレームデータに所定の画像処理を施すことにより、処理フレームデータを生成する。そして、画像処理部405は、生成した処理フレームデータを表示部406に出力する。画像処理部405は、画像処理部405にフレームデータ(合成フレームデータ)が入力される度に、上述した処理を行う。所定の画像処理として、例えば、白色の輝度を変更する白輝度変更処理、階調値を変更する階調変更処理、色度を変更する色度変更処理、等が行われる。
なお、合成フレームデータ間の合成比率の差によって、合成フレームデータが一つ前の合成フレームと比べて暗くなったり明るくなったりするといった顕著な輝度変化が生じる場合がある。画像処理部405は、このような輝度変化を低減するために、輝度を増減させる画像処理を行っても良い。具体的には、合成フレームデータ間の輝度平均値の差やピーク輝度値(最大輝度値)の差を監視し、その差が所定の差以上の場合は、当該差が所定の差以下に収まるよう白輝度(白色の輝度)を変更する処理等を行ってもよい。或いは、合成フレームデータ毎に、合成比率決定部408から合成比率を取得し、その合成比率に応じて輝度を変更する処理等を行ってもよい。
The
Note that there may be a noticeable luminance change in which the composite frame data becomes darker or brighter than the previous composite frame due to the difference in the composite ratio between the composite frame data. The
表示部406は、画像処理部405から出力された処理動画データに応じた動画を画面に表示する。処理動画データは、各フレームの画像データとして処理フレームデータを有する動画データである。具体的には、表示部406は、フレームデータを記憶するバッファ(フレームメモリ)と表示パネルを有する。表示部406は、画像処理部405から処理フレームデータが出力される度に、画像処理部405から出力された処理フレームデータをバッファに記録(上書き)する。そして、表示部406は、バッファから処理フレームデータを所定のリフレッシュレートで読み出し、読み出した処理フレームデータを表示パネルに出力する。表示パネルに入力された処理フレームデータに応じて表示パネルの各表示素子が駆動され、処理フレームデータに応じた画像が表示される。表示パネルとしては、例えば、液晶パネル、有機ELパネル、プラズマパネル、等が使用される。
The
制御部407は、画像表示装置400が有する各機能部の動作を制御する。例えば、制御部407は、再生情報抽出部402から出力された再生情報を合成比率決定部408に出力することにより、合成比率決定部408の動作を制御する。なお、制御部407は、再生情報抽出部402から出力された再生情報に基づく情報を生成し、生成した情報を再生情報の代わりに出力してもよい。例えば、制御部407は、再生情報に基づいて、現在の再生方法が一時停止再生であるか否かを示す情報を生成してもよい。
The
合成比率決定部408は、制御部407からの再生情報に基づいて、合成比率Kを決定する。上述した式1に示されているように、本実施例では、合成比率Kとして、第2フレームの重みが決定される。本実施例では、合成比率決定部408は、再生情報に基づいて、現在の再生方法が一時停止再生であるか否を判断する。そして、合成比率決定部408は、現在の再生方法の判断結果に応じて、以下のように合成比率Kを決定する。合成比率決定部408は、決定した合成比率KをHDR合成部404に出力する。
現在の再生方法が通常再生である場合:K=0.5
現在の再生方法が一時停止再生である場合:K=0.8
The composition
When the current playback method is normal playback: K = 0.5
When the current playback method is pause playback: K = 0.8
このように、本実施例では、現在の再生方法が一時停止再生である場合に、現在の再生方法が通常再生である場合に比べて大きい値が第2フレームの重みとして使用されるように、合成比率Kが決定される。現在の再生方法が一時停止再生である場合に大きい値が第2フレームの重みとして使用されることにより、合成フレームデータとして、被写体のフォーカス感が高い画像を表す画像データを得ることができる。現在の再生方法が通常再生である場合の合成比率Kは、基準値(デフォルト値)であり、通常再生において被写体の自然な動きを表現可能な値である。再生方法に対応する合成比率Kの値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。 Thus, in the present embodiment, when the current playback method is pause playback, a larger value is used as the weight of the second frame than when the current playback method is normal playback. A composition ratio K is determined. When the current playback method is pause playback, a large value is used as the weight of the second frame, so that image data representing an image with a high focus on the subject can be obtained as composite frame data. The composition ratio K when the current reproduction method is normal reproduction is a reference value (default value), and is a value that can express the natural movement of the subject in normal reproduction. The value of the composition ratio K corresponding to the reproduction method may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.
なお、合成比率Kの値は、上述した値(0.5と0.8)に限らない。現在の再生方法が通常再生である場合の合成比率Kは、0.5より大きくても小さくてもよい。現在の再生方法が一時停止再生である場合の合成比率Kは、0.8より大きくても小さくてもよい。例えば、現在の再生方法が一時停止再生である場合の合成比率Kとして1が使用されてもよい。即ち、現在の再生方法が一時停止再生である場合に、第1フレームの合成比率(重み)としてゼロが使用され、第2フレームの合成比率として1が使用されてもよい。その場合、露光時間が長い第1フレームと露光時間が短い第2フレームのうち、第2のフレームのみを選択して出力する選択処理を行い、合成処理を行わなくてもよい。 Note that the value of the composition ratio K is not limited to the above-described values (0.5 and 0.8). When the current reproduction method is normal reproduction, the composition ratio K may be larger or smaller than 0.5. The combination ratio K when the current reproduction method is pause reproduction may be larger or smaller than 0.8. For example, 1 may be used as the composition ratio K when the current reproduction method is pause reproduction. That is, when the current reproduction method is pause reproduction, zero may be used as the synthesis ratio (weight) of the first frame, and 1 may be used as the synthesis ratio of the second frame. In this case, a selection process for selecting and outputting only the second frame from the first frame having a long exposure time and the second frame having a short exposure time may be performed, and the combining process may not be performed.
なお、合成比率Kとして、第2フレームの重み以外の値が決定されてもよい。例えば、合成比率Kとして、第1フレームの重みが決定されてもよい。合成比率Kとして、第1フレームの重みに対する第2フレームの重みの割合が決定されてもよい。合成比率Kとして、第2フレームの重みに対する第1フレームの重みの割合が決定されてもよい。 Note that a value other than the weight of the second frame may be determined as the composition ratio K. For example, the weight of the first frame may be determined as the combination ratio K. As the combination ratio K, the ratio of the weight of the second frame to the weight of the first frame may be determined. As the combination ratio K, the ratio of the weight of the first frame to the weight of the second frame may be determined.
なお、現在の再生方法が一時停止再生と異なる場合に基準値が合成比率Kとして使用されてもよいし、そうでなくてもよい。例えば、現在の再生方法がスロー再生である場合に、現在の再生方法が通常再生である場合に比べて大きい値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。現在の再生方法がスロー再生である場合に、現在の再生方法が一時停止再生である場合と同じ値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。現在の再生方法がスロー再生である場合に、現在の再生方法が通常再生である場合よりも大きく、且つ、現在の再生方法が一時停止再生である場合よりも小さい値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。 It should be noted that the reference value may or may not be used as the composition ratio K when the current reproduction method is different from the pause reproduction. For example, when the current playback method is slow playback, the composition ratio K is determined such that a larger value is used as the weight of the second frame than when the current playback method is normal playback. Good. When the current playback method is slow playback, the composition ratio K may be determined so that the same value as that when the current playback method is pause playback is used as the weight of the second frame. When the current playback method is slow playback, a value larger than that when the current playback method is normal playback and smaller than when the current playback method is pause playback is used as the weight of the second frame. As used, the composition ratio K may be determined.
なお、合成比率Kを決定する決定処理の方法は上記方法に限らない。例えば、現在の再生方法が一時停止再生(またはスロー再生)である場合に、第1フレームと第2フレームの輝度(HDR判断部403からのフレームデータの輝度)に基づいて、合成比率Kが決定(調整)されてもよい。現在の再生方法が一時停止再生(またはスロー再生)である場合に、第1フレームと第2フレームの露光時間に基づいて、合成比率Kが決定されてもよい。第1フレームと第2フレームの露光時間の差が小さい場合には、第2フレームの重みの増加によるフォーカス感の増加が小さい。そのため、第1フレームと第2フレームの露光時間の差が第1閾値未満である場合に、露光時間の差が第1閾値以上である場合に比べて基準値に近い値が第2フレームの重みとして使用されるように、合成比率Kが決定されてもよい。具体的には、以下のように合成比率Kが決定されてもよい。これにより、再生方法の違いによるフォーカス感の変化を低減でき、ユーザの違和感を低減することができる。これらの方法では、例えば、HDRメタ情報から露出時間情報が取得され(第3取得処理)、露出時間情報によって示された露光時間が使用される。第1閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。
現在の再生方法が通常再生である場合:K=0.5
現在の再生方法が一時停止再生であり、
且つ、露光時間の差が第1閾値以上である場合:K=0.8
現在の再生方法が一時停止再生であり、
且つ、露光時間の差が第1閾値未満である場合:K=0.6
Note that the determination processing method for determining the composition ratio K is not limited to the above method. For example, when the current playback method is pause playback (or slow playback), the composition ratio K is determined based on the brightness of the first frame and the second frame (the brightness of the frame data from the HDR determination unit 403). (Adjustment) may be performed. When the current playback method is pause playback (or slow playback), the composition ratio K may be determined based on the exposure times of the first frame and the second frame. When the difference in exposure time between the first frame and the second frame is small, the increase in focus feeling due to the increase in the weight of the second frame is small. Therefore, when the difference between the exposure times of the first frame and the second frame is less than the first threshold, the value closer to the reference value than the case where the difference between the exposure times is equal to or greater than the first threshold is the weight of the second frame. The composite ratio K may be determined to be used as Specifically, the composition ratio K may be determined as follows. Thereby, the change of the focus feeling by the difference in the reproduction | regeneration method can be reduced, and a user's discomfort can be reduced. In these methods, for example, exposure time information is acquired from the HDR meta information (third acquisition process), and the exposure time indicated by the exposure time information is used. The first threshold may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.
When the current playback method is normal playback: K = 0.5
The current playback method is pause playback,
When the difference in exposure time is greater than or equal to the first threshold: K = 0.8
The current playback method is pause playback,
When the difference in exposure time is less than the first threshold: K = 0.6
図8は、画像表示装置400の動作の一例を示すフローチャートである。ここでは、画像表示装置400に再生用RGB−HDR動画データが入力された場合の例を説明する。
FIG. 8 is a flowchart showing an example of the operation of the
まず、制御部407が、再生情報抽出部402から再生情報を取得し、取得した再生情報を合成比率決定部408に出力する(S101)。次に、合成比率決定部408が、制御部407から出力された再生情報に基づいて、現在の再生方法が一時停止再生であるか否かを判断する(S102)。そして、合成比率決定部408が、HDR判断部403から第1フレームと第2フレームの露出時間情報を取得する(S103)。次に、合成比率決定部408が、S102の判断結果とS103で取得された露出時間情報とに基づいて、合成比率Kを決定する(S104)。そして、HDR合成部404は、S104で決定された合成比率Kを用いて、第1フレームと第2フレームを合成する(S105)。S101からS105までの処理は、再生用RGB−HDR動画データの各フレームペアに対して繰り返し行われる(S106)。
First, the
図9(A),9(B)は、本実施例における表示画像(画面に表示された画像)の一例を示す図である。図9(A),9(B)の表示画像は、合成フレームデータに応じて表示された画像である。モーションキャプチャワークフローでは、まず、通常再生が設定され、ユーザによって動画が確認される。このときは、合成比率Kとして基準値が使用される。その結果、図9(A)に示すように、被写体の動きのボケがある程度残った画像が表示される。動きのボケがある程度残った画像が表示されることによって、自然な動きを表現することができる。その後、静止画データとして抽出する合成フレームデータを選定するために、スロー再生や一時停止再生が設定されたり、コマ送りが行われたりする。このときは、合成比率K(第2フレームの重み)として基準値よりも大きい値が使用される。その結果、図9(B)に示すように、被写体のフォーカス感が高い画像が表示される。フォーカス感の高い画像が表示されることにより、ユーザは、静止画データとして抽出する合成フレームデータを容易且つ適切に選定することができる。合成フレームデータの代わりに、静止画データの生成に使用するフレームペアが抽出されてもよい。 FIGS. 9A and 9B are diagrams illustrating examples of display images (images displayed on the screen) in the present embodiment. The display images in FIGS. 9A and 9B are images displayed according to the composite frame data. In the motion capture workflow, first, normal playback is set, and the moving image is confirmed by the user. At this time, a reference value is used as the composition ratio K. As a result, as shown in FIG. 9A, an image in which some blurring of the movement of the subject remains is displayed. By displaying an image in which motion blur remains to some extent, natural motion can be expressed. Thereafter, in order to select composite frame data to be extracted as still image data, slow playback or pause playback is set, or frame advance is performed. At this time, a value larger than the reference value is used as the composition ratio K (weight of the second frame). As a result, as shown in FIG. 9B, an image with a high focus feeling of the subject is displayed. By displaying an image with a high focus feeling, the user can easily and appropriately select composite frame data to be extracted as still image data. Instead of the synthesized frame data, a frame pair used for generating still image data may be extracted.
以上述べたように、本実施例によれば、第1フレームと第2フレームを合成する際に使用される合成比率が、HDR動画データの再生方法に基づいて自動で決定される。それにより、被写体の動きのボケ具合(被写体のフォーカス感)が好適なHDR合成動画データを容易に得ることができる。具体的には、再生方法を変える度に合成比率を変更するユーザの手間を省くことができ、ユーザの作業時間や負担を低減することができる(作業の効率化)。また、モーションキャプチャワークフローにおいて、ユーザは、好適な合成フレームデータやフレームペアを短時間且つ容易に選定(選別)することができる。 As described above, according to the present embodiment, the combination ratio used when combining the first frame and the second frame is automatically determined based on the method of reproducing HDR video data. As a result, it is possible to easily obtain HDR synthesized moving image data in which the degree of blur of the subject movement (the subject's focus feeling) is suitable. Specifically, it is possible to save the user's trouble of changing the composition ratio every time the reproduction method is changed, and to reduce the user's work time and burden (work efficiency). Further, in the motion capture workflow, the user can select (select) suitable composite frame data and frame pairs in a short time and easily.
なお、本実施例では、HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、再生情報、等がメタデータとして伝送される例を説明したが、これに限らない。例えば、HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、及び、再生情報の少なくともいずれかが、動画データとは別に伝送されてもよい。HDR識別情報、ペア識別情報、フレーム識別情報、露光時間情報、及び、再生情報の少なくともいずれかが、ユーザ操作に応じて取得されてもよい。ユーザ操作は、撮像装置に対するユーザ操作、再生装置に対するユーザ操作、画像表示装置に対するユーザ操作、等である。 In this embodiment, the example in which HDR identification information, pair identification information, frame identification information, exposure time information, reproduction information, and the like are transmitted as metadata has been described, but the present invention is not limited to this. For example, at least one of HDR identification information, pair identification information, frame identification information, exposure time information, and reproduction information may be transmitted separately from the moving image data. At least one of HDR identification information, pair identification information, frame identification information, exposure time information, and reproduction information may be acquired in response to a user operation. User operations include a user operation on the imaging device, a user operation on the playback device, a user operation on the image display device, and the like.
なお、本実施例では、第1フレームと第2フレームの2つのフレームを合成する例を説明したが、これに限らない。HDR動画データは、3つ以上のフレームを含むフレーム群が繰り返される動画データであってもよい。例えば、短時間露光で撮像されたフレーム、適正露光で撮像されたフレーム、及び、長時間露光で撮像されたフレームの3つのフレームを含むフレーム群が繰り返される動画データが使用されてもよい。その場合、フレーム群に含まれる3つ以上のフレームが合成されてもよい。また、HDR動画データにおいて、第1フレームと第2フレームは連続していなくてもよい。 In the present embodiment, an example in which two frames of the first frame and the second frame are combined has been described. However, the present invention is not limited to this. The HDR moving image data may be moving image data in which a frame group including three or more frames is repeated. For example, moving image data in which a frame group including three frames including a frame imaged by short exposure, a frame imaged by appropriate exposure, and a frame imaged by long exposure may be used. In that case, three or more frames included in the frame group may be combined. Further, in the HDR moving image data, the first frame and the second frame may not be continuous.
<実施例2>
以下、本発明の実施例2に係る画像処理装置及び画像処理方法について説明する。本実施例では、合成比率Kの決定方法が実施例1と異なる。以下では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。
<Example 2>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 2 of the present invention will be described. In this embodiment, the method for determining the composition ratio K is different from that in the first embodiment. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment.
図10は、本実施例に係る画像表示装置500の機能構成の一例を示すブロック図である。図10に示すように、画像表示装置500は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部508、及び、ヒストグラム取得部510を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図10において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。
FIG. 10 is a block diagram illustrating an example of a functional configuration of the
本実施例では、入力部401によって取得された動画データがHDR動画データ(再生用RGB−HDR動画データ)である場合に、HDR判断部403は、入力部401からのフレームデータをHDR合成部404とヒストグラム取得部510に出力する。また、HDR判断部403は、抽出したHDRメタ情報を、HDR合成部404、合成比率決定部508、及び、ヒストグラム取得部510に出力する。
In this embodiment, when the moving image data acquired by the
ヒストグラム取得部510は、入力部401によって取得されたHDR動画データの第1フレーム、第2フレーム、及び、フレームペアを、HDR合成部404と同様の方法で識別する。そして、ヒストグラム取得部510は、フレームペアが取得される度に、当該
フレームペアの第1フレームと第2フレームを合成する合成処理を行い、合成フレームデータの各階調値を取得する(第7取得処理)。ここでは、候補比率を合成比率Kとして用いた合成処理が行われる。具体的には、複数の候補比率のそれぞれについて、その候補比率を合成比率Kとして用いた合成処理が行われる。それにより、複数の候補比率のそれぞれについて、合成フレームデータの各階調値が取得される。候補比率は、合成比率Kの候補である。合成処理を行うために、ヒストグラム取得部510は、フレームデータを記憶するバッファ(フレームメモリ)を有する。
The
なお、候補比率を合成比率Kとして用いた合成処理はHDR合成部404で行われてもよい。そして、HDR合成部404によって生成された合成フレームデータの各階調値を取得する処理が、第7取得処理として行われてもよい。また、候補比率の値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。
Note that the synthesis process using the candidate ratio as the synthesis ratio K may be performed by the
ヒストグラム取得部510は、取得した階調値を合成比率決定部508に出力する。本実施例では、ヒストグラム取得部510は、複数の候補比率のそれぞれについて、各階調値の数を表すヒストグラムデータを生成する。そして、ヒストグラム取得部510は、生成した複数のヒストグラムデータを合成比率決定部508に出力する。なお、ヒストグラム取得部510によって取得された階調値(ヒストグラムデータ)は黒つぶれの確認に使用されるため、大きな階調値に関する情報を合成比率決定部508に出力する必要はない。そのため、第4閾値以下の階調値のみが合成比率決定部508に出力されてもよい。第4閾値以下の各階調値の数のみを表すヒストグラムデータが合成比率決定部508に出力されてもよい。第4閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。
The
合成比率決定部508は、実施例1と同様に、再生情報に基づいて合成比率Kを決定する。但し、本実施例では、入力部401に入力されたHDR動画データに基づいて、合成処理に起因した黒つぶれ(暗部階調のつぶれ)が生じないように合成比率Kが決定される(黒つぶれ抑制処理)。黒つぶれ抑制処理の方法は特に限定されない。本実施例では、合成比率決定部508は、ヒストグラム取得部510によって取得された階調値(ヒストグラムデータ)に基づいて、合成フレームデータの画素のうち階調値が第2閾値以下の画素の数が第3閾値以下となるように合成比率を決定する。第2閾値として、第4閾値より小さい値が使用される。
Similar to the first embodiment, the composition
なお、黒つぶれ抑制処理が常に行われてもよいし、再生方法が所定の再生方法である場合に限って黒つぶれ抑制処理が行われてもよい。第2フレームの重みとして大きい値を使用した場合は、第2フレームの重みとして小さい値を使用した場合に比べ、黒つぶれが発生しやすい。そのため、再生方法が一時停止再生またはスロー再生である場合に限って黒つぶれ抑制処理が行われてもよい。再生方法が一時停止再生である場合に限って黒つぶれ抑制処理が行われてもよい。再生方法がスロー再生である場合に限って黒つぶれ抑制処理が行われてもよい。また、第2閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。第3閾値は、メーカーによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。 Note that the blackout suppression processing may be performed constantly, or the blackout suppression processing may be performed only when the playback method is a predetermined playback method. When a large value is used as the weight of the second frame, blackout is more likely to occur than when a small value is used as the weight of the second frame. For this reason, the blackout suppression processing may be performed only when the playback method is pause playback or slow playback. The blackout suppression process may be performed only when the playback method is pause playback. Only when the playback method is slow playback, the blackout suppression processing may be performed. The second threshold value may be a fixed value determined in advance by the manufacturer or a value that can be changed by the user. The third threshold value may be a fixed value determined in advance by the manufacturer, or may be a value that can be changed by the user.
図11は、画像表示装置500の動作の一例を示すフローチャートである。ここでは、画像表示装置500にHDR動画データ(再生用RGB−HDR動画データ)が入力された場合の例を説明する。図11に示すように、本実施例では、S201〜S207の処理が順に行われる。S201〜S203の処理は、図8のS101〜S103の処理と同じであり、S206とS207の処理は、図8のS105とS106の処理と同じである。
FIG. 11 is a flowchart illustrating an example of the operation of the
S204では、ヒストグラム取得部510が、複数の候補比率に対応する複数のヒストグラムデータを取得し、取得した複数のヒストグラムデータを合成比率決定部508に出力する。図12(A)〜12(C)は、ヒストグラムデータの一例を示す。図12(A)〜12(C)において、縦軸は画素数を示し、横軸は階調値を示す。図12(A)は、第1の候補比率に対応するヒストグラムデータを示す。図12(B)は、第1の候補比率よりも大きい第2の候補比率に対応するヒストグラムデータを示す。そして、図12(C)は、第2の候補比率よりも大きい第3の候補比率に対応するヒストグラムデータを示す。第1の候補比率、第2の候補比率、及び、第3の候補比率は、第2フレームの重みである。図12(A)〜12(C)から、第2フレームの重みの増加に伴い黒つぶれが発生及び増加することがわかる。
In S <b> 204, the
S205では、合成比率決定部508が、S102の判断結果、S103で取得された露出時間情報、及び、S204で取得されたヒストグラムデータに基づいて、合成比率Kを決定する。現在の再生方法が一時停止再生でない場合には、基準値が合成比率Kとして決定される。現在の再生方法が一時停止再生である場合には、合成フレームデータの画素のうち階調値が第2閾値以下の画素の数が第3閾値以下となるように、基準値よりも大きい値が合成比率Kとして決定される。現在の再生方法が一時停止再生である場合のS205の処理について、図12(A)〜12(C)を用いて具体的に説明する。図12(A)では、破線で示された矩形領域内の階調値を有する画素が存在しない。図12(B)では、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数の約半分である。図12(C)では、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数よりも多い。S205では、例えば、矩形領域内の階調値を有する画素の数が、矩形領域のサイズに相当する数の半分以下になるように、合成比率Kが決定される。そのため、図12(B)に示すヒストグラムデータに対応する第2の候補比率が、合成比率Kとして決定される。
In S205, the composition
以上述べたように、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、黒つぶれの発生が抑制されるように合成比率が決定される。それにより、より高画質なHDR合成動画データを得ることができる。 As described above, according to the present embodiment, since the combination ratio is automatically determined based on the imaging information, the same effect as that of the first embodiment can be obtained. Furthermore, in this embodiment, the composition ratio is determined so that occurrence of blackout is suppressed. Thereby, HDR synthetic moving image data with higher image quality can be obtained.
なお、本実施例では、複数の候補比率を使用する例を説明したが、使用される候補比率の数は1つであってもよい。使用される候補比率が1つである場合の例を説明する。階調値が第2閾値以下の画素の数、合成比率K、及び、再生方法の対応関係が予め定められる。そして、再生情報、ヒストグラム取得部510によって取得された階調値、及び、上記対応関係に基づいて、合成比率Kが決定される。具体的には、再生情報によって示された再生方法と、ヒストグラム取得部510によって取得された階調値が第2閾値以下である画素の数との組み合わせに対応する合成比率Kが、上記対応関係から取得される。一時停止再生時にのみ黒つぶれ抑制処理が行われる場合には、階調値が第2閾値以下の画素の数と、合成比率Kとの対応関係が予め定められていればよい。その場合には、ヒストグラム取得部510によって取得された階調値が第2閾値以下である画素の数に対応する合成比率Kが、上記対応関係から取得されればよい。
In this embodiment, an example in which a plurality of candidate ratios are used has been described, but the number of candidate ratios used may be one. An example in which the number of candidate ratios used is one will be described. The correspondence relationship between the number of pixels whose gradation value is equal to or less than the second threshold, the composition ratio K, and the reproduction method is determined in advance. Then, the composition ratio K is determined based on the reproduction information, the gradation value acquired by the
<実施例3>
以下、本発明の実施例3に係る画像処理装置及び画像処理方法について説明する。以下では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。なお、以下で述べる本実施例の特徴となる構成は、実施例2や後述の実施例4の構成に組み合わせることもできる。
<Example 3>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 3 of the present invention will be described. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment. In addition, the structure which becomes the characteristic of a present Example described below can also be combined with the structure of Example 2 or Example 4 mentioned later.
図13は、本実施例に係る画像表示装置600の機能構成の一例を示すブロック図である。図13に示すように、画像表示装置600は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部408、及び、画像合成部610を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図13において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。
FIG. 13 is a block diagram illustrating an example of a functional configuration of the
本実施例では、合成比率決定部408は、決定した合成比率KをHDR合成部404と画像合成部610に出力する。また、画像処理部405は、生成した処理フレームデータ(第1処理フレームデータ)を画像合成部610に出力する。
In this embodiment, the composition
画像合成部610は、合成比率決定部408から出力された合成比率Kをユーザに通知する。本実施例では、画像合成部610は、フレームデータを記憶するバッファ(フレームメモリ)を有し、画像処理部405から出力された第1処理フレームデータをバッファに記録(上書き)する。そして、画像合成部610は、合成比率決定部408から出力された合成比率Kと、バッファに記録された第1処理フレームデータとに基づいて、合成比率画像を処理フレーム画像に重ねた画像を表すフレームデータ(第2処理フレームデータ)を生成する。合成比率画像は、合成比率を表すグラフィック画像であり、処理フレーム画像は、第1処理フレームデータによって表された画像である。具体的には、画像合成部610は、合成比率Kに基づいて、合成比率画像を表す画像データ(グラフィック画像データ)を生成する。そして、画像合成部610は、グラフィック画像データを第1処理フレームデータに合成することにより、第2処理フレームデータを生成する。その後、画像合成部610は、生成した第2処理フレームデータを表示部406に出力する。その結果、合成比率画像を処理フレーム画像に重ねた画像が表示され、合成比率がユーザに通知される。画像合成部610は、画像処理部405から処理フレームデータが出力される度に上述した処理を行う。それにより、HDR合成動画データに基づく動画に合成比率画像を重ねた動画を表す動画データが生成され、表示される。
The
図14は、本実施例に係る表示画像の一例を示す図である。図14では、合成比率画像として、合成比率Kを示すバー画像が表示されている。なお、合成比率画像は、図14に示す画像に限らない。例えば、合成比率Kの数値が記述されたテキスト画像が合成比率画像として使用されてもよい。合成比率Kの値に対応するアイコンが合成比率画像として使用されてもよい。 FIG. 14 is a diagram illustrating an example of a display image according to the present embodiment. In FIG. 14, a bar image indicating the composition ratio K is displayed as the composition ratio image. The composite ratio image is not limited to the image shown in FIG. For example, a text image in which a numerical value of the composition ratio K is described may be used as the composition ratio image. An icon corresponding to the value of the composition ratio K may be used as the composition ratio image.
以上、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、現在の合成比率がユーザに通知される。それにより、ユーザは、自身が確認している画像の合成比率を把握することができる。ユーザによって把握された合成比率は、例えば、別途行われる作業において利用される。具体的には、静止画データとして抽出された画像データを用いたレタッチ作業などにおいて、ユーザによって把握された合成比率が利用される。第1フレームと第2フレームを様々な合成比率で合成して複数の静止画データを得るために、ユーザによって把握された合成比率が利用されることもある。なお、本実施例では画像表示によって合成比率がユーザに通知される例を説明したが、ユーザへの通知方法はこれに限らない。例えば、音声やランプ(光源)からの光を用いて、合成比率がユーザに通知されてもよい。 As described above, according to the present embodiment, since the composition ratio is automatically determined based on the imaging information, it is possible to obtain the same effect as that of the first embodiment. Furthermore, in this embodiment, the current composition ratio is notified to the user. Thereby, the user can grasp the composition ratio of the images that he / she has confirmed. The composition ratio grasped by the user is used in work performed separately, for example. Specifically, the composition ratio grasped by the user is used in a retouching operation using image data extracted as still image data. In order to obtain a plurality of still image data by synthesizing the first frame and the second frame at various synthesis ratios, the synthesis ratio grasped by the user may be used. In this embodiment, the example in which the user is notified of the composition ratio by image display has been described. However, the method of notifying the user is not limited to this. For example, the synthesis ratio may be notified to the user using sound or light from a lamp (light source).
<実施例4>
以下、本発明の実施例4に係る画像処理装置及び画像処理方法について説明する。以下
では、実施例1と異なる構成や処理について詳しく説明し、実施例1と同じ構成や処理についての説明は省略する。本実施例に係る画像表示システムの構成は、実施例1と同じである。また、本実施例に係る撮像装置、再生装置、及び、現像装置の構成も、実施例1と同じである。なお、以下で述べる本実施例の特徴となる構成は、実施例2や実施例3の構成に組み合わせることもできる。
<Example 4>
Hereinafter, an image processing apparatus and an image processing method according to Embodiment 4 of the present invention will be described. Hereinafter, configurations and processes different from those of the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted. The configuration of the image display system according to the present embodiment is the same as that of the first embodiment. The configurations of the imaging device, the reproduction device, and the developing device according to the present embodiment are the same as those of the first embodiment. In addition, the structure which is the characteristic of the present embodiment described below can be combined with the structure of the second and third embodiments.
図15は、本実施例に係る画像表示装置700の機能構成の一例を示すブロック図である。図15に示すように、画像表示装置700は、入力部401、再生情報抽出部402、HDR判断部403、HDR合成部404、画像処理部405、表示部406、制御部407、合成比率決定部408、比率情報生成部710、及び、出力部711を少なくとも備える。これらの機能部は、内部バス409によって互いに接続されている。これらの機能部間のデータの送受信は、内部バス409を用いて行われる。各機能部の動作は、制御部407によって制御される。なお、図15において、実施例1(図7)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。
FIG. 15 is a block diagram illustrating an example of a functional configuration of the
本実施例では、HDR判断部403は、抽出したHDRメタ情報をHDR合成部404、合成比率決定部408、及び、比率情報生成部710に出力する。また、合成比率決定部408は、決定した合成比率Kを、HDR合成部404と比率情報生成部710に出力する。
In this embodiment, the
比率情報生成部710は、HDR判断部403から出力されたHDRメタ情報に、合成比率決定部408から出力された合成比率Kを付加する(関連付ける)ことにより、比率情報を生成する。また、比率情報生成部710は、比率情報(合成比率Kが付加されたHDRメタ情報)を記憶するバッファを有し、比率情報をバッファに記録(上書き)する。そして、比率情報生成部710は、制御部407からの指示に応じて、比率情報をバッファから読み出して出力部711に出力する。制御部407は、例えば、ユーザ操作に応じて、比率情報の出力を比率情報生成部710に指示する。なお、HDRメタ情報は使用されなくてもよい。合成比率Kを表す情報であれば、どのような情報が比率情報として生成されてもよい。但し、合成比率Kがフレームペアに関連付けられた情報が比率情報として使用されることが好ましい。
The ratio
出力部711は、比率情報生成部710から出力された比率情報を外部に出力する。例えば、出力部711は、比率情報をファイル形式で外部に出力することにより、画像表示装置700に接続された外部装置である記憶装置に比率情報を記録する。記憶装置としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等が使用される。半導体メモリとしては、例えば、SDカードが使用される。比率情報用の記憶部を画像表示装置700が有し、比率情報生成部710から出力された比率情報が記憶部に記録されてもよい。比率情報を外部に出力する出力処理と、比率情報を記憶部(画像表示装置700に設けられた記憶部、外部装置である記憶装置、等)に記録する記録処理との一方が行われてもよいし、そうでなくてもよい。出力処理と記録処理の両方が行われてもよい。なお、複数のフレームペアのそれぞれに関する比率情報が出力されたり記録されたりしてもよい。
The
以上述べたように、本実施例によれば、撮像情報に基づいて合成比率が自動で決定されるため、実施例1と同様の効果を得ることができる。さらに、本実施例では、合成比率を表す比率情報が、外部に出力されたり、記憶部に記録されたりする。出力または記録された合成比率は、例えば、別途行われる作業において利用される。具体的には、静止画データとして抽出された画像データを用いたレタッチ作業などにおいて、出力または記録された合成比率が利用される。第1フレームと第2フレームを様々な合成比率で合成して複数の静止画データを得るために、出力または記録された合成比率が利用されることもある。 As described above, according to the present embodiment, since the combination ratio is automatically determined based on the imaging information, the same effect as that of the first embodiment can be obtained. Furthermore, in the present embodiment, ratio information indicating the combination ratio is output to the outside or recorded in the storage unit. The output or recorded composition ratio is used, for example, in work performed separately. Specifically, in the retouching operation using image data extracted as still image data, the output or recorded composition ratio is used. In order to obtain a plurality of still image data by synthesizing the first frame and the second frame at various synthesis ratios, an output or recorded synthesis ratio may be used.
<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
400,500,600,700:画像表示装置 401:入力部
402:再生情報抽出部 404:HDR合成部 408,508:合成比率決定部
400, 500, 600, 700: image display device 401: input unit 402: reproduction information extraction unit 404:
Claims (19)
前記動画データの再生速度に関する情報である再生情報を取得する第2取得手段と、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成手段と、
を有し、
前記合成手段は、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率を変更する
ことを特徴とする画像処理装置。 First acquisition means for acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
Second acquisition means for acquiring reproduction information that is information relating to the reproduction speed of the moving image data;
Combining means for combining the first frame and the second frame based on the reproduction information;
Have
The image processing apparatus according to claim 1, wherein the combining unit changes a combining ratio of the first frame and the second frame in accordance with a reproduction speed of the moving image data.
ことを特徴とする請求項1に記載の画像処理装置。 In the synthesizing unit, when the reproduction information related to the first reproduction speed is acquired by the second acquisition unit, the reproduction information related to the second reproduction speed higher than the first reproduction speed is acquired by the second acquisition unit. The image processing apparatus according to claim 1, wherein a larger value than the case is determined as a composition ratio of the second frame.
ことを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the reproduction information related to the first reproduction speed is reproduction information indicating a pause of the moving image data.
ことを特徴とする請求項3に記載の画像処理装置。 The synthesis means determines zero as the synthesis ratio of the first frame and 1 as the synthesis ratio of the second frame when reproduction information related to the first playback speed is acquired by the second acquisition means. The image processing apparatus according to claim 3, wherein:
ことを特徴とする請求項2〜4のいずれか1項に記載の画像処理装置。 The combining means determines the combining ratio based on exposure times of the first frame and the second frame when reproduction information related to the first reproduction speed is acquired by the second acquisition means. The image processing apparatus according to any one of claims 2 to 4.
前記第2再生速度に関する再生情報が前記第2取得手段によって取得された場合に、基準値を前記第2フレームの合成比率として決定し、
前記第1再生速度に関する再生情報が前記第2取得手段によって取得され、且つ、前記第1フレームと前記第2フレームの露光時間の差が第1閾値未満である場合に、前記第1フレームと前記第2フレームの露光時間の差が前記第1閾値以上である場合に比べて前記基準値に近い値を、前記第2フレームの合成比率として決定する
ことを特徴とする請求項5に記載の画像処理装置。 The synthesis means includes
When reproduction information related to the second reproduction speed is acquired by the second acquisition unit, a reference value is determined as a synthesis ratio of the second frame;
When the reproduction information related to the first reproduction speed is acquired by the second acquisition means, and the difference in exposure time between the first frame and the second frame is less than a first threshold, the first frame and the 6. The image according to claim 5, wherein a value closer to the reference value compared to a case where a difference in exposure time of the second frame is equal to or greater than the first threshold is determined as a composition ratio of the second frame. Processing equipment.
前記合成手段は、前記第1再生速度に関する再生情報が前記第2取得手段によって取得された場合に、前記時間情報を用いて前記合成比率を決定する
ことを特徴とする請求項5または6に記載の画像処理装置。 A third acquisition means for acquiring time information indicating an exposure time of each frame of the moving image data;
7. The composition unit according to claim 5 or 6, wherein when the reproduction information related to the first reproduction speed is acquired by the second acquisition unit, the combination unit determines the combination ratio using the time information. Image processing apparatus.
前記合成手段は、前記第1フレームと前記第2フレームを、前記フレーム識別情報を用
いて識別する
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。 A fourth acquisition means for acquiring frame identification information for identifying the first frame and the second frame;
The image processing apparatus according to claim 1, wherein the synthesizing unit identifies the first frame and the second frame using the frame identification information.
前記合成手段は、前記フレームペアを、前記ペア識別情報を用いて識別する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。 A fifth acquisition means for acquiring pair identification information for identifying a frame pair including the first frame and the second frame;
The image processing apparatus according to claim 1, wherein the synthesizing unit identifies the frame pair using the pair identification information.
ことを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。 10. The apparatus according to claim 1, further comprising a determination unit that determines whether the moving image data acquired by the first acquisition unit includes the first frame and the second frame. The image processing apparatus described.
前記判断手段は、前記動画識別情報に応じて、前記第1取得手段によって取得された動画データが前記第1フレームと前記第2フレームを含むか否かを判断する
ことを特徴とする請求項10に記載の画像処理装置。 Further comprising sixth acquisition means for acquiring moving image identification information indicating whether or not the moving image data acquired by the first acquisition means includes the first frame and the second frame;
11. The determination unit according to claim 10, wherein the determination unit determines whether the moving image data acquired by the first acquisition unit includes the first frame and the second frame according to the moving image identification information. An image processing apparatus according to 1.
ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。 The composition unit determines the composition ratio based on the moving image data so as not to cause blackout due to composition of the first frame and the second frame. The image processing apparatus according to any one of the above.
前記合成手段は、前記第7取得手段によって取得された各階調値に基づいて、前記第1フレームと前記第2フレームを合成した後の階調値が第2閾値以下の画素の数が第3閾値以下となるように、前記合成比率を決定する
ことを特徴とする請求項12に記載の画像処理装置。 A seventh acquisition means for acquiring each gradation value of a frame obtained by combining the first frame and the second frame according to a candidate ratio that is a candidate for the combination ratio;
The synthesizing unit is configured such that, based on each tone value acquired by the seventh acquiring unit, the number of pixels whose tone value after combining the first frame and the second frame is equal to or less than a second threshold is third. The image processing apparatus according to claim 12, wherein the composition ratio is determined so as to be equal to or less than a threshold value.
ことを特徴とする請求項1〜13のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising notification means for notifying a user of the composition ratio.
ことを特徴とする請求項1〜14のいずれか1項に記載の画像処理装置。 A moving image based on the combined moving image data based on the combined moving image data based on the combined moving image data obtained by combining the first frame and the second frame and the combined ratio. The image processing apparatus according to claim 1, further comprising generation means for generating moving image data representing a moving image superimposed on the screen.
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an output unit configured to output ratio information representing the synthesis ratio to the outside.
ことを特徴とする請求項1〜16のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a recording unit that records ratio information representing the synthesis ratio in a storage unit.
前記動画データの再生速度に関する情報である再生情報を取得する第2取得ステップと、
前記再生情報に基づいて、前記第1フレームと前記第2フレームとを合成する合成ステップと、
を有し、
前記合成ステップでは、前記動画データの再生速度に応じて、前記第1フレームと前記第2フレームとの合成比率が変更される
ことを特徴とする画像処理方法。 A first acquisition step of acquiring moving image data including a first frame obtained by imaging and a second frame obtained by imaging with an exposure time shorter than the first frame;
A second acquisition step of acquiring reproduction information which is information relating to the reproduction speed of the moving image data;
A combining step of combining the first frame and the second frame based on the reproduction information;
Have
In the composition step, the composition ratio of the first frame and the second frame is changed according to the reproduction speed of the moving image data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/185,213 US9819873B2 (en) | 2015-06-25 | 2016-06-17 | Image-processing apparatus and image-processing method |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015127843 | 2015-06-25 | ||
| JP2015127843 | 2015-06-25 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017011676A true JP2017011676A (en) | 2017-01-12 |
Family
ID=57764180
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016078863A Pending JP2017011676A (en) | 2015-06-25 | 2016-04-11 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017011676A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019029954A (en) * | 2017-08-03 | 2019-02-21 | オリンパス株式会社 | Image processing system and image processing method |
| JP2021114696A (en) * | 2020-01-17 | 2021-08-05 | キヤノン株式会社 | Image processing device, image processing method and program |
-
2016
- 2016-04-11 JP JP2016078863A patent/JP2017011676A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019029954A (en) * | 2017-08-03 | 2019-02-21 | オリンパス株式会社 | Image processing system and image processing method |
| JP2021114696A (en) * | 2020-01-17 | 2021-08-05 | キヤノン株式会社 | Image processing device, image processing method and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10440285B2 (en) | Imaging apparatus and imaging method | |
| US8804004B2 (en) | Imaging apparatus, image control method, and storage medium storing program | |
| US9819873B2 (en) | Image-processing apparatus and image-processing method | |
| JP2013046259A (en) | Video apparatus, control method, and program | |
| CN110012227B (en) | Image processing method, device, storage medium and electronic device | |
| US20100141823A1 (en) | Image Processing Apparatus And Electronic Appliance | |
| US11184551B2 (en) | Imaging apparatus and control method thereof | |
| KR20120034412A (en) | Digital photographing apparatus and control method thereof | |
| US8547479B2 (en) | Display apparatus and control method thereof | |
| JP2012119761A (en) | Electronic apparatus, image processing method and program | |
| KR20120083085A (en) | Digital photographing apparatus and control method thereof | |
| KR20150002478A (en) | Moving image generating apparatus, moving image generating method, and computer readable recording medium having a computer program | |
| CN110278375B (en) | Image processing method, device, storage medium and electronic device | |
| US8068144B2 (en) | Image recording and reproducing apparatus | |
| JP5197801B2 (en) | Movie reproduction system and photographing apparatus | |
| JP4912113B2 (en) | Light source state detection apparatus and method, and imaging apparatus | |
| JP6152009B2 (en) | Imaging apparatus, imaging method, program, and recording medium | |
| US10348957B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium for shooting a still image without interrupting shooting of moving images | |
| JP2014107837A (en) | Imaging apparatus, image processing system, and control method | |
| JP2017011676A (en) | Image processing apparatus and image processing method | |
| JP6210772B2 (en) | Information processing apparatus, imaging apparatus, control method, and program | |
| JP6075829B2 (en) | IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
| JP2012100022A (en) | Image processing system | |
| JP5332668B2 (en) | Imaging apparatus and subject detection program | |
| JP2017151141A (en) | Image display device, image display system, information processing device, control method for image display device, and information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |