JP2014036297A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2014036297A JP2014036297A JP2012175828A JP2012175828A JP2014036297A JP 2014036297 A JP2014036297 A JP 2014036297A JP 2012175828 A JP2012175828 A JP 2012175828A JP 2012175828 A JP2012175828 A JP 2012175828A JP 2014036297 A JP2014036297 A JP 2014036297A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing unit
- unit
- luminance
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 61
- 230000001186 cumulative effect Effects 0.000 claims abstract description 20
- CNQCVBJFEGMYDW-UHFFFAOYSA-N lawrencium atom Chemical compound [Lr] CNQCVBJFEGMYDW-UHFFFAOYSA-N 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 129
- 239000000203 mixture Substances 0.000 description 20
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
夜景などの暗いシーンを撮影するとき、一般に光量不足を補うために長時間露光が行われる。一般的な長時間露光においては、露光中にどのような画像が取得されているのかを、その長時間の露光が終了した後でなければ確認できない。そこで、例えば特許文献1には、長時間露光の途中で、長時間露光中に加算された画像を適当なタイミング毎に表示する撮像装置に係る技術が開示されている。
When shooting a dark scene such as a night view, a long exposure is generally performed in order to compensate for a shortage of light. In general long-time exposure, what kind of image is acquired during exposure can be confirmed only after the long-time exposure is completed. Therefore, for example,
長時間露光等のように画像を加算すれば暗い被写体についても適正露出が得られる。また、特許文献1に開示されているように、露光中に加算画像が表示されれば、画像を確認しながら希望の輝度の画像を撮影しやすい。しかしながら、被写体輝度に差があるとき、一部については適正露出でも、他の部分について露出がオーバーになったりアンダーになったりする。
Appropriate exposure can be obtained even for a dark subject by adding images such as long exposure. Further, as disclosed in
そこで本発明は、領域によって適正露出が異なる被写体に対してもユーザが所望する露出レベルの画像が得られる撮像装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image pickup apparatus that can obtain an image with an exposure level desired by a user even for a subject whose appropriate exposure varies depending on a region.
前記目的を果たすため、本発明の一態様によれば、撮像装置は、被写体を撮像して順次画像を出力する撮像部と、タッチされた位置を検出するタッチパネルと、前記タッチパネルがタッチされた第1の領域に応じて前記画像の輝度を変更させた加工画像を順次作成する画像加工部と、前記加工画像を順次加算して累積画像を順次作成する加算部と、前記タッチパネルに対応して設けられ、前記累積画像を表示する表示部と、を具備する。 In order to achieve the above object, according to an aspect of the present invention, an imaging apparatus includes: an imaging unit that images a subject and sequentially outputs an image; a touch panel that detects a touched position; Provided in correspondence with the touch panel, an image processing unit that sequentially creates a processed image in which the luminance of the image is changed according to one region, an addition unit that sequentially adds the processed images and sequentially creates a cumulative image And a display unit for displaying the accumulated image.
本発明によれば、領域によって適正露出が異なる被写体に対してもユーザが所望する露出レベルの画像が得られる撮像装置を提供できる。 According to the present invention, it is possible to provide an imaging apparatus capable of obtaining an image having an exposure level desired by a user even for a subject whose proper exposure varies depending on a region.
[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。本実施形態に係るデジタルカメラ100の構成例を図1に示す。デジタルカメラ100は、レンズ101と絞り102と撮像素子103とA/D変換部104と画像取込制御部106と撮像制御部114とを備える。被写体像はレンズ101及び絞り102を介して撮像素子103に入射する。撮像素子103は、光電変換を行い被写体像に応じたアナログ画像信号を生成する。撮像素子103で生成されたアナログ画像信号は、A/D変換部104に入力され、A/D変換部104でデジタル画像信号に変換される。撮像素子103及びA/D変換部104は、撮像制御部114の制御下で動作する。画像取込制御部106及び撮像制御部114は、バス105に接続されている。画像取込制御部106は、デジタル画像信号を取り込み、バス105を介して画像信号を各部に送信する。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings. A configuration example of a
また、デジタルカメラ100は、CPU107とROM112とRAM113とを備える。これらCPU107、ROM112及びRAM113は、バス105を介して互いに接続されている。ROM112は、デジタルカメラ100の各種制御のためのプログラム等を記録している。CPU107は、ROM112に記録されたプログラムを用いて、デジタルカメラ100の各部の制御を行う。例えばCPU107は、前述の撮像制御部114等による制御の指令も行う。RAM113は、CPU107や後述の画像処理部120等による処理に係る演算結果や画像データを一時記憶する。
The
また、デジタルカメラ100は、モニタ108とタッチパネル109と表示制御部110とタッチパネル制御部111とを備える。表示制御部110及びタッチパネル制御部111は、それぞれバス105に接続されている。モニタ108は、例えば液晶表示素子や有機ELディスプレイ等の表示素子を含む。モニタ108の動作は、表示制御部110によって制御される。モニタ108には、画像取込制御部106を介して取得されて後述の画像処理部120で処理された画像や、デジタルカメラ100の各種制御のためのメニュー画像などが表示される。タッチパネル109は、モニタ108上に配置され、ユーザのタッチ入力を取得する。タッチパネル109の動作は、タッチパネル制御部111によって制御され、タッチパネル109への入力は、初めにタッチパネル制御部111によって処理される。タッチパネル制御部111によって処理されたタッチの有無やタッチされた位置に係る判定結果は、CPU107や画像処理部120に出力される。
The
デジタルカメラ100には、記録部I/F115が設けられている。記録部I/F115は、バス105に接続されている。記録部I/F115には、着脱自在な記録部116が接続される。記録部116は、一般的な記録メディアである。撮影された処理済みの画像データ等が記録部116に記録され、また、記録部116から読み出される。
The
デジタルカメラ100は、画像処理部120を備える。画像処理部120は、画像取込制御部106から取得した画像を処理する。処理後の画像は、モニタ108に表示されたり、記録部116に記録されたりする。画像処理部120は、一般的にデジタルカメラで行われる画像処理を行うことができる。さらに本実施形態に係る画像処理部120は、画像加工部122と、基準輝度設定部124と、輝度判定部126と、加算部128とを有する。画像加工部122は、タッチパネル109から入力された位置に基づいて、画像取込制御部106から取り込んだ画像を加工して加工画像データを作成する。画像加工部122は、例えば、取り込んだ画像のうち、タッチされた位置に係る輝度を低下させたりタッチされていない領域の輝度を低下させたりして加工画像データを作成する。基準輝度設定部124は、後述の累積画像のタッチされた位置に係る輝度を基準輝度値に設定する。輝度判定部126は、基準輝度設定部124が設定した基準輝度値と後述の加算部128で加算された累積画像の輝度とを比較する。加算部128は、画像取込制御部106から取得した画像や、画像加工部122で加工された加工画像を加算して、累積画像を作成する。加算部128は、処理モードによっては、累積画像の輝度が基準輝度値に到達したときに、画像の加算を停止する。
The
本実施形態に係るデジタルカメラ100の動作を説明する。本実施形態に係るカメラ制御の一例を図2に示すフローチャートを参照して説明する。ステップS101においてCPU107は、撮影モードが選択されているか否かを判定する。撮影モードが選択されているとき、処理はステップS102に進む。ステップS102においてCPU107は、デジタルカメラ100の各部の初期設定を行う。
An operation of the
ステップS103においてCPU107は、バルブ撮影モードが選択されているか否かを判定する。バルブ撮影が選択されていないと判定されたとき、処理はステップS104に進む。ステップS104においてCPU107は、通常の撮影を行う通常撮像処理を行う。通常撮像処理では、例えばレリーズ操作が行われたときに、CPU107で算出された露光条件に基づいて撮像がおこなわれ、画像ファイルが作成されるといった、一般的な撮像動作が行われる。通常撮像処理についての説明は省略する。通常撮像処理の後、処理はステップS101に戻る。
In step S103, the
ステップS103においてバルブ撮影が選択されていると判定されたとき、処理はステップS105に進む。ステップS105においてCPU107は、モニタ108へのスルー画表示を開始させる。ステップS106においてCPU107は、レリーズ操作が行われたか否かを判定する。レリーズ操作が行われていないと判定されたとき、処理はステップS106を繰り返す。レリーズ操作が行われたと判定されたとき、処理はステップS107に進む。本実施形態では、例えばレリーズボタンが1度押圧されたとき、処理はステップS107に進み、露光が開始される。
If it is determined in step S103 that bulb shooting has been selected, the process proceeds to step S105. In step S <b> 105, the
ステップS107においてCPU107は、露光を開始させる。ステップS108においてCPU107は、露光量のコントロール方法を判定する。コントロール方法がオートであるとき、処理はステップS109に進む。コントロール方法がセミオートであるとき、処理はステップS110に進む。コントロール方法がマニュアルであるとき、処理はステップS111に進む。コントロール方法は、例えばデジタルカメラ100に設けられたつまみ等によって入力されてもよいし、例えばモニタ108に表示された各コントロール方法のうちから、タッチパネル109を用いて選択されてもよい。
In step S107, the
ステップS109において画像処理部120は、オート処理を行う。オート処理によるオートモードでは、露光量に係る情報として、タッチパネル109が1回タッチされる入力を受け付ける。画像におけるタッチされた場所の輝度が撮影者が希望する輝度であるとして、他の被写体についても、タッチされた部分と同等の明るさになるように、露光時間が調整される。
In step S109, the image processing unit 120 performs auto processing. In the auto mode by the auto process, an input for touching the
オート処理の一例について、図3に示されるフローチャートを参照して説明する。ステップS201において画像処理部120は、撮像データを取得する。ステップS202において画像処理部120は、本撮影において既にタッチパネル109の何れかの場所がタッチされたか否かを判定する。いまだにタッチされていないと判定されたとき、処理はステップS204に進む。一方、既にタッチされたと判定されたとき、処理はステップS203に進む。ステップS203において画像処理部120は、後述するブレンドパラメータに基づいて、ステップS201で取得した撮像データを加工して、加工画像データを作成する撮像データ加工処理を行う。
An example of auto processing will be described with reference to the flowchart shown in FIG. In step S201, the image processing unit 120 acquires imaging data. In step S202, the image processing unit 120 determines whether any location on the
ステップS204において画像処理部120は、ループ処理となっているこのオート処理における前回の処理において生成された累積画像データに今回の撮像データを加算して、累積画像データを作成する。すなわち、ステップS202の判定においてタッチされていないと判定されたときは、ステップS201で取得された撮像データを加算する。一方、ステップS202の判定においてタッチされたと判定されたときは、ステップS203で加工された撮像データを加算する。なお、このオート処理における初回の処理では、加算は行われず、ステップS201で取得された撮像データをそのまま累積画像データとする。 In step S <b> 204, the image processing unit 120 adds the current imaging data to the cumulative image data generated in the previous process in the auto process, which is a loop process, and creates cumulative image data. That is, when it is determined in step S202 that it is not touched, the imaging data acquired in step S201 is added. On the other hand, when it is determined in step S202 that the touch has been made, the imaging data processed in step S203 is added. In the first process in the auto process, no addition is performed, and the imaging data acquired in step S201 is used as accumulated image data as it is.
ステップS205において画像処理部120は、ステップS204で作成された累積画像データに含まれる輝度値が、後述の基準輝度値に到達したか否かを判定する。基準輝度値に到達したと判定されたとき、処理は図2を参照して説明しているカメラ制御に戻る。一方、ステップS205において基準輝度値に到達していないと判定されたとき、処理はステップS206に進む。 In step S205, the image processing unit 120 determines whether or not the luminance value included in the accumulated image data created in step S204 has reached a reference luminance value described later. When it is determined that the reference luminance value has been reached, the processing returns to the camera control described with reference to FIG. On the other hand, when it is determined in step S205 that the reference luminance value has not been reached, the process proceeds to step S206.
ステップS206において画像処理部120は、撮影間隔だけ待ち処理を行う。この間に、撮像素子103において電荷の蓄積が行われる。ステップS207において画像処理部120は、タッチパネル109がタッチされたか否かを判定する。タッチされていないと判定されたとき、処理はステップS201に戻る。一方、タッチされたと判定されたとき、処理はステップS208に進む。ステップS208において画像処理部120は、本撮影において既にタッチパネル109がタッチされたか否かを判定する。既にタッチされたと判定されたとき、処理はステップS201に戻る。一方、いまだにタッチされていないと判定されたとき、処理はステップS209に進む。
In step S <b> 206, the image processing unit 120 performs a waiting process for the shooting interval. During this time, charges are accumulated in the
ステップS209において画像処理部120は、ブレンドパラメータ生成処理を行う。ブレンドパラメータ生成処理について、図4に示されるフローチャートを参照して説明する。ステップS301において画像処理部120は、基準輝度値を決定する。ここで、基準輝度値は、例えば以下のようにして決定される。画像処理部120は、まず、タッチパネル制御部111からタッチされた位置を取得する。画像処理部120は、タッチされた位置を中心として画像の横幅の例えば10%の長さを直径とする円内の輝度値の分布を表すヒストグラムを作成する。例えば当該円とこの円を含む領域の各画素の輝度値が図5に示されるようになっているとする。このとき、作成されるヒストグラムは、例えば図6に示されるようになる。ここで、画像処理部120は、輝度が高い方から検索して、最初に表れる山の最低輝度値、すなわち、図6において矢印Sで示される輝度値を、基準輝度値として決定する。
In step S209, the image processing unit 120 performs blend parameter generation processing. The blend parameter generation process will be described with reference to the flowchart shown in FIG. In step S301, the image processing unit 120 determines a reference luminance value. Here, the reference luminance value is determined as follows, for example. First, the image processing unit 120 acquires a touched position from the touch
ステップS302において画像処理部120は、加算フラグを設定する。例えば、画像処理部120は、タッチされた位置を中心として画像の横幅の例えば10%の長さを直径とする円の内部に含まれる画素について加算フラグを0に設定し、その円の外部に含まれる画素について加算フラグを1に設定する。加算フラグは、例えば図7に示されるようになる。ここで、図7に示される円は、タッチされた位置を中心として画像の横幅の10%の長さを直径とする円を表すものとする。ステップS302の後、処理は、図3を参照して説明しているオート処理に戻る。 In step S302, the image processing unit 120 sets an addition flag. For example, the image processing unit 120 sets the addition flag to 0 for a pixel included in a circle whose diameter is, for example, 10% of the horizontal width of the image with the touched position as the center, and outside the circle. The addition flag is set to 1 for the included pixels. For example, the addition flag is as shown in FIG. Here, the circle shown in FIG. 7 represents a circle having a diameter of 10% of the horizontal width of the image with the touched position as the center. After step S302, the process returns to the auto process described with reference to FIG.
ステップS209におけるブレンドパラメータ生成処理の後、処理はステップS210に進む。ステップS210において画像処理部120は、モニタ108に表示されている画像にタッチ位置を表示させる。すなわち、加算フラグが0になっている領域が明示される。その後処理はステップS201に戻る。ブレンドパラメータが設定されたら、ステップS203において画像処理部120は、例えば図7に示されるような加算フラグに基づいて、撮像データを加工する。すなわち、例えば図8にフローチャートを示すような処理が行われる。
After the blend parameter generation process in step S209, the process proceeds to step S210. In step S <b> 210, the image processing unit 120 displays the touch position on the image displayed on the
ステップS401において画像処理部120は、画像内の画素について順に処理を行うため、対象画素を更新する。ステップS402において画像処理部120は、全ての画素について処理が行われたか否かを判定する。全ての処理が行われたと判定されたとき、処理は図3を参照して説明したオート処理に戻る。全ての画素について処理が行われていないと判定されたとき、処理はステップS403に進む。ステップS403において画像処理部120は、加算フラグが0であるか否かを判定する。加算フラグが0でないとき、処理はステップS401に戻る。加算フラグが0であるとき、処理はステップS404に進む。ステップS404において画像処理部120は、当該画素の輝度値を0に変更する。その後、処理はステップS401に戻る。 In step S401, the image processing unit 120 updates the target pixel in order to sequentially process the pixels in the image. In step S402, the image processing unit 120 determines whether or not processing has been performed for all pixels. When it is determined that all the processes have been performed, the process returns to the auto process described with reference to FIG. When it is determined that processing has not been performed for all pixels, the processing proceeds to step S403. In step S403, the image processing unit 120 determines whether or not the addition flag is zero. If the addition flag is not 0, the process returns to step S401. When the addition flag is 0, the process proceeds to step S404. In step S404, the image processing unit 120 changes the luminance value of the pixel to 0. Thereafter, the process returns to step S401.
撮像データ加工処理によって、ステップS201で取得された画像データのうち、加算フラグが1である画素については輝度値が維持され、加算フラグが0である画素については輝度値が0とされた加工画像としての加工された撮像データが作成される。ステップS204では、このような加工された撮像データが加算される。すなわち、加算フラグが0である、タッチされた領域に係る画素については、累積画像の輝度は増加せずに、タッチされていない領域に係る画素については、累積画像の輝度は増加することになる。また、ステップS205では、ステップS301で決定された基準輝度値に基づいて、累積画像データが基準輝度値に到達したか否かが判定される。 Of the image data acquired in step S201 by the imaging data processing, the brightness value is maintained for the pixel whose addition flag is 1, and the brightness value is 0 for the pixel whose addition flag is 0. As a result, processed image data is created. In step S204, such processed image data is added. In other words, the luminance of the cumulative image does not increase for the pixels related to the touched area where the addition flag is 0, and the luminance of the cumulative image increases for the pixels related to the non-touched area. . In step S205, it is determined whether or not the accumulated image data has reached the reference luminance value based on the reference luminance value determined in step S301.
以上説明したオート処理の動作結果の例を図面を参照して説明する。例えば図9に示されるような夜景であってAで示される月とBで示される建物とCで示される夜空とが含まれるシーンを考える。この時、Aで示される月は明るく、Cで示される夜空は暗く、Bで示される建物は、月と夜空との間の輝度を有する。このようなシーンをオートモードで撮影した場合、累積画像は例えば図10に示されるようになる。 An example of the operation result of the automatic processing described above will be described with reference to the drawings. For example, consider a scene as shown in FIG. 9 including a moon indicated by A, a building indicated by B, and a night sky indicated by C. At this time, the moon indicated by A is bright, the night sky indicated by C is dark, and the building indicated by B has a luminance between the moon and the night sky. When such a scene is shot in the auto mode, the accumulated image is as shown in FIG. 10, for example.
時間経過とともに撮像データが加算されて累積画像データが作成されるので、図10(a)乃至(c)のように画像全体の輝度が増加していく。図10(c)に示される段階で、月の部分がタッチされたとする。このとき、撮影者は、例えば図11に示されるように、デジタルカメラ100が固定されている状態で、自身の指でタッチパネル109の月が表示されている部分をタッチする。このとき、ブレンドパラメータ生成処理において、月の明るさに基づいて、基準輝度値が決定される。また、ブレンドパラメータ生成処理において、タッチされた位置に基づいて、例えば図10(c)において円A1で囲まれた部分は加算フラグが0に設定され、円A1の外部は加算フラグが1に設定される。したがって、図10(c)以降においては、図10(c)乃至(e)のように、円A1の内部は撮像データが加算されないので輝度は変化せず、円A1の外部は撮像データが加算されて時間経過と共に輝度が上昇していく。
As the image data is added over time and accumulated image data is created, the luminance of the entire image increases as shown in FIGS. Assume that the month portion is touched at the stage shown in FIG. At this time, for example, as shown in FIG. 11, the photographer touches the part of the
やがて、図10(e)に示されるように、建物部分の代表輝度値が、基準輝度値に設定された月部分の輝度値に達したとき、撮像データの加算が終えられ、オート処理が終了する。このように、オートモードによれば、図10(e)に示されるように、月も建物も適当な輝度である画像が得られる。なお、図10(e)のような画像が得られるまでの時間は、例えば10秒程度等である。 Eventually, as shown in FIG. 10E, when the representative luminance value of the building portion reaches the luminance value of the moon portion set as the reference luminance value, the addition of the imaging data is finished, and the automatic processing is finished. To do. In this way, according to the auto mode, as shown in FIG. 10E, an image having appropriate brightness for both the moon and the building can be obtained. Note that the time until an image as shown in FIG. 10E is obtained is, for example, about 10 seconds.
図2に戻って説明を続ける。ステップS110において画像処理部120は、セミオート処理を行う。セミオート処理について図12を参照して説明する。ステップS501において画像処理部120は、撮像データを取得する。ステップS502において画像処理部120は、本撮影において既にタッチパネル109がタッチされたか否かを判定する。いまだにタッチされていないと判定されたとき、処理はステップS504に進む。一方、既にタッチされたと判定されたとき、処理はステップS503に進む。ステップS503において画像処理部120は、後述する第1乃至第nのブレンドパラメータに基づいて、ステップS501で取得した撮像データを加工する。
Returning to FIG. 2, the description will be continued. In step S110, the image processing unit 120 performs a semi-auto process. The semi-auto process will be described with reference to FIG. In step S501, the image processing unit 120 acquires imaging data. In step S502, the image processing unit 120 determines whether or not the
ステップS504において画像処理部120は、前回の累積画像データに今回の撮像データを加算して、累積画像データを作成する。すなわち、ステップS502の判定においてタッチされていないと判定されたときは、ステップS501で取得された撮像データを加算する。一方、ステップS502の判定においてタッチされたと判定されたときは、ステップS503で加工された撮像データを加算する。なお、このセミオート処理における初回の処理では、加算は行われず、ステップS501で取得された撮像データをそのまま累積画像データとする。 In step S504, the image processing unit 120 adds the current imaging data to the previous accumulated image data to create accumulated image data. That is, when it is determined in step S502 that it is not touched, the imaging data acquired in step S501 is added. On the other hand, if it is determined in step S502 that the touch has been made, the imaging data processed in step S503 is added. In the first process in the semi-auto process, no addition is performed, and the imaging data acquired in step S501 is used as accumulated image data as it is.
ステップS505において画像処理部120は、ステップS504で作成された累積画像データに含まれる輝度値が、基準輝度値に到達したか否かを判定する。基準輝度値に到達したと判定されたとき、処理は図2を参照して説明しているカメラ制御に戻る。一方、基準輝度値に到達していないと判定されたとき、処理はステップS506に進む。 In step S505, the image processing unit 120 determines whether or not the luminance value included in the accumulated image data created in step S504 has reached the reference luminance value. When it is determined that the reference luminance value has been reached, the processing returns to the camera control described with reference to FIG. On the other hand, when it is determined that the reference luminance value has not been reached, the process proceeds to step S506.
ステップS506において画像処理部120は、撮影間隔だけ待ち処理を行う。ステップS507において画像処理部120は、タッチパネル109がタッチされたか否かを判定する。タッチされていないと判定されたとき、処理はステップS501に戻る。一方、タッチされたと判定されたとき、処理はステップS508に進む。ステップS508において画像処理部120は、変数nにn+1を代入する。ステップS509において画像処理部120は、第nのブレンドパラメータについてブレンドパラメータ生成処理を行う。ブレンドパラメータ生成処理は、図4を参照して説明した処理と同様である。ステップS510において画像処理部120は、モニタ108に表示されている画像にタッチ位置を表示させる。すなわち、加算フラグが0になっている領域が明示される。その後、処理はステップS501に戻る。
In step S506, the image processing unit 120 performs a waiting process for the shooting interval. In step S507, the image processing unit 120 determines whether or not the
図8に示したようなシーンをセミオートモードで撮影した場合、累積画像は例えば図13に示されるようになる。すなわち、時間経過とともに撮像データが加算されて累積画像データが作成されるので、図13(a)乃至(c)のように画像全体の輝度が増加していく。図13(c)に示される段階で、月の部分が初めてタッチされたとする。このとき、ブレンドパラメータ生成処理によって第1のブレンドパラメータが決定される。すなわち、月の明るさに基づいて、基準輝度値が決定される。また、タッチされた位置に基づいて、例えば図13(c)において円A2で囲まれた部分は加算フラグが0に設定され、円A2の外部は加算フラグが1に設定される。これ以降、加算フラグが1である円A2の外部だけ輝度が上昇していく。 When a scene as shown in FIG. 8 is shot in the semi-auto mode, the accumulated image is as shown in FIG. 13, for example. That is, as the image data is added over time and cumulative image data is created, the luminance of the entire image increases as shown in FIGS. Assume that the moon portion is touched for the first time at the stage shown in FIG. At this time, the first blend parameter is determined by the blend parameter generation process. That is, the reference luminance value is determined based on the brightness of the moon. Further, based on the touched position, for example, the addition flag is set to 0 for the portion surrounded by the circle A2 in FIG. 13C, and the addition flag is set to 1 outside the circle A2. Thereafter, the luminance increases only outside the circle A2 where the addition flag is 1.
続いて、例えば図13(d)において、建物の部分がタッチされたとする。このとき、ブレンドパラメータ生成処理によって第2のブレンドパラメータが決定される。すなわち、建物の明るさに基づいて、基準輝度値が決定される。また、タッチされた位置に基づいて、例えば図13(d)において円B2で囲まれた部分は加算フラグが0に設定される。これ以降、加算フラグが1である円A2の外部かつ円B2の外部だけ輝度が上昇していく。 Subsequently, for example, in FIG. 13D, it is assumed that a building portion is touched. At this time, the second blend parameter is determined by the blend parameter generation process. That is, the reference luminance value is determined based on the brightness of the building. Further, based on the touched position, for example, the addition flag is set to 0 in a portion surrounded by a circle B2 in FIG. Thereafter, the luminance increases only outside the circle A2 where the addition flag is 1 and outside the circle B2.
やがて、図13(e)に示されるように、星部分の代表輝度値が、基準輝度値に設定された建物部分の輝度値に達したとき、撮像データの加算を終えて、セミオート処理が終了する。このように、セミオートモードによれば、図13(e)に示されるように、月も建物も星も撮影者が望む適当な輝度である画像が得られる。 Eventually, as shown in FIG. 13E, when the representative luminance value of the star portion reaches the luminance value of the building portion set as the reference luminance value, the addition of the imaging data is finished, and the semi-automatic processing is finished. To do. In this way, according to the semi-auto mode, as shown in FIG. 13E, an image having an appropriate brightness desired by the photographer for the moon, the building, and the star can be obtained.
なお、上記の説明では、加算フラグが1である領域の代表輝度値が基準輝度値に達したときに撮像データの加算が終了する例を示したが、撮像データの加算は、撮影者の指定によって終了するように構成されてもよい。例えば、撮影者がレリーズボタンを押圧したときに撮像データの加算が終了するように構成されてもよい。 In the above description, the example in which the addition of the imaging data ends when the representative luminance value of the region where the addition flag is 1 reaches the reference luminance value is shown. May be configured to end. For example, the addition of imaging data may be completed when the photographer presses the release button.
図2に戻って説明を続ける。ステップS111において画像処理部120は、マニュア処理を行う。マニュアル処理について図14を参照して説明する。ステップS601において画像処理部120は、撮像データを取得する。ステップS602において画像処理部120は、マニュアルブレンドパラメータ生成処理を行う。マニュアルブレンドパラメータ生成処理について、図15に示すフローチャートを参照して説明する。 Returning to FIG. 2, the description will be continued. In step S111, the image processing unit 120 performs a manual process. Manual processing will be described with reference to FIG. In step S601, the image processing unit 120 acquires imaging data. In step S602, the image processing unit 120 performs manual blend parameter generation processing. The manual blend parameter generation process will be described with reference to the flowchart shown in FIG.
ステップS701において画像処理部120は、覆い焼きモードであるか焼き込みモードであるかを判定する。覆い焼きモードであるか焼き込みモードであるかは、例えばマニュアルモードが選択されたときに、モニタ108に選択肢が表示され、タッチパネル109の入力によって選択されるように構成され得る。覆い焼きモードであるとき、処理はステップS702に進む。一方、焼き込みモードであるとき、処理はステップS703に進む。
In step S701, the image processing unit 120 determines whether the dodging mode or the burning mode is set. Whether the dodging mode or the burning mode is selected can be configured such that, for example, when the manual mode is selected, options are displayed on the
ステップS702において画像処理部120は、タッチパネル109への入力を取得し、タッチされているとき、例えばタッチされた位置を中心として画像の横幅の例えば10%の長さを直径とする円が移動した範囲の内側の加算フラグを0に、その範囲の外側の加算フラグを1に設定する。タッチパネル109がタッチされていないとき、画像処理部120は、全ての加算フラグを1に設定する。その後、処理は図14を参照して説明しているマニュアル処理に戻る。
In step S <b> 702, the image processing unit 120 acquires an input to the
ステップS703において画像処理部120は、タッチパネル109への入力を取得し、タッチされているとき、例えばタッチされた位置を中心として画像の横幅の例えば10%の長さを直径とする円が移動した範囲の内側の加算フラグを1に、その範囲の外側の加算フラグを0に設定する。タッチパネル109がタッチされていないとき、画像処理部120は、全ての加算フラグを0に設定する。その後、処理は図14を参照して説明しているマニュアル処理に戻る。
In step S703, the image processing unit 120 acquires an input to the
ここで、円が移動した範囲とは、例えば図16に示されるようになる。すなわち、例えばn−1番目の撮像データの取得時にタッチされていた位置に基づいて算出される円T(n−1)と、n番目の撮像データの取得時にタッチされていた位置に基づいて算出される円T(n)とを結ぶ領域を、円が移動した範囲とする。このようにタッチされた位置が移動した場合の範囲の設定は、マニュアルモードに限らず、オートモードやセミオートモードにおいても用いられてもよい。 Here, the range of movement of the circle is as shown in FIG. 16, for example. That is, for example, the calculation is based on the circle T (n−1) calculated based on the position touched when the n−1th imaging data is acquired and the position touched when the nth imaging data is acquired. A region connecting the circle T (n) to be used is a range in which the circle has moved. The setting of the range when the touched position is moved in this way is not limited to the manual mode, but may be used in the auto mode or the semi-auto mode.
図14に戻って説明を続ける。ステップS603において画像処理部120は、ステップS602において生成されたブレンドパラメータに基づいて、撮像データ加工処理を行う。ステップS604において画像処理部120は、ステップS603で生成された撮像データを累積画像データに加算して、新たな累積画像データを作成する。 Returning to FIG. 14, the description will be continued. In step S603, the image processing unit 120 performs imaging data processing based on the blend parameter generated in step S602. In step S604, the image processing unit 120 adds the imaging data generated in step S603 to the cumulative image data to create new cumulative image data.
ステップS605において画像処理部120は、露光終了であるか否かを判定する。すなわち、例えば、モニタ108に表示された露光終了の表示がタッチされたり、レリーズボタンの押圧が解除されたり、再びレリーズボタンが押圧されたとき、露光終了であるとする。ステップS605において露光終了であると判定されたとき、処理は図2を参照して説明しているカメラ制御処理に戻る。一方、露光終了でないと判定されたとき、処理はステップS606に進む。ステップS606において画像処理部120は、撮影間隔だけ待ち処理を行う。その後、処理はステップS601に戻る。
In step S605, the image processing unit 120 determines whether or not the exposure has ended. That is, for example, when the exposure end display displayed on the
上記のようなマニュアルモードによれば、例えば次のようになる。覆い焼きモードによれば、例えば図17に示されるように、モニタ108に表示された月の上でタッチパネル109が擦られると、擦られた月の部分の輝度が上昇せずに、その他の領域の輝度のみ上昇し、得られる画像において月が明るくなり過ぎることが防がれる。また、焼き込みモードによれば、例えば図18に示されるように、人の部分が擦られたとき、人の部分のみがより明るくされ得る。このように、マニュアルモードによれば、撮影者の意図がより細かく画像に反映され得る。
According to the manual mode as described above, for example, it is as follows. According to the dodging mode, for example, as shown in FIG. 17, when the
図2に戻って、カメラ制御処理について説明を続ける。ステップS109、ステップS110又はステップS111の後、処理はステップS112に進む。ステップS112においてCPU107は、露光を終了する。ステップS113においてCPU107は、作成された累積画像データを記録部116に記録する。その後、処理はステップS101に戻る。
Returning to FIG. 2, the description of the camera control process will be continued. After step S109, step S110, or step S111, the process proceeds to step S112. In step S112, the
ステップS101に判定において、撮影モードでないと判定されたとき、処理はステップS121に進む。ステップS121においてCPU107は、モニタ108に、記録部116に記録された画像について、サムネイル表示をさせる。ステップS122においてCPU107は、画像が選択されたか否かを判定する。選択されていないと判定されたとき、処理はステップS124に進む。画像が選択されたと判定されたとき、処理はステップS123に進む。ステップS123においてCPU107は、選択された画像をモニタ108に拡大して表示させる。その後、処理はステップS124に進む。ステップS124においてCPU107は、再生動作の終了が指示されたか否かを判定する。再生動作が終了していないとき、処理はステップS121に戻る。再生動作が終了しているとき、処理はステップS101に戻る。
If it is determined in step S101 that the shooting mode is not selected, the process proceeds to step S121. In step S121, the
以上のように、本実施形態によれば、長時間露光において、画像情報が加算される経過がモニタ108に表示されるので、撮影者は画像の輝度を確認しながら撮影を行うことができる。さらに、オートモードやセミオートモードが選択されているとき、画像において特定の部位の輝度が所望の輝度に達したら、撮影者はタッチパネル109を操作することでその部位がそれ以上明るくなりすぎることを防止させることができる。また、画像情報が加算されることで、タッチした部位以外の領域の輝度がタッチされた領域の輝度まで明るくなり、撮影者の意図する画像が得られる。また、撮影者はマニュアルモードを選択することで、画像の各部の輝度をより細かく調整する撮影を行うことができる。
As described above, according to the present embodiment, in the long-time exposure, the progress of the addition of the image information is displayed on the
このように、例えばレンズ101、絞り102及び撮像素子103は、被写体を撮像して順次画像を出力する撮像部として機能する。例えばタッチパネル109は、タッチされた位置を検出するタッチパネルとして機能する。例えば画像加工部122は、前記タッチパネルがタッチされた第1の領域に応じて前記画像の輝度を変更させた加工画像を順次作成する画像加工部として機能する。例えば加算部128は、前記加工画像を順次加算して累積画像を順次作成する加算部として機能する。例えばモニタ108は、前記タッチパネルに対応して設けられ、前記累積画像を表示する表示部として機能する。例えば基準輝度設定部124は、前記累積画像における前記第1の領域に係る輝度を基準輝度として取得する基準輝度取得部として機能する。例えば輝度判定部126は、前記累積画像の前記第2の領域に含まれない第3の領域の輝度が前記基準輝度に達したか否かを判定する輝度判定部として機能する。
As described above, for example, the
なお、上述の説明では、タッチされた位置に係る円の内外で加算フラグを0又は1にする2値を用いた制御が行われている。しかしながらこれに限らず、当該円の縁が目立たなくなるように、タッチされた位置からの距離に応じて滑らかに輝度が変化するように、画像データが加工されてもよい。また、上述した各処理の順序は一例であり、処理可能な範囲で処理順は交換され得ることはもちろんである。 In the above description, control using binary values for setting the addition flag to 0 or 1 is performed inside or outside the circle related to the touched position. However, the present invention is not limited to this, and the image data may be processed so that the luminance changes smoothly according to the distance from the touched position so that the edge of the circle is not noticeable. Moreover, the order of each process mentioned above is an example, and it is needless to say that the process order can be exchanged within a processable range.
[第2の実施形態]
本発明の第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態では、第1の実施形態のような露光量の調整を撮影後に行う。本実施形態に係るカメラ制御処理を図19を参照して説明する。
[Second Embodiment]
A second embodiment of the present invention will be described. Here, differences from the first embodiment will be described, and the same portions will be denoted by the same reference numerals and description thereof will be omitted. In the present embodiment, the exposure amount is adjusted after shooting as in the first embodiment. Camera control processing according to the present embodiment will be described with reference to FIG.
ステップS801においてCPU107は、撮影モードであるか否かを判定する。撮影モードであると判定されたとき、処理はステップS802に進む。ステップS802においてCPU107は、デジタルカメラ100の初期設定を行う。ステップS803においてCPU107は、露光情報記録モードであるか否かを判定する。露光情報記録モードでないと判定されたとき、処理はステップ804に進む。ステップS804においてCPU107は、通常の撮影処理を行う。この処理は本実施形態と直接関係ないので、説明を省略する。
In step S801, the
ステップS803において露光情報記録モードであると判定されたとき、処理はステップS805に進む。ステップS805においてCPU107は、モニタ108にスルー画表示を開始させる。ステップS806においてCPU107は、レリーズ操作がされているか否かを判定する。レリーズ操作がされていないと判定されたとき、処理はステップS806を繰り返す。レリーズ操作がされたと判定されたとき、処理はステップS807に進む。
If it is determined in step S803 that the exposure information recording mode is set, the process advances to step S805. In step S805, the
ステップS807において画像処理部120は、所定期間における経過時間毎の露光量を仮記憶する。すなわち、画像処理部120は、適正露光時間を超える十分な期間における、所定の間隔毎に露光量を取得し、経過時間と露光量との関係をRAM113に仮記憶させる。ステップS808において画像処理部120は、ステップS807において仮記憶された露光情報に基づいて、経過時間に従って順に画像を加算していく。ステップS809において画像処理部120は、加算した結果の画像が適正露出となったか否かを判定する。適正露出でないとき、ステップS808に戻り、適正露出になるまで画像情報の加算を繰り返す。
In step S807, the image processing unit 120 temporarily stores an exposure amount for each elapsed time in a predetermined period. That is, the image processing unit 120 acquires the exposure amount at predetermined intervals in a sufficient period exceeding the appropriate exposure time, and temporarily stores the relationship between the elapsed time and the exposure amount in the
ステップS809の判定において適正露出であると判定されたとき、処理はステップS810に進む。ステップS810において画像処理部120は、加算した結果として得られた画像をJPEGファイル化し、記録部116に記録させる。ステップS811において画像処理部120は、ステップS810において記録した画像のサムネイル画像を作成し、ステップS810で記録した画像と関連付けてそのサムネイル画像を記録させる。ステップS812において画像処理部120は、ステップS807で仮記憶している経過時間と露光量との関係を、加算前データとしてステップS810で記録した画像と関連付けて記録させる。その後処理はステップS801に戻る。
If it is determined in step S809 that the exposure is appropriate, the process proceeds to step S810. In step S <b> 810, the image processing unit 120 converts the image obtained as a result of the addition into a JPEG file and records it in the
ステップS801において撮影モードでないと判定されたとき、処理はステップS821に進む。ステップS821においてCPU107は、モニタ108に、記録部116に記録された画像について、サムネイル表示をさせる。ステップS822においてCPU107は、画像が選択されたか否かを判定する。選択されていないと判定されたとき、処理はステップS825に進む。画像が選択されたと判定されたとき、処理はステップS823に進む。ステップS823においてCPU107は、選択された画像をモニタ108に拡大して表示させる。その後、処理はステップS824に進む。
If it is determined in step S801 that the shooting mode is not selected, the process proceeds to step S821. In step S821, the
ステップS824においてCPU107は、修正があるか否かを判定する。CPU107は、例えばモニタ108に修正を希望するか否かの選択肢を表示させ、タッチパネル109を用いた撮影者の入力を取得し、修正の希望の有無を判定する。修正がないと判定されたとき、処理はステップS825に進む。ステップS825においてCPU107は、再生動作の終了が指示されたか否かを判定する。再生動作が終了していないとき、処理はステップS821に戻る。再生動作の終了が指示されたと判定されたとき、処理はステップS801に戻る。
In step S824, the
ステップS824の判定で、修正があると判定されたとき、処理はステップS831に進む。ステップS831において画像処理部120は、修正処理を行う。修正処理について図20に示すフローチャートを参照して説明する。ステップS901において画像処理部120は、選択画像の初期化を行う。ステップS902において画像処理部120は、選択画像と関連付けられて記録部116に記録されている加算前データを取得する。ステップS903において画像処理部120は、記録された経過時間に従って加算前データを順に加算して累積画像データを作成する。画像処理部120は、作成した累積画像データに基づいて、画像をモニタ108に表示させる。
If it is determined in step S824 that there is a correction, the process proceeds to step S831. In step S831, the image processing unit 120 performs correction processing. The correction process will be described with reference to the flowchart shown in FIG. In step S901, the image processing unit 120 initializes the selected image. In step S902, the image processing unit 120 acquires pre-addition data recorded in the
ステップS904において画像処理部120は、タッチパネル109がタッチされたか否かを判定する。タッチされていないと判定されたとき、処理はステップS903に戻る。一方、タッチされたと判定されてとき、処理はステップS905に進む。すなわち、タッチパネル109がタッチされるまで、徐々にモニタ108に表示される累積画像は輝度が増していく。
In step S904, the image processing unit 120 determines whether the
ステップS905において画像処理部120は、覆い焼きモードが選択されたか焼き込みモードが選択されたかを判定する。覆い焼きモードが選択されたとき、処理はステップS906に進む。ステップS906において画像処理部120は、タッチ位置に係る範囲の内側の加算フラグを0に設定し、外側の加算フラグを1に設定する。その後、処理はステップS908に進む。ステップS905において、焼き込みモードであると判定されたとき、処理はステップS907に進む。ステップS907において画像処理部120は、タッチ位置に係る範囲の内側の加算フラグを1に設定し、外側の加算フラグを0に設定する。その後、処理はステップS908に進む。 In step S905, the image processing unit 120 determines whether the dodging mode is selected or the burning mode is selected. When the dodging mode is selected, the process proceeds to step S906. In step S906, the image processing unit 120 sets the addition flag inside the range related to the touch position to 0, and sets the outside addition flag to 1. Thereafter, the process proceeds to step S908. If it is determined in step S905 that the burning mode is set, the process proceeds to step S907. In step S907, the image processing unit 120 sets the addition flag inside the range related to the touch position to 1, and sets the outside addition flag to 0. Thereafter, the process proceeds to step S908.
ステップS908において画像処理部120は、累積画像データに加算フラグが1である画素についての加算前データを加算する。ステップS909において画像処理部120は、修正処理の終了の指示が入力されたか否かを判定する。終了でないとき、処理はステップS905に戻る。一方、終了であると判定されたとき、処理は図19を参照して説明しているカメラ制御処理に戻る。 In step S908, the image processing unit 120 adds the pre-addition data for the pixel whose addition flag is 1 to the accumulated image data. In step S909, the image processing unit 120 determines whether an instruction to end the correction process has been input. If not, the process returns to step S905. On the other hand, when it is determined that the process is finished, the process returns to the camera control process described with reference to FIG.
図19に戻って説明を続ける。ステップS832において画像処理部120は、加算した結果として得られた累積画像データに係る画像をJPEGファイル化し、記録部116に記録させる。ステップS833において画像処理部120は、ステップS832において記録した画像のサムネイル画像を作成し、ステップS832で記録した画像と関連付けてそのサムネイル画像を記録させる。その後処理はステップS801に戻る。
Returning to FIG. 19, the description will be continued. In step S832, the image processing unit 120 converts the cumulative image data obtained as a result of the addition into a JPEG file and causes the
本実施形態によれば、例えば撮影時に、順に加算すると図21に示される図21(a)乃至(e)のような累積画像が得られる加算前データが取得されたとする。このとき、撮影時には図21(d)に相当する図22のような画像が適正露光であるとして、累積画像として記録部116に記録されたとする。図22のような画像が再生された際に、ユーザが人物の部分をさらに明るくしたいと考えたとする。このとき、修正処理においてユーザは、モニタ108に表示される図21(a)乃至(d)のように徐々に全体の輝度が増していく画像を見ながら、図21(d)が表示された時点でタッチパネル109を1度タッチし、画像全体の輝度を決定する。さらに、ユーザは、焼き込みモードを選択して人物部分を擦ると擦った量に応じて人物部分の輝度が上昇した図21(e)のような画像が作成される。ユーザは、このようにして作成された画像を記録部116に記録させることができる。
According to the present embodiment, it is assumed that, for example, pre-addition data that obtains cumulative images as shown in FIGS. 21A to 21E shown in FIG. At this time, it is assumed that an image as shown in FIG. 22 corresponding to FIG. 21D at the time of shooting is recorded in the
以上のように本実施形態によれば、撮影時のみならず画像再生時にも輝度の部分的な修正を行うことができる。第1の実施形態のように撮影時に露光の調整を行う構成では、夜景等の暗いシーンであって、露光時間による輝度の変化がゆっくりでありこの変化に応じてタッチパネル109を操作できるシーンの撮影でなければ用いるのが困難である。これに対して本実施形態では、加算前データが加算される処理がゆっくりなされることによって、例えば図21(a)乃至(e)のような画像の変化をゆっくりとモニタ108に表示させ、明るいシーンの画像においても部分的に露光の調整が行われ得る。
As described above, according to the present embodiment, partial correction of luminance can be performed not only during shooting but also during image reproduction. In the configuration in which exposure adjustment is performed at the time of shooting as in the first embodiment, the scene is a dark scene such as a night view, and the change in luminance depending on the exposure time is slow, and the
なお、上記の説明では、第1の実施形態におけるマニュアルモードに類似する覆い焼きや焼き込みを行う例を示したが、第1の実施形態のオートモードやセミオートモードに類似する処理が再生時にも行われ得るようにしてもよい。このように、第1の実施形態は、撮影時にリアルタイムで行うのみならず、撮像データが蓄積されていれば撮影後にも行われ得る。 In the above description, an example of performing dodging or burning similar to the manual mode in the first embodiment has been shown, but processing similar to the auto mode or semi-auto mode in the first embodiment is also performed during playback. It may be performed. As described above, the first embodiment can be performed not only in real time at the time of shooting, but also after shooting as long as imaging data is accumulated.
なお、本実施形態は、第1の実施形態と組み合わせて、夜景などの撮影時に画像の輝度が調整でき、さらに明るいシーンの撮影を含めて再生時にも画像の輝度が調整できるように構成されてもよいことはもちろんである。 Note that this embodiment is configured in combination with the first embodiment so that the brightness of an image can be adjusted during shooting of a night scene, and the brightness of an image can also be adjusted during playback including shooting of a bright scene. Of course it is good.
100…デジタルカメラ、101…レンズ、103…撮像素子、104…D変換部、105…バス、106…画像取込制御部、107…CPU、108…モニタ、109…タッチパネル、110…表示制御部、111…タッチパネル制御部、112…ROM、113…RAM、114…撮像制御部、115…記録部I/F、116…記録部、120…画像処理部、122…画像加工部、124…基準輝度設定部、126…輝度判定部、128…加算部。
DESCRIPTION OF
Claims (7)
タッチされた位置を検出するタッチパネルと、
前記タッチパネルがタッチされた第1の領域に応じて前記画像の輝度を変更させた加工画像を順次作成する画像加工部と、
前記加工画像を順次加算して累積画像を順次作成する加算部と、
前記タッチパネルに対応して設けられ、前記累積画像を表示する表示部と、
を具備する撮像装置。 An imaging unit that images a subject and sequentially outputs images;
A touch panel for detecting the touched position;
An image processing unit that sequentially creates a processed image in which the brightness of the image is changed according to a first region touched by the touch panel;
An adder that sequentially adds the processed images and sequentially creates a cumulative image;
A display unit provided corresponding to the touch panel and displaying the accumulated image;
An imaging apparatus comprising:
前記累積画像の前記第2の領域に含まれない第3の領域の輝度が前記基準輝度に達したか否かを判定する輝度判定部と、
をさらに具備し、
前記加算部は、前記輝度判定部が前記第3の領域の輝度が前記基準輝度に達したと判定したとき、前記加算を終了する、
請求項2に記載の撮像装置。 A reference luminance setting unit that acquires the luminance related to the first region in the cumulative image as a reference luminance;
A luminance determination unit that determines whether the luminance of a third region not included in the second region of the cumulative image has reached the reference luminance;
Further comprising
The addition unit ends the addition when the luminance determination unit determines that the luminance of the third region has reached the reference luminance.
The imaging device according to claim 2.
前記加算部は、前記加工画像の加算を、前記撮像部による前記被写体の前記撮像に従ったリアルタイムで行う、
請求項1乃至5のうち何れか1項に記載の撮像装置。 The image processing unit performs creation of the processed image in real time according to the imaging of the subject by the imaging unit,
The addition unit adds the processed image in real time according to the imaging of the subject by the imaging unit.
The imaging device according to any one of claims 1 to 5.
請求項1乃至5のうち何れか1項に記載の撮像装置。 The image processing unit creates the processed image based on the image for each series of elapsed time recorded in the recording unit,
The imaging device according to any one of claims 1 to 5.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012175828A JP2014036297A (en) | 2012-08-08 | 2012-08-08 | Imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012175828A JP2014036297A (en) | 2012-08-08 | 2012-08-08 | Imaging apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014036297A true JP2014036297A (en) | 2014-02-24 |
Family
ID=50285036
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012175828A Pending JP2014036297A (en) | 2012-08-08 | 2012-08-08 | Imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014036297A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018148420A (en) * | 2017-03-06 | 2018-09-20 | オリンパス株式会社 | Image processing device and image processing method |
-
2012
- 2012-08-08 JP JP2012175828A patent/JP2014036297A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018148420A (en) * | 2017-03-06 | 2018-09-20 | オリンパス株式会社 | Image processing device and image processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4787180B2 (en) | Imaging apparatus and imaging method | |
| KR20120122677A (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method | |
| JP2009171220A (en) | Imaging apparatus and control method thereof | |
| JP2016114668A (en) | Imaging apparatus, and control method and program | |
| CN106856555B (en) | Digital image processing apparatus and its control method | |
| JP6643109B2 (en) | Imaging device, control method thereof, and program | |
| JP2013150210A (en) | Photographing device | |
| JP2014017579A (en) | Imaging device, image processing method, and image processing program | |
| JP6137800B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| WO2014119655A1 (en) | Imaging device, image processing method, image processing program, and recording medium | |
| JP2010130097A (en) | Imaging apparatus, control method therefor and program | |
| JP2012098594A (en) | Imaging apparatus and imaging method | |
| KR102345767B1 (en) | Image capturing control apparatus, control method, and storage medium | |
| JP2008072410A (en) | Imaging apparatus, cellular phone, imaging control method, imaging control program, and program recording medium | |
| JP2014036297A (en) | Imaging apparatus | |
| JP2017229032A (en) | Imaging apparatus, control method thereof and program | |
| JP2005352164A (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
| US11985420B2 (en) | Image processing device, image processing method, program, and imaging device | |
| JP5826953B2 (en) | Photographing equipment and photographing method | |
| JP6225463B2 (en) | Imaging apparatus, imaging method, and recording medium | |
| JP6039410B2 (en) | Image processing apparatus and image processing method | |
| KR20110060299A (en) | Digital photographing apparatus, control method thereof, and computer readable medium | |
| EP2605504A2 (en) | Method and apparatus for reproducing image, and computer-readable storage medium | |
| JP5700072B2 (en) | Imaging apparatus and imaging method | |
| JP5963440B2 (en) | Imaging apparatus and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |