JP2015186037A - Image processing device, control method, and program - Google Patents
Image processing device, control method, and program Download PDFInfo
- Publication number
- JP2015186037A JP2015186037A JP2014060794A JP2014060794A JP2015186037A JP 2015186037 A JP2015186037 A JP 2015186037A JP 2014060794 A JP2014060794 A JP 2014060794A JP 2014060794 A JP2014060794 A JP 2014060794A JP 2015186037 A JP2015186037 A JP 2015186037A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- specific information
- subject
- image
- subject distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、制御方法およびプログラムに関し、特にフレームが光線空間情報で構成される動画像の再生技術に関する。 The present invention relates to an image processing apparatus, a control method, and a program, and more particularly, to a moving image reproduction technique in which a frame includes light space information.
近年、撮影後に任意の被写体距離に合焦させることができるカメラとして、ライトフィールドカメラが提案されている。ライトフィールドカメラは、被写体からの反射光束の強度分布をその入射方向の情報とともに光線空間情報(Light Field Information)として記録できることが知られている。 In recent years, a light field camera has been proposed as a camera that can focus on an arbitrary subject distance after shooting. It is known that a light field camera can record the intensity distribution of a reflected light beam from a subject as light field information together with information on the incident direction.
光線空間情報を記録可能な構成には、撮像素子の前面に複数のマイクロレンズを配置し、一つのマイクロレンズに対して複数の画素を対応づけることにより、瞳領域を通過した光束を分離して記録するようにしたものがある。光線空間情報は入射方向ごとに反射光束の強度分布を有するため、該情報から任意の被写体距離の面における反射光束の強度分布を再現することができる。従って、光線空間情報を用いて任意の被写体距離に合焦した画像(再構成画像)を、光線空間情報の記録後に生成(再構成)することができる。 In the configuration capable of recording light space information, a plurality of microlenses are arranged in front of the image sensor, and a plurality of pixels are associated with one microlens to separate the light flux that has passed through the pupil region. There is something to be recorded. Since the light space information has the intensity distribution of the reflected light beam for each incident direction, the intensity distribution of the reflected light beam on the surface at an arbitrary subject distance can be reproduced from the information. Therefore, an image focused on an arbitrary subject distance (reconstructed image) using the light space information can be generated (reconstructed) after the light space information is recorded.
特許文献1は、再構成画像を用いたオートフォーカス機能を実現する技術を開示している。該技術では、取得した光線空間情報から合焦する被写体距離が異なる複数の再構成画像を生成し、生成した再構成画像について被写体に対する合焦状態を評価する。そして、合焦状態が最も合焦に近い再構成画像を特定することにより、適切な被写体距離に対応したフォーカスを制御する。光線空間情報から複数の再構成画像を生成することによって、光学系を駆動して複数の画像を撮像する動作が不要となり、フォーカス制御の迅速化を図ることができる。 Patent Document 1 discloses a technique for realizing an autofocus function using a reconstructed image. In this technique, a plurality of reconstructed images having different subject distances to be focused are generated from the acquired light space information, and the in-focus state with respect to the subject is evaluated for the generated reconstructed images. Then, the focus corresponding to the appropriate subject distance is controlled by specifying the reconstructed image whose in-focus state is closest to the in-focus state. By generating a plurality of reconstructed images from the light space information, an operation of driving the optical system to pick up a plurality of images becomes unnecessary, and the focus control can be speeded up.
ライトフィールドカメラによって取得した光線空間情報から被写体が好適な合焦状態となる再構成画像を得るには、合焦する被写体距離が異なる多数の再構成画像を生成して各再構成画像における被写体の合焦状態を評価する必要がある。このため、再構成画像の生成や合焦状態を評価するために多くの処理時間を必要とする。 In order to obtain a reconstructed image in which the subject is in a suitable focus state from the light space information acquired by the light field camera, a large number of reconstructed images with different subject distances to be focused are generated, and the subject in each reconstructed image is generated. It is necessary to evaluate the in-focus state. For this reason, much processing time is required in order to generate a reconstructed image and to evaluate the in-focus state.
ところで、例えば静止画像用に記録された光線空間情報から再構成画像を生成する場合等、生成後には再構成画像の表示処理以外の処理を行う必要がない場合等は、合焦状態の評価処理に時間をかけることが許容されうる。しかし、例えば動画像として記録される、あるいは記録された光線空間情報を順次取得して所定のフレームレートで表示するような場合、1フレームに係る合焦状態の評価処理に割り当て可能な時間は、フレームレートによって定まる時間に制限される。このため、合焦状態の評価処理を限られた時間内に完了するために、合焦状態の評価を行う被写体距離の数を減らす方法が考えられる。しかし、再構成画像の被写体距離の間隔が広がり、適切な被写体距離についての合焦状態の評価が行えなくなる可能性があるため、好適な合焦状態の再構成画像が得られないことがある。 By the way, in the case where it is not necessary to perform processing other than the display processing of the reconstructed image after the generation, for example, when a reconstructed image is generated from the light space information recorded for the still image, the in-focus state evaluation process It may be acceptable to spend time on However, when, for example, recorded as a moving image, or when the recorded light space information is sequentially acquired and displayed at a predetermined frame rate, the time that can be allocated to the evaluation process of the in-focus state related to one frame is It is limited to the time determined by the frame rate. For this reason, in order to complete the focused state evaluation process within a limited time, a method of reducing the number of subject distances for evaluating the focused state is conceivable. However, since the subject distance interval of the reconstructed image is widened and there is a possibility that the in-focus state cannot be evaluated for an appropriate subject distance, a reconstructed image in a suitable in-focus state may not be obtained.
本発明は、上述の従来技術の問題点に鑑みてなされたものであり、フレームが光線空間情報で構成される動画像の再生において、被写体に好適に合焦したフレームを生成可能な画像処理装置、制御方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, and is an image processing device capable of generating a frame that is suitably focused on a subject in the reproduction of a moving image in which the frame is composed of light space information. An object of the present invention is to provide a control method and a program.
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、任意の被写体距離に合焦した再構成画像を生成可能な画像信号を各フレームに含む動画像から、画像信号を順次取得する取得手段と、合焦させる被写体距離を特定する特定情報を用いて、画像信号から該被写体距離に合焦した再構成画像を生成する生成手段と、画像信号について、各々異なる被写体距離を特定する複数の特定情報を設定する設定手段と、設定手段により設定された複数の特定情報を用いて生成された複数の再構成画像における被写体の合焦状態に基づいて、被写体の合焦状態が所定の条件を満たす被写体距離を特定する出力用の特定情報を決定する決定手段と、出力用の特定情報を用いて生成された再構成画像を出力する出力手段と、を有し、設定手段は、第1のフレームに後続する第2のフレームについての複数の特定情報により特定される被写体距離が、第1のフレームについて設定した複数の特定情報により特定される被写体距離よりも、第1のフレームについて決定された前記出力用の特定情報により特定される被写体距離を含む所定の被写体距離の範囲で密になるように、第2のフレームについての複数の特定情報を設定することを特徴とする。 In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is, using an acquisition means for sequentially acquiring image signals from a moving image including an image signal included in each frame capable of generating a reconstructed image focused on an arbitrary subject distance, and specific information for specifying a subject distance to be focused And generating means for generating a reconstructed image focused on the subject distance from the image signal, setting means for setting a plurality of specific information for specifying different subject distances for the image signal, and setting means. Determination of determining specific information for output that specifies subject distances in which the focus state of the subject satisfies a predetermined condition based on the focus state of the subject in the plurality of reconstructed images generated using the plurality of specific information Means and an output means for outputting a reconstructed image generated using the specific information for output, and the setting means outputs a duplicate for the second frame subsequent to the first frame. The subject distance specified by the specific information for the output is determined by the specific information for output determined for the first frame, rather than the subject distance specified by the plurality of specific information set for the first frame. A plurality of specific information about the second frame is set so as to be dense within a predetermined subject distance range including the distance.
本発明によれば、フレームが光線空間情報で構成される動画像の再生において、被写体に好適に合焦したフレームを生成可能になる。 According to the present invention, it is possible to generate a frame that is suitably focused on a subject in the reproduction of a moving image in which the frame is composed of ray space information.
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、被写体からの反射光束の強度および入射角度の情報を有する画素値から構成される光線空間情報(LFデータ)を記録可能なデジタルビデオカメラに本発明を適用した例を説明する。しかし、本発明はLFデータを記録可能なデジタルビデオカメラに限らず、記録されたLFデータを読み込んで、所望の被写体距離に合焦した動画像を再生可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータなどが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, the present invention is applied to a digital video camera capable of recording light space information (LF data) composed of pixel values having information on the intensity and incident angle of a reflected light beam from a subject as an example of an image processing apparatus. An example will be described. However, the present invention is not limited to a digital video camera capable of recording LF data, but can be applied to any device that can read recorded LF data and reproduce a moving image focused on a desired subject distance. . These devices may include, for example, mobile phones, game machines, tablet terminals, personal computers, and the like.
(1 デジタルビデオカメラの構成)
図1は本実施形態のデジタルビデオカメラの機能構成例を示す図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(1 Configuration of digital video camera)
FIG. 1 is a diagram illustrating a functional configuration example of the digital video camera according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.
被写体からの反射光束は、撮像レンズ101により集光されてマイクロレンズアレイ102を通過した後、撮像素子103に投影されて光電変換される。撮像レンズ101は、単一または複数のレンズからなる撮像光学系であり、フォーカス機能やズーム機能を持たせてもよい。マイクロレンズアレイ102は、図2(a)に示すように、撮像レンズ101と撮像素子103の間、かつ撮像素子103の近傍に配置される。撮像素子103は、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、複数の画素が格子状に配置されている。 The reflected light beam from the subject is collected by the imaging lens 101, passes through the microlens array 102, is projected onto the imaging element 103, and is subjected to photoelectric conversion. The imaging lens 101 is an imaging optical system including a single lens or a plurality of lenses, and may have a focus function and a zoom function. As shown in FIG. 2A, the microlens array 102 is disposed between the imaging lens 101 and the imaging element 103 and in the vicinity of the imaging element 103. The image sensor 103 is a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and a plurality of pixels are arranged in a grid pattern.
マイクロレンズアレイ102には、例えばマイクロレンズが格子状に複数配置されている。1つのマイクロレンズには、撮像素子103のn×m個の画素が対応するように配置され、例えば図2(b)では、マイクロレンズ201に対して、撮像素子103の5×5個の画素が対応するように配置されている。 In the microlens array 102, for example, a plurality of microlenses are arranged in a lattice pattern. One microlens is arranged so that n × m pixels of the image sensor 103 correspond to each microlens. For example, in FIG. 2B, 5 × 5 pixels of the image sensor 103 with respect to the microlens 201. Are arranged to correspond.
1つのマイクロレンズに結像した被写体からの反射光束は、該マイクロレンズによって展開されて撮像レンズ101の通過領域毎に対応する画素によって受光される。図3に示すように、被写体301の1点(302)から反射した光束は、撮像レンズ101に入射する。入射した光束は、撮像レンズ101によって集光されてマイクロレンズアレイ102表面の結像面303に結像される。結像された光束は、マイクロレンズによって、通過した瞳領域ごとに対応する画素321〜325に展開されて受光される。例えば、図3において撮像レンズ101の上端部を通過した光束311は画素321によって受光され、撮像レンズ101の下端部を通過した光束315は画素325によって受光される。このように撮像素子103の各画素がマイクロレンズによって展開された光束を受光するため、被写体301からの反射光束は、通過した撮像レンズ101の瞳領域ごとに分割された画像信号、即ちLFデータを構成する。撮像素子103は、各画素により光電変換されて得られたLFデータをLFデータ入力部104へ出力する。撮像素子103は、一秒間にフレームレートで定められたフレーム数のLFデータを順次出力する。順次出力されるLFデータは、各フレームにLFデータを含む動画像を構成する。 A reflected light beam from a subject imaged on one microlens is developed by the microlens and received by a pixel corresponding to each passing region of the imaging lens 101. As shown in FIG. 3, the light beam reflected from one point (302) of the subject 301 enters the imaging lens 101. The incident light beam is condensed by the imaging lens 101 and imaged on the imaging surface 303 on the surface of the microlens array 102. The imaged light flux is developed and received by the microlens on the corresponding pixels 321 to 325 for each pupil region that has passed. For example, in FIG. 3, the light beam 311 that has passed through the upper end portion of the imaging lens 101 is received by the pixel 321, and the light beam 315 that has passed through the lower end portion of the imaging lens 101 is received by the pixel 325. Since each pixel of the image sensor 103 receives the light beam developed by the microlens in this way, the reflected light beam from the subject 301 is an image signal divided for each pupil region of the image pickup lens 101, that is, LF data. Configure. The image sensor 103 outputs LF data obtained by photoelectric conversion by each pixel to the LF data input unit 104. The image sensor 103 sequentially outputs LF data of the number of frames determined by the frame rate per second. The sequentially output LF data constitutes a moving image including LF data in each frame.
LFデータ入力部104は、撮像素子103から入力されたLFデータに対して増幅処理やA/D変換処理を施す。LFデータ入力部104は、LFデータに対して、例えば予め設定された変換特性により傷補正、色バランス補正などの現像処理を行い、メモリ105に処理されたLFデータを格納する。メモリ105は、例えば高速にランダムアクセス可能なダイナミックRAMである。 The LF data input unit 104 performs amplification processing and A / D conversion processing on the LF data input from the image sensor 103. The LF data input unit 104 performs development processing such as flaw correction and color balance correction on the LF data using, for example, preset conversion characteristics, and stores the processed LF data in the memory 105. The memory 105 is, for example, a dynamic RAM that can be randomly accessed at high speed.
メディアI/F108は、コントローラ111の指示により、撮像動作によって順次メモリ105に格納されるLFデータを読み出して、記録メディア109に該LFデータを書き込む。メディアI/F108は、例えばFATなどのファイルシステムの形式でデータの書き込みを行なう。また、メディアI/F108は、記録メディア109におけるLFデータのファイルの生成やファイルシステムの制御を行う。また、メディアI/F108は、記録メディア109に記録されたLFデータを再生する場合、該LFデータを記録メディア109から読み出して、メモリ105に格納する。 The media I / F 108 reads the LF data sequentially stored in the memory 105 by the imaging operation in accordance with an instruction from the controller 111 and writes the LF data to the recording medium 109. The media I / F 108 writes data in a file system format such as FAT, for example. Further, the media I / F 108 generates a file of LF data on the recording medium 109 and controls the file system. Further, when reproducing the LF data recorded on the recording medium 109, the media I / F 108 reads out the LF data from the recording medium 109 and stores it in the memory 105.
記録メディア109は、例えばハードディスクドライブやフラッシュメモリ等の不揮発半導体メモリにより構成され、メディアI/F108の制御によりLFデータの書き込みおよび読み出しを行う。 The recording medium 109 is configured by a nonvolatile semiconductor memory such as a hard disk drive or a flash memory, and writes and reads LF data under the control of the media I / F 108.
リフォーカス処理部110は、撮像動作の場合、撮像によってメモリ105に格納されたLFデータを取得して、1フレームごとに特定の被写体距離に合焦した(特定の焦点面、焦点位置の)再構成画像を生成(リフォーカス処理)する。リフォーカス処理の詳細は後述するが、リフォーカス処理部110が1フレームごとに生成する再構成画像を順次出力することによって特定の被写体距離に合焦した映像(再構成映像)が生成される。リフォーカス処理部110は、生成した再構成画像を出力してメモリ105に格納する。一方、記録メディア109に記録されたLFデータを再生する場合、リフォーカス処理部110は、メディアI/F108を経由してメモリ105に格納されたLFデータを順次取得して、リフォーカス処理を行う。 In the case of an imaging operation, the refocus processing unit 110 acquires LF data stored in the memory 105 by imaging, and refocuses a specific subject distance (specific focal plane and focal position) for each frame. A configuration image is generated (refocus processing). Although details of the refocus processing will be described later, a video (reconstructed video) focused on a specific subject distance is generated by sequentially outputting the reconstructed images generated by the refocus processing unit 110 for each frame. The refocus processing unit 110 outputs the generated reconstructed image and stores it in the memory 105. On the other hand, when playing back the LF data recorded on the recording medium 109, the refocus processing unit 110 sequentially acquires the LF data stored in the memory 105 via the media I / F 108 and performs the refocus processing. .
映像出力部106は、コントローラ111の指示により、メモリ105に格納された再構成映像を順次取得して、表示部107と図示しない映像出力端子に出力する。表示部107は、映像出力部106から入力された再構成映像を表示する。撮像動作がされている場合、表示部に撮像中の再構成映像が表示され、ユーザは再構成映像を確認しながら撮像を行うことができる。また、記録メディア109に記録された動画像に係るLFデータを再生する場合、該LFデータの再構成映像が表示部107に表示される。 The video output unit 106 sequentially acquires the reconstructed video stored in the memory 105 according to an instruction from the controller 111 and outputs the reconstructed video to the display unit 107 and a video output terminal (not shown). The display unit 107 displays the reconstructed video input from the video output unit 106. When the imaging operation is performed, the reconstructed video being imaged is displayed on the display unit, and the user can perform imaging while confirming the reconstructed video. When the LF data relating to the moving image recorded on the recording medium 109 is reproduced, the reconstructed video of the LF data is displayed on the display unit 107.
操作部112は、動画像の撮像を開始するユーザ操作用のボタンや設定を行うスイッチのほか、表示部107の表面に配置されたタッチパネルセンサにより構成される。ユーザによる操作が操作部112からコントローラ111に通知されると、コントローラ111の指示により各機能ブロックが制御されて撮像動作や再生動作等が行われる。また、ユーザは操作部112を通じて、再構成映像において合焦させる画像内の領域を指定することができる。 The operation unit 112 is configured by a touch panel sensor disposed on the surface of the display unit 107, in addition to a button for user operation to start capturing a moving image and a switch for setting. When an operation by the user is notified from the operation unit 112 to the controller 111, each functional block is controlled by an instruction from the controller 111, and an imaging operation, a reproduction operation, and the like are performed. Further, the user can designate an area in the image to be focused on the reconstructed video through the operation unit 112.
コントローラ111は、本デジタルビデオカメラの全体的な動作制御を行うコントローラであり、いわゆるCPUである。CPUが不図示のROMに格納されたプログラムをメモリ105の作業領域に展開し、実行することにより、デジタルビデオカメラの動作制御を行う。 The controller 111 is a controller that performs overall operation control of the digital video camera, and is a so-called CPU. The CPU expands the program stored in the ROM (not shown) in the work area of the memory 105 and executes it, thereby controlling the operation of the digital video camera.
上述した各機能ブロックは、データバス113に接続され、コントローラ111との制御信号の送受信を行なう。またデータバス113は各機能ブロックからの時分割によるデータの送受信を制御する。 Each functional block described above is connected to the data bus 113 and transmits / receives control signals to / from the controller 111. The data bus 113 controls transmission / reception of data from each functional block by time division.
(2 リフォーカス処理部の処理)
リフォーカス処理部110の処理について、より詳細に説明する。リフォーカス処理部は、図5に示す機能ブロックによって構成される。
(2 Processing of refocus processing unit)
The process of the refocus processing unit 110 will be described in more detail. The refocus processing unit includes functional blocks shown in FIG.
リフォーカス処理部110において再構成画像は、評価用画像生成部601および再構成画像生成部605によって生成される。該機能ブロックにおける再構成画像の生成について説明する。撮像により得られたLFデータの各画素に入射した光束の光路は、図4(a)に示すように撮像レンズ101内の瞳領域の座標(u、v)と、対応するマイクロレンズの位置の座標(x’,y’)により規定される。再構成画像の生成においては、再構成画像を生成する任意の被写体距離に対応する再構成面(焦点面)上の画素(x、y)について、該点を通過する光路を有する光束を積分することで画素値を得ることができる。 In the refocus processing unit 110, the reconstructed image is generated by the evaluation image generating unit 601 and the reconstructed image generating unit 605. Generation of a reconstructed image in the functional block will be described. As shown in FIG. 4A, the optical path of the light beam incident on each pixel of the LF data obtained by imaging is the coordinates (u, v) of the pupil region in the imaging lens 101 and the position of the corresponding microlens. It is defined by coordinates (x ′, y ′). In the generation of a reconstructed image, a light beam having an optical path passing through the point is integrated with respect to a pixel (x, y) on a reconstruction plane (focal plane) corresponding to an arbitrary subject distance for generating the reconstructed image. Thus, the pixel value can be obtained.
図4(b)は、デジタルビデオカメラ100の横位置における鉛直方向から見た光束の光路を示している。撮像レンズ面の瞳領域の座標を(u,v)、再構成面上の画素の座標を(x,y)とすると、該瞳領域と該再構成面上の画素を通過する光束が入射するマイクロレンズの位置の座標(x’,y’)は、
で表される。なお、Fは撮像レンズから結像面までの距離、αFは撮像レンズの射出瞳から再構成面までの距離(αはリフォーカス係数:再構成面までの距離を決定するための可変係数)である。
FIG. 4B shows an optical path of a light beam viewed from the vertical direction in the lateral position of the digital video camera 100. If the coordinates of the pupil region on the imaging lens surface are (u, v) and the coordinates of the pixel on the reconstruction surface are (x, y), a light beam passing through the pupil region and the pixel on the reconstruction surface is incident. The coordinates (x ′, y ′) of the position of the microlens are
It is represented by F is a distance from the imaging lens to the imaging plane, and αF is a distance from the exit pupil of the imaging lens to the reconstruction surface (α is a refocus coefficient: a variable coefficient for determining the distance to the reconstruction surface). is there.
また該光束を受光する光電変換素子の出力をL(x’,y’,u,v)とすると、再構成面上に形成される画像の座標(x,y)の画素出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものであり、
で表される。なお、(u,v)を瞳領域の代表座標とすることで、該式は単純加算により計算できる。
If the output of the photoelectric conversion element that receives the luminous flux is L (x ′, y ′, u, v), the pixel output E (x, y) of the coordinates (x, y) of the image formed on the reconstruction surface y) is obtained by integrating L (x ′, y ′, u, v) with respect to the pupil region of the photographing lens,
It is represented by By using (u, v) as the representative coordinates of the pupil region, the equation can be calculated by simple addition.
評価用画像生成部601は、メモリ105から取得した1フレーム分のLFデータから、合焦状態を評価するための再構成画像(評価用画像)を複数生成する。複数の評価用画像は、各々異なる被写体距離に合焦するよう生成された再構成画像であり、被写体に対する合焦の度合がそれぞれ異なる。該複数の評価用画像は、評価用係数設定部604により設定される複数のリフォーカス係数に基づいて生成される。ここで、評価用画像を生成するために設定されるリフォーカス係数を、評価用係数と呼ぶ。評価用画像生成部601は、撮像した画像領域のうち、一部の合焦させたい被写体の領域(合焦対象の領域)に限った再構成画像を生成するようにしてもよい。合焦対象の領域とは例えば、被写体が人物である場合の顔領域などである。また、操作部112を通じてユーザにより設定された画像領域であってもよい。このように処理対象となる領域を小さくすることで、1つの評価用画像の生成にかかる処理量を低減できるため、より多くの被写体距離について合焦状態の評価を行うことができる。評価用画像生成部601は、生成した複数の評価用画像を合焦評価部602に出力する。 The evaluation image generation unit 601 generates a plurality of reconstructed images (evaluation images) for evaluating the in-focus state from one frame of LF data acquired from the memory 105. The plurality of evaluation images are reconstructed images generated so as to be focused on different subject distances, and have different degrees of focus on the subject. The plurality of evaluation images are generated based on the plurality of refocus coefficients set by the evaluation coefficient setting unit 604. Here, the refocus coefficient set for generating the evaluation image is referred to as an evaluation coefficient. The evaluation image generation unit 601 may generate a reconstructed image limited to only a part of a subject area to be focused (a focus target area) among the captured image areas. The focus target area is, for example, a face area when the subject is a person. Further, it may be an image area set by the user through the operation unit 112. By reducing the area to be processed in this way, it is possible to reduce the amount of processing required to generate one evaluation image, and therefore it is possible to evaluate the in-focus state for a larger subject distance. The evaluation image generation unit 601 outputs the generated plurality of evaluation images to the focus evaluation unit 602.
合焦評価部602は、評価用画像生成部601において生成された複数の評価用画像について画像ごとに合焦状態を評価するための合焦評価値を算出する。合焦評価部602は、各評価用画像に対して算出した合焦評価値をリフォーカス係数決定部603に出力する。 The focus evaluation unit 602 calculates a focus evaluation value for evaluating the in-focus state for each of the plurality of evaluation images generated by the evaluation image generation unit 601. The focus evaluation unit 602 outputs the focus evaluation value calculated for each evaluation image to the refocus coefficient determination unit 603.
リフォーカス係数決定部603は、合焦評価部602により算出された複数の合焦評価値から、再構成画像生成部605で用いるリフォーカス係数を決定する。まずリフォーカス係数決定部603は、取得した合焦評価値のうち最も高い合焦評価値を選択することにより、対応する評価用画像を選択する。そして、選択した評価用画像に対応する評価用係数の値を、出力用の再構成画像(再生により表示されるフレームの画像)を生成するためのリフォーカス係数として決定する。リフォーカス係数決定部603は、決定したリフォーカス係数を再構成画像生成部605に出力する。また、リフォーカス係数決定部603は、決定したリフォーカス係数を評価用係数設定部604に出力する。 The refocus coefficient determination unit 603 determines a refocus coefficient used by the reconstructed image generation unit 605 from a plurality of focus evaluation values calculated by the focus evaluation unit 602. First, the refocus coefficient determination unit 603 selects a corresponding evaluation image by selecting the highest focus evaluation value among the acquired focus evaluation values. Then, the value of the evaluation coefficient corresponding to the selected evaluation image is determined as a refocus coefficient for generating a reconstructed image for output (frame image displayed by reproduction). The refocus coefficient determination unit 603 outputs the determined refocus coefficient to the reconstructed image generation unit 605. Also, the refocus coefficient determination unit 603 outputs the determined refocus coefficient to the evaluation coefficient setting unit 604.
再構成画像生成部605は、リフォーカス係数決定部603により決定されたリフォーカス係数を用いて、画像全体に対する再構成画像、即ち撮影されている被写体全体の領域に対応する再構成画像を生成する。生成された再構成画像はメモリ105へ格納される。 The reconstructed image generation unit 605 uses the refocus coefficient determined by the refocus coefficient determination unit 603 to generate a reconstructed image for the entire image, that is, a reconstructed image corresponding to the entire area of the subject being photographed. . The generated reconstructed image is stored in the memory 105.
評価用係数設定部604は、リフォーカス係数決定部603により決定されたリフォーカス係数を用いて、次のフレームの新たな評価用係数を設定する。評価用係数設定部604において設定される評価用係数は、直前のフレームに対して決定されたリフォーカス係数に基づいて設定される。一般に動画像における連続するフレームの画像は相関が高いため、N番目のフレームにおいて合焦した被写体の被写体距離は、後続するN+1番目フレームにおいても大きく変動しないと考えられる。即ちN+1番目のフレームにおいて被写体に合焦する被写体距離は、N番目のフレームにおいて被写体に合焦した被写体距離の近傍、即ち該被写体距離を含む所定の範囲である可能性が高いと考えられる。つまり、該被写体距離の近傍に、N+1番目のフレームにおいて被写体に合焦する被写体距離がある可能性が高い場合、該近傍の複数の被写体距離において密に合焦状態の評価を行えば、より被写体に合焦する被写体距離を見つけやすい。従って、N+1番目のフレームにおける再構成画像の合焦状態の評価を、N番目のフレームにおいて合焦状態が最も合焦に近い被写体距離の近傍で密に行えば、被写体に合焦する被写体距離を好適に決定することができる。なお、本実施形態の処理では、合焦状態の評価用や出力用の再構成画像をリフォーカス係数により特定して行うものとして説明するが、リフォーカス係数により特定される撮像光学系の焦点距離が、被写体距離と等価な情報であることは言うまでもない。即ち、特定の被写体距離に合焦するためには、撮像光学系の焦点距離を所定の距離に変更することが必要になるため、両者の間には各撮像光学系の特性に応じた因果関係がある。従って、本実施形態の再構成画像の生成ではリフォーカス係数により特定の再構成面を規定するものとして説明するが、該再構成面の規定には、リフォーカス係数以外も用いることができる。即ち、本発明の実施において再構成面を規定する情報は、リフォーカス係数のほか、焦点距離や被写体距離等、生成した再構成画像において合焦させる被写体距離を特定することができる情報(特定情報)であればいかなる情報であってもよい。なお、以下の説明では、N番目のフレームをフレームN、N+1番目のフレームをフレームN+1のように称する。 The evaluation coefficient setting unit 604 sets a new evaluation coefficient for the next frame using the refocus coefficient determined by the refocus coefficient determination unit 603. The evaluation coefficient set in the evaluation coefficient setting unit 604 is set based on the refocus coefficient determined for the immediately preceding frame. In general, since images of consecutive frames in a moving image have high correlation, it is considered that the subject distance of the subject focused on in the Nth frame does not vary greatly in the subsequent N + 1th frame. That is, it is highly likely that the subject distance focused on the subject in the (N + 1) th frame is close to the subject distance focused on the subject in the Nth frame, that is, a predetermined range including the subject distance. In other words, when there is a high possibility that there is a subject distance that focuses on the subject in the (N + 1) th frame in the vicinity of the subject distance, if the focus state is closely evaluated at a plurality of subject distances in the vicinity, the subject is more It is easy to find the subject distance to focus on. Therefore, if the focus state of the reconstructed image in the (N + 1) th frame is evaluated closely in the vicinity of the subject distance in which the focus state is closest to the focus in the Nth frame, the subject distance focused on the subject is determined. It can be suitably determined. In the processing of the present embodiment, it is assumed that the reconstructed image for in-focus state evaluation or output is specified by the refocus coefficient. However, the focal length of the imaging optical system specified by the refocus coefficient is described. Needless to say, the information is equivalent to the subject distance. That is, in order to focus on a specific subject distance, it is necessary to change the focal length of the imaging optical system to a predetermined distance, so there is a causal relationship between the two according to the characteristics of each imaging optical system. There is. Accordingly, in the generation of the reconstructed image according to the present embodiment, a specific reconstructed surface is defined by the refocus coefficient, but other than the refocus coefficient can be used for defining the reconstructed surface. That is, in the embodiment of the present invention, the information defining the reconstruction plane includes information (specific information) that can specify a subject distance to be focused in the generated reconstructed image, such as a focal length and a subject distance, in addition to a refocus coefficient. ) Any information may be used. In the following description, the Nth frame is referred to as a frame N, and the N + 1th frame is referred to as a frame N + 1.
フレームNにおいて、評価用画像生成部601により評価用係数が設定されて、各評価用係数に対応する再構成画像に対して、合焦評価部602による合焦状態の評価が行われる。フレームNにおける、評価用係数の分布と合焦評価値の関係は、例えば図6(a)のようになる。図6(a)の横軸にはリフォーカス係数の値が、縦軸には合焦評価値が示されている。フレームNでは、評価用係数の間隔が広く設定されている。最も合焦評価値の高い評価用係数はα3である。このため、設定された評価係数のうち、α3はフレームNにおいて合焦状態が最も合焦に近いリフォーカス係数となる。 In the frame N, the evaluation coefficient is set by the evaluation image generation unit 601, and the in-focus state is evaluated by the focus evaluation unit 602 for the reconstructed image corresponding to each evaluation coefficient. The relationship between the distribution of evaluation coefficients and the focus evaluation value in the frame N is, for example, as shown in FIG. In FIG. 6A, the horizontal axis indicates the refocus coefficient value, and the vertical axis indicates the focus evaluation value. In the frame N, the interval between the evaluation coefficients is set wide. The evaluation coefficient with the highest focus evaluation value is α3. For this reason, among the set evaluation coefficients, α3 is a refocus coefficient in which the in-focus state is closest to the in-focus state in the frame N.
フレームN+1において評価用画像生成部601は、フレームNにおいて最も合焦評価値の高くなったα3の値を中央値として、中央値付近の評価用係数の設定間隔を密に設定する。図では一例として、評価係数を中央値の近傍で密に設定し、中心値から離れるほど評価係数の間隔が広くなるように設定した例を示している。フレームN+1において設定された評価用係数と合焦評価値の関係は、例えば図6(b)のようになる。フレームNにおいて決定されたα3の値がフレームN+1においてα4の値として設定され、α4の付近で密に合焦状態が評価される。結果として、合焦状態が最も合焦に近いリフォーカス係数の値がα5の値として決定される。 In the frame N + 1, the evaluation image generation unit 601 sets the evaluation coefficient setting interval in the vicinity of the median value with the α3 value having the highest focus evaluation value in the frame N as the median value. In the drawing, as an example, the evaluation coefficients are set densely in the vicinity of the median value, and an example is shown in which the interval between the assessment coefficients is increased as the distance from the median value is increased. The relationship between the evaluation coefficient set in the frame N + 1 and the focus evaluation value is, for example, as shown in FIG. The value of α3 determined in the frame N is set as the value of α4 in the frame N + 1, and the in-focus state is evaluated closely in the vicinity of α4. As a result, the value of the refocus coefficient that is closest to the in-focus state is determined as the value of α5.
上述のように、被写体の被写体距離が変化する場合であっても、一般に連続するフレームにおける被写体距離の変化は小さいものとなる。従って、同様にフレームN+2では、図6(c)に示すようにフレームN+1で決定した評価用係数α5の値の近傍に密に評価用係数を設定することにより、被写体に合焦するリフォーカス係数を決定することができる。 As described above, even when the subject distance of the subject changes, generally the change in the subject distance in successive frames is small. Accordingly, similarly, in the frame N + 2, as shown in FIG. 6C, by setting the evaluation coefficient closely in the vicinity of the value of the evaluation coefficient α5 determined in the frame N + 1, the refocus coefficient that focuses on the subject. Can be determined.
なお、評価用係数の設定間隔は、撮像フレームレートに応じて評価用係数の間隔がより密になるように変更するようにしてもよい。これは、フレームレートの高い場合にはフレーム間の被写体の動きがより小さくなるため、フレーム間の映像の相関が高く、合焦状態の変化が小さいことに依る。従って、フレームレートが高い場合には、評価用係数の設定間隔を狭くすれば、より高い合焦評価値を得られ、合焦精度を向上させることができる。 It should be noted that the evaluation coefficient setting interval may be changed so that the evaluation coefficient intervals become closer according to the imaging frame rate. This is because, when the frame rate is high, the movement of the subject between frames becomes smaller, so that the correlation between the images between frames is high and the change in the focus state is small. Therefore, when the frame rate is high, if the setting interval of the evaluation coefficient is narrowed, a higher focusing evaluation value can be obtained and focusing accuracy can be improved.
評価用係数設定部604は、上述の方法により複数の評価用係数を設定すると、設定した評価用係数を評価用画像生成部601に出力する。 When the evaluation coefficient setting unit 604 sets a plurality of evaluation coefficients by the above-described method, the evaluation coefficient setting unit 604 outputs the set evaluation coefficients to the evaluation image generation unit 601.
(3 リフォーカス処理部の動作)
次に、リフォーカス処理部の動作を図9に示すフローチャートを用いて説明する。図9のフローチャートは、コントローラ111がユーザによる撮像動作の指示を検出して撮像を開始し、撮像されたLFデータがメモリ105に格納された時点から開始される。
(3 Operation of refocus processing unit)
Next, the operation of the refocus processing unit will be described with reference to the flowchart shown in FIG. The flowchart of FIG. 9 starts when the controller 111 detects an instruction for an imaging operation by the user and starts imaging, and the captured LF data is stored in the memory 105.
S101においてコントローラ111は、メモリ105から1フレーム分のLFデータの読み出しを指示し、リフォーカス処理部110は該LFデータを読み込む。リフォーカス処理部110の内部では、評価用画像生成部601は、供給された該LFデータを読み込み、評価用係数設定部604に評価用係数の取得要求を出して、処理をS102へ進める。 In S101, the controller 111 instructs reading of LF data for one frame from the memory 105, and the refocus processing unit 110 reads the LF data. Inside the refocus processing unit 110, the evaluation image generation unit 601 reads the supplied LF data, issues an evaluation coefficient acquisition request to the evaluation coefficient setting unit 604, and advances the processing to S102.
S102において評価用係数設定部604は、リフォーカス係数が直前のフレームにおいて決定されているかを判断する。評価用係数設定部604は、リフォーカス係数決定部603によって決定される、直前のフレームのリフォーカス係数の値が予め設定した固定値でない場合、リフォーカス係数が決定されていると判断して処理をS103へ進める。一方、直前のフレームのリフォーカス係数の値が予め設定した固定値である場合、リフォーカス係数が決定されていないと判断する。LFデータの読み込みを開始した最初のフレームが処理の対象である場合、直前のフレームのリフォーカス係数は決定されていないため、該リフォーカス係数の値は固定値に設定されている。また、S110において後述するが、リフォーカス係数が再利用できないものと判断された場合、直前のリフォーカス係数がリセットされて固定値に設定される。評価用係数設定部604は、リフォーカス係数が決定されていないと判断した場合、処理をS104へ進める。 In S102, the evaluation coefficient setting unit 604 determines whether the refocus coefficient is determined in the immediately preceding frame. The evaluation coefficient setting unit 604 determines that the refocus coefficient is determined when the refocus coefficient value of the immediately preceding frame determined by the refocus coefficient determination unit 603 is not a preset fixed value, and performs processing. To S103. On the other hand, if the value of the refocus coefficient of the immediately preceding frame is a preset fixed value, it is determined that the refocus coefficient has not been determined. When the first frame from which reading of LF data is started is a processing target, the value of the refocus coefficient is set to a fixed value because the refocus coefficient of the immediately preceding frame has not been determined. As will be described later in S110, when it is determined that the refocus coefficient cannot be reused, the immediately preceding refocus coefficient is reset and set to a fixed value. If the evaluation coefficient setting unit 604 determines that the refocus coefficient has not been determined, the process proceeds to S104.
S103において評価用係数設定部604は、リフォーカス係数決定部603によって決定された直前のフレームのリフォーカス係数を基に評価用係数を設定する。評価用係数設定部604は、例えば予め実験等により定められた基準に従って7つの評価用係数を設定する。評価用係数設定部604は、例えば7つの評価用係数を値の小さいものから順にα1〜α7として、直前のフレームのリフォーカス係数の値を中心の評価用係数となるα4に設定する。また、評価用係数設定部604は、α1〜α7の各係数について中心のα4からの変位を予め定めておき、評価用係数の変位テーブルとして記録しておく。テーブルに記録された変位は、中央値を持つα4から離れる評価用係数ほど、隣接する評価用係数との変位が大きくなるように設定されている。評価用係数設定部604は、設定したα4の値に該テーブルから読み出した変位に従って、各評価用係数α1〜α3およびα5〜α7を決定する。評価用係数設定部604は、7つの評価用係数の設定が完了すると、評価用画像生成部601へ該評価用係数を出力し、処理をS105へ進める。 In S103, the evaluation coefficient setting unit 604 sets an evaluation coefficient based on the refocus coefficient of the immediately preceding frame determined by the refocus coefficient determination unit 603. The evaluation coefficient setting unit 604 sets seven evaluation coefficients according to, for example, a standard determined in advance through experiments or the like. The evaluation coefficient setting unit 604 sets, for example, seven evaluation coefficients as α1 to α7 in order from the smallest value, and sets the value of the refocus coefficient of the immediately preceding frame to α4 as the central evaluation coefficient. The evaluation coefficient setting unit 604 previously determines the displacement from α4 at the center for each coefficient α1 to α7 and records it as a displacement table of evaluation coefficients. The displacement recorded in the table is set so that the displacement from the adjacent evaluation coefficient increases as the evaluation coefficient moves away from α4 having the median value. The evaluation coefficient setting unit 604 determines the evaluation coefficients α1 to α3 and α5 to α7 according to the displacement read from the table to the set value of α4. When the setting of the seven evaluation coefficients is completed, the evaluation coefficient setting unit 604 outputs the evaluation coefficient to the evaluation image generation unit 601 and advances the process to S105.
S104において評価用画像生成部601は、評価用係数を等間隔に設定する。例えば予め設定された評価用係数がとり得る範囲を等分割した値をα1〜α7の各評価用係数に設定する。評価用係数設定部604は、各評価用係数の設定が完了すると、評価用係数を評価用画像生成部601へ出力し、処理をS105へ進める。 In S104, the evaluation image generation unit 601 sets the evaluation coefficients at equal intervals. For example, a value obtained by equally dividing a range that can be taken by a preset evaluation coefficient is set as each evaluation coefficient α1 to α7. When the setting of each evaluation coefficient is completed, the evaluation coefficient setting unit 604 outputs the evaluation coefficient to the evaluation image generation unit 601 and advances the process to S105.
S105において評価用画像生成部601は、取得した7つの評価用係数を用いて、各評価用係数に対応する評価用画像を生成する。評価用画像生成部601は、上述の再構成面における画素出力E(x,y)を算出して評価用画像を生成する。評価用画像生成部601は、合焦対象の領域が設定されている場合、設定された合焦対象の領域を取得する。合焦対象の領域は、例えば直前のフレームあるいは現在のフレームについて公知の被写体認識技術により検出された人物の顔領域が設定されるものであってよい。合焦対象の領域が設定されている場合、評価用画像生成部601は、該画像領域の座標を取得して、該領域に限定された評価用画像を生成する。評価用画像生成部601は、取得した全ての評価用係数に対して評価用画像を生成すると、合焦評価部602へ出力して処理をS106へ進める。 In S105, the evaluation image generation unit 601 generates an evaluation image corresponding to each evaluation coefficient using the obtained seven evaluation coefficients. The evaluation image generation unit 601 generates the evaluation image by calculating the pixel output E (x, y) on the reconstruction plane described above. When the focus target area is set, the evaluation image generation unit 601 acquires the set focus target area. As the focus target area, for example, a face area of a person detected by a known subject recognition technique for the immediately preceding frame or the current frame may be set. When the focus target area is set, the evaluation image generation unit 601 acquires the coordinates of the image area, and generates an evaluation image limited to the area. When the evaluation image generation unit 601 generates evaluation images for all of the acquired evaluation coefficients, the evaluation image generation unit 601 outputs the evaluation image to the focus evaluation unit 602 and advances the processing to S106.
S106において合焦評価部602は、各評価用画像に対する合焦状態の評価を行う。合焦状態の評価は、一般に知られている公知な方法で画像の合焦の度合を算出することにより行う。例えばエッジ成分の強度や、分散値、コントラスト比などの方法を用いれば画像の合焦している度合を算出できるため、本実施形態における詳細な説明は省略する。合焦評価部602は、例えば評価用画像内におけるエッジ成分の強度の平均値を算出して各評価用画像の合焦評価値として設定とする。合焦評価部602は、算出した合焦評価値をリフォーカス係数決定部603に出力し、処理をS107へ進める。 In S106, the focus evaluation unit 602 evaluates the focus state for each evaluation image. The evaluation of the in-focus state is performed by calculating the in-focus degree of the image by a generally known method. For example, the degree of focus of the image can be calculated by using methods such as the intensity of the edge component, the dispersion value, and the contrast ratio. Therefore, detailed description in this embodiment is omitted. The focus evaluation unit 602 calculates, for example, an average value of the intensity of the edge component in the evaluation image and sets it as the focus evaluation value of each evaluation image. The focus evaluation unit 602 outputs the calculated focus evaluation value to the refocus coefficient determination unit 603, and the process proceeds to S107.
S107においてリフォーカス係数決定部603は、取得した合焦評価値に基づいて所定の条件を満たすリフォーカス係数を決定する。例えば合焦状態が最も合焦に近い1つのリフォーカス係数を決定する。リフォーカス係数決定部603は、取得した合焦評価値を比較することにより最も高い合焦評価値を特定する。リフォーカス係数決定部603は、該合焦評価値に対応する評価用係数を、出力するためのリフォーカス係数として決定する。リフォーカス係数決定部603は、決定したリフォーカス係数を再構成画像生成部605に出力し、処理をS108へ進める。 In S107, the refocus coefficient determination unit 603 determines a refocus coefficient that satisfies a predetermined condition based on the acquired focus evaluation value. For example, one refocus coefficient whose focus state is closest to the focus is determined. The refocus coefficient determination unit 603 identifies the highest focus evaluation value by comparing the acquired focus evaluation values. The refocus coefficient determination unit 603 determines an evaluation coefficient corresponding to the focus evaluation value as a refocus coefficient for output. The refocus coefficient determination unit 603 outputs the determined refocus coefficient to the reconstructed image generation unit 605, and the process proceeds to S108.
S108において再構成画像生成部605は、取得したリフォーカス係数に対応する再構成画像を生成する。再構成画像生成部605は、再構成画像の生成が完了すると、生成した再構成画像をメモリ105に格納する。 In S108, the reconstructed image generation unit 605 generates a reconstructed image corresponding to the acquired refocus coefficient. The reconstructed image generation unit 605 stores the generated reconstructed image in the memory 105 when the generation of the reconstructed image is completed.
S109においてリフォーカス係数決定部603は、リフォーカス係数が次のフレームにおいて再利用可能であるかを判断する。リフォーカス係数決定部603は、決定されたリフォーカス係数に対応する合焦評価値が、予め決められた所定の値以下である場合、リフォーカス係数が再利用可能ではないと判断する。該合焦評価値が所定の値以下である場合、被写体の急激な動き等によってフレーム間の相関が下がり、設定されている評価用係数が適切で無くなった可能性があるためである。該合焦評価値が所定の値以上である場合、リフォーカス係数決定部603は処理をS110に進める。一方、所定の値より大きい場合、リフォーカス係数決定部603は、評価用係数設定部604へリフォーカス係数を出力して処理をS111へ進める。 In S109, the refocus coefficient determination unit 603 determines whether the refocus coefficient can be reused in the next frame. The refocus coefficient determination unit 603 determines that the refocus coefficient is not reusable when the focus evaluation value corresponding to the determined refocus coefficient is equal to or less than a predetermined value. This is because, when the in-focus evaluation value is equal to or less than a predetermined value, the correlation between frames is lowered due to a rapid movement of the subject or the like, and the set evaluation coefficient may not be appropriate. If the focus evaluation value is greater than or equal to the predetermined value, the refocus coefficient determination unit 603 advances the process to S110. On the other hand, when the value is larger than the predetermined value, the refocus coefficient determination unit 603 outputs the refocus coefficient to the evaluation coefficient setting unit 604 and advances the process to S111.
S110においてリフォーカス係数決定部603は、評価用係数設定部604に通知するリフォーカス係数をリセットする。リフォーカス係数決定部603は、評価用係数設定部604に通知するリフォーカス係数の値を0に設定したうえで、評価用係数設定部604に出力し、処理をS111へ進める。 In S110, the refocus coefficient determination unit 603 resets the refocus coefficient notified to the evaluation coefficient setting unit 604. The refocus coefficient determination unit 603 sets the value of the refocus coefficient notified to the evaluation coefficient setting unit 604 to 0, and then outputs the value to the evaluation coefficient setting unit 604, and the process proceeds to S111.
S111においてリフォーカス処理部110は、処理対象のフレームが最後のフレームかを判断し、最後のフレームで無い場合は処理を再びS101へ戻す。処理対象が最後のフレームであるときは、一連の処理を終了する。 In S111, the refocus processing unit 110 determines whether the processing target frame is the last frame. If the processing target frame is not the last frame, the process returns to S101 again. When the processing target is the last frame, the series of processing ends.
リフォーカス処理部110から出力された再構成画像はメモリ105に順次出力された後、特定の被写体に合焦した再構成映像として、表示部107に表示される。 The reconstructed image output from the refocus processing unit 110 is sequentially output to the memory 105 and then displayed on the display unit 107 as a reconstructed video focused on a specific subject.
なお、リフォーカス係数決定部603は、離散的に存在する合焦評価値と評価用係数の値の関係から合焦評価値の分布に適合する曲線を求め、該曲線に基づいて最も高い合焦評価値を持つリフォーカス係数を求めるようにしてもよい。離散的に分布する評価用係数の間に現れる合焦評価値のピークを推定し、より合焦精度を向上させたリフォーカス係数を決定することができる。 The refocus coefficient determination unit 603 obtains a curve that matches the distribution of the focus evaluation values from the relationship between the discrete focus evaluation values and the evaluation coefficient values, and the highest focus is obtained based on the curve. A refocus coefficient having an evaluation value may be obtained. It is possible to estimate a focus evaluation value peak that appears between discretely distributed evaluation coefficients, and to determine a refocus coefficient with improved focusing accuracy.
以上説明したように本実施形態によれば、直前のフレームにおいて出力用に決定された被写体距離の近傍に合焦状態の評価を行う被写体距離を設定することにより、生成される再構成画像の合焦精度を向上させることが可能となる。即ち、フレームが光線空間情報で構成される動画像の再生において、被写体に好適に合焦したフレームを生成可能になる。 As described above, according to the present embodiment, the generated reconstructed image is matched by setting the subject distance for evaluating the in-focus state in the vicinity of the subject distance determined for output in the immediately preceding frame. It becomes possible to improve the focusing accuracy. That is, in the reproduction of a moving image in which the frame is composed of the light space information, it is possible to generate a frame that is suitably focused on the subject.
(実施形態2)
次に実施形態2について説明する。実施形態2では、リフォーカス処理部110において被写体の奥行き方向の動き検出を行い、該動き検出の結果に従って、評価用係数が補正される。本実施形態では奥行き方向の動きは被写体距離の変位とみなして説明する。本実施形態のデジタルビデオカメラは、リフォーカス処理部110の内部構成とリフォーカス処理部110における動作以外、実施形態1と同一である。このため、重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the second embodiment, the refocus processing unit 110 detects the motion of the subject in the depth direction, and the evaluation coefficient is corrected according to the result of the motion detection. In the present embodiment, the movement in the depth direction will be described as a displacement of the subject distance. The digital video camera of this embodiment is the same as that of Embodiment 1 except for the internal configuration of the refocus processing unit 110 and the operation of the refocus processing unit 110. For this reason, the overlapping description will be omitted, and differences will be mainly described.
本実施形態に係るリフォーカス処理部110の詳細について、図7を参照して実施形態1との相違点について説明する。 Details of the refocus processing unit 110 according to the present embodiment will be described with reference to FIG. 7 and differences from the first embodiment.
リフォーカス処理部110に入力された1フレーム分のLFデータは、評価用画像生成部601に加えて、検出用画像生成部701に入力される。 The LF data for one frame input to the refocus processing unit 110 is input to the detection image generation unit 701 in addition to the evaluation image generation unit 601.
検出用画像生成部701は、1フレーム分のLFデータから、被写体の奥行き方向の動き検出に用いられる再構成画像(検出用画像)を生成する。検出用画像生成部701は、検出用画像を一部の画像領域、例えば上述した合焦対象の領域、に限定して生成してもよい。検出用画像生成部701は、生成した再構成画像を動き検出部702に出力する。なお、検出用画像生成部701は、生成した検出用画像を次のフレームにおける動き検出のために保持しておく。 The detection image generation unit 701 generates a reconstructed image (detection image) used for motion detection in the depth direction of the subject from LF data for one frame. The detection image generation unit 701 may generate the detection image by limiting it to a partial image region, for example, the above-described focus target region. The detection image generation unit 701 outputs the generated reconstructed image to the motion detection unit 702. The detection image generation unit 701 holds the generated detection image for motion detection in the next frame.
動き検出部702は、検出用画像生成部701から取得した検出用画像を用いて、連続するフレーム間における被写体の奥行き方向の移動を検出する。動き検出部702は、該検出用画像におけるフレーム間の所定の画素数のブロックに対する動きベクトルを検出することにより、奥行き方向の動きを検出する。 The motion detection unit 702 detects the movement of the subject in the depth direction between consecutive frames using the detection image acquired from the detection image generation unit 701. The motion detection unit 702 detects a motion in the depth direction by detecting a motion vector for a block having a predetermined number of pixels between frames in the detection image.
評価用係数設定部604は、動き検出部702から取得した奥行き方向の動きに基づいて、直前のフレームにおいて決定されたリフォーカス係数を補正して評価用係数を設定する。具体的には、評価用係数設定部604は、該奥行き方向の動きの大きさを評価用係数の補正値に換算し、該補正値により該評価用係数を補正する。評価用係数設定部604は、得られた補正後のリフォーカス係数の値を中心の評価用係数に設定する。 The evaluation coefficient setting unit 604 corrects the refocus coefficient determined in the immediately previous frame based on the motion in the depth direction acquired from the motion detection unit 702 and sets the evaluation coefficient. Specifically, the evaluation coefficient setting unit 604 converts the magnitude of the motion in the depth direction into a correction value for the evaluation coefficient, and corrects the evaluation coefficient with the correction value. The evaluation coefficient setting unit 604 sets the obtained value of the corrected refocus coefficient as the central evaluation coefficient.
図8(c)には、該リフォーカス係数を補正する例を示す。図8(a)および図8(b)は、実施形態1と共通し、フレームNおよびフレームN+1に対する評価用係数が、合焦評価値の高い値の近傍に設定されたことを示している。そして、図8(c)は、フレームN+2において、フレームN+1の間に被写体に奥行き方向の移動があった場合に、奥行き方向の動きの大きさを用いて補正されたリフォーカス係数と該リフォーカス係数から設定された評価用係数を示している。フレームN+1で決定されたリフォーカス係数α5の値が補正値βによって補正され、補正後のリフォーカス係数の値をα4として他の評価用係数を設定している。補正値βによって補正することにより、被写体に奥行き方向への動きが生じたとしても合焦評価値が高くなるリフォーカス係数の近傍に評価用係数を設定することができる。 FIG. 8C shows an example of correcting the refocus coefficient. FIG. 8A and FIG. 8B show that the evaluation coefficient for the frame N and the frame N + 1 is set in the vicinity of the high value of the focus evaluation value in common with the first embodiment. FIG. 8C shows the refocus coefficient corrected by using the magnitude of the motion in the depth direction and the refocus when the subject moves in the depth direction during the frame N + 1 in the frame N + 2. The coefficient for evaluation set from the coefficient is shown. The value of the refocus coefficient α5 determined in the frame N + 1 is corrected by the correction value β, and another evaluation coefficient is set with the corrected refocus coefficient value being α4. By correcting with the correction value β, the evaluation coefficient can be set in the vicinity of the refocus coefficient that increases the focus evaluation value even if the subject moves in the depth direction.
評価用係数設定部604は、全ての評価用係数を設定すると、評価用画像生成部601に出力する。評価用画像生成部601により実行される処理以降は、実施形態1と共通である。 When all the evaluation coefficients are set, the evaluation coefficient setting unit 604 outputs the evaluation coefficient generation unit 601 to the evaluation image generation unit 601. Subsequent processes executed by the evaluation image generation unit 601 are the same as those in the first embodiment.
次に、実施形態2に係るリフォーカス処理部110の動作を説明する。 Next, the operation of the refocus processing unit 110 according to the second embodiment will be described.
S201においてコントローラ111は、メモリ105から1フレーム分のLFデータの読み出しを指示し、検出用画像生成部701は、メモリ105から1フレーム分のLFデータを読み込む。LFデータの読み込みが完了すると、検出用画像生成部701は、処理をS202へ進める。並行して、評価用画像生成部601は、供給された該LFデータを読み込む。 In step S <b> 201, the controller 111 instructs reading of LF data for one frame from the memory 105, and the detection image generation unit 701 reads LF data for one frame from the memory 105. When the reading of the LF data is completed, the detection image generation unit 701 advances the process to S202. In parallel, the evaluation image generation unit 601 reads the supplied LF data.
S202において検出用画像生成部701は、検出用画像を生成する。検出用画像生成部701は、検出用画像を生成するために、被写界深度の深い再構成画像を生成する。検出用画像生成部701は、上述の再構成画像の生成における画素出力E(x,y)を、瞳領域の中心を通過した光束を受光した画素に限定して算出する。これは撮像時にレンズ絞りを絞ることに相当するため、検出用画像生成部701は被写界深度の深い再構成画像を生成することができる。検出用画像生成部701は、生成した検出用画像を動き検出部702に出力し、処理をS203に進める。 In S202, the detection image generation unit 701 generates a detection image. The detection image generation unit 701 generates a reconstructed image having a deep depth of field in order to generate a detection image. The detection image generation unit 701 calculates the pixel output E (x, y) in the above-described generation of the reconstructed image only for pixels that receive the light beam that has passed through the center of the pupil region. Since this corresponds to reducing the lens aperture during imaging, the detection image generation unit 701 can generate a reconstructed image with a deep depth of field. The detection image generation unit 701 outputs the generated detection image to the motion detection unit 702, and the process proceeds to S203.
S203において動き検出部702は、検出用画像生成部701において生成された検出用画像に対し、奥行き方向の動きを検出する。動き検出部702は、直前のフレームの検出用画像を取得して該画像の合焦対象の領域について、現在のフレームの検出用画像との間の動きベクトルの検出処理を実行する。動きベクトルの検出については、公知の動き推定方法を使用してよい。動き検出部702は、合焦対象の領域における動きベクトルの分布が放射方向の成分を有するように構成される場合、奥行き方向の動きがあるものと判断する。動き検出部702は、例えば検出した各動きベクトルの放射方向の大きさの平均値を算出して、動きの大きさを表す情報とする。動き検出部702は、動きの大きさを表す情報を評価用画像生成部601に出力し、処理をS102へ進める。 In step S <b> 203, the motion detection unit 702 detects a motion in the depth direction with respect to the detection image generated by the detection image generation unit 701. The motion detection unit 702 acquires a detection image for the immediately preceding frame, and executes a motion vector detection process between the focus target region of the image and the detection image for the current frame. A known motion estimation method may be used for motion vector detection. The motion detection unit 702 determines that there is motion in the depth direction when the motion vector distribution in the focus target region is configured to have a radial component. The motion detection unit 702 calculates, for example, an average value of the magnitudes of the detected motion vectors in the radial direction, and uses the calculated value as information indicating the magnitude of motion. The motion detection unit 702 outputs information representing the magnitude of the motion to the evaluation image generation unit 601 and advances the process to S102.
S102において評価用係数設定部604は、実施形態1と同様に、直前のフレームにおいてリフォーカス係数が決定されているかを判断する。直前のリフォーカス係数の値が固定値である場合、処理をS104へ進める。一方、リフォーカス係数が固定値でない場合、処理をS204へ進める。 In S102, the evaluation coefficient setting unit 604 determines whether the refocus coefficient is determined in the immediately preceding frame, as in the first embodiment. If the immediately preceding refocus coefficient value is a fixed value, the process proceeds to S104. On the other hand, if the refocus coefficient is not a fixed value, the process proceeds to S204.
S204において評価用係数設定部604は、連続するフレームにおいて奥行き方向の動きがあったかを判断する。評価用係数設定部604は、動き検出部702から取得した動きの大きさを表す情報を参照して、該大きさと所定の閾値を比較する。評価用係数設定部604は、該大きさが閾値より大きい場合、奥行き方向の動きがあったと判断して、処理をS205へ進める。一方、該大きさが閾値以下である場合、奥行き方向の動きが無かったと判断して、処理をS103へ進める。 In S204, the evaluation coefficient setting unit 604 determines whether there is a movement in the depth direction in successive frames. The evaluation coefficient setting unit 604 refers to the information indicating the magnitude of motion acquired from the motion detection unit 702 and compares the magnitude with a predetermined threshold. If the magnitude is larger than the threshold, the evaluation coefficient setting unit 604 determines that there is a movement in the depth direction, and advances the process to S205. On the other hand, if the size is equal to or smaller than the threshold value, it is determined that there is no movement in the depth direction, and the process proceeds to S103.
S205において評価用係数設定部604は、動き検出部702から取得した奥行き方向の動きの大きさに応じて、補正した評価用係数を設定する。評価用係数設定部604は、該奥行き方向の動きの大きさをリフォーカス係数の変位に換算する。例えば、検出されている人の顔領域の大きさと動きベクトルの大きさに対して実験的に定めた補正値を割り当てたテーブルを記録しておき、評価用係数設定部604は得られた奥行き方向の動きに応じて、補正値βを設定する。評価用係数設定部604は、補正値βを用いて直前のフレームにおいて決定されたリフォーカス係数に補正し、中心となる評価用係数(α4)を設定する。評価用係数設定部604は、該中心となる評価用係数をもとに、実施形態1と同様に他の評価係数を設定し、処理をS105に進める。 In step S <b> 205, the evaluation coefficient setting unit 604 sets the corrected evaluation coefficient according to the magnitude of the motion in the depth direction acquired from the motion detection unit 702. The evaluation coefficient setting unit 604 converts the magnitude of the movement in the depth direction into the displacement of the refocus coefficient. For example, a table in which correction values determined experimentally for the size of the detected human face region and the size of the motion vector are recorded, and the evaluation coefficient setting unit 604 obtains the obtained depth direction. The correction value β is set in accordance with the movement of. The evaluation coefficient setting unit 604 corrects the refocus coefficient determined in the immediately preceding frame using the correction value β, and sets a central evaluation coefficient (α4). The evaluation coefficient setting unit 604 sets other evaluation coefficients based on the central evaluation coefficient as in the first embodiment, and advances the process to S105.
S105以降のリフォーカス処理部110は、実施形態1と同様であり、処理対象のフレームが最後のフレームであるときは一連の処理を終了する。 The refocus processing unit 110 subsequent to S105 is the same as in the first embodiment, and ends the series of processing when the processing target frame is the last frame.
なお、本実施形態において、奥行き方向の動きの検出には動きベクトルを検出する方法により説明したが、動き検出部702は、画像内の被写体の大きさの変化を検出することにより、奥行き方向の動きを検出しても良い。例えば直前の検出用画像を多段階に縮小および拡大させた画像を生成して、現在のフレームの検出用画像とマッチングさせ、生成した拡大率に応じて予め決められた奥行き方向の大きさを割り当ててもよい。また、本実施形態では合焦対象の領域を被写体が人物である場合の顔領域として説明したが、合焦対象となる被写体は顔に限らず、人物全体や建物等、パターン検出が可能な所定の被写体であってよい。 In the present embodiment, the method of detecting a motion vector has been described for detecting the motion in the depth direction. However, the motion detection unit 702 detects the change in the size of the subject in the image to detect the motion in the depth direction. Motion may be detected. For example, an image obtained by reducing and enlarging the previous detection image in multiple stages is generated, matched with the detection image for the current frame, and a predetermined size in the depth direction is assigned according to the generated enlargement ratio May be. In the present embodiment, the focus target area is described as a face area when the subject is a person. However, the focus target subject is not limited to the face, and a predetermined pattern capable of pattern detection such as the whole person or a building. It may be a subject.
以上、説明したように本実施形態のデジタルカメラでは、奥行き方向の動き検出の結果に基づいて補正した評価用係数を設定することにより、被写体に奥行き方向の動きが生じたとしても、動きに追従して合焦評価を行うことができる。即ち、被写体の動きがあったとしても、より高速に好適な合焦状態の再構成画像を表示させることができる。 As described above, in the digital camera according to the present embodiment, by setting the evaluation coefficient corrected based on the result of the motion detection in the depth direction, even if the motion in the depth direction occurs in the subject, it follows the motion. And focusing evaluation can be performed. That is, even if there is a movement of the subject, a reconstructed image in a suitable in-focus state can be displayed at a higher speed.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100 デジタルビデオカメラ、102 マイクロレンズアレイ、103 撮像素子、110 リフォーカス処理部、601 評価用画像生成部、602 合焦評価部、603 リフォーカス係数決定部、604 評価用係数設定部、605 再構成画像生成部 DESCRIPTION OF SYMBOLS 100 Digital video camera, 102 Micro lens array, 103 Image sensor, 110 Refocus processing part, 601 Evaluation image generation part, 602 Focus evaluation part, 603 Refocus coefficient determination part, 604 Evaluation coefficient setting part, 605 Reconfiguration Image generator
Claims (11)
合焦させる被写体距離を特定する特定情報を用いて、前記画像信号から該被写体距離に合焦した再構成画像を生成する生成手段と、
前記画像信号について、各々異なる被写体距離を特定する複数の前記特定情報を設定する設定手段と、
前記設定手段により設定された前記複数の特定情報を用いて生成された複数の再構成画像における被写体の合焦状態に基づいて、被写体の合焦状態が所定の条件を満たす被写体距離を特定する出力用の特定情報を決定する決定手段と、
前記出力用の特定情報を用いて生成された再構成画像を出力する出力手段と、
を有し、
前記設定手段は、第1のフレームに後続する第2のフレームについての前記複数の特定情報により特定される被写体距離が、前記第1のフレームについて設定した前記複数の特定情報により特定される被写体距離よりも、前記第1のフレームについて決定された前記出力用の特定情報により特定される被写体距離を含む所定の被写体距離の範囲で密になるように、前記第2のフレームについての前記複数の特定情報を設定することを特徴とする画像処理装置。 Acquisition means for sequentially acquiring the image signal from a moving image including an image signal in each frame capable of generating a reconstructed image focused on an arbitrary subject distance;
Generating means for generating a reconstructed image focused on the subject distance from the image signal using specific information for specifying a subject distance to be focused;
Setting means for setting a plurality of the specific information for specifying different subject distances for the image signal;
Based on the focus state of the subject in the plurality of reconstructed images generated using the plurality of specific information set by the setting means, an output for specifying a subject distance in which the focus state of the subject satisfies a predetermined condition Determining means for determining specific information for
Output means for outputting a reconstructed image generated using the output specific information;
Have
The setting means includes a subject distance specified by the plurality of specific information set for the first frame, the subject distance specified by the plurality of specific information for the second frame following the first frame. Rather, the plurality of identifications for the second frame so as to be dense within a predetermined subject distance range including the subject distance identified by the output identification information determined for the first frame. An image processing apparatus characterized by setting information.
前記設定手段は、前記第1のフレームについて決定された前記出力用の特定情報に係る焦点距離を中央値として前記第2のフレームについての前記複数の特定情報を設定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The specific information is information indicating a focal length of the imaging optical system focused on the subject distance,
The setting means sets the plurality of specific information for the second frame, with a focal length of the output specific information determined for the first frame as a median value. The image processing apparatus according to any one of 1 to 5.
前記設定手段は、前記第1のフレームについて決定された前記出力用の特定情報により特定される被写体距離を前記検出された被写体の奥行き方向の移動の大きさに応じて変更し、変更した被写体距離に基づいて前記第2のフレームについての前記複数の特定情報を設定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 Detection means for detecting movement of the subject in the depth direction between the first frame and the second frame;
The setting means changes the subject distance specified by the output specific information determined for the first frame in accordance with the magnitude of movement of the detected subject in the depth direction, and the changed subject distance The image processing apparatus according to claim 1, wherein the plurality of pieces of specific information for the second frame are set based on the first frame.
生成手段が、合焦させる被写体距離を特定する特定情報を用いて、前記画像信号から該被写体距離に合焦した再構成画像を生成する生成工程と、
設定手段が、前記画像信号について、各々異なる被写体距離を特定する複数の前記特定情報を設定する設定工程と、
決定手段が、前記設定工程において設定された前記複数の特定情報を用いて生成された複数の再構成画像における被写体の合焦状態に基づいて、被写体の合焦状態が所定の条件を満たす被写体距離を特定する出力用の特定情報を決定する決定工程と、
出力手段が、前記出力用の特定情報を用いて生成された再構成画像を出力する出力工程と、
を有し、
前記設定手段は、前記設定工程において、第1のフレームに後続する第2のフレームについての前記複数の特定情報により特定される被写体距離が、前記第1のフレームについて設定した前記複数の特定情報により特定される被写体距離よりも、前記第1のフレームについて決定された前記出力用の特定情報により特定される被写体距離を含む所定の被写体距離の範囲で密になるように、前記第2のフレームについての前記複数の特定情報を設定することを特徴とする画像処理装置の制御方法。 An acquisition step of sequentially acquiring the image signal from a moving image including an image signal that can generate a reconstructed image focused on an arbitrary subject distance in each frame;
A generating step of generating a reconstructed image focused on the subject distance from the image signal, using specific information for specifying a subject distance to be focused;
A setting step in which the setting means sets a plurality of the specific information for specifying different subject distances for the image signal;
Subject distance by which the determining means satisfies a predetermined condition based on the in-focus state of the subject in the plurality of reconstructed images generated using the plurality of specific information set in the setting step A determination step for determining specific information for output identifying
An output step of outputting a reconstructed image generated using the output specific information;
Have
In the setting step, the setting means determines that the subject distance specified by the plurality of specific information for the second frame following the first frame is based on the plurality of specific information set for the first frame. About the second frame so as to be denser in a predetermined subject distance range including the subject distance specified by the output specific information determined for the first frame than the specified subject distance. A control method for an image processing apparatus, wherein the plurality of specific information is set.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014060794A JP6272099B2 (en) | 2014-03-24 | 2014-03-24 | Image processing apparatus, control method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014060794A JP6272099B2 (en) | 2014-03-24 | 2014-03-24 | Image processing apparatus, control method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015186037A true JP2015186037A (en) | 2015-10-22 |
| JP6272099B2 JP6272099B2 (en) | 2018-01-31 |
Family
ID=54352141
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014060794A Expired - Fee Related JP6272099B2 (en) | 2014-03-24 | 2014-03-24 | Image processing apparatus, control method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6272099B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019012660A1 (en) * | 2017-07-13 | 2019-01-17 | オリンパス株式会社 | Image processing device and light field imaging device |
| JP2022544292A (en) * | 2019-08-12 | 2022-10-17 | モレキュラー デバイシーズ (オーストリア) ゲーエムベーハー | Sample imaging via two-step brightfield reconstruction |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006033023A (en) * | 2004-07-12 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Image pickup device |
| JP2013145314A (en) * | 2012-01-13 | 2013-07-25 | Canon Inc | Image processing apparatus, imaging apparatus, control method and program |
| US20140002618A1 (en) * | 2012-06-28 | 2014-01-02 | Casio Computer Co., Ltd. | Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium |
| JP2014029429A (en) * | 2012-07-31 | 2014-02-13 | Canon Inc | Imaging device, control method, and program |
-
2014
- 2014-03-24 JP JP2014060794A patent/JP6272099B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006033023A (en) * | 2004-07-12 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Image pickup device |
| JP2013145314A (en) * | 2012-01-13 | 2013-07-25 | Canon Inc | Image processing apparatus, imaging apparatus, control method and program |
| US20140002618A1 (en) * | 2012-06-28 | 2014-01-02 | Casio Computer Co., Ltd. | Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium |
| JP2014029429A (en) * | 2012-07-31 | 2014-02-13 | Canon Inc | Imaging device, control method, and program |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019012660A1 (en) * | 2017-07-13 | 2019-01-17 | オリンパス株式会社 | Image processing device and light field imaging device |
| JP2022544292A (en) * | 2019-08-12 | 2022-10-17 | モレキュラー デバイシーズ (オーストリア) ゲーエムベーハー | Sample imaging via two-step brightfield reconstruction |
| JP7609847B2 (en) | 2019-08-12 | 2025-01-07 | モレキュラー デバイシーズ (オーストリア) ゲーエムベーハー | Sample imaging via two-stage brightfield reconstruction |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6272099B2 (en) | 2018-01-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5898501B2 (en) | Image processing apparatus, imaging apparatus, control method, program, and recording medium | |
| JP6204660B2 (en) | Imaging apparatus and control method thereof | |
| US9208569B2 (en) | Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data | |
| US10855903B2 (en) | Image processing apparatus, image capturing apparatus, control method and recording medium | |
| JP2013145314A5 (en) | ||
| KR101730342B1 (en) | Image processing apparatus, image processing method, and storage medium | |
| JP6095266B2 (en) | Image processing apparatus and control method thereof | |
| JP2014138290A (en) | Imaging device and imaging method | |
| EP3002940A1 (en) | Imaging apparatus and imaging method | |
| US20160093064A1 (en) | Image processing apparatus, image processing method, and storage medium | |
| US9307168B2 (en) | Image capture apparatus and method for controlling image capture apparatus in which defective pixels are indicated | |
| JP6087617B2 (en) | Imaging apparatus and control method thereof | |
| US20150287208A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium | |
| JP6272099B2 (en) | Image processing apparatus, control method, and program | |
| JP6761230B2 (en) | Image processing device, its control method, program and imaging device | |
| KR101599434B1 (en) | Spatial sensing device and method for spatial sensing of image sensing device using auto focus control | |
| JP7373297B2 (en) | Image processing device, image processing method and program | |
| US20160094784A1 (en) | Image processing apparatus, image processing method, computer program and imaging apparatus | |
| JP5928024B2 (en) | Image processing apparatus, image processing method, and program | |
| JP7023673B2 (en) | Focus control device, focus control method, and image pickup device | |
| JP6757245B2 (en) | Video playback device, imaging device, video playback method and program | |
| JP6478536B2 (en) | Image processing apparatus and imaging apparatus, and control method and program thereof | |
| JP6566800B2 (en) | Imaging apparatus and imaging method | |
| JP6106026B2 (en) | Image processing apparatus, imaging apparatus, playback apparatus, control method, and program | |
| JP6387149B2 (en) | Image processing apparatus, imaging apparatus, control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170302 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171122 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171201 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171228 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6272099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |