[go: up one dir, main page]

JP2013162173A - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP2013162173A
JP2013162173A JP2012020176A JP2012020176A JP2013162173A JP 2013162173 A JP2013162173 A JP 2013162173A JP 2012020176 A JP2012020176 A JP 2012020176A JP 2012020176 A JP2012020176 A JP 2012020176A JP 2013162173 A JP2013162173 A JP 2013162173A
Authority
JP
Japan
Prior art keywords
correction
unit
imaging
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012020176A
Other languages
Japanese (ja)
Other versions
JP5978636B2 (en
Inventor
Naoki Jinbo
直樹 神保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012020176A priority Critical patent/JP5978636B2/en
Publication of JP2013162173A publication Critical patent/JP2013162173A/en
Application granted granted Critical
Publication of JP5978636B2 publication Critical patent/JP5978636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】適切に欠陥画素の補正処理を行う。
【解決手段】撮像装置は、複数の画素が配置され、光に応じた信号を出力する撮像素子を有し、被写体に応じた画像データを生成する撮像部と、画像データにより被写体のシーンに関する情報を生成するシーン情報生成部と、被写体のシーンに関する情報に基づいて、画像データを補正する補正部であって、撮像素子に含まれる欠陥画素から出力された信号により生成された画像データを補正する補正部とを備える。
【選択図】図1
A defective pixel is corrected appropriately.
An imaging apparatus includes an imaging element in which a plurality of pixels are arranged and outputs a signal corresponding to light, generates an image data corresponding to a subject, and information on a scene of the subject based on the image data A scene information generation unit that generates image data and a correction unit that corrects image data based on information related to the scene of the subject, and corrects image data generated by a signal output from a defective pixel included in the image sensor. A correction unit.
[Selection] Figure 1

Description

本発明は、撮像装置、及びプログラムに関する。   The present invention relates to an imaging apparatus and a program.

近年、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を備えた撮像装置が広く使用されている。この撮像装置が備えるCCDイメージセンサやCMOSイメージセンサなどの撮像素子は、その製造過程等において画素単位で欠陥が生じ、異常に高い信号レベルを出力する白キズなどの欠陥画素が含まれている場合がある。このような欠陥画素の影響を低減するために、撮像装置は、欠陥画素の補正処理を行うことが一般的である(例えば、特許文献1を参照)。   2. Description of the Related Art In recent years, imaging devices including imaging elements such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors have been widely used. When an imaging device such as a CCD image sensor or a CMOS image sensor provided in this imaging device has a defect in a pixel unit in its manufacturing process or the like, and includes defective pixels such as white scratches that output an abnormally high signal level There is. In order to reduce the influence of such defective pixels, it is common for an imaging apparatus to perform defective pixel correction processing (see, for example, Patent Document 1).

特開2007−124056号公報Japanese Patent Laid-Open No. 2007-124056

しかしながら、例えば、特許文献1に記載の撮像装置は、欠陥画素の欠陥レベルが撮像条件により設定された所定レベルより大きいか否かの判定結果に応じて、補正処理を切り替えている。なお、特許文献1に記載の撮像装置では、この補正処理を切り替えに用いられる所定レベルの値は、撮像条件に応じて変更される。このように、上述の撮像装置は、撮像された画像データには依存しない撮像条件によって補正処理が切り替えられるため、撮像された画像データによっては、欠陥画素の補正処理を行うことにより画質の劣化を招いてしまうことがある。
このように、上述の撮像装置は、欠陥画素の補正処理を適切に行うことができないことがある。
However, for example, the imaging apparatus described in Patent Document 1 switches the correction process according to the determination result of whether or not the defect level of the defective pixel is higher than a predetermined level set by the imaging condition. In the imaging apparatus described in Patent Document 1, the value of a predetermined level used for switching the correction process is changed according to the imaging condition. As described above, since the above-described imaging apparatus switches the correction process depending on the imaging condition that does not depend on the captured image data, the image quality deterioration may be caused by performing the correction process on the defective pixel depending on the captured image data. You may be invited.
As described above, the above-described imaging device may not be able to appropriately perform the correction process of the defective pixel.

本発明は、上記問題を解決すべくなされたもので、その目的は、適切に欠陥画素の補正処理を行うことができる撮像装置、及びプログラムを提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an imaging apparatus and a program capable of appropriately correcting defective pixels.

上記問題を解決するために、本発明一実施形態は、被写体に応じた画像データを生成する撮像部と、前記画像データにより前記被写体のシーンに関する情報を生成するシーン情報生成部と、前記情報に基づいて、前記画像データを補正する補正部と、を備えることを特徴とする撮像装置である。   In order to solve the above problem, an embodiment of the present invention includes an imaging unit that generates image data according to a subject, a scene information generation unit that generates information about the scene of the subject from the image data, and the information And a correction unit that corrects the image data based on the image data.

また、本発明一実施形態は、コンピュータに、複数の画素が配置され、光に応じた信号を出力する撮像素子を有する撮像部が、被写体に応じた画像データを生成する撮像手順と、シーン情報生成部が、前記画像データにより前記被写体のシーンに関する情報を生成するシーン情報生成手順と、補正部が、前記情報に基づいて、前記画像データを補正する補正手順であって、前記撮像素子に含まれる欠陥画素から出力された前記信号により生成された画像データを補正する補正手順とを実行させるためのプログラムである。   According to one embodiment of the present invention, an imaging procedure in which a plurality of pixels are arranged in a computer and an imaging unit that outputs a signal corresponding to light generates image data corresponding to a subject, scene information A scene information generation procedure in which the generation unit generates information regarding the scene of the subject from the image data, and a correction unit is a correction procedure in which the image data is corrected based on the information, and is included in the imaging element. And a correction procedure for correcting image data generated by the signal output from the defective pixel.

本発明によれば、適切に欠陥画素の補正処理を行うことができる。   According to the present invention, it is possible to appropriately perform defective pixel correction processing.

本実施形態による撮像装置を示すブロック図である。It is a block diagram which shows the imaging device by this embodiment. シーン解析情報の分類の一例を示す図である。It is a figure which shows an example of the classification | category of scene analysis information. 第1の実施形態における欠陥画素の補正処理を示すフローチャートである。It is a flowchart which shows the correction process of the defective pixel in 1st Embodiment. 同実施形態における分割エリアごとのシーン解析の一例を示す図である。It is a figure which shows an example of the scene analysis for every division area in the embodiment. 第2の実施形態における欠陥画素の補正処理を示すフローチャートである。It is a flowchart which shows the correction process of the defective pixel in 2nd Embodiment.

以下、本発明の一実施形態による撮像装置について図面を参照して説明する。
[第1の実施形態]
図1は、本実施形態による撮像装置100を示すブロック図である。
この図において、撮像装置100は、撮像部10、バッファメモリ部30、画像処理部40、表示部50、記憶部60、通信部70、操作部80、及び制御部90を備えている。
なお、本実施形態では、一例として、撮像装置100がデジタル一眼レフカメラである場合について説明する。
Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram illustrating an imaging apparatus 100 according to the present embodiment.
In this figure, the imaging apparatus 100 includes an imaging unit 10, a buffer memory unit 30, an image processing unit 40, a display unit 50, a storage unit 60, a communication unit 70, an operation unit 80, and a control unit 90.
In the present embodiment, as an example, a case where the imaging apparatus 100 is a digital single lens reflex camera will be described.

撮像部10は、複数のレンズを備える光学系11、撮像素子(12,14)、A/D(アナログ/デジタル)変換部(13,15)、及びミラー16を備える。この撮像部10は、設定された撮像条件(例えば、絞り値、露出値、撮像感度、露光時間など)に基づいて制御部90によって制御される。撮像部10は、光学系11を介した光学像を撮像素子12又は撮像素子14に結像させ、A/D変換部13又はA/D変換部15によって変換された当該光学像に基づく画像データを生成する。すなわち、撮像部10は、複数の画素が配置され、光に応じた信号を出力する撮像素子(12,14)を有し、光学系11を介した光学像の画像を撮像し、被写体に応じた画像データを生成する。上述した光学系11は、着脱可能に取り付けられている。   The imaging unit 10 includes an optical system 11 including a plurality of lenses, an imaging element (12, 14), an A / D (analog / digital) conversion unit (13, 15), and a mirror 16. The imaging unit 10 is controlled by the control unit 90 based on set imaging conditions (for example, aperture value, exposure value, imaging sensitivity, exposure time, etc.). The imaging unit 10 forms an optical image via the optical system 11 on the imaging element 12 or the imaging element 14, and image data based on the optical image converted by the A / D conversion unit 13 or the A / D conversion unit 15. Is generated. That is, the imaging unit 10 includes an imaging element (12, 14) in which a plurality of pixels are arranged and outputs a signal corresponding to light, captures an image of an optical image via the optical system 11, and corresponds to the subject. Generated image data. The optical system 11 described above is detachably attached.

なお、撮像部10は、実際に撮像画像として記録する画像データである撮像画像データと、撮像前に被写体などを使用者が確認して、撮像シーンを解析するためのスルー画像データとを生成する。撮像部10は、スルー画像データを生成する場合、光学系11を介した光学像をミラー16により反射させて撮像素子14に結像させ、A/D変換部15によって変換された当該光学像に基づく画像データを生成する。また、撮像部10は、撮像画像データを生成する場合、撮像指示によりミラー16を光学系11の光路から移動させて撮像素子12に結像させ、A/D変換部13によって変換された当該光学像に基づく画像データを生成する。   Note that the imaging unit 10 generates captured image data that is image data that is actually recorded as a captured image, and through image data for analyzing a captured scene by a user confirming a subject or the like before imaging. . When generating the through image data, the imaging unit 10 reflects the optical image via the optical system 11 by the mirror 16 to form an image on the imaging element 14, and converts the optical image into the optical image converted by the A / D conversion unit 15. Generate based image data. Further, when generating captured image data, the imaging unit 10 moves the mirror 16 from the optical path of the optical system 11 according to an imaging instruction to form an image on the imaging element 12, and the optical converted by the A / D conversion unit 13. Image data based on the image is generated.

撮像素子12は、例えば、受光面(不図示)に結像した光学像を電気信号(電圧信号)に変換して、A/D変換部13に供給する。撮像素子12の受光面は、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの格子状に配置されている複数のイメージセンサ(不図示)で構成される。それぞれのイメージセンサは、撮像する画像の各画素に対応し、結像された光学像を電圧値に変換する。すなわち、撮像素子12は、光学系11を介して撮像素子12に入射された光に応じた画素信号を生成することによって画像を撮像する。なお、本実施形態では、撮像素子12は、メインイメージセンサであり、上述したように撮像画像データの画素信号を生成する。
また、撮像素子12には、光によらずに高い電圧信号を出力する欠陥画素を有している。本実施形態における撮像装置100は、この欠陥画素に対応する画素データを後述する補正処理により補正する。
For example, the image sensor 12 converts an optical image formed on a light receiving surface (not shown) into an electric signal (voltage signal) and supplies the electric signal to the A / D converter 13. The light receiving surface of the image pickup device 12 is configured by a plurality of image sensors (not shown) arranged in a grid such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. Each image sensor corresponds to each pixel of the image to be captured, and converts the formed optical image into a voltage value. That is, the image sensor 12 captures an image by generating a pixel signal corresponding to light incident on the image sensor 12 via the optical system 11. In the present embodiment, the image sensor 12 is a main image sensor, and generates a pixel signal of captured image data as described above.
Further, the image sensor 12 has a defective pixel that outputs a high voltage signal regardless of light. The imaging apparatus 100 according to the present embodiment corrects pixel data corresponding to the defective pixel by a correction process described later.

撮像素子14は、例えば、受光面(不図示)に結像した光学像を電気信号(電圧信号)に変換して、A/D変換部15に供給する。撮像素子14の受光面は、撮像素子12と同様に、例えば、CCDイメージセンサやCMOSイメージセンサなどの格子状に配置されている複数のイメージセンサ(不図示)で構成される。それぞれのイメージセンサは、撮像する画像の各画素に対応し、結像された光学像を電圧値に変換する。なお、本実施形態では、撮像素子12は、サブイメージセンサであり、上述したようにスルー画像データの画素信号を生成する。また、スルー画像データは、撮像しようとする被写体の確認、及び撮像シーンの解析に用いられるので、撮像素子14は、撮像素子12よりも少なく画素数(解像度)の画像データを生成するものであってもよい。   For example, the image sensor 14 converts an optical image formed on a light receiving surface (not shown) into an electric signal (voltage signal) and supplies the electric signal to the A / D converter 15. The light receiving surface of the image sensor 14 is composed of a plurality of image sensors (not shown) arranged in a lattice pattern such as a CCD image sensor or a CMOS image sensor, for example, as with the image sensor 12. Each image sensor corresponds to each pixel of the image to be captured, and converts the formed optical image into a voltage value. In the present embodiment, the image sensor 12 is a sub-image sensor, and generates a pixel signal of through image data as described above. Further, since the through image data is used for confirmation of a subject to be imaged and analysis of an imaging scene, the image sensor 14 generates image data having a smaller number of pixels (resolution) than the image sensor 12. May be.

A/D変換部13は、撮像素子12によって変換された電圧値(画素信号)をアナログ−デジタル変換し、この変換したデジタル信号(画素データ)により形成される画像データを出力する。
A/D変換部15は、撮像素子14によって変換された電圧値(画素信号)をアナログ−デジタル変換し、この変換したデジタル信号(画素データ)により形成される画像データを出力する。
The A / D converter 13 performs analog-to-digital conversion on the voltage value (pixel signal) converted by the image sensor 12 and outputs image data formed by the converted digital signal (pixel data).
The A / D conversion unit 15 performs analog-digital conversion on the voltage value (pixel signal) converted by the image sensor 14 and outputs image data formed by the converted digital signal (pixel data).

バッファメモリ部30は、撮像部10によって撮像された画像データなどを、一時的に記憶する。   The buffer memory unit 30 temporarily stores image data captured by the imaging unit 10 and the like.

表示部50は、例えば、液晶ディスプレイであり、撮像部10によって撮像された画像データ(スルー画像、及び撮像画像データ)や、操作画面等を表示する。なお、表示部50は、ファインダ内の表示部であってもよい。   The display unit 50 is, for example, a liquid crystal display, and displays image data (through image and captured image data) captured by the imaging unit 10, an operation screen, and the like. The display unit 50 may be a display unit in the finder.

記憶部60は、制御部90の処理に使用する各種情報、撮像部10による撮像条件、画像処理条件、等を記憶する。また、記憶部60は、欠陥画素の位置情報を記憶する欠陥記憶部61を備えている。   The storage unit 60 stores various information used for processing of the control unit 90, imaging conditions by the imaging unit 10, image processing conditions, and the like. The storage unit 60 includes a defect storage unit 61 that stores position information of defective pixels.

欠陥記憶部61は、例えば、不揮発性メモリであり、撮像素子12が有する欠陥画素の位置情報(例えば、撮像素子12のアドレス情報)を予め記憶している。この欠陥画素の位置情報は、例えば、製造時に検出された撮像素子12が有する欠陥画素の位置情報が予め記憶されている。また、欠陥画素は、撮像条件(例えば、ISO感度(撮像感度)、及びシャッタ秒時)によって、目立ち易さの度合が変動する。すなわち、同じ位置の欠陥画素であっても、撮像条件によって、欠陥画素と判定した方がよい場合と、欠陥画素と判定せずに無視できる場合とが存在することがある。そのため、欠陥記憶部61は、撮像条件に対応付けて欠陥画素の位置情報を記憶している。   The defect storage unit 61 is, for example, a nonvolatile memory, and stores in advance position information (for example, address information of the image sensor 12) of defective pixels included in the image sensor 12. As the position information of the defective pixel, for example, the position information of the defective pixel included in the image sensor 12 detected at the time of manufacture is stored in advance. Further, the degree of conspicuousness of the defective pixel varies depending on the imaging conditions (for example, ISO sensitivity (imaging sensitivity) and shutter speed). That is, there are cases where it is better to determine a defective pixel at the same position, depending on the imaging conditions, and cases where the defective pixel can be ignored without being determined as a defective pixel. Therefore, the defect storage unit 61 stores position information of defective pixels in association with the imaging conditions.

通信部70は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への画像データの書込み、読み出し、又は消去を行う。
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であり、例えば、撮像部10によって撮像された撮像画像データなどを記憶する。
The communication unit 70 is connected to a removable storage medium 200 such as a card memory, and performs writing, reading, or erasing of image data on the storage medium 200.
The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100, and stores captured image data captured by the imaging unit 10, for example.

操作部80は、例えば、電源スイッチ、シャッターボタン、十字キー、確定ボタン、削除ボタン、及び、その他の操作キーを含み、使用者によって操作されることで、使用者の操作入力を受け付けて、制御部90に供給する。   The operation unit 80 includes, for example, a power switch, a shutter button, a cross key, a confirmation button, a delete button, and other operation keys. The operation unit 80 is operated by a user to receive a user's operation input and perform control. To the unit 90.

バス300は、撮像部10と、バッファメモリ部30と、画像処理部40と、表示部50と、記憶部60と、通信部70、操作部80と、制御部90とに接続され、各部から出力された画像データや制御信号等を転送する。   The bus 300 is connected to the imaging unit 10, the buffer memory unit 30, the image processing unit 40, the display unit 50, the storage unit 60, the communication unit 70, the operation unit 80, and the control unit 90. The output image data and control signals are transferred.

制御部90は、例えば、CPU(Central processing unit)などを含み、撮像装置100が備える各構成を制御する。制御部90は、例えば、撮像素子14とA/D変換部15とを介して得られるスルー画像データを表示部50に表示させる。また、制御部90は、例えば、撮像素子14とA/D変換部15とを介して得られるスルー画像データに基づいて、撮像シーンの解析を行う。制御部90は、解析した撮像シーンに応じた撮像条件の設定を行う、又は解析した撮像シーンに応じた撮像画像データの画像処理を画像処理部40に実行させる。この撮像シーンの解析については、詳細に後述する。   The control unit 90 includes, for example, a CPU (Central processing unit) and the like, and controls each component included in the imaging apparatus 100. For example, the control unit 90 causes the display unit 50 to display through image data obtained via the image sensor 14 and the A / D conversion unit 15. In addition, the control unit 90 analyzes the imaging scene based on, for example, through image data obtained through the imaging element 14 and the A / D conversion unit 15. The control unit 90 sets an imaging condition according to the analyzed imaging scene, or causes the image processing unit 40 to perform image processing of captured image data according to the analyzed imaging scene. This imaging scene analysis will be described later in detail.

また、制御部90は、例えば、操作部80を介して撮像指示を受け付けた際に、撮像素子12とA/D変換部13とを介して得られる撮像画像データを、画像処理部40に撮像素子12が有する欠陥画素の補正処理を実行させる。この欠陥画素の補正処理については、詳細に後述する。また、制御部90は、例えば、画像処理部40によって補正された撮像画像データを撮像された画像として、記憶媒体200に記憶させる。
また、制御部90は、シーン解析部91を備えている。
For example, when the imaging unit 12 receives an imaging instruction via the operation unit 80, the control unit 90 captures captured image data obtained via the imaging element 12 and the A / D conversion unit 13 in the image processing unit 40. Correction processing of defective pixels included in the element 12 is executed. The defective pixel correction process will be described later in detail. For example, the control unit 90 stores the captured image data corrected by the image processing unit 40 in the storage medium 200 as a captured image.
The control unit 90 includes a scene analysis unit 91.

シーン解析部91(シーン情報生成部)は、画像データ(例えば、スルー画像データ)に基づいて、撮像シーンを解析する情報であるシーン解析情報を生成する。なお、シーン解析情報は、例えば、被写体のシーンに関する情報である。ここで、スルー画像データは、撮像素子12の複数の領域ごとに複数の分割エリア(領域)に分割されており、シーン解析部91は、この分割エリアごとに、シーン解析情報を生成する。この複数の分割エリアは、例えば、スルー画像データを所定の数に等分割したエリアであり、スルー画像データに対応する撮像画像データにおいても同様に等分割したエリアとなる。すなわち、シーン解析部91は、撮像素子12の複数の領域ごとにシーン解析情報を生成する。   The scene analysis unit 91 (scene information generation unit) generates scene analysis information, which is information for analyzing a captured scene, based on image data (for example, through image data). The scene analysis information is information related to the scene of the subject, for example. Here, the through image data is divided into a plurality of divided areas (regions) for each of the plurality of regions of the image sensor 12, and the scene analysis unit 91 generates scene analysis information for each of the divided areas. The plurality of divided areas are, for example, areas in which the through image data is equally divided into a predetermined number, and are similarly equally divided in the captured image data corresponding to the through image data. That is, the scene analysis unit 91 generates scene analysis information for each of a plurality of areas of the image sensor 12.

シーン解析部91は、生成したシーン解析情報に基づいて、撮像シーンを分割エリアごとに解析(判定)する。ここで、シーン解析情報とは、例えば、色情報、輝度情報、周波数情報などの撮像シーンを解析するための情報である。また、撮像シーン情報は、例えば、人物、顔、背景、夜景、空などの領域を示す情報であり、シーン解析情報などの特徴量から被写体のパターン予測した情報なども含まれる。シーン解析情報には、例えば、色情報、輝度情報、周波数情報(周波数成分)などの撮像シーンを解析するための情報とともに、人物、顔、背景、夜景、空などの領域を示す撮像シーン情報を含めてもよい。シーン解析部91は、生成したシーン解析情報を、バス300を介して画像処理部40に供給する。
制御部90は、シーン解析部91によって解析された撮像シーン情報に基づいて、AF(オートフォーカス)制御や撮像条件の設定を行う。また、制御部90は、シーン解析部91によって解析された撮像シーン情報に応じて、撮像画像データの画像処理を画像処理部40に実行させてもよい。
The scene analysis unit 91 analyzes (determines) the captured scene for each divided area based on the generated scene analysis information. Here, the scene analysis information is information for analyzing a captured scene such as color information, luminance information, and frequency information. The captured scene information is, for example, information indicating areas such as a person, a face, a background, a night view, and the sky, and includes information obtained by predicting a subject pattern from a feature amount such as scene analysis information. The scene analysis information includes, for example, imaging scene information indicating areas such as a person, a face, a background, a night view, and the sky, together with information for analyzing the imaging scene such as color information, luminance information, and frequency information (frequency component). May be included. The scene analysis unit 91 supplies the generated scene analysis information to the image processing unit 40 via the bus 300.
The control unit 90 performs AF (autofocus) control and setting of imaging conditions based on the imaging scene information analyzed by the scene analysis unit 91. Further, the control unit 90 may cause the image processing unit 40 to perform image processing of the captured image data in accordance with the captured scene information analyzed by the scene analyzing unit 91.

画像処理部40は、記憶部60に記憶されている画像処理条件に基づいて、バッファメモリ部30に記憶されている画像データに対して画像処理を実行する。画像処理部40は、例えば、シーン解析部91から供給された撮像シーン情報に応じて、画像処理を行ってもよい。ここでいうバッファメモリ部30に記憶されている画像データとは、画像処理部40に入力される画像データ(入力画像)のことであり、例えば、撮像画像データ、スルー画像データ、又は、記憶媒体200から読み出された撮像画像データのことである。また、画像処理部40は、撮像素子12が有する欠陥画素に対応する画素データを補正処理する補正部41を備えている。   The image processing unit 40 performs image processing on the image data stored in the buffer memory unit 30 based on the image processing conditions stored in the storage unit 60. For example, the image processing unit 40 may perform image processing according to the captured scene information supplied from the scene analysis unit 91. The image data stored in the buffer memory unit 30 here is image data (input image) input to the image processing unit 40. For example, captured image data, through image data, or a storage medium This is captured image data read from 200. Further, the image processing unit 40 includes a correction unit 41 that performs correction processing on pixel data corresponding to a defective pixel included in the image sensor 12.

補正部41は、撮像素子12によって撮像された撮像画像データに含まれる画素データのうちの、撮像素子12が有する欠陥画素に対応する画素データを、シーン解析部91によって生成されたシーン解析情報に応じて、補正処理する。つまり、補正部41は、情報に基づいて、撮像画像データを補正する。例えば、補正部41は、撮像素子12に含まれる欠陥画素から出力された信号により生成された撮像画像データを補正する。なお、撮像画像データは、複数の分割エリアに分割されている。補正部41は、複数の分割エリアに対応したシーン解析情報に応じて、分割エリアごとに補正処理を行う。すなわち、補正部41は、シーン解析部91によって分割エリアごとに生成されたシーン解析情報に応じて、分割エリアごとに欠陥画素に対応する画素データを補正処理する。つまり、補正部41は、撮像素子12の領域ごとに生成されたシーン解析情報に基づいて、撮像素子12の領域に対応する撮像画像データを補正する。   The correction unit 41 uses pixel data corresponding to a defective pixel included in the image sensor 12 among pixel data included in the captured image data captured by the image sensor 12 in the scene analysis information generated by the scene analysis unit 91. Accordingly, correction processing is performed. That is, the correction unit 41 corrects the captured image data based on the information. For example, the correction unit 41 corrects captured image data generated by a signal output from a defective pixel included in the image sensor 12. Note that the captured image data is divided into a plurality of divided areas. The correction unit 41 performs correction processing for each divided area according to the scene analysis information corresponding to the plurality of divided areas. That is, the correction unit 41 corrects pixel data corresponding to the defective pixel for each divided area according to the scene analysis information generated for each divided area by the scene analysis unit 91. That is, the correction unit 41 corrects the captured image data corresponding to the area of the image sensor 12 based on the scene analysis information generated for each area of the image sensor 12.

具体的に、補正部41は、撮像条件に対応した欠陥画素の位置情報を欠陥記憶部61から読み出す。補正部41は、シーン解析部91によって生成されたシーン解析情報に応じて、例えば、2つの補正パターン(補正パターンA及び補正パターンB)を切り替えて、分割エリアごとに欠陥画素に対応する画素データを補正処理する。ここで、2つの補正パターン(補正処理パターン)は、互いに異なる補正レベルに対応した補正処理をそれぞれ行う補正処理パターンである。   Specifically, the correction unit 41 reads out the position information of the defective pixel corresponding to the imaging condition from the defect storage unit 61. The correction unit 41 switches, for example, two correction patterns (correction pattern A and correction pattern B) according to the scene analysis information generated by the scene analysis unit 91, and pixel data corresponding to defective pixels for each divided area. Is corrected. Here, the two correction patterns (correction processing patterns) are correction processing patterns for performing correction processing corresponding to different correction levels.

例えば、補正パターンAは、補正レベル“A”に対応する欠陥画素が目立ち易い場合の補正パターンであり、より多くの欠陥画素によるキズを補正する必要があって、少々の補正痕が残ることよりも欠陥画素を補正することが優先される場合の補正パターンである。また、補正パターンBは、逆に、補正レベル“B”に対応する欠陥画素が目立ち難い場合の補正パターンであり、欠陥画素によるキズの数は少なく、なるべく補正痕を残さないように補正する場合の補正パターンである。ここで、欠陥画素の近傍に濃淡の境界が存在する場合やコントラストが急激変化している場合などに、例えば、過補正していまい補正跡が残ってしまうことである。この過補正などによる補正跡のことを補正痕という。この補正痕が発生した場合に、補正処理を行った撮像画像データは、画質の劣化を招いてしまうことがある。   For example, the correction pattern A is a correction pattern in a case where defective pixels corresponding to the correction level “A” are easily noticeable, and it is necessary to correct defects due to more defective pixels, and a small amount of correction marks remain. Is a correction pattern when priority is given to correcting defective pixels. On the other hand, the correction pattern B is a correction pattern when the defective pixel corresponding to the correction level “B” is not conspicuous. This is a correction pattern. Here, for example, when there is a light / dark boundary near the defective pixel, or when the contrast changes rapidly, a correction mark that remains overcorrected remains. A correction trace due to this overcorrection or the like is referred to as a correction trace. When this correction mark is generated, the captured image data subjected to the correction process may cause deterioration in image quality.

なお、2つの補正パターンは、例えば、補正レベル(“A”,“B”)に対応して、欠陥画素に対応する画素データを補正処理するか否かの閾値が異なる。すなわち、補正パターンAは、補正処理するか否かの閾値が補正パターンBより低く、補正パターンBより多くの欠陥画素を補正処理することが可能である。また、補正パターンBは、補正処理するか否かの閾値が補正パターンAより高く、補正パターンAより少ない欠陥画素を補正処理することが可能である。補正部41は、所定の処理期間内に欠陥画素の補正処理を行うために、補正パターンAである場合に、例えば、補正パターンBよりも簡略化した補正処理を実行し、補正痕が残り易い補正処理を実行する。   The two correction patterns have different thresholds for determining whether or not to correct pixel data corresponding to defective pixels, for example, corresponding to the correction levels (“A” and “B”). That is, the correction pattern A has a lower threshold value for whether or not to perform correction processing than the correction pattern B, and can correct more defective pixels than the correction pattern B. In addition, the correction pattern B has a threshold value for determining whether or not to perform correction processing higher than that of the correction pattern A, and it is possible to perform correction processing on defective pixels that are fewer than the correction pattern A. In the case of the correction pattern A, for example, the correction unit 41 performs correction processing that is simplified compared to the correction pattern B to easily perform correction processing of defective pixels within a predetermined processing period, and correction marks are likely to remain. Execute correction processing.

補正部41は、例えば、各分割エリアのシーン解析情報に応じて、各分割エリアが、補正痕が目立つ画像(エリア)であるか否かを判定する。補正部41は、補正痕が目立つ画像(エリア)であると判定した場合に、判定した分割エリアを上述の補正パターンBにより補正処理する。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合に、判定した分割エリアを上述の補正パターンAにより補正処理する。   For example, the correction unit 41 determines whether or not each divided area is an image (area) in which correction marks are conspicuous in accordance with the scene analysis information of each divided area. When it is determined that the correction mark is an image (area) where the correction mark is conspicuous, the correction unit 41 corrects the determined divided area using the correction pattern B described above. Further, when it is determined that the correction trace is not an image (area) where the correction mark is conspicuous, the correction unit 41 corrects the determined divided area using the correction pattern A described above.

図2は、本実施形態におけるシーン解析情報の分類の一例を示す図である。
この図において、表は、シーン解析情報を(a)欠陥画素の補正痕が目立つ場合と、(b)欠陥画素の補正痕が目立つ場合との2つに分類した場合の一例を示している。
補正部41は、シーン解析情報が図2(a)に示す欠陥画素の補正痕が目立つ場合に、補正痕が目立つ画像(エリア)であると判定する。ここで、図2(a)に示す欠陥画素の補正痕が目立つ場合とは、例えば、撮像シーン情報が人の顔である場合、撮像シーン情報が空である場合、周波数成分が高い(所定の閾値Fより高い)場合、及び輝度情報が中間領域(所定の閾値Y1<輝度<所定の閾値Y2)である場合などである。
FIG. 2 is a diagram illustrating an example of classification of scene analysis information in the present embodiment.
In this figure, the table shows an example of the case where the scene analysis information is classified into two cases: (a) when a defective pixel correction mark is conspicuous and (b) when a defective pixel correction mark is conspicuous.
The correction unit 41 determines that the correction trace is an image (area) where the correction trace is conspicuous when the correction trace of the defective pixel shown in FIG. Here, the case where the correction mark of the defective pixel shown in FIG. 2A is conspicuous means that, for example, when the imaging scene information is a human face, or when the imaging scene information is empty, the frequency component is high (predetermined A case where the luminance information is an intermediate region (predetermined threshold Y1 <luminance <predetermined threshold Y2).

また、補正部41は、シーン解析情報が図2(b)に示す欠陥画素の補正痕が目立たない場合に、補正痕が目立たない画像(エリア)であると判定する。ここで、図2(b)に示す欠陥画素の補正痕が目立たない場合とは、例えば、撮像シーン情報が背景である場合、撮像シーン情報が夜景である場合、周波数成分が低い(所定の閾値Fより低い)場合、及び輝度情報が高い(所定の閾値Y2より高い)又は低い(所定の閾値Y1より低い)領域である場合などである。   The correction unit 41 determines that the correction analysis mark is an image (area) where the correction mark is not conspicuous when the correction mark of the defective pixel shown in FIG. 2B is not conspicuous. Here, the case where the correction trace of the defective pixel shown in FIG. 2B is not conspicuous is, for example, when the imaging scene information is the background, or when the imaging scene information is a night scene, the frequency component is low (a predetermined threshold value). And the case where the luminance information is high (higher than a predetermined threshold Y2) or low (lower than a predetermined threshold Y1).

このように、補正部41は、シーン解析情報に応じて、互いに異なる補正レベルに対応した補正処理をそれぞれ行う複数(例えば2つ)の補正パターンを切り替えて、欠陥画素に対応する画素データを補正処理する。補正部41は、補正した撮像画像データをバッファメモリ部30に記憶させる。   As described above, the correction unit 41 corrects the pixel data corresponding to the defective pixel by switching a plurality of (for example, two) correction patterns for performing correction processing corresponding to different correction levels according to the scene analysis information. To process. The correction unit 41 stores the corrected captured image data in the buffer memory unit 30.

次に、本実施形態における撮像装置100の動作について説明する。
撮像装置100は、撮像対象となる被写体を撮像する場合、制御部90が、まず、撮像素子14とA/D変換部15とを介して定期的に取得し、バッファメモリ部30に記憶させる。制御部90は、バッファメモリ部30に記憶させスルー画像データを表示部50に表示させる。この表示部50に表示されているスルー画像を確認することにより、使用者は、撮像しようとしている被写体を確認する。
Next, the operation of the imaging apparatus 100 in this embodiment will be described.
In the imaging apparatus 100, when the subject to be imaged is imaged, the control unit 90 first periodically acquires the image via the imaging element 14 and the A / D conversion unit 15 and stores it in the buffer memory unit 30. The control unit 90 causes the buffer memory unit 30 to store the through image data on the display unit 50. By confirming the through image displayed on the display unit 50, the user confirms the subject to be imaged.

次に、制御部90は、操作部80を介して撮像指示を受け付けた際に、撮像素子12とA/D変換部13とを介して得られる画像データを、撮像された撮像画像データとして、バッファメモリ部30に記憶させる(撮像手順)。なお、制御部90のシーン解析部91は、バッファメモリ部30に記憶されているスルー画像データに基づいて、分割エリアごとのシーン解析情報を生成し(シーン情報生成手順)、撮像シーン情報を解析する。
次に、制御部90は、画像処理部40の補正部41に、撮像素子12によって撮像された撮像画像データに対して欠陥画素の補正処理を実行させる。すなわち、制御部90は、補正部41に、シーン解析部91によって生成されたシーン解析情報に応じた欠陥画素の補正処理を実行させる(補正手順)。
Next, when the control unit 90 receives an imaging instruction via the operation unit 80, the image data obtained via the imaging element 12 and the A / D conversion unit 13 is taken as captured image data. The data is stored in the buffer memory unit 30 (imaging procedure). The scene analysis unit 91 of the control unit 90 generates scene analysis information for each divided area based on the through image data stored in the buffer memory unit 30 (scene information generation procedure), and analyzes the captured scene information. To do.
Next, the control unit 90 causes the correction unit 41 of the image processing unit 40 to perform defective pixel correction processing on the captured image data captured by the image sensor 12. That is, the control unit 90 causes the correction unit 41 to execute a correction process for defective pixels according to the scene analysis information generated by the scene analysis unit 91 (correction procedure).

図3は、本実施形態における欠陥画素の補正処理を示すフローチャートである。
この図において、まず、画像処理部40の補正部41は、バス300を介して、シーン解析部91から分割エリアごとのシーン解析情報を取得する(ステップS101)。
次に、補正部41は、撮像画像データが撮像された際の撮像感度情報(例えば、ISO感度情報)を記憶部60から取得する(ステップS102)。
FIG. 3 is a flowchart showing a defective pixel correction process according to this embodiment.
In this figure, first, the correction unit 41 of the image processing unit 40 acquires scene analysis information for each divided area from the scene analysis unit 91 via the bus 300 (step S101).
Next, the correction unit 41 acquires imaging sensitivity information (for example, ISO sensitivity information) when the captured image data is captured from the storage unit 60 (step S102).

次に、補正部41は、撮像画像データが撮像された際のシャッタ秒時情報を記憶部60から取得する(ステップS103)。ここで、シャッタ秒時情報とは、露光秒時又は露光時間のことである。シャッタ秒時情報には、撮像素子12における画素データのリセット又は画素データの読み出し時刻から次の画素データの読み出し時刻までの撮像素子12の電荷蓄積時間を含めてもよい。   Next, the correction unit 41 acquires shutter time information when the captured image data is captured from the storage unit 60 (step S103). Here, the shutter time information is exposure time or exposure time. The shutter time information may include the charge accumulation time of the image sensor 12 from the reset of the pixel data in the image sensor 12 or the read time of the pixel data to the next pixel data read time.

次に、補正部41は、取得したISO感度情報、及びシャッタ秒時情報に基づいて、欠陥画素情報を取得する(ステップS104)。すなわち、補正部41は、記憶部60の欠陥記憶部61から撮像条件であるISO感度情報、及びシャッタ秒時情報に対応付けられた欠陥画素の位置情報を読み出して、取得する。   Next, the correction unit 41 acquires defective pixel information based on the acquired ISO sensitivity information and shutter time information (step S104). That is, the correction unit 41 reads out and acquires the ISO sensitivity information that is the imaging condition and the position information of the defective pixel associated with the shutter time information from the defect storage unit 61 of the storage unit 60.

次に、補正部41は、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する(ステップS105)。すなわち、補正部41は、シーン解析部91から取得した分割エリアごとのシーン解析情報に基づいて、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。なお、補正部41は、補正痕が目立つ画像(エリア)であるか否かを図2に示すようなシーン解析情報の分類情報に基づいて判定する。
補正部41は、補正痕が目立つ画像(エリア)であると判定した場合(ステップS105:YES)に、処理をステップS107に進める。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合(ステップS105:NO)に、処理をステップS106に進める。
Next, the correcting unit 41 determines whether or not the image is an image (area) in which correction marks are conspicuous for each divided area (step S105). That is, the correction unit 41 determines whether or not an image (area) in which correction marks are conspicuous for each divided area based on the scene analysis information for each divided area acquired from the scene analysis unit 91. Note that the correction unit 41 determines whether the correction mark is an image (area) where the correction mark is conspicuous based on the classification information of the scene analysis information as illustrated in FIG.
When it is determined that the correction mark is an image (area) where the correction mark is conspicuous (step S105: YES), the correction unit 41 advances the processing to step S107. If the correction unit 41 determines that the correction mark is not a conspicuous image (area) (step S105: NO), the process proceeds to step S106.

ステップS106において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターンAを選択する。
また、ステップS107において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターンBを選択する。
なお、補正部41は、ステップS106及びステップS107の処理を、ステップS105の処理と同様に、分割エリアごとに実行する。すなわち、補正部41は、ステップS106及びステップS107において、分割エリアごとに補正パターンを選択する。
In step S <b> 106, the correction unit 41 selects the correction pattern A described above as a correction pattern for correcting the divided area.
In step S107, the correction unit 41 selects the correction pattern B described above as a correction pattern for correcting the divided area.
In addition, the correction | amendment part 41 performs the process of step S106 and step S107 for every division area similarly to the process of step S105. That is, the correction unit 41 selects a correction pattern for each divided area in step S106 and step S107.

次に、補正部41は、補正データの演算を行う(ステップS108)。すなわち、補正部41は、取得した欠陥画素の位置情報に基づいて、バッファメモリ部30に記憶されている撮像画像データの欠陥画素に対応する画素データを読み出す。補正部41は、分割エリアごとに選択された補正パターン(補正パターンA又は補正パターンB)に基づいて、読み出した欠陥画素に対応する各画素データの補正データを演算する。   Next, the correction unit 41 calculates correction data (step S108). That is, the correction unit 41 reads out pixel data corresponding to the defective pixel of the captured image data stored in the buffer memory unit 30 based on the acquired position information of the defective pixel. The correction unit 41 calculates correction data of each pixel data corresponding to the read defective pixel based on the correction pattern (correction pattern A or correction pattern B) selected for each divided area.

次に、補正部41は、補正データ演算値を補正後の画素データとして撮像画像データに書き込む(ステップS109)。すなわち、補正部41は、各欠陥画素に対応する演算した補正データを、撮像画像データの各欠陥画素に対応する画素データとして置き換えて、バッファメモリ部30に記憶させる。これにより、補正部41は、欠陥画素の補正処理を完了し、補正処理を終了させる。   Next, the correction unit 41 writes the correction data calculation value to the captured image data as corrected pixel data (step S109). That is, the correction unit 41 replaces the calculated correction data corresponding to each defective pixel with the pixel data corresponding to each defective pixel of the captured image data, and stores it in the buffer memory unit 30. Thereby, the correction unit 41 completes the correction process of the defective pixel and ends the correction process.

図4は、本実施形態における分割エリアごとのシーン解析の一例を示す図である。
この図において、画像G1は、撮像素子12によって撮像された撮像画像の一例を示している。画像G1は、分割エリアR1〜R9の9つの分割エリアに等分割されている。
シーン解析部91は、例えば、分割エリアR5を人の顔と判定し、例えば、分割エリアR1及び分割エリアR2を背景(山)と判定する。また、シーン解析部91は、例えば、分割エリアR3を空と判定する。シーン解析部91は、これらの分割エリアごとの判定情報であるシーン解析情報を補正部41に供給する。
FIG. 4 is a diagram showing an example of scene analysis for each divided area in the present embodiment.
In this figure, an image G1 shows an example of a captured image captured by the image sensor 12. The image G1 is equally divided into nine divided areas R1 to R9.
The scene analysis unit 91 determines, for example, the divided area R5 as a human face, and determines, for example, the divided area R1 and the divided area R2 as a background (mountain). For example, the scene analysis unit 91 determines that the divided area R3 is empty. The scene analysis unit 91 supplies scene analysis information, which is determination information for each divided area, to the correction unit 41.

補正部41は、シーン解析情報に応じて、補正パターンA又は補正パターンBを選択する。例えば、補正部41は、分割エリアR5に対して、シーン解析情報が人の顔を示しているので、補正痕が目立つ画像(エリア)であると判定し、補正パターンAを選択する。また、例えば、補正部41は、分割エリアR1及び分割エリアR2に対してシーン解析情報が背景を示しているので、補正痕が目立つ画像(エリア)でないと判定し、補正パターンBを選択する。例えば、補正部41は、分割エリアR3に対して、シーン解析情報が空を示しているので、補正痕が目立つ画像(エリア)であると判定し、補正パターンAを選択する。
このように、補正部41は、分割エリアごとに、シーン解析情報に基づいて補正パターンを選択し、分割エリアごとに選択した補正パターンに基づいて補正処理を行う。
The correction unit 41 selects the correction pattern A or the correction pattern B according to the scene analysis information. For example, since the scene analysis information indicates a human face with respect to the divided area R5, the correction unit 41 determines that the correction trace is conspicuous and selects the correction pattern A. For example, the correction unit 41 determines that the correction trace B is not an image (area) where the correction trace is conspicuous because the scene analysis information indicates the background for the divided area R1 and the divided area R2, and selects the correction pattern B. For example, the correction unit 41 determines that the correction trace A is an image (area) where the correction trace is conspicuous because the scene analysis information indicates empty for the divided area R3, and selects the correction pattern A.
Thus, the correction unit 41 selects a correction pattern based on the scene analysis information for each divided area, and performs correction processing based on the correction pattern selected for each divided area.

以上説明したように、本実施形態における撮像装置100は、シーン解析部91が、画像データ(例えば、スルー画像データ)に基づいて、撮像シーンを解析する情報であるシーン解析情報を生成する。そして、補正部41は、撮像素子12によって撮像された撮像画像データに含まれる画素データのうちの、撮像素子12が有する欠陥画素に対応する画素データを、シーン解析部91によって生成されたシーン解析情報に応じて、補正処理する。すなわち、撮像部10が、被写体に応じた画像データを生成し、シーン解析部91が、画像データにより被写体のシーンに関する情報(シーン解析情報)を生成する。そして、補正部41は、シーン解析情報に基づいて、画像データを補正する。また、撮像部10は、複数の画素が配置され、光に応じた信号を出力する撮像素子12を有し、補正部41は、撮像素子12に含まれる欠陥画素から出力された信号により生成された撮像画像データを補正する。
これにより、撮像画像データの内容(例えば、撮像シーンなど)を考慮した補正処理を行うことが可能になるため、本実施形態における撮像装置100は、過補正などのよる補正痕の発生を低減することができる。このため、本実施形態における撮像装置100は、適切に欠陥画素の補正処理を行うことができる。よって、本実施形態における撮像装置100は、欠陥画素の補正処理による画質の劣化(低下)を低減することができる。
As described above, in the imaging apparatus 100 according to the present embodiment, the scene analysis unit 91 generates scene analysis information that is information for analyzing a captured scene based on image data (for example, through image data). Then, the correction unit 41 performs scene analysis generated by the scene analysis unit 91 on pixel data corresponding to a defective pixel included in the image sensor 12 out of pixel data included in the captured image data captured by the image sensor 12. Correction processing is performed according to the information. That is, the imaging unit 10 generates image data corresponding to the subject, and the scene analysis unit 91 generates information (scene analysis information) related to the scene of the subject from the image data. Then, the correction unit 41 corrects the image data based on the scene analysis information. The imaging unit 10 includes an imaging element 12 in which a plurality of pixels are arranged and outputs a signal corresponding to light, and the correction unit 41 is generated by a signal output from a defective pixel included in the imaging element 12. The captured image data is corrected.
This makes it possible to perform correction processing in consideration of the content of captured image data (for example, a captured scene), and thus the imaging apparatus 100 according to the present embodiment reduces the occurrence of correction traces due to overcorrection. be able to. For this reason, the imaging apparatus 100 according to the present embodiment can appropriately perform the defect pixel correction process. Therefore, the imaging apparatus 100 according to the present embodiment can reduce image quality deterioration (decrease) due to defective pixel correction processing.

また、本実施形態では、画像データは、複数のエリアに分割される。シーン解析部91は、分割エリアごとにシーン解析情報を生成する。補正部41は、シーン解析部91によって分割エリアごとに生成されたシーン解析情報に応じて、分割エリアごとに欠陥画素に対応する画素データを補正処理する。すなわち、シーン解析部91は、分割エリアに対応するシーン解析情報を生成し、補正部41は、シーン解析部91によって分割エリアに対応されて生成されたシーン解析情報に応じて、欠陥画素に対応する画素データを補正処理する。つまり、シーン解析部91は、撮像素子12の複数の領域ごとにシーン解析情報を生成し、補正部41は、撮像素子12の領域ごとに生成されたシーン解析情報に基づいて、撮像素子12の領域に対応する撮像画像データを補正する。
これにより、分割エリアごとに、シーン解析情報に応じて異なる補正パターンを選択して補正処理が可能になるため、本実施形態における撮像装置100は、分割エリアごとに適切に欠陥画素の補正処理を行うことができる。
In the present embodiment, the image data is divided into a plurality of areas. The scene analysis unit 91 generates scene analysis information for each divided area. The correction unit 41 corrects pixel data corresponding to the defective pixel for each divided area according to the scene analysis information generated for each divided area by the scene analysis unit 91. That is, the scene analysis unit 91 generates scene analysis information corresponding to the divided area, and the correction unit 41 corresponds to the defective pixel according to the scene analysis information generated corresponding to the divided area by the scene analysis unit 91. The pixel data to be corrected is corrected. That is, the scene analysis unit 91 generates scene analysis information for each of the plurality of regions of the image sensor 12, and the correction unit 41 determines the image of the image sensor 12 based on the scene analysis information generated for each region of the image sensor 12. The captured image data corresponding to the area is corrected.
As a result, correction processing can be performed by selecting different correction patterns according to scene analysis information for each divided area. Therefore, the imaging apparatus 100 according to the present embodiment appropriately performs defective pixel correction processing for each divided area. It can be carried out.

また、本実施形態では、補正部41は、シーン解析情報に応じて、補正処理を段階的(例えば、2段階)に切り替える。例えば、補正部41は、シーン解析情報に応じて、複数の補正パターンを段階的に切り替えて撮像画像データを補正する。
これにより、補正痕が目立つか否かに影響するシーン解析情報に応じて、段階的に補正処理を切り替えるので、本実施形態における撮像装置100は、シーン解析情報に応じた適切な欠陥画素の補正処理を行うことができる。
In the present embodiment, the correction unit 41 switches the correction process step by step (for example, two steps) according to the scene analysis information. For example, the correction unit 41 corrects captured image data by switching a plurality of correction patterns in stages according to the scene analysis information.
As a result, the correction processing is switched stepwise in accordance with the scene analysis information that affects whether or not the correction trace is conspicuous. Therefore, the imaging apparatus 100 according to the present embodiment corrects an appropriate defective pixel according to the scene analysis information. Processing can be performed.

また、本実施形態では、補正部41は、シーン解析情報に応じて、互いに異なる補正レベルに対応した補正処理をそれぞれ行う複数(例えば2つ)の補正パターンを切り替えて、画素データを補正する。すなわち、補正部41は、シーン解析情報に応じて、互いに異なる補正レベルに対応した複数(例えば2つ)の補正パターンを切り替えて、撮像画像データ(画素データ)を補正する。
これにより、補正部41は、シーン解析情報に応じて補正レベルの異なる補正パターンを切り替えて補正処理を行うことができる。そのため、本実施形態における撮像装置100は、適切に欠陥画素の補正処理を行うことができる。
また、補正レベルに応じて補正処理を簡略化することが可能であるため、本実施形態における撮像装置100は、無駄に(過剰に)欠陥画素の補正処理を行うことを低減することができる。すなわち、本実施形態における撮像装置100は、効率よく欠陥画素の補正処理を行うことができるので、欠陥画素の補正処理による処理時間を低減することができる。
Further, in the present embodiment, the correction unit 41 corrects pixel data by switching a plurality of (for example, two) correction patterns that perform correction processing corresponding to different correction levels according to the scene analysis information. That is, the correction unit 41 corrects captured image data (pixel data) by switching a plurality of (for example, two) correction patterns corresponding to different correction levels according to the scene analysis information.
Thereby, the correction unit 41 can perform correction processing by switching correction patterns having different correction levels according to the scene analysis information. Therefore, the imaging apparatus 100 according to the present embodiment can appropriately perform defective pixel correction processing.
In addition, since the correction process can be simplified according to the correction level, the imaging apparatus 100 according to the present embodiment can reduce unnecessary (excessive) correction process of defective pixels. That is, since the imaging apparatus 100 according to the present embodiment can efficiently perform the defective pixel correction process, the processing time for the defective pixel correction process can be reduced.

[第2の実施形態]
次に、第2の実施形態における撮像装置100について説明する。
第2の実施形態における撮像装置100の構成は、図1に示される第1の実施形態における構成と同様である。第2の実施形態における撮像装置100は、補正部41による欠陥画素の補正処理が、第1の実施形態における撮像装置100と異なる。
[Second Embodiment]
Next, the imaging device 100 according to the second embodiment will be described.
The configuration of the imaging apparatus 100 in the second embodiment is the same as the configuration in the first embodiment shown in FIG. The imaging apparatus 100 according to the second embodiment is different from the imaging apparatus 100 according to the first embodiment in the defective pixel correction processing by the correction unit 41.

本実施形態における補正部41は、撮像画像データを撮像した撮像条件とシーン解析情報とに応じて、欠陥画素に対応する画素データを補正処理する。ここで、撮像条件とは、環境温度、シャッタ秒時、露光量、ISO感度(撮像感度)などであり、本実施形態では、一例として、シャッタ秒時、及びISO感度(撮像感度)を撮像条件とした場合の例を説明する。すなわち、本実施形態では、撮像条件には、撮像感度、又はシャッタ秒時が含まれる。
補正部41は、撮像条件(シャッタ秒時、又はISO感度)に応じて、補正処理を段階的に切り替える。すなわち、補正部41は、撮像条件とシーン解析情報とに応じて、互いに異なる補正レベルに対応した補正処理をそれぞれ行う複数の補正パターンを切り替えて、欠陥画素に対応する画素データを補正処理する。
The correction unit 41 according to the present embodiment corrects pixel data corresponding to a defective pixel in accordance with an imaging condition for capturing captured image data and scene analysis information. Here, the imaging conditions include environmental temperature, shutter speed, exposure amount, ISO sensitivity (imaging sensitivity), etc. In this embodiment, as an example, the shutter speed and ISO sensitivity (imaging sensitivity) are set as the imaging conditions. An example will be described. That is, in the present embodiment, the imaging condition includes imaging sensitivity or shutter speed.
The correction unit 41 switches the correction process step by step according to the imaging condition (shutter time or ISO sensitivity). That is, the correction unit 41 performs correction processing on pixel data corresponding to a defective pixel by switching a plurality of correction patterns for performing correction processing corresponding to different correction levels according to the imaging condition and scene analysis information.

例えば、複数の補正パターンとして、補正パターン1から補正パターン5の5つの補正パターンが予め定められている。
例えば、補正パターン5は、補正レベル“5”に対応する欠陥画素が目立ち易い場合の補正パターンであり、より多くの欠陥画素によるキズを補正する必要があって、少々の補正痕が残ることよりも欠陥画素を補正することが優先される場合の補正パターンである。この補正パターン5は、欠陥画素が目立ち易い撮像条件に対応する補正パターンである。
また、補正パターン1は、逆に、補正レベル“1”に対応する欠陥画素が目立ち難い場合の補正パターンであり、欠陥画素によるキズの数は少なく、なるべく補正痕を残さないように補正する場合の補正パターンである。この補正パターン1は、欠陥画素が目立ち難い撮像条件に対応する補正パターンである。
補正パターン1から補正パターン5の間の補正パターン2、補正パターン3、及び補正パターン4は、補正パターン1から補正パターン5の間でそれぞれの補正レベル(“2”,“3”,“4”)に対応して定められている。
For example, five correction patterns from correction pattern 1 to correction pattern 5 are predetermined as a plurality of correction patterns.
For example, the correction pattern 5 is a correction pattern in the case where defective pixels corresponding to the correction level “5” are easily noticeable, and it is necessary to correct defects due to more defective pixels, and a small amount of correction traces remain. Is a correction pattern when priority is given to correcting defective pixels. The correction pattern 5 is a correction pattern corresponding to an imaging condition in which defective pixels are easily noticeable.
On the other hand, the correction pattern 1 is a correction pattern when the defective pixel corresponding to the correction level “1” is not conspicuous, and the number of scratches due to the defective pixel is small, and correction is performed so as not to leave a correction mark as much as possible. This is a correction pattern. This correction pattern 1 is a correction pattern corresponding to an imaging condition in which defective pixels are not easily noticeable.
The correction pattern 2, the correction pattern 3, and the correction pattern 4 between the correction pattern 1 and the correction pattern 5 are the correction levels (“2”, “3”, “4”) between the correction pattern 1 and the correction pattern 5, respectively. ).

なお、5つの補正パターンは、例えば、補正レベル(“1”〜“5”)に対応して、欠陥画素に対応する画素データを補正処理するか否かの閾値が異なる。すなわち、補正パターン5は、補正処理するか否かの閾値が最も低く、最も多くの欠陥画素を補正処理することが可能である。また、補正パターン1は、補正処理するか否かの閾値が最も高く、最も少ない欠陥画素を補正処理することが可能である。補正パターン2から補正パターン4は、補正処理するか否かの閾値が補正パターン1から補正パターン5の間にそれぞれ設定されている。補正部41は、所定の処理期間内に欠陥画素の補正処理を行うために、補正パターン5である場合に、例えば、最も簡略化した補正処理を実行し、補正痕が残り易い補正処理を実行する。   The five correction patterns have different threshold values for determining whether or not to correct pixel data corresponding to defective pixels, for example, corresponding to the correction levels (“1” to “5”). That is, the correction pattern 5 has the lowest threshold for whether or not to perform correction processing, and can correct the largest number of defective pixels. Further, the correction pattern 1 has the highest threshold value for whether or not correction processing is performed, and can correct the smallest defective pixel. In the correction pattern 2 to the correction pattern 4, a threshold value indicating whether or not to perform correction processing is set between the correction pattern 1 and the correction pattern 5. The correction unit 41 executes, for example, the most simplified correction process and the correction process in which correction marks are likely to remain in the case of the correction pattern 5 in order to perform the correction process of defective pixels within a predetermined processing period. To do.

また、5つの補正パターンは、補正レベル(“1”〜“5”)に対応して、欠陥画素に対応する画素データの補正値を算出する欠陥画素の近傍エリアのサイズが異なるように定められていてもよい。5つの補正パターンは、欠陥画素の近傍エリアのサイズを、例えば、3画素×3画素、5画素×5画素、及び7画素×7画素のうちのいずれかを補正レベルに対応して設定される。ここで、3画素×3画素による補正値の算出は、所定の処理期間内に補正できる欠陥画素の数は5画素×5画素及び7画素×7画素より多くなるが、補正痕が残り易い補正処理が可能になる。また、7画素×7画素による補正値の算出は、所定の処理期間内に補正できる欠陥画素の数は3画素×3画素及び5画素×5画素より少なくなるが、補正痕が残り難い補正処理が可能になる。本実施形態では、補正部41は、例えば、補正パターン5である場合に、3画素×3画素により画素データの補正値を算出する補正処理を実行し、補正パターン1である場合に、7画素×7画素により画素データの補正値を算出する補正処理を実行する。   Further, the five correction patterns are determined so that the sizes of the neighborhood areas of the defective pixels for calculating the correction values of the pixel data corresponding to the defective pixels are different corresponding to the correction levels (“1” to “5”). It may be. In the five correction patterns, the size of the neighborhood area of the defective pixel is set corresponding to the correction level, for example, any one of 3 pixels × 3 pixels, 5 pixels × 5 pixels, and 7 pixels × 7 pixels. . Here, in the calculation of the correction value by 3 pixels × 3 pixels, the number of defective pixels that can be corrected within a predetermined processing period is larger than 5 pixels × 5 pixels and 7 pixels × 7 pixels, but correction marks tend to remain. Processing becomes possible. In addition, the calculation of the correction value by 7 pixels × 7 pixels is a correction process in which the number of defective pixels that can be corrected within a predetermined processing period is smaller than 3 pixels × 3 pixels and 5 pixels × 5 pixels, but correction marks hardly remain. Is possible. In the present embodiment, for example, when the correction pattern is 5, the correction unit 41 performs a correction process for calculating a correction value of pixel data by 3 pixels × 3 pixels, and when the correction pattern is 1, A correction process for calculating a correction value of pixel data using 7 pixels is executed.

次に、本実施形態における撮像装置100の動作について説明する。
撮像装置100は、撮像対象となる被写体を撮像する場合、制御部90が、まず、撮像素子14とA/D変換部15とを介して定期的に取得し、バッファメモリ部30に記憶させる。制御部90は、バッファメモリ部30に記憶させスルー画像データを表示部50に表示させる。この表示部50に表示されているスルー画像を確認することにより、使用者は、撮像しようとしている被写体を確認する。
Next, the operation of the imaging apparatus 100 in this embodiment will be described.
In the imaging apparatus 100, when the subject to be imaged is imaged, the control unit 90 first periodically acquires the image via the imaging element 14 and the A / D conversion unit 15 and stores it in the buffer memory unit 30. The control unit 90 causes the buffer memory unit 30 to store the through image data on the display unit 50. By confirming the through image displayed on the display unit 50, the user confirms the subject to be imaged.

次に、制御部90は、操作部80を介して撮像指示を受け付けた際に、撮像素子12とA/D変換部13とを介して得られる画像データを、撮像された撮像画像データとして、バッファメモリ部30に記憶させる。なお、制御部90のシーン解析部91は、バッファメモリ部30に記憶されているスルー画像データに基づいて、分割エリアごとのシーン解析情報を生成し、撮像シーン情報を解析する。
次に、制御部90は、画像処理部40の補正部41に、撮像素子12によって撮像された撮像画像データに対して欠陥画素の補正処理を実行させる。
Next, when the control unit 90 receives an imaging instruction via the operation unit 80, the image data obtained via the imaging element 12 and the A / D conversion unit 13 is taken as captured image data. The data is stored in the buffer memory unit 30. The scene analysis unit 91 of the control unit 90 generates scene analysis information for each divided area based on the through image data stored in the buffer memory unit 30, and analyzes the captured scene information.
Next, the control unit 90 causes the correction unit 41 of the image processing unit 40 to perform defective pixel correction processing on the captured image data captured by the image sensor 12.

図5は、本実施形態における欠陥画素の補正処理を示すフローチャートである。
この図において、まず、画像処理部40の補正部41は、バス300を介して、シーン解析部91から分割エリアごとのシーン解析情報を取得する(ステップS201)。
次に、補正部41は、撮像画像データが撮像された際の撮像感度情報(例えば、ISO感度情報)を記憶部60から取得する(ステップS202)。
FIG. 5 is a flowchart showing the defective pixel correction processing in the present embodiment.
In this figure, first, the correction unit 41 of the image processing unit 40 acquires scene analysis information for each divided area from the scene analysis unit 91 via the bus 300 (step S201).
Next, the correction unit 41 acquires imaging sensitivity information (for example, ISO sensitivity information) when the captured image data is captured from the storage unit 60 (step S202).

次に、補正部41は、撮像画像データが撮像された際のシャッタ秒時情報(t)を記憶部60から取得する(ステップS203)。ここで、シャッタ秒時情報とは、露光秒時又は露光時間のことである。シャッタ秒時情報(t)には、撮像素子12における画素データのリセット又は画素データの読み出しから次の画素データの読み出しまでの撮像素子12の電荷蓄積時間を含めてもよい。   Next, the correction unit 41 acquires shutter time information (t) when the captured image data is captured from the storage unit 60 (step S203). Here, the shutter time information is exposure time or exposure time. The shutter time information (t) may include the charge accumulation time of the image sensor 12 from the reset of the pixel data in the image sensor 12 or the readout of the pixel data to the readout of the next pixel data.

次に、補正部41は、取得したISO感度情報、及びシャッタ秒時情報(t)に基づいて、欠陥画素情報を取得する(ステップS204)。すなわち、補正部41は、記憶部60の欠陥記憶部61から撮像条件であるISO感度情報、及びシャッタ秒時情報(t)に対応付けられた欠陥画素の位置情報を読み出して、取得する。   Next, the correction unit 41 acquires defective pixel information based on the acquired ISO sensitivity information and shutter time information (t) (step S204). That is, the correction unit 41 reads out and acquires the ISO sensitivity information as the imaging condition and the position information of the defective pixel associated with the shutter time information (t) from the defect storage unit 61 of the storage unit 60.

次に、補正部41は、取得した撮像条件の1つであるシャッタ秒時情報(t)が所定の閾値時間T2より長いか否かを判定する(ステップS205)。すなわち、補正部41は、シャッタ秒時情報(t)が長秒時(t>T2)であるか否かを判定する。補正部41は、シャッタ秒時情報(t)が所定の閾値時間T2より長いと判定した場合(ステップS205:YES)に、処理をステップS206に進める。また、補正部41は、シャッタ秒時情報(t)が所定の閾値時間T2以下であると判定した場合(ステップS205:NO)に、処理をステップS209に進める。   Next, the correcting unit 41 determines whether or not the shutter time information (t), which is one of the acquired imaging conditions, is longer than a predetermined threshold time T2 (step S205). That is, the correction unit 41 determines whether or not the shutter time information (t) is a long time (t> T2). When it is determined that the shutter time information (t) is longer than the predetermined threshold time T2 (step S205: YES), the correction unit 41 advances the process to step S206. Further, when the correction unit 41 determines that the shutter time information (t) is equal to or shorter than the predetermined threshold time T2 (step S205: NO), the correction unit 41 proceeds with the process to step S209.

ステップS206において、補正部41は、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。すなわち、補正部41は、シーン解析部91から取得した分割エリアごとのシーン解析情報に基づいて、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。なお、補正部41は、補正痕が目立つ画像(エリア)であるか否かを図2に示すようなシーン解析情報の分類情報に基づいて判定する。
補正部41は、補正痕が目立つ画像(エリア)であると判定した場合(ステップS206:YES)に、処理をステップS208に進める。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合(ステップS206:NO)に、処理をステップS207に進める。
In step S <b> 206, the correction unit 41 determines whether the image is an image (area) in which correction marks are conspicuous for each divided area. That is, the correction unit 41 determines whether or not an image (area) in which correction marks are conspicuous for each divided area based on the scene analysis information for each divided area acquired from the scene analysis unit 91. Note that the correction unit 41 determines whether the correction mark is an image (area) where the correction mark is conspicuous based on the classification information of the scene analysis information as illustrated in FIG.
When it is determined that the correction mark is an image (area) where the correction mark is conspicuous (step S206: YES), the correction unit 41 advances the processing to step S208. If the correction unit 41 determines that the correction mark is not a conspicuous image (area) (step S206: NO), the process proceeds to step S207.

ステップS207において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン5を選択し、処理をステップS222に進める。
また、ステップS208において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン4を選択し、処理をステップS222に進める。
なお、補正部41は、ステップS207及びステップS208の処理を、ステップS206の処理と同様に、分割エリアごとに実行する。すなわち、補正部41は、ステップS207及びステップS208において、分割エリアごとに補正パターンを選択する。
In step S207, the correction unit 41 selects the correction pattern 5 described above as the correction pattern for the correction process of the divided area, and advances the process to step S222.
In step S208, the correction unit 41 selects the correction pattern 4 described above as the correction pattern for correction processing of the divided area, and advances the processing to step S222.
In addition, the correction | amendment part 41 performs the process of step S207 and step S208 for every division area similarly to the process of step S206. That is, the correction unit 41 selects a correction pattern for each divided area in step S207 and step S208.

次に、ステップS209において、補正部41は、シャッタ秒時情報(t)が所定の閾値時間T1より短く、且つ、ISO感度がISO800以上であるか否かを判定する。すなわち、補正部41は、シャッタ秒時情報(t)が短秒時(t<T1)であり、且つ、ISO感度が高感度を超える(ISO800以上)であるか否かを判定する。補正部41は、シャッタ秒時情報(t)が所定の閾値時間T1より短く、且つ、ISO感度がISO800以上であると判定した場合(ステップS209:YES)に、処理をステップS210に進める。また、補正部41は、シャッタ秒時情報(t)が所定の閾値時間T1以上、又は、ISO感度がISO800未満であると判定した場合(ステップS209:NO)に、処理をステップS213に進める。   Next, in step S209, the correction unit 41 determines whether or not the shutter time information (t) is shorter than a predetermined threshold time T1 and the ISO sensitivity is ISO 800 or more. That is, the correction unit 41 determines whether or not the shutter time information (t) is a short time (t <T1) and the ISO sensitivity exceeds the high sensitivity (ISO 800 or more). When it is determined that the shutter time information (t) is shorter than the predetermined threshold time T1 and the ISO sensitivity is ISO 800 or more (step S209: YES), the correction unit 41 advances the process to step S210. In addition, when the correction unit 41 determines that the shutter time information (t) is equal to or greater than the predetermined threshold time T1 or the ISO sensitivity is less than ISO800 (step S209: NO), the process proceeds to step S213.

次に、ステップS210において、補正部41は、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。すなわち、補正部41は、シーン解析部91から取得した分割エリアごとのシーン解析情報に基づいて、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。補正部41は、補正痕が目立つ画像(エリア)であると判定した場合(ステップS210:YES)に、処理をステップS212に進める。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合(ステップS210:NO)に、処理をステップS211に進める。   Next, in step S210, the correction unit 41 determines whether or not the image is an image (area) in which correction marks are conspicuous for each divided area. That is, the correction unit 41 determines whether or not an image (area) in which correction marks are conspicuous for each divided area based on the scene analysis information for each divided area acquired from the scene analysis unit 91. When it is determined that the correction mark is an image (area) where the correction mark is conspicuous (step S210: YES), the correction unit 41 advances the process to step S212. Further, when the correction unit 41 determines that the correction mark is not a conspicuous image (area) (step S210: NO), the process proceeds to step S211.

ステップS211において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン4を選択し、処理をステップS222に進める。
また、ステップS212において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン3を選択し、処理をステップS222に進める。
なお、補正部41は、ステップS211及びステップS212の処理を、ステップS211の処理と同様に、分割エリアごとに実行する。すなわち、補正部41は、ステップS211及びステップS212において、分割エリアごとに補正パターンを選択する。
In step S211, the correction unit 41 selects the correction pattern 4 described above as the correction pattern for correction processing of the divided area, and advances the process to step S222.
In step S212, the correction unit 41 selects the correction pattern 3 described above as the correction pattern to be corrected for the divided area, and advances the process to step S222.
In addition, the correction | amendment part 41 performs the process of step S211 and step S212 for every division area similarly to the process of step S211. That is, the correction unit 41 selects a correction pattern for each divided area in step S211 and step S212.

次に、ステップS213において、補正部41は、以下の2つの条件のいずれかを満たすか否かを判定する。
補正部41は、第1の条件として、シャッタ秒時情報(t)が所定の閾値時間T1より短く、且つ、ISO感度がISO400であるか否かを判定する。すなわち、補正部41は、第1の条件として、シャッタ秒時情報(t)が短秒時(t<T1)であり、且つ、ISO感度が高感度(ISO400)であるか否かを判定する。
また、補正部41は、第2の条件として、シャッタ秒時情報(t)が所定の閾値時間T1より長く所定の閾値時間T2より短い、且つ、ISO感度がISO200であるか否かを判定する。すなわち、補正部41は、第2の条件として、シャッタ秒時情報(t)が中間秒時(T1<t<T2)であり、且つ、ISO感度が中感度(ISO200)であるか否かを判定する。
補正部41は、この第1の条件、又は第2の条件を満たすと判定した場合(ステップS213:YES)に、処理をステップS214に進める。また、補正部41は、この第1の条件、及び第2の条件のうちのいずれの条件も満たさないと判定した場合(ステップS213:NO)に、処理をステップS217に進める。
Next, in step S213, the correction unit 41 determines whether one of the following two conditions is satisfied.
As the first condition, the correction unit 41 determines whether or not the shutter time information (t) is shorter than a predetermined threshold time T1 and the ISO sensitivity is ISO400. That is, as the first condition, the correction unit 41 determines whether the shutter time information (t) is a short time (t <T1) and the ISO sensitivity is high sensitivity (ISO 400). .
Further, as the second condition, the correction unit 41 determines whether or not the shutter time information (t) is longer than the predetermined threshold time T1 and shorter than the predetermined threshold time T2, and the ISO sensitivity is ISO200. . That is, as the second condition, the correction unit 41 determines whether or not the shutter time information (t) is an intermediate time (T1 <t <T2) and the ISO sensitivity is medium sensitivity (ISO200). judge.
When it is determined that the first condition or the second condition is satisfied (step S213: YES), the correction unit 41 proceeds with the process to step S214. Further, when it is determined that neither of the first condition and the second condition is satisfied (step S213: NO), the correction unit 41 advances the process to step S217.

次に、ステップS214において、補正部41は、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。すなわち、補正部41は、シーン解析部91から取得した分割エリアごとのシーン解析情報に基づいて、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。補正部41は、補正痕が目立つ画像(エリア)であると判定した場合(ステップS214:YES)に、処理をステップS216に進める。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合(ステップS214:NO)に、処理をステップS215に進める。   Next, in step S <b> 214, the correction unit 41 determines whether or not the image (area) in which correction marks are conspicuous for each divided area. That is, the correction unit 41 determines whether or not an image (area) in which correction marks are conspicuous for each divided area based on the scene analysis information for each divided area acquired from the scene analysis unit 91. When it is determined that the correction mark is an image (area) where the correction mark is conspicuous (step S214: YES), the correction unit 41 advances the processing to step S216. If the correction unit 41 determines that the correction mark is not a conspicuous image (area) (step S214: NO), the process proceeds to step S215.

ステップS215において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン3を選択し、処理をステップS222に進める。
また、ステップS216において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン2を選択し、処理をステップS222に進める。
なお、補正部41は、ステップS215及びステップS216の処理を、ステップS214の処理と同様に、分割エリアごとに実行する。すなわち、補正部41は、ステップS215及びステップS216において、分割エリアごとに補正パターンを選択する。
In step S215, the correction unit 41 selects the correction pattern 3 described above as the correction pattern for the correction process for the divided area, and advances the process to step S222.
In step S216, the correction unit 41 selects the correction pattern 2 described above as the correction pattern to be corrected for the divided area, and advances the process to step S222.
In addition, the correction | amendment part 41 performs the process of step S215 and step S216 for every division area similarly to the process of step S214. That is, the correction unit 41 selects a correction pattern for each divided area in step S215 and step S216.

次に、ステップS217において、補正部41は、以下の2つの条件のいずれかを満たすか否かを判定する。
補正部41は、第3の条件として、シャッタ秒時情報(t)が所定の閾値時間T1より短く、且つ、ISO感度がISO200であるか否かを判定する。すなわち、補正部41は、第3の条件として、シャッタ秒時情報(t)が短秒時(t<T1)であり、且つ、ISO感度が中感度(ISO200)であるか否かを判定する。
また、補正部41は、第4の条件として、シャッタ秒時情報(t)が所定の閾値時間T1より長く所定の閾値時間T2より短い、且つ、ISO感度がISO100であるか否かを判定する。すなわち、補正部41は、第4の条件として、シャッタ秒時情報(t)が中間秒時(T1<t<T2)であり、且つ、ISO感度が低感度(ISO100)であるか否かを判定する。
補正部41は、この第3の条件、又は第4の条件を満たすと判定した場合(ステップS217:YES)に、処理をステップS218に進める。また、補正部41は、この第3の条件、及び第4の条件のうちのいずれの条件も満たさないと判定した場合(ステップS217:NO)に、処理をステップS221に進める。
Next, in step S217, the correction unit 41 determines whether one of the following two conditions is satisfied.
The correction unit 41 determines whether the shutter time information (t) is shorter than a predetermined threshold time T1 and the ISO sensitivity is ISO 200 as a third condition. That is, the correction unit 41 determines, as the third condition, whether or not the shutter time information (t) is a short time (t <T1) and the ISO sensitivity is medium sensitivity (ISO 200). .
Further, as the fourth condition, the correction unit 41 determines whether or not the shutter time information (t) is longer than the predetermined threshold time T1 and shorter than the predetermined threshold time T2 and the ISO sensitivity is ISO100. . That is, the correction unit 41 determines whether the shutter time information (t) is an intermediate time (T1 <t <T2) and the ISO sensitivity is low sensitivity (ISO100) as a fourth condition. judge.
When it is determined that the third condition or the fourth condition is satisfied (step S217: YES), the correction unit 41 proceeds with the process to step S218. Moreover, the correction | amendment part 41 advances a process to step S221, when it determines with satisfy | filling neither conditions of this 3rd condition and 4th conditions (step S217: NO).

次に、ステップS218において、補正部41は、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。すなわち、補正部41は、シーン解析部91から取得した分割エリアごとのシーン解析情報に基づいて、分割エリアごとに補正痕が目立つ画像(エリア)であるか否かを判定する。補正部41は、補正痕が目立つ画像(エリア)であると判定した場合(ステップS218:YES)に、処理をステップS220に進める。また、補正部41は、補正痕が目立つ画像(エリア)でないと判定した場合(ステップS218:NO)に、処理をステップS219に進める。   Next, in step S218, the correction unit 41 determines whether or not the image is an image (area) in which correction marks are conspicuous for each divided area. That is, the correction unit 41 determines whether or not an image (area) in which correction marks are conspicuous for each divided area based on the scene analysis information for each divided area acquired from the scene analysis unit 91. When it is determined that the correction mark is an image (area) where the correction mark is conspicuous (step S218: YES), the correction unit 41 advances the processing to step S220. If the correction unit 41 determines that the correction mark is not a conspicuous image (area) (step S218: NO), the process proceeds to step S219.

ステップS219において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン2を選択し、処理をステップS222に進める。
また、ステップS220において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン1を選択し、処理をステップS222に進める。
なお、補正部41は、ステップS219及びステップS220の処理を、ステップS218の処理と同様に、分割エリアごとに実行する。すなわち、補正部41は、ステップS219及びステップS220において、分割エリアごとに補正パターンを選択する。
また、ステップS221において、補正部41は、当該分割エリアの補正処理する補正パターンに上述した補正パターン1を選択し、処理をステップS222に進める。
In step S219, the correction unit 41 selects the correction pattern 2 described above as the correction pattern to be corrected for the divided area, and advances the process to step S222.
In step S220, the correction unit 41 selects the correction pattern 1 described above as the correction pattern to be corrected for the divided area, and advances the process to step S222.
In addition, the correction | amendment part 41 performs the process of step S219 and step S220 for every division area similarly to the process of step S218. That is, the correction unit 41 selects a correction pattern for each divided area in step S219 and step S220.
In step S221, the correction unit 41 selects the correction pattern 1 described above as the correction pattern for correction processing of the divided area, and advances the process to step S222.

次に、補正部41は、補正データの演算を行う(ステップS222)。すなわち、補正部41は、取得した欠陥画素の位置情報に基づいて、バッファメモリ部30に記憶されている撮像画像データの欠陥画素に対応する画素データを読み出す。補正部41は、分割エリアごとに選択された補正パターン(補正パターン1から補正パターン5のいずれか)に基づいて、読み出した欠陥画素に対応する各画素データの補正データを演算する。   Next, the correction unit 41 calculates correction data (step S222). That is, the correction unit 41 reads out pixel data corresponding to the defective pixel of the captured image data stored in the buffer memory unit 30 based on the acquired position information of the defective pixel. The correction unit 41 calculates correction data of each pixel data corresponding to the read defective pixel based on a correction pattern (any one of the correction pattern 1 to the correction pattern 5) selected for each divided area.

次に、補正部41は、補正データ演算値を補正後の画素データとして撮像画像データに書き込む(ステップS223)。すなわち、補正部41は、各欠陥画素に対応する演算した補正データを、撮像画像データの各欠陥画素に対応する画素データとして置き換えて、バッファメモリ部30に記憶させる。これにより、補正部41は、欠陥画素の補正処理を完了し、補正処理を終了させる。   Next, the correction unit 41 writes the correction data calculation value in the captured image data as corrected pixel data (step S223). That is, the correction unit 41 replaces the calculated correction data corresponding to each defective pixel with the pixel data corresponding to each defective pixel of the captured image data, and stores it in the buffer memory unit 30. Thereby, the correction unit 41 completes the correction process of the defective pixel and ends the correction process.

以上説明したように、本実施形態における撮像装置100は、補正部41が、画像データを撮像した撮像条件とシーン解析情報とに応じて、欠陥画素に対応する画素データを補正処理する。すなわち、補正部41は、撮像部10の撮像条件とシーン解析情報とに応じて、画素データを補正する。
これにより、シーン解析情報だけでなく、欠陥画素の発生に影響する撮像条件を考慮した補正処理を行うことが可能になるため、本実施形態における撮像装置100は、過補正などのよる補正痕の発生を低減することができる。このため、本実施形態における撮像装置100は、適切に欠陥画素の補正処理を行うことができる。よって、本実施形態における撮像装置100は、欠陥画素の補正処理による画質の劣化(低下)を低減することができる。
As described above, in the imaging apparatus 100 according to the present embodiment, the correction unit 41 corrects the pixel data corresponding to the defective pixel according to the imaging conditions for capturing the image data and the scene analysis information. That is, the correction unit 41 corrects the pixel data according to the imaging conditions of the imaging unit 10 and the scene analysis information.
This makes it possible to perform correction processing in consideration of not only scene analysis information but also imaging conditions that affect the occurrence of defective pixels. Therefore, the imaging apparatus 100 according to the present embodiment can correct correction traces such as overcorrection. Generation can be reduced. For this reason, the imaging apparatus 100 according to the present embodiment can appropriately perform the defect pixel correction process. Therefore, the imaging apparatus 100 according to the present embodiment can reduce image quality deterioration (decrease) due to defective pixel correction processing.

また、本実施形態では、補正部41は、撮像条件(例えば、撮像感度、及びシャッタ秒時など)に応じて、補正処理を段階的に切り替える。すなわち、補正部41は、撮像条件と前記情報とに応じて、複数の補正パターンを段階的に切り替えて撮像画像データを補正する。なお、撮像条件には、撮像感度、又はシャッタ秒時が含まれる。
これにより、欠陥画素の発生に影響する撮像条件に応じて、段階的に補正処理を切り替えるので、本実施形態における撮像装置100は、撮像条件に応じた適切な欠陥画素の補正処理を行うことができる。
In the present embodiment, the correction unit 41 switches the correction process step by step in accordance with the imaging conditions (for example, imaging sensitivity and shutter speed). That is, the correction unit 41 corrects the captured image data by switching a plurality of correction patterns in stages according to the imaging conditions and the information. Note that the imaging conditions include imaging sensitivity or shutter speed.
As a result, the correction process is switched in a stepwise manner in accordance with the imaging condition that affects the occurrence of the defective pixel. Therefore, the imaging apparatus 100 according to the present embodiment may perform an appropriate defective pixel correction process according to the imaging condition. it can.

また、本実施形態では、補正部41は、撮像条件とシーン解析情報とに応じて、互いに異なる補正レベルに対応した補正処理をそれぞれ行う複数の補正パターンを切り替えて、欠陥画素に対応する画素データを補正処理する。すなわち、補正部41は、撮像条件とシーン解析情報とに応じて、互いに異なる補正レベルに対応した複数の補正パターンを切り替えて撮像画像データ(画素データ)を補正する。
これにより、補正部41は、撮像条件とシーン解析情報とに応じて補正レベルの異なる補正パターンを切り替えて補正処理を行うことができる。そのため、本実施形態における撮像装置100は、適切に欠陥画素の補正処理を行うことができる。
In the present embodiment, the correction unit 41 switches pixel data corresponding to defective pixels by switching a plurality of correction patterns that perform correction processing corresponding to different correction levels according to the imaging conditions and scene analysis information. Is corrected. That is, the correction unit 41 corrects the captured image data (pixel data) by switching a plurality of correction patterns corresponding to different correction levels according to the imaging conditions and the scene analysis information.
Accordingly, the correction unit 41 can perform correction processing by switching correction patterns having different correction levels according to the imaging conditions and the scene analysis information. Therefore, the imaging apparatus 100 according to the present embodiment can appropriately perform defective pixel correction processing.

また、本実施形態では、複数の補正パターンは、補正レベルに対応して、欠陥画素に対応する画素データを補正処理するか否かの閾値が異なるように定められている。すなわち、複数の補正パターンは、欠陥画素に対応する画素データを補正処理するか否かの判定基準が異なるように定められている。
これにより、補正レベルに応じて補正処理を欠陥画素の数を変更できるので、本実施形態における撮像装置100は、無駄に(過剰に)欠陥画素の補正処理を行うことを低減することができる。すなわち、本実施形態における撮像装置100は、効率よく欠陥画素の補正処理を行うことができるので、欠陥画素の補正処理による処理時間を低減することができる。
Further, in the present embodiment, the plurality of correction patterns are determined so that thresholds for determining whether or not to correct pixel data corresponding to defective pixels differ according to the correction level. That is, the plurality of correction patterns are determined so that the determination criteria for determining whether or not to correct pixel data corresponding to the defective pixel are different.
Accordingly, since the number of defective pixels can be changed according to the correction level, the imaging apparatus 100 according to the present embodiment can reduce unnecessary (excessive) correction processing of defective pixels. That is, since the imaging apparatus 100 according to the present embodiment can efficiently perform the defective pixel correction process, the processing time for the defective pixel correction process can be reduced.

また、本実施形態では、複数の補正パターンは、補正レベルに対応して、欠陥画素に対応する画素データの補正値を算出する欠陥画素の近傍エリアのサイズが異なるように定められている。
これにより、本実施形態における撮像装置100は、補正レベルに応じて、例えば、補正痕が残り難い補正処理と補正痕が残り易い補正処理とを切り替えて補正処理することができる。そのため、本実施形態における撮像装置100は、無駄に(過剰に)欠陥画素の補正処理を行うことを低減することができる。すなわち、本実施形態における撮像装置100は、効率よく欠陥画素の補正処理を行うことができるので、欠陥画素の補正処理による処理時間を低減することができる。
Further, in the present embodiment, the plurality of correction patterns are determined so that the sizes of the neighboring areas of the defective pixels for calculating the correction values of the pixel data corresponding to the defective pixels differ according to the correction level.
Accordingly, the imaging apparatus 100 according to the present embodiment can perform correction processing by switching between correction processing in which correction marks are unlikely to remain and correction processing in which correction marks are likely to remain depending on the correction level. For this reason, the imaging apparatus 100 according to the present embodiment can reduce unnecessary (excessive) correction processing of defective pixels. That is, since the imaging apparatus 100 according to the present embodiment can efficiently perform the defective pixel correction process, the processing time for the defective pixel correction process can be reduced.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、補正部41は、シーン解析情報に応じて、2つの補正パターンのうちのいずれかを選択する形態を説明したが、シーン解析情報に応じて、3つ以上の補正パターンのうちのいずれかを選択する形態でもよい。この場合、補正部41は、撮像条件の場合と同様に、シーン解析情報に応じて、補正処理を段階的に切り替える形態でもよい。
これにより、シーン解析情報に基づいた撮像画像の補正痕の目立ち易さに応じて、段階的に補正処理を切り替えるので、本実施形態における撮像装置100は、シーン解析情報に応じた適切な欠陥画素の補正処理を行うことができる。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above-described embodiments, the correction unit 41 has been described as selecting one of two correction patterns according to the scene analysis information. It is possible to select one of the correction patterns. In this case, the correction unit 41 may be configured to switch the correction process step by step according to the scene analysis information, as in the case of the imaging conditions.
As a result, the correction processing is switched stepwise in accordance with the conspicuousness of the correction trace of the captured image based on the scene analysis information. Therefore, the imaging apparatus 100 according to the present embodiment can appropriately detect the defective pixel corresponding to the scene analysis information. Correction processing can be performed.

また、上記の各実施形態において、画像処理部40が補正部41を備える形態を説明したが、画像処理部40の外部に補正部41を備える形態でもよい。例えば、制御部90が、補正部41を備える形態でもよい。
また、上記の各実施形態において、制御部90がシーン解析部91を備える形態を説明したが、制御部90の外部にシーン解析部91を備える形態でもよい。例えば、撮像部10が、シーン解析部91を備え、生成したシーン解析情報を補正部41に出力する形態でもよい。
Further, in each of the above-described embodiments, the mode in which the image processing unit 40 includes the correction unit 41 has been described. However, a mode in which the correction unit 41 is provided outside the image processing unit 40 may be used. For example, the control unit 90 may include the correction unit 41.
Further, in each of the above-described embodiments, the mode in which the control unit 90 includes the scene analysis unit 91 has been described. However, a mode in which the scene analysis unit 91 is provided outside the control unit 90 may be used. For example, the imaging unit 10 may include the scene analysis unit 91 and output the generated scene analysis information to the correction unit 41.

また、上記の各実施形態において、欠陥記憶部61は、撮像条件に対応付けて欠陥画素の位置情報を記憶している形態を説明したが、最も欠陥画素が発生し易い場合に検出した欠陥画素の位置情報を記憶している形態でもよい。この場合、補正部41は、欠陥記憶部61から読み出した欠陥画素の位置情報のうちから、撮像条件に対応する所定の閾値に基づいて、撮像条件に対応する欠陥画素の位置情報を検出する処理を行ってもよい。   Further, in each of the embodiments described above, the defect storage unit 61 has been described as having stored the position information of the defective pixel in association with the imaging condition. However, the defective pixel detected when the defective pixel is most likely to occur. The position information may be stored. In this case, the correction unit 41 detects the position information of the defective pixel corresponding to the imaging condition based on the predetermined threshold value corresponding to the imaging condition from the position information of the defective pixel read from the defect storage unit 61. May be performed.

また、上記の各実施形態において、撮像装置100の一例として、デジタル一眼レフカメラである場合について説明したが、他の形態の撮像装置に適用してもよい。例えば、上記の各実施形態は、光学系11が撮像装置100に取り付けられて一体とされている形態に適用してもよい。また、撮像部10が、例えば、撮像素子14、A/D変換部15、及びミラー16を備えない形態でもよい。この場合、撮像素子12及びA/D変換部13が、スルー画像データと撮像画像データとの両方を生成し、シーン解析部91は、撮像素子12及びA/D変換部13が生成したスルー画像データに基づいて、シーン解析情報を生成する。
また、上記の各実施形態において、シーン解析部91は、スルー画像データに基づいて、シーン解析情報を生成する形態を説明したが、撮像画像データに基づいて、シーン解析情報を生成する形態でもよい。
In each of the above embodiments, a case where a digital single-lens reflex camera is used as an example of the imaging device 100 has been described. However, the imaging device 100 may be applied to imaging devices of other forms. For example, each of the above embodiments may be applied to a form in which the optical system 11 is attached to and integrated with the imaging apparatus 100. The imaging unit 10 may not include the imaging element 14, the A / D conversion unit 15, and the mirror 16, for example. In this case, the image sensor 12 and the A / D conversion unit 13 generate both the through image data and the captured image data, and the scene analysis unit 91 generates the through image generated by the image sensor 12 and the A / D conversion unit 13. Scene analysis information is generated based on the data.
In each of the above embodiments, the scene analysis unit 91 has been described as generating scene analysis information based on through image data. However, the scene analysis unit 91 may generate scene analysis information based on captured image data. .

また、上記の第2の実施形態において、補正部41は、補正パターンを選択する撮像条件に、撮像感度とシャッタ秒時とを用いる形態を説明したが、他の撮像条件を用いる形態でもよい。例えば、補正部41は、撮像条件に環境温度、露光量、絞り値などを用いる形態でもよい。   In the second embodiment, the correction unit 41 has been described using the imaging sensitivity and the shutter speed as the imaging condition for selecting the correction pattern. However, other imaging conditions may be used. For example, the correction unit 41 may use an environment temperature, an exposure amount, an aperture value, or the like as an imaging condition.

また、上記の各実施形態において、複数の分割エリアが画像データを等分割したエリアである形態について説明したが、分割エリアの面積が可変に分割される形態でもよい。例えば、等分割された分割エリアに複数種類の撮像シーン情報(例えは、人の顔と背景との2種類)が抽出された場合に、シーン解析部91は、等分割された分割エリアをさらに細分割して撮像シーン情報に応じた複数の分割エリアを生成してもよい。この場合、細分割された分割エリアに対して、シーン解析情報に応じて異なる補正パターンを選択して補正処理が可能になるため、撮像装置100は、等分割した場合よりも適切に欠陥画素の補正処理を行うことができる。   In each of the above-described embodiments, the form in which the plurality of divided areas are areas obtained by equally dividing the image data has been described. However, a form in which the area of the divided area is variably divided may be employed. For example, when a plurality of types of imaging scene information (for example, two types of human face and background) are extracted in the equally divided area, the scene analysis unit 91 further determines the equally divided area. Subdivision may be performed to generate a plurality of divided areas according to the captured scene information. In this case, since the correction process can be performed by selecting different correction patterns according to the scene analysis information for the subdivided divided areas, the imaging apparatus 100 can detect defective pixels more appropriately than the case of equal division. Correction processing can be performed.

また、上記の各実施形態において、補正部41は、分割エリアのシーン解析情報に応じて、分割エリアごとに補正パターンを選択する形態を説明したが、分割エリアに隣接する分割エリアのシーン解析情報を考慮して補正パターンを選択する形態でもよい。すなわち、補正部41は、分割エリアのシーン解析情報と分割エリアに隣接する分割エリアのシーン解析情報とに応じて、分割エリアごとに補正パターンを選択する形態でもよい。
例えば、図4において、シーン解析情報が背景である分割エリアR4は、シーン解析情報が人の顔である分割エリアR5に隣接し、シーン解析情報が背景である分割エリアR1は、分割エリアR5に隣接していない。この場合、補正部41は、分割エリアR4に対して、同じ背景である分割エリアR1とは異なる補正パターン(例えば、人の顔の補正レベルと背景の補正レベルとの中間の補正レベルに対応する補正パターン)を選択する。
このように、分割エリアに隣接する分割エリアのシーン解析情報を考慮して補正パターンを選択するので、撮像装置100は、単に分割エリアごとのシーン解析情報に応じて補正パターンを選択する場合よりも適切に欠陥画素の補正処理を行うことができる。
Further, in each of the above embodiments, the correction unit 41 has been described as selecting a correction pattern for each divided area according to the scene analysis information of the divided area. However, the scene analysis information of the divided area adjacent to the divided area is described. The correction pattern may be selected in consideration of the above. That is, the correction unit 41 may select a correction pattern for each divided area according to the scene analysis information of the divided area and the scene analysis information of the divided area adjacent to the divided area.
For example, in FIG. 4, the divided area R4 whose scene analysis information is the background is adjacent to the divided area R5 whose scene analysis information is the human face, and the divided area R1 whose scene analysis information is the background is the divided area R5. Not adjacent. In this case, the correction unit 41 corresponds to a correction pattern (for example, an intermediate correction level between a human face correction level and a background correction level) different from the divided area R1 which is the same background with respect to the divided area R4. Select (Correction pattern).
As described above, since the correction pattern is selected in consideration of the scene analysis information of the divided area adjacent to the divided area, the imaging apparatus 100 is more than the case of selecting the correction pattern according to the scene analysis information for each divided area. It is possible to appropriately correct a defective pixel.

なお、上記の各実施形態における制御部90又は画像処理部40が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、制御部90又は画像処理部40が備える各部はメモリおよびCPU(中央演算装置)により構成され、制御部90又は画像処理部40が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、上述の撮像装置100は内部に、コンピュータシステムを有している。そして、上述した制御部90又は画像処理部40の処理過程(処理手順)は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われてもよい。
In addition, each part with which the control part 90 or the image process part 40 in each said embodiment is provided may be implement | achieved by exclusive hardware, and each part with which the control part 90 or the image process part 40 is provided is It is composed of a memory and a CPU (central processing unit), and implements its functions by loading a program for realizing the functions of the respective units included in the control unit 90 or the image processing unit 40 and executing them. Also good.
Moreover, the above-described imaging apparatus 100 has a computer system inside. The processing process (processing procedure) of the control unit 90 or the image processing unit 40 described above is stored in a computer-readable recording medium in the form of a program, and the program is read out and executed by the computer. Processing may be performed.

また、制御部90又は画像処理部40が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部90又は画像処理部40が備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, a program for realizing the function of each unit included in the control unit 90 or the image processing unit 40 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. As a result, processing by each unit included in the control unit 90 or the image processing unit 40 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

10…撮像部、12…撮像素子、41…補正部、62…欠陥記憶部、91…シーン解析部、100…撮像装置   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 12 ... Imaging element, 41 ... Correction | amendment part, 62 ... Defect memory | storage part, 91 ... Scene analysis part, 100 ... Imaging device

Claims (12)

被写体に応じた画像データを生成する撮像部と、
前記画像データにより前記被写体のシーンに関する情報を生成するシーン情報生成部と、
前記情報に基づいて、前記画像データを補正する補正部と、
を備えることを特徴とする撮像装置。
An imaging unit that generates image data according to the subject;
A scene information generation unit that generates information on the scene of the subject from the image data;
A correction unit that corrects the image data based on the information;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記撮像部は、複数の画素が配置され、光に応じた信号を出力する撮像素子を有し、
前記補正部は、前記撮像素子に含まれる欠陥画素から出力された前記信号により生成された画像データを補正することを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging unit includes an imaging element in which a plurality of pixels are arranged and outputs a signal corresponding to light,
The image correction apparatus, wherein the correction unit corrects image data generated by the signal output from a defective pixel included in the image sensor.
請求項2に記載の撮像装置において、
前記シーン情報生成部は、前記撮像素子の複数の領域ごとに前記情報を生成し、
前記補正部は、前記領域ごとに生成された前記情報に基づいて、前記領域に対応する画像データを補正することを特徴とする撮像装置。
The imaging device according to claim 2,
The scene information generation unit generates the information for each of a plurality of regions of the image sensor,
The image correction apparatus, wherein the correction unit corrects image data corresponding to the area based on the information generated for each area.
請求項2又は請求項3に記載の撮像装置において、
前記補正部は、前記情報に応じて、複数の補正処理パターンを段階的に切り替えて画像データを補正することを特徴とする撮像装置。
In the imaging device according to claim 2 or 3,
The image capturing apparatus, wherein the correction unit corrects image data by switching a plurality of correction processing patterns in stages according to the information.
請求項2又は請求項3のいずれか一項に記載の撮像装置において、
前記補正部は、前記情報に応じて、互いに異なる補正レベルに対応した複数の補正処理パターンを切り替えて画素データを補正することを特徴とする撮像装置。
In the imaging device according to any one of claims 2 and 3,
The image pickup apparatus, wherein the correction unit corrects pixel data by switching a plurality of correction processing patterns corresponding to different correction levels according to the information.
請求項1から請求項5のいずれか一項に記載の撮像装置において、
前記補正部は、前記撮像部の撮像条件と前記情報とに応じて、画素データを補正することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The said correction | amendment part correct | amends pixel data according to the imaging conditions and the said information of the said imaging part, The imaging device characterized by the above-mentioned.
請求項6に記載の撮像装置において、
前記撮像条件には、撮像感度、又はシャッタ秒時が含まれることを特徴とする撮像装置。
The imaging device according to claim 6,
The imaging apparatus, wherein the imaging condition includes imaging sensitivity or shutter speed.
請求項6又は請求項7に記載の撮像装置において、
前記補正部は、前記撮像条件と前記情報とに応じて、複数の補正処理パターンを段階的に切り替えて画像データを補正することを特徴とする撮像装置。
In the imaging device according to claim 6 or 7,
The image correction apparatus, wherein the correction unit corrects image data by switching a plurality of correction processing patterns in stages according to the image pickup condition and the information.
請求項6から請求項8のいずれか一項に記載の撮像装置において、
前記補正部は、前記撮像条件と前記情報とに応じて、互いに異なる補正レベルに対応した複数の補正処理パターンを切り替えて画素データを補正することを特徴とする撮像装置。
In the imaging device according to any one of claims 6 to 8,
The imaging apparatus corrects pixel data by switching a plurality of correction processing patterns corresponding to different correction levels according to the imaging condition and the information.
請求項4又は請求項5に記載の撮像装置において、
前記複数の補正処理パターンは、前記欠陥画素に対応する画素データを補正処理するか否かの判定基準が異なることを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
The plurality of correction processing patterns have different criteria for determining whether or not to correct pixel data corresponding to the defective pixel.
請求項4又は請求項5に記載の撮像装置において、
前記複数の補正処理パターンは、前記欠陥画素に対応する画素データの補正値を算出する前記欠陥画素の近傍エリアのサイズが異なることを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
2. The imaging apparatus according to claim 1, wherein the plurality of correction processing patterns have different sizes in the vicinity area of the defective pixel for calculating a correction value of pixel data corresponding to the defective pixel.
コンピュータに、
複数の画素が配置され、光に応じた信号を出力する撮像素子を有する撮像部が、被写体に応じた画像データを生成する撮像手順と、
シーン情報生成部が、前記画像データにより前記被写体のシーンに関する情報を生成するシーン情報生成手順と、
補正部が、前記情報に基づいて、前記画像データを補正する補正手順であって、前記撮像素子に含まれる欠陥画素から出力された前記信号により生成された画像データを補正する補正手順と
を実行させるためのプログラム。
On the computer,
An imaging procedure in which a plurality of pixels are arranged and an imaging unit having an imaging device that outputs a signal corresponding to light generates image data corresponding to a subject;
A scene information generation unit for generating information on the scene of the subject from the image data;
A correction unit executes a correction procedure for correcting the image data based on the information, and a correction procedure for correcting the image data generated from the signal output from the defective pixel included in the imaging element. Program to let you.
JP2012020176A 2012-02-01 2012-02-01 Imaging apparatus and program Active JP5978636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012020176A JP5978636B2 (en) 2012-02-01 2012-02-01 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012020176A JP5978636B2 (en) 2012-02-01 2012-02-01 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2013162173A true JP2013162173A (en) 2013-08-19
JP5978636B2 JP5978636B2 (en) 2016-08-24

Family

ID=49174119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012020176A Active JP5978636B2 (en) 2012-02-01 2012-02-01 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5978636B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016138999A (en) * 2015-01-27 2016-08-04 キヤノン株式会社 Focus adjustment device and imaging device using the same and focus adjustment method
JP2018066930A (en) * 2016-10-21 2018-04-26 三菱電機インフォメーションシステムズ株式会社 Data storage device and data storage program
JP2018101940A (en) * 2016-12-21 2018-06-28 株式会社リコー Photoelectric conversion device, photoelectric conversion method, and image forming apparatus
US10911700B2 (en) 2018-05-24 2021-02-02 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141523A (en) * 2003-11-07 2005-06-02 Konica Minolta Photo Imaging Inc Image processing method
JP2010050730A (en) * 2008-08-21 2010-03-04 Nikon Corp Imaging apparatus and defect correction apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141523A (en) * 2003-11-07 2005-06-02 Konica Minolta Photo Imaging Inc Image processing method
JP2010050730A (en) * 2008-08-21 2010-03-04 Nikon Corp Imaging apparatus and defect correction apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016138999A (en) * 2015-01-27 2016-08-04 キヤノン株式会社 Focus adjustment device and imaging device using the same and focus adjustment method
JP2018066930A (en) * 2016-10-21 2018-04-26 三菱電機インフォメーションシステムズ株式会社 Data storage device and data storage program
JP2018101940A (en) * 2016-12-21 2018-06-28 株式会社リコー Photoelectric conversion device, photoelectric conversion method, and image forming apparatus
US10911700B2 (en) 2018-05-24 2021-02-02 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, and method

Also Published As

Publication number Publication date
JP5978636B2 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
CN104170365B (en) Camera head and electronic viewfinder display packing
JP4523629B2 (en) Imaging device
JP6491581B2 (en) Image processing apparatus, control method therefor, and program
JP5978636B2 (en) Imaging apparatus and program
JP4956009B2 (en) Imaging apparatus and control method thereof
JP2019134438A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2007124056A (en) Image processing apparatus, control method, and program
JP6136583B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6652303B2 (en) Flash band determination device, control method thereof, control program, and imaging device
JP2013207611A (en) Imaging device
JP2021063976A (en) Focus detector and method for controlling the same, program, and storage medium
JP6294596B2 (en) Imaging apparatus and control method thereof
JP5526984B2 (en) Image processing apparatus, image processing method, computer program for image processing, and imaging apparatus
KR20110064215A (en) Banding Noise Reduction Device and Method
JP6765953B2 (en) Imaging device and its control method
JP5365633B2 (en) Imaging device
JP6862225B2 (en) Imaging device, control method of imaging device, and program
JP5968145B2 (en) Image processing apparatus and control method thereof
JP7571173B2 (en) Image capture device, image capture device control method, and program
JP6318661B2 (en) Subject detection device, imaging device, and image processing program
JP5949306B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5515320B2 (en) Imaging device
JP5479202B2 (en) Imaging apparatus and control method
JP6590055B2 (en) Imaging device
JP2015061137A (en) Imaging device, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R150 Certificate of patent or registration of utility model

Ref document number: 5978636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250