WO2016203760A1 - 映像撮影装置および映像撮影方法 - Google Patents
映像撮影装置および映像撮影方法 Download PDFInfo
- Publication number
- WO2016203760A1 WO2016203760A1 PCT/JP2016/002852 JP2016002852W WO2016203760A1 WO 2016203760 A1 WO2016203760 A1 WO 2016203760A1 JP 2016002852 W JP2016002852 W JP 2016002852W WO 2016203760 A1 WO2016203760 A1 WO 2016203760A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- infrared light
- light
- incident
- image signal
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/21—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F39/00—Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
- H10F39/10—Integrated devices
- H10F39/12—Image sensors
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F99/00—Subject matter not provided for in other groups of this subclass
Definitions
- the present invention relates to a video shooting device and a video shooting method.
- a red (R), green (G), and blue (B) three-color optical filter is usually incorporated in the image sensor.
- the light incident on the camera is decomposed by the three-color optical filter, converted into a video signal by an image sensor, and RGB video data is generated.
- the image sensor used in the video imaging apparatus is a silicon sensor, it has sensitivity to light in the near infrared region in addition to the visible light region. For this reason, when near-infrared light (Near InfraRed, NIR) is incident on the image sensor, the output by NIR is added to the output by RGB light. As a result, color reproducibility decreases. Therefore, in general digital cameras and digital video cameras, near-infrared light is removed by a near-infrared cut filter to ensure highly accurate color reproducibility. In general definition, near-infrared light is light having a wavelength of about 0.7 to 2 ⁇ m.
- the simplest method is to provide a mechanism for mechanically moving an IR cut filter that removes infrared light (InfraRed, IR).
- the IR cut filter is set in the optical system for visible light photographing, and the near infrared light photographing is performed by removing the IR cut filter from the optical system for photographing outdoors or in the dark at night. In this way, a visible light image and a near-infrared light image with good color reproducibility can be acquired with a single image capturing device.
- Non-Patent Document 1 discloses a method using a four-color optical filter in which an IR transmission filter that removes visible light and transmits IR is added to an RGB three-color optical filter.
- IR dedicated pixels are provided to generate IR signals.
- the IR contribution is subtracted from the R, G, B sensor output to calculate a correct R, G, B signal. This ensures a high color reproduction line.
- R, G, and B image sensors are used as near-infrared sensors, and monochrome images of near-infrared light are generated.
- Patent Document 1 discloses a method of measuring the light intensity incident on a semiconductor photosensor in two stages: measurement of visible light intensity and measurement of near-infrared light intensity.
- the measurement of the visible light intensity is performed using a three-color optical filter that transmits R, G, and B colors. These optical filters also transmit NIR.
- the NIR intensity is measured by the NIR sensor provided in the deep part (the part far from the light receiving surface) of each of the R, G, and B photosensors. This utilizes the phenomenon that light having a longer wavelength enters deeper from the surface of the semiconductor and is absorbed. That is, the intensity of NIR light transmitted through the visible light sensing unit is measured by a sensor dedicated to NIR. With this configuration, it is possible to capture both a visible light image and a near-infrared light image with a single image capturing device.
- Non-Patent Document 1 provides a pixel dedicated to IR. For this reason, when applied to an image sensor having the same area, the number of RGB pixels or the pixel area is reduced as compared with a method of measuring only RGB three colors. As a result, there is a problem that the resolution or sensitivity is lowered.
- the present invention has been made in view of the above-described problems, and an object thereof is to provide an image photographing apparatus capable of photographing both a visible light image and a near infrared light image with a simple configuration. Yes.
- the video imaging apparatus of the present invention generates an incident light video signal that generates an incident light video signal according to the intensity of the visible light component and the near infrared light component of the incident light incident on the light receiving surface.
- Means a near-infrared light diffracting means arranged on the incident side of the light-receiving surface and diffracting a near-infrared light component of the incident light, and a diffraction for extracting a diffraction pattern generated by the near-infrared light on the light-receiving surface Pattern extracting means; near infrared light video signal generating means for generating a near infrared light video signal corresponding to the intensity of the near infrared light component calculated based on the diffraction pattern; the incident light video signal; and Visible light video signal generating means for generating a visible light video signal corresponding to the intensity of the visible light component calculated based on the near-infrared light video signal.
- the effect of the present invention is that it is possible to provide an image photographing apparatus capable of photographing an image with both visible light and infrared light with a simple configuration.
- FIG. 1 is a block diagram showing a video photographing apparatus 100 according to the first embodiment.
- the image capturing apparatus 100 includes a near-infrared light diffraction unit 110, an incident light image signal generation unit 120, a diffraction pattern extraction unit 130, a near-infrared light image signal generation unit 140, and a visible light image signal generation unit 150. ,have.
- Near-infrared light diffracting means 110 diffracts near-infrared light included in incident light 10 incident on video imaging device 100.
- the near-infrared light diffracted by the near-infrared light diffracting means 110 forms a diffraction pattern on the light receiving surface 120 a of the incident light image signal generating means 120.
- the incident light image signal generating means 120 generates an incident light image signal corresponding to the intensities of visible light and near infrared light.
- the diffraction pattern extraction unit 130 extracts a diffraction pattern formed by the near infrared light on the light receiving surface 120a based on the incident light image signal.
- the near-infrared light image signal generating means 140 calculates the intensity of near-infrared light incident on the image capturing device 100 based on the extracted diffraction pattern of near-infrared light, and generates a near-infrared light image signal.
- the visible light video signal generation means 150 generates a visible light video signal based on the incident light video signal and the near infrared light video signal. With the above configuration, a near-infrared light image signal and a visible light image signal can be generated.
- a visible light image and a near-infrared light image can be captured using a single image capturing device having a simple configuration.
- FIG. 2 is a block diagram illustrating a video photographing apparatus 100 according to the second embodiment.
- the image capturing apparatus 100 includes a near-infrared light diffraction unit 110, an incident light image signal generation unit 120, a diffraction pattern extraction unit 130, a near-infrared light image signal generation unit 140, and a visible light image signal generation unit 150. ,have.
- the diffraction pattern extraction unit 130 includes a diffraction model generation unit 131, a luminance gradient analysis unit 132, and a matching model determination unit 133. Details of each element will be described later.
- the near-infrared light image signal generation unit 140 analyzes the diffraction pattern extracted by the diffraction pattern extraction unit 130, calculates the intensity of incident near-infrared light, and generates a near-infrared light image signal.
- the visible light video signal generation means 150 generates a visible light signal based on the incident video signal and the near-infrared light video signal. Specifically, the visible light video signal can be obtained by subtracting the near-infrared light video signal from the incident video signal in each pixel.
- the near-infrared light diffracting means 110 has a near-infrared light cut portion that cuts near-infrared light and a near-infrared light transmission portion that transmits near-infrared light, and for near-infrared light Acts as a slit.
- the shape of the near-infrared light transmitting portion can be, for example, a circle or a shape close to a circle.
- the near-infrared light component of the incident light 10 incident on the image capturing device 100 is diffracted by passing through the near-infrared light diffracting means 110, and the light and darkness is reflected on the light receiving surface 120 a of the incident light image signal generating means 120. Produces a diffraction pattern.
- the near-infrared light transmitting portion is circular, the diffraction pattern is a circular pattern composed of bright and dark concentric circles.
- FIG. 3 is a graph showing an example of the luminance distribution of one circular pattern.
- (x, y) is an orthogonal coordinate in the incident light video signal generation means 120, and the z axis represents the luminance at the coordinate.
- This circular pattern can be approximated as Fraunhofer diffraction.
- the bright part at the center of the circular pattern is called an Airy disk.
- the incident light image signal generation means 120 generates an incident light image signal corresponding to the intensity of visible light and near infrared light incident on the light receiving surface 120a.
- the incident light video signal generation means 120 is, for example, a photosensor array in which pixels are two-dimensionally arranged with photosensors having sensitivity to visible light and near infrared light as pixels.
- the diffraction pattern extraction means 130 analyzes the incident light image signal and extracts a diffraction pattern formed by near infrared light. For this purpose, a diffraction model generation unit 131, a luminance gradient analysis unit 132, and a matching model determination unit 133 are provided.
- the diffraction model generation means 131 generates a near infrared light diffraction model by theoretical calculation, for example, Fraunhofer approximation.
- the luminance gradient analyzing means 132 analyzes the luminance gradient at each coordinate of the incident light video signal. In the analysis, a process of calculating a ratio of the luminance gradient of the incident light video signal at a certain coordinate and the luminance gradient at a position corresponding to the coordinate of the generated diffraction model is performed. Details will be described later.
- the conforming model determination unit 133 determines a diffraction model that conforms to the circular pattern included in the incident light image signal based on the diffraction model and the luminance gradient analysis result. Thereby, a diffraction pattern is extracted.
- the near-infrared light image signal generation means 140 estimates the intensity and wavelength of near-infrared light incident on the coordinates based on a compatible diffraction model. From the estimation result, a near-infrared light image signal is generated.
- the diffraction pattern extraction unit 130 extracts a diffraction pattern and the near infrared light image signal generation unit 140 generates a near infrared light image signal will be described.
- the intensity I (x) on the light receiving surface 120a of the incident light video signal generation unit 120 is expressed by the following equation.
- J 1 (x) is a first type Bessel function of degree 1
- C is a correction coefficient
- x is as shown in Equation (2).
- a is the radius of the portion of the near infrared light diffracting means 110 that transmits the near infrared light.
- q is a distance on the light receiving surface 120a from a point perpendicular to the incident light image signal generation unit 120 from the center of the portion to the point.
- R indicates the distance from a point perpendicular to the light receiving surface 120a from the center of the portion that transmits near infrared light to a point that is a distance q away from the light receiving surface 120a.
- a diffraction pattern that can be expressed by Expression (1) and Expression (2) by normalizing the incident intensity I 0 is referred to as a diffraction model.
- FIG. 5 is an example of a diffraction model when calculated assuming a certain wavelength.
- the diffraction model represents the relationship between the intensity I of the circular pattern generated on the light receiving surface 120a and the distance q from the center of the circular pattern.
- the correction coefficient C in Formula (1) shows two examples of C1 (solid line) and C2 (broken line).
- the correction coefficient C is a coefficient that is adjusted to match the circular pattern generated in the actual video signal.
- the incident light video signal generation means 120 is a photosensor array 121 in which a plurality of pixels are two-dimensionally arranged with a photosensor having sensitivity to visible light and near infrared light as pixels.
- the near-infrared light diffracting means 110 generates a plurality of circular patterns on the photosensor array 121. At this time, the circular patterns are prevented from overlapping each other.
- FIG. 6 schematically shows this state.
- FIG. 6 illustrates a process of converting an incident light image signal from an orthogonal coordinate system to a polar coordinate system.
- the intensity I (x, y) can be rephrased as the luminance received by the incident light video signal generation unit 120.
- intensity and luminance are used interchangeably.
- the luminance gradient in the center direction of the circular pattern is calculated for each coordinate (r, ⁇ ) in the polar coordinate system.
- the luminance gradient is a luminance gradient detected by an adjacent photosensor (pixel), and is defined for each coordinate where the pixel is located.
- the brightness gradient is also calculated for the diffraction model.
- a diffraction model pattern expressed by Expression (1) and Expression (2) is created.
- a gradient of intensity (which may be regarded as luminance) using the distance from the center as a variable is calculated.
- the intensity is determined only by the distance from the center. For this reason, it is not necessary to consider the angular direction.
- the incident light image signal includes both a visible light component and a near infrared light component. For this reason, the absolute value of luminance greatly depends on the visible light component. However, the influence of the visible light component can be suppressed by taking the luminance gradient in the polar coordinate system. Then, by calculating the luminance gradient for all coordinates in the circular pattern and performing statistical processing, it is possible to extract a circular pattern generated only with the near infrared light component.
- the luminance gradient of the incident light image signal in the polar coordinate system is calculated in all directions in a predetermined unit, and a diffraction model that matches the luminance gradient is obtained. Then, the intensity and wavelength of near-infrared light are estimated from the diffraction model. The method will be described below.
- a ratio b between the luminance gradient at each coordinate position (r, ⁇ ) of the incident light video signal and the luminance gradient of the diffraction model at the point where the distance from the center coincides is calculated.
- the calculation of the luminance gradient ratio is performed in all directions at predetermined intervals. This is performed for all pixels in the region.
- the intensity of the incident near-infrared light component can be estimated.
- the luminance gradient it is possible to suppress the influence of components other than the near-infrared component in the target region, that is, the discontinuity of the luminance of the video signal due to visible light (such as edges).
- the above calculation processing is performed for one region set to include one circular pattern. Similar calculation is performed for all regions of the incident light video signal, and the intensity of the near infrared component in each region is calculated.
- a diffraction model is generated based on Equation (1) and Equation (2) for a wavelength region covering the wavelength region of near-infrared light.
- the wavelength region covering the wavelength region of near-infrared light may be taken discretely at intervals of 10 nm from 700 nm, for example.
- a diffraction model is obtained for each predetermined wavelength.
- the luminance gradient ratio between the incident light image signal and the diffraction model is calculated for one region set to include one circular pattern in the incident light image signal.
- the ratio between the luminance gradient at each coordinate (r, ⁇ ) of the incident light image signal and the luminance gradient in the diffraction model having the same distance from the center is calculated.
- a histogram of luminance gradient ratio is created. One histogram is created for one wavelength. Then, by generating the same histogram by changing the wavelength, as shown in FIG. 9, the same number of histograms as the selected wavelength are generated.
- the created histogram is analyzed, and one or more combinations of wavelength and luminance gradient ratios are selected from the larger histogram. Then, the selected wavelength is substituted into Equation (5), and the incident intensity of near infrared light in the target region is calculated. Thus, the wavelength and incident light intensity of the near-infrared light component in one region can be calculated. When there are a plurality of sets of wavelengths and luminance gradients to be selected, the incident light intensity of the near infrared light component may be calculated and added for each set.
- each region set to include one circular pattern with the incident light video signal The same calculation is performed in each region set to include one circular pattern with the incident light video signal, and the wavelength and incident intensity of near infrared light in each region are calculated.
- the wavelength and intensity of near infrared light incident on all near infrared light transmitting portions provided in the near infrared light diffracting means can be calculated. That is, a near infrared light video signal can be generated.
- FIG. 10 is a flowchart summarizing the near-infrared light image signal generation operation in one area described above. This flowchart shows the operation after the region division and polar coordinate conversion. Hereinafter, this flowchart will be described.
- a diffraction model is created assuming a wavelength in the near infrared region (S1).
- the luminance gradient ratio between the incident light image signal and the diffraction model is calculated for each coordinate (S2).
- a histogram of the obtained luminance gradient ratio is created (S3).
- the incident intensity of near-infrared light is estimated from the luminance gradient giving the mode value (S4).
- a diffraction model is created with a plurality of predetermined wavelengths covering the near-infrared light region (S5).
- the luminance gradient ratio between the diffraction model of each wavelength and the incident light image signal is calculated at each coordinate (S6).
- a histogram of luminance gradient is created for each wavelength for which the luminance gradient ratio has been calculated (S7).
- the wavelength of the incident near-infrared light is estimated from the luminance gradient indicating the peak of the histogram (S8). As described above, the wavelength and intensity of near-infrared light are estimated.
- both a visible light image and a near-infrared light image are captured by a single image capturing device using a photosensor array having a general simple configuration. can do.
- FIG. 11 is a block diagram showing a video photographing apparatus 100A according to the third embodiment of the present invention.
- the image capturing apparatus 100A according to the present embodiment generates both a visible color image signal and a near-infrared light image.
- the image capturing device 100A includes a code type IR cut filter 110a as a near-infrared light diffracting means.
- the incident light video signal generation unit 120 includes a photosensor array 121 in which a plurality of photosensors are arranged in a plane, and a color filter array 122 provided on the light incident side of the photosensor array 121.
- R, G, B, and NIR represent red, green, blue, and near-infrared signals, respectively.
- R + NIR, G + NIR, and B + NIR signals are generated by the photosensor array 121, and the NIR video signal is generated by the near-infrared light video signal generation unit 140 by arrows.
- a state in which R, G, and B signals are generated by the visible light video signal generation unit 150 is indicated by arrows. Details of the operation will be described later.
- FIG. 12 is a plan view showing the code-type IR cut filter 110a.
- the code type IR cut filter 110 a includes a near infrared light cut unit 111 and a near infrared light transmission unit 112. That is, the code type means binary values of transmission and cut.
- the code-type IR cut filter 110 a is provided on the front side of the color filter array 122 in the light traveling direction. As a result, near-infrared light diffraction occurs when incident light passes through the infrared transmitting portion 12.
- the near-infrared light cut unit 111 does not transmit near-infrared light but transmits visible light.
- the near infrared light transmission part 112 transmits near infrared light.
- the near-infrared light transmitting portion 112 has a circular shape or a shape close thereto. A plurality of circular patterns formed on the photosensor array surface by near-infrared light are prevented from overlapping each other. Based on the equations (1) and (2), an approximate spread of diffracted light can be predicted.
- the near-infrared light transmitting unit 112 is disposed so as to satisfy the above conditions, and the distance between the code-type IR cut filter 110a and the incident light video signal generating unit 120 is set. As long as this condition is satisfied, the arrangement of the near-infrared light transmitting portion is arbitrary.
- a plurality of circular patterns of a predetermined size can be formed at predetermined positions on the light receiving surface of the incident light image signal generating means 120.
- the size of the near-infrared light cut unit 112 does not necessarily match the size of one pixel of the photosensor. Further, although it is desirable that the near-infrared light transmitting unit 112 also transmits visible light, the present embodiment is established even when visible light is not transmitted.
- the photosensor array 121 is a two-dimensional arrangement of photosensors as in the second embodiment, and each photosensor (pixel) is sensitive to visible light and near infrared light.
- the color filter 122 is arranged in an array in which color filters that transmit, for example, R (red), G (green), and B (blue) are provided at positions corresponding to the photosensors. Each color filter also transmits near infrared light.
- the color filter may be of a type using complementary colors such as C (cyan), M (magenta), and Y (yellow). Here, description will be made using examples of R, G, and B.
- FIG. 13 is a plan view showing an example of the configuration of the color filter array 122.
- each color filter transmits near-infrared light in addition to visible light having a color that passes through each color filter.
- each pixel is described in the form of “color + NIR”.
- R + NIR is a color filter that transmits red and NIR
- G + NIR is a color filter that transmits green and NIR
- B + NIR is a color filter that transmits blue and NIR.
- a photo sensor is provided at a position corresponding to each color filter. Note that the number of photosensors corresponding to one color filter may be one or plural.
- the arrangement of the color filters of each color shown in FIG. 13 is called a Bayer array, and one unit is formed by one R pixel, two G pixels, and one B pixel, and these units are arranged periodically. It is a thing.
- FIG. 13 illustrates 6 units of 2 ⁇ 3 in the vertical direction.
- the light transmitted through the code-type IR cut filter 110a and the color filter 122 is converted into a three-color signal of R + NIR, G + NIR, and B + NIR by a photosensor.
- the diffraction pattern extraction unit 130 extracts the diffraction pattern, and the near-infrared light image signal generation unit 140 generates a near-infrared light image signal. To do. Details of the operation will be described later.
- the visible light video signal generation means 150 generates R, G, B, and color signals based on the incident light video signal and the near infrared light video signal.
- FIG. 14 is a flowchart showing an outline of the operation. Hereinafter, this flowchart will be described.
- the incident light image signal generating means generates an incident light image signal (S101).
- the incident light video signal is an R, G, B, three-color video signal, and each signal includes a near-infrared light component.
- interpolation (demosaicing processing) of missing colors at each pixel is performed to generate progressive video signals of R + NIR, G + NIR, and B + NIR (S102).
- the progressive video signal is defined as a video signal of each color obtained by the demosaicing process.
- progressive video signals of each color are analyzed in the same manner as in the second embodiment, and near-infrared light video signals included in these are extracted and generated (S103).
- a single color video signal of R, G, B, and each color is generated (S104).
- the three-color visible light image signal and the near-infrared light image can be generated.
- demosaicing process for interpolating missing colors will be described.
- the demosaicing process described below is merely an example, and other methods may be used.
- FIG. 15 is a schematic plan view for explaining the demosaicing process performed by one unit of the Bayer array.
- One unit is composed of four pixels, one R pixel, two G pixels, and one B pixel.
- the pixel here is a set of a color filter and a photosensor.
- R + NIR, G + NIR, and B + NIR light is detected.
- colors other than the target color are not detected. Therefore, the missing color signal is interpolated using the brightness of the surrounding pixels.
- the R, G, and B color signals at this point also include NIR components, but in order to simplify the description, the R, G, and B color signals will be described.
- the pixel at the coordinates (1, 1) corresponds to R and directly generates an R signal.
- R (1,1) R (1,1) (6)
- the G signal and the B signal that do not exist in the pixel at the coordinates (1, 1) are calculated by interpolating from the color signals of the peripheral pixels as follows, for example.
- G (1,1) (G (2,1) + G (1,2)) / 2 (7)
- B (1,1) B (2,2) (8)
- a video signal (R, G, B color signal) of the pixel at coordinates (1, 2) is generated.
- the pixel at coordinates (1, 2) corresponds to G and directly generates a G signal.
- G (1,2) G (1,2) (9)
- the R signal and the B signal which do not exist in the pixel at the coordinates (1, 2) are also calculated by interpolation from the color information of the peripheral pixels.
- R (1,2) R (1,1) (10)
- B (1,2) B (2,2) (11)
- the same processing as above is repeated to generate video data (R, G, B color signals) for all pixels.
- the demosaicing process is not limited to the above method, and various methods can be used. As described above, a progressive video signal in which R, G, and B color information is set for all pixels is obtained.
- the visible light components R, G, and B are not affected (not diffracted) by the infrared transmitting portion 112 in the code-type IR cut filter 110a. For this reason, the information of the photographing scene is irradiated to the color filter array 122 and the photo sensor array 121 as they are.
- An incident light image signal composed of three color signals of R + NIR, G + NIR, and B + NIR is generated from the irradiated light.
- the progressive signal generated at this time in which R, G, B, and three-color signals are set for all pixels includes a near-infrared light component in a circular pattern. Therefore, these R + NIR, G + NIR, and B + NIR signal components are represented by I R + NIR , I G + NIR , and I B + NIR .
- FIG. 16 is a schematic plan view showing progressive signals obtained for R, G, B, and each color.
- the progressive R video signal 1R, the progressive G video signal 1G, and the progressive B video signal 1B each include a circular pattern of near infrared light. This is schematically shown in the figure.
- the progressive signals of R, G, B, and each color include a circular pattern of near infrared light components.
- Each near-infrared light component is estimated in the same manner as in the second embodiment. That is, processing similar to the flowchart of FIG. 10 is performed using R, G, and B progressive signals. As a result, three near-infrared light image signals obtained from the three progressive signals are extracted and generated.
- the NIR signal obtained from the R progressive signal 1R is referred to as an NIR_R signal.
- an NIR signal obtained from the G progressive signal 1G is referred to as an NIR_G signal
- an NIR signal obtained from the B progressive signal 1B is referred to as an NIR_B signal.
- Each signal component is represented by I NIR_R , I NIR_G , and I NIR_B .
- R, G, B, and monochrome color components can be obtained by subtracting the near-infrared light component from the progressive signal component of each color. Assuming that the respective color components are called I R , I G , and I B , these components can be calculated by the following equations.
- I R I R + NIR ⁇ I NIR_R (12)
- I G I G + NIR ⁇ I NIR_G (13)
- I B I B + NIR ⁇ I NIR_B (14)
- the near-infrared light component monochrome component I NIR can be expressed by the following equation.
- I NIR I NIR_R + I NIR_G + I NIR_B (15) Note that each term of Expression (15) may be weighted reflecting the way of demosaicing processing.
- R, G, B, NIR, and four color video signal components can be extracted for each pixel.
- the four colors of video data can be generated using the signal components of all pixels.
- a visible light color video signal and a near-field image capturing device can be configured with a simple configuration that does not mechanically move the IR filter or use a special photosensor.
- An infrared video signal can be generated simultaneously.
- the near-infrared light component I NIR is calculated using three progressive signals I R + NIR , I G + NIR , I B + NIR , but can also be calculated using a signal of a specific color.
- the pixel is an RGB Bayer array type, since the information on the G channel is twice that of the other color channels, a method using only the G channel after the demosaicing process is effective.
- the position where the circular pattern is formed can be controlled. Therefore, if the near-infrared light transmitting part is arranged so that the circular pattern is centered on the G pixel, the NIR component contained in I R + NIR and I B + NI becomes small, and even if these are ignored, there is no influence. Becomes smaller. Further, if the shape and arrangement of the near-infrared light transmitting portion are set to about the size of one pixel of the color filter and the photosensor, the influence can be further reduced.
- FIG. 17 is a block diagram of a video photographing apparatus 100B according to the fourth embodiment.
- the video imaging device 100B has a configuration in which an encoded information memory 134 is added to the video imaging device 100A of the third embodiment.
- the encoded information memory 134 is connected to the diffraction pattern extraction unit 130. Note that the code-type IR cut filter 110a, the color filter array 122, and the photosensor array 121 are the same as those in the video photographing apparatus 100A, and therefore, the encoded information memory 134 and the diffraction pattern extraction unit 130 will be described here.
- the encoding information memory 134 records information on a circular pattern formed by near infrared light. Specifically, the center coordinates of the circular pattern, the size, and the distance between the code-type IR cut filter 110a and the photosensor array 121 are recorded.
- This circular pattern is determined by the wavelength of near-infrared light, the size of the infrared transmission part 12, and the distance between the code-type IR cut filter 110a and the photosensor array 121. Therefore, once these parameters are determined, the center coordinates and size of the circular pattern can be grasped in advance by performing calculation or calibration.
- a visible light image signal and a near-infrared light image signal are generated.
- the generation method is the same as in the third embodiment.
- the processing can be simplified by using the encoded information recorded in the encoded information memory 134.
- FIG. 18 is a block diagram of the three-plate type video photographing apparatus 101.
- the video imaging apparatus 101 includes a code-type IR cut filter 110a, a prism 160, and three types of incident light video signal generation means 120R, G, and B. Further, it has a diffraction pattern extraction means 130, a near-infrared light image signal generation means 140, and a visible light image signal generation means 150.
- the prism 160 is color separation means, and in the example of FIG. 18, the G light travels straight, the B light travels downward in the drawing, and the R + NIR light travels upward in the drawing. Note that the shape of the prism 160 depicted in FIG. 18 does not represent an actual shape, but is conceptual.
- the prism 160 may include an optical system for collimating light, and a camera lens 170 may be provided on the incident side of the prism 160.
- the prism 160 and the camera lens 170 may be those generally used in a three-plate image photographing apparatus.
- an incident light image signal generation means dedicated to that color is provided.
- the incident light video signal generation unit 120G generates a G video signal.
- the incident light video signal generation unit 120B generates a B video signal.
- the incident light video signal generation unit 120R generates an R + NIR video signal.
- a code-type IR cut filter 110a is provided on the light incident side of 120R. With this configuration, the video signal generated by 120R includes a circular pattern of near infrared light.
- the photosensor used for each incident light image signal generating means may be a photosensor generally used in a three-plate image photographing apparatus.
- the code IR cut filter 110a for example, the one used in any of the second to fourth embodiments is applied.
- the code-type IR cut filter 110a is provided on the front side in the light traveling direction with respect to at least one of the three incident light image signal generating means. In the example of FIG. 18, it is provided corresponding to the R corresponding incident light video signal generating means 120R. As a result, diffraction of near-infrared light occurs.
- a normal near infrared cut filter is used to cut near infrared light that may leak from the prism 160 with respect to the remaining two incident light image signal generating means that are not provided with the code type IR cut filter. May be installed. Thereby, color reproducibility can be ensured.
- the light that enters the image capturing apparatus 101 through the camera lens 170 is decomposed by the prism 160 into R, G, and B light having different wavelength bands.
- the light corresponding to R enters the incident light video signal generation unit 120R
- the light corresponding to G enters the incident light video signal generation unit 120G
- the light corresponding to B enters the incident light video signal generation unit 120B.
- the near-infrared light component of the light corresponding to R is diffracted by the near-infrared light transmitting portion of the code-type IR cut filter 110a. Then, in the incident light video signal generation means 120R, an R + NIR video signal including NIR is generated. That is, with the above configuration, an R + NIR video signal to which a plurality of circular patterns by near infrared light are added is generated.
- the diffraction pattern extraction unit 130 and the near-infrared light image signal generation unit 140 receive the R + NIR image signal and generate an NIR image signal. Then, an NIR video signal and an R + NIR video signal are output.
- the visible light video generation unit 150 generates a monochrome R video signal by subtracting the NIR video signal from the R + NIR video signal. As described above, four-color video data (R, G, B, NIR) can be generated.
- the video photographing apparatus 101 of the present embodiment has a configuration of a general three-plate type photographing apparatus and does not require a special device.
- the code-type IR cut filter 1 is obtained by adding a simple modification to a general cut filter and has a simple configuration. That is, both a visible light video signal and a near-infrared light video signal can be generated with a simple configuration. For this reason, production cost reduction and failure rate reduction can be expected as compared with a method using a complicated configuration and a special device. Further, even under a situation where near-infrared light is strongly saturated, it is possible to suppress saturation and disperse the apparent dynamic range by dispersing near-infrared light by diffraction.
- FIG. 19 is a block diagram of video imaging apparatus 102 in the present embodiment.
- the image capturing apparatus 102 includes a code-type IR cut filter 110a and a stacked incident light image signal generating unit 120S in which incident light image signal generating units 120R, 120G, and 120B dedicated to R, G, and B are stacked. ing. Further, it has a diffraction pattern extraction means 130, a near-infrared light image signal generation means 140, and a visible light image signal generation means 150.
- a multilayer sensor used in a general multilayer sensor-type video imaging apparatus can be used as the multilayer incident light video signal generation unit 120S. In the example of FIG. 19, the photosensors are stacked in the order of 120B, 120G, and 120R in the light traveling direction.
- the code-type IR cut filter 110a may be the one used in any of the second to third embodiments. 110a is provided on the front side in the light traveling direction with respect to 120S.
- the light incident on the image capturing device 102 includes R, G, B, and NIR light having different wavelength bands.
- Light corresponding to B is converted to a B + NIR video signal by 120B
- light corresponding to G is converted to a G + NIR video signal by 120G
- light corresponding to R and NIR is converted to an R + NIR video signal by 120R.
- R, G, B + NIR video signals include a circular pattern formed by the NIR diffracted by the code-type IR cut filter 110a.
- a circular pattern is extracted by the diffraction pattern extraction unit 130, and a near-infrared light image signal is generated by the near-infrared light image generation unit 130. That is, the NIR video signal is generated based on the R + NIR, G + NIR, and B + NIR video signals input from the stacked incident light video signal generating unit 120S.
- the method is the same as that of the third and fourth embodiments.
- R, G, B, NIR, and four-color video signals can be generated for all pixels.
- each unit may be configured by hardware, or may be realized by a computer program.
- functions and operations similar to those described above are realized by a processor that operates according to a program stored in the program memory. Further, only some functions may be realized by a computer program.
- the scope of the present invention also includes a program for causing a computer to execute the processes of the first to sixth embodiments and a recording medium storing the program.
- a recording medium for example, a magnetic disk, a magnetic tape, an optical disk, a magneto-optical disk, a semiconductor memory, or the like can be used.
- Incident light image signal generating means for generating an incident light image signal corresponding to the intensity of the visible light component and the near-infrared light component of the incident light incident on the light receiving surface, and disposed on the incident side of the light receiving surface.
- Near-infrared light diffracting means for diffracting near-infrared light components
- diffraction pattern extracting means for extracting a diffraction pattern generated by the near-infrared light on the light receiving surface, and the near-red calculated based on the diffraction pattern
- Near-infrared light image signal generating means for generating a near-infrared light image signal corresponding to the intensity of the external light component, and the visible light component calculated based on the incident light image signal and the near-infrared light image signal
- a visible light video signal generating means for generating a visible light video signal according to the intensity of the video photographing device.
- the near-infrared light diffracting means has a near-infrared light cut portion that cuts near-infrared light and transmits visible light, and a near-infrared light transmission portion that transmits near-infrared light,
- the video imaging device according to appendix 1.
- the video imaging apparatus according to appendix 2, wherein the near-infrared light diffracting means includes a plurality of the near-infrared light transmitting portions.
- Appendix 5 Any one of appendix 1 to appendix 4 characterized by having an information memory for storing information on the near-infrared light diffracting means and information on a position where the diffraction pattern is generated on the light receiving surface.
- the near-infrared light image signal generating means includes a diffraction model generating means for generating a near-infrared light diffraction model, a brightness gradient analyzing means for analyzing a brightness gradient of the incident light image signal, and an analysis result of the brightness gradient And a matching diffraction model determination unit that determines a diffraction model that conforms to the above, and an incident near-infrared light intensity estimation unit that estimates the intensity of incident near-infrared light based on the matching diffraction model.
- the video imaging device according to any one of supplementary notes 1 to 5.
- the incident near-infrared light wavelength estimation means for estimating the wavelength of incident near-infrared light based on the adaptive diffraction model, the near-infrared light image signal generation means, Video shooting device.
- the luminance gradient analyzing unit converts the incident light image signal into a region dividing unit that divides the incident light image signal for each region including one diffraction pattern, and converts the coordinates of the divided region into polar coordinates having the center of the diffraction pattern as an origin.
- the video imaging apparatus according to appendix 6 or appendix 7, characterized by comprising: coordinate conversion means.
- the luminance gradient analysis unit calculates a luminance gradient ratio that is a ratio of a luminance gradient at a certain coordinate of the incident light image signal and a luminance gradient at a position corresponding to the certain coordinate of the diffraction model.
- the adaptive diffraction model determination unit performs determination based on a statistical processing result of the startup gradient ratio statistical processing unit.
- (Appendix 12) 12 The video photographing apparatus according to any one of supplementary notes 1 to 11, wherein the incident light video signal generation unit generates a signal corresponding to intensity by separating incident light into a plurality of colors of visible light. (Appendix 13) 13. The video photographing apparatus according to appendix 12, wherein the near-infrared light video signal generating unit generates a near-infrared light video signal for each of the plurality of colors. (Appendix 14) 14. The video photographing apparatus according to any one of supplementary notes 1 to 13, wherein the first incident light video signal generation unit includes a silicon photosensor.
- the near-infrared light diffraction means arranged on the incident side of the light-receiving surface diffracts the near-infrared light component of the incident light to obtain the intensity of the visible light component and the near-infrared light component of the incident light incident on the light-receiving surface.
- a corresponding incident light image signal extracting a diffraction pattern generated by the near-infrared light on the light-receiving surface, and calculating the near-infrared light according to the intensity of the near-infrared light component calculated based on the diffraction pattern
- a video imaging method comprising: generating an optical video signal, and generating a visible light video signal corresponding to an intensity of the visible light component based on the incident light video signal and the near-infrared light video signal.
- (Appendix 16) A code-type IR having a near infrared light cut portion that cuts near infrared light and transmits visible light, and a near infrared light transmission portion that transmits near infrared light as the near infrared light component of the incident light.
- (Appendix 17) The video imaging method according to appendix 16, wherein the code-type IR cut filter having a plurality of the near-infrared light transmitting portions is used.
- (Appendix 18) 18.
- the information of the near-infrared light diffracting means and the position information on which the diffraction pattern is generated on the incident light image signal generating means are stored in a memory.
- Video shooting method. A near-infrared light diffraction model is generated, a luminance gradient of the incident light image signal is analyzed, a diffraction model that matches the analysis result of the luminance gradient is determined, and an incident near-red light that is incident based on the matching diffraction model is determined.
- the video imaging method according to any one of supplementary notes 15 to 19, wherein the intensity of external light is estimated.
- (Appendix 24) 24 The video shooting method according to claim 23, wherein the luminance gradient ratio generated at a plurality of coordinates in the divided area is statistically processed.
- (Appendix 25) 25 The video shooting method according to appendix 24, wherein the matching diffraction model is determined based on the result of the statistical processing of the luminance gradient ratio.
- (Appendix 26) 26 The video imaging method according to any one of supplementary notes 15 to 25, wherein incident light is separated into a plurality of colors of visible light and a signal corresponding to the intensity is generated.
- (Appendix 27) 27 The video shooting method according to appendix 26, wherein a near-infrared light video signal is generated for each of the plurality of colors.
- the image photographing method is generated by a silicon photosensor.
- Appendix 29 Diffracting the near-infrared light component of the incident light by the near-infrared light diffracting means disposed on the incident side of the light-receiving surface; and A step of generating an incident light image signal according to intensity, a step of extracting a diffraction pattern generated by the near infrared light on the light receiving surface, and an intensity of the near infrared light component calculated based on the diffraction pattern Generating a near-infrared light image signal according to the step, and generating a visible light image signal according to the intensity of the visible light component based on the incident light image signal and the near-infrared light image signal;
- a video shooting program characterized by comprising: (Appendix 30) Generating a near-infrared light diffraction model; analyzing a luminance gradient of the incident light image signal;
- (Appendix 33) Statistically processing the luminance gradient ratio generated at a plurality of coordinates in the divided region, and determining the suitable diffraction model based on the result of the statistical processing.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Color Television Image Signal Generators (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
[課題]簡易な構成で、可視光および赤外光、両方で映像撮影が可能な映像撮影装置を提供する。 [解決手段]映像撮影装置は、受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有する。
Description
本発明は、映像撮影装置および映像撮影方法に関する。
デジタルカメラやビデオカメラなどの撮影装置では、通常、そのイメージセンサには赤(R)、緑(G)、青(B)の3色光学フィルタが組み込まれている。カメラに入射した光は、この3色光学フィルタにより分解され、イメージセンサによって映像信号に変換されてRGBの映像データが生成される。
ところで、映像撮影装置に使用されているイメージセンサがシリコン系センサの場合、可視光領域の他に、近赤外領域の光に対しても感度を有している。このため、近赤外光(Near InfraRed、NIR)がイメージセンサに入射すると、RGBそれぞれの光による出力に、NIRによる出力が加算される。その結果、色再現性が低下する。そこで、一般的なデジタルカメラやデジタルビデオカメラでは、近赤外カットフィルタで近赤外光を除去し、高精度な色再現性を確保している。なお一般的な定義では、近赤外光とは、波長が概ね0.7~2μm程度の光のことである。
一方で、上記の近赤外光感度を利用して、近赤外光映像の撮影を行いたいという要望が存在する。この要望にこたえるため、可視光撮影と、近赤外光撮影とを、1つの映像撮影装置で行う方法が、種々検討されている。
もっとも単純な手法は、赤外光(InfraRed、IR)を除去するIRカットフィルタを機械的に移動する仕組みを設けることである。この場合、可視光撮影ではIRカットフィルタを光学系にセットし、夜間屋外や暗所における撮影では、IRカットフィルタを光学系から除去して近赤外光撮影を行う。このようにして、色再現性の良い可視光映像と、近赤外光映像とを、1つの映像撮影装置で取得することができる。
また、機械的動作を必要とせずに、RGB画像とNIR画像とを撮影する方法も提案されている。例えば、非特許文献1には、RGBの3色光学フィルタに加え、可視光を除去しIRを透過するIR透過フィルタを加えた4色光学フィルタを用いる方法が開示されている。すなわち、IR専用の画素を設け、IR信号を生成している。そして、生成したIR信号を用いて、R、G、Bセンサ出力からIRの寄与分を差し引き、正しいR、G,B信号を算出する。これにより、高い色再現線を確保している。また暗所撮影ではR、G、Bのイメージセンサを近赤外センサとして利用し、近赤外光のモノクロ映像を生成している。
また例えば、特許文献1には、半導体フォトセンサに入射した光強度の測定を、可視光強度の測定と、近赤外光強度の測定の2段階で行う方法が開示されている。可視光強度の測定は、R、G、B各色を透過する3色光学フィルタを用いて行う。これらの光学フィルタはNIRも透過する。そして、NIR強度の測定は、R、G、Bそれぞれのフォトセンサの深部(受光面から遠い部分)に設けられたNIRセンサで行う。これは、波長が長い光ほど、半導体の表面から深くまで進入して吸収されるという現象を利用したものである。つまり、可視光センシング部を透過したNIR光の強度を、NIR専用のセンサで測定している。この構成により、一つの映像撮影装置で、可視光映像、近赤外光映像、両方の撮影を可能としている。
香山,田中,廣瀬,"監視カメラ用昼夜兼用イメージセンサ",Panasonic Technical Journal Vol.54,No.4,Jan.2009
しかしながら、上記の技術には、それぞれ問題点があった。
非特許文献1の技術は、IR専用の画素を設けている。このため同一面積のイメージセンサに適用した場合、RGB3色だけを測定する方式に比べ、RGBの画素数または画素面積が減少する。その結果、解像度もしくは感度が低下するという問題があった。
また特許文献1の技術では、RGB各色のフォトセンサ部の下部(表面から遠い側)にNIRセンサを設けている。このため、一種類のフォトセンサを平面的に配列する構造に比べて、構造、プロセスが複雑になり、製造コストが高くなる、という問題があった。
本発明は、上記の問題点に鑑みてなされたものであり、簡易な構成でありながら、可視光映像および近赤外光映像、両方の撮影が可能な映像撮影装置を提供することを目的としている。
上記の課題を解決するため、本発明の映像撮影装置は、受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有している。
本発明の効果は、簡易な構成でありながら、可視光および赤外光、両方で映像撮影が可能な映像撮影装置を提供できることである。
以下、本発明の実施形態について図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施の形態の映像撮影装置100を示すブロック図である。映像撮影装置100は、近赤外光回折手段110と、入射光映像信号生成手段120と、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。
図1は、第1の実施の形態の映像撮影装置100を示すブロック図である。映像撮影装置100は、近赤外光回折手段110と、入射光映像信号生成手段120と、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。
近赤外光回折手段110は、映像撮影装置100に入射した入射光10に含まれる近赤外光を回折させる。近赤外光回折手段110で回折した近赤外光は、入射光映像信号生成手段120の受光面120aに回折パターンを形成する。
入射光映像信号生成手段120は、可視光と近赤外光の強度に応じた入射光映像信号を生成する。
回折パターン抽出手段130は、入射光映像信号に基づいて、近赤外光が受光面120aに形成する回折パターンを抽出する。
近赤外光映像信号生成手段140は、抽出した近赤外光の回折パターンに基づいて、映像撮影装置100に入射した近赤外光強度を算出し、近赤外光映像信号を生成する。
可視光映像信号生成手段150は、入射光映像信号と、近赤外光映像信号と、に基づいて、可視光映像信号を生成する。以上の構成により、近赤外光映像信号と、可視光映像信号と、を生成することができる。
以上説明したように、本実施の形態によれば、簡易な構成の1つの映像撮影装置を用いて、可視光映像と近赤外光映像とを撮影することができる。
(第2の実施形態)
本実施の形態では、第1の実施の形態の映像撮影装置100の詳細について説明する。図2は、第2の実施の形態の映像撮影装置100を示すブロック図である。
本実施の形態では、第1の実施の形態の映像撮影装置100の詳細について説明する。図2は、第2の実施の形態の映像撮影装置100を示すブロック図である。
映像撮影装置100は、近赤外光回折手段110と、入射光映像信号生成手段120と、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。
回折パターン抽出手段130は、回折モデル生成手段131と、輝度勾配解析手段132と、適合モデル判定手段133と、を有している。各要素の詳細については、後述する。
近赤外光映像信号生成手段140は、回折パターン抽出手段130が抽出した回折パターンを解析して、入射した近赤外光の強度を算出し、近赤外光映像信号を生成する。
可視光映像信号生成手段150は、入射映像信号と、近赤外光映像信と、に基づいて、可視光信号を生成する。具体的には、各画素において入射映像信号から近赤外光映像信号を差し引くことにより、可視光映像信号を得ることができる。
以下、各要素の詳細について説明する。
近赤外光回折手段110は、近赤外光をカットする近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有し、近赤外光に対して、スリットとして作用する。近赤外光透過部の形状は、例えば円形もしくは円形に近い形状とすることができる。映像撮影装置100に入射した入射光10のうちの近赤外光成分は、近赤外光回折手段110を通過することによって回折し、入射光映像信号生成手段120の受光面120a上に、明暗の回折パターンを生じる。近赤外光透過部が円形であった場合は、回折パターンは、明暗の同心円からなる円状パターンとなる。
図3は1つの円状パターンの輝度分布の一例を示すグラフである。ここで(x,y)は、入射光映像信号生成手段120における直交座標であり、z軸は、その座標における輝度を表している。この円状パターンは、Fraunhofer回折として近似できる。円状パターンの中心の明るい部分はエアリーディスクと呼ばれている。
入射光映像信号生成手段120は、受光面120aに入射した可視光と近赤外光の強度に応じた入射光映像信号を生成する。入射光映像信号生成手段120は、例えば、可視光と近赤外光とに感度を有するフォトセンサを画素とし、画素を2次元的に配列したフォトセンサアレイである。
回折パターン抽出手段130は、入射光映像信号を解析して、近赤外光が形成する回折パターンを抽出する。そのために、回折モデル生成手段131と、輝度勾配解析手段132と、適合モデル判定手段133と、を有している。
回折モデル生成手段131は、理論計算、例えばFraunhofer近似によって、近赤外光の回折モデルを生成する。
輝度勾配解析手段132は、入射光映像信号の各座標における輝度勾配を解析する。解析においては、ある座標における入射光映像信号の輝度勾配と、生成した回折モデルの当該座標に対応する位置での輝度勾配の比を算出する処理などを行う。詳細は後述する。
適合モデル判定手段133は、回折モデルと輝度勾配解析結果とに基づいて、入射光映像信号に含まれる円状パターンに適合する回折モデルを判定する。これにより、回折パターンが抽出される。
近赤外光映像信号生成手段140は、適合する回折モデルに基づいて、当該座標に入射した近赤外光の強度と波長を推定する。その推定結果から、近赤外光映像信号を生成する。
次に、回折パターン抽出手段130が、回折パターンを抽出し、近赤外光映像信号生成手段140が、近赤外光映像信号を生成する方法について説明する。
いま、近赤外光回折手段110が有する一つの近赤外光透過部に、波長λ、入射強度I0の近赤外光が入射したとする。その際の、入射光映像信号生成手段120の受光面120a上の強度I(x)は、以下の式であらわされる。
ここで、aは、近赤外光回折手段110の近赤外光を透過させる部分の半径である。qはその部分の中心から入射光映像信号生成手段120に垂直におろした点から当該点までの、受光面120a上における距離である。Rは近赤外光を透過させる部分の中心から受光面120aに垂直におろした点から、受光面120a上で距離q離れた点との距離を示している。これらの幾何情報を図4に示す。
いま、入射強度I0を正規化して、式(1)および式(2)で表現できる回折パターンを、回折モデルと呼ぶこととする。
図5は、ある波長を仮定して計算した時の、回折モデルの一例である。回折モデルは、受光面120a上で生じる円状パターンの強度Iと、円状パターンの中心からの距離qとの関係を表している。ここでは、式(1)における補正係数Cが、C1(実線)、C2(破線)の2例を示している。補正係数Cは、実際の映像信号に生成される円状パターンに一致するように調整する係数である。
次に、入射光映像信号生成手段120が生成した入射光映像信号から、近赤外光成分を推定する方法について説明する。ここでは、入射光映像信号生成手段120が、可視光と近赤外光に感度を有するフォトセンサを画素として、複数の画素を2次元的に配列したフォトセンサアレイ121であるとする。また、近赤外光回折手段110は、フォトセンサアレイ121上に、複数の円状パターンを生成するものとする。また、このとき、それぞれの円状パターンが、互いに重ならないようにする。図6は、この様子を模式的に表したものである。
近赤外光成分の推定に当たっては、まず、図6に破線で示したように、入射光映像信号を、1つの円状パターン20が含まれるように領域を分割する。次いで、各領域の入射光映像信号について、直交座標系の強度I(x,y)を、円状パターン20の中心を極とし、動径rと偏角θによって表される極座標系の強度I(r,θ)に変換する。図7は、入射光映像信号の、直交座標系から極座標系への変換過程を図示したものである。なお、強度I(x,y)は、入射光映像信号生成手段120で受光する輝度と言い換えることもできる。以降、強度と輝度とは同じ意味で用いる。
次に、極座標系の各座標(r,θ)に対して、円状パターンの中心方向における輝度勾配を算出する。輝度勾配は、隣接するフォトセンサ(画素)が検出する輝度の傾きであり、画素の位置するそれぞれの座標に対して定義される。
一方、回折モデルに対しても輝度勾配を算出する。まず、ある波長を仮定した時に、式(1)および式(2)で表現される回折モデルパターンを作成する。次いで、中心からの距離を変数とした強度(輝度とみなしてよい)の勾配を算出する。ここで、回折モデルは同心円状であるため、強度は中心からの距離のみで決まる。このため、角度方向については考慮しなくてよい。
次に、極座標系の輝度勾配を用いて近赤外光成分を推定する方法について説明する。入射光映像信号は可視光成分と近赤外光成分の両方を含んでいる。このため、輝度の絶対値は可視光成分に大きく左右される。しかしながら、極座標系における輝度勾配を取ることにより、可視光成分の影響を抑えることができる。そして円状パターンにおける全座標について輝度勾配を求めて統計処理することにより、近赤外光成分のみで生成される円状パターンを抽出することが可能となる。
具体的には、極座標系における入射光映像信号の輝度勾配を、所定刻みで全方向に渡って算出し、その輝度勾配に適合する回折モデルを求める。そして、その回折モデルから、近赤外光の強度および波長を推定する。以下に、その方法を説明する。
<入射近赤外光強度の推定>
まず、近赤外光領域のある波長を仮定し式(1)、(2)を用いて回折モデルを作成する。強度の単位は任意であるが、例えば8ビットで表して、正規化された入射強度I0を255とすることができる。
まず、近赤外光領域のある波長を仮定し式(1)、(2)を用いて回折モデルを作成する。強度の単位は任意であるが、例えば8ビットで表して、正規化された入射強度I0を255とすることができる。
次に、入射光映像信号の各座標位置(r,θ)における輝度勾配と、その中心からの距離が一致する点における回折モデルの輝度勾配との比bを計算する。輝度勾配比の計算は、所定刻みに全方向で行う。また領域内の全画素について行う。
そして、算出した全ての輝度勾配比bを集計して、図8に示したような輝度勾配比の出現個数に関するヒストグラムを作成する。このヒストグラムから、最も高い頻度を示す輝度勾配比bmを求める。この輝度勾配比bmは、入射近赤外光強度I1と回折モデルパターンの最大強度I0の比と同等とみなせる。このため、式(4)が成り立つとすることができる。そして、式(5)によって推定される近赤外光の強度I1を計算する。
以上のようにして、入射した近赤外光成分の強度を推定することができる。そして、輝度勾配を利用することで、対象とする領域における近赤外成分以外の成分、すなわち可視光による映像信号の輝度の不連続性(エッジなど)の影響を抑制することできる。
以上の計算処理は、1つの円状パターンを含むように設定された1つの領域について行ったものである。同様の計算を、入射光映像信号の全ての領域に対して実行し、各領域における近赤外成分の強度を算出する。
<入射近赤外光波長の推定>
次に、入射した近赤外光の波長を推定するために、波長λをパラメータとして、上記と同様の、近赤外光強度を求める計算を行う。
次に、入射した近赤外光の波長を推定するために、波長λをパラメータとして、上記と同様の、近赤外光強度を求める計算を行う。
まず、近赤外光の波長領域を網羅する波長領域について、回折モデルを式(1)および式(2)に基づいて生成する。ここで、近赤外光の波長領域を網羅する波長領域については、例えば、700nmより10nm間隔で離散的に取っても良い。この計算により、所定波長ごとに回折モデルが得られる。
そして、入射光映像信号における、1つの円状パターンを含むように設定された1つの領域について、入射光映像信号と回折モデルとの輝度勾配比を計算する。ここでは、式(3)に基づいて、入射光映像信号の各座標(r,θ)における輝度勾配と、その中心からの距離が一致する回折モデルにおける輝度勾配との比を計算する。次いで、輝度勾配比のヒストグラムを作成する。1つの波長に対して1つのヒストグラムが作成される。そして、波長を変えて同様のヒストグラムを作成することで、図9に示すように、選択した波長の数だけヒストグラムが作成される。
次に、作成されたヒストグラムを解析し、そのヒストグラムの大きい方から1個以上の波長および輝度勾配の比の組み合わせを選択する。そして、選択した波長を式(5)に代入して、対象の領域における近赤外光の入射強度を計算する。こうして1つの領域における、近赤外光成分の、波長と、入射光強度と、を算出することができる。選択する波長と輝度勾配のセットが複数の場合には、セット毎に近赤外光成分の入射光強度を算出して加算すればよい。
同様の計算を、入射光映像信号で、1つの円状パターンを含むように設定された各領域で行い、各領域における近赤外光の波長および入射強度を算出する。
以上により、近赤外光回折手段に設けられたすべての近赤外光透過部に入射する近赤外光の、波長と強度とを算出できる。すなわち、近赤外光映像信号が生成できる。
図10は、上記に説明した1つの領域における近赤外光映像信号生成動作をまとめたフローチャートである。なお、このフローチャートは領域分割と極座標変換を行った後の動作を示している。以下、このフローチャートについて説明する。
まず、近赤外光領域のある波長を仮定して回折モデルを作成する(S1)。次に、入射光映像信号と回折モデルの輝度勾配比を座標ごとに計算する(S2)。次に得られた輝度勾配比のヒストグラムを作成する(S3)。次に最頻値を与える輝度勾配から近赤外光の入射強度を推定する(S4)。次に、近赤外光領域を網羅する複数の所定波長で回折モデルを作成する(S5)。次に、各波長の回折モデルと入射光映像信号との輝度勾配比を、各座標で計算する(S6)。次に輝度勾配比を計算した波長ごとに、輝度勾配のヒストグラムを作成する(S7)。次にヒストグラムのピークを示す輝度勾配から、入射した近赤外光の波長を推定する(S8)。以上により、近赤外光の波長と強度を推定する。
以上説明したように、本実施の形態によれば、一般的な簡易構成のフォトセンサアレイを用いた1台の映像撮影装置で、可視光映像と、近赤外光映像との両方を、撮影することができる。
(第3の実施形態)
図11は、本発明第3の実施の形態の映像撮影装置100Aを示すブロック図である。本実施の形態の映像撮影装置100Aは、可視光のカラー映像信号と近赤外光映像の、両方を生成する。映像撮影装置100Aは、近赤外光回折手段として、符号型IRカットフィルタ110aを有している。また、入射光映像信号生成手段120は、複数のフォトセンサが平面的に配置されたフォトセンサアレイ121と、フォトセンサアレイ121の光入射側に設けたカラーフィルタアレイ122と、を有する。さらに、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。図11のR、G、B、NIRは、それぞれ、赤、緑、青、近赤外信号を表している。ここでは、フォトセンサアレイ121で、R+NIR、G+NIR、B+NIR信号が生成され、近赤外光映像信号生成手段140でNIR映像信号が生成される様子を矢印で示している。また、可視光映像信号生成手段150で、R、G,B信号が生成される様子を矢印で示している。動作の詳細については、後述する。
図11は、本発明第3の実施の形態の映像撮影装置100Aを示すブロック図である。本実施の形態の映像撮影装置100Aは、可視光のカラー映像信号と近赤外光映像の、両方を生成する。映像撮影装置100Aは、近赤外光回折手段として、符号型IRカットフィルタ110aを有している。また、入射光映像信号生成手段120は、複数のフォトセンサが平面的に配置されたフォトセンサアレイ121と、フォトセンサアレイ121の光入射側に設けたカラーフィルタアレイ122と、を有する。さらに、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。図11のR、G、B、NIRは、それぞれ、赤、緑、青、近赤外信号を表している。ここでは、フォトセンサアレイ121で、R+NIR、G+NIR、B+NIR信号が生成され、近赤外光映像信号生成手段140でNIR映像信号が生成される様子を矢印で示している。また、可視光映像信号生成手段150で、R、G,B信号が生成される様子を矢印で示している。動作の詳細については、後述する。
次に、各要素の具体的な構成について説明する。
図12は、符号型IRカットフィルタ110aを示す平面図である。符号型IRカットフィルタ110aは、近赤外光カット部111と、近赤外光透過部112と、を有している。すなわち、符号型とは、透過とカットの2値を意味している。符号型IRカットフィルタ110aは、カラーフィルタアレイ122の光進行方向前側に設けられる。これにより入射光が赤外透過部12を通過する際、近赤外光の回折が発生する。
近赤外光カット部111は近赤外光を透過せず、可視光を透過する。
近赤外光透過部112は、近赤外光を透過する。上述したように、近赤外光透過部112は、円状もしくはそれに近い形である。近赤外光がフォトセンサアレイ面上に形成する複数の円状パターンは、互いに重ならないようにする。式(1)、(2)に基づけば、おおよその回折光の広がりが予測できる。上記の条件を満たすように、近赤外光透過部112を配置し、また、符号型IRカットフィルタ110aと入射光映像信号生成手段120との距離を設定する。この条件が満たされる範囲において、近赤外光透過部の配置は任意である。
このような符号型IRカットフィルタ110aを用いることにより、入射光映像信号生成手段120の受光面に、所定の大きさの円状パターンを、所定の位置に、複数形成することができる。なお、近赤外光カット部112のサイズは、必ずしもフォトセンサの1画素のサイズに一致しなくてもよい。また、近赤外光透過部112は、可視光も透過することが望ましいが、可視光を不透過としても本実施の形態は成立する。
フォトセンサアレイ121は、第2の実施の形態と同様にフォトセンサを2次元的に配置したものであり、各フォトセンサ(画素)は可視光および近赤外光に感度を有している。
カラーフィルタ122は、例えばR(赤)、G(緑),B(青)をそれぞれ透過するカラーフィルタが、フォトセンサに対応する位置に設けられたアレイ状に配置している。また、各カラーフィルタは近赤外光も透過する。なお、カラーフィルタは、C(シアン)、M(マジェンタ)、Y(イエロ)などの補色を用いるタイプの物であっても良い。ここでは、R、G、B、の例を用いて説明する。
図13は、カラーフィルタアレイ122の構成の一例を示す平面図である。前述したように、各カラーフィルタは、それぞれが透過する色の可視光の他に、近赤外光も透過する。このことを明確にするため図13では、各画素を「色+NIR」の形で記載している。R+NIRは赤とNIRとを透過し、G+NIRは緑とNIRを透過し、B+NIRは青とNIRを透過するカラーフィルタである。入射光映像信号生成手段120では、それぞれのカラーフィルタに対応する位置にはフォトセンサが設けられる。なお、1つのカラーフィルタに対応するフォトセンサは1つであっても良いし、複数であっても良い。図13に示した各色のカラーフィルタの配列は、ベイヤ配列と呼ばれるものであり、R画素1つ、G画素2つ、B画素1つで、1ユニットを形成し、このユニットを周期的に配列したものである。図13では、縦2×横3の6ユニット分を例示している。
符号型IRカットフィルタ110aおよびカラーフィルタ122を透過した光は、フォトセンサにてR+NIR、G+NIR、B+NIRの3色信号に変換される。
以上の構成により、各色に符号型IRカットフィルタ110aによる近赤外光の回折パターンが付加された入射光映像信号が形成される。
本実施の形態では、第2の実施の形態と同様にして、回折パターン抽出手段130が上記の回折パターンを抽出し、近赤外光映像信号生成手段140が、近赤外光映像信号を生成する。動作の詳細については後述する。
可視光映像信号生成手段150は、入射光映像信号と、近赤外光映像信号とに基づいて、R、G、B、色信号を生成する。
次に、動作について説明する。図14は、動作の概要を示すフローチャートである。以下に、このフローチャートを説明する。
まず入射光映像信号生成手段が入射光映像信号を生成する(S101)。入射光映像信号は、R、G、B、3色の映像信号であるが、それぞれの信号には、近赤外光成分が含まれている。次に、各画素で欠けている色の補間(デモザイキング処理)を行い、R+NIR、G+NIR、B+NIRそれぞれのプログレッシブ映像信号を生成する(S102)。ここで、プログレッシブ映像信号とは、上記のデモザイキング処理によって得られた、各色の映像信号であると定義する。次に各色のプログレッシブ映像信号を第2の実施の形態と同様に解析して、これらに含まれる近赤外光映像信号を抽出・生成する(S103)。次に、各プログレッシブ映像信号と、近赤外光映像信号とに基づいて、R、G、B、各色の単色の映像信号を生成する(S104)。以上により、3色の可視光映像信号と、近赤外光映像と、を生成することができる。
次に各動作の詳細について説明する。
<デモザイキング処理>
まず、欠けている色を補間するデモザイキング処理について説明する。なお、以下に説明するデモザイキング処理は、あくまで一例であり、他の方法を用いてもよい。
まず、欠けている色を補間するデモザイキング処理について説明する。なお、以下に説明するデモザイキング処理は、あくまで一例であり、他の方法を用いてもよい。
図15はベイヤ配列の1ユニットで行うデモザイキング処理を説明するための平面模式図である。R画素が1つ、G画素が2つ、B画素が1つの4つの画素で1つのユニットが構成されている。なお、ここでの画素はカラーフィルタとフォトセンサのセットであるものとする。それぞれの画素では、R+NIR、G+NIR、B+NIRの光を検出する。ここで、1つの画素に注目すると、対象とする色以外の色は検出されない。このため周辺の画素の輝度を用いて、欠けている色の信号を補間する。なお、この時点でのR、G、B色信号にはNIR成分も含まれているが、説明を簡略化する為、R、G、B色信号として説明する。
座標(1,1)の画素は、Rに対応し、直接、R信号を生成する。
R(1,1)=R(1,1) (6)
座標(1,1)の画素に存在しないG信号、B信号については、例えば、以下のように周辺画素の色信号から補間して算出する。
G(1,1)=(G(2,1)+ G(1,2))/2 (7)
B(1,1)=B(2,2) (8)
次いで、座標(1,2)の画素の映像信号(R、G、B色信号)を生成する。
座標(1,2)の画素は、Gに対応し、直接、G信号を生成する。
G(1,2)=G(1,2) (9)
座標(1,2)の画素に存在しないR信号、B信号についても、R画素の場合と同様に、周辺画素の色情報から補間して算出する。
R(1,2)=R(1,1) (10)
B(1,2)=B(2,2) (11)
R(1,1)=R(1,1) (6)
座標(1,1)の画素に存在しないG信号、B信号については、例えば、以下のように周辺画素の色信号から補間して算出する。
G(1,1)=(G(2,1)+ G(1,2))/2 (7)
B(1,1)=B(2,2) (8)
次いで、座標(1,2)の画素の映像信号(R、G、B色信号)を生成する。
座標(1,2)の画素は、Gに対応し、直接、G信号を生成する。
G(1,2)=G(1,2) (9)
座標(1,2)の画素に存在しないR信号、B信号についても、R画素の場合と同様に、周辺画素の色情報から補間して算出する。
R(1,2)=R(1,1) (10)
B(1,2)=B(2,2) (11)
上記と同様の処理を繰り返し、全ての画素について映像データ(R、G、B色信号)を生成する。なお、デモザイキング処理については、上記手法に限らず、様々な手法を用いることができる。以上により、すべての画素にR、G、B色情報が設定されたプログレッシブ映像信号が得られる。
ここで、可視光成分R、G、Bは、符号型IRカットフィルタ110aにおける赤外透過部112の影響を受けない(回折しない)。このため、撮影シーンの情報がそのままカラーフィルタアレイ122およびフォトセンサアレイ121に照射される。そして照射された光から、R+NIR、G+NIR、B+NIRの3色信号で構成される入射光映像信号が生成される。この時生成された、すべての画素にR、G、B、3色の信号が設定されたプログレッシブ信号には、円状パターンの近赤外光の成分が含まれている。そこで、これらのR+NIR、G+NIR、B+NIRの各信号成分をIR+NIR、IG+NIR、IB+NIRで表すこととする。
図16は、R、G、B、各色について得られた、プログレッシブ信号を示す平面模式図である。プログレッシブR映像信号1R、プログレッシブG映像信号1G、プログレッシブB映像信号1B、には、それぞれ近赤外光の円状パターンが含まれている。図ではこの様子を模式的に示している。
<近赤外映像信号成分の生成>
上述したように、R、G、B、各色のプログレッシブ信号には、近赤外光成分の円状パターンが含まれている。それぞれの近赤外光成分の推定を、第2の実施の形態と同様にして行う。すなわち、R、G、Bプログレッシブ信号を用いて、図10のフローチャートと同様の処理を行う。これにより、3つのプログレッシブ信号から得られた3つの近赤外光映像信号を抽出・生成する。ここで、Rプログレッシブ信号1Rから得られたNIR信号をNIR_R信号、と呼ぶこととする。同様に、Gプログレッシブ信号1Gから得られたNIR信号をNIR_G信号、Bプログレッシブ信号1Bから得られたNIR信号をNIR_B信号、と呼ぶこととする。そして、それぞれの信号成分を、INIR_R、INIR_G、INIR_B、で表すこととする。
上述したように、R、G、B、各色のプログレッシブ信号には、近赤外光成分の円状パターンが含まれている。それぞれの近赤外光成分の推定を、第2の実施の形態と同様にして行う。すなわち、R、G、Bプログレッシブ信号を用いて、図10のフローチャートと同様の処理を行う。これにより、3つのプログレッシブ信号から得られた3つの近赤外光映像信号を抽出・生成する。ここで、Rプログレッシブ信号1Rから得られたNIR信号をNIR_R信号、と呼ぶこととする。同様に、Gプログレッシブ信号1Gから得られたNIR信号をNIR_G信号、Bプログレッシブ信号1Bから得られたNIR信号をNIR_B信号、と呼ぶこととする。そして、それぞれの信号成分を、INIR_R、INIR_G、INIR_B、で表すこととする。
<可視光映像信号および近赤外映像信号の生成>
各画素において、各色のプログレッシブ信号成分から、近赤外光成分を差し引くことにより、R、G、B、単色の色成分を得ることができる。それぞれの色成分をIR、IG、IBと呼ぶこととすると、これらの成分は以下の式によって算出することができる。
IR=IR+NIR-INIR_R (12)
IG=IG+NIR-INIR_G (13)
IB=IB+NIR-INIR_B (14)
また、近赤外光成分単色の成分INIRは、次式で表すことができる。
INIR=INIR_R+INIR_G+INIR_B (15)
なお、式(15)の各項については、デモザイキング処理の仕方を反映した重み付けを行っても良い。
各画素において、各色のプログレッシブ信号成分から、近赤外光成分を差し引くことにより、R、G、B、単色の色成分を得ることができる。それぞれの色成分をIR、IG、IBと呼ぶこととすると、これらの成分は以下の式によって算出することができる。
IR=IR+NIR-INIR_R (12)
IG=IG+NIR-INIR_G (13)
IB=IB+NIR-INIR_B (14)
また、近赤外光成分単色の成分INIRは、次式で表すことができる。
INIR=INIR_R+INIR_G+INIR_B (15)
なお、式(15)の各項については、デモザイキング処理の仕方を反映した重み付けを行っても良い。
以上により、各画素についてR、G、B、NIR、4色の映像信号成分を抽出することができる。そして全画素の信号成分を用いて、上記4色の映像データを生成することができる。
以上、説明したように、本実施の形態によれば、IRフィルタを機械的に移動したり、特殊なフォトセンサを用いたりしない、簡易な構成の映像撮影装置で、可視光カラー映像信号および近赤外映像信号を同時に生成することができる。
<変形例>
上述の実施形態では、近赤外光成分INIRを、IR+NIR、IG+NIR、IB+NIR、3つのプログレッシブ信号を用いて算出したが、特定の色の信号を用いて算出することも可能である。特に、画素がRGBベイヤ配列型の場合、Gチャネルの情報が他のカラーチャネルの2倍あるため、デモザイキング処理後のGチャネルのみを利用する方法が有効である。
上述の実施形態では、近赤外光成分INIRを、IR+NIR、IG+NIR、IB+NIR、3つのプログレッシブ信号を用いて算出したが、特定の色の信号を用いて算出することも可能である。特に、画素がRGBベイヤ配列型の場合、Gチャネルの情報が他のカラーチャネルの2倍あるため、デモザイキング処理後のGチャネルのみを利用する方法が有効である。
つまり、プログレッシブ信号のR成分R+NIR、B成分IB+NIRには、厳密にはNIR情報が含まれるが、微小であるためこれを無視し、IR+NIRをR信号IR、IB+NIRをB信号IBと見なす。そして、NIRのみの成分INIRを次式により算出する。
INIR=INIR_G (16)
なお、G信号の映像データIGについては、式(13)により算出する。
INIR=INIR_G (16)
なお、G信号の映像データIGについては、式(13)により算出する。
符号型IRカットフィルタ1では、円状パターンが形成される位置を制御できる。そこで、円状パターンが、G画素を中心形成されるように、近赤外光透過部を配置すれば、IR+NIR、およびIB+NIに含まれるNIR成分が小さくなり、これらを無視しても影響は小さくなる。また、近赤外光透過部の形状および配置を、カラーフィルタおよびフォトセンサの1画素のサイズ程度にすれば、さらに影響を小さくすることができる。
(第4の実施形態)
図17は、第4の実施形の態の映像撮影装置100Bのブロック図である。映像撮影装置100Bは、第3の実施の形態の映像撮影装置100Aに符号化情報メモリ134を追加した構成となっている。符号化情報メモリ134は、回折パターン抽出手段130に接続する。なお、符号型IRカットフィルタ110a、カラーフィルタアレイ122、フォトセンサアレイ121は、映像撮影装置100Aと同じものであるため、ここでは、符号化情報メモリ134および回折パターン抽出手段130について説明する。
図17は、第4の実施形の態の映像撮影装置100Bのブロック図である。映像撮影装置100Bは、第3の実施の形態の映像撮影装置100Aに符号化情報メモリ134を追加した構成となっている。符号化情報メモリ134は、回折パターン抽出手段130に接続する。なお、符号型IRカットフィルタ110a、カラーフィルタアレイ122、フォトセンサアレイ121は、映像撮影装置100Aと同じものであるため、ここでは、符号化情報メモリ134および回折パターン抽出手段130について説明する。
符号化情報メモリ134は、近赤外光によって形成される円状パターンに関する情報を記録する。具体的には、円状パターンの中心座標と、大きさと、符号型IRカットフィルタ110aとフォトセンサアレイ121との間の距離と、を記録する。
近赤外光が、符号型IRカットフィルタ110aに配置された近赤外光透過部112を透過すると、回折によって、フォトセンサ3上に円状のパターンが形成される。
この円状のパターンは、近赤外光の波長、赤外透過部12の大きさ、符号型IRカットフィルタ110aとフォトセンサアレイ121との間の距離によって決まる。したがって、これらのパラメータを決定すれば、円状パターンの中心座標および大きさを、計算もしくはキャリブレーションを行うことによって予め把握することができる。
上記の方法で把握した、赤外透過部12の大きさ、フォトセンサアレイ121上における円状のパターンの中心の座標位置、円状パターンの大きさ、等を有する符号化情報を、符号化情報メモリ5に記録する。記録された符号化情報を用いることで、円状パターンが形成される受光面上の位置を推定し、解析を行うための領域を決定することができる。
この構成で、可視光映像信号および近赤外光映像信号を生成する。生成方法は、第3の実施の形態と同様である。このとき、符号化情報メモリ134に記録されている符号化情報を利用することで、処理を簡略化することができる。
以上説明したように、本実施形態によれば、第3実施形態と同様の効果を、容易に得ることができる。
(第5の実施形態)
第3および第4の実施の形態では、ベイヤ配列型の光学フィルタにより分光する映像撮影装置について説明したがが、本発明はベイヤ配列型に限定されない。本実施の形態では、3板式映像撮影装置に適用した例を示す。
第3および第4の実施の形態では、ベイヤ配列型の光学フィルタにより分光する映像撮影装置について説明したがが、本発明はベイヤ配列型に限定されない。本実施の形態では、3板式映像撮影装置に適用した例を示す。
図18は、3板式の映像撮影装置101のブロック図である。映像撮影装置101は、符号型IRカットフィルタ110aと、プリズム160と、3種の入射光映像信号生成手段120R、G、Bと、を有している。また、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。
プリズム160は、色分解手段であり、図18の例ではG光を直進させ、B光を図面下方に進行させ、R+NIR光を図面上方に進行させている。なお、図18に描画されたプリズム160の形状は、実際の形状を表しているわけではなく、概念的なものである。また、プリズム160が光をコリメートする光学系を備えていても良く、プリズム160の入射側にはカメラレンズ170が設けられていても良い。プリズム160およびカメラレンズ170は、3板式映像撮影装置で一般的に使用されているもので良い。
それぞれの色の光の進路には、その色専用の入射光映像信号生成手段が設けられている。入射光映像信号生成手段120Gは、G映像信号を生成する。入射光映像信号生成手段120Bは、B映像信号を生成する。そして、入射光映像信号生成手段120Rは、R+NIR映像信号を生成する。120Rの光入射側には、符号型IRカットフィルタ110aが設けられている。この構成により、120Rで生成される映像信号には、近赤外光の円状パターンが含まれている。それぞれの入射光映像信号生成手段に用いるフォトセンサは、3板式映像撮影装置で一般的に使用されているフォトセンサで良い。
符号型IRカットフィルタ110aは、例えば第2乃至第4の実施形態のいずれかで用いたものを適用する。符号型IRカットフィルタ110aは、3つの入射光映像信号生成手段のうち少なくとも1つに対し、光進行方向前側に設けられる。図18の例では、R対応の入射光映像信号生成手段120Rに対応して設けている。これにより近赤外光の回折が発生する。
なお、符号型IRカットフィルタが設置されていない残り2つの入射光映像信号生成手段に対して、プリズム160から漏れる可能性のある近赤外光をカットするために、通常の近赤外カットフィルタを設置してもよい。これにより、色再現性を確保することができる。
次に動作について説明する。なお、ここでは、プリズム160で分光されるG、Bの光には近赤外光は含まれていないとして説明する。
カメラレンズ170を通じて、映像撮影装置101に入射する光は、プリズム160により、波長帯域が異なるR、G、Bの光に分解される。Rに対応する光は入射光映像信号生成手段120Rに入射し、Gに対応する光は入射光映像信号生成手段120Gに入射し、Bに対応する光は入射光映像信号生成手段120Bに入射する。
このとき、Rに対応する光は、符号型IRカットフィルタ110aの近赤外光透過部で近赤外光成分が回折する。そして、入射光映像信号生成手段120Rにおいて、NIRを含んだR+NIRの映像信号が生成される。すなわち、上記構成により、近赤外光による円状のパターンが複数付加されたR+NIR映像信号が生成される。
回折パターン抽出手段130と、近赤外光映像信号生成手段140とは、R+NIR映像信号を受信して、NIR映像信号を生成する。そしてNIR映像信号とR+NIR映像信号を出力する。可視光映像生成手段150は、R+NIR映像信号からNIR映像信号を差し引いて、単色のR映像信号を生成する。以上により、4色映像データ(R、G、B、NIR)を生成することができる。
本実施形態の映像撮影装置101は、一般的な3板式撮影装置の構成であり、特殊なデバイスを必要としていない。また、符号型IRカットフィルタ1は、一般的なカットフィルタに簡単な改造を加えたものであり、簡素な構成である。すなわち、簡素な構成によって、可視光映像信号と近赤外光映像信号の両方を生成できる。このため複雑な構成や特殊なデバイスを用いる方法に比べて、生産コスト低減や故障率軽減が期待できる。また、近赤外光が強く飽和してしまう状況下でも、近赤外光を回折によって分散させることで飽和を抑制し、見かけのダイナミックレンジを広げることが可能となる。
(第6の実施の形態)
第5の実施の形態では、本発明を、3板式映像撮影装置に適用する例を示したが、本発明は、積層型フォトセンサを有する映像撮影装置にも適用できる。
第5の実施の形態では、本発明を、3板式映像撮影装置に適用する例を示したが、本発明は、積層型フォトセンサを有する映像撮影装置にも適用できる。
図19は、本実施の形態における映像撮影装置102のブロック図である。
映像撮影装置102は、符号型IRカットフィルタ110aと、R、G、B専用の入射光映像信号生成手段120R、120G、120Bが積層された積層型入射光映像信号生成手段120Sと、を有している。また回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。積層型入射光映像信号生成手段120Sには、例えば、一般的な積層型センサ式映像撮影装置に使用されている積層型センサを使用することができる。図19の例では、光進行方向に対し各フォトセンサを、120B、120G、120Rの順で積層している。
映像撮影装置102は、符号型IRカットフィルタ110aと、R、G、B専用の入射光映像信号生成手段120R、120G、120Bが積層された積層型入射光映像信号生成手段120Sと、を有している。また回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。積層型入射光映像信号生成手段120Sには、例えば、一般的な積層型センサ式映像撮影装置に使用されている積層型センサを使用することができる。図19の例では、光進行方向に対し各フォトセンサを、120B、120G、120Rの順で積層している。
符号型IRカットフィルタ110aは、第2~第3実施形態のいずれかで用いたものを適用することができる。110aは、120Sに対し、光進行方向前側に設けられる。
映像撮影装置102に入射する光は、波長帯域が異なるR、G、BおよびNIRの光を含む。Bに対応する光は120BによりB+NIR映像信号に変換され、Gに対応する光は120GによりG+NIR映像信号に変換され、RおよびNIRに対応する光は120RによりR+NIR映像信号に変換される。これら、R,G,B+NIR映像信号には、符号型IRカットフィルタ110aで回折したNIRが形成した円状パターンが含まれている。
そして、他の実施の形態と同様、回折パターン抽出手段130によって円状パターンが抽出され、近赤外光映像生成手段130によって近赤外光映像信号が生成される。すなわち、積層型入射光映像信号生成手段120Sから入力されるR+NIR、G+NIR、B+NIR映像信号に基づいて、NIR映像信号を生成する。その方法は第3、第4の実施の形態の方法と同様である。
以上の構成により、全ての画素について、R、G、B、NIR、4色の映像信号を生成することができる。
以上説明したように、本実施の形態によっても、第5の実施の形態と同様の効果を得ることができる。
上記実施形態において、各部をハードウェアで構成してもよいし、コンピュータプログラムにより実現してもよい。この場合、プログラムメモリに格納されているプログラムで動作するプロセッサによって、上述と同様の機能、動作を実現させる。また、一部の機能のみをコンピュータプログラムにより実現してもよい。
以上の第1から第6の実施形態の処理をコンピュータに実行させるプログラムおよび該プログラムを格納した記録媒体も本発明の範囲に含む。記録媒体としては、例えば、磁気ディスク、磁気テープ、光ディスク、光磁気ディスク、半導体メモリ、などを用いることができる。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上記実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2015年6月17日に出願された日本出願特願2015-121588を基礎とする優先権を主張し、その開示の全てをここに取り込む。
(付記1)
受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有することを特徴とする映像撮影装置。
(付記2)
前記近赤外光回折手段が、近赤外光をカットし可視光を透過する近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有することを特徴とする付記1に記載の映像撮影装置。
(付記3)
前記近赤外光回折手段が、前記近赤外光透過部を複数有する、ことを特徴とする付記2に記載の映像撮影装置。
(付記4)
前記近赤外光透過部の形状が略円形である、ことを特徴とする付記2または付記3に記載の映像撮影装置。
(付記5)
前記近赤外光回折手段の情報と、前記受光面上に前記回折パターンが発生する位置の情報と、を記憶する情報メモリを有する、ことを特徴とする付記1乃至付記4いずれか一付記に記載の映像撮影装置。
(付記6)
前記近赤外光映像信号生成手段が、近赤外光の回折モデルを生成する回折モデル生成手段と、前記入射光映像信号の輝度勾配を解析する輝度勾配解析手段と、前記輝度勾配の解析結果に適合する回折モデルを判定する適合回折モデル判定手段と、前記適合回折モデルに基づいて入射した近赤外光の強度を推定する入射近赤外光強度推定手段と、を有することを特徴とする付記1乃至付記5いずれか一付記に記載の映像撮影装置。
(付記7)
前記近赤外光映像信号生成手段が、前記適合回折モデルに基づいて入射した近赤外光の波長を推定する入射近赤外光波長推定手段、を有することを特徴とする付記6に記載の映像撮影装置。
(付記8)
前記輝度勾配解析手段が、前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割する領域分割手段と、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する座標変換手段と、を有することを特徴とする付記6または付記7に記載の映像撮影装置。
(付記9)
前記輝度勾配解析手段が、前記入射光映像信号のある座標における輝度勾配と、前記回折モデルの前記ある座標に対応する位置での輝度勾配と、の比である輝度勾配比を算出する輝度勾配比算出手段を有する、ことを特徴とする付記8に記載の映像撮影装置。
(付記10)
前記輝度勾配解析手段が、前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する輝度勾配比統計処理手段を有する、ことを特徴とする付記9に記載の映像撮影装置。
(付記11)
前記適合回折モデル判定手段が、前記起動勾配比統計処理手段の統計処理結果に基づいて判定を行う、ことを特徴とする付記10に記載の映像処理装置。
(付記12)
前記入射光映像信号生成手段が、入射光を複数色の可視光に分離して強度に応じた信号を生成することを特徴とする付記1乃至付記11いずれか一付記に記載の映像撮影装置。
(付記13)
前記近赤外光映像信号生成手段が、前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記12に記載の映像撮影装置。
(付記14)
前記第入射光映像信号生成手段がシリコン系フォトセンサを有する、ことを特徴とする付記1乃至付記13いずれか一付記に記載の映像撮影装置。
(付記15)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させ、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成し、前記近赤外光が前記受光面に生成する回折パターンを抽出し、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成し、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する、ことを特徴とする映像撮影方法。
(付記16)
前記入射光の前記近赤外光成分を、近赤外光をカットし可視光を透過する近赤外光カット部と近赤外光を透過する近赤外光透過部とを有する符号型IRカットフィルタで回折させる、ことを特徴とする付記15に記載の映像撮影方法。
(付記17)
前記近赤外光透過部を複数有する前記符号型IRカットフィルタを用いる、ことを特徴とする付記16に記載の映像撮影方法。
(付記18)
前記近赤外光透過部が略円形の前記符号型IRカットフィルタを用いる、ことを特徴とする付記16または付記17に記載の映像撮影方法。
(付記19)
前記近赤外光回折手段の情報と前記入射光映像信号生成手段上に前記回折パターンが発生する位置情報とをメモリに記憶する、ことを特徴とする付記15乃至付記18いずれか一付記に記載の映像撮影方法。
(付記20)
近赤外光の回折モデルを生成し、前記入射光映像信号の輝度勾配を解析し、前記輝度勾配の解析結果に適合する回折モデルを判定し、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定する、ことを特徴とする付記15乃至付記19いずれか一付記に記載の映像撮影方法。
(付記21)
前記適合する回折モデルに基づいて入射した近赤外光の波長を推定する、ことを特徴とする付記20に記載の映像撮影方法。
(付記22)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割し、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する、ことを特徴とする付記17乃至付記21いずれか一付記に記載の映像撮影方法。
(付記23)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出する、ことを特徴とする付記22に記載の映像撮影方法。
(付記24)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する、ことを特徴とする付記23に記載の映像撮影方法。
(付記25)
前記輝度勾配比の前記統計処理の結果に基づいて前記適合する回折モデルの判定を行う、ことを特徴とする付記24に記載の映像撮影方法。
(付記26)
入射光を複数色の可視光に分離して強度に応じた信号を生成する、ことを特徴とする付記15乃至付記25いずれか一付記に記載の映像撮影方法。
(付記27)
前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記26に記載の映像撮影方法。
(付記28)
前記入射光映像信号をシリコン系フォトセンサで生成する、ことを特徴とする付記15乃至付記27いずれか一付記に記載の映像撮影方法。
(付記29)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させるステップと、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成するステップと、前記近赤外光が前記受光面に生成する回折パターンを抽出するステップと、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成するステップと、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成するステップと、を有することを特徴とする映像撮影プログラム。
(付記30)
近赤外光の回折モデルを生成するステップと、前記入射光映像信号の輝度勾配を解析するステップと、前記輝度勾配の解析結果に適合する回折モデルを判定するステップと、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定するステップと、を有することを特徴とする付記29に記載の映像撮影プログラム。
(付記31)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割するステップと、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換するステップと、を有することを特徴とする付記29または付記30に記載の映像撮影プログラム。
(付記32)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出するステップ、を有することを特徴とする付記31に記載の映像撮影プログラム。
(付記33)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理するステップと、前記統計処理の結果に基づいて前記適合する回折モデルの判定を行うステップと、を有することを特徴とする付記32に記載の映像撮影プログラム。
(付記34)
入射光を複数色の可視光に分離して感知するステップ、を有することを特徴とする付記29乃至付記33いずれか一付記に記載の映像撮影プログラム。
(付記1)
受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有することを特徴とする映像撮影装置。
(付記2)
前記近赤外光回折手段が、近赤外光をカットし可視光を透過する近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有することを特徴とする付記1に記載の映像撮影装置。
(付記3)
前記近赤外光回折手段が、前記近赤外光透過部を複数有する、ことを特徴とする付記2に記載の映像撮影装置。
(付記4)
前記近赤外光透過部の形状が略円形である、ことを特徴とする付記2または付記3に記載の映像撮影装置。
(付記5)
前記近赤外光回折手段の情報と、前記受光面上に前記回折パターンが発生する位置の情報と、を記憶する情報メモリを有する、ことを特徴とする付記1乃至付記4いずれか一付記に記載の映像撮影装置。
(付記6)
前記近赤外光映像信号生成手段が、近赤外光の回折モデルを生成する回折モデル生成手段と、前記入射光映像信号の輝度勾配を解析する輝度勾配解析手段と、前記輝度勾配の解析結果に適合する回折モデルを判定する適合回折モデル判定手段と、前記適合回折モデルに基づいて入射した近赤外光の強度を推定する入射近赤外光強度推定手段と、を有することを特徴とする付記1乃至付記5いずれか一付記に記載の映像撮影装置。
(付記7)
前記近赤外光映像信号生成手段が、前記適合回折モデルに基づいて入射した近赤外光の波長を推定する入射近赤外光波長推定手段、を有することを特徴とする付記6に記載の映像撮影装置。
(付記8)
前記輝度勾配解析手段が、前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割する領域分割手段と、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する座標変換手段と、を有することを特徴とする付記6または付記7に記載の映像撮影装置。
(付記9)
前記輝度勾配解析手段が、前記入射光映像信号のある座標における輝度勾配と、前記回折モデルの前記ある座標に対応する位置での輝度勾配と、の比である輝度勾配比を算出する輝度勾配比算出手段を有する、ことを特徴とする付記8に記載の映像撮影装置。
(付記10)
前記輝度勾配解析手段が、前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する輝度勾配比統計処理手段を有する、ことを特徴とする付記9に記載の映像撮影装置。
(付記11)
前記適合回折モデル判定手段が、前記起動勾配比統計処理手段の統計処理結果に基づいて判定を行う、ことを特徴とする付記10に記載の映像処理装置。
(付記12)
前記入射光映像信号生成手段が、入射光を複数色の可視光に分離して強度に応じた信号を生成することを特徴とする付記1乃至付記11いずれか一付記に記載の映像撮影装置。
(付記13)
前記近赤外光映像信号生成手段が、前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記12に記載の映像撮影装置。
(付記14)
前記第入射光映像信号生成手段がシリコン系フォトセンサを有する、ことを特徴とする付記1乃至付記13いずれか一付記に記載の映像撮影装置。
(付記15)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させ、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成し、前記近赤外光が前記受光面に生成する回折パターンを抽出し、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成し、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する、ことを特徴とする映像撮影方法。
(付記16)
前記入射光の前記近赤外光成分を、近赤外光をカットし可視光を透過する近赤外光カット部と近赤外光を透過する近赤外光透過部とを有する符号型IRカットフィルタで回折させる、ことを特徴とする付記15に記載の映像撮影方法。
(付記17)
前記近赤外光透過部を複数有する前記符号型IRカットフィルタを用いる、ことを特徴とする付記16に記載の映像撮影方法。
(付記18)
前記近赤外光透過部が略円形の前記符号型IRカットフィルタを用いる、ことを特徴とする付記16または付記17に記載の映像撮影方法。
(付記19)
前記近赤外光回折手段の情報と前記入射光映像信号生成手段上に前記回折パターンが発生する位置情報とをメモリに記憶する、ことを特徴とする付記15乃至付記18いずれか一付記に記載の映像撮影方法。
(付記20)
近赤外光の回折モデルを生成し、前記入射光映像信号の輝度勾配を解析し、前記輝度勾配の解析結果に適合する回折モデルを判定し、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定する、ことを特徴とする付記15乃至付記19いずれか一付記に記載の映像撮影方法。
(付記21)
前記適合する回折モデルに基づいて入射した近赤外光の波長を推定する、ことを特徴とする付記20に記載の映像撮影方法。
(付記22)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割し、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する、ことを特徴とする付記17乃至付記21いずれか一付記に記載の映像撮影方法。
(付記23)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出する、ことを特徴とする付記22に記載の映像撮影方法。
(付記24)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する、ことを特徴とする付記23に記載の映像撮影方法。
(付記25)
前記輝度勾配比の前記統計処理の結果に基づいて前記適合する回折モデルの判定を行う、ことを特徴とする付記24に記載の映像撮影方法。
(付記26)
入射光を複数色の可視光に分離して強度に応じた信号を生成する、ことを特徴とする付記15乃至付記25いずれか一付記に記載の映像撮影方法。
(付記27)
前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記26に記載の映像撮影方法。
(付記28)
前記入射光映像信号をシリコン系フォトセンサで生成する、ことを特徴とする付記15乃至付記27いずれか一付記に記載の映像撮影方法。
(付記29)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させるステップと、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成するステップと、前記近赤外光が前記受光面に生成する回折パターンを抽出するステップと、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成するステップと、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成するステップと、を有することを特徴とする映像撮影プログラム。
(付記30)
近赤外光の回折モデルを生成するステップと、前記入射光映像信号の輝度勾配を解析するステップと、前記輝度勾配の解析結果に適合する回折モデルを判定するステップと、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定するステップと、を有することを特徴とする付記29に記載の映像撮影プログラム。
(付記31)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割するステップと、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換するステップと、を有することを特徴とする付記29または付記30に記載の映像撮影プログラム。
(付記32)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出するステップ、を有することを特徴とする付記31に記載の映像撮影プログラム。
(付記33)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理するステップと、前記統計処理の結果に基づいて前記適合する回折モデルの判定を行うステップと、を有することを特徴とする付記32に記載の映像撮影プログラム。
(付記34)
入射光を複数色の可視光に分離して感知するステップ、を有することを特徴とする付記29乃至付記33いずれか一付記に記載の映像撮影プログラム。
10 入射光
20 円状パターン
100 映像撮影装置
110 近赤外光回折手段
110a 符号型IRカットフィルタ
120 入射光映像信号生成手段
121 フォトセンサアレイ
122 カラーフィルタアレイ
131 回折モデル生成手段
132 輝度勾配解析手段
133 適合モデル判定手段
134 符号化情報メモリ
140 近赤外光映像信号生成手段
150 可視光映像信号生成手段
160 プリズム
170 カメラレンズ
20 円状パターン
100 映像撮影装置
110 近赤外光回折手段
110a 符号型IRカットフィルタ
120 入射光映像信号生成手段
121 フォトセンサアレイ
122 カラーフィルタアレイ
131 回折モデル生成手段
132 輝度勾配解析手段
133 適合モデル判定手段
134 符号化情報メモリ
140 近赤外光映像信号生成手段
150 可視光映像信号生成手段
160 プリズム
170 カメラレンズ
Claims (10)
- 受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有することを特徴とする映像信号撮影装置。
- 前記近赤外光回折手段が、近赤外光をカットし可視光を透過する近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有することを特徴とする請求項1に記載の映像撮影装置。
- 前記近赤外光透過部の形状が略円形である、ことを特徴とする請求項2に記載の映像撮影装置。
- 前記近赤外光映像信号生成手段が、近赤外光の回折モデルを生成する回折モデル生成手段と、前記映像信号の輝度勾配を解析する輝度勾配解析手段と、前記輝度勾配の解析結果に適合する適合回折モデルを判定する適合回折モデル判定手段と、前記適合回折モデルに基づいて入射した近赤外光の強度を推定する入射近赤外光強度推定手段と、を有することを特徴とする請求項1乃至請求項3いずれか一付記に記載の映像撮影装置。
- 前記近赤外光映像信号生成手段が、前記適合回折モデルに基づいて入射した近赤外光の波長を推定する入射近赤外光波長推定手段、を有することを特徴とする請求項4に記載の映像撮影装置。
- 受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させ、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成し、前記近赤外光が前記受光面に生成する回折パターンを抽出し、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成し、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する、ことを特徴とする映像撮影方法。
- 前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割し、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する、ことを特徴とする請求項6に記載の映像撮影方法。
- 前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出する、ことを特徴とする請求項7に記載の映像撮影方法。
- 前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理し、前記統計処理の結果に基づいて前記適合する回折モデルの判定を行う、ことを特徴とする請求項8に記載の映像撮影方法。
- 受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させるステップと、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成するステップと、前記近赤外光が前記受光面に生成する回折パターンを抽出するステップと、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成するステップと、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成するステップと、
を実行させるための映像撮影プログラムを記録したことを特徴とするプログラム記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017524610A JP6720971B2 (ja) | 2015-06-17 | 2016-06-13 | 映像撮影装置、映像撮影方法及び映像撮影プログラム |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015-121588 | 2015-06-17 | ||
| JP2015121588 | 2015-06-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016203760A1 true WO2016203760A1 (ja) | 2016-12-22 |
Family
ID=57545881
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/002852 Ceased WO2016203760A1 (ja) | 2015-06-17 | 2016-06-13 | 映像撮影装置および映像撮影方法 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6720971B2 (ja) |
| WO (1) | WO2016203760A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11962911B2 (en) | 2020-12-03 | 2024-04-16 | Samsung Electronics Co., Ltd. | Electronic device for performing image processing and operation method thereof to reduce artifacts in an image captured by a camera through a display |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006064634A (ja) * | 2004-08-30 | 2006-03-09 | Sony Corp | 物理情報取得方法および物理情報取得装置、複数の単位構成要素が配列されてなる物理量分布検知の半導体装置、並びに半導体装置の製造方法 |
| JP2009529160A (ja) * | 2006-02-06 | 2009-08-13 | キネテイツク・リミテツド | 撮像システム |
| WO2015059897A1 (ja) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ |
-
2016
- 2016-06-13 WO PCT/JP2016/002852 patent/WO2016203760A1/ja not_active Ceased
- 2016-06-13 JP JP2017524610A patent/JP6720971B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006064634A (ja) * | 2004-08-30 | 2006-03-09 | Sony Corp | 物理情報取得方法および物理情報取得装置、複数の単位構成要素が配列されてなる物理量分布検知の半導体装置、並びに半導体装置の製造方法 |
| JP2009529160A (ja) * | 2006-02-06 | 2009-08-13 | キネテイツク・リミテツド | 撮像システム |
| WO2015059897A1 (ja) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ |
Non-Patent Citations (1)
| Title |
|---|
| MASATO TSUKADA ET AL.: "High Sensitivity Sensing Method by Using a Coded IR Cut Filter", FIT2014 THE 13TH FORUM ON INFORMATION TECHNOLOGY KOEN RONBUNSHU SEPARATE VOL. 3 , SADOKUTSUKI RONBUN·IPPAN RONBUN GAZO NINSHIKIO MEDIA RIKAI GRAPHICS·GAZO HUMAN COMMUNICATION & INTERACTION KYOIKU KOGAKU·FUKUSHI KOGAKU· MULTIMEDIA OYO, FORUM ON IN, vol. 2014, 2014, pages 85 - 86 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11962911B2 (en) | 2020-12-03 | 2024-04-16 | Samsung Electronics Co., Ltd. | Electronic device for performing image processing and operation method thereof to reduce artifacts in an image captured by a camera through a display |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6720971B2 (ja) | 2020-07-08 |
| JPWO2016203760A1 (ja) | 2018-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7839437B2 (en) | Image pickup apparatus, image processing method, and computer program capable of obtaining high-quality image data by controlling imbalance among sensitivities of light-receiving devices | |
| KR101344824B1 (ko) | 이미지 프로세싱 기기, 이미징 기기, 이미지 프로세싱 방법, 이미징 방법 및 이미징 프로세싱 프로그램 | |
| US8768053B2 (en) | Image processing apparatus and method of providing high sensitive color images | |
| US9179113B2 (en) | Image processing device, and image processing method, and program | |
| US9413984B2 (en) | Luminance source selection in a multi-lens camera | |
| CN102685511B (zh) | 图像处理设备和图像处理方法 | |
| CN111812838A (zh) | 用于光场成像的系统和方法 | |
| US11460666B2 (en) | Imaging apparatus and method, and image processing apparatus and method | |
| KR20100039120A (ko) | 영상의 노이즈를 저감하는 영상 처리 장치 및 방법 | |
| JP5186517B2 (ja) | 撮像装置 | |
| JP2000134634A (ja) | 画像変換方法 | |
| JP2020024103A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
| US9118878B2 (en) | Image processing apparatus that corrects for chromatic aberration for taken image, image pickup apparatus, method of correcting for chromatic aberration of magnification therefor, and storage medium | |
| JPWO2015133130A1 (ja) | 映像撮影装置、信号分離装置および映像撮影方法 | |
| JPWO2012144162A1 (ja) | 3次元撮像装置、光透過部、画像処理装置、およびプログラム | |
| KR101243285B1 (ko) | 베이어 컬러 필터 배열 카메라를 사용한 다중 스펙트럼 기반 컬러 영상 생성장치 및 방법 | |
| JPWO2018116972A1 (ja) | 画像処理方法、画像処理装置および記録媒体 | |
| JP6720971B2 (ja) | 映像撮影装置、映像撮影方法及び映像撮影プログラム | |
| JP6794989B2 (ja) | 映像処理装置、撮影装置、映像処理方法及びプログラム | |
| JP2014158165A (ja) | 画像処理装置、画像処理方法およびプログラム | |
| CN118483856A (zh) | 色彩滤镜阵列、图像获取方法、图像传感器及采集装置 | |
| US8866972B1 (en) | Method for transmitting spectrum information | |
| JP6552248B2 (ja) | 画像処理装置及び方法、撮像装置、並びにプログラム | |
| WO2013111824A1 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
| JP2019049616A (ja) | 画像処理装置、撮像装置および画像処理装置の制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16811235 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2017524610 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16811235 Country of ref document: EP Kind code of ref document: A1 |