WO2009090992A1 - 電子カメラ - Google Patents
電子カメラ Download PDFInfo
- Publication number
- WO2009090992A1 WO2009090992A1 PCT/JP2009/050455 JP2009050455W WO2009090992A1 WO 2009090992 A1 WO2009090992 A1 WO 2009090992A1 JP 2009050455 W JP2009050455 W JP 2009050455W WO 2009090992 A1 WO2009090992 A1 WO 2009090992A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- feature
- electronic camera
- image
- feature amount
- feature quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
Definitions
- the present invention relates to an electronic camera.
- Patent Document 1 A technique for classifying images is known (see Patent Document 1).
- the electronic camera uses at least one of the image sensor, the distance measurement unit, the pixel density of the image acquired by the image sensor, and the distance measurement information acquired by the distance measurement unit.
- a calculation unit that calculates a feature amount based on the determination unit; a determination unit that determines a shooting scene based on the feature amount calculated by the calculation unit; and a control unit that sets a camera according to the determined shooting scene.
- the electronic camera has an image sensor, a distance measuring unit, a pixel density of an image acquired by the image sensor before the shooting instruction, and a distance measuring unit acquired before the shooting instruction.
- a first calculation unit that calculates a feature amount based on the distance measurement information, and a feature amount calculated by the first calculation unit from among a plurality of feature amount groups that are classified in advance in a space that represents the feature amount.
- Second calculation means for selecting a close feature amount group, third calculation means for determining a shooting scene corresponding to the feature amount group selected by the second calculation means, and camera setting corresponding to the determined shooting scene Control means.
- the electronic camera of the second aspect may further include storage means for storing feature value average value information for each classified feature value group.
- the second calculation means can also select a feature quantity group corresponding to the average value information closest to the feature quantity calculated by the first calculation means in the space.
- the electronic camera according to the third aspect is calculated based on the pixel density of the plurality of sample images and the distance measurement information acquired at the time of photographing the plurality of sample images. It is preferable that the feature amounts of a plurality of sample images are classified in advance in a space representing the feature amounts, and average value information of the group of feature amounts after the classification is stored in the storage unit.
- the electronic camera of the second aspect may further include storage means for storing the variance covariance information of the feature amount for each classified feature amount group. In this case, the second calculation means can also select a feature quantity group corresponding to the variance-covariance information closest to the feature quantity calculated by the first calculation means in the space.
- the calculation is performed based on the pixel density of the plurality of sample images and the distance measurement information acquired at the time of photographing the plurality of sample images. It is preferable that the feature amounts of a plurality of sample images are classified in advance in a space representing the feature amounts, and the variance / covariance information of the feature amount group after the classification is stored in the storage unit.
- the first calculation means includes the pixel density of the image acquired by the image sensor before the photographing instruction, and the distance measuring means before the photographing instruction.
- a plurality of N feature amounts are calculated based on the distance measurement information acquired in step S4, and a feature amount space conversion is performed from a space representing N feature amounts to a space representing other feature amounts less than N.
- You may further provide a calculating means.
- the second calculation means preferably selects a feature quantity group closest to the feature quantity converted by the fourth calculation means from a plurality of feature quantity groups classified in advance in the space after the feature quantity space conversion. .
- the electronic camera according to the seventh aspect may further include storage means for storing feature value average value information for each classified feature value group.
- the second calculation means can also select a feature quantity group corresponding to the average value information closest to the feature quantity calculated by the fourth calculation means in the space after the feature quantity space conversion.
- the calculation is performed based on the pixel density of the plurality of sample images and the distance measurement information acquired at the time of photographing the plurality of sample images. It is preferable that the feature amounts of the plurality of sample images are classified in advance in the space after the feature amount space conversion representing the feature amounts, and the average value information of the classified feature amount group is stored in the storage unit.
- the electronic camera according to the seventh aspect may further include storage means for storing variance / covariance information of feature quantities for each classified feature quantity group.
- the second calculation means can also select a feature quantity group corresponding to the variance covariance information closest to the feature quantity calculated by the fourth calculation means in the space after the feature quantity space conversion.
- the calculation is performed based on the pixel density of the plurality of sample images and the distance measurement information acquired at the time of photographing the plurality of sample images. It is preferable that the feature amounts of the plurality of sample images are classified in advance in the space after the feature amount space conversion representing the feature amounts, and the variance covariance information of the classified feature amount group is stored in the storage unit.
- the first calculation means includes the pixel density of the image acquired by the image sensor before the photographing instruction, and the measurement. It is also possible to calculate the feature quantity based on distance measurement information acquired by the distance means before the shooting instruction.
- the computing means can also calculate the feature amount based on the pixel density of the entire image.
- the calculation means can also calculate a plurality of feature amounts based on pixel densities of different regions obtained by dividing the image.
- the computing means can also calculate the feature amount based on the change amount of the pixel density of the entire image.
- the computing means can also calculate a feature amount based on a change amount of pixel density in a predetermined region of the image.
- the computing means can also calculate a feature amount based on distance measurement information of the subject.
- the computing means can also calculate the feature amount based on the amount of change in the distance measurement information of the entire image.
- the computing means can also calculate the feature amount based on the amount of change in the distance measurement information of the predetermined area of the image.
- the electronic camera includes an image sensor, a distance measuring unit, a pixel density of an image acquired by the image sensor, a change amount of a pixel density with respect to a main subject, and a distance measuring unit.
- a calculation unit that calculates a feature amount based on at least two of the obtained distance measurement information about the main subject, distance measurement information about the background, and a change amount of the distance measurement information about the main subject.
- the computing means includes the pixel density of the image acquired by the image sensor before the photographing instruction, and The feature amount can also be calculated based on the distance measurement information acquired by the distance measuring means before the shooting instruction.
- the electronic camera according to the present invention it is possible to perform camera settings according to the shooting scene determined before shooting.
- FIG. 1 is a block diagram for explaining a main configuration of an electronic camera 1 according to the first embodiment of the present invention.
- the electronic camera 1 is controlled by the main CPU 11.
- the photographing lens 21 forms a subject image on the imaging surface of the image sensor 22.
- the imaging element 22 is configured by a CCD image sensor or the like, captures a subject image on the imaging surface, and outputs an imaging signal to the imaging circuit 23.
- R (red), G (green), and B (blue) color filters are respectively provided on the imaging surface of the imaging element 22 so as to correspond to the pixel positions. Since the image sensor 22 captures a subject image through the color filter, the photoelectric conversion signal output from the image sensor 22 has RGB color system color information.
- the image pickup circuit 23 performs analog processing (such as gain control) on the photoelectric conversion signal output from the image pickup device 22, and converts the analog image pickup signal into digital data using a built-in A / D conversion circuit.
- analog processing such as gain control
- the main CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block.
- the image processing circuit 12 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the imaging circuit 23.
- the image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.
- the image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by the JPEG method.
- the display image creation circuit 15 creates display data for displaying the captured image on the liquid crystal monitor 16.
- the recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 1.
- the recording medium 30 records captured image data and an image file including the information in accordance with an instruction from the main CPU 11.
- the image file recorded on the recording medium 30 can be read by an instruction from the main CPU 11.
- the buffer memory 14 temporarily stores data before and after image processing and during image processing, stores an image file before being recorded on the recording medium 30, and stores an image file read from the recording medium 30. Used for.
- the operation member 17 includes various buttons and switches of the electronic camera 1, and outputs an operation signal corresponding to the operation content of each operation member, such as a release button pressing operation and a mode changeover switch switching operation, to the main CPU 11.
- the focus detection device 18 detects a focus adjustment state by the photographing lens 21 by a known phase difference detection method using a light beam corresponding to the focus detection region. Specifically, a pair of subject images are formed on an autofocus sensor (not shown) via a focus detection optical system (not shown). The main CPU 11 calculates the adjustment state (defocus amount) of the focal position by the photographing lens 21 based on the relative distance between the pair of subject images on the sensor.
- the lens driving mechanism 19 moves a focus lens (not shown) constituting the photographing lens 21 forward and backward in the optical axis direction according to an instruction from the main CPU 11. Thereby, focus adjustment is performed.
- the electronic camera 1 is configured to repeat the operation of acquiring a through image and displaying the through image on the liquid crystal monitor 16 until the release button is fully pressed.
- the through image is a monitor image acquired before a shooting instruction (acquisition instruction for a main image).
- the electronic camera 1 performs automatic exposure calculation (AE) using the through image signal, and determines the shutter speed and the aperture value so that proper exposure can be obtained. For example, when the brightness (luminance) information of the subject is detected by the average photometry method, the value obtained by averaging the signal values constituting the through image is used as the luminance information of the subject. The electronic camera 1 determines the shutter speed and the aperture value based on the subject luminance information.
- AE automatic exposure calculation
- the electronic camera 1 controls the accumulation time and aperture value of the image sensor 22 based on the luminance information calculated from the signal value of the through image of the previous frame when acquiring the through image data of the next frame.
- the electronic camera 1 of the present embodiment has a function of analyzing the through image and determining a shooting scene.
- the electronic camera 1 that has determined the shooting scene automatically performs camera settings suitable for shooting the determined scene.
- the camera settings include settings such as exposure sensitivity and white balance adjustment coefficient, and light emission permission / prohibition settings for the flash device.
- the exposure sensitivity (ISO sensitivity) is set in the imaging circuit 23 as an amplification gain.
- the white balance adjustment coefficient is set in the image processing circuit 12.
- Data used for shooting scene determination will be described.
- Data for determining a photographic scene is stored in a nonvolatile memory area 11a in the main CPU 11. This data is calculated in advance using a plurality of sample image data corresponding to the above six shooting scenes.
- a data generation procedure will be described.
- FIG. 2 is a flowchart illustrating the flow of the feature amount calculation process.
- the feature amount Bh is calculated.
- the average value of 0 to 255 in the case of the key is the density value of the pixel data of the B (blue) component contained in the lower part of the image (for example, the lower region when the image is divided into approximately equal parts in the vertical direction). The value is divided by the average value.
- a feature amount Std is calculated.
- the feature amount B is calculated.
- step S124 the feature amount Y is calculated.
- Y 0.299 ⁇ R + 0.587 ⁇ G + 0.114 ⁇ B (1)
- the feature amount U is calculated.
- the infinity ( ⁇ ) distance of the distance information varies depending on the lens. For example, if the lens has a focal length of 200 mm, all subjects with a length of about 20 m or more are ⁇ , and if the lens has a focal length of 50 mm, all subjects with a length of about 5 m or more are ⁇ . Therefore, normalization is performed by logarithmically compressing the obtained distance. For example, if the common logarithm of the base 10 is used, 1.3 for 5 m, 0.7 for 5 m, and the ratio of the infinity ( ⁇ ) distance between the 200 mm lens and the 50 mm lens is originally four times. Is compressed to 2 times or less.
- the feature amount M is calculated.
- the distance information indicated by the defocus amount for the focus area is the distance information M of the middle portion of the image.
- the focus area used for focusing does not exist in the approximately 1/3 area that is the middle part of the image
- the average of the distance information indicated by each defocus amount for a plurality of focus areas included in the area is the distance of the middle part of the image Let it be information M.
- the feature amount L is calculated.
- FIG. 3 is a diagram illustrating the feature amount calculated for each sample image.
- FIG. 4 is a diagram illustrating first to seventh principal component information.
- the vector represented by the main component shown in FIG. 4 is called an eigenvector (pcs).
- the feature space conversion refers to the conversion from the 7-dimensional feature space indicated by the seven feature value axes described above to the feature space of another dimension indicated by the principal component axis obtained by principal component analysis. To do.
- the first principal component axis to the second principal component axis out of the first principal component axis to the seventh principal component axis obtained by the principal component analysis are adopted, and these two principal component axes are indicated. Conversion into a two-dimensional feature space.
- a title is assigned to the first principal component, it is a feature amount representing “subject distance and sky”.
- the second principal component it is a feature amount representing “hue / brightness / relief”.
- Feature space conversion is performed for each piece of sample image data from the original feature space to the new feature space using the eigenvector. Specifically, when seven feature quantities (Bh, Std, B, Y, U, M, L) for a certain sample image data are (a1, a2, a3, a4, a5, a6, a7), The first principal component data in the feature amount space is calculated as 0.1761 ⁇ a1 ⁇ 0.0188 ⁇ a2 + 0.1288 ⁇ a3 + 0.0210 ⁇ a4 + 0.5946 ⁇ a5 + 0.6010 ⁇ a6 + 0.4866 ⁇ a7.
- the second principal component data in the new feature amount space is calculated as 0.0413 ⁇ a1 ⁇ 0.3751 ⁇ a2 ⁇ 0.06190 ⁇ a3 ⁇ 0.6839 ⁇ a4 + 0.0503 ⁇ a5 + 0.0428 ⁇ a6 + 0.0496 ⁇ a7.
- step S51 one image (that is, one data in a new feature amount space) is set as one cluster.
- step S52 the distance d (R, Q) between the clusters is calculated using the following equation (2) for calculating the average between groups, and the process proceeds to step S53.
- R and Q each represent a cluster.
- step S53 the pair of clusters having the smallest distance among the distances between the clusters is merged into one cluster. This process reduces the number of clusters.
- step S54 it is determined whether the number of clusters is a predetermined number. If the number of clusters has decreased to a predetermined number, an affirmative decision is made in step S54 and the processing of FIG. If the number of clusters has not decreased to the predetermined number, a negative determination is made in step S54, and the process returns to step S52. When returning to step S52, the clustering process is continued.
- the predetermined number is set to 6, for example, and the clustering process is performed until the number of clusters becomes 6.
- the sample images are classified into six groups. These six groups correspond to the shooting scenes of “portrait”, “landscape”, “night view”, “sports”, “flower close-up”, and “mountain landscape”, respectively.
- FIG. 6 is a diagram exemplifying data distribution after clustering, and particularly shows three classifications of “sports”, “scenery”, and “portrait”. The images corresponding to the data present in each cluster are highly similar.
- eigenvector (pcs) data for determining the shooting scene generated as described above, that is, eigenvector (pcs), covariance inverse matrix for each of the six distributions, and data for each of the six distributions.
- the average value of the feature quantity is stored.
- the following equation (7) illustrates an eigenvector (pcs).
- FIG. 7 is a flowchart for explaining the flow of a shooting scene determination process performed by the main CPU 11 of the electronic camera 1.
- the program for performing the processing according to FIG. 7 is activated when the electronic camera 1 is set to the shooting mode.
- the main CPU 11 drives and controls the imaging element 22 and the imaging circuit 23 to start acquisition of a through image, and proceeds to step S12.
- the image processing circuit 12 performs image processing on the image signal for through image input from the imaging circuit 23, and the through image after image processing is displayed on the liquid crystal monitor 16 by the display image creating circuit 15.
- step S12 the main CPU 11 calculates the feature amount using the through image data developed on the buffer memory 14, and proceeds to step S13.
- the feature amount calculation seven feature amounts are calculated as in the case of the sample image data described above.
- the information acquired by the focus detection device 18 is used as the defocus amount for the focus area used for calculating the distance information U, M, and L. Thereby, the distance information of the subject in the through image is obtained.
- the main CPU 11 performs feature space conversion.
- the feature space conversion is performed in the same manner as the sample image data described above. Thereby, the through image data is converted from the original feature amount space to the new feature amount space using the eigenvector.
- the main CPU 11 determines a group (distribution) and proceeds to step S15. Specifically, a distribution closest to the through image is searched in a new feature amount space. For example, the main CPU 11 selects the closest distribution using the Euclidean distance. In FIG. 6, if the through image data is x, the smaller distribution (“landscape”) of
- step S15 the main CPU 11 determines whether or not it is “portrait”. If the main CPU 11 determines “portrait” in step S14, the main CPU 11 makes a positive determination in step S15 and proceeds to step S16. If the main CPU 11 does not determine “portrait” in step S14, the main CPU 11 makes a negative determination in step S15 and proceeds to step S17. In step S16, the main CPU 11 sets the portrait and proceeds to step S27. Specifically, the exposure sensitivity, the white balance adjustment coefficient, etc. are set to values suitable for “portrait”.
- step S17 the main CPU 11 determines whether or not it is “landscape”. If the main CPU 11 determines “landscape” in step S14, the main CPU 11 makes a positive determination in step S17 and proceeds to step S18. If the main CPU 11 does not determine “landscape” in step S14, the main CPU 11 makes a negative determination in step S17 and proceeds to step S19. In step S18, the main CPU 11 sets the scenery and proceeds to step S27. Specifically, exposure sensitivity, white balance adjustment coefficient, and the like are set to values suitable for “landscape”.
- step S19 the main CPU 11 determines whether or not the night view. If the main CPU 11 determines “night view” in step S14, the main CPU 11 makes a positive determination in step S19 and proceeds to step S20. If the main CPU 11 does not determine “night view” in step S14, the main CPU 11 makes a negative determination in step S19 and proceeds to step S21. In step S20, the main CPU 11 sets a night view and proceeds to step S27. Specifically, the exposure sensitivity, white balance adjustment coefficient, etc. are set to values suitable for “night scene”.
- step S21 the main CPU 11 determines whether or not it is “sports”. If the main CPU 11 determines "Sport" in step S14, it makes a positive determination in step S21 and proceeds to step S22. If the main CPU 11 does not determine “sport” in step S14, the main CPU 11 makes a negative determination in step S21 and proceeds to step S23. In step S22, the main CPU 11 sets a sport and proceeds to step S27. Specifically, exposure sensitivity, white balance adjustment coefficient, and the like are set to values suitable for “sports”.
- step S23 the main CPU 11 determines whether or not it is “flower close-up”. If the main CPU 11 determines “flower close-up” in step S14, the main CPU 11 makes a positive determination in step S23 and proceeds to step S24. If the main CPU 11 does not determine “flower close-up” in step S14, the main CPU 11 makes a negative determination in step S23 and proceeds to step S25. In step S24, the main CPU 11 sets the flower close-up and proceeds to step S27. Specifically, the exposure sensitivity, the white balance adjustment coefficient, etc. are set to values suitable for “flower close-up”.
- step S25 the main CPU 11 determines whether or not the mountainous landscape. If the main CPU 11 determines “mountain landscape” in step S14, the main CPU 11 makes a positive determination in step S25 and proceeds to step S26. If the main CPU 11 does not determine “mountain landscape” in step S14, the main CPU 11 makes a negative determination in step S25 and proceeds to step S27. When a negative determination is made in step S25, the current settings are maintained for the exposure sensitivity, the white balance adjustment coefficient and the like. In step S26, the main CPU 11 sets a mountain landscape, and proceeds to step S27. Specifically, exposure sensitivity, white balance adjustment coefficient, and the like are set to values suitable for “mountain landscape”.
- step S27 the main CPU 11 determines whether or not a shooting instruction has been issued. When the release button is fully pressed, the main CPU 11 makes a positive determination in step S27 and proceeds to step S28. If the release button is not fully pressed, the main CPU 11 makes a negative determination in step S27 and returns to step S11. In step S28, the main CPU 11 performs the main photographing process and ends the process shown in FIG.
- the feature amount space represented by the feature amount of the image based on the pixel data constituting the image and the distance measurement information at the time of shooting is converted to another feature amount space using principal component analysis. As a result, it is possible to convert to a new feature amount space composed of feature amounts having a large variance value and low correlation between feature amounts.
- the new feature amount space after the conversion in (1) is a two-dimensional space composed of the first principal component and the second principal component, it is compared with the seven-dimensional space composed of the original seven feature amounts. Thus, the burden of the feature space conversion process can be reduced.
- clustering processing is performed to generate data used for shooting scene determination.
- Clustering processing divides a set of data to be classified into a plurality of subsets. By dividing a set of feature data representing an image into a plurality of subsets, feature quantities of images with high similarity A set of data (cluster after clustering process) is obtained. By averaging each feature amount data in the cluster, the center-of-gravity information of the feature amount distribution of the image included in each cluster (each shooting scene) can be obtained.
- the eigenvector used for the feature amount space conversion, the centroid information of the feature amount distribution of the image included in each cluster (each shooting scene), and the spread information are stored in the electronic camera 1 respectively.
- the feature space is converted using the eigenvector, and the shooting scene is determined in the new feature space after the conversion. That is, it is determined that the cluster closest to the feature amount of the through image (its center of gravity is located at a close distance) is a shooting scene corresponding to the through image. This makes it possible to determine the shooting scene with high accuracy.
- the clustering process is performed in the feature space represented by the feature amount (for example, Bh, Std, B, Y) based on the density indicated by the pixel data, it is possible to determine a photographic scene having similar shades and colors.
- the feature amount for example, Bh, Std, B, Y
- a shooting scene with similar contrast between areas can be determined.
- the number of feature quantities in the new feature quantity space after the conversion in (1) is not limited to the first principal component and the second principal component described above, but may be a three-dimensional space composed of the first principal component to the third principal component. Alternatively, a three-dimensional space including the first to fourth principal components may be used.
- the camera settings performed by the electronic camera 1 that has determined the shooting scene may include settings of the shutter speed and aperture value during actual shooting, automatic exposure calculation method settings, photometry method settings, and the like.
- the image data for the through image is acquired by the imaging element 22 that acquires the image data for the main photographing.
- a shooting scene may be determined using an acquired image before a shooting instruction by the photometric image sensor.
- the image sensor for colorimetry is an image sensor for obtaining color temperature information, and R (red), G (green), and B (blue) color filters on the imaging surface correspond to the pixel positions. By being provided, the one that can obtain color information of the RGB color system is used.
- the shooting scene is determined in the feature space represented by the feature amount of the through image without performing the feature space conversion. It may be.
- the feature space conversion process is skipped when generating data for shooting scene determination stored in the nonvolatile memory area 11a in the main CPU 11 and when determining shooting scenes.
- data used for shooting scene determination is generated by performing clustering processing on a plurality of sample images in a feature space that is not subjected to feature space conversion. Also in this case, the center of gravity information of the feature amount distribution of the image included in each cluster (each shooting scene) can be obtained by averaging the feature amount data in the cluster.
- the spread information of the feature value distribution of the image included in each cluster can be obtained. Then, the center-of-gravity information and spread information of the image feature amount distribution included in each cluster (each shooting scene) are stored in the nonvolatile memory area 11a in the electronic camera 1, respectively.
- the shooting scene is determined in the feature amount space represented by the feature amount obtained from the through image acquired before the shooting instruction. That is, it is determined that the cluster closest to the feature amount of the through image (its center of gravity is located at a close distance) is a shooting scene corresponding to the through image. This makes it possible to determine the shooting scene with high accuracy.
- the shooting scene when the correlation between feature amounts is low, the shooting scene can be determined with high accuracy as in the first embodiment without performing feature amount space conversion. Can do.
- FIG. 1 A block diagram for explaining a main configuration of an electronic camera 1 according to the third embodiment of the present invention is the same as FIG. Similar to the first embodiment, the electronic camera 1 is controlled by the main CPU 11. Note that the nonvolatile memory area 11a described in the first embodiment may not be provided.
- the electronic camera 1 performs automatic exposure calculation (AE) using the through image signal, and determines the shutter speed and the aperture value so that proper exposure can be obtained. For example, when the brightness (luminance) information of the subject is detected by the average photometry method, the value obtained by averaging the signal values from the pixels constituting the through image is used as the luminance information of the subject. The electronic camera 1 determines the shutter speed and the aperture value based on the subject luminance information.
- AE automatic exposure calculation
- the electronic camera 1 controls the accumulation time and aperture value of the image sensor 22 based on the luminance information calculated from the signal value of the through image of the previous frame when acquiring the through image data of the next frame.
- the electronic camera 1 of the present embodiment has a function of analyzing the through image and determining a shooting scene.
- the electronic camera 1 that has determined the shooting scene automatically performs camera settings suitable for shooting the determined scene.
- the camera settings include settings such as exposure sensitivity and white balance adjustment coefficient, and light emission permission / prohibition settings for the flash device.
- the exposure sensitivity (ISO sensitivity) is set in the imaging circuit 23 as an amplification gain.
- the white balance adjustment coefficient is set in the image processing circuit 12.
- the photographing scenes determined by the electronic camera 1 of the present embodiment are, for example, “mountain scenery”, “portrait”, and “sports”.
- FIG. 8 is a flowchart for explaining the flow of a shooting scene determination process performed by the main CPU 11 of the electronic camera 1.
- the program for performing the processing according to FIG. 8 is started when the electronic camera 1 is set to the shooting mode.
- the main CPU 11 drives and controls the imaging element 22 and the imaging circuit 23 to start obtaining a through image, and proceeds to step S12.
- the image processing circuit 12 performs image processing on the image signal for through image input from the imaging circuit 23, and the through image after image processing is displayed on the liquid crystal monitor 16 by the display image creating circuit 15.
- step S12 the main CPU 11 calculates the feature amount using the through image data developed on the buffer memory 14, and proceeds to step S13. Details of the feature amount calculation will be described later.
- step S13 the main CPU 11 performs a determination process and proceeds to step S14. The determination process is to determine the shooting scene according to the feature amount, and details thereof will be described later.
- step S14 the main CPU 11 determines whether or not the mountainous landscape. If the main CPU 11 determines “mountain landscape” in step S13, the main CPU 11 makes a positive determination in step S14 and proceeds to step S15. If the main CPU 11 does not determine “mountain landscape” in step S13, the main CPU 11 makes a negative determination in step S14 and proceeds to step S16. In step S15, the main CPU 11 sets a mountain landscape and proceeds to step S20. Specifically, the exposure sensitivity, the white balance adjustment coefficient, and the like are set to values suitable for shooting a “mountain landscape” scene.
- step S16 the main CPU 11 determines whether it is “portrait”. If the main CPU 11 determines "portrait” in step S13, the main CPU 11 makes a positive determination in step S16 and proceeds to step S17. If the main CPU 11 does not determine “portrait” in step S13, the main CPU 11 makes a negative determination in step S16 and proceeds to step S18. In step S17, the main CPU 11 sets a portrait and proceeds to step S20. Specifically, exposure sensitivity, white balance adjustment coefficient, and the like are set to values suitable for “portrait” shooting.
- step S18 the main CPU 11 determines whether or not it is “sports”. If the main CPU 11 determines “sport” in step S13, the main CPU 11 makes a positive determination in step S18 and proceeds to step S19. If the main CPU 11 does not determine “sport” in step S13, the main CPU 11 makes a negative determination in step S18 and proceeds to step S20. If the determination in step S18 is negative, the current settings are maintained for the exposure sensitivity, white balance adjustment coefficient, and the like. In step S19, the main CPU 11 sets a sport and proceeds to step S20. Specifically, exposure sensitivity, white balance adjustment coefficient, and the like are set to values suitable for shooting a “sports” scene.
- step S20 the main CPU 11 determines whether or not a shooting instruction has been issued. When the release button is fully pressed, the main CPU 11 makes a positive determination in step S20 and proceeds to step S21. If the release button is not fully pressed, the main CPU 11 makes a negative determination in step S20 and returns to step S11. In step S ⁇ b> 21, the main CPU 11 performs the main photographing process and ends the process illustrated in FIG. 8.
- the main CPU 11 calculates eight feature amounts using the through image data.
- the flowchart illustrated in FIG. 9 is a flowchart illustrating the flow of the feature amount calculation process. In step S121 in FIG. 9, the feature amount Bh is calculated.
- the average value of 0 to 255 in the case of the key is the density value of the pixel data of the B (blue) component contained in the lower part of the image (for example, the lower region when the image is divided into approximately equal parts in the vertical direction). The value is divided by the average value.
- a feature amount Std is calculated.
- the feature amount B is calculated.
- step S124 the feature amount Y is calculated.
- Y 0.299 ⁇ R + 0.587 ⁇ G + 0.114 ⁇ B (8)
- step S125 the feature amount D is calculated.
- the feature amount D is subject distance information. Specifically, information acquired by the focus detection device 18 is used. Thereby, the distance information of the subject in the through image is obtained.
- step S1208 the feature amount A is calculated.
- d 2 F / dt 2
- t is a discrete time
- F is a through image
- i represents a frame number.
- calculation is performed using through image data for the three most recent frames.
- a large acceleration amount is calculated when a subject that moves rapidly like a sports scene is included, and a small acceleration amount is calculated when a stationary subject is included.
- seven types of feature amounts are calculated from through image data of one frame, and one feature amount is calculated from through image data of a plurality of frames.
- the main CPU 11 determines a shooting scene using the calculated feature amount.
- the flowchart illustrated in FIG. 10 is a flowchart illustrating the flow of the shooting scene determination process.
- step S131 of FIG. 10 the main CPU 11 determines whether or not the feature amount Bh is equal to or greater than the first predetermined value and the feature amount D is infinite.
- the main CPU 11 makes an affirmative decision in step S131 when the feature value Bh is 0.4 or more and the feature value D is infinite, for example, and proceeds to step S132. If the feature quantity Bh is not 0.4 or more or the feature quantity D is not infinite, the main CPU 11 makes a negative determination in step S131 and proceeds to step S134.
- step S132 of FIG. 10 the main CPU 11 determines that the shooting scene is “mountain landscape”, and ends the process of FIG.
- step S134 the main CPU 11 determines whether or not the feature amount D is included in the range of 1.5 m to 5 m. When the feature amount D is 1.5 m to 5 m, the main CPU 11 makes a positive determination in step S134 and proceeds to step S135. If the feature quantity D is not 1.5 m to 5 m, the main CPU 11 makes a negative determination in step S134 and proceeds to step S137. In step S ⁇ b> 135, the main CPU 11 determines that the shooting scene is “portrait” and ends the process of FIG. 10.
- step S137 the main CPU 11 determines whether or not the feature amount A is equal to or greater than a third predetermined value. For example, for the image obtained as a result of the second-order difference calculation according to the above equation (9), the main CPU 11 has a ratio of pixel data whose density value exceeds a predetermined value among all pixel data constituting the image of 0.3. In the above case, an affirmative determination is made in step S137 and the process proceeds to step S138. If the ratio of the pixel data is less than 0.3, the main CPU 11 makes a negative determination in step S137 and proceeds to step S139.
- FIG. 12 is a diagram exemplifying a calculation result according to the above equation (9).
- 12A is a through image of frame (i-1)
- FIG. 12B is a through image of frame (i)
- FIG. 12C is a through image of frame (i + 1).
- FIG. 12D is a second-order difference image. As can be seen from FIG. 12D, the pixel density in a region where there is no change between frames (the subject does not move (does not flow)) decreases. If the subject is moving, there is a high probability that it is a sports photo.
- step S138 in FIG. 10 the main CPU 11 determines that the shooting scene is “sports”, and ends the processing in FIG.
- FIG. 13 is a diagram illustrating another calculation result according to the above equation (9).
- 13A is a through image of the frame (i ⁇ 1)
- FIG. 13B is a through image of the frame (i)
- FIG. 13C is a through image of the frame (i + 1).
- FIG. 13D is a second-order difference image. As can be seen from FIG. 13D, when there is no change between frames in the entire image, the pixel density decreases in the entire image.
- step S139 in FIG. 10 the main CPU 11 determines whether or not the feature value D differs between frames. For example, the main CPU 11 makes an affirmative decision in step S139 when the feature value D obtained from the through image data of the two most recent frames differs between frames, and proceeds to step S138. If the subject distance differs between frames, there is a high probability that it is a sports photo. When the feature amount D obtained from the latest two frames of the through image data is common between the frames, the main CPU 11 makes a negative determination in step S139 and ends the processing in FIG.
- the shooting scene is determined using the image data based on the pixel data constituting the image, the distance measurement information at the time of shooting, and the amount of change in the pixel data between frames. This makes it possible to accurately determine the shooting scene.
- the feature amount by each density is calculated from a plurality of areas obtained by dividing the shooting screen, it is suitable for determination of shooting scenes having similar shades and shades in a predetermined area.
- the feature amount is calculated for a plurality of different regions obtained by dividing the shooting screen, and the ratio of the feature amounts between the regions is used as the feature amount (for example, Bh), It is suitable for determination.
- any process may be performed first, and any process may be performed later.
- the order of processing in each step may be changed according to the brightness of the subject, or may be performed according to whether or not light emission from a flash device (not shown) is permitted.
- Mountain landscape determination is performed when the feature amount Bh is greater than or equal to the first predetermined value (Yes in step S131), but mountain landscape determination may be performed when other determination conditions are satisfied. Specifically, mountain landscape determination is performed when the feature amount Bh is equal to or greater than a first predetermined value and the amount of change in the feature amount D between frames is equal to or greater than a predetermined determination threshold.
- the sport determination is performed when the feature amount A is equal to or greater than the third predetermined value (Yes in step S137), the sport determination may be performed when other determination conditions are satisfied. Specifically, the sport determination is performed when the feature amount A is equal to or greater than a third predetermined value and the amount of change in the feature amount D between frames is equal to or greater than a predetermined determination threshold.
- the second-order difference (that is, the amount of change) according to the above equation (9) is calculated for the pixel data of the entire image.
- the second-order difference according to the above equation (9) may be calculated for pixel data included only in a region (a part of the image) including the main subject (for example, the closest subject).
- the second-order difference according to the above equation (9) may be calculated for pixel data included only in the background area different from the main subject.
- Modification 9 Feature quantities based on distance measurement information from a plurality of areas obtained by dividing the shooting screen (for example, feature quantity U based on distance measurement information at the top of the screen, feature quantity M based on distance measurement information at the middle of the screen, distance measurement at the bottom of the screen)
- the feature amount L) based on the information may be obtained. In this case, it is suitable for determination of a shooting scene having similar distance measurement information in a predetermined area.
- feature amounts Std, B, and Y may be added to the determination process.
- the density indicated by the pixel data, the ratio of the density between the image areas, the distance measurement information of the image, the difference of distance measurement information between the image areas, the difference of pixel data between frames, the distance measurement information between frames A shooting scene can be determined based on the difference.
- the camera settings performed by the electronic camera 1 that has determined the shooting scene may include settings of the shutter speed and aperture value during actual shooting, automatic exposure calculation method settings, photometry method settings, and the like.
- the image data for the through image is acquired by the imaging element 22 that acquires the image data for the main photographing.
- a shooting scene may be determined using an acquired image before a shooting instruction by the photometric image sensor.
- the image sensor for colorimetry is an image sensor for obtaining color temperature information, and R (red), G (green), and B (blue) color filters on the imaging surface correspond to the pixel positions. By being provided, the one that can obtain color information of the RGB color system is used.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
電子カメラは、撮像素子と、測距手段と、撮像素子が取得した画像の画素濃度、および測距手段が取得した測距情報の少なくとも一方に基づいて特徴量を算出する演算手段と、演算手段で算出された特徴量に基づいて撮影シーンを決定する決定手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
Description
本発明は、電子カメラに関する。
画像を分類する技術が知られている(特許文献1参照)。
従来技術では、撮影前に、いわゆる撮影シーンを分類できなかった。
(1)本発明の第1の態様によると、電子カメラは、撮像素子と、測距手段と、撮像素子が取得した画像の画素濃度、および測距手段が取得した測距情報の少なくとも一方に基づいて特徴量を算出する演算手段と、演算手段で算出された特徴量に基づいて撮影シーンを決定する決定手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
(2)本発明の第2の態様によると、電子カメラは、撮像素子と、測距手段と、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出する第1演算手段と、特徴量を表す空間においてあらかじめ分類されている複数の特徴量群の中から、第1演算手段で算出された特徴量に最も近い特徴量群を選択する第2演算手段と、第2演算手段で選択された特徴量群に対応する撮影シーンを決定する第3演算手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
(3)本発明の第3の態様によると、第2の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、空間内において第1演算手段で算出された特徴量と最も近い平均値情報に対応する特徴量群を選択することもできる。
(4)本発明の第4の態様によると、第3の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が格納手段に格納されていることが好ましい。
(5)本発明の第5の態様によると、第2の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、空間内において第1演算手段で算出された特徴量と最も近い分散共分散情報に対応する特徴量群を選択することもできる。
(6)本発明の第6の態様によると、第5の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が格納手段に格納されていることが好ましい。
(7)本発明の第7の態様によると、第2の態様の電子カメラにおいて、第1演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて複数のN個の特徴量を算出し、N個の特徴量を表す空間から、N個より少ない他の特徴量を表す空間へ特徴量空間変換を行う第4演算手段をさらに備えてもよい。第2演算手段は、特徴量空間変換後の空間においてあらかじめ分類されている複数の特徴量群の中から、第4演算手段で変換された特徴量に最も近い特徴量群を選択することが好ましい。
(8)本発明の第8の態様によると、第7の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、特徴量空間変換後の空間内において第4演算手段で算出された特徴量と最も近い平均値情報に対応する特徴量群を選択することもできる。
(9)本発明の第9の態様によると、第8の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が格納手段に格納されていることが好ましい。
(10)本発明の第10の態様によると、第7の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、特徴量空間変換後の空間内において第4演算手段で算出された特徴量と最も近い分散共分散情報に対応する特徴量群を選択することもできる。
(11)本発明の第11の態様によると、第10の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が格納手段に格納されていることが好ましい。
(12)本発明の第12の態様によると、第7~第11のいずれかの態様の電子カメラにおいて、第1演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出することもできる。
(2)本発明の第2の態様によると、電子カメラは、撮像素子と、測距手段と、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出する第1演算手段と、特徴量を表す空間においてあらかじめ分類されている複数の特徴量群の中から、第1演算手段で算出された特徴量に最も近い特徴量群を選択する第2演算手段と、第2演算手段で選択された特徴量群に対応する撮影シーンを決定する第3演算手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
(3)本発明の第3の態様によると、第2の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、空間内において第1演算手段で算出された特徴量と最も近い平均値情報に対応する特徴量群を選択することもできる。
(4)本発明の第4の態様によると、第3の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が格納手段に格納されていることが好ましい。
(5)本発明の第5の態様によると、第2の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、空間内において第1演算手段で算出された特徴量と最も近い分散共分散情報に対応する特徴量群を選択することもできる。
(6)本発明の第6の態様によると、第5の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が格納手段に格納されていることが好ましい。
(7)本発明の第7の態様によると、第2の態様の電子カメラにおいて、第1演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて複数のN個の特徴量を算出し、N個の特徴量を表す空間から、N個より少ない他の特徴量を表す空間へ特徴量空間変換を行う第4演算手段をさらに備えてもよい。第2演算手段は、特徴量空間変換後の空間においてあらかじめ分類されている複数の特徴量群の中から、第4演算手段で変換された特徴量に最も近い特徴量群を選択することが好ましい。
(8)本発明の第8の態様によると、第7の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、特徴量空間変換後の空間内において第4演算手段で算出された特徴量と最も近い平均値情報に対応する特徴量群を選択することもできる。
(9)本発明の第9の態様によると、第8の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が格納手段に格納されていることが好ましい。
(10)本発明の第10の態様によると、第7の態様の電子カメラはさらに、分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段を備えてもよい。この場合の第2演算手段は、特徴量空間変換後の空間内において第4演算手段で算出された特徴量と最も近い分散共分散情報に対応する特徴量群を選択することもできる。
(11)本発明の第11の態様によると、第10の態様の電子カメラにおいて、複数のサンプル画像の画素濃度、および複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された複数のサンプル画像についての特徴量が該特徴量を表す特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が格納手段に格納されていることが好ましい。
(12)本発明の第12の態様によると、第7~第11のいずれかの態様の電子カメラにおいて、第1演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出することもできる。
(13)本発明の第13の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像全体の画素濃度に基づいて特徴量を算出することもできる。
(14)本発明の第14の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出することもできる。
(15)本発明の第15の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像全体の画素濃度の変化量に基づいて特徴量を算出することもできる。
(16)本発明の第16の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像の所定領域の画素濃度の変化量に基づいて特徴量を算出することもできる。
(17)本発明の第17の態様によると、第1の態様の電子カメラにおいて、演算手段は、被写体の測距情報に基づく特徴量を算出することもできる。
(18)本発明の第18の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像全体の測距情報の変化量に基づいて特徴量を算出することもできる。
(19)本発明の第19の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像の所定領域の測距情報の変化量に基づいて特徴量を算出することもできる。
(20)本発明の第20の態様によると、電子カメラは、撮像素子と、測距手段と、撮像素子が取得した 画像の画素濃度、主要被写体についての画素濃度の変化量、測距手段が取得した主要被写体についての測距情報、背景についての測距情報、主要被写体についての測距情報の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する演算手段と、演算手段で算出された特徴量に応じて撮影シーンを決定する決定手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
(21)本発明の第21の態様によると、第1、第13~第20のいずれかの態様の電子カメラにおいて、演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出することもできる。
(14)本発明の第14の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出することもできる。
(15)本発明の第15の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像全体の画素濃度の変化量に基づいて特徴量を算出することもできる。
(16)本発明の第16の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像の所定領域の画素濃度の変化量に基づいて特徴量を算出することもできる。
(17)本発明の第17の態様によると、第1の態様の電子カメラにおいて、演算手段は、被写体の測距情報に基づく特徴量を算出することもできる。
(18)本発明の第18の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像全体の測距情報の変化量に基づいて特徴量を算出することもできる。
(19)本発明の第19の態様によると、第1の態様の電子カメラにおいて、演算手段は、画像の所定領域の測距情報の変化量に基づいて特徴量を算出することもできる。
(20)本発明の第20の態様によると、電子カメラは、撮像素子と、測距手段と、撮像素子が取得した 画像の画素濃度、主要被写体についての画素濃度の変化量、測距手段が取得した主要被写体についての測距情報、背景についての測距情報、主要被写体についての測距情報の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する演算手段と、演算手段で算出された特徴量に応じて撮影シーンを決定する決定手段と、決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える。
(21)本発明の第21の態様によると、第1、第13~第20のいずれかの態様の電子カメラにおいて、演算手段は、撮像素子が撮影指示前に取得した画像の画素濃度、および測距手段が撮影指示前に取得した測距情報に基づいて特徴量を算出することもできる。
本発明による電子カメラでは、撮影前に判定した撮影シーンに応じたカメラ設定を行うことができる。
以下、本発明を実施するための最良の形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。
撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。
メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。
画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。
記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。
バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。
操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。
焦点検出装置18は、焦点検出領域に対応する光束を用いて、周知の位相差検出方式によって撮影レンズ21による焦点調節状態の検出を行う。具体的には、焦点検出光学系(不図示)を介して一対の被写体像をオートフォーカスセンサ(不図示)上に結像させる。メインCPU11は、センサ上の一対の被写体像の相対間隔に基づいて撮影レンズ21による焦点位置の調節状態(デフォーカス量)を算出する。
レンズ駆動機構19は、メインCPU11からの指示によって撮影レンズ21を構成するフォーカスレンズ(不図示)を光軸方向に進退移動させる。これにより、ピント調節が行われる。
電子カメラ1は、レリーズボタンが全押し操作されるまでスルー画像の取得、および該スルー画像を液晶モニタ16に表示させる動作を繰り返すように構成されている。スルー画像は、撮影指示(本画像の取得指示)前に取得するモニタ用画像である。
電子カメラ1は、スルー画像信号を用いて自動露出演算(AE)を行い、適正露出が得られるようにシャッター速度および絞り値を決定する。たとえば、平均測光方式によって被写体の明るさ(輝度)情報を検出する場合には、スルー画像を構成する信号値を平均して得た値を被写体の輝度情報とする。電子カメラ1は、この被写体輝度情報に基づいてシャッター速度および絞り値を決定する。
電子カメラ1は、次フレームのスルー画像データを取得する際、前フレームのスルー画像の信号値から算出した輝度情報に基づいて、撮像素子22の蓄積時間および絞り値を制御する。
本実施形態の電子カメラ1は、上記スルー画像を解析して撮影シーンを判定する機能を備える。撮影シーンを判定した電子カメラ1は、判定したシーンの撮影に適したカメラ設定を自動的に行う。カメラ設定は、露光感度やホワイトバランス調整係数などの設定、フラッシュ装置への発光許可/禁止設定などを含む。露光感度(ISO感度)は、撮像回路23に増幅ゲインとしてセットさせる。 ホワイトバランス調整係数は、画像処理回路12にセットされる。
電子カメラ1が判定する撮影シーンは、たとえば、「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」の6通りである。
《撮影シーン判定に必要なデータ》
撮影シーン判定に用いるデータについて説明する。メインCPU11内の不揮発性メモリ領域11aには、撮影シーン判定のためのデータが格納されている。このデータは、上記6通りの撮影シーンに該当する複数のサンプル画像データを用いてあらかじめ算出されたものである。以下、データの生成手順について説明する。
撮影シーン判定に用いるデータについて説明する。メインCPU11内の不揮発性メモリ領域11aには、撮影シーン判定のためのデータが格納されている。このデータは、上記6通りの撮影シーンに該当する複数のサンプル画像データを用いてあらかじめ算出されたものである。以下、データの生成手順について説明する。
<特徴量算出>
各撮影シーンに該当する複数のサンプル画像データのそれぞれについて、7つの特徴量を算出する。図2に例示するフローチャートは、特徴量算出処理の流れを説明するフローチャートである。図2のステップS121では、特徴量Bhを算出する。
各撮影シーンに該当する複数のサンプル画像データのそれぞれについて、7つの特徴量を算出する。図2に例示するフローチャートは、特徴量算出処理の流れを説明するフローチャートである。図2のステップS121では、特徴量Bhを算出する。
特徴量1(=Bh)は、画像の上部(たとえば画像を垂直方向に略等分に3分割した場合の上部領域)に含まれるB(青)成分の画素データの濃度値(たとえば8ビット階調の場合に0~255)の平均値を、画像の下部(たとえば画像を垂直方向に略等分に3分割した場合の下部領域)に含まれるB(青)成分の画素データの濃度値の平均値で除算した値とする。
ステップS122では、特徴量Stdを算出する。特徴量2(=Std)は、画像全体に含まれる画素データの濃度値のばらつきを示す標準偏差値とする。ステップS123では、特徴量Bを算出する。特徴量3(=B)は、画像全体に含まれるB(青)成分の画素データの濃度値の平均値とする。
ステップS124では、特徴量Yを算出する。特徴量4(=Y)は、次式(1)で算出される輝度情報の平均値とする。つまり、画像を構成する全画素データの中でY成分の濃度値の平均を算出する。
Y=0.299×R+0.587×G+0.114×B …(1)
Y=0.299×R+0.587×G+0.114×B …(1)
ステップS125では、特徴量Uを算出する。特徴量5(=U)は、画像の上部(たとえば画像を垂直方向に略等分に3分割した場合の上部領域)に含まれる被写体距離情報とする。具体的には、画像の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像上部の距離情報Uとする。画像の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像上部の距離情報Uとする。
距離情報の無限遠(∞)距離はレンズによって変化する。たとえば、焦点距離200mmレンズならほぼ20m以上の被写体は全て∞となり、焦点距離50mmレンズならほぼ5m以上の被写体は全て∞となる。したがって、得られた距離を対数圧縮して正規化を行う。たとえば、底10の常用対数を使えば、20mの場合は1.3、5mの場合は0.7となり、200mmレンズと50mmレンズの無限遠(∞)距離の比は、元々4倍であるのが2倍以下に圧縮される。
ステップS126では、特徴量Mを算出する。特徴量6(=M)は、画像の中部(たとえば画像を垂直方向に略等分に3分割した場合の中部領域)に含まれる被写体距離情報とする。具体的には、画像中部である略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像中部の距離情報Mとする。画像中部である略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像中部の距離情報Mとする。
ステップS127では、特徴量Lを算出する。特徴量7(=L)は、画像の下部(たとえば画像を垂直方向に略等分に3分割した場合の下部領域)に含まれる被写体距離情報とする。具体的には、画像下部である略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像下部の距離情報Lとする。画像下部である略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像下部の距離情報Lとする。
以上説明した特徴量算出処理により、1画像につき7種の特徴量が算出される。図3は、サンプル画像ごとに算出された特徴量を例示する図である。
<統計値による特徴量評価>
図3に例示した特徴量群に統計学手法の主成分分析を行うと、各特徴量ごとに第1主成分情報、第2主成分情報、…、および第7主成分情報がそれぞれ得られる。図4は、第1主成分情報から第7主成分情報を例示する図である。なお、図4によって示される主成分で表されるベクトルを固有ベクトル(pcs)と呼ぶ。
図3に例示した特徴量群に統計学手法の主成分分析を行うと、各特徴量ごとに第1主成分情報、第2主成分情報、…、および第7主成分情報がそれぞれ得られる。図4は、第1主成分情報から第7主成分情報を例示する図である。なお、図4によって示される主成分で表されるベクトルを固有ベクトル(pcs)と呼ぶ。
<特徴量空間変換>
本実施形態において特徴量空間の変換とは、上述した7つの特徴量軸で示される7次元の特徴量空間から、主成分分析によって得られる主成分軸で示される他次元の特徴量空間へ変換することをいう。本実施形態では、主成分分析で得られる第1主成分軸から第7主成分軸のうち第1主成分軸からび第2主成分軸までを採用し、これらの2つの主成分軸で示される2次元の特徴量空間への変換を行う。ここで、第1主成分についてタイトルをつけるとすれば、「被写体距離と空」を表す特徴量である。また、第2主成分の場合は「色合い・明るさ・めりはり」を表す特徴量である。
本実施形態において特徴量空間の変換とは、上述した7つの特徴量軸で示される7次元の特徴量空間から、主成分分析によって得られる主成分軸で示される他次元の特徴量空間へ変換することをいう。本実施形態では、主成分分析で得られる第1主成分軸から第7主成分軸のうち第1主成分軸からび第2主成分軸までを採用し、これらの2つの主成分軸で示される2次元の特徴量空間への変換を行う。ここで、第1主成分についてタイトルをつけるとすれば、「被写体距離と空」を表す特徴量である。また、第2主成分の場合は「色合い・明るさ・めりはり」を表す特徴量である。
特徴量空間変換は、サンプル画像データのそれぞれについて、元の特徴量空間から新たな特徴量空間へ上記固有ベクトルを用いて行う。具体的には、あるサンプル画像データについての7つの特徴量(Bh,Std,B,Y,U,M,L)が(a1,a2,a3,a4,a5,a6,a7)の場合、新たな特徴量空間での第1主成分データは、0.1761×a1-0.0188×a2+0.1288×a3+0.0210×a4+0.5946×a5+0.6010×a6+0.4866×a7で算出される。同様に、新たな特徴量空間での第2主成分データは、0.0413×a1-0.3751×a2-0.06190×a3-0.6839×a4+0.0503×a5+0.0428×a6+0.0496×a7で算出される。
<クラスタリング>
新たな特徴量空間において、サンプル画像をクラスタリングする。図5に例示するフローチャートは、クラスタリング処理の流れを説明するフローチャートである。ステップS51では、1画像(すなわち、新たな特徴量空間における1データ)を1クラスターとする。ステップS52では、各クラスター間の距離d(R,Q)を群間平均を算出する次式(2)を用いて算出し、ステップS53へ進む。
ただし、R、Qはそれぞれクラスターを表す。
新たな特徴量空間において、サンプル画像をクラスタリングする。図5に例示するフローチャートは、クラスタリング処理の流れを説明するフローチャートである。ステップS51では、1画像(すなわち、新たな特徴量空間における1データ)を1クラスターとする。ステップS52では、各クラスター間の距離d(R,Q)を群間平均を算出する次式(2)を用いて算出し、ステップS53へ進む。
ステップS53では、クラスター相互の距離のうち距離最小の一対のクラスターを1つのクラスターに併合する。この処理により、クラスター数が減少する。ステップS54では、クラスター数が所定数か否かを判定する。クラスター数が所定数まで減少した場合にステップS54を肯定判定して図5の処理を終了する。クラスター数が所定数まで減少していない場合にはステップS54を否定判定し、ステップS52へ戻る。ステップS52へ戻る場合はクラスタリング処理を続行する。
本実施形態では所定数を、たとえば6とすることにより、クラスター数が6になるまでクラスタリング処理を行う。この結果、サンプル画像が6つのグループに分類される。これらの6グループは、それぞれ「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」の撮影シーンに対応する。図6は、クラスタリング後のデータ分布を例示する図であり、とくに「スポーツ」、「風景」、および「ポートレート」の3分類を表したものである。各クラスター内に存在するデータに対応する画像は、は類似性が高い。
<共分散逆行列の算出>
「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」に対応する各分布について、分布の分散共分散の逆行列をそれぞれ算出する。たとえば、「風景」についての共分散逆行列(Inv1)を次式(3)に例示する。また、「ポートレート」についての共分散逆行列(Inv2)を次式(4)に例示する。分散値は、図6における各分布の広がりに対応する。
「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」に対応する各分布について、分布の分散共分散の逆行列をそれぞれ算出する。たとえば、「風景」についての共分散逆行列(Inv1)を次式(3)に例示する。また、「ポートレート」についての共分散逆行列(Inv2)を次式(4)に例示する。分散値は、図6における各分布の広がりに対応する。
<特徴量の平均値の算出>
「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」に対応する各分布について、分布の特徴量の平均値をそれぞれ算出する。たとえば、「風景」についての平均値(m1)を次式(5)に例示する。また、「ポートレート」についての平均値(m2)を次式(6)に例示する。平均値は、図6における各分布の重心に対応する。
「ポートレート」、「風景」、「夜景」、「スポーツ」、「花接写」、および「山岳風景」に対応する各分布について、分布の特徴量の平均値をそれぞれ算出する。たとえば、「風景」についての平均値(m1)を次式(5)に例示する。また、「ポートレート」についての平均値(m2)を次式(6)に例示する。平均値は、図6における各分布の重心に対応する。
メインCPU11内の不揮発性メモリ領域11aには、以上のように生成された撮影シーン判定のためのデータ、すなわち、固有ベクトル(pcs)、6つの分布ごとの共分散逆行列、および6つの分布ごとの特徴量の平均値が、それぞれ格納される。本実施形態では、元の特徴量空間を構成する特徴量が7つ、1分布当たりの共分散逆行列が4データ、1分布当たりの特徴量の平均値が2データであるため、7×2+(4+2)×6=50データがメインCPU11内に格納される。このうち、固有ベクトル(pcs)は7×2=14データである。次式(7)は固有ベクトル(pcs)を例示する。
《撮影シーン判定処理》
図7は、電子カメラ1のメインCPU11が行う撮影シーン判定処理の流れを説明するフローチャートである。図7による処理を行うプログラムは、電子カメラ1が撮影モードにセットされた場合に起動される。図7のステップS11において、メインCPU11は、撮像素子22および撮像回路23を駆動制御してスルー画像の取得を開始させてステップS12へ進む。これにより、撮像回路23から入力されたスルー画像用の画像信号に画像処理回路12が画像処理を行い、画像処理後のスルー画像が表示画像作成回路15によって液晶モニタ16に表示される。
図7は、電子カメラ1のメインCPU11が行う撮影シーン判定処理の流れを説明するフローチャートである。図7による処理を行うプログラムは、電子カメラ1が撮影モードにセットされた場合に起動される。図7のステップS11において、メインCPU11は、撮像素子22および撮像回路23を駆動制御してスルー画像の取得を開始させてステップS12へ進む。これにより、撮像回路23から入力されたスルー画像用の画像信号に画像処理回路12が画像処理を行い、画像処理後のスルー画像が表示画像作成回路15によって液晶モニタ16に表示される。
ステップS12において、メインCPU11は、バッファメモリ14上に展開されているスルー画像データを用いて特徴量を算出し、ステップS13へ進む。特徴量算出は、上述したサンプル画像データの場合と同様に7つの特徴量を算出する。ただし、距離情報U、M、Lの算出に用いるフォーカスエリアについてのデフォーカス量は、焦点検出装置18によって取得されている情報を使用する。これにより、スルー画像における被写体の距離情報が得られる。ステップS13において、メインCPU11は特徴量空間変換を行う。
特徴量空間変換は、上述したサンプル画像データの場合と同様に行う。これにより、スルー画像データが、元の特徴量空間から新たな特徴量空間へ上記固有ベクトルを用いて変換される。ステップS14において、メインCPU11はグループ(分布)判定してステップS15へ進む。具体的には、新たな特徴量空間でスルー画像に最も近い分布を探す。メインCPU11は、たとえば、ユークリッド距離を用いて至近分布を選ぶ。図6においてスルー画像データをxとすれば、|x-m1|および|x-m2|のうち小さい方の分布(「風景」)を選ぶ。この場合のメインCPU11は、撮影シーンが「風景」であると判定する。
ステップS15において、メインCPU11は「ポートレート」か否かを判定する。メインCPU11は、ステップS14にて「ポートレート」と判定した場合はステップS15を肯定判定してステップS16へ進む。メインCPU11は、ステップS14にて「ポートレート」と判定していない場合はステップS15を否定判定してステップS17へ進む。ステップS16において、メインCPU11はポートレート設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「ポートレート」に適した値に設定する。
ステップS17において、メインCPU11は「風景」か否かを判定する。メインCPU11は、ステップS14にて「風景」と判定した場合はステップS17を肯定判定してステップS18へ進む。メインCPU11は、ステップS14にて「風景」と判定していない場合はステップS17を否定判定してステップS19へ進む。ステップS18において、メインCPU11は風景設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「風景」に適した値に設定する。
ステップS19において、メインCPU11は「夜景」か否かを判定する。メインCPU11は、ステップS14にて「夜景」と判定した場合はステップS19を肯定判定してステップS20へ進む。メインCPU11は、ステップS14にて「夜景」と判定していない場合はステップS19を否定判定してステップS21へ進む。ステップS20において、メインCPU11は夜景設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「夜景」に適した値に設定する。
ステップS21において、メインCPU11は「スポーツ」か否かを判定する。メインCPU11は、ステップS14にて「スポーツ」と判定した場合はステップS21を肯定判定してステップS22へ進む。メインCPU11は、ステップS14にて「スポーツ」と判定していない場合はステップS21を否定判定してステップS23へ進む。ステップS22において、メインCPU11はスポーツ設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「スポーツ」に適した値に設定する。
ステップS23において、メインCPU11は「花接写」か否かを判定する。メインCPU11は、ステップS14にて「花接写」と判定した場合はステップS23を肯定判定してステップS24へ進む。メインCPU11は、ステップS14にて「花接写」と判定していない場合はステップS23を否定判定してステップS25へ進む。ステップS24において、メインCPU11は花接写設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「花接写」に適した値に設定する。
ステップS25において、メインCPU11は「山岳風景」か否かを判定する。メインCPU11は、ステップS14にて「山岳風景」と判定した場合はステップS25を肯定判定してステップS26へ進む。メインCPU11は、ステップS14にて「山岳風景」と判定していない場合はステップS25を否定判定してステップS27へ進む。ステップS25を否定判定する場合は、露光感度や、ホワイトバランス調整係数などは現設定内容を維持する。ステップS26において、メインCPU11は山岳風景設定してステップS27へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「山岳風景」に適した値に設定する。
ステップS27において、メインCPU11は撮影指示されたか否かを判定する。メインCPU11は、レリーズボタンが全押し操作された場合にステップS27を肯定判定してステップS28へ進む。メインCPU11は、レリーズボタンが全押し操作されない場合にはステップS27を否定判定し、ステップS11へ戻る。ステップS28において、メインCPU11は、本撮影処理を行って図7による処理を終了する。
以上説明した第一の実施形態によれば、以下の作用効果が得られる。
(1)画像を構成する画素データ、および撮影時の測距情報に基づく画像の特徴量によって表される特徴量空間から、主成分分析を用いて他の特徴量空間へ変換した。これにより、分散値が大きい特徴量であって、特徴量間の相関が低い特徴量で構成される新たな特徴量空間へ変換することができる。
(1)画像を構成する画素データ、および撮影時の測距情報に基づく画像の特徴量によって表される特徴量空間から、主成分分析を用いて他の特徴量空間へ変換した。これにより、分散値が大きい特徴量であって、特徴量間の相関が低い特徴量で構成される新たな特徴量空間へ変換することができる。
(2)上記(1)による変換後の新たな特徴量空間を、第1主成分と第2主成分による二次元空間としたので、元の7つの特徴量で構成される七次元空間に比べて、特徴量空間変換処理の負担を軽くすることができる。
(3)上記(1)による変換後の新たな特徴量空間で、クラスタリング処理を行って撮影シーン判定に用いるデータを生成するようにした。クラスタリング処理は分類対象であるデータの集合を複数の部分集合に分割するものであるが、画像を表す特徴量データの集合を複数の部分集合に分割することで、類似度が高い画像の特徴量データの集合(クラスタリング処理後のクラスター)が得られる。クラスター内の各特徴量データを平均することで、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の重心情報が得られる。
(4)また、クラスター内の各特徴量データ分布の分散共分散の逆行列を算出することで、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の広がり情報が得られる。
(5)上記特徴量空間変換に用いる固有ベクトル、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の重心情報、および広がり情報をそれぞれ電子カメラ1内に格納しておく。撮影指示前に取得されるスルー画像について、上記固有ベクトルを用いて特徴量空間変換を行い、変換後の新たな特徴量空間において撮影シーンの判定を行う。すなわち、スルー画像の特徴量に最も近い(その重心が至近距離に位置する)クラスターを、当該スルー画像に対応する撮影シーンであると判定する。これにより、撮影シーンの判定を高精度で行うことができる。
(6)判定した撮影シーンに応じたカメラ設定を自動的に行うようにしたので、撮影者の負担を軽減し、使い勝手のよいカメラを提供できる。
(7)画素データが示す濃度に基づく特徴量(たとえば、Bh、Std、B、Y)で表した特徴空間でクラスタリング処理を行うので、濃淡や色合いが類似する撮影シーンを判定できる。
(8)撮影画面を分割した複数の異なる領域から抽出された特徴量の比を特徴量とした(たとえば、Bh)ので、領域間のコントラストが類似する撮影シーンを判定できる。
(9)測距情報に基づく特徴量(たとえば、U、M、L)で表した空間でクラスタリング処理を行うので、被写体距離が類似する撮影シーンを判定できる。
(10)撮影画面を分割した複数の領域からそれぞれ測距情報に基づく特徴量を抽出した(たとえば、U、M、L)ので、撮影画面の一部の測距情報を特徴量に用いて撮影シーンを判定できる。
(変形例1)
マハラノビス距離を用いて至近の分布を選んでもよい。この場合のメインCPU11は、図6においてスルー画像データをxとすれば、|x-m1|/σ1および|x-m2|/σ2のうち小さい方の分布(「ポートレート」)を選び、撮影シーンが「ポートレート」であると判定する。ただし、σ1は「ポートレート」についての分散共分散であり、σ2は「風景」についての分散共分散である。
マハラノビス距離を用いて至近の分布を選んでもよい。この場合のメインCPU11は、図6においてスルー画像データをxとすれば、|x-m1|/σ1および|x-m2|/σ2のうち小さい方の分布(「ポートレート」)を選び、撮影シーンが「ポートレート」であると判定する。ただし、σ1は「ポートレート」についての分散共分散であり、σ2は「風景」についての分散共分散である。
(変形例2)
上記(1)による変換後の新たな特徴量空間の特徴量の数は、上述した第1主成分と第2主成分に限らず、第1主成分~第3主成分よる三次元空間としても、第1主成分~第4主成分よる三次元空間としても構わない。
上記(1)による変換後の新たな特徴量空間の特徴量の数は、上述した第1主成分と第2主成分に限らず、第1主成分~第3主成分よる三次元空間としても、第1主成分~第4主成分よる三次元空間としても構わない。
(変形例3)
撮影シーンを判定した電子カメラ1が行うカメラ設定に、本撮影時のシャッター速度や絞り値の設定、自動露出演算方式の設定、測光方式の設定などを含めてよいのはいうまでもない。
撮影シーンを判定した電子カメラ1が行うカメラ設定に、本撮影時のシャッター速度や絞り値の設定、自動露出演算方式の設定、測光方式の設定などを含めてよいのはいうまでもない。
(変形例4)
上述した説明では、本撮影用の画像データを取得する撮像素子22でスルー画像用の画像データを取得した。この代わりに、たとえば測色用の撮像素子を撮像素子22と別に備えている場合には、測光用の撮像素子による撮影指示前の取得画像を用いて撮影シーンを判定するようにしてもよい。測色用の撮像素子は、色温度情報を得るための撮像素子であって、その撮像面にR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられていることにより、RGB表色系の色情報が得られるものを用いる。
上述した説明では、本撮影用の画像データを取得する撮像素子22でスルー画像用の画像データを取得した。この代わりに、たとえば測色用の撮像素子を撮像素子22と別に備えている場合には、測光用の撮像素子による撮影指示前の取得画像を用いて撮影シーンを判定するようにしてもよい。測色用の撮像素子は、色温度情報を得るための撮像素子であって、その撮像面にR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられていることにより、RGB表色系の色情報が得られるものを用いる。
(第二の実施形態)
特徴量空間変換後の新たな特徴量空間において撮影シーンの判定を行う代わりに、特徴量空間変換をすることなく、スルー画像の特徴量によって表される特徴量空間で撮影シーンの判定を行うようにしてもよい。この場合には、メインCPU11内の不揮発性メモリ領域11aに格納する撮影シーン判定のためのデータの生成時、および、撮影シーンの判定時において、それぞれ特徴量空間変換処理をスキップする。
特徴量空間変換後の新たな特徴量空間において撮影シーンの判定を行う代わりに、特徴量空間変換をすることなく、スルー画像の特徴量によって表される特徴量空間で撮影シーンの判定を行うようにしてもよい。この場合には、メインCPU11内の不揮発性メモリ領域11aに格納する撮影シーン判定のためのデータの生成時、および、撮影シーンの判定時において、それぞれ特徴量空間変換処理をスキップする。
つまり、撮影シーン判定のためのデータの生成時は、複数のサンプル画像について、特徴量空間変換をしない特徴量空間でクラスタリング処理を行って撮影シーン判定に用いるデータを生成する。この場合にも、クラスター内の各特徴量データを平均することで、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の重心情報が得られる。
また、クラスター内の各特徴量データ分布の分散共分散の逆行列を算出することで、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の広がり情報が得られる。そして、各クラスター(各撮影シーン)に含まれる画像の特徴量分布の重心情報、および広がり情報を、それぞれ電子カメラ1内の不揮発性メモリ領域11aに格納しておく。
撮影シーン判定時は、撮影指示前に取得されるスルー画像から得た特徴量によって表される特徴量空間において撮影シーンの判定を行う。すなわち、スルー画像の特徴量に最も近い(その重心が至近距離に位置する)クラスターを、当該スルー画像に対応する撮影シーンであると判定する。これにより、撮影シーンの判定を高精度で行うことができる。
以上説明した第二の実施形態によれば、特徴量間の相関が低い場合には、特徴量空間変換をしなくても第一の実施形態と同様に撮影シーンの判定を高精度に行うことができる。
(第三の実施形態)
本発明の第三の実施形態による電子カメラ1の要部構成を説明するブロック図は、図1と共通である。第一の実施形態と同様に、電子カメラ1はメインCPU11によって制御される。なお、第一の実施形態で説明した不揮発性メモリ領域11aを有していなくてもよい。
本発明の第三の実施形態による電子カメラ1の要部構成を説明するブロック図は、図1と共通である。第一の実施形態と同様に、電子カメラ1はメインCPU11によって制御される。なお、第一の実施形態で説明した不揮発性メモリ領域11aを有していなくてもよい。
電子カメラ1は、スルー画像信号を用いて自動露出演算(AE)を行い、適正露出が得られるようにシャッター速度および絞り値を決定する。たとえば、平均測光方式によって被写体の明るさ(輝度)情報を検出する場合には、スルー画像を構成する画素からの信号値を平均して得た値を被写体の輝度情報とする。電子カメラ1は、この被写体輝度情報に基づいてシャッター速度および絞り値を決定する。
電子カメラ1は、次フレームのスルー画像データを取得する際、前フレームのスルー画像の信号値から算出した輝度情報に基づいて、撮像素子22の蓄積時間および絞り値を制御する。
本実施形態の電子カメラ1は、上記スルー画像を解析して撮影シーンを判定する機能を備える。撮影シーンを判定した電子カメラ1は、判定したシーンの撮影に適したカメラ設定を自動的に行う。カメラ設定は、露光感度やホワイトバランス調整係数などの設定、フラッシュ装置への発光許可/禁止設定などを含む。露光感度(ISO感度)は、撮像回路23に増幅ゲインとしてセットさせる。 ホワイトバランス調整係数は、画像処理回路12にセットされる。
本実施形態の電子カメラ1が判定する撮影シーンは、たとえば、「山岳風景」、「ポートレート」、および「スポーツ」の3通りである。
《撮影シーン判定処理》
図8は、電子カメラ1のメインCPU11が行う撮影シーン判定処理の流れを説明するフローチャートである。図8による処理を行うプログラムは、電子カメラ1が撮影モードにセットされた場合に起動される。図8のステップS11において、メインCPU11は、撮像素子22および撮像回路23を駆動制御してスルー画像の取得を開始させてステップS12へ進む。これにより、撮像回路23から入力されたスルー画像用の画像信号に画像処理回路12が画像処理を行い、画像処理後のスルー画像が表示画像作成回路15によって液晶モニタ16に表示される。
図8は、電子カメラ1のメインCPU11が行う撮影シーン判定処理の流れを説明するフローチャートである。図8による処理を行うプログラムは、電子カメラ1が撮影モードにセットされた場合に起動される。図8のステップS11において、メインCPU11は、撮像素子22および撮像回路23を駆動制御してスルー画像の取得を開始させてステップS12へ進む。これにより、撮像回路23から入力されたスルー画像用の画像信号に画像処理回路12が画像処理を行い、画像処理後のスルー画像が表示画像作成回路15によって液晶モニタ16に表示される。
ステップS12において、メインCPU11は、バッファメモリ14上に展開されているスルー画像データを用いて特徴量を算出し、ステップS13へ進む。特徴量算出の詳細については後述する。ステップS13において、メインCPU11は判定処理を行ってステップS14へ進む。判定処理は、特徴量に応じて撮影シーンの判定を行うものであり、その詳細については後述する。
ステップS14において、メインCPU11は「山岳風景」か否かを判定する。メインCPU11は、ステップS13にて「山岳風景」と判定した場合はステップS14を肯定判定してステップS15へ進む。メインCPU11は、ステップS13にて「山岳風景」と判定していない場合はステップS14を否定判定してステップS16へ進む。ステップS15において、メインCPU11は山岳風景の設定を行ってステップS20へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「山岳風景」シーンの撮影に適した値に設定する。
ステップS16において、メインCPU11は「ポートレート」か否かを判定する。メインCPU11は、ステップS13にて「ポートレート」と判定した場合はステップS16を肯定判定してステップS17へ進む。メインCPU11は、ステップS13にて「ポートレート」と判定していない場合はステップS16を否定判定してステップS18へ進む。ステップS17において、メインCPU11はポートレートの設定を行ってステップS20へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「ポートレート」の撮影に適した値に設定する。
ステップS18において、メインCPU11は「スポーツ」か否かを判定する。メインCPU11は、ステップS13にて「スポーツ」と判定した場合はステップS18を肯定判定してステップS19へ進む。メインCPU11は、ステップS13にて「スポーツ」と判定していない場合はステップS18を否定判定してステップS20へ進む。ステップS18を否定判定する場合は、露光感度や、ホワイトバランス調整係数などは現設定内容を維持する。ステップS19において、メインCPU11はスポーツの設定を行ってステップS20へ進む。具体的には、露光感度や、ホワイトバランス調整係数などを「スポーツ」シーンの撮影に適した値に設定する。
ステップS20において、メインCPU11は撮影指示されたか否かを判定する。メインCPU11は、レリーズボタンが全押し操作された場合にステップS20を肯定判定してステップS21へ進む。メインCPU11は、レリーズボタンが全押し操作されない場合にはステップS20を否定判定し、ステップS11へ戻る。ステップS21において、メインCPU11は、本撮影処理を行って図8による処理を終了する。
<特徴量算出>
メインCPU11は、スルー画像データを用いて8つの特徴量を算出する。図9に例示するフローチャートは、特徴量算出処理の流れを説明するフローチャートである。図9のステップS121では、特徴量Bhを算出する。
メインCPU11は、スルー画像データを用いて8つの特徴量を算出する。図9に例示するフローチャートは、特徴量算出処理の流れを説明するフローチャートである。図9のステップS121では、特徴量Bhを算出する。
特徴量1(=Bh)は、画像の上部(たとえば画像を垂直方向に略等分に3分割した場合の上部領域)に含まれるB(青)成分の画素データの濃度値(たとえば8ビット階調の場合に0~255)の平均値を、画像の下部(たとえば画像を垂直方向に略等分に3分割した場合の下部領域)に含まれるB(青)成分の画素データの濃度値の平均値で除算した値とする。
ステップS122では、特徴量Stdを算出する。特徴量2(=Std)は、画像全体に含まれる画素データの濃度値のばらつきを示す標準偏差値とする。ステップS123では、特徴量Bを算出する。特徴量3(=B)は、画像全体に含まれるB(青)成分の画素データの濃度値の平均値とする。
ステップS124では、特徴量Yを算出する。特徴量4(=Y)は、次式(8)で算出される輝度情報の平均値とする。つまり、画像を構成する全画素データの中でY成分の濃度値の平均を算出する。
Y=0.299×R+0.587×G+0.114×B …(8)
Y=0.299×R+0.587×G+0.114×B …(8)
ステップS125では、特徴量Dを算出する。特徴量Dは被写体距離情報とする。具体的には、焦点検出装置18によって取得されている情報を使用する。これにより、スルー画像における被写体の距離情報が得られる。
ステップS128では、特徴量Aを算出する。特徴量8(=A)は、時系列に並ぶ複数のスルー画像のフレーム間から次式(9)で算出される2階差分とする。つまり、離散画像の加速度量(変化量)を算出する。
d2F/dt2=|Fi-1-2×Fi+Fi+1| (9)
ただし、tは離散時間であり、Fはスルー画像であり、iはフレーム番号を表す。通常、直近の3フレーム分のスルー画像データを用いて演算する。
d2F/dt2=|Fi-1-2×Fi+Fi+1| (9)
ただし、tは離散時間であり、Fはスルー画像であり、iはフレーム番号を表す。通常、直近の3フレーム分のスルー画像データを用いて演算する。
上式(9)によれば、スポーツシーンのように動きが激しい被写体を含む場合は大きな加速度量が算出され、静止している被写体を含む場合は小さな加速度量が算出される。以上説明した特徴量算出処理により、1フレームのスルー画像データから7種の特徴量が算出され、複数フレームのスルー画像データから1つの特徴量が算出される。
<撮影シーン判定>
メインCPU11は、算出した特徴量を用いて撮影シーンを判定する。図10に例示するフローチャートは、撮影シーン判定処理の流れを説明するフローチャートである。図10のステップS131において、メインCPU11は、特徴量Bhが第1所定値以上かつ特徴量Dが無限大か否かを判定する。メインCPU11は、特徴量Bhが、たとえば0.4以上かつ特徴量Dが無限大の場合にステップS131を肯定判定してステップS132へ進む。メインCPU11は、特徴量Bhが0.4以上でない、もしくは特徴量Dが無限大でなければステップS131を否定判定してステップS134へ進む。図11は、特徴量Bh=0.67の画像を例示する図である。なお、0.67は正規化後の値である。画像の上部に含まれるB(青)成分の画素データの濃度値が高い場合は、山岳風景である確率が高い。図10のステップS132において、メインCPU11は撮影シーンが「山岳風景」であると判定し、図10による処理を終了する。
メインCPU11は、算出した特徴量を用いて撮影シーンを判定する。図10に例示するフローチャートは、撮影シーン判定処理の流れを説明するフローチャートである。図10のステップS131において、メインCPU11は、特徴量Bhが第1所定値以上かつ特徴量Dが無限大か否かを判定する。メインCPU11は、特徴量Bhが、たとえば0.4以上かつ特徴量Dが無限大の場合にステップS131を肯定判定してステップS132へ進む。メインCPU11は、特徴量Bhが0.4以上でない、もしくは特徴量Dが無限大でなければステップS131を否定判定してステップS134へ進む。図11は、特徴量Bh=0.67の画像を例示する図である。なお、0.67は正規化後の値である。画像の上部に含まれるB(青)成分の画素データの濃度値が高い場合は、山岳風景である確率が高い。図10のステップS132において、メインCPU11は撮影シーンが「山岳風景」であると判定し、図10による処理を終了する。
ステップS134において、メインCPU11は、特徴量Dが1.5m~5mの範囲に含まれるか否かを判定する。メインCPU11は、特徴量Dが1.5m~5mの場合にステップS134を肯定判定してステップS135へ進む。メインCPU11は、特徴量Dが1.5m~5mでなければステップS134を否定判定してステップS137へ進む。ステップS135において、メインCPU11は、撮影シーンが「ポートレート」であると判定し、図10による処理を終了する。
ステップS137において、メインCPU11は、特徴量Aが第3所定値以上か否かを判定する。メインCPU11は、たとえば、上式(9)による2階差分演算の結果として得られる画像について、当該画像を構成する全画素データの中で濃度値が所定値を超える画素データの割合が0.3以上の場合にステップS137を肯定判定してステップS138へ進む。メインCPU11は、上記画素データの割合が0.3未満であればステップS137を否定判定してステップS139へ進む。
図12は、上式(9)による演算結果を例示する図である。図12(a)はフレーム(i-1)のスルー画像、図12(b)はフレーム(i)のスルー画像、図12(c)はフレーム(i+1)のスルー画像である。図12(d)は、2階差分画像である。図12(d)によれば、フレーム間で変化がない(被写体が動かない(流れない))領域の画素濃度が低下することがわかる。被写体に動きがある場合はスポーツ写真である確率が高い。図10のステップS138において、メインCPU11は、撮影シーンが「スポーツ」であると判定し、図10による処理を終了する。
図13は、上式(9)による他の演算結果を例示する図である。図13(a)はフレーム(i-1)のスルー画像、図13(b)はフレーム(i)のスルー画像、図13(c)はフレーム(i+1)のスルー画像である。図13(d)は、2階差分画像である。図13(d)によれば、画像の全域においてフレーム間で変化がない場合は、画像全域で画素濃度が低下することがわかる。
図10のステップS139において、メインCPU11は、フレーム間で特徴量Dが異なっているか否かを判定する。メインCPU11は、たとえば、直近の2フレームのスルー画像データから得られる特徴量Dがフレーム間で異なる場合にステップS139を肯定判定してステップS138へ進む。フレーム間で被写体距離が異なる場合はスポーツ写真である確率が高い。メインCPU11は、直近の2フレームのスルー画像データから得られる特徴量Dがフレーム間で共通する場合には、ステップS139を否定判定して図10の処理を終了する。
以上説明した第三の実施形態によれば、以下の作用効果が得られる。
(1)画像を構成する画素データ、撮影時の測距情報、フレーム間の画素データの変化量に基づく画像の特徴量を用いて撮影シーンの判定を行うようにした。これにより、撮影シーンの判定を精度よく行うことができる。
(1)画像を構成する画素データ、撮影時の測距情報、フレーム間の画素データの変化量に基づく画像の特徴量を用いて撮影シーンの判定を行うようにした。これにより、撮影シーンの判定を精度よく行うことができる。
(2)判定した撮影シーンに応じたカメラ設定を自動的に行うようにしたので、撮影者の負担を軽減し、使い勝手のよいカメラを提供できる。
(3)画素データが示す濃度に基づく特徴量(たとえば、Bh、Std、B、Y)を得るので、濃淡や色合いが類似する撮影シーンの判定に好適である。
(4)撮影画面を分割した複数の領域からそれぞれの濃度による特徴量を算出したので、所定領域での色合いや濃淡が類似する撮影シーンの判定に好適である。
(5)撮影画面を分割した複数の異なる領域についての特徴量を算出し、さらに領域間の特徴量の比を特徴量とした(たとえば、Bh)ので、領域間のコントラストが類似する撮影シーンの判定に好適である。
(6)測距情報に基づく特徴量Dを得るので、被写体距離が類似する撮影シーンの判定に好適である。
(7)フレーム間の濃度の変化量に基づく特徴量(たとえば、A)を得るので、動きがある撮影シーンの判定に好適である。
(8)フレーム間の測距情報の変化量を撮影シーンの判定に用いたので、動きがある撮影シーンの判定に好適である。
(変形例5)
図10に例示した判定処理は一例であるので、各ステップの処理の順序を適宜入れ替えてもよい。たとえば、ステップS131、S133、S134、S137およびS139は、いずれの処理を先に行ってもよく、いずれの処理を後から行ってもよい。また、各ステップの処理の順序の入れ替えは、被写体の明るさに応じて行ってもよいし、不図示のフラッシュ装置の発光が許可されているか否かに応じて行うようにしてもよい。
図10に例示した判定処理は一例であるので、各ステップの処理の順序を適宜入れ替えてもよい。たとえば、ステップS131、S133、S134、S137およびS139は、いずれの処理を先に行ってもよく、いずれの処理を後から行ってもよい。また、各ステップの処理の順序の入れ替えは、被写体の明るさに応じて行ってもよいし、不図示のフラッシュ装置の発光が許可されているか否かに応じて行うようにしてもよい。
(変形例6)
特徴量Bhが第1所定値以上(ステップS131を肯定判定)の場合に山岳風景判定を行うようにしたが、他の判定条件を満足する場合に山岳風景判定を行うようにしてもよい。具体的には、特徴量Bhが第1所定値以上であって、かつフレーム間の特徴量Dの変化量が所定の判定閾値以上である場合に山岳風景判定を行う。
特徴量Bhが第1所定値以上(ステップS131を肯定判定)の場合に山岳風景判定を行うようにしたが、他の判定条件を満足する場合に山岳風景判定を行うようにしてもよい。具体的には、特徴量Bhが第1所定値以上であって、かつフレーム間の特徴量Dの変化量が所定の判定閾値以上である場合に山岳風景判定を行う。
(変形例7)
特徴量Aが第3所定値以上(ステップS137を肯定判定)の場合にスポーツ判定を行うようにしたが、他の判定条件を満足する場合にスポーツ判定を行うようにしてもよい。具体的には、特徴量Aが第3所定値以上であって、かつフレーム間の特徴量Dの変化量が所定の判定閾値以上である場合にスポーツ判定を行う。
特徴量Aが第3所定値以上(ステップS137を肯定判定)の場合にスポーツ判定を行うようにしたが、他の判定条件を満足する場合にスポーツ判定を行うようにしてもよい。具体的には、特徴量Aが第3所定値以上であって、かつフレーム間の特徴量Dの変化量が所定の判定閾値以上である場合にスポーツ判定を行う。
(変形例8)
特徴量Aを算出する際、画像の全域の画素データについて上式(9)による2階差分(すなわち変化量)を算出するようにした。この代わりに、主要被写体(たとえば至近被写体)を含む領域(画像の一部)のみに含まれる画素データについて上式(9)による2階差分を算出してもよい。あるいは、主要被写体と異なる背景領域のみに含まれる画素データについて上式(9)による2階差分を算出してもよい。
特徴量Aを算出する際、画像の全域の画素データについて上式(9)による2階差分(すなわち変化量)を算出するようにした。この代わりに、主要被写体(たとえば至近被写体)を含む領域(画像の一部)のみに含まれる画素データについて上式(9)による2階差分を算出してもよい。あるいは、主要被写体と異なる背景領域のみに含まれる画素データについて上式(9)による2階差分を算出してもよい。
(変形例9)
撮影画面を分割した複数の領域からそれぞれの測距情報に基づく特徴量(たとえば、画面上部の測距情報に基づく特徴量U、画面中部の測距情報に基づく特徴量M、画面下部の測距情報に基づく特徴量L)を得るようにしてもよい。この場合には、所定領域での測距情報が類似する撮影シーンの判定に好適である。
撮影画面を分割した複数の領域からそれぞれの測距情報に基づく特徴量(たとえば、画面上部の測距情報に基づく特徴量U、画面中部の測距情報に基づく特徴量M、画面下部の測距情報に基づく特徴量L)を得るようにしてもよい。この場合には、所定領域での測距情報が類似する撮影シーンの判定に好適である。
(変形例10)
上述した判定処理で用いた特徴量Bh、D,Aの他に、特徴量Std,B,Yを判定処理に加えてもよい。これにより、画素データが示す濃度、画像の領域間の濃度の比、画像の測距情報、画像の領域間の測距情報の差、フレーム間の画素データの差、フレーム間の測距情報の差に基づいた撮影シーンの判定を行うことができる。
上述した判定処理で用いた特徴量Bh、D,Aの他に、特徴量Std,B,Yを判定処理に加えてもよい。これにより、画素データが示す濃度、画像の領域間の濃度の比、画像の測距情報、画像の領域間の測距情報の差、フレーム間の画素データの差、フレーム間の測距情報の差に基づいた撮影シーンの判定を行うことができる。
(変形例11)
撮影シーンを判定した電子カメラ1が行うカメラ設定に、本撮影時のシャッター速度や絞り値の設定、自動露出演算方式の設定、測光方式の設定などを含めてよいのはいうまでもない。
撮影シーンを判定した電子カメラ1が行うカメラ設定に、本撮影時のシャッター速度や絞り値の設定、自動露出演算方式の設定、測光方式の設定などを含めてよいのはいうまでもない。
(変形例12)
上述した説明では、本撮影用の画像データを取得する撮像素子22でスルー画像用の画像データを取得した。この代わりに、たとえば測色用の撮像素子を撮像素子22と別に備えている場合には、測光用の撮像素子による撮影指示前の取得画像を用いて撮影シーンを判定するようにしてもよい。測色用の撮像素子は、色温度情報を得るための撮像素子であって、その撮像面にR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられていることにより、RGB表色系の色情報が得られるものを用いる。
上述した説明では、本撮影用の画像データを取得する撮像素子22でスルー画像用の画像データを取得した。この代わりに、たとえば測色用の撮像素子を撮像素子22と別に備えている場合には、測光用の撮像素子による撮影指示前の取得画像を用いて撮影シーンを判定するようにしてもよい。測色用の撮像素子は、色温度情報を得るための撮像素子であって、その撮像面にR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられていることにより、RGB表色系の色情報が得られるものを用いる。
以上の説明では種々の実施形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も、本発明の範囲内に含まれる。また、上述した実施形態および変形例は、これらを適宜組み合わせた構成としてもよい。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2008年第7768号(2008年1月17日出願)
日本国特許出願2008年第7769号(2008年1月17日出願)
日本国特許出願2008年第7768号(2008年1月17日出願)
日本国特許出願2008年第7769号(2008年1月17日出願)
Claims (21)
- 撮像素子と、
測距手段と、
前記撮像素子が取得した画像の画素濃度、および前記測距手段が取得した測距情報の少なくとも一方に基づいて特徴量を算出する演算手段と、
前記演算手段で算出された特徴量に基づいて撮影シーンを決定する決定手段と、
前記決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える電子カメラ。 - 撮像素子と、
測距手段と、
前記撮像素子が取得した画像の画素濃度、および前記測距手段が取得した測距情報に基づいて特徴量を算出する第1演算手段と、
前記特徴量を表す空間においてあらかじめ分類されている複数の特徴量群の中から、前記第1演算手段で算出された特徴量に最も近い特徴量群を選択する第2演算手段と、
前記第2演算手段で選択された特徴量群に対応する撮影シーンを決定する第3演算手段と、
前記決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える電子カメラ。 - 請求項2に記載の発明による電子カメラにおいて、
前記分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段をさらに備え、
前記第2演算手段は、前記空間内において前記第1演算手段で算出された特徴量と最も近い前記平均値情報に対応する特徴量群を選択する電子カメラ。 - 請求項3に記載の発明による電子カメラにおいて、
複数のサンプル画像の画素濃度、および前記複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された前記複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が前記格納手段に格納されている電子カメラ。 - 請求項2に記載の発明による電子カメラにおいて、
前記分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段をさらに備え、
前記第2演算手段は、前記空間内において前記第1演算手段で算出された特徴量と最も近い前記分散共分散情報に対応する特徴量群を選択する電子カメラ。 - 請求項5に記載の発明による電子カメラにおいて、
複数のサンプル画像の画素濃度、および前記複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された前記複数のサンプル画像についての特徴量が該特徴量を表す空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が前記格納手段に格納されている電子カメラ。 - 請求項2に記載の電子カメラにおいて、
前記第1演算手段は、前記撮像素子が取得した画像の画素濃度、および前記測距手段が取得した測距情報に基づいて複数のN個の特徴量を算出し、
前記N個の特徴量を表す空間から、前記N個より少ない他の特徴量を表す空間へ特徴量空間変換を行う第4演算手段をさらに備え、
前記第2演算手段は、前記特徴量空間変換後の空間においてあらかじめ分類されている複数の特徴量群の中から、前記第4演算手段で変換された特徴量に最も近い特徴量群を選択する電子カメラ。 - 請求項7に記載の発明による電子カメラにおいて、
前記分類されている特徴量群ごとに特徴量の平均値情報を格納する格納手段をさらに備え、
前記第2演算手段は、前記特徴量空間変換後の空間内において前記第4演算手段で算出された特徴量と最も近い前記平均値情報に対応する特徴量群を選択する電子カメラ。 - 請求項8に記載の発明による電子カメラにおいて、
複数のサンプル画像の画素濃度、および前記複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された前記複数のサンプル画像についての特徴量が該特徴量を表す前記特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の平均値情報が前記格納手段に格納されている電子カメラ。 - 請求項7に記載の発明による電子カメラにおいて、
前記分類されている特徴量群ごとに特徴量の分散共分散情報を格納する格納手段をさらに備え、
前記第2演算手段は、前記特徴量空間変換後の空間内において前記第4演算手段で算出された特徴量と最も近い前記分散共分散情報に対応する特徴量群を選択する電子カメラ。 - 請求項10に記載の発明による電子カメラにおいて、
複数のサンプル画像の画素濃度、および前記複数のサンプル画像の撮影時に取得された測距情報に基づいて算出された前記複数のサンプル画像についての特徴量が該特徴量を表す前記特徴量空間変換後の空間においてあらかじめ分類され、当該分類後の特徴量群の分散共分散情報が前記格納手段に格納されている電子カメラ。 - 請求項2~11のいずれか一項に記載の発明による電子カメラにおいて、
前記第1演算手段は、前記撮像素子が撮影指示前に取得した画像の画素濃度、および前記測距手段が前記撮影指示前に取得した測距情報に基づいて特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像全体の画素濃度に基づいて特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像全体の画素濃度の変化量に基づいて特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像の所定領域の画素濃度の変化量に基づいて特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、被写体の測距情報に基づく特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像全体の測距情報の変化量に基づいて特徴量を算出する電子カメラ。 - 請求項1に記載の発明による電子カメラにおいて、
前記演算手段は、画像の所定領域の測距情報の変化量に基づいて特徴量を算出する電子カメラ。 - 撮像素子と、
測距手段と、
前記撮像素子が取得した 画像の画素濃度、主要被写体についての画素濃度の変化量、前記測距手段が取得した主要被写体についての測距情報、背景についての測距情報、前記主要被写体についての測距情報の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する演算手段と、
前記演算手段で算出された特徴量に応じて撮影シーンを決定する決定手段と、
前記決定された撮影シーンに応じたカメラ設定を行う制御手段とを備える電子カメラ。 - 請求項1、13~20のいずれか一項に記載の発明による電子カメラにおいて、
前記演算手段は、前記撮像素子が撮影指示前に取得した画像の画素濃度、および前記測距手段が前記撮影指示前に取得した測距情報に基づいて特徴量を算出する電子カメラ。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/811,734 US8525888B2 (en) | 2008-01-17 | 2009-01-15 | Electronic camera with image sensor and rangefinding unit |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008007768A JP5181687B2 (ja) | 2008-01-17 | 2008-01-17 | 電子カメラ |
| JP2008007769A JP2009171283A (ja) | 2008-01-17 | 2008-01-17 | 電子カメラ |
| JP2008-007768 | 2008-01-17 | ||
| JP2008-007769 | 2008-01-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2009090992A1 true WO2009090992A1 (ja) | 2009-07-23 |
Family
ID=40885378
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2009/050455 Ceased WO2009090992A1 (ja) | 2008-01-17 | 2009-01-15 | 電子カメラ |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US8525888B2 (ja) |
| WO (1) | WO2009090992A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102469265A (zh) * | 2010-11-18 | 2012-05-23 | 卡西欧计算机株式会社 | 摄像装置及摄像方法 |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5851206B2 (ja) * | 2011-11-04 | 2016-02-03 | オリンパス株式会社 | 追尾装置及び追尾方法 |
| FR2997213B1 (fr) * | 2012-10-18 | 2015-11-06 | Morpho | Procede et terminal de capture biometrique |
| KR101930460B1 (ko) * | 2012-11-19 | 2018-12-17 | 삼성전자주식회사 | 촬영 장치 및 제어 방법 |
| US9350916B2 (en) | 2013-05-28 | 2016-05-24 | Apple Inc. | Interleaving image processing and image capture operations |
| US9262684B2 (en) | 2013-06-06 | 2016-02-16 | Apple Inc. | Methods of image fusion for image stabilization |
| US9491360B2 (en) | 2013-06-06 | 2016-11-08 | Apple Inc. | Reference frame selection for still image stabilization |
| US9384552B2 (en) | 2013-06-06 | 2016-07-05 | Apple Inc. | Image registration methods for still image stabilization |
| US20150071547A1 (en) * | 2013-09-09 | 2015-03-12 | Apple Inc. | Automated Selection Of Keeper Images From A Burst Photo Captured Set |
| US9189707B2 (en) | 2014-02-24 | 2015-11-17 | Invent.ly LLC | Classifying and annotating images based on user context |
| CN106161920A (zh) * | 2015-04-22 | 2016-11-23 | 北京智谷睿拓技术服务有限公司 | 图像采集控制方法和装置 |
| JP7072667B2 (ja) | 2018-03-26 | 2022-05-20 | 華為技術有限公司 | インテリジェント支援制御方法および端末デバイス |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003189211A (ja) * | 2001-12-20 | 2003-07-04 | Minolta Co Ltd | 画像出力システムおよび画像処理装置 |
| JP2003348339A (ja) * | 2002-05-29 | 2003-12-05 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びにプログラム |
| JP2004157456A (ja) * | 2002-11-08 | 2004-06-03 | Olympus Corp | カメラ及びカメラの測距方法 |
| JP2006086758A (ja) * | 2004-09-15 | 2006-03-30 | Nikon Corp | 電子カメラ |
| JP2007088644A (ja) * | 2005-09-20 | 2007-04-05 | Canon Inc | 撮像装置及びその制御方法、コンピュータプログラム、記憶媒体 |
| JP2007306461A (ja) * | 2006-05-15 | 2007-11-22 | Sony Ericsson Mobilecommunications Japan Inc | カメラ付き携帯端末及びその撮影モード特定方法 |
| JP2007311895A (ja) * | 2006-05-16 | 2007-11-29 | Konica Minolta Photo Imaging Inc | 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム |
Family Cites Families (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0409161B1 (en) | 1989-07-18 | 2000-10-11 | Fuji Photo Film Co., Ltd. | Method and apparatus for controlling exposure changes of a video camera |
| JPH03223976A (ja) * | 1990-01-29 | 1991-10-02 | Ezel Inc | 画像照合装置 |
| JPH05183801A (ja) | 1992-01-07 | 1993-07-23 | Sharp Corp | 自動露光制御回路 |
| JPH06259522A (ja) | 1993-03-08 | 1994-09-16 | Matsushita Electric Ind Co Ltd | 手書き画像表示装置 |
| JP3190220B2 (ja) * | 1994-12-20 | 2001-07-23 | シャープ株式会社 | 撮像装置 |
| US5915133A (en) * | 1996-04-11 | 1999-06-22 | Asahi Kogaku Kogyo Kabushiki Kaisha | Camera with a photographic mode automatic selecting apparatus |
| JPH11134344A (ja) | 1997-10-27 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像分類蓄積方法および装置並びに画像検索方法および装置 |
| JP4132229B2 (ja) | 1998-06-03 | 2008-08-13 | 株式会社ルネサステクノロジ | 欠陥分類方法 |
| US6301440B1 (en) * | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
| JP3473552B2 (ja) | 2000-06-15 | 2003-12-08 | ミノルタ株式会社 | デジタルスチルカメラ |
| US7170633B2 (en) * | 2001-01-23 | 2007-01-30 | Minolta Co., Ltd. | Imaging apparatus |
| JP4218229B2 (ja) | 2001-06-27 | 2009-02-04 | カシオ計算機株式会社 | 撮像装置及び露出制御方法 |
| JP3468231B2 (ja) | 2001-07-02 | 2003-11-17 | ミノルタ株式会社 | 画像処理装置、画質制御方法、プログラム及び記録媒体 |
| JP3541820B2 (ja) * | 2001-07-04 | 2004-07-14 | ミノルタ株式会社 | 撮像装置及び撮像方法 |
| JP4789365B2 (ja) | 2001-08-02 | 2011-10-12 | キヤノン株式会社 | 撮像装置およびその露出制御方法 |
| US7872670B2 (en) * | 2002-04-22 | 2011-01-18 | Sanyo Electric Co., Ltd. | Camera performing photographing in accordance with photographing mode depending on object scene |
| US6895181B2 (en) * | 2002-08-27 | 2005-05-17 | Olympus Corporation | Camera and distance measuring method thereof |
| JP2004096506A (ja) * | 2002-08-30 | 2004-03-25 | Konica Minolta Holdings Inc | 画像形成方法、画像処理装置及び画像記録装置 |
| JP3925476B2 (ja) * | 2003-08-08 | 2007-06-06 | セイコーエプソン株式会社 | 撮影場面の判定および撮影場面に応じた画像処理 |
| JP4606828B2 (ja) | 2003-09-25 | 2011-01-05 | 富士フイルム株式会社 | 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 |
| JP2005235041A (ja) | 2004-02-23 | 2005-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 検索画像表示方法および検索画像表示プログラム |
| TWI300159B (en) * | 2004-12-24 | 2008-08-21 | Sony Taiwan Ltd | Camera system |
| JP2006203566A (ja) | 2005-01-20 | 2006-08-03 | Konica Minolta Photo Imaging Inc | 撮像装置、画像処理装置及び画像処理方法 |
| JP4635663B2 (ja) | 2005-03-15 | 2011-02-23 | オムロン株式会社 | 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム |
| EP1748378B1 (en) * | 2005-07-26 | 2009-09-16 | Canon Kabushiki Kaisha | Image capturing apparatus and image capturing method |
| JP2007121654A (ja) * | 2005-10-27 | 2007-05-17 | Eastman Kodak Co | 撮像装置 |
| JP2007184733A (ja) * | 2006-01-05 | 2007-07-19 | Fujifilm Corp | 撮像装置及び撮影モード表示方法 |
| JP4679399B2 (ja) | 2006-03-16 | 2011-04-27 | オリンパスイメージング株式会社 | カメラ |
| JP4882462B2 (ja) * | 2006-04-06 | 2012-02-22 | 株式会社ニコン | 撮像装置 |
| JP2007329619A (ja) | 2006-06-07 | 2007-12-20 | Olympus Corp | 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。 |
| JP2008042616A (ja) * | 2006-08-08 | 2008-02-21 | Eastman Kodak Co | 撮像装置 |
| TWI399081B (zh) * | 2006-10-16 | 2013-06-11 | Casio Computer Co Ltd | 攝像裝置、連續攝影方法、以及記憶有程式之記憶媒體 |
| CN101772952B (zh) * | 2007-07-23 | 2013-04-24 | 松下电器产业株式会社 | 摄像装置 |
| JP5148989B2 (ja) * | 2007-12-27 | 2013-02-20 | イーストマン コダック カンパニー | 撮像装置 |
| TW200930063A (en) * | 2007-12-26 | 2009-07-01 | Altek Corp | Auto-selection method of scene modes |
| JP2009177272A (ja) * | 2008-01-22 | 2009-08-06 | Sony Corp | 撮像装置、その制御方法およびプログラム |
| EP2148499B1 (en) * | 2008-07-25 | 2018-01-17 | FUJIFILM Corporation | Imaging apparatus and method |
| JP2010035048A (ja) * | 2008-07-30 | 2010-02-12 | Fujifilm Corp | 撮像装置及び撮像方法 |
| JP5263767B2 (ja) * | 2008-09-26 | 2013-08-14 | 株式会社ザクティ | 撮像装置及びモード適否判定方法 |
| KR101495079B1 (ko) * | 2008-11-18 | 2015-02-24 | 삼성전자주식회사 | 장면 정보 표시 방법 및 장치, 및 이를 이용한 디지털 촬영장치 |
| KR101594295B1 (ko) * | 2009-07-07 | 2016-02-16 | 삼성전자주식회사 | 촬영 장치 및 촬영 방법 |
-
2009
- 2009-01-15 WO PCT/JP2009/050455 patent/WO2009090992A1/ja not_active Ceased
- 2009-01-15 US US12/811,734 patent/US8525888B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003189211A (ja) * | 2001-12-20 | 2003-07-04 | Minolta Co Ltd | 画像出力システムおよび画像処理装置 |
| JP2003348339A (ja) * | 2002-05-29 | 2003-12-05 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びにプログラム |
| JP2004157456A (ja) * | 2002-11-08 | 2004-06-03 | Olympus Corp | カメラ及びカメラの測距方法 |
| JP2006086758A (ja) * | 2004-09-15 | 2006-03-30 | Nikon Corp | 電子カメラ |
| JP2007088644A (ja) * | 2005-09-20 | 2007-04-05 | Canon Inc | 撮像装置及びその制御方法、コンピュータプログラム、記憶媒体 |
| JP2007306461A (ja) * | 2006-05-15 | 2007-11-22 | Sony Ericsson Mobilecommunications Japan Inc | カメラ付き携帯端末及びその撮影モード特定方法 |
| JP2007311895A (ja) * | 2006-05-16 | 2007-11-29 | Konica Minolta Photo Imaging Inc | 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102469265A (zh) * | 2010-11-18 | 2012-05-23 | 卡西欧计算机株式会社 | 摄像装置及摄像方法 |
| CN102469265B (zh) * | 2010-11-18 | 2014-12-10 | 卡西欧计算机株式会社 | 摄像装置及摄像方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20100277609A1 (en) | 2010-11-04 |
| US8525888B2 (en) | 2013-09-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2009090992A1 (ja) | 電子カメラ | |
| US8106961B2 (en) | Image processing method, apparatus and computer program product, and imaging apparatus, method and computer program product | |
| JP5791336B2 (ja) | 画像処理装置及びその制御方法 | |
| JP5744437B2 (ja) | 追尾装置、追尾方法及びプログラム | |
| US6895181B2 (en) | Camera and distance measuring method thereof | |
| JP4217698B2 (ja) | 撮像装置及び画像処理方法 | |
| US7639940B2 (en) | Photography apparatus, photography method, and photography program using lighting condition parameters | |
| TWI416945B (zh) | 影像處理裝置、影像處理方法及電腦可讀取媒體 | |
| US20090002518A1 (en) | Image processing apparatus, method, and computer program product | |
| US7756408B2 (en) | Focus control amount determination apparatus, method, and imaging apparatus | |
| JP2008141740A (ja) | 撮影装置および方法並びにプログラム | |
| CN104702824A (zh) | 摄像装置及摄像装置的控制方法 | |
| JP5092565B2 (ja) | 撮像装置、画像処理装置およびプログラム | |
| US20090033762A1 (en) | Color photographing apparatus | |
| JPWO2008044524A1 (ja) | 画像分類プログラム、画像分類装置および電子カメラ | |
| JP2006108759A (ja) | 撮像装置 | |
| JP5181687B2 (ja) | 電子カメラ | |
| JP5044472B2 (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
| JP2007158941A (ja) | 被写体領域検出装置、撮像装置、被写体領域検出方法及びプログラム | |
| US20260025581A1 (en) | Image processing apparatus and method, image capturing apparatus, image capturing system, and storage medium for evaluating and analyzing focus state | |
| JP2007221678A (ja) | 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム | |
| JP2007311895A (ja) | 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム | |
| US20240340396A1 (en) | Derivation device, derivation method, and program | |
| JP4578157B2 (ja) | カメラ | |
| JP2007312294A (ja) | 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09701682 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 12811734 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 09701682 Country of ref document: EP Kind code of ref document: A1 |