WO2016071973A1 - Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method - Google Patents
Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method Download PDFInfo
- Publication number
- WO2016071973A1 WO2016071973A1 PCT/JP2014/079352 JP2014079352W WO2016071973A1 WO 2016071973 A1 WO2016071973 A1 WO 2016071973A1 JP 2014079352 W JP2014079352 W JP 2014079352W WO 2016071973 A1 WO2016071973 A1 WO 2016071973A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- information
- imaging
- image data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
Definitions
- the present invention relates to an imaging apparatus, an imaging apparatus control method, an imaging apparatus control program, and an image file generation method.
- Patent Document 1 As background art of this technical field, there are US Pat. No. 5,748,371 (Patent Document 1), US Patent Application Publication No. 2007/0258706 (Patent Document 2), and Japanese Patent No. 2963990 (Patent Document 3).
- Patent Document 1 A system for increasing the depth of field of an incoherent optical system and reducing lens aberrations that cause sensitivity to wavelength and defocus is a non-coherent optical mask. It is introduced to the system.
- Japanese Patent Application Laid-Open No. 2004-228561 describes that “shutter opening / closing at the time of exposure at the time of acquiring one image is encoded and blurring is corrected by an arithmetic process using the information on the shutter opening / closing”.
- the aperture mask 1 has two pinholes 6 and 7 as a coded aperture (pupil) shape structured so as to facilitate the analysis of the blur amount. , 8, and 9 to estimate the in-focus position, and the aperture mask 1 and the lens system 2 are telecentric in which the image magnification between the three images obtained by the CCDs 7, 8, and 9 is equal. It constitutes an optical system.
- computational photography The background art described above is called computational photography.
- Computational photography technology is premised on image processing after shooting by an imaging device such as a camera, and the image desired by the user is an intermediate image acquired by the optical system by light information and image processing determined from the optical system of the imaging device. Correct to.
- the computational photography technique generates an intermediate image by applying a predetermined optical modulation to the image in the optical system (in the case of a focal depth expansion technique, for example, “blur” with respect to an image in a predetermined range as the optical modulation).
- the intermediate image is subjected to image processing for demodulating (or restoring) the optical modulation to obtain a desired image.
- This intermediate image is intermediate representation data including optical information (usually lost) inside the camera (preferably having the maximum amount of optical information), such as image processing for correcting optical characteristics.
- optical information usually lost
- image processing for correcting optical characteristics.
- a method of computational photography constituting an optical system for acquiring the intermediate image is specified and used for image processing according to the method. Parameter to be calculated.
- an image processing device such as a personal computer (PC)
- the image processing device acquires an image from the imaging device and observes the intermediate image from the imaging device. Even if the information is acquired, it cannot be corrected to a desired image unless information necessary for image processing (for example, a method of computational photography) is obtained.
- the imaging apparatus has a function for appropriately performing image processing of intermediate images in the image processing apparatus.
- mounting such a function for each imaging device may complicate the functions that make up the imaging device or increase the workload for mounting. This is not preferable.
- the present invention has been made in view of such a problem, and an image captured by an imaging device in a technique for obtaining a predetermined image by image processing on an intermediate image given a predetermined optical modulation by an optical system. Therefore, it is possible to identify the image pickup method (optical modulation method) of the image pickup apparatus from the data and / or to appropriately perform image processing on the intermediate image.
- the present application includes a plurality of components that solve the above-described problems.
- an imaging optical system that includes an optical modulation element and acquires an intermediate image optically modulated by the optical modulation element
- an image information generation unit that generates an image file including the intermediate image and accompanying information of the intermediate image, the accompanying information identifying an imaging method of an imaging optical system including the optical modulation element
- image processing information related to image processing for demodulating the optically modulated intermediate image.
- the imaging method optical modulation method
- it is possible to identify the imaging method (optical modulation method) of the imaging device from the data of the image captured by the imaging device, and / or to appropriately perform image processing on the intermediate image. It can. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
- FIG. 1 is a block diagram illustrating a functional configuration of an image processing apparatus according to an embodiment of the present invention.
- 3 is a flowchart illustrating an example of the overall operation of the image processing apparatus according to the embodiment of the present invention.
- an imaging apparatus such as a digital video camera and a digital camera that captures a moving image or a still image.
- FIG. 1 is a diagram illustrating a functional configuration of the imaging apparatus 1 according to the present embodiment.
- the imaging apparatus 1 includes an imaging optical system 110, an optical system control unit 120, a controller 130, an SP (Serial / Parallel) conversion unit 101, a buffer memory 102, an optical characteristic correction processing unit 103, and an image processing unit.
- SP Serial / Parallel
- 104 a display unit 105, a display control unit 106, an operation unit 107, and an operation control unit 108.
- FIG. 2 is a diagram illustrating the configuration of the imaging optical system 110.
- the imaging optical system 110 illustrated in FIG. 2A includes a lens 111, a diaphragm 112, a phase plate 113, and an image sensor 114.
- the imaging optical system 110 illustrated in FIG. 2B includes a lens 111, a diaphragm 112, a microlens array 115, and an image sensor 114.
- subjected in Fig.2 (a) and (b) has the same function.
- the imaging optical system 110 of the imaging apparatus is configured according to a computational photography system (hereinafter referred to as “imaging system”) employed in the imaging apparatus 1.
- imaging system a computational photography system
- WFC Wave Front Coding
- the lens module surrounded by a broken line in FIG.
- the phase plate 113 is incorporated in the lens module as an interchangeable lens for WFC.
- the optical modulation may be applied by the diaphragm 112 or a combination of the diaphragm 112 and the phase plate 113.
- LFC Light Field Camera
- the imaging method it is surrounded by a broken line in FIG.
- a lens 111, an aperture 112, and a microlens array 115 for providing optical modulation are incorporated.
- the optical modulation may be applied by the diaphragm 112 or a combination of the diaphragm 112 and the phase plate 113.
- the image sensor 114 photoelectrically converts the light beam that has passed through the lens 111, the diaphragm 112, and the phase plate 113 to generate a digitized electrical signal for each pixel, and outputs it to the SP conversion unit 101.
- the image sensor 114 is, for example, a CCD (Charge Coupled Device) or a CMOS sensor (Complementary Metal Oxide Semiconductor Sensor).
- the SP conversion unit 101 converts the electrical signal for each pixel input from the image sensor 114 from a serial signal to a parallel signal, and stores it in the buffer memory 102 as intermediate image data (RAW data) acquired by the imaging optical system 110.
- RAW data intermediate image data
- the buffer memory 102 temporarily stores the intermediate image data input from the SP conversion unit 101 and outputs the intermediate image data to the optical characteristic correction processing unit 103 and the controller 130 as necessary.
- Intermediate image data is settable data generated by the imaging optical system 110 and capable of setting the depth of focus in the imaging range by image processing.
- the intermediate image data is, for example, a state in which the entire image is blurred, and is not necessarily an image that looks good for the user.
- the optical characteristic correction processing unit 103 corrects the intermediate image data stored in the buffer memory 102 to image data focused on a certain viewpoint, that is, image processing for demodulating the given optical modulation. Do. Hereinafter, such image processing is referred to as “optical characteristic correction processing”. Details of the optical characteristic correction processing unit 103 will be described later.
- the optical system control unit 120 includes a shutter control unit 121, a sensor position control unit 122, a lens driving unit 123, an aperture control unit 124, and a zoom control unit 125.
- the optical system control unit 120 controls each component of the imaging optical system 110 illustrated in FIG. 2 in accordance with an imaging operation using the operation unit 107 described later.
- the shutter control unit 121 controls the shutter function of the image sensor 114 according to the imaging operation
- the sensor position control unit 122 controls the position of the image sensor 114 according to the imaging operation.
- the lens driving unit 123 drives the lens 111 according to the imaging operation
- the aperture control unit 124 controls the aperture 112 according to the imaging operation
- the zoom control unit 125 controls the lens 111 according to the imaging operation. Control the zoom function.
- Each unit of the optical system control unit 120 controls each component of the imaging optical system 110 by a control parameter value for controlling each component of the imaging optical system 110.
- the sensor position control unit 122 controls the position of the image sensor 114 based on a control parameter value indicating the position information of the image sensor 114.
- the optical system control unit 120 outputs control parameter values used in the respective units of the optical system control unit 120 set in accordance with the imaging operation as described above to the controller 130 as imaging information.
- the controller 130 plays a role of controlling each unit such as the optical system control unit 120, the optical characteristic correction processing unit 103, the image processing unit 104, and the operation control unit 108, which will be described later, and gives commands to each unit. Further, the controller 130 specifies an imaging method based on information related to the configuration of the imaging optical system 110 (hereinafter referred to as “optical information”). Further, the controller 130 calculates a parameter value used when the intermediate image data is subjected to the optical characteristic correction processing based on the optical information and the imaging information input from the optical system control unit 120. Details of the imaging method specifying process and the parameter value calculating process by the controller 130 will be described later.
- the parameter value calculated by the controller 130 is, for example, a point spread function (PSF) representing the blurring or blurring of the image.
- PSF point spread function
- the parameter values calculated by the controller 130 are a group of parameter values for each viewpoint used for focusing at any viewpoint when performing optical characteristic correction processing on the intermediate image data, for example.
- the optical characteristic correction processing unit 103 performs optical characteristic correction processing on the intermediate image data using any one of the parameter values calculated by the controller 130 by an arithmetic method corresponding to the imaging method. Do. For example, when “WFC” is adopted as the imaging method, the optical characteristic correction processing unit 103 selects convolution calculation using a spatial filter as the calculation method, and uses the coefficient numerical data of the spatial filter that is a parameter value. To correct.
- the optical characteristic correction processing unit 103 selects the shift addition method as the calculation method, and corrects it using the parameter value. That is, the group of parameter values is a value for calculation used in the calculation by the calculation method.
- LFC calculation methods such as a shift addition method and a light beam projection method.
- the shift addition method having a lower calculation cost than the other methods is selected.
- which calculation method is used may be selected by a user operation.
- the image processing unit 104 performs image processing such as demosaicing, gamma correction, color processing, resolution conversion, compression processing, and the like on the image data corrected by the optical characteristic correction processing unit 103, JPEG (Joing Photographic Experts Group), etc. Are generated and output to the display control unit 106. That is, the optical characteristic correction processing unit 103 and the image processing unit 104 function as an image data generation unit that generates image data set to a predetermined depth of focus from the intermediate image data.
- the display unit 105 is an output interface that visually displays an image based on the state of the imaging apparatus 1 or a compressed image input from the image processing unit 104, such as a liquid crystal display panel.
- the display control unit 106 outputs an image signal based on the compressed image to the display unit in order to display an image on the display unit 105.
- the display control unit 106 decodes (decompresses) the compressed image input from the image processing unit 104 by an expansion method corresponding to the compression method (for example, JPEG), and outputs the decoded image to the display unit 105.
- the image processing unit 104 may not perform compression. In this case, the decoding process in the display control unit 106 is unnecessary. In this way, the compressed image generated through the processing by the optical characteristic correction processing unit 103 and the image processing unit 104 from the intermediate image data is displayed on the display unit 105, so that the user can determine whether a desired image has been generated. Can be confirmed.
- the operation unit 107 is an input interface for operating the imaging apparatus 1 such as a camera shutter button.
- the operation control unit 108 notifies the controller 130 of operation information performed via the operation unit 107. For example, when the user presses a shutter button of a camera that is the operation unit 107, control parameter values of the respective units of the optical system control unit 120 at that timing are set as imaging information.
- the display unit 105 is a display panel or the like and can accept an input operation from the user as a touch panel, the display unit 105 may also function as the operation unit 107.
- the optical characteristic correction processing unit 103 generates image data set to a certain depth of focus in the imaging range from the intermediate image data. Even if the image processing apparatus (for example, PC), which is a device different from the imaging apparatus 1, acquires the image data generated in this way from the imaging apparatus 1, the image processing apparatus (for example, a PC) corrects the image data to be focused from different viewpoints. I can't. This is because the acquired image data is already focused at a certain viewpoint in the imaging apparatus 1, and if an optical characteristic correction process is further performed, artifacts (false images) or the like are generated in the image.
- PC the image processing apparatus
- the image processing device even if only the intermediate image data is acquired from the imaging device 1, the image processing device generates an image focused at a desired viewpoint if information necessary for performing the optical characteristic correction processing cannot be obtained. I can't. Therefore, even if the intermediate image data is acquired in the imaging device 1 and a group of parameter values for focusing at any viewpoint is calculated, the image processing apparatus can generate an image focused at a desired viewpoint. The intermediate image data cannot be fully utilized.
- the controller 130 uses intermediate image data generated in the imaging apparatus 1 in an image processing apparatus such as a PC that is used by being connected to the imaging apparatus 1 and is a device different from the imaging apparatus 1. Process as you can. Such processing is one of the gist according to the present embodiment. Hereinafter, details of the processing of the controller 130 will be described.
- FIG. 3 is a block diagram illustrating a functional configuration related to processing for using the intermediate image data in the image processing apparatus among the functions of the controller 130.
- the controller 130 includes an intermediate image data acquisition unit 131, an imaging information acquisition unit 132, an optical information acquisition unit 133, a method information storage unit 134, a method identification unit 135, a parameter information storage unit 136, and a parameter value calculation.
- the intermediate image data acquisition unit 131 acquires the intermediate image data stored in the buffer memory 102 and outputs it to the image file generation unit 139.
- the imaging information acquisition unit 132 acquires imaging information from the optical system control unit 120 described above and outputs it to the parameter value calculation unit 137. That is, the imaging information acquisition unit 132 functions as a control information acquisition unit that acquires control information (imaging information) for the imaging optical system 110 when generating the intermediate image data.
- the optical information acquisition unit 133 acquires optical information and outputs it to the method specifying unit 135 and the parameter value calculation unit 137.
- the optical information includes, for example, component information indicating the type of optical component attached to the lens module according to the imaging method, feature information indicating the characteristics of the optical component, and setting information of the image sensor 114.
- the component information is “phase plate”
- the feature information indicates the cubic function coefficient (phase shape) of the phase plate
- the setting information of the image sensor 114 is The number of pixels and the pixel pitch are shown. It is assumed that the optical information is input in advance by the manufacturer of the imaging device 1 or the imaging optical system 110 or the user via the operation unit 107 and stored in an optical information storage unit (not shown).
- FIG. 4 is a diagram exemplifying method information stored in the method information storage unit 134.
- the method information stored in the method information storage unit 134 is a table in which component information is associated with the imaging method of the imaging optical system 110 having the optical component indicated by the component information. For example, as illustrated in FIG. 4, when the component information is “phase plate”, the imaging method of the imaging optical system 110 having the “phase plate” is WFC.
- the method specifying unit 135 refers to the method information stored in the method information storage unit 134 and specifies the imaging method employed in the imaging apparatus 1. Specifically, for example, when the component information included in the optical information input from the optical information acquisition unit 133 indicates “phase plate”, the method specifying unit 135 refers to the method information as illustrated in FIG. Thus, it is specified that the imaging method is “WFC”.
- the method specifying unit 135 that specified the imaging method outputs identification information (hereinafter referred to as “method identifier”) for identifying the imaging method to the image file generation unit 139.
- the method identifier whose imaging method is “WFC” is “WF”
- the method identifier whose imaging method is “LFC” is “LF”
- the method identifier whose imaging method is “Coded Expose” (encoded exposure) is “CE”
- the scheme identifier whose imaging scheme is “Coded Aperture” is “CD”.
- the format identifier may be in any format as long as the imaging scheme can be identified, such as defining a unique numerical value.
- the method specifying unit 135 outputs the method identifier to the image file generating unit 139 will be described as an example. However, this is merely an example, and if the image processing apparatus can identify or identify the imaging method, the method specifying unit 135 uses the specified name of the imaging method (for example, “WFC”) itself as the image file generation unit 139. May be output.
- WFC the specified name of the imaging method
- FIG. 5 is a diagram illustrating parameter information stored in the parameter information storage unit 136. As shown in FIG. 5, the parameter information stored in the parameter information storage unit 136 associates each imaging method with a list of control parameters necessary for calculating parameters used in the optical characteristic correction processing. Table.
- the necessary control parameters are, for example, “open F value”, “focal length”, “cubic function coefficient”, “number of pixels”, “pixels”. “Pitch”, “Sensor position” and “Kernel size”.
- “open F value” is a control parameter value of the aperture controller 124
- “focal length” and “sensor position” are control parameter values of the sensor position controller 122.
- “cubic function coefficient” is feature information included in the optical information
- “number of pixels” and “pixel pitch” are the number of pixels and the pixel pitch of the image sensor 114 being used.
- kernel size is a kernel size used in the correction processing by the optical characteristic correction processing unit 103.
- the value of “kernel size” is stored as setting information of the imaging apparatus 1 in a setting information storage unit (not shown), for example.
- the value of “kernel size” may be input as setting information by the manufacturer of the imaging apparatus 1 or the imaging optical system 110 or the user via the operation unit 107.
- the parameter value calculation unit 137 calculates a group of parameter values used in the optical characteristic correction process based on information input from each unit, and outputs the group to the image file generation unit 139. That is, the parameter value calculation unit 137 functions as a calculation value calculation unit that calculates a calculation value that is a group of parameter values. Specifically, first, the parameter value calculation unit 137 refers to the parameter information stored in the parameter information storage unit 136, and obtains a list of control parameters associated with the imaging method input from the method specifying unit 135. get.
- the parameter value calculation unit 137 acquires each control parameter value in the list of acquired control parameters. For example, the parameter value calculation unit 137 acquires the values of “open F value”, “focal length”, and “sensor position” from the imaging information input from the imaging information acquisition unit 132 and inputs from the optical information acquisition unit 133. The value of “cubic function coefficient”, which is characteristic information included in the optical information, and the “number of pixels” and “pixel pitch” included in the optical information are acquired. For example, the parameter value calculation unit 137 acquires the value of “kernel size” from a setting information storage unit (not shown).
- the parameter value calculation unit 137 calculates a group of parameter values (for example, PSF) used in the above-described optical characteristic correction processing from the control parameter values acquired as described above, and sends them to the image file generation unit 139. Output.
- PSF parameter values
- the demodulation information acquisition unit 138 outputs at least one of the group of parameter values calculated by the parameter value calculation unit 137 to the optical characteristic correction processing unit 103.
- the image file generation unit 139 includes a method identifier input from the method specification unit 135, imaging information input from the imaging information acquisition unit 132, a group of parameter values input from the parameter value calculation unit 137, and an intermediate image data acquisition unit 131. An image file including the intermediate image data input from is generated.
- the storage processing unit 140 stores the image file generated by the image file generation unit 139 in the image file storage unit 141 that is a storage medium.
- the image file is assumed to be image information generated in accordance with a file format defined by a predetermined standard, for example, the Exif (Exchangeable Image File Format) standard.
- the Exif standard is a standard that defines image data, the type of accompanying information (metadata) related to the image data, the storage format of the accompanying information, and the like. That is, the image file generation unit 139 functions as an image information generation unit that generates image information.
- image file generated in accordance with the file format of the Exif standard generally, image data that has been captured, thumbnail image data that is reference image data that is smaller in size than the image data, the date and time of image capture, the manufacturer name of the image capture device, etc. Metadata is stored in a predetermined format.
- FIG. 6 shows an example of the file structure of an image file created in the file format defined in the Exif standard.
- compressed image data is compressed image data such as JPEG compressed by the image processing unit 104.
- the image file including the compressed image data is referred to as a “compressed image file”.
- FIG. 7 is a diagram illustrating a file structure of an image file generated by the image file generation unit 139 according to the present embodiment.
- the compressed image file includes Exif (Exchangeable Image File Format) attached information (hereinafter referred to as “Exif information”) included in the header portion and compressed image data.
- Exif information is composed of thumbnail image data (Thumbnail), Exif IFD (Image File Directory), and the like.
- thumbnail image data Thiumbnail
- Exif IFD Image File Directory
- a MakerNote tag is defined, and information unique to each digital camera manufacturer is stored as the value of the MakerNote tag.
- the image file generated by the image file generation unit 139 according to the present embodiment is composed of Exif information and intermediate image data included in the header portion as shown in FIG. That is, intermediate image data is stored in the image file in this embodiment instead of the compressed image data shown in FIG. Further, as shown in FIG. 7, the Exif IFD according to the present embodiment stores imaging information, a method identifier, and a parameter value (group) as a MakerNote tag value. That is, the Exif information according to the present embodiment includes identification information for identifying an imaging method (an optical modulation method) and image processing information (an imaging method is used for image processing for demodulating the optical modulation).
- image processing information for removing blur and information for setting a depth of focus is included, and the image processing information demodulates optical modulation associated with system information.
- Image processing information related to the image processing to be performed is included. Further, as described above, this image processing information includes parameter information used for various calculations in image processing.
- the Exif information according to the present embodiment stores thumbnail image data of compressed image data as in the case of FIG.
- the thumbnail image data in FIGS. 6 and 7 is generated from the compressed image data by the image processing unit 104, for example.
- calculation method information indicating the calculation method selected according to the imaging method may be stored as the value of the MakerNote tag.
- the calculation method information is “convolution calculation”, and when the imaging method is “LFC”, the calculation method information is “shift addition method” and “ray bundle projection method”.
- the calculation method information is not stored as the value of the MakerNote tag, and only the imaging method may be used. That is, the method identifier and the calculation method information are calculation specifying information that is information for specifying a calculation method used according to the imaging method for the optical characteristic correction processing.
- each storage unit such as the method information storage unit 134, the parameter information storage unit 136, and the image file storage unit 141 illustrated in FIG. .
- this is an example, and all or a part of each storage unit may be included in a device external to the imaging device 1, a server, and the like.
- each component that refers to information stored in each storage unit accesses external devices and servers via a network such as the Internet, and refers to the information stored in each storage unit. .
- FIG. 8 is a flowchart illustrating an example of the overall operation of the imaging apparatus 1 according to the present embodiment.
- the optical information acquisition unit 133 acquires optical information (S801)
- the imaging information acquisition unit 132 acquires imaging information (S802)
- the intermediate image data acquisition unit 131 reads from the buffer memory 102.
- Intermediate image data is acquired (S803).
- the processing in S801, the processing in S802, and the processing in S803 are not limited in context, and may be executed in different orders or may be executed in parallel.
- the method specifying unit 135 that acquired the optical information specifies an imaging method based on the acquired optical information (S804). Note that the processing in S802, the processing in S803, and the processing in S804 are not limited in context, and may be executed in different orders or may be executed in parallel.
- the parameter value calculation unit 137 calculates a parameter value for optical characteristic correction processing based on the acquired various information (S805).
- the demodulation information acquisition unit 138 acquires one parameter value from the calculated parameter value group (S806). Then, the optical characteristic correction processing unit 103 performs an optical characteristic correction process on the intermediate image data using the parameter value acquired in the process of S806 by the calculation method according to the imaging method specified in the process of S804 (S807). ).
- the image processing unit 104 performs various types of image processing on the image data whose optical characteristics are corrected by the optical characteristic correction processing unit 103 to generate a compressed image (S808), and the display control unit 106 generates The compressed image is decoded (expanded) and displayed on the display unit 105 (S809).
- the image file generation unit 139 creates an image file including the intermediate image data acquired in the process of S803 and Exif information storing the acquired various types of information. Generate (S811).
- the controller 130 determines whether or not the compressed image is a desired image. Specifically, for example, a user who has confirmed the image displayed on the display unit 105 performs an operation of notifying that the image is a desired image via the operation unit 107. When the controller 130 receives a notification that the image is a desired image, the controller 130 determines that the compressed image is a desired image.
- the storage processing unit 140 stores the image file generated by the image file generation unit 139 in the image file storage unit 141 (S812).
- the demodulation information acquisition unit 138 acquires one parameter value different from the parameter value already acquired from the calculated parameter value group. (S806), and the subsequent processing is repeated.
- one different parameter value acquired when it is determined that the compressed image is not the desired image is acquired by the demodulation information acquisition unit 138 according to a predetermined order, for example.
- the demodulation information acquisition unit 138 may acquire a parameter value selected by a user operation via the operation unit 107.
- the case where it is determined whether or not the compressed image is a desired image has been described as an example.
- a compressed image that more conforms to the user's wishes can be generated.
- the image file generation unit 139 may generate an image file without determining whether or not the compressed image is a desired image.
- a configuration in which the display control unit 106 displays an image based on the compressed image on the display unit 105 is not essential.
- the image file generation unit 139 generates an image file when the compressed image is determined to be a desired image has been described as an example.
- the generation of the image file by the image file generation unit 139 is not affected by whether or not the compressed image is a desired image. Therefore, an image file may be generated regardless of the determination result of whether or not the compressed image is a desired image.
- the image processing apparatus 2 is connected to the imaging apparatus 1 through an interface cable for communicating digital signals such as HDMI (registered trademark) (High-Definition Multimedia Interface), USB, and the like.
- An information processing apparatus such as a PC (Personal Computer) in which software for image editing such as retouching software and a printer driver is installed.
- the image processing apparatus 2 may be not only a PC but also a smartphone, a tablet terminal, or the like.
- the image processing apparatus 2 in which retouching software is installed will be described as an example. Under the control of retouching software installed in the image processing apparatus 2, processing such as optical characteristic correction processing and image processing is performed on the image file generated in the imaging apparatus 1.
- FIG. 9 is a block diagram illustrating a functional configuration related to processing for an image file generated in the imaging device 1 among the functions of the image processing device 2.
- the image processing apparatus 2 includes an image file acquisition unit 201, an optical characteristic correction processing unit 202, an image processing unit 203, a display unit 204, a display control unit 205, an operation unit 206, an operation control unit 207, and an image.
- An editing unit 208 and a post-processing unit 209 are included.
- the image file acquisition unit 201 acquires an image file stored in the image file storage unit 141 of the imaging device 1 via the interface cable and outputs the image file to the optical characteristic correction processing unit 202.
- the optical characteristic correction processing unit 202 performs optical characteristic correction processing on the intermediate image data using the intermediate image data and various information included in the image file input from the image file acquisition unit 201 and outputs the intermediate image data to the image processing unit 203. To do.
- the optical characteristic correction processing unit 202 specifies an imaging method from the method identifier included in the image file, and acquires at least one parameter file from the group of parameter values included in the image file.
- the optical characteristic correction processing unit 202 performs an optical characteristic correction process on the intermediate image data using the acquired parameter value by a calculation method according to the specified imaging method.
- the image processing unit 203 performs predetermined processing such as demosaic, gamma correction, color processing, resolution conversion, and JPEG on the image data corrected by the optical characteristic correction processing unit 202.
- Image processing such as compression processing based on the compression method is performed to generate a compressed image.
- the image processing unit 203 outputs the generated compressed image to the display control unit 205 and the image editing unit 208.
- the compressed image data generated by the image processing unit 203 is stored in the storage unit 210 such as a memory or a hard disk.
- the display unit 204 and the display control unit 205 have the same functions as the display unit 105 and the display control unit 106 of the imaging device 1.
- the operation unit 206 is a user interface for a user to input information to the image processing apparatus 2 such as a keyboard, a mouse, various hard buttons, and a touch panel.
- the operation control unit 207 outputs operation information performed via the operation unit 206 to the image editing unit 208.
- the display unit 204 is a display panel or the like and accepts an input operation from the user as a touch panel, the display unit 204 may also function as the operation unit 206.
- the display control unit 205 decodes (decompresses) the compressed image data from the image processing unit 203 and supplies the decoded image data to the display unit 204.
- the display unit 204 displays an image based on the supplied image data.
- the user can perform various edits according to the user's preference by operating the operation unit 206 while viewing the display image.
- the image editing unit 208 performs image editing, retouching, image synthesis, and the like on the compressed image data input from the image processing unit 203 or image data obtained by decoding the compressed image data in accordance with a user operation via the operation unit 206. Perform the editing process.
- the post-processing unit 209 performs various post-processings on the image edited by the image editing unit 208 and outputs it to the display control unit 205.
- the image data post-processed by the post-processing unit 209 is also stored in the storage unit 210.
- FIG. 10 is a flowchart showing an example of the overall operation of the image processing apparatus 2 according to the present embodiment.
- the image file acquisition unit 201 acquires an image file generated in the imaging device 1 (S1001).
- the optical characteristic correction processing unit 202 acquires a method identifier, a group of parameter values, and intermediate image data included in the image file acquired by the image file acquisition unit 201 (S1002, S1003, S1004). Note that the processing of S1002, the processing of S1003, and the processing of S1004 are not limited in context, and may be executed in different orders or may be executed in parallel.
- the optical characteristic correction processing unit 202 that has acquired the group of parameter values acquires at least one parameter value as demodulation information from the acquired group of parameter values (S1005). Then, the optical characteristic correction processing unit 202 performs optical characteristic correction processing on the acquired intermediate image data using the acquired parameter value (demodulation information) by the calculation method according to the imaging method identified by the acquired method identifier. (S1006).
- the image processing unit 203 performs various kinds of image processing on the image data subjected to the optical characteristic correction processing to generate a compressed image (S1007), and the display control unit 106 decodes the compressed image and displays the image on the display unit 105. Is displayed (S1008).
- the image editing unit 208 performs an image editing process on the compressed image according to an operation from the user (S1010).
- the optical characteristic correction processing unit 202 demodulates the parameter value different from the parameter value already acquired from the acquired parameter value group. (S1005) and the subsequent processing is repeated.
- the image editing unit 208 determines whether or not the compressed image is a desired image. Specifically, for example, a user who has confirmed the image displayed on the display unit 204 performs an operation of notifying that the image is a desired image via the operation unit 206. When the image editing unit 208 receives a notification that the image is a desired image, the image editing unit 208 determines that the compressed image is the desired image.
- different parameter values acquired when it is determined that the compressed image is not a desired image are acquired by the optical characteristic correction processing unit 202 in accordance with a predetermined order, for example.
- the optical characteristic correction processing unit 202 may acquire a parameter value selected by a user operation via the operation unit 206.
- the case where it is determined whether or not the compressed image is a desired image has been described as an example.
- a compressed image that more conforms to the user's wishes can be generated.
- the image editing unit 208 may perform image editing processing according to a user operation without determining whether or not the compressed image is a desired image.
- a configuration in which the display control unit 205 displays a compressed image on the display unit 204 is not essential.
- the imaging apparatus 1 includes an image file that includes intermediate image data, information for identifying an imaging method, and information on parameter values used to correct the intermediate image data in accordance with image file standards. Is generated.
- the image processing device 2 acquires the image file generated by the imaging device 1, and based on the intermediate image data and various information included in the image file, the calculation method according to the imaging method from which the intermediate image data was acquired, The intermediate image data is corrected using various parameter values.
- the imaging apparatus 1 includes an intermediate image in which the optical modulation is applied to the configuration of the imaging apparatus 1 including an optical system that applies predetermined optical modulation to an image, and the intermediate image.
- a configuration for generating an image file including information necessary for image processing for demodulating the intermediate image (removing optical modulation) is added. For this reason, according to the present embodiment, for example, it is possible to appropriately perform image processing on the intermediate image in a device different from the imaging device.
- the retouching software is installed in the image processing apparatus 2 as an example.
- the retouching software is a service on the network and may be downloaded from the network.
- the image processing device 2 refers to the method identifier included in the accompanying information of the intermediate image, and obtains information for acquiring an optical correction processing calculation method or the like according to the imaging method, such as the manufacturer of the imaging device. You may make it acquire via a network from a server.
- the method identifier is included as the accompanying information of the intermediate image, even if software or an application for processing the intermediate image is not installed in the image processing apparatus 2 in advance, an appropriate optical device corresponding to the imaging method is used.
- Software or an application including a calculation method for correction processing can be downloaded via a network.
- the image file generation unit 139 may generate an image file that further includes the compressed image data generated by the image processing unit 104 of the imaging device 1 in addition to the intermediate image data.
- FIG. 11 is a diagram illustrating a configuration further including compressed image data in the image file generated by the image file generation unit 139 according to the present embodiment.
- the image file includes compressed image data in addition to the intermediate image data.
- the image processing unit 104 outputs the generated compressed image data to the image file generation unit 139 (see FIG. 3).
- the image file generation unit 139 generates an image file including the compressed image data input from the image processing unit 104.
- the image processing apparatus 2 can also acquire the compressed image data generated in the imaging apparatus 1, and thus starts the image editing process without processing from the intermediate image data to generate the compressed image data. Can do.
- the image processing device 2 there is no request to generate a compressed image that is focused from a different viewpoint from the compressed image generated by the imaging device 1, and image editing may be performed on some compressed image.
- the image processing apparatus 2 does not need to process the intermediate image data, so that image editing can be performed immediately and the processing load on the image processing apparatus 2 can be reduced.
- thumbnail image data is stored in the Exif information
- the image processing apparatus 2 can display the thumbnail image data on the display unit 204 before processing the intermediate image data.
- the intermediate image is in a state where the entire image is blurred, and is not necessarily an image that looks good for the user. For this reason, even if only the intermediate image data is confirmed, the user cannot grasp what kind of image it is and needs to wait for confirmation until the intermediate image data is processed and displayed. With the configuration in which the thumbnail image data is stored in the Exif information, the user can immediately grasp what kind of image it is based on the displayed thumbnail image.
- the Exif information includes a thumbnail image.
- the thumbnail image data may be generated by the image file generation unit 139.
- the image file generation unit 139 acquires compressed image data from the image processing unit 104.
- the case where the group of parameter values calculated by the parameter value calculation unit 137 is stored in the Exif information has been described as an example.
- information necessary for calculating the parameter value group may be stored in the Exif information instead of the parameter value group. That is, information necessary for calculating a group of parameter values or a group of parameter values is information regarding parameter values (calculation values).
- FIG. 12 is a diagram illustrating the configuration of an image file generated by the image file generation unit 139.
- the image file generation unit 139 generates an image file in which optical information, imaging information, a method identifier, and setting information are stored in Exif information.
- the optical characteristic correction processing unit 202 of the image processing apparatus 2 acquires imaging information, optical information, and setting information from the image file, and calculates a group of parameter values by the same process as the parameter value calculation unit 137. .
- this invention is not limited to the above-mentioned Example, Various modifications are included.
- the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
- each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
- Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
- Information such as programs, tables, and files that realize each function can be stored in a storage medium, storage, or the like.
- the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置、撮像装置の制御方法、撮像装置の制御プログラム及び画像ファイルの生成方法に関する。 The present invention relates to an imaging apparatus, an imaging apparatus control method, an imaging apparatus control program, and an image file generation method.
本技術分野の背景技術として、米国特許第5748371号明細書(特許文献1)、米国特許出願公開第2007/0258706号明細書(特許文献2)及び特許第2963990号公報(特許文献3)がある。特許文献1では、「非干渉性光学システムの被写界深度を増大させるとともに、波長に対する感受度及び焦点ぼけを生ずるレンズの諸収差を減少させるためのシステムは、専用の光マスクを非干渉性システムへ導入する。」と記載されている。また、特許文献2では、「1枚の画像取得時における露光時のシャッタの開閉を符号化し、そのシャッタ開閉の情報を用いた演算処理によりぶれ補正する。」と記載されている。また、特許文献3では、「開口マスク1は、ぼけ量の解析が容易となるように構造化された符号化開口(瞳)形状として二つのピンホール6及び7を有する。演算部は、CCD7,8,9 から取り込んだ画像に基づいて、合焦位置を推定する。開口マスク1及びレンズ系2は、CCD7,8,9によって得られる3枚の画像について、その間の像倍率が等しくなるテレセントリック光学系を構成する。」との記載されている。
As background art of this technical field, there are US Pat. No. 5,748,371 (Patent Document 1), US Patent Application Publication No. 2007/0258706 (Patent Document 2), and Japanese Patent No. 2963990 (Patent Document 3). . In
上述した背景技術はコンピュテーショナルフォトグラフィと呼ばれる。コンピュテーショナルフォトグラフィ技術は、カメラ等の撮像装置による撮影後の画像処理を前提とし、撮像装置の光学系から決まる光線情報及び画像処理により、光学系により取得した中間画像をユーザが所望する画像に補正す。すなわち、コンピュテーショナルフォトグラフィ技術は、光学系で像に所定の光学的変調(焦点深度拡大技術であれば、光学的変調として例えば所定範囲の像に対する「ボケ」)を与えて中間画像を生成し、この中間画像に対し、上記光学的変調を復調(或いは復元)するための画像処理を施して所望の画像を得るものである。この中間画像は、カメラ内部の(通常では失われる)光学的な情報を含む(好ましくは最大限の光学的な情報量を持つ)中間表現のデータであり、光学特性を補正する画像処理等の情報処理により、例えば、撮像範囲における焦点深度(ピント)が異なる複数の画像に補正可能である。 The background art described above is called computational photography. Computational photography technology is premised on image processing after shooting by an imaging device such as a camera, and the image desired by the user is an intermediate image acquired by the optical system by light information and image processing determined from the optical system of the imaging device. Correct to. In other words, the computational photography technique generates an intermediate image by applying a predetermined optical modulation to the image in the optical system (in the case of a focal depth expansion technique, for example, “blur” with respect to an image in a predetermined range as the optical modulation). The intermediate image is subjected to image processing for demodulating (or restoring) the optical modulation to obtain a desired image. This intermediate image is intermediate representation data including optical information (usually lost) inside the camera (preferably having the maximum amount of optical information), such as image processing for correcting optical characteristics. By the information processing, for example, it is possible to correct to a plurality of images with different depths of focus (focus) in the imaging range.
このような中間画像を画像処理によりユーザが所望する画像に補正するためには、中間画像を取得する光学系を構成するコンピュテーショナルフォトグラフィの方式を特定し、方式に応じた画像処理に用いられるパラメータを算出する必要がある。ここで、例えば撮像装置にパーソナルコンピュータ(PC)等の画像処理装置を接続し、当該画像処理装置で撮像装置から画像を取得して観察しようとする場合、画像処理装置が撮像装置から中間画像を取得しても、画像処理に必要な情報(例えばるコンピュテーショナルフォトグラフィの方式)が得られなければ、所望の画像に補正することができない。 In order to correct such an intermediate image to an image desired by the user by image processing, a method of computational photography constituting an optical system for acquiring the intermediate image is specified and used for image processing according to the method. Parameter to be calculated. Here, for example, when an image processing device such as a personal computer (PC) is connected to the imaging device, and the image processing device acquires an image from the imaging device and observes the intermediate image from the imaging device. Even if the information is acquired, it cannot be corrected to a desired image unless information necessary for image processing (for example, a method of computational photography) is obtained.
このような問題を解決するために、画像処理装置において中間画像の画像処理を適切に行うための機能を撮像装置に備えることが望まれる。一方で、コンピュテーショナルフォトグラフィの方式に応じて、撮像装置ごとにこのような機能を実装することは、撮像装置を構成する機能が複雑になったり、実装のための作業負担が増大したりするので好ましくない。 In order to solve such a problem, it is desired that the imaging apparatus has a function for appropriately performing image processing of intermediate images in the image processing apparatus. On the other hand, depending on the method of computational photography, mounting such a function for each imaging device may complicate the functions that make up the imaging device or increase the workload for mounting. This is not preferable.
本発明は、このような課題に鑑みてなされたものであり、光学系により所定の光学的変調が与えられた中間画像に対し画像処理により所定の画像を得る技術において、撮像装置が撮像した画像のデータから当該撮像装置の撮像方式(光学的変調方式)を識別可能とする、及び/または当該中間画像に対する画像処理を適切に行えるようにするための技術を提供するものである。 The present invention has been made in view of such a problem, and an image captured by an imaging device in a technique for obtaining a predetermined image by image processing on an intermediate image given a predetermined optical modulation by an optical system. Therefore, it is possible to identify the image pickup method (optical modulation method) of the image pickup apparatus from the data and / or to appropriately perform image processing on the intermediate image.
上記課題を解決するために、本発明は例えば特許請求の範囲に記載の構成を採用する。本願は上記課題を解決する構成要素を複数含んでいるが、その一例を挙げるならば、光学変調素子を含み、該光学変調素子により光学的な変調が為された中間画像を取得する撮像光学系と、前記中間画像と、該中間画像の付随情報とを含む画像ファイルを生成する画像情報生成部とを備え、前記付随情報は、前記光学変調素子を含む撮像光学系の撮像方式を識別するための識別情報と、前記光学的変調がされた中間画像を復調するための画像処理に関する画像処理情報を含む、ことを特徴としている。 In order to solve the above-described problems, the present invention adopts, for example, the configurations described in the claims. The present application includes a plurality of components that solve the above-described problems. For example, an imaging optical system that includes an optical modulation element and acquires an intermediate image optically modulated by the optical modulation element And an image information generation unit that generates an image file including the intermediate image and accompanying information of the intermediate image, the accompanying information identifying an imaging method of an imaging optical system including the optical modulation element And image processing information related to image processing for demodulating the optically modulated intermediate image.
本発明によれば、撮像装置が撮像した画像のデータから当該撮像装置の撮像方式(光学的変調方式)を識別可能となり、及び/または、中間画像に対する画像処理を適切に行えるようにすることができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to identify the imaging method (optical modulation method) of the imaging device from the data of the image captured by the imaging device, and / or to appropriately perform image processing on the intermediate image. it can. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、本発明の実施形態を、図面を用いて詳細に説明する。本実施形態においては、動画や静止画を撮像するデジタルビデオカメラ及びデジタルカメラ等の撮像装置を例として説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a description will be given by taking as an example an imaging apparatus such as a digital video camera and a digital camera that captures a moving image or a still image.
図1は、本実施形態に係る撮像装置1の機能構成を例示する図である。図1に示すように、撮像装置1は、撮像光学系110、光学系制御部120、コントローラ130、SP(Serial/Parallel)変換部101、バッファメモリ102、光学特性補正処理部103、画像処理部104、表示部105、表示制御部106、操作部107及び操作制御部108を含む。
FIG. 1 is a diagram illustrating a functional configuration of the
図2は、撮像光学系110の構成を例示する図である。例えば、図2(a)に示した撮像光学系110は、レンズ111、絞り112、位相板113及びイメージセンサ114から構成される。また、例えば、図2(b)に示した撮像光学系110は、レンズ111、絞り112、マイクロレンズアレイ115及びイメージセンサ114から構成される。なお、図2(a)及び(b)において同一の符号が付されている構成は同様の機能を有する。
FIG. 2 is a diagram illustrating the configuration of the imaging
本実施形態に係る撮像装置の撮像光学系110は、撮像装置1において採用されたコンピュテーショナルフォトグラフィの方式(以下、「撮像方式」とする)に応じて構成される。例えば、撮像方式として撮像システムの被写界深度を拡大するWave Front Coding(以降、「WFC」とする)が採用されている場合、図2(a)において破線で囲まれたレンズモジュールの中に、レンズ111、絞り112、及び所定の範囲の像に対して光学的変調としての「ボケ」を与えるための、三次関数型の位相板113が組み込まれている。位相板113は、WFC用の交換レンズとしてレンズモジュールの中に組み込まれている。絞り112または絞り112と位相板113との組み合わせにより上記光学的変調を与えるようにしてもよい。
The imaging
また、例えば、撮像方式として撮像距離(ピント)及び被写界深度を変更するLight Field Camera(以降、「LFC」とする)が採用されている場合、図2(b)において破線で囲まれたレンズモジュールの中に、レンズ111、絞り112、及び光学的変調を与えるためのマイクロレンズアレイ115が組み込まれている。ここでも、絞り112または絞り112と位相板113との組み合わせにより上記光学的変調を与えるようにしてもよい。
In addition, for example, when Light Field Camera (hereinafter referred to as “LFC”) that changes the imaging distance (focus) and depth of field is adopted as the imaging method, it is surrounded by a broken line in FIG. In the lens module, a
イメージセンサ114は、レンズ111、絞り112及び位相板113を通過した光束を光電変換して画素ごとのデジタル化された電気信号を生成して、SP変換部101に対して出力する。イメージセンサ114は、例えばCCD(Charge Coupled Device)又はCMOSセンサ(Complementary Metal Oxide Semiconductor Sensor)等である。
The
SP変換部101は、イメージセンサ114により入力された画素ごとの電気信号を、シリアル信号からパラレル信号に変換して、撮像光学系110により取得された中間画像データ(RAWデータ)としてバッファメモリ102に記憶させる。バッファメモリ102は、SP変換部101から入力された中間画像データを一時的に格納し、必要に応じて光学特性補正処理部103及びコントローラ130に対して出力する。
The
中間画像データは、撮像光学系110により生成され、撮像範囲における焦点深度を画像処理により設定可能な設定可能データである。中間画像データは、例えば画像全体がぼけた状態であるので、必ずしもユーザにとって見栄えがよい画像とは限らない。
Intermediate image data is settable data generated by the imaging
光学特性補正処理部103は、バッファメモリ102に格納された中間画像データを、ある視点で焦点(ピント)が合った画像データに補正する、すなわち上記与えられた光学的変調を復調する画像処理を行う。以降、このような画像処理を「光学特性補正処理」とする。光学特性補正処理部103の詳細は後述する。
The optical characteristic
光学系制御部120は、シャッタ制御部121、センサ位置制御部122、レンズ駆動部123、絞り制御部124及びズーム制御部125を含む。光学系制御部120は、後述する操作部107を用いた撮像操作に応じて図2に示した撮像光学系110の各構成部を制御する。
The optical
具体的には、例えば、シャッタ制御部121は、撮像操作に応じてイメージセンサ114のシャッタ機能を制御し、センサ位置制御部122は、撮像操作に応じてイメージセンサ114の位置を制御する。また、レンズ駆動部123は、撮像操作に応じてレンズ111を駆動し、絞り制御部124は、撮像操作に応じて絞り112を制御し、ズーム制御部125は、撮像操作に応じてレンズ111のズーム機能を制御する。
Specifically, for example, the
光学系制御部120の各部は、撮像光学系110の各構成部を制御するための制御パラメータ値により撮像光学系110の各構成部を制御する。例えば、センサ位置制御部122は、イメージセンサ114の位置情報を示す制御パラメータ値により、イメージセンサ114の位置を制御する。光学系制御部120は、このように撮像操作に応じて設定された光学系制御部120の各部で用いられる制御パラメータ値を、撮像情報としてコントローラ130に対して出力する。
Each unit of the optical
コントローラ130は、光学系制御部120、後述する光学特性補正処理部103、画像処理部104、操作制御部108等の各部を制御する役割を担い、各部に命令を与える。また、コントローラ130は、撮像光学系110の構成に関連する情報(以降、「光学情報」とする)に基づいて撮像方式を特定する。また、コントローラ130は、光学情報及び光学系制御部120から入力される撮像情報に基づいて、中間画像データを光学特性補正処理する際に用いられるパラメータ値を算出する。コントローラ130による撮像方式の特定処理及びパラメータ値の算出処理の詳細は後述する。
The
コントローラ130により算出されるパラメータ値は、例えば、画像のブレやボケ具合を表す点拡がり関数(Point Spread Function:PSF)である。また、コントローラ130により算出されるパラメータ値は、例えば、中間画像データに対して光学特性補正処理を行う際に、あらゆる視点で焦点を合わせるために用いられる視点ごとのパラメータ値の群である。
The parameter value calculated by the
光学特性補正処理部103は、コントローラ130により算出されたパラメータ値の群のうち、いずれか1つのパラメータ値を用いて中間画像データに対して、撮像方式に応じた演算方法により光学特性補正処理を行う。例えば、撮像方式して「WFC」が採用されている場合、光学特性補正処理部103は、空間フィルタを用いた畳み込み計算を演算方法として選択し、パラメータ値である空間フィルタの係数数値データを用いて補正する。
The optical characteristic
また、例えば、撮像方式として「LFC」が採用されている場合、光学特性補正処理部103は、シフト加算法を演算方法として選択し、パラメータ値を用いて補正する。すなわち、パラメータ値の群は、演算方法による演算の際に用いられる演算用値である。なお、LFCの演算方法は、シフト加算法及び光線束投影法等複数あるが、本実施形態においては他の方法よりも計算コストの低いシフト加算法が選択されている。また、演算方法が複数ある場合、ユーザの操作によりいずれの演算方法を用いるかが選択されてもよい。
Also, for example, when “LFC” is adopted as the imaging method, the optical characteristic
画像処理部104は、光学特性補正処理部103により補正された画像データに対して、デモザイク、ガンマ補正、色処理、解像度変換、圧縮処理等の画像処理を行い、JPEG(Joing Photographic Experts Group)等の圧縮画像を生成して、表示制御部106に対して出力する。すなわち、光学特性補正処理部103及び画像処理部104は、中間画像データから予め定められた焦点深度に設定した画像データを生成する画像データ生成部として機能する。
The
表示部105は、例えば液晶ディスプレイパネル等、撮像装置1の状態や画像処理部104から入力された圧縮画像に基づいて画像を視覚的に表示する出力インタフェースである。表示制御部106は、表示部105に対し画像を表示するために圧縮画像に基づく画像信号を表示部に出力する。例えば、表示制御部106は、画像処理部104から入力された圧縮画像をその圧縮方式(例えばJPEG)に対応した伸張方式によりデコード(伸張)し、表示部105に出力する。また表示部105で画像を表示する場合には、画像処理部104で圧縮を行わなくてもよい。この場合は、表示制御部106でのデコード処理は不要である。このように中間画像データから光学特性補正処理部103及び画像処理部104による処理を経て生成された圧縮画像が表示部105に表示されることにより、ユーザは所望する画像が生成されているか否かを確認することができる。
The
操作部107は、例えばカメラのシャッターボタン等、撮像装置1を操作する際の入力インタフェースである。操作制御部108は、操作部107を介して行われた操作情報をコントローラ130に対して通知する。例えば、ユーザが操作部107であるカメラのシャッターボタンを押すと、そのタイミングにおける光学系制御部120各部の制御パラメータ値が撮像情報として設定される。また、表示部105がディスプレイパネル等でありタッチパネルとしてユーザからの入力操作を受け付け可能な場合、表示部105が操作部107の機能を兼ねてもよい。
The
このように、撮像装置1においては光学特性補正処理部103により、中間画像データから撮像範囲におけるある焦点深度に設定された画像データが生成される。撮像装置1とは別の機器である画像処理装置(例えばPC)は、このように生成された画像データを撮像装置1から取得しても、異なる視点で焦点を合わせた画像データに補正することはできない。取得した画像データは、撮像装置1においてすでにある視点で焦点が合わせられており、さらに光学特性補正処理が行われると、画像にアーティファクト(偽像)等が発生するためである。
As described above, in the
また、画像処理装置は、撮像装置1から中間画像データのみを取得しても、光学特性補正処理を行うために必要な情報を得られなければ、所望の視点で焦点を合わせた画像を生成することができない。そのため、撮像装置1において中間画像データが取得されて、あらゆる視点で焦点を合わせるためのパラメータ値の群が算出されても、画像処理装置においては、所望の視点で焦点を合わせた画像を生成できる中間画像データを十分に活用することができない。
In addition, even if only the intermediate image data is acquired from the
本実施形態に係るコントローラ130は、撮像装置1において生成された中間画像データを、撮像装置1と接続して用いられる、該撮像装置1とは別の機器であるPC等の画像処理装置において活用できるよう処理を行う。このような処理が、本実施形態に係る要旨の1つである。以下、コントローラ130の処理の詳細を説明する。
The
図3は、コントローラ130の機能のうち、中間画像データを画像処理装置において利用するための処理に関連する機能構成を例示するブロック図である。図3に示すように、コントローラ130は、中間画像データ取得部131、撮像情報取得部132、光学情報取得部133、方式情報記憶部134、方式特定部135、パラメータ情報記憶部136、パラメータ値算出部137、復調情報取得部138、画像ファイル生成部139及び画像ファイル記憶部141を含む。
FIG. 3 is a block diagram illustrating a functional configuration related to processing for using the intermediate image data in the image processing apparatus among the functions of the
中間画像データ取得部131は、バッファメモリ102に格納されている中間画像データを取得し、画像ファイル生成部139に対して出力する。撮像情報取得部132は、上述した光学系制御部120から撮像情報を取得し、パラメータ値算出部137に対して出力する。すなわち、撮像情報取得部132は、中間画像データを生成する際の撮像光学系110に対する制御情報(撮像情報)を取得する制御情報取得部として機能する。
The intermediate image
光学情報取得部133は、光学情報を取得し、方式特定部135及びパラメータ値算出部137に対して出力する。光学情報は、例えば、撮像方式に応じてレンズモジュールに取り付けられている光学部品の種類を示す部品情報、光学部品の特徴を示す特徴情報及びイメージセンサ114の設定情報を含む。
The optical
例えば、図2(a)に示した撮像光学系110の場合、部品情報は「位相板」であり、特徴情報は位相板の三次関数係数(位相形状)を示し、イメージセンサ114の設定情報は画素数及び画素ピッチを示す。なお、光学情報は、例えば、操作部107を介して撮像装置1または撮像光学系110の製造者、或いはユーザにより予め入力され、図示しない光学情報記憶部に格納されているものとする。
For example, in the case of the imaging
図4は、方式情報記憶部134に格納されている方式情報を例示する図である。図4に示すように、方式情報記憶部134に格納されている方式情報は、部品情報と、部品情報が示す光学部品を有する撮像光学系110の撮像方式とが関連付けられたテーブルである。例えば、図4に示すように、部品情報が「位相板」である場合、当該「位相板」を有する撮像光学系110の撮像方式はWFCである。
FIG. 4 is a diagram exemplifying method information stored in the method
方式特定部135は、方式情報記憶部134に格納されている方式情報を参照して、撮像装置1で採用されている撮像方式を特定する。具体的には、例えば、方式特定部135は、光学情報取得部133から入力された光学情報に含まれる部品情報が「位相板」を示す場合、例えば図4に示されるような方式情報を参照して、撮像方式が「WFC」であると特定する。撮像方式を特定した方式特定部135は、撮像方式を識別するための識別情報(以降、「方式識別子」とする)を画像ファイル生成部139に対して出力する。
The
例えば、撮像方式が「WFC」である方式識別子は“WF”、撮像方式が「LFC」である方式識別子は“LF”、撮像方式が「Coded Exposer(符号化露光)」である方式識別子は“CE”、撮像方式が「Coded Aperture(符号化開口)」である方式識別子は“CD”とする。その他、方式識別子は、独自の数値を定義する等、撮像方式が識別できる態様であればどのような形式であってもよい。 For example, the method identifier whose imaging method is “WFC” is “WF”, the method identifier whose imaging method is “LFC” is “LF”, and the method identifier whose imaging method is “Coded Expose” (encoded exposure) is “ “CE”, and the scheme identifier whose imaging scheme is “Coded Aperture” is “CD”. In addition, the format identifier may be in any format as long as the imaging scheme can be identified, such as defining a unique numerical value.
本実施形態においては、方式特定部135は、方式識別子を画像ファイル生成部139に対して出力する場合を例として説明する。しかしながら、これは一例であり、画像処理装置が撮像方式を特定或いは識別できる態様であれば、方式特定部135は、特定した撮像方式の名称(例えば、「WFC」)そのものを画像ファイル生成部139に対して出力してもよい。
In the present embodiment, the case where the
図5は、パラメータ情報記憶部136に格納されているパラメータ情報を例示する図である。図5に示すように、パラメータ情報記憶部136に格納されているパラメータ情報は、各撮像方式と、光学特性補正処理の際に用いられるパラメータを算出するために必要な制御パラメータの一覧とが関連付けられたテーブルである。
FIG. 5 is a diagram illustrating parameter information stored in the parameter
例えば、図5に示すように、撮像方式が「WFC」である場合、必要な制御パラメータは、例えば“開放F値”、“焦点距離”、“三次関数係数”、“画素数”、“画素ピッチ”、“センサ位置”及び“カーネルサイズ”である。例えば、“開放F値”は、絞り制御部124の制御パラメータ値であり、“焦点距離”及び“センサ位置”は、センサ位置制御部122の制御パラメータ値である。また、例えば、“三次関数係数”は、光学情報に含まれる特徴情報であり、“画素数”及び“画素ピッチ”は、使用されているイメージセンサ114の画素数及び画素ピッチである。また、例えば、“カーネルサイズ”は、光学特性補正処理部103による補正処理の際に用いられるカーネルサイズである。
For example, as shown in FIG. 5, when the imaging method is “WFC”, the necessary control parameters are, for example, “open F value”, “focal length”, “cubic function coefficient”, “number of pixels”, “pixels”. “Pitch”, “Sensor position” and “Kernel size”. For example, “open F value” is a control parameter value of the
なお、“カーネルサイズ”の値は、例えば、図示しない設定情報記憶部に撮像装置1の設定情報として格納されている。その他、“カーネルサイズ”の値は、操作部107を介して撮像装置1または撮像光学系110の製造者、或いはユーザにより設定情報として入力されてもよい。
Note that the value of “kernel size” is stored as setting information of the
パラメータ値算出部137は、各部から入力される情報に基づいて光学特性補正処理の際に用いられるパラメータ値の群を算出して、画像ファイル生成部139に対して出力する。すなわち、パラメータ値算出部137は、パラメータ値の群である演算用値を算出する演算用値算出部として機能する。具体的には、まず、パラメータ値算出部137は、パラメータ情報記憶部136に格納されているパラメータ情報を参照して、方式特定部135から入力された撮像方式と関連付けられた制御パラメータの一覧を取得する。
The parameter
次に、パラメータ値算出部137は、取得した制御パラメータの一覧の各制御パラメータ値を取得する。例えば、パラメータ値算出部137は、撮像情報取得部132から入力された撮像情報から、“開放F値”、“焦点距離”及び“センサ位置”の値を取得し、光学情報取得部133から入力された光学情報に含まれる特徴情報である“三次関数係数”の値、光学情報に含まれる“画素数”及び“画素ピッチ”を取得する。また、例えば、パラメータ値算出部137は、図示しない設定情報記憶部から“カーネルサイズ”の値を取得する。
Next, the parameter
続いてパラメータ値算出部137は、上記のようにして取得した制御パラメータ値から上述した光学特性補正処理の際に用いられるパラメータ値(例えばPSF)の群を算出して、画像ファイル生成部139に対して出力する。
Subsequently, the parameter
復調情報取得部138は、パラメータ値算出部137により算出されたパラメータ値の群のうち少なくとも1つを光学特性補正処理部103に対して出力する。画像ファイル生成部139は、方式特定部135から入力された方式識別子、撮像情報取得部132から入力された撮像情報、パラメータ値算出部137から入力されたパラメータ値の群及び中間画像データ取得部131から入力された中間画像データを含む画像ファイルを生成する。記憶処理部140は、画像ファイル生成部139により生成された画像ファイルを、記憶媒体である画像ファイル記憶部141に記憶させる。
The demodulation
本実施例では、画像ファイルは、所定の規格、例えばExif(Exchangeable Image File Format)規格により定められたファイルフォーマットに従って生成された画像情報であるものとする。Exif規格は、画像データ、画像データに関連する付随情報(メタデータ)の種類、及び該付随情報の格納形式等を定めた規格である。すなわち、画像ファイル生成部139は、画像情報を生成する画像情報生成部として機能する。Exif規格のファイルフォーマットに従って生成された画像ファイルにおいては、通常、撮像された画像データ、画像データよりもサイズの小さい参照用の画像データであるサムネイル画像データ及び撮像日時、撮像装置のメーカ名等のメタデータが所定の形式で格納されている。
In this embodiment, the image file is assumed to be image information generated in accordance with a file format defined by a predetermined standard, for example, the Exif (Exchangeable Image File Format) standard. The Exif standard is a standard that defines image data, the type of accompanying information (metadata) related to the image data, the storage format of the accompanying information, and the like. That is, the image
図6は、Exif規格に定められたファイルフォーマットで作成された画像ファイルのファイル構造の一例を示している。図6において、「圧縮画像データ」は、画像処理部104により圧縮処理されたJPEG等の圧縮画像データである。この圧縮画像データを含む画像ファイルを以下では「圧縮画像ファイル」と呼ぶ。一方、図7は、本実施形態に係る画像ファイル生成部139が生成する画像ファイルのファイル構造を例示する図である。
FIG. 6 shows an example of the file structure of an image file created in the file format defined in the Exif standard. In FIG. 6, “compressed image data” is compressed image data such as JPEG compressed by the
図6に示すように、圧縮画像ファイルは、ヘッダ部に含まれるExif(Exchangeable Image File Format)付属情報(以降、「Exif情報」とする)及び圧縮画像データから構成される。また、図6に示すように、Exif情報は、サムネイル画像データ(Thumbnail)及びExif IFD(Image File Directory)等から構成される。Exif IFDには、MakerNoteタグが定義されており、MakerNoteタグの値として、各デジタルカメラメーカの独自の情報等が格納される。 As shown in FIG. 6, the compressed image file includes Exif (Exchangeable Image File Format) attached information (hereinafter referred to as “Exif information”) included in the header portion and compressed image data. Further, as shown in FIG. 6, the Exif information is composed of thumbnail image data (Thumbnail), Exif IFD (Image File Directory), and the like. In the Exif IFD, a MakerNote tag is defined, and information unique to each digital camera manufacturer is stored as the value of the MakerNote tag.
本実施形態に係る画像ファイル生成部139により生成された画像ファイルは、図7に示すように、ヘッダ部に含まれるExif情報及び中間画像データから構成される。すなわち、本実施形態における画像ファイルには、図6に示した圧縮画像データの代わりに中間画像データが格納される。また、図7に示すように、本実施形態に係るExif IFDには、MakerNoteタグの値として、撮像情報、方式識別子、パラメータ値(の群)が格納される。すなわち、本実施形態に係るExif情報は、撮像方式(光学的変調の方式)を識別するための識別情報と、該光学的変調を復調するための画像処理に用いられる画像処理情報(撮像方式が例えばWFCの場合は、ボケを取り除くための画像処理の情報、及び焦点深度を設定するための情報)を含むものであり、該画像処理情報は、方式情報に関連付けられた、光学的変調を復調するための画像処理に関連する画像処理情報を含んでいる。更に、この画像処理情報は、上述のように、画像処理における各種演算に用いられるパラメータ情報を含んでいる。
The image file generated by the image
また、図7に示すように、本実施形態に係るExif情報には、図6のものと同様に圧縮画像データのサムネイル画像データが格納されている。なお、図6及び図7におけるサムネイル画像データは、例えば、画像処理部104により圧縮画像データから生成される。また、MakerNoteタグの値として方式識別子に代えて又は方式識別子に加えて撮像方式に応じて選択された演算方法を示す演算方法情報が格納されるようにしてもよい。
Further, as shown in FIG. 7, the Exif information according to the present embodiment stores thumbnail image data of compressed image data as in the case of FIG. The thumbnail image data in FIGS. 6 and 7 is generated from the compressed image data by the
例えば、撮像方式が「WFC」である場合、演算方法情報は「畳み込み計算」であり、撮像方式が「LFC」である場合、演算方法情報は「シフト加算法」及び「光線束投影法」の2つである。なお、演算方法情報が複数ある場合、MakerNoteタグの値として演算方法情報は格納されず、撮像方式のみにしてもよい。すなわち、方式識別子及び演算方法情報は、光学特性補正処理のために撮像方式に応じて用いられる演算方法を特定するための情報である演算特定情報である。 For example, when the imaging method is “WFC”, the calculation method information is “convolution calculation”, and when the imaging method is “LFC”, the calculation method information is “shift addition method” and “ray bundle projection method”. There are two. When there are a plurality of calculation method information, the calculation method information is not stored as the value of the MakerNote tag, and only the imaging method may be used. That is, the method identifier and the calculation method information are calculation specifying information that is information for specifying a calculation method used according to the imaging method for the optical characteristic correction processing.
なお、本実施形態においては、図3に示した方式情報記憶部134、パラメータ情報記憶部136及び画像ファイル記憶部141等の各記憶部が撮像装置1に含まれる場合を例として説明している。しかしながら、これは一例であり、各記憶部の全部又は一部は、撮像装置1の外部の装置及びサーバ等に含まれていてもよい。この場合、各記憶部に格納されている情報を参照する各構成部は、インターネット等のネットワークを介して外部の装置及びサーバ等にアクセスして、各記憶部に格納されている情報を参照する。
In the present embodiment, the case where each storage unit such as the method
次に、本実施形態に係る撮像装置1の全体動作例を説明する。図8は、本実施形態に係る撮像装置1の全体動作例を示すフローチャートである。図8に示すように、光学情報取得部133は光学情報を取得し(S801)、撮像情報取得部132は、撮像情報を取得し(S802)、中間画像データ取得部131は、バッファメモリ102から中間画像データを取得する(S803)。なお、S801の処理とS802の処理とS803の処理とは前後関係に制約はないため、異なる順序で実行されてもよいし、並列して実行されてもよい。
Next, an overall operation example of the
光学情報を取得した方式特定部135は、取得した光学情報に基づいて撮像方式を特定する(S804)。なお、S802の処理とS803の処理とS804の処理とは前後関係に制約はないため、異なる順序で実行されてもよいし、並列して実行されてもよい。パラメータ値算出部137は、取得した各種情報に基づいて光学特性補正処理のためのパラメータ値を算出する(S805)。
The
復調情報取得部138は、算出されたパラメータ値の群から1つのパラメータ値を取得する(S806)。そして、光学特性補正処理部103は、S804の処理において特定された撮像方式に応じた演算方法により、S806の処理において取得されたパラメータ値を用いて、中間画像データを光学特性補正処理する(S807)。
The demodulation
画像処理部104は、光学特性補正処理部103で光学特性が補正処理された画像データに対して各種の画像処理を施して圧縮画像を生成し(S808)、表示制御部106は、生成された圧縮画像をデコード(伸張)して表示部105に表示する(S809)。画像ファイル生成部139は、圧縮画像が所望の画像であると判定された場合(S810/YES)、S803の処理において取得した中間画像データ及び取得した各種情報を格納したExif情報を含む画像ファイルを生成する(S811)。
The
なお、圧縮画像が所望の画像であるか否かは、例えば、コントローラ130が判定する。具体的には、例えば、表示部105に表示された画像を確認したユーザが、操作部107を介して、所望の画像である旨を通知する操作を行う。コントローラ130は、所望の画像である旨の通知を受けた場合に、圧縮画像が所望の画像であると判定する。
Note that, for example, the
記憶処理部140は、圧縮画像が所望の画像であると判定された場合(S810/YES)、画像ファイル生成部139により生成された画像ファイルを画像ファイル記憶部141に記憶させる(S812)。一方、圧縮画像が所望の画像ではないと判定された場合(S810/NO)、復調情報取得部138は、算出されたパラメータ値の群からすでに取得したパラメータ値とは異なる1つのパラメータ値を取得して(S806)、以降の処理を繰り返す。
If it is determined that the compressed image is a desired image (S810 / YES), the
なお、圧縮画像が所望の画像ではないと判定された場合に取得する異なる1つのパラメータ値は、例えば、復調情報取得部138が予め定められた順序に従って取得する。その他、復調情報取得部138は、操作部107を介してユーザの操作により選択されたパラメータ値を取得してもよい。
Note that one different parameter value acquired when it is determined that the compressed image is not the desired image is acquired by the demodulation
また、上記実施形態においては、圧縮画像が所望の画像であるか否かが判定される場合を例として説明した。このような処理により、よりユーザの希望に則した圧縮画像を生成することができる。しかしながら、このような構成は必須ではなく、圧縮画像が所望の画像であるか否かが判定されることなく、画像ファイル生成部139は、画像ファイルを生成するようにしてもよい。この場合、表示制御部106が表示部105に圧縮画像に基づく画像を表示する構成も必須ではない。
In the above embodiment, the case where it is determined whether or not the compressed image is a desired image has been described as an example. By such processing, a compressed image that more conforms to the user's wishes can be generated. However, such a configuration is not essential, and the image
また、上記実施形態においては、圧縮画像が所望の画像であると判定された場合に、画像ファイル生成部139が画像ファイルを生成する場合を例として説明した。しかしながら、画像ファイル生成部139による画像ファイルの生成は、圧縮画像が所望の画像であるか否かに影響されない。そのため、圧縮画像が所望の画像であるか否かの判定結果に関わらず、画像ファイルが生成されるようにしてもよい。
In the above embodiment, the case where the image
次に、撮像装置1と接続される、当該撮像装置1とは別の機器である画像処理装置2の機能構成を説明する。本実施形態に係る画像処理装置2は、撮像装置1と例えばHDMI(登録商標)(High-Definition Multimedia Interface)、USB等のデジタル信号を通信するためのインターフェースケーブルで接続されており、更に、例えば、レタッチソフト、プリンタドライバ等の画像編集を行うソフトウェアがインストールされたPC(Personal Computer)等の情報処理装置である。画像処理装置2は、PCのみならず、例えばスマートフォン、タブレット端末等でもよい。本実施形態においては、レタッチソフトがインストールされている画像処理装置2を例として説明する。画像処理装置2にインストールされたレタッチソフトの制御により、撮像装置1において生成された画像ファイルに対して光学特性補正処理及び画像処理等の処理が行われる。
Next, a functional configuration of the
図9は、画像処理装置2の機能のうち、撮像装置1において生成された画像ファイルに対する処理に関する機能構成を例示するブロック図である。図9に示すように、画像処理装置2は、画像ファイル取得部201、光学特性補正処理部202、画像処理部203、表示部204、表示制御部205、操作部206、操作制御部207、画像編集部208及び後処理部209を含む。
FIG. 9 is a block diagram illustrating a functional configuration related to processing for an image file generated in the
画像ファイル取得部201は、上記インターフェースケーブルを介して撮像装置1の画像ファイル記憶部141に格納されている画像ファイルを取得して、光学特性補正処理部202に対して出力する。光学特性補正処理部202は、画像ファイル取得部201から入力された画像ファイルに含まれる中間画像データ及び各種情報を用いて、中間画像データを光学特性補正処理し、画像処理部203に対して出力する。
The image
具体的には、まず、光学特性補正処理部202は、画像ファイルに含まれる方式識別子から撮像方式を特定し、画像ファイルに含まれるパラメータ値の群から少なくとも1つのパラメータファイルを取得する。次に、光学特性補正処理部202は、中間画像データに対して、特定した撮像方式に応じた演算方法により、取得したパラメータ値を用いて光学特性の補正処理を行う。
Specifically, first, the optical characteristic
画像処理部203は、撮像装置1の画像処理部104と同様に、光学特性補正処理部202により補正された画像データに対して、デモザイク、ガンマ補正、色処理、解像度変換、JPEG等の所定の圧縮方式に基づく圧縮処理等の画像処理を行い、圧縮画像を生成する。また、画像処理部203は、生成した圧縮画像を表示制御部205及び画像編集部208に対して出力する。また、画像処理部203で生成された圧縮画像データは、例えばメモリやハードディスク等の記憶部210に記憶される。
Similar to the
表示部204及び表示制御部205は、撮像装置1の表示部105及び表示制御部106と同様な機能を有する。操作部206は、キーボード、マウス、各種のハードボタン、タッチパネル等、ユーザが画像処理装置2に情報を入力するためのユーザインタフェースである。操作制御部207は、操作部206を介して行われた操作情報を画像編集部208に対して出力する。また、表示部204がディスプレイパネル等でありタッチパネルとしてユーザからの入力操作を受け付ける場合、表示部204が操作部206の機能を兼ねてもよい。
The
表示制御部205は、画像処理部203からの圧縮画像データをデコード(伸張)して表示部204に供給する。表示部204は、供給された画像データに基づき画像を表示する。ユーザは、この表示画像を見ながら操作部206を操作してユーザの好みに応じた各種編集を行うことができる。画像編集部208は、操作部206を介したユーザによる操作に従って、画像処理部203から入力された圧縮画像データまたは当該圧縮画像データをデコードした画像データに対して、画像編集、レタッチ及び画像合成等の編集処理を行う。後処理部209は、画像編集部208により編集された画像に対して各種後処理を行い、表示制御部205に対して出力する。この後処理部209により後処理された画像データも記憶部210に記憶される。
The
次に、本実施形態に係る画像処理装置2の全体動作例を説明する。図10は、本実施形態に係る画像処理装置2の全体動作例を示すフローチャートである。図10に示すように、画像ファイル取得部201は、撮像装置1において生成された画像ファイルを取得する(S1001)。
Next, an overall operation example of the
光学特性補正処理部202は、画像ファイル取得部201により取得された画像ファイルに含まれる方式識別子、パラメータ値の群、中間画像データを取得する(S1002、S1003、S1004)。なお、S1002の処理とS1003の処理とS1004の処理とは前後関係に制約はないため、異なる順序で実行されてもよいし、並列して実行されてもよい。
The optical characteristic
パラメータ値の群を取得した光学特性補正処理部202は、取得したパラメータ値の群から少なくとも1つのパラメータ値を復調情報として取得する(S1005)。そして、光学特性補正処理部202は、取得した方式識別子で識別される撮像方式に応じた演算方法により、取得したパラメータ値(復調情報)を用いて、取得した中間画像データについて光学特性の補正処理をする(S1006)。
The optical characteristic
画像処理部203は、光学特性補正処理された画像データに対して各種の画像処理を施して圧縮画像を生成し(S1007)、表示制御部106は、圧縮画像をデコードして表示部105に画像を表示する(S1008)。画像編集部208は、表示画像が所望の画像であると判定された場合(S1009/YES)、ユーザからの操作に従って圧縮画像に対して画像編集処理を行う(S1010)。
The
一方、圧縮画像が所望の画像ではないと判定された場合(S1009/NO)、光学特性補正処理部202は、取得されたパラメータ値の群からすでに取得したパラメータ値とは異なるパラメータ値を復調情報として取得して(S1005)、以降の処理を繰り返す。
On the other hand, when it is determined that the compressed image is not a desired image (S1009 / NO), the optical characteristic
なお、圧縮画像が所望の画像であるか否かは、例えば、画像編集部208が判定する。具体的には、例えば、表示部204に表示された画像を確認したユーザが、操作部206を介して、所望の画像である旨を通知する操作を行う。画像編集部208は、所望の画像である旨の通知を受けた場合に、圧縮画像が所望の画像であると判定する。
Note that, for example, the
また、圧縮画像が所望の画像ではないと判定された場合に取得する異なるパラメータ値は、例えば、光学特性補正処理部202が予め定められた順序に従って取得する。その他、光学特性補正処理部202は、操作部206を介してユーザの操作により選択されたパラメータ値を取得してもよい。
Further, different parameter values acquired when it is determined that the compressed image is not a desired image are acquired by the optical characteristic
また、上記実施形態においては、圧縮画像が所望の画像であるか否かが判定される場合を例として説明した。このような処理により、よりユーザの希望に則した圧縮画像を生成することができる。しかしながら、このような構成は必須ではなく、圧縮画像が所望の画像であるか否かが判定されることなく、画像編集部208がユーザの操作に従って画像編集処理を行ってもよい。この場合、表示制御部205が表示部204に圧縮画像を表示する構成も必須ではない。
In the above embodiment, the case where it is determined whether or not the compressed image is a desired image has been described as an example. By such processing, a compressed image that more conforms to the user's wishes can be generated. However, such a configuration is not essential, and the
以上説明したように、本実施形態に係る撮像装置1は、画像ファイルの規格に従って中間画像データ、撮像方式を識別する情報、中間画像データを補正するために用いられるパラメータ値に関する情報を含む画像ファイルを生成する。画像処理装置2は、撮像装置1により生成された画像ファイルを取得し、画像ファイルに含まれる中間画像データ及び各種情報に基づいて、中間画像データが取得された撮像方式に応じた演算方法で、様々なパラメータ値を用いて中間画像データを補正する。
As described above, the
すなわち、本実施形態に係る撮像装置1は、像に対して所定の光学的変調が与える光学系を備えた撮像装置1の構成に、上記光学的変調が与えられた中間画像と、該中間画像の付随情報として該中間画像を復調する(光学的変調を取り除く)ための画像処理に必要な情報とを含む画像ファイルを生成する構成を追加したものである。このため、本実施形態によれば、例えば、撮像装置とは別の機器において中間画像に対する画像処理を適切に行えるようにすることが可能になる。
That is, the
なお、上記実施形態においては、画像処理装置2にレタッチソフトがインストールされている場合を例として説明したが、レタッチソフトはネットワーク上のサービスであり、ネットワークからダウンロードするものであってもよい。また、画像処理装置2は、上記中間画像の付随情報に含まれる方式識別子を参照して、撮像方式に応じた光学補正処理の演算方法等を取得するための情報を、撮像装置のメーカ等のサーバからネットワークを介して取得するようにしてもよい。すなわち、中間画像の付随情報として少なくとも方式識別子を含ませておけば、画像処理装置2に中間画像を処理するためのソフトウェアまたはアプリケーションが予めインストールされていなくても、撮像方式に対応した適切な光学補正処理の演算方法等を含むソフトウェアまたはアプリケーションをネットワーク経由でダウンロードすることができる。
In the above embodiment, the case where the retouching software is installed in the
また、上記実施形態において、画像ファイル生成部139は、図7に示したように中間画像データを含む画像ファイルを生成する場合を例として説明した。その他、画像ファイル生成部139は、中間画像データに加えて、撮像装置1の画像処理部104により生成された圧縮画像データをさらに含む画像ファイルを生成してもよい。
Further, in the above embodiment, the case where the image
図11は、本実施形態に係る画像ファイル生成部139が生成する画像ファイルにおいて圧縮画像データをさらに含む構成を例示する図である。図11に示すように、画像ファイルは、中間画像データに加えて圧縮画像データを含む。この場合、画像処理部104は、生成した圧縮画像データを画像ファイル生成部139(図3参照)に対して出力する。画像ファイル生成部139は、画像処理部104から入力された圧縮画像データを含む画像ファイルを生成する。
FIG. 11 is a diagram illustrating a configuration further including compressed image data in the image file generated by the image
このような構成により、画像処理装置2は、撮像装置1において生成された圧縮画像データも取得できるので、圧縮画像データを生成するために中間画像データから処理することなく、画像編集処理を始めることができる。例えば、画像処理装置2において、撮像装置1で生成された圧縮画像とは異なる視点で焦点を合わせる圧縮画像を生成する要求がなく、何らかの圧縮画像に対して画像編集を行えばよい場合がある。このような場合に、画像処理装置2は、中間画像データを処理する必要がないため、すぐに画像編集を行うことができるし、画像処理装置2の処理負荷を軽減することができる。
With such a configuration, the
なお、上記実施形態においては、図6及び図7を示して説明したように、Exif情報にサムネイル画像データが格納されている場合を例として説明した。Exif情報にサムネイル画像データが格納されていると、画像処理装置2は、中間画像データを処理する前にサムネイル画像データを表示部204に表示することができる。
In the above embodiment, as described with reference to FIGS. 6 and 7, the case where thumbnail image data is stored in the Exif information has been described as an example. If thumbnail image data is stored in the Exif information, the
上述したように、中間画像は、画像全体がぼやけた状態であり、ユーザにとって見栄えがよい画像とは限らない。そのため、ユーザは中間画像データのみを確認しても、どのような画像であるのか把握できず、中間画像データが処理されて表示されるまで確認を待つ必要がある。Exif情報にサムネイル画像データが格納される構成により、ユーザは表示されたサムネイル画像により、すぐにどのような画像であるかを把握することができる。 As described above, the intermediate image is in a state where the entire image is blurred, and is not necessarily an image that looks good for the user. For this reason, even if only the intermediate image data is confirmed, the user cannot grasp what kind of image it is and needs to wait for confirmation until the intermediate image data is processed and displayed. With the configuration in which the thumbnail image data is stored in the Exif information, the user can immediately grasp what kind of image it is based on the displayed thumbnail image.
しかしながら、Exif情報にサムネイル画像が含まれていることは必須ではない。また、サムネイル画像データは、画像ファイル生成部139により生成されてもよい。この場合、画像ファイル生成部139は、画像処理部104から圧縮画像データを取得する。
However, it is not essential that the Exif information includes a thumbnail image. The thumbnail image data may be generated by the image
また、上記実施形態においては、Exif情報にパラメータ値算出部137により算出されたパラメータ値の群が格納される場合を例として説明した。その他、パラメータ値の群の代わりに、パラメータ値の群を算出するために必要な情報がExif情報に格納されるようにしてもよい。すなわち、パラメータ値の群又はパラメータ値の群を算出するために必要な情報が、パラメータ値(演算用値)に関する情報である。
In the above embodiment, the case where the group of parameter values calculated by the parameter
図12は、画像ファイル生成部139が生成する画像ファイルの構成を例示する図である。図12に示すように、この場合、画像ファイル生成部139は、Exif情報に光学情報、撮像情報、方式識別子、設定情報を格納した画像ファイルを生成する。この場合、例えば画像処理装置2の光学特性補正処理部202は、画像ファイルから撮像情報、光学情報及び設定情報を取得して、パラメータ値算出部137と同様な処理によりパラメータ値の群を算出する。
FIG. 12 is a diagram illustrating the configuration of an image file generated by the image
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部に他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, this invention is not limited to the above-mentioned Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, it is possible to replace a part of the configuration of a certain embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of a certain embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、ファイル等の情報は、記憶媒体、ストレージ等に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。 In addition, each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a storage medium, storage, or the like. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
1 撮像装置
2 画像処理装置
110 撮像光学系
131 中間画像データ取得部
132 撮像情報取得部
133 光学情報取得部
135 方式特定部
137 パラメータ値取得部
139 画像ファイル生成部
140 記憶処理部
141 画像ファイル記憶部
DESCRIPTION OF
Claims (11)
前記中間画像と、該中間画像の付随情報とを含む画像ファイルを生成する画像情報生成部と、
を備え、
前記付随情報は、前記光学変調素子を含む撮像光学系の撮像方式を識別するための識別情報と、前記光学的変調がされた中間画像を復調するための画像処理に関する画像処理情報とを含む
ことを特徴とする撮像装置。 An imaging optical system that includes an optical modulation element and obtains an intermediate image optically modulated by the optical modulation element;
An image information generation unit that generates an image file including the intermediate image and accompanying information of the intermediate image;
With
The accompanying information includes identification information for identifying an imaging method of an imaging optical system including the optical modulation element, and image processing information related to image processing for demodulating the optically modulated intermediate image. An imaging apparatus characterized by the above.
ことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the image processing information includes parameter information associated with the identification information and used for calculation in the image processing.
前記前記パラメータ情報は、前記撮像方式に対応した画像処理に応じて用いられる演算方法を特定するための情報である演算特定情報、及び前記演算方法による演算に用いられる演算用値に関する情報を含む
ことを特徴とする請求項1に記載の撮像装置。 The imaging optical system is configured according to an imaging method,
The parameter information includes calculation specifying information which is information for specifying a calculation method used in accordance with image processing corresponding to the imaging method, and information regarding a calculation value used for calculation by the calculation method. The imaging apparatus according to claim 1.
前記中間画像を生成する際の前記撮像光学系に対する制御情報を取得する制御情報取得部と、
取得された前記光学情報及び前記制御情報に基づいて、前記演算用値を算出する演算用値算出部と
を含み、
前記画像情報生成部は、前記演算特定情報及び前記演算用値を前記付随情報とする前記画像ファイルを生成する
ことを特徴とする請求項3に記載の撮像装置。 An optical information acquisition unit for acquiring optical information indicating the configuration of the imaging optical system;
A control information acquisition unit for acquiring control information for the imaging optical system when generating the intermediate image;
A calculation value calculation unit for calculating the calculation value based on the acquired optical information and the control information, and
The imaging apparatus according to claim 3, wherein the image information generation unit generates the image file having the calculation specifying information and the calculation value as the accompanying information.
前記中間画像を生成する際の前記撮像光学系に対する制御情報を取得する制御情報取得部と
を含み、
前記画像情報生成部は、取得された前記光学情報及び前記制御情報を前記演算用値に関する情報として前記画像ファイルを生成する
ことを特徴とする請求項3に記載の撮像装置。 An optical information acquisition unit for acquiring optical information indicating the configuration of the imaging optical system;
A control information acquisition unit that acquires control information for the imaging optical system when generating the intermediate image,
The imaging apparatus according to claim 3, wherein the image information generation unit generates the image file using the acquired optical information and the control information as information related to the calculation value.
取得された前記光学情報に基づいて、前記撮像方式を特定する方式特定部と
を含み、
前記画像情報生成部は、特定された前記撮像方式を識別する情報を前記演算特定情報として前記画像ファイルを生成する
ことを特徴とする請求項3に記載の撮像装置。 An optical information acquisition unit for acquiring optical information indicating the configuration of the imaging optical system;
A method specifying unit that specifies the imaging method based on the acquired optical information, and
The imaging apparatus according to claim 3, wherein the image information generation unit generates the image file using information for identifying the specified imaging method as the calculation specifying information.
を含み、
前記画像情報生成部は、生成された前記補正画像データ、前記中間画像データ及び前記付随情報を含む画像ファイルを生成する
ことを特徴とする請求項1に記載の撮像装置。 An image data generation unit that generates corrected image data desired by the user from the acquired intermediate image data,
The imaging apparatus according to claim 1, wherein the image information generation unit generates an image file including the generated corrected image data, the intermediate image data, and the accompanying information.
を含み、
前記画像情報生成部は、生成された前記参照用の画像データ、前記中間画像データ及び前記付随情報を含む画像ファイルを生成する
ことを特徴とする請求項1に記載の撮像装置。 An image data generation unit that generates corrected image data desired by the user from the acquired intermediate image data, and generates reference image data having a size smaller than the image data from the generated image data;
The imaging apparatus according to claim 1, wherein the image information generation unit generates an image file including the generated reference image data, the intermediate image data, and the accompanying information.
前記光学的変調の方式を識別するための識別情報と、前記光学的変調された中間画像を画像処理により復調するために必要な画像処理情報とを取得し、
画像データ及び前記画像データの付随情報に関する所定の規格に従って、前記中間画像のデータと、前記識別情報及び前記画像処理情報を含む付随情報とを含む画像ファイルを生成し、
生成された前記画像ファイルを、撮像操作に応じて得られる情報として記憶媒体に記憶させる
ことを特徴とする撮像装置の制御方法。 An intermediate image is obtained by an imaging optical system including an optical modulation element that optically modulates the image;
Obtaining identification information for identifying the optical modulation method and image processing information necessary for demodulating the optically modulated intermediate image by image processing;
In accordance with a predetermined standard relating to image data and accompanying information of the image data, an image file including the intermediate image data and accompanying information including the identification information and the image processing information is generated.
The generated image file is stored in a storage medium as information obtained in accordance with an imaging operation.
前記光学的変調の方式を識別するための識別情報と、前記光学的変調された中間画像を画像処理により復調するために必要な画像処理情報とをするステップと、
画像データ及び前記画像データの付随情報に関する所定の規格に従って、前記中間画像のデータと、前記識別情報及び前記画像処理情報を含む付随情報とを含む画像ファイルを生成するステップと、
生成された前記画像ファイルを、撮像操作に応じて得られる情報として記憶媒体に記憶させるステップと、
を実行させることを特徴とする撮像装置の制御プログラム。 Obtaining an intermediate image by an imaging optical system including an optical modulation element that optically modulates the image;
Performing identification information for identifying the optical modulation scheme and image processing information necessary for demodulating the optically modulated intermediate image by image processing;
Generating an image file including the intermediate image data and the accompanying information including the identification information and the image processing information according to a predetermined standard relating to the image data and the accompanying information of the image data;
Storing the generated image file in a storage medium as information obtained in accordance with an imaging operation;
A control program for an imaging apparatus, characterized in that
前記光学的変調がされた画像のデータに、前記光学変調方式の種類を示す識別子を含む情報を付加して画像ファイルを生成することを特徴とする画像ファイルの生成方法。 An image optically modulated by a predetermined optical modulation method is captured by the imaging optical system, and image processing for restoring the optical modulation is performed on the image captured by the imaging optical system. In the image file generation method in the configured imaging apparatus,
A method for generating an image file, comprising generating information by adding information including an identifier indicating the type of the optical modulation method to data of the optically modulated image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2014/079352 WO2016071973A1 (en) | 2014-11-05 | 2014-11-05 | Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2014/079352 WO2016071973A1 (en) | 2014-11-05 | 2014-11-05 | Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016071973A1 true WO2016071973A1 (en) | 2016-05-12 |
Family
ID=55908727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2014/079352 Ceased WO2016071973A1 (en) | 2014-11-05 | 2014-11-05 | Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2016071973A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008091999A (en) * | 2006-09-29 | 2008-04-17 | Olympus Corp | Camera |
| JP2010087893A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Imaging apparatus, method of imaging and program |
| JP2010102230A (en) * | 2008-10-27 | 2010-05-06 | Nikon Corp | Camera lens adapter and camera system |
| JP2011044989A (en) * | 2009-08-24 | 2011-03-03 | Nikon Corp | Image processing apparatus, image processing program and image processing method |
| JP2014003404A (en) * | 2012-06-15 | 2014-01-09 | Canon Inc | Image recording apparatus and image reproducing apparatus |
-
2014
- 2014-11-05 WO PCT/JP2014/079352 patent/WO2016071973A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008091999A (en) * | 2006-09-29 | 2008-04-17 | Olympus Corp | Camera |
| JP2010087893A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Imaging apparatus, method of imaging and program |
| JP2010102230A (en) * | 2008-10-27 | 2010-05-06 | Nikon Corp | Camera lens adapter and camera system |
| JP2011044989A (en) * | 2009-08-24 | 2011-03-03 | Nikon Corp | Image processing apparatus, image processing program and image processing method |
| JP2014003404A (en) * | 2012-06-15 | 2014-01-09 | Canon Inc | Image recording apparatus and image reproducing apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9756278B2 (en) | Image processing system and image capturing apparatus | |
| JP2012518925A (en) | Imaging method, imaging apparatus, and computer program | |
| WO2015107927A1 (en) | Image processing device, method, and program | |
| JP5730928B2 (en) | Captured image display device, imaging system, captured image display method, and program | |
| JP5506573B2 (en) | Image processing apparatus and image processing method | |
| JP2013225779A (en) | Image processing device, imaging device, and image processing program | |
| JP6115316B2 (en) | Image processing system, imaging apparatus, and program | |
| JP5352377B2 (en) | Image processing apparatus and image processing method | |
| JP5321108B2 (en) | Camera, lens aberration correction program, and computer-readable recording medium recording lens aberration correction program | |
| WO2016071973A1 (en) | Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method | |
| JP2008092000A (en) | Camera, lens unit, and camera body | |
| JP6516410B2 (en) | Image processing apparatus, image processing method and program | |
| JP6159096B2 (en) | Imaging apparatus, imaging method, and program | |
| US9204120B2 (en) | Method and apparatus for providing user input-based manipulable overlapping area displayed on a moving image reproducing screen and related computer-readable storage medium | |
| JP5417920B2 (en) | Image processing apparatus, image processing method, electronic camera, and image processing program | |
| JP2016010080A (en) | Image processing apparatus, image processing method, and program | |
| KR102004989B1 (en) | Photographing apparatus, method for controlling the same, and computer-readable recording medium | |
| JP5274223B2 (en) | Imaging apparatus and control method thereof | |
| JP6335064B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
| JP2016051017A (en) | Imaging device, control method of the same, and control program | |
| JP5499600B2 (en) | Image reproduction apparatus and image reproduction program | |
| JP6303612B2 (en) | Document data generation system and program | |
| JP6019587B2 (en) | Image processing device | |
| JP6312430B2 (en) | Imaging apparatus and control method thereof | |
| JP4952739B2 (en) | Image file generation apparatus and image reproduction apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14905264 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 14905264 Country of ref document: EP Kind code of ref document: A1 |