[go: up one dir, main page]

WO2010087164A1 - カラー画像処理方法、カラー画像処理装置および記録媒体 - Google Patents

カラー画像処理方法、カラー画像処理装置および記録媒体 Download PDF

Info

Publication number
WO2010087164A1
WO2010087164A1 PCT/JP2010/000460 JP2010000460W WO2010087164A1 WO 2010087164 A1 WO2010087164 A1 WO 2010087164A1 JP 2010000460 W JP2010000460 W JP 2010000460W WO 2010087164 A1 WO2010087164 A1 WO 2010087164A1
Authority
WO
WIPO (PCT)
Prior art keywords
reflection component
surface reflection
color
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2010/000460
Other languages
English (en)
French (fr)
Inventor
塚田正人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to EP10735636A priority Critical patent/EP2393062A4/en
Priority to JP2010548418A priority patent/JP5533670B2/ja
Priority to US13/143,395 priority patent/US8693773B2/en
Priority to CN201080006119.XA priority patent/CN102301392B/zh
Publication of WO2010087164A1 publication Critical patent/WO2010087164A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T11/10

Definitions

  • the present invention relates to image processing of a color image, and in particular, a color image processing method, a color image processing apparatus, which realizes a desired color reproduction of an object in a color image actually captured by a color image device and improves texture. And a color image processing program.
  • a preferred color is obtained by bringing the color of a specific object (skin color, green vegetation, blue sky, etc.) in the color image close to the memory color of the object.
  • skin color, green vegetation, blue sky, etc. skin color, green vegetation, blue sky, etc.
  • Patent Document 1 discloses a technique related to color correction of a color image.
  • a representative color is extracted from an object region in an image, the representative color is compared with a preset central color of correction, RGB correction parameters are determined, and correction of each pixel is performed with the central color.
  • the correction strength of the correction parameter is controlled according to the distance.
  • the RGB value which is the color information of each pixel of the color image, is converted to hue, saturation, and brightness, and the distance in the color space between the color and the correction center color is calculated, and according to the distance
  • a method has been proposed in which the color of an object is intensively corrected by adjusting the correction intensity.
  • RGB correction amount is calculated for each pixel according to the distance from the correction center color.
  • a correction parameter corresponding to the distance from the correction center color is added to or subtracted from the RGB value of each pixel in almost the entire face area.
  • Patent Document 2 discloses a technique related to detection of a face area in an input image.
  • Patent Literature 3 when color correction is performed on spectral color image data, the spectral color is converted to a lower-dimensional color space than the original dimension, and color correction is performed within the lower-dimensional color space.
  • a color correction apparatus and method for generating a spectral light of a different dimension when color correction is performed on spectral color image data, the spectral color is converted to a lower-dimensional color space than the original dimension, and color correction is performed within the lower-dimensional color space.
  • Patent Document 4 discloses a technique for converting an original color space into a color of a target color space while matching the appearance of colors between color systems having different reference whites. Specifically, the spectral distribution characteristic of the original reference white is restored from the color temperature of the original reference white that is the reference white of the original color space, and the target reference white is converted from the color temperature of the target reference white that is the reference white of the target color space. Restore spectral distribution characteristics. Then, the surface reflectance of the arbitrary color in the original color space is restored using the tristimulus value of the arbitrary color, the light distribution characteristic of the original reference white, and the human color matching function. Further, tristimulus values that are colors in the target color space are obtained based on the restored surface reflectance, the restored spectral distribution characteristics of the target reference white, and the human color matching function.
  • Patent Document 5 discloses a technique for automatically performing good white correction on an important subject in a natural image taken under various lighting environments. Specifically, the body surface color of the specific object is extracted, and the color correction parameter optimum for the extracted representative color is set. This makes it possible to automatically perform color correction on important subjects in natural images taken under various lighting environments. Note that the inventions of Patent Documents 3, 4, and 5 have completely different configurations from the present invention described later.
  • Patent Document 6 proposes a method of modeling human skin reflexes for rendering facial images.
  • a face is scanned with a 3D scanner to obtain a three-dimensional shape.
  • a plurality of face images illuminated in different illumination directions from different viewpoints are acquired.
  • the total reflectance and the normal map are estimated using the surface scan data and the image data.
  • the subsurface reflectance is scanned using an optical fiber spectrometer to obtain a translucency map.
  • the total reflectance is separated into two components: subsurface scattering and (specular) surface reflectance.
  • Patent Document 7 pixel values of pixels constituting an image are separated into a surface reflected light component due to surface reflection and a diffuse reflected light component due to diffuse reflection in a three-dimensional object.
  • An image processing apparatus that changes at least one of them is proposed.
  • the surface reflection light component and the diffuse reflection light component are separated from the reflection model by Klinker et al. Without restoring the 3D shape, and each component is changed using the Phong illumination model, Lambertian Reflection model, etc. .
  • Patent Documents 1 and 2 and Non-Patent Documents 1 and 2 are incorporated herein by reference.
  • the following is an analysis of the related art according to the present invention.
  • a color image processing technique using three color attributes such as RGB, hue, saturation, and brightness for an object area in a color image reduces the texture of the original object. There is a problem that it may end up.
  • Patent Document 6 proposes a human skin reflection model for rendering a facial image, but requires an optical fiber spectrometer as a special measurement device. For this reason, it is difficult to apply color correction to general color image processing.
  • Patent Document 7 proposes a method of changing the color of a (three-dimensional) object in a two-dimensional image.
  • the three-dimensional information of the object in the image is not restored, and the color change method is realized by applying the lighting and reflection models such as the Klinker et al. Reflection model, Phong illumination model, and Lambertian Reflection model.
  • This method is effective when the assumed reflection models such as plastics, paints, paper, and ceramics are in good agreement.
  • artifacts appear for objects with complex reflection characteristics such as human skin. There are problems such as.
  • a method for correcting an object in an input image to a desired image quality is not shown.
  • the conventional method achieves high image quality by making the color of the object in the color image more desirable. This has a problem that the texture is lowered. Therefore, there is a need for color image processing that is an easier method that uses only the input image and that suppresses the deterioration of the texture of the object area in the color image.
  • An object of the present invention is to focus on the surface reflection component (highlight component) of an object in a color image and adjust the amount of the surface reflection component to a desired amount, thereby reducing the texture of the object in the color image.
  • One aspect of the color image processing method detects an object region based on an input image, acquires color information and three-dimensional information of the object region, and obtains the color information and the three-dimensional information. Based on the above, the surface reflection component and the body reflection component of the object region are restored, the surface reflection component is corrected, and the body reflection component and the corrected surface reflection component are used to reproduce the object region. Color is calculated and an output image is generated.
  • an image information acquisition unit that detects an object region based on an input image and acquires color information and three-dimensional information of the object region; Based on information and the three-dimensional information, a reflection information restoration unit that restores a surface reflection component and a body reflection component of the object region, a surface reflection component correction unit that corrects the surface reflection component, and the body reflection
  • a reproduction color calculation unit that calculates a reproduction color of the object region using the component and the corrected surface reflection component, and generates an output image.
  • the program detects a target area based on an input image on the computer, and the color information of the target area and 3
  • An image information acquisition procedure for acquiring dimensional information, a reflection information restoration procedure for restoring a surface reflection component and a body reflection component of the object region based on the color information and the three-dimensional information, and the surface reflection
  • a surface reflection component correction procedure for correcting a component
  • a reproduction color calculation procedure for calculating a reproduction color of the object region using the body reflection component and the corrected surface reflection component and generating an output image.
  • a desired color reproduction of a predetermined object in a color image photographed by a color image device can be realized, and the texture can be maintained or improved.
  • FIG. 1 is a block diagram illustrating a configuration example of a color image processing apparatus according to an embodiment of the present invention. It is a flowchart explaining the procedure of Embodiment 1 of the color image processing method of this invention. It is a figure explaining the process which detects automatically the area
  • 1 is a block diagram illustrating a configuration example of a color image processing apparatus according to a first embodiment.
  • 6 is a block diagram illustrating a configuration example of a color image processing apparatus according to a second embodiment.
  • the three-dimensional shape (also referred to as three-dimensional information) of the specific object and the illumination geometric condition (both geometric information) are taken from the input image. Restore).
  • a surface reflection component (highlight) and a body reflection component generated on the specific object are calculated from the restored three-dimensional shape.
  • the calculated amount of the surface reflection component of the specific object is corrected to a desired amount, and the reproduction color of the specific object is calculated using the corrected surface reflection component and the body reflection component.
  • FIG. 1 shows a processing flow of a color image processing method according to an embodiment of the present invention.
  • an input image and information related to the input image are acquired (image information acquisition process). Specifically, an input image is input to the color image processing apparatus, and a specific object is specified from the input image. By specifying the specific object, an area (object area) for correcting the surface reflection component is detected. Further, the three-dimensional shape and color information (color of the object area) of the specific object are acquired.
  • the reflection information of the specific object is restored (reflection information restoration process). Specifically, the illumination geometric condition is restored based on the three-dimensional shape of the specific object.
  • the surface reflection component and the body reflection component are restored using the color information, the three-dimensional shape, and the geometric conditions of illumination.
  • the surface reflection component is removed from the pixel value of each pixel of the input image and separated from the body reflection component.
  • the surface reflection component is corrected (surface reflection component correction processing).
  • the surface reflection component is corrected using the average value of the surface reflection component and the reference surface reflection component.
  • IV. Using the body reflection component and the corrected surface reflection component (corrected surface reflection component), the reproduction color of the specific object is calculated (reproduction color calculation processing).
  • an object region detected from a specific object is composed of a plurality of pixels.
  • Each pixel has color information, and the color information is sometimes referred to as a pixel value.
  • the color information includes at least shading information, a surface reflection component, a body reflection component, and other color information.
  • the body reflection component is color information obtained by removing the surface reflection component (light) from the color information of the object region.
  • the reference surface reflection component is a surface reflection component set in advance according to the specific object.
  • FIG. 2 shows a configuration example of a color image processing apparatus according to an embodiment of the present invention.
  • the color image processing apparatus 100 includes an image information acquisition unit 110, a reflection information restoration unit 120, a surface reflection component correction unit 130, and a reproduction color calculation unit 140.
  • the image information acquisition unit 110 inputs an input image from the outside, specifies a specific target based on the input image, and detects a target region of the specific target. Further, the image information acquisition unit 110 acquires color information and a three-dimensional shape of the object area.
  • the reflection information restoration unit 120 restores the surface reflection component and the body reflection component of the object region based on the color information and the three-dimensional shape.
  • the reflection information restoration unit 120 restores the illumination geometric information (illumination irradiance) using the three-dimensional information, and uses the color information, the three-dimensional shape, and the illumination geometric information to determine the surface reflection component and Restore body reflection component. Details will be described later.
  • the surface reflection component correction unit 130 corrects the restored surface reflection component. For example, the amount of the surface reflection component is changed by changing the area of the surface reflection component or changing the shape of the surface reflection component.
  • a correction method an average value of the surface reflection components of the object region is calculated, and correction is performed using the calculated average value. For example, the correction is performed by comparing the average value with a preset arbitrary value. For example, as an arbitrary value, the surface reflection component may be corrected using the reference surface reflection component. Further, a correction value may be received from the user and corrected using the received correction value.
  • the reproduction color calculation unit 140 calculates the reproduction color of the object region using the body reflection component and the corrected surface reflection component, and generates an output image using the calculated reproduction color.
  • the color image processing apparatus 100 can correct the surface reflection component restored with high accuracy by using the three-dimensional information of the specific object. Specifically, first, the image information acquisition unit 110 acquires three-dimensional information of the specific object. Next, the reflection information restoration unit 120 accurately restores the surface reflection component and the body reflection component using the acquired three-dimensional information of the specific object. Then, the surface reflection component correction unit 130 corrects the surface reflection component restored with high accuracy.
  • the reflection information restoration unit 120 can accurately restore the surface reflection component and the body reflection component of the specific object by using the color information obtained from the image and the restored illumination geometric information. This makes it possible to suppress the occurrence of unnatural artifacts.
  • when three-dimensional information is not used it is difficult to accurately restore the surface reflection component and the body reflection component. Therefore, unnatural artifacts are likely to occur in the output image generated by correcting the surface reflection component and the body reflection component restored without using the three-dimensional information. A description will be given below according to the embodiment.
  • FIG. 3 is a flowchart for explaining the color image processing method according to the first embodiment of the present invention.
  • the color system of the image is the RGB color system. That is, the color of the image is represented by a combination of R (red), G (green), and B (blue), and is represented as color information RGB.
  • the present invention it is needless to say that the present invention can be applied to a color system other than RGB.
  • the reproducible color is recalculated in each pixel of the object area in the color image.
  • the specific object is different from the individual, that is, even if there is an individual difference, the rough color information and texture are universal, so it is specified as an object assumed from the characteristics obtained from the color image There is no particular limitation as long as it is possible.
  • the image information acquisition unit 110 automatically detects a specific object from the input image (step S1). At this time, the image information acquisition unit 110 acquires the color information of the object area in the detected specific object. As shown in FIG. 4, a specific object is detected from the input color image using color information, texture, and the like. Hereinafter, a case where the specific object is a human face will be described. When the specific object is a human face, a face region is detected using shape features such as eyes, nose and mouth.
  • the face detection method described in Non-Patent Document 2 can be used.
  • This method is a face detection method that combines an image-based type and a feature-based type for eye detection using generalized learning vector quantization.
  • a method for detecting a face area from an input image a method described in Patent Document 2 for detecting eyes from an image can be used. That is, it is easy to estimate the face area if the eye position is detected from the input image.
  • the above two methods generally perform face detection using monochrome information. However, by adding a determination as to whether the detected face area is a skin color, It is also possible to improve the detection accuracy.
  • a method using an image histogram described in Patent Document 1 can be used.
  • the face detection method is not limited to the above two methods, and another method may be used.
  • the object to be automatically detected from an arbitrarily given input image is a face, but other objects than the face can also be handled.
  • the object is automatically detected by comparing the pre-registered visual feature information of the object region with the visual feature information of the image data. Can be used.
  • the image information acquisition unit 110 restores the three-dimensional shape of the specific object in the image (step S2).
  • the specific object is described as a human face, and in this case, the technique of the following document (hereinafter referred to as non-patent document 3) can be used.
  • a three-dimensional shape of a face in a 2D image is estimated using a face model having average 3D information about a human face shape in advance.
  • Non-Patent Document 3 Satoshi Ishiyama, “Verification of non-frontal face images by posture conversion using a general 3D face model”, IEICE, 2007 General Conference, D-12-085, 2007, p. 201.
  • the above is a 3D shape restoration method in the case of specializing a human face as a specific object.
  • the specific object has a generally universal shape even if there is an individual difference
  • Non-Patent Document 3 is By expanding to a specific object, an approximate three-dimensional shape can be restored from the input image.
  • the apparent color of a specific object in the input image is affected by the geometric conditions between the lighting in the scene and the object. That is, when the illumination and the geometric condition of the object region change, the apparent color of the object region also changes.
  • non-patent documents 4, 5, and 6 describe non-patent documents 4, 5, and 6.
  • Non-Patent Document 4 R. Basri and D. Jacobs, “Lambertian Reflectance and Linear Subspaces", Proc. IEEE Intl. Conf. Computer Vision 01, pp.383-389, 2001.
  • Non-Patent Document 5 R. Ramamoorthi and P. Hanrahan, "An efficient representation for irradiance environment maps", [online], Proc. ACM SIGGRAPH 01, pp.
  • Non-Patent Document 6 Ravi Ramamoorthi and Pat Hanrahan: "On the relationship between radiance and irradiance: determining the illumination from images of a convex Lambertian object", J. Opt. Soc. Am. A / Vol. 18, No. 10 / October 2001.
  • the lighting conditions are estimated from the observed values (irradiance irradiance) on the Lambertian surface.
  • the illumination is expressed as a non-negative function on the surface of the convex object.
  • this function is expressed using a spherical harmonic function.
  • the spherical harmonic Y lm (l ⁇ 0, ⁇ l ⁇ m ⁇ 1) is similar to the Fourier basis for a straight line or a circle and on the sphere.
  • the irradiance E in each pixel of the specific object represented by the expression (13) is obtained. That is, it means that the illumination geometric condition for the specific object in the input image can be restored.
  • the irradiance E is regarded as a geometric condition.
  • the reflection information restoration unit 120 restores (calculates) the surface reflection component and the body reflection component of the specific object in the input image (step S4).
  • the reflectance of an object region depends on the geometric conditions of incident light and emitted light.
  • this reflection characteristic is expressed as a bidirectional reflectance distribution function BRDF (Bidirectional Reflectance Distribution Function).
  • the BRDF is often composed of two components, a surface reflection component (Secular component) and a body reflection component (Body reflection component).
  • (a) image information acquisition processing and (b) reflection information restoration processing show a state in which an object region in an input image is separated into a surface reflection component and a body reflection component.
  • the surface reflection component is a component that reflects on the surface of the skin.
  • the body component is a component of light once incident on the inside of the skin and the light diffused in the body once again diverges through the skin.
  • the irradiance at each pixel of the specific object is calculated by spherical harmony as shown in step S4. . Since perfect diffusion is assumed, this irradiance E can be regarded as a diffuse reflection component (or body reflection component) DR (Diffuse Reflection) of a specific object.
  • DR diffuse Reflection
  • the irradiance E is calculated for each color channel (for example, R, G, B, etc.) and is expressed as Ei. i represents each color channel.
  • the diffuse reflection component (or body reflection component) is also expressed as DRi.
  • the diffuse reflection component (or body reflection component) is calculated on the assumption that the specific object is a Lambertian, but actually the surface reflection component is included instead of the diffuse reflection component (or body reflection component). It is out. That is, it can be said that the pixel value of each color channel of the input image represents the apparent brightness in the color channel including the diffuse reflection component (or body reflection component) and the surface reflection component.
  • the diffuse reflection component (or body reflection component) is calculated in the object region by the least square method or the like, and the irradiance does not necessarily match the pixel value. The difference that occurs here can be considered to be the surface reflection component. Accordingly, the surface reflection component SPi of each color channel of a certain pixel in the specific object region is calculated by the following equation.
  • Ii a pixel value of a certain pixel in the specific object region of the input image
  • i a color channel (for example, R, G, B, etc.).
  • the body reflection component BRi of a certain pixel in the specific object region of the input image is obtained by subtracting the surface reflection component SPi from the pixel value Ii of the image.
  • Min (x, y) is a function that outputs the minimum value of x and y.
  • the surface reflection component and the body reflection component are calculated with higher accuracy by using the three-dimensional information of the specific object in the input image.
  • the surface reflection component is corrected (step S5). If a surface reflection component generated in the specific object region in the color image is obtained, the texture of the specific object is improved by controlling the amount (area and intensity) of the surface reflection component. That is, a desired surface reflection component is generated by controlling and adjusting the amount of the surface reflection component such as the area of the surface reflection component and the intensity of the specific object in the input color image.
  • the correction related to the amount (area) of the surface reflection component is performed by using the amount (area) of the desired surface reflection component of the target object area set in advance, as in the case of the intensity. Adjust the amount (area).
  • the area may be a ratio of the number of pixels of the surface reflection component to the number of pixels of the specific target region.
  • the number of pixels of the surface reflection component in the area of the specific object of the input image, that is, the area is the amount (area of the desired surface reflection component of the object area)
  • the value of ⁇ i is adjusted so as to approach ().
  • the intensity of the surface reflection component is suppressed and the pixel value SPi becomes a value smaller than a certain threshold value, it may be set to zero.
  • the pixel value SPi becomes a value smaller than a certain threshold value
  • a pixel that was originally not a surface reflection component and that is adjacent to a pixel that was originally a surface reflection component is randomly selected. A positive real number is added to the pixel value SPi of the pixel.
  • ⁇ i in Expression (21) until the desired area is reached, a pixel adjacent to the pixel that was originally the surface reflection component is selected at random, and the operation of adding a positive real number to the pixel value of the pixel is continued. .
  • the corrected color of each pixel in the target object in the input image is calculated using the corrected surface reflection component and body reflection component (step S6).
  • the corrected surface reflection component SPi ′ obtained in step S5 is added to the body reflection component BRi, the pixel value Ii ′ after color correction is calculated.
  • Ii ' Bri + Spi' (22)
  • An image in which the color of the object area in the input image is corrected is output as an output image.
  • the device-dependent color of the input image and the output image is RGB
  • the device-dependent color and the device-independent color are three. If the correspondence with the stimulus value XYZ is obtained, the color correction method of the present invention can be applied to images other than RGB.
  • the device-dependent color means a color space that depends on the output destination device.
  • FIG. 5 is a diagram illustrating a configuration example of the color image processing apparatus according to the first embodiment of the present invention.
  • the color image processing apparatus 101 is an apparatus that outputs the output image 2 by correcting the surface reflection component of the object area in the input image 1.
  • the color image processing apparatus 101 includes an object region detection unit 3, a three-dimensional information restoration unit (a three-dimensional information restoration unit for the object region) 4, and a reflection information restoration unit (a surface reflection component and a body reflection component of the object region). (Restoration unit) 5, surface reflection component correction unit 6, reference surface reflection component storage memory 7, and reproduction color calculation unit (reproduction color calculation unit of object region) 8.
  • the target area detection unit 3 analyzes the input image 1, detects a specific target assumed in advance, and outputs information indicating the target area in the detected specific target.
  • the information indicating the object area includes color information of the object area.
  • the object to be detected from the input image 1 is such that the color and shape characteristics of the object region can be limited to some extent, such as a human face, as described above. About a detection method, what is necessary is just to follow an above-described method. If the target object is not detected from the input image 1, the input image 1 is output as the output image 2.
  • the three-dimensional information restoration unit 4 restores the three-dimensional shape of the object area detected by the object area detection unit 3.
  • a process corresponding to step S2 in FIG. 3 is executed.
  • the reflection information restoring unit 5 restores (calculates) the irradiance E in the object region using the three-dimensional shape (that is, the normal vector) of the object region in accordance with Step S3 of FIG.
  • the three-dimensional shape of the object area is calculated by the three-dimensional information restoration unit 4. Then, the surface reflection component and the body reflection component in the object region are restored (calculated) by the processing method described in step S4 of FIG.
  • the surface reflection component correction unit 6 corrects the calculated surface reflection component in the object region to a desired amount using the reference surface reflection component.
  • the reference surface reflection component is a surface reflection component that provides preferable image quality of the object region, and is set in advance according to the object region.
  • the surface reflection component correction unit 6 executes a process corresponding to step S5 in FIG.
  • the surface reflection component correction unit 6 can accurately reproduce a color such as an object having complicated reflection characteristics, for example, human skin. Further, it is possible to avoid the occurrence of artifacts.
  • the reference surface reflection component storage memory 7 stores a reference surface reflection component.
  • the reproduction color calculation unit 8 calculates the corrected color of each pixel in the object area using the corrected surface reflection component and body reflection component, and outputs it as an output image.
  • the corrected surface reflection component is a component corrected by the surface reflection component correction unit 6 and indicates a preferable surface reflection component of each pixel in the object region.
  • the body reflection component is a component calculated by the reflection information restoration unit 5.
  • the reproduction color calculation unit 8 executes a process corresponding to step S6 in FIG.
  • the color image processing apparatus 101 provides a method of adjusting an unpleasant regular reflection component (surface reflection component, that is, shine) and improving the image quality as a method of realizing a desirable image quality of a human face.
  • the surface reflection component correction unit 6 corrects the surface reflection component
  • the reproduction color calculation unit 8 generates an output image using the corrected surface reflection component. That is, the color image processing apparatus 101 can correct the object to a desired image quality by the surface reflection component correction unit 6 and the reproduction color calculation unit 8.
  • a related technique there is provided a method for changing the color of an artificial object such as a plastic having a dichroic reflection model from red to blue. In the case of such an artifact, it is difficult to obtain a desired image quality by improving the image quality by correcting the color.
  • the color image processing apparatus 101 can be related as follows.
  • the image information acquisition unit 110 includes an object region detection unit 3 and a three-dimensional information restoration unit 4.
  • the reflection information restoration unit 120 corresponds to the reflection information restoration unit 5.
  • the surface reflection component correction unit 130 includes the surface reflection component correction unit 6 and the reference surface reflection component storage memory 7.
  • the reproduction color calculation unit 140 corresponds to the reproduction color calculation unit 8. Note that the configuration of the color image processing apparatus shown in FIG. 2 or FIG. 5 is an example, and other configurations may be adopted as long as the apparatus realizes the same function.
  • the color image processing apparatus 101 can be realized by a computer, and each component constituting the color image processing apparatus, that is, the object region detection unit 3, the three-dimensional information restoration unit 4, and the reflection information restoration unit 5 is realized.
  • the surface reflection component correction unit 6, the reference surface reflection component storage memory 7, and the reproduction color calculation unit 8 can be realized as a program for causing the central processing unit (CPU) of the computer to realize the functions described above. .
  • the fact that each component constituting the color image processing apparatus can be realized by a computer and can be realized as a program is not limited to the first embodiment, but is also the same in other embodiments.
  • FIG. 6 is a diagram illustrating a configuration example of the color image processing apparatus according to the second embodiment of the present invention.
  • the color image processing apparatus 102 is an apparatus that outputs the output image 2 by correcting the surface reflection component of the object area in the input image 1.
  • the color image processing apparatus 102 includes an object region detection unit 3, a three-dimensional information restoration unit 4, a reflection information restoration unit 5, a surface reflection component correction unit 6, a user interaction unit 9, and a reproduction color calculation unit 8. Is provided.
  • the color image processing apparatus 102 is obtained by replacing the reference surface reflection component storage memory 7 of the color image processing apparatus 101 with a user dialogue unit 9. Therefore, only the user interaction unit 9 will be described.
  • the user dialogue unit 9 provides a dialogue means for the user to adjust the amount of the surface reflection component in the area of the specific object in the input image.
  • 7A and 7B are diagrams showing an example of user interaction means.
  • the reflection information restoration unit 5 provides a graphical user interface (GUI) that can interactively adjust the amount of the surface reflection component of the specific object region in the calculated input image.
  • GUI graphical user interface
  • the slider bar of this GUI can be used, for example, for adjusting the value of ⁇ in Expression (21).
  • FIG. 7A shows an example in which the surface reflection component is weakened
  • FIG. 7B shows an emphasized example. It is assumed that the user interaction unit 9 displays a corrected image in which the adjustment result of the surface reflection component in the input image is reflected in real time.
  • the user interaction unit 9 receives the amount (correction value) of the surface reflection component input from the user and notifies the surface reflection component correction unit 6 of it.
  • the correction value may be a value that specifies the total amount of the surface reflection component, or may be a value that indicates the amount to be changed from the current surface reflection component.
  • the surface reflection component correction unit 6 corrects the surface reflection component of each pixel using the notified amount of surface reflection component. As a result, an output image desired by the user can be generated.
  • FIG. 6 the configuration example in which the reference surface reflection component storage memory 7 is replaced with the user interaction unit 9 has been described.
  • both of the components may be provided.
  • an image with the surface reflection component corrected using the reference surface reflection component storage memory 7 is displayed to the user.
  • the user desires to change the surface reflection component of the corrected image, the user can input a correction value.
  • an output image desired by the user can be generated.
  • the user can change the surface reflection component according to the application to be used.
  • the color image processing method and apparatus of each of the above embodiments can be realized using a computer.
  • Each process of the color image processing method and apparatus can be realized by a combination of two or more of software, hardware, and firmware.
  • the program program instruction group
  • the program causes a computer to execute at least the following procedure.
  • the program is loaded into the memory of the computer, and each instruction is executed under the control of the CPU.
  • A An image information acquisition procedure for inputting an input image, detecting an object region based on the input image, and acquiring color information and three-dimensional information of the object region.
  • This procedure corresponds to the image information acquisition unit 110 in FIG.
  • B A reflection information restoration procedure for restoring the surface reflection component and the body reflection component of the object region based on the color information and the three-dimensional information.
  • This procedure corresponds to the reflection information restoration unit 120 in FIG.
  • C Surface reflection component correction procedure for correcting the surface reflection component.
  • This procedure corresponds to the surface reflection component correction unit 130 in FIG.
  • D A reproduction color calculation procedure for calculating a reproduction color of the object region using the body reflection component and the corrected surface reflection component, and generating an output image.
  • This procedure corresponds to the reproduction color calculation unit 140 in FIG.
  • the surface reflection component correction procedure specifically calculates the average value of the surface reflection component of the object region, and restores the illumination spectral distribution using the color information to be corrected using the calculated average value.
  • the surface reflection component correction procedure may further include a user interaction procedure for receiving a correction value of the surface reflection component from a user, and the average value of the surface reflection component may be corrected using the received correction value.
  • the program can be provided by being recorded on a recording medium, or can be provided by being transmitted via the Internet or another communication medium.
  • the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a battery-backed RAM memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge.
  • the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the like.
  • the amount of the surface reflection component in the specific object is controlled.
  • the texture can be improved.
  • the problem that the texture of an object is lowered due to a color correction method that is a conventional method is solved, and the surface reflection component of a specific object in a color image captured by a color imaging device
  • a measuring device such as an optical fiber spectrometer is not required, an easier method using only an input image can be realized.
  • the present invention can be applied to a function for realizing high image quality of a color image input / output device. Further, the present invention can be applied as image correction software or a utility for an arbitrary color image by adopting a program that operates in a computer system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Processing Or Creating Images (AREA)
  • Color Image Communication Systems (AREA)

Abstract

 カラー画像機器で撮影されたカラー画像中の特定の対象物について、該特定対象物における表面反射成分の量をコントロールすることにより質感を向上させるカラー画像処理方法及び装置を提供する。カラー画像処理装置(100)は、入力画像に基づいて対象物領域を検出し、対象物領域の色情報と3次元情報とを取得する画像情報取得部(110)と、色情報と3次元情報とに基づいて、対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元部(120)と、表面反射成分を補正する表面反射成分補正部(130)と、ボディー反射成分と補正後の表面反射成分とを用いて、対象物領域の再現色を算出し、出力画像を生成する再現色算出部(140)と、を備える。

Description

カラー画像処理方法、カラー画像処理装置および記録媒体
 本発明は、カラー画像の画像処理に関し、特に、実際にカラー画像機器で撮影されたカラー画像中の物体の所望の色再現を実現し、質感を向上させるカラー画像処理方法、カラー画像処理装置、及びカラー画像処理プログラムに関する。
 カラー画像装置によって撮影されたカラー画像を高画質化する手法として、カラー画像中の特定対象物(肌色、草木の緑、青空など)の色を、その対象物の記憶色に近づけることで好ましい色を再現する手法が提案されている。
 例えば特許文献1には、カラー画像の色補正に関する技術が開示されている。特許文献1においては、画像中の対象物領域から代表色を抽出し、その代表色をあらかじめ設定された補正の中心色と比較してRGB補正パラメータを決定し、各画素の補正は中心色との距離に応じてこの補正パラメータの適用強度をコントロールして補正する。具体的には、カラー画像の各画素の色情報であるRGB値から色相、彩度、明度に変換し、その色と補正の中心色との色空間における距離を計算し、その距離に応じて補正強度を調整することで、対象物の色を重点的に補正する手法が提案されている。
 この手法では、RGB色空間で補正パラメータの加減算に基づく色補正が行われる。例えば、顔の肌色の場合、RGBの補正量は、画素毎に補正の中心色との距離に応じて計算される。顔領域を全体的に明るくする場合には、顔領域のほぼ全領域の各画素のRGB値に対して、補正の中心色との上記距離に応じた補正パラメータが加減算される。また、特許文献2には、入力画像中の顔領域の検出に関する技術が開示されている。
 特許文献3には、分光色の画像データを色補正する際に、分光色を元の次元よりも低次元の色空間に変換し、低次元色空間内で色補正を行い、低次元から適切な次元の分光色を生成する色補正装置、方法が開示されている。
 また、特許文献4には、基準白色が異なる表色系間で、色の見え方を一致させながら元色空間を目的色空間の色へ変換させる技術が開示されている。具体的には、元色空間の基準白色である元基準白色の色温度から元基準白色の分光分布特性を復元し、目的色空間の基準白色である目的基準白色の色温度から目的基準白色の分光分布特性を復元する。そして、任意の色の三刺激値と、元基準白色の光分布特性と、人間の等色関数とを利用して、元色空間における任意の色の表面反射率を復元する。さらに、復元された表面反射率と、復元された目的基準白色の分光分布特性と、人間の等色関数とに基づいて、目的色空間における色である三刺激値を求める。
 特許文献5には、さまざまな照明環境下で撮影された自然画像における重要被写体に対し、自動的に良好な白補正を施す技術が開示されている。具体的には、特定対象物の体表色を抽出し、抽出された代表色に最適な色補正パラメータを設定する。これによって様々な照明環境下で撮影された自然画像における重要被写体に対して自動的に色補正を施すことが可能する。なお、特許文献3、4、5の発明は、後述される本発明とは全く相違した構成となっている。
 特許文献6では、顔画像のレンダリングに人間の皮膚反射のモデル化法を提案している。この方法では、顔を3Dスキャナでスキャンして3次元形状を得る。そして、異なる視点から異なる照明方向で照らした複数の顔画像を取得する。表面スキャンデータと画像データを用いて、全反射率と法線マップを推定する。そして、光ファイバスペクトロメータを用いて表面下反射率をスキャンし、透光性マップを求める。全反射率を、表面下散乱と(鏡面)表面反射率の2つの成分に分離する。
 特許文献7では、画像を構成する画素の画素値を、3次元物体における表面反射による表面反射光成分と、拡散反射による拡散反射光成分に分離し、表面反射光成分または拡散反射光成分のうち少なくとも一方を変更する画像処理装置を提案している。本手法では、3次元形状の復元をすることなく、Klinkerらによる反射モデルを表面反射光成分と拡散反射光成分を分離し、Phong illuminationモデル、Lambertian Reflectionモデルなどを利用して各成分を変更する。
特許第3264273号公報(段落0036-0045) 特開2003-317084号公報(段落0019-0021) 特開2004-45189号公報 特開平10-229499号公報 特開2001-92956号公報 特開2006-277748号公報 特開2001-052144号公報
細井 利憲、鈴木 哲明、佐藤 敦著,「一般化学習ベクトル量子化による顔検出」,FIT2002,I-30(Sep.2002). 田島譲二著、「画像工学シリーズ10 カラー画像複製論 カラーマネジメントの基礎」、丸善株式会社、平成8年9月30日、p.33-39
 以上の特許文献1、2、及び非特許文献1、2の開示事項は、本書に引用をもって繰り込み記載されているものとする。以下に本発明による関連技術の分析を与える。
 特許文献1のように、カラー画像中の対象物領域に対して、RGBや色相、彩度、明度といった、色の3属性を用いたカラー画像処理手法では、本来の物体の質感を低下させてしまう場合がある、という問題がある。
 その理由は、特許文献1では、画像中のある対象物領域の色を全体的に扱いながら、明るくする、彩度を高める、色相を変化させるなどの色補正を実施する。この場合、画像中のある対象物の色を明るく補正する際、通常もともと高い画素値を持っている色成分(例えば赤)については飽和し、それ以外の色成分(緑、青)については補正パラメータが加減算される現象が起こる。対象物の領域全体に、この処理が行われると、対象物の領域における色情報又は画素値の分散が小さくなり、対象物の領域における見かけの質感が低下してしまう。
 特許文献6では、顔画像のレンダリング向けに人間の皮膚反射モデルを提案しているが、特別な測定装置である光ファイバスペクトロメータを必要とする。このため、一般的なカラー画像処理に対する色補正への適用は困難である。
 特許文献7では、2次元画像中の(3次元)物体の色を変更する方法を提案している。しかし、画像中の物体の3次元情報の復元は行われず、Klinkerらの反射モデル、Phong illuminationモデル、Lambertian Reflectionモデルといった照明や反射に関するモデルを応用し、色変更方法を実現している。この方法では、プラスティック、塗料、紙、焼き物など想定する反射モデルがよく一致する場合には効果的手法であるが、人間の肌などの複雑な反射特性を有する物体については、アーティファクトが出てしまうなどの問題がある。また、本手法では、入力画像中の対象物を望ましい画質に補正するための方法は示されていない。
 上記の通り、従来法では、カラー画像中の対象物の色をより所望の色にすることで高画質化を実現している。これでは質感が低下するという問題があった。したがって、入力画像のみを利用したより容易な手法で、かつ、カラー画像中の対象物の領域の質感の低下を抑制するカラー画像処理が必要となっている。
 本発明の目的は、カラー画像中の対象物における表面反射成分(ハイライト成分)に着目し、この表面反射成分の量を所望の量に調整することで、カラー画像中の対象物の質感を向上させるカラー画像の高画質化を実現するカラー画像処理方法、カラー画像処理装置及びカラー画像処理プログラムを提供することである。
 本発明に係るカラー画像処理方法の一態様は、入力画像に基づいて対象物領域を検出し、前記対象物領域の色情報と3次元情報とを取得し、前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元し、前記表面反射成分を補正し、前記ボディー反射成分と補正した表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成する。
 また、本発明に係るカラー画像処理装置の一態様は、入力画像に基づいて対象物領域を検出し、前記対象物領域の色情報と3次元情報とを取得する画像情報取得部と、前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元部と、前記表面反射成分を補正する表面反射成分補正部と、前記ボディー反射成分と補正後の表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成する再現色算出部と、を備える。
 さらに、本発明に係るカラー画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体の一態様は、プログラムがコンピュータに、入力画像に基づいて対象物領域を検出し、前記対象物領域の色情報と3次元情報とを取得する画像情報取得手順と、前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元手順と、前記表面反射成分を補正する表面反射成分補正手順と、前記ボディー反射成分と補正後の表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成する再現色算出手順と、を実行させる。
 本発明によれば、カラー画像機器で撮影されたカラー画像中の所定の対象物について該対象物の所望の色再現を実現し、質感を維持する、もしくは、向上させることができる。
本発明の実施形態の一態様におけるカラー画像処理方法の処理の流れを示す模式図である。 本発明の実施形態に係るカラー画像処理装置の構成例を示すブロック図である。 本発明のカラー画像処理方法の実施形態1の手順を説明するフローチャートである。 入力画像中の対象物の領域を自動検出する処理を説明する図である。 実施形態1のカラー画像処理装置の構成例を表したブロック図である。 実施形態2のカラー画像処理装置の構成例を表したブロック図である。 入力画像中の特定対象物領域の表面反射成分を調整するユーザー対話手段の一例(表面反射成分の量を少なくする場合)を示した図である。 入力画像中の特定対象物領域の表面反射成分を調整するユーザー対話手段の一例(表面反射成分の量を多くする場合)を示した図である。
 以下、本発明の実施形態について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において同一の構成または機能を有する構成要素および相当部分には、同一の符号を付し、その説明は省略する。
 本発明の実施の形態の一態様について説明する。本発明においては、入力画像中の特定対象物の質感を向上させる際、まず、入力画像から特定対象物の3次元形状(3次元情報ともいう)と撮影時の照明の幾何条件(幾何情報ともいう)とを復元する。次に、復元された3次元形状からその特定対象物上に発生している表面反射成分(ハイライト)とボディー反射成分とを算出する。そして、算出された当該特定対象物の表面反射成分の量を所望の量に補正し、補正された表面反射成分と、ボディー反射成分とを用いて特定対象物の再現色を算出する。これにより、特定対象物の補正後の見かけの質感を自然に近い見えで、かつ、より好ましい質感で表現する。
 図1に本発明の実施形態におけるカラー画像処理方法の処理の流れを示す。
 I.まず、入力画像および入力画像に関する情報を取得する(画像情報取得処理)。具体的には、カラー画像処理装置へ入力画像が入力され、入力画像から特定対象物が特定される。特定対象物が特定されることによって、表面反射成分を補正する領域(対象物領域)が検出される。また、特定対象物の3次元形状と色情報(対象物領域の色)が取得される。
 II.次に、特定対象物の反射情報を復元する(反射情報復元処理)。具体的には、特定対象物の3次元形状に基づいて、照明の幾何条件が復元される。続いて、色情報、3次元形状及び照明の幾何条件を用いて、表面反射成分とボディー反射成分とが復元される。このとき、入力画像の各画素の画素値から表面反射成分が除かれ、ボディー反射成分と分離される。
 III.表面反射成分を補正する(表面反射成分補正処理)。表面反射成分の平均値、参照表面反射成分を用いて、表面反射成分を補正する。
 IV.ボディー反射成分と、補正した表面反射成分(補正表面反射成分)とを用いて、特定対象物の再現色を算出する(再現色算出処理)。
 本明細書内では、特定対象物から検出した対象物領域は複数の画素から構成されていることを前提とする。また、各画素は色情報を有し、色情報を画素値ということもある。色情報には、少なくとも陰影情報、表面反射成分、ボディー反射成分を含み、その他の色情報が含まれていることを前提とする。
 また、以降の説明では、特定対象物と対象物領域とは特に区別しない。
 ボディー反射成分は、対象物領域の色情報から表面反射成分(てかり)を取り除いた色情報である。
 参照表面反射成分は、予め特定対象物に応じて設定された表面反射成分である。
 また、図2に本発明の実施形態に係るカラー画像処理装置の構成例を示す。カラー画像処理装置100は、画像情報取得部110、反射情報復元部120、表面反射成分補正部130、及び、再現色算出部140を備える。
 画像情報取得部110は、入力画像を外部から入力し、入力画像に基づいて、特定対象物を特定し、特定対象物の対象物領域を検出する。また、画像情報取得部110は、対象物領域の色情報と3次元形状とを取得する。
 反射情報復元部120は、色情報と3次元形状とに基づいて、対象物領域の表面反射成分とボディー反射成分とを復元する。具体的には、反射情報復元部120は、3次元情報を用いて照明の幾何情報(照明の放射照度)を復元し、色情報、3次元形状及び照明の幾何情報を用いて表面反射成分とボディー反射成分とを復元する。
 詳細は後述する。
 表面反射成分補正部130は、復元した表面反射成分を補正する。例えば、表面反射成分の面積を変更したり、表面反射成分の形状を変更するなどによって表面反射成分の量を変更する。補正方法としては、対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて補正する。例えば、平均値を予め設定した任意の値と比較することによって補正する。例えば、任意の値として、参照表面反射成分を用いて表面反射成分を補正してもよい。さらに、ユーザーから補正値を受け付け、受け付けた補正値を用いて補正してもよい。
 再現色算出部140は、ボディー反射成分と補正した表面反射成分とを用いて、対象物領域の再現色を算出し、算出した再現色を用いて出力画像を生成する。
 上述したように、カラー画像処理装置100は、特定対象物の3次元情報を利用して、精度よく復元した表面反射成分を補正することができる。具体的には、まず、画像情報取得部110が特定対象物の3次元情報を取得する。次に、反射情報復元部120が、取得された特定対象物の3次元情報を用いて、その表面反射成分とボディー反射成分を精度よく復元する。そして、表面反射成分補正部130が、精度よく復元した表面反射成分を補正する。
 反射情報復元部120は、画像から得られる色情報と、復元された照明の幾何情報を用いることで、特定対象物の表面反射成分とボディー反射成分を精度よく復元することができる。これにより、不自然なアーティファクトの発生を抑制することが可能となる。これに対して、3次元情報を利用しない場合、表面反射成分とボディー反射成分を精度よく復元することが困難である。したがって、3次元情報を利用しないで復元された表面反射成分とボディー反射成分を補正して生成された出力画像には、不自然なアーティファクトが発生しやすくなる。
 以下実施形態に即して説明する。
(実施形態1)
 まず、本発明のカラー画像処理方法の一態様について、図面を用いて処理の流れを説明する。ここでは、図2に示したカラー画像処理装置100の構成例を用いて説明する。
 図3は、本発明の実施形態1のカラー画像処理方法を説明するためのフローチャートである。なお、ここでの説明の便宜上、画像の表色系は、RGB表色系であるものとする。すなわち、画像の色は、R(赤)、G(緑)、B(青)の組み合わせで表されるものとし、色情報RGBと表記するものとする。なお、本発明において、RGB以外の表色系にも適用可能であることは勿論である。
 任意に与えられたカラー画像中の特定対象物の質感を向上させるため、カラー画像中の対象物領域の各画素における再現色の再計算を行う。
 ここで、特定対象物としては、個体が異なる、すなわち、個体差があったとしても、大まかな色情報、テクスチャが普遍であるため、カラー画像から得られる特徴から想定する対象物であると特定できるのであれば特に限定されるものではない。
 まず、画像情報取得部110は、入力画像中から特定対象物を自動で検出する(ステップS1)。このとき、画像情報取得部110は、検出した特定対象物における対象物領域の色情報を取得する。
 図4に示したように、入力されたカラー画像中から特定対象物を、色情報、テクスチャなどを用いて検出する。以下では、特定対象物を人間の顔とした場合について説明する。特定対象物を人間の顔とした場合には、目、鼻、口などの形状特徴を利用して顔領域を検出する。
 顔領域の検出手法として、例えば、非特許文献2に掲載された顔検出方法が利用できる。この手法は、一般化学習ベクトル量子化を用いた、Image-based型と目の検出を行うFeature-based型とを組み合わせた顔検出方法である。
 また、入力画像から顔領域を検出する方法として、特許文献2に記載された、画像中から目を検出する方法を用いることができる。つまり、入力画像中から、目の位置が検出されれば、顔領域を推定することは容易である。
 ここで、上記2つの手法はモノクロ情報を利用して顔検出を行うのが一般的であるが、さらにその検出結果である顔領域が肌色であるかの判定を追加することによって、顔領域の検出精度を向上させることも可能である。
 肌色の判定方法については、特許文献1に記載の画像ヒストグラムを利用した手法を利用することができる。顔検出方法は、上記の2つの手法に限ったものではなく、別の手法を利用しても良い。
 上記の説明では、任意に与えられた入力画像から自動検出する対象物を、顔とした場合について述べたが、顔以外のものにも対応可能である。なお、顔以外の対象物を自動検出するためには、例えば、あらかじめ登録されている対象物領域の視覚的特徴情報と、画像データの視覚的特徴情報とを比較することによって対象物を自動検出する方法などを利用することができる。
 次に、画像情報取得部110は、画像中の特定対象物の3次元形状を復元する(ステップS2)。いま、特定対象物は人間の顔として説明しており、この場合、以下の文献(以降、非特許文献3という)の手法が利用できる。この手法では、予め人間の顔形状について平均的な3D情報を有する顔モデルを用いて、2D画像中の顔の3次元形状を推定する。
 非特許文献3:石山 塁著、「一般3D顔モデルを用いた姿勢変換による非正面顔画像の照合」、電子情報通信学会、2007年総合大会、D-12-085、2007年、p.201.
 上記は、特定対象物として人間の顔に特化した場合の3D形状復元方法であるが、個体差があっても大体普遍的な形状を有する特定対象物であれば、非特許文献3をその特定対象物に拡張することで、入力画像からおおよその3次元形状を復元できる。
Figure JPOXMLDOC01-appb-M000001
 入力画像中の特定対象物の見かけの色は、情景中の照明とその対象物との幾何条件が影響を与える。すなわち、照明と対象物領域の幾何条件が変化するとその対象物領域の見かけの色も変化する。
 そこで、次に入力画像中の特定対象物に対する照明の幾何条件を復元する(ステップS3)。本発明では、実際の見かけの色を表現するために簡単な物理反射モデルを適用する。以下の三つの文献に物理モデルに関する技術が記載されている(以降各文献を、非特許文献4、5、6という)。
 非特許文献4:R. Basri and D. Jacobs, "Lambertian Reflectance and Linear Subspaces",Proc. IEEE Intl. Conf. Computer Vision 01, pp.383-389, 2001.
 非特許文献5:R. Ramamoorthi and P. Hanrahan, "An efficient representation for irradiance environment maps",[online], Proc. ACM SIGGRAPH 01, pp. 497-500, 2001,[平成21年1月26日検索]、インターネット<URL: http://www1.cs.columbia.edu/~ravir/papers/envmap/envmap.pdf>
 非特許文献6:Ravi Ramamoorthi and Pat Hanrahan: "On the relationship between radiance and irradiance: determining the illumination from images of a convex Lambertian object", J. Opt. Soc. Am. A/Vol. 18, No. 10/October 2001.
Figure JPOXMLDOC01-appb-M000002
 いま、ランバーシャン面上の観測値(放射照度irradiance)から、照明条件を推定することを考える。上記の通り、キャストシャドーや近接照明の影響を無視できるとした仮定の下、照明は、凸物体の表面上では、非負の関数として表される。非特許文献4および5では、球面調和関数を用いてこの関数を表現している。
 球面調和Ylm(l≧0、-l≦m≦1)は、直線あるいは円に対するフーリエ基底と、球面上で相似形となる。9個の球面調和(l≦2)は、デカルト座標(x、y、z)の定数(l=0)あるいは一次式(l=1)あるいは2次多項式(l=2)となり、以下のように表される。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 以上により、式(13)で表わされる特定対象物の各画素における放射照度Eが得られる。すなわち、入力画像中の特定対象物に対する照明の幾何条件を復元できたことを意味する。ここでは、放射照度Eを幾何条件とみなす。
 次に、反射情報復元部120は、入力画像中の特定対象物における表面反射成分とボディー反射成分とを復元(計算)する(ステップS4)。
 一般に対象物領域の反射率は入射光と放射光の幾何条件に依存する。一般に、この反射特性は双方向反射率分布関数BRDF(Bidirectional Reflectance Distribution Function)として表現される。BRDFでは、表面反射成分(Secular component)とボディー反射成分(Body reflection component)の2つの成分から構成される場合が多い。図1の(a)画像情報取得処理と(b)反射情報復元処理とに、入力画像中の対象物領域を、表面反射成分とボディー反射成分に分離した状態を示している。
 特定対象物が人などの生物の場合、表面反射成分とボディー反射成分は次のようになる。
 表面反射成分は、皮膚の表面で反射する成分である。
 ボディー成分は、一旦、皮膚内部に入射し、その内部で拡散された光が、再度皮膚を通じて発散する光の成分である。
 いま、特定対象物の表面反射特性がランバーシャン(Lambertian)、すなわち完全拡散であると仮定することで、ステップS4で示したように球面調和によって、特定対象物の各画素における放射照度を算出した。完全拡散を仮定していることから、この放射照度Eを特定対象物の拡散反射成分(あるいはボディー反射成分)DR(Diffuse Reflection)と見做すことができる。なお、ここでは、放射照度Eはカラーチャネル(たとえば、R、G、Bなど)毎に算出されているものとし、Eiと表現する。iは各カラーチャネルを表す。拡散反射成分(あるいはボディー反射成分)も同様にDRiと表現する。
Ei = DRi      (17)
 いま、拡散反射成分(あるいはボディー反射成分)は、特定対象物がランバーシャンであると仮定して計算されているが、実際には拡散反射成分(あるいはボディー反射成分)ではなく表面反射成分を含んでいる。つまり、入力画像の各カラーチャネルの画素値は、拡散反射成分(あるいはボディー反射成分)と表面反射成分を含んだそのカラーチャネルにおける見かけの明るさを表していると言える。拡散反射成分(あるいはボディー反射成分)は、対象物領域において最小二乗法などにより算出されており、必ずしも放射照度が画素値と一致するわけではない。ここで生じる差異が、表面反射成分であるとすることができる。したがって、特定対象物の領域におけるある画素の各カラーチャネルの表面反射成分SPiは、以下の式で計算する。
SPi = Ii - Driのとき  Ii-DRi > 0
  = 0のとき     上記以外     (18)
ここで、Iiは、入力画像の特定対象物領域におけるある画素の画素値を現しており、iはカラーチャネル(たとえば、R、G、Bなど)を表している。
 入力画像の特定対象物領域におけるある画素のボディー反射成分BRiは、画像の画素値Iiから表面反射成分SPiを引いたものとして得られる。
BRi = Ii - Spi = Min(Ii, DRi)      (19)
ここで、Min(x,y)は、xとyの最小値を出力する関数である。
 以上により、入力画像中の特定対象物の3次元情報を用いることで、表面反射成分ならびにボディー反射成分はより精度よく算出される。
 次に、表面反射成分を補正する(ステップS5)。
 カラー画像中の特定対象物領域において発生する表面反射成分が得られたならば、この表面反射成分の量(面積や強度)をコントロールすることで、特定対象物の質感を向上させる。すなわち、入力カラー画像中の特定対象物における表面反射成分の面積や強度の大小など、表面反射成分の量を制御、調整することで所望の表面反射成分を生成する。
Figure JPOXMLDOC01-appb-M000008
 そして、式(20)で得た補正係数αiを入力画像中の対象物領域における表面反射成分SPiに乗算することで、所望の表面反射成分の量(強度)に補正する。
SPi'= αi×SPi       (21)
 表面反射成分の量(面積)に関する補正は、強度と同様に、あらかじめ設定された対象物領域の所望の表面反射成分の量(面積)を用いて、入力画像の特定対象物の表面反射成分の量(面積)を調整する。ここで、面積は特定対象領域の画素数に対する表面反射成分の画素数の割合でも良い。
 面積を減らす場合には、式(21)のαiを調整し、入力画像の特定対象物の領域における表面反射成分の画素数、すなわち面積が、対象物領域の所望の表面反射成分の量(面積)に近づくようにαiの値を調整する。具体的には、表面反射成分の強度を抑え、画素値SPiがある閾値より小さい値になった場合、ゼロにすればよい。
 一方、面積を増やす場合には、式(18)により、もともと表面反射成分でなかった画素は表面反射成分とならないので対策が必要である。面積を増やす場合には、たとえば、式(21)のαiを調整しつつ、もともと表面反射成分でなかった画素で、かつ、もともと表面反射成分であった画素に隣接する画素をランダムに選択し、その画素の画素値SPiに正の実数を加える。所望の面積になるまで、式(21)のαiを調整しながら、もともと表面反射成分であった画素に隣接する画素をランダムに選択し、その画素の画素値に正の実数を加える作業を続ける。
 次に、補正後の表面反射成分とボディー反射成分とを用いて、入力画像中の対象物における各画素の補正後の色を算出する(ステップS6)。
 ボディー反射成分BRiにステップS5で得た補正後の表面反射成分SPi'を加算することで、色補正後の画素値Ii'を計算する。
Ii'= Bri+ Spi'       (22)
 入力画像中の対象物領域の色を補正した画像を出力画像として出力する。
 以上は、入力画像および出力画像のデバイス依存カラーがRGBである場合について説明したが、CMYやCMYKなどのRGB以外のデバイス依存カラーであったとしても、そのデバイス依存カラーとデバイス非依存カラーの三刺激値XYZとの対応関係が得られれば、RGB以外の画像についても本発明の色補正方法を適用できる。なお、デバイス依存カラーとは、出力先のデバイスに依存する色空間を意味する。
 次に、本発明の実施形態1のカラー画像処理方法を適用したカラー画像処理装置(色補正装置)について説明する。図5は、本発明の実施形態1のカラー画像処理装置の構成例を示す図である。
 カラー画像処理装置101は、入力画像1における対象物領域の表面反射成分を補正して出力画像2を出力する装置である。カラー画像処理装置101は、対象物領域検出部3と、3次元情報復元部(対象物領域の3次元情報復元部)4と、反射情報復元部(対象物領域の表面反射成分とボディー反射成分復元部)5と、表面反射成分補正部6と、参照表面反射成分保存メモリ7と、再現色算出部(対象物領域の再現色算出部)8とを備える。
 対象物領域検出部3は、入力画像1が与えられると、入力画像1を解析し、予め想定された特定対象物を検出し、検出した特定対象物における対象物領域を示す情報を出力する。対象物領域を示す情報には、対象物領域の色情報も含まれる。
 ここで、入力画像1から検出する対象物は、上記のように、人の顔などのようにその対象物領域の色と形状特徴がある程度限定できるものである。検出方法については、上記した手法に従えばよい。なお、入力画像1から目的とする対象物が検出されない場合には、入力画像1を出力画像2として出力する。
 3次元情報復元部4は、対象物領域検出部3によって検出された対象物領域の3次元形状を復元する。3次元情報復元部4では、図3のステップS2に相当する処理が実行される。
 反射情報復元部5では、図3のステップS3にしたがって、対象物領域の3次元形状(すなわち法線ベクトル)を利用して、対象物領域における放射照度Eを復元(算出)する。対象物領域の3次元形状は、3次元情報復元部4によって算出される。
 そして、図3のステップS4で述べた処理方法により、対象物領域における表面反射成分とボディー反射成分を復元(算出)する。
 表面反射成分補正部6は、算出された対象物領域における表面反射成分を、参照表面反射成分を用いて、所望の量に補正する。参照表面反射成分は、対象物領域の好ましい画質をもたらす表面反射成分であり、予め対象物領域に応じて設定されている。表面反射成分補正部6は、前述した図3のステップS5に相当する処理が実行される。表面反射成分補正部6によって、複雑な反射特性を有する物体、例えば人間の肌など色を精度よく再現することが可能である。また、アーティファクトが出ることを回避することができる。
 参照表面反射成分保存メモリ7は、参照表面反射成分を記憶する。
 再現色算出部8は、補正された表面反射成分と、ボディー反射成分とを用いて、対象物領域における各画素の補正後の色を算出し、出力画像として出力する。補正された表面反射成分は、表面反射成分補正部6で補正された成分であり、対象物領域における各画素の好ましい表面反射成分を示す。ボディー反射成分は、反射情報復元部5で算出された成分である。再現色算出部8は、図3のステップS6に相当する処理が実行される。
 このように、カラー画像処理装置101は、人間の顔の望ましい画質を実現する方法として、不快な正反射成分(表面反射成分、すなわちテカリ)を調整し、画質を改善するという方法を提供する。具体的には、表面反射成分補正部6が表面反射成分の補正を行い、再現色算出部8が補正された表面反射成分を用いて出力画像を生成する。すなわち、カラー画像処理装置101は、表面反射成分補正部6と再現色算出部8とによって、対象物を望ましい画質に補正することができる。これに対して、関連技術として、2色性反射モデルを有するプラスティックなどの人工物の色を、赤から青に変更する方法が提供されている。このような人工物の場合、色を補正することで画質が改善されて望ましい画質にすることは困難である。
 また、実施形態1のカラー画像処理装置101と、図2に示したカラー画像処理装置100とは次のように関係づけることができる。
 画像情報取得部110は、対象物領域検出部3と、3次元情報復元部4とによって構成される。
 反射情報復元部120は、反射情報復元部5に対応する。
 表面反射成分補正部130は、表面反射成分補正部6と参照表面反射成分保存メモリ7によって構成される。
 再現色算出部140は、再現色算出部8に対応する。
 なお、図2または図5に示したカラー画像処理装置の構成は一例であり、同様の機能を実現する装置であればその他の構成をとってもよい。
 さらに、カラー画像処理装置101は、コンピュータで実現可能であり、カラー画像処理装置を構成する各構成要素、すなわち、対象物領域検出部3と、3次元情報復元部4と、反射情報復元部5と、表面反射成分補正部6と、参照表面反射成分保存メモリ7と、再現色算出部8とは、コンピュータの中央処理装置(CPU)に上述した機能を実現させるためのプログラムとして実現可能である。カラー画像処理装置を構成する各構成要素がコンピュータで実現可能であること、およびプログラムとして実現可能であることは、実施形態1に限らず、その他の実施形態でも同様である。
(実施形態2)
 次に、本発明の実施形態2のカラー画像処理装置について説明する。図6は、本発明の実施形態2のカラー画像処理装置の構成例を示す図である。
 カラー画像処理装置102は、入力画像1における対象物領域の表面反射成分を補正して出力画像2を出力する装置である。カラー画像処理装置102は、対象物領域検出部3と、3次元情報復元部4と、反射情報復元部5と、表面反射成分補正部6と、ユーザー対話部9と、再現色算出部8とを備える。
 カラー画像処理装置102は、カラー画像処理装置101の参照表面反射成分保存メモリ7をユーザー対話部9に置き換えたものである。したがって、ユーザー対話部9についてのみ説明する。
 ユーザー対話部9は、入力画像中の特定対象物の領域における表面反射成分の量を、ユーザーが調整するための対話手段を提供する。図7A,7Bは、ユーザー対話手段の一例を示した図である。反射情報復元部5において、算出された入力画像中の特定対象物領域の表面反射成分の量を対話的に調整できるグラフィカルユーザーインターフェース(GUI)を提供する。本GUIのスライダーバーは、例えば、式(21)のαの値を調整するものとして利用できる。図7Aは、表面反射成分を弱くした例を示しており、図7Bは強調した例を示している。ユーザー対話部9は、入力画像中の表面反射成分の調整結果がリアルタイムに反映された補正画像が表示されるものとする。
 ユーザー対話部9は、ユーザーから入力される表面反射成分の量(補正値)を受け付け、表面反射成分補正部6へ通知する。補正値は、表面反射成分の総量を指定する値であってもよいし、現在の表面反射成分から変化させる量を示す値であってもよい。
 表面反射成分補正部6は、通知された表面反射成分の量を用いて、各画素の表面反射成分を補正する。
 これにより、ユーザーの希望する出力画像を生成することができる。
 また、図6では、参照表面反射成分保存メモリ7をユーザー対話部9に置き換えた構成例を説明したが、両方の構成要素を備える場合であってもよい。
 例えば、参照表面反射成分保存メモリ7を用いて表面反射成分を補正した画像をユーザーへ表示する。ユーザーは、補正された画像について、さらに表面反射成分の変更を希望する場合、補正値を入力することが可能になる。これにより、ユーザーの希望する出力画像を生成することができる。また、利用する用途に応じてユーザーが表面反射成分を変更することが可能になる。
(その他の実施形態)
 上記各実施形態のカラー画像処理方法及び装置は、コンピュータを用いて実現することができる。カラー画像処理方法及び装置の各処理は、ソフトウェア、ハードウェア、ファームフェアのいずれか二つ以上の組み合わせで実現することもできる。
 例えば、図2に示すカラー画像処理装置100を、プログラムを用いて実現する場合、プログラム(プログラムの命令群)は、少なくとも次の手順をコンピュータに実行させる。プログラムは、コンピュータのメモリにロードされ、CPUの制御のもとで各命令が実行される。
 (a)入力画像を入力し、入力画像に基づいて対象物領域を検出し、対象物領域の色情報と3次元情報とを取得する画像情報取得手順。この手順は、図2の画像情報取得部110に対応する。(b)色情報と3次元情報とに基づいて、対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元手順。この手順は、図2の反射情報復元部120に対応する。(c)表面反射成分を補正する表面反射成分補正手順。この手順は、図2の表面反射成分補正部130に対応する。(d)ボディー反射成分と補正後の表面反射成分とを用いて、対象物領域の再現色を算出し、出力画像を生成する再現色算出手順。この手順は、図2の再現色算出部140に対応する。
 また、表面反射成分補正手順は、具体的には対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて補正する色情報を用いて照明の分光分布を復元してもよい。また、対象物領域に予め設定された参照表面反射成分情報を用いて表面反射成分の平均値を補正してもよい。
 さらに、表面反射成分補正手順は、ユーザーから前記表面反射成分の補正値を受け付けるユーザー対話手順を、さらに備え、受け付けた補正値を用いて前記表面反射成分の平均値を補正してもよい。
 プログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の通信媒体を介して伝送することにより提供することも可能である。また、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD-ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等が含まれる。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれる。
 以上説明したように、本発明に係る実施形態の一態様によれば、カラー画像機器で撮影されたカラー画像中の特定の対象物について、該特定対象物における表面反射成分の量をコントロールすることにより質感を向上させることができる。
 本発明の実施形態の一態様によれば、従来法である色補正方法による物体の質感が低下するという課題を解決し、カラー画像機器で撮影されたカラー画像中の特定対象物の表面反射成分をコントロールすることで、対象物領域の所望の質感を実現することができる。また、本発明によれば、光ファイバスペクトロメータなどの測定装置を必要としないため、入力画像のみを利用したより容易な手法が実現できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2009年1月29日に出願された日本出願特願2009-017940を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、カラー画像入出力装置の高画質化を実現する機能に適用できる。また、本発明は、コンピュータシステムで動作するプログラムの形態とすることで、任意のカラー画像に対する画像補正ソフトウェアあるいはユーティリティとしても適用可能である。
1 入力画像
2 出力画像
3 対象物領域検出部
4 3次元情報復元部
5 反射情報復元部
6 表面反射成分補正部
7 参照表面反射成分保存メモリ
8 再現色算出部
100、101、102 カラー画像処理装置
110 画像情報取得部
120 反射情報復元部
130 表面反射成分補正部
140 再現色算出部

Claims (9)

  1.  入力画像に基づいて対象物領域を検出し、
     前記対象物領域の色情報と3次元情報とを取得し、
     前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元し、
     前記対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて前記表面反射成分を補正し、
     前記ボディー反射成分と補正した表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成するカラー画像処理方法。
  2.  前記表面反射成分の補正は、前記対象物領域に予め設定された参照表面反射成分を用いて前記表面反射成分の平均値を補正することを特徴とする請求項1記載のカラー画像処理方法。
  3.  前記表面反射成分の補正は、ユーザーから前記表面反射成分の補正値を受け付け、受け付けた補正値を用いて前記表面反射成分の平均値を補正することを特徴とする請求項1または2記載のカラー画像処理方法。
  4.  入力画像に基づいて対象物領域を検出し、前記対象物領域の色情報と3次元情報とを取得する画像情報取得手段と、
     前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元手段と、
     前記対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて前記表面反射成分を補正する表面反射成分補正手段と、
     前記ボディー反射成分と補正後の表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成する再現色算出手段と、を備えるカラー画像処理装置。
  5.  前記対象物領域に予め設定された参照表面反射成分を保存する参照表面反射成分保存メモリを、さらに備え、
     前記表面反射成分補正手段は、前記参照表面反射成分を用いて前記表面反射成分の平均値を補正することを特徴とする請求項4記載のカラー画像処理装置。
  6.  ユーザーから前記表面反射成分の補正値を受け付けるユーザー対話手段を、さらに備え、
     前記表面反射成分補正手段は、受け付けた補正値を用いて前記表面反射成分の平均値を補正することを特徴とする請求項4または5記載のカラー画像処理装置。
  7.  コンピュータに、
     入力画像に基づいて対象物領域を検出し、前記対象物領域の色情報と3次元情報とを取得する画像情報取得手順と、
     前記色情報と前記3次元情報とに基づいて、前記対象物領域の表面反射成分とボディー反射成分とを復元する反射情報復元手順と、
     前記対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて前記表面反射成分を補正する表面反射成分補正手順と、
     前記ボディー反射成分と補正後の表面反射成分とを用いて、前記対象物領域の再現色を算出し、出力画像を生成する再現色算出手順と、を実行させるカラー画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  8.  前記表面反射成分補正手順は、前記対象物領域に予め設定された参照表面反射成分を用いて前記表面反射成分の平均値を補正することを特徴とする請求項7記載のカラー画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  9.  ユーザーから前記表面反射成分の補正値を受け付けるユーザー対話手順を、さらに備え、
     前記表面反射成分補正手順は、受け付けた補正値を用いて前記表面反射成分の平均値を補正することを特徴とする請求項7または8記載のカラー画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2010/000460 2009-01-29 2010-01-27 カラー画像処理方法、カラー画像処理装置および記録媒体 Ceased WO2010087164A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10735636A EP2393062A4 (en) 2009-01-29 2010-01-27 METHOD FOR PROCESSING COLOR PICTURES, DEVICE FOR PROCESSING COLOR IMAGES AND RECORDING MEDIUM
JP2010548418A JP5533670B2 (ja) 2009-01-29 2010-01-27 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US13/143,395 US8693773B2 (en) 2009-01-29 2010-01-27 Color image processing method, color image processing device, and recording medium
CN201080006119.XA CN102301392B (zh) 2009-01-29 2010-01-27 彩色图像处理方法,彩色图像处理设备和记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-017940 2009-01-29
JP2009017940 2009-01-29

Publications (1)

Publication Number Publication Date
WO2010087164A1 true WO2010087164A1 (ja) 2010-08-05

Family

ID=42395428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000460 Ceased WO2010087164A1 (ja) 2009-01-29 2010-01-27 カラー画像処理方法、カラー画像処理装置および記録媒体

Country Status (5)

Country Link
US (1) US8693773B2 (ja)
EP (1) EP2393062A4 (ja)
JP (1) JP5533670B2 (ja)
CN (1) CN102301392B (ja)
WO (1) WO2010087164A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006658A (ja) * 2012-06-22 2014-01-16 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2014120079A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2014164615A (ja) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2016213718A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2017138730A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2018082239A (ja) * 2016-11-14 2018-05-24 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003209095A1 (en) 2002-02-11 2003-09-04 Antares Pharma, Inc. Intradermal injector
EP3495009B2 (en) 2005-01-24 2025-01-15 Antares Pharma, Inc. An injector with prefilled syringe
US9144648B2 (en) 2006-05-03 2015-09-29 Antares Pharma, Inc. Injector with adjustable dosing
WO2007131013A1 (en) 2006-05-03 2007-11-15 Antares Pharma, Inc. Two-stage reconstituting injector
JP5731829B2 (ja) 2008-03-10 2015-06-10 アンタレス・ファーマ・インコーポレーテッド 注射器安全装置
ES2738539T3 (es) 2008-08-05 2020-01-23 Antares Pharma Inc Inyector de dosis múltiples
EP2590135A1 (en) * 2010-06-30 2013-05-08 Nec Corporation Color image processing method, color image processing device, and color image processing program
US9220660B2 (en) 2011-07-15 2015-12-29 Antares Pharma, Inc. Liquid-transfer adapter beveled spike
US8496619B2 (en) 2011-07-15 2013-07-30 Antares Pharma, Inc. Injection device with cammed ram assembly
DK2822618T3 (da) 2012-03-06 2024-01-22 Antares Pharma Inc Forfyldt nål med brudkraftfunktion
JP5443533B2 (ja) * 2012-03-22 2014-03-19 株式会社東芝 画像処理装置、画像表示装置及び画像処理方法
WO2013152323A1 (en) 2012-04-06 2013-10-10 Wotton Paul K Needle assisted jet injection administration of testosterone compositions
US9364610B2 (en) 2012-05-07 2016-06-14 Antares Pharma, Inc. Injection device with cammed ram assembly
JP2014078808A (ja) 2012-10-09 2014-05-01 Toshiba Corp 画像処理装置、画像処理方法
US9230158B1 (en) * 2012-12-18 2016-01-05 Amazon Technologies, Inc. Fraud detection for facial recognition systems
JP2016507305A (ja) 2013-02-11 2016-03-10 アンタレス・ファーマ・インコーポレーテッド トリガ力を低減した針支援式ジェット注射装置
CA2905031C (en) 2013-03-11 2018-01-23 Hans PFLAUMER Dosage injector with pinion system
JP5833794B2 (ja) * 2013-03-27 2015-12-16 富士フイルム株式会社 撮像装置
US10607324B2 (en) 2015-04-28 2020-03-31 Dolby Laboratories Licensing Corporation Image highlight detection and rendering
JP6827782B2 (ja) * 2016-11-30 2021-02-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および記録媒体
JP6751773B2 (ja) * 2016-12-07 2020-09-09 オリンパス株式会社 画像処理装置及び画像処理装置の作動方法
US11245856B2 (en) 2019-05-24 2022-02-08 Samsung Electronics Co., Ltd. Image processing method and apparatus
JP2024047232A (ja) * 2022-09-26 2024-04-05 富士フイルム株式会社 画像処理方法、及び画像処理装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187443A (ja) * 1992-09-14 1994-07-08 Nippon Telegr & Teleph Corp <Ntt> 反射成分を用いたカラー画像のハイライト領域抽出装置およびカラー画像変換装置
JPH10229499A (ja) 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2000009537A (ja) * 1998-06-22 2000-01-14 Dainippon Screen Mfg Co Ltd カラー印刷物のシミュレーション方法およびそのシステム
JP2001052144A (ja) 1999-08-10 2001-02-23 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2001092956A (ja) 1999-09-22 2001-04-06 Nec Corp 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
JP2004045189A (ja) 2002-07-11 2004-02-12 Matsushita Electric Ind Co Ltd 色補正装置及び色補正方法
JP2006023921A (ja) * 2004-07-07 2006-01-26 Kao Corp 化粧シミュレーション装置および方法
JP2006146342A (ja) * 2004-11-16 2006-06-08 Canon Inc 三次元画像処理方法及び三次元画像処理装置
JP2006277748A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、顔の皮膚反射モデルを生成する方法
JP2009017940A (ja) 2007-07-10 2009-01-29 Soda Aromatic Co Ltd 香気の提示方法及び装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090233A (ja) * 1998-09-08 2000-03-31 Olympus Optical Co Ltd 画像処理装置
EP1906674A4 (en) * 2005-07-13 2011-06-22 Nec Corp COLOR CORRECTION AND COLOR CORRECTION DEVICE
CN101422035B (zh) * 2006-05-29 2012-02-29 松下电器产业株式会社 光源推定装置、光源推定系统与光源推定方法以及图像高分辨率化装置与图像高分辨率化方法
CN101542537B (zh) * 2006-11-21 2012-09-19 汤姆逊许可证公司 用于3d图像的颜色校正的方法和系统
CN101146233A (zh) * 2007-09-26 2008-03-19 东南大学 一种光源颜色计算和图像校正方法
JP5136965B2 (ja) * 2008-09-03 2013-02-06 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
EP2393061B1 (en) * 2009-01-27 2016-09-07 Nec Corporation Color image processing method, color image processing device and recording medium

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187443A (ja) * 1992-09-14 1994-07-08 Nippon Telegr & Teleph Corp <Ntt> 反射成分を用いたカラー画像のハイライト領域抽出装置およびカラー画像変換装置
JPH10229499A (ja) 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2000009537A (ja) * 1998-06-22 2000-01-14 Dainippon Screen Mfg Co Ltd カラー印刷物のシミュレーション方法およびそのシステム
JP2001052144A (ja) 1999-08-10 2001-02-23 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2001092956A (ja) 1999-09-22 2001-04-06 Nec Corp 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP3264273B2 (ja) 1999-09-22 2002-03-11 日本電気株式会社 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
JP2004045189A (ja) 2002-07-11 2004-02-12 Matsushita Electric Ind Co Ltd 色補正装置及び色補正方法
JP2006023921A (ja) * 2004-07-07 2006-01-26 Kao Corp 化粧シミュレーション装置および方法
JP2006146342A (ja) * 2004-11-16 2006-06-08 Canon Inc 三次元画像処理方法及び三次元画像処理装置
JP2006277748A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、顔の皮膚反射モデルを生成する方法
JP2009017940A (ja) 2007-07-10 2009-01-29 Soda Aromatic Co Ltd 香気の提示方法及び装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
JOJI TAJIMA: "Image engineering series 10, Color image reproduction theory, Fundamentals of color management", 30 September 1996, MARUZEN CO., LTD., pages: 33 - 39
R. BASRI, D. JACOBS: "Lambertian Reflectance and Linear Subspaces", PROC. IEEE INTL. CONF. COMPUTER VISION 01, 2001, pages 383 - 389
R. RAMAMOORTHI, P. HANRAHAN: "An efficient representation for irradiance environment maps", PROC. ACM SIGGRAPH 01, 26 January 2009 (2009-01-26), pages 497 - 500
RAVI RAMAMOORTHI, PAT HANRAHAN: "On the relationship between radiance and irradiance: determining the illumination from images of a convex Lambertian object", J. OPT. SOC. AM. A, vol. 18, no. 10, October 2001 (2001-10-01)
RUI ISHIYAMA: "Recognition of Non-Frontal Facial Images by Pose Conversion using Generic 3D Face Model", IEICE, GENERAL CONFERENCE 2007, vol. D-12-085, 2007, pages 201
See also references of EP2393062A4
TOSHINORI HOSOI, TETSUAKI SUZUKI, ATUSHI SATOH: "Face detection based on Generalized LVQ", FIT2002, September 2002 (2002-09-01), pages 1 - 30

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006658A (ja) * 2012-06-22 2014-01-16 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2014120079A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2014164615A (ja) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2016213718A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US10861136B2 (en) 2015-05-11 2020-12-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2017138730A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2018082239A (ja) * 2016-11-14 2018-05-24 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Also Published As

Publication number Publication date
CN102301392B (zh) 2014-08-13
EP2393062A4 (en) 2013-01-23
JPWO2010087164A1 (ja) 2012-08-02
CN102301392A (zh) 2011-12-28
US8693773B2 (en) 2014-04-08
US20110268350A1 (en) 2011-11-03
EP2393062A1 (en) 2011-12-07
JP5533670B2 (ja) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5533670B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5648483B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5867390B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP6004481B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5158100B2 (ja) カラー画像処理方法、装置およびプログラム
US9398282B2 (en) Image processing apparatus, control method, and computer-readable medium
JP5824423B2 (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
JP2012028973A (ja) 照明光推定装置、照明光推定方法および照明光推定プログラム
CN114140580B (zh) 一种手部三维模型的纹理调节方法及设备
JP4626776B2 (ja) 色補正方法および色補正装置
EP2091226A1 (en) Algebraic method for defining a color gamut mapping function
JP2016218663A (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080006119.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10735636

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010548418

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2010735636

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13143395

Country of ref document: US

Ref document number: 2010735636

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE