[go: up one dir, main page]

WO2005057909A1 - 画像補正方法及びプログラム、並びに装置 - Google Patents

画像補正方法及びプログラム、並びに装置 Download PDF

Info

Publication number
WO2005057909A1
WO2005057909A1 PCT/JP2003/015899 JP0315899W WO2005057909A1 WO 2005057909 A1 WO2005057909 A1 WO 2005057909A1 JP 0315899 W JP0315899 W JP 0315899W WO 2005057909 A1 WO2005057909 A1 WO 2005057909A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
level
image
color component
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2003/015899
Other languages
English (en)
French (fr)
Inventor
Masayoshi Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005511676A priority Critical patent/JP4480677B2/ja
Priority to EP03778836.1A priority patent/EP1694052B1/en
Priority to PCT/JP2003/015899 priority patent/WO2005057909A1/ja
Publication of WO2005057909A1 publication Critical patent/WO2005057909A1/ja
Priority to US11/372,389 priority patent/US7359100B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control

Definitions

  • the present invention relates to an image correction technique.
  • Patent Document 1 discloses a technique for correcting white balance while avoiding the influence of chromatic portions in an image. That is, the brightness information and the saturation information are extracted from the color image data read from the image memory, and white in all the pixels of the color image data and an area that is recognized as being close to a preset white are determined. An image processing coefficient is calculated and output based on the average value of each color component in the area. Then, the image processing unit receives as input the image processing coefficients and the processing flags, and automatically performs white balance correction processing on the image data read from the image memory based on these. Patent Document 1
  • FIGS. 8A and 8B show examples of images when, for example, a plant is photographed with a digital force camera or the like.
  • the example in FIG. 8A includes a brown region 10, a light purple region 11, and a green region 12.
  • the example of FIG. 8B includes a brown region 20, a white region 21, and a green region 22. That is, the color of the flower is different between FIG. 8A and FIG. 8B, and there is no white part in the example of FIG. 8A.
  • the light purple region 11 is usually specified as a correction target and is corrected to white. That is, the image is captured as shown in Fig. 8B.
  • the light purple region 11 is originally a white flower region. For example, if the light purple region has been affected by illumination light, it means that appropriate correction has been performed.
  • an object of the present invention is to provide a novel technique for appropriately correcting the color balance of an image.
  • the image correction method according to the present invention includes: a first pixel specifying unit that specifies, among pixels included in a specific image, a first pixel that satisfies one of predetermined conditions regarding a pixel level, which is set for each color component.
  • a correction step of correcting a specific image based on the evaluation value.
  • the correction step described above may include a correction amount calculation step of calculating a correction amount based on the evaluation value.
  • the above evaluation value is considered to reflect the possibility of including a chromatic subject (or conversely, the possibility of including a subject that is originally white (or black)), and the correction amount is adjusted according to the evaluation value. If so, appropriate corrections will be made.
  • a step of generating histogram data on a pixel level; and using the histogram data, the cumulative frequency from the highest pixel level is used for the specific image.
  • Specifying a first pixel level which is a predetermined ratio (first ratio) of the number of pixels to be processed in each of the color components, in each of the color components. If the pixel level has a pixel level included between the pixel level and the limit level of the color component, the ray condition may be set.
  • the limit level indicates the maximum value or the minimum value of the pixel level. For example, when the color component is represented by RGB, the highlight is on the maximum value side.
  • the first pixel and the second pixel are specified by taking into account the bias of the frequency distribution with respect to the pixel level of each color component. become able to.
  • a step of generating histogram ⁇ data for a pixel level; and using the histogram ⁇ ⁇ ⁇ data, a cumulative frequency from the highest pixel level is specified.
  • Specifying a second pixel level which is a predetermined ratio (second ratio) of the number of pixels to be processed in the image, for each color component.
  • the above-described correction amount calculation step includes a step of setting a third ratio based on the evaluation value and a step of generating histogram data of a pixel level for each color component of a specific image. Using histogram data, specify the third pixel level for each color component whose cumulative frequency from the highest pixel level is the above third ratio of the number of pixels to be processed in a specific image.
  • the above-mentioned correction step includes a step of specifying a calculation method of the reference correction amount according to the evaluation value, a step of calculating the reference correction amount according to the specified calculation method, and a step of calculating the reference correction amount. And correcting a specific image.
  • the processing may be performed on pixels other than the pixel at which any one of the color components is at the limit level.
  • a pixel whose pixel level of any of the color components is at the limit level may be a pixel that has exceeded the specified pixel level limit level due to, for example, backlighting.
  • the second pixel that satisfies all the above-described predetermined conditions regarding the pixel level, which is set for each color component is specified. You may do so. That is, a pixel having a high (or low) pixel level is specified for all color components, and a pixel which is originally considered to be white (or black) is specified.
  • a step of generating histogram 'data for a pixel level for each color component, and processing the cumulative frequency from the limit level of the color component in a specific image using the histogram' data A fourth pixel level / specifying a predetermined ratio of the second number of pixels to be processed for each color component, wherein the correction amount calculating step includes the fourth pixel level and the color
  • the method may include a step of calculating a provisional correction amount for each color component based on a difference between the component and the limit level, and a step of changing the provisional correction amount based on the evaluation value.
  • the above evaluation can be made to be a ratio between the number of the first pixels and the number of the second pixels. It is also possible to create a program for causing a computer to execute the method according to the present invention, and the program may be, for example, a storage such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk, or the like. Stored on media or storage device. It may also be distributed as digital signals over a network. The data being processed is temporarily stored in a storage device such as a computer memory.
  • FIG. 1A is a conceptual diagram for explaining color components in the first case.
  • FIG. 1B is a conceptual diagram for explaining color components in the second case.
  • FIG. 1C is a conceptual diagram for explaining color components in the third case.
  • FIG. 2 is a functional block diagram of the color balance correction device according to one embodiment of the present invention.
  • FIG. 3 is a diagram showing a first half of a processing flow according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram for explaining level value setting for the first case.
  • FIG. 5 is a diagram showing the latter half of the processing flow according to one embodiment of the present invention.
  • FIG. 6 is a conceptual diagram of an equation used for the correction processing.
  • FIG. 7 is a conceptual diagram for explaining the level value setting for the second case.
  • FIG. 8A is a first example of an image.
  • FIG. 8B is a second image example. [Best mode for carrying out the present invention]
  • FIG. 1A shows the incident light 110, the reflected light 111, and the surface 112.
  • the incident light 110 includes, for example, red (R), green (G), and blue (B) color components, which are the three primary colors of light. Normally, light is continuous Although it has a torque distribution, it is represented here schematically by three components. The length of the arrow in the figure indicates the size of each color component, and corresponds to, for example, a value obtained when photographing is performed with a digital camera whose white balance is appropriately adjusted.
  • all the color components have the same magnitude, indicating that the achromatic light is radiated to the surface 112.
  • the surface 112 is light purple, and the surface 111 is irradiated with achromatic light. Then, as can be seen from the reflected light 1 1 1 indicating that the red and blue arrows are longer than the green arrow, mainly the red light and the blue light are reflected. When red and blue are mixed, the color becomes purple, so to a human who has received the reflected light 111, the surface 112 appears to be light purple.
  • FIG. 1B shows the incident light 120, the reflected light 121, and the surface 122.
  • the incident light 120 is an achromatic light similarly to the incident light 110 of FIG. 1A.
  • the surface 122 is green, and the surface 122 is irradiated with achromatic light.
  • the reflected light 1 21 indicating that the red and blue arrows are shorter than the green arrow, the green light is mainly reflected.
  • the face 1 2 2 looks green to a human who has received the reflected light 1 2 1.
  • FIG. 1C the incident light 130, the reflected light 131, and the surface 1332 are shown.
  • the incident light 130 is an achromatic light similarly to the incident light 110 in FIG. 1A and the incident light 120 in FIG.
  • the surface 132 is white, and the surface 132 is irradiated with achromatic light. Then, as can be seen from the reflected light 131, which indicates that the lengths of the red, green, and blue arrows are equal, all the light is reflected.
  • the face 1 32 appears white to a human who has received the reflected light 13 1.
  • light is reflected as shown in FIG. 1C on the subject which is the source of the white area 21 in the image example of FIG. That is, most of the pixels included in the white region 21 are pixels of the R (red) component, the G (green) component, and the B (blue) component of the RGB color components, that is, the pixels of all the color components.
  • the level is higher than pixels included in other areas in the image.
  • the state of the light (reflected light) reflected by each color surface with respect to the achromatic incident light is as described above.
  • the light purple surface 1 12 in Fig. 1A reflects and reduces the green component by a lot of blue
  • the green surface 1 B 2 in Fig. 1B attenuates the red and blue components a lot.
  • the surface 1 32 in FIG. 1C which is white and reflects, reflects all color components almost as it is.
  • light purple light such as the reflected light 111 in FIG. 1A indicating that the red and blue arrows are longer than the green arrow is irradiated as incident light.
  • the surface 1332 in Fig. 1C reflects the incident light as it is, when light such as the reflected light 111 is irradiated as the incident light, the same light as the reflected light 111 is reflected. Is performed. That is, the same light as when the achromatic incident light 110 is illuminated on the surface 111 of FIG. 1A, which is light purple, is reflected. The surface 1 32 in Figure 1C appears light purple.
  • the color becomes purpleish overall, but it is included in the light purple region 11
  • Many pixels have the same R color component as when achromatic light is irradiated.
  • the pixel levels for the (red) component and the B (blue) component are higher than those in other regions in the image.
  • the pixel level of the G (green) component is included in another region in the image. The level is higher than that of the pixel.
  • the pixel level of the G (green) component of the pixels included in the green area 1 and 2 is lower than when achromatic light is irradiated, but the pixel level of the G (green) component is lower in the entire image. Therefore, the level of the G (green) component of the pixels included in the green area 12 remains higher than the pixels included in other areas in the image. As described above, in an image in which a white region does not exist, many pixels having a high pixel level for all color components are obtained even when a non-achromatic light is irradiated on the original object of the image. There are no regions to be included.
  • the color becomes purpleish as a whole, but the white area that appears light purple appears.
  • Many of the pixels included in the RGB color components are the same as when achromatic light is irradiated, of which R (red), G (green), and B (blue) components, that is, all colors
  • the pixel level of the component is higher than the pixels included in other regions in the image.
  • the pixel level of the G (green) component of the pixels included in the white region 21 is lower than when achromatic light is irradiated, but the pixel level of the G (green) component in the entire image is lower. Due to the low level, the level of all the color components of the pixels included in the white area 21 remains higher than the pixels included in other areas in the image.
  • the subject that is the source of the white area includes many pixels having relatively high pixel levels for all color components even when non-achromatic light is irradiated. That is, the originally white pixel has a relatively high pixel level in the image for all color components even when the entire image has changed color in a specific color direction.
  • FIG. 2 shows a functional block diagram of the color balance correction device according to one embodiment of the present invention.
  • the color balance correction device 100000 includes an image data input unit 1001, an image data storage unit 1003, an unnecessary pixel removal processing unit 1005, and a processing target pixel data storage unit 1000.
  • the image data input unit 1001 is an interface with an external device such as a scanner or a digital camera, and stores image data in the image data storage unit 1003 when image data is read or received. .
  • the unnecessary pixel removal processing unit 1005 reads the image data from the image data storage unit 1003, and stores the data of the pixel determined to have no overflow in the gradation, as the processing target pixel data storage unit 1005. Store in 7.
  • the histogram generation unit 1009 generates a histogram data for each color component based on the pixel data stored in the processing target pixel data storage unit 107, and generates a histogram data storage unit 101 Store in 1.
  • Highlight / Levely direct calculator 1 0 1 3 calculates the highlight 'level value for each color component based on the data stored in the histogram ⁇ data storage 1 0 1 1 and stores the highlight' level value.
  • the highlight / level value is a threshold value for determining whether or not the pixel level is high.
  • the highlight pixel detection unit 101 refers to the highlight ⁇ ⁇ ⁇ level value storage unit 101 and the processing target pixel data storage unit 107, and determines the pixel level for any color component. The number of pixels determined to have a high bell is stored in the highlight pixel data storage unit 109.
  • the complete highlight pixel detector 1 0 2 1 refers to the highlight 'level value storage 1 0 1 5 and the pixel data storage 1 0 7 to be processed, and determines that the pixel level is high for all color components. The number of determined pixels is stored in the complete highlight pixel data storage unit 102.
  • the correction level value calculation unit 10 25 calculates the correction level value for each color component based on the data stored in the histogram data storage unit 101 1, and stores the correction level value storage unit 10 Store in 27.
  • the correction level value is a pixel level threshold value and is used for calculating a provisional correction amount described below.
  • the provisional correction amount calculation unit 1029 calculates the provisional correction amount with reference to the correction level value storage unit 1027, and stores it in the provisional correction amount storage unit 103.
  • the provisional correction amount is a correction amount temporarily determined to calculate a reference correction amount described below.
  • the reference correction amount setting unit 103 refers to the highlight pixel data storage unit 109, the complete highlight pixel data storage unit 102, and the provisional correction amount storage unit 1031, and performs reference capture.
  • the positive amount is calculated and stored in the reference correction amount storage section 103.
  • the reference correction amount is a correction amount serving as a reference in the correction processing described below.
  • the correction processing unit 103 performs a correction process on the image data read from the image data storage unit 103 based on the reference correction amount stored in the reference correction amount storage unit 103. Then, the corrected image data is stored in the corrected image data storage section 11039.
  • the pixel data stored in the processing target pixel data storage unit 107 may be used as a correction target.
  • the processing contents of the color balance correction apparatus 1000 shown in FIG. 2 will be described with reference to FIGS. 3 to 7.
  • FIGS. 3 to 7. for example, an example of processing for correcting a white color balance in which the pixel levels of all the RGB components are high will be described.
  • the pixel levels of all the color components of R G ⁇ may be low, and the power balance of black may be corrected.
  • the image data input unit 1001 which is an interface to an external device such as a scanner or a digital camera, reads or receives image data and stores it in the image data storage unit 1003 (FIG. 3). : Step S1). It is assumed that this image data is represented by, for example, RGB of 256 gradations.
  • the unnecessary pixel removal processing unit 1005 calculates the values of the color components of the R component, the G component, and the B component from the image data stored in the image data storage unit Then, a pixel that is not the same is specified and stored in the processing target pixel data storage unit 107 (Step S3).
  • the value of 255 is the limit value.
  • the pixel having such a value is determined as having a grayscale overflow due to the influence of backlight or the like, and is excluded from the processing target. This process is not essential.
  • the histogram generation unit 1009 generates histogram data for each of the R component, the G component, and the B component based on the pixel data stored in the processing target pixel data storage unit 107. Then, it is stored in the history data storage unit 101 (step S5).
  • the highlight / level value calculating section 101 3 calculates the highlight side of each histogram based on the data stored in the histogram ′ data storing section 101 1.
  • a level value corresponding to, for example, the upper 1% of the pixel level (higher pixel level) is calculated, and a highlight / level level storage unit 1 0 15 (Step S7).
  • FIG. 4 shows a conceptual diagram of the setting of the level value.
  • FIG. 4 shows the axis 410 corresponding to the pixel level, the axis 402 corresponding to the frequency, the frequency curve 4003, the reference level area 404, and the set level value.
  • the indicated point 405 is shown.
  • the value of the pixel level increases, for example, from left to right in the figure.
  • the frequency curve 403 is generated based on the frequency for each pixel level from 0 to 255, for example.
  • the pixel levels are discrete, but are shown here as tunes / lines.
  • the highlight / level value calculation unit 101 determines the number of pixels of 1 ° / 0 , for example, the total number of pixels to be processed. If the total number of pixels to be processed is, for example, 500,000, the number of pixels at 1 ° / 0 is 50,000. Then, the pixel level at which the cumulative frequency from the highest order reaches, for example, 50,000 is specified. When the frequency curve 403 is a curve, the pixel level at which the area of the reference level area 404 is 50,000 is specified. In the example of FIG. 4, the pixel level at the position of the point 405 is specified as the highlight / level value. Such processing is performed for each color component (R, G, B). Returning to the description of FIG.
  • the highlight pixel detection unit 1017 refers to the highlight / level value storage unit 1015 and the processing target pixel data storage unit 1007, and selects one of the R component, the G component, and the B component.
  • the number of pixels whose pixel level of the color component is equal to or higher than the highlight / level value is stored in the highlight pixel data storage unit 1019 as the number of highlight pixels (Ph) (step S9).
  • the complete highlight pixel detection unit 1021 refers to the highlight level value storage unit 1015 and the processing target pixel data storage unit 1007, and determines all the R, G, and B color components.
  • the number of pixels whose pixel level is equal to or higher than the highlight level value is stored as a complete highlight pixel number (Ah) in the complete noise pixel data storage unit 1023 (step S11). Then, the processing shifts to a processing of FIG.
  • the correction level value calculation unit 1025 calculates, for example, the top 0.2% level value on the highlight side (that is, the side with the higher pixel level) of each histogram. Is calculated and stored in the correction level value storage unit 1027 as a correction level value (FIG. 5: step S21).
  • the method of calculating the correction level value is the same as the method of calculating the highlight level value described above (see FIG. 4). .
  • the provisional correction amount calculation unit 1029 refers to the correction level value stored in the correction level direct storage unit 1027, calculates a value obtained by subtracting the correction level value from 255 for each color component, and calculates the provisional correction amount. (Ret, Ge, Bet) is stored in the provisional correction amount storage unit 1031 (step S23).
  • the reference correction amount setting unit 1033 refers to the highlight pixel data storage unit 1019 and the complete highlight pixel data storage unit 1023, and sets the number of complete highlight pixels (Ah) and the number of highlight pixels (Ph) to 0. It is determined whether or not AhZ Ph> 0.8 is satisfied (step S25).
  • the numerical value used for this comparison is not limited to 0.8, but in this embodiment, if Ah / Ph> 0.8 is satisfied, it is highly likely that an originally white subject is included. I judge it.
  • the reference correction amount setting unit 1033 is stored in the provisional correction amount storage unit 1031.
  • the provisional correction amount (Ret, Get, Bet) is set as the reference correction amount (Rc, Gc, Bc) and stored in the reference correction amount storage unit 1035 (step S27). That is, the following formula (1) is specified as a method of calculating the reference correction amount, and the reference correction amount is calculated according to the formula (1). Then, the processing shifts to the processing of step S35 described later.
  • step S25 determines whether AhZPh ⁇ 0.3 is satisfied (step S25). S 29).
  • the numerical value used for this comparison is not limited to 0.3, but in this embodiment, if AhZPh ⁇ 0.3 is satisfied, it is considered that the possibility that an object that is originally white is included is sufficiently low. I'm trying to judge.
  • the reference correction amount setting unit 1033 sets R as a reference correction amount to prevent the correction from being performed.
  • c, Gc, and Bc are each set to 0, and stored in the reference correction amount storage unit 1035.
  • Step S31 That is, the following formula (2) is specified as a method of calculating the reference correction amount, and the reference correction amount is calculated according to the formula (2). Then, the processing shifts to the processing of step S35 described later.
  • the reference correction amount setting unit 1033 The following formula (3) is specified as a method of calculating the reference correction amount, and the formula (3) is calculated using the provisional correction amount (Ret, Get, Bet) stored in the provisional correction amount storage unit 1031.
  • the reference correction amount (R c, G c, Be) is calculated according to the above and stored in the reference correction amount storage unit 1035. (Step S33). That is, the provisional correction amount is reduced to the reference correction amount.
  • R c R ct ⁇ (Ah / Ph-0. 3) / 0.
  • G c G c t (Ah / Ph-0.3) / 0.
  • the correction processing unit 1037 stores the image data stored in the image data storage unit 1003 in the reference correction amount storage unit 1035.
  • the correction processing according to the following equation (4) is performed, and the corrected image data is stored in the corrected image data storage unit 1039 ( Step S35).
  • FIG. 6 shows a conceptual diagram of equation (4) above.
  • FIG. 6 shows an axis 601 corresponding to the input pixel level, an axis 602 corresponding to the output pixel level, an output pixel level setting line 603, and a line segment 604 corresponding to the reference correction amount. It should be noted that the conceptual diagram shown in FIG. 6 does not summarize all color components, but expresses any one color component.
  • the output pixel level setting line 603 indicates that the output pixel level linearly increases as the input pixel level increases until the input pixel level becomes a value obtained by subtracting the reference correction amount from 255. Specifically, the slope of 255 / (255—reference amount) Obey. For example, one of Rc, Gc, and Bc is substituted for the reference correction amount. Then, when the input pixel level becomes equal to or greater than the value obtained by subtracting the reference correction amount from 255, the output pixel level is fixed at 255.
  • the reference correction amount R c of the R component is 55
  • the pixel level for the R component of a specific pixel is ⁇ / R i (input pixel level).
  • the image correction processing is performed as described above. As a result, for example, it is possible to appropriately or incorrectly correct an image having no white area.
  • a predetermined pixel ratio of, for example, 0.2% was used to obtain the correction level value (FIG. 5: step S21).
  • Steps S23 to S33), and the provisional correction amount calculated in step S23 (FIG. 5) is used as the reference correction value without being reduced. It can be set as a quantity. This is because the provisional correction amount decreases as the pixel ratio decreases.
  • the histogram data used in step S23 may be histogram data for the complete highlight pixel.
  • the histogram generation unit 1009 generates histogram data for all highlight pixels.
  • Fig. 7 shows a conceptual diagram of level value setting using histogram data for perfect highlight pixels. Fig. 7 shows the axis 7001 corresponding to the pixel level, the axis 7002 corresponding to the frequency, the frequency curve 703, the reference reveno 1 shell area 704, and the set level. A point 705 indicating the value is shown. Note that the pixel level value increases, for example, from left to right in the figure.
  • the procedure for specifying the components and level values in the figure is the same as in FIG. 4, but in the example shown in FIG. 7, the number of pixels constituting the histogram is small because the target pixels are limited to complete highlight pixels. I'm familiar. Therefore, in this case, the number of pixels multiplied by the pixel ratio (for example, 0.2%) is not set to the number of complete highlight pixels (A h) constituting the histogram, but to the total number of pixels included in the image or the step S. 3 (Fig. 3) is the number of pixels specified (pixels in which overflow has not occurred in gradation). Note that if the number of complete highlight pixels (A h) that make up the histogram is less than the total number of pixels included in the image, for example, X 0.2 and the level value cannot be specified, correction is performed. It may not be.
  • FIG. 2 the configuration of the functional blocks shown in FIG. 2 is an example, and may be different from the actual program's modular configuration.
  • FIGS. 1A, 1B, 1C, 4, 4, 6 and 7, and the image examples shown in FIGS. 8A and 8B are shown in FIGS. This is just an example, and similar data may be expressed in another manner.
  • the processing flow shown in FIGS. 3 and 5 is also an example, and the order of the processing may be changed within a range where the same processing result can be obtained, the processing may be executed simultaneously, or if necessary. Steps may be added or deleted.
  • the device that executes the above-described processing may be a general computer having a memory and a processor, a digital camera having a processor, or another image processing device. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

本発明に係る画像補正方法は、特定の画像に含まれる画素のうち、色成分毎に設定される、画素レベルについての所定の条件のいずれかを満たす第1の画素を特定するステップと、特定の画像に含まれる画素のうち、色成分毎に設定される、画素レベルについての上記所定の条件を複数満たす第2の画素を特定するステップと、第1の画素と第2の画素との重複度合いに関する評価値を算出するステップと、評価値に基づき、特定の画像を補正する補正ステップとを含む。これにより、有彩度の被写体を誤って補正しないようにすることができ、適切な画像補正が実施される。

Description

明細書 画像補正方法及びプログラム、 並びに装置 [技術分野]
本発明は、 画像補正技術に関する。
[背景技術]
近年、 デジタルカメラやカラープリンタなどの画像関連機器の普及、 計算機の 性能の向上により、 カラー画像をデジタルデータとして扱う機会が増えてきた。 ところが、 デジタルカメラなどで撮影されたカラー画像の画質は、 必ずしもユー ザにとって満足のいくものとは限らなレ、。 例えば、 照明光の影響を受け、 カラー バランスがくずれてしまっているようなことがある。 このような場合、 本来は白 である被写体に薄く他の色がついてしまう。 そのため、 ユーザが満足する画像が 得られるようにカラーバランス (特にホワイトバランス) を補正する技術が望ま れている。 しかしながら、 画像の中に有彩色の画素が多い場合等には、 カラーバ ランスの補正は困難である。
例えば特開 2 0 0 0— 1 6 5 9 0 6号公報 (特許文献 1 ) には、 画像中の有彩 色部分の影響を避けてホワイトバランスを補正するための技術が開示されている。 すなわち、 画像メモリから読み出したカラー画像データから、 明度情報と彩度情 報とを抽出して、 カラー画像データの全画素中の白及び予め設定した白に近いと 認識される領域を決定し、 その領域における各色成分の平均値に基づき画像処理 用係数を算出して出力する。 そして、 画像処理部は、 画像処理用係数と処理ブラ グとを入力として受け付け、 これらに基づいて画像メモリから読み出された画像 データに対して自動的にホワイトバランス補正処理を施す。 特許文献 1
特開 2 0 0 0—1 6 5 9 0 6 しかしながら、 上記のような技術によると、 元々画像中に白色の部分が無く、 例えば淡い色の部分がある場合、 その淡い色を白色に補正するような判断がなさ れ、 誤った補正が行われる可能性がある。 第 8 A図及び第 8 B図の画像例を用い て具体的に説明する。 第 8 A図及び第 8 B図には、 例えば植物をデジタル力メラ 等で撮影した場合の画像例が示されている。
第 8 A図の例には、 茶色領域 1 0と薄紫色領域 1 1と緑色領域 1 2とが含まれ ている。 一方、 第 8 B図の例には、 茶色領域 2 0と白色領域 2 1と緑色領域 2 2 とが含まれている。 すなわち、 第 8 A図と第 8 B図とでは、 花の色が異なってお り、 第 8 A図の例には、 白色の部分がない。 このような場合、 上で述べた従来技 術を用いて第 8 A図の画像に対して補正を行うと、 通常、 薄紫色領域 1 1が補正 対象として特定され、 白色に補正される。 すなわち、 第 8 B図のような画像に捕 正される。 薄紫色領域 1 1が本来は白色の花の領域であり、 例えば照明光の影響 を受けて薄紫色になってしまっていたような場合には、 適切な捕正が行われたこ とになる。 しかし一方で、 薄紫色領域 1 1が元々薄紫色の花の領域であり、 本来 補正の必要がなかった場合には、 不適切な捕正が行われたことになる。 従って、 このような場合、 白に近レヽ淡レ、色だという判断によって自動的に補正を行うのは 適切ではない。
このように、 上で述べた従来技術によると、 元々白色の部分がない画像に対し て誤つた補正がなされる可能性があつた。
[発明の開示]
従って、 本発明の目的は、 画像のカラーバランスを適切に補正するための新規 な技術を提供することである。 本発明に係る画像補正方法は、 特定の画像に含まれる画素のうち、 色成分毎に 設定される、 画素レベルについての所定の条件のいずれかを満たす第 1の画素を 特定する第 1画素特定ステップと、 特定の画像に含まれる画素のうち、 色成分毎 に設定される、 画素レベルについての上記所定の条件を複数満たす第 2の画素を 特定する第 2画素特定ステツプと、 第 1の画素と第 2の画素との重複度合レヽに関 する評価値を算出するステップと、 当該評価値に基づき、 特定の画像を補正する 補正ステップとを含む。
有彩度の被写体を誤って補正しないようにするには、 各画素における各色成分 の画素レベルの構成を画像全体について評価する必要がある。 本発明では、 上で 述べたように第 1の画素 (特定の画像における第 1の画素群) と第 2の画素 (特 定の画像における第 2の画素群) との重複度合いを評価し、 その評価結果である 上記評価値に基づき補正を行うことにより、 有彩度の被写体を誤って補正しない ようにする。 従って、 適切な画像補正が実施されるようになる。 なお、 白色の力 ラーバランスだけではなく、 黒色のカラーバランスを調整する場合にも同様の処 理を行えばよレヽ。 また、 上で述べた補正ステップが、 上記評価値に基づき補正量を算出する補正 量算出ステップを含むようにしてもよい。 上記評価値は、 有彩度の被写体を含む 可能性 (又は逆に本来白 (又は黒) である被写体を含む可能性) を反映した値と 考えられ、 当該評価値に応じて補正量が調整されれば、 適切な補正が行われるよ うになる。 また、 本発明において、 特定の画像について、 色成分毎に、 画素レベルについ てのヒストグラム .データを生成するステップと、 ヒストグラム .データを用い て、 最上位の画素レベルからの累積度数が特定の画像において処理の対象とされ る画素数の所定の割合 (第 1の割合) となる第 1の画素レベルを色成分毎に特定 するステップとをさらに含み、 上記所定の条件が、 特定された第 1の画素レベル と色成分の限界レベルとの間に含まれる画素レベルを有するとレヽぅ条件とするよ うにしてもよい。
限界レベルとは、 画素レベルの最大値又は最小値を示し、 例えば R G Bで色成 分を表す場合にハイライトは最大値側となる。 このように各色成分の画素レベル についての度数分布に基づき上記所定の条件を設定することにより、 より適切な 画像の評価を行うことができるようになる。 すなわち、 各色成分の画素レベルに ついての度数分布の偏りを考慮に入れた形で、 第 1の画素及び第 2の画素を特定 できるようになる。 さらに、 本発明において、 特定の画像について、 色成分毎に、 画素レベルにつ いてのヒストグラム■データを生成するステップと、 ヒストグラム 'データを用 いて、 最上位の画素レベルからの累積度数が特定の画像において処理の対象とさ れる画素数の所定の割合 (第 2の割合) となる第 2の画素レベルを色成分毎に特 定するステップとをさらに含み、 上で述べた補正量算出ステップが、 第 2の画素 レベルと色成分の限界レベルとの差に基づき、 色成分毎の暫定補正量を算出する ステップと、 当該暫定補正量を評価値に基づき変更するステップとを含むように してもよい。
このように各色成分の画素レベルについての度数分布に基づき各色成分の暫定 補正量を算出することにより、 特定の画像に適応した暫定補正量が算出される。 さらに評価値に基づき当該暫定捕正量を調整するため、 特定の画像に適応した適 切な画像補正が行えるようになる。 また、 上で述べた捕正量算出ステップが、 上記評価値に基づき、 第 3の割合を 設定するステップと、 特定の画像について、 色成分毎に、 画素レベルについての ヒストグラム 'データを生成するステップと、 ヒストグラム 'データを用いて、 最上位の画素レベルからの累積度数が特定の画像において処理の対象とされる画 素数の上記第 3の割合となる第 3の画素レベルを色成分毎に特定するステップと、 上記第 3の画素レベルと色成分の限界レベルとの差に基づき、 補正量を決定する ステップとを含むようにしてもよい。 度数分布における閾値 (上記第 3の割合) を評価値に応じて設定することにより、 暫定補正量を算出してから評価値により 調整する手法と同様の効果を得ることができるようになる。 さらに、 上で述べた補正ステップが、 上記評価値に応じて、 基準補正量の計算 方式を特定するステップと、 特定された計算方式に従い、 基準補正量を算出する ステップと、 当該基準補正量を用 、て特定の画像を補正するステップとを含むよ うにしてもよい。 評価値に応じて基準補正量の計算方式を変更することにより、 有彩度の被写体を含む可能性に応じた適切な補正量が計算されるようになる。 また、 本発明において、 特定の画像に含まれる画素のうち、 色成分のいずれか の画素レべ < /レが限界レベルである画素を特定するステップをさらに含み、 第ェ画 素特定ステップ及び第 2画素特定ステップにおいて、 色成分のいずれかの画素レ ベノレが限界レベルである画素以外の画素に対して処理を行うようにしてもよい。 色成分のいずれかの画素レベルが限界レベルである画素は、 例えば逆光等の影響 により、 規定されている画素レベルの限界レベルを超えてしまった画素である可 能性がある。 このような画素を処理対象から排除することにより、 色成分毎の画 素レベルの本来の構成を保持している画素について判断することができるように なる。 すなわち適切な第 1の画素及び第 2の画素が特定される。 さらに、 上で述べた第 2画素特定ステップにおいて、 特定の画像に含まれる画 素のうち、 色成分毎に設定される、 画素レベルについての上記所定の条件を全て 満たす第 2の画素を特定するようにしてもよい。 すなわち、 全ての色成分につい て画素レベルが高い (又は低い) 画素が特定されることになり、 より本来白色 (又は黒色) であったと考えられる画素が特定されるようになる。 また、 本発明において、 色成分毎に、 画素レベルについてのヒストグラム 'デ ータを生成するステップと、 ヒストグラム 'データを用いて、 色成分の限界レべ ルからの累積度数が特定の画像において処理の対象とされる第 2の画素数の所定 の割合となる第 4の画素レベ^/を色成分毎に特定するステツプとをさらに含み、 上記補正量算出ステップが、 第 4の画素レベルと色成分の限界レベルとの差に基 づき、 色成分毎の暫定補正量を算出するステップと、 暫定補正量を上記評価値に 基づき変更するステップとを含むようにしてもよい。
このように第 2の画素についてのみヒストグラムを生成するようにすれば、 有 彩度と考えられる画素の影響が第 4の画素レベルの決定において除外される。 従 つて、 補正量の算出において有彩度の被写体の影響を受けにくくなる。 なお、 上記評価 を、 第 1の画素の数と第 2の画素の数との比とすることも可 能である。 なお、 本発明に係る方法をコンピュータに実行させるためのプログラムを作成 することも可能であって、 当該プログラムは、 例えばフレキシブノレ 'ディスク、 C D - R OM, 光磁気ディスク、 半導体メモリ、 ハードディスク等の記憶媒体又 は記憶装置に格納される。 また、 ネットワークを介してデジタル信号として配信 される場合もある。 なお、 処理途中のデータについては、 コンピュータのメモリ 等の記憶装置に一時保管される。
[図面の簡単な説明]
第 1 A図は、 第 1のケースについて色成分を説明するための概念図である。 第 1 B図は、 第 2のケースについて色成分を説明するための概念図である。 第 1 C図は、 第 3のケースについて色成分を説明するための概念図である。 第 2図は、 本発明の一実施例に係るカラーバランス補正装置の機能ブロック図 である。
第 3図は、 本発明の一実施例に係る処理フローの前半部分を示す図である。 第 4図は、 第 1のケースについてレベル値設定を説明するための概念図である。 第 5図は、 本発明の一実施例に係る処理フローの後半部分を示す図である。 第 6図は、 補正処理に用いる式の概念図である。
第 7図は、 第 2のケースについてレベル値設定を説明するための概念図である。 第 8 A図は、 第 1の画像例である。
第 8 B図は、 第 2の画像例である。 [本発明を実施するための最良の形態]
まず、 第 1 A図乃至第 1 C図に示す色成分の概念図を用いて、 本発明の原理に ついて説明する。 第 1 A図には、 入射光 1 1 0と反射光 1 1 1と面 1 1 2とが示 されている。 入射光 1 1 0には、 例えば光の三原色である赤 (R)、 緑 (G) 及 ぴ青 (B ) の各色成分が含まれている。 通常、 光は波長に対して連続的なスぺク トル分布を有しているが、 ここでは模式的に 3成分で表している。 図中の矢印の 長さは各色成分の大きさを表しており、 例えば適切にホワイトバランスが調整さ れたデジタルカメラで撮影された場合の値に対応している。 入射光 1 1 0につい ては全ての色成分が等しい大きさを有しており、 無彩色の光が面 1 1 2に照射さ れていることが示されている。 ここで、 面 1 1 2が薄紫色であり、 無彩色の光を 面 1 1 2に照射する。 そうすると、 赤及び青の矢印が緑の矢印よりも長い状態を 表す反射光 1 1 1からも分かるように、 主に赤い光と青い光を反射する。 赤色と 青色とが混ざると紫色になるため、 反射光 1 1 1を受けた人間には、 面 1 1 2が 薄紫色に見える。
第 1 B図には、 入射光 1 2 0と反射光 1 2 1と面 1 2 2とが示されている。 入 射光 1 2 0は、 第 1 A図の入射光 1 1 0と同様に無彩色の光である。 ここで、 面 1 2 2は緑色であり、 無彩色の光を面 1 2 2に照射する。 そうすると、 赤及び青 の矢印が緑の矢印よりも短い状態を表す反射光 1 2 1からも分かるように、 緑の 光を主に反射する。 反射光 1 2 1を受けた人間には、 面 1 2 2が緑色に見える。 第 1 C図には、 入射光 1 3 0と反射光 1 3 1と面 1 3 2とが示されている。 入 射光 1 3 0は、 第 1 A図の入射光 1 1 0及び第 1 B図の入射光 1 2 0と同様に無 彩色の光である。 ここで、 面 1 3 2は白色であり、 無彩色の光を面 1 3 2に照射 する。 そうすると、 赤、 緑及び青の矢印の長さが等しい状態を表す反射光 1 3 1 からも分かるように、 全ての光を反射する。 反射光 1 3 1を受けた人間には、 面 1 3 2が白色に見える。
以上のことから、 例えば第 8 A図の画像例の薄紫色領域 1 1の元となる被写体 では第 1 A図に示したように光が反射し、 緑色領域 1 2の元となる被写体では第 1 B図に示したように光が反射する。 すなわち、 薄紫色領域 1 1に含まれる画素 の多くは、 R G Bの色成分のうち、 R (赤) 成分及び B (青) 成分についての画 素レベルが画像内の他の領域に含まれる画素に比べて高レベルとなっており、 緑 色領域 1 2に含まれる画素の多くは、 R G Bの色成分のうち、 G (緑) 成分につ いての画素レベルが画像内の他の領域に含まれる画素に比べて高レベルとなって いる。 茶色領域 1 0については説明を省略するが、 薄紫色領域 1 1や緑色領域 1 2と同様に、 画素レベルが高い色成分が偏っている。 このように、 白色の領域が 存在しない画像には、 全ての色成分について高い画素レベルを有する画素が多く 含まれるような領域は存在しない。
一方、 例えば第 8 B図の画像例の白色領域 2 1の元となる被写体では第 1 C図 に示したように光が反射する。 すなわち、 白色領域 2 1に含まれる画素の多くは、 R G Bの色成分のうち、 R (赤) 成分、 G (緑) 成分及び B (青) 成分、 すなわ ち、 全ての色成分についての画素レベルが画像内の他の領域に含まれる画素に比 ベて高レべノレである。
無彩色の入射光に対して各色の面が反射する光 (反射光) の状態は以上のよう になる。 すなわち、 薄紫色である第 1 A図の面 1 1 2は緑の成分を多く減青させ て反射し、 緑色である第 1 B図の面 1 2 2は赤及び青の成分を多く減衰させて反 射し、 白色である第 1 C図の面 1 3 2は全ての色成分をほぼそのまま反射する。 ここで、 例えば、 赤及び青の矢印が緑の矢印よりも長い状態を表す第 1 A図の 反射光 1 1 1のような薄紫色の光が入射光として照射された場合について考察す る。 まず、 第 1 A図の面 1 1 2に対して、 反射光 1 1 1のような光が入射光とし て照射された場合、 無彩色の入射光 1 1 0が照射された時と比べ、 緑の成分がよ り少なくなつて反射される。 すなわち、 反射光 1 1 1の緑の矢印のみがさらに短 くなつた状態の光が反射される。 また、 第 1 B図の面 1 2 2に対して、 反射光 1 1 1のような光が入射光として照射された場合、 無彩色の入射光 1 2 0が照射さ れた時と比べ、 緑の成分が少なくなつて反射される。 すなわち、 反射光 1 2 1の 緑の矢印が短くなり、 例えば赤及び青の矢印と同様の長さとなった状態の光が反 射される。
また、 第 1 C図の面 1 3 2は、 入射光をそのまま反射するため、 反射光 1 1 1 のような光が入射光として照射された場合、 反射光 1 1 1と同様の光が反射され る。 すなわち、 薄紫色である第 1 A図の面 1 1 2に無彩色の入射光 1 1 0を照射 した場合と同様の光が反射されることになり、 例えばこのような反射光を受けた 人間には、 第 1 C図の面 1 3 2が薄紫色に見える。
例えば第 8 A図に示した画像の元となる被写体に、 上で述べたような薄紫色の 光を照射した場合、 全体的に紫色がかった色となるが、 薄紫色領域 1 1に含まれ る画素の多くは、 無彩色の光を照射した場合と同様、 R G Bの色成分のうち、 R (赤) 成分及び B (青) 成分についての画素レベルが画像内の他の領域に含まれ る画素に比べて高レべノレとなる。 また、 緑色領域 1 2についても同様に、 緑色領 域 1 2に含まれる画素の多くは、 R G Bの色成分のうち、 G (緑) 成分について の画素レベルが画像内の他の領域に含まれる画素に比べて高レベルとなる。 緑色 領域 1 2に含まれる画素の G (緑) 成分についての画素レベルは、 無彩色の光が 照射された場合に比べて低くなるが、 画像全体において G (緑) 成分についての 画素レベルが低くなっているため、 画像内の他の領域に含まれる画素に比べて、 緑色領域 1 2に含まれる画素の G (緑) 成分についてのレべノレは高いままである。 このように、 白色の領域が存在しない画像には、 画像の元となる被写体に無彩 色ではない光が照射された場合においても、 全ての色成分について高い画素レべ ルを有する画素が多く含まれるような領域は存在しない。
一方、 例えば第 8 B図の画像の元となる被写体に、 上で述べたような薄紫色の 光を照射した場合、 全体的に紫色がかった色となるが、 薄紫色に見える白色領域 2 1に含まれる画素の多くは、 無彩色の光が照射された場合と同様、 R G Bの色 成分のうち、 R (赤) 成分、 G (緑) 成分及び B (青) 成分、 すなわち、 全ての 色成分についての画素レベルが画像内の他の領域に含まれる画素に比べて高レべ ルである。 白色領域 2 1に含まれる画素の G (緑) 成分についての画素レベルは、 無彩色の光が照射された場合に比べて低くなるが、 画像全体において G (緑) 成 分についての画素レベルが低くなっているため、 画像内の他の領域に含まれる画 素に比べて、 白色領域 2 1に含まれる画素の全ての色成分についてのレベルは高 いままである。
このように、 白色領域の元となる被写体には、 無彩色ではない光が照射された 場合においても、 全ての色成分について相対的に高い画素レベルを有する画素が 多く含まれる。 すなわち、 元々白色の画素は、 画像全体が特定の色方向に変色し たような場合においても、 全ての色成分について画像内において相対的に高い画 素レベルを有している。
従って、 処理すべき画像において、 R G Bそれぞれについての画素レベルにつ いての度数分布、 及び各画素における、 各色成分についての画素レベルの構成 (又はバランス) を解析することにより、 元来白色領域ではないかもしれない画 素を白色に補正してしまうといったことを防止できる。
第 2図に、 本発明の一実施例に係るカラーバランス補正装置の機能プロック図 を示す。 カラーバランス補正装置 1 0 0 0には、 画像データ入力部 1 0 0 1と画 像データ格納部 1 0 0 3と不要画素除去処理部 1 0 0 5と処理対象画素データ格 納部 1 0 0 7とヒストグラム生成部 1 0 0 9とヒストグラム 'データ格納部 1 0 1 1とハイライト ' レベル値算出部 1 0 1 3とハイライト ' レベル値格納部 1 0 1 5とハイライト画素検出部 1 0 1 7とハイライト画素データ格納部 1 0 1 9と 完全ハイライト画素検出部 1 0 2 1と完全ハイライト画素データ格納部 1 0 2 3 と補正レベル値算出部 1 0 2 5と補正レベル値格納部 1 0 2 7と暫定補正量算出 部 1 0 2 9と暫定補正量格納部 1 0 3 1と基準補正量設定部 1 0 3 3と基準補正 量格納部 1 0 3 5と補正処理部 1 0 3 7と補正済画像データ格納部 1 0 3 9と力 S 含まれている。
これらの処理内容の詳細については後の処理フローの説明において述べる。 こ こでは、 各機能プロックの連携関係を中心に簡単に説明しておく.。
画像データ入力部 1 0 0 1は、 例えぱスキャナゃデジタル力メラ等の外部装置 とのインタフェイス等であって、 画像データを読み込んだり受信した場合、 画像 データ格納部 1 0 0 3に格納する。 不要画素除去処理部 1 0 0 5は、 画像データ 格納部 1 0 0 3から画像データを読み込み、 階調についてオーバーフローが生じ ていないと判断された画素のデータを処理対象画素データ格納部 1 0 0 7に格納 する。
ヒストグラム生成部 1 0 0 9は、 処理対象画素データ格納部 1 0 0 7に格納さ れている画素データに基づき、 色成分毎にヒストグラム ·データを生成してヒス トグラム ·データ格納部 1 0 1 1に格納する。 ハイライト · レベルィ直算出部 1 0 1 3は、 ヒストグラム■データ格納部 1 0 1 1に格納されているデータに基づき、 色成分毎のハイライト ' レベル値を算出し、 ハイライト ' レベル値格納部 1 0 1 5に格納する。 ハイライト · レベル値とは、 画素レベルが高いか否かを判定する ための閾値である。
ハイライト画素検出部 1 0 1 7は、 ハイライト ' レベル値格納部 1 0 1 5及ぴ 処理対象画素データ格納部 1 0 0 7を参照し、 いずれかの色成分について画素レ ベルが高いと判断された画素の数をハイライト画素データ格納部 1 0 1 9に格納 する。 完全ハイライト画素検出部 1 0 2 1は、 ハイライト ' レベル値格納部 1 0 1 5及ぴ処理対象画素データ格納部 1 0 0 7を参照し、 全ての色成分について画 素レベルが高いと判断された画素の数を完全ハイライト画素データ格納部 1 0 2 3に格納する。
補正レべノレ値算出部 1 0 2 5は、 ヒストグラム 'データ格納部 1 0 1 1に格納 されているデータに基づき、 色成分毎の補正レベル値を算出し、 補正レベル値格 納部 1 0 2 7に格納する。 補正レベル値とは、 画素レベルの閾値であり、 以下に 述べる暫定補正量の算出に用いられる。 暫定補正量算出部 1 0 2 9は、 補正レべ ル値格納部 1 0 2 7を参照して暫定補正量を算出し、 暫定補正量格納部 1 0 3 1 に格納する。 暫定補正量とは、 以下に述べる基準補正量を算出するために仮に決 定しておく補正量である。 基準補正量設定部 1 0 3 3は、 ハイライト画素データ 格納部 1 0 1 9と完全ハイライト画素データ格納部 1 0 2 3と暫定補正量格納部 1 0 3 1とを参照して基準捕正量を算出し、 基準補正量格納部 1 0 3 5に格納す る。 基準ネ甫正量とは、 以下に述べる補正処理において基準となる補正量である。 補正処理部 1 0 3 7は、 画像データ格納部 1 0 0 3から読み込んだ画像データ に対し、 基準補正量格納部 1 0 3 5に格納されている基準補正量に基づく補正処 理を実施し、 補正した画像データを補正済画像データ格納部 1 0 3 9に格納する。 なお、 処理対象画素データ格納部 1 0 0 7に格納されている画素データを補正の 対象として用いる場合もある。
以下、 第 3図乃至第 7図を用いて、 第 2図に示したカラーバランス補正装置 1 0 0 0の処理内容について説明する。 本実施例では、 例えば R G Bの全色成分の 画素レべ が高い白色のカラーバランスを捕正するための処理の例を示す。 なお、 例えば R G Βの全色成分の画素レベルが低レ、黒色の力ラーバランスを補正するよ うにしても良い。
まず、 例えばスキャナやデジタルカメラ等の外部装置に対するインタフェイス 等である画像データ入力部 1 0 0 1は、 画像データを読み込み又は受信し、 画像 データ格納部 1 0 0 3に格納する (第 3図:ステップ S 1 )。 なお、 この画像デ ータは、 例えば 2 5 6階調の R G Bで表されているものとする。 そして、 不要画素除去処理部 1 0 0 5は、 画像データ格納部 1 0 0 3に格納さ れている画像データから、 R成分、 G成分及び B成分のいずれの色成分の値も 2 5 5ではない画素を特定し、 処理対象画素データ格納部 1 0 0 7に格納する (ス テツプ S 3 )。 2 5 6階調の場合、 2 5 5という値は限界値である。 ここでは、 このような値を有する画素は、 逆光等の影響により、 階調についてオーバーフ口 一が生じていると判断し、 処理対象から除外する。 なお、 この処理は必須ではな い。
そして、 ヒストグラム生成部 1 0 0 9は、 処理対象画素データ格納部 1 0 0 7 に格納されている画素データに基づき、 R成分、 G成分及び B成分のそれぞれの 色成分についてヒストグラム 'データを生成し、 ヒストダラム ·データ格納部 1 0 1 1に格納する (ステップ S 5 )。
そして、 ハイライト · レベル値算出部 1 0 1 3は、 ヒストグラム 'データ格納 部 1 0 1 1に格納されているデータに基づき、 各ヒストグラムのハイライト側
(すなわち画素レベルが高い側) の例えば上位 1 %に該当するレベル値を算出し、 ハイライト■ レベル値 (R h , G h , B h ) として、 ハイライト · レベルィ直格納 部 1 0 1 5に格納する (ステップ S 7 )。
第 4図に、 レべノレ値設定の概念図を示す。 第 4図には、 画素レベルに対応する 軸 4 0 1と、 度数に対応する軸 4 0 2と、 度数曲線 4 0 3と、 基準レべノ 域 4 0 4と、 設定されるレベル値を示す点 4 0 5とが示されている。 なお、 画素レべ ルの値は例えば図の左から右に向かって大きくなつていく。 また、 度数曲線 4 0 3は、 例えば 0から 2 5 5までの画素レベル毎の度数に基づき生成される。 画素 レベルは離散的であるが、 ここでは曲/線で示している。
ハイライト · レベル値算出部 1 0 1 3は、 まず、 処理対象となる全画素数の例 えば 1 °/0の画素数を求める。 処理対象となる全画素数が例えば 5 0万であれば、 1 °/0の画素数は 5 0 0 0である。 そして、 最上位からの累積度数が例えば 5 0 0 0に達する画素レベルを特定する。 度数曲線 4 0 3が曲線の場合、 基準レベル領 域 4 0 4の面積が 5 0 0 0となる画素レベルを特定する。 第 4図の例では、 点 4 0 5の位置の画素レベルがハイライト · レべノレ値として特定される。 このような 処理を各色成分 (R , G, B ) について実施する。 第 3図の説明に戻り、 ハイライト画素検出部 1017は、 ハイライト ·レベル 値格納部 1015及び処理対象画素データ格納部 1007を参照し、 R成分、 G 成分及び B成分のうち、 いずれかの色成分についての画素レベルがハイライト · レベル値以上である画素の数をハイライト画素数 (Ph) としてハイライト画素 データ格納部 101 9に格納する (ステップ S 9)。 そして、 完全ハイライト画 素検出部 1021は、 ハイライト■レべノレ値格納部 1015及び処理対象画素デ ータ格納部 1007を参照し、 R成分、 G成分及び B成分の全ての色成分につい ての画素レベルがハイライト ·レベル値以上である画素の数を完全ハイライト画 素数 (Ah) として完全ノヽイライト画素データ格納部 1023に格納する (ステ ップ S 1 1)。 そして、 処理は端子 Aを介して第 5図の処理に移行する。
そして、 補正レベル値算出部 1025は、 ヒストグラム ·データ格納部 101 1に格納されているデータに基づき、 各ヒストグラムのハイライト側 (すなわち 画素レベルが高い側) の例えば上位 0. 2%のレベル値を算出し、 補正レベル値 として、 補正レベル値格納部 1027に格納する (第 5図:ステップ S 21)。 補正レベル値の算出方法は、 上で述べたハイライト .レベル値の算出方法と同様 (第 4図参照) である。 .
そして、 暫定補正量算出部 1029は、 補正レベルィ直格納部 1027に格納さ れている補正レベル値を参照して、 各色成分につき、 255から補正レベル値を 引いた値を算出し、 暫定補正量 (Re t, Ge , Be t) として暫定補正量格 納部 1031に格納する (ステップ S 23)。
そして、 基準補正量設定部 1033は、 ハイライト画素データ格納部 1019 と完全ハイライト画素データ格納部 1023とを参照し、 完全ハイライト画素数 (Ah) Zハイライト画素数 (Ph) が 0. 8より大きいか、 すなわち、 AhZ Ph>0. 8が満たされるか判定する (ステップ S 25)。 この比較に用いる数 値は 0. 8に限られないが、 本実施例では、 Ah/Ph>0. 8が満たされる場 合、 本来白色である被写体が含まれている可能性が十分に高いと判断するように している。
Ah/Ph>0. 8が満たされると判定された場合 (ステップ S 25 : Ye s ルート)、 基準補正量設定部 1033は、 暫定補正量格納部 1031に格納され ている暫定捕正量 (Re t, Ge t, B e t) を、 基準補正量 (R c, G c, B c) として設定し、 基準補正量格納部 1035に格納する (ステップ S 27)。 すなわち、 基準補正量の計算方法として以下の (1) 式を特定し、 (1) 式に従 つて基準補正量を算出する。 そして、 後に述べるステップ S 35の処理に移行す る。
Rc=Rc t, G c =G c t , B c =B c t (l)
—方、 Ah/Ph>0. 8が満たされないと判定された場合 (ステップ S 2 5 : Noルート)、 基準補正量設定部 1033は、 AhZP h< 0. 3が満たさ れるか判定する (ステップ S 29)。 この比較に用いる数値は 0. 3に限られな いが、 本実施例では、 AhZPh<0. 3が満たされる場合、 本来白色である被 写体が含まれている可能性が十分に低いと判断するようにしている。
Ah/P h< 0. 3が満たされると判定された場合 (ステップ S 29 : Ye s ルート)、 基準補正量設定部 1033は、 補正が行われないようにするため、 基 準補正量として R c , Gc及び B cに各々 0を設定し、 基準補正量格納部 103 5に格納する。 (ステップ S 31)。 すなわち、 基準補正量の計算方法として以下 の (2) 式を特定し、 (2) 式に従って基準補正量を算出する。 そして、 後に述 ベるステップ S 35の処理に移行する。
Rc=0, Gc = 0, B c = 0 (2) 一方、 Ah/P h< 0. 3が満たされないと判定された場合 (ステップ S 2 9 : Noルート)、 基準補正量設定部 1033は、 基準補正量の計算方法として 以下の (3) 式を特定し、 暫定補正量格納部 1031に格納されている暫定補正 量 (Re t, Ge t, B e t) を用いて、 ( 3 ) 式に従い基準補正量 (R c , G c, B e) を算出し、 基準補正量格納部 1035に格納する。 (ステップ S 33)。 すなわち、 暫定補正量を低減して基準補正量とする。 R c =R c t ■ (Ah/Ph-0. 3)/0.
G c =G c t · (Ah/Ph-0. 3)/0.
B c =B c t - (Ah/Ph-0. 3)/0. そして、 補正処理部 1037は、 画像データ格納部 1003に格納されている 画像データに対し、 基準補正量格納部 1035に格納されている基準補正量 (R c, Gc, B e) を用いて、 以下の (4) 式に従った補正処理を実施し、 補正し た画像データを補正済画像データ格納部 1039に格納する (ステップ S 35 )。
R o =m i n (255, R i - 255/ (255-R c))
G o =m i n (255, G i - 255 (255 -G c))
B o =m i n (255, B i • 255/ (255— B c)) (4) 上の (4) 式において、 添え字の iは入力、 oは出力を意味し、 例えば R iは R成分の入力画素レベル、 R oは R成分の出力画素レベルである。 また、 m i n (X, Y) という式 (関数) は、 X及び Yのうち、 V、ずれか小さい方を出力する。 なお、 基準補正量 (Rc, Gc, B e) のいずれかに 0が設定されている場合に は、 その色成分については入力画素レベルと等しい出力画素レベルが算出される ため、 補正前と補正後とでは画素レベルが変わらない。 すなわち、 当該色成分に ついての補正はなされない。 画像の補正処理が終わると、 カラーバランス補正装 置 1000は処理を終了する。
第 6図に、 上の (4) 式の概念図を示す。 第 6図には、 入力画素レベルに対応 する軸 601と出力画素レベルに対応する軸 602と出力画素レベル設定線 60 3と基準補正量に対応する線分 604とが示されている。 なお、 この第 6図に示 した概念図は、 全色成分についてまとめたものではなく、 いずれか 1つの色成分 について表したものである。
出力画素レベル設定線 603は、 入力画素レベルが 255から基準補正量を引 いた値になるまでは、 入力画素レベルが増加すれば出力画素レベルも線形に増加 することを表している。 具体的には、 255/ (255—基準捕正量) という傾 きに従う。 この基準補正量には、 例えば Rc、 G c及び B cのいずれかの値が代 入される。 そして、 入力画素レベルが 255から基準補正量を引いた値以上にな ると、 出力画素レベルは 255に固定される。
例えば、 R成分の基準捕正量 R c力 S 51であり、 特定の画素の R成分について の画素レベル R i (入力画素レベル) が 100であった場合、 出力画素レベル R oは 125 (= 100 (255/ (255-51)) となる。 また例えば、 R成 分の基準捕正量 R cが 55であり、 特定の画素の R成分についての画素レベ^/ R i (入力画素レベル) 力 S 210であった場合、 入力画素レベルの 210は 255 力 ら基準補正量を引いた値の 200 (=255-55) 以上であるため、 出力画 素レベルは 255となる。 このような入出力結果を得るための数式 (関数) ヽ 上の (4) 式である。
以上のようにして、 画像の補正処理が行われる。 これにより、 例えば白色の領 域が存在しない画像に対しても、 適切に補正する又は誤った補正を行わないよう にすることができる。
なお、 上の説明では、 補正レベル値を求めるために例えば 0. 2%という所定 の画素割合を用いていた (第 5図:ステップ S 21) 1 この画素割合を、 本来 白色である被写体が含まれている可能性に応じて設定するようにしても良い。 例 えば、 完全ハイライト画素数 (Ah) Zハイライト画素数 (Ph) が 0. 8以上 であれば、 そのまま 0. 2%を画素割合とし、 ?!!が。. 3以下であれば、 0%を画素割合とし、 11ノ卩11が0. 3より大きく 0. 8未満であれば、 画素 割合を線形に定める (画素割合 (%) =0. 2 X (Ah/P h-0. 3) /0. 5) ようにする。 このような場合、 暫定補正量を求めてから低減処理する (第 5 図:ステップ S 23乃至ステップ S 33) ことなく、 ステップ S 23 (第 5図) において算出された暫定補正量をそのまま基準補正量として設定することができ る。 画素割合が小さくなると暫定補正量も小さくなるためである。
また、 ステップ S 23 (第 5図) において用いるヒストグラム 'データを、 完 全ハイライト画素についてのヒストグラム ·データとするようにしても良い。 こ の場合、 ヒストグラム生成部 1009は、 全ハイライト画素についてのヒストグ ラム ·データを生成する。 第 7図に、 完全ハイライト画素についてのヒストグラム ·データを用いたレべ ル値設定の概念図を示す。 第 7図には、 画素レベルに対応する軸 7 0 1と、 度数 に対応する軸 7 0 2と、 度数曲線 7 0 3と、 基準レべノ 1 貝域 7 0 4と、 設定され るレベル値を示す点 7 0 5とが示されている。 なお、 画素レベルの値は例えば図 の左から右に向かって大きくなつていく。
図の構成要素及ぴレベル値の特定手順は第 4図と同様であるが、 この第 7図に 示した例では対象画素を完全ハイライト画素に限定したため、 ヒストグラムを構 成する画素数が少なくなつている。 従ってこの場合、 画素割合 (例えば 0 . 2 %) を掛ける画素数を、 ヒストグラムを構成している完全ハイライト画素数 (A h ) とはせずに、 画像に含まれる全画素数又はステップ S 3 (第 3図) にお いて特定された画素 (階調についてオーバーフローが発生していない画素) の数 とする。 なお、 ヒストグラムを構成している完全ハイライト画素数 (A h ) 力 例えば画像に含まれる全画素数 X 0 . 2よりも少なく、 レベル値を特定できな いような場合には、 補正を行わないようにしても良い。
以上、 本発明の実施例について説明したが、 本発明はこれに限定されるもので はない。 例えば、 第 2図に示した機能ブロックの構成は一例であって、 実際のプ ログラム 'モジユーゾレ構成とは異なる場合がある。 また、 第 1 A図、 第 1 B図、 第 1 C図、 第 4図、 第 6図及び第 7図に示した概念図、 並びに第 8 A図及び第 8 B図に示した画像例は一例であって、 同様のデータを別の態様で表現する場合も ある。 さらに、 第 3図及ぴ第 5図に示した処理フローも一例であって、 同様の処 理結果が得られる範囲において処理の順序を入れ替えてもよいし、 同時に実行し たり、 必要に応じてステップを追加又は削除してもよい。
また、 上で述べたような処理を実行する装置は、 メモリ及ぴプロセッサを有す る一般的なコンピュータであっても良いし、 プロセッサを有するデジタルカメラ やその他の画像処理装置であっても良い。

Claims

請求の範囲
1 . 特定の画像に含まれる画素のうち、 色成分毎に設定される、 画素レべノレにつ いての所定の条件のいずれかを満たす第 1の画素を特定する第 1画素特定ステツ プと、
前記特定の画像に含まれる画素のうち、 前記色成分毎に設定される、 画素レべ ルについての前記所定の条件を複数満たす第 2の画素を特定する第 2画素特定ス テツプと、
前記第 1の画素と前記第 2の画素との重複度合いに関する評価値を算出するス テツプと、
前記評価値に基づき、 前記特定の画像を補正する補正ステップと、
を含む画像補正方法。
2. 前記補正ステップが、
前記評価値に基づき補正量を算出する補正量算出ステップ、
を含む請求項 1記載の画像補正方法。
3 . 前記特定の画像について、 色成分毎に、 画素レベルについてのヒストグラ ム -データを生成するステップと、
前記ヒストグラム 'データを用いて、 最上位の画素レベルからの累積度数が前 記特定の画像において処理の対象とされる画素数の所定の割合となる第 1の画素 レベルを色成分毎に特定するステップと、
をさらに含み、
前記所定の条件が、 特定された前記第 1の画素レベルと色成分の限界レベルと の間に含まれる画素レベルを有するという条件であることを特徴とする請求項 1 記載の画像補正方法。
4 . 前記特定の画像について、 色成分毎に、 画素レべ こついてのヒストグラ ム -データを生成するステップと、 前記ヒストグラム ·データを用いて、 最上位の画素レベルからの累積度数が前 記特定の画像において処理の対象とされる画素数の所定の割合となる第 2の画素 レベルを色成分毎に特定するステップと、
をさらに含み、
前記補正量算出ステップが、
前記第 2の画素レベルと色成分の限界レベルとの差に基づき、 色成分毎の暫定 補正量を算出するステップと、
前記暫定補正量を前記評価値に基づき変更するステップと、
を含むことを特徴とする請求項 2記載の画像補正方法。
5 . 前記補正量算出ステップが、
前記評価値に基づき、 第 3の割合を設定するステップと、
前記特定の画像について、 色成分毎に、 画素レベルについてのヒストグラム - データを生成するステップと、
前記ヒストグラム 'データを用いて、 最上位の画素レベルからの累積度数が前 記特定の画像において処理の対象とされる画素数の前記第 3の割合となる第 3の 画素レベルを色成分毎に特定するステップと、 ' 前記第 3の画素レベルと色成分の限界レベルとの差に基づき、 補正量を決定す るステップと、
を含む請求項 2記載の画像補正方法。
6 . 前記補正ステップが、
前記評価値に応じて、 基準補正量の計算方式を特定するステップと、 特定された前記計算方式に従い、 前記基準補正量を算出するステップと、 前記基準補正量を用いて前記特定の画像を補正するステップと、
を含む請求項 1記載の画像補正方法。
7 . 前記特定の画像に含まれる画素のうち、 色成分のいずれかの画素レベルが限 界レベ^/である画素を特定するステップをさらに含み、 前記第 1画素特定ステップ及び前記第 2画素特定ステップにおいて、 色成分の いずれかの画素レベルが限界レベルである画素以外の画素に対して処理を行うこ とを特徴とする請求項 1記載の画像補正方法。
8 . 前記第 2画素特定ステップにおいて、 前記特定の画像に含まれる画素のうち、 色成分毎に設定される、 画素レべノレについての所定の条件を全て満たす第 2の画 素を特定することを特徴とする請求項 1記載の画像補正方法。
9 . 前記第 2の画素について、 色成分毎に、 画素レベルについてのヒストグラ ム -データを生成するステップと、
前記ヒストグラム ·データを用いて、 色成分の限界レベルからの累積度数が前 記特定の画像において処理の対象とされる画素数の所定の割合となる第 4の画素 レベルを色成分毎に特定するステップと、
をさらに含み、
前記補正量算出ステップが、
前記第 4の画素レベルと色成分の限界レベルとの差に基づき、 色成分毎の暫定 補正量を算出するステップと、
前記暫定補正量を前記評価値に基づき変更するステップと、
を含むことを特徴とする請求項 8記載の画像補正方法。
1 0 . 前記評価値が、 前記第 1の画素の数と前記第 2の画素の数との比であるこ とを特徴とする請求項 1記載の画像補正方法。
1 1 . 特定の画像に含まれる画素のうち、 色成分毎に設定される、 画素レベルに ついての所定の条件のいずれかを満たす第 1の画素を特定する第 1画素特定ステ ップと、
前記特定の画像に含まれる画素のうち、 前記色成分毎に設定される、 画素レべ ルについての前記所定の条件を複数満たす第 2の画素を特定する第 2画素特定ス テツプと、 前記第 1の画素と前記第 2の画素との重複度合いに関する評価値を算出するス テツプと、
前記評価値に基づき、 前記特定の画像を補正する補正ステップと、
をプロセッサに実行させるための画像補正プログラム。
1 2 . 特定の画像に含まれる画素のうち、 色成分毎に設定される、 画素レベルに ついての所定の条件のいずれかを満たす第 1の画素を特定する第 1画素特定手段 と、
前記特定の画像に含まれる画素のうち、 前記色成分毎に設定される、 画素レべ ルについての前記所定の条件を複数満たす画素を特定する第 2画素特定手段と、 前記第 1の画素と前記第 2の画素との重複度合いに関する評価値を算出する手 段と、
前記評価値に基づき、 前記特定の画像を補正する補正手段と、
を有する画像補正装置。
PCT/JP2003/015899 2003-12-11 2003-12-11 画像補正方法及びプログラム、並びに装置 Ceased WO2005057909A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005511676A JP4480677B2 (ja) 2003-12-11 2003-12-11 画像補正方法及びプログラム、並びに装置
EP03778836.1A EP1694052B1 (en) 2003-12-11 2003-12-11 Image correction method, program, and device
PCT/JP2003/015899 WO2005057909A1 (ja) 2003-12-11 2003-12-11 画像補正方法及びプログラム、並びに装置
US11/372,389 US7359100B2 (en) 2003-12-11 2006-03-10 Image correction method, program, and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/015899 WO2005057909A1 (ja) 2003-12-11 2003-12-11 画像補正方法及びプログラム、並びに装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/372,389 Continuation US7359100B2 (en) 2003-12-11 2006-03-10 Image correction method, program, and apparatus

Publications (1)

Publication Number Publication Date
WO2005057909A1 true WO2005057909A1 (ja) 2005-06-23

Family

ID=34674690

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/015899 Ceased WO2005057909A1 (ja) 2003-12-11 2003-12-11 画像補正方法及びプログラム、並びに装置

Country Status (4)

Country Link
US (1) US7359100B2 (ja)
EP (1) EP1694052B1 (ja)
JP (1) JP4480677B2 (ja)
WO (1) WO2005057909A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616343B2 (en) * 2006-04-06 2009-11-10 Kabushiki Kaisha Toshiba Image data conversion apparatus, image forming apparatus, image data conversion method and program
JP5032911B2 (ja) * 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5479164B2 (ja) 2010-03-08 2014-04-23 キヤノン株式会社 画像判定装置および画像判定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06169395A (ja) * 1992-11-27 1994-06-14 Sharp Corp 画像形成装置
JPH0898204A (ja) * 1994-09-28 1996-04-12 Matsushita Electric Ind Co Ltd ホワイトバランス調整量演算装置
JPH1141474A (ja) * 1997-07-17 1999-02-12 Konica Corp 画像処理方法、画像処理装置及び記憶媒体
US20030002059A1 (en) 2001-07-02 2003-01-02 Jasc Software, Inc. Automatic color balance

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5181105A (en) * 1986-05-30 1993-01-19 Canon Kabushiki Kaisha Color image correction based on characteristics of a highlights or other predetermined image portion
JP3048158B2 (ja) * 1988-10-04 2000-06-05 キヤノン株式会社 カラー画像処理装置
DE69013100T2 (de) * 1989-08-02 1995-03-23 Canon Kk Farbbildverarbeitungsgerät.
JP2564959B2 (ja) * 1990-03-07 1996-12-18 富士ゼロックス株式会社 画像処理装置の絵文字領域識別方式
JP2842558B2 (ja) * 1990-05-02 1999-01-06 住友ゴム工業 株式会社 自動二輪車用ラジアルタイヤ
US6151405A (en) * 1996-11-27 2000-11-21 Chromavision Medical Systems, Inc. System and method for cellular specimen grading
US6240203B1 (en) * 1997-11-10 2001-05-29 Sharp Kabushiki Kaisha Image discriminating apparatus
JP3492202B2 (ja) * 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
JP2000165906A (ja) 1998-11-20 2000-06-16 Victor Co Of Japan Ltd 自動ホワイトバランス調整方法及び調整装置
JP3325243B2 (ja) * 1999-09-20 2002-09-17 京セラミタ株式会社 画像処理装置
JP2001245311A (ja) * 2000-02-28 2001-09-07 Matsushita Electric Ind Co Ltd 固体カラー撮像装置
US6965695B2 (en) * 2000-03-23 2005-11-15 Ricoh Company, Ltd. Method and system for processing character edge area data
JP2002158893A (ja) * 2000-11-22 2002-05-31 Minolta Co Ltd 画像補正装置、画像補正方法および記録媒体
US7072084B2 (en) * 2001-02-08 2006-07-04 Ricoh Company, Ltd. Color converting device emphasizing a contrast of output color data corresponding to a black character
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
JP4197858B2 (ja) * 2001-08-27 2008-12-17 富士通株式会社 画像処理プログラム
US7146041B2 (en) * 2001-11-08 2006-12-05 Fuji Photo Film Co., Ltd. Method and apparatus for correcting white balance, method for correcting density and recording medium on which program for carrying out the methods is recorded
US7009735B2 (en) * 2002-01-07 2006-03-07 Xerox Corporation Method for black trapping and under print processing
US20030194127A1 (en) * 2002-04-10 2003-10-16 Hubel Paul M. Chromaticity histogram that is weighted for brightness
JP2003309732A (ja) * 2002-04-15 2003-10-31 Sharp Corp 画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体
JP2004310475A (ja) * 2003-04-08 2004-11-04 Hitachi Ltd 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
US7224850B2 (en) * 2003-05-13 2007-05-29 Microsoft Corporation Modification of red-eye-effect in digital image
US7852377B2 (en) * 2004-04-16 2010-12-14 Arcsoft, Inc. Automatic red eye removal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06169395A (ja) * 1992-11-27 1994-06-14 Sharp Corp 画像形成装置
JPH0898204A (ja) * 1994-09-28 1996-04-12 Matsushita Electric Ind Co Ltd ホワイトバランス調整量演算装置
JPH1141474A (ja) * 1997-07-17 1999-02-12 Konica Corp 画像処理方法、画像処理装置及び記憶媒体
US20030002059A1 (en) 2001-07-02 2003-01-02 Jasc Software, Inc. Automatic color balance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1694052A4

Also Published As

Publication number Publication date
EP1694052A4 (en) 2009-05-20
JP4480677B2 (ja) 2010-06-16
EP1694052B1 (en) 2014-01-15
EP1694052A1 (en) 2006-08-23
JPWO2005057909A1 (ja) 2007-07-12
US20060170998A1 (en) 2006-08-03
US7359100B2 (en) 2008-04-15

Similar Documents

Publication Publication Date Title
CN101527860B (zh) 白平衡控制设备及其控制方法和摄像设备
JP3992177B2 (ja) 画像処理装置、画像処理方法及びコンピュータ・プログラム
US7421120B2 (en) Apparatus correcting image by luminance histogram
US20080062483A1 (en) Image processing method, image processing apparatus, manuscript reading apparatus, image forming apparatus and recording medium
CN100407771C (zh) 图像输入装置
US8687884B2 (en) Image processing apparatus and method
JP4992698B2 (ja) 色収差補正装置、撮像装置、色収差算出方法および色収差算出プログラム
WO2005057909A1 (ja) 画像補正方法及びプログラム、並びに装置
WO2008050548A1 (en) Image processing device, image processing program and image processing method
JP2007184888A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2006333205A (ja) 撮像装置、画像処理方法及び画像処理プログラム
JP2000092337A (ja) 画像処理方法および装置並びに記録媒体
JP2014023057A (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2007228221A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2007243542A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2006092137A (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
JP2007235369A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2007184887A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2006262404A (ja) 光源推定装置、画像処理装置、光源推定方法、および画像処理方法
JP2010199844A (ja) 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2007318320A (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
JP2007288245A (ja) 撮像装置、画像処理方法及び画像処理プログラム
JP2006197460A (ja) 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置
JP4991677B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録した記録媒体
JP2007188465A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005511676

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2003778836

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11372389

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11372389

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003778836

Country of ref document: EP