[go: up one dir, main page]

WO2012032778A1 - 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム - Google Patents

立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム Download PDF

Info

Publication number
WO2012032778A1
WO2012032778A1 PCT/JP2011/005035 JP2011005035W WO2012032778A1 WO 2012032778 A1 WO2012032778 A1 WO 2012032778A1 JP 2011005035 W JP2011005035 W JP 2011005035W WO 2012032778 A1 WO2012032778 A1 WO 2012032778A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
signal
eye image
value
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2011/005035
Other languages
English (en)
French (fr)
Inventor
春生 山下
武志 井東
弘道 小野
康浩 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012532867A priority Critical patent/JP5395273B2/ja
Publication of WO2012032778A1 publication Critical patent/WO2012032778A1/ja
Priority to US13/787,656 priority patent/US9240072B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance

Definitions

  • the present invention relates to a technique for improving the quality of a stereoscopic image (three-dimensional stereoscopic image), a camera (imaging device) that performs stereoscopic imaging, a display device that displays a stereoscopic image (stereoscopic image), and a stereoscopic image (stereoscopic image).
  • the present invention relates to a technology that can be applied to a wide range of devices that handle stereoscopic images (stereoscopic images) such as image processing apparatuses that process images.
  • a stereoscopic display device In order to reproduce a stereoscopic image by displaying the stereoscopic image (the image for the left eye and the image for the right eye) on a display device (hereinafter referred to as “stereoscopic display device”) that can be independently projected to the left and right eyes.
  • a stereoscopic imaging device that captures a stereoscopic image (a left-eye image and a right-eye image) in the presence of binocular parallax is known.
  • a stereoscopic image (left-eye image and right-eye image) acquired in a state where a distant view (distant subject) or a foreground (subject subject) has a large parallax, It becomes an image that exceeds the image limit and is difficult to stereoscopically view, or an image that causes a person who is viewing the stereoscopic image to feel tired (a tired image).
  • SB adjustment parallax adjustment or stereo base adjustment
  • Parallax adjustment is a technique used mainly when the distant view (distant view subject) exceeds the fusion limit. It is possible to obtain a stereoscopic image (stereoscopic image that can be easily viewed stereoscopically) that is easy to view when stereoscopically viewing (a distant subject).
  • the stereo base adjustment is performed by reducing the distance between the two cameras (the left-eye image capturing camera and the right-eye image capturing camera) (by reducing the stereo base (base line length)), The dynamic range of parallax can be reduced.
  • stereoscopic imaging is performed to obtain a stereoscopic image in which the whole from the foreground (the subject in the foreground) to the far background (the subject in the background) falls within the fusion zone. Can do.
  • the stereoscopic image displayed on the display device having a small size is an easily viewable stereoscopic image.
  • stereoscopic imaging by taking full advantage of the above-described imaging techniques (parallax adjustment, stereo base adjustment), a stereoscopic image that is a sufficiently easy-to-view image (stereoscopic image that can be easily viewed stereoscopically) is captured when stereoscopic display is performed in a predetermined display environment. (For example, refer to Patent Document 1).
  • the parallax is reduced from the original value by reducing the desired parallax in consideration of the fusion limit of stereoscopic vision (so that the subject that is the subject of stereoscopic imaging falls within the fusion zone of stereoscopic vision).
  • a stereoscopic image that is easy to view (a stereoscopic image that is easy to view stereoscopically) is acquired, which is not desirable from the viewpoint of the naturalness of the stereoscopic effect and perspective in the stereoscopic image. Therefore, a stereoscopic image acquired by the above-described conventional technique (a technique based on parallax adjustment or stereo base adjustment) has a problem regarding the quality of the stereoscopic image.
  • the perspective effect is generally reduced in the obtained stereoscopic image (because the distance from the nearest point to the farthest point is reduced), and thus the stereoscopic effect of each subject is reduced. Occurs. Therefore, when the above-described conventional technology is used, in any case, the acquired stereoscopic image tends to be a low-quality image with poor stereoscopic effect and perspective. In addition, a so-called “writing splitting phenomenon” may occur with the compression and reduction of the stereoscopic effect that occurs when the above-described prior art is used.
  • Writing phenomenon refers to a phenomenon in a stereoscopic image that looks like a flat picture drawn on a board because the thickness of a main subject such as a foreground person is thin. If this cracking phenomenon occurs in an important main subject, the quality of the stereoscopic image is extremely lowered.
  • the splitting phenomenon does not occur only due to the occurrence of compression / decrease of stereoscopic effect in a stereoscopic image by performing parallax adjustment as in the prior art.
  • a cracking phenomenon may occur even in ideal undistorted stereoscopic shooting (shooting a stereoscopic image without compression / degradation of stereoscopic effect).
  • the cracking phenomenon is a visual phenomenon, and not all causes that cause the cracking phenomenon have been completely elucidated.
  • the cracking phenomenon that occurs due to any factor does not change the quality of the stereoscopic image.
  • the present invention restores the subject's three-dimensional effect / thickness, regardless of the cause of the cracking phenomenon, and provides a three-dimensional image process that provides a high-quality three-dimensional image with little sense of writing. It is an object to realize an apparatus, a stereoscopic image processing method, and a program.
  • a first invention is a stereoscopic image processing apparatus that performs an image correction process on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method. A part.
  • the image correction unit acquires a subject object from each of the left-eye image and the right-eye image, performs a shadow enhancement process with a first intensity on a region outside the acquired subject object, and acquires the acquired subject object A shadow enhancement process with a second intensity stronger than the first intensity is performed on the inner region of
  • the stereoscopic image acquired by the stereoscopic image processing apparatus is a stereoscopic image that realizes a natural stereoscopic effect with the occurrence of the cracking phenomenon suppressed.
  • the “inside area of an object” refers to the inside area of the object on the image, and means the area inside the object (the inside (the inside of the object surrounded by the surface of the object that cannot be seen from the outside)). Absent.
  • the “first intensity” may be an intensity that performs a shadow enhancement process that is weaker than the second intensity, and may be an intensity that means that the shadow enhancement process is not executed.
  • a second invention is a stereoscopic image processing apparatus that performs an image correction process on a stereoscopic image including a left-eye image and a right-eye image, and includes a depth generation unit and an image correction unit.
  • the depth generation unit calculates distance information about a subject included in the left-eye image and the right-eye image from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • the image correction unit acquires a subject object from the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on the area inside the acquired subject object; (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on the area outside the acquired subject object.
  • depth information is obtained from the left-eye image and right-eye image, and the subject object is obtained based on the obtained depth information (distance information). Can be obtained.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus is a stereoscopic image that realizes a natural stereoscopic effect with the occurrence of the cracking phenomenon suppressed.
  • a third invention is a stereoscopic image processing apparatus that performs an image correction process on a stereoscopic image including a left-eye image and a right-eye image, and includes a depth generation unit and an image correction unit.
  • the depth generation unit calculates distance information about a subject included in the left-eye image and the right-eye image from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • the image correction unit acquires a subject object from the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on an inner central region that is an inner region excluding the contour vicinity region that is an inner region of the acquired subject object, (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on an inner contour vicinity area that is an inner area of the acquired subject object and is an outline vicinity area; (3) A shadow enhancement process with a third intensity that is weaker than the second intensity is performed on the area outside the acquired subject object.
  • the stereoscopic image processing apparatus depth information (distance information) is obtained from the left-eye image and right-eye image, and the subject object is obtained based on the obtained depth information (distance information). Can be obtained. Further, in this stereoscopic image processing apparatus, an intermediate strength between the strength of the shadow enhancement processing for the inner region of the object and the strength of the shadow enhancement processing for the outer region of the object with respect to the outline vicinity region of the inner region of the acquired object The shadow emphasizing process can be executed. Thus, in this stereoscopic image processing apparatus, inappropriate shadow enhancement processing (inappropriate shadow enhancement processing that causes ringing or the like) is not performed in the vicinity of the contour portion of the object. Accordingly, the stereoscopic image acquired by the stereoscopic image processing apparatus is a stereoscopic image that realizes a natural stereoscopic effect with the occurrence of the cracking phenomenon suppressed.
  • the fourth invention is the third invention, wherein the strength of the shadow enhancement process at the boundary point between the outer region of the subject object and the inner contour neighboring region is defined as the first border point strength, and the inner contour neighboring region and the inner center
  • the strength of the shadow enhancement processing at the boundary point of the region is the second boundary point strength
  • the second strength that is the strength of the shadow enhancement processing for the region near the inner contour is the first boundary point strength and the second boundary point strength
  • It is a continuously changing value.
  • the intensity of the shadow enhancement process is continuously changed from the outer area of the subject object to the area in the vicinity of the outline and further to the inner area. (Inappropriate shadow enhancement processing that causes ringing or the like) is not executed.
  • this stereoscopic image processing apparatus it is possible to appropriately execute strong shadow enhancement processing in the inner central region of the subject object while performing appropriate shadow enhancement processing also in the region near the contour of the subject object.
  • the fifth invention is any one of the first to fourth inventions, and the shadow enhancement processing is contrast enhancement processing.
  • the shadow emphasis process by the contrast emphasis process can be executed.
  • a sixth invention is any one of the first to fourth inventions, wherein the shadow enhancement processing is local contrast enhancement processing by visual processing.
  • the shadow emphasis process by the local contrast emphasis process by a visual process can be performed.
  • “visual processing” is processing that has characteristics close to how the human eye can see, and compares the value of the target pixel of the input image signal with the value (brightness) of the surrounding pixels. In response to this, the output signal value is determined.
  • the “local contrast enhancement processing by visual processing” is, for example, the pixel value of the processing target pixel (target pixel) is IS, the output pixel value of the processing target pixel is OS, and the representative brightness ( For example, when the average brightness value (average luminance value) of the surrounding pixels is US, for example, the local contrast is enhanced by performing gradation conversion processing on the target pixel according to the characteristics shown in FIG. This is the process to do.
  • a seventh invention is any one of the first to fourth inventions, and is a stereoscopic image processing apparatus.
  • the shadow enhancement process is a process that darkens the shadow.
  • the stereoscopic image processing apparatus since the process of darkening the shadow is performed, the shadow portion can be selectively emphasized (stereoscopic image processing for increasing the shadow can be performed), and as a result, the stereoscopic image processing is performed.
  • the apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the 8th invention is 7th invention, Comprising: An image correction part is provided with the correction part for R images, and the correction part for L images.
  • the R image correcting unit includes an R image local gradation converting unit, an R image intensity generating unit, and an R image combining unit.
  • the L image correcting unit includes an L image local gradation converting unit, an L image intensity generating unit, and an L image combining unit.
  • the R image local gradation converting unit performs shadow enhancement processing on the right eye image signal IS_R, and outputs the right eye image signal after the shadow enhancement processing as the corrected right eye image signal OS_R.
  • the R image intensity generation unit determines the intensity of the image correction process based on the right eye image distance image.
  • the R image combining unit combines the right eye image signal IS_R and the corrected right eye image signal OS_R based on the intensity determined by the R image intensity generating unit.
  • the L image local gradation converting unit performs shadow enhancement processing on the left eye image signal IS_L, and outputs the left eye image signal after the shadow enhancement processing as the corrected left eye image signal OS_L.
  • the L image intensity generation unit determines the intensity of the image correction process based on the left eye image distance image.
  • the L image combining unit combines the left eye image signal IS_L and the corrected left eye image signal OS_L based on the intensity determined by the L image intensity generating unit.
  • the R image local gradation conversion unit performs a shadow enhancement process on the right-eye image signal IS_R, and uses the corrected right-eye image signal OS_R subjected to the shadow enhancement. Is executed (the same applies to the L gradation local gradation converting unit).
  • the local gradation conversion part for R images is provided with the surrounding brightness detection part for R images, and the 2nd dynamic gradation correction
  • the image local gradation conversion unit includes an L image ambient brightness detection unit and an L image second dynamic gradation correction unit.
  • the ambient brightness detection unit for R image detects and detects representative brightness values (for example, average brightness value) between a target pixel corresponding to the right-eye image signal IS_R and pixels around the target pixel.
  • An R image ambient brightness signal US_R having the representative brightness value as a signal value is output.
  • the second dynamic gradation correction unit for R image performs dynamic gradation correction processing based on the right-eye image signal IS_R and the R-image ambient brightness signal US_R, thereby obtaining the corrected right-eye image signal OS_R. get.
  • the right-eye image signal OS_R is acquired.
  • the L image ambient brightness detection unit detects brightness values of a pixel of interest corresponding to the image signal IS_L for the left eye and pixels around the pixel of interest, and uses the detected brightness value as a signal value.
  • An image ambient brightness signal US_L is output.
  • the second dynamic gradation correction unit for L image performs dynamic gradation correction processing based on the left-eye image signal IS_L and the L-image ambient brightness signal US_L, thereby obtaining the corrected left-eye image signal OS_L. get.
  • Dynamic gradation correction processing (1) When (the value of the image signal IS_L for the left eye) ⁇ (the value of the ambient brightness signal US_L for the L image), the value of the image signal IS_L for the left eye within the predetermined input range of the image signal IS_L for the left eye Is fixed at a predetermined value, the gradation conversion process is performed by the gradation conversion characteristic in which the value of the corrected left-eye image signal OS_L decreases as the value of the L image ambient lightness signal US_L increases.
  • the second dynamic gradation correction unit for L image enhances local contrast only when (value of image signal IS_L for left eye) ⁇ (value of ambient brightness signal US_L for L image).
  • the process for the R image is the same as the process for the L image). That is, in this stereoscopic image processing apparatus, the process of enhancing the local contrast is executed for the pixels darker than the surroundings, so that the shadow component of the image can be selectively enhanced. As a result, this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • a tenth aspect of the invention is the eighth aspect of the invention, wherein the R image local gradation conversion unit includes an R image second ambient lightness detection unit and an R image dynamic gradation correction unit, and L
  • the image local gradation conversion unit includes an L image second ambient lightness detection unit and an L image dynamic gradation correction unit.
  • the second ambient lightness detection unit for R image detects a representative lightness value (for example, an average lightness value) between a target pixel that is a pixel corresponding to the image signal IS_R for the right eye and pixels around the target pixel, An R-image ambient brightness signal US_R having the detected brightness value as a signal value is acquired, and a right-eye offset value ⁇ US_R that is larger as the change in the right-eye image signal IS_R is more severe in a predetermined image region. Then, by adding the right eye offset value ⁇ US_R to the R image ambient brightness signal US_R, the R image corrected ambient brightness signal US_R ′ is obtained.
  • a representative lightness value for example, an average lightness value
  • the dynamic gradation correction unit for R image performs dynamic gradation correction processing based on the right-eye image signal IS_R and the R-image corrected ambient lightness signal US_R ′, thereby obtaining the corrected right-eye image signal OS_R. get.
  • the dynamic gradation correction processing when the value of the right-eye image signal IS_R is fixed to a predetermined value in the predetermined input range of the right-eye image signal IS_R, the value of the R-image corrected ambient lightness signal US_R ′ is The corrected right-eye image signal OS_R is obtained by performing the gradation conversion process with the gradation conversion characteristics in which the value of the corrected right-eye image signal OS_R decreases as the value increases.
  • the L image second ambient lightness detection unit detects a lightness value between a target pixel that is a pixel corresponding to the image signal IS_L for the left eye and pixels around the target pixel, and uses the detected lightness value as a signal value.
  • the L image ambient brightness signal US_L is acquired, and the left eye offset value ⁇ US_L, which becomes a larger value as the change in the left eye image signal IS_L becomes more severe in a predetermined image region, is acquired, and the L image ambient brightness signal is obtained.
  • the L image corrected ambient lightness signal US_L ′ is acquired.
  • the dynamic gradation correction unit for L image performs dynamic gradation correction processing based on the left-eye image signal IS_L and the L-image corrected ambient lightness signal US_L ′, thereby obtaining the corrected left-eye image signal OS_L. get.
  • the dynamic gradation correction process when the value of the left-eye image signal IS_L is fixed to a predetermined value in a predetermined input range of the left-eye image signal IS_L, the value of the L-image corrected ambient lightness signal US_L ′ is The corrected left-eye image signal OS_L is acquired by performing the gradation conversion process with the gradation conversion characteristics in which the value of the corrected left-eye image signal OS_L decreases as the value increases.
  • the L-eye second ambient lightness detection unit calculates the right-eye offset value ⁇ US_R, which becomes a larger value as the change in the right-eye image signal IS_R increases, and the right-eye offset value.
  • ⁇ US_R is added to obtain an L image corrected ambient lightness signal US_L ′.
  • gradation conversion processing is executed using, for example, the gradation conversion characteristics shown in FIG. 4 using the L-image corrected ambient lightness signal US_L ′ instead of the ambient lightness signal US_L. .
  • stronger local contrast enhancement processing is executed for pixels darker than the surroundings.
  • this stereoscopic image processing apparatus the process of enhancing the local contrast is executed for the pixels in the darker part of the periphery, so that the shadow component of the image can be selectively enhanced.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the larger the change in the right-eye image signal IS_R, the larger the value means, for example, which is a change in the signal value of the right-eye image signal IS_R in a predetermined range relative to the average value in the predetermined range. For example, when the variance value or standard deviation value of the signal value of the right-eye image signal IS_R within a predetermined range is large, it is said that “the change in the right-eye image signal IS_R is severe”. That is.
  • the local gradation conversion part for R images is provided with the 2nd surrounding brightness detection part for R images, and the coefficient calculation process part for R images, and is for L images
  • the local gradation conversion unit includes an L image second ambient lightness detection unit and an L image coefficient calculation processing unit.
  • the second ambient lightness detection unit for R image detects a representative lightness value (for example, an average lightness value) between a target pixel that is a pixel corresponding to the image signal IS_R for the right eye and pixels around the target pixel, An R image ambient lightness signal US_R having the detected representative lightness value as a signal value is obtained, and the right eye offset value ⁇ US_R, which becomes larger as the change in the right eye image signal IS_R becomes more severe in a predetermined image region, is obtained.
  • the R image corrected ambient brightness signal US_R ′ is acquired by adding the right eye offset value ⁇ US_R to the R image ambient brightness signal US_R.
  • the L image second ambient lightness detection unit detects a lightness value between a target pixel that is a pixel corresponding to the image signal IS_L for the left eye and pixels around the target pixel, and uses the detected lightness value as a signal value.
  • the L image ambient brightness signal US_L is acquired, and the left eye offset value ⁇ US_L, which becomes a larger value as the change in the left eye image signal IS_L becomes more severe in a predetermined image region, is acquired, and the L image ambient brightness signal is obtained.
  • the L image corrected ambient lightness signal US_L ′ is acquired.
  • the R image coefficient calculation processing unit increases as the value of the difference ((IS_R) ⁇ (US_R ′)) between the right eye image signal IS_R and the R image corrected ambient lightness signal US_R ′ increases.
  • the coefficient k that decreases as the difference ((IS_L) ⁇ (US_L ′)) increases is determined ”(the same applies to the difference ((IS_R) ⁇ (US_R ′))).
  • the coefficient k is determined by the solid line shown in FIG. 17 but also the case where the coefficient k is determined by the dotted line shown in FIG. That is, the relationship between the coefficient k and the difference value ((IS_L) ⁇ (US_L ′)) is not only monotonous but also includes a case where the relationship changes stepwise (for example, the dotted line in FIG. 17).
  • a twelfth aspect of the present invention is the eighth aspect of the present invention, wherein the R image local gradation converting section includes an R image second ambient lightness detecting section and an R image coefficient arithmetic processing section, and for the L image.
  • the local gradation conversion unit includes an L image second ambient lightness detection unit and an L image coefficient calculation processing unit.
  • the second ambient lightness detection unit for R image detects a representative lightness value (for example, an average lightness value) between a target pixel that is a pixel corresponding to the image signal IS_R for the right eye and pixels around the target pixel, An R image ambient lightness signal US_R having the detected representative lightness value as a signal value is obtained, and the right eye offset value ⁇ US_R, which becomes larger as the change in the right eye image signal IS_R becomes more severe in a predetermined image region, is obtained.
  • the R image corrected ambient brightness signal US_R ′ is acquired by adding the right eye offset value ⁇ US_R to the R image ambient brightness signal US_R.
  • the coefficient calculation processing unit for the R image has a smaller coefficient k as the difference ((IS_R) ⁇ (US_R ′)) between the right eye image signal IS_R and the R image corrected ambient lightness signal US_R ′ increases. And set the coefficient p (p: 0 ⁇ p ⁇ 1), (K + p) ⁇ (IS_R ⁇ US_R ′)
  • OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (
  • the L image second ambient lightness detection unit detects a lightness value between a target pixel that is a pixel corresponding to the image signal IS_L for the left eye and pixels around the target pixel, and uses the detected lightness value as a signal value.
  • the L image ambient brightness signal US_L is acquired, and the left eye offset value ⁇ US_L, which becomes a larger value as the change in the left eye image signal IS_L becomes more severe in a predetermined image region, is acquired, and the L image ambient brightness signal is obtained.
  • the L image corrected ambient lightness signal US_L ′ is acquired.
  • the coefficient calculation processing unit for the L image has a smaller coefficient k as the difference ((IS_L) ⁇ (US_L ′)) between the left-eye image signal IS_L and the L-image corrected ambient lightness signal US_L ′ increases. And set the coefficient p (p: 0 ⁇ p ⁇ 1), (K + p) ⁇ (IS_L ⁇ US_L ′)
  • OS_L IS_L ⁇ p ⁇ (IS_L ⁇ US_L ′) + LPF ((k + p)
  • the R image coefficient calculation processing unit OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (IS_R ⁇ US_R ′))
  • the corrected right-eye image signal OS_R is acquired by a process corresponding to. Therefore, in this stereoscopic image processing apparatus, it is possible to adjust the degree of blurring of the shadow component included in the original image and the shadow component to be added (the degree of band limitation processing) using the coefficient p. Therefore, in this stereoscopic image processing apparatus, it is possible to selectively emphasize the shadow portion while appropriately blurring the shadow portion.
  • a thirteenth invention is a stereoscopic imaging device including the stereoscopic image processing device according to any one of the first to twelfth inventions.
  • a fourteenth aspect of the present invention is a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method. Includes steps.
  • a subject object is acquired from each of the left-eye image and the right-eye image, and a shadow enhancement process using a first intensity is performed on a region outside the acquired subject object.
  • a shadow emphasizing process with a second intensity higher than the first intensity is performed on the inner area of.
  • a fifteenth aspect of the present invention is a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method, A step and an image correction step.
  • distance information about the subject included in the left-eye image and the right-eye image is calculated from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • a subject object is obtained from each of the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on the area inside the acquired subject object; (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on the area outside the acquired subject object.
  • a sixteenth aspect of the present invention is a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method.
  • a step and an image correction step are a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method.
  • a step and an image correction step In the depth generation step, distance information about the subject included in the left-eye image and the right-eye image is calculated from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • a subject object is obtained from each of the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on an inner central region that is an inner region excluding the contour vicinity region that is an inner region of the acquired subject object, (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on an inner contour vicinity area that is an inner area of the acquired subject object and is an outline vicinity area; (3) A shadow enhancement process with a third intensity that is weaker than the second intensity is performed on the area outside the acquired subject object.
  • a seventeenth aspect of the invention is any one of the fourteenth to sixteenth aspects of the invention, wherein the shadow enhancement process is a process for darkening a shadow.
  • the stereoscopic image processing method includes an image correction step. In the image correction step, a subject object is acquired from each of the left-eye image and the right-eye image, and a shadow enhancement process using a first intensity is performed on a region outside the acquired subject object. A shadow emphasizing process with a second intensity higher than the first intensity is performed on the inner area of. As a result, it is possible to realize a program that exhibits the same effects as those of the first invention.
  • a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a binocular system or a multi-viewpoint system. It is a program.
  • the stereoscopic image processing method includes a depth generation step and an image correction step. In the depth generation step, distance information about the subject included in the left-eye image and the right-eye image is calculated from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • a subject object is obtained from each of the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on the area inside the acquired subject object; (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on the area outside the acquired subject object.
  • a computer executes a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a left-eye image and a right-eye image included in a stereoscopic image by a two-lens method or a multi-viewpoint method. It is a program.
  • the stereoscopic image processing method includes a depth generation step and an image correction step. In the depth generation step, distance information about the subject included in the left-eye image and the right-eye image is calculated from the left-eye image and the right-eye image, and the left-eye image distance image and the right-eye image Generate a distance image.
  • a subject object is obtained from each of the left-eye image and the right-eye image based on the left-eye image distance image and the right-eye image distance image, (1) A shadow enhancement process with a first intensity is performed on an inner central region that is an inner region excluding the contour vicinity region that is an inner region of the acquired subject object, (2) A shadow enhancement process with a second intensity that is weaker than the first intensity is performed on an inner contour vicinity area that is an inner area of the acquired subject object and is an outline vicinity area; (3) A shadow enhancement process with a third intensity that is weaker than the second intensity is performed on the area outside the acquired subject object.
  • the twenty-first invention is any one of the eighteenth to twentieth inventions, wherein the shadow enhancement process is a process for darkening a shadow.
  • FIG. 1 is a schematic configuration diagram of a stereoscopic imaging apparatus according to a first embodiment including a shooting environment.
  • FIG. The block diagram of the image correction part in 1st Embodiment.
  • FIG. 6 is a signal waveform diagram (one example) of OS_L (waveform Os ′).
  • FIG. 1 shows a schematic diagram of a stereoscopic imaging apparatus 1000 according to the first embodiment.
  • a scene 200 imaging scene 200
  • FIG. 1 shows a schematic diagram of a stereoscopic imaging apparatus 1000 according to the first embodiment.
  • a scene 200 imaging scene 200
  • the stereoscopic imaging apparatus 1000 collects subject light from a first viewpoint and acquires a first image signal (for example, a right-eye image signal (R image signal)); A second imaging unit 101L that collects subject light from the second viewpoint and acquires a second image signal (for example, a left-eye image signal (L image signal)), and a first image signal (for example, an R image signal). And an image input unit 102 for converting the second image signal (for example, the L image signal) into a digital signal.
  • a first image signal for example, a right-eye image signal (R image signal)
  • a second imaging unit 101L that collects subject light from the second viewpoint and acquires a second image signal (for example, a left-eye image signal (L image signal)
  • a first image signal for example, an R image signal
  • an image input unit 102 for converting the second image signal (for example, the L image signal) into a digital signal.
  • the stereoscopic imaging apparatus 1000 calculates subject distance information from the first image signal (for example, R image signal) and the second image signal (for example, L image signal) converted into digital signals, respectively.
  • a depth generation unit that outputs the depth information (for example, R depth information) and the second depth information (for example, L depth information), the first depth information (for example, R depth information), and the second depth information (for example, L depth information).
  • an image correction unit 104 that performs image correction processing on a first image signal (for example, an R image signal) and a second image signal (for example, an L image signal).
  • the first imaging unit 101R captures the right eye image (video) and the second imaging unit 101L captures the left eye image (video).
  • the first imaging unit 101R is installed at a first viewpoint, and an optical system that collects subject light and a first image signal (right-eye image signal (R image signal) by photoelectric conversion from the collected subject light. ). Then, the first imaging unit 101R outputs the acquired first image signal (R image signal) to the image input unit 102.
  • the second imaging unit 101L is installed at a second viewpoint, which is a position different from the first viewpoint, and an optical system that collects subject light and a second image signal (left) by photoelectric conversion from the collected subject light.
  • the second imaging unit 101L outputs the acquired second image signal (L image signal) to the image input unit 102.
  • the image input unit 102 receives the first image signal (R image signal) acquired by the first imaging unit 101R, performs A / D conversion on the input first image signal, and performs A / D conversion.
  • the first image signal (R image signal) is output to the depth generation unit 103 and the image correction unit 104.
  • the image input unit 102 also receives the second image signal (L image signal) acquired by the second imaging unit 101L, performs A / D conversion on the input second image signal, and performs A / D conversion.
  • the D-converted second image signal (L image signal) is output to the depth generation unit 103 and the image correction unit 104.
  • the depth generation unit 103 receives the first image signal (R image signal) and the second image signal (L image signal) output from the image input unit 102.
  • the depth generation unit 103 generates a first image (R image) formed from the first image signal (R image signal) and a second image (L image) formed from the second image signal (L image signal).
  • First depth information (R depth information) that is depth information for one image (R image) and second depth information (L depth information) that is depth information for a second image (L image) are generated.
  • the depth generation unit 103 outputs the generated first depth information (R depth information) and second depth information (L depth information) to the image correction unit 104.
  • the depth information is preferably generated by, for example, parallax matching. As shown in FIG.
  • the image correction unit 104 includes an L image correction unit 104L and an R image correction unit 104R.
  • the image correction unit 104 includes a first image signal (R image signal) and a second image signal (L image signal) output from the image input unit 102, and first depth information (R depth) output from the depth generation unit 103. Information) and second depth information (L depth information).
  • the image correction unit 104 performs correction processing on the first image signal (R image signal) based on the first depth information (R depth information), and outputs the first image signal (R image signal) after the correction processing. .
  • the image correction unit 104 performs correction processing on the second image signal (L image signal) based on the second depth information (L depth information), and outputs the second image signal (R image signal) after the correction processing.
  • the image correction unit 104 includes a first image signal (R image signal) and a second image signal (L image
  • the L image correction unit 104L includes a local gradation conversion unit 111L, an intensity generation unit 112L, and a synthesis unit 113L.
  • the local gradation conversion unit 111 ⁇ / b> L includes an ambient brightness detection unit 121 and a dynamic gradation correction unit 122.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value for example, an average luminance value of all the pixels included in the surrounding area
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the dynamic gradation correction unit 122 as the ambient brightness signal US_L.
  • the dynamic gradation correction unit 122 has an L image signal that can form the L image output from the image input unit 102 (the luminance value IS_L of the L image signal), and the ambient lightness output from the ambient lightness detection unit 121.
  • the signal US_L is input.
  • the dynamic gradation correction unit 122 performs gradation conversion processing on the luminance value IS_L of the L image signal with gradation conversion characteristics determined based on the value of the ambient lightness signal US_L.
  • the gradation conversion characteristics of the dynamic gradation correction unit 122 are, for example, as shown in FIG.
  • the gradation conversion characteristics of the dynamic gradation correction unit 122 will be described with reference to FIG. In FIG.
  • the horizontal axis represents the value of the IS signal as the input signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal), and the vertical axis represents the value of the OS signal (L A luminance value OS_L after gradation conversion of the image signal or a luminance value OS_R after gradation conversion of the R image signal is taken, and a gradation conversion characteristic curve K1 determined by the value of the ambient lightness signal US_L (or US_L) This is a graph of ⁇ K8.
  • the gradation conversion characteristic curve Kn (n: integer from 1 to 8) is a gradation conversion curve when the ambient lightness signal value US (US_L or US_R) is “n / 8” (n: integer from 1 to 8).
  • the gradation conversion curve groups K1 to K8 are groups, and when the IS value is fixed to a predetermined value (for example, fixed to the value A in FIG. 4), the value US of the ambient lightness signal increases.
  • the output value OS is set to monotonously decrease. Although the number of gradation conversion curve groups is eight in FIG.
  • the gradation conversion processing corresponding to the black circle points shown in FIG. 4 is executed, so the IS value matches the OS value.
  • the dynamic gradation correction unit 122 performs the IS signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal) with the gradation conversion characteristics as illustrated in FIG.
  • the OS signal (the luminance value OS_L after gradation conversion of the L image signal or the luminance value OS_R after gradation conversion of the R image signal) is acquired by performing dynamic gradation correction processing.
  • the dynamic gradation correction unit 122 converts the OS signal (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) into the synthesis unit 113L (R image signal). In this case, the data is output to the synthesis unit 113R).
  • the intensity generation unit 112L receives the second depth information (L depth information) output from the depth generation unit 103, and performs local gradation conversion processing (spatial visual processing) based on the second depth information (L depth information).
  • the first intensity signal M1_L for determining the intensity of the first intensity signal M1_L is generated (a method for generating the first intensity signal M1_L will be described later). Then, the intensity generation unit 112L outputs the generated first intensity signal M1_L to the synthesis unit 113L.
  • the synthesizing unit 113L includes an L image signal that can form the L image output from the image input unit 102 (the luminance value IS_L of the L image signal), the OS_L signal output from the local gradation conversion unit 111L, and the intensity
  • the first intensity signal M1_L output from the generation unit 112L is used as an input.
  • the combining unit 113L combines the IS_L signal and the OS_L signal based on the first intensity signal M1_L. Thereby, the synthesizing unit 113L acquires the L image signal Lout that has been subjected to the local gradation conversion processing (spatial visual processing) with the intensity determined by the first intensity signal M1_L. Then, the combining unit 113L outputs the acquired L image signal Lout.
  • the L image correction unit 104L is configured.
  • the image correction unit for R image 104R has the same configuration as the image correction unit for L image 104L, and only the point that the input signals are the R image signal and the R depth information is for the L image. This is different from the image correction unit 104L.
  • the shooting scene 200 includes a background 201 and a foreground 202.
  • the foreground 202 is the main subject.
  • the operation of the stereoscopic imaging apparatus 1000 will be described below by taking as an example the case where the stereoscopic imaging apparatus 1000 stereoscopically captures the shooting scene shown in FIG.
  • the center line of the angle of view taken by the first imaging unit 101R of the stereoscopic imaging apparatus 1000 (the one-dot chain line extending from 101R in FIG. 6) and the angle of view taken by the second imaging unit 101L.
  • the convergence angle is set so as to intersect with the center line (the one-dot chain line extending from 101L in FIG. 6) at the distance (d2) where the background 201 is arranged.
  • the foreground 202 (main subject 202) is, for example, an object having a three-dimensional roundness (for example, a substantially elliptical object (for example, a person) having a predetermined width when viewed from above). To do.
  • Subject light from the imaging scene 200 is collected by the first imaging unit 101R arranged at the first viewpoint, and is converted into a first image signal (R image signal) by the imaging element of the first imaging unit 101R.
  • subject light from the imaging scene 200 is collected by the second imaging unit 101L arranged at the second viewpoint, and converted into a second image signal (L image signal) by the imaging element of the second imaging unit 101R. Is done.
  • the first imaging unit 101R and the second imaging unit 101L are separated by a baseline length (stereo base length) so that the stereoscopic imaging apparatus 1000 can acquire a stereoscopic image (left eye image and right eye image). Is arranged.
  • the first image signal (R image signal) output from the first imaging unit 101R and the second image signal (L image signal) output from the second imaging unit 101L are respectively input to the image input unit 102, and the image It is converted into a digital signal by the input unit 102. Then, the first image signal (R image signal) and the second image signal (L image signal) converted into digital signals are output to the depth generation unit 103 and the image correction unit 104, respectively.
  • the first image (R image) formed from the first image signal (R image signal) and the second image (L image) formed from the second image signal (L image signal) are, for example, parallax matching. Is generated.
  • FIG. 5 is a diagram schematically illustrating a stereoscopic image when the stereoscopic imaging apparatus 1000 stereoscopically captures a shooting scene in which a triangular object is disposed in the back and a circular object is disposed in front.
  • FIG. 5 (a) is a diagram schematically showing an L image (left eye image)
  • FIG. 5 (b) is a diagram schematically showing an R image (right eye image).
  • FIG. 5C is a diagram in which the R image and the L image are superimposed and displayed as one image.
  • the generation method of the first depth information (R depth information) and the second depth information (L depth information) by parallax matching is realized by executing the following processes (1) to (3), for example.
  • the depth generation unit 103 uses the L image (left eye image) and the R image (right eye image), for example, the subject corresponding to the point AL on the L image in FIG. It is detected that A (the vertex of the triangle in FIG. 5) corresponds to the point AR on the R image in FIG. 5 (b).
  • a deviation amount (parallax) Diff (A) between the two detected points AL and AR is calculated.
  • the parallax has a positive or negative sign depending on the shift direction. For example, when the point on the R image is shifted to the left with respect to the point on the L image, it is positive, and the opposite case is negative.
  • the parallax for the subject A is ⁇ ( ⁇ 0)
  • the AR point on the R image is shifted to the right from the AL point on the L image.
  • the parallax for A is calculated as “ ⁇ ”. If the absolute value of the parallax for the subject B (the center point of the circle in FIG. 5) is ⁇ ( ⁇ 0), the BR point on the R image is shifted to the left from the BL point on the L image.
  • the depth generation unit 103 performs the processes (1) and (2) for all points (all pixels) on the image, and generates a parallax image having the calculated shift amount (parallax) as a pixel value. To do. Then, the parallax image generated using the parallax calculated for each pixel of the L image as the pixel value is L depth information (L depth information image (distance image for left eye image)), and the parallax calculated for each pixel of the R image is Let the parallax image produced
  • the “distance image” is a mapping of a value correlated to the distance between the actual position (position in the three-dimensional space) of the subject corresponding to each pixel and the position of the stereoscopic imaging apparatus 1000 to each pixel. It is the image that was made.
  • the method for generating the first depth information (R depth information) and the second depth information (L depth information) by the parallax matching is an example, and the present invention is not limited to this. For example, the parallax sign may be reversed from the above.
  • the depth generation unit 103 may acquire the left-eye image distance image and the right-eye image distance image by another method, and acquire the L depth information and the R depth information.
  • FIG. 6 is a diagram schematically illustrating a relationship (an example) between an imaging environment and a subject when stereoscopic imaging is performed using the stereoscopic imaging apparatus 1000.
  • FIG. 6A is a view of the shooting environment (shooting scene) 200, the first imaging unit 101R, and the second imaging unit 101L as viewed from above.
  • the foreground main subject 202 and the background subject 201 are in a positional relationship as shown in FIG.
  • the background subject 201 is assumed to be a wall with a picture on it, but it is needless to say that the subject is not limited to such a subject and may be an example subject. .
  • FIG. 6B shows the luminance distribution of the picture drawn on the background subject 201
  • FIG. 6C shows the foreground main subject 202 viewed from the stereoscopic imaging apparatus 1000 side (camera side). It represents the luminance distribution on the front.
  • FIG. 6D shows another luminance distribution of the main subject 202 used in the description to be described later.
  • the horizontal axis represents the horizontal position
  • the vertical axis represents the luminance.
  • the first imaging unit 101R and the second imaging unit 101L of the stereoscopic imaging apparatus 1000 have the convergence angle set so that the imaging ranges coincide with the subject distance d2 of the background subject 201.
  • the convergence angle is set so that the convergence points of the first imaging unit 101R and the second imaging unit 101L are on the background subject 201 at the subject distance d2.
  • 6A is displayed on a display device (stereoscopic image display device), the background subject 201 is localized on a display screen surface not shown, and the main subject 202 is displayed. Is positioned in front of the display screen, and a stereoscopic image is displayed with the main subject 202 protruding.
  • Positions L1 and L2 in FIG. 6 are background positions near the left and right ends of the subject 202 in the second imaging unit 101L, and positions R1 and R2 are background positions near the left and right ends of the subject 202 in the first imaging unit 101R. .
  • the setting of the convergence angle is described above for the sake of simplicity, and the convergence angle may be arbitrary.
  • FIG. 7 is a diagram showing the relationship between the position in the horizontal direction and the luminance of a stereoscopic image (L image and R image) obtained by stereoscopic imaging of the shooting scene 200 of FIG.
  • FIG. 7A is a diagram showing the relationship between the horizontal position and luminance in the L image
  • FIG. 7B is the diagram showing the relationship between the horizontal position and luminance in the R image.
  • the stereoscopic image having the luminance distribution in FIG. 7 corresponds to an output image of a conventional stereoscopic imaging device.
  • the luminance of the background subject 201 is displayed with a dotted line
  • the luminance of the main subject 202 is displayed with a solid line.
  • ringing shoot
  • the areas P0L, Q0L, P0R, and Q0R in FIG. 7 occurs in the edge portion of the captured image. There are many.
  • FIG. 7 shows a case where the luminance of the main subject 202 is higher than the luminance of the background subject 201
  • the present invention is not limited to this, and the luminance of the background subject 201 and the luminance of the main subject 202 are different luminances. It may have a distribution.
  • the luminance of the background subject 201 is that the L image and the R image are at the same position (the subject distance is the same) (the convergence point is on the background subject 201 and there is no parallax for the background subject 201). Pan up. That is, the luminance distribution of the L image and the luminance distribution of the R image of the background subject 201 are the same.
  • the main subject 202 corresponds to the positions L1 to L2 in the L image and corresponds to the positions R1 to R2 in the R image.
  • the area on the L image corresponding to the main subject 202 is positioned to the right of the area on the R image corresponding to the main subject 202. For this reason, when the stereoscopic image corresponding to FIG. 7 is stereoscopically displayed, the main subject 202 is localized in front of the display screen surface (localized at the protruding position).
  • A indicates the width of the main subject 202
  • ⁇ 1 in FIG. 7 indicates a luminance difference at a predetermined location in the main subject 202.
  • the stereoscopic imaging apparatus 1000 of the present embodiment aims to improve the sense of writing by enhancing the unevenness and swelling of the front surface of the main subject 202 by enhancing shadows that are local shadows due to illumination.
  • shadow enhancement processing capable of natural contrast enhancement by enhancing visual contrast characteristics in terms of image processing.
  • FIG. 8 is a diagram illustrating an image quality correction example in which the above-described local contrast enhancement processing is performed on each of the L image and the R image.
  • FIG. 8A is a diagram illustrating the relationship between the horizontal position and luminance in the L image after image quality correction
  • FIG. 8B is the horizontal direction in the R image after image quality correction. It is a figure which shows the relationship between a position and brightness
  • the luminance difference ⁇ 2 at a predetermined location in the main subject 202 becomes ⁇ 2> ⁇ 1, and the shadow of the main subject 202 is emphasized, and the inside of the object (main It is considered that the three-dimensional feeling and swelling feeling of the area inside the contour portion of the subject 202 is improved. Therefore, it is expected that the sense of writing of the main subject 202 is improved by performing the local contrast enhancement processing on the stereoscopic image, but in reality, it is understood that the feeling of writing becomes worse without decreasing. It was. As the cause, the following causes (1) and (2) can be considered.
  • the stereoscopic imaging apparatus 1000 appropriately prevents the feeling of writing by performing a shadow enhancement process suitable for the stereoscopic image on the stereoscopic image.
  • the image correction unit 104 performs an image correction process on the stereoscopic image (R image and L image), thereby executing a shadow enhancement process suitable for the stereoscopic image, and writing feeling in the stereoscopic image.
  • the L image information correction unit 104L uses the L depth information for the L image
  • the R image information correction unit 104R uses the R depth information for the R image.
  • the L image image correction unit 104L will be mainly described below.
  • FIG. 9 is a diagram for explaining the operation of the first intensity generation unit 112L.
  • the horizontal axis represents the position in the horizontal direction
  • the vertical axis represents the value of the L depth information. That is, DL in FIG. 9A is L image depth information (distance information) with respect to a pixel position in the L image, and represents the L image depth information (distance information) given from the depth generation unit 103.
  • the value of DL takes a smaller value as it is farther (the subject distance is larger), and takes a larger value as it is a foreground (the subject distance is smaller).
  • the depth information (distance information) of the main subject 202 takes a value larger than the depth information (distance information) of the background subject 201.
  • the value of the L depth information of the main subject 202 takes a value in the range of D2_f to D2_n. That is, the value of the L depth information at the nearest point of the main subject 202 is D2_n, and the value of the L depth information at the farthest point of the main subject 202 is D2_f. Since the background subject 201 is a flat wall, the L depth information of the background subject 201 is constant at D1.
  • the intensity generation unit 112L binarizes the input L depth information using a predetermined threshold Th, so that the first intensity signal M1 (L image first intensity signal shown in FIG. 9B) is obtained. M1_L).
  • Th1 and Th2 > Th1
  • Th1 ⁇ L depth information
  • Th2 the value of the first intensity signal M1 may be set to “1”.
  • the first intensity signal M1 (L image first intensity signal M1_L) generated by the intensity generation unit 112L is output to the synthesis unit 113L.
  • Operation of Local Tone Converter 111 >> Next, the operation of the local gradation conversion unit 111L of the image correction unit 104L will be described.
  • the operation of the local gradation conversion unit 111R of the image correction unit 104R is the same as that of the local gradation conversion unit 111L.
  • local gradation conversion processing by spatial visual processing is executed on the input L image signal (corresponding to a target pixel on the L image).
  • the ambient brightness detection unit 121 of the local gradation conversion unit 111L calculates a representative brightness value (for example, the brightness average value (luminance average value) of the peripheral image region) of the peripheral image region of the target pixel.
  • the representative brightness value is output to the dynamic gradation correction unit 122 as the ambient brightness signal US_L.
  • gradation conversion characteristics to be performed on the input L image signal are determined based on the ambient lightness signal US_L output from the ambient lightness detection unit 121. Is done. Specifically, according to the value of the ambient lightness signal US_L, a gradation conversion characteristic curve for performing gradation conversion on the target pixel is selected from the gradation conversion characteristic curves K1 to K8 shown in FIG. It is determined by deriving from the gradation conversion characteristic curves K1 to K8 by interpolation processing or the like.
  • the L image signal after gradation conversion is acquired as OS_L.
  • the acquired L image signal OS_L after gradation conversion is output to the synthesis unit 113L.
  • the synthesizing unit 113L the L image signal OS_L after the tone conversion output from the local tone converting unit 111L and the L image signal IS_L output from the image input unit 102 (an L image for which tone conversion processing has not been executed). Signal) is selected according to the value of the L image first intensity signal M1_L.
  • the image correction unit 104 causes the shading region shown in FIG.
  • region L401 region where the first intensity signal M1_L is “1”
  • R region where the first intensity signal M1_R is “1”
  • the local gradation conversion processing is executed only for the image signal corresponding to the region R401 (the region where the first intensity signal M1_R is “1”), and the region other than the shaded portion in FIG.
  • the local gradation conversion process is not executed for the corresponding image signal.
  • the three-dimensional image acquired by the three-dimensional imaging device 1000 is a three-dimensional image that realizes a natural three-dimensional effect that suppresses the occurrence of the cracking phenomenon.
  • this stereoscopic image processing method is realized by a computer using a program, for example.
  • the operating subject of this stereoscopic image processing method is, for example, a CPU.
  • the “predetermined range” is preferably a value set so that, for example, an object corresponding to a person can be detected as one object. By setting in this way, objects existing at substantially the same subject distance can be acquired with high accuracy.
  • the object acquisition process the object may be acquired (extracted) manually. Information regarding acquisition of the object may be input from the outside, and the object may be acquired based on the information.
  • S104 In each of the L and R images, (A) A shadow enhancement process with a first intensity is performed on the inside (inner region) of the acquired object, (B) A shadow enhancement process with the second intensity is executed on the outside (outer region) of the acquired object.
  • the first strength ⁇ the second strength. That is, higher-intensity shadow enhancement processing (for example, local contrast enhancement processing) is performed on the inside (inner region) of the acquired object.
  • the second intensity includes an intensity at which the shadow enhancement process is not executed. For example, the second intensity is set to “0” for the outside (outside area) of the acquired object, the shadow enhancement process is not performed, and the first intensity is set for the inside (inside area) of the acquired object. “1” may be set to perform the shadow enhancement process.
  • the stereoscopic image obtained by executing the above-described stereoscopic image processing method becomes a stereoscopic image in which occurrence of ringing or the like in the object outline is appropriately suppressed, and occurrence of the splitting phenomenon is appropriately suppressed.
  • a second embodiment will be described. Similarly to the first embodiment, the second embodiment will be described below by taking a binocular stereoscopic imaging device (such as a digital camera or a video camera) as an example of the stereoscopic image processing device.
  • a binocular stereoscopic imaging device such as a digital camera or a video camera
  • the configuration of the stereoscopic imaging device of the second embodiment is the same as the configuration of the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the second embodiment differs from the stereoscopic imaging device 1000 of the first embodiment in that the processing contents of the intensity generation units 112L and 112R of the image correction unit 104 and the processing content of the synthesis units 113L and 113R. It is.
  • the processing content of the intensity generation units 112L and 112R and the processing content of the synthesis units 113L and 113R in the stereoscopic imaging device of the present embodiment will be described.
  • the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described.
  • the operation of the intensity generation unit 112L of the image correction unit 104L will be described.
  • the operation of the intensity generation unit 112R of the image correction unit 104R is the same as that of the intensity generation unit 112L.
  • FIG. 12 is a diagram for explaining the operation of the first intensity generation unit 112L.
  • the horizontal axis is the horizontal position
  • the vertical axis is the value of the L depth information. That is, DL in FIG. 12A is depth information (distance information) of the L image with respect to the pixel position in the L image, and represents depth information (distance information) of the L image given from the depth generation unit 103.
  • the value of DL takes a smaller value as it is farther (the subject distance is larger), and takes a larger value as it is a foreground (the subject distance is smaller).
  • the depth information (distance information) of the main subject 202 takes a value larger than the depth information (distance information) of the background subject 201.
  • the value of the L depth information of the main subject 202 takes a value in the range of D2_f to D2_n. That is, the value of the L depth information at the nearest point of the main subject 202 is D2_n, and the value of the L depth information at the farthest point of the main subject 202 is D2_f. Since the background subject 201 is a flat wall, the L depth information of the background subject 201 is constant at D1.
  • the intensity generation unit 112L binarizes the input L depth information using a predetermined threshold Th, so that the first intensity signal M1 (the first intensity signal for L image) illustrated in FIG. M1_L).
  • Th1 and Th2 are predetermined threshold values
  • Th1 ⁇ L depth information
  • Th2 the value of the first intensity signal M1 may be set to “1”.
  • the intensity generator 112L (1) the first intensity signal M1, (2) the first intensity signal M1 shifted to the left by a predetermined pixel, and (3) the first intensity signal M1 predetermined to the right
  • the signal shifted by the pixel is subjected to band limitation by a low-pass filter (not shown), thereby obtaining three signals M2C, M2L, and M2R shown in FIG.
  • the intensity generation unit 112L performs a process corresponding to the following expression on the signal M2C, the signal M2L, and the signal M2R, and a third intensity signal that is a signal including a minimum value of the signal values of the three signals.
  • M3 is acquired (FIG. 12 (d)).
  • the third intensity signal M3 is a signal that detects the inside of the foreground object (main subject 202) (inside the outline of the main subject 202), the third intensity signal M3_L is output as a third intensity signal M3_L from the synthesis unit. It is output to 113.
  • the synthesizing unit 113L the L image signal OS_L after gradation conversion output from the local gradation conversion unit 111L and the L image signal IS_L output from the image input unit 102 (L image for which gradation conversion processing has not been executed). Signal) is synthesized in accordance with the value of the third intensity signal for L image M3_L. Specifically, in the synthesizing unit 113L, an output L image signal Lout is acquired by executing processing corresponding to the following expression.
  • the synthesizing unit 113L acquires the output L image signal Lout.
  • Lout (OS_L ⁇ IS_L) * M3_L + IS_L
  • a stereoscopic image (L image in the case of FIG. 12) in which the local contrast is emphasized around the shaded area in FIG.
  • the combining unit 113L operates as described above, (1) In the image correction unit 104, a strong local gradation conversion process is performed on the image signal corresponding to the halftone area shown in FIG. 13 (the area L402 for the L image and the area R402 for the R image). And (2) The local gradation conversion process is not performed on an image signal corresponding to an area other than the main subject 202 (an area other than the area A in FIG.
  • the emphasis intensity can be changed continuously.
  • the stereoscopic imaging device of this embodiment occurrence of ringing or the like can be suppressed in the regions PL, QL, PR, and QR shown in FIG.
  • the degree (intensity) of shadow enhancement for example, local contrast enhancement
  • inappropriate correction processing such as shadow enhancement processing
  • appropriate shadow enhancement processing for example, local contrast enhancement processing
  • the stereoscopic image acquired by the stereoscopic imaging apparatus according to the present embodiment is a natural stereoscopic image with reduced feeling of writing.
  • the object described in the above embodiment means a subject at substantially the same subject distance.
  • a black vertical line is drawn on the surface of the main subject 202 (see FIG. 6D).
  • simple contour extraction processing contour extraction processing that does not use distance information
  • these two objects have substantially the same parallax S in a stereoscopic image using two images of the left eye image and the right eye image.
  • the depth generator 103 can acquire the parallax of each object, so two objects detected by simple contour extraction processing (contour extraction processing that does not use distance information) are detected. It can be easily determined whether or not the subject distances are substantially the same. Therefore, as described above, even when a black vertical line is drawn on the surface of the main subject 202, the stereoscopic imaging apparatus of the present invention may erroneously detect that the main subject 202 is two objects. Rather, it can be reliably detected as one object. For this reason, in the stereoscopic imaging apparatus of the present invention, the area inside the object (main subject 202) is the area A shown in FIG.
  • the stereoscopic imaging device of the present invention when the main subject 202 is a person, problems such as clothes and hands being separated can be avoided.
  • local contrast enhancement processing with an intensity equal to or greater than a predetermined value is performed on the area 402 (areas L402 and R402), and the intensity is weak (less than the predetermined value) with respect to the object outline area.
  • the case where the contrast enhancement process (of the intensity) is performed has been described.
  • the contrast enhancement amount of the region 402 is larger than the contrast enhancement amount of the object contour region (a region having a predetermined width on the left and right sides of the object contour).
  • the contrast enhancement amount performed on the object inner region at the substantially same subject distance is set to the contour region of the object whose subject distance changes. This is larger than the contrast enhancement amount.
  • this stereoscopic image processing method is realized by a computer using a program, for example.
  • the operating subject of this stereoscopic image processing method is, for example, a CPU.
  • S201 A left-eye image (R image) and a right-eye image (L image) that can form a stereoscopic image are acquired.
  • S202 From the R image and L image acquired in S201, R depth information (R image distance image) and L depth information (L image distance information) are acquired by parallax matching.
  • S203 (1) Extract an object whose subject distance is within a predetermined range from the R image using the R depth information (R image distance image) acquired in S102. (2) Using L depth information (L image distance image), an object whose subject distance is within a predetermined range is extracted from the L image.
  • the “predetermined range” is preferably a value set so that, for example, an object corresponding to a person can be detected as one object. By setting in this way, objects existing at substantially the same subject distance can be extracted with high accuracy.
  • S204 In each of the L and R images, (A) A shadow enhancement process with a first intensity is performed on the central inner region RC of the extracted object, (B) A shadow enhancement process with a second intensity is performed on the boundary inner region RE of the extracted object, (C) A shadow enhancement process with the third intensity is performed on the outer region RO of the extracted object.
  • the “center internal region RC” is an internal region excluding the region near the contour of the extracted object. For example, in FIG. 14B, it exists inside (inside) the extracted object Obj. The region indicated by the region RC to be applied corresponds to this.
  • the “boundary internal region RC” is a region near the contour of the extracted object. For example, in FIG. 14B, a region RE that is an inner region near the contour portion of the extracted object Obj. This is the case.
  • the “external region RO” is a region outside (outside) the extracted object. For example, the region RO that is the external region of the extracted object Obj in FIG. 14B corresponds to this.
  • the second intensity in the boundary inner region RC changes continuously.
  • a shadow enhancement process with higher strength is executed on the stereoscopic image as it proceeds from the outside (outside area) of the object on the stereoscopic image to the inside (inside area) of the object.
  • the stereoscopic image obtained by executing the stereoscopic image processing method becomes a stereoscopic image in which occurrence of ringing or the like in the object outline is appropriately suppressed, and occurrence of the splitting phenomenon is appropriately suppressed.
  • the technique of the above-described embodiment is a technique that emphasizes contrast between light and dark, shadows are also emphasized, but brightness other than shadows is also emphasized.
  • the inventors of the present application are effective to emphasize only the shaded portion. I found out.
  • the method for enhancing the local contrast described in the above-described embodiment is a method for enhancing the contrast between light and dark, it is certain that shadows are also enhanced, but portions other than the shadows are also enhanced.
  • the technique of enhancing the local contrast since the intensity of local light is emphasized, not only the shadow enhancement but also the brightness is enhanced.
  • elements that are not related to the shadow such as a change in the color of the object surface and a change in light and darkness (change in reflectance) are also emphasized. For this reason, a stereoscopic image acquired by a technique for enhancing local contrast does not appear to emphasize shadows when viewed by humans, but tends to appear only as if the entire scene is clear rather than an increase in stereoscopic effect.
  • a stereoscopic image that achieves a more natural stereoscopic effect / perspective is obtained by selectively enhancing a shadow portion (by performing a stereoscopic image process that darkens the shadow).
  • a stereoscopic image processing technique that can be performed will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the third embodiment is the same as the configuration of the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the third embodiment has a configuration in which the local gradation conversion units 111L and 111R of the image correction unit 104 in the stereoscopic imaging device 1000 of the first embodiment are replaced with local gradation conversion units 111AL and 111AR.
  • the stereoscopic imaging device of the third embodiment is different from the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the third embodiment is the same as the stereoscopic imaging device of the first embodiment.
  • the local gradation conversion unit 111AL includes an ambient lightness detection unit 121, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604.
  • the ambient brightness detection unit 121 is the same as the ambient brightness detection unit 121 of the above-described embodiment.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value for example, an average luminance value of all the pixels included in the surrounding area
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the subtracter 1601 as the ambient brightness signal US_L.
  • the subtracter 1601 receives the luminance value IS_L of the L image signal and the ambient brightness signal US_L as inputs, (IS_L)-(US_L)
  • the difference signal ((IS_L) ⁇ (US_L)) obtained by the subtraction process is output to the coefficient determination unit 1602 and the multiplier 1603.
  • Multiplier 1603 receives difference signal ((IS_L) ⁇ (US_L)) output from ambient lightness detection unit 121 and coefficient k output from coefficient determination unit 1602, and k ⁇ ((IS_L)-(US_L))
  • the multiplication signal (k ⁇ ((IS_L) ⁇ (US_L))) obtained by the multiplication process is output to the adder 1604.
  • the coefficient k is set to a large value k1 (> k2). Enhance the degree of unsharp masking, (2) When the brightness (luminance value) of the processing target pixel is brighter than the brightness around the processing target pixel (for example, the average luminance value), the value of the coefficient k is set to a small value k2 ( ⁇ k1). , Decrease the emphasis level of unsharp masking. Thereby, in the three-dimensional image processing apparatus of this embodiment, the image processing which makes a shadow dark is realizable.
  • the coefficient k is large. Since the value is set to the value k1 (> k2), the amount by which the change ((IS_L) ⁇ (US_L)) of the image area including the processing target pixel is added increases. For this reason, the emphasis degree of unsharp masking becomes strong. As a result, the shadow portion of the stereoscopic image is emphasized (stereoscopic image processing is executed so that the shadow becomes dark).
  • the process is executed using the corrected luminance value OS_L in which the shadow portion is emphasized. Therefore, the shadow portion of the stereoscopic image is emphasized. Will be done.
  • the coefficient k is small. Since the value k2 ( ⁇ k1) is set, the added amount of the change ((IS_L) ⁇ (US_L)) of the image area including the processing target pixel is reduced. For this reason, the emphasis degree of unsharp masking becomes weak (the effect of unsharp masking becomes weak). As a result, a portion other than the shadow of the stereoscopic image (for example, a bright portion) is not emphasized so much.
  • the effect of unsharp masking can be set to “none” by setting the value of the coefficient k to “0”. That is, in this case, the unsharp masking process is executed only when the brightness (luminance value) of the processing target pixel is darker than the brightness around the processing target pixel (for example, the average luminance value), In the stereoscopic image processing apparatus according to the present embodiment, only the process in the direction of darkening the pixel value of the processing target pixel is executed (the process of enhancing the shadow portion is executed). In the above processing, the coefficient determination unit 1602 determines the coefficient k by the characteristic C1701 shown in FIG. 17, but the present invention is not limited to this.
  • the coefficient determination unit 1602 has the characteristic shown in FIG.
  • the coefficient k may be determined by C1702 (the coefficient k may be changed continuously with respect to the change in the value of the difference signal (IS_L-US_L)).
  • the coefficient determination unit 1602 determines the coefficient k based on the characteristic C1702 shown in FIG. 17, the coefficient k continuously changes with respect to the change of the value of the difference signal (IS_L-US_L).
  • the stereoscopic image processing apparatus can acquire a more natural stereoscopic image.
  • the stereoscopic image processing apparatus As described above, in the stereoscopic image processing apparatus according to the present embodiment, it is possible to realize image processing for increasing shadows. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective. Note that this embodiment may be combined with the second embodiment. Thereby, also in the stereoscopic image processing technique of the second embodiment, it is possible to realize stereoscopic image processing for increasing shadows. ⁇ First modification ⁇ Next, a first modification of the present embodiment will be described.
  • the stereoscopic imaging device of the present modification has a configuration in which the local gradation conversion units 111AL and 111BR in the stereoscopic imaging device of the third embodiment are replaced with local gradation conversion units 111BL and 111BR shown in FIG. More specifically, the stereoscopic imaging device according to the present modification includes the ambient brightness detection unit 121 of the local gradation conversion units 111AL and 111BR in the stereoscopic imaging device of the third embodiment, and the second ambient brightness detection unit illustrated in FIG. The configuration is replaced with 1801.
  • the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the third embodiment. Therefore, hereinafter, the configurations and processing contents of the local gradation conversion units 111BL and 111BR in the stereoscopic imaging apparatus of the present modification will be described. Note that, as in the first embodiment, the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described. The same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the second ambient brightness detection unit 1801 includes an ambient brightness detection unit 121, an offset calculation unit 1802, and an adder 1803.
  • the ambient lightness detection unit 121 shown in FIG. 18 is the same as the ambient lightness detection unit 121 shown in FIG.
  • the offset calculation unit 1802 receives the luminance value IS_L of the L image signal and the ambient lightness signal US_L output from the ambient lightness detection unit 121, and calculates an offset value ⁇ US_L from the luminance value IS_L of the L image signal and the ambient lightness signal US_L. . Then, offset calculation section 1802 outputs calculated offset value ⁇ US_L to adder 1803.
  • the offset calculation unit 1802 calculates the offset value ⁇ US_L as follows, for example.
  • (A) Average value of difference absolute value Offset calculation section 1802 calculates the average value of the absolute value of difference between luminance value IS_L of the L image signal and ambient lightness signal US_L, where the number of samples is N (N is a natural number). . Then, the offset calculation unit 1802 sets the calculated average value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Formula 1) (the number of samples is N (N: natural number)).
  • the offset calculation unit 1802 calculates the dispersion value of the luminance value IS_L of the L image signal and the ambient lightness signal US_L, where N is the number of samples (N is a natural number). Then, the offset calculation unit 1802 sets the calculated variance value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Formula 2) (the number of samples is N (N: natural number)). In order to facilitate the use in subsequent signal processing, the offset value ⁇ US_L may be obtained by adjusting the range of the offset value by the coefficient c2 as shown in the following (Formula 2).
  • the offset calculation unit 1802 calculates the standard deviation value between the luminance value IS_L of the L image signal and the ambient lightness signal US_L, where the number of samples is N (N is a natural number). Then, the offset calculation unit 1802 sets the calculated standard deviation value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Equation 3) (the number of samples is N (N: natural number)). In order to facilitate the use in subsequent signal processing, the offset value ⁇ US_L may be obtained by adjusting the range of the offset value by the coefficient c3 as shown in the following (Formula 2).
  • the sample targets (N sample targets) of the arithmetic processing according to the above (Formula 1) to (Formula 3) are N pixels existing in the vicinity of the process target pixel in the image region.
  • the adder 1803 receives the ambient lightness signal US_L output from the ambient lightness detection unit 121 and the offset value ⁇ US_L output from the offset calculation unit 1802, and adds the ambient lightness signal US_L and the offset value ⁇ US_L. Then, the adder 1803 outputs the addition result (US_L + ⁇ US_L) to the subtracter 1601 as the corrected ambient lightness signal US_L ′.
  • the corrected ambient lightness signal US_L ′ obtained in this way is (1) In a portion (image region) where the luminance value IS_L of the L image signal is little changed, the value is similar to that of the ambient lightness signal US_L. (2) In a portion (image region) where the luminance value IS_L of the L image signal is largely changed (image region), the value is larger than the ambient lightness signal US_L (a large signal value).
  • the corrected ambient lightness signal US_L ′ becomes the waveform Us ′.
  • the corrected ambient lightness signal US_L ′ (waveform Us ′) is (1) In a portion (image region) where the luminance value IS_L (waveform Is) of the L image signal is little changed, the value is similar to that of the ambient lightness signal US_L (waveform Us).
  • the effect of unsharp masking can be set to “none” by setting the value of the coefficient k to “0”. That is, in this case, the unsharp masking process is executed only when the brightness (luminance value) of the pixel to be processed is darker than the brightness determined by the corrected ambient brightness signal US_L ′. In the image processing apparatus, only the process in the direction of darkening the pixel value of the processing target pixel is executed (the process of enhancing the shadow portion is executed).
  • the coefficient determination unit 1602 determines the coefficient k based on the characteristic C2001 shown in FIG. 20, but the present invention is not limited to this.
  • the coefficient determination unit 1602 displays the characteristic shown in FIG.
  • the coefficient k may be determined by C2002 (the coefficient k may be continuously changed with respect to the change of the value of the difference signal (IS_L ⁇ US_L ′)).
  • the coefficient determining unit 1602 determines the coefficient k based on the characteristic C2002 shown in FIG. 20
  • the coefficient k continuously changes with respect to the change in the value of the difference signal (IS_L ⁇ US_L ′).
  • this stereoscopic image processing apparatus it is possible to acquire a more natural stereoscopic image.
  • the corrected luminance value Os_L acquired by the stereoscopic image processing apparatus according to the present modification will be described with reference to FIG.
  • FIG. 19A shows the luminance value IS_L (waveform Is) of the L image signal, the ambient lightness signal US_L (waveform Us), and the corrected luminance acquired by performing local gradation conversion processing (contrast enhancement processing).
  • the value OS_L (waveform Os) is shown.
  • FIG. 19B shows the correction acquired by performing the luminance value IS_L (waveform Is) of the L image signal, the corrected ambient lightness signal US_L ′ (waveform Us ′), and the local gradation conversion processing (contrast enhancement processing).
  • the subsequent luminance value OS_L (waveform Os ′) is shown. That is, FIG. 19B shows an example of a signal waveform by the stereoscopic image processing apparatus of this modification. As can be seen from FIG.
  • the signal value of the corrected ambient lightness signal US_L ′ (waveform Us ′) is large in the portion where the luminance value IS_L (waveform Is) of the L image signal is largely changed. Therefore, the unsharp masking processing is enhanced with respect to the luminance value IS_L (waveform Is) of the L image signal having a signal value lower than the signal value of the corrected ambient lightness signal US_L ′.
  • FIG. 19B in a portion where the luminance value IS_L (waveform Is) of the L image signal is greatly changed, processing in a darkening direction (processing to lower the gradation value) is executed. .
  • the stereoscopic image processing apparatus by using the corrected ambient lightness signal US_L ′, it is possible to realize image processing that effectively darkens the shadow in the detail portion of the object.
  • the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • this modification may be combined with the second embodiment. Thereby, also in the stereoscopic image processing technique of the second embodiment, it is possible to realize stereoscopic image processing that exhibits the effects of the present modification. ⁇ Second modification ⁇ Next, a second modification of the present embodiment will be described.
  • the stereoscopic imaging device of this modification has a configuration in which the second ambient brightness detection unit 1801 of the stereoscopic imaging device of the first modification of the third embodiment is replaced with a third ambient brightness detection unit 2101 shown in FIG.
  • the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the first modification of the third embodiment. Therefore, hereinafter, the configuration and processing contents of the third ambient lightness detection unit 2101 in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image as in the above-described embodiment, and therefore the processing of the L image will be mainly described.
  • the same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the third ambient lightness detection unit 2101 does not use the ambient lightness signal US_L, and the corrected surroundings that have a large signal value in a portion where the luminance value IS_L of the L image signal changes greatly The brightness signal US_L ′ is acquired.
  • the third ambient lightness detection unit 2101 includes a first low-pass filter 2102, a max filter 2103, and a second low-pass filter 2104.
  • the first low-pass filter 2102 receives the luminance value IS_L of the L image signal, and performs filter processing (low-pass filter processing) for removing fine noise components (high-frequency noise components) from the input luminance value IS_L of the L image signal. Execute. Then, the first low-pass filter 2102 outputs the L image signal after the filter processing to the max filter 2103.
  • the max filter 2103 receives the output of the first low-pass filter 2102 and executes max filter processing. Specifically, the Max filter 2103 has N pixels (N is a natural number) existing near the processing target pixel and the processing target pixel with respect to the output of the first low-pass filter 2102 (L image signal after the low-pass filter processing). ) Of the peripheral pixels (sample points) of () are detected. Then, the maximum filter 2103 outputs the detected maximum value to the second low-pass filter 2104. The second low-pass filter 2104 receives the output from the max filter 2103 and performs low-pass filter processing on the input signal. The low pass filter process in the second low pass filter 2104 is a process for removing unnecessary high frequency components in the output of the max filter 2103. Then, the second low-pass filter 2104 outputs the signal after the low-pass filter processing as a corrected ambient lightness signal US_L ′.
  • a predetermined filter range (a processing target pixel and its surrounding pixels is determined from a signal (output signal of the first low-pass filter 2102) after removing a fine noise component.
  • the maximum value in the filter range is taken, and a signal having the maximum value as the signal value (the output signal of the max filter 2103) is acquired.
  • the third ambient lightness detection unit 2101 obtains a corrected ambient lightness signal US_L ′ by removing unnecessary high frequency components from the output signal of the max filter 2103.
  • the third ambient lightness detection unit 2101 uses only the brightness value IS_L of the L image signal without using the ambient lightness signal US_L, and uses a large signal value in a portion where the change in the brightness value IS_L of the L image signal is large.
  • the corrected ambient brightness signal US_L ′ can be acquired.
  • the stereoscopic imaging device of this modification by using the corrected ambient lightness signal US_L ′ acquired by the third ambient lightness detection unit 2101, the detail portion of the object, etc., as in the first modification of the third embodiment.
  • the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • this modification may be combined with the second embodiment. Thereby, also in the stereoscopic image processing technique of the second embodiment, it is possible to realize stereoscopic image processing that exhibits the effects of the present modification.
  • a fourth embodiment will be described.
  • a technique for realizing stereoscopic image processing that darkens shadows will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the fourth embodiment is the same as the configuration of the stereoscopic imaging device 1000 of the first embodiment.
  • the local gradation conversion units 111L and 111R of the image correction unit 104 in the stereoscopic imaging device 1000 of the first embodiment are replaced with local gradation conversion units 111CL and 111CR shown in FIG. It has a configuration.
  • the stereoscopic imaging device of the fourth embodiment is different from the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the fourth embodiment is the same as the stereoscopic imaging device of the first embodiment. Therefore, hereinafter, the configuration and processing contents of the local gradation conversion units 111CL and 111CR in the stereoscopic imaging apparatus of the present embodiment will be described.
  • the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described.
  • symbol is attached
  • the local gradation conversion unit 111CL includes an ambient brightness detection unit 121 and a second dynamic gradation correction unit 122A.
  • the ambient brightness detection unit 121 is the same as the ambient brightness detection unit 121 of the above-described embodiment.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value (for example, an average luminance value of all the pixels included in the surrounding area) around the pixel (the processing target pixel on the L image) (a surrounding image area of the target pixel on the L image) is calculated. . Then, the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image area of the target pixel as the ambient brightness signal US_L to the second dynamic gradation correction unit 122A.
  • the second dynamic gradation correction unit 122A outputs an L image signal (luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102 and the ambient lightness detection unit 121.
  • the ambient lightness signal US_L is input.
  • the second dynamic gradation correction unit 122A performs gradation conversion processing on the luminance value IS_L of the L image signal based on gradation conversion characteristics determined based on the value of the ambient lightness signal US_L.
  • the gradation conversion characteristics of the second dynamic gradation correction unit 122A are, for example, as shown in FIG.
  • the gradation conversion characteristics of FIG. 23 are the same as the gradation conversion characteristics of FIG.
  • the input value IS when the input value IS is greater than the value US of the ambient lightness signal, the input value IS is directly used as the output value OS.
  • the horizontal axis represents the value of the IS signal that is the input signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal), and the vertical axis represents the OS that is the output signal.
  • the signal value (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) is taken, and the level determined by the value of the ambient lightness signal US_L (or US_L) This is a graph showing the tone conversion characteristic curves K1 to K8.
  • the gradation conversion characteristic of FIG. 23 is determined by a curve indicated by a solid line portion. That is, only when the value of the IS signal is less than or equal to the value US of the ambient lightness signal, the gradation conversion characteristic is determined by the gradation conversion characteristic curve Kn (n: an integer from 1 to 8). When the value of the IS signal is larger than the value US of the ambient lightness signal, the value of the IS signal that is the input value is directly used as the output value OS without gradation conversion.
  • the second dynamic gradation correction unit 122A performs gradation conversion using the gradation conversion characteristics shown in FIG.
  • the second dynamic gradation correction unit 122A performs the IS signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal) based on the gradation conversion characteristics as illustrated in FIG. Then, the OS signal (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) is acquired by performing the dynamic gradation correction processing on.
  • the second dynamic gradation correction unit 122A then combines the OS signal (the luminance value OS_L after gradation conversion of the L image signal or the luminance value OS_R after gradation conversion of the R image signal) with the synthesis unit 113L (R In the case of an image signal, it is output to the combining unit 113R).
  • the gradation conversion characteristics used in the gradation conversion processing by the second dynamic gradation correction unit 122A are not limited to the gradation conversion characteristics shown in FIG. 23, and the gradation that can darken the shadow. Other gradation conversion characteristics may be used as long as they are conversion characteristics. For example, when the input value IS is larger than the value US of the ambient lightness signal, the gradation conversion processing by the second dynamic gradation correction unit 122A is performed by gradation conversion characteristics that lower the degree of enhancement of local contrast. May be.
  • the gradation conversion processing by the second dynamic gradation correction unit 122A is performed by gradation conversion characteristics determined by a curve in which the slopes of the dotted line portions of the gradation conversion characteristics curves K1 to K8 in FIG. 23 are reduced. May be.
  • the second dynamic gradation correction unit 122A executes the gradation conversion process according to the gradation conversion characteristics illustrated in FIG. Only when the value of the IS signal is less than or equal to the value US of the ambient lightness signal, that is, when the pixel to be processed is darker than the surroundings, the local contrast is enhanced. As a result, the stereoscopic imaging apparatus (stereoscopic image processing apparatus) according to the present embodiment can realize gradation conversion that deepens shadows. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111CL and 111CR in the stereoscopic imaging apparatus of the fourth embodiment are replaced with local gradation conversion units 111DL and 111DR shown in FIG.
  • the local gradation conversion units 111DL and 111DR include a second ambient lightness detection unit 1801 and a dynamic gradation correction unit 122.
  • the second ambient lightness detection unit 1801 is the same as that described in the above embodiment (shown in FIG. 18).
  • the dynamic gradation correction unit 122 is the same as that described in the above embodiment, and performs gradation conversion using the gradation conversion characteristics shown in FIG.
  • the dynamic gradation correction unit 122 performs gradation conversion processing using the corrected ambient lightness signal US_L ′ output from the second ambient lightness detection unit 1801. Therefore, it is possible to perform gradation conversion that darkens the shadow. That is, the signal value of the corrected ambient lightness signal US_L ′ increases in a portion where the luminance value IS_L of the L image signal changes greatly. Therefore, the gradation conversion process using the ambient lightness signal US_L is performed by executing the gradation conversion process using the corrected ambient lightness signal US_L ′ by the dynamic gradation correction unit 122 of the stereoscopic imaging apparatus of the present modification.
  • the pixel value (luminance value) of the processing target pixel whose luminance value IS_L of the L image signal is “4/8” is an output value determined by point A in FIG.
  • the gradation is converted to OS_L.
  • the gradation conversion process performed by the stereoscopic imaging apparatus according to the present modification has a gradation so that the output value is lower (darker) than the gradation conversion process performed by the stereoscopic imaging apparatus according to the first embodiment. Converted. Therefore, in the gradation conversion process by the stereoscopic imaging device of the present modification, it is possible to enhance the shadow (enhance the shadow) more than in the gradation conversion process by the stereoscopic imaging device of the first embodiment.
  • the gradation conversion process is executed by the dynamic gradation correction unit 122 using the corrected ambient lightness signal US_L ′, and thus the luminance value IS_L of the L image signal is In a portion where the change is large, a process in the direction of darkening (a process of lowering the gradation value) is executed.
  • a process in the direction of darkening a process of lowering the gradation value
  • the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • this modification may be combined with the above-described embodiment. Thereby, also in the stereoscopic image processing technique of the above-described embodiment, it is possible to realize stereoscopic image processing that exhibits the effects of the present modification.
  • the corrected ambient brightness signal US_L ′ is generated using the third ambient brightness detection unit 2101 shown in FIG. 21 instead of the second ambient brightness detection unit 1801. May be.
  • the light source is often not a perfect parallel light source.
  • the shadow becomes wider as the distance to the shadow increases.
  • the shadow is blurred.
  • it is normal that the shadow is blurred from the shape of the unevenness of the real object, and human vision is thought to feel such a change in light and darkness as a shadow. Therefore, it is considered effective to blur the shadow component in order to emphasize the shadow more like a shadow.
  • the inventors of the present application actually confirmed the effect by an evaluation experiment.
  • by reducing the high-frequency component of the added shadow component it is possible to obtain a stereoscopic image that achieves a more natural stereoscopic effect and perspective by performing a more natural shadow enhancement visually.
  • the image processing technique will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the fifth embodiment is the same as the configuration of the stereoscopic imaging device of the third embodiment.
  • the stereoscopic imaging device of the fifth embodiment has a configuration in which the local gradation conversion units 111AL and 111AR in the stereoscopic imaging device of the third embodiment are replaced with local gradation conversion units 111EL and 111ER shown in FIG.
  • the stereoscopic imaging device of the fifth embodiment is different from the stereoscopic imaging device of the third embodiment.
  • the stereoscopic imaging device of the fifth embodiment is the same as the stereoscopic imaging device of the third embodiment.
  • Band limiting section 2501 receives the output from multiplier 1603 as input, performs band limiting processing on the input signal (multiplication signal (k ⁇ ((IS_L) ⁇ (US_L ′)))), and performs band limiting.
  • the processed signal (LPF (k ⁇ ((IS_L) ⁇ (US_L ′))) is output to the adder 1604.
  • LPF () is a function indicating a band limiting process, for example, a function for outputting a signal value acquired by a low-pass filter process or the like.
  • the band limiting process in the band limiting unit 2501 may be a process for reducing the high frequency component of the multiplication signal (k ⁇ ((IS_L) ⁇ (US_L ′))) that is an input signal to the band limiting unit 2501.
  • LPF processing may be used as the bandwidth limiting processing in the bandwidth limiting unit 2501.
  • the band limiting process in the band limiting unit 2501 preferably sets the cutoff frequency of the band limitation to a frequency that is one digit higher than the signal band of the ambient lightness signal US_L.
  • the band limiting cutoff frequency of the band limiting process in the band limiting unit 2501 is set to a frequency one digit or more higher than the band limiting cutoff frequency of the process to be acquired (for example, LPF processing).
  • the corrected L image signal (corrected luminance value) OS_L output from the local gradation conversion unit 111EL of the present embodiment is a signal in which the shadow is emphasized while the shadow is blurred.
  • the stereoscopic image processing apparatus according to the present embodiment it is possible to realize image processing that blurs shadows and darkens shadows (enhances shadows).
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized while the shadow portion is blurred.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • this embodiment may be combined with the other embodiments described above. Thereby, also in the stereoscopic image processing techniques of the other embodiments described above, it is possible to realize stereoscopic image processing that darkens the shadow portion and darkens the shadow (emphasizes the shadow).
  • the second ambient lightness detection unit 1801 may be replaced with the third ambient lightness detection unit 2101 shown in FIG. Also in this case, the same effect as that of the stereoscopic image processing apparatus of the present embodiment can be obtained.
  • a first modification of the present embodiment will be described.
  • the stereoscopic imaging device of this modification has a configuration in which the local gradation conversion units 111EL and 111ER in the stereoscopic imaging device of the fifth embodiment are replaced with local gradation conversion units 111FL and 111FR shown in FIG. Other than that, the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the fifth embodiment.
  • the local gradation conversion unit 111FL includes a second ambient lightness detection unit 1801, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604.
  • a subtracter 1601, a coefficient determination unit 1602, and a multiplier 1603 are provided.
  • local gradation conversion unit 111FL includes multiplier 2601, adder 2602, band limiting unit 2501, subtractor 2603, and adder 1604.
  • OS_L US_L ′ + (k + 1) ⁇ (IS_L ⁇ US_L ′) (A1)
  • the second term on the right side of the mathematical formula (A1) represents (shadow component originally present in the original image) + (shadow component to be added).
  • p that determines the degree of blurring is set by a control unit (not shown) or the like.
  • p is set to 0 ⁇ p ⁇ 0.5 because good shadow enhancement is realized.
  • the degree of blurring can be adjusted. Thereby, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized while appropriately blurring the shadow portion.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • this embodiment may be combined with the other embodiments described above.
  • the second ambient brightness detection unit 1801 may be replaced with the third ambient brightness detection unit 2101 shown in FIG. Also in this case, the same effect as that of the stereoscopic image processing apparatus of the present embodiment can be obtained. Further, in the local gradation conversion unit 111FL of the present embodiment, the second ambient brightness detection unit 1801 may be replaced with the ambient brightness detection unit 121.
  • Shadow enhancement processing may be performed by the processing disclosed in Japanese Patent No. 4085. Further, the image correction unit 104 uses conventional contrast enhancement processing (for example, detail enhancement processing or high frequency enhancement processing) that is not local contrast enhancement processing (local contrast enhancement processing by spatial visual processing) as shadow enhancement processing. Thus, the processing may be performed.
  • each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or all of the blocks. May be.
  • LSI LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.
  • Each processing of the above embodiment may be realized by hardware, or may be realized by software (including a case where the processing is realized together with an OS (Operating System), middleware, or a predetermined library).
  • the execution order of the processing method in the said embodiment is not necessarily restricted to description of the said embodiment, The execution order can be changed in the range which does not deviate from the summary of invention.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • examples of the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blue-ray Disc), and semiconductor memory.
  • the computer program is not limited to the one recorded on the recording medium, and may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • the present invention is not limited to this, and for example, the left eye image and the right eye image may be alternately acquired in a time-division manner with one image sensor, or one image sensor.
  • the image pickup device surface may be divided into two to obtain a left eye image and a right eye image.
  • a stereoscopic display device a television, an information portable terminal, a personal computer, a digital still camera, a movie, an information recording / reproducing device, a video recording / reproducing device, etc., which are equipped with the depth generating unit 103 and the image correcting unit 104 described in the above embodiment. It may be realized.
  • the stereoscopic image processing apparatus may have (1) a configuration including the image correction unit 104 or (2) a configuration including the depth generation unit 103 and the image correction unit 104.
  • the stereoscopic image processing device may have a configuration in which the first imaging unit 101R, the second imaging unit 101L, and the like of the stereoscopic imaging device (an example of the stereoscopic image processing device) of the above embodiment are omitted.
  • the R image and the L image may be input from the outside to the device.
  • the specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the invention.
  • the stereoscopic image processing apparatus, the stereoscopic imaging apparatus, the stereoscopic imaging apparatus, and the program according to the present invention restore the subject's stereoscopic effect / thickness and reduce the sense of writing, regardless of the writing phenomenon that occurs for any reason. Since a high-quality stereoscopic image can be acquired, it is useful in the video-related industry and can be implemented in this field.
  • stereoscopic imaging device 101R first imaging unit 101L second imaging unit 102 image input unit 103 depth generation unit 104 image correction unit 111L (111R), 111AL (111AR), 111BL (111BR), 111CL (111CR), 111DL (111DR) , 111EL (111ER), 111FL (111FR) Local tone conversion unit 121 Ambient brightness detection unit 122A Second dynamic tone correction unit 1801 Second ambient brightness detection unit 2101 Third ambient brightness detection unit 2501 Band limiting unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

立体画像において、いかなる要因で発生した書き割り現象であっても、被写体の立体感・厚み感を復元し、書き割り感の少ない高品位な立体画像を得る。立体撮像装置(立体画像処理装置)(1000)では、デプス生成部(103)が、立体画像からLデプス情報およびRデプス情報を取得し、画像補正部(104)が、Lデプス情報およびRデプス情報に基づいて、オブジェクトの内部に対して、外部よりも強い強度の陰影強調処理を実行する。これにより、書き割り現象の発生を抑え、書き割り感の少ない高品位な立体画像を取得することができる。

Description

立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
 本発明は、立体画像(3次元立体画像)の品位を高める技術に関するものであり、立体撮像を行うカメラ(撮像装置)、立体画像(立体映像)を表示するディスプレイ装置、立体画像(立体映像)を処理する画像処理装置など、立体画像(立体映像)を扱う幅広い機器に応用できる技術に関する。
 立体画像(左眼用画像および右眼用画像)を、独立して左右の目に投影できる表示装置(以下、「立体表示装置」という。)に表示することにより、立体画像を再現させるために、両眼視差が存在する状態で立体画像(左眼用画像および右眼用画像)を撮像する立体撮像装置が知られている。
 立体撮像において、遠景(遠景の被写体)や近景(近景の被写体)が大きな視差を持つ状態で取得された立体画像(左眼用画像および右眼用画像)は、人間が立体視する際の融像限界を超え立体視が困難な画像になる、あるいは、当該立体画像を見ている人間に疲労感を生じさせる画像(疲れる画像)になる。このような不良な立体画像の生成を避けるために、視差調整やステレオベース調整(以下、「SB調整」という。)を行うことで、良好な立体画像を得る技術があり、このような技術は、映画などの本格的な立体撮影において広く用いられている。
 視差調整は、主に遠景(遠景の被写体)が融像限界を超える場合に用いられる技術で、遠景までの距離を非線形に圧縮するように視差調整することで、立体視する際に見にくかった遠景(遠景の被写体)を近づけ、立体視する際に見やすい立体画像(立体視が容易な立体画像)を取得することができる。
 また、ステレオベース調整は、2台のカメラ(左眼用画像撮像用のカメラおよび右眼用画像撮像用のカメラ)の間隔を近づけることにより(ステレオベース(基線長)を小さくすることにより)、視差のダイナミックレンジを小さくすることができる。このため、上記のようにステレオベース調整を行った後、立体撮像を行うことで、近景(近景の被写体)から遠景(遠景の被写体)までの全体が融像域内に入る立体画像を取得することができる。
 また、立体画像を小さなサイズのディスプレイ装置に表示した場合も、立体画像(左眼用画像および右眼用画像)の視差が小さくなるため、遠景が圧縮される。したがって、この場合、小さなサイズのディスプレイ装置に表示される立体画像は、見やすい立体画像となる。
 立体撮像において、上記撮影技術(視差調整、ステレオベース調整)を駆使することにより、所定の表示環境において立体表示させたとき、十分見やすい画像(立体視しやすい立体画像)となる立体画像を撮影することができる(例えば、特許文献1参照)。
特許第3157384号
 しかしながら、上記従来技術では、立体視の融像限界を考慮して、望ましい視差を減らすことにより(立体撮像の対象である被写体が立体視の融像域内に入るように、視差を本来の値から減少させることにより)、見やすい立体画像(立体視しやすい立体画像)を取得している訳であるから、立体画像における立体感・遠近感の自然さの観点では望ましいものではない。したがって、上記従来技術(視差調整、ステレオベース調整による技術)により取得される立体画像は、立体画像の品位について問題がある。
 視差調整による技術では、見やすい(立体視しやすい)立体画像を取得することはできるが、遠景までの距離が非線形に圧縮されることになるので、視差調整を行った立体画像では、奥行きが平板になる現象(遠景の被写体の厚み感が減少し、平板状の立体像として知覚される現象)が発生する。
 また、SB調整による技術では、取得される立体画像において、全体的に遠近感が少なくなるため(最近点から最遠点までの距離が小さくなるため)、個々の被写体の立体感が低下する現象が発生する。
 したがって、上記従来技術を用いた場合、何れの場合も、取得される立体画像は、立体感・遠近感の乏しい品位の低い画像になりがちである。
 また、上記従来技術を用いた場合に発生する立体感の圧縮・低下に伴い、いわゆる「書き割り現象」が生じることがある。
 「書き割り現象」とは、立体画像において、例えば、前景の人物などの主要な被写体の厚みが薄くなり、板に描いた平面的な絵のように見える現象のことである。
 この書き割り現象が重要な主被写体で発生すると、立体画像の品位は極端に低下する。
 また、書き割り現象は、上記従来技術のように視差調整を行うことにより立体画像における立体感の圧縮・低下が発生することを唯一の原因として生じるものではない。撮影条件(撮影状況)によっては、理想的な無歪みの立体撮影(立体感の圧縮・低下のない立体画像を撮像する撮影)においても、書き割り現象が発生することがある。
 このように、書き割り現象は、視覚的な現象であり、書き割り現象を発生させる全ての原因が完全に解明されているわけではない。ただ、どのような要因で発生した書き割り現象であっても、立体画像の品位を損なうことには変わりが無い。
 本発明は、上記問題点に鑑み、いかなる要因で発生した書き割り現象であっても、被写体の立体感・厚み感を復元し、書き割り感の少ない高品位な立体画像が得られる立体画像処理装置、立体画像処理方法およびプログラムを実現することを目的とする。
 第1の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理装置であって、画像補正部を備える。
 画像補正部は、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した被写体オブジェクトの内側の領域に対して、第1強度より強い第2強度による陰影強調処理を行う、
 この立体画像処理装置では、取得したオブジェクトの内側の領域に対して、オブジェクトの外側の領域よりも強い強度の陰影強調処理を行うので、オブジェクトの輪郭部付近において不適切な陰影強調処理(リンギング等を発生されるような不適切な陰影強調処理)が実行されることはない。したがって、この立体画像処理装置により取得される立体画像は、書き割り現象の発生を抑制した自然な立体感を実現する立体画像となる。
 なお、「オブジェクトの内側の領域」とは、画像上のオブジェクトの内側領域のことをいい、オブジェクトの中身の領域(外部から見えないオブジェクトの表面に囲まれた内側(中身側))という意味ではない。
 また、「第1強度」は、第2強度よりも弱い陰影強調処理を行う強度であればよく、陰影強調処理を実行させないことを意味する強度であってもよい。
 第2の発明は、左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理装置であって、デプス生成部と、画像補正部と、を備える。
 デプス生成部は、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正部は、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの外側の領域に対して、第1強度より弱い第2強度による陰影強調処理を行う。
 この立体画像処理装置では、左眼用画像および右眼用画像からデプス情報(距離情報)を求め、求めたデプス情報(距離情報)に基づいて、被写体オブジェクトを取得するため、より適切に被写体オブジェクトを取得することができる。また、この立体画像処理装置では、取得したオブジェクトの内側の領域に対して、オブジェクトの外側の領域よりも強い強度の陰影強調処理を行うので、オブジェクトの輪郭部付近において不適切な陰影強調処理(リンギング等を発生されるような不適切な陰影強調処理)が実行されることはない。したがって、この立体画像処理装置により取得される立体画像は、書き割り現象の発生を抑制した自然な立体感を実現する立体画像となる。
 なお、「より弱い」は、(強度が)同一であることを含んでもよい。
 第3の発明は、左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理装置であって、デプス生成部と、画像補正部と、を備える。
 デプス生成部は、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正部は、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、第1強度より弱い第2強度による陰影強調処理を行い、
(3)取得した被写体オブジェクトの外側の領域に対して、第2強度より弱い第3強度による陰影強調処理を行う。
 この立体画像処理装置では、左眼用画像および右眼用画像からデプス情報(距離情報)を求め、求めたデプス情報(距離情報)に基づいて、被写体オブジェクトを取得するため、より適切に被写体オブジェクトを取得することができる。また、この立体画像処理装置では、取得したオブジェクトの内側の領域の輪郭近傍領域に対して、オブジェクトの内側領域に対する陰影強調処理の強度とオブジェクトの外側領域に対する陰影強調処理の強度との中間の強度による陰影強調処理を実行することができる。
 これにより、この立体画像処理装置では、オブジェクトの輪郭部付近において不適切な陰影強調処理(リンギング等を発生されるような不適切な陰影強調処理)が実行されることはない。したがって、この立体画像処理装置により取得される立体画像は、書き割り現象の発生を抑制した自然な立体感を実現する立体画像となる。
 第4の発明は、第3の発明であって、被写体オブジェクトの外側の領域と内部輪郭近傍領域との境界点における陰影強調処理の強度を第1境界点強度とし、内部輪郭近傍領域と内部中心領域の境界点における陰影強調処理の強度を第2境界点強度としたとき、内部輪郭近傍領域に対する陰影強調処理の強度である第2強度は、第1境界点強度および第2境界点強度において、連続的に変化する値である。
 この立体画像処理装置では、被写体オブジェクトの外側領域から輪郭近傍領域、さらに、内側領域に進むにしたがって、陰影強調処理の強度を連続的に変化させるので、オブジェクトの輪郭部分で不適切な陰影強調処理(リンギング等を発生されるような不適切な陰影強調処理)が実行されることはない。さらに、この立体画像処理装置では、被写体オブジェクトの輪郭近傍領域においても適切な陰影強調処理を実行させながら、被写体オブジェクトの内部中心領域において、強度の強い陰影強調処理を適切に実行させることができる。
 第5の発明は、第1から第4のいずれかの発明であって、陰影強調処理は、コントラスト強調処理である。
 これにより、この立体画像処理装置では、コントラスト強調処理による陰影強調処理を実行させることができる。
 第6の発明は、第1から第4のいずれかの発明であって、陰影強調処理は、視覚処理による局所コントラスト強調処理である。
 これにより、この立体画像処理装置では、視覚処理による局所コントラスト強調処理による陰影強調処理を実行させることができる。
 なお、「視覚処理」とは、人間の目の見え方に近い特性を持たせた処理であり、入力された画像信号の対象画素の値とその周辺画素の値(明るさ)との対比に応じて出力信号の値を決定する処理である。
 また、「視覚処理による局所コントラスト強調処理」とは、例えば、処理対象画素(注目画素)の画素値をISとし、処理対象画素の出力画素値をOSとし、注目画素の周辺領域の代表明度(例えば、当該周辺画素の平均明度値(平均輝度値))をUSとしたとき、例えば、図4に示すような特性により、注目画素に対して階調変換処理を行うことで、局所コントラストを強調する処理のことをいう。
 第7の発明は、第1から第4のいずれかの発明であって、立体画像処理装置である。
 陰影強調処理は、陰影を濃くする処理である。
 この立体画像処理装置では、陰影を濃くする処理を行うので、陰影部分を選択的に強調することができ、(陰影を濃くする立体画像処理を行うことができ)、その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第8の発明は、第7の発明であって、画像補正部は、R画像用補正部と、L画像用補正部と、を備える。
 R画像用補正部は、R画像用局所階調変換部と、R画像用強度生成部と、R画像用合成部と、を備える。
 L画像用補正部は、L画像用局所階調変換部と、L画像用強度生成部と、L画像用合成部と、を備える。
 R画像用局所階調変換部は、右眼用画像信号IS_Rに対して陰影強調処理を行い、当該陰影強調処理後の右眼用画像信号を補正右眼用画像信号OS_Rとして出力する。
 R画像用強度生成部は、右眼用画像用距離画像に基づいて、画像補正処理の強度を決定する。
 R画像用合成部は、R画像用強度生成部により決定された強度に基づいて、右眼用画像信号IS_Rおよび補正右眼用画像信号OS_Rを合成する。
 L画像用局所階調変換部は、左眼用画像信号IS_Lに対して陰影強調処理を行い、当該陰影強調処理後の左眼用画像信号を補正左眼用画像信号OS_Lとして出力する。
 L画像用強度生成部は、左眼用画像用距離画像に基づいて、画像補正処理の強度を決定する。
 L画像用合成部は、L画像用強度生成部により決定された強度に基づいて、左眼用画像信号IS_Lおよび補正左眼用画像信号OS_Lを合成する。
 この立体画像処理装置では、R画像用局所階調変換部により、右眼用画像信号IS_Rに対して陰影強調処理が実行され、陰影強調された補正右眼用画像信号OS_Rを用いて、合成部による合成処理が実行される(L画像用局所階調変換部についても同様)。
 これにより、この立体画像処理装置では、陰影部分を選択的に強調することができる(陰影を濃くする立体画像処理を行うことができる)。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第9の発明は、第8の発明であって、R画像用局所階調変換部は、R画像用周囲明度検出部と、R画像用第2動的階調補正部と、を備え、L画像用局所階調変換部は、L画像用周囲明度検出部と、L画像用第2動的階調補正部と、を備える。
 R画像用周囲明度検出部は、右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値(例えば、平均明度値)を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを出力する。
 R画像用第2動的階調補正部は、右眼用画像信号IS_RおよびR画像用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、補正右眼用画像信号OS_Rを取得する。
 動的階調補正処理は、
(1)(右眼用画像信号IS_Rの値)≦(R画像用周囲明度信号US_Rの値)である場合、右眼用画像信号IS_Rの所定の入力範囲において、右眼用画像信号IS_Rの値を所定の値に固定したとき、R画像用周囲明度信号US_Rの値が増加するに従い、補正右眼用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正右眼用画像信号OS_Rを取得し、
(2)(右眼用画像信号IS_Rの値)>(R画像用周囲明度信号US_Rの値)である場合、右眼用画像信号IS_Rを、補正右眼用画像信号OS_Rとすることで、補正右眼用画像信号OS_Rを取得する。
 L画像用周囲明度検出部は、左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを出力する。
 L画像用第2動的階調補正部は、左眼用画像信号IS_LおよびL画像用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、補正左眼用画像信号OS_Lを取得する。
 動的階調補正処理は、
(1)(左眼用画像信号IS_Lの値)≦(L画像用周囲明度信号US_Lの値)である場合、左眼用画像信号IS_Lの所定の入力範囲において、左眼用画像信号IS_Lの値を所定の値に固定したとき、L画像用周囲明度信号US_Lの値が増加するに従い、補正左眼用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正左眼用画像信号OS_Lを取得し、
(2)(左眼用画像信号IS_Lの値)>(L画像用周囲明度信号US_Lの値)である場合、左眼用画像信号IS_Lを、補正左眼用画像信号OS_Lとすることで、補正左眼用画像信号OS_Lを取得する。
 この立体画像処理装置では、L画像用第2動的階調補正部により、(左眼用画像信号IS_Lの値)≦(L画像用周囲明度信号US_Lの値)の場合のみ、局所コントラストを強調する処理が実行される(R画像に対する処理もL画像に対する処理と同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第10の発明は、第8の発明であって、R画像用局所階調変換部は、R画像用第2周囲明度検出部と、R画像用動的階調補正部と、を備え、L画像用局所階調変換部は、L画像用第2周囲明度検出部と、L画像用動的階調補正部と、を備える。
 R画像用第2周囲明度検出部は、右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値(例えば、平均明度値)を検出し、検出した明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、R画像用周囲明度信号US_Rに、右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得する。
 R画像用動的階調補正部は、右眼用画像信号IS_RおよびR画像用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、補正右眼用画像信号OS_Rを取得する。動的階調補正処理は、右眼用画像信号IS_Rの所定の入力範囲において、右眼用画像信号IS_Rの値を所定の値に固定したとき、R画像用補正周囲明度信号US_R’の値が増加するに従い、補正右眼用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正右眼用画像信号OS_Rを取得する。
 L画像用第2周囲明度検出部は、左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、L画像用周囲明度信号US_Lに、左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得する。
 L画像用動的階調補正部は、左眼用画像信号IS_LおよびL画像用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、補正左眼用画像信号OS_Lを取得する。動的階調補正処理は、左眼用画像信号IS_Lの所定の入力範囲において、左眼用画像信号IS_Lの値を所定の値に固定したとき、L画像用補正周囲明度信号US_L’の値が増加するに従い、補正左眼用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正左眼用画像信号OS_Lを取得する。
 この立体画像処理装置では、L画像用第2周囲明度検出部により、右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rが算出され、当該右眼用オフセット値ΔUS_Rが加算されてL画像用補正周囲明度信号US_L’が取得される。そして、この立体画像処理装置では、周囲明度信号US_Lの代わりに、L画像用補正周囲明度信号US_L’を用いて、例えば、図4に示した階調変換特性により階調変換処理が実行される。その結果、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、「右眼用画像信号IS_Rの変化が激しい程、大きな値となる」とは、例えば、所定範囲の右眼用画像信号IS_Rの信号値の変化が当該所定範囲の平均値に対してどの程度ばらついているか等により判断されるもので、例えば、所定範囲の右眼用画像信号IS_Rの信号値の分散値や標準偏差値が大きいとき、「右眼用画像信号IS_Rの変化が激しい」ということである。
 第11の発明は、第8の発明であって、R画像用局所階調変換部は、R画像用第2周囲明度検出部と、R画像用係数演算処理部と、を備え、L画像用局所階調変換部は、L画像用第2周囲明度検出部と、L画像用係数演算処理部と、を備える。
 R画像用第2周囲明度検出部は、右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値(例えば、平均明度値)を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、R画像用周囲明度信号US_Rに、右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得する。
 R画像用係数演算処理部は、右眼用画像信号IS_RとR画像用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正右眼用画像信号OS_Rを取得する。
 L画像用第2周囲明度検出部は、左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、L画像用周囲明度信号US_Lに、左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得する。
 L画像用係数演算処理部は、左眼用画像信号IS_LとL画像用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_L=IS_L+k×((IS_L)-(US_L’))
により、補正左眼用画像信号OS_Lを取得する。
 この立体画像処理装置では、R画像用係数演算処理部が、右眼用画像信号IS_RとR画像用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正右眼用画像信号OS_Rを取得する。したがって、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される(L画像用の処理についても同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、アンシャープマスキングの強調度合いが強くなるように処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、「差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し」(差分((IS_R)-(US_R’))についても同様。)とは、例えば、図17に示した実線により係数kが決定される場合だけでなく、図17に示した点線により係数kが決定される場合を含む。つまり、係数kと差分値((IS_L)-(US_L’))との関係は単調である場合だけでなく、段階的に変化する場合(例えば、図17の点線の場合)も含む。
 第12の発明は、第8の発明であって、R画像用局所階調変換部は、R画像用第2周囲明度検出部と、R画像用係数演算処理部と、を備え、L画像用局所階調変換部は、L画像用第2周囲明度検出部と、L画像用係数演算処理部と、を備える。
 R画像用第2周囲明度検出部は、右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値(例えば、平均明度値)を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、R画像用周囲明度信号US_Rに、右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得する。
 R画像用係数演算処理部は、右眼用画像信号IS_RとR画像用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_R-US_R’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した信号LPF((k+p)×(IS_R-US_R’))を用いて、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
により、補正右眼用画像信号OS_Rを取得する。
 L画像用第2周囲明度検出部は、左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、L画像用周囲明度信号US_Lに、左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得する。
 L画像用係数演算処理部は、左眼用画像信号IS_LとL画像用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_L-US_L’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した信号LPF((k+p)×(IS_L-US_L’))を用いて、
  OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))
により、補正左眼用画像信号OS_Lを取得する。
 この立体画像処理装置では、R画像用係数演算処理部が、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
に相当する処理により、補正右眼用画像信号OS_Rを取得する。したがって、この立体画像処理装置では、原画像に含まれる陰影成分および付加する陰影成分のぼかし具合(帯域制限処理の程度)を、係数pを用いて、調整することができる。したがって、この立体画像処理装置では、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調することができる。その結果、その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第13の発明は、第1から第12のいずれかの発明である立体画像処理装置を含む、立体撮像装置である。
 これにより、第1から第12のいずれかの発明である立体画像処理装置の効果を奏する立体撮像装置を実現することができる。
 第14の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、画像補正ステップを含む。
 画像補正ステップでは、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した被写体オブジェクトの内側の領域に対して、第1強度より強い第2強度による陰影強調処理を行う。
 これにより、第1の発明と同様の効果を奏する立体画像処理方法を実現することができる。
 第15の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、デプス生成ステップと、画像補正ステップと、を備える。
 デプス生成ステップでは、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正ステップでは、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの外側の領域に対して、第1強度より弱い第2強度による陰影強調処理を行う。
 これにより、第2の発明と同様の効果を奏する立体画像処理方法を実現することができる。
 第16の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、デプス生成ステップと、画像補正ステップと、を備える。
 デプス生成ステップでは、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正ステップでは、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、第1強度より弱い第2強度による陰影強調処理を行い、
(3)取得した被写体オブジェクトの外側の領域に対して、第2強度より弱い第3強度による陰影強調処理を行う。
 第17の発明は、第14から第16のいずれかの発明であって、陰影強調処理は、陰影を濃くする処理である。
 第18の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラム。立体画像処理方法は、画像補正ステップを含む。
 画像補正ステップでは、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した被写体オブジェクトの内側の領域に対して、第1強度より強い第2強度による陰影強調処理を行う。
 これにより、第1の発明と同様の効果を奏するプログラムを実現することができる。
 第19の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラムである。立体画像処理方法は、デプス生成ステップと、画像補正ステップと、を備える。
 デプス生成ステップでは、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正ステップでは、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの外側の領域に対して、第1強度より弱い第2強度による陰影強調処理を行う。
 これにより、第2の発明と同様の効果を奏するプログラムを実現することができる。
 第20の発明は、2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラムである。立体画像処理方法は、デプス生成ステップと、画像補正ステップと、を備える。
 デプス生成ステップでは、左眼用画像および右眼用画像から、左眼用画像および右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成する。
 画像補正ステップでは、左眼用画像用距離画像および右眼用画像用距離画像に基づいて、左眼用画像および右眼用画像から、それぞれ、被写体オブジェクトを取得し、
(1)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
(2)取得した被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、第1強度より弱い第2強度による陰影強調処理を行い、
(3)取得した被写体オブジェクトの外側の領域に対して、第2強度より弱い第3強度による陰影強調処理を行う。
 これにより、第3の発明と同様の効果を奏するプログラムを実現することができる。
 第21の発明は、第18から第20のいずれかの発明であって、陰影強調処理は、陰影を濃くする処理である。
 本発明によれば、いかなる要因で発生した書き割り現象であっても、被写体の立体感・厚み感を復元し、書き割り感の少ない高品位な立体画像を取得することができる。
撮影環境を含めた第1実施形態の立体撮像装置の概略構成図。 第1実施形態における画像補正部の構成図。 第1実施形態における局所階調変換部の構成図。 第1実施形態における動的階調補正部の変換特性のグラフ。 視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の生成方法を説明するための図。 撮影環境と被写体との関係を説明するための図。 第1撮像部および第2撮像装置による撮影画像信号の一例。 局所コントラストによる画質補正例。 第1実施形態における強度生成部の信号波形図。 第1実施形態における画像補正部の処理結果。 第1実施形態の立体画像処理方法のフローチャート。 第2実施形態における強度生成部の信号波形図。 第2実施形態における画像補正部の処理結果。 第1実施形態における画像補正部の処理結果。 第2実施形態の立体画像処理方法のフローチャート。 第3実施形態の局所階調変換部111AL(111AR)の構成図。 係数kと差分信号(IS_L-US_L)との関係(特性)を示す図。 第3実施形態の第1変形例の局所階調変換部111BL(111BR)の構成図。 (a)L画像信号の輝度値IS_L(波形Is)、周囲明度信号US_L(波形Us)、および、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os)の信号波形図(一例)。(b)L画像信号の輝度値IS_L(波形Is)、補正周囲明度信号US_L’(波形Us’)、および、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os’)の信号波形図(一例)。 係数kと差分信号(IS_L-US_L’)との関係(特性)を示す図。 第3実施形態の第2変形例の第3周囲明度検出部2101の構成図。 第4実施形態の局所階調変換部111CL(111CR)の構成図。 第4実施形態の第2動的階調補正部の階調変換特性を示すグラフ。 第4実施形態の第1変形例の局所階調変換部111DL(111DR)の構成図。 第5実施形態の局所階調変換部111EL(111ER)の構成図。 第5実施形態の第1変形例の局所階調変換部111FL(111FR)の構成図。
 以下、本発明の立体画像処理装置および立体画像処理方法の実施形態について、図面を参照しながら説明する。
 [第1実施形態]
 第1実施形態では、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。
 <1.1:立体撮像装置の構成>
 図1に、第1実施形態に係る立体撮像装置1000の概略図を示す。なお、図1では、立体撮像装置1000とともに、立体撮像装置1000で撮像するシーン200(撮像シーン200)を模式的に図示している。
 立体撮像装置1000は、図1に示すように、第1視点から被写体光を集光し第1画像信号(例えば、右眼用画像信号(R画像信号))を取得する第1撮像部101Rと、第2視点から被写体光を集光し第2画像信号(例えば、左眼用画像信号(L画像信号))を取得する第2撮像部101Lと、第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)を、それぞれ、デジタル信号に変換する画像入力部102と、を備える。
 また、立体撮像装置1000は、デジタル信号に変換された第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)から、それぞれ、被写体距離情報を算出し、第1デプス情報(例えば、Rデプス情報)および第2デプス情報(例えば、Lデプス情報)として出力するデプス生成部と、第1デプス情報(例えば、Rデプス情報)および第2デプス情報(例えば、Lデプス情報)を用いて、第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)に画像補正処理を行う画像補正部104と、を備える。
 なお、説明便宜のため、第1撮像部101Rにより右眼用画像(映像)が撮像され、第2撮像部101Lにより左眼用画像(映像)が撮像されるものとして、以下、説明する。
 第1撮像部101Rは、第1視点に設置されており、被写体光を集光する光学系と、集光した被写体光から光電変換により第1画像信号(右眼用画像信号(R画像信号))を取得する撮像素子と、を備える。そして、第1撮像部101Rは、取得した第1画像信号(R画像信号)を画像入力部102に出力する。
 第2撮像部101Lは、第1視点とは異なる位置である第2視点に設置されており、被写体光を集光する光学系と、集光した被写体光から光電変換により第2画像信号(左眼用画像信号(L画像信号))を取得する撮像素子と、を備える。そして、第2撮像部101Lは、取得した第2画像信号(L画像信号)を画像入力部102に出力する。
 画像入力部102は、第1撮像部101Rにより取得された第1画像信号(R画像信号)を入力とし、入力された第1画像信号に対して、A/D変換を行い、A/D変換した第1画像信号(R画像信号)をデプス生成部103および画像補正部104に出力する。
 また、画像入力部102は、第2撮像部101Lにより取得された第2画像信号(L画像信号)を入力とし、入力された第2画像信号に対して、A/D変換を行い、A/D変換した第2画像信号(L画像信号)をデプス生成部103および画像補正部104に出力する。
 デプス生成部103は、画像入力部102から出力される第1画像信号(R画像信号)および第2画像信号(L画像信号)を入力とする。デプス生成部103は、第1画像信号(R画像信号)により形成される第1画像(R画像)および第2画像信号(L画像信号)から形成される第2画像(L画像)から、第1画像(R画像)用のデプス情報である第1デプス情報(Rデプス情報)および第2画像(L画像)用のデプス情報である第2デプス情報(Lデプス情報)を生成する。そして、デプス生成部103は、生成した第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)を画像補正部104に出力する。
 なお、デプス情報の生成は、例えば、視差マッチングにより生成することが好ましい。
 画像補正部104は、図2に示すように、L画像用画像補正部104Lと、R画像用画像補正部104Rとを備える。画像補正部104は、画像入力部102から出力される第1画像信号(R画像信号)および第2画像信号(L画像信号)と、デプス生成部103から出力される第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)と、を入力とする。画像補正部104は、第1デプス情報(Rデプス情報)に基づいて、第1画像信号(R画像信号)に補正処理を行い、補正処理後の第1画像信号(R画像信号)を出力する。また、画像補正部104は、第2デプス情報(Lデプス情報)に基づいて、第2画像信号(L画像信号)に補正処理を行い、補正処理後の第2画像信号(R画像信号)を出力する。
 なお、デプス情報は上記のように第1デプス情報(Rデプス情報)と第2デプス情報(Lデプス情報)が得られると好適であるが、いずれか一方のみから間接的に他方を得ることも可能であるため、必ずしもふたつのデプス情報が必要なわけではない。
 L画像用画像補正部104Lは、図2に示すように、局所階調変換部111Lと、強度生成部112Lと、合成部113Lとを備える。
 局所階調変換部111Lは、図3に示すように、周囲明度検出部121と、動的階調補正部122とを備える。
 周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、動的階調補正部122に出力する。
 動的階調補正部122は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、周囲明度検出部121から出力された周囲明度信号US_Lとを入力とする。動的階調補正部122は、周囲明度信号US_Lの値に基づいて決定される階調変換特性により、L画像信号の輝度値IS_Lに対して、階調変換処理を行う。動的階調補正部122の階調変換特性は、例えば、図4に示すようなものである。
 ここで、動的階調補正部122の階調変換特性について、図4を用いて、説明する。
 図4は、横軸に入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)をとり、縦軸に出力信号であるOS信号の値(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)をとり、周囲明度信号US_L(またはUS_L)の値により決定される階調変換特性曲線K1~K8をグラフにしたものである。
 なお、図4のグラフでは、IS信号の値、OS信号の値、および、周囲明度信号の値US(US_LまたはUS_R)は、[0:1]の範囲に正規化している。
 階調変換特性曲線Kn(n:1~8の整数)は、周囲明度信号の値US(US_LまたはUS_R)が「n/8」(n:1~8の整数)のときの階調変換曲線群であり、この階調変換曲線群K1~K8は、ISの値を所定の値に固定した場合(例えば、図4の値Aに固定した場合)、周囲明度信号の値USが増加するにつれ、出力値OSが単調減少するように設定される。なお、階調変換曲線群の数は、図4では、8本であるが、この数に限定されることがないのは言うまでもない。また、動的階調補正部122において、階調変換曲線群を所定数だけ設定しておき(例えば、LUTに階調変換曲線群を特定するデータを所定数だけ保存しておき)、補間処理、内挿処理等を行うことで、予め設定されている階調変換曲線群以外の階調変換曲線を実現するようにしてもよい。(例えば、図4の場合、US=3/16のときの階調変換曲線を、US=1/8のときの階調変換曲線K1と、US=2/8のときの階調変換曲線K2とを用いて、補間処理、内挿処理等を行うことで、導いてもよい。)
 図4の階調変換特性に基づいて、入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して、階調変換を行うことで、階調変換後の画像において、局所コントラストを強調しつつ、画像全体の明るさを一定に保つことができる。(ISの値とUSの値とが同一の場合、図4で示した黒丸の点に対応する階調変換処理が実行されるため、ISの値とOSの値は一致する。その結果、画像全体の明るさは、階調変換前後で一定に保たれる。)
 以上説明したように、動的階調補正部122は、図4に示すような階調変換特性により、IS信号(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して動的階調補正処理を行うことで、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を取得する。そして、動的階調補正部122は、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を合成部113L(R画像信号の場合は、合成部113R)に出力する。
 強度生成部112Lは、デプス生成部103から出力される第2デプス情報(Lデプス情報)を入力とし、第2デプス情報(Lデプス情報)に基づいて、局所階調変換処理(空間視覚処理)の強度を決定する第1強度信号M1_Lを生成する(第1強度信号M1_Lの生成方法については後述)。そして、強度生成部112Lは、生成した第1強度信号M1_Lを合成部113Lに出力する。
 合成部113Lは、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、局所階調変換部111Lから出力されたOS_L信号と、強度生成部112Lから出力された第1強度信号M1_Lと、を入力とする。合成部113Lは、第1強度信号M1_Lに基づいて、IS_L信号とOS_L信号とを合成する。これにより、合成部113Lは、第1強度信号M1_Lにより決定される強度により局所階調変換処理(空間視覚処理)が施されたL画像信号Loutを取得する。そして、合成部113Lは、取得したL画像信号Loutを出力する。
 以上のようにして、L画像用画像補正部104Lが構成される。
 なお、R画像用画像補正部104Rは、L画像用画像補正部104Lと同様の構成を有しており、入力される信号が、R画像信号およびRデプス情報である点だけが、L画像用画像補正部104Lとは相違する。
 <1.2:立体撮像装置の動作>
 以上のように構成された立体撮像装置1000の動作について、以下、説明する。
 なお、図1において、撮影シーン200は、背景201と、前景202とを含む。そして、前景202が主被写体である。このような図1に示した撮影シーンを立体撮像装置1000で立体撮像する場合を例に、以下、立体撮像装置1000の動作について、説明する。
 なお、説明を簡単にするため、立体撮像装置1000の第1撮像部101Rが撮影する画角の中心線(図6の101Rから出ている一点鎖線)と第2撮像部101Lが撮影する画角の中心線(図6の101Lから出ている一点鎖線)とは、背景201の配置されている距離(d2)で交差する様に輻輳角を設定している。
 また、前景202(主被写体202)は、例えば、立体的な丸みを持ったオブジェクト(例えば、上から見たときに所定の幅を有する略楕円形のオブジェクト(例えば、人物))であるものとする。
 撮像シーン200からの被写体光は、第1視点に配置された第1撮像部101Rで集光され、第1撮像部101Rの撮像素子により、第1画像信号(R画像信号)に変換される。同様に、撮像シーン200からの被写体光は、第2視点に配置された第2撮像部101Lで集光され、第2撮像部101Rの撮像素子により、第2画像信号(L画像信号)に変換される。
 なお、第1撮像部101Rおよび第2撮像部101Lは、立体撮像装置1000において立体画像(左眼用画像および右眼用画像)を取得できるように、基線長(ステレオベース長)分だけ離して配置されている。
 第1撮像部101Rから出力された第1画像信号(R画像信号)および第2撮像部101Lから出力された第2画像信号(L画像信号)は、それぞれ、画像入力部102に入力され、画像入力部102によりデジタル信号に変換される。そして、デジタル信号に変換された第1画像信号(R画像信号)および第2画像信号(L画像信号)は、それぞれ、デプス生成部103および画像補正部104に出力される。
 デプス生成部103では、第1画像信号(R画像信号)により形成される第1画像(R画像)および第2画像信号(L画像信号)から形成される第2画像(L画像)から、第1画像(R画像)用のデプス情報である第1デプス情報(Rデプス情報)および第2画像(L画像)用のデプス情報である第2デプス情報(Lデプス情報)が、例えば、視差マッチングにより、生成される。
 ここで、視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の生成方法について、図5を用いて説明する。
 図5は、三角形のオブジェクトが奥に配置されており、円形のオブジェクトが手前に配置されている撮影シーンを立体撮像装置1000で立体撮影したときの立体画像を模式的に示す図である。図5(a)は、L画像(左眼用画像)を模式的に示した図であり、図5(b)は、R画像(右眼用画像)を模式的に示した図であり、図5(c)は、R画像およびL画像を1つの画像として重ねて表示させた図である。
 視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の生成方法は、例えば、以下の(1)~(3)の処理を実行することで、実現される。
(1)まず、デプス生成部103は、L画像(左眼用画像)およびR画像(右眼用画像)を用いて、例えば、図5(a)のL画像上の点ALに対応する被写体A(図5の三角形の頂点)が、図5(b)のR画像上の点ARに対応していることを検出する。
(2)そして、検出した2つの点ALおよび点ARのずれ量(視差)Diff(A)を算出する。
 なお、視差は、ずれ方向により、正負の符号を有するものとする。例えば、R画像上の点が、L画像上の点に対して左方向にずれている場合をプラスとし、逆の場合をマイナスとする。
 例えば、図5の場合、被写体Aについての視差の絶対値がα(≧0)であるとすると、R画像上のAR点が、L画像上のAL点より右方向にずれているので、被写体Aについての視差を「-α」として算出する。そして、被写体B(図5の円の中心点)についての視差の絶対値がβ(≧0)であるとすると、R画像上のBR点が、L画像上のBL点より左方向にずれているので、被写体Bについての視差を「+β」として算出する。
(3)デプス生成部103は、(1)、(2)の処理を、画像上の全ての点(全ての画素)について行い、算出したずれ量(視差)を画素値とする視差画像を生成する。そして、L画像の各画素に算出した視差を画素値として生成した視差画像を、Lデプス情報(Lデプス情報画像(左眼画像用距離画像))とし、R画像の各画素に算出した視差を画素値として生成した視差画像を、Rデプス情報(Rデプス情報画像(右眼画像用距離画像))とする。
 例えば、Lデプス情報(Lデプス情報画像(左眼画像用距離画像))では、図5(a)のL画像のAL点に相当する画素の値が、被写体Aの視差である-αとなり、Rデプス情報(Rデプス情報画像(右眼画像用距離画像))では、図5(b)のR画像のAR点に相当する画素の値が、被写体Aの視差である-αとなる。
 なお、「距離画像」とは、各画素に、当該各画素に相当する被写体の実際の位置(3次元空間内の位置)と立体撮像装置1000の位置との距離に相関性のある値をマッピングした画像のことである。
 なお、上記視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の生成方法は、一例であり、これに限定されるものではない。例えば、上記と視差の符号の取り方を逆にしても構わない。また、デプス生成部103は、他の方法により、左眼画像用距離画像および右眼画像用距離画像を取得し、Lデプス情報およびRデプス情報を取得するものであってもよい。
 以上のようにして生成されたLデプス情報およびRデプス情報は、それぞれ、画像補正部104に出力される。
 ≪書き割り現象と陰影強調処理について≫
 ここで、立体画像における書き割り現象と陰影強調処理(例えば、コントラスト強調処理)について、図面を用いて、説明する。
 図6は、立体撮像装置1000を用いて立体撮影を行う場合の撮影環境と被写体との関係(一例)を模式的に示した図である。図6(a)は、撮影環境(撮影シーン)200と、第1撮像部101Rおよび第2撮像部101Lとを上から見た図である。撮影環境(撮影シーン)200では、前景の主被写体202、および、背景の被写体201は、図6(a)に示すような位置関係となっている。なお、説明を簡単にするため、背景の被写体201は、絵が描かれた壁のようなものとしているが、このような被写体に限定されず、例の被写体であってもよいことは言うまでもない。
 図6(b)は、背景の被写体201に描かれている絵の輝度分布を表しており、図6(c)は、前景の主被写体202を立体撮像装置1000側(カメラ側)から見た正面の輝度分布を表している。図6(d)は、後述する説明で使用する主被写体202の別の輝度分布を示している。
 なお、図6(b)~(d)において、横軸は水平方向の位置であり、縦軸は輝度を示している。
 立体撮像装置1000の第1撮像部101Rおよび第2撮像部101Lは、背景被写体201の被写体距離d2で、撮影範囲が一致するように輻輳角が設定されている。つまり、第1撮像部101Rおよび第2撮像部101Lの輻輳点が被写体距離d2の位置にある背景被写体201上となるように、輻輳角が設定されている。したがって、図6(a)の撮影シーンを立体撮影して取得した立体画像を、ディスプレイ装置(立体画像表示装置)に表示すると、背景被写体201が図示しないディスプレイスクリーン面上に定位され、主被写体202がディスプレイスクリーン面より手前に定位し、主被写体202が飛び出した状態で立体画像表示されることになる。
 図6中の位置L1、L2は、第2撮像部101Lにおける被写体202の左右端付近の背景位置であり、位置R1、R2は第1撮像部101Rにおける被写体202の左右端付近の背景位置である。なお、輻輳角の設定を上記としたのは説明を簡単にするためであり、輻輳角は任意でかまわない。
 図7は、図6の撮影シーン200を立体撮像して取得された立体画像(L画像およびR画像)の水平方向の位置と輝度との関係を示す図である。具体的には、図7(a)は、L画像における水平方向の位置と輝度との関係を示す図であり、図7(b)は、R画像における水平方向の位置と輝度との関係を示す図である。図7の輝度分布を持つ立体画像は、従来の立体撮像装置の出力画像に相当する。
 なお、図7では、背景被写体201の輝度を点線で表示し、主被写体202の輝度を実線で表示している。また、多くのカメラでは、カメラ信号処理として、アパーチャー補正を行っているため、撮像画像のエッジ部分等において、図7の領域P0L、Q0L、P0R、Q0Rのようなリンギング(シュート)が発生していることも多い。
 図7では、背景被写体201の輝度よりも主被写体202の輝度が高い場合を表しているが、これに限定されることはなく、背景被写体201の輝度や主被写体202の輝度は、別の輝度分布を持つものであってもかまわない。
 背景被写体201の輝度は、L画像とR画像が同じ位置(被写体距離が同一)にあるため(輻輳点が背景被写体201上にあり、背景被写体201については、視差がないため)、ディスプレイスクリーン面上に定位する。つまり、背景被写体201のL画像の輝度分布とR画像の輝度分布は、同一である。
 これに対して主被写体202は、L画像では位置L1~L2に対応し、R画像では位置R1~R2に対応する。つまり、主被写体202に対応するL画像上の領域の方が、主被写体202に対応するR画像上の領域よりも右に位置している。このため、図7に相当する立体画像を立体表示させた場合、主被写体202は、ディスプレイスクリーン面よりも手前に定位(飛び出した位置に定位)する。
 なお、図7中の、Aは主被写体202の幅を示しており、SはL画像とR画像での主被写体202の位置のシフト量(視差に相当)を示している。つまり、S=L1-R1またはS=L2-R2である。また、図7中のΔ1は、主被写体202内の所定の箇所の輝度差を示している。
 ここで、図7の立体画像をディスプレイ装置に表示させて立体視した際、主被写体202に書き割り感があるものとして、以下、説明を行う。
 なお、書き割り感が生ずる原因は、前述の両眼視差による立体幾何学表現の歪みによるものだけでなく、輪郭や色や物体の形状などによりそのオブジェクトが合成画像のように感じた場合に書き割りに感じるなど、人間の認知上のより高度なメカニズムによるものも存在すると考えられる。
 本実施形態の立体撮像装置1000では、主被写体202の正面の表面の凹凸や膨らみ感を照明による局所的な影である陰影を強調することにより書き割り感の改善を図ることを目的としている。
 陰影の強調(陰影強調処理)には、公知な種々の手法が存在するが、ここでは、視覚の明暗対比特性を画像処理的に強調することにより、自然なコントラスト強調が可能な局所コントラスト強調処理(例えば、国際公開公報W02005/027043号や国際公開公報WO2007/043460号に開示されている局所コントラスト強調処理(空間視覚処理))を用いるものを例にとって説明する。
 図8は、L画像とR画像のそれぞれに対して、前述の局所コントラスト強調処理を行った画質補正例を示す図である。具体的には、図8(a)は、画質補正後のL画像における水平方向の位置と輝度との関係を示す図であり、図8(b)は、画質補正後のR画像における水平方向の位置と輝度との関係を示す図である。
 L画像およびR画像に対して局所コントラスト強調処理を実行した結果、主被写体202内の所定の箇所の輝度差Δ2は、Δ2>Δ1となり、主被写体202の陰影が強調され、オブジェクトの内部(主被写体202の輪郭部分より内側の領域)の立体感・膨らみ感は改善すると考えられる。
 したがって、立体画像に対して局所コントラスト強調処理を行うことで、主被写体202の書き割り感が改善されることが期待されるが、実際には、書き割り感は減らないで悪化することが分かった。
 その原因として、以下の(1)、(2)の原因が考えられる。
(1)合成画像として認識されることによる書き割り感の上昇
 立体画像に対して局所コントラスト強調処理を行うことで、図8に示すように、主被写体202の両端部分においても局所コントラストが強調されるため、主被写体202と背景被写体201との輝度差が強調される。これにより、人間には、主被写体202が背景被写体201の上に貼り付けられ合成されたように感じる。そして、人間は、合成画像を平面画像であると認識してしまう傾向が強いため、書き割り感が助長されたと考えられる。
(2)リンギングによる書き割り感の上昇
 また、立体画像に対して局所コントラスト強調処理を行うことで、主被写体202に隣接する背景被写体201には、主被写体202との明暗対比によるリンギングが発生している。この例では、輝度が暗くなった背景に主被写体202は囲まれている。
 そうすると、人間の視覚は、この部分の背景を背景の絵柄で視差マッチングせず、暗くなった線として視差マッチングしてしまう。その結果、主被写体202の両側の背景(図8の領域PL、QL、PR、QRに相当する部分)は、前景(主被写体202)の一部と認識してしまい、前景(主被写体の幅)の幅は、本来の幅Aではなく、それより広い幅A‘(A’>A)として認識されることになる。
 実際には、遠方にあるはずの背景の一部が、前景(主被写体202)の周りを取り囲むという不自然な立体画像になるため、前景(主被写体202)の書き割り感の助長に繋がると考えられる。
 以上のように、立体画像に対して、従来2次元画像において効果的であった陰影強調処理(例えば、コントラスト強調処理)をそのまま実行すると、立体画像において、書き割り現象を助長することになる。
 そこで、立体撮像装置1000では、立体画像に対して、立体画像に適した陰影強調処理を実行させることで、書き割り感の助長を適切に防止する。具体的には、画像補正部104により、立体画像(R画像およびL画像)に対して、画像補正処理を行うことで、立体画像に適した陰影強調処理を実行させ、立体画像における書き割り感の助長を適切に防止する。
 (1.2.1:画像補正部104の動作)
 以下、画像補正部104の動作について、説明する。
  なお、L画像に対しては、Lデプス情報を用いて、L画像用画像補正部104Lにより処理が実行され、R画像に対しては、Rデプス情報を用いて、R画像用画像補正部104Rにより処理が実行されるが、その処理内容は同一であるため、以下では、主として、L画像用画像補正部104Lについて、説明する。
 ≪強度生成部112の動作≫
 まず、画像補正部104Lの強度生成部112Lの動作について、説明する。
 なお、画像補正部104Rの強度生成部112Rの動作についても、強度生成部112Lと同様である。
 図9は、第1の強度生成部112Lの動作を説明するための図である。図9(a)は、横軸が水平方向の位置であり、縦軸がLデプス情報の値である。つまり、図9(a)におけるDLは、L画像における画素位置に対するL画像のデプス情報(距離情報)であり、デプス生成部103から与えられるL画像のデプス情報(距離情報)を表している。ここでは、DLの値は、遠方であるほど(被写体距離が大きい程)小さい値を取り、近景である程(被写体距離が小さい程)、大きい値を取るものとする。
 したがって、図9(a)に示すように、主被写体202のデプス情報(距離情報)が背景被写体201のデプス情報(距離情報)より大きい値を取る。そして、図9(a)に示すように、主被写体202のLデプス情報の値がD2_f~D2_nの範囲の値をとる。つまり、主被写体202の最近点のLデプス情報の値が、D2_nであり、主被写体202の最遠点のLデプス情報の値が、D2_fである。そして、背景被写体201は、平坦な壁であるため、背景被写体201のLデプス情報は、D1で一定である。
 強度生成部112Lでは、入力されたLデプス情報に対して、所定の閾値Thを用いて二値化することで、図9(b)に示す第1強度信号M1(L画像用第1強度信号M1_L)を生成する。なお、Lデプス情報から第1強度信号M1を生成する場合、所定の2つの閾値Th1、Th2(>Th1)を用いて、
  Th1≦(Lデプス情報)≦Th2
を満たす場合、第1強度信号M1の値を「1」とするようにしてもよい。
 そして、強度生成部112Lにより生成された第1強度信号M1(L画像用第1強度信号M1_L)は、合成部113Lに出力される。
 ≪局所階調変換部111の動作≫
 次に、画像補正部104Lの局所階調変換部111Lの動作について、説明する。
 なお、画像補正部104Rの局所階調変換部111Rの動作についても、局所階調変換部111Lと同様である。
 局所階調変換部111Lでは、入力されたL画像信号(L画像上の注目画素に相当)に対して、空間視覚処理による局所階調変換処理が実行される。具体的には、局所階調変換部111Lの周囲明度検出部121により、注目画素の周辺画像領域の代表明度値(例えば、周辺画像領域の明度平均値(輝度平均値))が算出され、算出された代表明度値が、周囲明度信号US_Lとして、動的階調補正部122に出力される。
 動的階調補正部では、周囲明度検出部121から出力された周囲明度信号US_Lに基づいて、入力されたL画像信号(L画像上の注目画素)に対して実行する階調変換特性が決定される。具体的には、周囲明度信号US_Lの値に従って、注目画素に階調変換を行うための階調変換特性曲線を、図4に示した階調変換特性曲線K1~K8の中から選択、あるいは、階調変換特性曲線K1~K8から補間処理等により導出することで、決定する。そして、動的階調補正部により決定された階調変換特性曲線による階調変換を注目画素に対して行うことで、階調変換後のL画像信号がOS_Lとして取得される。そして、取得された階調変換後のL画像信号OS_Lは、合成部113Lに出力される。
 ≪合成部113の動作≫
 合成部113Lでは、局所階調変換部111Lから出力された階調変換後のL画像信号OS_Lと、画像入力部102から出力されたL画像信号IS_L(階調変換処理が実行されていないL画像信号)とが、L画像用第1強度信号M1_Lの値に従って、選択される。
 つまり、L画像用第1強度信号M1_Lの値は、図9(b)に示すように、「0」または「1」をとる。したがって、
(1)M1_L=0の場合、合成部113Lでは、L画像信号IS_L(階調変換処理が実行されていないL画像信号)が選択され、出力される。
(2)M1_L=1の場合、合成部113Lでは、局所階調変換処理が実行されたL画像信号OS_Lが選択され、出力される。
 合成部113Lが、上記のように動作することにより、画像補正部104では、図10に示す網がけ領域(L画像については領域L401(第1強度信号M1_Lが「1」である領域)、R画像については領域R401(第1強度信号M1_Rが「1」である領域))に相当する画像信号に対してのみ局所階調変換処理が実行され、かつ、図10の網がけ部分以外の領域に相当する画像信号に対して、局所階調変換処理が実行されることはない。
 したがって、図10に示す領域PL、QL、PR、QRにおいて、リンギング等の発生が抑制される。その結果、立体撮像装置1000により取得される立体画像は、書き割り現象の発生を抑制した自然な立体感を実現する立体画像となる。
 <1.3:立体画像処理方法>
 次に、本実施形態の立体画像処理方法について、図11のフローチャートを用いて、説明する。なお、この立体画像処理方法は、例えば、コンピュータによりプログラムを用いて実現される。この場合、この立体画像処理方法の動作主体は、例えば、CPUである。
(S101):
 立体画像を形成することができる左眼用画像(R画像)および右眼用画像(L画像)を取得する。
(S102):
 S101で取得したR画像およびL画像から、視差マッチングにより、Rデプス情報(R画像用距離画像)およびLデプス情報(L画像用距離情報)を取得する。
(S103):
(1)R画像から、S102で取得したRデプス情報(R画像用距離画像)を用いて、被写体距離が所定範囲内に含まれるオブジェクトを取得する。
(2)L画像から、Lデプス情報(L画像用距離画像)を用いて、被写体距離が所定範囲内に含まれるオブジェクトを取得する。
 なお、ここで、「所定範囲」は、例えば、人物に相当するオブジェクトが1つのオブジェクトであると検出できるように設定される値であることが好ましい。このように設定することで、略同一被写体距離に存在するオブジェクトを精度良く取得することができる。
 また、オブジェクトの取得処理については、手動によりオブジェクトを取得(抽出)するようにしてよい。オブジェクトの取得に関する情報を外部から入力するようにし、当該情報に基づいて、オブジェクトを取得するようにしてもよい。
(S104):
 L画像およびR画像のそれぞれにおいて、
(A)取得したオブジェクトの内部(内側領域)に対して、第1強度による陰影強調処理を実行し、
(B)取得したオブジェクトの外部(外側領域)に対して、第2強度による陰影強調処理を実行する。
 ただし、第1強度≧第2強度とする。つまり、取得したオブジェクトの内部(内側領域)に対して、より強度の高い陰影強調処理(例えば、局所コントラスト強調処理)を実行する。
 なお、第2強度は、陰影強調処理を実行させない強度を含む。例えば、取得したオブジェクトの外部(外側領域)に対して、第2強度を「0」とし、陰影強調処理を行わず、かつ、取得したオブジェクトの内部(内側領域)に対して、第1強度を「1」とし、陰影強調処理を行うようにしてもよい。
 上記立体画像処理方法では、立体画像上のオブジェクトの内部(内側領域)に対して、オブジェクトの外部(外側領域)よりも強い強度の陰影強調処理を実行することで、立体画像に対して補正を行うので、上記立体画像処理方法を実行させた立体画像は、オブジェクト輪郭分におけるリンギング等の発生が適切に抑えられ、書き割り現象の発生が適切に抑制された立体画像となる。
 [第2実施形態]
 次に、第2実施形態について、説明する。
 第2実施形態でも第1実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。
 <2.1:立体撮像装置の構成>
 第2実施形態の立体撮像装置の構成は、第1実施形態の立体撮像装置1000の構成と同様である。
 第2実施形態の立体撮像装置において、第1実施形態の立体撮像装置1000と相違するのは、画像補正部104の強度生成部112L、112Rの処理内容、および、合成部113L、113Rの処理内容である。
 したがって、以下では、本実施形態の立体撮像装置における強度生成部112L、112Rの処理内容、および、合成部113L、113Rの処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 <2.2:立体撮像装置の動作>
 ≪強度生成部112の動作≫
 まず、画像補正部104Lの強度生成部112Lの動作について、説明する。
 なお、画像補正部104Rの強度生成部112Rの動作についても、強度生成部112Lと同様である。
 図12は、第1の強度生成部112Lの動作を説明するための図である。図12(a)は、横軸が水平方向の位置であり、縦軸がLデプス情報の値である。つまり、図12(a)におけるDLは、L画像における画素位置に対するL画像のデプス情報(距離情報)であり、デプス生成部103から与えられるL画像のデプス情報(距離情報)を表している。ここでは、DLの値は、遠方であるほど(被写体距離が大きい程)小さい値を取り、近景である程(被写体距離が小さい程)、大きい値を取るものとする。
 したがって、図12(a)に示すように、主被写体202のデプス情報(距離情報)が背景被写体201のデプス情報(距離情報)より大きい値を取る。そして、図12(a)に示すように、主被写体202のLデプス情報の値がD2_f~D2_nの範囲の値をとる。つまり、主被写体202の最近点のLデプス情報の値が、D2_nであり、主被写体202の最遠点のLデプス情報の値が、D2_fである。そして、背景被写体201は、平坦な壁であるため、背景被写体201のLデプス情報は、D1で一定である。
 強度生成部112Lでは、入力されたLデプス情報に対して、所定の閾値Thを用いて二値化することで、図12(b)に示す第1強度信号M1(L画像用第1強度信号M1_L)を生成する。なお、Lデプス情報から第1強度信号M1を生成する場合、所定の2つの閾値Th1、Th2(>Th1)を用いて、
  Th1≦(Lデプス情報)≦Th2
を満たす場合、第1強度信号M1の値を「1」とするようにしてもよい。
 次に、強度生成部112Lは、(1)第1強度信号M1、(2)第1強度信号M1を左に所定画素だけシフトしたもの、および、(3)第1強度信号M1を右に所定画素だけシフトしたものに対して、それぞれ、図示しないローパスフィルタで帯域制限を掛けることで、図12(c)に示す、信号M2C、信号M2L、および、信号M2Rの3つの信号を取得する。
 そして、強度生成部112Lは、信号M2C、信号M2L、および、信号M2Rに対して、次式に相当する処理を行い、上記3つの信号の信号値の最小値からなる信号である第3強度信号M3を取得する(図12(d))。
  M3=min(M2C,M2L,M2R)
 この第3強度信号M3は、前景のオブジェクト(主被写体202)の内部(主被写体202の輪郭部より内側)を検出した信号になるため、強度生成部112Lから第3強度信号M3_Lとして、合成部113に出力される。
 ≪合成部113の動作≫
 合成部113Lでは、局所階調変換部111Lから出力された階調変換後のL画像信号OS_Lと、画像入力部102から出力されたL画像信号IS_L(階調変換処理が実行されていないL画像信号)とが、L画像用第3強度信号M3_Lの値に従って、合成される。
 具体的には、合成部113Lでは、次式に相当する処理が実行されることで、出力L画像信号Loutが取得される。つまり、L画像用第3強度信号M3_Lを内分比として、L画像信号(注目画素の画素値)IS_Lと、L画像信号IS_Lに対してコントラスト強調処理を実行したL画像信号OS_Lとを内分することによりブレンド(合成)することで、合成部113Lは、出力L画像信号Loutを取得する。
  Lout=(OS_L-IS_L)*M3_L+IS_L
 これにより、本実施形態の立体撮像装置では、図12の網掛けを施した領域を中心に局所コントラストを強調した立体画像(図12の場合は、L画像)を取得することが可能になる。
 合成部113Lが、上記のように動作することにより、
(1)画像補正部104では、図13に示す網がけ領域(L画像については領域L402、R画像については領域R402)に相当する画像信号に対して、強い強度の局所階調変換処理が実行され、かつ、
(2)主被写体202以外の領域(図13の領域A以外の領域)に相当する画像信号に対して、局所階調変換処理が実行されることはなく、かつ、
(3)主被写体202の内側の輪郭近傍領域(例えば、図13の領域LP1、LQ1、RP1、RQ1)に対して、主被写体202の内側に進むに従い、局所階調変換処理の処理強度(コントラスト強調強度)が連続的に大きくなるように変化させることができる。
 したがって、本実施形態の立体撮像装置では、図13に示す領域PL、QL、PR、QRにおいて、リンギング等の発生を抑制することができるとともに、オブジェクト(例えば、主被写体202)の輪郭部分から内部に進むにつれ、陰影強調(例えば、局所コントラスト強調)の度合い(強度)を連続的に変化させることできる。このため、本実施形態の立体撮像装置では、オブジェクト(所定の被写体オブジェクト)の輪郭付近に相当する画像信号に対して、書き割り現象を発生させるような不適切な補正処理(陰影強調処理等)が実行されることはなく、かつ、オブジェクト(所定の被写体オブジェクト)内部に相当する画像信号に対して、適切な陰影強調処理(例えば、局所コントラスト強調処理)を実行することができる。その結果、本実施形態の立体撮像装置により取得される立体画像は、書き割り感を軽減した自然な立体感の画像となる。
 ≪デプス情報(距離情報)によるオブジェクト検出≫
 なお、上記実施形態で述べているオブジェクトとは、略同じ被写体距離にある被写体のことを意味することに注意が必要である。例えば、主被写体202の表面に黒い縦線が描かれていたとする(図6(d)参照)。
 この場合、単なる輪郭抽出処理(距離情報を用いない輪郭抽出処理)によりオブジェクトを検出(抽出)すると、2つのオブジェクトと見なされてしまう。しかし、左眼用画像と右眼用画像の2枚の画像を用いる立体画像では、これら2つのオブジェクトは、略同じ視差Sを持つことが分かる。つまり、本発明の立体撮像装置では、デプス生成部103により、各オブジェクトの視差を取得することができるので、単なる輪郭抽出処理(距離情報を用いない輪郭抽出処理)により検出される2つのオブジェクトが、略同じ被写体距離にあるか否かを容易に判断することができる。したがって、上記のように、主被写体202の表面に黒い縦線が描かれていた場合であっても、本発明の立体撮像装置では、主被写体202が2つのオブジェクトであると誤検出されることはなく、1つのオブジェクトであると確実に検出することができる。このため、本発明の立体撮像装置では、オブジェクト(主被写体202)内部の領域が、図14に示す領域Aであること(また、第2実施形態の立体撮像装置が所定以上の強度の陰影処理を行う領域がL403およびR403(主被写体202が図6(c)である場合における図13のL402およびL402に対応する領域)であること)を確実に検出することができる。
 これにより、本発明の立体撮像装置では、主被写体202が人物とすると、服と手が分離されて扱われるなどの不具合を避けることが出来る。
 なお、第2実施形態では、領域402(領域L402およびR402)に対して、所定の値以上の強度の局所コントラスト強調処理を行い、オブジェクト輪郭領域に対しては、強度の弱い(所定の値未満の強度の)コントラスト強調処理を行う場合について、説明した。しかし、L画像とR画像の主被写体202のオブジェクト輪郭が元々少しぼけている場合には、局所コントラスト強調は全く掛けないよりも少し掛けた方が好ましいことがある。
 また、既存の信号処理によりL画像とR画像の主被写体202のオブジェクト輪郭部分に置いて、既に少しリンギングが発生している場合もある。この場合には、局所コントラスト強調処理の強度を弱める(強調量を「1」以下(第3強度信号の値を「1」以下)にしてぼかす)ことによりリンギングを除去することが好ましいこともある。
 上記のように様々な場合が存在するが、何れの場合も、領域402(領域L402およびR402)のコントラスト強調量をオブジェクト輪郭領域(オブジェクト輪郭の左右の所定幅の領域)のコントラスト強調量より大きくすることは共通している。
 本実施形態の処理についてまとめると、被写体距離がほぼ同じである被写体をオブジェクトとした場合、略同じ被写体距離にあるオブジェクト内部領域に対して行うコントラスト強調量を、被写体距離が変化するオブジェクトの輪郭領域のコントラスト強調量より大きくするものである。
 <2.3:立体画像処理方法>
 次に、本実施形態の立体画像処理方法について、図15(a)のフローチャートを用いて、説明する。なお、この立体画像処理方法は、例えば、コンピュータによりプログラムを用いて実現される。この場合、この立体画像処理方法の動作主体は、例えば、CPUである。
(S201):
 立体画像を形成することができる左眼用画像(R画像)および右眼用画像(L画像)を取得する。
(S202):
 S201で取得したR画像およびL画像から、視差マッチングにより、Rデプス情報(R画像用距離画像)およびLデプス情報(L画像用距離情報)を取得する。
(S203):
(1)R画像から、S102で取得したRデプス情報(R画像用距離画像)を用いて、被写体距離が所定範囲内に含まれるオブジェクトを抽出する。
(2)L画像から、Lデプス情報(L画像用距離画像)を用いて、被写体距離が所定範囲内に含まれるオブジェクトを抽出する。
 なお、ここで、「所定範囲」は、例えば、人物に相当するオブジェクトが1つのオブジェクトであると検出できるように設定される値であることが好ましい。このように設定することで、略同一被写体距離に存在するオブジェクトを精度良く抽出することができる。
(S204):
L画像およびR画像のそれぞれにおいて、
(A)抽出したオブジェクトの中心内部領域RCに対して、第1強度による陰影強調処理を実行し、
(B)抽出したオブジェクトの境界内部領域REに対して、第2強度による陰影強調処理を実行し、
(C)抽出したオブジェクトの外部領域ROに対して、第3強度による陰影強調処理を実行する。
 ただし、第1強度≧第2強度≧第3強度とする。
 また、「中心内部領域RC」とは、抽出されたオブジェクトの輪郭近傍領域を除いた内部領域のことであり、例えば、図14(b)において、抽出されたオブジェクトObjの内部(内側)に存在する領域RCで示している領域がこれに該当する。
 また、「境界内部領域RC」とは、抽出されたオブジェクトの輪郭近傍領域のことであり、例えば、図14(b)において、抽出されたオブジェクトObjの輪郭部分近傍の内側領域である領域REがこれに該当する。
 また、「外部領域RO」は、抽出されたオブジェクトの外部(外側)の領域であり、例えば、図14(b)の抽出オブジェクトObjの外部領域である領域ROがこれに該当する。
 さらに、境界内部領域RCにおける第2強度は、連続的に変化するものであることが好ましい。
 上記立体画像処理方法では、立体画像に対して、立体画像上のオブジェクトの外部(外側領域)からオブジェクトの内部(内側領域)に進むに従って、より強い強度の陰影強調処理が実行される。これにより、上記立体画像処理方法を実行させた立体画像は、オブジェクト輪郭分におけるリンギング等の発生が適切に抑えられ、書き割り現象の発生が適切に抑制された立体画像となる。
 [第3実施形態]
 次に、第3実施形態について、説明する。
 本実施形態では、陰影を濃くする立体画像処理を実現する技術について、説明する。
 前述の実施形態の技術では、明暗対比を強調する技術であるので、陰影も強調されるが、陰影以外の明るさも強調されてしまう。
 本願発明者らは、立体画像において、立体感・遠近感を自然に強調するためには(自然な立体感・遠近感を実現するためには)、陰影部分のみを強調することが効果的であることを見出した。
 立体感を高めるためには、できるだけ自然な陰影を強調するのが望ましい。立体感(凹凸)の高さを拡大して感じるためには、オブジェクト表面の凹凸により生じる陰影の量だけを強調するのが、自然で効果が大きい。
 前述の実施形態で説明した局所コントラストを強調する手法は、明暗対比を強調する手法であるから、陰影も強調されるのは確かであるが、陰影以外の部分も強調されてしまう。例えば、局所コントラストを強調する手法では、局所的な光の強弱が強調されるため、影の強調だけで無く、明るさも強調されてしまう。また、局所コントラストを強調する手法では、オブジェクト表面の色の変化や明暗の変化(反射率の変化)など、陰影とは関係の無い要素も強調される。そのため、局所コントラストを強調する手法により取得された立体画像は、人間が見ると陰影の強調に見えず、立体感の増加と言うより単にシーン全体をくっきりさせた様にしか見えない傾向がある。
 そこで、本実施形態では、上記に鑑み、陰影部分を選択的に強調することで(陰影を濃くする立体画像処理を行うことで)、より自然な立体感・遠近感を実現する立体画像を取得することができる立体画像処理技術について、説明する。
 なお、第3実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第3実施形態の立体撮像装置の構成は、第1実施形態の立体撮像装置1000の構成と同様である。
 第3実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000における画像補正部104の局所階調変換部111Lおよび111Rを、局所階調変換部111ALおよび111ARに置換した構成を有する。この点において、第3実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000と相違する。その他の点については、第3実施形態の立体撮像装置は、第1実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111ALおよび111ARの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 <3.1:局所階調変換部111AL>
 局所階調変換部111ALは、図16に示すように、周囲明度検出部121と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 周囲明度検出部121は、上述の実施形態の周囲明度検出部121と同様のものである。周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、減算器1601に出力する。
 減算器1601は、L画像信号の輝度値IS_Lおよび周囲明度信号US_Lを入力とし、
  (IS_L)-(US_L)
に相当する減算処理を行い、減算処理により取得した差分信号((IS_L)-(US_L))を係数決定部1602および乗算器1603に出力する。
 係数決定部1602は、差分信号((IS_L)-(US_L))を入力とし、当該差分信号の値に従い、以下の処理を行う。
(1)差分信号((IS_L)-(US_L))の信号値が負である場合(IS_L<US_Lの場合)、k=k1に設定し、設定した係数k(=k1)を乗算器1603に出力する。
(2)差分信号((IS_L)-(US_L))の信号値が負ではない場合(IS_L≧US_Lの場合)、k=k2(ただし、k2<k1)に設定し、設定した係数k(=k2)を乗算器1603に出力する。
 乗算器1603は、周囲明度検出部121から出力される差分信号((IS_L)-(US_L))および係数決定部1602から出力される係数kを入力とし、
  k×((IS_L)-(US_L))
に相当する乗算処理を行い、当該乗算処理により取得された乗算信号(k×((IS_L)-(US_L)))を加算器1604に出力する。
 加算器1604は、L画像信号の輝度値IS_Lおよび乗算器1603から出力される乗算信号(k×((IS_L)-(US_L)))を入力とし、両者を加算することで、補正後の輝度値Os_Lを取得する。すなわち、加算器1604は、
  OS_L=IS_L+k×((IS_L)-(US_L))
に相当する処理を行い、補正後の輝度値OS_Lを取得する。
 以上の通り、局所階調変換部111ALでは、
(1)差分信号((IS_L)-(US_L))の信号値が負である場合(IS_L<US_Lの場合)、
  OS_L=IS_L+k1×((IS_L)-(US_L))
に相当する処理が実行され、補正後の輝度値OS_Lが取得される。
(2)差分信号((IS_L)-(US_L))の信号値が負ではない場合(IS_L≧US_Lの場合)、
  OS_L=IS_L+k2×((IS_L)-(US_L))
  (ただし、k2<k1)
に相当する処理が実行され、補正後の輝度値Os_Lが取得される。
 つまり、上記処理では、
(1)処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合、係数kの値を大きな値k1(>k2)に設定し、アンシャープマスキングの強調度合いを強くし、
(2)処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より明るい場合、係数kの値を小さな値k2(<k1)に設定し、アンシャープマスキングの強調度合いを弱くする。
 これにより、本実施形態の立体画像処理装置において、陰影を濃くする画像処理を実現することができる。
 つまり、本実施形態の立体画像処理装置において、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合、係数kの値が大きな値k1(>k2)に設定されるので、処理対象画素が含まれる画像領域の変化分((IS_L)-(US_L))の加算される量が多くなる。このため、アンシャープマスキングの強調度合いが強くなる。その結果、立体画像の陰影部分が強調されることになる(陰影が濃くなるように立体画像処理が実行されることになる)。(本実施形態の立体画像処理装置のL画像補正部104Lにおいて、陰影部分が強調された補正後の輝度値OS_Lを用いて、処理が実行されることになるため、立体画像の陰影部分が強調されることになる。)
 一方、本実施形態の立体画像処理装置において、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より明るい場合、係数kの値が小さい値k2(<k1)に設定されるので、処理対象画素が含まれる画像領域の変化分((IS_L)-(US_L))の加算される量が少なくなる。このため、アンシャープマスキングの強調度合いが弱くなる(アンシャープマスキングの効果が弱くなる)。その結果、立体画像の陰影以外の部分(例えば、明るい部分)があまり強調されない。
 なお、上記処理の(2)の場合において、係数kの値を「0」に設定することで、アンシャープマスキングの効果を「なし」にすることができる。すなわち、この場合、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合のみ、アンシャープマスキング処理が実行されることになり、本実施形態の立体画像処理装置において、処理対象画素の画素値を暗くする方向の処理のみが実行されることになる(陰影部分を強調する処理が実行されることになる)。
 なお、上記処理において、係数決定部1602では、図17に示す特性C1701により、係数kが決定されるが、これに限定されることはなく、例えば、係数決定部1602は、図17に示す特性C1702により、係数kを決定するようにしてもよい(差分信号の値(IS_L-US_L)の変化に対して、連続的に係数kを変化させるようにしてもよい)。係数決定部1602が、図17に示す特性C1702により、係数kを決定する場合、差分信号の値(IS_L-US_L)の変化に対して、係数kが連続的に変化するため、本実施形態の立体画像処理装置において、より自然な画質の立体画像を取得することができる。
 以上の通り、本実施形態の立体画像処理装置では、陰影を濃くする画像処理を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本実施形態を第2実施形態と組み合わせてもよい。これにより、第2実施形態の立体画像処理技術においても、陰影を濃くする立体画像処理を実現することができる。
 ≪第1変形例≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第3実施形態の立体撮像装置における局所階調変換部111ALおよび111BRを、図18に示す局所階調変換部111BLおよび111BRに、置換した構成を有する。より具体的には、本変形例の立体撮像装置は、第3実施形態の立体撮像装置における局所階調変換部111ALおよび111BRの周囲明度検出部121を、図18に示す第2周囲明度検出部1801に置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第3実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111BLおよび111BRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <3.2:局所階調変換部111BL>
 図18に示すように、局所階調変換部111BLは、第2周囲明度検出部1801と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 減算器1601と、係数決定部1602と、乗算器1603と、加算器1604とについては、第3実施形態のものと同様のものである。
 第2周囲明度検出部1801は、図18に示すように、周囲明度検出部121と、オフセット算出部1802と、加算器1803と、を備える。
 図18に示す周囲明度検出部121は、図16に示す周囲明度検出部121と同様のものである。
 オフセット算出部1802は、L画像信号の輝度値IS_Lおよび周囲明度検出部121から出力される周囲明度信号US_Lを入力とし、L画像信号の輝度値IS_Lおよび周囲明度信号US_Lからオフセット値ΔUS_Lを算出する。そして、オフセット算出部1802は、算出したオフセット値ΔUS_Lを加算器1803に出力する。
 オフセット算出部1802は、オフセット値ΔUS_Lを、例えば、以下のようにして、算出する。
(A)差分絶対値の平均値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの差分絶対値の平均値を算出する。そして、オフセット算出部1802は、算出した当該平均値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式1)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式1)のように、係数c1により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。また、下記(数式1)では、L画像用の処理およびR画像用の処理を区別せずに、一般的な数式と表現している。つまり、L画像用の処理の場合、下記(数式1)において、ΔUS=ΔUS_L、IS=IS_L、US=US_Lであり、R画像用の処理の場合、下記(数式1)において、ΔUS=ΔUS_R、IS=IS_R、US=US_Rである(下記(数式2)、(数式3)についても同様)。
Figure JPOXMLDOC01-appb-M000001
(B)分散値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの分散値を算出する。そして、オフセット算出部1802は、算出した当該分散値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式2)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式2)のように、係数c2により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。
Figure JPOXMLDOC01-appb-M000002
(C)標準偏差値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの標準偏差値を算出する。そして、オフセット算出部1802は、算出した当該標準偏差値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式3)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式2)のように、係数c3により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。
Figure JPOXMLDOC01-appb-M000003
 なお、上記(数式1)~(数式3)による演算処理のサンプル対象(N個のサンプルの対象)は、画像領域において、処理対象画素の近傍に存在するN個の画素とすることが好ましい。
 加算器1803は、周囲明度検出部121から出力される周囲明度信号US_Lおよびオフセット算出部1802から出力されるオフセット値ΔUS_Lを入力とし、周囲明度信号US_Lおよびオフセット値ΔUS_Lを加算する。そして、加算器1803は、加算結果(US_L+ΔUS_L)を補正周囲明度信号US_L’として、減算器1601に出力する。
 このようにして取得された補正周囲明度信号US_L’は、
(1)L画像信号の輝度値IS_Lの変化の少ない部分(画像領域)では、周囲明度信号US_Lと同様の値となるが、
(2)L画像信号の輝度値IS_Lの変化の大きい部分(画像領域)では、周囲明度信号US_Lよりも大きな値(大きな値の信号値)となる。
 例えば、図19(b)に示すように、L画像信号の輝度値IS_Lが図19(b)の波形Isであった場合、補正周囲明度信号US_L’は、波形Us’となる。図19(b)から分かるように、補正周囲明度信号US_L’(波形Us’)は、
(1)L画像信号の輝度値IS_L(波形Is)の変化の少ない部分(画像領域)では、周囲明度信号US_L(波形Us)と同様の値となるが、
(2)L画像信号の輝度値IS_L(波形Is)の変化の大きい部分(画像領域)では、周囲明度信号US_L(波形Us)よりも大きな値(大きな値の信号値)となることが分かる。
 そして、本変形例の立体撮像装置では、第3実施形態での処理と同様の処理を、補正周囲明度信号US_L’を用いて行う。
 つまり、本変形例の局所階調変換部111BLでは、
(1)差分信号((IS_L)-(US_L’))の信号値が負である場合(IS_L<US_L’の場合)、
  OS_L=IS_L+k1×((IS_L)-(US_L’))
に相当する処理が実行され、補正後の輝度値OS_Lが取得される。
(2)差分信号((IS_L)-(US_L’))の信号値が負ではない場合(IS_L≧US_L’の場合)、
  OS_L=IS_L+k2×((IS_L)-(US_L’))
  (ただし、k2<k1)
に相当する処理が実行され、補正後の輝度値Os_Lが取得される。
 つまり、上記処理では、
(1)処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより暗い場合、係数kの値を大きな値k1(>k2)に設定し、アンシャープマスキングの強調度合いを強くし、
(2)処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより明るい場合、係数kの値を小さな値k2(<k1)に設定し、アンシャープマスキングの強調度合いを弱くする。
 これにより、本変形例の立体画像処理装置において、陰影を濃くする画像処理を実現することができる。
 なお、上記処理の(2)の場合において、係数kの値を「0」に設定することで、アンシャープマスキングの効果を「なし」にすることができる。すなわち、この場合、処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより暗い場合のみ、アンシャープマスキング処理が実行されることになり、本変形例の立体画像処理装置において、処理対象画素の画素値を暗くする方向の処理のみが実行されることになる(陰影部分を強調する処理が実行されることになる)。
 なお、上記処理において、係数決定部1602では、図20に示す特性C2001により、係数kが決定されるが、これに限定されることはなく、例えば、係数決定部1602は、図20に示す特性C2002により、係数kを決定するようにしてもよい(差分信号の値(IS_L-US_L’)の変化に対して、連続的に係数kを変化させるようにしてもよい)。係数決定部1602が、図20に示す特性C2002により、係数kを決定する場合、差分信号の値(IS_L-US_L’)の変化に対して、係数kが連続的に変化するため、本変形例の立体画像処理装置において、より自然な画質の立体画像を取得することができる。
 ここで、本変形例の立体画像処理装置により取得される補正後の輝度値Os_Lについて、図19を用いて、説明する。
 図19(a)は、L画像信号の輝度値IS_L(波形Is)と、周囲明度信号US_L(波形Us)と、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os)を示している。
 図19(b)は、L画像信号の輝度値IS_L(波形Is)と、補正周囲明度信号US_L’(波形Us’)と、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os’)を示している。つまり、図19(b)は、本変形例の立体画像処理装置による信号波形の一例を示している。
 図19から分かるように、本変形例の立体画像処理装置では、L画像信号の輝度値IS_L(波形Is)の変化の大きい部分において、補正周囲明度信号US_L’(波形Us’)の信号値が大きくなるので、補正周囲明度信号US_L’の信号値より低い信号値を持つL画像信号の輝度値IS_L(波形Is)に対して、アンシャープマスキング処理の強調度合いが大きくなる。その結果、図19(b)に示すように、L画像信号の輝度値IS_L(波形Is)の変化の大きい部分において、暗くなる方向への処理(階調値を低くする処理)が実行される。これにより、本変形例の立体画像処理装置では、例えば、オブジェクトのディテール部分における陰影部分を効果的に強調することができる(当該ディテール部分の陰影を効果的に濃くすることができる)。
 以上の通り、本変形例の立体画像処理装置では、補正周囲明度信号US_L’を用いることで、オブジェクトのディテール部分等において、効果的に陰影を濃くする画像処理を実現することができる。これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本変形例を第2実施形態と組み合わせてもよい。これにより、第2実施形態の立体画像処理技術においても、本変形例の効果を奏する立体画像処理を実現することができる。
 ≪第2変形例≫
 次に、本実施形態の第2変形例について、説明する。
 本変形例の立体撮像装置は、第3実施形態の第1変形例の立体撮像装置の第2周囲明度検出部1801を、図21に示す第3周囲明度検出部2101に置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第3実施形態の第1変形例の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における第3周囲明度検出部2101の構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <3.3:第3周囲明度検出部2101>
 第3周囲明度検出部2101では、第2周囲明度検出部1801とは異なり、周囲明度信号US_Lを用いることなく、L画像信号の輝度値IS_Lの変化の大きい部分において、大きな信号値となる補正周囲明度信号US_L’を取得する。
 図21に示すように、第3周囲明度検出部2101は、第1ローパスフィルタ2102と、マックスフィルタ2103と、第2ローパスフィルタ2104と、を備える。
 第1ローパスフィルタ2102は、L画像信号の輝度値IS_Lを入力とし、入力されたL画像信号の輝度値IS_Lから、細かいノイズ成分(高周波ノイズ成分)を除くためのフィルタ処理(ローパスフィルタ処理)を実行する。そして、第1ローパスフィルタ2102は、当該フィルタ処理後のL画像信号をマックスフィルタ2103に出力する。
 マックスフィルタ2103は、第1ローパスフィルタ2102の出力を入力とし、マックスフィルタ処理を実行する。具体的には、マックスフィルタ2103は、第1ローパスフィルタ2102の出力(ローパスフィルタ処理後のL画像信号)に対して、処理対象画素および当該処理対象画素の近傍に存在するN個(Nは自然数)の周辺画素(サンプル点)について、その画素値が最大のものを検出する。そして、マックスフィルタ2103は、検出した当該最大値を第2ローパスフィルタ2104に出力する。
 第2ローパスフィルタ2104は、マックスフィルタ2103からの出力を入力とし、入力された信号に対して、ローパスフィルタ処理を行う。第2ローパスフィルタ2104でのローパスフィルタ処理は、マックスフィルタ2103の出力において不要な高周波成分を除くための処理である。そして、第2ローパスフィルタ2104は、ローパスフィルタ処理後の信号を、補正周囲明度信号US_L’として出力する。
 上記のように、第3周囲明度検出部2101では、細かいノイズ成分を除去した後の信号(第1ローパスフィルタ2102の出力信号)から所定のフィルタ範囲(処理対象画素およびその周辺画素により決定されるフィルタ範囲)における最大値をとり、当該最大値を信号値とする信号(マックスフィルタ2103の出力信号)を取得する。さらに、第3周囲明度検出部2101では、マックスフィルタ2103の出力信号から不要な高周波成分を除去することで、補正周囲明度信号US_L’を取得する。
 したがって、第3周囲明度検出部2101では、周囲明度信号US_Lを用いることなく、L画像信号の輝度値IS_Lだけを用いて、L画像信号の輝度値IS_Lの変化の大きい部分において、大きな信号値となる補正周囲明度信号US_L’を取得することができる。
 そして、本変形例の立体撮像装置において、第3周囲明度検出部2101により取得された補正周囲明度信号US_L’を用いることで、第3実施形態の第1変形例と同様、オブジェクトのディテール部分等において、効果的に陰影を濃くする画像処理を実現することができる。これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本変形例を第2実施形態と組み合わせてもよい。これにより、第2実施形態の立体画像処理技術においても、本変形例の効果を奏する立体画像処理を実現することができる。
 [第4実施形態]
 次に、第4実施形態について、説明する。
 本実施形態においても、陰影を濃くする立体画像処理を実現する技術について、説明する。
 なお、第4実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第4実施形態の立体撮像装置の構成は、第1実施形態の立体撮像装置1000の構成と同様である。
 第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000における画像補正部104の局所階調変換部111Lおよび111Rを、図22に示す局所階調変換部111CLおよび111CRに置換した構成を有する。この点において、第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000と相違する。その他の点については、第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111CLおよび111CRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 なお、上述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <4.1:局所階調変換部111CL>
 局所階調変換部111CLは、図22に示すように、周囲明度検出部121と、第2動的階調補正部122Aと、を備える。
 周囲明度検出部121は、上述の実施形態の周囲明度検出部121と同様のものである。周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、第2動的階調補正部122Aに出力する。
 第2動的階調補正部122Aは、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、周囲明度検出部121から出力された周囲明度信号US_Lとを入力とする。第2動的階調補正部122Aは、周囲明度信号US_Lの値に基づいて決定される階調変換特性により、L画像信号の輝度値IS_Lに対して、階調変換処理を行う。第2動的階調補正部122Aの階調変換特性は、例えば、図23に示すようなものである。
 図23の階調変換特性は、図4の階調変換特性と同様のものであるが、入力値ISが周囲明度信号の値USより大きくなった場合、入力値ISをそのまま出力値OSとする点において、図4の階調変換特性と異なる。
 図23は、図4と同様、横軸に入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)をとり、縦軸に出力信号であるOS信号の値(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)をとり、周囲明度信号US_L(またはUS_L)の値により決定される階調変換特性曲線K1~K8をグラフにしたものである。
 ただし、図4の階調変換特性とは異なり、図23の階調変換特性は、実線部により示した曲線により決定されるものである。つまり、IS信号の値が周囲明度信号の値US以下の場合のみ、階調変換特性曲線Kn(n:1~8の整数)により階調変換特性が決定される。そして、IS信号の値が周囲明度信号の値USより大きい場合は、階調変換することなく、そのまま、入力値であるIS信号の値が、出力値OSとなる。
 第2動的階調補正部122Aにより、図23に示す階調変換特性により、階調変換することで、IS信号の値が周囲明度信号の値US以下の場合のみ、つまり、処理対象の画素が周辺より暗い場合のみ、局所コントラストが強調される。これにより、陰影を濃くする階調変換を実現することができる。
 以上説明したように、第2動的階調補正部122Aは、図23に示すような階調変換特性により、IS信号(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して動的階調補正処理を行うことで、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を取得する。そして、第2動的階調補正部122Aは、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を合成部113L(R画像信号の場合は、合成部113R)に出力する。
 なお、第2動的階調補正部122Aによる階調変換処理に用いられる階調変換特性は、図23に示す階調変換特性に限定されるものではなく、陰影を濃くすることができる階調変換特性であれば、他の階調変換特性であってもよい。例えば、入力値ISが周囲明度信号の値USより大きくなった場合、局所コントラストの強調度合いを低くする階調変換特性により、第2動的階調補正部122Aによる階調変換処理を行うようにしてもよい。例えば、図23の階調変換特性曲線K1~K8の点線部分の傾きを小さくした曲線により決定される階調変換特性により、第2動的階調補正部122Aによる階調変換処理を行うようにしてもよい。このような階調変換特性による階調変換処理を行うことで、周辺の明るさより明るい画素の局所コントラストの強調度合いを低く抑えつつ、陰影を濃くする階調変換を実現することができる。
 以上の通り、本実施形態の立体撮像装置(立体画像処理装置)では、例えば、図23に示す階調変換特性により、第2動的階調補正部122Aが階調変換処理を実行するので、IS信号の値が周囲明度信号の値US以下の場合のみ、つまり、処理対象の画素が周辺より暗い場合のみ、局所コントラストが強調される。その結果、本実施形態の立体撮像装置(立体画像処理装置)では、陰影を濃くする階調変換を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本実施形態を上述の実施形態と組み合わせてもよい。これにより、上述の実施形態の立体画像処理技術においても、陰影を濃くする立体画像処理を実現することができる。
 ≪第1変形例≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第4実施形態の立体撮像装置における局所階調変換部111CLおよび111CRを、図24に示す局所階調変換部111DLおよび111DRに、置換した構成を有する。
 図24に示すように、局所階調変換部111DLおよび111DRは、第2周囲明度検出部1801と、動的階調補正部122と、を備える。
 第2周囲明度検出部1801は、前述の実施形態で説明したもの(図18に示したもの)と同じものである。
 動的階調補正部122は、前述の実施形態で説明したものと同じものであり、図4に示した階調変換特性により階調変換を実行する。
 本変形例の立体撮像装置では、第2周囲明度検出部1801から出力される補正周囲明度信号US_L’を用いて、動的階調補正部122により、階調変換処理が実行される。そのため、陰影を濃くする階調変換を行うことができる。
 つまり、補正周囲明度信号US_L’は、L画像信号の輝度値IS_Lの変化の大きい部分において、その信号値が大きくなる。したがって、本変形例の立体撮像装置の動的階調補正部122により、補正周囲明度信号US_L’を用いた階調変換処理を実行することで、周囲明度信号US_Lを用いた階調変換処理を実行する場合に比べて、陰影を濃くする階調変換処理を実行することができる。
 これについて、一例を挙げ、図4を用いて説明する。
 例えば、L画像信号の輝度値IS_Lが「4/8」で、周囲明度信号US_Lの値が「5/8」で、補正周囲明度信号US_L’の値が「7/8」の場合(L画像信号の輝度値IS_Lの変化の大きい部分に相当)、本変形例の立体撮像装置では、L画像信号の輝度値IS_Lが「4/8」である処理対象画素の画素値(輝度値)は、図4のB点により決定される出力値OS_Lに階調変換される。一方、第1実施形態の立体撮像装置では、L画像信号の輝度値IS_Lが「4/8」である処理対象画素の画素値(輝度値)は、図4のA点により決定される出力値OS_Lに階調変換される。
 つまり、上記の場合、本変形例の立体撮像装置による階調変換処理では、第1実施形態の立体撮像装置による階調変換処理に比べて、出力値がより低く(暗く)なるように階調変換される。したがって、本変形例の立体撮像装置による階調変換処理では、第1実施形態の立体撮像装置による階調変換処理に比べて、より陰影を強調する(陰影を濃くする)ことができる。
 以上の通り、本変形例の立体撮像装置では、補正周囲明度信号US_L’を用いて、動的階調補正部122により、階調変換処理が実行されるので、L画像信号の輝度値IS_Lの変化の大きい部分において、暗くなる方向への処理(階調値を低くする処理)が実行される。これにより、本変形例の立体画像処理装置では、例えば、オブジェクトのディテール部分における陰影部分を効果的に強調することができる(当該ディテール部分の陰影を効果的に濃くすることができる)。
 これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本変形例を前述の実施形態と組み合わせてもよい。これにより、前述の実施形態の立体画像処理技術においても、本変形例の効果を奏する立体画像処理を実現することができる。
 また、本変形例の立体画像処理装置において、第2周囲明度検出部1801の代わりに、図21に示した第3周囲明度検出部2101を用いて、補正周囲明度信号US_L’を生成するようにしてもよい。
 [第5実施形態]
 次に、第5実施形態について、説明する。
 通常、多くのシーンでは、光源が完全な平行光源でない場合が多い。例えば、点光源の場合には、影までの距離が離れるほど影が広がりぼけてくる。また、複数光源があるシーンでも、やはり影はぼやけてくる。このように、陰影は、実物体の凹凸の形状よりぼけることが普通であり、人間の視覚は、そのような明暗変化を陰影として感じるものと考えられる。
 そこで、陰影をより陰影らしく強調するには、陰影成分をぼかすことが有効であると考えられる。本願発明者らは、実際に、評価実験によって、その効果を確認した。
 第5実施形態では、付加する陰影成分の高域成分を低減することにより、視覚的により自然な陰影強調を行い、より自然な立体感・遠近感を実現する立体画像を取得することができる立体画像処理技術について、説明する。
 なお、第5実施形態でも前述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第5実施形態の立体撮像装置の構成は、第3実施形態の立体撮像装置の構成と同様である。
 第5実施形態の立体撮像装置は、第3実施形態の立体撮像装置における局所階調変換部111ALおよび111ARを、図25に示す局所階調変換部111ELおよび111ERに置換した構成を有する。この点において、第5実施形態の立体撮像装置は、第3実施形態の立体撮像装置と相違する。その他の点については、第5実施形態の立体撮像装置は、第3実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111ELおよび111ERの構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 <5.1:局所階調変換部111EL>
 図25に示すように、局所階調変換部111ELは、図18に示す局所階調変換部111BLにおいて、乗算器1603と加算器1604の間に、帯域制限部2501をさらに追加した構成を有している。この点以外については、局所階調変換部111ELは、図18に示す局所階調変換部111BLと同様である。
 帯域制限部2501は、乗算器1603からの出力を入力とし、当該入力された信号(乗算信号(k×((IS_L)-(US_L‘))))に対して帯域制限処理を行い、帯域制限処理後の信号(LPF(k×((IS_L)-(US_L‘))))を、加算器1604に出力する。
 なお、LPF()は、帯域制限処理を示す関数であり、例えば、ローパスフィルタ処理等により取得された信号値を出力する関数である。
 帯域制限部2501での帯域制限処理は、帯域制限部2501への入力信号である乗算信号(k×((IS_L)-(US_L‘)))の高周波成分を低減する処理であれば良い。例えば、帯域制限部2501での帯域制限処理として、LPF処理を用いるようにしてもよい。
 なお、帯域制限部2501での帯域制限処理は、帯域制限のカットオフ周波数を、周囲明度信号US_Lの信号帯域と比較して、1桁以上高い周波数に設定することが好ましい。例えば、対象とする画像の大きさが縦1024画素および横768画素であれば、縦横がそれぞれ80画素以上の領域から周囲明度信号US_Lを生成することが好ましいが、この場合の周囲明度信号US_Lを取得する処理(例えば、LPF処理)の帯域制限のカットオフ周波数に対して、帯域制限部2501での帯域制限処理の帯域制限のカットオフ周波数を1桁以上高い周波数に設定することが好ましい。
 加算器1604では、帯域制限部2501から出力される帯域制限処理後の信号(LPF(k×((IS_L)-(US_L‘))))と、L画像信号の輝度値IS_Lとが加算される。
 つまり、本実施形態の局所階調変換部111ELでは、
  OS_L=IS_L+LPF(k×((IS_L)-(US_L‘)))
に相当する処理が実行される。
 上式において、((IS_L)-(US_L‘))は、陰影成分に相当し、(k×((IS_L)-(US_L‘)))が陰影の付加成分に相当すると考えられるので、LPF(k×((IS_L)-(US_L‘)))は、付加する陰影成分をぼかした(帯域制限した)ものに相当する。
 従って、本実施形態の局所階調変換部111ELから出力される補正後のL画像信号(補正後の輝度値)OS_Lは、陰影をぼかしつつ、かつ、陰影を強調した信号となる。
 以上の通り、本実施形態の立体画像処理装置では、陰影をぼかしつつ、かつ、陰影を濃くする(陰影を強調する)画像処理を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分をぼかしつつ、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本実施形態を前述の他の実施形態と組み合わせてもよい。これにより、前述の他の実施形態の立体画像処理技術においても、陰影部分をぼかしつつ、陰影を濃くする(陰影を強調する)立体画像処理を実現することができる。
 また、本実施形態の局所階調変換部111ELにおいて、第2周囲明度検出部1801を、図21に示した第3周囲明度検出部2101に置換してもよい。この場合も、本実施形態の立体画像処理装置と同様の効果を奏することができる。
 ≪第1変形例≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第5実施形態の立体撮像装置における局所階調変換部111ELおよび111ERを、図26に示す局所階調変換部111FLおよび111FRに、置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第5実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111FLおよび111FRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 図26に示すように、局所階調変換部111FLは、第2周囲明度検出部1801と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 減算器1601と、係数決定部1602と、乗算器1603と、を備える。さらに、局所階調変換部111FLは、図26に示すように、乗算器2601と、加算器2602と、帯域制限部2501と、減算器2603と、加算器1604と、を備える。
 局所階調変換部111FLは、
  OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))    (A0)
  (p:0≦p≦1)
に相当する処理を実行するものである。
 ここで、局所階調変換部111FLにおいて、上式に相当する処理を実行させる理由について、説明する。
 まず、下記数式(A1)の処理について、考える。
  OS_L=US_L’+(k+1)×(IS_L-US_L’)    (A1)
 数式(A1)の右辺第2項は、(もともと原画に存在していた陰影成分)+(付加する陰影成分)を表していると考えられる。
 そして、数式(A1)の右辺第2項に対して帯域制限処理(関数LPF()による処理に相当)を行うと、付加する陰影成分およびもともと原画に存在していた陰影成分をぼかすことができる。
 すなわち、
  OS_L=US_L’+LPF((k+1)×(IS_L-US_L’))   (A2)
に相当する処理を実行することで、付加する陰影成分およびもともと原画に存在していた陰影成分をぼかすことができる。
 一方、第5実施形態での処理(付加する陰影成分のみをぼかす処理)は、
  OS_L=IS_L+LPF(k×((IS_L)-(US_L‘)))   (A3)
に相当する。
 上記数式(A2)に相当する処理では、陰影らしさを強く表現できる一方、実際の陰影以外もぼかすという副作用が生じる。
 そこで、数式(A2)と数式(A3)(第5実施形態に相当)との間のぼかし方が設定できる処理が好ましい。
 これを実現するのが、上記数式(A0)に相当する処理である。
 上記数式(A0)において、p=0とすると、数式(A0)は、数式(A3)(第5実施形態に相当)と同一となり、付加する陰影成分のみをぼかす処理が実行される。
 一方、p=1とすると、数式(A0)は、数式(A2)と同一となり、付加する陰影成分および存在していた陰影成分をぼかす処理が実行される。
 つまり、局所階調変換部111FLにより、数式(A0)に相当する処理を実行することで、数式(A2)と数式(A3)(第5実施形態に相当)との間のぼかし方が実行される処理を実現することができる。
 なお、ぼかし方の程度を決定するpは、不図示の制御部等により設定される。
 また、pは、0≦p<0.5に設定すると、良好な陰影強調が実現されるので、好ましい。
 以上の通り、本実施形態の立体画像処理装置では、陰影をぼかしつつ、かつ、陰影を濃くする(陰影を強調する)画像処理を実現することができる。さらに、本実施形態の立体画像処理装置では、陰影をぼかす程度を調整することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 なお、本実施形態を前述の他の実施形態と組み合わせてもよい。これにより、前述の他の実施形態の立体画像処理技術においても、陰影部分を適切にぼかしつつ、陰影を濃くする(陰影を強調する)立体画像処理を実現することができる。
 また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、図21に示した第3周囲明度検出部2101に置換してもよい。この場合も、本実施形態の立体画像処理装置と同様の効果を奏することができる。また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、周囲明度検出部121に置換してもよい。
 [他の実施形態]
 なお、上記実施形態において、画像補正部104では、陰影強調処理として、局所コントラスト強調処理を行う場合について説明したが、これに限定されることはなく、例えば、画像補正部104において、特開2008-4085号公報に開示されている処理により陰影強調処理を行うようにしてもよい。また、画像補正部104では、陰影強調処理として、局所コントラスト強調処理(空間視覚処理による局所コントラスト強調処理)ではない、従来のコントラスト強調処理(例えば、ディテールエンハンス処理や、高域強調処理)を用いて、処理を行うようにしてもよい。
 また、上記実施形態において、画像入力部102には、R画像およびL画像が入力される構成について説明したが、これに限定されることはなく、例えば、多視点方式により取得されたN枚(Nは2以上の自然数)の画像から、R画像およびL画像を選択し、選択したR画像(信号)およびL画像(信号)を、画像入力部102に入力するようにしてもよい。
 また、上記実施形態で説明した立体撮像装置、立体画像処理装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係る立体撮像装置、立体画像処理装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blue-ray Disc)、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 また、上記実施形態では、2つの撮像部により、ステレオ画像(左眼用画像および右眼用画像)を取得(撮像)している場合について説明した。しかし、これに限定されることはなく、例えば、1つの撮像素子により、左眼用画像と右眼用画像とを時分割で交互に取得するようにしてもよいし、また、1つの撮像素子の撮像素子面を2分割して、左眼用画像と右眼用画像とを取得するようにしてもよい。
 また、上記実施形態で説明したデプス生成部103および画像補正部104を搭載した立体表示装置、テレビ、情報携帯端末、パーソナルコンピュータ、デジタルスチルカメラ、ムービー、情報記録再生装置、映像記録再生装置等を実現するようにしてもよい。
 また、立体画像処理装置は、(1)画像補正部104を備える構成、あるいは、(2)デプス生成部103および画像補正部104を備える構成であってもよい。したがって、立体画像処理装置は、上記実施形態の立体撮像装置(立体画像処理装置の一例)の第1撮像部101Rおよび第2撮像部101L等を省略した構成であってよい。
 なお、この場合、R画像およびL画像は、上記装置に対して、外部から入力させるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
 本発明に係る立体画像処理装置、立体撮像装置、立体撮像装置およびプログラムは、いかなる要因で発生した書き割り現象であっても、被写体の立体感・厚み感を復元し、書き割り感の少ない高品位な立体画像を取得することができるので、映像関連産業において有用であり、当該分野において実施することができる。
1000 立体撮像装置
101R 第1撮像部
101L 第2撮像部
102 画像入力部
103 デプス生成部
104 画像補正部
111L(111R)、111AL(111AR)、111BL(111BR)、111CL(111CR)、111DL(111DR)、111EL(111ER)、111FL(111FR) 局所階調変換部
121 周囲明度検出部
122A 第2動的階調補正部
1801 第2周囲明度検出部
2101 第3周囲明度検出部
2501 帯域制限部

                                                                                

Claims (21)

  1.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像に対して画像補正処理を行う立体画像処理装置であって、
     前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した前記被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した前記被写体オブジェクトの内側の領域に対して、前記第1強度より強い第2強度による陰影強調処理を行う画像補正部、
    を備える立体画像処理装置。
  2.  左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理装置であって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成部と、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの外側の領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行う、
    画像補正部と、
    を備える立体画像処理装置。
  3.  左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理装置であって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成部と、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行い、
    (3)取得した前記被写体オブジェクトの外側の領域に対して、前記第2強度より弱い第3強度による陰影強調処理を行う、
    画像補正部と、
    を備える立体画像処理装置。
  4.  前記被写体オブジェクトの外側の領域と前記内部輪郭近傍領域との境界点における陰影強調処理の強度を第1境界点強度とし、前記内部輪郭近傍領域と前記内部中心領域の境界点における陰影強調処理の強度を第2境界点強度としたとき、
     前記内部輪郭近傍領域に対する陰影強調処理の強度である前記第2強度は、前記第1境界点強度および前記第2境界点強度において、連続的に変化する値である、
     請求項3に記載の立体画像処理装置。
  5.  前記陰影強調処理は、コントラスト強調処理である、
     請求項1から4のいずれかに記載の立体画像処理装置。
  6.  前記陰影強調処理は、視覚処理による局所コントラスト強調処理である、
     請求項1から4のいずれかに記載の立体画像処理装置。
  7.  前記陰影強調処理は、陰影を濃くする処理である、
     請求項1から4のいずれかに記載の立体画像処理装置。
  8.  前記画像補正部は、R画像用補正部と、L画像用補正部と、を備え、
     前記R画像用補正部は、
     右眼用画像信号IS_Rに対して陰影強調処理を行い、当該陰影強調処理後の右眼用画像信号を補正右眼用画像信号OS_Rとして出力するR画像用局所階調変換部と、
     前記右眼用画像用距離画像に基づいて、画像補正処理の強度を決定するR画像用強度生成部と、
     前記R画像用強度生成部により決定された前記強度に基づいて、前記右眼用画像信号IS_Rおよび前記補正右眼用画像信号OS_Rを合成するR画像用合成部と、
    を備え、
     前記L画像用補正部は、
     左眼用画像信号IS_Lに対して陰影強調処理を行い、当該陰影強調処理後の左眼用画像信号を補正左眼用画像信号OS_Lとして出力するL画像用局所階調変換部と、
     前記左眼用画像用距離画像に基づいて、画像補正処理の強度を決定するL画像用強度生成部と、
     前記L画像用強度生成部により決定された前記強度に基づいて、前記左眼用画像信号IS_Lおよび前記補正左眼用画像信号OS_Lを合成するL画像用合成部と、
    を備える、
     請求項7に記載の立体画像処理装置。
  9.  前記R画像用局所階調変換部は、
     前記右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを出力するR画像用周囲明度検出部と、
     前記右眼用画像信号IS_Rおよび前記R画像用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、前記補正右眼用画像信号OS_Rを取得するR画像用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記右眼用画像信号IS_Rの値)≦(前記R画像用周囲明度信号US_Rの値)である場合、前記右眼用画像信号IS_Rの所定の入力範囲において、前記右眼用画像信号IS_Rの値を所定の値に固定したとき、前記R画像用周囲明度信号US_Rの値が増加するに従い、前記補正右眼用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正右眼用画像信号OS_Rを取得し、
    (2)(前記右眼用画像信号IS_Rの値)>(前記R画像用周囲明度信号US_Rの値)である場合、前記右眼用画像信号IS_Rを、前記補正右眼用画像信号OS_Rとすることで、前記補正右眼用画像信号OS_Rを取得する、
    R画像用第2動的階調補正部と、
    を備え、
     前記L画像用局所階調変換部は、
     前記左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを出力するL画像用周囲明度検出部と、
     前記左眼用画像信号IS_Lおよび前記L画像用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、前記補正左眼用画像信号OS_Lを取得するL画像用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記左眼用画像信号IS_Lの値)≦(前記L画像用周囲明度信号US_Lの値)である場合、前記左眼用画像信号IS_Lの所定の入力範囲において、前記左眼用画像信号IS_Lの値を所定の値に固定したとき、前記L画像用周囲明度信号US_Lの値が増加するに従い、前記補正左眼用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正左眼用画像信号OS_Lを取得し、
    (2)(前記左眼用画像信号IS_Lの値)>(前記L画像用周囲明度信号US_Lの値)である場合、前記左眼用画像信号IS_Lを、前記補正左眼用画像信号OS_Lとすることで、前記補正左眼用画像信号OS_Lを取得する、
    L画像用第2動的階調補正部と、
    を備える、
     請求項8に記載の立体画像処理装置。
  10.  前記R画像用局所階調変換部は、
     前記右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、前記右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、前記R画像用周囲明度信号US_Rに、前記右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得するR画像用第2周囲明度検出部と、
     前記右眼用画像信号IS_Rおよび前記R画像用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、前記補正右眼用画像信号OS_Rを取得するR画像用動的階調補正部であって、前記動的階調補正処理は、前記右眼用画像信号IS_Rの所定の入力範囲において、前記右眼用画像信号IS_Rの値を所定の値に固定したとき、前記R画像用補正周囲明度信号US_R’の値が増加するに従い、前記補正右眼用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正右眼用画像信号OS_Rを取得するR画像用動的階調補正部と、
    を備え、
     前記L画像用局所階調変換部は、
     前記左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、前記左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、前記L画像用周囲明度信号US_Lに、前記左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得するL画像用第2周囲明度検出部と、
     前記左眼用画像信号IS_Lおよび前記L画像用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、前記補正左眼用画像信号OS_Lを取得するL画像用動的階調補正部であって、前記動的階調補正処理は、前記左眼用画像信号IS_Lの所定の入力範囲において、前記左眼用画像信号IS_Lの値を所定の値に固定したとき、前記L画像用補正周囲明度信号US_L’の値が増加するに従い、前記補正左眼用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正左眼用画像信号OS_Lを取得するL画像用動的階調補正部と、
    を備える、
     請求項8に記載の立体画像処理装置。
  11.  前記R画像用局所階調変換部は、
     前記右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、前記右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、前記R画像用周囲明度信号US_Rに、前記右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得するR画像用第2周囲明度検出部と、
     前記右眼用画像信号IS_Rと前記R画像用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_R=IS_R+k×((IS_R)-(US_R’))
    により、前記補正右眼用画像信号OS_Rを取得するR画像用係数演算処理部と、
    を備え、
     前記L画像用局所階調変換部は、
     前記左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、前記左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、前記L画像用周囲明度信号US_Lに、前記左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得するL画像用第2周囲明度検出部と、
     前記左眼用画像信号IS_Lと前記L画像用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_L=IS_L+k×((IS_L)-(US_L’))
    により、前記補正左眼用画像信号OS_Lを取得するL画像用係数演算処理部と、
    を備える、
     請求項8に記載の立体画像処理装置。
  12.  前記R画像用局所階調変換部は、
     前記右眼用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とするR画像用周囲明度信号US_Rを取得し、所定の画像領域において、前記右眼用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rを取得し、前記R画像用周囲明度信号US_Rに、前記右眼用オフセット値ΔUS_Rを加算することで、R画像用補正周囲明度信号US_R’を取得するR画像用第2周囲明度検出部と、
     前記右眼用画像信号IS_Rと前記R画像用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_R-US_R’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した前記信号LPF((k+p)×(IS_R-US_R’))を用いて、
      OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
    により、前記補正右眼用画像信号OS_Rを取得するR画像用係数演算処理部と、
    を備え、
     前記L画像用局所階調変換部は、
     前記左眼用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とするL画像用周囲明度信号US_Lを取得し、所定の画像領域において、前記左眼用画像信号IS_Lの変化が激しい程、大きな値となる左眼用オフセット値ΔUS_Lを取得し、前記L画像用周囲明度信号US_Lに、前記左眼用オフセット値ΔUS_Lを加算することで、L画像用補正周囲明度信号US_L’を取得するL画像用第2周囲明度検出部と、
     前記左眼用画像信号IS_Lと前記L画像用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_L-US_L’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した前記信号LPF((k+p)×(IS_L-US_L’))を用いて、
      OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))
    により、前記補正左眼用画像信号OS_Lを取得するL画像用係数演算処理部と、
    を備える、
     請求項8に記載の立体画像処理装置。
  13.  請求項1から12のいずれかに記載の立体画像処理装置を含む、立体撮像装置。
  14.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、
     前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した前記被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した前記被写体オブジェクトの内側の領域に対して、前記第1強度より強い第2強度による陰影強調処理を行う画像補正ステップ、
    を備える立体画像処理方法。
  15.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成ステップと、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの外側の領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行う、
    画像補正ステップと、
    を備える立体画像処理方法。
  16.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成ステップと、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行い、
    (3)取得した前記被写体オブジェクトの外側の領域に対して、前記第2強度より弱い第3強度による陰影強調処理を行う、
    画像補正ステップと、
    を備える立体画像処理方法。
  17.  前記陰影強調処理は、陰影を濃くする処理である、
     請求項14から16のいずれかに記載の立体画像処理方法。
  18.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラムであって、
     前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、取得した前記被写体オブジェクトの外側の領域に対して、第1強度による陰影強調処理を行い、取得した前記被写体オブジェクトの内側の領域に対して、前記第1強度より強い第2強度による陰影強調処理を行う画像補正ステップ、
    を備える立体画像処理方法をコンピュータに実行させるためのプログラム。
  19.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラムであって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成ステップと、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの外側の領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行う、
    画像補正ステップと、
    を備える立体画像処理方法をコンピュータに実行させるためのプログラム。
  20.  2眼方式または多視点方式による立体画像に含まれる左眼用画像および右眼用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータに実行させるためのプログラムであって、
     前記左眼用画像および前記右眼用画像から、前記左眼用画像および前記右眼用画像に含まれる被写体についての距離情報を算出し、左眼用画像用距離画像および右眼用画像用距離画像を生成するデプス生成ステップと、
     前記左眼用画像用距離画像および右眼用画像用距離画像に基づいて、前記左眼用画像および前記右眼用画像から、それぞれ、被写体オブジェクトを取得し、
    (1)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域を除く内部領域である内部中心領域に対して、第1強度による陰影強調処理を行い、
    (2)取得した前記被写体オブジェクトの内側の領域であって輪郭近傍領域である内部輪郭近傍領域に対して、前記第1強度より弱い第2強度による陰影強調処理を行い、
    (3)取得した前記被写体オブジェクトの外側の領域に対して、前記第2強度より弱い第3強度による陰影強調処理を行う、
    画像補正ステップと、
    を備える立体画像処理方法をコンピュータに実行させるためのプログラム。
  21.  前記陰影強調処理は、陰影を濃くする処理である、
     請求項18から20のいずれかに記載のプログラム。
PCT/JP2011/005035 2010-09-08 2011-09-07 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム Ceased WO2012032778A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012532867A JP5395273B2 (ja) 2010-09-08 2011-09-07 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
US13/787,656 US9240072B2 (en) 2010-09-08 2013-03-06 Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010201246 2010-09-08
JP2010-201246 2010-09-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/787,656 Continuation-In-Part US9240072B2 (en) 2010-09-08 2013-03-06 Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program

Publications (1)

Publication Number Publication Date
WO2012032778A1 true WO2012032778A1 (ja) 2012-03-15

Family

ID=45810388

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005035 Ceased WO2012032778A1 (ja) 2010-09-08 2011-09-07 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム

Country Status (3)

Country Link
US (1) US9240072B2 (ja)
JP (1) JP5395273B2 (ja)
WO (1) WO2012032778A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012032778A1 (ja) * 2010-09-08 2012-03-15 パナソニック株式会社 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
WO2012095914A1 (ja) * 2011-01-13 2012-07-19 パナソニック株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP5303692B1 (ja) * 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
US9874628B2 (en) * 2013-11-12 2018-01-23 The Boeing Company Dual hidden point bars
DE102015103416A1 (de) * 2015-03-09 2016-09-15 Renfert Gmbh Dentalbilderfassungsvorrichtung
DE102015103413B4 (de) * 2015-03-09 2022-09-29 Renfert Gmbh Dentalbilderfassungsvorrichtung
JP6605318B2 (ja) * 2015-12-14 2019-11-13 東レエンジニアリング株式会社 立体形状物の検査装置
US11252315B2 (en) * 2017-08-04 2022-02-15 Sony Interactive Entertainment Inc. Imaging apparatus and information processing method
US20190188513A1 (en) * 2017-12-20 2019-06-20 Datalogic Usa Inc. Systems and methods for object deskewing using stereovision or structured light
US10523912B2 (en) 2018-02-01 2019-12-31 Microsoft Technology Licensing, Llc Displaying modified stereo visual content
CN109151444B (zh) * 2018-11-13 2020-09-08 盎锐(上海)信息科技有限公司 3d智能像素增强引擎
JP7475191B2 (ja) * 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329198A (ja) * 2001-04-27 2002-11-15 Olympus Optical Co Ltd 画像質感強調装置、画像質感強調方法および画像質感強調プログラム
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2010154422A (ja) * 2008-12-26 2010-07-08 Casio Computer Co Ltd 画像処理装置
WO2010090150A1 (en) * 2009-02-05 2010-08-12 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3157384B2 (ja) 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
JP3284190B2 (ja) * 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
JP2001339742A (ja) 2000-03-21 2001-12-07 Olympus Optical Co Ltd 立体映像プロジェクション装置、及びその補正量演算装置
US7162074B2 (en) 2001-11-20 2007-01-09 Fuji Jukogyo Kabushiki Kaisha Adjusting apparatus for stereoscopic camera
KR101030872B1 (ko) 2003-09-11 2011-04-22 파나소닉 주식회사 시각 처리 장치, 시각 처리 방법, 화상 표시 장치, 텔레비젼, 정보 단말 장치, 카메라, 집적회로 및 기록 매체
JP4170283B2 (ja) * 2004-11-01 2008-10-22 株式会社ソニー・コンピュータエンタテインメント 描画処理装置および描画処理方法
WO2007043460A1 (ja) 2005-10-12 2007-04-19 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
US20070211930A1 (en) * 2006-03-09 2007-09-13 Terry Dolwick Attribute based image enhancement and display for medical imaging applications
US8164594B2 (en) * 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
JP2009080144A (ja) 2007-09-25 2009-04-16 Toshiba Corp 立体映像表示装置および立体映像表示方法
CN102484736A (zh) 2009-07-07 2012-05-30 汤姆森特许公司 用于三维(3d)投影的亮度校正的方法和系统
BRPI1006035A2 (pt) * 2010-03-31 2016-12-06 Fujifilm Corp "aparelho de coletar imagem estereiscópica ".
WO2012032778A1 (ja) * 2010-09-08 2012-03-15 パナソニック株式会社 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
JP5385462B2 (ja) * 2010-09-13 2014-01-08 富士フイルム株式会社 単眼立体撮像装置、単眼立体撮像装置用シェーディング補正方法及び単眼立体撮像装置用プログラム
WO2012039346A1 (ja) * 2010-09-22 2012-03-29 富士フイルム株式会社 立体撮像装置およびシェーディング補正方法
WO2012098607A1 (ja) * 2011-01-19 2012-07-26 パナソニック株式会社 立体画像処理装置および立体画像処理方法
CN103748873B (zh) * 2011-08-19 2015-04-29 富士胶片株式会社 摄像装置及阴影校正方法
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
US20140184600A1 (en) * 2012-12-28 2014-07-03 General Electric Company Stereoscopic volume rendering imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329198A (ja) * 2001-04-27 2002-11-15 Olympus Optical Co Ltd 画像質感強調装置、画像質感強調方法および画像質感強調プログラム
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2010154422A (ja) * 2008-12-26 2010-07-08 Casio Computer Co Ltd 画像処理装置
WO2010090150A1 (en) * 2009-02-05 2010-08-12 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method

Also Published As

Publication number Publication date
JP5395273B2 (ja) 2014-01-22
US9240072B2 (en) 2016-01-19
US20130195349A1 (en) 2013-08-01
JPWO2012032778A1 (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP5395273B2 (ja) 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
JP5909704B2 (ja) 立体画像処理装置、立体画像処理方法およびプログラム
ES3014376T3 (en) Display management for high dynamic range images
JP5962393B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5094219B2 (ja) 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
CN105144233B (zh) 用于运动重影滤波的参考图像选择
EP2750101B1 (en) Endoscopic video system with dynamic contrast and detail enhancement
JP5509487B2 (ja) 立体視画像のブラー強化
JP7369175B2 (ja) 画像処理装置およびその制御方法及びプログラム
JP5820985B2 (ja) 立体画像処理装置および立体画像処理方法
US20140218550A1 (en) Image capturing device and image processing method thereof
JP5303692B1 (ja) 立体画像処理装置及び立体画像処理方法
WO2014072926A1 (en) Generation of a depth map for an image
WO2011148921A1 (ja) 画像処理装置、画像表示装置および画像撮像装置
SG182922A1 (en) A method and a device for merging a plurality of digital pictures
US8908959B2 (en) Image processing apparatus
JP5781372B2 (ja) 画像処理装置及び撮像装置
US8750601B2 (en) Three-dimensional image processing device, and three-dimensional image processing method
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
WO2015097780A1 (ja) 映像表示装置
JP5861114B2 (ja) 画像処理装置、及び画像処理方法
JP5410378B2 (ja) 映像信号補正装置および映像信号補正プログラム
JP2014102614A (ja) 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム
KR101119941B1 (ko) 입체영상의 화질 개선 장치 및 방법
US20240314452A1 (en) Foveating neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11823257

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012532867

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11823257

Country of ref document: EP

Kind code of ref document: A1