[go: up one dir, main page]

WO2016110984A1 - 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置 - Google Patents

画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置 Download PDF

Info

Publication number
WO2016110984A1
WO2016110984A1 PCT/JP2015/050400 JP2015050400W WO2016110984A1 WO 2016110984 A1 WO2016110984 A1 WO 2016110984A1 JP 2015050400 W JP2015050400 W JP 2015050400W WO 2016110984 A1 WO2016110984 A1 WO 2016110984A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
color
unit
component
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/050400
Other languages
English (en)
French (fr)
Inventor
佐々木 寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to PCT/JP2015/050400 priority Critical patent/WO2016110984A1/ja
Priority to DE112015005531.2T priority patent/DE112015005531T5/de
Priority to JP2016568228A priority patent/JP6454359B2/ja
Priority to CN201580072238.8A priority patent/CN107105987B/zh
Publication of WO2016110984A1 publication Critical patent/WO2016110984A1/ja
Priority to US15/637,422 priority patent/US10070771B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00013Operational features of endoscopes characterised by signal transmission using optical means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2733Oesophagoscopes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • an image processing apparatus that performs signal processing on an imaging signal generated by an imaging element to generate an image signal, an operation method of the image processing apparatus, an operation program of the image processing apparatus, and the image processing apparatus
  • the present invention relates to an endoscope apparatus.
  • an endoscope apparatus is widely used for various examinations in the medical field and the industrial field.
  • the medical endoscope apparatus is configured to insert a flexible insertion portion having a long and narrow shape in which an imaging element having a plurality of pixels is provided at the tip into a subject such as a patient. Since the in-vivo image in the subject can be acquired without cutting the subject, the burden on the subject is small, and the spread is progressing.
  • a white illumination light observation method using white illumination light (white illumination light), and a narrow band illumination light (narrow band wavelength band narrower than the white wavelength band) Narrow-band light observation methods using illumination light) are widely known.
  • the narrow band light observation method for example, an image can be obtained in which a capillary blood vessel, a mucous membrane fine pattern and the like existing in a mucous membrane surface (a living body surface) of a living body are highlighted.
  • the narrow band light observation method a lesion in the mucous membrane surface of a living body can be detected more accurately.
  • illumination light of the three primary colors of R, G and B is sequentially irradiated to the tissue in the subject, and the reflected light thereof is white
  • a white illumination light observation mode for generating an illumination light observation image and illumination light consisting of two narrow band lights respectively included in the wavelength bands of blue light and green light are sequentially irradiated, and narrow band light observation from their reflected light images
  • An endoscope system capable of switching between a narrow band light observation mode for generating an image has been proposed (see, for example, Patent Document 1).
  • the two narrow band lights respectively included in the wavelength bands of blue light and green light have different absorption characteristics of hemoglobin of blood vessels and attenuation in the depth direction to the living body depending on the wavelength.
  • the narrow band light included in the wavelength band of blue light captures the capillary structure of the surface layer and the mucous membrane structure of the surface layer
  • the narrow band light included in the wavelength band of green light captures thicker blood vessels in the deep layer be able to.
  • a red (R) color generally referred to as a Bayer array is formed on the light receiving surface of the imaging element to obtain a captured image by the imaging element of a single plate.
  • a color filter is provided, in which four filters that respectively transmit light in wavelength bands of green (G), green (G) and blue (B) are arranged in each pixel as one filter unit.
  • each pixel receives the light of the wavelength band transmitted through the filter, and generates an electrical signal of a color component according to the light of the wavelength band. Therefore, in the process of generating a color image, interpolation processing is performed to interpolate the signal value of the missing color component without passing through the filter in each pixel.
  • Such interpolation processing is called demosaicing processing.
  • the signal acquired by the G pixel (a pixel in which the G filter is arranged; the same definition applies to R pixel and B pixel) is referred to as a G signal (R signal in the case of R pixel, B in the case of B pixel) Signal).
  • the R signal of the R pixel or the R pixel of the R pixel or the R pixel of the R pixel or the B pixel is interpolated using the correlation of the G pixels around the R pixel and the B pixel where the G signal is missing Interpolation to the pixel position where the color difference signal is missing from the color difference signal (RG signal and BG signal) calculated using the B signal at the B pixel position is used in interpolation of the G signal
  • a technique for interpolating a color difference signal using the correlation of surrounding G pixels is disclosed (see, for example, Patent Document 2).
  • an endoscope apparatus that emits white illumination light and narrow band narrow band illumination light included in a blue wavelength band is disclosed (for example, a patent) See reference 3).
  • the G pixel has a slight sensitivity to the narrow band light of blue, and the G signal and the R signal are generated based on the G signal, the B signal and the R signal obtained by the illumination light described above.
  • the B signal component corresponding to the narrow band light of blue captured by the G pixel is extracted from the correlation calculation of B, and the extracted B signal component and the B signal generated from the B pixel based on the narrow band light of blue are combined This produces a weighted image of surface capillaries.
  • the present invention has been made in view of the above, and an image processing apparatus and an image processing apparatus capable of obtaining an image of high resolution in either the white illumination light observation method or the narrow band light observation method.
  • An operation method, an operation program of an image processing apparatus, and an endoscope apparatus are provided.
  • an image processing apparatus comprises a first luminance component that is a luminance component of white illumination light including light in red, green and blue wavelength bands.
  • Third pixels that generate third color signals of color components different from the first and second luminance components are arranged in a matrix, and the density of the first pixels is higher than the density of each of the second and third pixels.
  • the respective color components generated by interpolation In front of the color signal of A specific frequency component extraction unit for extracting a specific frequency component signal having a predetermined spatial frequency component from a color signal of a first luminance component, and extracting the specific frequency component to a color signal of a color component different from the first luminance component And a specific frequency component addition unit that adds the specific frequency component signals extracted by the unit.
  • an operation method of an image processing apparatus comprises a first luminance component which is a luminance component of white illumination light including light in red, green and blue wavelength bands.
  • Pixels and third pixels for generating third color signals of color components different from the first and second luminance components are arranged in a matrix, and the density of the first pixels is the density of each of the second and third pixels.
  • an operation program of an image processing apparatus comprises a first luminance component which is a luminance component of white illumination light including light in red, green and blue wavelength bands.
  • Pixels and third pixels for generating third color signals of color components different from the first and second luminance components are arranged in a matrix, and the density of the first pixels is the density of each of the second and third pixels.
  • An adding unit performing, in the image processing apparatus, a specific frequency component addition procedure of adding the specific frequency component signal extracted by the specific frequency component extraction unit to a color signal of a color component different from the first luminance component; It is characterized by
  • an endoscope apparatus has a white illumination light including light in red, green and blue wavelength bands, and a wavelength band narrower than the wavelength band of the white illumination light.
  • a first color signal of a first luminance component which is a luminance component of white illumination light including light source sections emitting any of narrow band illumination light consisting of band light and light of red, green and blue wavelength bands is generated First pixel, a second pixel for generating a second color signal of a second luminance component which is a luminance component of narrowband illumination light which is light of a band narrower than the wavelength band of the white illumination light, and
  • An imaging element in which third pixels generating third color signals of color components different from the two luminance components are arranged in a matrix, and the density of the first pixels is higher than the densities of the second and third pixels;
  • An image processing apparatus according to the above invention; Characterized in that was.
  • the present invention it is possible to obtain an image of high resolution in either of the white illumination light observation method and the narrow band light observation method.
  • FIG. 1 is a view showing a schematic configuration of an endoscope apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing a schematic configuration of an endoscope apparatus according to an embodiment of the present invention.
  • FIG. 3 is a schematic view showing a configuration of a pixel of the imaging device according to the embodiment of the present invention.
  • FIG. 4 is a schematic view showing an example of the configuration of a color filter according to an embodiment of the present invention.
  • FIG. 5 is a graph showing the relationship between the wavelength of the illumination light emitted by the illumination unit of the endoscope apparatus according to the embodiment of the present invention and the amount of light.
  • FIG. 1 is a view showing a schematic configuration of an endoscope apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing a schematic configuration of an endoscope apparatus according to an embodiment of the present invention.
  • FIG. 3 is a schematic view showing a configuration of a pixel of the imaging device according to the embodiment of the present
  • FIG. 6 is a graph showing the relationship between the wavelength of the illumination light and the transmittance by the switching filter of the illumination unit of the endoscope apparatus according to the embodiment of the present invention.
  • FIG. 7 is a block diagram for explaining the configuration of the pre-processing unit of the processor unit according to the embodiment of the present invention.
  • FIG. 8 is a schematic view illustrating frequency characteristics of interpolation filter processing performed by the interpolation processing unit according to the embodiment of the present invention.
  • FIG. 9 is a block diagram for explaining the configuration of the main part of the interpolation processing unit of the processor unit according to the embodiment of the present invention.
  • FIG. 10 is a schematic diagram for explaining the demosaicing process performed by the processor unit according to the embodiment of the present invention.
  • FIG. 11 is a schematic diagram for explaining the demosaicing process performed by the processor unit according to the embodiment of the present invention.
  • FIG. 12 is a block diagram for explaining the configuration of the main part of the interpolation processing unit of the processor unit according to the embodiment of the present invention.
  • FIG. 13 is a schematic diagram for explaining the frequency characteristics of the filtering process performed by the filter processing unit according to the embodiment of the present invention.
  • FIG. 14 is a schematic view illustrating the frequency characteristic of the filtering process performed by the filter processing unit according to the embodiment of the present invention.
  • FIG. 15 is a schematic view illustrating a signal after filtering processing performed by the filter processing unit according to the embodiment of the present invention.
  • FIG. 16 is a schematic diagram for explaining signals after clip processing by the clip processing unit according to the embodiment of the present invention.
  • FIG. 17 is a schematic view illustrating gain processing performed by the gain processing unit according to the embodiment of the present invention.
  • FIG. 18 is a block diagram for explaining the configuration of the main part of the interpolation processing unit of the processor unit according to the embodiment of the present invention.
  • FIG. 19 is a flowchart illustrating signal processing performed by the processor unit according to the embodiment of the present invention.
  • FIG. 20 is a schematic view showing a schematic configuration of an endoscope apparatus according to a modification of the embodiment of the present invention.
  • FIG. 21 is a schematic view showing a configuration of a rotary filter of a light source unit according to a modification of the embodiment of the present invention.
  • FIG. 22 is a graph showing the relationship between the wavelength of the illumination light by the filter of the illumination unit of the endoscope apparatus according to the modification of the embodiment of the present invention and the transmittance.
  • a medical endoscope apparatus that includes an image processing apparatus according to the present invention and captures and displays an image inside a subject such as a patient will be described. Further, the present invention is not limited by the embodiment. Furthermore, in the description of the drawings, the same parts will be described with the same reference numerals.
  • the narrow band is a range which is narrower than the wavelength band of white light. Any wavelength band may be used, and a wavelength band (for example, infrared, ultraviolet, etc.) outside the range of the wavelength band of white light (visible light) may be included.
  • FIG. 1 is a view showing a schematic configuration of an endoscope apparatus 1 according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing a schematic configuration of the endoscope apparatus 1 according to the embodiment of the present invention.
  • An endoscope apparatus 1 shown in FIGS. 1 and 2 includes an endoscope 2 which picks up an in-vivo image of an observation site by inserting the insertion portion 21 into a subject to generate an electric signal, and the endoscope 2.
  • the endoscope apparatus 1 inserts the insertion unit 21 into a subject such as a patient to acquire an in-vivo image of the inside of the subject.
  • An operator such as a doctor examines the acquired in-vivo image to examine the presence or absence of a bleeding site or a tumor site as a detection target site.
  • the endoscope 2 has an elongated insertion portion 21 having flexibility, an operation portion 22 connected to the proximal end side of the insertion portion 21 and receiving input of various operation signals, and an insertion portion from the operation portion 22
  • a universal cord 23 extends in a direction different from the extending direction of the cable 21 and incorporates various cables connected to the light source unit 3 and the processor unit 4.
  • the insertion unit 21 has pixels (photodiodes) that receive light arranged in a grid (matrix), and incorporates an imaging element 202 that generates an image signal by performing photoelectric conversion on the light received by the pixels. It has a distal end portion 24, a bendable bending portion 25 constituted by a plurality of bending pieces, and an elongated flexible pipe portion 26 connected to the base end side of the bending portion 25 and having flexibility. .
  • the operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical and horizontal directions, a treatment tool insertion unit 222 that inserts a treatment tool such as a biological forceps, an electric knife, and an inspection probe into the subject, and a light source unit An instruction signal for switching the illumination light to 3; an operation instruction signal for the treatment tool or an external device connected to the processor unit 4; a water supply instruction signal for performing water supply; and a suction instruction signal for performing suction And a plurality of switches 223 for inputting and the like.
  • the treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening (not shown) via a treatment tool channel (not shown) provided at the distal end of the distal end portion 24.
  • the universal cord 23 incorporates at least the light guide 203 and a collective cable in which one or more signal lines are put together.
  • the collective cable is a signal line for transmitting and receiving signals between the endoscope 2 and the light source unit 3 and the processor unit 4 and is a signal line for transmitting and receiving setting data, a signal line for transmitting and receiving an image signal, It includes a signal line and the like for transmitting and receiving a driving timing signal for driving the imaging element 202.
  • the endoscope 2 also includes an imaging optical system 201, an imaging element 202, a light guide 203, an illumination lens 204, an A / D conversion unit 205, and an imaging information storage unit 206.
  • the imaging optical system 201 is provided at the distal end portion 24 and condenses at least light from the observation site.
  • the imaging optical system 201 is configured using one or more lenses.
  • the imaging optical system 201 may be provided with an optical zoom mechanism for changing the angle of view and a focusing mechanism for changing the focus.
  • the imaging element 202 is provided perpendicular to the optical axis of the imaging optical system 201, and photoelectrically converts an image of light formed by the imaging optical system 201 to generate an electrical signal (image signal).
  • the imaging device 202 is realized by using a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, or the like.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • FIG. 3 is a schematic view showing the configuration of the pixel of the imaging device 202.
  • the imaging element 202 a plurality of pixels that receive light from the imaging optical system 201 are arranged in a lattice (matrix). Then, the imaging element 202 generates an electrical signal (also referred to as an image signal or the like) by performing photoelectric conversion on the light received by each pixel.
  • the electrical signal includes the pixel value (brightness value) of each pixel, positional information of the pixel, and the like.
  • the pixel arranged in the i-th row and the j-th column is described as a pixel P ij (i and j are natural numbers).
  • the imaging element 202 is provided between the imaging optical system 201 and the imaging element 202, and includes a color filter 202a having a plurality of filters each transmitting light of a wavelength band individually set.
  • the color filter 202 a is provided on the light receiving surface of the imaging element 202.
  • FIG. 4 is a schematic view showing an example of the configuration of the color filter 202a.
  • the color filter 202a is a filter unit U1 composed of four filters arranged in a matrix of 2 rows and 2 columns arranged in a matrix according to the arrangement of the pixels P ij .
  • the color filter 202a is formed by repeatedly arranging the filter arrangement of the filter unit U1 with the basic pattern as the basic pattern.
  • One filter that transmits light of a predetermined wavelength band is disposed on the light receiving surface of each pixel. Therefore, the pixel P ij provided with the filter receives the light in the wavelength band transmitted by the filter.
  • the pixel P ij provided with a filter that transmits light in the green wavelength band receives light in the green wavelength band.
  • the pixel P ij that receives light in the green wavelength band is referred to as a G pixel.
  • a pixel that receives light in the blue wavelength band is called a B pixel
  • a pixel that receives light in the red wavelength band is called an R pixel.
  • the filter unit U1 transmits light in the blue (B) wavelength band H B , the green (G) wavelength band H G and the red (R) wavelength band H R.
  • the filter unit U1 red which transmits light in a wavelength band H blue filter that transmits light of B (B filters), a green filter which transmits light in a wavelength band H G (G filter), wavelength band H R A filter (R filter) is used, and two G filters are arranged diagonally, and a B filter and an R filter are arranged diagonally, forming a so-called Bayer arrangement.
  • the density of the G filter is higher than the density of the B filter and the R filter.
  • the density of G pixels is higher than the density of B pixels and R pixels.
  • the blue, green and red wavelength bands H B , H G and H R have, for example, a wavelength band H B of 380 nm to 500 nm, a wavelength band H G of 480 nm to 600 nm, and a wavelength band H R of 580 nm to 650 nm.
  • the light guide 203 is made of glass fiber or the like, and forms a light guide path of the light emitted from the light source unit 3.
  • the illumination lens 204 is provided at the tip of the light guide 203, diffuses the light guided by the light guide 203, and emits the light to the outside of the tip 24.
  • the A / D conversion unit 205 performs A / D conversion on the electrical signal generated by the imaging element 202 and outputs the converted electrical signal to the processor unit 4.
  • the A / D conversion unit 205 converts the electrical signal generated by the imaging element 202 into, for example, 12-bit digital data (image signal).
  • the imaging information storage unit 206 stores data including various programs for operating the endoscope 2, various parameters necessary for the operation of the endoscope 2, identification information of the endoscope 2, and the like.
  • the imaging information storage unit 206 further includes an identification information storage unit 261 that stores identification information.
  • the identification information includes the unique information (ID) of the endoscope 2, the year, the spec information, the transmission method, and the arrangement information of the filters applied to the color filter 202a.
  • the imaging information storage unit 206 is realized using a flash memory or the like.
  • the light source unit 3 includes an illumination unit 31 and an illumination control unit 32.
  • the illumination unit 31 switches and emits a plurality of illumination lights having different wavelength bands under the control of the illumination control unit 32.
  • the illumination unit 31 includes a light source 31a, a light source driver 31b, a switching filter 31c, a drive unit 31d, a drive driver 31e, and a condensing lens 31f.
  • Light source 31a emits under the control of the illumination control unit 32, the red, green and blue wavelength band H R, the white illumination light including light of H G and H B.
  • the white illumination light generated by the light source 31 a is emitted from the distal end portion 24 to the outside via the switching filter 31 c, the condenser lens 31 f and the light guide 203.
  • the light source 31 a is realized using a light source that emits white light, such as a white LED or a xenon lamp.
  • the light source driver 31 b causes the light source 31 a to emit white illumination light by supplying current to the light source 31 a under the control of the illumination control unit 32.
  • the switching filter 31c transmits only the narrow band light of blue and the narrow band light of green among the white illumination light emitted from the light source 31a.
  • the switching filter 31 c is detachably disposed on the optical path of the white illumination light emitted by the light source 31 a under the control of the illumination control unit 32.
  • the switching filter 31 c transmits only two narrow band lights by being disposed on the light path of the white illumination light.
  • switching filter 31c includes an optical narrow-band T B included in the wavelength band H B (e.g., 400 nm ⁇ 445 nm), narrow-band T G included in the wavelength band H G (e.g., 530 nm ⁇ 550 nm) And narrow band illumination light consisting of The narrow bands T B and T G are wavelength bands of blue light and green light which are easily absorbed by hemoglobin in blood.
  • narrowband T B may be contained at least 405 nm ⁇ 425 nm.
  • the light which is limited and emitted in this band is called narrow band illumination light, and observation of the image by the narrow band illumination light is called narrow band light observation (NBI) method.
  • NBI narrow band light observation
  • the driving unit 31 d is configured using a stepping motor, a DC motor, or the like, and operates the switching filter 31 c from the light path of the light source 31 a.
  • the drive driver 31 e supplies a predetermined current to the drive unit 31 d under the control of the illumination control unit 32.
  • the condensing lens 31 f condenses the white illumination light emitted from the light source 31 a or the narrowband illumination light transmitted through the switching filter 31 c, and emits the light to the outside (light guide 203) of the light source unit 3.
  • the illumination control unit 32 controls the light source driver 31b to turn on and off the light source 31a, and controls the drive driver 31e to insert and remove the switching filter 31c from the light path of the light source 31a. Control the type (band) of the emitted illumination light.
  • the illumination control unit 32 operates the switching filter 31c with respect to the light path of the light source 31a to make the illumination light emitted from the illumination unit 31 be either white illumination light or narrowband illumination light. Control to switch to In other words, the illumination control unit 32 uses the white illumination light observation (WLI) method using the white illumination light including the light in the wavelength bands H B , H G and H R , and the light in the narrow bands T B and T G Control is performed to switch to any of the narrowband light observation (NBI) observation methods using narrowband illumination light.
  • WLI white illumination light observation
  • NBI narrowband light observation
  • white illumination light observation (WLI) in the manner green component (wavelength band H G) is the luminance component (the first luminance component) and the blue component in the narrow band imaging (NBI) system (narrowband T B) luminance It becomes a component (second luminance component). Therefore, in the imaging device 202 according to the present embodiment, the G pixel corresponds to the first pixel, the B pixel corresponds to the second pixel, and the R pixel corresponds to the third pixel.
  • the luminance component in the present invention means, for example, a color component which is a main component of the luminance signal Y of the XYZ color system described later.
  • a green component which has the highest relative luminous sensitivity of human eyes and in which a blood vessel or duct structure of a living body is clearly depicted becomes a luminance component.
  • the luminance component selected differs depending on the subject, and the green component may be selected as in white illumination light observation, or the luminance component may be different from white light observation.
  • the NBI observation described above as a representative example of a blue component or a red component becoming a luminance component in narrow band light observation, and in this case, a blue component in which a blood vessel or duct structure in the surface of a living body is clearly depicted. Is the luminance component.
  • the green component is used as a luminance component in white illumination light observation
  • the blue component is used as a luminance component in narrowband light observation.
  • FIG. 5 is a graph showing the relationship between the wavelength of the illumination light emitted by the illumination unit 31 and the amount of light.
  • FIG. 6 is a graph showing the relationship between the wavelength of the illumination light by the switching filter 31c of the illumination unit 31 and the transmittance.
  • the illumination unit 31 is a white light including light in the wavelength bands H B , H G and H R as shown in the white light spectrum shown in FIG. Emit illumination light.
  • the control of the illumination control unit 32 inserts the switching filter 31c in the optical path of the light source 31a, an illumination unit 31, narrowband T B, emits narrow band illumination light comprising light of T G (see FIG. 6 ).
  • the processor unit 4 includes an image processing unit 41, an input unit 42, a storage unit 43, and a control unit 44.
  • the image processing unit 41 executes predetermined image processing based on the electric signal from the endoscope 2 (A / D conversion unit 205) to generate image information to be displayed by the display unit 5.
  • the image processing unit 41 includes a pre-processing unit 411, an interpolation processing unit 412, and a display image generation processing unit 413.
  • the pre-processing unit 411 performs optical black (OB) clamping, noise reduction (NR) processing, and white balance (WB) processing on the electric signal from the A / D conversion unit 205. Then, the image signal after the signal processing is output to the interpolation processing unit 412.
  • OB optical black
  • NR noise reduction
  • WB white balance
  • FIG. 7 is a block diagram for explaining the configuration of the pre-processing unit 411.
  • the pre-processing unit 411 includes an OB processing unit 4111, an NR processing unit 4112, and a WB processing unit 4113.
  • the OB processing unit 4111 performs OB clamping processing on the R signal, the G signal, and the B signal of the image signal input from the A / D conversion unit 205.
  • OB clamping process an average value of a predetermined area corresponding to the optical black area is calculated based on the electric signal input from the endoscope 2 (A / D conversion unit 205), and the average value is calculated from the electric signal. By subtracting, the black level is corrected to a zero value.
  • the NR processing unit 4112 acquires observation method information regarding whether the current observation method is the WLI method or the NBI method from the control unit 44, changes the noise reduction amount according to the observation method information, and performs OB Noise reduction processing is performed on the image signal subjected to the clamp processing.
  • the WB processing unit 4113 performs white balance processing based on the observation method information on the image signal subjected to the noise reduction processing, and outputs the image signal after the white balance processing to the interpolation processing unit 412.
  • the WB processing unit 4113 performs balance correction processing on the signals between the two channels when the signals of the channels (color components) obtained by the narrow band light observation (NBI) method are two (G signal and B signal). The remaining one channel (R signal in the first embodiment) is multiplied by zero.
  • the interpolation processing unit 412 determines the interpolation direction from the correlation of color information (pixel values) of a plurality of pixels based on the image signal input from the pre-processing unit 411, and colors of pixels aligned in the determined interpolation direction. By performing interpolation based on the information, a color image signal having signals of at least two color components is generated.
  • the interpolation processing unit 412 includes a G interpolation color difference calculating unit 412a, a color difference interpolating unit 412b, a color image signal generating unit 412c, a G signal specific frequency component extracting unit 421d, and a specific frequency component adding unit 412e.
  • the G interpolation color difference calculation unit 412a interpolates a G signal (R pixel or B pixel) in which the G signal is missing from the image signal input from the pre-processing unit 411 based on the peripheral pixels thereof ( Hereinafter, the interpolation G signal is generated, and a G signal image in which all pixel positions have the G signal or the interpolation G signal is output. That is, by the interpolation processing of the G interpolation color difference calculating unit 412a, an image signal constituting one image in which each pixel has a pixel value of G component or an interpolation value is generated.
  • the G interpolation color difference calculation unit 412a generates an RG signal or a BG signal which is a color difference signal obtained by taking the color difference between the signal of each color component and the interpolation G signal according to the position of the R pixel or B pixel. , Output as a color difference image signal.
  • the G interpolation color difference calculating unit 412a outputs the generated G signal image to the color image signal generating unit 412c, and outputs the color difference image signal to the color difference interpolating unit 412b.
  • the color difference interpolation unit 412b interpolates the color difference signal missing at each pixel position with respect to the color difference image signal input from the G interpolation color difference calculation unit 412a, and the color difference image signal in which all pixel positions have color difference signals It is output to the image signal generation unit 412c. That is, by the interpolation processing of the color difference interpolation unit 412b, an image signal that constitutes one image in which each pixel has a value of the color difference signal RG or BG is generated.
  • the color image signal generation unit 412c applies an interpolation filter to the G signal, the RG signal, and the BG signal generated by the G interpolation color difference calculation unit 412a and the color difference interpolation unit 412b.
  • FIG. 8 is a schematic diagram for explaining the frequency characteristics of interpolation filter processing performed by the interpolation processing unit 412 according to the embodiment of the present invention, and is a graph showing the response of the signal to the frequency.
  • the color image signal generation unit 412c applies an interpolation filter having low-pass filter characteristics as shown in FIG. 8 at half pixel positions in the horizontal direction and the vertical direction.
  • the frequency characteristics are periodically different between the signal at the pixel position originally provided to the image pickup element 202 and the signal generated by the interpolation processing using the signal values of the peripheral pixels (in particular, the G signal has the Nyquist frequency) Make the period of NF) spatially uniform.
  • the color image signal generation unit 412 c adds the G signal (including the interpolation G signal) at each pixel position and the color difference signal (the BG signal or the RG signal) after the above-described interpolation filter processing.
  • the RGB signal or the GB signal is generated by the above-mentioned method, and the generated signal is output to the display image generation processing unit 413 as a color image signal.
  • the color image signal generation unit 412c causes the color difference image signal having the BG signal and the color difference image signal having the RG signal to be output from the color difference interpolation unit 412b. Acquire and generate R component, G component and B component signals (RGB signals).
  • the color image signal generation unit 412 c acquires only the color difference image signal having the BG signal from the BG interpolation unit 4004 because there is no light of R component. , G component and B component signal (GB signal) are generated.
  • the G signal specific frequency component extraction unit 421d is configured to set a predetermined one of the color signals to the G signal which is the signal of the luminance component of the WLI system among the signals having red, green and blue as components generated by interpolation.
  • a specific frequency component signal having the spatial frequency component of B as a component is extracted.
  • the G signal specific frequency component extraction unit 421d receives the G signal among the RGB signals generated by the color image signal generation unit 412c, and for the G signal, a blood vessel region that is a structure or A specific frequency component signal having a frequency component according to the dark area (dark portion) of the recess is extracted.
  • the spatial frequency component is, for example, amplitude information of pixel values for each spatial frequency band obtained by converting a color space constituting a predetermined color system such as R, G, B, etc. into a frequency space.
  • the specific frequency component adder 412e receives the R signal and / or B signal generated by the color image signal generator 412c and the specific frequency component signal extracted by the G signal specific frequency component extractor 421d, and inputs the R signal or A specific frequency component signal corresponding to each color component is added to the B signal.
  • the specific frequency component adder 412e acquires observation mode information (information indicating which of the illumination method is the white illumination light observation (WLI) method and the narrow band light observation (NBI) method), If the illumination method is the WLI method, the specific frequency component signal according to each color component is added to at least one of the R signal and the B signal, and if it is the NBI method, it is added to the B signal On the other hand, specific frequency component signals corresponding to the B component are added.
  • observation mode information information indicating which of the illumination method is the white illumination light observation (WLI) method and the narrow band light observation (NBI) method
  • the display image generation processing unit 413 performs color conversion processing on the color image signal generated by the interpolation processing unit 412, for example, in the color space of the display unit 5, which is the color space of sRGB (XYZ color system), And gradation processing based on the gradation conversion characteristics of the image, enlargement processing, or structure enhancement processing of a structure such as a capillary blood vessel or a mucous membrane fine pattern of the mucous membrane surface layer. After performing the predetermined processing, the display image generation processing unit 413 outputs the signal after the processing to the display unit 5 as a display image signal for display.
  • the input unit 42 is an interface for performing input from the operator or the like to the processor unit 4, a power switch for turning on / off the power, and a mode switching button for switching the imaging mode and other various modes.
  • An illumination light switching button for switching the illumination light of the light source unit 3 is included.
  • the storage unit 43 is used for data processing including various programs for operating the endoscope apparatus 1 and various parameters necessary for the operation of the endoscope apparatus 1 and image processing such as a white balance coefficient according to an observation method. Necessary data, a program for executing image processing according to the present invention, and the like are recorded. In addition, the storage unit 43 may store information related to the endoscope 2, for example, a relation table between unique information (ID) of the endoscope 2 and information related to the filter arrangement of the color filter 202a.
  • the storage unit 43 is realized using a semiconductor memory such as a flash memory or a dynamic random access memory (DRAM).
  • the control unit 44 is configured using a CPU or the like, and performs drive control of each component including the endoscope 2 and the light source unit 3 and input / output control of information with respect to each component.
  • the control unit 44 transmits setting data (for example, a pixel to be read) for imaging control recorded in the storage unit 43, a timing signal according to imaging timing, and the like via a predetermined signal line to the endoscope.
  • the control unit 44 outputs the color filter information (identification information) acquired through the imaging information storage unit 206 to the image processing unit 41, and also causes the light source unit 3 to provide information on the insertion / removal operation (arrangement) of the switching filter 31c. Output.
  • the display unit 5 receives the display image signal generated by the processor unit 4 via the video cable, and displays the in-vivo image corresponding to the display image signal.
  • the display unit 5 is configured using liquid crystal or organic EL (Electro Luminescence).
  • FIG. 9 is a block diagram for explaining the configuration of the main part of the interpolation processing unit 412, and shows the configuration of the G interpolation color difference calculation unit 412a, the color difference interpolation unit 412b, and the color image signal generation unit 412c.
  • the color difference interpolation unit 412 b includes a color difference separation unit 4001, a BG correlation determination unit 4002, a BG interpolation direction determination unit 4003, a BG interpolation unit 4004, an RG correlation determination unit 4005, an RG interpolation direction determination unit 400 and an RG interpolation unit 4007.
  • the color difference separation unit 4001 separates the color difference image signal output from the G interpolation color difference calculation unit 412a into the BG signal and the RG signal, and the BG signal is determined by the BG correlation determination unit 4002 and the BG signal. While outputting to the interpolation direction determination unit 4003, the R-G signal is output to the R-G correlation determination unit 4005 and the R-G interpolation direction determination unit 4006.
  • FIG. 10 is a schematic diagram for explaining the demosaicing process performed by the processor unit (interpolation processing unit 412).
  • the separated BG signal and RG signal are arranged according to the B pixel position and the R pixel position as shown in the schematic view of FIG.
  • the BG correlation determination unit 4002 sets an R pixel having an RG signal as a target pixel, and generates a BG signal of a pixel adjacent to the target pixel.
  • Calculate the correlation of FIG. 11 is a schematic diagram for explaining the demosaicing process performed by the processor unit (interpolation processing unit 412). Specifically, as shown in FIG. 11, the BG correlation discrimination unit 4002 sets the coordinates of the pixel of interest (pixel P ij ) to (k, l), and sets the BG signal at four adjacent pixel positions.
  • the color difference signal values are f B-G (k-1, l-1), f B-G (k + 1, l-1), f B- G (k-1, l + 1), f B- G (k + 1, l + 1)
  • the correlation value Ss in the diagonally upward direction is calculated based on the following expression (1).
  • the obliquely upward direction is a direction from the lower left to the upper right in the arrangement of the pixels shown in FIG. 3
  • the obliquely downward direction is a direction from the upper left to the lower right in the arrangement of the pixels shown in FIG.
  • the signal value of the pixel at the folded position is used.
  • the BG correlation determination unit 4002 calculates the correlation value Sb in the diagonally lower direction based on the following expression (2).
  • said Formula (1) and (2) although it calculates using the signal value of two pixels located in the diagonal direction, it is not limited to this. It is possible to improve the reliability of the correlation value calculated by using the BG signal at pixels farther away in the same direction centering on the target pixel.
  • the BG correlation discrimination unit 4002 determines the direction of the correlation value, which is the smaller one of the correlation values Ss and Sb, It is determined that the correlation is in the higher direction.
  • the BG correlation determination unit 4002 determines that there is no correlation in the specific direction.
  • the BG correlation discrimination unit 4002 outputs, to the BG interpolation direction discrimination unit 4003, determination information indicating one of “obliquely upward direction”, “obliquely downward direction” and “no correlation in specific direction”.
  • the threshold is set as a value in consideration of noise included in the signal.
  • the BG interpolation direction determination unit 4003 uses the determination information from the BG correlation determination unit 4002 and the color difference signal value of the BG signal to calculate the interpolation color difference of the BG signal in the pixel of interest (k, l).
  • the signal value f B ⁇ G (k, l) is calculated by any one of the following equations (3) to (5). [When the determination information is "obliquely upward”] When the determination information is “obliquely upward”, the B-G interpolation direction determination unit 4003 calculates the interpolation color difference signal value f B-G (k, l) of the B-G signal in the pixel of interest (k, l) Calculated based on (3).
  • the B-G interpolation direction determination unit 4003 calculates the interpolation color difference signal value f B-G (k, l) of the B-G signal in the pixel of interest (k, l) Calculated based on (4).
  • the B-G interpolation direction determination unit 4003 determines the interpolation color difference signal value f B-G (k, l) of the BG signal in the pixel of interest (k, l). Calculated based on the following equation (5).
  • the above equation (5) is the average value of the BG signals of the four surrounding pixels, interpolation using BG signals of 16 or more surrounding pixels which can hold higher spatial frequencies is You may go.
  • B-G interpolation direction determination unit 4003 the pixel of interest (k, l) interpolation chrominance signal values for f B-G (k, l ) by calculation of, B-G signal comprising interpolated color difference signal in a checkered pattern
  • the color difference signal for the arranged color difference B-G is output to the B-G interpolator 4004.
  • the BG interpolation unit 4004 calculates an interpolated color difference signal value of the BG signal at a pixel position missing from the color difference signal (BG signal) from the BG interpolation direction determination unit 4003. For example, the BG interpolation unit 4004 generates the interpolation value f B ⁇ G (k, l ⁇ 1) of the pixel position (k, l ⁇ 1) missing in the pixel arrangement shown in FIG. Calculated based on Although the above equation (6) is the average value of the BG signals of the four surrounding pixels, it is possible to interpolate using the BG signals of more than sixteen surrounding pixels capable of holding higher spatial frequencies. You may go.
  • the BG interpolation unit 4004 outputs a color difference image signal having BG signals at all pixel positions to the color image signal generation unit 412c by calculating the interpolation color difference signal value with respect to the missing pixel position of the BG signal. That is, by the interpolation processing of the BG interpolation unit 4004, color difference signals are generated which constitute one image in which each pixel has a color difference signal value for color difference BG or an interpolated color difference signal value.
  • the RG correlation discrimination unit 4005 sets the B pixel having the BG signal as the target pixel for the RG signal output from the color difference separation unit 4001 in the same manner as the BG correlation discrimination unit 4002, The correlation of the R-G signal of the pixel adjacent to the target pixel is calculated.
  • the RG correlation discrimination unit 4005 replaces B with R in Equations (1) and (2) to calculate correlation values Ss and Sb.
  • the RG correlation discrimination unit 4005 determines that there is no “diagonal upward”, “diagonal downward” and “specific direction correlation based on the correlation value Ss, the correlation value Sb, the difference absolute value
  • the RG interpolation direction determination unit 4006 uses the determination information from the RG correlation determination unit 4005 and the color difference signal value of the RG signal in the same manner as the BG interpolation direction determination unit 4003, Interpolated color difference signal values f R-G (k, l) of R-G signals are calculated by (k, l) according to any one of the expressions (3) to (5).
  • the RG interpolation direction determination unit 4006 reads B as R in the equations (3) to (5) to calculate an interpolated color difference signal value f R -G (k, l).
  • the RG interpolation direction discrimination unit 4006 checks the RG signal including the color difference signal interpolated by calculating the interpolation color difference signal value f RG (k, l) for the pixel of interest (k, l) in a checkered manner.
  • the color difference signal for the arranged color difference RG is output to the RG interpolation unit 4007.
  • the RG interpolation unit 4007 Similarly to the BG interpolation unit 4004, the RG interpolation unit 4007 generates an RG signal at a pixel position missing from the color difference signal (RG signal) from the RG interpolation direction determination unit 4006. Calculate interpolated color difference signal values of the signal.
  • the RG interpolation unit 4007 outputs a chrominance image signal having an RG signal at every pixel position to the color image signal generation unit 412c by calculating an interpolated color difference signal value with respect to a missing pixel position of the RG signal. That is, by the interpolation processing of the RG interpolation unit 4007, color difference signals are generated which constitute one image in which each pixel has a color difference signal value for color difference RG or an interpolation color difference signal value.
  • the color difference interpolation unit 412 b outputs the color difference signal to the color image signal generation unit 412 c by the above-described interpolation processing.
  • the observation method is the WLI method
  • the chrominance image signal having the BG signal and the chrominance image signal having the RG signal are respectively from the BG interpolation unit 4004 and the RG interpolation unit 4007. It is output.
  • the observation method is the NBI method, no R component light is present, so only the color difference image signal having the BG signal from the BG interpolation unit 4004 is input to the color image signal generation unit 412c. Be done.
  • FIG. 12 is a block diagram for explaining the configuration of the main part of the interpolation processing unit 412, and shows the configuration of the color image signal generation unit 412c, the G signal specific frequency component extraction unit 421d and the specific frequency component addition unit 412e. is there.
  • the G signal specific frequency component extraction unit 421 d includes a filter processing unit 4101, a clip processing unit 4102, and a gain processing unit 4103.
  • the filter processing unit 4101 receives the G signal among the RGB signals generated by the color image signal generation unit 412c, and performs filter processing using a high pass filter.
  • FIGS. 13 and 14 are schematic diagrams for explaining the frequency characteristics of the filtering process performed by the filter processing unit 4101 according to the embodiment of the present invention.
  • FIG. 15 is a schematic view illustrating a signal after filtering processing performed by the filter processing unit 4101 according to the embodiment of the present invention. Note that FIG. 15 shows signal levels at pixel positions in one line (for example, in the horizontal direction) where the pixel arrangement shown in FIG. 3 is present.
  • the G signal is a signal limited to the frequency characteristic as shown in FIG. 8 by the interpolation filter processing in the color image signal generation unit 412c.
  • the filter processing unit 4101 performs filter processing on the G signal generated by the color image signal generation unit 412 c using a high pass filter having response characteristics (frequency characteristics) as shown in FIG. 13.
  • the G signal subjected to the high-pass filter processing by the filter processing unit 4101 has a composite characteristic of the frequency characteristic shown in FIG. 8 and the frequency characteristic shown in FIG. 13 and consequently the band pass characteristic limited to the frequency characteristic shown in FIG. It becomes a signal (a response signal) to have.
  • the band pass characteristic signal output from the filter processing unit 4101 becomes a specific frequency component signal having positive and negative values based on the zero level at which the low frequency component is cut as shown in FIG.
  • a positive value area R s corresponds to a bright small area such as a small bright spot, a bright area of a convex portion of a living body, or a mucosal area where the hemoglobin content is locally smaller than that of a peripheral area, and has a negative value.
  • the regions R v 1 and R v 2 correspond to the dark regions of blood vessels and depressions.
  • the blood vessels in the mucous membrane absorb light of narrow band TG by hemoglobin contained in the blood, and the small diameter blood vessel of the mucous membrane surface layer, the medium diameter blood vessel of the mucous membrane middle layer, the large diameter blood vessel of the mucous membrane layer is less It will be a dark area.
  • the amount of light absorption of narrow band TG increases as the amount of hemoglobin increases (that is, as blood vessels become thicker). Since the area other than the blood vessel has a small content of hemoglobin, the amount of reflected light is larger than that of the blood vessel area, and the area becomes brighter (at a high luminance value) on average.
  • the zero level shown in FIG. 15 generally corresponds to the signal level in the area other than the blood vessel.
  • a large diameter blood vessel which is a deep blood vessel is roughly cut by the high pass filter characteristic processed by the filter processing unit 4101, and the characteristic of the high pass filter is designed such that the middle layer and the surface layer are extracted.
  • the frequency characteristic of the blood vessel in the G signal changes depending on the observation distance and the number of pixels of the endoscope 2 (insertion portion 21).
  • the main focus was on determining the running state of the superficial blood vessels in the close state, mainly observing the color of a wider area (area exhibiting a brownish color in which the superficial blood vessels are dense) in distant view. A diagnosis has been made and it is possible to set the predetermined viewing distance.
  • the clip processing unit 4102 receives the specific frequency component signal as shown in FIG. 15 output from the filter processing unit 4101 as shown in FIG. 15, and limits the specific frequency component signal limited by a preset clip threshold different between positive and negative values.
  • Generate FIG. 16 is a schematic view for explaining signals after clip processing by the clip processing unit 4102 according to the embodiment of the present invention.
  • the clip processing unit 4102 sets the clip upper limit value to a zero level and extracts the clip lower limit value based on a range (clip range) set as a predetermined negative value.
  • the absolute value of the clip lower limit value in the present embodiment is larger than the absolute value of the above-described regions R v1 and R v 2.
  • the clip processing unit 4102 cuts a region R s such as a bright spot and extracts only the regions R v 1 and R v 2 which are dark regions of the blood vessel region or the recess.
  • the specific frequency component signal clipped by the clip processing unit 4102 is output to the gain processing unit 4103.
  • the clip processing unit 4102 has been described as extracting the blood vessel region with two threshold values, but the present invention is not limited to this. It may be possible to extract. Further, for example, by combining non-linear low-pass processing such as morphology, it is also possible to extract only a recess having a width equal to or less than a predetermined width.
  • the clip ranges described above may be the same range regardless of the observation method, or may be different ranges depending on the observation method.
  • the clip processing unit 4102 obtains observation mode information from the control unit 44, determines the observation method, and performs signal extraction in the clip range corresponding to the determined observation method.
  • the gain processing unit 4103 calculates the amount of gain with respect to the signal value of the G signal after the clip processing by the clip processing unit 4102, and multiplies the specific frequency component signal by the calculated amount of gain.
  • FIG. 17 is a schematic diagram for explaining gain processing performed by the gain processing unit 4103 according to the embodiment of the present invention. Specifically, the gain processing unit 4103 receives the clipped specific frequency component signal output from the clip processing unit 4102 and the G signal output from the color image signal generation unit 412c. The gain processing unit 4103 calculates a gain amount according to the signal level of the G signal as shown in FIG. 17, multiplies the calculated gain amount by the specific frequency component signal, and obtains the final specific frequency component signal obtained. Are output to the specific frequency component adder 412e.
  • the gain amount having the characteristics as shown in FIG. 17 is that the increase of the noise amount in the dark part is suppressed, and the amplitude of the blood vessel area extracted in the area of the predetermined brightness or more is amplified by .alpha.
  • is determined in advance as an amount to compensate for the attenuation of the blood vessel depicted in the B signal or R signal due to the interpolation processing in the previous stage.
  • FIG. 18 is a block diagram for explaining the configuration of the main part of the interpolation processing unit 412, and is a color image signal generating unit 412c, a G signal specific frequency component extracting unit 421d, a specific frequency component adding unit 412e, and a display image generation processing unit It is a figure which shows the structure of 413.
  • the specific frequency component adder 412 e includes a first switching unit 4201, a first adder 4202, a second switching unit 4203, and a second adder 4204.
  • the first switching unit 4201 When the first switching unit 4201 receives the B signal from the color image signal generation unit 412 c and acquires observation mode information indicating that the illumination method is the WLI method, the input B signal is sent to the display image generation processing unit 413. Output. On the other hand, when acquiring the observation mode information to the effect that the illumination method is the NBI method, the first switching unit 4201 outputs the input B signal to the first addition unit 4202. In this manner, the first switching unit 4201 switches the output destination of the B signal input according to the observation mode information (illumination method).
  • the first addition unit 4202 receives the B signal output from the first switching unit 4201 and the specific frequency component signal output from the G signal specific frequency component extraction unit 421d, and adds the specific frequency component signal to the B signal. Do.
  • the first addition unit 4202 outputs the addition B signal obtained by the addition to the display image generation processing unit 413.
  • the second switching unit 4203 When the second switching unit 4203 receives the R signal from the color image signal generation unit 412 c and obtains observation mode information indicating that the illumination method is the NBI method, the input R signal is sent to the display image generation processing unit 413. Output. On the other hand, when the second switching unit 4203 acquires observation mode information indicating that the illumination method is the WLI method, the second switching unit 4203 outputs the input R signal to the second addition unit 4204. Thus, the second switching unit 4203 switches the output destination of the R signal input according to the observation mode information (illumination method).
  • the second addition unit 4204 receives the R signal output from the second switching unit 4203 and the specific frequency component signal output from the G signal specific frequency component extraction unit 421 d, and adds the specific frequency component signal to the R signal. Do.
  • the second addition unit 4203 outputs the addition R signal obtained by the addition to the display image generation processing unit 413.
  • the illumination method is the NBI method
  • the meaning of adding the specific frequency component signal to the B signal will be described.
  • the superficial blood vessel has a small amount of hemoglobin, so the amount of light absorbed in the narrow band TG is small, and the difference in signal value with the peripheral mucosa is small.
  • the amount of hemoglobin in the medium-diameter blood vessel is larger than that of the superficial blood vessel, the amount of light absorbed in the narrow band TG is further increased, and a difference in signal value with the peripheral mucosa is obtained.
  • the B signal is subjected to interpolation processing to maintain the frequency band as much as possible by the color difference interpolation unit 412b and the color image signal generation unit 412c as described above, since the interpolation processing itself has lowpass filter characteristics, high frequency components are attenuated The contrast (signal amplitude) of the small diameter blood vessel image and the medium diameter blood vessel image is reduced.
  • a signal corresponding to the large diameter blood vessel image is not extracted, and a signal corresponding to the medium diameter blood vessel image and the small diameter blood vessel image is extracted as the specific frequency component signal. Note that regions other than blood vessels are not extracted by the clipping process, and unnecessary noise mixing can also be suppressed for the specific frequency component signal.
  • a specific frequency component image of the small diameter blood vessel or a specific frequency component image of the middle diameter blood vessel is added to the small diameter blood vessel image or middle diameter blood vessel image of the B signal.
  • the contrast of the blood vessel image in the B signal can be improved as compared with the case of the B signal alone.
  • the illumination system is NBI mode
  • only for the mucosal surface of the capillaries to absorb only light in a narrow band T B there is a case where the absorption of light in a narrow band T G is hardly obtained.
  • a capillary image can not be drawn by the G signal, and a specific frequency component of the G signal can not be added to the G signal.
  • the reduction in resolution of the B signal can be minimized by performing direction determination interpolation on the BG signal by the color difference interpolation unit 412b.
  • the display image generation processing unit 413 combines the G signal output from the color image signal generation unit 412c and the B signal (or addition B signal) and R signal (or addition R signal) output from the specific frequency component addition unit 412e. On the other hand, after the processing described above is performed, the signal after the processing is output to the display unit 5 as a display image signal for display.
  • FIG. 19 is a flowchart illustrating signal processing performed by the processor unit 4.
  • the processor unit 4 acquires an electrical signal from the endoscope 2 (tip portion 24)
  • the processor unit 4 outputs the electrical signal to the pre-processing unit 411 (step S101).
  • the electrical signal from the endoscope 2 is a signal including RAW image data generated by the imaging element 202 and converted into a digital signal by the A / D conversion unit 205.
  • the pre-processing unit 411 When the electrical signal is input to the pre-processing unit 411, the pre-processing unit 411 performs the above-described OB clamp processing, noise reduction processing, and white balance processing, and outputs the image signal after signal processing to the interpolation processing unit 412. (Step S102).
  • the G interpolation color difference calculating unit 412a transmits a signal (R pixel or B pixel) for which the G signal is missing.
  • An interpolated G signal is generated, and a G signal image in which all pixel positions have a G signal (pixel value) or an interpolated G signal (interpolated value) is output to the color image signal generation unit 412c. (Step S103).
  • the G interpolation color difference calculation unit 412a selects observation mode information (in which one of the white illumination light observation method and the narrow band light observation method is generated) as the input electric signal. It acquires and judges (step S104). Specifically, based on the control signal from the control unit 44 (for example, information on illumination light or information indicating an observation method), the G interpolation color difference calculation unit 412a is generated by which observation method To judge.
  • the G interpolation color difference calculation unit 412a determines that the input electrical signal is generated by the white illumination light observation method (step S104; WLI)
  • the color components of each color component are determined according to the positions of the R pixel and B pixel.
  • R G and B G signals which are color difference signals taking the color difference between the signal and the interpolated G signal, are generated, and are output to the color difference interpolation unit 412 b as color difference image signals (step S 105).
  • the G interpolation color difference calculating unit 412a determines that the input electric signal is generated by the narrow band light observation method (step S104; NBI)
  • the B component is selected according to the position of the B pixel.
  • the BG signal which is a color difference signal taking the color difference between the G signal and the interpolation G signal, is generated, and is output to the color difference interpolation unit 412b as a color difference image signal (step S106).
  • the color difference interpolation unit 412b performs color difference interpolation processing based on the color difference image signal acquired from the G interpolation color difference calculation unit 412a (step S107). Specifically, the color difference interpolation unit 412b interpolates the color difference signal missing at each pixel position with respect to the color difference image signal input from the G interpolation color difference calculation unit 412a, and all pixel positions have color difference signals.
  • the color difference image signal is output to the color image signal generation unit 412c. That is, according to the interpolation processing of the color difference interpolation unit 412b, in the case of the white illumination light observation method, an image signal constituting one image in which each pixel has the values of the color difference signals RG and BG is generated. In the case of the band light observation method, an image signal is generated which constitutes a single image in which each pixel has a value of the color difference signal BG.
  • the color image signal generation unit 412c configures a color image using the pixel value and the interpolation value of the G component generated by the G interpolation color difference calculation unit 412a and the signal value of the color difference image signal generated by the color difference interpolation unit 412b.
  • To generate a color image signal (step S108). Specifically, the color image signal generation unit 412c adds the RGB signal or GB by adding the G signal or the interpolated G signal at each pixel position and the color difference signal (BG signal or RG signal). A signal is generated, and a G signal is output to the G signal specific frequency component extraction unit 421d and the display image generation processing unit 413, and an RB signal is output to the specific frequency component addition unit 412e.
  • the G signal specific frequency component extraction unit 421d extracts a specific frequency component signal from the G signal among the RGB signals generated by the color image signal generation unit 412c. Specifically, first, the filter processing unit 4101 receives a G signal among the RGB signals generated by the color image signal generation unit 412c, and performs a filter process using a high pass filter (step S109).
  • the clip processing unit 4102 performs clipping processing on the specific frequency component signal (see FIG. 15) output from the filter processing unit 4101, and the specific frequency component signal limited by the preset clip lower limit value and clip upper limit value. Are generated (step S110: specific frequency component extraction step).
  • the gain processing unit 4103 calculates the amount of gain with respect to the signal value of the G signal after the clip processing by the clip processing unit 4102, and multiplies the specific frequency component signal by the calculated amount of gain (step S111).
  • the specific frequency component addition unit 412e receives the R signal and the B signal generated by the color image signal generation unit 412c and the specific frequency component signal extracted by the G signal specific frequency component extraction unit 421d.
  • the specific frequency component signal according to each color component is added to the B signal according to the observation mode information (step S112: specific frequency component addition step).
  • the specific frequency component adder 412e refers to the above-mentioned observation mode information, and adds the specific frequency component signal according to each color component to the R signal and the B signal if the illumination method is the WLI method, and NBI In the case of the method, a specific frequency component signal corresponding to the B component is added to the B signal.
  • the display image generation processing unit 413 combines the G signal output from the color image signal generation unit 412c and the B signal (or addition B signal) and R signal (or addition R signal) output from the specific frequency component addition unit 412e.
  • tone conversion, enlargement processing, or structure emphasizing processing of a structure such as a capillary or a mucous membrane fine pattern of a mucous membrane surface layer is performed to generate a display image signal for display (step S113).
  • the display image generation processing unit 413 performs predetermined processing, and then outputs the processing to the display unit 5 as a display image signal.
  • the G signal specific frequency component extraction unit for the color image signal generated by the color image signal generation unit 412c. 421 d extracts the specific frequency component signal from the G signal among the RGB signals generated by the color image signal generation unit 412 c, and the specific frequency component addition unit 412 e adds the specific frequency component signal to the B signal.
  • the specific frequency component addition unit 412 e adds the specific frequency component signal to the B signal.
  • the WLI method in the case of the WLI method, high resolution is ensured by performing interpolation processing using signal values of G pixels, and in the case of the NBI method, a specific frequency component signal for the blue component signal Because the region corresponding to the dark region of the blood vessel or the recess is compensated for, the white light observation with the green component as the luminance component and the narrow band observation with the blue component as the luminance component The resolution can be increased.
  • the BG signal and the RG signal with respect to the BG signal and the RG signal, higher correlation can be achieved by using only the BG signal or the RG signal in the vicinity of the target pixel position. Since the direction is determined and interpolation is performed using the BG signal or the RG signal in which the determined correlation is high, structures such as capillaries and deep blood vessels that are hardly correlated with the G signal It is possible to minimize the decrease in resolution of
  • FIG. 20 is a schematic view showing a schematic configuration of an endoscope apparatus 1a according to a modification of the embodiment of the present invention.
  • the light source unit 3 has a switching filter 31c, a white illumination light observation mode by insertion and removal of said switching filter 31c, narrowband T B, the narrow band illumination light comprising light of T G
  • the light source unit 3a is replaced with the light source unit 3 and the observation method is switched by the rotation filter 31g.
  • the endoscope apparatus 1a includes the endoscope 2 described above, the processor unit 4, the display unit 5, and a light source unit 3a that generates illumination light emitted from the tip of the endoscope 2.
  • the light source unit 3 a includes an illumination unit 31 and an illumination control unit 32.
  • the illumination unit 31 switches and emits a plurality of illumination lights having different wavelength bands under the control of the illumination control unit 32.
  • the illumination unit 31 includes the light source 31a, the light source driver 31b, the drive unit 31d, the drive driver 31e and the condenser lens 31f described above, and the rotation filter 31g.
  • FIG. 21 is a schematic view showing the configuration of the rotary filter 31g of the light source unit 3a according to the modification of the embodiment of the present invention.
  • the rotary filter 31 g has a rotary shaft 310 and a disk-like rotary portion 311 supported by the rotary shaft 310.
  • the rotating portion 311 has three filters (filters 312 to 314) arranged in the area obtained by dividing the main surface into three.
  • the filter 312 transmits white illumination light including light in the red, green and blue wavelength bands H R , H G and H B.
  • a narrowband T B (e.g., 400 nm ⁇ 445 nm) included in the wavelength band H B and light
  • narrow-band T G (e.g., 530 nm ⁇ 550 nm) included in the wavelength band H G and light, consisting of A narrow band illumination light (in this modification, the first narrow band illumination light) is transmitted.
  • the light transmitted by the filter 313 corresponds to the narrow band illumination light of the narrow band light observation (NBI) method described above.
  • FIG. 22 is a graph showing the relationship between the wavelength of the illumination light by the filter of the illumination unit 31 of the endoscope apparatus 1a according to the modification of the embodiment of the present invention and the transmittance.
  • the filter 314 is a narrow band illumination light composed of the light of the narrow band T R included in the wavelength band H R and the light of the narrow band T G included in the wavelength band H G (in this modification, the second narrow band Transmission light).
  • the light of the narrow band TG transmitted by the filter 314 may be the same as the light of the narrow band TG of the narrow band light observation (NBI) method described above, or may be of a different band.
  • NBI narrow band light observation
  • a color component with a large change is selected as the luminance component among the red component (narrow band T R ) and the green component (narrow band T G ).
  • the illumination control unit 32 controls the light source driver 31b to turn on and off the light source 31a, and controls the drive driver 31e to rotate the rotation filter 31g (rotation shaft 310) to perform one of the filters 312 to 314.
  • the filter By arranging the filter on the light path of the light source 31a, the type (band) of the illumination light emitted by the illumination unit 31 is controlled.
  • the image processing unit 41 performs the above-described signal processing to generate a display image signal.
  • the image processing unit 41 performs the above-described signal processing to generate a display image signal.
  • no B component light is present, so only the color difference image signal having the RG signal from the RG interpolation unit 4007 in the color image signal generation unit 412c. Is input, and the color image signal generator 412 c generates R component and G component signals (RG signals).
  • the filter processing unit 4101 receives the G signal among the RGB signals generated by the color image signal generation unit 412 c and performs filter processing using a predetermined high pass filter.
  • the filter processing unit 4101 may extract signals having different band pass characteristics depending on the observation method. Specifically, when the observation method is the NBI method, the filter processing unit 4101 extracts a signal having a band pass characteristic limited to the frequency characteristic shown in FIG. 14 and uses the second narrow band illumination light observation method. In some cases, a signal having a predetermined range of frequency characteristics may be extracted by predetermined band pass filtering.
  • the high-frequency filter is cut as a band pass filter instead of the high pass filter to eliminate the unnecessary blood vessels in the mucosal surface layer unnecessary for observation with the second narrowband illumination light. It can be cut.
  • the clip processing unit 4102 switches the threshold (range of signal amplitude) to be subjected to the clipping process according to the observation mode information (observation method).
  • the threshold for each observation method may refer to one stored in advance in the storage unit 43, or the clip processing is performed using the threshold input by the operator via the input unit 42. It may be
  • the first switching unit 4201 receives the B signal from the color image signal generation unit 412c and acquires observation mode information indicating that the illumination method is the WLI method or the method using the second narrowband illumination light, the input is input.
  • the received B signal is output to the display image generation processing unit 413.
  • the first switching unit 4201 when acquiring the observation mode information to the effect that the illumination method is the NBI method, the first switching unit 4201 outputs the input B signal to the first addition unit 4202.
  • the second switching unit 4203 receives the R signal from the color image signal generation unit 412c and acquires observation mode information indicating that the illumination method is the NBI method
  • the input R signal is displayed as a display image. It is output to the generation processing unit 413.
  • the second switching unit 4203 outputs the input R signal to the second addition unit 4204 when acquiring the observation mode information indicating that the illumination method is the WLI method or the method using the second narrowband illumination light.
  • the color filter 202a having a plurality of filters each transmitting light in a predetermined wavelength band is described as being provided on the light receiving surface of the imaging element 202, but each filter is an imaging element It may be provided individually for each pixel 202.
  • the endoscope apparatuses 1 and 1a emit light from the illumination unit 31 to the white light emitted from one light source 31a by the insertion and removal of the switching filter 31c and the rotation of the rotation filter 31g. Is described as switching the illumination light to white illumination light and narrowband illumination light, but switching between two light sources respectively emitting white illumination light and narrowband illumination light to switch either white illumination light or narrowband illumination light May be emitted.
  • a capsule endoscope provided with a light source unit, a color filter, and an imaging device and introduced into a subject It can apply.
  • the endoscope apparatuses 1 and 1a have been described assuming that the A / D conversion unit 205 is provided at the distal end portion 24. However, the endoscope devices 1 and 1a are provided in the processor unit 4 It may be. Further, the configuration relating to the image processing may be provided in the endoscope 2, a connector for connecting the endoscope 2 and the processor unit 4, the operation unit 22 or the like. In the above-described endoscope apparatuses 1 and 1a, the endoscope 2 connected to the processor unit 4 is described as identifying the endoscope 2 using identification information or the like stored in the imaging information storage unit 206. An identification means may be provided at the connection portion (connector) between the unit 4 and the endoscope 2. For example, a pin for identification (identification means) is provided on the endoscope 2 side, and the endoscope 2 connected to the processor unit 4 is identified.
  • the G interpolation color difference calculation unit 412a generates the G signal interpolated based on the peripheral pixels for the pixel (R pixel or B pixel) where the G signal is missing.
  • linear interpolation may be performed in which the interpolation direction is determined by determining the interpolation direction, or interpolation processing may be performed by cubic interpolation or other non-linear interpolation.
  • the second switching unit 4203 outputs the input R signal to the second adding unit 4204 when acquiring the observation mode information to the effect that the illumination method is the WLI method.
  • the input R signal may be output to the display image generation processing unit 413. That is, in the WLI method, addition processing of specific frequency component signals may not be performed. By controlling so as not to add the specific frequency component in the WLI system, it is possible to suppress the change in the color tone of the blood vessel.
  • the response signal extracted by the filter processing unit 4101 may be output to the gain processing unit 4103 as a specific frequency component signal without performing the clip processing by the clip processing unit 4102. .
  • the color filters 202a are described as the filter units U1 of Bayer arrangement arranged in a matrix, but the present invention is not limited to the Bayer arrangement.
  • any filter unit having a filter arrangement in which the density of the G component is higher than that of the B component may be used. It is applicable if the density of the pixel which generates the electric signal of the luminosity component of white illumination light is higher than the density of the pixel which generates the electric signal of the luminosity component of narrow-band illumination light.
  • the endoscope apparatus including the image processing apparatus has been described as an example, but the present invention can also be applied to an imaging apparatus that performs image processing, such as a microscope apparatus.
  • the image processing apparatus, the operation method of the image processing apparatus, the operation program of the image processing apparatus, and the endoscope apparatus according to the present invention are the white illumination light observation method and the narrow band light observation method. Is also useful for obtaining high resolution images.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

 本発明にかかる画像処理装置は、赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素が配置され、第1画素の密度が第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置において、補間により生成された各色成分の色信号のうちの第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出部と、第1輝度成分とは異なる色成分の色信号に、特定周波数成分抽出部が抽出した特定周波数成分信号を加算する特定周波数成分加算部と、を備えた。

Description

画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
 本発明は、撮像素子により生成された撮像信号に信号処理を施して画像信号を生成する画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、およびこの画像処理装置を備えた内視鏡装置に関する。
 従来、医療分野および工業分野において、各種検査のために内視鏡装置が広く用いられている。このうち、医療用の内視鏡装置は、患者等の被検体内に、複数の画素を有する撮像素子が先端に設けられた細長形状をなす可撓性の挿入部を挿入することによって、被検体を切開しなくても被検体内の体内画像を取得できるため、被検体への負担が少なく、普及が進んでいる。
 このような内視鏡装置の観察方式として、白色の照明光(白色照明光)を用いた白色照明光観察方式と、白色の波長帯域よりも狭い波長帯域である狭帯域の照明光(狭帯域照明光)を用いた狭帯域光観察方式とが広く知られている。このうち、狭帯域光観察方式は、例えば、生体の粘膜表層(生体表層)に存在する毛細血管および粘膜微細模様等を強調表示する画像を得ることができる。狭帯域光観察方式によれば、生体の粘膜表層における病変部をより的確に発見することができる。このような内視鏡装置の観察方式に関して、白色照明光観察方式と、狭帯域光観察方式とを切り替えて観察することが望まれている。
 白色照明光観察方式と、狭帯域光観察方式とを切り替えて観察する技術として、被検体内の組織に対してR、G、Bの三原色の照明光を順次照射し、それらの反射光から白色照明光観察画像を生成する白色照明光観察モードと、青色光および緑色光の波長帯域にそれぞれ含まれる二つの狭帯域光からなる照明光を順次照射し、それらの反射光画像から狭帯域光観察画像を生成する狭帯域光観察モードと、を切り替え可能な内視鏡システムが提案されている(例えば、特許文献1を参照)。青色光および緑色光の波長帯域にそれぞれ含まれる二つの狭帯域光は、血管のヘモグロビンの吸収特性と波長による生体への深さ方向の減衰量とが異なる。特殊光観察画像では、青色光の波長帯域に含まれる狭帯域光によって表層の毛細血管と表層の粘膜構造と、緑色光の波長帯域に含まれる狭帯域光は深層のより太い血管と、を捉えることができる。
 上述した観察方式でカラー画像を生成して表示するため、単板の撮像素子により撮像画像を取得すべく、当該撮像素子の受光面上には、一般的にベイヤ配列と呼ばれる赤色(R)、緑色(G)、緑色(G)および青色(B)の波長帯域の光を各々透過する四つのフィルタを1つのフィルタ単位(ユニット)として画素毎に配列されてなるカラーフィルタが設けられている。この場合、各画素は、フィルタを透過した波長帯域の光を受光し、その波長帯域の光に応じた色成分の電気信号を生成する。このため、カラー画像を生成する処理では、各画素においてフィルタを透過せずに欠落した色成分の信号値を補間する補間処理が行われる。このような補間処理は、デモザイキング処理と呼ばれる。以下、G画素(Gフィルタが配置された画素のことをいう。R画素、B画素も同様の定義)で取得された信号をG信号(R画素の場合はR信号、B画素の場合はB信号)という。
 デモザイキング処理の一例として、G信号が欠落しているR画素およびB画素にその周辺のG画素の相関性を利用してR画素およびB画素におけるG信号を補間し、R画素のR信号またはB画素位置のB信号を用いて算出した色差信号(R-G信号、およびB-G信号)に対して色差信号が欠落している画素位置への補間処理をG信号の補間の際に使用した周辺G画素の相関性を用いて色差信号を補間する技術が示されている(例えば、特許文献2を参照)。
 ところで、ベイヤ配列により得られた電気信号をもとにデモザイキング処理を行う際、白色照明光観察方式では、G画素の信号値を用いて補間処理を行うことによって高い解像度を確保することができるものの、狭帯域光観察方式では、G画素とB画素との色相関が低いために、上記と同様の補間処理を行っても高い解像度の画像を得ることができない場合があった。
 青色の狭帯域光に基づく画像を得る技術として、白色照明光と、青色の波長帯域に含まれる狭帯域の狭帯域照明光と、を出射する内視鏡装置が開示されている(例えば、特許文献3を参照)。特許文献3では、G画素が青色の狭帯域光に対して僅かに感度を有するものとし、上述した照明光により得られたG信号、B信号およびR信号をもとにG信号とR信号との相関演算からG画素で捉えられた青色の狭帯域光に対応するB信号成分を抽出し、該抽出したB信号成分と、青色の狭帯域光に基づくB画素から生成したB信号とを組み合わせることにより表層の毛細血管の強調画像を生成する。
特開2006-68113号公報 特開2005-333418号公報 特開2012-170640号公報
 しかしながら、特許文献3が開示する技術のように、青色の狭帯域光と白色照明光とを併せて照射する場合、血管像におけるG信号とR信号との相関は高くはなく、表層の毛細血管のみ(すなわち青色の狭帯域光に起因するG信号に含まれている成分)を精度良く抽出するのは難しい。さらに、G画素の青色の狭帯域光に対する感度は高くないため、G信号とR信号との相関を利用して青色の狭帯域光に相当するB信号成分をG信号から抽出してもその信号レベルは小さく、信号レベルを増幅するとノイズも増幅され、画質が劣化してしまう。
 本発明は、上記に鑑みてなされたものであって、白色照明光観察方式および狭帯域光観察方式のどちらの観察方式においても高い解像度の画像を得ることができる画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置において、補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出部と、前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算部と、を備えたことを特徴とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置の作動方法は、赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置の作動方法において、特定周波数成分抽出部が、補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出ステップと、特定周波数成分加算部が、前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算ステップと、を含むことを特徴とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置の作動プログラムは、赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置の作動プログラムにおいて、特定周波数成分抽出部が、補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出手順と、特定周波数成分加算部が、前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算手順と、を前記画像処理装置に実行させることを特徴とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる内視鏡装置は、赤色、緑色および青色の波長帯域の光を含む白色照明光、ならびに前記白色照明光の波長帯域より狭帯域の光からなる狭帯域照明光のいずれかを出射する光源部と、赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高い撮像素子と、上記の発明にかかる画像処理装置と、を備えたことを特徴とする。
 本発明によれば、白色照明光観察方式および狭帯域光観察方式のどちらの観察方式においても高い解像度の画像を得ることができるという効果を奏する。
図1は、本発明の一実施の形態にかかる内視鏡装置の概略構成を示す図である。 図2は、本発明の一実施の形態にかかる内視鏡装置の概略構成を示す模式図である。 図3は、本発明の一実施の形態にかかる撮像素子の画素の構成を示す模式図である。 図4は、本発明の一実施の形態にかかるカラーフィルタの構成の一例を示す模式図である。 図5は、本発明の一実施の形態にかかる内視鏡装置の照明部が出射する照明光の波長と光量との関係を示すグラフである。 図6は、本発明の一実施の形態にかかる内視鏡装置の照明部が有する切替フィルタによる照明光の波長と透過率との関係を示すグラフである。 図7は、本発明の一実施の形態にかかるプロセッサ部のプレ処理部の構成を説明するブロック図である。 図8は、本発明の一実施の形態にかかる補間処理部が行う補間フィルタ処理の周波数特性を説明する模式図である。 図9は、本発明の一実施の形態にかかるプロセッサ部の補間処理部の要部の構成を説明するブロック図である。 図10は、本発明の一実施の形態にかかるプロセッサ部が行うデモザイキング処理を説明する模式図である。 図11は、本発明の一実施の形態にかかるプロセッサ部が行うデモザイキング処理を説明する模式図である。 図12は、本発明の一実施の形態にかかるプロセッサ部の補間処理部の要部の構成を説明するブロック図である。 図13は、本発明の一実施の形態にかかるフィルタ処理部が行うフィルタリング処理の周波数特性を説明する模式図である。 図14は、本発明の一実施の形態にかかるフィルタ処理部が行うフィルタリング処理の周波数特性を説明する模式図である。 図15は、本発明の一実施の形態にかかるフィルタ処理部が行うフィルタリング処理後の信号を説明する模式図である。 図16は、本発明の一実施の形態にかかるクリップ処理部によるクリップ処理後の信号を説明する模式図である。 図17は、本発明の一実施の形態にかかるゲイン処理部が行うゲイン処理を説明する模式図である。 図18は、本発明の一実施の形態にかかるプロセッサ部の補間処理部の要部の構成を説明するブロック図である。 図19は、本発明の一実施の形態にかかるプロセッサ部が行う信号処理を説明するフローチャートである。 図20は、本発明の実施の形態の変形例にかかる内視鏡装置の概略構成を示す模式図である。 図21は、本発明の実施の形態の変形例にかかる光源部の回転フィルタの構成を示す模式図である。 図22は、本発明の実施の形態の変形例にかかる内視鏡装置の照明部が有するフィルタによる照明光の波長と透過率との関係を示すグラフである。
 以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。実施の形態では、本発明にかかる画像処理装置を含み、患者等の被検体内の画像を撮像して表示する医療用の内視鏡装置について説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
 なお、以下の実施の形態では、白色光をなす光の波長帯域のうちの一部の波長帯域を「狭帯域」として説明するが、該狭帯域は、白色光の波長帯域よりも狭い範囲の波長帯域であればよく、また白色光(可視光)の波長帯域の範囲外の波長帯域(例えば赤外、紫外など)を含むものであってもよい。
(実施の形態)
 図1は、本発明の一実施の形態にかかる内視鏡装置1の概略構成を示す図である。図2は、本発明の一実施の形態にかかる内視鏡装置1の概略構成を示す模式図である。図1および図2に示す内視鏡装置1は、被検体内に挿入部21を挿入することによって観察部位の体内画像を撮像して電気信号を生成する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源部3と、内視鏡2が取得した電気信号に所定の画像処理を施すとともに、内視鏡装置1全体の動作を統括的に制御するプロセッサ部4と、プロセッサ部4が画像処理を施した体内画像を表示する表示部5と、を備える。内視鏡装置1は、患者等の被検体内に、挿入部21を挿入して被検体内の体内画像を取得する。医師等の術者は、取得した体内画像の観察を行うことによって、検出対象部位である出血部位や腫瘍部位の有無を検査する。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、光源部3およびプロセッサ部4に接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、光を受光する画素(フォトダイオード)が格子(マトリックス)状に配列され、当該画素が受光した光に対して光電変換を行うことにより画像信号を生成する撮像素子202を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、被検体内に生体鉗子、電気メスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、光源部3に照明光の切替動作を行わせるための指示信号、処置具や、プロセッサ部4と接続する外部機器の操作指示信号、送水を行うための送水指示信号、および吸引を行うための吸引指示信号などを入力する複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の先端に設けられる処置具チャンネル(図示せず)を経由して開口部(図示せず)から表出する。
 ユニバーサルコード23は、ライトガイド203と、一または複数の信号線をまとめた集合ケーブルと、を少なくとも内蔵している。集合ケーブルは、内視鏡2および光源部3とプロセッサ部4との間で信号を送受信する信号線であって、設定データを送受信するための信号線、画像信号を送受信するための信号線、撮像素子202を駆動するための駆動用のタイミング信号を送受信するための信号線などを含む。
 また、内視鏡2は、撮像光学系201、撮像素子202、ライトガイド203、照明用レンズ204、A/D変換部205および撮像情報記憶部206を備える。
 撮像光学系201は、先端部24に設けられ、少なくとも観察部位からの光を集光する。撮像光学系201は、一または複数のレンズを用いて構成される。なお、撮像光学系201には、画角を変化させる光学ズーム機構および焦点を変化させるフォーカス機構が設けられていてもよい。
 撮像素子202は、撮像光学系201の光軸に対して垂直に設けられ、撮像光学系201によって結ばれた光の像を光電変換して電気信号(画像信号)を生成する。撮像素子202は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary  Metal Oxide Semiconductor)イメージセンサ等を用いて実現される。
 図3は、撮像素子202の画素の構成を示す模式図である。撮像素子202は、撮像光学系201からの光を受光する複数の画素が、格子(マトリックス)状に配列されている。そして、撮像素子202は、それぞれの画素が受光した光に対して光電変換を行うことにより電気信号(画像信号等とも呼ばれる)を生成する。この電気信号には、各画素の画素値(輝度値)や画素の位置情報などが含まれる。図3では、i行j列目に配置されている画素を画素Pijと記している(i,jは自然数)。
 撮像素子202は、撮像光学系201と当該撮像素子202との間に設けられ、各々が個別に設定される波長帯域の光を透過する複数のフィルタを有するカラーフィルタ202aを備える。カラーフィルタ202aは、撮像素子202の受光面上に設けられる。
 図4は、カラーフィルタ202aの構成の一例を示す模式図である。カラーフィルタ202aは、2行2列のマトリックス状に並べられた4個のフィルタからなるフィルタユニットU1を画素Pijの配置に応じてマトリックス状に並べて配置したものである。換言すれば、カラーフィルタ202aは、フィルタユニットU1のフィルタ配列を基本パターンとして、該基本パターンで繰り返し配置したものである。各画素の受光面には、所定の波長帯域の光を透過する一つのフィルタが各々配置される。このため、フィルタが設けられた画素Pijは、該フィルタが透過する波長帯域の光を受光する。例えば、緑色の波長帯域の光を透過するフィルタが設けられた画素Pijは、緑色の波長帯域の光を受光する。以下、緑色の波長帯域の光を受光する画素PijをG画素という。同様に、青色の波長帯域の光を受光する画素をB画素、赤色の波長帯域の光を受光する画素をR画素という。
 ここでのフィルタユニットU1は、青色(B)の波長帯域H、緑色(G)の波長帯域Hおよび赤色(R)の波長帯域Hの光を透過する。加えて、フィルタユニットU1は、波長帯域Hの光を透過する青色フィルタ(Bフィルタ)、波長帯域Hの光を透過する緑色フィルタ(Gフィルタ)、波長帯域Hの光を透過する赤色フィルタ(Rフィルタ)を用いて構成され、二つのGフィルタが対角に配置されるとともに、BフィルタおよびRフィルタが対角に配置された、いわゆるベイヤ配列をなしている。フィルタユニットU1では、Gフィルタの密度が、BフィルタおよびRフィルタの密度に対して高い。換言すれば、撮像素子202において、G画素の密度がB画素およびR画素の密度に対して高い。青色、緑色および赤色の波長帯域H,HおよびHは、例えば、波長帯域Hが380nm~500nm、波長帯域Hが480nm~600nm、波長帯域Hが580nm~650nmである。
 図1および図2の説明に戻り、ライトガイド203は、グラスファイバ等を用いて構成され、光源部3が出射した光の導光路をなす。
 照明用レンズ204は、ライトガイド203の先端に設けられ、ライトガイド203により導光された光を拡散して先端部24の外部に出射する。
 A/D変換部205は、撮像素子202が生成した電気信号をA/D変換し、該変換した電気信号をプロセッサ部4に出力する。A/D変換部205は、撮像素子202が生成した電気信号を、例えば12ビットのデジタルデータ(画像信号)に変換する。
 撮像情報記憶部206は、内視鏡2を動作させるための各種プログラム、内視鏡2の動作に必要な各種パラメータおよび当該内視鏡2の識別情報等を含むデータを記憶する。また、撮像情報記憶部206は、識別情報を記憶する識別情報記憶部261を有する。識別情報には、内視鏡2の固有情報(ID)、年式、スペック情報、伝送方式およびカラーフィルタ202aにかかるフィルタの配列情報等が含まれる。撮像情報記憶部206は、フラッシュメモリ等を用いて実現される。
 つぎに、光源部3の構成について説明する。光源部3は、照明部31および照明制御部32を備える。
 照明部31は、照明制御部32の制御のもと、波長帯域が互いに異なる複数の照明光を切り替えて出射する。照明部31は、光源31a、光源ドライバ31b、切替フィルタ31c、駆動部31d、駆動ドライバ31eおよび集光レンズ31fを有する。
 光源31aは、照明制御部32の制御のもと、赤色、緑色および青色の波長帯域H,HおよびHの光を含む白色照明光を出射する。光源31aが発生した白色照明光は、切替フィルタ31cや、集光レンズ31fおよびライトガイド203を経由して先端部24から外部に出射される。光源31aは、白色LEDや、キセノンランプなどの白色光を発する光源を用いて実現される。
 光源ドライバ31bは、照明制御部32の制御のもと、光源31aに対して電流を供給することにより、光源31aに白色照明光を出射させる。
 切替フィルタ31cは、光源31aが出射した白色照明光のうち青色の狭帯域光および緑色の狭帯域光のみを透過する。切替フィルタ31cは、照明制御部32の制御のもと、光源31aが出射する白色照明光の光路上に挿脱自在に配置されている。切替フィルタ31cは、白色照明光の光路上に配置されることにより、二つの狭帯域光のみを透過する。具体的には、切替フィルタ31cは、波長帯域Hに含まれる狭帯域T(例えば、400nm~445nm)の光と、波長帯域Hに含まれる狭帯域T(例えば、530nm~550nm)の光と、からなる狭帯域照明光を透過する。この狭帯域T,Tは、血液中のヘモグロビンに吸収されやすい青色光および緑色光の波長帯域である。なお、狭帯域Tは、少なくとも405nm~425nmが含まれていればよい。この帯域に制限されて射出される光を狭帯域照明光といい、当該狭帯域照明光による画像の観察をもって狭帯域光観察(NBI)方式という。
 駆動部31dは、ステッピングモータやDCモータ等を用いて構成され、切替フィルタ31cを光源31aの光路から挿脱動作させる。
 駆動ドライバ31eは、照明制御部32の制御のもと、駆動部31dに所定の電流を供給する。
 集光レンズ31fは、光源31aが出射した白色照明光、または切替フィルタ31cを透過した狭帯域照明光を集光して、光源部3の外部(ライトガイド203)に出射する。
 照明制御部32は、光源ドライバ31bを制御して光源31aをオンオフ動作させ、および駆動ドライバ31eを制御して切替フィルタ31cを光源31aの光路に対して挿脱動作させることによって、照明部31により出射される照明光の種類(帯域)を制御する。
 具体的には、照明制御部32は、切替フィルタ31cを光源31aの光路に対して挿脱動作させることによって、照明部31から出射される照明光を、白色照明光および狭帯域照明光のいずれかに切り替える制御を行う。換言すれば、照明制御部32は、波長帯域H,HおよびHの光を含む白色照明光を用いた白色照明光観察(WLI)方式と、狭帯域T,Tの光からなる狭帯域照明光を用いた狭帯域光観察(NBI)方式とのいずれかの観察方式に切り替える制御を行う。
 ここで、白色照明光観察(WLI)方式では緑色成分(波長帯域H)が輝度成分(第1輝度成分)となり、狭帯域光観察(NBI)方式では青色成分(狭帯域T)が輝度成分(第2輝度成分)となる。したがって、本実施の形態にかかる撮像素子202では、G画素が第1画素に相当し、B画素が第2画素に相当し、R画素が第3画素に相当する。なお、本発明における輝度成分とは、例えば後述するXYZ表色系の輝度信号Yの主成分となる色成分のことをいう。例えば、白色照明光観察では、人間の目の比視感度の最も高く、生体の血管や腺管構造が明瞭に描出される緑色成分が輝度成分となる。一方、狭帯域照明光観察では、被写体により選択される輝度成分が異なり、白色照明光観察と同様に緑色成分が選択される場合もあれば、白色光観察時と輝度成分が異なる場合もある。具体的には、狭帯域光観察において青色成分または赤色成分が輝度成分になるものの代表例として上述したNBI観察があり、この場合、生体表層の血管や腺管構造が明瞭に描出される青色成分が輝度成分となる。本実施の形態では、白色照明光観察では緑色成分を輝度成分とし、狭帯域光観察では青色成分を輝度成分とする。
 図5は、照明部31が出射する照明光の波長と光量との関係を示すグラフである。図6は、照明部31が有する切替フィルタ31cによる照明光の波長と透過率との関係を示すグラフである。照明制御部32の制御により切替フィルタ31cを光源31aの光路から外すと、照明部31は、図5に示す白色光スペクトルのように、波長帯域H,HおよびHの光を含む白色照明光を出射する。これに対し、照明制御部32の制御により切替フィルタ31cを光源31aの光路に挿入すると、照明部31は、狭帯域T,Tの光からなる狭帯域照明光を出射する(図6参照)。
 次に、プロセッサ部4の構成について説明する。プロセッサ部4は、画像処理部41、入力部42、記憶部43および制御部44を備える。
 画像処理部41は、内視鏡2(A/D変換部205)からの電気信号をもとに所定の画像処理を実行して、表示部5が表示する画像情報を生成する。画像処理部41は、プレ処理部411、補間処理部412および表示画像生成処理部413を有する。
 プレ処理部411は、A/D変換部205からの電気信号に対し、オプティカルブラック(Optical Black:OB)クランプ処理、ノイズ低減(Noise Reduction:NR)処理およびホワイトバランス(White Balance:WB)処理を行って、該信号処理後の画像信号を補間処理部412に出力する。
 図7は、プレ処理部411の構成を説明するブロック図である。プレ処理部411は、OB処理部4111、NR処理部4112およびWB処理部4113を有する。
 OB処理部4111は、A/D変換部205から入力される画像信号のR信号、G信号およびB信号に対してそれぞれOBクランプ処理を行う。OBクランプ処理では、内視鏡2(A/D変換部205)から入力された電気信号をもとに、オプティカルブラック領域に対応する所定領域の平均値を算出し、電気信号から該平均値を減算することで、黒レベルをゼロ値に補正する。
 NR処理部4112は、制御部44から現在の観察方式がWLI方式であるかまたはNBI方式であるかに関する観察方式情報を取得し、該観察方式情報に応じてノイズ低減量を変更して、OBクランプ処理が施された画像信号に対してノイズ低減処理を行う。
 WB処理部4113は、ノイズ低減処理が施された画像信号に対して、観察方式情報に基づくホワイトバランス処理を施し、ホワイトバランス処理後の画像信号を補間処理部412に出力する。なお、WB処理部4113は、狭帯域光観察(NBI)方式により、得られたチャンネル(色成分)の信号が二つ(G信号およびB信号)である場合、2チャンネル間信号のバランス補正処理となり、残りの1つのチャンネル(本実施の形態1ではR信号)はゼロ乗算する。
 補間処理部412は、プレ処理部411から入力される画像信号をもとに、複数の画素の色情報(画素値)の相関から補間方向を判別し、判別した補間方向に並んだ画素の色情報に基づいて補間を行うことによって、少なくとも二つの色成分の信号を有するカラー画像信号を生成する。補間処理部412は、G補間色差算出部412a、色差補間部412b、カラー画像信号生成部412c、G信号特定周波数成分抽出部421dおよび特定周波数成分加算部412eを有する。
 G補間色差算出部412aは、プレ処理部411から入力される画像信号に対して、G信号が欠落している画素(R画素またはB画素)に対してその周辺画素に基づき補間したG信号(以下、補間G信号という)を生成し、全ての画素位置がG信号または補間G信号を有するG信号画像を出力する。すなわち、G補間色差算出部412aの補間処理により、各画素がG成分の画素値または補間値を有する一枚の画像を構成する画像信号が生成される。
 また、G補間色差算出部412aは、R画素またはB画素の位置に応じて各色成分の信号と補間G信号との色差をとった色差信号であるR-G信号またはB-G信号を生成し、色差画像信号として出力する。G補間色差算出部412aは、生成したG信号画像をカラー画像信号生成部412cへ出力し、色差画像信号を色差補間部412bに出力する。
 色差補間部412bは、G補間色差算出部412aから入力される色差画像信号に対して各画素位置で欠落している色差信号を補間し、全ての画素位置が色差信号を有する色差画像信号をカラー画像信号生成部412cへ出力する。すなわち、色差補間部412bの補間処理により、各画素が色差信号R-GまたはB-Gの値を有する一枚の画像を構成する画像信号が生成される。
 カラー画像信号生成部412cは、G補間色差算出部412aおよび色差補間部412bにより生成されたG信号、R-G信号およびB-G信号に対して補間フィルタを作用させる。図8は、本発明の一実施の形態にかかる補間処理部412が行う補間フィルタ処理の周波数特性を説明する模式図であって、周波数に対する信号の応答を示すグラフである。カラー画像信号生成部412cは、ナイキスト周波数NFをカットするため、水平方向および垂直方向の1/2画素位置に図8に示すようなローパスフィルタ特性となる補間フィルタを作用させる。この補間フィルタ処理により、撮像素子202に元々備わっている画素位置の信号と、周辺画素の信号値を用いて補間処理により生成した信号とで周波数特性が周期的に異なる(特にG信号はナイキスト周波数NFの周期となる)ものを空間的に均一化する。
 カラー画像信号生成部412cは、上述した補間フィルタ処理後、各画素位置におけるG信号(補間G信号を含む)と、色差信号(B-G信号またはR-G信号)と、をそれぞれ加算することによりRGB信号またはGB信号を生成し、カラー画像信号として表示画像生成処理部413へ出力する。具体的には、カラー画像信号生成部412cは、観察方式がWLI方式である場合は、色差補間部412bから、B-G信号を有する色差画像信号、およびR-G信号を有する色差画像信号を取得し、R成分、G成分およびB成分の信号(RGB信号)を生成する。一方で、カラー画像信号生成部412cは、観察方式がNBI方式である場合は、R成分の光が存在しないため、B-G補間部4004からB-G信号を有する色差画像信号のみを取得し、G成分およびB成分の信号(GB信号)を生成する。
 G信号特定周波数成分抽出部421dは、補間により生成された赤色、緑色および青色を成分として有する各信号のうち、WLI方式の輝度成分の信号であるG信号に対して、色信号のなかの所定の空間周波数成分を成分として有する特定周波数成分信号を抽出する。具体的には、G信号特定周波数成分抽出部421dは、カラー画像信号生成部412cが生成したRGB信号のうち、G信号が入力され、該G信号に対して、構造物である血管領域、または凹部の暗い領域(暗部)に応じた周波数成分を有する特定周波数成分信号を抽出する。ここで、空間周波数成分とは、例えばR、G、Bなどの所定の表色系を構成する色空間を周波数空間に変換して得られる空間周波数帯域毎の画素値の振幅情報である。
 特定周波数成分加算部412eは、カラー画像信号生成部412cが生成したR信号および/またはB信号と、G信号特定周波数成分抽出部421dが抽出した特定周波数成分信号と、が入力され、R信号またはB信号に対して、各々の色成分に応じた特定周波数成分信号を加算する。具体的には、特定周波数成分加算部412eは、観察モード情報(照明方式が白色照明光観察(WLI)方式および狭帯域光観察(NBI)方式のいずれであるかを示す情報)を取得し、照明方式がWLI方式であればR信号およびB信号の少なくともいずかの一方の信号に対して、各々の色成分に応じた特定周波数成分信号を加算し、NBI方式であれば、B信号に対してB成分に応じた特定周波数成分信号を加算する。
 表示画像生成処理部413は、補間処理部412により生成されたカラー画像信号に対して、表示部5の色域である例えばsRGB(XYZ表色系)の色空間に色変換処理を行い、所定の階調変換特性に基づく階調変換、拡大処理、または粘膜表層の毛細血管や粘膜微細模様などの構造の構造強調処理などを施す。表示画像生成処理部413は、所定の処理を施した後、該処理後の信号を表示用の表示画像信号として表示部5に出力する。
 入力部42は、プロセッサ部4に対する術者等からの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影モードやその他各種のモードを切り替えるためのモード切替ボタン、光源部3の照明光を切り替えるための照明光切替ボタンなどを含んで構成されている。
 記憶部43は、内視鏡装置1を動作させるための各種プログラム、および内視鏡装置1の動作に必要な各種パラメータ等を含むデータや、観察方式に応じたホワイトバランス係数などの画像処理に必要なデータ、本発明にかかる画像処理を実行するためのプログラムなどを記録する。また、記憶部43は、内視鏡2にかかる情報、例えば内視鏡2の固有情報(ID)とカラーフィルタ202aのフィルタ配置にかかる情報との関係テーブルなどを記憶してもよい。記憶部43は、フラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。
 制御部44は、CPU等を用いて構成され、内視鏡2および光源部3を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部44は、記憶部43に記録されている撮像制御のための設定データ(例えば、読み出し対象の画素など)や、撮像タイミングにかかるタイミング信号等を、所定の信号線を介して内視鏡2へ送信する。制御部44は、撮像情報記憶部206を介して取得したカラーフィルタ情報(識別情報)を画像処理部41に出力するとともに、切替フィルタ31cの挿脱動作(配置)にかかる情報を光源部3に出力する。
 次に、表示部5について説明する。表示部5は、映像ケーブルを介してプロセッサ部4が生成した表示画像信号を受信して該表示画像信号に対応する体内画像を表示する。表示部5は、液晶または有機EL(Electro Luminescence)を用いて構成される。
 続いて、補間処理部412の色差補間部412bの構成について図面を参照して説明する。図9は、補間処理部412の要部の構成を説明するブロック図であって、G補間色差算出部412a、色差補間部412bおよびカラー画像信号生成部412cの構成を示す図である。色差補間部412bは、色差分離部4001、B-G相関判別部4002、B-G補間方向判別部4003、B-G補間部4004、R-G相関判別部4005、R-G補間方向判別部4006およびR-G補間部4007を有する。
 色差分離部4001は、G補間色差算出部412aから出力された色差画像信号をB-G信号とR-G信号とに分離し、B-G信号をB-G相関判別部4002およびB-G補間方向判別部4003に出力する一方、R-G信号をR-G相関判別部4005およびR-G補間方向判別部4006に出力する。
 図10は、プロセッサ部(補間処理部412)が行うデモザイキング処理を説明する模式図である。分離されたB-G信号およびR-G信号は、図10に示す模式図のように、B画素位置およびR画素位置に応じてそれぞれ配置されている。
 B-G相関判別部4002は、色差分離部4001から出力されたB-G信号に対して、R-G信号を有するR画素を注目画素とし、該注目画素に隣接する画素のB-G信号の相関を算出する。図11は、プロセッサ部(補間処理部412)が行うデモザイキング処理を説明する模式図である。具体的には、B-G相関判別部4002は、図11に示すように、注目画素(画素Pij)の座標を(k,l)とし、隣接する4つの画素位置におけるB-G信号の色差信号値をfB-G(k-1,l-1)、fB-G(k+1,l-1)、fB-G(k-1,l+1)、fB-G(k+1,l+1)とすると、斜め上方向の相関値Ssは下式(1)に基づいて算出する。以下、斜め上方向とは、図3に示す画素の配置において左下から右上に向かう方向とし、斜め下方向とは、図3に示す画素の配置において左上から右下に向かう方向とする。また、外縁に位置する画素など、隣接する画素が存在しない場合は、例えば、折り返した位置にある画素の信号値を用いる。
Figure JPOXMLDOC01-appb-M000001
 また、B-G相関判別部4002は、斜め下方向の相関値Sbを下式(2)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000002
なお、上記式(1)および(2)では、斜め方向に位置する二つの画素の信号値を用いて算出しているが、これに限定されるものではない。注目画素を中心に同一方向でより離れた画素でのB-G信号を利用する事で算出した相関値の信頼度を向上させることができる。
 B-G相関判別部4002は、相関値SsおよびSbの差分絶対値|Ss-Sb|が予め指定された閾値より大きい場合、相関値SsおよびSbのうち小さな値である相関値の方向を、相関が高い方向であると判定する。一方、B-G相関判別部4002は、差分絶対値|Ss-Sb|が閾値よりも小さい場合、特定方向の相関はないと判定する。B-G相関判別部4002は、「斜め上方向」、「斜め下方向」および「特定方向の相関なし」のいずれかを示す判定情報をB-G補間方向判別部4003に出力する。なお、閾値は、信号に含まれるノイズを考慮した値として設定される。
 B-G補間方向判別部4003は、B-G相関判別部4002からの判定情報と、B-G信号の色差信号値を用いて、注目画素(k,l)におけるB-G信号の補間色差信号値fB-G(k,l)を下式(3)~(5)に示すいずれかの式で算出する。
〔判定情報が「斜め上方向」の場合〕
 B-G補間方向判別部4003は、判定情報が「斜め上方向」の場合、注目画素(k,l)におけるB-G信号の補間色差信号値fB-G(k,l)を下式(3)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000003
〔判定情報が「斜め下方向」の場合〕
 B-G補間方向判別部4003は、判定情報が「斜め下方向」の場合、注目画素(k,l)におけるB-G信号の補間色差信号値fB-G(k,l)を下式(4)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000004
〔判定情報が「特定方向の相関なし」の場合〕
 B-G補間方向判別部4003は、判定情報が「特定方向の相関なし」の場合、注目画素(k,l)におけるB-G信号の補間色差信号値fB-G(k,l)を下式(5)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000005
なお、上記式(5)は周辺の四つの画素のB-G信号の平均値としたが、より高い空間周波数を保持できる周辺の十六個の画素以上のB-G信号を使った補間を行ってもよい。
 B-G補間方向判別部4003は、注目画素(k,l)に対する補間色差信号値fB-G(k,l)の算出により、補間された色差信号を含むB-G信号が市松状に配置された色差B-Gについての色差信号をB-G補間部4004に出力する。
 B-G補間部4004は、B-G補間方向判別部4003からの色差信号(B-G信号)に対して欠落している画素位置にB-G信号の補間色差信号値を算出する。B-G補間部4004は、例えば、図11に示す画素の配置において欠落している画素位置(k,l-1)の補間値fB-G(k,l-1)を下式(6)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000006
なお、上記式(6)は周辺の四つの画素のB-G信号の平均値としたが、より高い空間周波数を保持できる周辺の十六個の画素以上のB-G信号を使った補間を行ってもよい。
 B-G補間部4004は、B-G信号の欠落画素位置に対する補間色差信号値の算出により、全画素位置がB-G信号を有する色差画像信号をカラー画像信号生成部412cに出力する。すなわち、B-G補間部4004の補間処理により、各画素が色差B-Gについての色差信号値または補間色差信号値を有する一枚の画像を構成する色差信号が生成される。
 R-G相関判別部4005は、B-G相関判別部4002と同様にして、色差分離部4001から出力されたR-G信号に対して、B-G信号を有するB画素を注目画素とし、該注目画素に隣接する画素のR-G信号の相関を算出する。R-G相関判別部4005は、式(1)および(2)において、BをRと読み替えて相関値SsおよびSbを算出する。R-G相関判別部4005は、相関値Ss、相関値Sb、差分絶対値|Ss-Sb|および閾値をもとに、「斜め上方向」、「斜め下方向」および「特定方向の相関なし」のいずれかを判定し、該判定結果を示す判定情報をR-G補間方向判別部4006に出力する。
 R-G補間方向判別部4006は、B-G補間方向判別部4003と同様にして、R-G相関判別部4005からの判定情報と、R-G信号の色差信号値を用いて、注目画素(k,l)にR-G信号の補間色差信号値fR-G(k,l)を上式(3)~(5)に示すいずれかの式で算出する。R-G補間方向判別部4006は、式(3)~(5)において、BをRと読み替えて補間色差信号値fR-G(k,l)を算出する。R-G補間方向判別部4006は、注目画素(k,l)に対する補間色差信号値fR-G(k,l)の算出により、補間された色差信号を含むR-G信号が市松状に配置された色差R-Gについての色差信号をR-G補間部4007に出力する。
 R-G補間部4007は、B-G補間部4004と同様にして、R-G補間方向判別部4006からの色差信号(R-G信号)に対して欠落している画素位置にR-G信号の補間色差信号値を算出する。R-G補間部4007は、R-G信号の欠落画素位置に対する補間色差信号値の算出により、全画素位置がR-G信号を有する色差画像信号をカラー画像信号生成部412cに出力する。すなわち、R-G補間部4007の補間処理により、各画素が色差R-Gについての色差信号値または補間色差信号値を有する一枚の画像を構成する色差信号が生成される。
 色差補間部412bは、上述した補間処理により、色差信号をカラー画像信号生成部412cに出力する。ここで、観察方式がWLI方式である場合は、B-G補間部4004およびR-G補間部4007から、B-G信号を有する色差画像信号、およびR-G信号を有する色差画像信号がそれぞれ出力される。一方で、観察方式がNBI方式である場合は、R成分の光が存在しないため、カラー画像信号生成部412cには、B-G補間部4004からB-G信号を有する色差画像信号のみが入力される。
 次に、補間処理部412のG信号特定周波数成分抽出部421dの構成について図面を参照して説明する。図12は、補間処理部412の要部の構成を説明するブロック図であって、カラー画像信号生成部412c、G信号特定周波数成分抽出部421dおよび特定周波数成分加算部412eの構成を示す図である。G信号特定周波数成分抽出部421dは、フィルタ処理部4101、クリップ処理部4102およびゲイン処理部4103を有する。
 フィルタ処理部4101は、カラー画像信号生成部412cが生成したRGB信号のうちG信号が入力され、ハイパスフィルタによるフィルタ処理を行う。図13、図14は、本発明の一実施の形態にかかるフィルタ処理部4101が行うフィルタリング処理の周波数特性を説明する模式図である。図15は、本発明の一実施の形態にかかるフィルタ処理部4101が行うフィルタリング処理後の信号を説明する模式図である。なお、図15では、図3に示す画素配列のある一つのライン(例えば水平方向)の画素位置における信号レベルを示している。ここで、G信号は、カラー画像信号生成部412cでの補間フィルタ処理により図8に示すような周波数特性に制限された信号となっている。フィルタ処理部4101は、カラー画像信号生成部412cが生成したG信号に対し、図13に示すような応答特性(周波数特性)を有するハイパスフィルタによりフィルタ処理する。
 フィルタ処理部4101によってハイパスフィルタ処理されたG信号は、図8に示す周波数特性と、図13に示す周波数特性の合成特性となり、結果的に図14に示す周波数特性に制限されたバンドパス特性を有する信号(応答信号)となる。これにより、フィルタ処理部4101から出力されたバンドパス特性の信号は、図15に示すように低周波成分がカットされたゼロレベルを基準に正負の値を持った特定周波数成分信号となる。特に、正値となる領域Rは小さな輝点等の明るい小領域や生体の凸部の明るい領域や局所的にヘモグロビン含有量が周辺領域よりも少ない粘膜領域等に対応し、負値となる領域R1,R2は血管や凹部の暗い領域に対応する。
 ここで、粘膜内の血管は血液中に含有するヘモグロビンにより狭帯域Tの光を吸収し、粘膜表層の細径血管、粘膜中層の中径血管、粘膜深層の太径血管では反射光が少ない暗い領域となる。狭帯域Tの光の吸収量は、ヘモグロビンの量が多いほど(つまり血管が太いほど)多くなる。血管以外の領域はヘモグロビンの含有量が少ないので血管領域に比較して反射光は多く、平均的に明るい(高い輝度値の)領域となる。図15に示すゼロレベルは、概ね血管以外の領域の信号レベルに対応する。特に、深層血管である太径血管はフィルタ処理部4101で処理されるハイパスフィルタ特性により概ねカットされ、中層、及び表層の血管が抽出されるようにハイパスフィルタの特性が設計される。ここで、G信号中の血管の周波数特性は、内視鏡2(挿入部21)の観察距離および画素数に依存して変化する。所定の観察距離および画素数をもとにハイパスフィルタ特性を決定することで、所定の観察距離より近接した場合に、太径血管が特定周波数成分信号からカットされた状態を維持できる。特に、NBI方式では、遠景時はより広い領域の色味(表層血管が密集した茶褐色を呈する領域)の観察を主とし、近接状態で表層血管の走行状態を判定することに主眼が置かれた診断が行われており、上記所定の観察距離を設定することは可能である。
 クリップ処理部4102は、フィルタ処理部4101から出力される図15に示すような特定周波数成分信号が入力され、正値と負値で異なる予め設定されたクリップ閾値により制限された特定周波数成分信号を生成する。図16は、本発明の一実施の形態にかかるクリップ処理部4102によるクリップ処理後の信号を説明する模式図である。クリップ処理部4102は、例えば、クリップ上限値をゼロレベルとし、クリップ下限値を所定の負値として設定された範囲(クリップ範囲)に基づいて抽出する。本実施の形態におけるクリップ下限値の絶対値は、上述した領域R1,R2の絶対値よりも大きい。クリップ処理部4102は、輝点等の領域Rをカットし、血管領域、または凹部の暗い領域である領域R1,R2のみを抽出する。クリップ処理部4102でクリップ処理された特定周波数成分信号は、ゲイン処理部4103へ出力される。なお、上述したクリップ処理では、クリップ処理部4102が2つの閾値により血管領域を抽出するものとして説明したが、これに限定されず、クリップ上限値を所定の正値として、表層の粘膜の変化を抽出できるようにしてもよい。また、例えばモルフォロジーのような非線形ローパス処理を組み合わせることで、所定幅以下の凹部のみを抽出するようにすることもできる。また、上述したクリップ範囲は、観察方式によらず同じ範囲としてもよいし、観察方式により異なる範囲としてもよい。この場合、クリップ処理部4102は、制御部44から観察モード情報を取得して観察方式を判断し、該判断した観察方式に応じたクリップ範囲で信号抽出を行う。
 ゲイン処理部4103は、クリップ処理部4102によるクリップ処理後のG信号の信号値に対するゲイン量を算出し、算出されたゲイン量を特定周波数成分信号に乗算する。図17は、本発明の一実施の形態にかかるゲイン処理部4103が行うゲイン処理を説明する模式図である。具体的には、ゲイン処理部4103には、クリップ処理部4102から出力されたクリップ処理後の特定周波数成分信号と、カラー画像信号生成部412cから出力されたG信号とが入力される。ゲイン処理部4103は、図17に示すようなG信号の信号レベルに応じたゲイン量を算出し、算出されたゲイン量を特定周波数成分信号に乗算し、得られた最終的な特定周波数成分信号を特定周波数成分加算部412eへ出力する。ここで、図17に示すような特性を有するゲイン量としたのは、暗部でのノイズ量の増加を抑制し、所定以上の明るさの領域で抽出された血管領域の振幅をα倍に増幅することを目的にしている。ここでのαは、B信号またはR信号に描出される血管が前段の補間処理により減衰してしまった分を補う量として事前に決定される。
 次に、補間処理部412の特定周波数成分加算部412eの構成について図面を参照して説明する。図18は、補間処理部412の要部の構成を説明するブロック図であって、カラー画像信号生成部412c、G信号特定周波数成分抽出部421d、特定周波数成分加算部412eおよび表示画像生成処理部413の構成を示す図である。特定周波数成分加算部412eは、第1切替部4201、第1加算部4202、第2切替部4203および第2加算部4204を有する。
 第1切替部4201は、カラー画像信号生成部412cからB信号が入力され、照明方式がWLI方式である旨の観察モード情報を取得した場合、入力されたB信号を表示画像生成処理部413へ出力する。一方、第1切替部4201は、照明方式がNBI方式である旨の観察モード情報を取得した場合、入力されたB信号を第1加算部4202へ出力する。このように、第1切替部4201は、観察モード情報(照明方式)に応じて入力されたB信号の出力先を切り替える。
 第1加算部4202は、第1切替部4201から出力されたB信号と、G信号特定周波数成分抽出部421dから出力された特定周波数成分信号とが入力され、B信号に特定周波数成分信号を加算する。第1加算部4202は、加算により得られた加算B信号を表示画像生成処理部413へ出力する。
 第2切替部4203は、カラー画像信号生成部412cからR信号が入力され、照明方式がNBI方式である旨の観察モード情報を取得した場合、入力されたR信号を表示画像生成処理部413へ出力する。一方、第2切替部4203は、照明方式がWLI方式である旨の観察モード情報を取得した場合、入力されたR信号を第2加算部4204へ出力する。このように、第2切替部4203は、観察モード情報(照明方式)に応じて入力されたR信号の出力先を切り替える。
 第2加算部4204は、第2切替部4203から出力されたR信号と、G信号特定周波数成分抽出部421dから出力された特定周波数成分信号とが入力され、R信号に特定周波数成分信号を加算する。第2加算部4203は、加算により得られた加算R信号を表示画像生成処理部413へ出力する。
 ここで、照明方式がNBI方式である場合に、B信号に特定周波数成分信号を加算する意味について説明する。表層血管はヘモグロビン量が少ないため、狭帯域Tの光の吸収量が少なく、周辺粘膜との信号値の差が小さい。一方、中径血管はヘモグロビン量が表層血管より多くなるため、狭帯域Tの光の吸収量がより多くなり、周辺粘膜との信号値の差が得られるようになる。
 これに対し、B信号は上述したように色差補間部412bやカラー画像信号生成部412cによりできるだけ周波数帯域を維持する補間処理が行われるが、補間処理自体はローパスフィルタ特性を有するので高周波成分が減衰し、細径血管像や中径血管像のコントラスト(信号振幅)が低下した像となる。
 G信号から抽出した特定周波数成分信号からは、太径血管像に応じた信号が抽出されず、中径血管像および細径血管像に対応する信号が特定周波数成分信号として抽出される。なお、クリップ処理により血管以外の領域は抽出されず、さらに特定周波数成分信号には不必要なノイズ混入の抑制もできる。
 このような特定周波数成分信号をB信号に加算することで、B信号の細径血管像や中径血管像に細径血管の特定周波数成分像や中径血管の特定周波数成分像を加算することができ、B信号での血管像のコントラストをB信号のみの場合と比べて向上させることができる。
 また、照明方式がNBI方式である場合に、ごく粘膜表層の毛細血管については狭帯域Tの光のみ吸収し、狭帯域Tの光の吸収がほとんど得られない場合がある。このような場合は、G信号によって毛細血管像が描出できず、G信号の特定周波数成分をG信号に加算することができない。この場合は、色差補間部412bによりB-G信号に対する方向判別補間を行うことでB信号の解像度低下を最小限に抑制できる。
 表示画像生成処理部413は、カラー画像信号生成部412cから出力されたG信号、および特定周波数成分加算部412eから出力されたB信号(または加算B信号)およびR信号(または加算R信号)に対して、上述した処理を施した後、該処理後の信号を表示用の表示画像信号として表示部5に出力する。
 続いて、プロセッサ部4が行う信号処理(画像処理方法)について図面を参照して説明する。図19は、プロセッサ部4が行う信号処理を説明するフローチャートである。プロセッサ部4は、内視鏡2(先端部24)から電気信号を取得すると、この電気信号を、プレ処理部411に出力する(ステップS101)。内視鏡2からの電気信号は、撮像素子202により生成され、A/D変換部205によってデジタル信号に変換されたRAW画像データを含む信号である。
 電気信号がプレ処理部411に入力されると、プレ処理部411は、上述したOBクランプ処理、ノイズ低減処理およびホワイトバランス処理を行って、該信号処理後の画像信号を補間処理部412に出力する(ステップS102)。
 プレ処理部411により信号処理が施された電気信号が補間処理部412に入力されると、G補間色差算出部412aが、G信号が欠落している画素(R画素またはB画素)に対して補間G信号を生成し、全ての画素位置がG信号(画素値)または補間G信号(補間値)を有するG信号画像をカラー画像信号生成部412cに出力する。(ステップS103)。
 その後、G補間色差算出部412aは、入力された電気信号が、白色照明光観察方式および狭帯域光観察方式のうちどちらの観察方式(照明方式)により生成されたものかを、観察モード情報を取得して判断する(ステップS104)。具体的には、G補間色差算出部412aは、制御部44からの制御信号(例えば、照明光にかかる情報や、観察方式を示す情報)に基づいて、どちらの観察方式により生成されたものかを判断する。
 G補間色差算出部412aは、入力された電気信号が、白色照明光観察方式により生成されたものであると判断すると(ステップS104;WLI)、R画素およびB画素の位置に応じて各色成分の信号と補間G信号との色差をとった色差信号であるR-G信号およびB-G信号を生成し、色差画像信号として色差補間部412bに出力する(ステップS105)。
 これに対し、G補間色差算出部412aは、入力された電気信号が、狭帯域光観察方式により生成されたものであると判断すると(ステップS104;NBI)、B画素の位置に応じてB成分の信号と補間G信号との色差をとった色差信号であるB-G信号を生成し、色差画像信号として色差補間部412bに出力する(ステップS106)。
 色差補間部412bは、G補間色差算出部412aから取得した色差画像信号に基づいて色差補間処理を行う(ステップS107)。具体的には、色差補間部412bは、G補間色差算出部412aから入力される色差画像信号に対して各画素位置で欠落している色差信号を補間し、全ての画素位置が色差信号を有する色差画像信号をカラー画像信号生成部412cへ出力する。すなわち、色差補間部412bの補間処理により、白色照明光観察方式であれば、各画素が色差信号R-GおよびB-Gの値を有する一枚の画像を構成する画像信号が生成され、狭帯域光観察方式であれば、各画素が色差信号B-Gの値を有する一枚の画像を構成する画像信号が生成される。
 カラー画像信号生成部412cは、G補間色差算出部412aで生成されたG成分の画素値および補間値、ならびに色差補間部412bで生成された色差画像信号の信号値を用いて、カラー画像を構成するカラー画像信号を生成する(ステップS108)。具体的には、カラー画像信号生成部412cは、各画素位置におけるG信号または補間G信号と、色差信号(B-G信号またはR-G信号)と、をそれぞれ加算することによりRGB信号またはGB信号を生成し、G信号をG信号特定周波数成分抽出部421dおよび表示画像生成処理部413へ出力するとともに、RB信号を特定周波数成分加算部412eに出力する。
 その後、G信号特定周波数成分抽出部421dが、カラー画像信号生成部412cが生成したRGB信号のうちのG信号に対して特定周波数成分信号を抽出する。具体的には、まず、フィルタ処理部4101が、カラー画像信号生成部412cが生成したRGB信号のうちG信号が入力され、ハイパスフィルタによるフィルタ処理を行う(ステップS109)。
 クリップ処理部4102は、フィルタ処理部4101から出力される特定周波数成分信号(図15参照)に対してクリップ処理を施し、予め設定されたクリップ下限値およびクリップ上限値により制限された特定周波数成分信号を生成する(ステップS110:特定周波数成分抽出ステップ)。
 ゲイン処理部4103は、クリップ処理部4102によるクリップ処理後のG信号の信号値に対するゲイン量を算出し、算出されたゲイン量を特定周波数成分信号に乗算する(ステップS111)。
 その後、特定周波数成分加算部412eは、カラー画像信号生成部412cが生成したR信号およびB信号と、G信号特定周波数成分抽出部421dが抽出した特定周波数成分信号と、が入力され、R信号およびB信号に対し、観察モード情報に応じて各々の色成分に応じた特定周波数成分信号を加算する(ステップS112:特定周波数成分加算ステップ)。特定周波数成分加算部412eは、上述した観察モード情報を参照し、照明方式がWLI方式であればR信号およびB信号に対して、各々の色成分に応じた特定周波数成分信号を加算し、NBI方式であれば、B信号に対してB成分に応じた特定周波数成分信号を加算する。
 表示画像生成処理部413は、カラー画像信号生成部412cから出力されたG信号、および特定周波数成分加算部412eから出力されたB信号(または加算B信号)およびR信号(または加算R信号)に対して、階調変換、拡大処理、または粘膜表層の毛細血管や粘膜微細模様などの構造の構造強調処理などを施して表示用の表示画像信号を生成する(ステップS113)。表示画像生成処理部413は、所定の処理を施した後、表示画像信号として表示部5に出力する。
 上述した本実施の形態によれば、WLI方式とNBI方式とを切り替え可能な内視鏡装置において、カラー画像信号生成部412cにより生成されたカラー画像信号に対して、G信号特定周波数成分抽出部421dが、カラー画像信号生成部412cが生成したRGB信号のうちのG信号から特定周波数成分信号を抽出し、特定周波数成分加算部412eが、B信号に対し、特定周波数成分信号を加算するようにしたので、補間処理に伴う血管コントラストの低下を改善することができる。本実施の形態では、WLI方式の場合は、G画素の信号値を用いて補間処理を行うことによって高い解像度を確保するとともに、NBI方式の場合は、青色成分の信号に対して特定周波数成分信号を加算して、血管や凹部の暗い領域に対応する領域を補うようにしたため、緑色成分を輝度成分とする白色光観察、および青色成分を輝度成分とする狭帯域観察のどちらにおいても輝度成分の解像度を高くすることができる。
 また、上述した本実施の形態によれば、B-G信号やR-G信号に対して、上記注目画素位置にその周辺のB-G信号、またはR-G信号のみを使ってより高い相関方向を決定し、決定された相関が高い方向のB-G信号、またはR-G信号を使って補間するようにしたので、G信号と相関性が殆ど無い毛細血管や深部血管等の構造物の解像度の低下を最小限に抑制できる。
(実施の形態の変形例)
 図20は、本発明の実施の形態の変形例にかかる内視鏡装置1aの概略構成を示す模式図である。上述した実施の形態では、光源部3が、切替フィルタ31cを有し、該切替フィルタ31cの挿脱により白色照明光観察方式と、狭帯域T,Tの光からなる狭帯域照明光を用いた狭帯域光観察方式とのいずれかの観察方式に切り替えるものとして説明したが、本変形例では、光源部3に代えて光源部3aを有し、回転フィルタ31gにより観察方式を切り替える。
 本変形例にかかる内視鏡装置1aは、上述した内視鏡2、プロセッサ部4、表示部5と、内視鏡2の先端から出射する照明光を発生する光源部3aと、を備える。光源部3aは、照明部31および照明制御部32を備える。照明部31は、照明制御部32の制御のもと、波長帯域が互いに異なる複数の照明光を切り替えて出射する。照明部31は、上述した光源31a、光源ドライバ31b、駆動部31d、駆動ドライバ31eおよび集光レンズ31fと、回転フィルタ31gと、を有する。
 図21は、本発明の実施の形態の変形例にかかる光源部3aの回転フィルタ31gの構成を示す模式図である。回転フィルタ31gは、回転軸310と、回転軸310に支持された円板状をなす回転部311と、を有する。回転部311は、主面を三つに分割した領域にそれぞれ配置される三つのフィルタ(フィルタ312~314)を有する。
 フィルタ312は、赤色、緑色および青色の波長帯域H,HおよびHの光を含む白色照明光を透過する。
 フィルタ313は、波長帯域Hに含まれる狭帯域T(例えば、400nm~445nm)の光と、波長帯域Hに含まれる狭帯域T(例えば、530nm~550nm)の光と、からなる狭帯域照明光(本変形例では、第1狭帯域照明光とする)を透過する。フィルタ313により透過される光は、上述した狭帯域光観察(NBI)方式の狭帯域照明光に相当する。
 図22は、本発明の実施の形態の変形例にかかる内視鏡装置1aの照明部31が有するフィルタによる照明光の波長と透過率との関係を示すグラフである。フィルタ314は、波長帯域Hに含まれる狭帯域Tの光と、波長帯域Hに含まれる狭帯域Tの光と、からなる狭帯域照明光(本変形例では、第2狭帯域照明光とする)を透過する。なお、フィルタ314が透過する狭帯域Tの光は、上述した狭帯域光観察(NBI)方式の狭帯域Tの光と同じであってもよいし、異なる帯域のものであってもよい。第2狭帯域照明光では、赤色成分(狭帯域T)および緑色成分(狭帯域T)のうち、例えば変化の大きい色成分が輝度成分として選択される。
 照明制御部32は、光源ドライバ31bを制御して光源31aをオンオフ動作させ、および駆動ドライバ31eを制御して回転フィルタ31g(回転軸310)を回転させてフィルタ312~314のうちのいずれかのフィルタを光源31aの光路上に配置することによって、照明部31により出射される照明光の種類(帯域)を制御する。
 本変形例においても、画像処理部41は、上述した信号処理を施して、表示画像信号を生成する。なお、第2狭帯域照明光による観察である場合は、B成分の光が存在しないため、カラー画像信号生成部412cには、R-G補間部4007からR-G信号を有する色差画像信号のみが入力され、カラー画像信号生成部412cにより、R成分およびG成分の信号(RG信号)が生成される。
 フィルタ処理部4101は、カラー画像信号生成部412cが生成したRGB信号のうちG信号が入力され、所定のハイパスフィルタによるフィルタ処理を行う。なお、本変形例において、フィルタ処理部4101は、観察方式により異なるバンドパス特性を有する信号を抽出するようにしてもよい。具体的には、フィルタ処理部4101は、観察方式がNBI方式である場合、図14に示す周波数特性に制限されたバンドパス特性を有する信号を抽出し、第2狭帯域照明光による観察方式である場合、所定のバンドパスフィルタ処理により、所定の範囲の周波数特性を有する信号を抽出するようにしてもよい。第2狭帯域照明光による観察方式である場合に、ハイパスフィルタに代えてバンドパスフィルタとして高い周波数をカットすることで、第2狭帯域照明光による観察において不必要な粘膜表層の細径血管をカットすることができる。
 クリップ処理部4102は、観察モード情報(観察方式)に応じてクリップ処理にかかる閾値(信号振幅の範囲)を切り替える。観察方式ごとの閾値は、予め記憶部43に記憶されているものを参照するものであってもよいし、術者等により入力部42を介して入力された閾値を用いてクリップ処理を行うものであってもよい。
 ここで、第1切替部4201は、カラー画像信号生成部412cからB信号が入力され、照明方式がWLI方式または第2狭帯域照明光による方式である旨の観察モード情報を取得した場合、入力されたB信号を表示画像生成処理部413へ出力する。一方、第1切替部4201は、照明方式がNBI方式である旨の観察モード情報を取得した場合、入力されたB信号を第1加算部4202へ出力する。
 これに対して、第2切替部4203は、カラー画像信号生成部412cからR信号が入力され、照明方式がNBI方式である旨の観察モード情報を取得した場合、入力されたR信号を表示画像生成処理部413へ出力する。一方、第2切替部4203は、照明方式がWLI方式または第2狭帯域照明光による方式である旨の観察モード情報を取得した場合、入力されたR信号を第2加算部4204へ出力する。
 また、上述した実施の形態では、各々が所定の波長帯域の光を透過するフィルタを複数有するカラーフィルタ202aが撮像素子202の受光面に設けられているものとして説明したが、各フィルタが撮像素子202の各画素に個別に設けられているものであってもよい。
 なお、上述した実施の形態にかかる内視鏡装置1,1aは、一つの光源31aから出射される白色光に対して、切替フィルタ31cの挿脱や回転フィルタ31gの回転により照明部31から出射される照明光を白色照明光および狭帯域照明光に切り替えるものとして説明したが、白色照明光および狭帯域照明光をそれぞれ出射する二つの光源を切り替えて白色照明光および狭帯域照明光のいずれかを出射するものであってもよい。二つの光源を切り替えて白色照明光および狭帯域照明光のいずれかを出射する場合、例えば、光源部、カラーフィルタおよび撮像素子を備え、被検体内に導入されるカプセル型の内視鏡にも適用することができる。
 また、上述した実施の形態および変形例にかかる内視鏡装置1,1aは、A/D変換部205が先端部24に設けられているものとして説明したが、プロセッサ部4に設けられるものであってもよい。また、画像処理にかかる構成を、内視鏡2や、内視鏡2とプロセッサ部4とを接続するコネクタ、操作部22などに設けるものであってもよい。また、上述した内視鏡装置1,1aでは、撮像情報記憶部206に記憶された識別情報などを用いてプロセッサ部4に接続されている内視鏡2を識別するものとして説明したが、プロセッサ部4と内視鏡2との接続部分(コネクタ)に識別手段を設けてもよい。例えば、内視鏡2側に識別用のピン(識別手段)を設けて、プロセッサ部4に接続された内視鏡2を識別する。
 また、上述した実施の形態では、G補間色差算出部412aが、G信号が欠落している画素(R画素またはB画素)に対してその周辺画素に基づき補間したG信号を生成するものとして説明したが、補間方向を判別して補間処理を行う線形補間であってもよいし、キュービック補間やその他の非線形補間により補間処理を行うものであってもよい。
 また、上述した実施の形態では、第2切替部4203が、照明方式がWLI方式である旨の観察モード情報を取得した場合、入力されたR信号を第2加算部4204へ出力するものとして説明したが、入力されたR信号を表示画像生成処理部413へ出力するようにしてもよい。すなわち、WLI方式では、特定周波数成分信号の加算処理を行わないものであってもよい。WLI方式において特定周波数成分を加算しないように制御すると、血管の色味が変化してしまうことを抑制することができる。
 また、上述した実施の形態において、クリップ処理部4102によるクリップ処理を行わずに、フィルタ処理部4101により抽出された応答信号を特定周波数成分信号としてゲイン処理部4103に出力するものであってもよい。
 また、上述した実施の形態では、カラーフィルタ202aが、ベイヤ配列のフィルタユニットU1をマトリックス状に並べたものとして説明したが、ベイヤ配列に限るものではない。例えば、WLI方式と、上述したNBI方式とを切り替える場合は、B成分に対して、G成分の密度が高いフィルタ配列のフィルタユニットであればよい。白色照明光の輝度成分の電気信号を生成する画素の密度が、狭帯域照明光の輝度成分の電気信号を生成する画素の密度よりも高いフィルタ配列であれば適用できる。
 なお、上述した実施の形態では、画像処理装置を含む内視鏡装置を例に説明したが、例えば、顕微鏡装置など、画像処理を行う撮像装置に適用することも可能である。
 以上のように、本発明にかかる画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置は、白色照明光観察方式および狭帯域光観察方式のどちらの観察方式においても高い解像度の画像を得るのに有用である。
 1,1a 内視鏡装置
 2 内視鏡
 3,3a 光源部
 4 プロセッサ部
 5 表示部
 21 挿入部
 22 操作部
 23 ユニバーサルコード
 24 先端部
 31 照明部
 31a 光源
 31b 光源ドライバ
 31c 切替フィルタ
 31d 駆動部
 31e 駆動ドライバ
 31f 集光レンズ
 31g 回転フィルタ
 32 照明制御部
 41 画像処理部
 42 入力部
 43 記憶部
 44 制御部
 201 撮像光学系
 202 撮像素子
 202a カラーフィルタ
 203 ライトガイド
 204 照明用レンズ
 205 A/D変換部
 206 撮像情報記憶部
 261 識別情報記憶部
 411 プレ処理部
 412 補間処理部
 412a G補間色差算出部
 412b 色差補間部
 412c カラー画像信号生成部
 412d G信号特定周波数成分抽出部
 412e 特定周波数成分加算部
 413 表示画像生成処理部
 4001 色差分離部
 4002 B-G相関判別部
 4003 B-G補間方向判別部
 4004 B-G補間部
 4005 R-G相関判別部
 4006 R-G補間方向判別部
 4007 R-G補間部
 4101 フィルタ処理部
 4102 クリップ処理部
 4103 ゲイン処理部
 4201 第1切替部
 4202 第1加算部
 4203 第2切替部
 4204 第2加算部
 U1 フィルタユニット

Claims (10)

  1.  赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置において、
     補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出部と、
     前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算部と、
    を備えたことを特徴とする画像処理装置。
  2.  前記特定周波数成分抽出部は、所定の周波数特性を有するハイパスフィルタ、またはバンドパスフィルタにより該フィルタの周波数特性に応じた応答信号を抽出するフィルタ処理部を有する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記補間により生成された前記各色成分の色信号は、補間フィルタ処理が施され、
     前記特定周波数成分信号は、前記フィルタ処理部のフィルタの周波数特性と前記補間フィルタ処理後の周波数特性との合成特性を有する信号である、
    ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記特定周波数成分抽出部は、前記フィルタ処理部が抽出した応答信号から、構造物に応じた特定振幅を有する信号を前記特定周波数成分信号として抽出するクリップ処理部を有する、
    ことを特徴とする請求項1に記載の画像処理装置。
  5.  前記構造物は、血管であり、
     前記クリップ処理部は、抽出した応答信号から、前記血管に応じた閾値に基づいて前記特定周波数成分信号を抽出する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6.  前記第2または第3画素の位置における前記第1輝度成分の色信号を当該画素位置の周辺の前記第1色信号に基づき補間し、該補間により生成された前記第1輝度成分の色信号と、前記第2または第3画素が生成した第2または第3色信号との差をとった色差信号を生成する補間色差算出部と、
     前記補間色差算出部が生成した前記色差信号をもとに補間方向を判別して、各画素位置で欠落している色差信号を補間する色差補間部と、
     前記色差補間部が生成した補間後の色差信号と、前記補間色差算出部が生成した前記前記第1輝度成分の色信号とをもとに、前記第1輝度成分とは異なる色成分の色信号を生成する画像信号生成部と、
    を備えたことを特徴とする請求項1に記載の画像処理装置。
  7.  前記クリップ処理部は、前記白色照明光による観察方式、または前記狭帯域照明光による観察方式に応じてクリップ処理を切り替える、
    ことを特徴とする請求項4に記載の画像処理装置。
  8.  赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置の作動方法において、
     特定周波数成分抽出部が、補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出ステップと、
     特定周波数成分加算部が、前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算ステップと、
    を含むことを特徴とする画像処理装置の作動方法。
  9.  赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高く、各画素がそれぞれ生成した色信号をもとに欠落した色成分の信号を補間することにより、各色成分の色信号を有する画像信号を生成する画像処理装置の作動プログラムにおいて、
     特定周波数成分抽出部が、補間により生成された前記各色成分の色信号のうちの前記第1輝度成分の色信号から、所定の空間周波数成分を有する特定周波数成分信号を抽出する特定周波数成分抽出手順と、
     特定周波数成分加算部が、前記第1輝度成分とは異なる色成分の色信号に、前記特定周波数成分抽出部が抽出した前記特定周波数成分信号を加算する特定周波数成分加算手順と、
    を前記画像処理装置に実行させることを特徴とする画像処理装置の作動プログラム。
  10.  赤色、緑色および青色の波長帯域の光を含む白色照明光、ならびに前記白色照明光の波長帯域より狭帯域の光からなる狭帯域照明光のいずれかを出射する光源部と、
     赤色、緑色および青色の波長帯域の光を含む白色照明光の輝度成分である第1輝度成分の第1色信号を生成する第1画素、前記白色照明光の波長帯域よりも狭帯域の光からなる狭帯域照明光の輝度成分である第2輝度成分の第2色信号を生成する第2画素、ならびに第1および第2輝度成分とは異なる色成分の第3色信号を生成する第3画素がマトリックス状に配置され、前記第1画素の密度が前記第2および第3画素の各密度よりも高い撮像素子と、
     請求項1に記載の画像処理装置と、
    を備えたことを特徴とする内視鏡装置。
PCT/JP2015/050400 2015-01-08 2015-01-08 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置 Ceased WO2016110984A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2015/050400 WO2016110984A1 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
DE112015005531.2T DE112015005531T5 (de) 2015-01-08 2015-01-08 Bildverarbeitungsvorrichtung, Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, Programm zum Betreiben einer Bildverarbeitungsvorrichtung und Endoskopeinrichtung
JP2016568228A JP6454359B2 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
CN201580072238.8A CN107105987B (zh) 2015-01-08 2015-01-08 图像处理装置及其工作方法、记录介质和内窥镜装置
US15/637,422 US10070771B2 (en) 2015-01-08 2017-06-29 Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/050400 WO2016110984A1 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/637,422 Continuation US10070771B2 (en) 2015-01-08 2017-06-29 Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device

Publications (1)

Publication Number Publication Date
WO2016110984A1 true WO2016110984A1 (ja) 2016-07-14

Family

ID=56355705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050400 Ceased WO2016110984A1 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置

Country Status (5)

Country Link
US (1) US10070771B2 (ja)
JP (1) JP6454359B2 (ja)
CN (1) CN107105987B (ja)
DE (1) DE112015005531T5 (ja)
WO (1) WO2016110984A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110769738A (zh) * 2017-06-21 2020-02-07 奥林巴斯株式会社 图像处理装置、内窥镜装置、图像处理装置的工作方法及图像处理程序
WO2021140601A1 (ja) * 2020-01-09 2021-07-15 オリンパス株式会社 画像処理システム、内視鏡システム及び画像処理方法
US12417531B2 (en) 2020-01-09 2025-09-16 Olympus Corporation Image processing system, training method for training device, and storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6758859B2 (ja) * 2016-03-01 2020-09-23 キヤノン株式会社 撮像装置、撮像システム、および画像処理方法
US20180228361A1 (en) * 2017-02-15 2018-08-16 Dynacolor, Inc. Arthroscopic system with disposable arthroscope
US11109747B2 (en) * 2017-02-15 2021-09-07 Dynacolor, Inc. Arthroscopic system with disposable arthroscope having image rotation function and method thereof
JP7056131B2 (ja) * 2017-12-15 2022-04-19 オムロン株式会社 画像処理システム、画像処理プログラム、および画像処理方法
JPWO2019198576A1 (ja) * 2018-04-11 2021-04-08 富士フイルム株式会社 医療画像処理装置
CN111970954B (zh) * 2018-04-23 2024-07-16 富士胶片株式会社 医疗图像处理系统
JP7077260B2 (ja) * 2019-03-22 2022-05-30 株式会社日立ハイテク 電子ビーム装置及び画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008043604A (ja) * 2006-08-18 2008-02-28 Olympus Medical Systems Corp 内視鏡装置
JP2011143100A (ja) * 2010-01-15 2011-07-28 Olympus Corp 画像処理装置、内視鏡システム、プログラム及び画像処理方法
JP2014039105A (ja) * 2012-08-13 2014-02-27 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5049989A (en) * 1990-01-04 1991-09-17 Olympus Optical Co., Ltd. Method and circuit for reducing the influence of a bright image area in an endoscope image signal
US6480300B1 (en) * 1998-04-08 2002-11-12 Fuji Photo Film Co., Ltd. Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded
JP4162111B2 (ja) * 1999-07-27 2008-10-08 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
US20030081177A1 (en) * 2001-10-29 2003-05-01 Daniel Rosen Method and system for producing multiple imagery products from a one time scan of motion picture film
US7167280B2 (en) * 2001-10-29 2007-01-23 Eastman Kodak Company Full content film scanning on a film to data transfer device
US7412092B2 (en) * 2003-10-31 2008-08-12 Sony Corporation Image processing apparatus, image processing method, and program
JP4441809B2 (ja) 2004-05-20 2010-03-31 忠 杉木 カラー固体撮像装置
JP4025764B2 (ja) 2004-08-31 2007-12-26 オリンパス株式会社 内視鏡装置
JP5523802B2 (ja) * 2009-11-25 2014-06-18 株式会社東芝 画像処理装置
RU2496253C1 (ru) * 2009-07-21 2013-10-20 Кэнон Кабусики Кайся Устройство обработки изображения и способ обработки изображения для корректировки хроматической аберрации
JP5631769B2 (ja) * 2011-02-17 2014-11-26 株式会社東芝 画像処理装置
CN103283240B (zh) * 2011-02-21 2016-03-30 富士胶片株式会社 彩色成像设备
JP2012170640A (ja) 2011-02-22 2012-09-10 Fujifilm Corp 内視鏡システム、および粘膜表層の毛細血管の強調画像表示方法
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5816511B2 (ja) * 2011-10-04 2015-11-18 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP5931418B2 (ja) * 2011-11-25 2016-06-08 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
EP2800377A4 (en) * 2011-12-28 2015-07-15 Fujifilm Corp IMAGING DEVICE
US8989515B2 (en) * 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
JP2015035782A (ja) * 2013-08-09 2015-02-19 オリンパス株式会社 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム
US9418398B2 (en) * 2014-06-12 2016-08-16 Samsung Electronics Co., Ltd. Low power subpixel rendering on RGBW display
US10594996B2 (en) * 2014-09-24 2020-03-17 Sony Semiconductor Solutions Corporation Image processing apparatus, image pickup device, image pickup apparatus, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008043604A (ja) * 2006-08-18 2008-02-28 Olympus Medical Systems Corp 内視鏡装置
JP2011143100A (ja) * 2010-01-15 2011-07-28 Olympus Corp 画像処理装置、内視鏡システム、プログラム及び画像処理方法
JP2014039105A (ja) * 2012-08-13 2014-02-27 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110769738A (zh) * 2017-06-21 2020-02-07 奥林巴斯株式会社 图像处理装置、内窥镜装置、图像处理装置的工作方法及图像处理程序
WO2021140601A1 (ja) * 2020-01-09 2021-07-15 オリンパス株式会社 画像処理システム、内視鏡システム及び画像処理方法
US12417531B2 (en) 2020-01-09 2025-09-16 Olympus Corporation Image processing system, training method for training device, and storage medium

Also Published As

Publication number Publication date
US10070771B2 (en) 2018-09-11
JP6454359B2 (ja) 2019-01-16
CN107105987A (zh) 2017-08-29
CN107105987B (zh) 2019-11-15
DE112015005531T5 (de) 2017-09-21
US20170296034A1 (en) 2017-10-19
JPWO2016110984A1 (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
JP6454359B2 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
JP6285383B2 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び内視鏡システムの作動方法
US9675238B2 (en) Endoscopic device
JP5968944B2 (ja) 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
JP6435275B2 (ja) 内視鏡装置
JP6196900B2 (ja) 内視鏡装置
JP6471173B2 (ja) 画像処理装置、内視鏡装置の作動方法、画像処理プログラムおよび内視鏡装置
EP2979618B1 (en) Image processing device for operating endoscope system
EP2979617B1 (en) Image processing device, and method for operating endoscope system
JP6823072B2 (ja) プロセッサ装置及び内視鏡システム
CN105310633B (zh) 医用图像处理装置及其工作方法、以及内窥镜系统
JP6401800B2 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
CN106163367B (zh) 医用图像处理装置及其工作方法以及内窥镜系统
JP2013000176A (ja) 内視鏡システム、内視鏡システムの光源装置、及び光量制御方法
JP6346501B2 (ja) 内視鏡装置
WO2016084257A1 (ja) 内視鏡装置
JP5972312B2 (ja) 医用画像処理装置及びその作動方法
JPWO2018142658A1 (ja) 内視鏡システム
JP5970054B2 (ja) 内視鏡システム、内視鏡システムの光源装置、及び内視鏡システムの作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15876861

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016568228

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015005531

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15876861

Country of ref document: EP

Kind code of ref document: A1