[go: up one dir, main page]

WO2015025672A1 - 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法 - Google Patents

内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法 Download PDF

Info

Publication number
WO2015025672A1
WO2015025672A1 PCT/JP2014/069503 JP2014069503W WO2015025672A1 WO 2015025672 A1 WO2015025672 A1 WO 2015025672A1 JP 2014069503 W JP2014069503 W JP 2014069503W WO 2015025672 A1 WO2015025672 A1 WO 2015025672A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
oxygen saturation
signal
light
specimen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/069503
Other languages
English (en)
French (fr)
Inventor
泰士 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of WO2015025672A1 publication Critical patent/WO2015025672A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an endoscope system, a processor device, an operation method, and a table creation method for acquiring biological function information related to oxygen saturation of blood hemoglobin from an image signal obtained by imaging in a specimen.
  • diagnosis is generally performed using an endoscope system including a light source device, an endoscope, and a processor device.
  • lesions are being diagnosed using the oxygen saturation of blood hemoglobin in the biological function information.
  • the first signal light and the second signal light which have different wavelength bands and different absorption coefficients of oxyhemoglobin and deoxyhemoglobin, are alternately applied to the blood vessels in the mucous membrane.
  • a method is known in which each reflected light of the first and second signal lights is detected by a sensor at the endoscope tip (Patent Document 1).
  • the ratio of the first signal light image signal corresponding to the reflected light of the first signal light detected by the sensor and the second signal light image signal corresponding to the reflected light of the second signal light (hereinafter referred to as signal ratio) is a blood vessel. If there is no change in the oxygen saturation, a constant value is maintained, but if a change in oxygen saturation occurs, it changes accordingly. Therefore, the oxygen saturation can be calculated based on the signal ratio between the first signal light image signal and the second signal light image signal.
  • the calculation of the oxygen saturation is based on the premise that the specimen is uniformly irradiated with the first and second signal lights. For this reason, when the first and second signal lights are non-uniform, the reliability of the calculated oxygen saturation is low. Therefore, in an endoscope system that acquires the oxygen saturation, the specimen is almost uniformly distributed.
  • the irradiation range of the first and second signal lights, the distribution of the light amount, and the like are strictly adjusted in advance so that the first and second signal lights are emitted.
  • the oxygen saturation is calculated.
  • an artifact a large error that does not depend on the property of the specimen occurs.
  • non-magnifying observation observation where the tip of the endoscope is very close to the specimen, or observation in which the zooming lens is operated to enlarge the specimen
  • the low oxygen region and the high oxygen region that did not exist are generated. That is, at the time of magnified observation, an artifact of oxygen saturation that could not occur at the time of non-magnified observation occurs.
  • the oxygen saturation is extremely sensitive to the light amount distribution of the illumination (first and second signal lights), and even if there is an error such as the light amount distribution of the very small illumination, the oxygen saturation depends on the magnification rate during magnification observation. The main reason is that the contribution to saturation is increased.
  • the present invention relates to an endoscope system, a processor device, an operating method, and a table used in the endoscope system, which reduce the oxygen saturation artifacts generated during magnified observation, and calculate and display the oxygen saturation distribution more finely and accurately than before. It aims at providing the creation method of.
  • the endoscope system of the present invention includes a light source device, a sensor, an oxygen saturation calculation unit, a frequency component information extraction unit, a correction unit, and an image generation unit.
  • the light source device irradiates the specimen with the first signal light and the second signal light.
  • the sensor receives the reflected light of the first signal light reflected by the specimen, outputs the first image signal obtained by imaging the specimen, and receives the reflected light of the second signal light reflected by the specimen. Thus, the second image signal obtained by imaging the specimen is output.
  • the oxygen saturation calculation unit calculates the oxygen saturation of the specimen based on the signal ratio between the first image signal and the second image signal.
  • the frequency component information extraction unit extracts frequency component information from the first image signal and the second image signal.
  • the correction unit corrects the oxygen saturation based on the frequency component information of the first image signal and the second image signal.
  • the image generation unit generates an oxygen saturation image representing the oxygen saturation level of the specimen based on the oxygen saturation level corrected by the correction unit.
  • the frequency component information extracted by the frequency component information extraction unit is, for example, the amplitude of a specific frequency component. Then, the correction unit corrects the oxygen saturation based on the difference in amplitude between specific frequency components of the first image signal and the second image signal.
  • the correction unit has an error table in which, for example, frequency component information of the first image signal and the second image signal is associated with an error in oxygen saturation.
  • an error of oxygen saturation corresponding to the frequency component information of the first image signal and the second image signal is calculated with reference to the error table, and correction is performed by removing the calculated error from the oxygen saturation.
  • the correction unit divides the first image signal and the second image signal into a plurality of regions and corrects oxygen saturation for each of the plurality of regions.
  • the frequency component information is information on frequency components corresponding to the surface blood vessels of the specimen, for example.
  • Another endoscope system of the present invention includes a light source device, a sensor, a frequency component information extraction unit, a correction unit, an oxygen saturation calculation unit, and an image generation unit.
  • the light source device irradiates the specimen with the first signal light and the second signal light.
  • the sensor receives the reflected light of the first signal light reflected by the specimen, outputs the first image signal obtained by imaging the specimen, and receives the reflected light of the second signal light reflected by the specimen.
  • the second image signal obtained by imaging the specimen is output.
  • the frequency component information extraction unit extracts frequency component information from the first image signal and the second image signal.
  • the correction unit corrects the first image signal and the second image signal based on the frequency component information of the first image signal and the second image signal, and generates the first corrected image signal and the second corrected image signal.
  • the oxygen saturation calculation unit calculates the oxygen saturation of the specimen based on the signal ratio between the first corrected image signal and the second corrected image signal.
  • the image generation unit generates an oxygen saturation image representing the oxygen saturation of the specimen based on the oxygen saturation.
  • the frequency component information extracted by the frequency component information extraction unit is, for example, the amplitude of a specific frequency component. And it is preferable that a correction
  • the correction unit preferably includes a correction coefficient table in which, for example, frequency component information of the first image signal and the second image signal is associated with a correction coefficient to be multiplied by the first image signal or the second image signal.
  • the correction coefficient corresponding to the difference in amplitude between the first image signal and the second image signal is calculated with reference to the correction coefficient table.
  • the processor device of the present invention is a light source device that irradiates a specimen with a first signal light and a second signal light, and a first image obtained by imaging the specimen by receiving reflected light of the first signal light reflected by the specimen.
  • An endoscope system processor comprising: a sensor that outputs one image signal and outputs a second image signal obtained by imaging the specimen by receiving reflected light of the second signal light reflected by the specimen.
  • the apparatus includes an oxygen saturation calculation unit, a frequency component information extraction unit, a correction unit, and an image generation unit.
  • the oxygen saturation calculation unit calculates the oxygen saturation of the specimen based on the signal ratio between the first image signal and the second image signal.
  • the frequency component information extraction unit extracts frequency component information from the first image signal and the second image signal.
  • the correction unit corrects the oxygen saturation based on the frequency component information of the first image signal and the second image signal.
  • the image generation unit generates an oxygen saturation image representing the oxygen saturation level of the specimen based on the oxygen saturation level corrected by the
  • another processor device of the present invention images a specimen by receiving a light source device that irradiates the specimen with the first signal light and the second signal light, and the reflected light of the first signal light reflected by the specimen.
  • a sensor that outputs the first image signal obtained and outputs a second image signal obtained by imaging the specimen by receiving reflected light of the second signal light reflected by the specimen.
  • It is a processor device of a mirror system, and includes a frequency component information extraction unit, a correction unit, an oxygen saturation calculation unit, and an image generation unit.
  • the frequency component information extraction unit extracts frequency component information from the first image signal and the second image signal.
  • the correction unit corrects the first image signal and the second image signal based on the frequency component information of the first image signal and the second image signal, and generates the first corrected image signal and the second corrected image signal.
  • the oxygen saturation calculation unit calculates the oxygen saturation of the specimen based on the signal ratio between the first corrected image signal and the second corrected image signal.
  • the image generation unit generates an oxygen saturation image representing the oxygen saturation of the specimen based on the oxygen saturation.
  • the operation method of the endoscope system according to the present invention is obtained by imaging a specimen by receiving a light source device that emits first signal light and second signal light and reflected light of the first signal light reflected by the specimen. And a sensor that outputs a second image signal obtained by imaging the specimen by receiving the reflected light of the second signal light reflected by the specimen and outputting the first image signal. And an oxygen saturation calculation step, a frequency component information extraction step, a correction step, and an image generation step.
  • the oxygen saturation calculation step calculates the oxygen saturation of the specimen based on the signal ratio between the first image signal and the second image signal.
  • frequency component information extraction step frequency component information is extracted from the first image signal and the second image signal.
  • the correction step the oxygen saturation is corrected based on the frequency component information of the first image signal and the second image signal.
  • the image generation step generates an oxygen saturation image representing the oxygen saturation of the specimen based on the oxygen saturation corrected in the correction step.
  • a light source device that emits a first signal light and a second signal light, and a reflected light of the first signal light reflected by the specimen are imaged to image the specimen.
  • a sensor that outputs the first image signal obtained and outputs a second image signal obtained by imaging the specimen by receiving reflected light of the second signal light reflected by the specimen.
  • This is a mirror system operating method, and includes a frequency component information extraction step, a correction step, an oxygen saturation calculation step, and an image generation step.
  • frequency component information extraction step frequency component information is extracted from the first image signal and the second image signal.
  • the correction step corrects the first image signal and the second image signal based on the frequency component information of the first image signal and the second image signal, and generates the first corrected image signal and the second corrected image signal.
  • the oxygen saturation calculation step calculates the oxygen saturation of the specimen based on the signal ratio between the first corrected image signal and the second corrected image signal.
  • the image generation step generates an oxygen saturation image representing the oxygen saturation of the specimen based on the oxygen saturation.
  • the table creation method of the present invention includes an imaging step, a frequency component information extraction step, an oxygen saturation calculation step, an error calculation step, and a storage step.
  • the imaging step irradiates each of the first signal light and the second signal light onto a phantom in which blood-containing materials including blood with known oxygen saturation are arranged at a specific spatial frequency, and reflects the first signal light reflected by the phantom.
  • the phantom is imaged by receiving the reflected light to obtain a first image signal corresponding to the first signal light, and the phantom is imaged by receiving the reflected light of the second signal light reflected by the phantom.
  • a second image signal corresponding to the two signal light is acquired.
  • frequency component information extraction step frequency component information corresponding to the spatial frequency is extracted from the first image signal and the second image signal.
  • oxygen saturation calculation step the oxygen saturation of the blood-containing material is calculated based on the signal ratio between the first image signal and the second image signal.
  • the error calculation step calculates an error between the oxygen saturation calculated in the oxygen saturation calculation step and the oxygen saturation of blood.
  • the storing step stores the frequency component information of the first image signal and the second image signal and the error in association with each other.
  • Another table creation method of the present invention includes a first imaging step, a second imaging step, a first frequency component information extraction step, a second frequency component information extraction step, a correction coefficient calculation step, a storage step, Is provided.
  • the first imaging step the first signal light and the second signal light are respectively irradiated to the phantom in which the blood-containing material containing blood having a known oxygen saturation is arranged at a specific spatial frequency, and reflected by the phantom.
  • the phantom is imaged by receiving reflected light of the signal light to obtain a first image signal corresponding to the first signal light, and the phantom is imaged by receiving reflected light of the second signal light reflected by the phantom.
  • the second imaging step irradiates the phantom with the first signal light and the second signal light, receives the reflected light of the first signal light reflected by the phantom, and enlarges the phantom compared to the first imaging step.
  • the third image signal corresponding to the first signal light is acquired by imaging, the reflected light of the second signal light reflected by the phantom is received, and the phantom is enlarged and imaged as compared with the first imaging step.
  • the fourth image signal corresponding to the second signal light is acquired.
  • frequency component information corresponding to the spatial frequency of the phantom is extracted from the first image signal and the second image signal.
  • frequency component information corresponding to the spatial frequency of the phantom is extracted from the third image signal and the fourth image signal.
  • the correction coefficient calculation step calculates a correction coefficient that makes the ratio of the frequency component information between the third image signal and the fourth image signal equal to the ratio of the frequency component information between the first image signal and the second image signal.
  • the storing step stores the frequency component information of the third image signal and the fourth image signal and the correction coefficient in association with each other.
  • the processor device According to the endoscope system, the processor device, and the operating method of the present invention, it is possible to reduce the oxygen saturation artifact during magnified observation, and to calculate and display the oxygen saturation distribution more finely and accurately than before. .
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 20.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 21 to be inserted into a specimen, an operation portion 22 provided at a proximal end portion of the insertion portion 21, a bending portion 23 and a distal end portion 24 provided on the distal end side of the insertion portion 21. have.
  • the angle knob 22a of the operation unit 22 By operating the angle knob 22a of the operation unit 22, the bending unit 23 performs a bending operation. With this bending operation, the distal end portion 24 is directed in a desired direction.
  • the operation unit 22 is provided with a mode switch SW (mode switch) 22b and a zoom operation unit 22c.
  • the mode switching SW 22b is used for switching operation between two types of modes, a normal observation mode and a special observation mode.
  • the normal observation mode is a mode in which a normal light image in which the inside of the specimen is converted into a full color image is displayed on the monitor 18.
  • the special observation mode is a mode in which an oxygen saturation image obtained by imaging the oxygen saturation of blood hemoglobin in the specimen is displayed on the monitor 18.
  • the zoom operation unit 22c is used for a zoom operation for driving the zooming lens 47 (see FIG. 2) in the endoscope 12 to enlarge the specimen.
  • the processor device 16 is electrically connected to the monitor 18 and the console 20.
  • the monitor 18 displays images such as normal light images and oxygen saturation images, and information related to these images (hereinafter referred to as image information and the like).
  • the console 20 functions as a UI (user interface) that receives input operations such as function settings.
  • a recording unit (not shown) for recording image information or the like may be connected to the processor device 16.
  • the light source device 14 includes a first blue laser light source (473LD (laser diode)) 34 that emits a first blue laser beam having a center wavelength of 473 nm and a second blue laser beam that emits a second blue laser beam having a center wavelength of 445 nm.
  • Two blue laser light sources (445LD) 36 are provided as light emission sources. Light emission of the first blue laser light source 34 and the second blue laser light source 36 made of these semiconductor light emitting elements is individually controlled by the light source control unit 40. For this reason, the light quantity ratio between the emitted light from the first blue laser light source 34 and the emitted light from the second blue laser light source 36 is freely changeable.
  • the light source control unit 40 turns on the second blue laser light source 36 and emits the second blue laser light.
  • the first blue laser light source 34 and the second blue laser light source 36 are alternately turned on at an interval of one frame so that the first blue laser light and the second blue laser light are emitted. The light is emitted alternately.
  • the half width of the first blue laser beam and the second blue laser beam is preferably about ⁇ 10 nm.
  • the first blue laser light source 34 and the second blue laser light source 36 can use broad area type InGaN laser diodes, and can also use InGaNAs laser diodes or GaNAs laser diodes.
  • the light source may be configured to use a light emitter such as a light emitting diode.
  • the first blue laser light and the second blue laser light emitted from the first blue laser light source 34 and the second blue laser light source 36 are optical members such as a condensing lens, an optical fiber, a multiplexer (not shown). ) Through the light guide (LG) 41.
  • the light guide 41 is built in a universal cord that connects the light source device 14 and the endoscope 12.
  • the light guide 41 propagates the first blue laser light and the second blue laser light emitted from the first blue laser light source 34 and the second blue laser light source 36 to the distal end portion 24 of the endoscope 12.
  • a multimode fiber can be used as the light guide 41.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer serving as an outer shell can be used.
  • the distal end portion 24 of the endoscope 12 has an illumination optical system 24a and an imaging optical system 24b.
  • the illumination optical system 24a is provided with a phosphor 44 and an illumination lens 45.
  • the first blue laser light and the second blue laser light are incident on the phosphor 44 from the light guide 41.
  • the phosphor 44 emits fluorescence when irradiated with the first blue laser light or the second blue laser light. Further, a part of the first blue laser light or the second blue laser light passes through the phosphor 44 as it is. The light emitted from the phosphor 44 is irradiated into the specimen through the illumination lens 45.
  • the second blue laser light is incident on the phosphor 44, white light having the spectrum shown in FIG. 3 (second white light) is irradiated into the specimen.
  • the second white light is composed of second blue laser light and green to red second fluorescence excited and emitted from the phosphor 44 by the second blue laser light. Therefore, the wavelength range of the second white light extends to the entire visible light range.
  • the first white light and the second white light having the spectrum shown in FIG. Irradiated inside.
  • the first white light is composed of first blue laser light and green to red first fluorescence that is excited and emitted from the phosphor 44 by the first blue laser light. Therefore, the first white light has a wavelength range covering the entire visible light range.
  • the second white light is the same as the second white light irradiated in the normal observation mode.
  • the first fluorescence and the second fluorescence have substantially the same waveform (spectrum shape), and the ratio of the intensity of the first fluorescence (I1 ( ⁇ )) to the intensity of the second fluorescence (I2 ( ⁇ )) (hereinafter referred to as a frame).
  • the intensity ratio) is the same at any wavelength ⁇ .
  • I2 ( ⁇ 1) / I1 ( ⁇ 1) I2 ( ⁇ 2) / I1 ( ⁇ 2). Since the inter-frame intensity ratio I2 ( ⁇ ) / I1 ( ⁇ ) affects the calculation accuracy of the oxygen saturation, the light source control unit 40 maintains a preset reference inter-frame intensity ratio. It is controlled with high accuracy.
  • the phosphor 44 absorbs a part of the first and second blue laser beams and excites and emits green to red light (for example, YAG phosphor or BAM (BaMgAl 10 O 17 )). It is preferable to use a material comprising a phosphor such as.
  • a material comprising a phosphor such as
  • high intensity first white light and second white light can be obtained with high luminous efficiency.
  • the intensity of each white light can be easily adjusted, and changes in color temperature and chromaticity can be kept small.
  • the imaging optical system 24b of the endoscope 12 includes an imaging lens 46, a zooming lens 47, and a sensor 48 (see FIG. 2). Reflected light from the specimen enters the sensor 48 via the imaging lens 46 and zooming lens 47. Thereby, a reflected image of the specimen is formed on the sensor 48.
  • the zooming lens 47 moves between the tele end and the wide end by operating the zoom operation unit 22c. When the zooming lens 47 moves to the wide end side, the reflected image of the specimen is reduced. On the other hand, when the zooming lens 47 moves to the tele end side, the reflected image of the specimen is enlarged. Note that the zoom lens 47 is disposed at the wide end when magnification observation is not performed (during non-magnification observation). When performing magnified observation, the zoom lens 47 is moved from the wide end to the tele end side by operating the zoom operation unit 22c.
  • the sensor 48 is a color image sensor, picks up a reflected image of the specimen, and outputs an image signal.
  • the sensor 48 is, for example, a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • the sensor 48 has RGB pixels having an RGB color filter provided on the imaging surface, and outputs R, G, and B three-color image signals by performing photoelectric conversion on the RGB pixels. To do.
  • the B color filter has a spectral transmittance of 380 to 560 nm
  • the G color filter has a spectral transmittance of 450 to 630 nm
  • the emission intensity of the second blue laser light is much higher than that of the second fluorescence, most of the B image signal output from the B pixel is occupied by the reflected light component of the second blue laser light.
  • the first white light when the first white light is irradiated into the specimen in the special observation mode, the first blue laser light and a part of the green component of the first fluorescence are incident on the B pixel, and the first is applied to the G pixel. A part of the green component of the fluorescence is incident, and the red component of the first fluorescence is incident on the R pixel.
  • the emission intensity of the first blue laser light is much higher than that of the first fluorescence, most of the B image signal is occupied by the reflected light component of the first blue laser light. It should be noted that the light incident components at the RGB pixels when the second white light is irradiated into the specimen in the special observation mode are the same as in the normal observation mode.
  • the sensor 48 may be a so-called complementary color image sensor having C (cyan), M (magenta), Y (yellow), and G (green) complementary color filters on the imaging surface.
  • the color conversion unit that performs color conversion from the CMYG four-color image signal to the RGB three-color image signal is any of the endoscope 12, the light source device 14, and the processor device 16. It should be provided in. In this way, even when a complementary color image sensor is used, it is possible to obtain RGB three-color image signals by color conversion from the four-color CMYG image signals.
  • the imaging control unit 49 performs imaging control of the sensor 48.
  • the one frame period of the sensor 48 includes an accumulation period for photoelectrically converting reflected light from the specimen and accumulating charges, and a readout period for reading the accumulated charges and outputting an image signal thereafter. Consists of. In the normal observation mode, the inside of the specimen illuminated with the second white light is imaged by the sensor 48 every frame period. Thereby, RGB image signals are output from the sensor 48 for each frame.
  • the imaging control unit 49 causes the sensor 48 to perform an accumulation period and a reading period in the special observation mode as in the normal observation mode.
  • the special observation mode the first white light and the second white light are alternately irradiated into the specimen in synchronization with the imaging frame of the sensor 48. Therefore, as shown in FIG.
  • the inside of the specimen is imaged with the first white light in the eyes, and the inside of the specimen is imaged with the second white light in the next second frame.
  • the sensor 48 outputs image signals of each color of RGB in both the first frame and the second frame.
  • the RGB image signals obtained in this way are called R1 image signals, G1 image signals, or B1 image signals, respectively.
  • the RGB image signals obtained by imaging with the second white light in the second frame are R2 image signals, It is called G2 image signal or B2 image signal.
  • the oxygen saturation is calculated using the signal ratio B1 / G2 between the B1 image signal and the G2 image signal and the signal ratio R2 / G2 between the R2 image signal and the G2 image signal.
  • the signal ratio essential for calculating the oxygen saturation is the signal ratio B1 / G2 between the B1 image signal and the G2 image signal.
  • the component (the first blue laser light transmitted through the phosphor 44) that becomes the B1 image signal in the first white light is the first signal light
  • the G2 image signal in the second white light is the second signal light.
  • Each color image signal output from the sensor 48 is transmitted to a CDS (correlated double sampling) / AGC (automatic gain control) circuit 50 (see FIG. 2).
  • the CDS / AGC circuit 50 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal output from the sensor 48.
  • CDS correlated double sampling
  • AGC automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 50 is converted into a digital image signal by the A / D converter 52.
  • the digitized image signal is input to the processor device 16.
  • the processor device 16 includes a receiving unit 54, an image processing switching unit 60, a normal observation image processing unit 62, a special observation image processing unit 64, and an image display signal generation unit 66.
  • the receiving unit 54 receives an image signal input from the endoscope 12.
  • the reception unit 54 includes a DSP (Digital Signal Processor) 56 and a noise removal unit 58, and the DSP 56 performs digital signal processing such as color correction processing on the received image signal.
  • the noise removal unit 58 performs noise removal processing by, for example, a moving average method or a median filter method on the image signal that has been subjected to color correction processing or the like by the DSP 56.
  • the image signal from which the noise has been removed is input to the image processing switching unit 60.
  • the image processing switching unit 60 inputs an image signal to the normal observation image processing unit 62 when the mode switching SW 22b is set to the normal observation mode. On the other hand, when the mode switching SW 22 b is set to the special observation mode, the image processing switching unit 60 inputs an image signal to the special observation image processing unit 64.
  • the normal observation image processing unit 62 includes a color conversion unit 68, a color enhancement unit 70, and a structure enhancement unit 72.
  • the color conversion unit 68 generates RGB image data in which each input RGB image signal for one frame is assigned to an R pixel, a G pixel, or a B pixel.
  • the RGB image data is further subjected to color conversion processing such as 3 ⁇ 3 matrix processing, gradation conversion processing, and three-dimensional LUT processing.
  • the color enhancement unit 70 performs various color enhancement processes on the RGB image data that has been subjected to the color conversion process.
  • the structure enhancement unit 72 performs structure enhancement processing such as spatial frequency enhancement on the RGB image data that has been subjected to color enhancement processing.
  • the RGB image data subjected to the structure enhancement process by the structure enhancement unit 72 is input to the image display signal generation unit 66 as a normal observation image.
  • the special observation image processing unit 64 includes an oxygen saturation image generation unit 76 and a structure enhancement unit 78.
  • the oxygen saturation image generation unit 76 calculates the oxygen saturation and generates an oxygen saturation image representing the calculated oxygen saturation.
  • the structure enhancement unit 78 performs structure enhancement processing such as spatial frequency enhancement processing on the oxygen saturation image input from the oxygen saturation image generation unit 76.
  • structure enhancement processing such as spatial frequency enhancement processing on the oxygen saturation image input from the oxygen saturation image generation unit 76.
  • the oxygen saturation image that has undergone the structure enhancement processing by the structure enhancement unit 72 is input to the image display signal generation unit 66.
  • the display image signal generation unit 66 converts the normal observation image or the oxygen saturation image into a display format signal (display image signal) and inputs it to the monitor 18. As a result, the normal observation image or the oxygen saturation image is displayed on the monitor 18.
  • the oxygen saturation image generation unit 76 includes a signal ratio calculation unit 81, a correlation storage unit 82, an oxygen saturation calculation unit 83, a frequency component information extraction unit 84, a difference calculation unit 85, A correction unit 86 and an image generation unit 87.
  • the signal ratio calculation unit 81 receives the B1 image signal, the G2 image signal, and the R2 image signal among the image signals for two frames input to the oxygen saturation image generation unit 76.
  • the signal ratio calculation unit 81 calculates a signal ratio B1 / G2 between the B1 image signal and the G2 image signal and a signal ratio R2 / G2 between the G2 image signal and the R2 image signal for each pixel.
  • the correlation storage unit 82 stores the correlation between the signal ratio B1 / G2 and the signal ratio R2 / G2 and the oxygen saturation.
  • This correlation is stored in a two-dimensional table in which contour lines of oxygen saturation are defined on the two-dimensional space shown in FIG.
  • the positions and shapes of the contour lines with respect to the signal ratio B1 / G2 and the signal ratio R2 / G2 are obtained in advance by a physical simulation of light scattering, and the interval between the contour lines changes according to the blood volume (signal ratio R2 / G2). To do.
  • the correlation between the signal ratio B1 / G2 and the signal ratio R2 / G2 and the oxygen saturation is stored on a log scale.
  • the above correlation is closely related to the light absorption characteristics and light scattering characteristics of oxyhemoglobin (graph 90) and reduced hemoglobin (graph 91).
  • information on oxygen saturation is easy to handle at a wavelength where the difference in absorption coefficient between oxygenated hemoglobin and reduced hemoglobin is large, such as the center wavelength of 473 nm of the first blue laser beam.
  • the B1 image signal including a signal corresponding to 473 nm light is highly dependent not only on the oxygen saturation but also on the blood volume.
  • a signal ratio B1 / G2 obtained from an R2 image signal corresponding to light that changes mainly depending on blood volume, and a G2 image signal serving as a reference signal for the B1 image signal and the R2 image signal, and By using R2 / G2, the oxygen saturation can be accurately calculated without depending on the blood volume.
  • the oxygen saturation calculation unit 83 refers to the correlation stored in the correlation storage unit 82, and calculates the oxygen saturation corresponding to the signal ratio B1 / G2 and the signal ratio R2 / G2 calculated by the signal ratio calculation unit 81. Calculate for each pixel. For example, when the signal ratio B1 / G2 and the signal ratio R2 / G2 in the specific pixel are B1 * / G2 * and R2 * / G2 * , respectively, referring to the correlation as shown in FIG. 11, the signal ratio B1 * The oxygen saturation corresponding to / G2 * and the signal ratio R2 * / G2 * is “60%”. Therefore, the oxygen saturation calculation unit 83 calculates the oxygen saturation of this pixel as “60%”.
  • the signal ratio B1 / G2 and the signal ratio R2 / G2 are hardly increased or extremely decreased.
  • the values of the signal ratio B1 / G2 and the signal ratio R2 / G2 hardly exceed the lower limit line 93 with an oxygen saturation of 0%, or conversely fall below the upper limit line 94 with an oxygen saturation of 100%.
  • the oxygen saturation calculation unit 83 sets the oxygen saturation to 0%.
  • the oxygen saturation is set to 100. %.
  • the frequency component information extraction unit 84 acquires the B1 image signal, the G2 image signal, and the R2 image signal used for calculating the oxygen saturation, and extracts the frequency component information. Specifically, each acquired image signal is Fourier transformed to calculate its amplitudes P (B1), P (G2), and P (R2), and each of these amplitudes P (B1), P (G2), And the amplitude of the specific frequency component is extracted from P (R2).
  • the specific frequency component is, for example, a frequency component corresponding to a surface blood vessel, a gland duct structure, or the like that is a main observation target at the time of magnification observation.
  • the amplitude by Fourier transformation along an arbitrary direction is shown, but the Fourier transformation performed by the frequency component information extraction unit 84 is two-dimensional Fourier transformation.
  • the frequency component information extraction unit 84 extracts an amplitude value of a specific frequency omega V.
  • Each amplitude difference ⁇ BG the difference calculation unit 85 calculates, Gr, and ⁇ RB, each amplitude P in this particular frequency omega V (B1), which is the difference between the peak value of P (G2), and P (R2).
  • the image appearing in the G2 image signal (enlarged) obtained during the enlarged observation is more blurred than the B1 image signal (enlarged).
  • the R2 image signal (enlarged) obtained during the enlarged observation is more blurred than the image appearing in the G2 image signal (enlarged).
  • the difference in the degree of blurring of the image appearing in the image signals of the respective colors is due to the depth of penetration to the specimen according to the wavelength, absorption by the specimen (particularly, absorption of hemoglobin), scattering, and the like.
  • the amplitude P (B1), P (G2 ), P (R2) in particular the frequency Omega V corresponding to surface blood vessels or the like during magnified observation, become significant difference occurs, the difference in the amplitude Differences also appear in ⁇ BG, ⁇ GR, and ⁇ RB. For this reason, the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes represent the balance of image blur between the colors.
  • the specific frequency Omega V corresponding to surface blood vessels or the like, than the frequency omega V during the non-magnification observation shifts to the lower frequency side ing.
  • the amplitudes P (B1), P (G2), and P (R2) at the time of magnified observation are generally shifted to a lower frequency side than those at the time of non-magnified observation.
  • the oxygen saturation calculation unit 83 calculates the oxygen saturation based on the signal ratio B1 / G2 and the signal ratio R2 / G2, the oxygen saturation is calculated using the B1 image signal, the G2 image signal, And R2 image signals are assumed to change only in accordance with the properties of the specimen (oxygen saturation and blood volume), but the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes of the first white light and the second white light If there is a deviation from the specific value due to inhomogeneities, an erroneous oxygen saturation is naturally calculated. An error in oxygen saturation due to the nonuniformity of the first white light and the second white light is an artifact.
  • the correction unit 86 includes an error table 88. Based on the error table 88, the correction unit 86 performs correction processing for removing errors due to artifacts from the oxygen saturation data calculated by the oxygen saturation calculation unit 83. As shown in FIG. 14, the error table 88 corresponds to the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes and the oxygen saturation error calculated based on the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes. It is the attached data.
  • the data of the error table 88 is created in advance by measuring a phantom (simulated body imitating a specimen) 89 using the endoscope system 10 and stored in the correction unit 86.
  • the phantom 89 includes, for example, a gelatin sample containing blood whose oxygen saturation is controlled to a specific value (hereinafter referred to as blood gelatin) 89a and a gelatin sample without blood (hereinafter referred to as gelatin without blood) 89b. These are formed by laminating at the same specific spatial frequency as the surface blood vessels.
  • the oxygen saturation of venous blood is approximately 60 to 80%, so the oxygen saturation of blood-containing gelatin 89a is controlled to 70%, for example.
  • the error table 88 is created in the following procedure. First, the phantom 89 is observed while changing the zoom magnification and the distance from the tip 24, and the oxygen saturation is calculated. Similarly to the frequency component information extraction unit 84 and the difference calculation unit 85, the B1 image signal, the G2 image signal, and the R2 image signal obtained by observing the phantom 89 are Fourier-transformed to obtain the space of the phantom 89. The frequency amplitude is extracted, and the differences ⁇ BG, ⁇ GR, and ⁇ RB between these amplitudes are calculated.
  • the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes are almost constant values, and an error in oxygen saturation Is almost zero (oxygen saturation 70%).
  • the amplitude difference ⁇ BG, ⁇ GR depends on the zoom magnification, the distance between the tip 24 and the phantom 89, or a combination thereof.
  • ⁇ RB may be larger (or smaller) than a certain value during non-magnifying observation.
  • the calculated error of oxygen saturation may be a value larger than 70% of the oxygen saturation of blood-containing gelatin 89a or may be a small value.
  • the error table 88 the difference ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes obtained by observing the phantom 89 and calculating the oxygen saturation, and the calculated oxygen saturation (70%) of the blood-containing gelatin 89a are calculated.
  • the error of oxygen saturation is associated and stored as an error table 88.
  • the error table 88 also stores the differences ⁇ BG, ⁇ GR, and ⁇ RB between the amplitudes, which are constant values during non-magnifying observation, and the oxygen saturation error ( ⁇ 0%) in this case.
  • the correction unit 86 first calculates an oxygen saturation error corresponding to the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB acquired from the difference calculation unit 85 by referring to the error table 88. Then, the oxygen saturation data calculated by the oxygen saturation calculation unit 83 is subjected to correction processing that excludes errors (artifacts). For example, in a pixel whose value is + 10% due to an artifact, the error is subtracted ( ⁇ 10%) from the corresponding oxygen saturation value. If there is a variation in the correspondence between the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB stored in the error table 88 and the oxygen saturation error, the most likely oxygen saturation error is further determined by the maximum likelihood method or the like. Estimate and correct oxygen saturation.
  • the image generation unit 84 uses the oxygen saturation (hereinafter referred to as corrected oxygen saturation) in which the error due to the artifact is corrected by the correction unit 86, and the oxygen saturation using the B2 image signal, the G2 image signal, and the R2 image signal. To generate an oxygen saturation image. Specifically, the image generation unit 84 applies gain corresponding to the corrected oxygen saturation for each pixel to the input original B2 image signal, G2 image signal, and R2 image signal, and applies the gain. RGB image data is generated using the B2 image signal, the G2 image signal, and the R2 image signal.
  • corrected oxygen saturation oxygen saturation
  • RGB image data is generated using the B2 image signal, the G2 image signal, and the R2 image signal.
  • the image generation unit 84 multiplies all of the B2 image signal, the G2 image signal, and the R2 image signal by the same gain “1” in a pixel having a corrected oxygen saturation of 60% or more.
  • the B2 image signal is multiplied by a gain less than “1”, and the G2 image signal and the R2 image signal are gained by “1” or more.
  • the RGB image data generated using the B1 image signal, the G2 image signal, and the R2 image signal after the gain processing is an oxygen saturation image.
  • the high oxygen region (region where the oxygen saturation is 60 to 100%) is expressed in the same color as the normal observation image.
  • a low oxygen region where the oxygen saturation is below a specific value (region where the oxygen saturation is 0 to 60%) is represented by a color (pseudo color) different from that of the normal observation image.
  • the image generation unit 84 multiplies the gain for pseudo-coloring only the low oxygen region, but the gain corresponding to the oxygen saturation is applied even in the high oxygen region, and the entire oxygen saturation image is obtained.
  • a pseudo color may be used.
  • the low oxygen region and the high oxygen region are separated by oxygen saturation 60%, this boundary is also arbitrary.
  • the flow of observation by the endoscope system 10 of the present embodiment will be described along the flowchart of FIG.
  • screening is performed from the farthest view state (S10).
  • a normal observation image is displayed on the monitor 18.
  • the mode switching SW 22b is operated to switch to the special observation mode. (S12).
  • a diagnosis is made as to whether or not the likely lesion site is in a hypoxic state.
  • the first white light and the second white light are alternately irradiated into the specimen in synchronization with the imaging frame of the sensor 48. Therefore, the sensor 48 detects the R1 image signal in the frame irradiated with the first white light. , G1 image signal, and B1 image signal are output, and R2 image signal, G2 image signal, and B2 image signal are output in the frame irradiated with the second white light.
  • the signal ratio calculation unit 81 calculates the signal ratio B1 / G2 and the signal ratio R2 / G2 for each pixel (S13).
  • the oxygen saturation calculation unit 83 calculates the oxygen saturation for each pixel based on the signal ratio B1 / G2 and the signal ratio R2 / G2 (S14).
  • the B1 image signal, the G2 image signal, and the R2 image signal are subjected to Fourier transform in the frequency component information extraction unit 84, and for example, the amplitude (frequency component information) of the specific frequency component corresponding to the surface blood vessel is extracted (S15).
  • Differences ⁇ BG, ⁇ GR, and ⁇ RB of the amplitudes of the specific frequency components extracted from the respective image signals are calculated by the difference calculation unit 85 (S16).
  • the correction unit 86 uses the error table 88 to calculate the amplitudes of the amplitudes.
  • An oxygen saturation error corresponding to the differences ⁇ BG, ⁇ GR, and ⁇ RB is calculated, and the oxygen saturation calculated by the oxygen saturation calculation unit 83 is subjected to correction processing for removing the calculated error, thereby calculating a corrected oxygen saturation. (S17).
  • the image generation unit 87 When the correction oxygen saturation is calculated by the correction unit 86, the image generation unit 87 generates an oxygen saturation image in which a gain corresponding to the correction oxygen saturation is applied to the B2 image signal, the G2 image signal, and the R2 image signal. (S18), displayed on the monitor 18 (S19). Based on the oxygen saturation image displayed on the monitor 18, the doctor confirms whether the lesion possibility site is in a hypoxic state.
  • the oxygen saturation calculated by the oxygen saturation calculation unit 83 on the assumption that the first white light and the second white light are uniform is used as it is for generating an oxygen saturation image.
  • the oxygen saturation calculated by the oxygen saturation calculation unit 83 is used to generate an oxygen saturation image after the correction unit 86 performs correction processing for removing artifacts. Therefore, for example, as in the oxygen saturation image 105, the low oxygen region 102 is enlarged and displayed, and accurate oxygen saturation information is displayed.
  • the endoscope system 10 has a slight non-uniformity of the first white light and the second white light that is not a problem in normal observation. Even when the zoom magnification is increased or the magnified observation is performed by bringing the distal end portion 24 closer to the specimen, the accurate oxygen saturation can be calculated and displayed.
  • the endoscope system 10 detects oxygen from the balance of the degree of blurring of the image appearing in the B1, G2, or R2 image signal for calculating the oxygen saturation (difference in amplitude of specific frequency components ⁇ BG, ⁇ GR, or ⁇ RB).
  • An error in saturation is calculated, and the calculated error is removed from the oxygen saturation calculated on the assumption that the specimen is uniformly irradiated with the first white light and the second white light. That is, it is not necessary to provide an optical system or the like for measuring the slight nonuniformity of the first white light and the second white light in order to calculate and remove the oxygen saturation error due to the artifact. For this reason, it is possible to accurately calculate and display the oxygen saturation without increasing the diameter of the insertion portion 21 of the endoscope 12.
  • the endoscope system 10 can implement the light source device 14 and The illumination optical system 24a (for example, the same as the conventional one) can be used as it is.
  • the difference ⁇ BG, ⁇ GR, and ⁇ RB of the amplitudes and the corresponding oxygen saturation errors are stored in the error table 88 for correction processing that removes artifacts from the oxygen saturation.
  • only the difference ⁇ BG in amplitude (the balance of blur between the B1 image signal and the G2 image signal) and the corresponding oxygen saturation error may be used.
  • the low oxygen region 102 is magnified, but even when the low oxygen region 102 is not detected at the time of non-magnification observation, You may do magnified observation.
  • the hypoxic region may be observed only after magnified observation, but the endoscope system 10 can accurately calculate and display the oxygen saturation.
  • the frequency component extraction unit 84 extracts the amplitude of the specific frequency component from the B1 image signal, the G2 image signal, or the R2 image signal as frequency component information. Instead of extracting the amplitude, the amplitude of a specific frequency band may be extracted, and the total value may be used as frequency component information. Further, not only the amplitude but also the phase may be used as the frequency component information, or only the phase information may be used as the frequency component information. That is, the frequency component information extracted from the B1 image signal, the G2 image signal, and the R2 image signal by the frequency component extraction unit 84 is arbitrary as long as it is information regarding a specific frequency component that can be associated with an artifact.
  • the frequency component extraction unit 84 extracts frequency component information (amplitude of a specific frequency component) by performing Fourier transform on the B1 image signal, the G2 image signal, and the R2 image signal.
  • frequency component information may be extracted from the B1 image signal, the G2 image signal, and the R2 image signal using an image filter (two-dimensional filter) that extracts a specific frequency component.
  • the frequency component information may be extracted by any method other than the method using Fourier transform or image filter.
  • the frequency component information extracted by the frequency component extraction unit 84 and the arbitraryness of the frequency component information extraction method are the same in other embodiments and modifications described later.
  • oxygen saturation is calculated based on the signal ratio B1 / G2 and the signal ratio R2 / G2, and correction processing is performed on the calculated oxygen saturation data.
  • the image signal used for the calculation may be corrected, and the oxygen saturation may be calculated using the corrected image signal so that the calculated oxygen saturation does not include an artifact.
  • the oxygen saturation image generation unit 76 of the endoscope system 10 of the first embodiment is replaced with an oxygen saturation image generation unit 201 shown in FIG.
  • Other configurations are the same as those of the endoscope system 10 of the first embodiment.
  • the oxygen saturation image generation unit 201 includes a correction unit 211, a signal ratio calculation unit 213, and an oxygen saturation calculation unit 214.
  • the oxygen saturation image generation unit 201 includes the same frequency component information extraction unit 84, difference calculation unit 85, correlation storage unit 82, and image generation unit 87 as those in the first embodiment.
  • the correction unit 211 calculates the oxygen saturation from the signal ratio B1 / G2 and the signal ratio R2 / G2 based on the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB of the specific frequency component calculated by the difference calculation unit 85. Correction processing is performed so as not to cause artifacts.
  • the target to be corrected is not the oxygen saturation data but the B1 image signal, the G2 image signal, and the R2 image signal.
  • the correction unit 211 includes a correction coefficient table 211 for correcting the image signal.
  • a correction coefficient for deformation so as to match the balance of the amplitudes of the B1 image signal, the G2 image signal, and the R2 image signal is stored. For example, as shown in FIG.
  • each amplitude difference DerutaBG are stored in association with Gr, and DerutaRB.
  • the balance between the B1 image signal, the G2 image signal, and the R2 image signal in which no artifact occurs is known in advance from the image signal obtained during non-magnification observation in which no artifact occurs.
  • the oxygen saturation is calculated based on the signal ratio B1 / G2 and the signal ratio R2 / G2
  • amplitude and V, for the amplitude of the specific frequency Omega V of G2 image signals and R2 image signals, the correction coefficient as the balance of their amplitudes are complete ⁇ and ⁇ are determined.
  • the correction coefficients ⁇ and ⁇ are determined as follows. As shown in FIG. 20, the amplitude of the specific frequency ⁇ V of the B1 image signal, G2 image signal, and R2 image signal in which artifacts are generated is Y B1 , Y G2 , and Y R2 , and B1 has a certain balance in which no artifacts are generated. image signal, G2 image signals, and the amplitude of the specific frequency Omega V of R2 image signal a B1, a G2, and the a R2.
  • the correspondence relationship between the correction coefficients ⁇ and ⁇ and the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB is based on the phantom 89 of the first embodiment (see FIG. 14), the zoom magnification and the distance between the tip 24 and the phantom 89. It can be obtained by observing while changing and calculating the oxygen saturation. For example, by observing from a position sufficiently away from the phantom 89 without zooming (non-magnifying observation), the balance of constant amplitudes A B1 , A G2 , and A R2 in a state where no artifact occurs is calculated. be able to.
  • the amplitudes Y B1 , Y G2 , and Y R2 are calculated when the observation is performed by zooming or when the distal end portion 24 is brought close to the phantom 89 and an artifact is generated. Then, correction coefficients ⁇ and ⁇ are calculated based on these measured amplitudes. The correction coefficients ⁇ and ⁇ calculated in this way are stored in the correction coefficient table 212 in association with the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB.
  • ⁇ BG Y B1 ⁇ Y G2
  • ⁇ GR Y G2 ⁇ Y R2
  • ⁇ RB Y R2 ⁇ Y B1 , respectively.
  • the correction unit 211 refers to the correction coefficient table 212 and calculates correction coefficients ⁇ and ⁇ corresponding to the differences ⁇ BG, ⁇ GR, and ⁇ RB input from the difference calculation unit 85. Further, the correction unit 211 acquires the data after the Fourier transform of the B1 image signal, the G2 image signal, and the R2 image signal from the frequency component information extraction unit 84, and the specific frequency ⁇ V of the data after the Fourier transform of the B1 image signal. component multiplied by the correction coefficient alpha, the specific frequency Omega V components of the data after the Fourier transform of the R2 image signal multiplied by the correction coefficient beta. And these data are returned to an image signal by inverse Fourier transform.
  • the image signal generated here is hereinafter referred to as a B1 corrected image signal, a G2 corrected image signal, and an R2 corrected image signal.
  • the G2 corrected image signal is the same as the G2 image signal.
  • B1 corrected image signal of the various frequency components contained in the B1 image signal is an image signal whose component of the specific frequency Omega V are emphasized by the correction coefficient alpha (or blurred). The same applies to the R2 corrected image signal.
  • the specific frequency Omega V components of the G2 B1 image signal an image signal to the reference and R2 image signal
  • B1 image signals, G2 image signals, and the specific frequency of the R2 image signal since artifacts will not occur if uniform even balance of Omega V component, may be based on the B1 image signal may be based on the R1 image signal.
  • an arbitrary reference may be set separately, and the B1 image signal, the G2 image signal, and the R2 image signal may be multiplied by a correction coefficient, respectively.
  • the signal ratio calculation unit 213 calculates the signal ratio B1 / G2 and the signal ratio R2 / G2, similarly to the signal ratio calculation unit 81 of the first embodiment. However, instead of using the B1 image signal, G2 image signal, and R2 image signal output from the sensor 48, the B1 corrected image signal, the G2 corrected image signal, and the R2 corrected image signal generated by the correcting unit 211 are used.
  • the oxygen saturation calculation unit 214 calculates the oxygen saturation by referring to the correlation stored in the correlation storage unit 82 as in the oxygen saturation calculation unit 83 of the first embodiment. However, the oxygen saturation calculation unit 214 uses the signal ratio B1 / G2 and the signal ratio R2 / G2 generated from the B1 corrected image signal, the G2 corrected image signal, and the R2 corrected image signal.
  • the oxygen saturation calculating unit 214, B1 corrected image signal balanced amplitude of the specific frequency Omega V is adjusted by the correction unit 211, G2 corrected image signal, and since using R2 corrected image signal, the oxygen saturation calculating portion Artifacts do not occur in the oxygen saturation data calculated by 214.
  • the image generation unit 87 generates an oxygen saturation image using the oxygen saturation calculated by the oxygen saturation calculation unit 214 and the B2 image signal, the G2 image signal, and the R2 image signal. Since the oxygen saturation calculated by the oxygen saturation calculation unit 214 does not include an artifact, the artifact does not appear in the oxygen saturation image generated by the image generation unit 87.
  • B1 image signals, G2 image signals, and R2 image signal of the amplitude of the difference ⁇ BG specific frequency Omega V components, Gr, and ⁇ RB and oxygen saturation of the error (the Although using a table that associates an embodiment) and the correction factor (the second embodiment), B1 image signals, G2 image signals, and R2 of the specific frequency Omega V components of the image signal amplitude difference DerutaBG, Gr, Instead of ⁇ RB, the ratio of the amplitude of the specific frequency ⁇ V component may be used. Further, although the frequency of the surface blood vessels and the specific frequency Omega V, or a any specific frequency the frequency of the tissue is arbitrary.
  • the phosphor 44 is provided at the distal end portion 24 of the endoscope 12, but instead of this, an endoscope system 150 shown in FIG.
  • the phosphor 44 may be provided inside the light source device 14.
  • the phosphor 44 is provided between the first blue laser light source (473LD) 34 and the second blue laser light source (445LD) 36 and the light guide 41.
  • the first blue laser light source 34 or the second blue laser light source 36 is irradiated with the first blue laser light or the second blue laser light toward the phosphor 44.
  • 1st white light or 2nd white light is emitted.
  • the first or second white light is irradiated into the specimen through the light guide 41.
  • it is the same as the endoscope system of the first embodiment and the second embodiment.
  • the first blue laser light and the second blue laser light are incident on the same phosphor 44, but the first blue laser light and the second blue laser light are You may make it inject into separate 1st fluorescent substance or 2nd fluorescent substance, respectively.
  • the light source device 14 of the endoscope system 300 includes an LED (Light Emitting Diode) light source unit 301 instead of the first blue laser light source 34, the second blue laser light source 36, and the light source control unit 40.
  • LED light source control unit 304 is provided.
  • the phosphor 44 is not provided in the illumination optical system 24 a of the endoscope system 300. The rest is the same as the endoscope system of the first to third embodiments.
  • the LED light source unit 301 includes an R-LED 301a, a G-LED 301b, and a B-LED 301c as light sources that emit light limited to a specific wavelength band.
  • the R-LED 301a has a red band light (hereinafter simply referred to as red light) of 600 to 720 nm
  • the G-LED 301b has a green band light (hereinafter referred to as 480 to 620 nm). Simply emits green light).
  • the B-LED 301c emits blue band light in the blue region of 400 to 500 nm (hereinafter simply referred to as blue light).
  • the LED light source unit 301 has a high-pass filter (HPF) 302 that is inserted into and extracted from the optical path of blue light emitted from the B-LED 301c.
  • the high pass filter 302 cuts blue light having a wavelength band of 450 nm or less and transmits light having a wavelength band longer than 450 nm.
  • the cut-off wavelength (450 nm) of the high-pass filter 302 is a wavelength in which the absorption coefficients of oxyhemoglobin and reduced hemoglobin are substantially equal (see FIG. 10), and the absorption coefficients of oxyhemoglobin and reduced hemoglobin are reversed at this wavelength.
  • the correlation stored in the correlation storage unit 82 is a case where the extinction coefficient of oxyhemoglobin is larger than the extinction coefficient of reduced hemoglobin. Therefore, a signal based on a wavelength band equal to or less than the cutoff wavelength is The signal ratio B1 / G2 is lower than the original value measured at 473 nm, causing inaccurate oxygen saturation to be calculated. For this reason, the high-pass filter 302 prevents the specimen from being irradiated with light in a wavelength band equal to or less than the cutoff wavelength when acquiring the B1 image signal for calculating the oxygen saturation.
  • the high pass filter 302 is inserted in front of the B-LED 301c in the special observation mode, and is retracted to the retreat position in the normal observation mode.
  • the high-pass filter 302 is inserted / removed by the HPF insertion / removal unit 303 under the control of the LED light source control unit 304.
  • the LED light source control unit 304 controls turning on / off of each LED 301 a to 301 c of the LED light source unit 301 and insertion / extraction of the high-pass filter 302. Specifically, as shown in FIG. 24, in the normal observation mode, the LED light source control unit 304 turns on all the LEDs 301a to 301c, and the high-pass filter 302 retracts from the optical path of the B-LED 301c.
  • the LED light source control unit 304 inserts the high-pass filter 302 on the optical path of the B-LED 301c.
  • the B-LED 301c is turned on and the R-LED 301a and the G-LED 301b are turned off, thereby irradiating the sample with blue light with a wavelength band of 450 nm or less cut.
  • the R-LED 301a, the G-LED 301b, and the B-LED 301c are all turned on.
  • the blue light emitted by the B-LED 301c the blue light with a wavelength band of 450 nm or less cut and the R-LED 301a White light consisting of red light emitted and green light emitted from the G-LED 301b is irradiated into the specimen. Accordingly, the sensor 48 outputs a B1 image signal in the first frame, and outputs an R2 image signal, a G2 image signal, and a B2 image signal in the second frame, respectively. Therefore, the subsequent processing can be performed in the same manner as in the endoscope system of the first embodiment and the second embodiment.
  • the specimen is imaged while the high-pass filter 302 is inserted in both the first frame and the second frame in the special observation mode, but the high-pass filter 302 is inserted only in the first frame and the second frame.
  • the high pass filter 302 may be retracted.
  • the first frame in the special observation mode only the B-LED 301c is turned on and only the blue light is irradiated on the specimen.
  • the R-LED 301a and the G-LED 301b are also turned on in the first frame, and the R1 image signal The G1 image signal may be output to the sensor 48.
  • the light source device 14 of the endoscope system 400 includes a broadband light source 401, a rotary filter 402, and a first blue laser beam 34, a second blue laser beam 36, and a light source control unit 40.
  • a rotation filter control unit 403 is provided.
  • the sensor 405 of the endoscope system 400 is a monochrome image sensor that is not provided with a color filter. The rest is the same as the endoscope system of the first to third embodiments.
  • the broadband light source 401 includes, for example, a xenon lamp, a white LED, and the like, and emits white light whose wavelength band ranges from blue to red.
  • the rotation filter 402 includes a normal observation mode filter 410 and a special observation mode filter 411 (see FIG. 27), and the white light emitted from the broadband light source 401 is normally on the optical path on which the light guide 41 is incident. It is movable in the radial direction between a first position for the normal observation mode where the observation mode filter 410 is disposed and a second position for the special observation mode where the special observation mode filter 411 is disposed.
  • the mutual movement of the rotary filter 402 to the first position and the second position is controlled by the rotary filter control unit 403 according to the selected observation mode.
  • the rotation filter 402 rotates according to the imaging frame of the sensor 405 while being arranged at the first position or the second position.
  • the rotation speed of the rotation filter 402 is controlled by the rotation filter control unit 403 according to the selected observation mode
  • the normal observation mode filter 410 is provided on the inner periphery of the rotary filter 402.
  • the normal observation mode filter 410 includes an R filter 410a that transmits red light, a G filter 410b that transmits green light, and a B filter 410c that transmits blue light. Therefore, when the rotary filter 402 is arranged at the first position for the normal light observation mode, white light from the broadband light source 401 is selected from the R filter 410a, the G filter 410b, and the B filter 410c according to the rotation of the rotary filter 402. It enters the crab.
  • the specimen is sequentially irradiated with red light, green light, and blue light according to the transmitted filter, and the sensor 405 receives these reflected lights to pick up the specimen, thereby obtaining an R image signal.
  • G image signal and B image signal are sequentially output.
  • the special observation mode filter 411 is provided on the outer peripheral portion of the rotary filter 402.
  • the special observation mode filter 411 includes an R filter 411a that transmits red light, a G filter 411b that transmits green light, a B filter 411c that transmits blue light, and a narrow band that transmits 473 ⁇ 10 nm narrow band light. And a filter 411d. Therefore, when the rotary filter 402 is disposed at the second position for the normal light observation mode, white light from the broadband light source 401 is reduced according to the rotation of the rotary filter 402, such as the R filter 411a, the G filter 411b, the B filter 411c, and the narrow filter. The light enters one of the band-pass filters 411d.
  • the specimen is sequentially irradiated with red light, green light, blue light, and narrowband light (473 nm) in accordance with the transmitted filter, and the sensor 405 images each specimen with these reflected lights.
  • an R image signal, a G image signal, a B image signal, and a narrowband image signal are sequentially output.
  • the R image signal and the G image signal obtained in the special observation mode correspond to the R1 (or R2) image signal and the G1 (or G2) image signal of the first embodiment, respectively.
  • the B image signal obtained in the special observation mode corresponds to the B2 image signal of the first embodiment, and the narrowband image signal corresponds to the B1 image signal. Therefore, the subsequent processing can be performed in the same manner as in the endoscope systems of the first to third embodiments.
  • the first to fourth embodiments is performed to correct the errors of the correction and the image signal of the oxygen saturation, extraction or the specific frequency Omega V components
  • the calculation of the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB, and the correction of the oxygen saturation error and the image signal using them divide the B1 image signal, the G2 image signal, and the R2 image signal into a plurality of regions, respectively. This is preferably performed in each divided area. For example, as shown in FIG. 28, the B1 image signal 501 is divided into a total of nine divided regions 501a to 501i of 3 ⁇ 3 vertically and horizontally.
  • each difference in amplitude DerutaBG, Gr, and the calculation of DerutaRB is carried out each difference in amplitude DerutaBG, Gr, and the calculation of DerutaRB. Based on the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB calculated for each of the divided regions 501a to 501i, it is preferable to correct the oxygen saturation error and the image signal for each of the divided regions 501a to 501i. The same applies to the G2 image signal and the R2 image signal.
  • the oxygen saturation error correction and the image signal correction are performed in each of the divided regions 501a to 501i.
  • the correction accuracy is improved.
  • the specimen 505 for example, a lumen wall
  • the central divided region among the divided areas obtained by dividing the image signal 510 into nine pieces Assuming that the distance (imaging distance) between the specimen 505 projected on 510i and the tip 24 is d1, in the other divided areas 510a to 510h, each part of the subject 505 corresponding to each divided area 501a to 510h and the tip.
  • the distance to 24 is d2, which is longer than the divided area 510i (d2> d1).
  • the entire image signal 510 collectively extracts the amplitude of the specific frequency Omega V components, the difference in amplitude DerutaBG, Gr, and calculating the DerutaRB, central divided region 510i and the peripheral divided area 510a
  • the amplitude differences ⁇ BG, ⁇ GR, and ⁇ RB become different values at ⁇ 510h.
  • the difference becomes more prominent as the zoom magnification is higher or the tip 24 is closer to the specimen 505. Therefore, when the oxygen saturation error correction and the image signal correction are performed in the same manner in all the divided areas 510a to 501i, the central divided area 510i and the peripheral divided areas 510a to 510h or both of these areas are used. An error occurs in the correction. On the other hand, if the oxygen saturation error correction or the image signal correction is performed for each of the divided areas 510a to 510i, the most accurate correction can be performed in each area.
  • the difference in imaging distance between the divided regions 520a to 520i in the obtained image signal 520 Becomes even larger.
  • the distance between the distal end portion 24 and the specimen 505 is d3, which is the shortest, but in the middle three divided areas 520d, 520i, and 520h, d4 is longer than d3.
  • d5 is the longest (d3 ⁇ d4 ⁇ d5).
  • the oxygen differences ⁇ BG, ⁇ GR, and ⁇ RB are collectively calculated for the entire image signal 520 (all divided regions 520a to 520i). Saturation error correction and image signal correction tend to be inaccurate. However, if correction is performed in each of the divided regions 520a to 520i, the oxygen saturation error correction and the image signal correction are performed more accurately than when the entire image signal 520 is corrected collectively. be able to.
  • the image signal is divided into nine 3 ⁇ 3 divided regions, and the oxygen saturation error correction and the image signal correction are performed in each divided region. Is optional. However, the finer the division, the better the correction accuracy, but the correction process takes time. For this reason, in order to achieve both the speed of the correction process and the correction accuracy, it is preferable to divide the image signal into a total of about 9 areas of 3 ⁇ 3 as described above.
  • the oxygen saturation error and the image signal are always corrected regardless of the presence or absence of the artifact.
  • a threshold value for determining whether to perform the correction is set. May be. For example, when the error of oxygen saturation stored in the error table 88 is smaller than the first threshold value (for example, ⁇ 5%), the correction process is not performed, and the correction process is performed only when there is an error equal to or greater than the first threshold value. You may make it do.
  • the image signal is not corrected, and both the correction coefficients ⁇ and ⁇ are equal to or greater than the second threshold. In this case, the image signal may be corrected only.
  • different threshold values may be set for the correction coefficient ⁇ and the correction coefficient ⁇ .
  • a threshold value that determines the upper limit for performing the correction process may be set. This is because if the oxygen saturation error or the correction coefficient is remarkably large as the set threshold value is exceeded, the error of the correction process itself is large, and a reliable oxygen saturation value may not be calculated.
  • the oxygen saturation is calculated based on the signal ratio B1 / G2 and the signal ratio R2 / G2, but the oxygen saturation is calculated based only on the signal ratio B1 / G2. May be.
  • the correlation storage unit 82 may store the correlation between the signal ratio B1 / G2 and the oxygen saturation.
  • an oxygen saturation image obtained by imaging oxygen saturation is generated and displayed.
  • a blood volume image obtained by imaging blood volume is generated and displayed. May be. Since the blood volume has a correlation with the signal ratio R2 / G2, a blood volume image in which the blood volume is imaged can be created by assigning a different color according to the signal ratio R2 / G2.
  • the oxygen saturation is calculated, but instead of or in addition to this, “blood volume (signal ratio R2 / G2) ⁇ oxygen saturation (%)”.
  • Other biological function information such as a calculated oxygenated hemoglobin index or a reduced hemoglobin index calculated from “blood volume ⁇ (1 ⁇ oxygen saturation) (%)” may be calculated.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

拡大観察時に発生する酸素飽和度のアーチファクトを低減する。内視鏡システム10は、光源装置14と、センサ48と、酸素飽和度算出部83と、周波数成分情報抽出部84と、補正部86と、画像生成部87とを備える。光源装置14は、第1信号光と第2信号光を検体に照射する。センサ48は、第1信号光と第2信号光の反射光で検体を撮像して第1,第2画像信号を出力する。酸素飽和度算出部83は、第1画像信号と第2画像信号の信号比に基づいて検体の酸素飽和度を算出する。周波数成分情報抽出部84は、第1画像信号と第2画像信号から周波数成分情報を抽出する。補正部86は、第1画像信号と第2画像信号の周波数成分の振幅に基づいて、酸素飽和度を補正する。画像生成部87は、補正部86によって補正された酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。

Description

内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法
 本発明は、検体内の撮像により得られる画像信号から血中ヘモグロビンの酸素飽和度に関する生体機能情報を取得する内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法に関する。
 医療分野においては、光源装置、内視鏡、プロセッサ装置を備える内視鏡システムを用いて診断することが一般的になっている。また、近年においては、生体機能情報の中でも血中ヘモグロビンの酸素飽和度を用いた病変部の診断が行われつつある。血中ヘモグロビンの酸素飽和度を取得する方法としては、波長帯域が異なり、かつ、酸化ヘモグロビンと還元ヘモグロビンの吸光係数が異なる、第1信号光と第2信号光を交互に粘膜内の血管に照射して、第1及び第2信号光の各反射光を内視鏡先端部のセンサで検出する方法が知られている(特許文献1)。
 センサで検出した第1信号光の反射光に対応する第1信号光画像信号と、第2信号光の反射光に対応する第2信号光画像信号の比率(以下、信号比という)は、血管内の酸素飽和度に変化がなければ一定値を維持するが、酸素飽和度の変化が生じれば、それにともなって変化する。したがって、第1信号光画像信号と第2信号光画像信号の信号比に基づいて酸素飽和度を算出することができる。
特開2012-125402号公報
 酸素飽和度の算出は、第1及び第2信号光が検体に対して均一に照射されていることを前提としている。このため、第1及び第2信号光が不均一な場合には算出した酸素飽和度の信頼性が低くなってしまうので、酸素飽和度を取得する内視鏡システムでは、検体にほぼ均一に第1及び第2信号光が照射されるように、第1及び第2信号光の照射範囲や光量の分布等が予め厳密に調節されている。
 しかし、通常の白色光による観察をする場合に観察範囲の全範囲で検体を鮮明に観察できるように照明の照射範囲や光量の分布が調節してあったとしても、酸素飽和度を算出すると、検体の性状によるものではない大きな誤差(以下、アーチファクトという)が発生してしまう場合がある。具体的には、非拡大観察から拡大観察(内視鏡先端部を検体に極めて接近させた観察、またはズーミングレンズを作動して検体を拡大する観察)に切り替えると、非拡大観察時には発生していなかった低酸素領域や高酸素領域が発生するようになる。すなわち、拡大観察時には、非拡大観察時には起こりえなかった酸素飽和度のアーチファクトが発生する。これは、酸素飽和度が照明(第1及び第2信号光)の光量分布等に対して極めて敏感であることと、極めて小さな照明の光量分布等の誤差でも拡大観察時には拡大率に応じて酸素飽和度への寄与が大きくなってしまうことが主な原因である。
 拡大観察時に酸素飽和度のアーチファクトが発生しないようにするためには、さらに厳密に照明を均一にすれば良いが、当然ながら、文字通り完全に照明を均一化することは不可能である。また、特定の拡大率での拡大観察時に酸素飽和度のアーチファクトが発生しないようにしたとしても、拡大率を上げれば再び同じ問題が発生するので根本的な解決にはならない。
 本発明は、拡大観察時に発生する酸素飽和度のアーチファクトを低減し、酸素飽和度の分布を従来よりも細かく正確に算出及び表示する内視鏡システム及びプロセッサ装置並びに作動方法、並びにこれらに用いるテーブルの作成方法を提供することを目的とする。
 本発明の内視鏡システムは、光源装置と、センサと、酸素飽和度算出部と、周波数成分情報抽出部と、補正部と、画像生成部とを備える。光源装置は、第1信号光と第2信号光を検体に照射する。センサは、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力する。酸素飽和度算出部は、第1画像信号と第2画像信号の信号比に基づいて検体の酸素飽和度を算出する。周波数成分情報抽出部は、第1画像信号と第2画像信号とから周波数成分情報を抽出する。補正部は、第1画像信号と第2画像信号との周波数成分情報に基づいて、酸素飽和度を補正する。画像生成部は、補正部によって補正された酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 周波数成分情報抽出部が抽出する周波数成分情報とは、例えば、特定の周波数成分の振幅である。そして、補正部は、第1画像信号と第2画像信号の特定の周波数成分の振幅の差に基づいて酸素飽和度の補正をする。
 補正部は、例えば、第1画像信号と第2画像信号の周波数成分情報と、酸素飽和度の誤差とを対応付けた誤差テーブルを有することが好ましい。この場合、誤差テーブルを参照して第1画像信号と第2画像信号の周波数成分情報に対応する酸素飽和度の誤差を算出し、算出した誤差を酸素飽和度から除く補正をする。
 補正部は、第1画像信号及び第2画像信号を複数の領域に分割し、複数の領域毎に酸素飽和度の補正をすることが好ましい。
 なお、周波数成分情報は、例えば検体の表層血管に対応する周波数成分に関する情報である。
 本発明の別の内視鏡システムは、光源装置と、センサと、周波数成分情報抽出部と、補正部と、酸素飽和度算出部と、画像生成部とを備える。光源装置は、第1信号光と第2信号光を検体に照射する。センサは、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力する。周波数成分情報抽出部は、第1画像信号及び第2画像信号から周波数成分情報を抽出する。補正部は、第1画像信号と第2画像信号との周波数成分情報に基づいて、第1画像信号と第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する。酸素飽和度算出部は、第1補正画像信号と第2補正画像信号の信号比に基づいて検体の酸素飽和度を算出する。画像生成部は、酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 周波数成分情報抽出部が抽出する周波数成分情報とは、例えば、特定の周波数成分の振幅である。そして、補正部は、第1画像信号と第2画像信号の振幅の差に基づいて第1画像信号と第2画像信号の補正をすることが好ましい。
 補正部は、例えば、第1画像信号と第2画像信号の周波数成分情報と、第1画像信号または第2画像信号に乗じる補正係数とを対応付けた補正係数テーブルを有することが好ましい。この場合、補正係数テーブルを参照して第1画像信号と第2画像信号の振幅の差に対応する補正係数を算出する。
 本発明のプロセッサ装置は、第1信号光と第2信号光を検体に照射する光源装置と、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムのプロセッサ装置であり、酸素飽和度算出部と、周波数成分情報抽出部と、補正部と、画像生成部と、を備える。酸素飽和度算出部は、第1画像信号と第2画像信号との信号比に基づいて検体の酸素飽和度を算出する。周波数成分情報抽出部は、第1画像信号と第2画像信号とから周波数成分情報を抽出する。補正部は、第1画像信号と第2画像信号との周波数成分情報に基づいて、酸素飽和度を補正する。画像生成部は、補正部によって補正された酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 また、本発明の別のプロセッサ装置は、第1信号光と第2信号光を検体に照射する光源装置と、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムのプロセッサ装置であり、周波数成分情報抽出部と、補正部と、酸素飽和度算出部と、画像生成部と、を備える。周波数成分情報抽出部は、第1画像信号と第2画像信号とから周波数成分情報を抽出する。補正部は、第1画像信号と第2画像信号との周波数成分情報に基づいて、第1画像信号と第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する。酸素飽和度算出部は、第1補正画像信号と第2補正画像信号との信号比に基づいて検体の酸素飽和度を算出する。画像生成部は、酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 本発明の内視鏡システムの作動方法は、第1信号光と第2信号光を発する光源装置と、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力するセンサと、を有する内視鏡システムの作動方法であり、酸素飽和度算出ステップと、周波数成分情報抽出ステップと、補正ステップと、画像生成ステップと、を備える。酸素飽和度算出ステップは、第1画像信号と第2画像信号との信号比に基づいて検体の酸素飽和度を算出する。周波数成分情報抽出ステップは、第1画像信号と第2画像信号とから周波数成分情報を抽出する。補正ステップでは、第1画像信号と第2画像信号との周波数成分情報に基づいて、酸素飽和度を補正する。画像生成ステップは、補正ステップで補正された酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 本発明の別の内視鏡システムの作動方法は、第1信号光と第2信号光を発する光源装置と、検体で反射した第1信号光の反射光を受光することにより検体を撮像して得られた第1画像信号を出力し、かつ検体で反射した第2信号光の反射光を受光することにより検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムの作動方法であり、周波数成分情報抽出ステップと、補正ステップと、酸素飽和度算出ステップと、画像生成ステップと、を備える。周波数成分情報抽出ステップは、第1画像信号と第2画像信号とから周波数成分情報を抽出する。補正ステップは、第1画像信号と第2画像信号との周波数成分情報に基づいて、第1画像信号と第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する。酸素飽和度算出ステップは、第1補正画像信号と第2補正画像信号との信号比に基づいて検体の酸素飽和度を算出する。画像生成ステップは、酸素飽和度に基づいて検体の酸素飽和度を表す酸素飽和度画像を生成する。
 本発明のテーブル作成方法は、撮像ステップと、周波数成分情報抽出ステップと、酸素飽和度算出ステップと、誤差算出ステップと、記憶ステップとを備える。撮像ステップは、酸素飽和度が既知の血液を含む血液入り材料が特定の空間周波数で配列されたファントムに第1信号光と第2信号光をそれぞれ照射し、ファントムで反射した第1信号光の反射光を受光することによりファントムを撮像して、第1信号光に対応する第1画像信号を取得し、ファントムで反射した第2信号光の反射光を受光することによりファントムを撮像して第2信号光に対応する第2画像信号を取得する。周波数成分情報抽出ステップは、第1画像信号と第2画像信号とから空間周波数に対応する周波数成分情報を抽出する。酸素飽和度算出ステップは、第1画像信号と第2画像信号との信号比に基づいて血液入り材料の酸素飽和度を算出する。誤差算出ステップは、酸素飽和度算出ステップで算出された酸素飽和度と、血液の酸素飽和度との誤差を算出する。記憶ステップは、第1画像信号と第2画像信号との周波数成分情報と、誤差を対応付けて記憶する。
 本発明の別のテーブル作成方法は、第1撮像ステップと、第2撮像ステップと、第1周波数成分情報抽出ステップと、第2周波数成分情報抽出ステップと、補正係数算出ステップと、記憶ステップと、を備える。第1撮像ステップは、酸素飽和度が既知の血液を含む血液入り材料が特定の空間周波数で配列されたファントムに第1信号光と第2信号光とをそれぞれ照射し、ファントムで反射した第1信号光の反射光を受光することによりファントムを撮像して第1信号光に対応する第1画像信号を取得し、ファントムで反射した第2信号光の反射光を受光することによりファントムを撮像して第2画像信号を取得する。第2撮像ステップは、ファントムに第1信号光と第2信号光とをそれぞれ照射し、ファントムで反射した第1信号光の反射光を受光し、第1撮像ステップと比較してファントムを拡大して撮像することにより第1信号光に対応する第3画像信号を取得し、ファントムで反射した第2信号光の反射光を受光し、第1撮像ステップと比較してファントムを拡大して撮像することにより第2信号光に対応する第4画像信号を取得する。第1周波数成分情報抽出ステップは、第1画像信号と第2画像信号とからファントムの空間周波数に対応する周波数成分情報を抽出する。第2周波数成分情報抽出ステップは、第3画像信号と第4画像信号とからファントムの空間周波数に対応する周波数成分情報を抽出する。補正係数算出ステップは、第3画像信号と第4画像信号との周波数成分情報の比を、第1画像信号と第2画像信号との周波数成分情報の比に等しくする補正係数を算出する。記憶ステップは、第3画像信号と第4画像信号との周波数成分情報と、補正係数とを対応付けて記憶する。
 本発明の内視鏡システム及びプロセッサ装置並びに作動方法によれば、拡大観察時の酸素飽和度のアーチファクトを低減し、酸素飽和度の分布を従来よりも細かく正確に算出し、表示することができる。
内視鏡システムの外観図である。 内視鏡システムのブロック図である。 通常観察モード時に発光する第2白色光のスペクトルを示すグラフである。 特殊観察モード時に発光する第1及び第2白色光のスペクトルを示すグラフである。 RGBカラーフィルタの分光透過率を示すグラフである。 通常観察モード時の撮像制御を示す説明図である。 特殊観察モード時の撮像制御を示す説明図である。 酸素飽和度画像生成部のブロック図である。 信号比B1/G2,R2/G2と酸素飽和度の相関関係を示すグラフである。 酸化ヘモグロビンと還元ヘモグロビンの吸光係数を示すグラフである。 酸素飽和度を算出する方法を示す説明図である。 非拡大観察時の画像信号と周波数成分の振幅を示す説明図である。 拡大観察時の画像信号と周波数成分の振幅を示す説明図である。 誤差テーブルの説明図である。 誤差テーブルを作成するためのファントムを示す説明図である。 内視鏡システムの作用を示すフローチャートである。 補正処理の有無の違いを示す説明図である。 第2実施形態における酸素飽和度画像生成部のブロック図である。 補正係数テーブルの説明図である。 補正係数と特定周波数成分の振幅の関係を示す説明図である。 蛍光体が光源装置内に設けられた内視鏡システムのブロック図である。 第3実施形態の内視鏡システムのブロック図である。 LEDの発光帯域とHPFの特性を示すグラフである。 第3実施形態における通常観察モード時の撮像制御を示す説明図である。 第3実施形態における特殊観察モード時の撮像制御を示す説明図である。 第4実施形態の内視鏡システムのブロック図である。 回転フィルタの平面図である。 分割領域を示す説明図である。 分割領域と撮影距離の関係を示す説明図である。 分割領域と撮影距離の関係を示す説明図である。
[第1実施形態]
 図1に示すように、第1実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール20とを有する。内視鏡12は、光源装置14と光学的に接続されるとともに、プロセッサ装置16と電気的に接続される。内視鏡12は、検体内に挿入される挿入部21と、挿入部21の基端部分に設けられた操作部22と、挿入部21の先端側に設けられた湾曲部23及び先端部24を有している。操作部22のアングルノブ22aを操作することにより、湾曲部23は湾曲動作する。この湾曲動作にともなって、先端部24が所望の方向に向けられる。
 また、操作部22には、アングルノブ22aの他、モード切替SW(モード切替スイッチ)22bと、ズーム操作部22cが設けられている。モード切替SW22bは、通常観察モードと、特殊観察モードの2種類のモード間の切り替え操作に用いられる。通常観察モードは、検体内をフルカラー画像化した通常光画像をモニタ18に表示するモードである。特殊観察モードは、検体内の血中ヘモグロビンの酸素飽和度を画像化した酸素飽和度画像をモニタ18に表示するモードである。ズーム操作部22cは、内視鏡12内のズーミングレンズ47(図2参照)を駆動させて、検体を拡大させるズーム操作に用いられる。
 プロセッサ装置16は、モニタ18及びコンソール20と電気的に接続される。モニタ18は、通常光画像や酸素飽和度画像等の画像、及びこれらの画像に関する情報(以下、画像情報等という)を表示する。コンソール20は、機能設定等の入力操作を受け付けるUI(ユーザインタフェース)として機能する。なお、プロセッサ装置16には、画像情報等を記録する記録部(図示省略)を接続しても良い。
 図2に示すように、光源装置14は、中心波長473nmの第1青色レーザ光を発する第1青色レーザ光源(473LD(レーザダイオード))34と、中心波長445nmの第2青色レーザ光を発する第2青色レーザ光源(445LD)36とを発光源として備えている。これらの半導体発光素子からなる第1青色レーザ光源34及び第2青色レーザ光源36の発光は、光源制御部40により個別に制御される。このため、第1青色レーザ光源34の出射光と、第2青色レーザ光源36の出射光の光量比は変更自在になっている。
 光源制御部40は、通常観察モードの場合には、第2青色レーザ光源36を点灯させ、第2青色レーザ光を発光させる。これに対して、特殊観察モードの場合には、1フレーム間隔で、第1青色レーザ光源34と第2青色レーザ光源36とを交互に点灯させ、第1青色レーザ光と第2青色レーザ光が交互に発光させる。なお、第1青色レーザ光及び第2青色レーザ光の半値幅は±10nm程度にすることが好ましい。また、第1青色レーザ光源34と第2青色レーザ光源36は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオード等の発光体を用いた構成としても良い。
 第1青色レーザ光源34及び第2青色レーザ光源36から出射される第1青色レーザ光及び第2青色レーザ光は、集光レンズ、光ファイバ、合波器等の光学部材(いずれも図示せず)を介してライトガイド(LG)41に入射する。ライトガイド41は、光源装置14と内視鏡12を接続するユニバーサルコードに内蔵されている。ライトガイド41は、第1青色レーザ光源34及び第2青色レーザ光源36から出射される第1青色レーザ光及び第2青色レーザ光を、内視鏡12の先端部24まで伝搬する。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部24は、照明光学系24aと撮像光学系24bを有している。照明光学系24aには、蛍光体44と、照明レンズ45が設けられている。蛍光体44には、ライトガイド41から第1青色レーザ光及び第2青色レーザ光が入射する。蛍光体44は、第1青色レーザ光または第2青色レーザ光が照射されることで蛍光を発する。また、一部の第1青色レーザ光または第2青色レーザ光は、そのまま蛍光体44を透過する。蛍光体44を出射した光は、照明レンズ45を介して検体内に照射される。
 通常観察モードにおいては、第2青色レーザ光が蛍光体44に入射するため、図3に示すスペクトルの白色光(第2白色光)が検体内に照射される。この第2白色光は、第2青色レーザ光と、この第2青色レーザ光により蛍光体44から励起発光する緑色~赤色の第2蛍光とから構成される。したがって、第2白色光は、波長範囲が可視光全域に及んでいる。
 一方、特殊観察モードにおいては、第1青色レーザ光と第2青色レーザ光が蛍光体44に交互に入射することにより、図4に示すスペクトルの第1白色光と第2白色光が交互に検体内に照射される。第1白色光は、第1青色レーザ光と、この第1青色レーザ光により蛍光体44から励起発光する緑色~赤色の第1蛍光とから構成される。したがって、第1白色光は、波長範囲が可視光全域に及んでいる。第2白色光は、通常観察モード時に照射される第2白色光と同様である。
 第1蛍光と第2蛍光は、波形(スペクトルの形状)がほぼ同じであり、第1蛍光の強度(I1(λ))と第2蛍光の強度(I2(λ))の比(以下、フレーム間強度比という)は、何れの波長λにおいても同じである。例えば、I2(λ1)/I1(λ1)=I2(λ2)/I1(λ2)である。このフレーム間強度比I2(λ)/I1(λ)は、酸素飽和度の算出精度に影響を与えるものであるため、光源制御部40により、予め設定された基準フレーム間強度比を維持するように高精度に制御されている。
 なお、蛍光体44は、第1及び第2青色レーザ光の一部を吸収して、緑色~赤色に励起発光する複数種類の蛍光体(例えばYAG系蛍光体、あるいはBAM(BaMgAl1017)等の蛍光体)を含んで構成されるものを使用することが好ましい。また、本実施形態のように、半導体発光素子を蛍光体44の励起光源として用いれば、高い発光効率で高強度の第1白色光及び第2白色光が得られる。また、各白色光の強度を容易に調整できる上に、色温度、色度の変化を小さく抑えることができる。
 内視鏡12の撮像光学系24bは、撮像レンズ46、ズーミングレンズ47、及びセンサ48を有している(図2参照)。検体からの反射光は、撮像レンズ46及びズーミングレンズ47を介してセンサ48に入射する。これにより、センサ48に検体の反射像が結像される。ズーミングレンズ47は、ズーム操作部22cを操作することでテレ端とワイド端との間を移動する。ズーミングレンズ47がワイド端側に移動すると検体の反射像が縮小する。一方、ズーミングレンズ47がテレ端側に移動することで、検体の反射像が拡大する。なお、拡大観察をしない場合(非拡大観察時)には、ズーミングレンズ47はワイド端に配置されている。そして、拡大観察を行う場合には、ズーム操作部22cの操作によってズーミングレンズ47はワイド端からテレ端側に移動される。
 センサ48は、カラーの撮像素子であり、検体の反射像を撮像して画像信号を出力する。センサ48は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。また、センサ48は、撮像面にRGBカラーフィルタが設けられたRGB画素を有しており、RGBの各色の画素で光電変換をすることによってR,G,及びBの三色の画像信号を出力する。
 図5に示すように、Bカラーフィルタは380~560nmの分光透過率を有しており、Gカラーフィルタは450~630nmの分光透過率を有しており、Rカラーフィルタ580~760nmの分光透過率を有している。したがって、通常観察モード時に第2白色光が検体内に照射された場合には、B画素には第2青色レーザ光と第2蛍光の緑色成分の一部が入射し、G画素には第2蛍光の緑色成分の一部が入射し、R画素には第2蛍光の赤色成分が入射する。但し、第2青色レーザ光は第2蛍光よりも発光強度が極めて大きいのでB画素から出力するB画像信号の大部分は第2青色レーザ光の反射光成分で占められている。
 一方、特殊観察モード時に第1白色光が検体内に照射された場合には、B画素には第1青色レーザ光と第1蛍光の緑色成分の一部が入射し、G画素には第1蛍光の緑色成分の一部が入射し、R画素には第1蛍光の赤色成分が入射する。但し、第1青色レーザ光は第1蛍光よりも発光強度が極めて大きいので、B画像信号の大部分は第1青色レーザ光の反射光成分で占められている。なお、特殊観察モード時に第2白色光が検体内に照射されたときのRGB各画素での光入射成分は、通常観察モードの場合と同様である。
 なお、センサ48としては、撮像面にC(シアン),M(マゼンタ),Y(イエロー)及びG(グリーン)の補色フィルタを備えた、いわゆる補色イメージセンサを用いても良い。センサ48として補色イメージセンサを用いる場合は、CMYGの四色の画像信号からRGBの三色の画像信号に色変換する色変換部を、内視鏡12、光源装置14またはプロセッサ装置16のいずれかに設けておけば良い。こうすれば補色イメージセンサを用いる場合でも、CMYGの4色の画像信号から色変換によってRGB3色の画像信号を得ることができる。
 撮像制御部49はセンサ48の撮像制御を行う。図6に示すように、センサ48の1フレームの期間は、検体からの反射光を光電変換して電荷を蓄積する蓄積期間と、その後に蓄積した電荷を読み出して画像信号を出力する読出期間とからなる。通常観察モード時には、1フレームの期間毎に、第2白色光で照明された検体内をセンサ48で撮像する。これにより、1フレーム毎にセンサ48からRGBの各画像信号が出力される。
 撮像制御部49は、特殊観察モード時も、通常観察モード時と同様にしてセンサ48に蓄積期間と読出期間を行わせる。但し、特殊観察モード下ではセンサ48の撮像のフレームに同期して第1白色光と第2白色光が交互に検体内に照射されるので、図7に示すように、センサ48は、1フレーム目に第1白色光で検体内を撮像し、次の2フレーム目では第2白色光で検体内を撮像する。センサ48は、1フレーム目及び2フレーム目ともRGBの各色の画像信号を出力するが、依拠する白色光のスペクトルが異なるので、以下では区別のために、1フレーム目に第1白色光で撮像して得られるRGB各色の画像信号をそれぞれR1画像信号,G1画像信号,又はB1画像信号といい、2フレーム目に第2白色光で撮像して得られるRGB各色の画像信号をR2画像信号,G2画像信号,又はB2画像信号という。
 なお、酸素飽和度の算出には、B1画像信号とG2画像信号の信号比B1/G2と、R2画像信号とG2画像信号の信号比R2/G2が用いられる。これらのうち、酸素飽和度の算出に必須な信号比は、B1画像信号とG2画像信号の信号比B1/G2である。このため、本実施形態では、第1白色光中のB1画像信号になる成分(蛍光体44を透過した第1青色レーザ光)が第1信号光であり、第2白色光中のG2画像信号になる成分(第2蛍光の緑色帯域成分)が第2信号光である。
 センサ48から出力される各色の画像信号は、CDS(correlated double sampling)/AGC(automatic gain control)回路50へ送信される(図2参照)。CDS/AGC回路50は、センサ48から出力されるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路50を経た画像信号は、A/D変換器52によってデジタル画像信号に変換される。こうしてデジタル化された画像信号はプロセッサ装置16に入力される。
 プロセッサ装置16は、受信部54と、画像処理切替部60と、通常観察画像処理部62と、特殊観察用画像処理部64と、画像表示信号生成部66とを備えている。受信部54は、内視鏡12から入力される画像信号を受信する。受信部54はDSP(Digital Signal Processor)56とノイズ除去部58を備えており、DSP56は、受信した画像信号に対して色補正処理等のデジタル信号処理を行う。ノイズ除去部58は、DSP56で色補正処理等が施された画像信号に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ除去処理を施す。ノイズが除去された画像信号は、画像処理切替部60に入力される。
 画像処理切替部60は、モード切替SW22bが通常観察モードにセットされている場合には、画像信号を通常観察画像処理部62に入力する。一方、モード切替SW22bが特殊観察モードに設定されている場合、画像処理切替部60は、画像信号を特殊観察用画像処理部64に入力する。
 通常観察画像処理部62は、色変換部68と、色彩強調部70と、構造強調部72とを有する。色変換部68は、入力された1フレーム分のRGBの各画像信号を、それぞれR画素、G画素、又はB画素に割り当てたRGB画像データを生成する。そして、RGB画像データに対して、さらに3×3のマトリックス処理、階調変換処理、3次元LUT処理等の色変換処理を施す。
 色彩強調部70は、色変換処理済みのRGB画像データに対して、各種色彩強調処理を施す。構造強調部72は、色彩強調処理済みのRGB画像データに対して、空間周波数強調等の構造強調処理を施す。構造強調部72で構造強調処理が施されたRGB画像データは、通常観察画像として画像表示信号生成部66に入力される。
 特殊観察画像処理部64は、酸素飽和度画像生成部76と、構造強調部78とを有する。酸素飽和度画像生成部76は、酸素飽和度を算出し、かつ算出した酸素飽和度を表す酸素飽和度画像を生成する。
 構造強調部78は、酸素飽和度画像生成部76から入力される酸素飽和度画像に対して、空間周波数強調処理等の構造強調処理を施す。構造強調部72で構造強調処理が施された酸素飽和度画像は、画像表示信号生成部66に入力される。
 表示用画像信号生成部66は、通常観察画像または酸素飽和度画像を表示用形式の信号(表示用画像信号)に変換し、モニタ18に入力する。これにより、モニタ18には通常観察画像または酸素飽和度画像が表示される。
 図8に示すように、酸素飽和度画像生成部76は、信号比算出部81と、相関関係記憶部82と、酸素飽和度算出部83と、周波数成分情報抽出部84、差分算出部85、補正部86、画像生成部87と、を備えている。
 信号比算出部81には、酸素飽和度画像生成部76に入力される2フレーム分の画像信号のうち、B1画像信号、G2画像信号、R2画像信号が入力される。信号比算出部81は、B1画像信号とG2画像信号の信号比B1/G2と、G2画像信号とR2画像信号の信号比R2/G2とを、画素毎に算出する。
 相関関係記憶部82は、信号比B1/G2及び信号比R2/G2と、酸素飽和度の相関関係を記憶している。この相関関係は、図9に示す二次元空間上に酸素飽和度の等高線を定義した2次元テーブルで記憶されている。信号比B1/G2及び信号比R2/G2に対する等高線の位置及び形状は、光散乱の物理的なシミュレーションによって予め得られ、各等高線の間隔は、血液量(信号比R2/G2)に応じて変化する。なお、信号比B1/G2及び信号比R2/G2と、酸素飽和度との相関関係はlogスケールで記憶されている。
 なお、上記相関関係は、図10に示すように、酸化ヘモグロビン(グラフ90)や還元ヘモグロビン(グラフ91)の吸光特性や光散乱特性と密接に関連し合っている。例えば、第1青色レーザ光の中心波長473nmのように、酸化ヘモグロビンと還元ヘモグロビンの吸光係数の差が大きい波長では、酸素飽和度の情報を取り扱いやすい。しかしながら、473nmの光に対応する信号を含むB1画像信号は、酸素飽和度だけでなく、血液量にも依存度が高い。そこで、B1画像信号に加え、主として血液量に依存して変化する光に対応するR2画像信号と、B1画像信号とR2画像信号のリファレンス信号となるG2画像信号から得られる信号比B1/G2及びR2/G2を用いることで血液量に依存することなく、酸素飽和度を正確に算出することができる。
 酸素飽和度算出部83は、相関関係記憶部82に記憶された相関関係を参照し、信号比算出部81で算出された信号比B1/G2及び信号比R2/G2に対応する酸素飽和度を画素毎に算出する。例えば、特定画素における信号比B1/G2及び信号比R2/G2がそれぞれB1/G2及びR2/G2である場合、図11に示すように、相関関係を参照すると、信号比B1/G2及び信号比R2/G2に対応する酸素飽和度は「60%」である。したがって、酸素飽和度算出部83は、この画素の酸素飽和度を「60%」と算出する。
 なお、信号比B1/G2及び信号比R2/G2が極めて大きくなったり、極めて小さくなったりすることはほとんどない。すなわち、信号比B1/G2や信号比R2/G2の値が、酸素飽和度0%の下限ライン93を上回ったり、反対に酸素飽和度100%の上限ライン94を下回ったりすることはほとんどない。但し、算出する酸素飽和度が下限ライン93を下回ってしまった場合には酸素飽和度算出部83は酸素飽和度を0%とし、上限ライン94を上回ってしまった場合には酸素飽和度を100%とする。また、信号比B1/G2及び信号比R2/G2に対応する点が下限ライン93と上限ライン94の間から外れた場合には、その画素における酸素飽和度の信頼度が低いことが分かるように表示をしても良いし、酸素飽和度を算出しないようにしても良い。
 周波数成分情報抽出部84は、酸素飽和度の算出に用いられるB1画像信号、G2画像信号、及びR2画像信号を取得し、周波数成分情報を抽出する。具体的には、取得した各画像信号をフーリエ変換し、その振幅P(B1),P(G2),及びP(R2)を算出し、これらの各振幅P(B1),P(G2),及びP(R2)から特定周波成分の振幅を抽出する。特定周波成分とは、例えば、拡大観察時に主な観察対象になる表層血管や腺管構造等に対応する周波数成分である。
 差分算出部85は、周波数成分情報抽出部84が抽出した振幅P(B1),P(G2),及びP(R2)の特定周波成分の差を算出する。すなわち、B1画像信号とG2画像信号の特定周波数成分の振幅の差ΔBG(=P(B1)-P(G2))、G2画像信号とR2画像信号の特定周波数成分の振幅の差ΔGR(=P(G2)-P(R2))、及びR2画像信号とB1画像信号の特定周波数成分の振幅の差ΔRB(=P(R2)-P(B1))をそれぞれ特定周波数成分について算出する。
 例えば、図12に示すように、非拡大観察時に得られるB1画像信号(非拡大),G2画像信号(非拡大),R2画像信号(非拡大)は、検体の遠景画像なので表層血管等の細かな像は見られない。このため、表層血管等に対応する特定周波数ωの振幅の差ΔBG,ΔGR,及びΔRBにはほとんど違いはない。なお、図12では、図示の便宜上、任意方向に沿ったフーリエ変換による振幅を表しているが、周波数成分情報抽出部84が行うフーリエ変換は2次元フーリエ変換である。また周波数成分情報抽出部84は、特定周波数ωの振幅値を抽出する。差分算出部85が算出する各振幅の差ΔBG,ΔGR,及びΔRBは、この特定周波数ωにおける各振幅P(B1),P(G2),及びP(R2)のピーク値の差である。
 一方、図13に示すように、拡大観察時に得られるB1画像信号(拡大)には、表層血管等の細かな像が表れる。但し、拡大観察時に得られるG2画像信号(拡大)に表れる像は、B1画像信号(拡大)よりもぼやけている。また、拡大観察時に得られるR2画像信号(拡大)はG2画像信号(拡大)に表れる像よりもさらにぼやけている。このような各色の画像信号に表れる像のぼけ具合の違いは、波長に応じた検体への深達度や検体による吸収(特にヘモグロビンの吸光)及び散乱等によるものである。このため、各振幅P(B1),P(G2),P(R2)は、拡大観察時の表層血管等に対応する特定周波数Ωにおいて、顕著な差が生じるようになり、各振幅の差ΔBG,ΔGR,及びΔRBにも違いが出てくる。このため、各振幅の差ΔBG,ΔGR,及びΔRBは、各色間の像のぼけ具合のバランスを表している。
 なお、検体を拡大観察すると、表層血管等も太く(大きく)見えるようになるので、表層血管等に対応する特定周波数Ωは、非拡大観察時の周波数ωよりも低周波数側にシフトしている。拡大観察時の各振幅P(B1),P(G2),及びP(R2)は、非拡大観察時のものに比べて全体的に概ね低周波数側にシフトしたものなので、非拡大観察時の特定周波数ωと拡大観察時の特定周波数Ωとの対応関係は、各振幅P(B1),P(G2),及びP(R2)の全体的な波形から容易に検出することができる。
 非拡大観察時や、拡大観察時でもズーム倍率や先端部24と検体との距離が一定であり、第1白色光や第2白色光が検体に均一に照射されているとみなせる場合には、波長に応じた像のぼけ具合もほぼ一定である。このため、各振幅の差ΔBG,ΔGR,及びΔRBも、ズーム倍率や先端部24と検体との距離に応じた特定値になる。しかし、第1白色光や第2白色光が検体に均一に照射されているとみなせないほど、ズーム倍率を上げたり、先端部24を検体に極めて近接させたりした拡大観察時には、各振幅の差ΔBG,ΔGR,及びΔRBは、上記特定値からずれた値になる。
 このように、各振幅の差ΔBG,ΔGR,及びΔRBが上記特定値からずれている場合、酸素飽和度算出部83が算出した酸素飽和度にはアーチファクトが発生する。酸素飽和度算出部83が信号比B1/G2と信号比R2/G2とに基づいて酸素飽和度を算出することからも分かるように、酸素飽和度の算出は、B1画像信号,G2画像信号,及びR2画像信号が検体の性状(酸素飽和度と血液量)に応じてのみ変化することを前提としているが、各振幅の差ΔBG,ΔGR,及びΔRBが第1白色光や第2白色光の不均一性によって上記特定値からずれている場合には、当然、誤った酸素飽和度が算出されてしまう。この第1白色光や第2白色光の不均一性よる酸素飽和度の誤差がアーチファクトである。
 補正部86は、誤差テーブル88を有しており、この誤差テーブル88に基づいて、酸素飽和度算出部83が算出した酸素飽和度のデータからアーチファクトによる誤差を除く補正処理をする。図14に示すように、誤差テーブル88は、各振幅の差ΔBG,ΔGR,及びΔRBと、この各振幅の差ΔBG,ΔGR,及びΔRBのもとで算出される酸素飽和度の誤差とが対応付けられたデータである。
 図15に示すように、誤差テーブル88のデータは、内視鏡システム10を用いてファントム(検体を模した模擬体)89を測定することにより予め作成され、補正部86に記憶されている。ファントム89は、例えば、酸素飽和度が特定値に制御された血液が入ったゼラチン(以下、血液入りゼラチンという)89aと、血液が入っていないゼラチン(以下、血液無しゼラチンという)89bとを検体の表層血管とほぼ同じ特定空間周波数で積層して形成される。病変等の異常がない場合、静脈血の酸素飽和度は概ね60~80%なので、血液入りゼラチン89aの酸素飽和度は、例えば70%に制御される。
 誤差テーブル88の作成は以下の手順で行われる。まず、ファントム89をズーム倍率や先端部24との距離を変えながら観察し、酸素飽和度を算出する。また、周波数成分情報抽出部84及び差分算出部85が行うのと同様に、ファントム89を観察して得られるB1画像信号,G2画像信号,及びR2画像信号をフーリエ変換して、ファントム89の空間周波数の振幅を抽出し、これらの各振幅の差ΔBG,ΔGR,及びΔRBを算出する。
 例えば、ズームせず、先端部24を十分にファントム89から離して非拡大観察をした場合には、各振幅の差ΔBG,ΔGR,及びΔRBはほぼ一定値であり、かつ、酸素飽和度の誤差もほぼ零(酸素飽和度70%)である。一方、ズームしたり、先端部24をファントム89に近づけたりして拡大観察した場合は、ズーム倍率または先端部24とファントム89の距離、あるいはこれらの組み合わせ方によっては、各振幅の差ΔBG,ΔGR,又はΔRBが非拡大観察時の一定値よりも大きく(あるいは小さく)なる場合がある。この場合、算出される酸素飽和度の誤差も血液入りゼラチン89aの酸素飽和度70%よりも大きい値になる場合や、逆に小さい値になる場合がある。
 誤差テーブル88には、上記ファントム89の観察及び酸素飽和度の算出によって得られる各振幅の差ΔBG,ΔGR,及びΔRBと、血液入りゼラチン89aの制御された酸素飽和度(70%)に対する算出した酸素飽和度の誤差とが対応付けられ、誤差テーブル88として記憶される。なお、誤差テーブル88には非拡大観察時の一定値になっている各振幅の差ΔBG,ΔGR,及びΔRBと、この場合の酸素飽和度の誤差(±0%)も記憶されている。
 補正部86は、まず、誤差テーブル88を参照することにより、差分算出部85から取得する各振幅の差ΔBG,ΔGR,及びΔRBに対応する酸素飽和度の誤差を算出する。そして、酸素飽和度算出部83が算出した酸素飽和度のデータに、誤差(アーチファクト)を除く補正処理を施す。例えば、アーチファクトによって値が+10%になる画素では、対応する酸素飽和度の値から、誤差を減算(-10%)する。なお、誤差テーブル88に記憶された各振幅の差ΔBG,ΔGR,及びΔRBと酸素飽和度の誤差との対応関係にばらつきがある場合、さらに最尤法等によって最も尤もらしい酸素飽和度の誤差を推定して酸素飽和度の補正処理を行う。
 画像生成部84は、補正部86でアーチファクトによる誤差を補正された酸素飽和度(以下、補正酸素飽和度という)と、B2画像信号、G2画像信号、及びR2画像信号を用いて、酸素飽和度を画像化した酸素飽和度画像を生成する。具体的には、画像生成部84は、入力される元のB2画像信号,G2画像信号,及びR2画像信号に対して、補正酸素飽和度に応じたゲインを画素毎に施し、ゲインを施したB2画像信号,G2画像信号,及びR2画像信号を用いてRGB画像データを生成する。例えば、画像生成部84は、補正酸素飽和度が60%以上の画素ではB2画像信号,G2画像信号,及びR2画像信号のいずれにも同じゲイン「1」を乗じる。これに対して、補正酸素飽和度が60%未満の画素では、B2画像信号に対して「1」未満のゲインを乗じ、G2画像信号及びR2画像信号に対しては「1」以上のゲインを乗じる。このゲイン処理後のB1画像信号,G2画像信号,及びR2画像信号を用いて生成されたRGB画像データが酸素飽和度画像である。
 画像生成部84が生成した酸素飽和度画像では、高酸素の領域(酸素飽和度が60~100%の領域)は、通常観察画像と同様の色で表される。一方、酸素飽和度が特定値を下回る低酸素の領域(酸素飽和度が0~60%の領域)は、通常観察画像とは異なる色(疑似カラー)で表される。
 なお、本実施形態では、画像生成部84は、低酸素の領域のみ疑似カラー化するゲインを乗じているが、高酸素領域でも酸素飽和度に応じたゲインを施し、酸素飽和度画像の全体を疑似カラー化しても良い。また、低酸素領域と高酸素領域を酸素飽和度60%で分けているがこの境界も任意である。
 次に、本実施形態の内視鏡システム10による観察の流れを図16のフローチャートに沿って説明する。まず、通常観察モードにおいて、最も遠景の状態からスクリーニングを行う(S10)。通常観察モードでは、通常観察画像がモニタ18に表示される。このスクリーニング時に、ブラウニッシュエリアや発赤等の病変の可能性がある部位(以下、病変可能性部位という)を発見した場合(S11)には、モード切替SW22bを操作して、特殊観察モードに切り替える(S12)。そして、この特殊観察モードにおいて、病変可能性部位が低酸素状態になっているか否かの診断を行う。
 特殊観察モードでは、第1白色光及び第2白色光がセンサ48の撮像フレームに同期して交互に検体内に照射されるので、第1白色光が照射されたフレームではセンサ48はR1画像信号,G1画像信号,及びB1画像信号を出力し、第2白色光が照射されたフレームではR2画像信号,G2画像信号,及びB2画像信号を出力する。これら2フレーム分の画像信号に基づいて、信号比算出部81によって信号比B1/G2及び信号比R2/G2が画素毎に算出される(S13)。そして、酸素飽和度算出部83によって、これらの信号比B1/G2及び信号比R2/G2に基づいて、画素毎に酸素飽和度が算出される(S14)。
 また、周波数成分情報抽出部84においてB1画像信号、G2画像信号、及びR2画像信号はフーリエ変換され、例えば表層血管に対応する特定周波数成分の振幅(周波数成分情報)がそれぞれ抽出される(S15)。差分算出部85で各画像信号から抽出された特定周波数成分の振幅の差ΔBG,ΔGR,及びΔRBが算出される(S16)。
 こうして、酸素飽和度算出部83により酸素飽和度が算出され、差分算出部85で各振幅の差ΔBG,ΔGR,及びΔRBが算出されると、補正部86は、誤差テーブル88から上記各振幅の差ΔBG,ΔGR,及びΔRBに対応する酸素飽和度の誤差を算出し、酸素飽和度算出部83が算出した酸素飽和度に、算出した誤差を除去する補正処理をし、補正酸素飽和度を算出する(S17)。
 補正部86で補正酸素飽和度が算出されると、画像生成部87においてB2画像信号、G2画像信号、及びR2画像信号に補正酸素飽和度に応じたゲインを施した酸素飽和度画像が生成され(S18)、モニタ18に表示される(S19)。ドクターはモニタ18に表示された酸素飽和度画像に基づいて、病変可能性部位が低酸素状態になっているかどうかを確認する。
 図17に示すように、非拡大観察時の酸素飽和度画像101において病変可能性部位が低酸素領域102になっていることが確認され、この部分を拡大観察する場合について検討する。補正部86による酸素飽和度の補正処理を行わない場合は、酸素飽和度画像103のように、算出した酸素飽和度にアーチファクト104が発生する。そのため、検体を拡大したことによって、誤った(あるいは不正確な)領域が低酸素状態を示す擬似カラーで表示されてしまう。また、本来の低酸素領域102に高酸素飽和度のアーチファクトが重畳されると、非拡大観察時に観察されていた低酸素領域102すら観察し難くなってしまう場合もある。
 一方、内視鏡システム10では、酸素飽和度算出部83が第1白色光や第2白色光が均一であることを前提に算出した酸素飽和度を、そのまま酸素飽和度画像の生成に用いるのではなく、酸素飽和度算出部83が算出した酸素飽和度に対して補正部86でアーチファクトを除去する補正処理を行なってから酸素飽和度画像の生成に用いている。このため、例えば酸素飽和度画像105のように、低酸素領域102が拡大表示され、かつ、正確な酸素飽和度の情報が表示される。
 なお、こうした酸素飽和度(酸素飽和度画像)の表示は、通常観察モードに切り替えられるまで継続して行わる(S20)。また、診断を終了する場合には、内視鏡12の挿入部21を検体内から抜き出す(S21)。
 以上のように、内視鏡システム10は、酸素飽和度を算出及び表示する特殊観察モードにおいて、通常の観察では問題にならない程度の第1白色光や第2白色光の極僅かな不均一性が表れるほど、ズーム倍率を上げたり、先端部24を検体に近づけたりして拡大観察をする場合でも、正確な酸素飽和度を算出し、表示することができる。
 特に、内視鏡システム10は、酸素飽和度を算出するためのB1,G2,又はR2画像信号に表れる像のぼけ具合のバランス(特定周波数成分の振幅の差ΔBG,ΔGR,又はΔRB)から酸素飽和度の誤差を算出し、第1白色光や第2白色光が均一に検体に照射されていることを前提として算出された酸素飽和度から、算出した誤差を除去する。すなわち、アーチファクトによる酸素飽和度の誤差を算出し、除去するために、第1白色光や第2白色光の極僅かな不均一性を測定するための光学系等を設ける必要はない。このため、内視鏡12の挿入部21を太径化させることなく、正確な酸素飽和度の算出及び表示をすることができる。また、拡大観察時に第1白色光や第2白色光に不均一性があっても、正確な酸素飽和度の算出及び表示ができるので、内視鏡システム10では、実現可能な光源装置14及び照明光学系24a(例えば従来のものと同じもの)をそのまま使用できる。
 なお、上記第1実施形態では、酸素飽和度からアーチファクトを除く補正処理のために、誤差テーブル88に各振幅の差ΔBG,ΔGR,及びΔRBと、これらに対応する酸素飽和度の誤差を記憶しているが、必ずしも各振幅の差ΔBG,ΔGR,及びΔRBを全て用いる必要はなく、これらのうちのいずれか一つ以上を用いることで上記第1実施形態と同様の補正処理を行うことができる。例えば振幅の差ΔBG(B1画像信号とG2画像信号のぼけ具合のバランス)と、対応する酸素飽和度の誤差だけを用いても良い。
 なお、上記第1実施形態では、非拡大観察時に低酸素領域102を確認した後、その低酸素領域102の拡大観察をしているが、非拡大観察時に低酸素領域102を検出しない場合でも、拡大観察をしてもよい。この場合、拡大観察をしてはじめて低酸素領域が観察されることがあるが、内視鏡システム10は正確な酸素飽和度の算出及び表示をすることができる。
 なお、上記第1実施形態では、周波数成分抽出部84は、特定周波成分の振幅を周波数成分情報としてB1画像信号,G2画像信号,又はR2画像信号から抽出しているが、例えば、特定周波数の振幅を抽出する代わりに、特定の周波数帯域の振幅を抽出し、その合計値を周波数成分情報として用いても良い。また、周波数成分情報として、振幅だけでなく、位相を加味して用いても良いし、周波数成分情報として位相の情報だけを用いても良い。すなわち、周波数成分抽出部84がB1画像信号,G2画像信号,及びR2画像信号から抽出する周波数成分情報は、アーチファクトと対応付けることができる特定の周波数成分に関する情報であれば任意である。
 また、上記第1実施形態では、周波数成分抽出部84は、B1画像信号,G2画像信号,及びR2画像信号をフーリエ変換することにより、周波数成分情報(特定の周波数成分の振幅)を抽出しているが、フーリエ変換をする代わりに、特定の周波数成分を抽出する画像フィルタ(2次元フィルタ)を用いてB1画像信号,G2画像信号,及びR2画像信号から周波数成分情報を抽出しても良い。もちろん、周波数成分情報を抽出することができれば、フーリエ変換や画像フィルタによる方法以外の任意の方法で周波数成分情報を抽出しても良い。こうした周波数成分抽出部84が抽出する周波数成分情報や、周波数成分情報の抽出方法の任意性は、後述する他の実施形態や変形例についても同様である。
[第2実施形態]
 第1実施形態では、まず、信号比B1/G2及び信号比R2/G2に基づいて酸素飽和度を算出し、算出された酸素飽和度のデータに補正処理を施しているが、酸素飽和度の算出に用いる画像信号を補正し、補正した画像信号を用いて酸素飽和度を算出することによって、算出した酸素飽和度にアーチファクトが含まれないようにしても良い。
 この場合、第1実施形態の内視鏡システム10の酸素飽和度画像生成部76を、図18に示す酸素飽和度画像生成部201に置き換える。これ以外の構成は第1実施形態の内視鏡システム10と同様である。
 酸素飽和度画像生成部201は、補正部211と、信号比算出部213と、酸素飽和度算出部214とを備える。また、酸素飽和度画像生成部201は、第1実施形態のものと同じ周波数成分情報抽出部84,差分算出部85,相関関係記憶部82、及び画像生成部87を備える。
 補正部211は、差分算出部85で算出された特定周波数成分の振幅の差ΔBG,ΔGR,及びΔRBに基づいて、信号比B1/G2及び信号比R2/G2から酸素飽和度を算出した場合にアーチファクトが発生しないように補正処理をする。但し、補正処理を施す対象が、酸素飽和度のデータではなく、B1画像信号,G2画像信号,及びR2画像信号である。補正部211はこの画像信号に対する補正処理のために、補正係数テーブル211を備える。
 補正係数テーブル211には、フーリエ変換後のB1画像信号,G2画像信号,及びR2画像信号の各振幅において、特定周波数Ωのピーク値(及び特定周波数Ω近傍の波形)を、アーチファクトが発生しないB1画像信号,G2画像信号,及びR2画像信号の各振幅のバランスに一致するように変形するための補正係数が記憶されている。例えば、図19に示すように、補正係数テーブル211には、G2画像信号の特定周波数Ω成分の振幅を基準として、B1画像信号の特定周波数Ω成分の振幅を補正するための補正係数αと、R2画像信号の特定周波数Ω成分の振幅を補正するための補正係数βとが、各振幅の差ΔBG,ΔGR,及びΔRBと対応付けて記憶されている。
 なお、アーチファクトが発生しないB1画像信号、G2画像信号、及びR2画像信号のバランスについては、アーチファクトが発生しない非拡大観察時に得られる画像信号から予めわかっている。本実施形態では、信号比B1/G2及び信号比R2/G2に基づいて酸素飽和度を算出することから、拡大観察時のアーチファクトでアンバランスとなったB1画像信号及びG2画像信号の特定周波数Ωの振幅と、G2画像信号及びR2画像信号の特定周波数Ωの振幅とについて、それら振幅のバランスが整うように補正係数α及びβが定められる。
 補正係数α及びβは以下のようにして定められる。図20に示すように、アーチファクトが発生するB1画像信号,G2画像信号,及びR2画像信号の特定周波数Ωの振幅をYB1,YG2,及びYR2、アーチファクトが発生しない一定のバランスのB1画像信号,G2画像信号,及びR2画像信号の特定周波数Ωの振幅をAB1,AG2,及びAR2とする。この場合に、補正係数αは、α=(YG2/YB1)×(AB1/AG2)を満たすように定められており、振幅YB1に乗じることによって、B1画像信号の特定周波数Ω成分のピークを持ち上げ(あるいは引き下げ)、B1画像信号とG2画像信号の特定周波数Ω成分のバランスをアーチファクトが発生しないバランス(α×YB1:YG2=AB1:AG2)に整える。同様に、補正係数βは、β=(YG2/YR2)×(AR2/AG2)を満たすように定められており、振幅YR2に乗じることによって、R2画像信号の特定周波数Ω成分のピークを持ち上げ(あるいは引き下げ)、G2画像信号とR2画像信号の特定周波数Ω成分のバランスをアーチファクトが発生しないバランス(YG2:β×YR2=AG2:AR2)に整える。
 上記補正係数α及びβと、各振幅の差ΔBG,ΔGR,及びΔRBの対応関係は、第1実施形態のファントム89(図14参照)を、ズーム倍率や先端部24とファントム89との距離を変えながら観察をし、酸素飽和度を算出することにより取得することができる。例えば、ズームせず、ファントム89から十分に離れた位置から観察する(非拡大観察をする)ことで、アーチファクトが発生しない状態における一定の振幅AB1,AG2,及びAR2のバランスを算出することができる。次に、ズームにより、あるいは先端部24をファントム89に近づけ、アーチファクトが発生するようにして観察した場合の振幅YB1,YG2,及びYR2を算出する。そして、これらの測定した振幅に基づいて補正係数α及びβを算出する。こうして算出された補正係数α及びβは、振幅の差ΔBG,ΔGR,及びΔRBと対応付けられて補正係数テーブル212に記憶される。なお、振幅の差ΔBG,ΔGR,及びΔRBは、それぞれΔBG=YB1-YG2,ΔGR=YG2-YR2,ΔRB=YR2-YB1で算出される。
 補正部211は、補正係数テーブル212を参照し、差分算出部85から入力される差ΔBG,ΔGR,及びΔRBに対応する補正係数α及びβを算出する。また、補正部211は、周波数成分情報抽出部84からB1画像信号,G2画像信号,及びR2画像信号のフーリエ変換後のデータを取得し、B1画像信号のフーリエ変換後のデータの特定周波数Ω成分に補正係数αを乗じ、R2画像信号のフーリエ変換後のデータの特定周波数Ω成分には補正係数βを乗じる。そして、逆フーリエ変換により、これらのデータを画像信号に戻す。ここで生成される画像信号を、以下、B1補正画像信号、G2補正画像信号、及びR2補正画像信号という。
 なお、本実施形態では、G2画像信号を基準としているので、G2補正画像信号はG2画像信号と同一である。また、B1補正画像信号は、B1画像信号に含まれる様々な周波数成分のうち、特定周波数Ωの成分が補正係数αにより強調(あるいはぼかされた)された画像信号である。R2補正画像信号も同様である。なお、本実施形態では、G2画像信号を基準にB1画像信号とR2画像信号の特定周波数Ω成分のバランスを調整しているが、B1画像信号、G2画像信号、及びR2画像信号の特定周波数Ω成分のバランスさえ揃っていればアーチファクトは発生しないので、B1画像信号を基準にしても良いし、R1画像信号を基準にしても良い。また、別途、任意の基準を定めておき、B1画像信号、G2画像信号、及びR2画像信号にそれぞれ補正係数を乗じるようにしても良い。
 信号比算出部213は、第1実施形態の信号比算出部81と同様に、信号比B1/G2及び信号比R2/G2を算出する。但し、センサ48が出力するB1画像信号,G2画像信号,及びR2画像信号を用いるのではなく、補正部211で生成されたB1補正画像信号、G2補正画像信号、及びR2補正画像信号を用いる。
 酸素飽和度算出部214は、第1実施形態の酸素飽和度算出部83と同様に相関関係記憶部82に記憶された相関関係を参照して酸素飽和度を算出する。但し、酸素飽和度算出部214は、B1補正画像信号、G2補正画像信号、及びR2補正画像信号から生成された信号比B1/G2及び信号比R2/G2を用いる。また、酸素飽和度算出部214は、補正部211によって特定周波数Ωの振幅のバランスが調節されたB1補正画像信号、G2補正画像信号、及びR2補正画像信号を用いるので、酸素飽和度算出部214が算出する酸素飽和度のデータにアーチファクトは発生しない。
 画像生成部87は、酸素飽和度算出部214で算出された酸素飽和度と、B2画像信号,G2画像信号,及びR2画像信号を用いて酸素飽和度画像を生成する。酸素飽和度算出部214で算出された酸素飽和度にアーチファクトは含まれないので、画像生成部87が生成する酸素飽和度画像にアーチファクトが現れることもない。
 なお、第1実施形態及び第2実施形態では、B1画像信号,G2画像信号,及びR2画像信号の特定周波数Ω成分の振幅の差ΔBG,ΔGR,及びΔRBと、酸素飽和度の誤差(第1実施形態)や補正係数(第2実施形態)を対応付けたテーブルを用いているが、B1画像信号,G2画像信号,及びR2画像信号の特定周波数Ω成分の振幅の差ΔBG,ΔGR,及びΔRBの代わりに、特定周波数Ω成分の振幅の比を用いても良い。また、表層血管の周波数を特定周波数Ωとしているが、どのような組織の周波数を特定周波数とするかは任意である。
 なお、第1実施形態及び第2実施形態の内視鏡システムでは、内視鏡12の先端部24に蛍光体44を設けたが、これに代えて図21に示す内視鏡システム150のように、光源装置14の内部に蛍光体44を設けても良い。この場合には、第1青色レーザ光源(473LD)34及び第2青色レーザ光源(445LD)36と、ライトガイド41との間に蛍光体44を設ける。そして、第1青色レーザ光源34または第2青色レーザ光源36に、第1青色レーザ光または第2青色レーザ光を蛍光体44に向けて照射させる。これにより、第1白色光または第2白色光が発せられる。この第1または第2白色光は、ライトガイド41を介して、検体内に照射される。それ以外については、第1実施形態及び第2実施形態の内視鏡システムと同様である。
 なお、第1実施形態及び第2実施形態では、第1青色レーザ光及び第2青色レーザ光を同一の蛍光体44に入射させているが、第1青色レーザ光と第2青色レーザ光とをそれぞれ別々の第1蛍光体又は第2蛍光体に入射させても良い。
[第3実施形態]
 図22に示すように、内視鏡システム300の光源装置14には、第1青色レーザ光源34及び第2青色レーザ光源36並びに光源制御部40の代わりに、LED(Light Emitting Diode)光源ユニット301と、LED光源制御部304が設けられている。また、内視鏡システム300の照明光学系24aには蛍光体44が設けられていない。それ以外については、第1実施形態~第3実施形態の内視鏡システムと同様である。
 LED光源ユニット301は、特定の波長帯域に制限された光を発光する光源として、R-LED301a,G-LED301b,及びB-LED301cを有する。図23に示すように、R-LED301aは、600~720nmの赤色領域の赤色帯域光(以下、単に赤色光という)し、G-LED301bは、480~620nmの緑色領域の緑色帯域光(以下、単に緑色光)を発光する。また、B-LED301cは、400~500nmの青色領域の青色帯域光(以下、単に青色光という)を発光する。
 また、LED光源ユニット301は、B-LED301cが発する青色光の光路上に挿抜されるハイパスフィルタ(HPF)302を有する。ハイパスフィルタ302は、450nm以下の波長帯域の青色光をカットし、450nmより長波長帯域の光を透過する。
 ハイパスフィルタ302のカットオフ波長(450nm)は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数がほぼ等しい波長であり(図10参照)、この波長を境に酸化ヘモグロビンと還元ヘモグロビンの吸光係数が逆転する。本実施形態の場合、相関関係記憶部82に記憶された相関関係は、酸化ヘモグロビンの吸光係数が還元ヘモグロビンの吸光係数よりも大きい場合のものなので、カットオフ波長以下の波長帯域に基づくシグナルは、信号比B1/G2が473nmで測定する本来の値よりも低下し、不正確な酸素飽和度が算出される原因になる。このため、ハイパスフィルタ302は、酸素飽和度を算出するためのB1画像信号を取得する時に、カットオフ波長以下の波長帯域の光が検体に照射されないようにする。
 したがって、ハイパスフィルタ302は、特殊観察モード時にB-LED301cの前に挿入され、通常観察モード時には退避位置に退避される。ハイパスフィルタ302の挿抜は、LED光源制御部304の制御の下、HPF挿抜部303によって行われる。
 LED光源制御部304は、LED光源ユニット301の各LED301a~301cの点灯/消灯、及びハイパスフィルタ302の挿抜を制御する。具体的には、図24に示すように、通常観察モードの場合、LED光源制御部304は、各LED301a~301cを全て点灯させ、ハイパスフィルタ302はB-LED301cの光路上から退避させる。
 一方、図25に示すように、特殊観察モードの場合、LED光源制御部304は、ハイパスフィルタ302をB-LED301cの光路上に挿入する。そして、1フレーム目は、B-LED301cを点灯させ、R-LED301a及びG-LED301bを消灯させることにより、450nm以下の波長帯域がカットされた青色光を検体内に照射させる。そして、2フレーム目は、R-LED301a、G-LED301b、及びB-LED301cを全て点灯させ、B-LED301cが発する青色光のうち450nm以下の波長帯域がカットされた青色光と、R-LED301aが発する赤色光と、G-LED301bが発する緑色光とからなる白色光を検体内に照射させる。これにより、センサ48は、1フレーム目には、B1画像信号を出力し、2フレーム目にはR2画像信号,G2画像信号,及びB2画像信号をそれぞれ出力する。したがって、その後の処理は第1実施形態及び第2実施形態の内視鏡システムと同様に行うことができる。
 なお、第3実施形態では、特殊観察モード時の1フレーム目及び2フレーム目ともハイパスフィルタ302を挿入したまま検体を撮像しているが、1フレーム目だけハイパスフィルタ302を挿入し、2フレーム目にはハイパスフィルタ302を退避させても良い。また、特殊観察モード時の1フレーム目では、B-LED301cだけを点灯させ、青色光だけを検体に照射しているが、1フレーム目でもR-LED301a及びG-LED301bを点灯させ、R1画像信号及びG1画像信号をセンサ48に出力させても良い。
[第4実施形態]
 図26に示すように、内視鏡システム400の光源装置14には、第1青色レーザ光34及び第2青色レーザ光36並びに光源制御部40の代わりに、広帯域光源401と、回転フィルタ402と、回転フィルタ制御部403とが設けられている。また、内視鏡システム400のセンサ405は、カラーフィルタが設けられていないモノクロの撮像素子である。それ以外については、第1~第3実施形態の内視鏡システムと同じである。
 広帯域光源401は、例えばキセノンランプ、白色LED等からなり、波長帯域が青色から赤色に及ぶ白色光を発する。回転フィルタ402は、通常観察モード用フィルタ410と特殊観察モード用フィルタ411とを備えており(図27参照)、広帯域光源401から発せられる白色光がライトガイド41に入射される光路上に、通常観察モード用フィルタ410を配置する通常観察モード用の第1位置と、特殊観察モード用フィルタ411を配置する特殊観察モード用の第2位置との間で径方向に移動可能である。この第1位置と第2位置への回転フィルタ402の相互移動は、選択された観察モードに応じて回転フィルタ制御部403によって制御される。また、回転フィルタ402は、第1位置または第2位置に配置された状態で、センサ405の撮像フレームに応じて回転する。回転フィルタ402の回転速度は、選択された観察モードに応じて回転フィルタ制御部403によって制御される。
 図27に示すように、通常観察モード用フィルタ410は、回転フィルタ402の内周部に設けられている。通常観察モード用フィルタ410は、赤色光を透過するRフィルタ410aと、緑色光を透過するGフィルタ410bと、青色光を透過するBフィルタ410cとを有する。したがって、回転フィルタ402を通常光観察モード用の第1位置に配置すると、広帯域光源401からの白色光は、回転フィルタ402の回転に応じてRフィルタ410a、Gフィルタ410b、及びBフィルタ410cのいずれかに入射する。このため、検体には、透過したフィルタに応じて、赤色光、緑色光、及び青色光が順次照射され、センサ405は、これらの反射光を受光することによりそれぞれ検体を撮像し、R画像信号、G画像信号、及びB画像信号を順次出力する。
 また、特殊観察モード用フィルタ411は、回転フィルタ402の外周部に設けられている。特殊観察モード用フィルタ411は、赤色光を透過するRフィルタ411aと、緑色光を透過するGフィルタ411bと、青色光を透過するBフィルタ411cと、473±10nmの狭帯域光を透過する狭帯域フィルタ411dとを有する。したがって、回転フィルタ402を通常光観察モード用の第2位置に配置すると、広帯域光源401からの白色光は、回転フィルタ402の回転に応じてRフィルタ411a、Gフィルタ411b、Bフィルタ411c、及び狭帯域フィルタ411dのいずれかに入射する。このため、検体には、透過したフィルタに応じて、赤色光、緑色光、青色光,及び狭帯域光(473nm)が順次照射され、センサ405は、これらの反射光によりそれぞれ検体を撮像することにより、R画像信号、G画像信号、B画像信号、及び狭帯域画像信号を順次出力する。
 特殊観察モードで得られるR画像信号とG画像信号は、第1実施形態のR1(またはR2)画像信号とG1(またはG2)画像信号にそれぞれ対応する。また、特殊観察モードで得られるB画像信号は、第1実施形態のB2画像信号に対応し、狭帯域画像信号はB1画像信号に対応する。したがって、その後の処理は第1~第3実施形態の内視鏡システムと同様に行うことができる。
 なお、第1~第4実施形態(特に第1実施形態及び第2実施形態)では、酸素飽和度の誤差の補正や画像信号の補正を行なっているが、特定周波数Ω成分を抽出や各振幅の差ΔBG,ΔGR,及びΔRBの算出、並びにこれらを用いた酸素飽和度の誤差や画像信号の補正は、B1画像信号、G2画像信号、及びR2画像信号をそれぞれ複数の領域に分割し、各分割領域で行うことが好ましい。例えば、図28に示すように、B1画像信号501を縦横に3×3の合計9個の分割領域501a~501iに分割する。次いで、各分割領域501a~501iで、特定周波数Ω成分を抽出して、それぞれ振幅の差ΔBG,ΔGR,及びΔRBの算出を行う。そして、各分割領域501a~501i毎に算出した振幅の差ΔBG,ΔGR,及びΔRBに基づいて、分割領域501a~501i毎に酸素飽和度の誤差の補正や画像信号の補正を行うことが好ましい。G2画像信号及びR2画像信号についても同様である。
 このように、B1画像信号,G2画像信号,及びR2画像信号を複数の分割領域501a~501iに分け、各分割領域501a~501iで、酸素飽和度の誤差の補正や画像信号の補正を行うと、補正精度が向上する。例えば、図29に示すように、先端部24で検体505(例えば管腔壁)を正面に捉えて観察をする場合、画像信号510を9個に分割した各分割エリアのうち、中央の分割領域510iに写し出された検体505と、先端部24との距離(撮影距離)をd1とすると、その他の分割領域510a~510hでは、各分割領域501a~510hに対応する被写体505の各部分と先端部24との距離はd2であり分割領域510iよりも長い(d2>d1)。
 このため、画像信号510の全体を一括でフーリエ変換して特定周波数Ω成分の振幅を抽出し、振幅の差ΔBG,ΔGR,及びΔRBを算出すると、中央の分割領域510iと周辺の分割領域510a~510hとで振幅の差ΔBG,ΔGR,及びΔRBが異なる値になる。また、ズーム倍率が高いほど、あるいは先端部24が検体505に近いほど、この違いは顕著になる。したがって、全ての分割領域510a~501iで同じように酸素飽和度の誤差の補正や画像信号の補正を行うと、中央の分割領域510iまたは周辺の分割領域510a~510h、あるいはこれらの両方の領域で補正に誤差が生じる。一方、分割領域510a~510i毎に酸素飽和度の誤差の補正や画像信号の補正を行えば、各領域で最も正確な補正をすることができる。
 また、図30に示すように、先端部24が検体505に対して平行に近い状態で検体505を観察する場合、得られる画像信号520内の各分割領域520a~520i間での撮影距離の差がさらに大きくなる。例えば、画像信号520の下段の3つの分割領域520e~520gでは、先端部24と検体505の距離はd3となり最も短いが、中段の3つの分割領域520d,520i,及び520hではd3よりも長いd4となり、さらに上段の3つの分割領域520a~520cでは、最も長いd5となる(d3<d4<d5)。このように画像信号520内での撮影距離に差が大きい場合は、画像信号520の全体(全分割領域520a~520i)に対して一括して振幅の差ΔBG,ΔGR,ΔRBを算出すると、酸素飽和度の誤差の補正や画像信号の補正が不正確になりやすい。しかし、各分割領域520a~520iの各々の領域で補正を行えば、画像信号520の全体に対して一括した補正を行う場合よりも正確に酸素飽和度の誤差の補正や画像信号の補正を行うことができる。
 なお、図28~図30では、画像信号を3×3の9個の分割領域に分け、各分割領域で酸素飽和度の誤差の補正や画像信号の補正を行なっているが、領域の分割数は任意である。但し、分割が細かいほど補正精度が向上するが、補正処理に時間を要する。このため、補正処理の速度と補正精度を両立させるためには、上記のように3×3の全9個程度の領域に画像信号を分割することが好ましい。
 なお、第1~第4実施形態では、アーチファクトの有無にかかわらず、酸素飽和度の誤差や画像信号の補正を必ず行なっているが、補正を行うか否かを決定するための閾値を設定しても良い。例えば、誤差テーブル88に記憶された酸素飽和度の誤差が第1閾値(例えば±5%)よりも小さい場合には補正処理を行わず、第1閾値以上の誤差がある場合にだけ補正処理を行うようにしても良い。また、補正係数テーブル212に記憶された補正係数α及びβがともに第2閾値よりも1.0に近い場合には、画像信号の補正を行わず、補正係数α及びβがともに第2閾値以上の場合にだけ画像信号の補正を行うようにしても良い。もちろん、補正係数αと補正係数βとで異なる閾値を設定しても良い。
 また、補正処理を行う上限を定める閾値を設定しても良い。設定した閾値を超えるほど酸素飽和度の誤差や補正係数が著しく大きい場合には、こうした補正処理自体の誤差が大きく、信頼できる酸素飽和度の値を算出できない場合があるからである。
 なお、第1~第4実施形態では、信号比B1/G2と信号比R2/G2に基づいて酸素飽和度を算出しているが、信号比B1/G2のみに基づいて酸素飽和度を算出しても良い。この場合には、相関関係記憶部82には信号比B1/G2と酸素飽和度の相関関係を記憶しておけば良い。
 なお、第1~第4実施形態では、酸素飽和度を画像化した酸素飽和度画像を生成及び表示しているが、これに加えて、血液量を画像化した血液量画像を生成及び表示しても良い。血液量は信号比R2/G2と相関があるので、信号比R2/G2に応じて異なる色を割り当てることで、血液量を画像化した血液量画像を作成することができる。
 なお、第1~第4実施形態では酸素飽和度を算出しているが、これに代えて、あるいはこれに加えて、「血液量(信号比R2/G2)×酸素飽和度(%)」から算出される酸化ヘモグロビンインデックスや、「血液量×(1-酸素飽和度)(%)」から算出される還元ヘモグロビンインデックス等、他の生体機能情報を算出しても良い。
 10,150,300,400 内視鏡システム
 76,201 酸素飽和度画像生成部
 81,213 信号比算出部
 82 相関関係記憶部
 83,214 酸素飽和度算出部
 84 周波数成分情報抽出部
 85 差分算出部
 86,211 補正部
 88 誤差テーブル
 87 画像生成部
 102 低酸素領域
 104 アーチファクト
 212 補正係数テーブル

Claims (16)

  1.  第1信号光と第2信号光とを検体に照射する光源装置と、
     前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ該検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、
     前記第1画像信号と前記第2画像信号との信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出部と、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出部と、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記酸素飽和度を補正する補正部と、
     前記補正部によって補正された前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する画像生成部と、
     を備える内視鏡システム。
  2.  前記周波数成分情報は、特定の周波数成分の振幅である請求項1に記載の内視鏡システム。
  3.  前記補正部は、前記第1画像信号と前記第2画像信号の前記振幅の差に基づいて前記酸素飽和度の補正をする請求項2に記載の内視鏡システム。
  4.  前記補正部は、
    前記第1画像信号と前記第2画像信号の前記周波数成分情報と、前記酸素飽和度の誤差とを対応付けた誤差テーブルを有し、
    前記誤差テーブルを参照して前記第1画像信号と前記第2画像信号との前記周波数成分情報に対応する前記酸素飽和度の誤差を算出し、
    算出した前記誤差を前記酸素飽和度から除く補正をする請求項1~3のいずれか1項に記載の内視鏡システム。
  5.  前記補正部は、前記第1画像信号及び前記第2画像信号を複数の領域に分割し、複数の前記領域毎に前記酸素飽和度の補正をする請求項1~4のいずれか1項に記載の内視鏡システム。
  6.  前記周波数成分情報は、前記検体の表層血管に対応する周波数成分に関する情報である請求項1~4のいずれか1項に記載の内視鏡システム。
  7.  第1信号光と第2信号光とを検体に照射する光源装置と、
     前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ該検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出部と、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記第1画像信号と前記第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する補正部と、
     前記第1補正画像信号と前記第2補正画像信号の信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出部と、
     前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する画像生成部と、
     を備える内視鏡システム。
  8.  前記周波数成分情報は、特定の周波数成分の振幅である請求項7に記載の内視鏡システム。
  9.  前記補正部は、前記第1画像信号と前記第2画像信号の前記振幅の差に基づいて前記第1画像信号と前記第2画像信号の補正をする請求項8に記載の内視鏡システム。
  10.  前記補正部は、
    前記第1画像信号と前記第2画像信号の前記周波数成分情報と、前記第1画像信号または前記第2画像信号に乗じる補正係数とを対応付けた補正係数テーブルを有し、
    前記補正係数テーブルを参照して前記第1画像信号と前記第2画像信号との前記周波数成分情報に対応する前記補正係数を算出する請求項7~9のいずれか1項に記載の内視鏡システム。
  11.  第1信号光と第2信号光とを検体に照射する光源装置と、前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ前記検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムのプロセッサ装置において、
     前記第1画像信号と前記第2画像信号との信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出部と、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出部と、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記酸素飽和度を補正する補正部と、
     前記補正部によって補正された前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する酸素飽和度画像生成部と、
     を備えるプロセッサ装置。
  12.  第1信号光と第2信号光とを検体に照射する光源装置と、前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ前記検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムのプロセッサ装置において、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出部と、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記第1画像信号と前記第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する補正部と、
     前記第1補正画像信号と前記第2補正画像信号との信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出部と、
     前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する画像生成部と、
     を備えるプロセッサ装置。
  13.  第1信号光と第2信号光とを発する光源装置と、前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ前記検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、を有する内視鏡システムの作動方法において、
     前記第1画像信号と前記第2画像信号との信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出ステップと、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出ステップと、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記酸素飽和度を補正する補正ステップと、
     前記補正ステップで補正された前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する画像生成ステップと、
     を備える内視鏡システムの作動方法。
  14.  第1信号光と第2信号光とを発する光源装置と、前記検体で反射した前記第1信号光の反射光を受光することにより該検体を撮像して得られた第1画像信号を出力し、かつ前記検体で反射した前記第2信号光の反射光を受光することにより該検体を撮像して得られた第2画像信号を出力するセンサと、を備える内視鏡システムの作動方法において、
     前記第1画像信号と前記第2画像信号とから周波数成分情報を抽出する周波数成分情報抽出ステップと、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報に基づいて、前記第1画像信号と前記第2画像信号とを補正し、第1補正画像信号と第2補正画像信号とを生成する補正ステップと、
     前記第1補正画像信号と前記第2補正画像信号との信号比に基づいて前記検体の酸素飽和度を算出する酸素飽和度算出ステップと、
     前記酸素飽和度に基づいて前記検体の酸素飽和度を表す酸素飽和度画像を生成する画像生成ステップと、
     を備える内視鏡システムの作動方法。
  15.  酸素飽和度が既知の血液を含む血液入り材料が特定の空間周波数で配列されたファントムに第1信号光と第2信号光とをそれぞれ照射し、前記ファントムで反射した前記第1信号光の反射光を受光することにより前記ファントムを撮像して前記第1信号光に対応する第1画像信号を取得し、前記ファントムで反射した前記第2信号光の反射光を受光することにより前記ファントムを撮像して前記第2信号光に対応する第2画像信号を取得する撮像ステップと、
     前記第1画像信号と前記第2画像信号とから前記空間周波数に対応する周波数成分情報を抽出する周波数成分情報抽出ステップと、
     前記第1画像信号と前記第2画像信号との信号比に基づいて前記血液入り材料の酸素飽和度を算出する酸素飽和度算出ステップと、
     前記酸素飽和度算出ステップで算出された酸素飽和度と、前記血液の酸素飽和度との誤差を算出する誤差算出ステップと、
     前記第1画像信号と前記第2画像信号との前記周波数成分情報と、前記誤差を対応付けて記憶する記憶ステップと、
     を備えるテーブル作成方法。
  16.  酸素飽和度が既知の血液を含む血液入り材料が特定の空間周波数で配列されたファントムに第1信号光と第2信号光とをそれぞれ照射し、前記ファントムで反射した前記第1信号光の反射光を受光することにより前記ファントムを撮像して前記第1信号光に対応する第1画像信号を取得し、前記ファントムで反射した前記第2信号光の反射光を受光することにより前記ファントムを撮像して前記第2信号光に対応する第2画像信号を取得する第1撮像ステップと、
     前記ファントムに前記第1信号光と前記第2信号光とをそれぞれ照射し、前記ファントムで反射した前記第1信号光の反射光を受光し、前記第1撮像ステップと比較して前記ファントムを拡大して撮像することにより前記第1信号光に対応する第3画像信号を取得し、前記ファントムで反射した前記第2信号光の反射光を受光し、前記第1撮像ステップと比較して前記ファントムを拡大して撮像することにより前記第2信号光に対応する第4画像信号を取得する第2撮像ステップと、
     前記第1画像信号と前記第2画像信号とから前記空間周波数に対応する周波数成分情報を抽出する第1周波数成分情報抽出ステップと、
     前記第3画像信号と前記第4画像信号とから前記空間周波数に対応する周波数成分情報を抽出する第2周波数成分情報抽出ステップと、
     前記第3画像信号と前記第4画像信号との前記周波数成分情報の比を、前記第1画像信号と前記第2画像信号との前記周波数成分情報の比に等しくする補正係数を算出する補正係数算出ステップと、
     前記第3画像信号及び前記第4画像信号との前記周波数成分情報と、前記補正係数とを対応付けて記憶する記憶ステップと、
     を備えるテーブル作成方法。
PCT/JP2014/069503 2013-08-23 2014-07-24 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法 Ceased WO2015025672A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013173983A JP6129686B2 (ja) 2013-08-23 2013-08-23 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法
JP2013-173983 2013-08-23

Publications (1)

Publication Number Publication Date
WO2015025672A1 true WO2015025672A1 (ja) 2015-02-26

Family

ID=52483453

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/069503 Ceased WO2015025672A1 (ja) 2013-08-23 2014-07-24 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法

Country Status (2)

Country Link
JP (1) JP6129686B2 (ja)
WO (1) WO2015025672A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108983A (ja) * 2015-12-17 2017-06-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6448509B2 (ja) * 2015-10-30 2019-01-09 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP6561000B2 (ja) * 2016-03-09 2019-08-14 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6782172B2 (ja) * 2017-01-06 2020-11-11 Hoya株式会社 キャリブレーション用試料、内視鏡システム、及びキャリブレーション用試料の作製方法
CN110072427B (zh) * 2017-01-06 2021-12-28 Hoya株式会社 校准用固体试样、内窥镜系统、以及固体试样的制备方法
WO2022238800A1 (en) * 2021-05-14 2022-11-17 Hoya Corporation Multi-sensor system having an optical beam splitter

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036436A (ja) * 2001-04-27 2003-02-07 Fuji Photo Film Co Ltd 規格化画像生成方法および装置
JP2006181387A (ja) * 2006-03-07 2006-07-13 Olympus Corp 内視鏡装置
JP2010119742A (ja) * 2008-11-21 2010-06-03 Fujifilm Corp 内視鏡装置およびその制御方法
JP2012070993A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡システム
JP2012090725A (ja) * 2010-10-26 2012-05-17 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び画像処理方法
JP2012125402A (ja) * 2010-12-15 2012-07-05 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置及び機能情報取得方法
JP2012143399A (ja) * 2011-01-12 2012-08-02 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置及び画像生成方法
JP2012213551A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
JP2012213552A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036436A (ja) * 2001-04-27 2003-02-07 Fuji Photo Film Co Ltd 規格化画像生成方法および装置
JP2006181387A (ja) * 2006-03-07 2006-07-13 Olympus Corp 内視鏡装置
JP2010119742A (ja) * 2008-11-21 2010-06-03 Fujifilm Corp 内視鏡装置およびその制御方法
JP2012070993A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡システム
JP2012090725A (ja) * 2010-10-26 2012-05-17 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び画像処理方法
JP2012125402A (ja) * 2010-12-15 2012-07-05 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置及び機能情報取得方法
JP2012143399A (ja) * 2011-01-12 2012-08-02 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置及び画像生成方法
JP2012213551A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
JP2012213552A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP2013056001A (ja) * 2011-09-07 2013-03-28 Olympus Corp 蛍光観察装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108983A (ja) * 2015-12-17 2017-06-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
EP3391801A4 (en) * 2015-12-17 2019-01-09 Fujifilm Corporation ENDOSCOPY SYSTEM, PROCESSOR DEVICE AND OPERATING METHOD OF ENDOSCOPY SYSTEM
US10842423B2 (en) 2015-12-17 2020-11-24 Fujifilm Corporation Endoscope system, processor device, and operation method of endoscope system

Also Published As

Publication number Publication date
JP2015039617A (ja) 2015-03-02
JP6129686B2 (ja) 2017-05-17

Similar Documents

Publication Publication Date Title
JP6109695B2 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法並びに距離測定装置
JP6039639B2 (ja) 内視鏡システム、内視鏡システム用プロセッサ装置、内視鏡システムの作動方法、及び内視鏡システム用プロセッサ装置の作動方法
JP5887367B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP5992936B2 (ja) 内視鏡システム、内視鏡システム用プロセッサ装置、内視鏡システムの作動方法、内視鏡システム用プロセッサ装置の作動方法
JP6010571B2 (ja) 内視鏡システム、内視鏡システム用プロセッサ装置、内視鏡システムの作動方法、内視鏡システム用プロセッサ装置の作動方法
JP6140056B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
EP2904956B1 (en) Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
JP6092792B2 (ja) 内視鏡システム用プロセッサ装置、内視鏡システム、内視鏡システム用プロセッサ装置の作動方法、内視鏡システムの作動方法
JP6129686B2 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法
JP6099518B2 (ja) 内視鏡システム及び作動方法
JP6099529B2 (ja) 内視鏡システム、プロセッサ装置及び光源装置並びに作動方法
JP5990141B2 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法
JP6389299B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
JP6196599B2 (ja) 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14837569

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14837569

Country of ref document: EP

Kind code of ref document: A1